Solution Data Architect GFT Italia sta cercando una/un Solution Data Architect con competenze in ambito Dati, con almeno 5 anni di esperienza nel ruolo, da inserire all’interno della nostra Practice Data&AI. Una risorsa che sappia valutare e definire le strategie correlate alle architetture Dati, sia tradizionali sia basate su tecnologie Big Data e che abbia ben chiara l’importanza degli aspetti di governance delle informazioni e della sicurezza associata alla gestione dei dati. Responsabilità: Supportare la definizione delle strategie di utilizzo dei dati abilitate dalla architettura tecnologica, attraverso assessment e l’identificazione della migliore soluzione target nel contesto cliente. Definire e sviluppare le architetture dati dei nostri clienti (per le componenti di Data Engineering, Business Intelligence e Advanced Analytics) anche attraverso POC, documentandone lo sviluppo e identificando potenziali aree di miglioramento all’interno dei progetti. Offrire supporto in fase di analisi e discussione della proposta di progetto (RFP, RFI, etc) e collaborare a stretto contatto con i team competenti per garantire che la soluzione sviluppata sia allineata alle esigenze del cliente e alla GFT Value Proposition. Garantire la qualità del progetto attraverso pratiche di quality assurance. Presidiare la formazione professionale e tecnica di tutte le figure coordinate nell’area di competenza. Competenze tecniche: Data Management: Conoscenza avanzata di tecniche e strumenti di Data Management, incluse pratiche di data ingestion, storage, processing e integration. Tecnologie Big Data: Esperienza con ecosistemi Hadoop, Spark, e piattaforme cloud come AWS, Azure, e Google Cloud Platform. Data Warehousing: Competenze nella progettazione e implementazione di soluzioni di data warehousing utilizzando tecnologie come Redshift, BigQuery, Snowflake. Data Engineering: Esperienza con pipeline di dati e strumenti ETL/ELT come Apache NiFi, Talend, e Informatica. Database NoSQL: Conoscenza di database NoSQL come MongoDB, Cassandra, HBase, e tecnologie di data lake. Data Governance: Padronanza dei principali tools di Data Governance (IBM IGC, Informatica Axon, EDC, ecc.) e Data Quality (IDQ, Irion, ecc.). Machine Learning Operations (MLOps): Conoscenza nella gestione di modelli di Machine Learning in produzione, compresi strumenti come MLflow e TensorFlow (TFX). Modellazione Dati: Competenza specialistica nella modellazione dei dati: Fact-Dimensioni, Data Vault, ER, SCD, ecc. Sicurezza dei dati: Conoscenza delle migliori pratiche di sicurezza per la protezione dei dati, incluse tecniche di crittografia e gestione degli accessi. Metodologie di Project Management: Conoscenza approfondita e autonoma delle principali metodologie di Project Management, incluse metodologie Agile e Scrum. Risk Analysis: Conoscenza generale delle principali metodologie di Risk Analysis e gestione dei rischi associati a progetti Big Data. Documentazione: Competenza specialistica nella predisposizione di documentazione progettuale, architetturale e funzionale. Strumenti di produttività: Padronanza dei principali strumenti di MS Office (Excel, PowerPoint, Word, Project). Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento J-18808-Ljbffr