Tinexta Cyber, nata dall’unione delle società Corvallis, Swascan e Yoroi, è uno dei poli italiani più importanti nel campo della cybersecurity. Con i propri servizi sviluppati in Italia e allineati alle norme UE su data residency, data protection e GDPR, l'azienda garantisce sicurezza nei processi di trasformazione digitale delle aziende e del sistema Paese. Offre servizi di assessment e advisory, curando il design, lo sviluppo e l’integrazione delle soluzioni, svolgendo attività di controllo e management per conto dei clienti e intervenendo per anticipare, bloccare e risolvere le situazioni di rischio.
Tinexta Cyber fa parte di Tinexta SpA, Gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni. È quotato all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita. Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2.500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.
Ricerchiamo una figura di Big Data Developer, con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data.
Principali responsabilità:
* Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell’arte
* Implementare pipeline di acquisizione dati per l’alimentazione di data lake
* Implementare pipeline di data analytics
* Analizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficienti
* Effettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistenti
* Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/Impala
* Esperienza su Apache Kafka
* Buona conoscenza di SQL
* Conoscenza del linguaggio Python e/o Scala
* Costituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory)
* È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data Warehouse
* È apprezzata la conoscenza di piattaforme cloud (Azure)
* Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamenti
* Conoscenza della lingua inglese
* Capacità di troubleshooting
Sede di lavoro: Roma o Milano, ma si valutano anche candidature a distanza
#J-18808-Ljbffr