Tinexta Cyber, nata dall’unione delle società Corvallis, Swascan e Yoroi, è uno dei poli italiani più importanti nel campo della cybersecurity. Con i propri servizi sviluppati in Italia e allineati alle norme UE su data residency, data protection e GDPR, l'azienda garantisce sicurezza nei processi di trasformazione digitale delle aziende e del sistema Paese. Offre servizi di assessment e advisory, curando il design, lo sviluppo e l’integrazione delle soluzioni, svolgendo attività di controllo e management per conto dei clienti e intervenendo per anticipare, bloccare e risolvere le situazioni di rischio.Tinexta Cyber fa parte di Tinexta SpA, Gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni. È quotato all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita. Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2.500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation.POSIZIONERicerchiamo una figura di Big Data Developer, con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data.Principali responsabilità:Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell’arteImplementare pipeline di acquisizione dati per l’alimentazione di data lakeImplementare pipeline di data analyticsAnalizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficientiEffettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistentiRequisiti:Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/ImpalaEsperienza su Apache KafkaBuona conoscenza di SQLConoscenza del linguaggio Python e/o ScalaCostituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory)È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data WarehouseÈ apprezzata la conoscenza di piattaforme cloud (Azure)Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamentiConoscenza della lingua ingleseCapacità di troubleshootingSede di lavoro: preferenziale Lecce, ma si valutano anche candidature a distanza