Tinexta Cyber è il Polo Italiano della cybersecurity, con un focus sui temi della sicurezza digitale, forti competenze verticali e soluzioni custom. Corvallis, Yoroi e Swascan sono le company che formano Tinexta Cyber. Grazie ai nostri servizi, interamente basati in Italia, nel rispetto della compliance EU su data residency, data protection e GDPR, garantiamo una transizione sicura nella trasformazione digitale delle aziende clienti e del sistema Paese. Rendiamo accessibili i servizi di cybersecurity nei Financial Services, per le Telco e per le PMI, nel settore Pubblico e Professionals, per colmare il gap di security che ancora oggi caratterizza questo segmento importante del sistema produttivo. Offriamo servizi di assessment e advisory per la cybersecurity. Ci occupiamo del design, del development e dell’implementazione delle soluzioni. Ne seguiamo il monitoring e il management per conto dei clienti e interveniamo per anticipare, bloccare e risolvere situazioni di rischio, garantendo le condizioni di business continuity e contribuendo a dare forma e sostanza a organizzazioni cyber-resilient, che sappiano interpretare con sicurezza tutte le fasi di un approccio strategico in fatto di cybersecurity predittiva, preventiva e proattiva. Tinexta Cyber, è il polo cyber di Tinexta SpA, un gruppo industriale che offre soluzioni innovative per la trasformazione digitale e la crescita di imprese, professionisti, istituzioni. Quotata all'Euronext STAR Milan con un solido azionista di riferimento istituzionale e inserito nell'indice europeo Tech Leader come azienda tech ad alto tasso di crescita. Basata in Italia e presente in 12 Paesi tra Europa e America Latina con oltre 2500 dipendenti, Tinexta è attiva nei settori strategici del Digital Trust, Cyber Security e Business Innovation. Posizione: Tinexta Cyber ricerca un Big Data Developer, con referenze nello sviluppo di soluzioni di ETL e/o DWH, da 1 a 3 anni di esperienza nello sviluppo di soluzioni di Data Analytics con tecnologie Big Data. Requisiti: Il candidato sarà chiamato a: Gestire data lake e definirne la struttura applicando architetture e formati allo stato dell’arte Implementare pipeline di acquisizione dati per l’alimentazione di data lake Implementare pipeline di data analytics Analizzare e ottimizzare le performance dei processi di elaborazione dati individuando punti di intervento e proponendo alternative di modellazione e partizionamento dati, sia at-rest che in-memory, più efficienti Effettuare attività di monitoraggio, manutenzione e fixing di pipeline di data integration e data analytics esistenti Sono richieste conoscenza e esperienza su: Esperienza in tecnologie di Big Data processing: Spark, Hadoop, Hive/Impala Esperienza su Apache Kafka Buona conoscenza di SQL Conoscenza del linguaggio Python e/o Scala Costituisce un plus la conoscenza dei servizi per la realizzazione di data lake e pipeline di data analytics in cloud (particolarmente apprezzata la conoscenza di Azure Data Lake e Azure Data Factory) È apprezzata la conoscenza di tecnologie di ETL e familiarità con la modellazione multidimensionale di Data Warehouse È apprezzata la conoscenza di piattaforme cloud (Azure) Altre informazioni: Capacità di analisi critica e di comunicazione con il cliente per recepire, comprendere e approfondire i requisiti funzionali e presentare gli avanzamenti Conoscenza della lingua inglese Capacità di troubleshooting Sede di lavoro: preferenziale Lecce, ma si valutano anche candidature a distanza J-18808-Ljbffr