Seleziona la frequenza (in giorni) di ricezione di un avviso:
Località: Milano, IT, 20139 Padova, Padova, IT, 35129 Firenze, IT, 50145 Genova, IT, 16129 Torino, IT, 10152 Siena, IT, 53100
Tipo di lavoro: Remote / Hybrid
Stiamo cercando un Data Engineer esperto e motivato con un forte background nell'ecosistema Hadoop e una comprovata esperienza con Java Spring Boot (API Rest & Batches) e Oracle DB.
Il candidato ideale avrà almeno 3 anni di esperienza pratica nell'ingegneria dei dati e una passione per la progettazione, la costruzione e la manutenzione di applicazioni complesse e robuste.
L'esperienza nel settore finanziario è un plus, in quanto aiuterà a comprendere meglio le esigenze dei clienti e il dominio funzionale dell'applicazione.
Responsabilità chiave
* Competenza nell'ecosistema Hadoop
* Progettare, implementare e ottimizzare pipeline di dati e flussi di lavoro sfruttando strumenti e tecnologie dell'ecosistema Hadoop, tra cui: HDFS, YARN, Spark, HBase, Impala, HIVE
Esperienza Java per API e processi batch
* Costruire e distribuire API RESTful utilizzando Java Spring Boot per facilitare l'integrazione dei dati e l'interoperabilità tra i sistemi.
* Progettare e mantenere processi batch utilizzando Java, garantendo l'esecuzione efficiente dei flussi di lavoro dei dati e della logica aziendale.
* Implementare soluzioni robuste per la gestione degli errori, la registrazione e il monitoraggio.
Gestione dei database
* Mantenere e ottimizzare soluzioni di database relazionali utilizzando Oracle DB.
* Scrivere query SQL e Spark SQL complesse ed efficienti per garantire prestazioni ottimali del database.
Ottimizzazione delle prestazioni e risoluzione dei problemi
* Monitorare, risolvere i problemi e migliorare le prestazioni dei processi.
* Garantire l'integrità, la qualità e la sicurezza dei dati.
Collaborazione e supporto
* Partecipare attivamente alle pratiche Agile, tra cui stand-up e retrospettive quotidiane, per garantire il raggiungimento efficiente degli obiettivi del progetto.
* Partecipare alle revisioni del codice, alle discussioni sul design e alla collaborazione del team per mantenere standard elevati.
Qualifiche richieste:
* Competenza nei framework di calcolo distribuito e nell'elaborazione dei dati su scala.
* Esperienza con pipeline ETL e modellazione dei dati.
* Solida conoscenza della gestione dei cluster, della risoluzione dei problemi dei big data e dello sviluppo di API con Java Spring.
* Forti capacità analitiche e di risoluzione dei problemi con attenzione ai dettagli.
Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento!
Hai qualche domanda? Non ti ritrovi in questo profilo ma vuoi comunque un confronto con noi? Contattaci alla mail careeritaly@gft.com
Chi siamo?
GFT Technologies SE (GFT) fondata nel 1987, è oggi rappresentata da un team globale di circa 12.000 dipendenti in Europa, Nord e Sud America e Asia. Siamo costantemente impegnati a guidare la trasformazione digitale nel settore dei servizi finanziari, forniamo consulenza alle principali istituzioni finanziarie a livello mondiale e sviluppiamo soluzioni IT su misura.
In GFT potrai lavorare da remoto 5/5. GFT Technologies garantisce le pari opportunità nel percorso di selezione, assunzione e nei processi di crescita professionale.
In GFT Italia lavoriamo bene perché sappiamo anche divertirci! Abbiamo un motto tutto nostro, che per noi significa molto: "Rock the top!".
Non c'è ancora un annuncio di tuo interesse?
Ti informeremo sui prossimi eventi e sulle opportunità in linea con i tuoi interessi.
#J-18808-Ljbffr