Stiamo cercando un Python developer / ETL specialist / Data Engineer per accrescere il nostro team specializzato nella consulenza 4.0. Il tuo ruolo sarà quello di partecipare attivamente al design e allo sviluppo di software centrati su task inerenti all’Intelligenza Artificiale specificatamente mediante concettualizzazione, prototipazione, implementazione e testing di data pipelines da fonti disparate e provenienti dai più svariati domini (pharma, law, finance, insurance, etc.).
Si richiede la presenza sul posto, con possibilità future di lavoro ibrido.
Responsabilità:
* Design, sviluppo e manutenzione di pipeline di ETL/Data engineering (estrazione da multiple fonti, consolidamento, pulizia, trasformazione, caricamento in database) on premise e in cloud;
* Integrazione delle suddette componenti all’interno di un software più ampio;
* Esecuzione di analisi preliminare dei dati (determinazione livello di pulizia, fattibilità di ipotetiche aggregazioni, etc.)
* Esecuzione di analisi dati per prevenire/risolvere anomalie nel funzionamento delle pipeline;
* Aggiornamento circa i rilevanti tool presenti sul mercato e valutazione della necessità/convenienza della loro integrazione nel progetto;
* Debugging del codice prodotto e strutturazione dello stesso per il deploy;
* Redazione di relazioni tecniche dettagliate e comunicazione in report dei risultati intermedi di progetto.
Requisiti:
* Laurea/Laurea Magistrale in Informatica o Ingegneria informatica;
* Esperienza dimostrabile in progetti di Data Engineering e Sviluppo Software data-driven di medio-alta complessità;
* Conoscenza approfondita di Python (OOP, funzionale, strutture dati e algoritmi) e delle relative librerie e framework;
* Conoscenza approfondita del linguaggio SQL ed esperienza nella scrittura e nell'ottimizzazione di query;
* Esperienza con database non relazionali;
* Esperienza di deploy in ambiente cloud, preferibilmente AWS;
* Capacità di lavorare propositivamente in gruppo;
* Capacità di aggiornamento e studio di tool/tecnologie sul mercato.
Requisiti aggiuntivi (PLUS):
* Familiarità con input e output tipici dei modelli di Machine Learning e con l'attività di Feature Engineering;
* Conoscenza dei principi di Data analytics;
* Esperienza con Hadoop e Spark;
* Esperienza con Docker e Kubernetes;
* Esperienza con Databricks e/o Snowflake e/o AWS RedShift;
* Esperienza con Airflow o altri tool di orchestrazione;
* Conoscenza delle best practices di DevOps / DataOps;
* Conoscenza approfondita di Git.
Contratto di lavoro: Tempo pieno
Benefit:
* Buoni pasto
* Computer aziendale
Disponibilità:
* Dal lunedì al venerdì
#J-18808-Ljbffr