Descrizione del ruolo
La figura ricercata si occuperà della gestione, trasformazione e integrazione di dati eterogenei provenienti da fonti ufficiali (quali ISTAT, Eurostat, Infocamere, AIDA, ecc.), con particolare attenzione alle tecnologie di Big Data e Cloud Computing.
Nello specifico, Il ruolo prevede:
* Progettazione, sviluppo e ottimizzazione di pipeline di dati per il caricamento, la trasformazione e la distribuzione di dataset strutturati e non strutturati.
* Gestione di piattaforme per l'archiviazione, il processamento e l'analisi di grandi volumi di dati (ad esempio Google Cloud Platform GCP).
* Implementazione di servizi per query su database e API AI, garantendo scalabilità, efficienza e sicurezza.
* Automazione dei processi di data ingestion e data processing (ad esempio BigQuery, Dataflow, Dataproc, etc.).
* Sviluppo di dashboard e reportistica in ambiente MS PowerBI.
* Collaborazione con Data Scientist e Analyst per supportare analisi dati statistiche e implementazione di modelli di Machine Learning e geo-analytics.
* Monitoraggio delle performance e ottimizzazione delle architetture dati per garantire efficienza e affidabilità.
Competenze richieste
I requisiti minimi obbligatori sono:
1. Laurea magistrale in una delle seguenti discipline: LM-18 (Informatica), LM-25 (Ingegneria dell'Automazione), LM-27 (Ingegneria delle Telecomunicazioni), LM-29 (Ingegneria Elettronica), LM-31 (Ingegneria Gestionale), LM-32 (Ingegneria Informatica), LM-56 (Scienze dell'Economia), LM-82 (Scienze Statistiche), LM-91 (Tecniche e Metodi per la Società Digitale) o titolo equiparato secondo la normativa vigente.
2. Esperienza su Google Cloud Platform (GCP), in particolare con servizi come BigQuery (analisi dati su larga scala), Dataflow/Dataproc (ETL e processamento dati distribuito), Cloud Storage (gestione e trasmissione dati), Cloud Functions/Cloud Run (pubblicazione di servizi AI e API per query dati).
3. Esperienza nella modellazione e gestione di database SQL e NoSQL (es. PostgreSQL, BigQuery, MongoDB).
4. Conoscenza di Python, SQL e strumenti per la manipolazione di dati (Pandas, PySpark).
5. Esperienza nell'alimentazione e sviluppo di dashboard in PowerBI.
6. Esperienza con API REST e servizi AI per il consumo ed esposizione di servizi.
7. Conoscenza delle best practice per la sicurezza e la governance dei dati.
Modalità di selezione
Si offre contratto a tempo determinato, di 12 mesi in somministrazione, con inserimento immediato:
* CCNL: Commercio, Terziario e Servizi (Confcommercio)
* Inquadramento: III (terzo) Livello
* Durata contrattuale: 12 mesi
* Orario di lavoro: full time di 38 h settimanali, dal lunedì al venerdì
* Sede di lavoro: Roma, con possibilità di trasferte nazionali e internazionali
* Buoni pasto elettronici
Rif. offerta lavorativa
L'offerta di lavoro si intende rivolta all'uno e all'altro sesso in ottemperanza al D.Lgs. 198/2006.