L'offerta di lavoro non è disponibile nel tuo Paese.
Descrizione del posto vacante
Siamo Italiaonline, la più grande internet company italiana. La nostra mission è garantire ai nostri Clienti la possibilità di ottenere risultati migliori nella loro vita digitale e nel loro business online attraverso servizi innovativi e di qualità.
Per la direzione Information Technology, stiamo cercando una o un Chief Data Officer che guiderà un importante progetto di trasformazione della nostra Data Platform e sarà responsabile di:
1. guidare l’evoluzione del parco applicativo che costituisce la Data Platform e delle soluzioni di reporting ed Analytics;
2. supportare le operation IT nella soluzione di criticità, disservizi e nel definire interventi tecnici e/o di processo per rendere i dati sulla data platform qualitativamente affidabili e aggiornati come richiesto;
3. disegnare soluzioni allineate alle linee guida architetturali e alle esigenze di business;
4. definire e concordare un budget annuale di spesa in relazione alle attività a piano, monitorare l’avanzamento della spesa fornendo riscontri alle funzioni amministrative ed IT;
5. in collaborazione con il team di Procurement, effettuare il piano dei fabbisogni rispetto alle forniture di aziende terze, definirne le modalità contrattuali e gestirne eventuali RFI/RFQ, i contenuti tecnici e i KPI e gli SLA per monitorarne le performance durante il periodo contrattuale;
6. gestire e verificare l’aderenza di quanto acquistato e quanto realizzato dai fornitori individuando e monitorando i KPI/SLA di avanzamento;
7. in collaborazione con le Architetture, definire le linee utente, effettuare scouting di prodotti e/o soluzioni che possano rispondere a esigenze specifiche o evolvere l’attuale parco applicativo, ottimizzando il rapporto costo/beneficio;
8. gestire il team interno, ottimizzandone la produttività, gestendo la formazione tecnica e lo sviluppo manageriale insieme al team Human Resources & Facilities.
Competenze richieste:
1. esperienza di almeno dieci anni nella gestione di progetti afferenti la gestione di grandi volumi di dati (datawarehouse & business intelligence, big data ed analytics);
2. esperienza nei processi di sviluppo software: conoscenza dei processi produttivi sia con metodologia “waterfall” che “Agile” per monitorarne l’avanzamento e introdurre azioni correttive per riuscire a mantenere tempi, qualità e costi del progetto;
3. competenze tecniche relative alle architetture cloud (con particolare interesse ad AWS) allo stack di servizi di supporto alla gestione dei dati;
4. conoscenza dello stack dei servizi “managed” Amazon per valutarne il miglior servizio in termini di qualità/prezzo da utilizzare.
Le principali tecnologie AWS in uso sono: S3, Redshift, Glue. Sono inoltre utilizzati Airflow come Scheduler e Tableau per l’accesso ai dati. Per le funzionalità analitiche avanzate, si prevede l'uso di SageMaker, Python e R. La gestione delle anagrafiche Clienti avviene tramite servizi su piattaforma Linux con database Oracle.
Sede di lavoro: Assago (MI)
#J-18808-Ljbffr