Job Description
UnipolTech' societ del Gruppo Unipol dedicata alla realizzazione di soluzioni tecnologiche innovative e servizi telematici/IoT distintivi e ad alto valore aggiunto per l'auto' la casa' il benessere e la salute è alla ricerca di unprofessionista esperto nella gestione di progetti Big Datada inserire nel contesto dell'Area Servizi Informatici della societ con il ruolo di:
BIG DATA ENGINEER
Sede di lavoro: Bologna/Milano
Il profilo ricercato' una volta inserito nel contesto del team Big Data Hub di Gruppo Unipol' sar incaricato delle seguenti attivit :
- Gestione di progetti Big Data coordinando un team di sviluppo dedicato;
- Gestione dei layer di integrazione su piattaforma Big Data;
- Contribuire alla evoluzione del sistema Big Data definendo standard' regole e modelli architetturali;
- Progettare e successivamente validare le soluzioni tecniche garantendo gli obiettivi di scalabilit ' manutenibilit ' sicurezza ed affidabilit del sistema;
REQUISITI
- Laurea Magistrale in Informatica' Ingegneria Informatica o equivalente;
- Precedente esperienza professionale nella gestione di progetti Big Data;
- Abilit di analisi progettuale' definizione degli obiettivi' monitoraggio avanzamento progetto in stretta relazione con le funzioni di business coinvolte;
- Conoscenza dei principali pattern architetturali di data-architecture' dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
- Conoscenza di strumenti di elaborazione batch (Spark' Amazon Athena' Google BigQuery' Hadoop' Hive' e similari) e storicizzazione (Amazon S3' Google Cloud Storage' HDFS' e similari);
- Conoscenza di DB NoSQL (HBase' Cassandra' MongoDB e similari);
- Conoscenza di linguaggi di programmazione (Java' Python' Scala )'
- Esperienza consolidata nella manipolazione' estrazione e trasformazione di database non strutturati;
- Inglese fluente;
- Completano il profilo: ottime capacit relazionali' attitudine al lavoro in team' autonomia e problem solving;
Costituiscono requisiti preferenziali per la selezione la conoscenza di:
- [RC6] Strumenti del framework Cloudera;
- Conoscenza di strumenti di elaborazione streaming (Flink' Storm' Spark Streaming' Kafka' e similari);
- Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering' classificazione e regressione);
- principali tecniche di data wrangling' cleansing' exploration e featurization;
Il candidato in possesso delle competenze e delle esperienze richieste sar inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio e modalit di lavoro ibride (sede/remote working).