It's Prodigy è una startup innovativa, operante nel campo dell'innovazione tecnologica, che si pone l'obiettivo di creare soluzioni e prodotti di nuova generazione per piccole, medie e grandi imprese.
Di cosa ci occupiamo?
1. Innovazione: ci proponiamo come consulenti e sviluppatori di soluzioni in ambito industria 4.0 (Big data, intelligenza artificiale, iot...);
2. Consulenza Tecnologica: ci occupiamo sia di consulenza in modalità outsourcing che di sviluppo custom di progetti;
3. Marketing: operiamo in ambito pubblica amministrazione e corporate, offrendo servizi di digital marketing, social marketing, brand awareness e altri servizi di marketing specializzato;
4. Digital PMI: architettiamo soluzioni digitali per le pmi: e-commerce, app mobile, realizzazione di loghi, marketing (semplice), sviluppo di idee...
Stiamo cercando un Data Engineer con esperienza nelle principali tecnologie di gestione e trasformazione dei dati, inclusi AWS, Data Bricks, SQL, Python, MongoDB, Kafka e Apache Spark. In questo ruolo, avrai l'opportunità di progettare, implementare e gestire infrastrutture dati all'avanguardia, supportando processi decisionali strategici e contribuendo alla crescita tecnologica di un’importante azienda cliente.
Le principali responsabilità della risorsa saranno:
* Progettare e implementare pipeline di dati scalabili utilizzando AWS e Databricks.
* Gestire e ottimizzare basi di dati relazionali e non relazionali, come SQL e MongoDB.
* Utilizzare Apache Kafka per lo streaming e l'integrazione di dati in tempo reale.
* Sviluppare e ottimizzare processi ETL complessi utilizzando Python e Apache Spark.
* Creare soluzioni sicure e ad alte prestazioni per l’archiviazione e l’elaborazione dei dati su larga scala.
* Collaborare con Data Scientists, Data Analysts e altri stakeholder per comprendere e soddisfare le esigenze aziendali.
* Implementare strategie di data governance per garantire la qualità e l'integrità dei dati.
* Monitorare e risolvere problemi legati alle pipeline di dati e migliorare le performance delle query.
Esperienza professionale: Minimo di 3 di esperienza nel ruolo di Data Engineer.
* Esperienza avanzata con AWS (Redshift, S3, Lambda, EC2, RDS).
* Conoscenza di Databricks per la gestione e l'elaborazione dei dati.
* Forte esperienza con SQL per la gestione e l'ottimizzazione di database relazionali.
* Competenze in Python per l'automazione dei processi e lo sviluppo di soluzioni dati.
* Esperienza con database NoSQL, in particolare MongoDB .
* Conoscenza di Apache Kafka per la gestione di flussi di dati in tempo reale.
* Esperienza con Apache Spark per l'elaborazione distribuita e l'analisi di grandi volumi di dati.
* Conoscenza di strumenti di orchestrazione di pipeline come Apache Airflow .
* Esperienza con infrastrutture containerizzate (Docker, Kubernetes ).
* Familiarità con la sicurezza dei dati e le normative sulla privacy (es. GDPR).
* Esperienza con strumenti di versionamento del codice come Git .
Vantaggi
Retribuzione: per questa opportunità siamo aperti a valutare risorse freelance in partita iva.
Ambiente di lavoro flessibile e inclusivo.
Opportunità di crescita in un ambiente giovane e dinamico.
La selezione è rivolta a candidati ambosessi (L. 903/77). I dati personali verranno trattati secondo il Regolamento Ue 2016/679, noto come GDPR - General Data Protection Regulation.
#J-18808-Ljbffr