Immobiliare.it è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L’innovazione, l’eccellenza tecnologica, l’attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.
Immobiliare Labs è il dipartimento tecnologico di immobiliare.it, composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.
Team
Artificial Intelligence and Data Engineering (AIDE) è il team che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow di analisi e classificazione.
Ruolo
Python Developer
Mansioni
Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL per la gestione di dati interni o provenienti da fonti terze.
In particolare, svolgerai attività quali:
* analizzare e progettare soluzioni software scalabili, resilienti e fault tolerant, operanti su dati provenienti da sorgenti eterogenee ed orientate all’analisi dei dati e a prodotti di intelligenza artificiale;
* realizzare e mantenere API, architetture, stream e pipeline ETL, per l’elaborazione dati implementando la comunicazione tra servizi differenti e garantendo l’integrità dei flussi di orchestrazione;
* collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità.
Requisiti:
* conoscenza di Python;
* conoscenza di database relazionali (es. MySQL) e query sui dati;
* conoscenza di database documentali (es. MongoDB);
* conoscenza di GIT.
Requisiti preferenziali:
* conoscenza della metodologia e best practices per la scrittura e il consumo di una API REST (FastAPI);
* conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Spark, Airflow, Flink;
* conoscenza Ansible, Docker, Terraform;
* conoscenza di Linux e Bash;
* familiarità con gli ambienti public/private cloud (aws, gcp, openstack) relativamente agli strumenti per operare su IA e pipeline dati;
* conoscenza base di Snowflake.
Luogo di lavoro:
Roma, Termini/Full remote
Orario di lavoro:
Full time
Tipo e durata del contratto e Retribuzione:
Commisurati all'esperienza pregressa
Cosa Offriamo
* team di lavoro in continua espansione
* ambiente stimolante e meritocratico
* sviluppo tecnologico allo stato dell'arte
* opportunità di apprendimento
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.
#J-18808-Ljbffr