Torna alla ricerca:Senior Data / Giuliano Di Roma
Panoramica:Il nostro cliente, un gruppo multinazionale leader nel settore delle telecomunicazioni e della tecnologia, è alla ricerca di un Senior Data Engineer altamente qualificato da inserire nella sua divisione Big Data. Questo ruolo strategico è parte integrante di un team ad alto impatto, responsabile della progettazione e della gestione di piattaforme dati scalabili a supporto di analisi avanzate in tutte le operazioni globali.Il candidato ideale possiede una solida esperienza pratica nella progettazione, implementazione e gestione di pipeline di dati robuste, basate su paradigmi di integrazione batch, streaming e in tempo reale. Il candidato ideale ha maturato almeno 10 anni di esperienza professionale nel settore IT e almeno 5 anni di comprovata esperienza in progetti di Data Engineering o in team di Data Governance presso grandi aziende, preferibilmente nel settore delle telecomunicazioni o, in alternativa, in quello finanziario.Queste pipeline opereranno in ambienti Data Warehouse, Data Lake e Data Lakehouse, sfruttando tecnologie come Teradata Vantage, Databricks e Azure Cloud Data Services.È fondamentale una solida conoscenza della modellazione di dati relazionali e multidimensionali, unitamente a competenze di programmazione avanzate in Python, PySpark e SQL. È altamente auspicabile un'esperienza nell'elaborazione di dati geospaziali e nei database a grafo.Il candidato ideale dovrebbe inoltre dimostrare una solida conoscenza dei principi fondamentali dell'informatica, tra cui algoritmi e strutture dati, architettura dei computer, sistemi operativi, linguaggi di programmazione, compilatori e interpreti, teoria della computazione, ecc.Questo ruolo offre l'opportunità di contribuire all'evoluzione di un moderno ecosistema di dati, consentendo analisi in tempo reale e processi decisionali basati sui dati su larga scala.Principali responsabilità:
Progettare e implementare pipeline di dati affidabili ed efficienti su Vantage, Databricks e Azure Data Services.Integrare e trasformare dati provenienti da diverse fonti, tra cui database relazionali, storage di oggetti cloud, piattaforme di elaborazione di flussi di eventi e servizi web.Sviluppare e mantenere architetture dati scalabili a supporto di iniziative di business intelligence, machine learning e IA agentica.Modellare set di dati complessi utilizzando approcci relazionali e multidimensionali (ad esempio, schemi a stella/fiocco di neve).Lavorare con set di dati geospaziali e strutture dati basate su grafi a supporto di casi d'uso di analisi avanzata.Collaborare con team interfunzionali, inclusi data scientist, analisti e stakeholder aziendali.Garantire la qualità, la governance e la sicurezza dei dati in tutti i processi di ingegneria.Monitorare e ottimizzare le prestazioni di sistemi distribuiti e flussi di lavoro dati.Contribuire all'evoluzione della strategia dati e dell'architettura della piattaforma aziendale.
Formazione:Laurea magistrale o dottorato di ricerca in:
InformaticaIngegneriaStatisticaFisicaMatematica
Competenze tecniche richieste:
Piattaforme dati: Databricks (Apache Spark), Azure Cloud Data Services (Fabric, Synapse, Functions, ecc.), Teradata VantageLinguaggi di programmazione: Python (incluso PySpark), SQL, scripting UnixDatabase relazionali: Teradata Vantage, SQL Server, PostgreSQL, MySQLElaborazione dati geospaziali: GeoPandas, PostGIS, SQL GeospatialDatabase a grafo: Neo4j, Cosmos DB con GremlinModellazione dati: Modellazione relazionale (3NF), modellazione multidimensionale (schema a stella/fiocco di neve, dimensione a variazione lenta, ecc.)
Soft Skills e capacità di leadership:
Forte pensiero analitico e capacità di problem solving.Eccellenti capacità comunicative, con la capacità di interagire sia con interlocutori tecnici che non tecnici.Mentalità collaborativa e capacità di lavorare efficacemente in team interfunzionali.Elevato livello di iniziativa, autonomia e capacità di gestire più priorità contemporaneamente.Capacità di adattamento ad ambienti dinamici e tecnologie emergenti.Leadership tecnica e capacità di mentoring.Visione strategica e approccio orientato al business per le soluzioni dati.
Qualifiche preferenziali:
Certificazioni Azure, Databricks e Teradata.Esperienza con pipeline CI/CD, Git e pratiche DevOps.Familiarità con framework di governance dei dati e conformità al GDPR.
#J-18808-Ljbffr