Job ID:
32485
Start date:
05-01-2026
Summary
Il cliente è un importante gruppo assicurativo e tecnologico che sta investendo in soluzioni avanzate di Big Data per migliorare la gestione dei dati e l’analisi predittiva. L’azienda ha avviato una strategia di trasformazione digitale orientata alla creazione di una piattaforma dati scalabile e sicura, in grado di supportare processi di business complessi e applicazioni di machine learning. Le tendenze IT attuali includono l’adozione di architetture distribuite, strumenti di elaborazione batch e streaming, e l’integrazione con ambienti cloud per garantire performance e resilienza.
Descrizione del Progetto
Il progetto nasce dall’esigenza di evolvere il sistema Big Data esistente, rendendolo più scalabile, sicuro e manutenibile. L’obiettivo è creare un hub dati centralizzato che consenta di gestire grandi volumi di informazioni provenienti da diverse fonti, garantendo integrazione, qualità e disponibilità per applicazioni analitiche e di business intelligence.
Il team dedicato lavorerà su layer di integrazione, definizione di standard architetturali e implementazione di modelli di calcolo distribuito per supportare processi batch e streaming. Saranno adottati strumenti come Spark, Hadoop, Hive, Kafka, oltre a database NoSQL e tecnologie cloud-native per la gestione dei dati.
Il progetto è strategico perché abilita l’azienda a sfruttare appieno il potenziale dei dati, migliorando la capacità di analisi, la personalizzazione dei servizi e la rapidità decisionale. La roadmap include anche l’introduzione di tecniche di data wrangling, cleansing e feature engineering, con possibili evoluzioni verso algoritmi di machine learning e deep learning.
Il team dedicato lavorerà su layer di integrazione, definizione di standard architetturali e implementazione di modelli di calcolo distribuito per supportare processi batch e streaming. Saranno adottati strumenti come Spark, Hadoop, Hive, Kafka, oltre a database NoSQL e tecnologie cloud-native per la gestione dei dati.
Il progetto è strategico perché abilita l’azienda a sfruttare appieno il potenziale dei dati, migliorando la capacità di analisi, la personalizzazione dei servizi e la rapidità decisionale. La roadmap include anche l’introduzione di tecniche di data wrangling, cleansing e feature engineering, con possibili evoluzioni verso algoritmi di machine learning e deep learning.
Ruolo e Responsabilità
Il Big Data Engineer sarà inserito nel team dedicato alla piattaforma Big Data. Il consulente avrà il compito di sviluppare soluzioni tecniche per l’elaborazione di grandi volumi di dati, gestire i layer di integrazione e contribuire alla definizione degli standard architetturali.
Il suo ruolo sarà cruciale per garantire che il sistema sia scalabile, sicuro e affidabile, supportando sia i processi batch che streaming. Inoltre, collaborerà con il team per evolvere la piattaforma, introducendo best practice e ottimizzazioni per migliorare performance e manutenibilità.
Il suo ruolo sarà cruciale per garantire che il sistema sia scalabile, sicuro e affidabile, supportando sia i processi batch che streaming. Inoltre, collaborerà con il team per evolvere la piattaforma, introducendo best practice e ottimizzazioni per migliorare performance e manutenibilità.
Attività
- Sviluppo: Implementazione di soluzioni Big Data per elaborazione batch e streaming.
- Integrazione: Gestione dei layer di integrazione tra sistemi e piattaforma Big Data.
- Architettura: Definizione di modelli e standard tecnici per garantire scalabilità e sicurezza.
- Documentazione: Redazione di specifiche tecniche e linee guida architetturali.
- Ottimizzazione: Miglioramento delle performance e della manutenibilità del sistema.
Competenze Richieste
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente.
- Esperienza consolidata come Big Data Engineer in contesti enterprise.
- Conoscenza dei principali pattern architetturali di data-architecture e calcolo distribuito.
- Esperienza con strumenti di elaborazione batch (Spark, Hadoop, Hive, BigQuery, Athena).
- Competenza su strumenti di streaming (Kafka, Flink, Storm, Spark Streaming).
- Conoscenza di sistemi di storage distribuito (Amazon S3, Google Cloud Storage, HDFS).
- Esperienza con database NoSQL (HBase, Cassandra, MongoDB).
- Ottima padronanza di linguaggi di programmazione (Scala, Java, Python).
- Familiarità con distribuzioni Cloudera, Databricks e ambienti cloud (AWS, GCP).
- Conoscenza di tecniche di data wrangling, cleansing, exploration e featurization; basi di ML/DL sono un plus.