Descrizione del Progetto
Il team dedicato lavorerà su layer di integrazione, definizione di standard architetturali e implementazione di modelli di calcolo distribuito per supportare processi batch e streaming. Saranno adottati strumenti come Spark, Hadoop, Hive, Kafka, oltre a database NoSQL e tecnologie cloud-native per la gestione dei dati.
Il progetto è strategico perché abilita l’azienda a sfruttare appieno il potenziale dei dati, migliorando la capacità di analisi, la personalizzazione dei servizi e la rapidità decisionale. La roadmap include anche l’introduzione di tecniche di data wrangling, cleansing e feature engineering, con possibili evoluzioni verso algoritmi di machine learning e deep learning.
Ruolo e Responsabilità
Il suo ruolo sarà cruciale per garantire che il sistema sia scalabile, sicuro e affidabile, supportando sia i processi batch che streaming. Inoltre, collaborerà con il team per evolvere la piattaforma, introducendo best practice e ottimizzazioni per migliorare performance e manutenibilità.
Attività
- Sviluppo: Implementazione di soluzioni Big Data per elaborazione batch e streaming.
- Integrazione: Gestione dei layer di integrazione tra sistemi e piattaforma Big Data.
- Architettura: Definizione di modelli e standard tecnici per garantire scalabilità e sicurezza.
- Documentazione: Redazione di specifiche tecniche e linee guida architetturali.
- Ottimizzazione: Miglioramento delle performance e della manutenibilità del sistema.
Competenze Richieste
- Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente.
- Esperienza consolidata come Big Data Engineer in contesti enterprise.
- Conoscenza dei principali pattern architetturali di data-architecture e calcolo distribuito.
- Esperienza con strumenti di elaborazione batch (Spark, Hadoop, Hive, BigQuery, Athena).
- Competenza su strumenti di streaming (Kafka, Flink, Storm, Spark Streaming).
- Conoscenza di sistemi di storage distribuito (Amazon S3, Google Cloud Storage, HDFS).
- Esperienza con database NoSQL (HBase, Cassandra, MongoDB).
- Ottima padronanza di linguaggi di programmazione (Scala, Java, Python).
- Familiarità con distribuzioni Cloudera, Databricks e ambienti cloud (AWS, GCP).
- Conoscenza di tecniche di data wrangling, cleansing, exploration e featurization; basi di ML/DL sono un plus.
Informativa breve sul trattamento dati personali ai sensi degli artt. 13 e 14 reg. Ue n. 679/2016
Future Horizons S.r.l., in qualità di Titolare del trattamento dei dati personali ai sensi del Regolamento UE 679/2016 (“GDPR”), La invita a leggere con attenzione, prima di inviare la candidatura, l’Informativa sul trattamento dei dati personali dei Candidati.
Inviando la Sua candidatura, è consapevole che i Suoi dati personali saranno trattati per finalità di ricerca, selezione e valutazione del Suo profilo professionale.
Al termine della selezione, Future Horizons potrà decidere di salvare il Suo profilo professionale nei propri sistemi per proporLe future opportunità di collaborazione. In tal caso, riceverà una comunicazione specifica e potrà, in qualsiasi momento, chiedere la chiusura del Suo profilo professionale e la relativa cancellazione dei dati personali.