Descrizione dell’offerta di lavoroaizoOn, società di tecnologia e consulenza, indipendente, operante a livello globale, ricerca un / a Data Engineer.Il/La candidato/a verrà inserito/a nell’area IT della divisione Transportation ed opererà per un importante cliente in ambito mobilità sostenibile.Parteciperà a progetti complessi di integrazione dati su AWS, lavorando su architetture cloud moderne, ecosistemi di microservizi e pipeline di dati basate su eventi, con focus sull’integrazione tra sistemi eterogenei.Attività previsteProgettare e implementare pipeline ETL per l’integrazione tra sistemi eterogenei (SQL Server, DynamoDB, Aurora/MySQL, MongoDB) utilizzando AWS Glue, Spark e LambdaCreare soluzioni di migrazione dati e CDC utilizzando AWS DMS, Debezium e strumenti di Change Data Capture per la sincronizzazione continua dei dati tra microservizi e sistemi esterniProgettare soluzioni di data lake su S3, definendo strategie di partizionamento e integrazione con servizi AWS come Athena ed EventBridgeSviluppare integrazioni dati a bassa latenza per la sincronizzazione CRM su più ecosistemi di microserviziGestire l’evoluzione degli schemi e le problematiche legate alla qualità dei dati, risolvendo incongruenze tra sistemi NoSQL e SQLPROFILOLaurea in discipline tecnico-scientificheAlmeno 3 anni di esperienza nel ruolo in contesto cloud con buona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)Buona conoscenza della lingua inglese scritta, parlata e compresa (minimo B2)COMPETENZE TECNICHEBuona conoscenza di AWS (Glue, Lambda, S3, DynamoDB, Aurora, Athena, Step Functions)Esperienza con strumenti di migrazione dati e CDC (AWS DMS, Debezium, modelli di Change Data Capture e strategie di replicazione)Esperienza nell’elaborazione dati batch e streaming con Apache Spark (Scala/Python), PySpark e architetture distribuiteCompetenze su database: SQL avanzato, NoSQL (DynamoDB, MongoDB) e database relazionali (Aurora/MySQL, SQL Server)Conoscenza dell’architettura a microservizi e modelli di integrazione API (REST, gestione errori, retry, rate limiting)Esperienza con formati dati e gestione schemi (Parquet, JSON, evoluzione schemi, data quality)Programmazione in Python per data processing, scripting e integrazione con AWS SDKNice to haveEsperienza in Infrastructure as Code (Terraform o CloudFormation)Esperienza con stream processing (Apache Kafka, AWS Kinesis, architetture event-driven)Esperienza in data governance e monitoring (CloudWatch, metriche custom, data lineage, alerting)Gestione pipeline CI/CD per deployment e testingEsperienza DevOps e tecnologie di containerizzazione/orchestrazioneSede di lavoroFull remote working con saltuaria presenza presso il cliente a TorinoThe job search refers to candidates of both genders