Come posso aiutarti

Data pipeline

Workflow ETL ed ELT — dai dati grezzi a dati puliti e interrogabili. Ho costruito e mantenuto pipeline in Databricks, Azure Data Factory, Azure Synapse e Airflow. Che tu parta da zero o debba districare qualcosa cresciuto senza controllo, ho visto entrambe le situazioni.

Performance dei database

Query lente, indici mancanti, tabelle cresciute oltre il loro design originale. Ottimizzo SQL Server e T-SQL su larga scala — piani di esecuzione, partizionamento, strategie di archiviazione. Il tipo di lavoro che trasforma una query da 45 secondi in una da 2.

Piattaforme dati in cloud

Setup o migrazione verso Databricks, Azure Synapse o Snowflake. Mi occupo dell'architettura, dei job Spark, dei workflow con notebook, e anche della parte in cui spieghi agli stakeholder perché ne è valsa la pena.

Qualità dei dati e monitoraggio

Controlli automatici che intercettano i problemi prima che lo faccia la dashboard. Costruisco livelli di validazione, anomaly detection e alerting (Slack, email, qualsiasi cosa usi il tuo team) perché i dati sbagliati non avvelenino silenziosamente i tuoi report.

Dashboard e reportistica

Dashboard Power BI che la gente usa davvero — modelli dati puliti, misure sensate e design che rispondono a domande reali invece di fare solo bella figura.

Refactoring e migrazioni

Dialetti SQL legacy verso T-SQL. Airflow verso Azure Synapse. Script monolitici verso codice modulare e testabile. Ho ristrutturato più di 5.000 righe di Python in un singolo progetto e migrato oltre 40 processi ETL tra piattaforme. Il lavoro poco glamour che tiene in piedi i sistemi.

Dove sono stato

Oltre cinque anni nel data engineering — dalla ricerca alla consulenza al freelance. Gli anni in consulenza sono stati intensi (orari lunghi, weekend, scadenze strette) ma genuinamente divertenti: ogni azienda aveva i suoi problemi di dati, il suo stack tecnologico e il suo modo di ragionare. Ho lavorato in settori come produzione alimentare, ingegneria navale, telecomunicazioni e finanza, imparando velocemente e consegnando ancora più velocemente. Quel tipo di esposizione trasversale è difficile da ottenere altrimenti, ed è ciò che mi permette di entrare in qualsiasi codebase, qualsiasi team, e iniziare a consegnare subito.

A volte quei giorni mi mancano ancora — persone fantastiche, gran lavoratori, e una curva di apprendimento che non si appiattiva mai. Nel 2024 ho aperto la partita IVA per prendere tutto quello che avevo imparato e applicarlo in modo indipendente, scegliendo i problemi che trovo più interessanti e portando la stessa intensità ai miei clienti.

2024 — oggi
Data Engineer freelance — Remoto. Infrastruttura, database, ottimizzazione SQL Server, pipeline di qualità dei dati, e una web app che dà a un'intera azienda visibilità sui propri dati. Ultimamente sto puntando molto sui workflow assistiti da AI — ho costruito un server MCP personalizzato che mi permette di interrogare in modo sicuro database di produzione, estrarre documentazione da Confluence e ispezionare codebase Python attraverso un'unica interfaccia, velocizzando notevolmente il lavoro quotidiano.
2023 — 2024
Data Engineer in Ernst & Young — Milano. L'ambiente più dinamico in cui fossi stato: tanti progetti, tecnologie cloud di ultima generazione e vero lavoro a contatto con i clienti. Ho imparato a sedermi con un cliente, capire i suoi punti critici e tornare con soluzioni — a volte quelle richieste, a volte migliorie che avevamo individuato noi. È anche qui che ho visto per la prima volta l'AI applicata seriamente alla comprensione dei dati, e dove ho capito come le grandi aziende adottano davvero il cloud.
2022 — 2023
Data Engineer in Kyndryl — Milano. Progetti interni: refactoring di sistemi legacy e costruzione di nuovi processi migliori da zero. È qui che ho davvero capito che scrivere codice è la parte facile — quello che conta è scrivere codice che gli altri possano mantenere. Struttura pulita, convenzioni coerenti e capire cosa interessa davvero a ogni stakeholder (pipeline affidabili, dati di cui fidarsi, KPI chiari che guidano le decisioni). Gestione di oltre 60 processi Databricks, migrazione da Airflow ad Azure Synapse e sviluppo di web app per l'ingestion dei dati.
2021 — 2022
Data Engineer in Sopra Steria — Milano. Dove la mia carriera è davvero iniziata — e dove ho scoperto che amo l'automazione. Ho mantenuto oltre 40 processi ETL su IBM DataStage e costruito 12 pipeline in Azure Data Factory, ma la cosa di cui vado più fiero è uno script che traduceva e eseguiva automaticamente SQL Teradata in T-SQL. Ha risparmiato oltre 200 ore di lavoro di migrazione manuale. Quella prima vittoria mi ha insegnato qualcosa che porto ancora con me: se fai qualcosa di noioso più di due volte, automatizzalo.
2021
Data Scientist alla Links Foundation — Torino. Ricerca: reti neurali per il cross-modal retrieval (testo ↔ immagini) e classificazione del sentiment musicale. Il mio primo vero lavoro. Sono entrato sapendo Python e sono uscito sapendo PyTorch, data augmentation e come leggere paper accademici senza addormentarmi.

Formazione e certificazioni

Laurea triennale in Economia, indirizzo Data Science — Università degli Studi di Torino (2019–2022). Tesi: "Stima dell'effetto della disuguaglianza di reddito sullo sviluppo tecnologico". Non è una laurea in informatica, ma il percorso in data science mi ha insegnato a pensare con i dati, e l'economia mi ha insegnato a capire perché a qualcuno importa.

  • Azure Data Engineer Associate (DP-203)
  • Azure Data Fundamentals (DP-900)

Stack tecnologico

Uso quotidiano

  • Python
  • T-SQL / SQL Server
  • Databricks / Spark
  • Azure Synapse
  • Azure Data Factory

Ci lavoro bene

  • Power BI
  • Snowflake
  • Teradata
  • C# / .NET
  • Git / GitLab / GitHub

AI e produttività

  • Claude / sviluppo assistito da LLM
  • Server MCP personalizzati
  • PyTorch

Side quest

  • Flutter / Dart
  • TypeScript
  • HTML / CSS
  • Competitive programming

Progetti personali

Sossoldi

Un'app open-source di finanza personale per iOS e Android, sviluppata con Flutter. Faccio parte del team che la porta avanti.

github.com/RIP-Comm/sossoldi

Questo sito

narcismiclaus.com — costruito da zero con Astro. Tre lingue, calcolatori interattivi di finanza personale, e la pagina che stai leggendo adesso. Niente template, niente Bootstrap, solo codice e opinioni.

OSSU Computer Science

Sto seguendo il curriculum di Computer Science della Open Source Society University — per colmare le lacune che una laurea non informatica si porta dietro. Algoritmi, strutture dati, sistemi operativi, i fondamentali che fanno quadrare tutto il resto.

github.com/ossu/computer-science

Lingue

Parlo italiano e rumeno come madrelingua, inglese fluentemente, e abbastanza tedesco da ordinare al ristorante e fraintendere la risposta. L'intero sito esiste in tutte e tre le lingue principali perché il mio pubblico — e la mia vita — le attraversa tutte.

Lavoriamo insieme

Se ti serve un data engineer — per un progetto, una migrazione, un pasticcio da risolvere, o anche solo per parlare di come sta andando il tuo stack dati — scrivimi una mail. Leggo tutto, rispondo veloce. Niente form, niente chatbot, solo una persona che sa davvero la differenza tra una left join e una inner join.

consulting@narcismiclaus.com

Oppure trovami su LinkedIn se l'email ti sembra troppo formale.