Senior DataOps Engineer - Italy in Verona, Veneto at Solv Health
Explore Related Opportunities
Job Description
Being sick or injured is painful. Getting better shouldn’t be.
Most industries have been transformed by new technology. Healthcare is still waiting — and you can help change that.
Our mission is simple but ambitious: make healthcare accessible, transparent, and effortless for all. We put the consumer at the center, move fast and partner with forward-thinking providers to deliver software that makes care better, faster, and more human. This is work with real-world stakes — and you can help lead the way.
Solv Health (Solv) è un’azienda americana fondata nel 2016, con sede a San Francisco, California. Solv
sviluppa una piattaforma online di prenotazione e gestione di appuntamenti per pazienti.
Sarai il responsabile dell’intersezione tra affidabilità della pipeline dati, qualità della modellazione e
performance del database. Questo ruolo si trova al punto di incontro tra il team Data & Analytics e il team di Platform Engineering — ed esiste perché abbiamo bisogno di qualcuno che sappia tenere insieme entrambi i lati. Qualcuno che capisce perché un modello dbt è lento e sa risolverlo a livello di warehouse, non solo a livello SQL. In pratica, sarai il responsabile EU-timezone della nostra pipeline analytics quotidiana: la persona che mantiene dbt funzionante e in salute, che conosce Aurora e Redshift abbastanza in profondità da ottimizzare i modelli dati e prevenire il degrado delle performance del warehouse. È un ruolo concreto, da chi ama stare nel merito: lavorerai nel terminale, nell’editor SQL, direttamente sui sistemi — non nelle presentazioni.
Modello di Lavoro
Lavori con orari italiani. La collaborazione con il team US avviene prevalentemente in modalità asincrona — il team è in Pacific Time, quindi la sovrapposizione è limitata e si concentra verso la fine della tua giornata. La maggior parte della tua ownership avviene nelle ore EU: sei la persona che vede i problemi per prima e li risolve in autonomia, sapendo quando è il momento di coinvolgere il team oltreoceano. Abbiamo un ufficio a Verona: sei il benvenuto a lavorare in presenza (modalità ibrida, circa 3 giorni a settimana) oppure completamente da remoto se non sei nella zona — con la flessibilità di venire in ufficio quando possibile. Contratto a tempo indeterminato.
Di Cosa Ti Occuperai
Operazioni sulla Pipeline Dati
- Monitora e gestisci il triage EU delle failure giornaliere della pipeline dbt — errori di connessione, schema drift, type mismatch su JSON, timeout dei modelli — che occorrono durante la mattina italiana
- Mantieni e migliora l’affidabilità della pipeline: logiche di retry, soglie di alerting, runbook per le modalità di failure più comuni
- Collabora con il team analytics per fare debug dei problemi dati end-to-end, dai sistemi sorgente attraverso i modelli dbt fino alle dashboard Looker a valle
Modellazione Dati & Qualità dbt
- Fai rispettare gli standard di modellazione dbt: naming convention, pattern di testing, schema design, documentazione
- Identifica e refactora i modelli costosi — riduci il runtime della pipeline, elimina CTE ridondanti, migliora il design dei modelli incrementali
- Revisiona i nuovi contributi ai modelli per le implicazioni sulle performance prima che raggiungano la produzione
- Contribuisci a far evolvere l’architettura di modellazione con la crescita dei volumi di dati Performance del Database & Infrastruttura
- Gestisci l’ottimizzazione delle performance di Redshift: WLM tuning, query profiling, analisi delle sort key e distribution key, configurazione dei data share
- Monitora e gestisci il connection pooling di Aurora (PgBouncer) — prevenzione dell’esaurimento delle connessioni, ottimizzazione delle dimensioni dei pool
- Supporta la valutazione e pianificazione di una potenziale migrazione Redshift → Snowflake
- Fornisci copertura infrastrutturale per gli incidenti al database layer e partecipa ai workflow operativi del team di piattaforma — deployment ArgoCD, modifiche Terraform — per le infrastrutture che toccano il data layer Tooling Analytics AI-Assisted
- Usa e migliora i tool AI-assisted (Claude Code, integrazioni dbt MCP) per il debug della pipeline e l’automazione analytics
- Supporta il team analytics nel far scalare gli agenti analytics AI interni verso funzionalità customer-facing
Sarai Perfetto per Questo Ruolo se
- Hai 4+ anni in un ruolo di data engineering, analytics engineering o DataOps — con ownership di pipeline da cui altri dipendono
- Hai una solida esperienza in SQL e data modeling: hai preso decisioni architetturali reali su dataset reali e sai spiegarne i tradeoff
- Hai esperienza pratica con dbt in produzione — non solo nella scrittura di modelli, ma nella loro manutenzione, nel debug dei failure e nel presidio degli standard di qualità
- Hai competenze approfondite su un cloud data warehouse: Redshift o Snowflake — ottimizzazione delle query, gestione delle risorse/WLM, troubleshooting delle performance
- Conosci i fondamentali di PostgreSQL: indicizzazione, connection pooling, ottimizzazione delle query
- Hai un’ottima conoscenza dell’inglese — la collaborazione asincrona quotidiana avviene con il team US (PST)
- Sei a tuo agio nell’operare in autonomia nel fuso orario EU con una sovrapposizione limitata con gli US
Competenze che Fanno la Differenza
- Redshift internals: sort key, distribution key, configurazione WLM queue, query profiling con SVL/STL
- Esperienza con Snowflake — pianificazione di migrazione o implementazione greenfield
- Familiarità con l’infrastruttura: lettura di Terraform, operazioni base su Kubernetes, comprensione dell’architettura EKS/Aurora
- Esperienza on-call con PagerDuty — hai già gestito un SLA di pipeline
- Esperienza con tool analytics AI-powered o workflow dati assistiti da LLM
- Esperienza con LookML o Looker
Perché Unirsi a Solv?
- La possibilità di far parte di un team internazionale con impatto concreto sul settore sanitario
- Collaborazione diretta con il team US e con i principali stakeholder tecnici dell’azienda — con reale visibilità sull’architettura e sulle decisioni che contano
- Un ruolo con piena ownership: non esegui task, gestisci un dominio end-to-end
- L’opportunità di lavorare con tool AI-assisted di nuova generazione (Claude Code, agenti dbt) in un contesto in cui l’AI è già parte del lavoro quotidiano
- Viaggio annuale presso l’HQ a San Francisco, California
- Opportunità di crescita in un ambiente dinamico e in espansione