×
Register Here to Apply for Jobs or Post Jobs. X

Un.e Ingénieur Data Backend

Job in 1008, Prilly, Canton de Vaud, Switzerland
Listing for: Jobup
Full Time position
Listed on 2026-01-08
Job specializations:
  • IT/Tech
    Data Engineer, Data Warehousing, Data Analyst, Data Science Manager
Salary/Wage Range or Industry Benchmark: 100000 - 125000 CHF Yearly CHF 100000.00 125000.00 YEAR
Job Description & How to Apply Below

La Fédération des Hôpitaux Vaudois informatique ( FHVi ), est le partenaire informatique privilégié de plus de 12 Hôpitaux et établissements de santé régionaux du canton de Vaud. La FHVi les accompagne dans les nombreux défis de la transformation digitale du domaine de la santé et a pour principales missions de planifier, concevoir, réaliser et exploiter le SI de ses membres.

Ce sont plus de 110 collaborateurs au service de 13'000 utilisateurs, pour parc de plus de 8'000 postes de travail répartis sur une centaine de sites géographiques et sur trois cantons (VD, VS, FR).

Vous souhaitez contribuer activement à la transformation digitale du domaine de la santé ?

Rejoignez la FHVi au sein du département Data et mettez votre expertise au service d’un écosystème technologique en pleine évolution.

En intégrant notre département Data, vous renforcerez l’équipe en place ayant pour mission de maintenir et développer notre entrepôt de données (Data Warehouse) ainsi que notre hub de données (Data Hub).

Votre mission :

Vous apporterez un soutien transversal aux projets décisionnels, en particulier sur le backend Tableau, et participerez activement au développement de notre plateforme d’intégration et d’interopérabilité de données de référence. Vous participerez au développement, à l’automatisation et à la fiabilité des pipelines de données de la FHVi en veillant à la performance, à la qualité et à la disponibilité des environnements Data Warehouse et Data Hub.

Vos

principales activités et responsabilités :
Sur la partie Data Warehouse :
  • Développer et maintenir les pipelines d’alimentation (ETL/ELT) en assurant leur performance, fiabilité et documentation.
  • Optimiser les traitements SQL et les performances d’accès aux données.
  • Administrer, monitorer et faire évoluer les environnements techniques du Data Warehouse (Jobs, Scripts, Automatisations, Tableau Software).
  • Contribuer à la mise en place de pratiques Data Ops (Versioning, déploiement automatisé).
Sur la partie Data Hub :
  • Concevoir et développer les flux d’intégration et d’interopérabilité entre applications via le Data Hub.
  • Maintenir et faire évoluer les référentiels de données (MDM).
  • Développer et orchestrer les interfaces d’échange de données (API, flux SQL, Services d’intégration).
  • Garantir la qualité, la sécurité et la traçabilité des données échangées.
  • Participer à l’automatisation et à la supervision des traitements d’intégration (Monitoring & Alerting).
De manière transversale :
  • Assurer la stabilité, la performance et la maintenabilité des plateformes de données.
  • Documenter les sources, processus d’alimentation et flux inter-systèmes.
  • Contribuer à l’amélioration continue des pratiques techniques et à la modernisation des plateformes.
Profil recherché :
Formation & expérience
  • Diplôme d’ingénieur en informatique (HES / EPF) ou expérience jugée équivalente.
  • Minimum 5 ans d’expérience dans le domaine des données, idéalement sur des environnements Data Warehouse ou Data Hub.
Compétences techniques
  • Expertise en SQL (optimisation, tuning, diagnostic, indexes, plans d’exécution).
  • Expertise en Python pour le développement de pipelines de données (ETL/ELT, API, Scheduling, gestion de librairies).
  • Bonnes connaissances Data Ops (Versioning, Intégration et déploiement continu, Git, Orchestration).
  • Connaissance ou intérêt pour les frameworks de pipelines modernes (dbt, dlt) et les outils d’orchestration (ex. Airflow, Jenkins, Prefect).
  • Bonne connaissance des bases de données relationnelles (MSSQL, Postgre

    SQL, Oracle) ;
    Bases No

    SQL un plus.
  • Connaissances du maintien des environnements Windows et Linux (On-premise, VM).
  • Connaissances en data visualisation (Tableau Software un plus).
Atouts complémentaires (non prioritaires) :
  • Familiarité avec Docker / Kubernetes pour le déploiement de traitements de données
  • Connaissances en Data virtualisation (Denodo un plus)
  • Expérience dans la mise en œuvre d’architectures Data Lake / Lakehouse
  • Expérience dans un projet cloud
  • Contribution à un projet ML ou LLM
Qualités personnelles
  • Bonne aptitude à la synthèse et à la restitution de la connaissance.
  • Esprit de collaboration et d'initiative.
  • Bonne gestion du contact avec les différents interlocuteurs et très bon…
Note that applications are not being accepted from your jurisdiction for this job currently via this jobsite. Candidate preferences are the decision of the Employer or Recruiting Agent, and are controlled by them alone.
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
 
 
 
Search for further Jobs Here:
(Try combinations for better Results! Or enter less keywords for broader Results)
Location
Increase/decrease your Search Radius (miles)

Job Posting Language
Employment Category
Education (minimum level)
Filters
Education Level
Experience Level (years)
Posted in last:
Salary