×
Register Here to Apply for Jobs or Post Jobs. X

Senior Business Intelligence Report Modeler​/Developer f​/m​/d

Job in 7402, Bonaduz, Kanton Graubünden, Switzerland
Listing for: Hamilton Services AG
Full Time position
Listed on 2026-02-27
Job specializations:
  • IT/Tech
    Data Engineer, Data Analyst, Data Warehousing, Data Science Manager
Salary/Wage Range or Industry Benchmark: 30000 - 80000 CHF Yearly CHF 30000.00 80000.00 YEAR
Job Description & How to Apply Below
Position: Senior Business Intelligence Report Modeler/Developer 80 - 100 % (f/m/d)
Location: Bonaduz

Getreu der Vision "We drive innovation to improve people's lives" liefern die Hamilton Unternehmen seit 1950 Lösungen für die Gesundheitsbranche. Wir sind ein innovativer Vorreiter was Beatmungsgeräte, das automatisierte Pipettieren und Lagern von Proben sowie die Entwicklung von Prozesssensoren anbelangt. Als Teil der Business Unit Shared Services (SHS) der Hamilton Bonaduz AG übernimmt dieser Bereich zentrale Aufgaben für die Hamilton Unternehmen.

Teams in HR, ICT, Corporate Communication, Facilities sowie Finance sorgen dafür, dass Prozesse reibungslos laufen und Mitarbeitende weltweit optimal unterstützt werden.

Das kannst du bewirken

Als Data Engineer / BI Modeler spielst du eine Schlüsselrolle bei der Konzeption, dem Aufbau und der Pflege der Datenarchitektur und der Business-Intelligence-Lösungen des Unternehmens. Du stellst sicher, dass hochwertige, konsistente und zuverlässige Daten für Analysen, Berichte und Entscheidungsfindungen zur Verfügung stehen. Du arbeitest eng mit Geschäftsinteressenten, Datenanalysten und IT-Teams zusammen, um Geschäftsanforderungen in skalierbare Datenmodelle und effiziente ETL-Prozesse umzusetzen.

Rollenübersicht

Als Data Engineer / BI Modeler spielst du eine Schlüsselrolle bei der Konzeption, dem Aufbau und der Pflege der Datenarchitektur und der Business-Intelligence-Lösungen des Unternehmens. Du stellst sicher, dass hochwertige, konsistente und zuverlässige Daten für Analysen, Berichte und Entscheidungsfindungen zur Verfügung stehen. Du arbeitest eng mit Geschäftsinteressenten, Datenanalysten und IT-Teams zusammen, um Geschäftsanforderungen in skalierbare Datenmodelle und effiziente ETL-Prozesse umzusetzen.

Hauptaufgaben Datenengineering und
-architektur
  • Entwurf, Entwicklung und Wartung skalierbarer Datenpipelines (ETL/ELT) zur Integration von Daten aus mehreren Systemen und Quellen
  • Sicherstellung der Datenqualität,
    -konsistenz und
    -integrität in allen Umgebungen
  • Optimierung der Datenflüsse und Abfrageleistung in Data Warehouses (z.

    B. Snowflake, Azure Synapse, Big Query, Redshift usw.)
  • Pflege und Verbesserung von Data-Lake- und Warehouse-Strukturen in Übereinstimmung mit Best Practices und Governance-Standards
Datenmodellierung und BI
  • Entwurf und Implementierung logischer und physischer Datenmodelle, die für Analyse- und Self-Service-BI-Tools (Power BI, Tableau, Qlik usw.) optimiert sind
  • Entwicklung wiederverwendbarer semantischer Modelle, Datensätze und Berechnung von Kennzahlen
  • Zusammenarbeit mit den Stakeholdern aus dem Unternehmen, um KPIs, Metriken und analytische Dimensionen zu definieren
  • Unterstützung der Endbenutzer beim Verständnis und Zugriff auf Daten für Berichte und Analysen
Governance & Quality
  • Implementierung von Standards für Datenvalidierung, Versionierung und Dokumentation
  • Mitwirkung an Initiativen zur Daten-Governance und Sicherstellung der Einhaltung von Datenschutz- und Datensicherheitsvorschriften (DSGVO usw.)
  • Proaktive Überwachung und Fehlerbehebung bei Datenpipelines und BI-Leistungsproblemen
Das bringst du mit Technische Fähigkeiten
  • Bachelor- oder Master-Abschluss in Informatik, Datenverarbeitung, Informationssystemen oder einem verwandten Bereich
  • Mindestens 3 Jahre Erfahrung in den Bereichen Datenverarbeitung, BI-Entwicklung oder Datenmodellierung
  • Fundierte SQL-Kenntnisse und Erfahrung mit relationaler und dimensionaler Datenmodellierung (Stern-/Schneeflockenschemata)
  • Praktische Erfahrung mit modernen Data-Warehouse-Technologien (z.

    B. Azure Synapse, Snowflake, Big Query, Redshift)
  • Beherrschung von ETL/ELT-Tools (z.

    B. Azure Data Factory, dbt, Informatica, Talend, SSIS)
  • Erfahrung mit BI-Tools wie Power BI, Tableau oder Qlik
  • Kenntnisse in Skript- oder Programmiersprachen (Python, PySpark) sind von Vorteil
  • Fundierte Kenntnisse in den Bereichen Data Governance, Metadatenmanagement und Datenlebenszyklusprinzipien
Soft Skills
  • Ausgeprägte analytische und problemlösungsorientierte Fähigkeiten
  • Auszeichnete Kommunikations- und Kooperationsfähigkeiten mit technischen und nicht-technischen Stakeholdern
  • Strukturierte und detailorientierte Arbeitsweise
  • Proaktive Denkweise mit Fokus auf kontinuierlicher Verbesserung und Automatisierung
Bevorzugte Technologie-Stack
  • Clou…
Position Requirements
10+ Years work experience
Note that applications are not being accepted from your jurisdiction for this job currently via this jobsite. Candidate preferences are the decision of the Employer or Recruiting Agent, and are controlled by them alone.
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
 
 
 
Search for further Jobs Here:
(Try combinations for better Results! Or enter less keywords for broader Results)
Location
Increase/decrease your Search Radius (miles)

Job Posting Language
Employment Category
Education (minimum level)
Filters
Education Level
Experience Level (years)
Posted in last:
Salary