×
Register Here to Apply for Jobs or Post Jobs. X
More jobs:

Data & AI Manager​/Master

Job in Brazil, Clay County, Indiana, 47834, USA
Listing for: CI&T
Full Time position
Listed on 2026-01-17
Job specializations:
  • IT/Tech
    Data Engineer
Salary/Wage Range or Industry Benchmark: 80000 - 100000 USD Yearly USD 80000.00 100000.00 YEAR
Job Description & How to Apply Below
Position: [Job 25920] Data & AI Manager/Master

Somos especialistas em transformação tecnológica
, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante
: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.

Buscamos uma liderança sênior, hands‑on, para integrar nosso time de dados CI&T e liderá‑lo na construção de um ecossistema de dados moderno, orientado a produto e a plataforma. Você atuará diretamente com a média e alta gestão, traduzindo necessidades de negócio em arquiteturas e capacidades reutilizáveis, combinando governança como plataforma, Policy‑as‑Code, Lakehouse/Event‑Driven e uso de GenAI para acelerar Data Discovery, Data Quality, Compliance e adoção.

Responsabilidades
  • Liderar e desenvolver o time, promovendo boas práticas de engenharia e cultura de Data as a Product (domain ownership, SLOs/SLIs).
  • Projetar e implementar pipelines de dados complexos (batch e streaming), com automação, orquestração e otimização de ETL/ELT.
  • Desenvolver transformações em Python/PySpark e SQL, com testes automatizados (PyTest) e padrões de engenharia.
  • Assegurar Data Quality de ponta a ponta: testes como código, SLOs/SLIs de datasets, alerta proativo e automação de remediação.
  • Desenhar o blueprint de plataforma:
    Metadata-first, Lineage, Policy-as-Code, Data Catalog/Discovery, Semantic Layer, observabilidade.
  • Incorporar GenAI no fluxo: copilotos para catálogo e documentação, Sensitive Data Classification (PII), geração assistida de políticas e testes, Change Intelligence (impact summaries).
  • Colaborar com equipes multidisciplinares (dados, produto, segurança, compliance, negócio), traduzindo requisitos de negócio em soluções técnicas escaláveis e mensuráveis.
  • Conduzir decisões de arquitetura (Lakehouse, Delta/Parquet, real-time com Pub/Sub/Kafka, microservices) com foco em escalabilidade, custo e segurança.
  • Operar mecanismos de Compliance “always‑on” (LGPD/PII): classificação, mascaramento, access control contextual e rastreabilidade ponta a ponta.
  • Integrar a plataforma com o ecossistema corporativo (APIs, eventos, legados/SaaS), garantindo performance e confiabilidade.
  • Implantar versionamento, CI/CD e IaC (Git/Azure Dev Ops) para reprodutibilidade e menor time‑to‑data.
  • Interagir com a alta gestão, apresentar roadmaps, riscos e resultados; definir e acompanhar OKRs/métricas (adoção, lead time, incidentes, risco residual).
  • Evangelizar e gerir a mudança para aumentar adoção e valor de negócio.
Experiências necessárias
  • Experiência sólida construindo pipelines de dados com Python, PyTest, PySpark e SQL.
  • Experiência sólida em Google Cloud Platform (Big Query, Dataproc, Dataflow, Pub/Sub, Composer/Airflow, IAM).
  • Experiência sólida com ferramentas de orquestração (Airflow/Composer, Dagster, Prefect).
  • Experiência com Databricks em pipelines complexos (Delta Lake, Jobs/Workflows, Unity Catalog).
  • Vivência com bancos relacionais e não relacionais, incluindo schema design e query optimization.
  • Experiência em arquitetura de microservices e integrações corporativas (REST/Graph

    QL, event‑driven).
  • Proficiência em Git/Azure Dev Ops para versionamento, CI/CD e colaboração.
  • Vivência prática em Data Governance operacional:
    Metadata, Lineage, Data Catalog/Discovery, Data Quality, Security & Access.
  • Experiência liderando times técnicos e interagindo com executivos, com forte comunicação e influência.
  • Sólida compreensão de Security, Privacy e Compliance (LGPD) aplicados a dados.
  • Capacidade de decisões de arquitetura com foco em custo/eficiência (Fin Ops), escalabilidade e confiabilidade.
Desejável
  • Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas.
  • Experiência prévia sênior em engenharia de dados e projetos com GCP.
  • Certificações:
    Google Professional Data Engineer/Cloud Architect;
    Databricks (Data Engineer Professional);
    Airflow/Dagster; segurança.
  • Ferramentas de Data Quality/Observability (Great Expectations, Soda, Monte Carlo) e de Metadados/Catálogo (Data Hub,…
To View & Apply for jobs on this site that accept applications from your location or country, tap the button below to make a Search.
(If this job is in fact in your jurisdiction, then you may be using a Proxy or VPN to access this site, and to progress further, you should change your connectivity to another mobile device or PC).
 
 
 
Search for further Jobs Here:
(Try combinations for better Results! Or enter less keywords for broader Results)
Location
Increase/decrease your Search Radius (miles)

Job Posting Language
Employment Category
Education (minimum level)
Filters
Education Level
Experience Level (years)
Posted in last:
Salary