united consult
crm solutions
big data
Szoftverfejlesztés
Quality Engineering
cybersecurity
other-it
non-it
agile

Data Engineer - 5113

Hybrid
Hungarian
Budapest
years of experience

Milyen UC-színekben dolgozni?

Egy dolog biztos mind a 350+ kollégánk ugyanazt mondaná: ez egy valóban egyedi és megismételhetetlen élmény. A UC-nál a szakmai fejlődés és a személyes kibontakozás kéz a kézben jár. A testre szabott szakmai képzésektől a csapatépítő programokig mindenben arra törekszünk, hogy a munka inspiráló és élvezetes legyen.

Részt vehetsz az IT Fest lendületes programjain, bejárhatod a festői Balaton-kört két keréken vagy gyalog, feltöltődhetsz a hangulatos kUCkóban, kibontakoztathatod a kreativitásodat tematikus kézműves délutánokon, vagy jótékonysági eseményeinken tehetsz a közösségért.

Az ügyfélről/a projektről

Feladatok

  • Design, development, and maintenance of analytical data models using dbt.
  • Translating business requirements into logical and physical data models.
  • Designing and developing dimensional data models (facts & dimensions, star / snowflake schemas).
  • Implementing SCD Type 2 solutions to handle temporal changes in dimensions.
  • Managing historical data and ensuring traceability and retrievability.
  • Designing data quality checks, validations, and automated tests in dbt.
  • Designing and optimizing SQL-based transformations on large datasets.
  • Designing and implementing data loading and transformation processes.
  • Analyzing the quality, consistency, and changes of data coming from source systems.
  • Documenting and maintaining data models (dbt docs, lineage).
  • Close collaboration with business analysts, data scientists, and other technical stakeholders.

Szükséges ismeretek/használt technológiák

  • Strong SQL knowledge, including: handling historical data, using analytical (window) functions, performance optimization of complex queries
  • Experience with dbt, with a focus on: model structures and layering, applying best practices, testing and documentation
  • Data modeling experience: logical and physical data models, analytical (dimensional) data models
  • Confident use of Python for data processing tasks.
  • Knowledge and active use of Python DataFrame libraries (pandas, polars, dask, or similar).
  • Version control (Git) and a basic CI/CD mindset.

Előnyt jelent

  • Experience in a Databricks environment (notebooks, basic workflows).
  • Basic knowledge of the Spark DataFrame API and Spark SQL.
  • Understanding of Delta Lake concepts (schema evolution, time travel, ACID behavior).
  • Basic Spark performance optimization knowledge (partitioning, caching).
  • Experience in cloud environments, primarily on the Azure platform.
  • Familiarity with data processing pipelines or orchestration tools (e.g., Databricks Jobs, Airflow).

Miért érdemes csatlakozni hozzánk

  • Mert mi számíthatunk egymásra, szakmai és emberi közösséget alkotunk.
  • Szakmai képzéseken, konferenciákon való részvételi lehetőség.
  • Sikereiddel, szakmai tudásoddal karrieredet folyamatosan építheted.
  • Stabil vállalat, piacvezető ügyfelek.
  • Izgalmas csapatépítőkön és rendezvényeken vehetsz részt.
Most nincs számodra nyitott pozíciónk?

Csatlakozz a Talent Poolunkhoz, és elsőként értesülj az új lehetőségekről!

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.