Ми шукаємо інженера, який не просто пише ETL, а формує дата-інфраструктуру: від data lakes і cloud-платформ до стрімінгових систем і масштабованих пайплайнів.
ЩО ТИ БУДЕШ РОБИТИ:
Проєктувати архітектуру та реалізовувати нові фічі для data-платформи, співпрацюючи з Business Data Analysts, Data Scientists і стейкхолдерами.Розробляти й підтримувати ETL/ELT пайплайни для обробки даних із зовнішніх API, data streams та data lakes.Трансформувати та інтегрувати дані, використовуючи Python і сучасні бібліотеки (Pandas, PySpark, Polars, PyArrow).Оптимізувати обчислення на принципах distributed computing та ефективного використання ресурсів.Застосовувати cloud-платформи (AWS, GCP, Azure) та їхні core-сервіси для зберігання, обробки і доставки даних.Будувати рішення на основі data warehouses (Snowflake, BigQuery, Redshift) та data lakes як частини сучасної архітектури.Писати продуктивні SQL-запити, виконувати query tuning та інтегруватися з БД (PostgreSQL, MSSQL, MySQL).Проєктувати data models з урахуванням OLTP/OLAP, SCD, star/snowflake схем.Оркеструвати дата-процеси, використовуючи фреймворки (Airflow, Prefect, Glue, Azure Data Factory).Дотримуватись best practices щодо data security, privacy та governance.Аналізувати існуючі пайплайни, пропонувати оптимізації й брати участь у технічному decision-making.Ділитися знаннями та брати участь у внутрішньому knowledge sharing.Ми очікуємо, що ти маєш щонайменше чотири роки комерційного досвіду виконання подібних задач.
НАШІ ПРОЄКТИ:
Ми будуємо data-рішення у різних доменах: e-commerce, fintech, healthcare, telecom, adtech та supply chain. Це означає роботу з різними джерелами даних, високими навантаженнями й бізнес-процесами світових компаній.
Ми працюємо з cloud-native data платформами, stream processing, real-time аналітикою та data science ініціативами. Використовуємо сучасний стек: data warehouses (Snowflake, BigQuery, Redshift), data lakes (S3, ADLS), orchestration (Airflow), distributed processing (Spark, Databricks, Flink).
Технологічні підходи залежать від клієнта й задачі, але завжди:
дотримуємось best practices у data architecture, security та governance;працюємо в міжнародних командах із чітким розподілом зон відповідальності;даємо інженерам вплив на вибір технологій і архітектурних рішень;враховуємо індивідуальні інтереси — доступна ротація між проєктами.ЩО НАМ ВАЖЛИВО:
Мислити системно — бачити вплив рішень на архітектуру й підтримку платформи.Розбиратися в деталях — перевіряти дані, помічати аномалії й залежності.Аналізувати критично — спиратися на дані, а не припущення.БУДЕ ПЛЮСОМ:
Досвід із Snowflake, BigQuery чи Redshift.Оптимізація Spark.Розуміння SQL/NoSQL підходів.Робота з data lakes та lakehouse-платформами.Контейнеризація (Docker, Kubernetes) або serverless (AWS Lambda).Знання форматів даних (Parquet, Avro, ORC, JSON, XML).Інтеграції з Databricks, Talend, Fivetran, Informatica.Досвід у BI чи ML.ЩО ТИ ОТРИМАЄШ:
Конкурентну компенсацію відповідно до досвіду та експертизи.Вплив на вибір технологій, архітектуру й пріоритети.Сильне середовище інженерів, архітекторів та аналітиків.Сучасний стек: Spark, Kafka, Snowflake, Databricks, Airflow, dbt, Docker.Кар’єрний трек з прозорими review та growth-планом.Best practices: code review, CI/CD, тестування пайплайнів.Виклики — великі дані, real-time стріми, складні інтеграції.Гнучкість — remote-first та work-life balance.Ротацію між проєктами й доменами.Розвиток — сертифікації, платформи, knowledge sharing.Міжнародність — глобальні клієнти та мультинаціональні команди.
Приєднуйся до NIX — і допоможи нам будувати дата-архітектури, які визначають майбутнє бізнесу.