Архитектор данных (Data Architect)
Занятость | Полная занятость |
Полная занятость | |
Адрес | Узбекистан, Ташкент |
Должностные обязанности
-
разработка стратегии доменов данных (предметных/функциональных областей CLICK с точки зрения данных);
-
разработка шаблонов логических моделей данных для информационных и функциональных областей;
-
разработка корпоративных моделей данных в зависимости от технических и архитектурных ограничений информационной системы;
-
доработка и актуализация моделей новых сущностей и атрибутов с учетом бизнес-описания;
-
разработка правил использования данных в информационных системах CLICK;
-
разработка концептуальной архитектуры и архитектуры решений контура управления данными (платформа данных (DWH, Data LakeHouse), контур исполнения моделей (ML), контур бизнес-аналитики (BI), контур продуктовой аналитики(AB-тесты));
-
разработке методологий и правил использования данных в CLICK;
-
инициация предложений по выделению логических слоев данных;
-
контроль целостности и актуальности моделей данных;
-
поддержка в актуальном состоянии документации и глоссария;
Требования к кандидату
-
высшее техническое образование;
-
опыт работы архитектором платформы данных от 3-х лет;
-
понимание основных принципов логического моделирования данных;
-
опыт в разработке логических моделей данных информационной системы;
-
опыт формирования процессов управления данными, контрактов на данные, а также разработке дата-продуктов;
-
понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей;
-
понимание и опыт формирования ER-диаграммы;
-
знание Sparx Enterprise Architect или аналогов (CASE-средства проектирования);
-
знания методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native);
-
знание принципов архитектурных паттернов работы ML-Ops конвейера;
-
практический опыт построение системы исполнения моделей машинного обучения (обучение, serving и т.д.)
-
знание принципов построения хранилищ данных и основных архитектурных подходов (Inmon, Kimball, DataVault и т.п.);
-
глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming);
-
понимание принципов построения интеграционных процессов;
-
опыт работы с Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse;
-
глубокие знания SQL, Python;
Опыт | 3-6 лет |
График работы | Полный день |