Мы поддерживаем AI/ML-приложения для оптимизации процессов банка и улучшения клиентского опыта. Среди наших проектов есть такие, как оптимизация инкассации банкоматов, маршрутизация и закрытие клиентских обращений, поиск фрода и его блокировка, поиск и ответы по базе знаний и многое другое.
На данный момент у нас открыта вакансия инженера по машинному обучению.
Задачи инженера по машинному обучению
Оптимизация AI-пайплайнов для автоматизации банковских процессов.
Интеграция и адаптация предобученных LLM (Qwen3, QwQ, LLaMA) под процессы банка.
Внедрение RAG-систем для ответов на вопросы документации и решения клиентских обращений.
Поддержание системы офлайн- и онлайн-метрик для оценки качества LLM-приложений.
Поддержание API для взаимодействия LLM-приложений со сторонними системами.
Поддержание PySpark-приложений для взаимодействия сервисов с базами данных.
Проведение исследований научных статей и реализация описанных подходов по AI-агентам для улучшения качества работы.
Написание документации к сервисам и проектирование новых решений (ML System Design Doc).
Взаимодействие с бизнес-подразделениями для сбора требований и презентации результатов.
Поддержание Data/ML-культуры: участие в митапах, ревью кода и дизайна решений, шеринг экспертизой, помощь коллегам в осваивании инструментов машинного обучения.
Инженер по машинному обучению в банке
Имеет опыт работы в роли NLP/LLM Engineer от 3 лет.
Владеет на экспертном уровне Python-библиотеками для AI/ML (PyTorch, Transformers, LangChain, LlamaIndex, LangGraph, pandas, NumPy, scikit-learn).
Имеет опыт работы с LLM для сценариев AI-агентов (Tool Calling, Structured Output, Memory Management, React Framework).
Имеет опыт построения и знание современных подходов RAG (Hybrid Search, LLM Reranking, Multi-query Search, Chunking Strategies).
Отслеживает новые подходы и методы работы с LLM (Reasoning, MCP, Multi-agent, Coding Agents).
Имеет опыт разработки асинхронных API на Python (FastAPI, Litestar, aiohttp, asyncio).
Имеет опыт работы с SQL и распределенными системами (Hadoop, PySpark).