Требуется ml engineer (middle+/senior) в сфере IT, телекоммуникации, связь, электроника
300 000 руб.
Москва | Добавлено: 14 мая 2026, ID: 33837020
Jcat Работа Jcat Работа
Jcat Работа
Тел.:
+7(933)399-37-25
Skype
Arendafon
Сфера деятельности: IT, телекоммуникации, связь, электроника
Тип занятости: полная занятость
Опыт работы: 1-3 года
График работы: полный день

Описание

Название компании: ООО "КОМБЛОК"
О проекте:
Разработка экосистемы сервисов на базе ИИ для автоматизированного анализа контента и аудитории в мессенджерах. Реализация RAG/LoRA и open source LLM для обработки TG-контента, семантического анализа, предсказаний, генерации контента и ИИ-отчетов. Ищем сильного инженера, готового автономно закрывать задачи по подготовке данных, дообучению моделей и их эффективному развертыванию на собственных мощностях.
Мы предлагаем:
Стабильный доход: конкурентоспособная заработная плата. Выплаты 2 раза в месяц по 50% или 1 раз в месяц (согласовывается с сотрудником).
Гибкий формат: график 5/2. На старте (первые 2 месяца) - работа в офисе, далее возможен переход на гибридный формат.
Профессиональную среду: мотивированная команда, отсутствие бюрократии, возможность напрямую влиять на архитектуру ИИ-сервисов.
Развитие: реальные возможности для профессионального роста и обучения.
Обязательные требования:
Инфраструктура и GPU: практический опыт работы с bare-metal серверами и видеокартами Nvidia. Умение конфигурировать CUDA, драйверы, мониторить утилизацию памяти VRAM и решать проблемы OOM.
Автономность (Solo-развертывание): способность самостоятельно «под ключ» развернуть open-source модель на собственном сервере - от настройки окружения до оптимизации инференса.
Fine-tuning: глубокие знания и коммерческий опыт дообучения LLM (Llama, Mistral, Qwen и др.) с использованием LoRA / QLoRA / PEFT на доменных данных.
RAG-архитектура: экспертные знания пайплайнов Retrieval-Augmented Generation. Опыт интеграции и настройки векторных баз данных (PGVector, FAISS).
Контейнеризация и оркестрация: свободное владение Docker и Docker Compose для локальной сборки и деплоя ML-сервисов.
Сервинг моделей: опыт работы с фреймворками высокопроизводительного инференса (vLLM, TGI, ONNX Runtime).
ML-Бэкенд: уверенный Python (FastAPI, Pydantic), асинхронное программирование (asyncio, aiohttp) и батчинг запросов для минимизации latency.
Данные и Эмбеддинги: векторизация текста (Sentence Transformers), работа с большими массивами текстовых данных, интеграция с Postgres и Redis.
Желательные навыки:
Оптимизация инференса: опыт квантизации моделей (GGUF, AWQ, GPTQ), применение Flash Attention и распределение нагрузки на multi-GPU.
NLP & Парсинг: опыт извлечения сущностей (NER), анализа тональности и тематического моделирования. Опыт интеграции с парсерами (Telethon / Playwright) для real-time данных.
Очереди и асинхронность: опыт работы с Celery / RQ для ресурсоемких фоновых задач ML.
MLOps: базовый мониторинг моделей (Prometheus, Sentry, drift-мониторинг).
Требуемый опыт:
Не менее 3 лет в коммерческой ML-разработке (с фокусом на LLM, RAG и инфраструктуру деплоя).
Подтвержденный опыт вывода ML-сервисов в Production на выделенных (собственных/арендованных) GPU-серверах.
Самостоятельность: опыт ведения ML-фич в одиночку от R&D до деплоя.
Опыт командной работы (Git, Code Review, Agile).
Адрес работы: Москва, Москва

Отмена