С 2012 по 2018 годы количество вакансий специалистов по Data Science выросло в 19 раз. Прямо сейчас стажеров и профессионалов ищут Яндекс, Mail.ru, Сбербанк, Райффайзенбанк, Росбанк, МТС, Tele2, ЦИАН, М-Видео, Северсталь и другие крупные компании.
От специалиста в ML ждут высокого уровня подготовки и понимания не только принципов работы моделей машинного обучения, но и реалий бизнеса, в которые эти модели предстоит внедрять, гибкости и готовности искать новые решения.
Совместно с профи из российских Data Science компаний мы разработали самый жизненный курс Machine Learning: с изучением как математических и статистических принципов алгоритмов, так и современных библиотек, с особым упором на предобработку данных, feature engineering и оценку моделей.
Модуль 1. Введение в машинное обучение
— Введение в машинное обучение. Типы алгоритмов
— Какие бизнес-задачи решает машинное обучение — и какие нет
— Обзор кейсов по внедрению машинного обучения: анализ алгоритмов и использованных решений
— Этапы решения задач машинного обучения:
— Задачи на закрепление темы: тесты, проверка кода
— Практика: реализация этапов машинного обучения на примере готовой модели
Модуль 2. Методы предобработки данных
— Типы данных и их проблемы
— Работа с пропусками и начальная обработка
— Визуализация для предобработки
— Feature engineering
— Поиск выбросов
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: работа с параметрами модели
Модуль 3. Регрессия
— Линейная регрессия. Задачи регрессии и примеры использования в бизнесе
— Математический вывод линейной регрессии. Возможные ошибки в работе алгоритма
— Обучение модели линейной регрессии
— Методы нахождения прямой в регрессии
— Логистическая регрессия
— Регуляризация моделей
— Дополнительные материалы
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: обучение и оптимизация моделей линейной и логистической регрессии
Модуль 4. Кластеризация
— Обучение с учителем и без учителя (supervised / unsupervised learning)
— Области применения методов обучения без учителя
— Метод K-means
— Метод mean-shift
— Метод понижения размерности с помощью SVD
— Работа с текстами
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: unsupervised обучение модели методами K-means, mean-shift и методом понижения размерности
Модуль 5. Tree-based алгоритмы: введение в деревья решений
— Введение в деревья решений
— Решающее дерево и как его построить
— Примеры использования деревьев решений в production
— Визуализация структуры дерева
— Алгоритм построения дерева
— Виды деревьев в библиотеках машинного обучения
— Реализация деревьев в библиотеке sklearn
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: обучение решающего дерева для задачи регрессии
Модуль 6 Tree-based алгоритмы: ансамбли
— Области применения ансамблей
— Random Forest
— Бустинг
— Стекинг
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: соревнование по обучению решающих деревьев на kaggle
Модуль 7. Валидация данных и оценка качества алгоритмов
— Методы разбиения выборки для валидации данных
— Метрики качества алгоритмов
— Оценка качества алгоритмов в production
— Underfitting / overfitting
— Дисбаланс выборки: как бороться
— Визуализация процесса обучения модели
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: оценка качества алгоритма классификации
Модуль 8. Временные ряды в машинном обучении
— Задача анализа временных рядов в ML
— Принципы обучения алгоритма
— Эконометрический подход в анализе временных рядов
— Алгоритмы машинного обучения для анализа временных рядов
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: обучение линейной модели и использование XGBoost для анализа временных рядов
Модуль 9. Рекомендательные системы
— Обзор подходов к построению рекомендательных систем
— Принципы разбиения выборки
— Модель TopRecommender
— Коллаборативная фильтрация
— Разреженная матрица
— Алгоритм SVD Recommender
— Проблема холодного старта в рекомендательных системах
— Бустинг в рекомендательных системах: использование LightGBM
— Задачи на закрепление темы: тесты, ввод значений, проверка кода студентов на платформе
— Практика: обучение рекомендательной системы
Модуль 10. Финальный хакатон
— Выпускной хакатон: командное соревнование по обучению модели на платформе kaggle
Мы бесплатно подберем для Вас подходящие курсы.
Подборка курсов на e-mail