Курс: Deep Learning
Продолжительность курса: 40 ак. ч.
Описание курса:
Курс охватывает основы и современные методы работы с нейронными сетями. Вы изучите архитектуры CNN, RNN, трансформеры и GAN, научитесь решать задачи компьютерного зрения и обработки текста, познакомитесь с transfer learning, механизмами внимания, а также технологиями генерации данных и глубоким обучением.
Аудитория:
• Программисты;
• Аналитики;
• Data Scientist.
Необходимая подготовка:
Уметь программировать на Python, знать библиотеки Pandas, NumPy, Scikit-learn, разбираться в основах и типах задач машинного обучения, владеть терминологией и понимать основные метрики машинного обучения: accuracy, precision, recall, MSE.
Программа курса:
Модуль 1. Основы нейронных сетей:
• Линейная регрессия: базовый подход к предсказанию числовых значений;
• Логистическая регрессия: решение задач классификации;
• Создание простой нейронной сети с нуля.
Модуль 2. Многослойные нейронные сети:
• Архитектура многослойного персептрона;
• Методы оценки эффективности моделей;
• Алгоритм градиентного спуска и его разновидности;
• Способы регуляризации для предотвращения переобучения.
Модуль 3. Свёрточные нейронные сети (CNN):
• Принцип работы свёрточных операций;
• Использование padding и stride в свёртках;
• Функция пулинга и её виды;
• Архитектура LeNet как первый успешный пример CNN.
Модуль 4. Современные архитектуры свёрточных сетей:
• Обзор популярных архитектур: LeNet, AlexNet, VGG, NiN, GoogLeNet;
• ResNet: использование residual connections;
• DenseNet: особенности полносвязных соединений между слоями.
Модуль 5. Повышение качества обучения нейросетей:
• Техники аугментации данных;
• Динамическое изменение скорости обучения (learning rate schedulers);
• Transfer learning: fine-tuning и feature extraction;
• Архитектуры популярных feature extractors: VGG, EfficientNet, MobileNet.
Модуль 6. Рекуррентные нейронные сети (RNN):
• Основы языкового моделирования;
• Особенности обучения рекуррентных сетей;
• Архитектуры GRU и LSTM для обработки последовательностей;
• Генерация текста с помощью RNN;
• Углубление: Deep RNN, BiRNN, Residual Connections;
• Encoder-Decoder: построение систем перевода и других решений.
Модуль 7. Механизм внимания (Attention):
• Виды механизмов внимания;
• Архитектура трансформера: принципы работы и преимущества.
Модуль 8. Компьютерное зрение:
• Задачи детекции объектов на изображении;
• Архитектуры Region-Based, YOLO и SSD;
• Семантическая сегментация изображений;
• Сети SegNet и U-Net;
• Методы изменения и улучшения изображений.
Модуль 9. Обработка естественного языка (NLP):
• Представление слов в виде векторов;
• Методы SVD и Word2Vec;
• FastText: работа с подсловами;
• Контекстные представления: ELMo;
• Архитектуры BERT и его модификаций;
• Языковые модели на основе GPT.
Модуль 10. Генеративные модели:
• Автоэнкодеры: основы и применение;
• Вариационные автоэнкодеры (VAE): обучение распределений;
• Генеративные состязательные сети (GAN): устройство и обучение;
• Виды и проблемы GAN;
• Введение в обучение с подкреплением.
Окончательная цена указывается в договоре на обучение.
Записаться на курс