Изучить
Онлайн-степени
Степени
Онлайн-диплом
Смотреть дипломные программы магистра и бакалавра
MasterTrack™
Получите зачетные единицы для диплома магистра
Сертификаты университетов
Развивайте свою карьеру, проходя обучение на диплом магистра
Найти карьеру
Для организаций
Для университетов
Обзор
Самые популярные курсы
Войти
Присоединиться бесплатно
List
Справочник
Искать:
硕士学位
MasterTracks®
专业证书
专项课程
课程
合作伙伴
授课教师
语言
主题
视频
查询
“集合”
课程评论
视频
Курс: Повышение эффективности глубоких нейросетей. Чтобы вернуться, нажмите
здесь
.
Наборы данных для тренировки, разработки и тестирования
Смещение/дисперсия
Базовый рецепт машинного обучения
Регуляризация
Почему регуляризация снижает уровень переобучения?
Регуляризация методом исключения
Общие сведения об исключении
Другие методы регуляризации
Нормализация входных данных
Исчезновение и взрыв градиента
Инициализация веса для глубоких сетей
Численное приближение градиентов
Проверка градиентов
Замечания по реализации проверки градиентов
Интервью с Йошуа Бенжио
Мини-пакетный градиентный спуск
Общие сведения о мини-пакетном градиентном спуске
Экспоненциально взвешенное среднее
Определение экспоненциально взвешенного среднего
Корректировка смещения в экспоненциально взвешенных средних
Градиентный спуск с моментами
RMSprop
Алгоритм оптимизации Адама
Снижение интенсивности обучения
Задача локального оптимума
Интервью с Юаньцин Линь
Процесс настройки
Использование подходящего масштаба для выбора гиперпараметров
Оптимизация гиперпараметров на практике: панды или икра?
Нормализация активаций в сети
Подгонка пакетной нормализации под нейросеть
Почему пакетная нормализация работает?
Пакетная нормализация на этапе тестирования
Регрессия Softmax
Тренировка классификатора Softmax
Фреймворки глубокого обучения
TensorFlow