Об этом курсе
Недавно просмотрено: 147,168

100% онлайн

Начните сейчас и учитесь по собственному графику.

Гибкие сроки

Назначьте сроки сдачи в соответствии со своим графиком.

Продвинутый уровень

Прибл. 33 часа на выполнение

Предполагаемая нагрузка: 5 weeks of study, 4-5 hours per week...


Субтитры: Английский

Приобретаемые навыки

ChatterbotTensorflowDeep LearningNatural Language Processing

100% онлайн

Начните сейчас и учитесь по собственному графику.

Гибкие сроки

Назначьте сроки сдачи в соответствии со своим графиком.

Продвинутый уровень

Прибл. 33 часа на выполнение

Предполагаемая нагрузка: 5 weeks of study, 4-5 hours per week...


Субтитры: Английский

Программа курса: что вы изучите

5 ч. на завершение

Intro and text classification

In this module we will have two parts: first, a broad overview of NLP area and our course goals, and second, a text classification task. It is probably the most popular task that you would deal with in real life. It could be news flows classification, sentiment analysis, spam filtering, etc. You will learn how to go from raw texts to predicted classes both with traditional methods (e.g. linear classifiers) and deep learning techniques (e.g. Convolutional Neural Nets).

11 видео ((всего 114 мин.)), 3 материалов для самостоятельного изучения, 3 тестов
11 видео
Welcome video5мин
Main approaches in NLP7мин
Brief overview of the next weeks7мин
[Optional] Linguistic knowledge in NLP10мин
Text preprocessing14мин
Feature extraction from text14мин
Linear models for sentiment analysis10мин
Hashing trick in spam filtering17мин
Neural networks for words14мин
Neural networks for characters8мин
3 материала для самостоятельного изучения
Prerequisites check-list2мин
Hardware for the course5мин
Getting started with practical assignments20мин
2 практического упражнения
Classical text mining10мин
Simple neural networks for text10мин
5 ч. на завершение

Language modeling and sequence tagging

In this module we will treat texts as sequences of words. You will learn how to predict next words given some previous words. This task is called language modeling and it is used for suggests in search, machine translation, chat-bots, etc. Also you will learn how to predict a sequence of tags for a sequence of words. It could be used to determine part-of-speech tags, named entities or any other tags, e.g. ORIG and DEST in "flights from Moscow to Zurich" query. We will cover methods based on probabilistic graphical models and deep learning.

8 видео ((всего 84 мин.)), 2 материалов для самостоятельного изучения, 3 тестов
8 видео
Perplexity: is our model surprised with a real text?8мин
Smoothing: what if we see new n-grams?7мин
Hidden Markov Models13мин
Viterbi algorithm: what are the most probable tags?11мин
MEMMs, CRFs and other sequential models for Named Entity Recognition11мин
Neural Language Models9мин
Whether you need to predict a next word or a label - LSTM is here to help!11мин
2 материала для самостоятельного изучения
Perplexity computation10мин
Probabilities of tag sequences in HMMs20мин
2 практического упражнения
Language modeling15мин
Sequence tagging with probabilistic models20мин
5 ч. на завершение

Vector Space Models of Semantics

This module is devoted to a higher abstraction for texts: we will learn vectors that represent meanings. First, we will discuss traditional models of distributional semantics. They are based on a very intuitive idea: "you shall know the word by the company it keeps". Second, we will cover modern tools for word and sentence embeddings, such as word2vec, FastText, StarSpace, etc. Finally, we will discuss how to embed the whole documents with topic models and how these models can be used for search and data exploration.

8 видео ((всего 83 мин.)), 3 тестов
8 видео
Explicit and implicit matrix factorization13мин
Word2vec and doc2vec (and how to evaluate them)10мин
Word analogies without magic: king – man + woman != queen11мин
Why words? From character to sentence embeddings11мин
Topic modeling: a way to navigate through text collections7мин
How to train PLSA?6мин
The zoo of topic models13мин
2 практического упражнения
Word and sentence embeddings15мин
Topic Models10мин
5 ч. на завершение

Sequence to sequence tasks

Nearly any task in NLP can be formulates as a sequence to sequence task: machine translation, summarization, question answering, and many more. In this module we will learn a general encoder-decoder-attention architecture that can be used to solve them. We will cover machine translation in more details and you will see how attention technique resembles word alignment task in traditional pipeline.

9 видео ((всего 98 мин.)), 4 тестов
9 видео
Noisy channel: said in English, received in French6мин
Word Alignment Models12мин
Encoder-decoder architecture6мин
Attention mechanism9мин
How to deal with a vocabulary?12мин
How to implement a conversational chat-bot?11мин
Sequence to sequence learning: one-size fits all?10мин
Get to the point! Summarization with pointer-generator networks12мин
3 практического упражнения
Introduction to machine translation10мин
Encoder-decoder architectures20мин
Summarization and simplification15мин
Рецензии: 94Chevron Right


начал новую карьеру, пройдя эти курсы


получил значимые преимущества в карьере благодаря этому курсу


стал больше зарабатывать или получил повышение

Лучшие отзывы о курсе Обработка текстов, написанных на естественных языках

автор: GYMar 24th 2018

Great thanks to this amazing course! I learned a lot on state-to-art natural language processing techniques! Really like your awesome programming assignments! See you HSE guys in next class!

автор: MVMar 18th 2019

Definitely best course in the Specialization! Lecturers, projects and forum - everything is super organized. Only StarSpace was pain in the ass, but I managed :)



Anna Potapenko

HSE Faculty of Computer Science

Alexey Zobnin

Accosiate professor
HSE Faculty of Computer Science

Anna Kozlova

Team Lead

Sergey Yudin


Andrei Zimovnov

Senior Lecturer
HSE Faculty of Computer Science

О Национальный исследовательский университет "Высшая школа экономики"

National Research University - Higher School of Economics (HSE) is one of the top research universities in Russia. Established in 1992 to promote new research and teaching in economics and related disciplines, it now offers programs at all levels of university education across an extraordinary range of fields of study including business, sociology, cultural studies, philosophy, political science, international relations, law, Asian studies, media and communicamathematics, engineering, and more. Learn more on www.hse.ru...

О специализации ''Продвинутое машинное обучение'

This specialization gives an introduction to deep learning, reinforcement learning, natural language understanding, computer vision and Bayesian methods. Top Kaggle machine learning practitioners and CERN scientists will share their experience of solving real-world problems and help you to fill the gaps between theory and practice. Upon completion of 7 courses you will be able to apply modern machine learning methods in enterprise and understand the caveats of real-world data and settings....
Продвинутое машинное обучение

Часто задаваемые вопросы

  • Зарегистрировавшись на сертификацию, вы получите доступ ко всем видео, тестам и заданиям по программированию (если они предусмотрены). Задания по взаимной оценке сокурсниками можно сдавать и проверять только после начала сессии. Если вы проходите курс без оплаты, некоторые задания могут быть недоступны.

  • Записавшись на курс, вы получите доступ ко всем курсам в специализации, а также возможность получить сертификат о его прохождении. После успешного прохождения курса на странице ваших достижений появится электронный сертификат. Оттуда его можно распечатать или прикрепить к профилю LinkedIn. Просто ознакомиться с содержанием курса можно бесплатно.

Остались вопросы? Посетите Центр поддержки учащихся.