Об этом курсе

Недавно просмотрено: 212,183
Сертификат, ссылками на который можно делиться с другими людьми
Получите сертификат по завершении
100% онлайн
Начните сейчас и учитесь по собственному графику.
Гибкие сроки
Назначьте сроки сдачи в соответствии со своим графиком.
Средний уровень
Прибл. 24 часа на выполнение
Английский

Приобретаемые навыки

Word2vecParts-of-Speech TaggingN-gram Language ModelsAutocorrect
Сертификат, ссылками на который можно делиться с другими людьми
Получите сертификат по завершении
100% онлайн
Начните сейчас и учитесь по собственному графику.
Гибкие сроки
Назначьте сроки сдачи в соответствии со своим графиком.
Средний уровень
Прибл. 24 часа на выполнение
Английский

от партнера

Placeholder

deeplearning.ai

Программа курса: что вы изучите

Оценка контентаThumbs Up91%(2,466 оценки)Info
Неделя
1

Неделя 1

6 ч. на завершение

Autocorrect

6 ч. на завершение
9 видео ((всего 27 мин.)), 2 материалов для самостоятельного изучения, 1 тест
9 видео
Overview1мин
Autocorrect2мин
Building the model3мин
Building the model II2мин
Minimum edit distance2мин
Minimum edit distance algorithm5мин
Minimum edit distance algorithm II3мин
Minimum edit distance algorithm III2мин
2 материала для самостоятельного изучения
Connect with your mentors and fellow learners on Slack!10мин
How to Refresh your Workspace10мин
Неделя
2

Неделя 2

4 ч. на завершение

Part of Speech Tagging and Hidden Markov Models

4 ч. на завершение
11 видео ((всего 38 мин.))
11 видео
Markov Chains3мин
Markov Chains and POS Tags4мин
Hidden Markov Models3мин
Calculating Probabilities3мин
Populating the Transition Matrix4мин
Populating the Emission Matrix2мин
The Viterbi Algorithm3мин
Viterbi: Initialization2мин
Viterbi: Forward Pass2мин
Viterbi: Backward Pass5мин
Неделя
3

Неделя 3

7 ч. на завершение

Autocomplete and Language Models

7 ч. на завершение
9 видео ((всего 50 мин.))
9 видео
N-grams and Probabilities7мин
Sequence Probabilities5мин
Starting and Ending Sentences8мин
The N-gram Language Model6мин
Language Model Evaluation6мин
Out of Vocabulary Words4мин
Smoothing6мин
Week Summary1мин
Неделя
4

Неделя 4

7 ч. на завершение

Word embeddings with neural networks

7 ч. на завершение
20 видео ((всего 65 мин.)), 1 материал для самостоятельного изучения, 1 тест
20 видео
Overview2мин
Basic Word Representations3мин
Word Embeddings3мин
How to Create Word Embeddings3мин
Word Embedding Methods3мин
Continuous Bag-of-Words Model3мин
Cleaning and Tokenization4мин
Sliding Window of Words in Python3мин
Transforming Words into Vectors2мин
Architecture of the CBOW Model3мин
Architecture of the CBOW Model: Dimensions3мин
Architecture of the CBOW Model: Dimensions 22мин
Architecture of the CBOW Model: Activation Functions4мин
Training a CBOW Model: Cost Function4мин
Training a CBOW Model: Forward Propagation3мин
Training a CBOW Model: Backpropagation and Gradient Descent4мин
Extracting Word Embedding Vectors2мин
Evaluating Word Embeddings: Intrinsic Evaluation3мин
Evaluating Word Embeddings: Extrinsic Evaluation2мин
Conclusion2мин
1 материал для самостоятельного изучения
Acknowledgments10мин

Рецензии

Лучшие отзывы о курсе NATURAL LANGUAGE PROCESSING WITH PROBABILISTIC MODELS

Посмотреть все отзывы

Специализация Обработка текстов, написанных на естественных языках: общие сведения

Обработка текстов, написанных на естественных языках

Часто задаваемые вопросы

Остались вопросы? Посетите Центр поддержки учащихся.