Seq2seq

Loading...
Просмотреть программу курса

Получаемые навыки

Reformer Models, Neural Machine Translation, Chatterbot, T5+BERT Models, Attention Models

Рецензии

4.4 (оценок: 50)
  • 5 stars
    80%
  • 4 stars
    8%
  • 2 stars
    2%
  • 1 star
    10%
Из урока
Neural Machine Translation
Discover some of the shortcomings of a traditional seq2seq model and how to solve for them by adding an attention mechanism, then build a Neural Machine Translation model with Attention that translates English sentences into German.

Преподаватели

  • Placeholder

    Younes Bensouda Mourri

    Course Instructor
  • Placeholder

    Łukasz Kaiser

    Course Instructor
  • Placeholder

    Eddy Shyu

    Senior Curriculum Developer

Ознакомьтесь с нашим каталогом

Присоединяйтесь бесплатно и получайте персонализированные рекомендации, обновления и предложения.