Об этом курсе
4.6
Оценки: 292
Рецензии: 48
Специализация

Курс 2 из 3 в программе

100% онлайн

100% онлайн

Начните сейчас и учитесь по собственному графику.
Гибкие сроки

Гибкие сроки

Назначьте сроки сдачи в соответствии со своим графиком.
Продвинутый уровень

Продвинутый уровень

Часов на завершение

Прибл. 23 часа на выполнение

Предполагаемая нагрузка: 7 hours/week...
Доступные языки

Английский

Субтитры: Английский

Приобретаемые навыки

InferenceGibbs SamplingMarkov Chain Monte Carlo (MCMC)Belief Propagation
Специализация

Курс 2 из 3 в программе

100% онлайн

100% онлайн

Начните сейчас и учитесь по собственному графику.
Гибкие сроки

Гибкие сроки

Назначьте сроки сдачи в соответствии со своим графиком.
Продвинутый уровень

Продвинутый уровень

Часов на завершение

Прибл. 23 часа на выполнение

Предполагаемая нагрузка: 7 hours/week...
Доступные языки

Английский

Субтитры: Английский

Программа курса: что вы изучите

Неделя
1
Часов на завершение
25 минуты на завершение

Inference Overview

This module provides a high-level overview of the main types of inference tasks typically encountered in graphical models: conditional probability queries, and finding the most likely assignment (MAP inference)....
Reading
2 видео ((всего 25 мин.))
Video2 видео
Overview: MAP Inference9мин
Часов на завершение
1 ч. на завершение

Variable Elimination

This module presents the simplest algorithm for exact inference in graphical models: variable elimination. We describe the algorithm, and analyze its complexity in terms of properties of the graph structure....
Reading
4 видео ((всего 56 мин.)), 1 тест
Video4 видео
Complexity of Variable Elimination12мин
Graph-Based Perspective on Variable Elimination15мин
Finding Elimination Orderings11мин
Quiz1 практическое упражнение
Variable Elimination18мин
Неделя
2
Часов на завершение
18 ч. на завершение

Belief Propagation Algorithms

This module describes an alternative view of exact inference in graphical models: that of message passing between clusters each of which encodes a factor over a subset of variables. This framework provides a basis for a variety of exact and approximate inference algorithms. We focus here on the basic framework and on its instantiation in the exact case of clique tree propagation. An optional lesson describes the loopy belief propagation (LBP) algorithm and its properties....
Reading
9 видео ((всего 150 мин.)), 3 тестов
Video9 видео
Properties of Cluster Graphs15мин
Properties of Belief Propagation9мин
Clique Tree Algorithm - Correctness18мин
Clique Tree Algorithm - Computation16мин
Clique Trees and Independence15мин
Clique Trees and VE16мин
BP In Practice15мин
Loopy BP and Message Decoding21мин
Quiz2 практического упражнения
Message Passing in Cluster Graphs10мин
Clique Tree Algorithm10мин
Неделя
3
Часов на завершение
1 ч. на завершение

MAP Algorithms

This module describes algorithms for finding the most likely assignment for a distribution encoded as a PGM (a task known as MAP inference). We describe message passing algorithms, which are very similar to the algorithms for computing conditional probabilities, except that we need to also consider how to decode the results to construct a single assignment. In an optional module, we describe a few other algorithms that are able to use very different techniques by exploiting the combinatorial optimization nature of the MAP task....
Reading
5 видео ((всего 74 мин.)), 1 тест
Video5 видео
Finding a MAP Assignment3мин
Tractable MAP Problems15мин
Dual Decomposition - Intuition17мин
Dual Decomposition - Algorithm16мин
Quiz1 практическое упражнение
MAP Message Passing4мин
Неделя
4
Часов на завершение
14 ч. на завершение

Sampling Methods

In this module, we discuss a class of algorithms that uses random sampling to provide approximate answers to conditional probability queries. Most commonly used among these is the class of Markov Chain Monte Carlo (MCMC) algorithms, which includes the simple Gibbs sampling algorithm, as well as a family of methods known as Metropolis-Hastings....
Reading
5 видео ((всего 100 мин.)), 3 тестов
Video5 видео
Markov Chain Monte Carlo14мин
Using a Markov Chain15мин
Gibbs Sampling19мин
Metropolis Hastings Algorithm27мин
Quiz2 практического упражнения
Sampling Methods14мин
Sampling Methods PA Quiz8мин
Часов на завершение
26 минуты на завершение

Inference in Temporal Models

In this brief lesson, we discuss some of the complexities of applying some of the exact or approximate inference algorithms that we learned earlier in this course to dynamic Bayesian networks....
Reading
1 видео ((всего 20 мин.)), 1 тест
Video1 видео
Quiz1 практическое упражнение
Inference in Temporal Models6мин
4.6
Рецензии: 48Chevron Right
Формирование карьерного пути

50%

начал новую карьеру, пройдя эти курсы
Карьерные преимущества

33%

получил значимые преимущества в карьере благодаря этому курсу
Продвижение по карьерной лестнице

33%

стал больше зарабатывать или получил повышение

Лучшие рецензии

автор: YPMay 29th 2017

I learned pretty much from this course. It answered my quandaries from the representation course, and as well deepened my understanding of PGM.

автор: JLApr 9th 2018

I would have like to complete the honors assignments, unfortunately, I'm not fluent in Matlab. Otherwise, great course!

Преподаватель

Avatar

Daphne Koller

Professor
School of Engineering

О Stanford University

The Leland Stanford Junior University, commonly referred to as Stanford University or Stanford, is an American private research university located in Stanford, California on an 8,180-acre (3,310 ha) campus near Palo Alto, California, United States....

О специализации ''Probabilistic Graphical Models '

Probabilistic graphical models (PGMs) are a rich framework for encoding probability distributions over complex domains: joint (multivariate) distributions over large numbers of random variables that interact with each other. These representations sit at the intersection of statistics and computer science, relying on concepts from probability theory, graph algorithms, machine learning, and more. They are the basis for the state-of-the-art methods in a wide variety of applications, such as medical diagnosis, image understanding, speech recognition, natural language processing, and many, many more. They are also a foundational tool in formulating many machine learning problems....
Probabilistic Graphical Models

Часто задаваемые вопросы

  • Зарегистрировавшись на сертификацию, вы получите доступ ко всем видео, тестам и заданиям по программированию (если они предусмотрены). Задания по взаимной оценке сокурсниками можно сдавать и проверять только после начала сессии. Если вы проходите курс без оплаты, некоторые задания могут быть недоступны.

  • Записавшись на курс, вы получите доступ ко всем курсам в специализации, а также возможность получить сертификат о его прохождении. После успешного прохождения курса на странице ваших достижений появится электронный сертификат. Оттуда его можно распечатать или прикрепить к профилю LinkedIn. Просто ознакомиться с содержанием курса можно бесплатно.

  • Execute the basic steps of a variable elimination or message passing algorithm

    Understand how properties of the graph structure influence the complexity of exact inference, and thereby estimate whether exact inference is likely to be feasible

    Go through the basic steps of an MCMC algorithm, both Gibbs sampling and Metropolis Hastings

    Understand how properties of the PGM influence the efficacy of sampling methods, and thereby estimate whether MCMC algorithms are likely to be effective

    Design Metropolis Hastings proposal distributions that are more likely to give good results

    Compute a MAP assignment by exact inference

    Honors track learners will be able to implement message passing algorithms and MCMC algorithms, and apply them to a real world problem

Остались вопросы? Посетите Центр поддержки учащихся.