В соответствии с теоремой умножения вероятностей
Р(АНi) = Р(Hi)·Р(А/Hi) = Р(A)·Р(Hi/А).
В это равенство подставим значение Р(А), вычисленное по формуле полной вероятности и найдем Р(Hi/А).
Р(Нi/A) =
Это следствие из теоремы умножения и формулы полной вероятности называется формулой Байеса или теоремой гипотез.
Вероятности гипотез Р(Нi), входящие в формулу полной вероятности, называют априорными, т.е. «до опытными». Пусть опыт произведен и его результат известен, т.е. мы знаем, произошло или не произошло событие А. Получившийся результат мог произойти при осуществлении какой-то одной гипотезы Нi. Дополнительная информация об исходе опыта перераспределяет вероятности гипотез. Эти перераспределенные вероятности гипотез Р(Нi/A) называют апостериорными , т.е. «после опытными».
Пример В одной из корзин 1 камешек и 4 кусочка хлеба, во второй – 4 камешка и 1 кусочек хлеба. Мышка наугад выбирает корзину, бежит к ней и вытаскивает кусочек хлеба - событие А (предполагается, что он затем вновь возвращается в корзину). Какова вероятность события А? Каковы вероятности того, что второй раз мышка побежит к первой корзине, ко второй корзине? Какова вероятность того, что она второй раз вытащит кусочек хлеба?
Рассмотрим гипотезы
Н1 – мышка бежит к первой корзине,
Н2 – мышка бежит ко второй корзине.
Р(Н1) =1/2 = Р(Н2) (априорные вероятности)
. 
Р(Н1/A)
Р(Н2/A)
(апостериорные вероятности).
При втором подходе 
Мышка обучилась, второй раз она выберет первую корзину с большей вероятностью и добьется большего успеха.
Заметим, что это – один из основных принципов обучения кибернетических систем.
Лекция 3.