Статистика - теорема Байеса о вероятности

Одним из наиболее значительных событий в области вероятности была разработка байесовской теории принятия решений, которая оказалась очень полезной для принятия решений в неопределенных условиях. Теорема Байеса была разработана британским математиком преподобным Томасом Байесом. Вероятность, указанная в теореме Байеса, также известна под названием обратной вероятности, апостериорной вероятности или пересмотренной вероятности. Эта теорема находит вероятность события, рассматривая данную информацию образца; отсюда и название апостериорной вероятности. Теорема Байеса основана на формуле условной вероятности.

условная вероятность события $ {A_1} $ для данного события $ {B} $ равна

$ {P (A_1 / B) = \ frac {P (A_1 \ and \ B)} {P (B)}} $

Аналогично вероятность события $ {A_1} $ данного события $ {B} $ равна

$ {P (A_2 / B) = \ frac {P (A_2 \ and \ B)} {P (B)}} $

где

$ {P (B) = P (A_1 \ and \ B) + P (A_2 \ and \ B) \\ [7pt] P (B) = P (A_1) \ раз P (B / A_1) + P (A_2 ) \ times P (BA_2)} $
$ {P (A_1 / B)} $ можно переписать как
$ {P (A_1 / B) = \ frac {P (A_1) \ times P (B / A_1)} {P (A_1)} \ times P (B / A_1) + P (A_2) \ times P (BA_2) } $

Следовательно, общая форма теоремы Байеса

$ {P (A_i / B) = \ frac {P (A_i) \ times P (B / A_i)} {\ sum_ {i = 1} ^ k P (A_i) \ times P (B / A_i)}} $

Где $ {A_1} $, $ {A_2} $ ... $ {A_i} $ ... $ {A_n} $ - это множество n взаимоисключающих и исчерпывающих событий.