사전 확률에서 데이터를 가지고 업데이트를 해서 사후확률을 만드는게 베이지안이다

  1. The Law of Total Probability(총 확률의 법칙)- A라는 특정 확률 변수에 대해, 모든 가능한 이벤트의 총 확률은 1이다

    Screen Shot 2021-12-15 at 13.25.36.png

    ex. 스팸메일인 경우 0.8 + 정상메일인 경우 0.2 = 1

  2. The Law of Conditional Probability(조건부 확률)

    Screen Shot 2021-12-15 at 13.27.20.png

    B라는 정보가 주어진 상황에서 A의 확률은 B의 교집합들의 합으로 구성 되어 있다.

  3. Bayes' Theorem(베이지안)

    Screen Shot 2021-12-15 at 15.11.35.png

    B가 주어진 상황에서 A의 확률은 A가 주어진 상황에서의 B의 확률 곱하기 A의 확률, 나누기 B의 확률로 표현됨

    P(A|B) = B가 주어진 상황에서 A의 확률 (사후확률 Updated/Posterior)

    P(A) = B라는 정보가 업데이트 되기 전 사전 확률(Prior)

    P(B|A) = Data

  4. Application 실제 적용

TPR: True Positive Rate(민감도, true accept rate)

FPR: False Positive Rate(1- 특이도)

Screen Shot 2021-12-15 at 15.17.25.png

Screen Shot 2021-12-15 at 15.17.51.png

Screen Shot 2021-12-15 at 15.18.10.png

여기서 차이:

Frequentist Approach:(point estimate/static)— >n123에서 배움)

vs.

Bayesian Approach: (distribution estimate/dynamic)