목록AI/Course (36)
hojeomi blog
1. 조건부 확률이란? 조건부확률 P(A|B)는 사건 B가 일어났을 때, 사건 A가 발생할 확률 A 교집합 B = P(B)*P(A|B) = P(A)*P(B|A) 베이즈 통계학을 이해하기 위해 조건부확률의 개념을 이해해야 함 베이즈 정리는 조건부확률을 이용하여 정보를 갱신하는 방법을 알려줌 2. 베이즈 정리 베이즈 정리를 통한 정보의 갱신 베이즈 정리를 통해 새로운 데이터가 들어왔을 때 앞서 계산한 사후확률을 사전확률로 사용하여 갱신된 사후확률을 계산할 수 있음 예제정리 '베이즈 정리 예제' 참고 3. Confusion Matrix P(D|ㄱtheta) 예) 코로나에 걸리지 않았을 때, 걸렸다고 검진결과가 나왔을 때(측정한 데이터 D) 이를 오탐, 즉 False alarm이라고 함 P(ㄱtheta)*P(D..
0. Intro 통계적 모델링은 적절한 가정 위에서 확률분포를 추정(inference)하는 것이 목표 하지만, 유한한 개수의 데이터만 관찰해서 모집단의 분포를 정확하게 알아낸다는 것은 불가능하므로, 근사적으로 확률분포를 추정할 수 밖에 없음 1. 모수란? parameter 데이터가 특정 확률분포를 따른다고 선험적으로(apriori) 가정한 후 그 분포를 결정하는 모수(parameter)를 추정하는 방법을 모수적(parametric) 방법론이라 함 특정 확률분포를 가정하지 않고 데이텅에 따라 모델의 구조 및 모수의 개수가 유연하게 바뀌면 비모수(nonparameteric) 방법론이라 함 비모수 방법론은 모수가 없는 것이 아닌 특정하지 않는 것 2. 확률분포 가정하기 기계적으로 확률분포를 가정해서는 안되며,..
1. 신경망 비선형모델 수식을 분해해보면 선형모델이 숨겨져 있음 → 선형모델과 비선형모델의 결합으로 이루어져 있음 W는 행렬X를 다른 차원으로 보내주는 행렬 d개의 변수들을 p개의 선형모델을 만듦으로써 p개의 잠재변수를 설명하는 모델 만들기 즉, 신경망은 선형모델과 활성함수(activation function)를 합성한 함수 2. 활성함수(activation function) R 위에 정의된 비선형함수 활성함수를 쓰지 않으면 딥러닝은 선형모형과 차이가 없음 시그모이드(sigmoid) 함수나 tanh 함수는 전통적으로 많이 쓰이던 활성함수지만 딥러닝에서는 ReLU 함수를 많이 씀 3. 소프트맥스(softmax) 연산 딥러닝에서 분류문제를 풀 때 사용 소프트맥스 함수는 모델의 출력을 확률로 해설할 수 있게 ..