본문 바로가기

딥러닝 & 머신러닝/[2020-2] 머신러닝 수업

20200917 머신러닝 수업

벡터 공간: 기저 벡터들이 span하는 공간. 즉 기저 벡터들의 선형 결합으로 이루어진 벡터들이 존재하는 공간.

 

고유 벡터의 기하학적 의미: 어떤 벡터 v가 있는데, 어떤 행렬 A가 적용되었을 때 스칼라(λ) 배가 되면 그 벡터가 고유 벡터. Av = λv. 즉, 행렬에 의해 공간의 변형이 일어나도 방향은 유지하는 벡터.

 

머신러닝에서 행렬 분해(고유값/특이값 분해)의 응용: 특징 공간의 차원을 줄일 수 있다. 여러 특징들이 있을 때 어떤게 더/덜 중요한지 알아낼 수 있다.

 

확률의 곱 규칙: X, Y가 동시에 일어날 확률. P(X,Y) = P(X|Y)P(Y)

 

확률의 합 규칙: X 또는 Y만 일어날 확률. 즉, 여러 가지 차원이 있으면 그것들을 한 차원으로 줄일 수 있다.

 

베이즈 정리를 이용한 분류 문제를 argmax로 나타내면?

 

 

x라는 사진이 들어왔을때 y1인지 y2인지 분류하는 문제. 위와 같은 상황일 때 y1=남자를 반환한다.

'딥러닝 & 머신러닝 > [2020-2] 머신러닝 수업' 카테고리의 다른 글

20200924 머신러닝 수업  (0) 2020.10.17
20200922 머신러닝 수업  (0) 2020.10.17
20200915 머신러닝 수업  (0) 2020.10.17
20200910 머신러닝 수업  (0) 2020.10.17
20200908 머신러닝 수업  (0) 2020.10.17