Data Analysis/Machine Learning
-
LDA (Linear Discriminant Analysis) 개요Data Analysis/Machine Learning 2020. 11. 26. 19:16
➊➋➌➍➎➏➐ # LDA (선형판별분석, Linear Discriminant Analysis) # 목적 ➊ 차원축소 (특징추출) ➋ 클래스간 판별이 잘 되는 방향으로 축소 # 통계적 배경지식 ➊ 분류에 적합한 특징 방향 ❏ 각 클래스들이 가능한 멀리 떨어지도록 ➋ 각 클래스 간 거리가 커지려면? ❏ 각 클래스의 평균값의 차가 커야함 ❏ 각 클래스 내의 분산은 작게 # 목적함수 ➊ 목적 ❏ 각 클래스 간 거리를 최대로 함 ➋ 목적함수 ❏ 클래스 간 거리를 목적함수 J로 정의 ❏ J를 최대로 하는 기저벡터행렬(변환행렬) W를 찾으면 된다. ❏ 수학적 유도과정을 빼고 결론만 내리면 다음과 같다. # S(W) : 클래스 내 산점행렬(Within Scatter Matrix), 클래스 내의 산점도를 나타내는 지표 ..
-
PCA (Principle Component Analysis) 개요Data Analysis/Machine Learning 2020. 11. 26. 18:27
# PCA (주성분분석법, Principle Component Analysis) # 목적 ➊ 데이터의 차원축소 (특징추출) ➋ 데이터의 고유정보를 최대한 유지 # 통계적 배경지식 ➊ 원래 데이터들이 퍼진정도를 고유정보로 볼 수 있음 (= 각 데이터간 거리) ➋ 고유정보가 두드러지도록, 데이터 집합이 가능한 넓게 퍼지도록 차원축소(사영, Projection)를 수행 (= 데이터의 분산이 가장 큰방향으로의 선형변환을 수행) ➌ 데이터의 공분산 행렬의 고유치가 가장 큰 값을 가지는 고유벡터가 분산이 가장 큰 방향이다. ➍ 고유치가 큰 순서대로 K개를 뽑아 K차원으로 축소할 수 있다. (K차원 변환행렬 W를 구성) # PCA 알고리즘 수행 단계 ➊ 입력데이터 X의 평균 μ(X), Σ(X)를 계산 ➋ 고유치 분석..