매트랩 pca 예제

강의에서는 PCA 구현을 위한 선형 대수, PCA의 실용적인 절차 및 대표적인 경우에 적용된 기본 배경을 다루었습니다. 예제에서 관찰된 바와 같이 PCA는 선형 으로 분산된 데이터의 크기를 줄이는 간단하지만 효과적인 방법입니다. PCA를 사용한 이미지 데이터 압축은 크기가 감소하고 일반성을 잃지 않고 거대한 이미지 데이터를 저장하는 효율적인 방법을 보여줍니다. 그러나, 일반적으로 장소에서, 데이터 모양의 사전 지식은 강하게 만족스러운 PCA 결과를 달성하기 위해 요구된다. 지정된 데이터 집합이 비선형 또는 다중 모드 분포인 경우 PCA는 의미 있는 데이터 감소를 제공하지 못합니다. PCA에 데이터의 사전 지식을 통합하기 위해 연구자들은 커널 PCA, 다선형 PCA 및 독립 구성 요소 분석(ICA)과 같은 PCA의 확장으로 차원 감소 기술을 제안했습니다. PCA의 구현을 위해 선형 대수의 몇 가지 중요한 개념을 이해하는 것이 중요합니다. 이 강의에서는 행렬의 고유 벡터와 고유 값에 대해 간략하게 설명합니다. 또한 단수 벡터 분해(SVD)는 주성분의 추출에서 조사될 것이다. 자세한 내용과 예제는 [2]로 이동합니다.

이 강의는 PCA 및 응용 프로그램의 수학적 배경을 제공하도록 설계되었습니다. 첫째, 선형 대수학의 기초는 PCA에서 사용되는 도입된다. PCA의 기술 절차는 PCA의 실제 구현의 이해를 돕기 위해 제공됩니다. 절차에 따라 PCA의 몇 가지 예는 치수 감소에 주어집니다. 이전 단계의 예제를 계속, 우리는 모두 고유 벡터 v1 및 v2 기능 벡터를 형성 할 수 있습니다 :이 예에서, PCA는 512 바이 512 그레이 스케일 이미지의 압축에 적용됩니다 (그림 5). 이미지는 행렬 $ X inmathbb{R}^{512times512} $로 표시됩니다. 기술 절차 섹션에 설명 된 절차에 따르면, 주요 구성 요소 방향 $ V에서mathbb{R}^{512times512} $ 매트릭스 X의 공변에서 추출된다. 그림 6은 처음 30개의 고유 값값을 도시화합니다.

고유가치만 을 살펴보면, 일반성을 잃지 않고 원본 이미지를 효과적으로 표현하는 데 필요한 주요 구성 요소수를 판단하기가 어렵습니다. 그림 7-(b)에 제시된 바와 같이, 처음 5개의 주요 구성요소가 상대적으로 큰 고유 값(그림 6)을 나타내더라도 투영된 이미지는 원본 이미지에 대한 명확한 대응을 제공하지 않습니다. 그림 7은 서로 다른 주 성분 수로 정의된 새 이미지 공간에 원본 이미지의 투영을 보여줍니다. 주 성분 수가 증가하면 투영된 이미지가 원본 이미지에 시각적으로 가까워집니다. 주 성분을 가진 후, 각 구성 요소에 의해 차지하는 분산 (정보)의 비율을 계산하기 위해, 우리는 고유 값의 합으로 각 구성 요소의 고유 가치를 나눈다.

Comments are closed.