**PCA (Principal Component Analysis)**와 **PLS (Partial Least Squares)**는 모두 차원 축소 기법으로, 고차원 데이터를 처리할 때 중요한 정보를 유지하면서 데이터의 차원을 줄이는 데 사용됩니다. 그러나 두 방법의 목표와 작동 방식에는 차이가 있습니다. PCA는 **비지도 학습** 방식으로, PLS는 **지도 학습** 방식으로 차원을 축소하고 변수들을 변환하는 방법입니다.

### 1. **PCA (주성분 분석)**
**PCA**는 데이터의 차원을 축소하는 **비지도 학습** 방법입니다. 데이터를 몇 개의 **주성분(Principal Components)**으로 변환하여, 각 주성분이 데이터의 분산을 최대한 많이 설명할 수 있도록 만듭니다.

#### PCA의 핵심 특징:
- **목적**: 데이터의 **분산**을 최대한 설명하는 새로운 축(주성분)을 찾는 것.
- **입력 데이터**: 입력 데이터(X)만을 사용하고, 종속 변수(y)는 사용하지 않습니다.
- **방법**: 변수들 간의 **공분산** 구조를 분석해, 분산을 최대화하는 방향으로 데이터를 변환합니다. 주성분들은 서로 **직교(orthogonal)**하며, 각 주성분은 독립된 축을 형성합니다.
- **차원 축소**: 주성분을 몇 개 선택하느냐에 따라 차원을 축소합니다. 주성분들은 입력 변수들의 선형 결합으로 만들어집니다.
- **설명된 분산**: 첫 번째 주성분은 데이터의 분산을 가장 많이 설명하고, 두 번째 주성분은 첫 번째 주성분에 직교하면서 남은 분산을 최대한 설명하는 방식입니다.

#### PCA의 한계:
- **목표 변수와의 관계를 고려하지 않음**: PCA는 데이터의 분산에만 초점을 맞추므로, 목표 변수(y)가 있는 경우 그와의 상관관계를 고려하지 않습니다. 따라서 회귀나 분류 문제에서 직접적으로 최적화된 변수를 찾기에는 적합하지 않을 수 있습니다.

#### PCA의 활용:
- 데이터 시각화, 노이즈 제거, 다중 공선성 문제 해결, 차원 축소 후 분석 등을 위해 사용됩니다.

### 2. **PLS (부분 최소 제곱법)**
**PLS**는 회귀와 차원 축소를 결합한 **지도 학습** 기법입니다. **입력 변수(X)**와 **출력 변수(y)** 간의 관계를 최대한 잘 설명하는 **잠재 변수(latent variables)**를 찾는 것이 목표입니다. PLS는 X와 y를 모두 사용하여 두 집합 간의 공분산을 최대화하는 새로운 변수를 찾습니다.

#### PLS의 핵심 특징:
- **목적**: 입력 변수(X)와 출력 변수(y) 간의 **상관관계**를 최대화하는 방향으로 차원 축소.
- **입력 데이터**: 입력 데이터(X)와 출력 데이터(y)를 함께 사용하여, 두 데이터 집합 간의 관계를 고려합니다.
- **방법**: X와 y 간의 **공분산**을 최대화하는 잠재 변수를 찾습니다. PLS는 X와 y의 공분산 행렬을 이용해 변환을 수행하며, 그 결과 X의 변수를 변환하여 y와의 관계를 잘 설명하도록 만듭니다.
- **차원 축소 및 회귀**: PLS는 X의 차원을 줄이면서도, 목표 변수(y)를 예측하기 위한 회귀 모델을 구축할 수 있습니다.
- **다중 공선성 문제 해결**: PLS는 X 변수들 간의 상관관계를 고려하면서도 y와의 관계를 유지하므로, 다중 공선성 문제를 효과적으로 해결할 수 있습니다.

#### PLS의 장점:
- **목표 변수와의 관계를 최적화**: PLS는 차원 축소 시 y와의 관계를 반영하여, 회귀 문제에서 더 적합한 결과를 도출할 수 있습니다.
- **다중 공선성 해결**: X 변수들 간에 상관관계가 높아도, y와의 관계를 유지하면서 변수를 변환할 수 있습니다.
- **회귀 성능**: PLS는 X와 y 간의 관계를 최적화하므로, PCA보다 회귀 문제에서 더 나은 성능을 발휘하는 경우가 많습니다.

#### PLS의 활용:
- 회귀 분석, 예측 모델링, 다중 공선성 문제 해결, 고차원 데이터 분석 등에 주로 사용됩니다.

### 3. **PCA와 PLS의 차이점**

| 특성 | PCA | PLS |
| --- | --- | --- |
| **목적** | 데이터의 **분산**을 최대한 많이 설명하는 주성분을 찾음 | 입력(X)와 출력(y)의 **상관관계**를 최적화하면서 차원을 축소 |
| **입력 데이터** | 입력 데이터(X)만 사용 (비지도 학습) | 입력 데이터(X)와 출력 데이터(y)를 동시에 사용 (지도 학습) |
| **차원 축소 기준** | 데이터의 분산을 기준으로 차원 축소 | X와 y 간의 상관관계를 최대화하는 방향으로 차원 축소 |
| **결과 해석** | 주성분들이 원본 변수의 선형 결합으로 해석 | X와 y 간의 관계를 설명하는 잠재 변수를 통해 해석 |
| **다중 공선성 문제** | 다중 공선성 문제를 해결할 수 있지만 y와의 관계는 고려하지 않음 | 다중 공선성 문제 해결 및 y와의 관계를 반영 |
| **주요 응용** | 시각화, 데이터 구조 이해, 비지도 차원 축소 | 회귀 분석, 예측 모델링, 지도 차원 축소 |

### 4. **PCA와 PLS의 선택 기준**
- **PCA**는 **비지도 학습**으로 레이블(목표 값)이 없는 데이터에서 차원을 축소하거나, 데이터 구조를 탐색하고 싶을 때 적합합니다. 데이터의 분산이 주된 관심사일 경우 유용합니다.
- **PLS**는 **지도 학습**으로, 회귀 분석이나 예측 문제에서 차원 축소와 동시에 y와의 관계를 반영한 변수를 만들고 싶을 때 사용됩니다. 특히, X와 y 간의 상관관계가 중요한 경우에 PLS가 더 적합합니다.

### 요약
- **PCA**는 데이터를 몇 개의 주성분으로 변환하여 **데이터의 분산을 설명하는 방향**으로 차원을 축소하는 비지도 학습 방법입니다. 주로 데이터 구조 파악, 차원 축소, 시각화 등에 사용됩니다.
- **PLS**는 입력 데이터(X)와 출력 데이터(y) 간의 **상관관계를 최대화**하는 방향으로 차원을 축소하는 지도 학습 방법입니다. 주로 회귀 분석이나 예측 모델에서 활용되며, 다중 공선성 문제를 해결하고 X와 y 간의 관계를 유지하면서 차원을 축소하는 데 적합합니다.

반응형

+ Recent posts