728x90
반응형
머신러닝과 딥러닝 모델의 성능은 데이터 준비부터 시작하여 알고리즘 선택과 최적화 기법에 이르기까지 일련의 흐름에 따라 결정됩니다. 이번 포스팅에서는 데이터 처리부터 복잡한 딥러닝 학습 매커니즘까지, 핵심 개념들의 연관성과 흐름을 명확하게 정리하려고 합니다.
모델 학습을 위한 데이터 준비 과정
모델이 정확하게 학습하고 일반화 능력을 갖추기 위해서는 데이터를 깨끗하고 풍부하게 그리고 공정하게 나누는 과정이 필수적입니다.
데이터 전처리 (Data Preporcessing)
모델이 데이터를 효율적으로 학습할 수 있도록 원본 데이터를 정제하고 변환하는 과정입니다.
- 목적 : 데이터 품질 개선, 스케일 통일, 결측치 및 잡음 처리
- 주요 기법 : 스케일링(Scaling)을 통해 데이터 범위를 맞추거나, 인코딩(Encoding)을 통해 범주형 데이터를 숫자 형태로 변환합니다.
데이터 증강(Data Augmentation)
기존 데이터를 인위적으로 변형하여 학습 데이터의 양을 늘리는 기법입니다.
- 목적 : 데이터 부족 문제 해결, 모델의 일반화 성능 향상, 과적합(overfitting) 방지
- 예시 : 이미지 데이터를 좌우 반전, 회전, 밝기 조절 등을 통해 새로운 학습 샘플로 활용합니다.
데이터 분할(Dataset Split)
전체 데이터를 학습(Training), 검증(Validation), 테스트(Test) 세트로 나누는 과정입니다.
- 목적 : 모델이 훈련 과정에서 보지 못한 데이터에 대해 얼마나 잘 작동하는지 공정하게 평가하기 위함입니다. 일반적으로 70% : 15% : 15% 또는 80% : 20% 비율로 분할합니다.
머신러닝(ML) 알고리즘 개요
데이터 준비가 완료되면, 데이터의 특성에 맞는 머신러닝 알고리즘을 선택하여 학습을 시작합니다.
- Random Forest (랜덤 포레스트) : 여러 개의 결정 트리(Decision Tree)를 만들고 이들의 결과를 종합하여 최종 예측을 수행하는 앙상블 기법입니다. 정확도가 높고 과적합에 강합니다.
- K-NN (K-Nearest Neighbors) : 새로운 데이터가 주어졌을 때, 주변의 K개의 가장 가까운 이웃 데이터의 레이블을 보고 예측하는 비모수적 분류/회귀 알고리즘입니다.
- SVM(Support Vector Machine) : 두 클래스를 가장 잘 분리하는 초평면(Hyperplane)을 찾아 분류하며, 주로 복잡한 분류 문제에서 강력한 성능을 발휘합니다.
- Naive Bayes(나이브 베이즈) : 모든 특징(Feature)이 독립적이라는 나이브(순진한) 가정하에 베이즈 정리를 적용하는 확률 기반 분류 알고리즘입니다.
딥러닝(Deep Learnig)의 기본 구조와 학습 흐름
딥 러닝 인공 신경망(Artficial Neural Network ANN)을 기반으로 하여 데이터를 학습하는 머신러닝의 한 분야입니다.
기본 구성 요소
- Perceptron(퍼셉트론) : 인공 신경망의 가장 기본적인 단위로, 여러 입력값을 받아 가중치(W)와 결합하고 그 결과를 활성화 함수(Activation Function)를 통해 다음 뉴런으로 전달합니다.
- Artificial Neural Network(ANN) : 퍼셉트론들이 계층적으로 연결된 구조입니다.
- Fully Connected Layer(완전 연결 계층) : 한 계층의 모든 뉴런이 다음 계층의 모든 뉴런과 연결된, 신경망의 가장 일반적인 연결 방식입니다.
학습의 시작 : 활성화 함수와 손실함수
- Activation Function(활성화 함수) : 퍼센트론의 출력에 비선형성을 부여하여 신경망이 복잡한 패턴을 학습할 수 있게 합니다. (ex, ReLU, Tanh, Sigmoid)
- Loss Function(손실 함수) : 모델의 예측값과 실제 정답 사이의 오차(손실)를 계산하여 모델 성능을 수치화하는 함수입니다.
최적화 과정 : 역전파와 경사하강법
손실 함수로 계산된 오차를 줄여나가는 과정이 딥러닝의 핵심입니다.
- Backpropagation(역전파) : 손실 함수 값(오차)을 뒤쪽(출력층)에서 앞쪽(입력층)으로 전달하며, 각 뉴런의 가중치(W)가 손실에 미치는 영향을 계산합니다. 이는 가중치 업데이트의 방향을 결정하는 핵심 단계입니다.
- Gradient Descent(경사하강법) : 가중치 업데이트의 기본 원리입니다. 역전파를 통해 계산된 기울기(경사)의 반대 방향으로 가중치를 조금씩 이동시켜 손실을 최소화하는 지점을 찾습니다.
- Optimizer(옵티마이저) : 경사하강법을 더 빠르고 효율적으로 수행하도록 개선한 최적화 도구/알고리즘입니다. 단순 경사하강법의 한계(지역 최솟값 등)를 극복합니다.
- ADAM(Adaptive Moment Estimation) : 가장 널리 사용되는 옵티마이저 중 하나로, 과거 기울기 정보와 그 제곱값을 모두 활용하여 각 가중치별로 적절한 학습률을 동적으로 조정하며 최적화합니다.
연관성 흐름 요약
데이터 준비 → ANN/Perceptron 구조 설정 → 예측값 산출 → Loss Function으로 오차 계산 → Backpropagation으로 기울기 계산 → Optimizer (Adam 등)를 통한 Gradient Descent 수행 → 가중치(W) 업데이트 → 반복 (학습)
반응형
'AI > 인공지능(CNN)' 카테고리의 다른 글
| [인공지능] 딥러닝 핵심 : CNN(Convolution Neural Network) (0) | 2025.10.28 |
|---|---|
| [인공지능] 인공 신경망(Artificial Neural Network, ANN) (0) | 2025.10.28 |
| [인공지능] XOR 문제를 넘어 : 비선형 데이터 분류를 위한 MLP 설계와 작동 원리 (0) | 2025.10.26 |
| [인공지능] 신경망의 필수 요소 : Bias(편향)를 잡을 때와 안 받을 때의 차이 (0) | 2025.10.25 |
| [인공지능] 인공지능 신경망의 핵심 : 비선형 활성화 함수(Activation Function) (0) | 2025.10.23 |