본문 바로가기
728x90
반응형

AI/인공지능(CNN)12

[인공지능] 딥러닝 핵심 : CNN(Convolution Neural Network) 이미지 처리 분야에서 혁명적인 성능을 보여주는 CNN(Convolutional Neural Network, 합성곱 신경망)에 대해 깊이 있게 알아보겠습니다. CNN은 기존의 신경망이 이미지의 공간 정보를 손실하던 한계를 극복하고, 이미지의 특징을 효과적으로 학습하는 딥러닝 모델입니다. 개요CNN은 이미지와 같은 격자형(Grid-like) 데이터를 처리하는 데 특화된 딥러닝 모델입니다. 사진 데이터를 일반적인 Fully Connected Neural Network(완결 연결 신경망)에 바로 입력하면 3차원(가로, 세로, 채널) 데이터를 1차원으로 Flatten(평면화) 해야하는데, 이 과정에서 이미지의 중요한 공간 정보(Spatial Information)가 손실되어 학습의 정확도에 한계가 생깁니다. .. 2025. 10. 28.
[인공지능] 인공 신경망(Artificial Neural Network, ANN) 인공 신경망(ANN)은 인간의 뇌의 작동 방식을 모방하여 만든 기계 학습(Machine Learning) 모델이자 인공 지능(AI)의 핵심 기술입니다. 수많은 인공 뉴런(노드)들이 계층적으로 연결되어 복잡한 데이터 속에서 패턴을 학습하고, 이를 바탕으로 예측이나 결정을 내립니다. 특히 은닉층(Hidden Layer)이 깊어지면 심층 신경망(Deep Neural NEtwork, DNN)이 되며, 이는 딥러닝(Deep Learning)의 근간을 이룹니다. 인공 신경망이란인공 신경망은 데이터를 처리하고 학습하는 데 사용되는 계산 모델입니다. 입력된 데이터는 연결된 노드들을 거치며 계산되고, 이 과정에서 가중치(Weight)와 편향(bias)이 조정되어 원하는 출력(정답)에 가까워지도록 학습합니다. 마치 아기.. 2025. 10. 28.
[인공지능] XOR 문제를 넘어 : 비선형 데이터 분류를 위한 MLP 설계와 작동 원리 이번 포스팅에서는 XOR 문제처럼 단일 직선으로는 분류할 수 없는 복잡한 비선형 데이터셋을 다루고, 이를 해결하기 위해 필수적인 인공신경망 모델인 다층 퍼센트론(MLP, Multi-Layer Perceptron)을 설계하고 학습하는 과정을 상세히 설명합니다. 특히 make_moons와 같은 비선형 데이터셋을 MLP의 은닉층과 비선형 활성화 함수를 사용하여 어떻게 성공적으로 분류하는지 그 원리를 깊이 이해하는 데 초점을 맞춥니다. 비선형 데이터셋 분류주요 개념은 비선형성(Non-linearity)을 가진 데이터를 비선형 함수를 포함하는 다층 신경망을 이용해 분류하는 것입니다. 단일 퍼센트론은 선형(직선) 경계만 학습할 수 있지만, MLP는 여러 층과 비선형 활성화 함수를 통해 곡선이나 복잡한 모양의 결정 .. 2025. 10. 26.
[인공지능] 신경망의 필수 요소 : Bias(편향)를 잡을 때와 안 받을 때의 차이 Bias는 단순히 더해지는 숫자가 아니다신경망 학습에서 Bias(편향, b)는 종종 가중치(W)에 가려져 그 중요성이 간과되곤 합니다. 하지만 Bias는 모델이 데이터를 해석하고 결정 경계를 설정하는 유연성을 부여하는 핵심적인 요소입니다. 특히 XOR이나 make_moons와 같은 비선형 문제를 해결할 때 Bias의 유무는 모델의 성공과 실패를 가르는 결정적인 차이를 만듭니다. 용어 정리 및 Bias의 역할Bias(b) : 뉴런의 발화 임계점 조절자구분개념IT/ML에서의 역할Bias(b)활성화 함수가 적용되기 전의 선형 합산 결과(W, X)에 더해지는 상수 값활성화 임계점 조절입력 X가 0일 때도 뉴런이 발화할 수 있게 하거나, 발화하기 위해 필요한 최소 입력값을 조절결정 경계 팽행 이동결정 경계가 원.. 2025. 10. 25.
[인공지능] 데이터 준비부터 딥러닝 최적화까지 : 머신 러닝 핵심 개념 흐름 정리 머신러닝과 딥러닝 모델의 성능은 데이터 준비부터 시작하여 알고리즘 선택과 최적화 기법에 이르기까지 일련의 흐름에 따라 결정됩니다. 이번 포스팅에서는 데이터 처리부터 복잡한 딥러닝 학습 매커니즘까지, 핵심 개념들의 연관성과 흐름을 명확하게 정리하려고 합니다. 모델 학습을 위한 데이터 준비 과정모델이 정확하게 학습하고 일반화 능력을 갖추기 위해서는 데이터를 깨끗하고 풍부하게 그리고 공정하게 나누는 과정이 필수적입니다. 데이터 전처리 (Data Preporcessing)모델이 데이터를 효율적으로 학습할 수 있도록 원본 데이터를 정제하고 변환하는 과정입니다.목적 : 데이터 품질 개선, 스케일 통일, 결측치 및 잡음 처리주요 기법 : 스케일링(Scaling)을 통해 데이터 범위를 맞추거나, 인코딩(Encodin.. 2025. 10. 24.
[인공지능] 인공지능 신경망의 핵심 : 비선형 활성화 함수(Activation Function) 인공 신경망이 복잡한 패턴을 인식하고 학습할 수 있는 능력의 비밀은 바로 비선형 활성화 함수에 있습니다. 이 함수는 신경망의 각 뉴런(노드)이 최종 출력을 생성하는 중요한 단계에서 사용됩니다. 활성화 함수란 무엇인가요?활성화 함수는 뉴런이 입력 신호를 받아 가중합을 계산한 후, 이 값을 비선형 함수에 적용하여 최종 출력을 생성하는 역할을 합니다. 만약 활성화 함수가 선형 함수라면, 아무리 층을 깊게 쌓아도 전체 신경망은 결국 하나의 선형 변환과 같아져 복잡한 비선형 문제(ex: 이미지 인식, 자연어 처리 등)를 해결할 수 없습니다. 선형 함수 : 전체 구간에서 기울기가 일정한 직선비선형 함수 : 전체 구간에서 기울기가 일정하지 않은 함수. 신경망이 복잡한 패턴 인식을 가능하게 하며, 학습 능력과 예측 .. 2025. 10. 23.
728x90
반응형