본문 바로가기
728x90
반응형

활성화 함수2

[인공지능] 신경망의 필수 요소 : Bias(편향)를 잡을 때와 안 받을 때의 차이 Bias는 단순히 더해지는 숫자가 아니다신경망 학습에서 Bias(편향, b)는 종종 가중치(W)에 가려져 그 중요성이 간과되곤 합니다. 하지만 Bias는 모델이 데이터를 해석하고 결정 경계를 설정하는 유연성을 부여하는 핵심적인 요소입니다. 특히 XOR이나 make_moons와 같은 비선형 문제를 해결할 때 Bias의 유무는 모델의 성공과 실패를 가르는 결정적인 차이를 만듭니다. 용어 정리 및 Bias의 역할Bias(b) : 뉴런의 발화 임계점 조절자구분개념IT/ML에서의 역할Bias(b)활성화 함수가 적용되기 전의 선형 합산 결과(W, X)에 더해지는 상수 값활성화 임계점 조절입력 X가 0일 때도 뉴런이 발화할 수 있게 하거나, 발화하기 위해 필요한 최소 입력값을 조절결정 경계 팽행 이동결정 경계가 원.. 2025. 10. 25.
[인공지능] 인공지능 신경망의 핵심 : 비선형 활성화 함수(Activation Function) 인공 신경망이 복잡한 패턴을 인식하고 학습할 수 있는 능력의 비밀은 바로 비선형 활성화 함수에 있습니다. 이 함수는 신경망의 각 뉴런(노드)이 최종 출력을 생성하는 중요한 단계에서 사용됩니다. 활성화 함수란 무엇인가요?활성화 함수는 뉴런이 입력 신호를 받아 가중합을 계산한 후, 이 값을 비선형 함수에 적용하여 최종 출력을 생성하는 역할을 합니다. 만약 활성화 함수가 선형 함수라면, 아무리 층을 깊게 쌓아도 전체 신경망은 결국 하나의 선형 변환과 같아져 복잡한 비선형 문제(ex: 이미지 인식, 자연어 처리 등)를 해결할 수 없습니다. 선형 함수 : 전체 구간에서 기울기가 일정한 직선비선형 함수 : 전체 구간에서 기울기가 일정하지 않은 함수. 신경망이 복잡한 패턴 인식을 가능하게 하며, 학습 능력과 예측 .. 2025. 10. 23.
728x90
반응형