728x90
활성화함수$(1)$에서는 분류문제 해결을 위한 NN에서 기본적으로 사용되는 활성화함수 중 시그모이드 함수의 필요성과 단점에 대해서 알아보았다.
계속해서 시그모이드 함수의 단점을 해결하기 위해 제안된 다양한 활성화함수에 대해서 알아보자.
[다양한 활성화함수]
1) ReLu
시그모이드 함수의 기울기 소실 문제를 야기하는 가장 큰 원인은 gradient의 미분계수가 추가됨에 따라 곱의 꼴이 늘어나는 것이었다. 그런데 이 문제에 집중하여 곱의 꼴을 잘 살펴보았더니, combination term 중 절반 이상이 시그모이드의 미분값 $(y)$$(1-y)$로 인해 발생하는 term인 것이 확인되었다.
이런 배경 하에 시그모이드와 비슷한 성질을 가지면서 미분 시 곱의 꼴이 나오지 않는 아래와 같은 ReLu함수가 제안되었다.
728x90
'99_DS' 카테고리의 다른 글
AI 기술의 진화: 프롬프트 엔지니어링부터 파운데이션 모델 트레이닝까지 (0) | 2025.05.06 |
---|---|
[성균관대 데이터사이언스융합학과] 심산장학금 (0) | 2025.05.05 |
[딥러닝] 경사하강법 (0) | 2025.04.09 |
[딥러닝] 활성화함수$(1)$ (0) | 2025.04.05 |
2025-1학기 성균관대학교 데이터사이언스융합학과 합격 후기 (0) | 2025.03.12 |