딥러닝 공부

딥러닝 공부

  • 분류 전체보기 (137)
    • 딥러닝 모델: 파이토치 (71)
    • CNN (2)
    • ResNet (6)
    • VGG16 (2)
    • FCN (0)
    • 한 줄 일기 (0)
    • EfficientNet (3)
    • 알고리즘 (45)
    • 딥러닝 모델: fastai (8)
    • LSTM (0)
    • 마이크로비트 (0)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

딥러닝 공부

컨텐츠 검색

태그

fastai tranfer learning 오블완 fruits classifier 출력 게이트 CNN fruit classification Image classifier 딥러닝 예시 ImageDataBunch 입력 게이트 RNN weight initialization ResNet VGG16 삭제 게이트 이미지 분류 티스토리챌린지 ImageDataLoaders qlx

최근글

댓글

공지사항

아카이브

exploding(1)

  • Pytorch로 시작하는 딥러닝 입문(06-10. 기울기 소실과 폭주, 기울기 초기화: Vanishing Gradient, Exploding Gradient, Weight Initialization)

    깊은 인공신경망을 학습하다보면 역전파 과정에서 입력층으로 갈수록 기울기가 점차적으로 작아지는 현상이 발생할 수 있다. 입력층에 가까운 층들에서 가중치들이 제대로 업데이트 되지 않으면 최적의 모델을 찾을 수 없다. 이를 기울기 소실(Gradient Vanishing)이라고 한다.  반대의 경우로, 기울기가 점차 커지면서 가중치들이 비정상적으로 큰 값이 되어 발산되기도 한다. 이를 기울기 폭주(Gradient Exploding)이라고 하며, 뒤에서 배울 순환신경망(Recurrent Neural Network, RNN)에서 발생할 수 있다.  여기서는 기울기 소실 또는 기울기 폭주를 막는 방법들에 대해 다룬다.   ♣ ReLU와 ReLU의 변형들시그모이드 함수를 사용하면 입력의 절대값이 클 경우, 시그모이드 ..

    2024.03.17
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바