딥러닝 공부

딥러닝 공부

  • 분류 전체보기 (137)
    • 딥러닝 모델: 파이토치 (71)
    • CNN (2)
    • ResNet (6)
    • VGG16 (2)
    • FCN (0)
    • 한 줄 일기 (0)
    • EfficientNet (3)
    • 알고리즘 (45)
    • 딥러닝 모델: fastai (8)
    • LSTM (0)
    • 마이크로비트 (0)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

딥러닝 공부

컨텐츠 검색

태그

삭제 게이트 Image classifier tranfer learning RNN weight initialization qlx fruit classification 딥러닝 예시 입력 게이트 ResNet fruits classifier ImageDataBunch ImageDataLoaders CNN VGG16 이미지 분류 티스토리챌린지 출력 게이트 오블완 fastai

최근글

댓글

공지사항

아카이브

residual learning(1)

  • (논문)Deep Residual Learning for Image Recognition

    ♣ Introduction 깊은 합성곱 신경망은 이미지 분류에 대한 연속적인 폭발적인 발전을 이끌었습니다. 최근 연구 결과는 네트워크의 깊이가 중요하다는 것을 밝혀냈습니다. 어려운 ImageNet 데이터셋에서 우수한 결과를 보이는 연구들은 모두 "아주 깊은(very deep)" 모델을 활용하며, 16개에서 30개의 층을 가지고 있습니다. 또 다른 다양한 어려운 시각적 인식 작업들도 아주 깊은 모델에서 크게 이득을 얻고 있습니다. 더 많은 층을 쌓는 것만으로 더 나은 네트워크를 학습하는 것이 쉬울까? 이 질문에 대한 해답을 찾는 것은 증발/폭발 그래디언트(vanishing/exploding gradient) 문제 때문에 어려움이 있었습니다. 이 문제는 SGD(Stochastic Gradient Descen..

    2023.07.23
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바