Project Shawshank

Project Shawshank

  • 분류 전체보기 (113)
    • git & github (0)
    • Programming Tips (1)
    • Machine Learning (23)
    • Deep Learning (17)
    • Blockchain (11)
    • Financial Analysis (12)
    • Algorithm (39)
    • Natural Language Processing (10)
  • 홈
  • 태그
  • 방명록
  • 휴먼카인드의 깃허브
RSS 피드
로그인
로그아웃 글쓰기 관리

Project Shawshank

컨텐츠 검색

태그

Ai 비트코인 비트코인프로그래밍 머신러닝 파이썬증권데이터분석 파이썬 nlp 블록체인프로그래밍 동적프로그래밍 알고리즘 퀀트투자 밑바닥부터시작하는비트코인 딥러닝 블록체인 판다스 알고리즘트레이딩 인공지능 자연어처리 주식 c++

최근글

댓글

공지사항

아카이브

weigth initialization(1)

  • [밑바닥딥러닝] 13. 모델 가중치의 초기화

    본 게시글은 한빛미디어 『밑바닥부터 시작하는 딥러닝, 사이토 고키, 2020』의 내용을 참조하였음을 밝힙니다. 좋은 모델을 만들기 위해서는 모델 가중치를 처음에 적절히 설정하는 것이 중요하다. 가중치를 처음 초기화할 때 고르게 분포시키지 않고, 한쪽에 치우치게 하면 어떻게 될까? 위는 활성화 함수로 시그모이드 함수를 가진 모델의 가중치 초기화에 표준편차를 1로 설정했을 때 각 층에 나타난 저장된 활성화 값들을 나타낸다. 시그모이드 함수에 의해 0이나 1에 값이 쏠려있는데 학습 시 역전파의 기울기 값이 점점 작아지다 사라지는 기울기 소실 현상이 발생할 수 있다. 표준편차를 0.01로 작게 설정하면 위와 같이 된다. 대부분의 값이 0.5로 편중되어 있는데, 이 역시 모델의 표현력 관점에서 부정적인 현상이다...

    2021.10.16
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바