미분류
학습속도가 큰 경우 - Google 검색
https://www.google.com/search?q=%ED%95%99%EC%8A%B5%EC%86%8D%EB%8F%84%EA%B0%80+%ED%81%B0+%EA%B2%BD%EC%9A%B0&rlz=1C1CHZN_koKR995KR995&oq=%ED%95%99%EC%8A%B5%EC%86%8D%EB%8F%84%EA%B0%80+%ED%81%B0+%EA%B2%BD%EC%9A%B0&aqs=chrome..69i57j33i21.5902j0j7&sourceid=chrome&ie=UTF-8네이버 블로그
https://blog.naver.com/PostView.nhn?blogId=laonple&logNo=221183766476머신 러닝 알고리즘 - Learning Rate(학습률)과 Overshooting
https://blog.naver.com/complusblog/221239772515딥 러닝 모델 학습을 빠르게 하기 위한 6가지 팁
https://info-topnews.tistory.com/7https://www.koreascience.or.kr/article/JAKO202034352379471.pdf
https://www.koreascience.or.kr/article/JAKO202034352379471.pdf[머신러닝 공부]딥러닝/Optimizer정리
https://dbstndi6316.tistory.com/297딥러닝 튜토리얼 6-1강, SGD, 모멘텀, AdaGrad, Adam, 가중치 초기값 설정 - 밑바닥부터 시작하는 딥러닝
https://koreanfoodie.me/178[NLP]신경망 최적화 함수들 Optimizer: SGD, Momentum, AdaGrad, Adam
https://dokylee.tistory.com/38Activation Function(활성화 함수)
https://velog.io/@hyunsuki/Activation-Function%ED%99%9C%EC%84%B1%ED%99%94-%ED%95%A8%EC%88%98활성화 함수, 손실 함수, 옵티마이저의 상황별 선택
https://m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=baek2sm&logNo=222010223220문과생도 이해하는 딥러닝 (8) - 신경망 학습 최적화
https://sacko.tistory.com/42하이퍼파라미터 (Hyperparameter) > 도리의 디지털라이프
http://blog.skby.net/%ED%95%98%EC%9D%B4%ED%8D%BC%ED%8C%8C%EB%9D%BC%EB%AF%B8%ED%84%B0-hyperparameter/모델 성능 향상을 위한 하이퍼 파라미터 튜닝
https://gils-lab.tistory.com/m/10[인공지능/AI] Hyperparameter Tuning (Optimization) 하이퍼파라미터 튜닝 (최적화)
https://hidemasa.tistory.com/73[2019] 하이퍼파라미터 튜닝으로 모델 성능 개선하기
https://pt.slideshare.net/NHNFORWARD/nhnforward2019-3[5주차] 딥러닝 2단계 : 하이퍼파라미터 튜닝
https://sy-programmingstudy.tistory.com/9[SAS로 딥러닝 시작하기#2]딥러닝 성능 개선 방법 '하이퍼파라미터 튜닝'
https://blogs.sas.com/content/saskorea/2020/11/04/11-1/AI 사이언티스트의 숙명 ‘튜닝’… 학습 모델 최적화에 수작업 필수
https://magazine.hankyung.com/business/article/202101061704b