Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- wil
- Spring
- java
- 프로그래머스
- 스파르타내일배움캠프TIL
- 코딩테스트
- 스파르타내일배움캠프
- 중심사회
- 개발자블로그
- 백준
- MySQL
- 99일지
- 컴퓨터구조론 5판
- 개발자스터디
- 스파르타내일배움캠프WIL
- til
- 내일배움캠프
- 컴퓨터개론
- Python
- 부트캠프
- 국비
- Flutter
- 소프트웨어
- 항해
- 스파르타코딩클럽
- AWS
- 개인공부
- 자바
- 운영체제
- 99클럽
Archives
- Today
- Total
목록validation (1)
컴공생의 발자취
[인공지능] 모델 구성 코드 및 분석(2)
1. Dropout과 Batch Normalization 비교 Dropout Batch Normalization 학습 테스트 학습 테스트 loss 1.0370 1.0452 0.8025 0.8858 Accuracy 0.6381 0.6484 0.7235 0.7126 지난 글에서 작성했던 코드는 BatchNormalization의 결과이다. 비교를 위해 Dropout의 결과도 확인해야한다. 그러므로 코드 중 일부를 다음과 같이 변경해준다. 주석처리 해놓았던 Dropout을 주석 '#'을 지워주고 코드에 합류시킨다. 그 후 BatchNormalization을 주석처리 해놓는다. # 층을 차례대로 쌓아 tf.keras.Sequential 모델을 만든다.. # 훈련에 사용할 옵티마이저(optimizer)와 손실 함..
🧠 AI
2022. 11. 29. 14:04