Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 국비
- java
- 소프트웨어
- Python
- Flutter
- 운영체제
- 스파르타내일배움캠프WIL
- MySQL
- 백준
- 스파르타내일배움캠프
- 개발자스터디
- 99일지
- 부트캠프
- 스파르타내일배움캠프TIL
- 개인공부
- 프로그래머스
- 컴퓨터개론
- 개발자블로그
- wil
- Spring
- 코딩테스트
- 내일배움캠프
- 컴퓨터구조론 5판
- 스파르타코딩클럽
- 99클럽
- 자바
- til
- 항해
- 중심사회
- AWS
Archives
- Today
- Total
목록validation (1)
컴공생의 발자취
[인공지능] 모델 구성 코드 및 분석(2)
1. Dropout과 Batch Normalization 비교 Dropout Batch Normalization 학습 테스트 학습 테스트 loss 1.0370 1.0452 0.8025 0.8858 Accuracy 0.6381 0.6484 0.7235 0.7126 지난 글에서 작성했던 코드는 BatchNormalization의 결과이다. 비교를 위해 Dropout의 결과도 확인해야한다. 그러므로 코드 중 일부를 다음과 같이 변경해준다. 주석처리 해놓았던 Dropout을 주석 '#'을 지워주고 코드에 합류시킨다. 그 후 BatchNormalization을 주석처리 해놓는다. # 층을 차례대로 쌓아 tf.keras.Sequential 모델을 만든다.. # 훈련에 사용할 옵티마이저(optimizer)와 손실 함..
🧠 AI
2022. 11. 29. 14:04