일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Python
- 항해
- Flutter
- Spring
- 개발자스터디
- 컴퓨터개론
- 코딩테스트
- MySQL
- 중심사회
- 운영체제
- 소프트웨어
- 스파르타내일배움캠프TIL
- 99일지
- 국비
- 스파르타내일배움캠프
- 99클럽
- 스파르타코딩클럽
- wil
- 개인공부
- til
- 개발자블로그
- 자바
- 컴퓨터구조론 5판
- 내일배움캠프
- 프로그래머스
- java
- 스파르타내일배움캠프WIL
- AWS
- 부트캠프
- 백준
- Today
- Total
목록🧠 AI (2)
컴공생의 발자취
1. Dropout과 Batch Normalization 비교 Dropout Batch Normalization 학습 테스트 학습 테스트 loss 1.0370 1.0452 0.8025 0.8858 Accuracy 0.6381 0.6484 0.7235 0.7126 지난 글에서 작성했던 코드는 BatchNormalization의 결과이다. 비교를 위해 Dropout의 결과도 확인해야한다. 그러므로 코드 중 일부를 다음과 같이 변경해준다. 주석처리 해놓았던 Dropout을 주석 '#'을 지워주고 코드에 합류시킨다. 그 후 BatchNormalization을 주석처리 해놓는다. # 층을 차례대로 쌓아 tf.keras.Sequential 모델을 만든다.. # 훈련에 사용할 옵티마이저(optimizer)와 손실 함..
모델 구성표 입력층 Conv1 Batch Normalization Max Pooling Conv2 Batch Normalization Max Pool ing Conv3 Batch Normalization Max Pooling Flatten FC Drop out FC 32x32 3 x32 x32 3x3x 64 3x3x128 64 0.25 10 * padding = ’valid‘, strides = (1,1), activation = 'relu’ * 최적화 함수 = Adam, 학습율 = 0.001 전체 코드 import tensorflow as tf import numpy as np from keras.models import Sequential from keras.layers import Dense # M..