LSTM 모델을 처음으로 실행하고 있습니다. 내 모델은 다음과 같습니다.
opt = Adam(0.002)
inp = Input(...)
print(inp)
x = Embedding(....)(inp)
x = LSTM(...)(x)
x = BatchNormalization()(x)
pred = Dense(5,activation='softmax')(x)
model = Model(inp,pred)
model.compile(....)
idx = np.random.permutation(X_train.shape[0])
model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1)
모델을 훈련하는 동안 verbose를 사용하는 것은 무엇입니까?
답변
답변
verbose: Integer
. 0, 1 또는 2. Verbosity 모드.
Verbose = 0 (무음)
Verbose = 1 (진행률 표시 줄)
Train on 186219 samples, validate on 20691 samples
Epoch 1/2
186219/186219 [==============================] - 85s 455us/step - loss: 0.5815 - acc:
0.7728 - val_loss: 0.4917 - val_acc: 0.8029
Train on 186219 samples, validate on 20691 samples
Epoch 2/2
186219/186219 [==============================] - 84s 451us/step - loss: 0.4921 - acc:
0.8071 - val_loss: 0.4617 - val_acc: 0.8168
Verbose = 2 (에포크 당 한 줄)
Train on 186219 samples, validate on 20691 samples
Epoch 1/1
- 88s - loss: 0.5746 - acc: 0.7753 - val_loss: 0.4816 - val_acc: 0.8075
Train on 186219 samples, validate on 20691 samples
Epoch 1/1
- 88s - loss: 0.4880 - acc: 0.8076 - val_loss: 0.5199 - val_acc: 0.8046
답변
의 경우 verbose
> 0, fit
방법 로그 :
- loss : 학습 데이터의 손실 함수 값
- acc : 훈련 데이터의 정확도 값.
참고 : 정규화 메커니즘을 사용하는 경우 과적 합을 방지하기 위해 활성화됩니다.
경우 validation_data
또는 validation_split
인수가 비어 있지 않은 fit
방법 로그 :
- val_loss : 검증 데이터의 손실 함수 값
- val_acc : 검증 데이터의 정확도 값
참고 : 네트워크의 모든 기능을 사용하고 있기 때문에 정규화 메커니즘은 테스트시 해제됩니다.
예를 들어, verbose
모델을 훈련하는 동안 사용 하면 악화 acc
되는 동안 계속 개선되는 경우 발생하는 과적 합을 감지하는 데 도움이됩니다 val_acc
.
답변
기본적으로 verbose = 1,
verbose = 1 (진행률 표시 줄과 에포크 당 한 줄 포함)
verbose = 0, 침묵을 의미
verbose = 2, epoch 당 한 줄 즉 epoch no./total no. 시대의
답변
verbose 플래그로 제공되는 세부 사항의 순서는 다음과 같습니다.
Less details …. 자세한 내용
0 <2 <1
기본값은 1입니다.
프로덕션 환경의 경우 2가 권장됩니다.