학습률 (Learning Rate)
매 가중치에 대해 구해진 기울기 값을 얼마나 경사하강법에 적용할 지 ? 보폭
하이퍼파라미터
학습률이 너무 크거나 작으면?

경사하강법과의 관계 :하강법 - 산길을 내려가는 과정, 학습률- 보폭
관련 기법들
학습률 감소 (Learning Rate Decay)
model.compile(optimizer=**tf.keras.optimizers.Adam**(lr=0.001, beta_1= 0.89)
, loss='sparse_categorical_crossentropy'
, metrics=['accuracy'])
학습률 계획법 (Learning Rate Scheduling)

first_decay_steps= 1000
initial_learning_rate= 0.01
lr_decayed_fn= (
tf.keras.**experimental.CosineDecayRestarts**(
initial_learning_rate,
first_decay_steps))
가중치 초기화 (Weight Initialization)
신경망에서 중요한 요소
문제

종류 (수식을 외울 필요는 없음. 어떤 방법이 있고 언제 어떻게 사용되는지 기억하고 넘어가면 된다)
Xavier 초기화

He 초기화

그 외
init_mode **=** ['uniform', 'lecun_uniform', 'normal', 'zero', 'glorot_normal', 'glorot_uniform', 'he_normal', 'he_uniform']과적합

과적합 방지를 위한 방법들
가중치 감소 (Weight Decay)

드롭아웃 (Dropout)

# 이 층에 어떤 레귤러라이제이션, 드롭아웃을 적용할지 #기본적인 신경망을 만드는 코드#
model= Sequential([
Flatten(input_shape=(28, 28)),
Dense(64,#덴스층에 64를 추가..kernel_regularizer=regularizers.l2(0.01),
activity_regularizer=regularizers.l1(0.01)),
Dropout(0.5),
Dense(10, activation='softmax')#출력층 10개, 활성화함수는 소프트맥스])
조기종료 (Early Stopping)

# 파라미터 저장 경로를 설정하는 코드입니다. #어떤 모델을 어디에 저장할지?checkpoint_filepath= "FMbest.hdf5"
early_stop= keras.callbacks.EarlyStopping(**monitor='val_loss'**, min_delta=0, **patience=10**, verbose=1)
#Val_loss 모니터링
#Patience=10, 연속적으로 9번까지 Val_loss 값이 나아지지 않으면, 10번째에 조기 종료(Early Stop)
