1。Early stop

在模型訓練過程中,提前終止

2。Data expending

用更多的資料集

3。正則

眾所周知的正則化,有L1 L2 兩者,順便問下兩者區別是什麼?

4。Droup Out

以一定的機率使某些神經元停止工作,可以從ensemble的角度來看,順便問下為啥Droup Out效果就是好呢?

5。BatchNorm

對神經元作歸一化

詳細的請看下面的文獻吧,當你說出這幾點後,面試官會接著問,為啥這個?為啥那個?為啥這個?為啥那個?為啥這個?為啥那個?為啥這個?為啥那個?為啥這個?為啥那個?為啥這個?為啥那個?為啥這個?為啥那個?o(╥﹏╥)oo(╥﹏╥)oo(╥﹏╥)oo(╥﹏╥)oo(╥﹏╥)o布吉島

神經網路簡介-防止過擬合 - CSDN部落格

深度學習(二十九)Batch Normalization 學習筆記

理解droupout - CSDN部落格

神經網路中的Early Stop

L2正則項與早停止(Early Stop)之間的數學聯絡

【CV知識學習】early stop、regularation、fine-tuning and some other trick to be known

筆者雖然只是一些問題的搬運工,但是筆者才疏學淺呀,具體需要對問題進行深入的小夥伴還望自己閱讀相關文獻,這裡只是提出一些問題,以便於面試時問到,如果內容有一些錯誤,還望批評指正~~~~