ResNet without pooling layer

在Striving for Simplicity: The All Convolutional Net這一篇論文當中,作者透過將神經網路中的池化層摘除,並改用stride=2卷積層的方法,來達到同樣降低圖片長寬尺寸的目的。並發現在這樣的設定下,模型在CIFAR-10和CIFAR-100上的分類錯誤率有明顯的下降。但該方法的缺點是會造成模型的計算量和參數量提升。

本文嘗試將該方法應用在ResNet架構上。詳細PyTorch程式碼如下所示:

第241行和第248行將pooling layer改用stride=2的卷積層(定義在180、181行)

Machine Learning | Deep Learning | https://linktr.ee/yanwei