ResNet18原理

ResNet18是一个经典的深度卷积神经网络模型,由微软亚洲研究院提出,用于参加2015年的ImageNet图像分类比赛。ResNet18的名称来源于网络中包含的18个卷积层。

ResNet18的基本结构如下:

  • 输入层:接收大小为224×224的RGB图像。
  • 卷积层:共4个卷积层,每个卷积层使用3×3的卷积核和ReLU激活函数,提取图像的局部特征。
  • 残差块:共8个残差块,每个残差块由两个卷积层和一条跳跃连接构成,用于解决深度卷积神经网络中梯度消失和梯度爆炸问题。
  • 全局平均池化层:对特征图进行全局平均池化,将特征图转化为一维

    向量。

  • 全连接层:包含一个大小为1000的全连接层,用于分类输出。
  • 输出层:使用softmax激活函数,生成1000个类别的概率分布。

ResNet18的主要特点是引入了残差块(Residual Block)的概念,用于解决深度卷积神经网络中梯度消失和梯度爆炸问题。在残差块中,跳跃连接(Shortcut Connection)可以将输入直接连接到输出,使得网络可以学习到残差信息,从而更好地进行特征提取和处理。

在训练过程中,ResNet18一般采用基于随机梯度下降(Stochastic Gradient Descent,SGD)的反向传播算法,通过最小化交叉熵损失函数来优化模型参数。在训练过程中,可以使用数据增强、正则化、dropout等技术来提高模型的泛化能力和鲁棒性。

总的来说,ResNet18是一个非常经典和有效的深度卷积神经网络模型,具有良好的特征提取和分类能力,可以应用于图像分类、目标检测等计算机视觉任务。

ResNet18源码(tensorflow版)

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras import layers,datasets,modelsdef main():(train_x,train_y),(test_x,test_y) = datasets.cifar10.load_data()train_x = train_x.reshape([-1,32,32,3]) / 255.0test_x = test_x.reshape([-1,32,32,3]) / 255.0inputs = keras.Input((32,32,3))output = ResNet18(inputs)model = models.Model(inputs,output)model.summary()model.compile(loss = keras.losses.SparseCategoricalCrossentropy(),optimizer=keras.optimizers.Adam(0.01),metrics=['accuracy'])model.fit(train_x,train_y,batch_size=128,epochs=10)score = model.evaluate(test_x,test_y)print("loss:",score[0])print("acc:",score[1])passdef ConvCall(x,filtten,xx,yy,strides = (1,1)):x = layers.Conv2D(filtten,(xx,yy),strides=strides,padding='same')(x)x = layers.BatchNormalization()(x)return xdef ResNetblock(input,filtten,strides = (1,1)):x = ConvCall(input,filtten,3,3,strides=strides)x = layers.Activation("relu")(x)x = ConvCall(x,filtten,3,3,strides=(1,1))if strides != (1,1):residual = ConvCall(input,filtten,1,1,strides=strides)else:residual = inputx = x + residualx = layers.Activation("relu")(x)return xdef ResNet18(inputs):x = ConvCall(inputs, 64, 3, 3, strides=(1, 1))x = layers.Activation('relu')(x)x = ResNetblock(x, 64, strides=(1, 1))x = ResNetblock(x, 64, strides=(1, 1))x = ResNetblock(x, 128, strides=(2, 2))x = ResNetblock(x, 128, strides=(1, 1))x = ResNetblock(x, 256, strides=(2, 2))x = ResNetblock(x, 256, strides=(1, 1))x = ResNetblock(x, 512, strides=(2, 2))x = ResNetblock(x, 512, strides=(1, 1))x = layers.GlobalAveragePooling2D()(x)# 全局平均池化output = layers.Dense(10, "softmax")(x)return outputif __name__ == '__main__':main()

训练10个epoch的效果