您的位置:

DetNet: 深度可分离卷积网络介绍

一、DetNet简介

DetNet是一种基于深度可分离卷积的网络结构,用于目标检测任务。它由南京大学和首都师范大学的研究团队提出并于2018年发表在ECCV上。DetNet主要特点是结构简单、计算代价低,同时具有良好的检测性能。下面我们将从几个方面对DetNet做介绍。

二、深度可分离卷积介绍

深度可分离卷积是一种轻量级卷积方式,是Google在2017年提出的。相比传统的卷积方式,它分为深度可分离卷积和逐通道卷积两部分。深度可分离卷积首先在通道上进行一维卷积,然后在空间上进行三维卷积,这样可以大大减少计算量。而逐通道卷积,则是将多通道的输入分别进行一维卷积,然后在通道维度上进行合并,此方法可以获得更多的特征信息。

三、DetNet网络结构

DetNet主要由深度可分离卷积构成,包含多个卷积层和池化层,其中每个卷积层后都加入了一个残差模块。在残差模块中,采用了两个卷积层,分别进行1x1卷积和3x3卷积,并加入了批归一化和ReLU激活函数。与ResNet网络不同的是,残差模块不是直接将输入加到输出上,而是利用一个特殊的通道注意力模块。它可以自适应地修改特征图的通道权重,从而提高网络的检测性能。

四、DetNet示例代码


import torch
import torch.nn as nn

class DetNet(nn.Module):
    def __init__(self):
        super(DetNet, self).__init__()
        self.conv_layers = nn.Sequential(
            nn.Conv2d(3, 32, kernel_size=3, stride=2, padding=1),
            nn.BatchNorm2d(32),
            nn.ReLU(inplace=True),
            nn.Conv2d(32, 64, kernel_size=3, stride=2, padding=1),
            nn.BatchNorm2d(64),
            nn.ReLU(inplace=True),
            nn.Conv2d(64, 128, kernel_size=3, stride=2, padding=1),
            nn.BatchNorm2d(128),
            nn.ReLU(inplace=True),
            nn.Conv2d(128, 256, kernel_size=3, stride=2, padding=1),
            nn.BatchNorm2d(256),
            nn.ReLU(inplace=True),
            nn.Conv2d(256, 512, kernel_size=3, stride=2, padding=1),
            nn.BatchNorm2d(512),
            nn.ReLU(inplace=True)
        )
        self.res_layers = nn.Sequential(
            ResidualBlock(512),
            ResidualBlock(512),
            ResidualBlock(512),
            ResidualBlock(512),
            ResidualBlock(512),
            ResidualBlock(512)
        )
        self.se_layer = SE_Module(512)

    def forward(self, x):
        x = self.conv_layers(x)
        x = self.res_layers(x)
        x = self.se_layer(x)
        return x

class ResidualBlock(nn.Module):
    def __init__(self, in_channels):
        super(ResidualBlock, self).__init__()
        self.block = nn.Sequential(
            nn.Conv2d(in_channels, in_channels, kernel_size=3, stride=1, padding=1),
            nn.BatchNorm2d(in_channels),
            nn.ReLU(inplace=True),
            nn.Conv2d(in_channels, in_channels, kernel_size=3, stride=1, padding=1),
            nn.BatchNorm2d(in_channels)
        )

    def forward(self, x):
        residual = x
        x = self.block(x)
        x += residual
        x = nn.ReLU(inplace=True)(x)
        return x

class SE_Module(nn.Module):
    def __init__(self, channel):
        super(SE_Module, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.fc = nn.Sequential(
            nn.Linear(channel, channel // 16, bias=False),
            nn.ReLU(inplace=True),
            nn.Linear(channel // 16, channel, bias=False),
            nn.Sigmoid()
        )

    def forward(self, x):
        b, c, _, _ = x.size()
        y = self.avg_pool(x).view(b, c)
        y = self.fc(y).view(b, c, 1, 1)
        return x * y.expand_as(x)

五、DetNet性能对比

DetNet在COCO检测任务上与其他主流网络进行了测试,包括Faster R-CNN、R-FCN和SSD等等。结果显示,DetNet的mAP值均高于其他网络。在计算复杂度上,DetNet比Faster R-CNN低一个数量级,比SSD低两个数量级。这表明DetNet既有很高的检测性能,又具有很好的轻量化性质。