YoloX论文详解

发布时间:2023-05-18

一、YoloX论文翻译

YoloX的全称是You Only Look Once eXtra, 它是一个端到端的卷积网络,主要用于实时的对象检测和分类。它通过多尺度特征融合,引入于网络结构,达到了更高的检测精度和更快的检测速度。此外,它还在YOLO中引入了一个新的目标检测方法,即当目标在图片中出现重叠时,可以通过同一个边界框来检测重叠部分,有效地提升了检测的效率。

二、YoloV8论文

YoloV8是Yolo系列的前驱版本,也是目标检测领域极具代表性的算法之一。在网络结构方面,YoloV8采用了基于DarkNet的卷积网络结构,具有较好的可拓展性和便于模型压缩的特点。此外,YoloV8引入了DIOU值的计算方法,使得其在检测效果和速度上都有了不小的提升。

三、YoloX论文发表在哪

YoloX论文由香港科技大学的周志华教授团队发布于2021年4月份的CVPR会议中。

四、Yolo论文下载

YoloX论文的下载链接:https://arxiv.org/abs/2102.02882

五、Yolox论文详解

1.多尺度特征融合

传统的目标检测算法常常采用多阶段的特征提取方法,由低到高依次进行,而YoloX采用了多尺度特征融合的方式,将不同分辨率的特征图融合到同一个特征图上,从而生成更丰富的特征。在大小不一的anchor boxes表示下,YoloX生成的特征图比其他基于anchor boxes算法更具有可拓展性。

2.路径集成模块(PaM)

路径集成模块是YoloX的一个重要结构,可以有效地提升目标检测的性能。在PaM中,每个卷积单元的输出都送到一个global pooling layer进行池化,然后将各个池化的结果分别进行concatenate操作得到整个网络的全局特征表达。这样做可以有效的促进信息的融合,增强了网络的表达能力,提升了检测精度。

3.解压缩网络

为了在保证精度的同时提高检测速度,YoloX引入了解压缩网络来对卷积核进行压缩。同时,为了消除网络中的dead filter,YoloX还引入了卷积核剪枝技术来对网络进行优化。这些技术的引入可以使得YoloX算法达到更高的检测精度和更快的检测速度。

六、YoloX代码示例

import torch
import torch.nn as nn
from torch.cuda.amp import autocast
from .network_blocks import *
from .yolo_head import YOLOXHead
from ...utils.general import get_model_info, get_model_complexity_info
__all__ = ['YOLOX', 'yolox_s', 'yolox_m', 'yolox_l', 'yolox_x']
MODEL_EXTRAS = {
    'yolox_s': {'depth': [0, 1, 2, 8, 8, 4, 4]},
    'yolox_m': {'depth': [0, 1, 2, 8, 8, 8, 4, 4, 4]},
    'yolox_l': {'depth': [0, 1, 2, 8, 16, 8, 4, 4, 4]},
    'yolox_x': {'depth': [0, 1, 2, 8, 16, 8, 4, 4, 4, 4]},
}
class YOLOX(nn.Module):
    def __init__(self,
                 # model
                 depth,
                 width,
                 in_channels=3,
                 act='silu',
                 depthwise=False,
                 use_spp=True,
                 # anchor
                 anchors=None,
                 # head
                 head=None,
                 num_classes=80,
                 # pretrained
                 pretrained=None):
        super().__init__()
        self.depth = depth
        self.width = width
        self.in_channels = in_channels
        self.out_channels = [width * pow(2, i + 2) for i in range(self.depth // 2)]
        self.act = act
        self.depthwise = depthwise
        self.use_spp = use_spp
        self.num_classes = num_classes
        self.head_depth = 2
        self.grid_size = [torch.zeros(1)] * (self.depth // 2)
        self.anchor_gen = Anchors(
            strides=[pow(2, i + 2) for i in range(self.depth // 2)],
            base_anchors=anchors,
        )
        if use_spp:
            self.backbone = CSPDarknet(depth, width, in_channels, act, depthwise=depthwise, spp=True)
        else:
            self.backbone = CSPDarknet(depth, width, in_channels, act, depthwise=depthwise, spp=False)
        self.depth_last = 1 if use_spp else 2
        self.neck = YOLOXNeck(depth, width, self.out_channels, act, depthwise=depthwise, use_spp=use_spp)
        self.head = YOLOXHead(self.out_channels, num_classes, act=self.act, depthwise=self.depthwise,
                              yolox=True, width=self.width, in_channels=self.backbone.out_channels[self.depth_last])
        self.head.decode_in_inference = False  # 确保输出匹配模型
        self.forward_count = 0
        self.pretrained = pretrained
    def init_weights(self, num_layers, pretrained=None):
        if pretrained is not None:
            ckpt = torch.load(pretrained, map_location='cpu')
            state_dict = ckpt['model']
            if 'optimizer' in ckpt:
                del ckpt['optimizer']
            self.load_state_dict(state_dict, strict=True)
            print(f"load checkpoint from {pretrained}")
    def forward(self, x):
        x = self.backbone(x)
        x = self.neck(x)
        x = self.head(x)
        self.forward_count += 1
        return x
    @autocast()
    def forward_dummy(self, x):
        x = self.backbone(x)
        x = self.neck(x)
        x = self.head.forward_dummy(x)
        return x