YOLOv8/YOLOv7/YOLOv5系列改进| 目录一览表


文章目录

  • YOLO系列算法改进方法 | 目录一览表
    • 一、注意力机制添加方法
    • 二、网络轻量化方法
    • 三、优化损失函数
    • 四、非极大值抑制
    • 五、“Transformer+CNN”结构
    • 六、特征融合方式改进
    • 七、优化锚框生成
    • 八、激活函数改进
    • 九、空间金字塔池化层改进

💡魔改YOLO系列算法,助力涨点,助力科研。通过添加注意力机制SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM等;网络轻量化方法通过更换主干特征提取网络为MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分离卷积/PP-LCNet/mobileone/Ghostnetv2/ELAN等;优化原yolo算法损失函数为EIoU/SIoU/Alpha-IoU/olyLoss / VarifocalLoss / GeneralizedFLoss / QualityFLoss / FL等,助力检测涨点;优化非极大值抑制算法为Soft-nms/DIoU NMS等;构建“Transformer+CNN”结构拟补原卷积网络缺乏长距离建模能力,融入Bottleneck/EfficientFormer/Swin Transformer/Swin Transformer v2.0/Cotnet等,助力涨点;改进特征融合方式为BIFPN/ASFF等,强化不同尺度融合能力;改进激活函数为ACON/FReLU/ReLU/RReLU/Hardtanh/ReLU6/Sigmoid/Tanh/Mish/Hardswish/ELU/CELU/GLU/GELU/Hardshrink/LeakyReLU/LogSigmoid/Softplus/Softshrink/PReLU/Softmin等几十种激活函数;优化锚框生成,改为K-Means++;空间金字塔池化改进SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC等;其他还有添加小目标检测层/ACMIX/CSPCM/SPD/C3HB/CB2D/ConvMix/DenseOneC/DenseOne/CReToNeXt/MVB/QARepVGG/RepVGGBlock/ConvNeXtV2/fasternet等等方法。详情关注后私信留言咨询

所有改进代码百度链接:https://pan.baidu.com/s/1glx4v71i6KPVlGtdZLQ1og 提取码:私信后获取。


YOLO系列算法改进方法 | 目录一览表

💡🎈☁️1. 添加SE注意力机制

💡🎈☁️2.添加CBAM注意力机制

💡🎈☁️3. 添加CoordAtt注意力机制

💡🎈☁️4. 添加ECA通道注意力机制

💡🎈☁️5. 改进特征融合网络PANET为BIFPN

💡🎈☁️6. 增加小目标检测层

💡🎈☁️7. 损失函数改进

💡🎈☁️8. 非极大值抑制NMS算法改进Soft-nms

💡🎈☁️9. 锚框K-Means算法改进K-Means++

💡🎈☁️10. 损失函数改进为SIOU

💡🎈☁️11. 主干网络C3替换为轻量化网络MobileNetV3

💡🎈☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2

💡🎈☁️13. 主干网络C3替换为轻量化网络EfficientNetv2

💡🎈☁️14. 主干网络C3替换为轻量化网络Ghostnet

💡🎈☁️15. 网络轻量化方法深度可分离卷积

💡🎈☁️16. 主干网络C3替换为轻量化网络PP-LCNet

💡🎈☁️17. CNN+Transformer——融合Bottleneck Transformers

💡🎈☁️18. 损失函数改进为Alpha-IoU损失函数

💡🎈☁️19. 非极大值抑制NMS算法改进DIoU NMS

💡🎈☁️20. Involution新神经网络算子引入网络

💡🎈☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer

💡🎈☁️22. 涨点神器——引入递归门控卷积(gnConv)

💡🎈☁️23. 引入SimAM无参数注意力

💡🎈☁️24. 引入量子启发的新型视觉主干模型WaveMLP(可尝试发SCI)

💡🎈☁️25. 引入Swin Transformer

💡🎈☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络

💡🎈☁️27. 解决小目标问题——校正卷积取代特征提取网络中的常规卷积

💡🎈☁️28. ICLR 2022涨点神器——即插即用的动态卷积ODConv

💡🎈☁️29. 引入Swin Transformer v2.0版本

💡🎈☁️30. 引入10月4号发表最新的Transformer视觉模型MOAT结构

💡🎈☁️31. CrissCrossAttention注意力机制

💡🎈☁️32. 引入SKAttention注意力机制

💡🎈☁️33. 引入GAMAttention注意力机制

💡🎈☁️34. 更换激活函数为FReLU

💡🎈☁️35. 引入S2-MLPv2注意力机制

💡🎈☁️36. 融入NAM注意力机制

💡🎈☁️37. 结合CVPR2022新作ConvNeXt网络

💡🎈☁️38. 引入RepVGG模型结构

💡🎈☁️39. 引入改进遮挡检测的Tri-Layer插件 | BMVC 2022

💡🎈☁️40. 轻量化mobileone主干网络引入

💡🎈☁️41. 引入SPD-Conv处理低分辨率图像和小对象问题

💡🎈☁️42. 引入V7中的ELAN网络

💡🎈☁️43. 结合最新Non-local Networks and Attention结构

💡🎈☁️44. 融入适配GPU的轻量级 G-GhostNet

💡🎈☁️45. 首发最新特征融合技术RepGFPN(DAMO-YOLO)

💡🎈☁️46. 改进激活函数为ACON

💡🎈☁️47. 改进激活函数为GELU

💡🎈☁️48. 构建新的轻量网络—Slim-neck by GSConv(2022CVPR)

💡🎈☁️49. 模型剪枝、蒸馏、压缩

💡🎈☁️50. 超越ConvNeXt!Conv2Former:用于视觉识别的Transformer风格的ConvNet

💡🎈☁️51.融入多分支空洞卷积结构RFB-Bottleneck改进PANet构成新特征融合网络

💡🎈☁️52.将YOLOv8中的C2f模块融入YOLOv5

💡🎈☁️53.融入CFPNet网络中的ECVBlock模块,提升小目标检测能力

💡🎈☁️54.改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

💡🎈☁️55.融入美团最新QARepVGG

💡🎈☁️56.引入Contextual Transformer模块(sci期刊创新点之一)


一、注意力机制添加方法

一般解决问题为:图像待测目标与背景相似,目标难以辨识的检测难点

💡🎈☁️1. 添加SE注意力机制

💡🎈☁️2.添加CBAM注意力机制

💡🎈☁️3. 添加CoordAtt注意力机制

💡🎈☁️4. 添加ECA通道注意力机制

💡🎈☁️23. 引入SimAM无参数注意力

💡🎈☁️31. CrissCrossAttention注意力机制

💡🎈☁️32. 引入SKAttention注意力机制

💡🎈☁️33. 引入GAMAttention注意力机制

💡🎈☁️35. 引入S2-MLPv2注意力机制

💡🎈☁️36. 融入NAM注意力机制

二、网络轻量化方法

一般解决问题为:轻量化网络,适应应用部署

💡🎈☁️11. 主干网络C3替换为轻量化网络MobileNetV3

💡🎈☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2

💡🎈☁️13. 主干网络C3替换为轻量化网络EfficientNetv2

💡🎈☁️14. 主干网络C3替换为轻量化网络Ghostnet

💡🎈☁️15. 网络轻量化方法深度可分离卷积

💡🎈☁️16. 主干网络C3替换为轻量化网络PP-LCNet

💡🎈☁️40. 轻量化mobileone主干网络引入

💡🎈☁️48. 构建新的轻量网络—Slim-neck by GSConv(2022CVPR)

💡🎈☁️49. 模型剪枝、蒸馏、压缩

三、优化损失函数

一般解决问题为:原损失函数的缺陷不足

💡🎈☁️7. 损失函数改进

💡🎈☁️10. 损失函数改进为SIOU

💡🎈☁️18. 损失函数改进为Alpha-IoU损失函数

💡🎈☁️54.改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

四、非极大值抑制

一般解决问题为:同类别目标相互重叠导致错漏检问题

💡🎈☁️8. 非极大值抑制NMS算法改进Soft-nms

💡🎈☁️19. 非极大值抑制NMS算法改进DIoU NMS

五、“Transformer+CNN”结构

一般解决问题为:拟补全卷积网络缺乏长距离建模能力

💡🎈☁️17. CNN+Transformer——融合Bottleneck Transformers

💡🎈☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer

💡🎈☁️25. 引入Swin Transformer

💡🎈☁️29. 引入Swin Transformer v2.0版本

💡🎈☁️50. 超越ConvNeXt!Conv2Former:用于视觉识别的Transformer风格的ConvNet

💡🎈☁️56.引入Contextual Transformer模块(sci期刊创新点之一)

六、特征融合方式改进

一般解决问题为:目标尺度变化多样的问题

💡🎈☁️5. 改进特征融合网络PANET为BIFPN

💡🎈☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络

💡🎈☁️51.融入多分支空洞卷积结构RFB-Bottleneck改进PANet构成新特征融合网络

七、优化锚框生成

一般解决问题为:原K-Means算法缺陷

💡🎈☁️9. 锚框K-Means算法改进K-Means++

八、激活函数改进

💡🎈☁️34. 更换激活函数为FReLU

💡🎈☁️46. 改进激活函数为ACON

💡🎈☁️54. 改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

九、空间金字塔池化层改进

💡🎈☁️SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC (可私信获取)

本文来自网络,不代表协通编程立场,如若转载,请注明出处:https://net2asp.com/c31abf49e1.html