基于深度学习的交通场景视觉显著性区域目标检测

发布时间:2025-05-07 21:19
  交通驾驶场景是一个立体多元、瞬态变化、动静结合的复杂环境,场景中不仅有静态刺激(或目标),如停放在路边的汽车,也有动态的刺激(或目标),如行驶的汽车或行人。受视觉选择性注意机制影响,有经验的驾驶员会选择性关注与驾驶安全或驾驶目的密切相关的交通场景显著区域和显著区域内的重要目标,而自动忽略掉大部分与驾驶安全无关的场景信息或目标,以达到安全驾驶的目的。通过模拟交通场景中驾驶员视觉选择性注意机制,开展交通场景显著性区域内目标检测研究,可以为未来自动驾驶(或无人驾驶)车辆提供一种快速又安全的目标检测驾驶策略,大大减少自动车辆的计算能耗。本论文在本实验室已有的驾驶员眼动数据集和显著性区域计算模型基础上,建立了一个新的显著性区域内目标检测数据集。将视觉注意机制融合到现有目标检测模型中,提出了一个新的交通场景显著性区域目标检测模型ID-YOLO(Increase-Decrease Based You Only Look Once),实验测试结果表明,ID-YOLO可以准确快速地检测出交通驾驶环境中显著性区域内的重要目标。论文主要内容如下:首先,论文介绍了基于有经验驾驶员眼动机制的显著区域目标检测数据集...

【文章页数】:59 页

【学位级别】:硕士

【文章目录】:
摘要
abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状及发展
        1.2.1 视觉注意机制
        1.2.2 视觉显著性计算模型及进展
        1.2.3 基于深度学习的目标检测算法及进展
    1.3 论文的主要工作
    1.4 论文的结构安排
第二章 基于有经验驾驶员眼动机制的显著区域内目标检测数据集的构建
    2.1 引言
    2.2 实验数据来源
    2.3 构建数据集
    2.4 SOD数据集
    2.5 本章小结
第三章 基于卷积神经网络的交通场景显著性区域目标检测模型
    3.1 引言
    3.2 基于基础Faster R-CNN的交通场景显著性区域目标检测模型
        3.2.1 Faster R-CNN:Faster Regions with CNN features算法
        3.2.2 特征提取网络
        3.2.3 模型构建
        3.2.4 实验结果
    3.3 基于基础YOLOv3 的交通场景显著性区域目标检测模型
        3.3.1 YOLO和 YOLOv2 算法
        3.3.2 YOLOv3 算法
        3.3.3 YOLOv3 模型实现
        3.3.4 实验结果
    3.4 两种模型的优劣讨论
    3.5 本章小结
第四章 基于ID-YOLO的交通场景显著性区域目标检测模型
    4.1 引言
    4.2 基于YOLOv3 的框架改进
        4.2.1 增加预测尺度和融合低级特征
        4.2.2 减少主框架的特征提取网络
    4.3 基于ID-YOLO的动态驾驶场景显著性区域目标检测模型
    4.4 实验结果
        4.4.1 定性评价
        4.4.2 定量评价
    4.5 本章小结
第五章 全文总结和展望
    5.1 全文总结
    5.2 后续工作展望
致谢
参考文献
硕士期间取得的研究成果



本文编号:4043809

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/4043809.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户37577***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com