一、图像二值化算法研究及其实现(论文文献综述)
冯栋[1](2021)在《基于机器视觉的目标检索方法研究》文中研究说明随着新一代信息技术的蓬勃发展,服务于城市治理的智能高清摄像头建设规模日渐庞大,催生出爆炸式增长的视频图像数据,同时高清的视图画面中不同尺度目标和场景细节也得以呈现。如何高效处理海量视频和图像数据,从中建立目标个体和群体的联系,并挖掘出更多有价值的信息变得愈发重要。基于视觉的目标图像检索技术正是解决这一问题的关键钥匙。视觉目标检索是计算机视觉领域和数字图像处理任务中最具有挑战性的工作之一,它的研究内容包含如何高效地构建待检索目标特征数据库和精准且快速地检索出相同或相似的目标图像两项任务。在实际工业应用环境中,受数据接入规模和复杂场景影响,使得待检索库庞大(亿级以上)且噪声数据干扰严重,从而导致构建快速、精准的视觉目标检索系统面临更严峻的考验。本学位论文围绕目标建库和目标检索两个环节来展开研究,主要有以下四方面的创新型工作:(1)针对待检索目标特征数据库噪声数据干扰严重的问题,在目标建库环节加入目标检测任务的研究,提出了一种EASNet网络的单阶目标检测方法。分别从主干网络结构设计、特征融合模块设计、损失函数设计三个方面开展深度优化工作,实验表明,该方法有利于克服不同分辨率下多尺度干扰、定位不精确、样本不均衡的问题;(2)为保障精准返回检索结果,提出了一种基于深度神经网络的多层特征融合方法,可融合底层局部特征和高层语义特征。该方法使用词袋模型和汉明嵌入方法对特征进行聚合以及细粒度量化,并采用正则化扩散方法对相似度得分结果重排序来提高检索精度。实验表明,该方法可有效提高检索精度;(3)针对海量视觉目标检索底库下的计算开销大和返回结果慢的问题,提出了一个分块多叉字典树MBNT的特征索引结构方法,并将其用来加速汉明空间下目标矢量特征的检索比对。通过对比实验表明,该方法在解决查找不命中问题的同时内存占用和计算开销更小。此外,本文还发现当二值矢量特征越来越紧凑且细节区分度更好时,精确r近邻搜索比近似r近邻搜索对视觉目标检索的速度优势越来越明显;(4)面向公安视频实战侦察场景,搭建视频目标检测和检索应用系统。该系统包含视图解析和目标检索两个子系统,其中EASNet视觉目标检测算法在视图解析子系统中被实现和使用,而基于深度神经网络的多层特征融合方法和分块多叉字典树MBNT的特征索引结构在目标检索子系统中被集成。该系统已在多地公安系统上测试,并取得了一定实战效果。
张少慧[2](2021)在《基于SOPC的多种生物特征识别系统的研究》文中提出当今社会信息飞速发展,个人信息安全是信息时代备受关注的问题。身份信息识别技术作为可有效保护信息安全的手段一直是热点研究方向。基于生物特征的身份信息认证识别技术以其稳定性、可靠性及安全性等优点被广泛应用于各领域。但在实际应用中,单模态生物特征识别技术存在如特殊人群生物特征损坏或缺失,防伪性较差等固有缺陷。针对此问题,本文提出了基于SOPC的人脸、虹膜、指纹三种单模态生物特征融合识别方案,可有效弥补上述单特征识别技术的不足。本文具体工作如下:1.单模态生物特征识别的研究。在阅读大量文献后,本设计选择了具体使用的人脸、虹膜及指纹三种生物特征识别的相关算法,并对其进行验证。其中,本文针对虹膜定位算法做出了改进,通过对瞳孔中心位置进行估计,并在此基础上利用先验知识减小大量无用边缘点,实现快速虹膜定位。同时本文还对传统指纹特征提取算法做出了改进,在提取特征的同时去除伪特征点,提升指纹特征提取速度。2.人脸、虹膜、指纹融合识别的研究。本文选定在分数层融合三种生物特征,并根据实际需求设计了人脸+虹膜、人脸+指纹、虹膜+指纹三种融合方案。针对传统分数层加权融合算法计算量大、权值分配固定等缺点,本文提出了自适应加权融合算法。通过判断单生物特征识别系统的可靠性确定融合方案,再根据不同权值的融合系统的可靠性确定最终最佳融合权值,以得到性能最佳的融合系统。3.SOPC系统的开发。本文通过硬件描述语言对按系统需求添加的IP核进行连接,完成了系统的硬件开发,将PC端验证可行的算法采用C语言编写并在Nios II处理器上运行实现,完成了系统软件开发。最后将整个系统在DE2-115开发板得到了验证,初步实现了融合身份识别系统。
于永兴[3](2021)在《面向移动机器人定位的多QR码快速光照均衡和检测算法研究》文中提出随着物联网技术的发展,二维条码技术越来越成熟,作为一种重要的信息感知来源被广泛应用于生产、制造、物流、仓储等领域。QR码由于具有较强纠错能力和全方位可快速识别等特点,是应用最为广泛的一种二维条码。在仓储物流等场景中,采用QR码人工路标作为视觉标识研究移动机器人的定位技术避免了很多因素的影响,通过快速和准确地识别QR码路标,实现了移动机器人的精确定位。但在实际的定位场景中,所采集的图像会受到各种因素的干扰而无法快速准确地提取特征信息,影响定位的速度和精度,因此本文将围绕着移动机器人定位过程中的相关问题进行研究。在基于QR码的移动机器人视觉定位中,如何准确定位并识别出QR码中所包含的相关信息是实现定位的关键。然而由于采集的QR码图像包含环境背景信息,尤其是光照变化的影响,导致QR识别速度和识别率较低,因此无法直接对QR码图像进行解码识别;而且针对实际定位应用场景中,无法事先判断拍摄的图像中存在多少个QR码,多个QR码同时出现的情况也对传统QR码检测算法提出了新的挑战;此外,基于单个QR码标识的移动机器人视觉定位存在间歇性,行驶路径固定,在定位精度和可靠性等方面仍存在一定挑战。本文主要针对上述问题进行了重点研究,研究内容和创新点如下:(1)QR码快速光照均衡算法研究。针对复杂光照环境中,采集到的QR码图像存在多种类型光照不均的问题,本文结合QR码的符号特征,提出了一种鲁棒性较强的光照均衡二值化算法。实验证明,该算法可以快速消除QR码图像光照不均的影响,针对不同类型的光照不均,本文算法都具有较好的处理效果,可以满足实时场景中快速高识别率的要求。(2)多QR码快速检测算法研究。针对实际定位应用场景中,拍摄的图像中存在未知数量的QR码,传统二维码检测算法无法快速定位多个QR码的问题,本文通过将传统QR码检测定位方法与网络学习方法结合,基于QR码边缘信息丰富且分布密集的特点,研究设计一种多QR码快速检测定位算法。经过实验验证,本文多QR码检测算法可以在0.6秒左右实现对单张包含160张QR码的图片的高精度检测定位。(3)面向移动机器人的多QR码定位算法研究。针对基于单个QR码标识的移动机器人视觉定位存在间歇性,定位精度和可靠性有待提高等问题,本文基于多QR码快速检测算法研究设计了一种移动机器人定位方案,通过检测的多个QR码的位置和识别的编码信息,分别确定移动机器人的航向和实际位置,实现了更高精度和更可靠的定位。并且通过搭建的实验场景进行定位测试,验证了本文多QR码的定位算法的高精度定位,可以用来有效估计移动机器人的位置,为实现自主导航提供更精确的航位和位置信息。
梁国贤[4](2021)在《基于深度学习的化验单内容提取技术研究》文中研究指明人工智能的发展给医疗行业注入了强大的活力,依托人工智能技术的医学辅助诊断系统,可以有效地解决“患多医少”的压力,同时也能减少医学中的误诊现象,减少医患纠纷的发生。将化验单图像内容准确转换成结构化数据是医学辅助诊断系统安全可靠运行的保证,此外患者手上的纸质化验单图像数据也是医疗大数据的重要来源,中文化验单包含了中英文、符号和数字等混排形式的字符,且目前尚缺乏相关的公开数据集,如何将化验单内容准确自动转换成结构化计算机可直接使用的数据,化验单图像内容识别技术尤为重要。本文依托计算机图像处理技术,对化验单内容识别技术相关算法进行了研究分析,设计了一套化验单内容提取系统。主要工作概括如下:首先,对化验单图像预处理算法进行分析研究,针对如何有效地从复杂背景下正确提取化验单图像区域,提出了使用融合算子对化验单图像进行边缘检测。相较于使用单一算子,该方法使得在背景复杂情况下,依然能很好地提取到化验单图像的边缘信息;研究了不同的化验单图像二值化算法,提出采用二维的大津算法对化验单图像进行二值化。该方法很好地解决了化验单图像在二值化过程中出现文字断裂和大量墨块问题。其次,深入研究了基于深度学习的化验单图像文本检测算法,提出了基于深度学习的多特征融合文本检测算法,该方法将VGG、Inception、Resnet特征提取网络融合到原始EAST算法中,能有效地解决以投影法为代表的传统检测算法得到的文本框不准确以及当前深度学习方法出现对文本框特别是长文本框出现漏检严重的现象。此外,对基于单字识别方式的化验单文本识别算法进行分析研究,并基于Tesseract-OCR单字识别模型,提出了本文改进方法。该方法使用本文提出的文本检测算法,代替原模型中的文本区域检测模块,配合Tesseract-OCR模型的识别模组进行识别任务,识别准确率得到极大的提升,但依然受限于模型字符分割的效果,对形近字和左右结构字识别效果不佳。于是提出了改进的CRNN端到端序列识别模型,该方法在CRNN的基础上,使用ResNet101-IBN(b)网络进行特征提取,并采用特征重用技巧,在加深网络深度的同时提升了模型的性能,识别准确率得到进一步的提升。最后,基于PyQt平台,开发了一套中文化验单内容提取系统,经过调试验证,该系统能较好地完成识别任务,将化验单图像内容转换成结构化数据,满足使用要求。
徐梦园[5](2021)在《基于图像处理的非接触式人体测量系统研究》文中进行了进一步梳理在人体服装领域中,人体测量技术正在不断朝着数字化、信息化的方向发展。非接触式的人体测量能够实现人体尺寸信息的快速获取,大大提高了传统手工人体测量的工作效率。目前,非接触式三维测量需要的设备普遍较为昂贵和庞大,在三维数据的处理和数据存储上也存在一定的不便捷性。非接触式的二维测量基于人体图像,通过对人体图像处理、分割和提取的过程,可以直接输出人体尺寸数据。基于图像处理的非接触式人体测量,对于人体尺寸获取和服装网络定制都具有十分广泛的研究和应用前景。本课题中,针对目前基于图像的人体测量的过程中存在的提取精度较低、难以获取人体围度尺寸等问题,进行了优化改善,并建立了一套基于图像处理的非接触式人体测量系统。课题主要的研究工作有:(1)提出了精细化、系统化的人体图像处理流程和手段:利用photoshop软件对获取的人体正、侧面图像进行预处理;通过cvt Color()函数对图像进行灰度转换,计算机方法对图像进行灰度和二值转换。在自建系统中实现了阈值调节功能,提升了图像分割的精准度。选择canny算子进行图像边缘检测,加强了人体轮廓提取的均匀性。利用形态学的知识去除细小杂点、填补人体空洞、加强人体轮廓。(2)利用人体高度数据确定肩部、胸部、腰部、臀部搜索区域,在人体各部位搜索区域内,利用角点检测结合人体形态特点确定各特征部位坐标,利用坐标计算各部位尺寸。(3)基于210人的手工测量数据,利用机器学习的方法建立了4种围度预测模型。针对胸围、腰围、臀围这三个围度的实验验证对比,分别选出了适用于每个围度最优的模型,并将各围度模型集成在自建的人体测量系统里。
葛永杰[6](2021)在《基于深度学习的工业场景箱体字符识别与判断研究》文中研究说明随着计算机技术的发展,以深度学习为基础的人工智能不断应用在医疗、金融、安防等领域。同时,国家对制造业转型与升级十分重视,并采取多种有利举措,促进产业发展与“新经济”发展战略落地。因此以深度学习为基础的相关技术和方法也开始在工业领域出现,以科技赋能产业,促进工业制造向智能制造迈进。工业质检是制造业进行商品生产的一个重要环节,是提升产品质量与工艺技术水准、规范生产作业的重要途经。工厂将商品放入包装箱内是生产流程的必要一环,包装箱上印刷的产品批号和生产日期信息具有重要意义,出厂前须确保字迹清晰完整,不能出现漏印、错印、空白箱等情况,否则影响商品的流通与销售。目前,工厂中商品包装箱上字符文本检查的相关方法和应用产品较少,且实时性与效果不佳,主要处于人工检查阶段,未能实现实时自动化全覆盖检查。商品包装箱上的字符文本检查,可以利用光学字符识别的相关方法,实现生产线智能化箱体字符识别判断与商品全覆盖。针对上述应用场景与需求,本文提出了基于深度学习的工业场景箱体字符识别与判断算法,具体的研究工作如下:(1)本文针对应用场景建立了工业场景商品外观信息数据集。通过在工厂车间的生产线上布置工业相机与触发器等设备,对生产过程中的商品包装箱两侧进行图像实时采集,由于商品外观信息会随着季度更新变化,数据集中的箱体图像也会根据需要进行更新扩充,以保证算法应用的效果。(2)本文在商品箱体字符检测阶段应用了基于YOLOv3网络优化改进得到的G-YOLOv3,通过合并卷积层与批量归一化层,推理速度提升22%;通过引入GIo U,m AP提升7.5%,同时训练过程的收敛速度更快。由于检测网络的定位边界框在部分图像上出现无法包含完整字符文本的情况,而造成切割图像时字符残缺影响后续字符识别的问题,本文提出了边界框的调整方法,成功地解决了上述问题,为字符识别做好准备。(3)本文在商品箱体字符识别阶段采用了Tesseract,放弃了先分割后识别的方法,对原模型进行调优训练得到新的模型,使得箱体字符文本的置信度得到至少10%的提升。对文本区域图像采用高斯滤波、自适应阈值二值化等图像预处理操作,提高字符识别正确率。由于车间内各条生产线上的光线存在差异,导致拍摄获取的图像表面光线条件较差,文本区域图像明暗不均,进而对自适应阈值算法中的局部区域大小有不同的适用值,因此,本文提出了局部区域大小调整方案,来解决不同生产线不同商品箱体图像对局部区域大小有不同适用值的问题。(4)本文在商品箱体字符识别结果匹配判断阶段采用了自主设计的识别结果字符串分段匹配的方法。商品外观信息会随季度更新,以及拥有相同商品外观信息的图像由于光线的影响而存在差异,模板匹配方法需要人工定期更换模板图像,给算法的应用增加了人工成本。本文设计的识别结果字符串分段匹配的方法,从字符文本入手,与工厂管理系统相配合,减少了人工操作,使得算法更具自动化。(5)本文为了验证算法的有效性和应用前景进行了工厂生产线实测,实现了生产线上的商品全覆盖与实时监测,对每件商品完成拍照、检测识别和输出结果共耗时3.5秒左右,准确率达到了99.5%。
张美欧[7](2021)在《不同照度下车辆的车道线识别方法研究》文中研究指明本文针对目前车辆智能化的发展阶段,对于辅助驾驶系统乃至自动驾驶车辆的车道线识别技术进行研究,对于提升交通安全具有重大意义。针对目前车道线识别算法受光照的影响程度较大而提出将照度引入车道线识别算法,对不同照度环境下的车道线识别算法进行了研究。通过实验,该算法能够在30km/h的车速下完成车道线识别功能,识别的准确度平均能够达到90.30%,不同照度下车道线识别算法的平均处理帧率能够达到402FPS,能够满足实验要求。首先,本文通过研究照度对车道线识别的影响,将照度作为光照影响图像质量的重要参数,设计出照度分类器,并且搭建出以BH1750照度传感器、CH340芯片的USB TO TTL与树莓派4B为基础的照度采集系统平台,完成实时采集环境照度数据以及照度数据实时传输的功能。其次,针对正常照度环境下的道路图像,运用光流估计和背景建模的方法,能够实现在动态环境中突出图像中车道线像素的功能。而针对不良照度下的车道线识别,本文采用统计方向梯度直方图的方法对微光以及弱光照度下的道路图像进行处理,由于强照度在迎背光环境中图像往往会出现光斑或明暗交界,车道线信息容易丢失,因此本文采用阈值分割直方图均衡化作为光照补偿算法进行图像处理。再次,本文通过改进霍夫变换的使用场景,将其运用于车道线的预定位,并且运用最小二乘法在预定位范围内对车道线像素点进行拟合,拟合后的车道线能够适应车道线的形态变化。最后,在算法的实验验证方面,通过采集不同时段的道路照度数据进行分析处理,对照度分类器的可行性进行验证,同时,在不同照度环境中进行实车的道路测试,验证车道线的识别效果并且进行了优化,对比分析车道线的识别效果、效率以及准确率,得出该识别算法能够适应不同照度下的道路图像,识别的速率与准确率能够满足实验要求,对基于视觉的智能车辆车道线识别技术研究具有重要意义。
李泊琦[8](2021)在《复杂场景下文本检测与识别方法研究》文中研究说明近年来随着互联网社区的快速发展,用户产生了大量含有文本的多媒体文件。文本识别技术成为多媒体检索与内容分析审核的核心方法,利用文本检测定位图像中文本区域并进行识别,实现智能化多媒体文件检索归类以及图像内容分析审核。文本识别技术作为多媒体文件中文字信息转变为结构化文本的一种重要手段,在智能信息录入、多媒体检索、内容分析审核、智能穿戴设备等方面得到广泛应用。然而在文本识别真实应用场景中并不能保证获取高质量稳定图像,来源于网络与多样化数据采集设备的文本图像多含有复杂背景与图像传感器运动噪声。具体体现为场景背景含有运动的云雾、光源、阴影和动画造成的前景后景剧烈变化,这样背景复杂化的特性给传统文本识别方法带来极大的挑战。传统方法对复杂场景文本检测存在检测结果不精准、边缘缺失、文本框不贴合的现象,也使得次级文本识别网络难以得到准确识别结果。本文针对复杂场景下文本检测识别算法,建立复杂场景中文序列文本识别数据集,并基于复杂场景对现有文本检测识别方法进行研究与改进。具体内容如下:1.本文构建了一个中文文本识别数据集。本文针对复杂场景下文本背景复杂多变的特点,确定多种复杂场景文本可能含有噪声、扭曲类型以进行数据扩展。本文分析人工文本与自然文本特点,使用多种方式完成语料库收集,并针对中文文本长尾分布特点构建重采样。采用基于大规模真实文本的语料库,并根据语料文本频率重采样构建了含有语义信息且分布均匀的中文文本识别数据集。从文本背景复杂度、样本分布均衡程度、文本形式多样性等角度对比,证明本文构建的中文文本识别数据集在复杂场景下优越性。2.本文研究了使用实例分割方式的文本检测算法,并在此基础上构建应用于复杂场景下的轻量型文本检测算法。本文在轻量型网络主干中使用空洞卷积,从感受野角度获取文本多尺度特征增强轻量型网络特征表达能力。本文使用输出归一化的可微分二值化函数,以可微分函数实现近似的文本区域二值化并融合到端到端网络进行训练。在后处理中以自适应阈值谱最大稳定极值区域作为文本边界区域,结合二值化函数稳定精确定位文本区域。3.本文研究了一种基于通道分组的注意力文本检测算法。基于注意力机制对轻量型网络特征表达与语义信息的增益效果,本文设计基于通道分组的注意力模块。结构上为通道优先的通道注意力与空间注意力级联,构造上以压缩激发形式压缩空间信息获取通道依赖性以压缩通道数增强空间相关性,进而将通道分组激发获取多组注意力谱进而获得唯一鲁棒的注意力权重。最后将该注意力模块与可微分二值化文本检测算法相结合,应用于置信度分支降低文本背景干扰增强文本特征显着性,用以构建本章基于通道分组的注意力文本检测算法。4.本文研究了一种文本序列识别模型的剪枝压缩方法。基于CRNN中以特征空间顺序作为时间序列的建模方式,使用全卷积替换RNN序列编码结构。设计应用于卷积层的结构化dropout丢弃指定像素及其对角相邻元素,减少标准dropout丢弃区域像素高相关性,稀疏化未剪枝网络参数。以卷积前批归一化放缩因子与偏移值共同作为通道参数重要程度度量,进行通道剪枝并固化通道筛选层。再次于本文构建的复杂场景下的中文文本识别数据集上训练微调,最终得到基于结构化剪枝的轻量化文本识别模型。
袁兴[9](2021)在《基于NB-IoT的嵌入式图像型火灾报警系统设计》文中研究指明火灾是人们生活中发生频繁、危害性较大的灾害之一,其每年都会造成巨大的财产损失和人员伤亡。因此为了降低火灾带来的伤害和损失,在火灾发生早期如何高效地实现对火灾进行探测与报警极为重要。目前,传统的火灾报警系统存在着报警实时性差,误报率、漏报率高,以计算机为核心的图像型火灾报警系统存在着体积大、成本高、安装迁移困难等问题。并且目前大多数火灾报警系统仍采用有线连接方式来进行数据传输,其具有布线接线复杂,后期维护不便等问题。针对以上问题,本文设计了一种基于NB-IoT的嵌入式图像型火灾报警系统。该系统由图像型火焰报警器、NB-IoT无线传输模块、OneNET物联云平台、手机终端和监控主机等构成。其中图像型火焰报警器利用OV5640摄像头模块来作为图像采集源,利用ST公司生产的STM32F446RET6嵌入式微处理器来作为主控制器,通过利用主控制器对采集的图像进行处理和识别后,判断采集的图像中是否存在火焰来实现对火灾的探测与报警。并且可通过利用基于M5310A模组的NB-IoT无线传输模块将图像型火焰报警器的火灾报警信息上传到OneNET物联云平台,OneNET物联云平台再将火灾报警信息传输给手机终端和监控主机用于实现对火灾报警情况进行实时监测。并且在Altium Designer软件上完成了图像型火焰报警器和NB-IoT无线传输模块的硬件电路设计与PCB板绘制;在Keil MDK软件上完成了图像型火焰报警器控制程序和NB-IoT通信程序的编写与调试;在Android Studio软件上完成了手机终端和监控主机的火灾报警监控界面设计;最后对整个系统进行了软硬件调试以及系统功能测试。测试结果表明,该系统能够稳定运行,火灾报警准确率较高、误报率小、实时性好,能够在火灾发生早期实现对火灾火焰的快速探测与报警,并且通过手机终端和监控主机可以实现对火灾报警情况进行实时监测。该系统还具有体积小、覆盖范围广、功耗低、成本低等优点,在消防报警设备领域具有广泛的应用前景。
陶建敏[10](2020)在《基于深度学习的车牌识别技术的研究与实现》文中认为随着现代社会的发展,机动车辆日益增多,这为智能化的交通管理提出了更高的要求。车辆的车牌信息是车辆的主要特征,因此车牌识别算法在智能化的交通管理系统中有着举足轻重的地位。车牌识别算法广泛应用于出入口控制、收费站等场景,此外,在无人机和手机拍摄等图像识别中也有相关的应用。传统的方法识别车牌需要多种方法综合,实现步骤复杂,而且在识别率和鲁棒性上与深度学习方法相比有一定的差距。国内车牌形式多样,颜色繁杂,尺寸不完全统一,如今还出现了8个字符的车牌。传统方法在光照变化、图像模糊、车牌破损、车牌尺寸变化等情况下难以准确的识别车牌。本文主要针对传统方法在车牌识别上缺乏鲁棒性,而提出了基于深度学习的车牌识别方法,并将其应用到校园出入口场景下实现较鲁棒,较准确的车牌识别。本文的主要研究工作和贡献如下:(1)研究了深度学习中的目标检测算法,通过改进将其应用到车牌定位上。本文主要实现了改进的多任务卷积神经网络(Multi-task Convolutional Neural Networks,MTCNN)算法,改进的You Only Look Once(YOLO)算法,并提出了基于RetinaNet的改进算法LPRetinaNet算法。改进的MTCNN算法解决了图像多尺度问题,可以准确而鲁棒的实现车牌定位任务,该方法在自建数据集上的定位准确率达到99.7%,在中国城市停车场数据集(Chinese City Parking Dataset,CCPD)2019 weather数据集上定位准确率达到了99.49%,可以实现较为鲁棒的车牌定位;通过使用分辨率较高的图像数据集训练模型,基于改进的YOLO算法实现了对图像分辨率较低的情况下的准确定位,该方法主要4个改进点:第一,改进特征提取网络;第二,将特征图的输出改为14×14;第三,在原损失函数上增加了广义交并比(Generalized Intersection over Union,GIoU)损失;第四,在训练阶段IoU的计算方式采用GIoU。通过实验发现,基于DetNet59的骨干网络的改进YOLO算法在自建数据集上准确率达到了99.97%,定位时间仅需46.7ms,基于DarkNet19的骨干网络在自建数据集和CCPD 2019 weather数据集上准确率分别达到了99.95%和98.44%。最后为了提高定位的精细化,实现对倾斜车牌的矫正,本文提出了基于LP-RetinaNet的车牌定位算法,通过网络即可实现车牌定位和车牌矫正,该算法相比原RetinaNet算法,改进了骨干网络模型、加入了Single Stage Headless(SSH)模块、加入了关键点损失,该模型实现了轻量化的设计,在自建数据集上准确率达到了97%,在CCPD 2019 weather数据集上准确率达到了99.63%,实现了较为鲁棒的车牌定位。(2)研究了传统方法中的车牌字符分割算法,结合实验室和前人的研究实现了较为准确的车牌字符分割。本文实现的车牌字符分割算法其在500张定位好的车牌上其分割准确率达到了99.6%,基本可以实现对常规车牌较准确的分割。(3)研究了基于卷积神经网络(Convolutional Neural Networks,CNN)的字符识别方法和基于卷积循环神经网络(Convolutional Recurrent Neural Networks,CRNN)的序列识别方法,通过改进实现了较准确的车牌字符识别。本文提出了基于改进LeNet-5的车牌字符识别方法,其在中文字符和字母和数字字符上平均准确率达到了99%;此外本文提出了基于改进CRNN网络结构的方法,通过设计车牌序列识别网络(License Plate Sequence Recognition–Networks,LPSR-Net)模型,使用人工合成数据集312508张车牌图像和CCPD2019数据集的115817张车牌图像训练模型,在CCPD 2019数据集的45057张车牌图像上测试,其识别准确率达到99.7%,高于原CRNN模型0.5个百分点,高于车牌识别神经网络(License Plate Recognition via Deep Neural Networks,LPRNet)模型1.2个百分点。(4)研究了多种端到端的车牌识别算法并和开源算法等对比,通过实验发现基于LPRetinaNet和LPSR-Net的方法其包含定位和识别在内,在1800张宽640像素,高480像素的离线含车牌图片数据上的准确率达到了96.05%,平均耗时只需81毫秒,比HyperLPR开源车牌识别系统高16.33个百分点,比Lab-212-LPRS-v3高16.05个百分点。(5)通过加入触发模块的方式从摄像头中实时捕获车牌图像,本文实现的车牌识别系统在校园卡口的1000张图像尺寸为1920×1080的彩色含车牌图像上的实测结果其全字符平均准确率达到了99.8%,平均耗时为407毫秒,该方法基本可以满足校园场景下较鲁棒、较准确的车牌识别。
二、图像二值化算法研究及其实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、图像二值化算法研究及其实现(论文提纲范文)
(1)基于机器视觉的目标检索方法研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景及意义 |
1.2 当前研究现状 |
1.3 主要研究内容 |
1.4 论文组织结构 |
2 相关研究基础 |
2.1 引言 |
2.2 目标检测方法研究 |
2.2.1 双阶目标检测技术 |
2.2.2 单阶目标检测技术 |
2.3 特征表达 |
2.3.1 基于传统的手工特征提取 |
2.3.2 基于深度学习的特征提取 |
2.4 目标检索 |
2.4.1 简单相似图像检索 |
2.4.2 多标签图像检索 |
2.4.3 相似性度量方法 |
2.4.4 图像检索数据集 |
2.4.5 性能评价指标 |
2.5 本章小结 |
3 基于空洞卷积和上下文信息的目标检测算法研究 |
3.1 引言 |
3.2 空洞卷积 |
3.3 条纹池化 |
3.4 基于空洞卷积和上下文信息的目标检测方法研究 |
3.4.1 EASNet主干网络结构的构建 |
3.4.2 EASModule特征融合 |
3.4.3 EASHead损失函数设计 |
3.5 实验结果与分析 |
3.5.1 实验设置 |
3.5.2 实验结果及对比 |
3.6 本章小结 |
4 基于多层级的特征融合方法研究 |
4.1 引言 |
4.2 多层级特征融合结构 |
4.3 基于卷积神经网络的分层池化和量化 |
4.4 多层级特征融合方法 |
4.5 实验与分析 |
4.5.1 实验设置 |
4.5.2 实验结果与评价 |
4.6 本章小节 |
5 基于哈希索引的大规模目标快速检索方法研究 |
5.1 引言 |
5.2 哈希算法 |
5.3 汉明空间近邻搜索 |
5.4 基于分块字典树的精确r近邻搜索 |
5.4.1 目标搜索流程 |
5.4.2 分块多叉字典树 |
5.4.3 基于MBNT的精确r近邻搜索 |
5.5 实验结果与分析 |
5.5.1 数据集选择和评测指标 |
5.5.2 多尺度目标搜索的平均准确率 |
5.5.3 MBNT索引结构关键参数设置 |
5.5.4 多尺度目标搜索的平均检索时间 |
5.5.5 近似搜索和精确搜索算法对比 |
5.6 本章小结 |
6 面向公安场景的视频目标检测与检索应用 |
6.1 引言 |
6.2 视频目标检测与检索应用系统设计 |
6.2.1 系统架构设计 |
6.2.2 视图解析子系统 |
6.2.3 目标检索子系统 |
6.3 实验应用效果 |
6.3.1 硬件环境配置 |
6.3.2 验证场景说明 |
6.3.3 验证方案设计 |
6.3.4 验证结果说明 |
6.4 本章小节 |
7 总结与展望 |
7.1 工作总结 |
7.2 工作展望 |
参考文献 |
作者简历及攻读博士学位期间取得的研究成果 |
学位论文数据集 |
(2)基于SOPC的多种生物特征识别系统的研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 生物特征识别技术研究现状 |
1.2.1 人脸识别技术研究现状 |
1.2.2 虹膜识别技术研究现状 |
1.2.3 指纹识别技术研究现状 |
1.2.4 多模态生物特征识别技术研究现状 |
1.3 主要研究内容及章节安排 |
1.4 本章小结 |
第二章 单模态生物特征识别的实现 |
2.1 人脸识别 |
2.1.1 人脸数据库 |
2.1.2 人脸预处理 |
2.1.2.1 图像灰度化 |
2.1.2.2 直方图均衡化 |
2.1.3 K-L正交变换 |
2.1.4 基于PCA的人脸识别 |
2.2 虹膜识别 |
2.2.1 虹膜数据库 |
2.2.2 虹膜预处理 |
2.2.2.1 虹膜定位 |
2.2.2.2 虹膜归一化及增强 |
2.2.3 虹膜特征提取及编码 |
2.2.4 虹膜特征匹配 |
2.3 指纹识别 |
2.3.1 指纹数据库 |
2.3.2 指纹预处理 |
2.3.2.1 图像归一化 |
2.3.2.2 图像增强 |
2.3.2.3 基于梯度场的图像分割 |
2.3.2.4 指纹图像二值化 |
2.3.2.5 二值化图像去噪 |
2.3.2.6 指纹图像细化 |
2.3.3 指纹特征提取 |
2.3.4 指纹特征匹配 |
2.4 本章小结 |
第三章 人脸虹膜指纹融合识别技术 |
3.1 融合策略 |
3.2 匹配分数归一化 |
3.3 分数层融合算法 |
3.3.1 传统分数层融合算法 |
3.3.2 改进的分数层融合算法 |
3.4 实验分析 |
3.4.1 基于单模态生物特征识别的实验分析 |
3.4.2 基于多特征融合识别系统的实验分析 |
3.5 本章小结 |
第四章 基于SOPC的多生物特征融合系统 |
4.1 FPGA及 SOPC技术相关概述 |
4.1.1 现场可编程门阵列FPGA |
4.1.2 可编程片上系统SOPC |
4.1.3 Nios II处理器 |
4.2 融合系统的硬件平台及开发环境 |
4.2.1 DE2-115 开发板 |
4.2.2 系统开发环境 |
4.3 融合系统需求分析及总体设计 |
4.3.1 系统需求分析 |
4.3.2 系统总体设计 |
4.4 硬件系统搭建 |
4.5 系统软件设计 |
4.6 系统测试 |
4.7 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间的研究成果 |
(3)面向移动机器人定位的多QR码快速光照均衡和检测算法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究动态 |
1.2.1 国外研究现状 |
1.2.2 国内研究现状 |
1.3 课题的主要研究内容 |
1.4 论文的组织架构 |
第二章 相关技术 |
2.1 QR概述 |
2.1.1 QR码的结构 |
2.1.2 QR码的主要特点 |
2.2 图像二值化方法概述 |
2.2.1 全局阈值算法 |
2.2.2 局部阈值算法 |
2.3 QR检测方法概述 |
2.4 QR定位原理概述 |
2.5 本章小结 |
第三章 QR码快速光照均衡算法研究 |
3.1 引言 |
3.2 基于QR码符号特征的自适应二值化算法 |
3.2.1 预处理 |
3.2.2 自适应选取分块窗口 |
3.2.3 QR码的二值化 |
3.3 实验与仿真 |
3.4 本章小结 |
第四章 多QR码快速检测算法研究 |
4.1 引言 |
4.2 多QR码快速检测算法 |
4.2.1 预处理 |
4.2.2 轮廓提取与预筛选 |
4.2.3 多级分步判别算法 |
4.2.4 网络模型判定 |
4.3 实验与仿真 |
4.4 本章小结 |
第五章 面向移动机器人的多QR码定位算法研究 |
5.1 定位模型的建立 |
5.1.1 天花板定位模型 |
5.1.2 摄像机模型 |
5.1.3 相机标定 |
5.2 多QR码定位算法 |
5.2.1 多QR码定位流程 |
5.2.2 航位信息计算 |
5.2.3 位置信息计算 |
5.3 实验测试 |
5.3.1 航位信息计算实验测试 |
5.3.2 位置信息计算实验测试 |
5.4 本章小结 |
第6 章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间取得的研究成果 |
学位论文数据集表 |
(4)基于深度学习的化验单内容提取技术研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 化验单内容提取技术研究现状 |
1.2.2 文字检测技术研究现状 |
1.2.3 文字识别技术研究现状 |
1.3 主要研究内容及技术路线 |
1.3.1 主要研究内容 |
1.3.2 技术路线 |
2 化验单图像预处理算法研究及优化 |
2.1 基于融合算子的化验单图像边缘检测 |
2.1.1 Canny算子 |
2.1.2 sobel算子 |
2.1.3 改进的融合算子图像边缘检测算法 |
2.2 化验单图像二值化算法的优化 |
2.2.1 基于自适应阈值的OTSU算法 |
2.2.2 基于局部阈值的Bernsen算法 |
2.2.3 改进的二维OTSU二值化算法 |
2.3 本章小结 |
3 基于深度学习的化验单文本检测算法研究及优化 |
3.1 深度学习神经网络模型研究 |
3.1.1 神经网络组成 |
3.1.2 神经网络各层工作原理 |
3.2 基于CNN架构的特征提取网络模型 |
3.2.1 VGGNet网络 |
3.2.2 Inception网络 |
3.2.3 ResNet网络 |
3.3 基于深度学习的EAST文本检测算法研究 |
3.3.1 算法网络结构 |
3.3.2 算法损失函数的建立 |
3.4 改进的多特征融合EAST文本检测算法研究 |
3.4.1 基于多特征融合的特征提取网络模型建立 |
3.4.2 改进的融合损失函数 |
3.5 本章小结 |
4 基于深度学习的化验单文本识别算法研究及优化 |
4.1 基于Tesseract-OCR的单字识别模型研究 |
4.1.1 Tesseract-OCR单字识别模型 |
4.1.2 Tesseract-OCR模型参数调优 |
4.2 Tesseract-OCR单字识别模型算法的优化 |
4.2.1 化验单版面分析 |
4.2.2 化验单内容预识别及模型训练 |
4.3 基于端到端的CRNN序列识别算法研究 |
4.3.1 CRNN算法网络结构 |
4.3.2 CTC blank机制原理推导 |
4.4 改进的CRNN序列识别模型算法 |
4.4.1 ResNet101-IBN(b)残差特征网络的建立 |
4.4.2 基于ResNet101-IBN(b)的多尺度CRNN网络模型 |
4.5 本章小结 |
5 化验单内容提取系统设计与实验 |
5.1 PyQt程序库 |
5.2 化验单内容提取系统架构 |
5.3 化验单内容提取系统软件实现 |
5.4 实验结果及分析 |
5.4.1 实验环境 |
5.4.2 实验数据集 |
5.4.3 化验单边缘检测实验及分析 |
5.4.4 化验单二值化算法实验及分析 |
5.4.5 化验单文本检测算法实验及分析 |
5.4.6 化验单文字识别算法实验及分析 |
5.5 本章小结 |
6 结论 |
6.1 主要研究成果 |
6.2 进一步工作展望 |
参考文献 |
作者简历 |
学位论文数据集 |
(5)基于图像处理的非接触式人体测量系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景 |
1.2 研究现状 |
1.2.1 人体测量技术研究现状 |
1.2.2 人体轮廓提取研究现状 |
1.2.3 人体特征点识别和尺寸提取研究现状 |
1.2.4 人体围度预测研究现状 |
1.3 研究目的与意义 |
1.4 研究内容与路线 |
1.4.1 主要研究内容 |
1.4.2 研究路线 |
1.5 课题研究创新点 |
第2章 人体图像处理与轮廓提取 |
2.1 人体图像及相关数据获取 |
2.2 图像预处理 |
2.3 图像灰度转换与二值化处理 |
2.3.1 图像的灰度转换 |
2.3.2 图像二值化处理 |
2.4 图像边缘检测 |
2.5 图像形态学处理与轮廓提取 |
2.6 本章小结 |
第3章 基于人体轮廓的宽厚度尺寸提取 |
3.1 人体高度数据提取与搜索区间确定 |
3.2 人体轮廓身高计算方法和特征扫描 |
3.3 角点检测原理介绍 |
3.4 人体关键部位的特征识别与尺寸提取 |
3.4.1 肩部搜索区域特征识别与宽度尺寸提取 |
3.4.2 腰部搜索区域特征识别与宽厚度尺寸提取 |
3.4.3 胸部搜索区域特征识别与宽厚度尺寸提取 |
3.4.4 臀部搜索区域特征识别与宽厚度尺寸提取 |
3.5 基于图像提取的宽厚度尺寸结果与验证 |
3.5.1 图像提取宽厚度尺寸结果的稳定性分析 |
3.5.2 图像提取宽厚度尺寸结果的可靠性分析 |
3.6 本章小结 |
第4章 基于机器学习的人体围度预测模型 |
4.1 机器学习理论及相关概念介绍 |
4.2 人体数据集与训练特征说明 |
4.2.1 人体数据集的获取与清洗 |
4.2.2 特征的选择和处理 |
4.3 基于机器学习的围度预测模型 |
4.3.1 决策树模型 |
4.3.2 线性回归模型 |
4.3.3 SVR模型 |
4.3.4 KNN模型 |
4.4 人体围度预测模型的结果评价 |
4.4.1 评价指标 |
4.4.2 胸围预测的各模型结果分析 |
4.4.3 腰围预测的各模型结果分析 |
4.4.4 臀围预测的各模型结果分析 |
4.5 本章小结 |
第5章 基于图像处理的人体测量系统的实现 |
5.1 开发环境和相关技术介绍 |
5.1.1 系统开发环境 |
5.1.2 Open CV计算机视觉处理库 |
5.1.3 相关编程语言 |
5.1.4 C#调用Python的实现方法 |
5.2 系统模块与功能设计 |
5.3 系统操作流程与界面展示 |
5.4 本章小结 |
第6章 结论 |
6.1 主要研究成果 |
6.2 不足与展望 |
参考文献 |
致谢 |
(6)基于深度学习的工业场景箱体字符识别与判断研究(论文提纲范文)
摘要 |
Abstract |
第一章 引言 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 本文工作 |
1.4 本文组织结构 |
第二章 神经网络相关知识 |
2.1 神经网络的基础知识 |
2.2 卷积神经网络 |
2.2.1 基本原理 |
2.2.2 激活函数 |
2.2.3 损失函数 |
2.3 循环神经网络 |
2.3.1 基本原理 |
2.3.2 长短时记忆网络 |
2.4 神经网络训练优化 |
2.4.1 初始化 |
2.4.2 正则化 |
2.4.3 批量归一化 |
2.5 本章小结 |
第三章 数据集的制作及流程概述 |
3.1 图像采集与应用场景分析 |
3.1.1 工厂生产线图像采集 |
3.1.2 商品包装箱图像及场景分析 |
3.2 数据集的制作 |
3.2.1 文本检测数据集的制作 |
3.2.2 文本识别数据集的制作 |
3.3 识别与判断方法流程概述 |
3.4 本章小结 |
第四章 箱体字符文本检测定位与切割 |
4.1 文本检测算法 |
4.1.1 传统检测算法 |
4.1.2 基于深度学习的检测算法 |
4.2 基于改进YOLOv3 的文本检测算法 |
4.2.1 锚框计算 |
4.2.2 GIoU |
4.2.3 网络优化 |
4.3 实验对比分析 |
4.3.1 评价标准 |
4.3.2 结果分析 |
4.4 边界框的调整优化 |
4.5 本章小结 |
第五章 箱体字符文本识别 |
5.1 图像预处理设计 |
5.1.1 图像灰度化 |
5.1.2 图像滤波降噪 |
5.1.3 图像二值化 |
5.1.4 Blocksize调整 |
5.2 Tesseract训练与识别 |
5.3 本章小结 |
第六章 字符文本匹配判断与生产线实测 |
6.1 字符匹配方法 |
6.1.1 模板匹配 |
6.1.2 自主设计字符匹配方法 |
6.2 基于该方法的生产线实测 |
6.2.1 工厂应用场景简介 |
6.2.2 基于该方法的监测系统运行过程 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间取得的研究成果 |
攻读硕士学位期间参加的科研项目 |
(7)不同照度下车辆的车道线识别方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题背景与研究意义 |
1.2 车道线识别技术国内外研究现状 |
1.2.1 国外车道线识别技术研究现状 |
1.2.2 国内车道线识别技术研究现状 |
1.2.3 当前研究现状存在的不足 |
1.3 本文的研究内容 |
2 照度对车道线识别影响分析及照度采集系统设计 |
2.1 光照对车道线识别的影响 |
2.2 照度分类器设计 |
2.3 照度采集系统 |
2.3.1 照度采集系统硬件设备 |
2.3.2 照度采集系统软件设计 |
2.4 本章小结 |
3 基于光流估计与背景建模的图像处理及光照补偿算法 |
3.1 图像预处理 |
3.1.1 颜色空间变换 |
3.1.2 道路图像灰度化 |
3.1.3 道路图像二值化 |
3.1.4 图像去噪 |
3.2 不良照度下的光照补偿算法 |
3.2.1 方向梯度直方图 |
3.2.2 阈值分割直方图均衡化 |
3.3 良好照度下基于光流估计与背景建模的图像处理算法 |
3.3.1 光流估计 |
3.3.2 背景建模 |
3.4 本章小结 |
4 基于霍夫变换与最小二乘法的车道线定位与拟合 |
4.1 我国车道线的相关标准 |
4.2 边缘检测 |
4.3 ROI感兴趣区域划分 |
4.4 霍夫变换进行车道线的预定位 |
4.4.1 霍夫变换基本原理 |
4.4.2 霍夫变换进行车道预定位 |
4.5 最小二乘法拟合车道线 |
4.6 本章小结 |
5 不同照度下的车道线识别实验验证 |
5.1 实验软硬件平台 |
5.2 照度分类测试 |
5.3 不同照度下车道线识别效果验证 |
5.4 不同照度下车道线识别算法效率与准确率 |
5.4.1 车道线识别算法效率 |
5.4.2 车道线识别准确率 |
5.5 本章小结 |
结论 |
参考文献 |
附录1 |
附录2 |
附录3 |
攻读学位期间发表的学术论文 |
致谢 |
附件 |
(8)复杂场景下文本检测与识别方法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究现状 |
1.2.1 文本检测算法的研究现状 |
1.2.2 文本识别算法的研究现状 |
1.3 本文的主要研究内容 |
1.4 本文的结构安排 |
第二章 复杂场景下中文文本识别数据集的建立 |
2.1 引言 |
2.2 复杂场景文本的特性 |
2.3 中文文本分布特性 |
2.4 本章数据集的构建 |
2.5 本章数据集的对比与分析 |
2.6 本章小结 |
第三章 基于可微分二值化的复杂文本检测算法 |
3.1 引言 |
3.2 本章算法框架 |
3.3 基于可微分二值化的标签与网络结构 |
3.3.1 标签生成 |
3.3.2 网络结构设计 |
3.4 可微分二值化函数 |
3.5 复杂场景下后处理MSER |
3.6 实验结果及分析 |
3.6.1 实验环境 |
3.6.2 网络参数与模型训练 |
3.6.3 客观实验结果分析 |
3.6.4 主观实验结果分析 |
3.7 本章小结 |
第四章 基于通道分组与注意力机制的文本检测算法 |
4.1 引言 |
4.2 本章算法框架 |
4.3 基于通道分组的注意力模块方法 |
4.3.1 现有通道注意力的局限性 |
4.3.2 通道分组的注意力模块结构设计 |
4.4 通道分组的注意力信息融合设计 |
4.5 基于通道分组注意力的文本检测算法 |
4.6 实验结果及分析 |
4.6.1 网络参数与模型训练 |
4.6.2 客观实验结果分析 |
4.6.3 主观实验结果分析 |
4.7 本章小结 |
第五章 基于结构化剪枝的文本识别算法 |
5.1 引言 |
5.2 本章算法框架 |
5.3 结合结构化剪枝的文本识别网络结构设计 |
5.3.1 现有文本识别网络模型剪枝局限性 |
5.3.2 基于结构化剪枝的文本识别网络设计 |
5.4 基于结构化dropout的参数正则方法 |
5.4.1 dropout在卷积神经网络中的局限性 |
5.4.2 结构化dropout的设计 |
5.5 基于结构化剪枝的文本识别算法 |
5.6 实验结果及分析 |
5.6.1 网络参数与模型训练 |
5.6.2 客观实验结果分析 |
5.6.3 主观实验结果分析 |
5.7 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(9)基于NB-IoT的嵌入式图像型火灾报警系统设计(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题研究背景及意义 |
1.2 火灾报警系统的国内外发展现状 |
1.2.1 传统火灾报警系统的发展现状 |
1.2.2 图像型火灾报警系统的发展现状 |
1.2.3 图像型火灾报警系统的不足 |
1.2.4 图像型火灾报警系统的发展趋势 |
1.3 论文主要研究内容及结构安排 |
1.3.1 主要研究内容 |
1.3.2 结构安排 |
2 系统方案设计及相关新兴技术介绍 |
2.1 系统性能需求分析 |
2.2 系统总体方案选择 |
2.3 图像型火焰报警器方案设计 |
2.4 相关新兴技术介绍 |
2.4.1 NB-IoT技术 |
2.4.2 OneNET物联云平台 |
2.5 本章小结 |
3 系统的硬件电路设计与实现 |
3.1 图像型火焰报警器硬件设计 |
3.1.1 报警器的电源电路 |
3.1.2 主控制器最小系统电路 |
3.1.3 图像采集电路 |
3.1.4 外扩PSRAM电路 |
3.1.5 SD卡存储电路 |
3.1.6 火灾报警输出电路 |
3.1.7 OLED显示接口电路 |
3.1.8 扩展接口电路 |
3.2 NB-IoT无线传输模块硬件设计 |
3.2.1 NB-IoT模块供电电路 |
3.2.2 M5310A模组外围电路 |
3.3 PCB布局布线 |
3.4 本章小结 |
4 报警器的火焰识别算法研究与实现 |
4.1 火焰图像的采集与存储 |
4.2 火焰图像的预处理 |
4.2.1 火焰图像滤波 |
4.2.2 基于火焰颜色特征的二值化 |
4.2.3 形态学处理 |
4.3 火焰图像的特征提取及识别 |
4.3.1 圆形度特征 |
4.3.2 尖角特征 |
4.3.3 面积变化率特征 |
4.4 本章小结 |
5 系统的整体软件设计与实现 |
5.1 图像型火焰报警器控制程序设计 |
5.2 NB-IoT通信设计 |
5.2.1 OneNET平台端软件设计 |
5.2.2 NB-IoT设备端软件设计 |
5.3 手机终端应用程序设计 |
5.3.1 Android开发环境搭建 |
5.3.2 手机APP的UI界面设计 |
5.3.3 手机APP应用编程 |
5.4 监控主机火灾报警监控界面设计 |
5.5 本章小结 |
6 系统测试与结果 |
6.1 系统的总体调试 |
6.2 系统的功能测试 |
6.3 系统整体运行效果 |
7 总结与展望 |
参考文献 |
攻读硕士学位期间发表的论文及科研成果 |
致谢 |
(10)基于深度学习的车牌识别技术的研究与实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 车牌识别系统的研究现状 |
1.2.1.1 车牌定位 |
1.2.1.2 车牌字符分割 |
1.2.1.3 车牌字符识别 |
1.2.2 深度学习算法的研究现状 |
1.2.2.1 目标检测 |
1.2.2.2 文字识别 |
1.3 本文研究内容与结构安排 |
第2章 深度学习理论基础 |
2.1 深度学习概述 |
2.1.1 深度学习的发展历史 |
2.2 卷积神经网络结构 |
2.2.1 卷积层 |
2.2.2 激活函数层 |
2.2.3 池化层 |
2.2.4 BN层 |
2.2.5 全连接层 |
2.3 典型神经网络模型 |
2.3.1LeNet-5 |
2.3.2 VGGNet |
2.3.3 Inception |
2.3.4 ResNet |
2.4 目标检测中通用模块与结构 |
2.4.1 特征金字塔:FPN |
2.4.2 目标检测中DetNet结构 |
2.5 模型轻量化设计之深度可分离卷积 |
2.6 总结 |
第3章 车牌定位算法研究 |
3.1 国内车牌的特点 |
3.2 目标检测算法 |
3.2.1 两阶段目标检测算法 |
3.2.1.1 R-CNN |
3.2.1.2 SPP-Net |
3.2.1.3 Fast R-CNN |
3.2.1.4 Faster R-CNN |
3.2.2 单步检测算法 |
3.3 目标检测算法改进 |
3.3.1 基于改进MTCNN算法实现车牌定位 |
3.3.2 基于改进YOLO算法的车牌定位 |
3.3.3 基于改进RetinaNet车牌定位算法之LP-RetinaNet |
3.3.3.1 骨干网络之MobileNetV |
3.3.3.2 骨干网络之GhostNet |
3.3.3.31 ×1卷积和FPN |
3.3.3.4 上下文模块-SSH Module和三种回归任务 |
3.3.3.5 LP-RetinaNet锚点框 |
3.3.3.6 网络训练 |
3.4 实验 |
3.4.1 实验环境 |
3.4.2 实验数据 |
3.4.3 目标检测评估方法 |
3.4.4 算法测试和性能分析 |
3.4.4.1 基于Faster R-CNN的车牌定位实验 |
3.4.4.2 基于改进MTCNN的车牌定位实验 |
3.4.4.3 基于改进YOLO的车牌定位实验 |
3.4.4.4 基于LP-RetinaNet的车牌定位实验 |
3.5 改进后的车牌定位算法综合分析 |
3.6 本章小结 |
第4章 车牌字符分割 |
4.1 常见车牌字符分割算法 |
4.1.1 基于垂直投影的分割算法 |
4.1.2 基于模板匹配的分割算法 |
4.1.3 基于聚类分析的分割算法 |
4.2 本文的字符分割算法 |
4.2.1 预处理 |
4.2.1.1 倾斜矫正 |
4.2.1.2 颜色判断和处理 |
4.2.1.3 二值化 |
4.2.1.4 去除边框 |
4.2.1.5 垂直调整 |
4.2.2 车牌字符分割 |
4.3 车牌字符分割实验 |
4.3.1 实验数据 |
4.3.2 车牌图像水平倾斜矫正实验 |
4.3.3 图像二值化实验 |
4.3.4 水平投影和垂直投影、边框去除实验 |
4.3.5 车牌字符分割实验 |
4.4 本章小结 |
第5章 车牌字符识别 |
5.1 基于分割的字符识别方法 |
5.1.1 基于改进LeNet-5的车牌字符识别原理 |
5.1.2 基于改进LeNet-5的车牌字符识别流程 |
5.1.3 基于分割的车牌字符识别数据集 |
5.1.4 车牌字符图像预处理 |
5.1.5 识别车牌字符的改进LeNet-5模型结构 |
5.1.6 车牌字符识别网络模型训练 |
5.1.7 实验环境 |
5.1.8 基于分割的车牌字符识别实验 |
5.2 基于序列的车牌字符识别方法 |
5.2.1 实验数据 |
5.2.2 基于改进CRNN网络模型的车牌序列识别算法 |
5.2.3 LPSR-Net网络训练、参数设置和实验结果 |
5.3 端到端车牌识别系统 |
5.3.1 端到端车牌识别系统离线实验 |
5.3.2 端到端车牌识别系统实时采集图像实验 |
5.3.3 端到端车牌识别系统实验结果分析 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 本文总结 |
6.2 后续工作展望 |
参考文献 |
攻读硕士学位期间主要科研成果 |
致谢 |
四、图像二值化算法研究及其实现(论文参考文献)
- [1]基于机器视觉的目标检索方法研究[D]. 冯栋. 北京交通大学, 2021(02)
- [2]基于SOPC的多种生物特征识别系统的研究[D]. 张少慧. 内蒙古大学, 2021(12)
- [3]面向移动机器人定位的多QR码快速光照均衡和检测算法研究[D]. 于永兴. 广东技术师范大学, 2021(09)
- [4]基于深度学习的化验单内容提取技术研究[D]. 梁国贤. 北京交通大学, 2021(02)
- [5]基于图像处理的非接触式人体测量系统研究[D]. 徐梦园. 北京服装学院, 2021(12)
- [6]基于深度学习的工业场景箱体字符识别与判断研究[D]. 葛永杰. 西南大学, 2021(01)
- [7]不同照度下车辆的车道线识别方法研究[D]. 张美欧. 东北林业大学, 2021(08)
- [8]复杂场景下文本检测与识别方法研究[D]. 李泊琦. 电子科技大学, 2021(01)
- [9]基于NB-IoT的嵌入式图像型火灾报警系统设计[D]. 袁兴. 西华大学, 2021(02)
- [10]基于深度学习的车牌识别技术的研究与实现[D]. 陶建敏. 广西师范大学, 2020(01)