结合多种语义信息的半自动视频对象分割

结合多种语义信息的半自动视频对象分割

一、结合多种语义信息的半自动视频对象分割(论文文献综述)

周雯[1](2020)在《面向高速铁路运行安全的智能图像识别方法研究》文中进行了进一步梳理高铁是复杂巨系统,任何子系统和设施、设备发生故障都可能危及高铁的运行安全。面向移动装备、基础设施状态、运行环境等高铁运行安全的图像视频检测监测系统以其结果直观的特点在全路广泛应用,保障高速铁路的运行安全。虽然现有的检测监测系统与图像数据应用水平可以满足高速铁路基础设施设备状态和运行环境安全检测监测的需求,但它们分散部署于路网的不同地域,目前还处于人机结合判读并核查安全隐患及故障的本地应用阶段,需要投入大量的人工,费时费力。充分利用国铁集团主数据中心、铁路数据服务平台等路网中已存在的信息基础设施资源,解决好面向高铁运行安全的智能图像识别问题,实现高铁运行安全图像检测监测系统的智能化升级,将大幅提升工作效率,降低工作成本。近年来,深度学习、边缘计算、云计算等信息技术的优势汇聚,促进了人工智能正由技术研发走向行业应用。深度学习等人工智能技术与面向高铁运行安全的图像视频场景相结合,可以对高速铁路设施设备的运行状态智能识别和运行环境的实时检测监控,实现基于图像的高铁运行安全隐患排查、缺陷检测、故障诊断。本文将重点研究高铁设施设备运行安全图像的智能识别方法及应用,主要取得了以下创新性的成果:(1)基于深度主动半监督学习的高铁运行安全图像半自动标注方法。针对利用深度学习方法进行海量高铁运行安全图像智能识别过程中图像标注效率低的问题,提出了基于深度主动半监督学习的高铁运行安全图像半自动标注方法,以连续迭代范式的方式将主动学习和半监督学习引入卷积神经网络的微调过程中,让深度卷积神经网络通过增量的方式对高铁运行安全图像的特征进行学习,可以满足高铁运行安全图像数据的快速标注。将上述方法应用于动车组运行安全图像数据的标注问题,将动车组运行图像的语义标注问题转化为动车组结构子系统分类和零部件目标检测问题,将标注任务分解为粗标注和精细标注两个阶段,提出一种面向动车组零部件分类层级结构的两阶关联的基于深度主动半监督学习的动车组运行安全图像半自动标注方法,量化了数据标注量与目标任务表现之间的关系,利用较少的标注数据量可以在目标任务上获得较高的性能表现。(2)基于卷积神经网络的动车组运行安全图像缺陷检测方法。针对目前TEDS系统利用图像匹配方法自动识别缺陷精度低的问题,提出基于卷积神经网络的动车组运行安全图像缺陷检测与分割模型,分析动车组运行安全图像及其缺陷形态的特征,优化了基于区域的目标检测模型,采用可改变感受野的可变形卷积(DCN)适应缺陷形态的多样性,采用在线困难样本挖掘(OHEM)筛选出困难样本重新输入预测网络以平衡正负样本的比例,克服了缺陷形态尺寸变化多样和复杂背景下正负样本不平衡的困难。(3)基于两阶级联轻量级卷积神经网络的高铁接触网悬挂紧固件缺陷识别方法。针对高铁接触网悬挂运行状态监测图像中小目标紧固件缺陷检测问题,分析了接触网悬挂图像的特点,对比接触网悬挂紧固件缺陷检测与自然图像目标检测的不同,将紧固件缺陷检测问题转换为紧固件检测和运行状态精细识别两个过程解决,提出基于两阶级联轻量级卷积神经网络的紧固件缺陷识别方法。首先,设计了由轻量级的特征提取网络、全局注意力模块、相互增强的分类器和检测器组成的紧固件检测模型,实现目标紧固件实例的高效检测;然后,搭建轻量级的多标签分类网络,进行紧固件运行状态的精细识别,实现紧固件缺陷的识别。(4)高速铁路运行安全图像智能识别应用总体架构。分析路网中高速铁路运行安全图像检测监测信息系统的应用现状及部署特点,提出“边缘+云”的高铁运行安全图像智能识别应用总体架构,在统一的铁路数据服务平台基础之上,构建了高铁运行安全图像智能识别平台的逻辑架构和功能架构,并结合业务范围设计了数据流转和边缘计算的流程,通过典型的TEDS图像检测应用系统具体阐述智能识别应用总体架构,并详细设计了TEDS系统图像智能识别的应用架构、系统架构和系统智能识别应用的软件流程。

来扬[2](2020)在《视频图像半自动标注系统的设计与实现》文中进行了进一步梳理在监督学习中,需要对数据进行标注来用于算法训练。以往绝大多数的图像标注都采用手工方式,效率低下,并且过于依赖硬件,成本颇高。如今机器学习算法在许多领域的应用已经十分成熟,如何利用算法提升标注系统的效率也成为一个值得思考的问题。本论文目标是通过利用多个深度学习算法来构建一个集成手动和半自动标注两种功能的标注系统。论文首先介绍了标注系统的相关研究背景,对相关技术进行了介绍和总结,结合关键点识别、运动视频分类和3D人体重建等领域的先进深度学习算法成果,对标注系统采用的视频分类标注算法和3D人体姿态算法进行了深入的分析,并改进了用于视频分类标注的双流神经网络算法。在此基础上采用算法加入工调优的方式,设计并实现了一个视频图像半自动标注系统,实现了人体关键点识别、人体轮廓分割、运动视频分阶段标注、3D人体姿态标注等多种标注功能。该系统具有在较短时间内完成标注,并保证标注较高准确率的特点。论文描述了系统的功能需求和可行性分析,并详细阐述了图像标注系统各个功能模块的概要设计和详细设计,接着介绍了手动标注和半自动标注各个功能模块的测试过程,验证了该标注系统的可用性,对算法的测试和比较,也验证了算法的准确性,最后对论文工作进行了总结和展望。

陈晓丹[3](2020)在《基于Deep Feature Flow的ABUS视频快速分割算法设计与实现》文中研究说明乳腺癌是威胁女性健康的第一大疾病。ABUS(Automated Breast Ultrasound)作为全自动扫描的乳腺癌检测机器,减少了扫描的主观性,但给医生带来了严重的阅片负担,ABUS机器扫描一个病人产生6-10个视频,每个视频有3300帧图像,为了实现对每个视频的秒级的诊断,利用计算机辅助诊断技术帮助医生在ABUS视频中快速精准定位肿瘤对医生的后续诊断具有重大的参考意义。目前已经有很多的计算机技术集中于ABUS的冠状面研究,然而横断面是ABUS机器中最原始的数据信息,但横断面视频中的信息比较复杂,图像噪声较多,并且肿瘤占据图像的比例较小,因此对横断面的肿瘤分割是一个巨大的挑战。本文提出了DFFGA(Deep Feature Flow of group convolution of attention mechanism)模型,对100个ABUS的横断面视频进行了快速精准地肿瘤分割,DFFGA以Deep Feature Flow网络为基础模型,进行了三个方面的改进:(1)针对Deep Feature Flow需要人为设定关键帧的问题,本文设计了关键帧选取网络。实现了自适应关键帧的选取,计算了每帧的底层特征,利用帧间底层特征差异突变选择关键帧,能够适用于不同数据集的关键帧选择;(2)本文引入了空间和通道注意力机制,实现了放大有意义的特征通道和特征位置的重要性。通道注意力模块通过提取全局上下文特征来赋予每个通道不同的权重,空间注意力模块通过漏斗形下采样上采样结构赋予了特征图的每个位置不同的权重,实现了将更多的精力放在重要的特征通道和重要的特征图的位置,放大有意义的通道和位置的重要性,以达到精准分割的目的;(3)针对分割速度慢的问题,本文对整个网络进行了轻量化操作实现了对横断面视频的快速分割。利用深度可分离卷积,将普通卷积分解为深度卷积核点式卷积,减少了模型的浮点运算量。最终DFFGA模型在ABUS数据集上的Io U达到了79.66%,Acc达到了85.62%,TPR达到了87.83%,FPR达到了12.17%,在保证模型执行效率的同时,提高了模型的分割性能。

陆萌[4](2020)在《面向深度学习的医学图像标注系统的研究与实现》文中指出近年来,深度学习被应用于多种医学图像分析问题,为医学影像智能辅助诊断带来了巨大突破。然而深度学习医学图像分析仍存在高质量标注数据集的缺乏这一痛点,绝大多数研究过程首先需要构建标注数据集。经过前期调研与分析,当前高质量标注数据集构建过程中存在以下问题:(1)该过程的质量控制缺乏标准框架,且公开的图像标注工具缺少标注过程质量控制功能,不利于标注数据集的准确性。(2)当前大多数公开的标注工具仅提供全手工标注方式,标注效率低下,时间成本高。部分工具提供经过大量数据训练的算法辅助标注的方案,但医学研究的多样性决定了经过大量数据训练的预训练模型难以获得,该方案不适用于医学图像。(3)当前公开的图像标注工具主要提供标注功能,缺乏对于人员、数据集等必要的管理,缺乏团队合作完成标注任务的支持,不足以支撑大规模医学图像的标注工作。针对以上问题,本文的主要研究内容分别如下:(1)在研究影响医学图像标注数据质量的需求的基础上,结合医学影像数据集构建流程设计实现了医学图像数据集构建质量控制框架。针对标注过程中质量控制,引入群智思想,设计与实现了多人协作标注质量控制方法。(2)设计与实现了基于深度学习的半自动标注系统,提高手工标注效率。该系统适应医学领域预标注需求,获取少量标注数据后即训练预标注模型,并能达到较高精度,并基于后续标注数据迭代更新模型,提高预标注效果。(3)搭建了医学图像标注系统,在实现通用格式和医学数字成像和通信(Digital Imaging and Communications in Medicine,DICOM)格式医学图像标注功能的基础上,提供团队协作标注支持与全面高效的管理功能,提供标注过程中质量控制功能,提供算法半自动标注功能。论文研究与实现了面向深度学习的医学图像标注系统,系统已部署于眼科医院应用,支撑眼科医生标注,为高质量医学图像标注数据获得提供了有力支撑。

张晨强[5](2020)在《基于卷积神经网络的航拍图建筑物分割方法研究》文中进行了进一步梳理伴随着社会经济的发展,我国城市化的脚步日益加快,城市建筑物的数量和类别也在迅速增长,数字化管理对城市建筑物3D重建提出了更高的要求。此外,随着无人机航拍技术的普及,城市建筑物的航拍图像也更容易获得,这些航拍图像中含有丰富的建筑物特征信息,从航拍图像中检测和分割出建筑物目标对城市3D重建具有重要意义。目前常见的图像分割方法有阈值分割方法、边缘检测方法等,但是这些方法都存在一定的局限性,在复杂的高分辨率的航拍图建筑物分割任务中难以取得精确的分割效果。基于卷积神经网络算法在计算机视觉领域优越的性能,针对传统图像分割方法在航拍图建筑物分割场景下效果不好等问题,本文将卷积神经网络算法应用到航拍图建筑物的分割任务中,目标是从航拍图中高精度地分割出建筑物3D重建所需的建筑物轮廓区域。论文主要工作总结如下:针对建筑物3D建模所需的建筑物主体轮廓俯视平面图获取成本比较高、航拍图建筑物的分割精度不高、建筑物屋顶存在干扰物影响分割等问题,对半自动图像分割方法DEXTR(Deep Extreme Cut)进行改进,提出了一种将五个点的位置表示为热图作为网络额外输入通道、基于深层残差网络的航拍图建筑物精确分割方法—E-DEXTR(Enhanced—Deep Extreme Cut),目标是实现对航拍图中建筑物的精确分割。实验结果表明,与传统半自动分割方法Grabcut相比,E-DEXTR方法在航拍图建筑物分割任务中具有更高的分割精度和分割效率;与DEXTR方法相比,E-DEXTR方法具有更好的鲁棒性和抗干扰性。所提出的E-DEXTR方法可以为建筑物3D重建任务提供高精度的建筑物俯视轮廓图和建筑物顶部图片,还可以将其用在航拍图建筑物数据集的制作过程中,作为一种准确和有效的掩码注释工具或半自动轮廓标注工具,提高数据集的标注效率。对于大规模建筑物分割的场景,针对航拍图像中建筑物的检测和分割精度低、成本高的问题,提出一种基于Mask R-CNN的航拍图建筑物检测和分割方法来实现航拍图中建筑物全自动、高效的检测和分割。方法中针对训练出的模型在含有阴影等干扰物的航拍图中检测和分割效果不佳的问题,提出了一种非随机掩盖的数据增强方式,提升了模型对于存在阴影等干扰物建筑物的分割精度。此外,通过实验测试迁移学习方法的使用、数据增强方式、特征提取器模块不同深度的残差网络选择对建筑物检测和分割模型的影响,并在卫星遥感数据上测试模型的泛化性能。相比本文提出的需要通过人工标注五个点才能精确分割出建筑物目标的E-DEXTR方法,该方法可以自动地检测出目标区域并对建筑物进行分割。综上所述,本文通过对卷积神经网络在图像分割领域应用的研究在一定程度上解决了航拍图建筑物图像分割任务中存在的分割精度低、耗时长以及成本高的问题。本文提出的两种航拍图建筑物分割方法各有优势,可以根据对建筑物3D建模不同的需求分别选取不同的方法。E-DEXTR方法操作简单、分割精度高,适用于需要分割的建筑物较少、对分割精度要求比较高的场景中;基于Mask R-CNN的航拍图建筑物的检测和分割方法可以全自动地进行建筑物的检测和分割,能批量分割出航拍图中大量的建筑物,适用于需要分割的建筑物数量比较大、对分割效率要求比较高的场景中。

贾国辉[6](2020)在《基于多尺度卷积特征的路面裂缝检测方法研究》文中研究说明随着我国公路由建设时代到养护时代的转变,伴随而来的是对大范围内路面进行科学、智能、精细的养护管理。养护精细化程度不高,管理信息化、智能化水平偏低是当前我国公路养护管理工作中存在的突出问题,路面病害智能化检测及损坏状况精确化评定是该领域的主要技术瓶颈。路面病害检测是道路智能养护决策中的重要组成部分,裂缝作为路面病害的主导类型,实现快速、准确的自动路面病害检测系统对于维护和监测目前存在广泛而复杂的运输网络系统至关重要。在传统的路面病害检测任务中,采用人工方法的结果完全取决于检测者的知识和经验,这种方式效率低、劳动量大,在定量分析中缺乏客观性。因此,实现路面裂缝的自动提取在公路路面质量检测领域具有非常重要的理论意义与实用价值,是当前研究的热点。但由于裂缝具有不均匀性强、拓扑复杂性高以及与裂缝纹理相似噪声大等特点,导致完成裂缝自动提取和分类面临非常大的困难。针对现有自动裂缝检测算法在大规模应用特别是广地域、多路况等复杂环境下算法稳定性方面存在的严重不足,本文基于深度学习理论,通过学习裂缝表示的高级特征实现裂缝像素级自动提取与分类,实现了路面病害的智能化自动检测,满足智能养护、精细养护的需求。本文主要研究内容如下:1、采用基于深度学习等监督学习方法进行路面病害提取时,需要构建精确到像素级的训练样本数据集,有限的标记序列样本限制了训练更复杂的深层模型。针对标记高精度裂缝数据集投入成本过大的问题,本文通过分析路面干扰物和裂缝的基本特征,提出了一种基于改进C-V模型的半自动裂缝标注算法,实现了路面裂缝的自动化初始标注,进而将初始标注结果作为样本进行手动交互标注,该算法能够有效地减少人工标注的工作量。2、复杂背景下的裂缝自动提取方法研究。本文提出采用基于全卷积网络的端到端裂缝提取网络结构,实现在裂缝图像中进行像素级提取。在裂缝自动提取网络中,首先提出了一个全新的多尺度扩张卷积模块,该模块在多个尺度下捕获裂缝上下文信息。在此基础上,采用注意力机制进一步细化裂缝特征,构造的多尺度注意力模块,能够在复杂背景下学习裂缝特征使其具有更强判别力和鲁棒性。通过裂缝低级特征与高级特征的融合,提出了一种有效的特征融合上采样模块可以获取更加精细的分割效果。3、根据我国路面病害分类中的定义,在得出路面裂缝的像素级提取结果后,本研究基于连通区域标记算法和每个裂缝类型特征化描述,通过定义规则将病害类型划分为横向裂缝、纵向裂缝、龟网裂缝以及块状裂缝。本文提出了通过给定裂缝之间的平均宽度和距离对各类裂缝的严重程度进行评估,并提出了一种新的严重性等级划分算法和评价机制,实现路面裂缝的自动分类和评价,为路面病害的智能、高效识别与评价提供决策支持。在路面图像标注测试数据集下对裂缝提取和分类进行了对比实验,本文方法能够有效地提取复杂背景下的裂缝信息,裂缝提取精度、召回率、F得分和m Io U指标分别可以达到98.84%、97.05%、98.39%和74.81%。同时模型具有较强的稳定性和鲁棒性,能够有效解决数据采集过程中的阴影、污渍和曝光带来的噪声干扰问题。与手工分类结果对比表明,本文裂缝分类方法对线状裂缝分类精度高于95%,网状裂缝分类精度在86%以上。该论文有图75幅,表12个,参考文献150篇。

张加其[7](2020)在《动漫线稿图像自动上色与辅助绘制》文中研究指明在动漫产品的表现形式中,二维动漫比三维动漫具有更强的表现力。二维动漫线稿的绘制、清线、上色耗时耗力,如果能够实现动漫线稿的自动上色以及辅助绘制,就会显着提高二维动漫制作的效率、降低制作成本。动漫角色上色主要是为区域设置连贯颜色,而阴影光照等特效通过后期合成。对此本文提出了一种基于参考图像的半自动线稿图像连贯颜色着色方法。该方法首先通过区域匹配得到一维区域匹配关系,再通过参考图像区域邻接关系得到二维区域匹配关系,同时通过求解混合整数二次规划优化匹配结果。引入主动学习框架,每次迭代提供最佳标记区域来不断更新模型参数,最终实现线稿图像高精度上色。实验结果表明,半自动线稿上色方法结果与参考图像在一致性方面优于基于深度学习的线稿上色方法。此外,该区域匹配框架还可以应用于颜色迁移等工作。本文同时提出了一种深度网络架构实现指定参考图像下动漫线稿视频的自动上色。依据给定的多张关键帧参考图像实现同一视频镜头中剩余线稿图像上色,包括前景人物与背景,阴影光照的合成。该框架主要由颜色转换网络与时序约束网络两个子网络构成。颜色转换网络利用网络提取目标线稿图像与参考线稿图像高维特征,并得到局部匹配关系,再利用网络提取的全局颜色风格描述向量获得自适应实例规范化参数实现全局上色控制,通过局部与全局控制实现最终线稿上色。时序约束网络是一个3D卷积生成对抗网络,将参考图像与颜色转换网络的输出一起送入该网络,保证目标上色结果与参考图像的时序一致性。此外,本文的模型在处理一种新风格的动漫线稿视频上色时,只需少量的样本微调网络参数就可以获得很好的着色效果。为了评估本文的方法,构建了一个线稿视频着色数据集。实验结果表明,本文方法在线稿图像视频上色效果上优于现有上色方法。本文引入条件序列生成模型依据用户输入的线稿图像,输出补全后的线稿图像。对齐输出后的线稿图像,并加权后以阴影的形式显示,帮助用户实现线稿的快速绘制。

应梦婷[8](2020)在《面向机器学习的细胞三维标注技术研究》文中认为机器学习尤其是深度学习的发展极大提高了图像解释能力,并改变着细胞生物图像的分析和理解,这种突破也是智能细胞生物分析的基础。基于深度学习的细胞生物图像分析有三个组成部分:建立标注的训练数据集、有效的模型训练及模型的部署应用,因此需要生成原始显微图像的标注数据。针对此问题,本论文从标注数据集构建方法入手,设计了一个集成多种标注形式,自动化显微图像处理、可交互数据标注的细胞数据标注系统,并应用该系统对电子显微图像与荧光显微图像中的目标物标注进行了实验,主要内容如下:(1)对生物细胞领域的包括荧光显微镜和电子显微成像的几种典型成像方式的图像成像特点进行了分析,并结合细胞图像的标注形式及适用场景,提出了一种标注方案。(2)在标注方案基础上,设计了 一种细胞显微图像标注系统。该系统不仅支持手动标注,也支持利用系统集成算法进行人工干预的半自动标注,大幅提升标注效率。标注数据和算法模块部分共同构成了细胞三维标注系统。(3)应用标注系统进行面向深度学习分割应用的标注实验。在荧光显微图像中细胞器的标注,以可视化的交互式算法处理构建方式,利用多种参数可调的形态滤波器进行目标结构的提取,直接生成三维亚细胞结构标注数据集。在电子显微图像中采用深度学习的方法,以模型提取目标结构特征生成对线粒体与膜结构的标注预测,提升二维手动标注效率。

吕轩轩[9](2019)在《基于监控视频的训练数据集标注方法研究》文中进行了进一步梳理随着信息技术的不断发展和信息的爆炸式增长,处理海量的数据并从中提取到用户需要的信息尤为重要。运动目标检测是计算机视觉领域的研究热点,是智能视频监控系统、目标跟踪、行为识别等技术的基础,在国家和社会公共安全、交通管控、人机交互等领域有着至关重要的作用。但是从监控设备采集的监控视频数据量庞大,数据冗余严重,而使用监控视频的用户往往只关心存在运动目标的视频段,提取出含有运动目标的关键视频段是后续视频处理的基础;当前运动目标检测多采用神经网络进行训练,极大提高了目标检测的精度,但是随着检测模型的扩大,所需要训练数据集也快速增长,重复手工标注训练数据集成本高且效率低下。针对以上问题,设计了基于监控视频的训练数据集半自动标注方法,主要分为以下几个内容:首先,针对监控视频关键视频段的提取,提出一种基于边缘特征和多帧差分混合高斯模型的运动目标检测算法。针对帧间差分法对光线突变等噪声不敏感的特性,将其融入到高斯背景模型更新中,将视频帧分成背景区域和前景目标区域,降低背景区域的高斯模型更新率,提高运动区域的背景更新率,根据像素划分情况动态调整高斯模型更新率;对于边缘提取,采用八方向平移法,改善了传统边缘检测目标轮廓不清晰、封闭性较差的缺点,最后使用形态学处理背景的噪声和前景空洞,将帧间差分法提取的前景目标、高斯混合模型得到的结果以及使用平移法获得的物体边缘信息进行相与运算,得到最终的检测结果。其次,基于提取的关键视频段,设计了一种结合视频对象分割技术的数据集半自动标注方法。视觉显着性或运动显着性方法都不能提供完整的分割,本文将其作为初始的前景可能性,SLIC超像素分割用于将图像划分成互不重叠的紧凑区域,使用RGB颜色直方图、LAB颜色直方图以及HOG特征描述符将每个超像素映射到特征空间,找到每个超像素区域的N个最邻近区域,用N个最邻近区域的前景可能性的加权平均值更新每个区域的前景可能性,得到最终整个视频的分割结果。最后搭建实验环境,将改进的运动目标检测、视频对象分割方法和半自动标注方法分别进行了实验,在准确率、召回率以及F值方面进行了分析。

晏杉杉[10](2019)在《基于本体的视频检索关键技术研究》文中研究表明近年来,科学技术迅猛发展,以视频为主的多媒体技术也迅猛崛起,大量日益增长的视频数据不断进入日常的生活。从海量视频中寻找所需要的视频,成为关注的热点问题。传统的基于文本检索不仅存在浪费时间且消耗大量人力的问题,还会因人的主观意识而影响检索效率,导致不能准确检索到需求的视频或检索到大量冗余视频;基于内容的视频检索较前者相对提高了视频检索的查准率和查全率,但仍需进一步改进。本文首先提出了基于HSV和互信息量的视频镜头边界检测算法,其次提出了基于自定义k值聚类和内容分析的关键帧提取方法,最后提出了结合概率关联和本体的标注算法,基于镜头分割、关键帧提取和标注等关键技术,提高视频检索的查准率和查全率。高效的视频检索,建立在视频信息的准确标注基础之上。视频文件过大、时间过长和冗余信息过多,都会造成难以准确标注的状况。因此,本文在对视频标注之前,先准确地把完整视频分割为单个独立镜头,然后对单个镜头提取关键帧以去除冗余信息,用镜头的关键帧进行标注,最终达到视频标注的效果。视频检索的查准率和查全率低下,主要由光照闪光、物体运动易受周围环境影响和人为的语义信息标注引起误解等问题引起。因此本文首先提出基于HSV和互信息量的镜头边缘检测算法,降低光照闪光和物体运动等原因造成的影响。其次,本文提出了基于自定义k值聚类和内容分析的关键帧提取方法以提取更为准确的关键帧,为视频的准确标注奠定基础。最后,提出结合本体的概率关联标注算法,有效消除语义的二义性,突破语义鸿沟。通过实验表明,利用本文提出的方法进行镜头分割、关键帧提取和视频标注是可行的,并且,可满足人们有效找到所需视频片段的需求,提高人们检索所需要视频的查准率和查全率。

二、结合多种语义信息的半自动视频对象分割(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、结合多种语义信息的半自动视频对象分割(论文提纲范文)

(1)面向高速铁路运行安全的智能图像识别方法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 研究背景及意义
    1.2 研究现状及发展趋势
        1.2.1 国内外图像识别技术研究现状及发展趋势
        1.2.2 国内外铁路运行安全图像识别研究现状及发展趋势
    1.3 研究目标及主要内容
    1.4 论文组织结构与技术路线
    1.5 本章小结
2 图像识别与深度学习相关理论
    2.1 深度学习
        2.1.1 卷积神经网络
        2.1.2 基于卷积神经网络的典型分类模型
        2.1.3 基于卷积神经网络的典型目标检测模型
    2.2 迁移学习
    2.3 主动学习
    2.4 边缘计算
    2.5 本章小结
3 基于深度主动半监督学习的高铁运行安全图像半自动标注方法
    3.1 引言
    3.2 问题分析
    3.3 基于深度主动半监督学习的高铁运行安全图像半自动标注方法
        3.3.1 基于深度卷积神经网络的迁移学习
        3.3.2 深度主动半监督学习
    3.4 面向动车组运行安全图像半自动标注算法
        3.4.1 子系统分类主动半监督学习策略
        3.4.2 零部件检测主动半监督学习策略
    3.5 试验与分析
        3.5.1 子系统分类标注试验分析
        3.5.2 零部件目标检测标注试验分析
    3.6 本章小结
4 基于卷积神经网络的动车组运行安全图像缺陷检测方法
    4.1 引言
    4.2 问题分析
    4.3 动车组运行安全图像缺陷检测与分割模型
        4.3.1 基于区域的目标检测算法
        4.3.2 动车组运行安全图像缺陷检测优化方法
    4.4 试验结果与分析
        4.4.1 数据集
        4.4.2 检测与评估
        4.4.3 结果分析
    4.5 本章小结
5 基于两阶级联轻量级卷积神经网络的高铁接触网悬挂紧固件缺陷识别方法
    5.1 引言
    5.2 问题分析
        5.2.1 高铁接触网悬挂状态监测图像生成
        5.2.2 高铁接触网悬挂状态监测图像的特点
    5.3 高铁接触网悬挂紧固件缺陷识别方法
        5.3.1 紧固件检测模型CSDR-CNN
        5.3.2 紧固件缺陷识别网络FastenerNet
    5.4 试验验证
        5.4.1 模型训练阶段
        5.4.2 模型测试阶段
    5.5 本章小结
6 高速铁路运行安全图像智能识别应用总体设计
    6.1 问题分析
    6.2 总体架构
    6.3 功能架构
    6.4 典型应用系统分析
        6.4.1 TEDS系统图像智能识别应用需求分析
        6.4.2 TEDS系统图像智能识别应用设计
    6.5 本章小结
7 结论与展望
    7.1 结论
    7.2 展望
参考文献
索引
作者简历及攻读博士学位期间取得的科研成果
学位论文数据集

(2)视频图像半自动标注系统的设计与实现(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景和意义
    1.2 论文目标及工作内容
        1.2.1 论文目标
        1.2.2 论文研究内容
        1.2.3 论文工作
    1.3 论文组织结构
第二章 相关理论和技术介绍
    2.1 图像标注技术
        2.1.1 图像标注方式
        2.1.2 标注保存格式
        2.1.3 标注系统介绍
    2.2 图像处理技术
        2.2.1 数据增强
        2.2.2 光流法计算
    2.3 半自动标注的相关算法
        2.3.1 Mask-RCNN网络
        2.3.2 级联金字塔神经网络
        2.3.3 SMPL模型
    2.4 构建标注系统的相关技术
        2.4.1 标注绘制技术
        2.4.2 前后端交互技术
    2.5 本章小结
第三章 半自动标注系统的算法设计与评估
    3.1 运动视频子阶段标注算法
        3.1.1 算法分析
        3.1.2 算法框架
        3.1.3 算法设计细节
        3.1.4 实验配置
        3.1.5 实验结果展示
    3.2 3D人体姿态标注算法
        3.2.1 算法分析
        3.2.2 结果展示
    3.3 本章小结
第四章 半自动标注系统需求分析
    4.1 系统总体功能概述
        4.1.1 系统总体功能需求
        4.1.2 系统用例图
    4.2 功能性需求分析
        4.2.1 图像上传功能
        4.2.2 图像查看功能
        4.2.3 标注绘制功能
        4.2.4 标签输入功能
        4.2.5 标注保存功能
        4.2.6 标注算法库
    4.3 非功能性需求分析
    4.4 本章小结
第五章 半自动标注系统概要设计
    5.1 半自动标注系统总体设计
    5.2 半自动标注系统各模块设计
        5.2.1 图像上传模块
        5.2.2 图像查看模块
        5.2.3 标注绘制模块
        5.2.4 标签输入模块
        5.2.5 标注保存模块
        5.2.6 标注算法库模块
    5.3 数据结构设计
    5.4 本章小结
第六章 半自动标注系统详细设计
    6.1 图像上传模块详细设计
    6.2 图像查看模块详细设计
    6.3 标注绘制模块详细设计
    6.4 标签输入模块详细设计
    6.5 标注保存模块详细设计
    6.6 标注算法库模块详细设计
        6.6.1 人体关键点识别算法详细设计
        6.6.2 运动视频分阶段算法详细设计
        6.6.3 3D人体姿态标注算法详细设计
    6.7 本章小结
第七章 半自动标注系统测试
    7.1 白盒测试
    7.2 黑盒测试
        7.2.1 图像上传功能测试
        7.2.2 图像查看功能测试
        7.2.3 标注绘制功能测试
        7.2.4 标签输入功能测试
        7.2.5 标注保存功能测试
        7.2.6 标注算法库功能测试
    7.3 本章小结
第八章 总结和展望
    8.1 全文总结
    8.2 未来工作展望
    8.3 研究生期间工作
参考文献
致谢
硕士攻读学位期间发表的学术论文目录

(3)基于Deep Feature Flow的ABUS视频快速分割算法设计与实现(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题背景及研究的目的和意义
    1.2 国内外研究现状
        1.2.1 手持式超声图像分割方法
        1.2.2 自动扫描超声图像分割方法
    1.3 现有超声分割方法的总结
    1.4 本文研究的出发点
    1.5 本文的组织结构
第2章 基于光流的卷积神经网络模型
    2.1 引言
    2.2 卷积神经网络
    2.3 图像分割与视频分割方法
        2.3.1 基于神经网络的图像分割方法
        2.3.2 基于卷积神经网络的视频分割算法
    2.4 基于卷积网络的光流视频模型
    2.5 本章小结
第3章 自适应关键帧的Deep Feature Flow模型搭建
    3.1 引言
    3.2 DA网络的搭建
        3.2.1 Deep Feature Flow模型
        3.2.2 DA模型的搭建
    3.4 实验数据
        3.4.1 实验数据集的生成和标注
        3.4.2 图像预处理
    3.5 实验结果与分析
        3.5.1 参数设置
        3.5.2 实验指标
        3.5.3 实验方法
        3.5.4 实验结果与分析
    3.6 本章小结
第4章 注意力约束的轻量级DA模型搭建
    4.1 引言
    4.2 DA网络的轻量化
        4.2.1 DSA网络的搭建
        4.2.2 DSAG网络的搭建
    4.3 数据增强与图像增强
    4.4 注意力机制约束的DSAGE模型
        4.4.1 注意力机制的引入
        4.4.2 通道注意力
        4.4.3 空间注意力
    4.5 注意力约束的轻量级网络-DFFGA网络的搭建
    4.6 实验结果与分析
结论
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢

(4)面向深度学习的医学图像标注系统的研究与实现(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状及分析
        1.2.1 医学图像标注数据集现状
        1.2.2 医学图像数据集构建质量控制现状
        1.2.3 标注工具现状
        1.2.4 国内外研究现状总结
    1.3 主要研究内容
    1.4 硕士在读期间主要完成工作
    1.5 论文组织结构
第二章 相关理论与技术研究
    2.1 医学图像
        2.1.1 常见医学图像成像模式
        2.1.2 常见医学图像存储格式
        2.1.3 DICOM解析
        2.1.4 医学图像窗技术
        2.1.5 本节小结
    2.2 计算机视觉相关技术
        2.2.1 图像分类模型
        2.2.2 图像分割模型
        2.2.3 本节小结
    2.3 Web前端技术
        2.3.1 Vue.js
        2.3.2 Canvas
        2.3.3 本节小结
    2.4 本章小结
第三章 数据集构建质量控制框架研究
    3.1 医学图像标注数据集质量需求
    3.2 医学图像标注数据集构建流程
    3.3 框架具体设计
        3.3.1 数据需求分析
        3.3.2 原始数据集获取
        3.3.3 数据标注
        3.3.4 数据存储
    3.4 多人协作标注图像标注质量控制方法研究
        3.4.1 传统标注方式质量控制缺陷
        3.4.2 多人协作图像标注质量控制方法
    3.5 框架应用
    3.6 本章小结
第四章 基于深度学习的半自动标注方案研究
    4.1 研究动机
    4.2 方案流程设计
    4.3 详细方案
        4.3.1 基础分割模型搭建
        4.3.2 训练触发控制
        4.3.3 模型训练
        4.3.4 标注处理
    4.4 方案分割应用测试
    4.5 本章小结
第五章 面向深度学习的医学图像标注系统的设计与实现
    5.1 需求分析
        5.1.1 系统业务需求
        5.1.2 系统功能需求
    5.2 系统总体设计
        5.2.1 系统总体架构
        5.2.2 系统功能流程
    5.3 核心子系统设计与实现
        5.3.1 数据管理子系统
        5.3.2 任务管理子系统
        5.3.3 图像标注子系统
        5.3.4 人员管理子系统
        5.3.5 方案管理子系统
        5.3.6 质量控制子系统
    5.4 本章小结
第六章 系统测试与展示
    6.1 测试环境
    6.2 功能测试
        6.2.1 数据管理子系统功能测试
        6.2.2 任务管理子系统功能测试
        6.2.3 图像标注子系统功能测试
        6.2.4 人员管理子系统功能测试
        6.2.5 方案管理子系统功能测试
    6.3 本章小结
第七章 总结与展望
    7.1 本文工作总结
    7.2 本文的不足及展望
附录
    附录A: 中英文缩略词对照表
参考文献
致谢
攻读学位期间取得的研究成果

(5)基于卷积神经网络的航拍图建筑物分割方法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 图像分割技术研究现状
        1.2.2 遥感影像中建筑物分割方法的研究现状
    1.3 本文的主要研究内容
    1.4 本文的章节安排
第二章 相关理论基础
    2.1 卷积神经网络
        2.1.1 卷积神经网络的发展过程
        2.1.2 卷积神经网络的基本结构
    2.2 残差网络(Res Net)
    2.3 R-CNN(Region-CNN)系列目标检测算法
        2.3.1 R-CNN算法
        2.3.2 Fast R-CNN算法
        2.3.3 Faster R-CNN算法
        2.3.4 Mask R-CNN算法
    2.4 本章小结
第三章 基于深层卷积残差网络的航拍图建筑物精确分割方法
    3.1 引言
    3.2 基于深层残差网络的航拍图建筑物精确分割方法
        3.2.1 五点热图的输入通道
        3.2.2 Res Net-101 网络和金字塔场景解析模块
        3.2.3 总体网络结构
    3.3 实验与结果
        3.3.1 实验平台和评估标准
        3.3.2 分割效果与精度测试
        3.3.3 抗干扰性测试
    3.4 本章小结
第四章 基于Mask R-CNN的航拍图建筑物检测和分割方法
    4.1 引言
    4.2 基于Mask R-CNN的航拍图建筑物检测和分割方法
        4.2.1 特征提取模块
        4.2.2 区域建议网络-RPN(Region Proposal Network)
        4.2.3 RoI区域分类和分割模块
        4.2.4 数据增强
        4.2.5 迁移学习
    4.3 实验与结果
        4.3.1 实验平台与评估标准
        4.3.2 迁移学习方法的实验结果对比
        4.3.3 数据增强方式的实验结果对比
        4.3.4 不同深度的特征提取网络
        4.3.5 航拍图建筑物检测和分割模型的泛化性测试
    4.4 本章小结
第五章 总结与展望
    5.1 全文工作总结
    5.2 研究展望
参考文献
致谢
攻读硕士学位期间发表的论文及参与的科研项目

(6)基于多尺度卷积特征的路面裂缝检测方法研究(论文提纲范文)

致谢
摘要
abstract
变量注释表
1 绪论
    1.1 研究背景
    1.2 国内外研究现状
    1.3 目前裂缝检测技术存在的问题
    1.4 论文技术路线和主要研究内容
    1.5 本文章节安排
2 深度卷积神经网络基本理论
    2.1 深度学习及其优势
    2.2 卷积神经网络
    2.3 主流深度卷积网络结构
    2.4 全卷积神经网络
    2.5 本章小结
3 裂缝样本半自动标注与数据增广
    3.1 裂缝样本及干扰物特征分析
    3.2 裂缝样本半自动标注关键步骤
    3.3 裂缝自动标记结果
    3.4 裂缝样本数据增广
    3.5 本章小结
4 基于多尺度特征的路面裂缝提取
    4.1 多尺度路面裂缝提取网络
    4.2 实验结果分析
    4.3 本章小结
5 基于连通域标记的裂缝分类与评估体系
    5.1 路面裂缝类型
    5.2 路面裂缝分类
    5.3 路面裂缝评估体系
    5.4 本章小结
6 总结和展望
    6.1 结论
    6.2 创新点
    6.3 展望
参考文献
查新结论
作者简历
学位论文数据集

(7)动漫线稿图像自动上色与辅助绘制(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题背景及研究的目的和意义
    1.2 国内外研究现状
        1.2.1 未使用参考图像的线稿上色
        1.2.2 使用参考图像的线稿上色
        1.2.3 主动学习方法
        1.2.4 线稿视频上色
        1.2.5 线稿辅助绘制
    1.3 论文的研究内容及组织结构
第2章 半自动线稿图像上色方法研究
    2.1 上色方法介绍
        2.1.1 数据集构建
        2.1.2 区域分割与匹配
        2.1.3 主动学习
        2.1.4 混合整数二次规划
    2.2 实验结果
        2.2.1 定性评价
        2.2.2 定量评价
        2.2.3 方法可伸缩性实验
    2.3 本章小结
第3章 全自动线稿视频上色方法研究
    3.1 上色方法介绍
        3.1.1 数据集构建
        3.1.2 模型整体架构介绍
        3.1.3 基于特征相似匹配的颜色转换层
        3.1.4 损失函数
        3.1.5 网络实现细节
    3.2 实验结果
        3.2.1 数据收集与训练
        3.2.2 消融实验研究
        3.2.3 线稿图像上色方法对比
        3.2.4 视频上色对比
        3.2.5 方法扩展应用实验
    3.3 本章小结
第4章 线稿辅助绘制方法研究
    4.1 方法介绍
        4.1.1 矢量线稿数据集介绍
        4.1.2 线稿生成模型介绍
    4.2 条件重建模型
    4.3 实验结果
    4.4 本章小结
第5章 结论与展望
    5.1 工作总结
    5.2 工作展望
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢

(8)面向机器学习的细胞三维标注技术研究(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.1 研究背景与意义
        1.1.1 细胞生物图像分析意义
        1.1.2 深度学习的细胞图像分析
        1.1.3 带标注数据集与标注系统的发展现状
    1.2 主要研究内容
        1.2.1 本文结构安排
2 细胞生物图像标注方法研究
    2.1 细胞生物图像介绍
        2.1.1 生物细胞成像模式
        2.1.2 细胞生物图像特点
    2.2 细胞生物图像数据格式
        2.2.1 OME TIFF数据格式
        2.2.2 其他数据格式
    2.3 细胞生物图像标注形式研究
        2.3.1 标注需求来源
        2.3.2 标注形式分析
    2.4 细胞生物图像分割算法
        2.4.1 基本图像处理算法
        2.4.2 传统机器学习算法
        2.4.3 深度学习分割方法
    2.5 细胞生物图像标注流程
        2.5.1 待标注数据准备
        2.5.2 显微图像标注过程
        2.5.3 标注质量策略
        2.5.4 平台化标注系统
    2.6 本章小结
3 细胞生物图像三维标注系统设计
    3.1 系统总体设计
        3.1.1 标注系统需求分析
        3.1.2 系统需求功能设计
        3.1.3 系统架构技术设计
    3.2 标注数据管理
        3.2.1 图像标注数据库
        3.2.2 数据集管理接口
    3.3 算法环境集成
        3.3.1 传统算法调用接口
        3.3.2 深度学习算法接口
        3.3.3 数据流设计
    3.4 可视化图像标注
        3.4.1 用户管理界面
        3.4.2 数据集管理界面
        3.4.3 图像显示界面
        3.4.4 图像标注过程
    3.5 本章小结
4 生物细胞图像标注实验
    4.1 实验软硬件环境
    4.2 荧光显微图像标注实验
        4.2.1 数据描述
        4.2.2 标注生成
        4.2.3 7种亚细胞结构的标注
    4.3 电子显微图像标记实验
        4.3.1 数据集描述
        4.3.2 线粒体标注
        4.3.3 细胞膜标注
    4.4 本章小结
5 总结与展望
    5.1 总结
    5.2 展望
参考文献
作者简历

(9)基于监控视频的训练数据集标注方法研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 课题研究背景
    1.2 课题研究意义
    1.3 国内外研究现状
        1.3.1 运动目标检测
        1.3.2 数据集获取
        1.3.3 视频对象分割
    1.4 本文研究内容
    1.5 论文组织结构
    1.6 本章小结
第二章 相关理论概述
    2.1 数字视频
        2.1.1 数字视频模型
        2.1.2 视频数据特征
    2.2 运动目标检测
        2.2.1 光流法运动目标检测
        2.2.2 背景差分法运动目标检测
        2.2.3 帧间差分法运动目标检测
    2.3 视频对象分割
        2.3.1 图论
        2.3.2 超像素分割
        2.3.3 视频分割方法
    2.4 本章小结
第三章 结合运动目标检测的关键视频段提取技术研究
    3.1 背景初始化方法分析
        3.1.1 背景初始化方法
        3.1.2 改进的背景初始化方法
    3.2 背景模型更新及运动目标检测
        3.2.1 高斯背景更新算法(GMM)
        3.2.2 改进的背景模型更新算法
        3.2.3 基于平移法的边缘检测算法
    3.3 形态学处理
    3.4 本章小结
第四章 基于视频对象分割的数据集半自动标注方法
    4.1 基于迭代更新的对象分割
        4.1.1 初始前景可能性
        4.1.2 超像素分割
        4.1.3 前景可能性的迭代更新
    4.2 数据集的半自动标注
    4.3 本章小结
第五章 训练数据集半自动标注方法实现及结果分析
    5.1 运动目标检测
        5.1.1 测试环境和视频来源
        5.1.2 测试对比和分析
    5.2 数据集半自动标注
        5.2.1 实验流程
        5.2.2 测试对比和分析
    5.3 本章小结
第六章 总结与展望
    6.1 工作总结
    6.2 不足与展望
参考文献
在读期间公开发表论文(着)及科研情况
致谢

(10)基于本体的视频检索关键技术研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 本文的研究背景及意义
    1.2 国内外研究现状
        1.2.1 视频检索的研究现状
        1.2.2 本体的研究现状
    1.3 本文主要研究内容
第2章 镜头分割
    2.1 视频数据的特点
    2.2 视频的层次化结构
    2.3 常见的镜头边界检测方法
        2.3.1 基于直方图的镜头切变检测方法
        2.3.2 基于像素比较的镜头边界检测方法
        2.3.3 基于边缘检测的镜头边界检测方法
        2.3.4 基于压缩视频的镜头边界检测方法
        2.3.5 阈值法
        2.3.6 模型法
        2.3.7 聚类和模糊聚类法
    2.4 基于HSV和互信息量的视频镜头边界检测算法
        2.4.1 具体算法
        2.4.2 HSV颜色空间
        2.4.3 互信息特征
    2.5 本章小结
第3章 提取关键帧
    3.1 关键帧概述
    3.2 关键帧提取方法
        3.2.1 基于视频镜头边界的关键帧提取方法
        3.2.2 基于视频视觉内容分析的关键帧提取方法
        3.2.3 基于视频运动分析的关键帧提取方法
        3.2.4 基于聚类的关键帧提取方法
        3.2.5 基于压缩域的关键帧提取方法
    3.3 基于自定义k值聚类和内容分析的关键帧提取方法
        3.3.1 具体算法
        3.3.2 聚类选取
    3.4 本章小结
第4章 本体标注
    4.1 本体相关介绍
    4.2 本体构建
        4.2.1 本体建模元语
        4.2.2 本体间基本关系
        4.2.3 本体构建准则及作用
        4.2.4 本体构建的优点
    4.3 视频标注
    4.4 结合概率关联和本体的标注算法
        4.4.1 具体算法
        4.4.2 本体表示
        4.4.3 图像分割及对象场景语义
        4.4.4 OWL标注文档
    4.5 本章小结
第5章 视频检索关键技术验证与分析
    5.1 镜头分割的验证与分析
    5.2 关键帧提取的验证与分析
    5.3 本体标注的验证与分析
    5.4 基于本体的视频检索
    5.5 本章小结
结论
参考文献
攻读硕士学位期间发表的论文和取得的科研成果
致谢

四、结合多种语义信息的半自动视频对象分割(论文参考文献)

  • [1]面向高速铁路运行安全的智能图像识别方法研究[D]. 周雯. 中国铁道科学研究院, 2020(01)
  • [2]视频图像半自动标注系统的设计与实现[D]. 来扬. 北京邮电大学, 2020(04)
  • [3]基于Deep Feature Flow的ABUS视频快速分割算法设计与实现[D]. 陈晓丹. 哈尔滨工业大学, 2020(01)
  • [4]面向深度学习的医学图像标注系统的研究与实现[D]. 陆萌. 北京邮电大学, 2020(05)
  • [5]基于卷积神经网络的航拍图建筑物分割方法研究[D]. 张晨强. 广西大学, 2020(03)
  • [6]基于多尺度卷积特征的路面裂缝检测方法研究[D]. 贾国辉. 辽宁工程技术大学, 2020(01)
  • [7]动漫线稿图像自动上色与辅助绘制[D]. 张加其. 华北电力大学(北京), 2020(06)
  • [8]面向机器学习的细胞三维标注技术研究[D]. 应梦婷. 浙江大学, 2020(02)
  • [9]基于监控视频的训练数据集标注方法研究[D]. 吕轩轩. 中国石油大学(华东), 2019(09)
  • [10]基于本体的视频检索关键技术研究[D]. 晏杉杉. 沈阳理工大学, 2019(03)

标签:;  ;  ;  ;  ;  

结合多种语义信息的半自动视频对象分割
下载Doc文档

猜你喜欢