一、基于内容的视频检索技术研究(论文文献综述)
支卫建[1](2021)在《基于多特征融合的视频检索技术研究》文中认为目前随着自媒体的发展,视频内容丰富多彩,传统的特征已经无法满足现代社会人员对视频检索的需求。随着短视频的普及,个人小视频在媒体中大量传播,短视频的数据量急剧增加,人们越来越关注自己感兴趣的内容,希望能够高效地找到自己喜欢的视频,检索出自己想要的结果。而随着深度学习技术的逐渐成熟,训练出某一特定感兴趣的内容不再困难。但是在海量数据中高效地检索出感兴趣的目标人物的视频,仍然是一个难点。因此,结合深度学习中的相关技术进行研究和实践。论文研究具体内容如下:大多数K-Means聚类提取关键帧的方法未考虑到图像中人脸的信息。因此,为了能够快速检索出目标人物的视频片段,在K-Means聚类的基础上,结合人脸识别中的相关方法,提出了一种基于人脸识别和改进K-Means聚类的关键帧提取方法。该方法首先使用人脸检测方法检测出人脸图片,并提取人脸特征,然后使用K-Means聚类方法提取关键帧,在K-Means聚类中使用人脸的相似度边界确定聚类半径,通过边界迭代划分簇类,最后取距离簇的中心最近的人脸图片作为关键帧。最终的实验结果表明,该方法与文献中的方法相比,在准确率上有所提升。使用传统的方法提取特征并进行融合,并未考虑到感兴趣的目标人物,而使用人物的面部或者身体姿态等单一特征,对准确率有一定的限制。因此,本文在关键帧提取的基础上,提出了一种多特征融合的视频检索方法。首先使用卷积神经网络提取人脸特征、人头特征和身体姿态特征,使用这些特征作为衡量一个人物的标准,然后使用不同的特征与视频库中对应的特征进行匹配和融合,最后检索出用户感兴趣的目标人物视频片段。实验表明,本文检索的方法在准确率上高于文献的方法,具有较高的准确性。综上所述,实验结果证明本文的方法可以准确地提取关键帧,并在此基础上较准确的检索出视频。
陈俞舟[2](2021)在《多模态视频片段检索技术研究》文中研究表明随着互联网和移动通信技术的迅猛发展,人们能够随时随地地创建和分享文字、图像、视频等多媒体数据。作为一种多媒体数据处理技术,视频片段检索在研究和应用中都得到了极大的关注。视频片段检索的目标是针对给定的输入,在未处理视频中预测目标片段的开始和结束时间。根据给定输入的媒体模态不同,可分为如下两类:以视频或图像等视觉媒体作为查询输入的基于内容视频片段检索和以文本、音频等非视频媒体作为查询输入的视频片段检索。本文分别对两种不同方向的视频片段检索技术进行了研究,分析了现有工作中的不足,设计了新的算法以提升视频片段检索的精确度、检索速度等性能,以增加其实用性。本文的主要贡献有如下几个方面:1.在基于内容视频片段检索方面,针对深度哈希方案在长视频中检索速度明显下降的问题,本文设计了基于两级局部敏感哈希的视频片段检索方案。该方案提取第一级颜色粗粒度特征和第二级纹理细粒度特征,在此基础上进行局部敏感哈希映射,并采取特征区域选择、判定重复帧、取头尾片段等操作,在保证精度的情况下,显着地提高了处理速度。同时,该方案具备目标视频重复检测与完整性检测等功能,满足广告监播等实际应用领域的需求。2.在基于文本查询的跨模态视频片段检索方面,针对现有方案忽略实体动作相互关系与上下文语义,导致检索片段准确度较低的问题,本文设计了基于二维时域与关系图特征的跨模态视频片段检索方案2D-SGN。方案设计了以视频切片为单位的可变长度滑动窗口,通过滑动窗口划分不等长的候选视频片段;然后将候选视频片段的联合嵌入特征以二维时间向量的形式排列,计算其相似置信度评分并排序;最后通过关系图特征对评分最高的视频片段进行边界调优,得到准确的片段定位。经过测试,2D-SGN方案的平均检索准确性优于现有方案,特别是在查询文本包含动作顺序和物体位置信息的视频片段检索中效果显着。3.在上述研究的基础上,设计并实现了基于Flask Web框架的视频剪辑系统。系统分别调用上述两种视频片段检索方案,完成根据简单句剪辑出对应场景片段和根据输入视频片段剪切长视频两种不同的功能。系统具备可根据输入的剪裁描述自动定位并完成剪裁功能的优点,可应用于视频快速剪辑等需求场景。
董博晨[3](2020)在《基于改进RBF神经网络的视频检索算法研究》文中认为近年来,随着计算机和网络通信技术不断发展,视频作为信息传播的媒介受到越来越多的关注。如何在海量视频数据中快速准确地查找出人们所需要的视频内容成为当前的研究重点。视频检索技术目前主要有基于文本的方法、基于内容的方法以及基于深度学习的方法。其中,目前检索效果最好的是基于深度学习的方法,其最具有代表性的是VGG16和Alexnet算法。但是,基于深度学习的神经网络算法都存在以下几种问题:参数过多,在训练数据有限的情况下,会产生过拟合现象;网络结构复杂,计算复杂度大,对于硬件需求过高;网络结构越深,容易出现梯度弥散的问题,导致模型的优化较为困难。针对以上问题,本论文提出一种基于图像切片的图像识别算法,采用多级KNN算法构建中心向量,利用中心向量代替卷积神经网络作为特征提取的主要方法,并将乘法运算替换为加法运算,可以有效减少神经网络参数过多以及结构复杂所带来的问题;其次采用类词袋模型的相似度比对算法进行图片识别,本论文对中心向量进行编码后,根据编码构建待检索图像和图像库中图像的标签向量,之后通过比对两者的标签向量进行图像识别的操作。本论文在特征提取部分提出了一种多级类KNN算法,算法每次从待检索图片特征向量中取出一条切片向量,用该向量与所保存的所有中心向量进行曼哈顿距离计算。若某一个中心向量与待检索图片切片向量距离接近,则可说明二者内容相似,则用中心向量替换待检索图片切片。若待检索图片切片向量距离均大于所设定的阈值,表明当前保存的切片均不和待检索图片切片相似,则自动将该切片作为新的中心向量加入所保存的切片向量集中,从而增大中心向量类别的覆盖范围。对于得到的中心向量集,本论文与基于kmeans聚类方法得到的中心向量进行对比实验,将得到的替换后的图片进行复原,与原图进行曼哈顿距离计算。经过实验证明,本论文提出的方法复原后与原图比对得到的单一像素曼哈顿距离比聚类算法得到的距离绝对值少0.0002,所需要的训练图片数量比聚类方法节省50%左右。在相似度比对部分,本论文提出一种类似于词袋模型的标签向量比对算法。该算法首先遍历所有中心向量,并以“图像名起始行数起始列数终止行数终止列数通道号id”的格式进行编号,使每一个中心向量切片都有唯一的id。将图像库和待检索图像的所有图像切片用与其曼哈顿距离最近的中心向量的id进行代替,得到图像的标签向量,之后利用标签向量进行比对。若待检索图像的图像切片不属于任何中心向量,则自动将该切片保存在中心向量集中,使得系统具有边训练边学习的能力。最后在系统实现方面,本论文将所提出的算法引入视频检索系统中,证明了算法的可行性,并与基于VGG16和Alexnet网络的视频检索技术进行实验比对。在相同平台下,以本文所提出算法为基础构建的系统,整体运行时间相比于目前通用的基于深度学习的视频检索算法节省了30%,并且检索准确率提升了1%。因此,本论文所提出的算法能够为后期视频检索硬件系统开发打下基础。
程勇[4](2020)在《基于深度学习的视频时空特征提取与检索算法研究》文中研究表明互联网技术的快速发展,为视频的制作和传播,创造了有利条件。对于海量视频数据,传统基于文本方式的视频检索方法已不能满足用户的需求,为了快速、高效的对视频进行分析和管理,基于内容的视频检索技术成为目前研究的热点。目前基于内容特征的视频检索系统,大多采用提取视频关键帧的颜色、纹理、形状等底层特征,来进行视频相识度匹配,这些底层特征是基于全局统计或者人工设计的特征提取方式,存在泛化抽象能力不强、易受光照和噪声的影响等问题,同时,未考虑视频帧时序上的关联性,导致视频检索精度偏低。为此,本文提出了基于深度特征的关键帧提取算法、基于三维卷积神经网络的视频时空特征提取框架,设计了融合视频时空特征和深度特征的视频相似度匹配规则,开发并实现了一个基于深度学习的视频检索系统原型,在检索速度和精度等方面均取得了较好的效果。本文主要研究内容如下:(1)提出了一种基于深度特征的关键帧提取算法。该方法使用卷积神经网络获取视频帧的深度特征,通过比较深度特征之间的差异作为关键帧提取的依据。数据实验表明,该算法简单高效且鲁棒性强,能够有效避免关键帧的漏检和误检。(2)构建了基于三维卷积神经网络的时空特征提取框架。采用三维卷积神经网络提取关键帧相邻的16帧图像的时空特征,该时空特征能够融合时序上视频帧的运动特性与帧内容特征,充分反映帧在时序上的变化规律,对运动镜头提取的时空特征更加具有代表性,可进一步提升视频检索准确率。(3)设立了一种融合视频时空特征和深度特征的视频相似度匹配规则。在视频的相似度匹配过程中,通过融合视频关键帧的静态特征(深度特征)和动态特征(时空特征),并结合滑动窗口实现视频特征序列的非对称匹配,从而完成基于关键帧和基于短视频的视频内容检索。结合本文提出的基于深度特征的关键帧提取、基于三维卷积神经网络的时空特征提取框架和融合视频时空特征和深度特征的视频相似度匹配规则三部分算法,开发并实现了一套高精度基于内容特征的视频检索系统原型。通过在标准动作视频数据集UCF-101上测试表明,当视频检索系统的查全率达到90%时,其平均查准率高于84%,超过了SIFT(Scale-invariant feature transform,SIFT)特征算法的62%的准确率。并且通过GPU等硬件环境加速,系统的平均检索时间不超过3秒,其检索精度和速度均优于传统的视频检索方法,为深度学习应用于视频检索研究做了有益探索。
石林[5](2020)在《网络Flash动画学习资源的内容结构特征与检索研究》文中提出教育信息化是提升教育教学质量的重要手段,是进行教育教学创新应用的基础条件。教育信息化离不开数字化学习资源建设。作为数字化学习资源类型之一的Flash动画是传递信息内容的重要媒体,更是一种重要的网络学习资源,其内容由文本、图形、图像、音频、视频、交互、动态效果等组成。因其强大的多媒体交互及表现能力,Flash动画被广泛应用于远程教学、精品课程网站、慕课平台等领域。网络上积累了海量的Flash动画资源,给动画需求者的检索带来了很多的干扰。学习者如何迅速精准地获取自己需要的Flash动画,是Flash动画搜索引擎需要解决的难题。目前的网络Flash动画检索一般是基于关键词、元数据特征或者网页上下文,检索准确率不理想。于是人们展开了对Flash动画内容特征的深入分析与研究。本研究的选题正是基于SWF格式的文件组织结构,对Flash动画的内容结构特征如场景结构特征、组成元素特征和画面情感特征等进行分析。论文依据Flash动画语义提取的四层框架(即元数据、组成元素、场景、语义层)分别研究了场景特征提取、组成元素特征提取、画面情感特征提取等多项关键技术。该研究的意义主要是为教育教学工作者和网络自学习者以及Flash动画爱好者提供快速、精准的Flash动画搜索服务,从而提高网络Flash动画学习资源的教育应用效率,充分发挥其教育特性。论文首先给出了网络Flash动画学习资源的定义,分析并建立了Flash动画的内容结构特征描述模型;然后构建出场景结构模型,提出场景的分割算法以及场景特征的提取过程;再后,分析并完成了组成元素特征的提取;最后建立了Flash动画的情感分类模型,利用机器学习获得低层视觉特征(主要为颜色和纹理)到高层情感语义的映射关系,从而完成Flash动画的情感分类,并分别用BP神经网络、支持向量机和卷积神经网络进行情感识别,分析不同学科、学段和教学类型的Flash动画画面情感特征的区别。论文的研究结果为最终将前期提取的场景特征、组成元素特征、情感特征存入索引数据库,建立基于内容的Flash动画检索系统,用于网络用户的Flash动画检索。基于此数据库,论文最后还通过实验,利用灰色关联法验证了Flash动画包含的各内容结构特征与学习者的学习兴趣的关联度。结果表明Flash动画中的动态效果特征与学习兴趣的关联度最高,在激发学习者兴趣、集中学习者注意力方面起着重要的作用;不同学段、不同学科的Flash动画中,对学习者学习兴趣唤起起关键作用的内容结构特征是不一样的。实验结果能够为Flash动画课件创作者在开发Flash动画课件时按照不同学段和学科进行视觉特征选择提供理论指导。基于前期研究者开发的网络动画爬取程序,本研究从网络上下载了大量Flash动画,从中筛选出教育特征明显、能辅助进行知识学习的4808个Flash动画学习资源作为本研究的样本库。参考教育理论和查阅文献,本文将这4808个样本按学科、学段来划分,并且提取的视觉场景、组成元素特征、情感特征都按照不同学段、不同学科进行分析,获得不同学段和学科的Flash动画的特征,为后期的Flash动画自动分类工作提供指导。本文的创新之处在于建立了Flash动画的内容结构特征描述模型,并从学段、学科、教学类型三个维度分析了网络Flash动画学习资源的内容结构特征;建立了场景结构模型,并提出了基于颜色直方图和边缘密度相结合的视觉场景分割算法;建立了情感分类模型,分别基于神经网络、支持向量机、卷积神经网络完成Flash动画的情感语义识别;分析了网络Flash动画学习资源的内容结构特征与学生学习兴趣的关联度。
李秋玲[6](2020)在《自适应视频镜头边界检测及关键帧提取方法研究》文中进行了进一步梳理随着信息技术的发展,各种各样的信息充斥到人们的生活中,视频数据也是其中之一,人们在享受海量视频带给人们各种便利的同时也面临着如何管理视频数据的问题。视频检索、标注、索引、摘要等后续工作迫切需要对视频内容的分析,视频边界检测和关键帧提取正是这些后续工作完成的基础和关键。本课题将视频镜头边界检测和关键帧提取两项技术作为研究重点,针对目前镜头边界检测算法和关键帧提取算法中存在的问题进行研究,设计并制作了实验系统平台,主要研究内容如下:1.针对目前视频镜头边界检测算法中易造成错检和漏检、人工确定阈值具有不确定性及渐变镜头相邻帧之间特征变化较小难以检测到的情况,提出了一种融合RGB颜色直方图特征与方向梯度直方图(HOG)特征的自适应阈值多步比较方案镜头边界检测算法,通过计算多个步骤的帧间差异,生成一个多步帧差模式距离图,分析不同镜头在模式距离图中的变化来确定突变镜头和渐变镜头。又采用卷积神经网络(CNN)对视频帧提取特征,并用该算法与单一特征算法及其他文献算法做比较。2.针对目前视频关键帧提取算法中由于前景目标过小、背景占据主导地位所造成的关键帧提取过程中出现的漏选问题以及运动类视频中运动目标特征不易提取所造成的的错选问题,提出了一种基于背景建模(Vi Be)算法的前景运动目标特征提取的关键帧提取算法,先通过Vi Be算法对视频序列进行前景目标检测,对提取出的前景运动目标提取其尺度不变特征变换(SIFT)特征,并对相邻帧之间的特征数据进行特征点匹配,最后根据定义的公式计算视频帧的相似度并根据本文提出的关键帧判别方法输出视频的关键帧。3.最后基于Python设计实验平台。在镜头边界检测的基础上对各镜头进行关键帧提取,依托Py Charm平台和Py Qt5来编写Python脚本的应用界面,设计并制作实验系统平台。实验结果表明,本文提出的镜头边界检测算法能弥补采用单一的色彩信息所造成的漏检、错检问题,自适应阈值的使用能够切实减少人工确定阈值的不确定性和不稳定性,且本文算法对渐变镜头的检测效果相比于其他算法有较好的提高。本文提出的基于Vi Be算法运动特征的关键帧提取算法的查准率和查全率相比于其他算法有较好的提高,且在一定程度上解决了一般的运动类视频中运动目标特征不易提取和运动类视频中由于运动目标多变且占据比例过小而产生的漏选、错选情况。
杨莹[7](2020)在《基于时序动作检测的监控视频异常事件检索方法研究》文中提出近年来,监控视频数据在城市安防工作中的重要性日益显着,具有重要的研究价值。监控视频记录了各种真实的异常事件,包括人的异常行为(如违法犯罪行为等)以及异常现象(如建筑的火灾等),这些异常事件是侦察破案等安防工作中不可缺少的重要信息,然而不同于正常事件,异常事件发生的概率较小,想要在海量的监控视频数据中找到所需的异常事件的信息非常困难。传统的检索方法无法满足分析异常事件的需求,并且在处理海量监控视频数据时,检索效率和检索性能仍有不足。因此,本文将异常事件作为研究对象,对检索技术的关键环节进行研究和改进,实现根据查询图像,快速、有效地检索到与图像内容相关的监控视频异常事件片段的检索方法。本文的主要研究内容如下:1.针对监控视频冗余信息多,异常事件信息获取难度大的问题,本文对时序动作检测技术进行研究,提出了基于时序动作检测技术的异常事件检测算法。通过异常事件检测算法对原始监控视频提取异常事件片段,去除大量的冗余信息,从而得到远远小于原始监控视频数据量的异常事件视频数据库,便于后续检索。针对目前多阶段时序动作检测算法精度较低的问题,提出了改进方案:结合C3D(3D Conv Nets)网络与多实例学习方法构造异常事件片段补充生成器、修改分类网络的结构。通过实验证实了本文所提出的算法能够有效的提高检测性能、准确的获取监控视频中的异常事件片段。2.针对监控视频数据量大、查询数据与数据库数据信息不对称的问题,本文提出了一种高效的视频检索算法。对异常事件数据库进行特征提取、索引构建及距离度量。首先通过SCFV(Scalable Compressed Fisher Vector)方法生成占用内存较少且计算简单的视频特征向量。然后使用数据库技术对视频特征向量构建多级索引结构,使得检索方法在处理海量高维监控视频数据时,仍然能够以较少的时间得到较好的检索结果。之后,考虑到查询数据与数据库数据的非对称关系,使用非对称比较算法实现特征向量间的距离度量。通过多组实验对以上方法进行验证,证实了本文所提出检索算法有效的解决了以上问题,在效率和精度方面都具有较好的表现,满足实际应用的需求。
张翔[8](2020)在《基于三维密集网络的视频镜头边界检测技术研究》文中研究指明伴随着互联网和多媒体技术的飞速发展,不同应用领域中的视频数据呈爆炸式增长。如何从这些海量视频数据中快速检索到用户感兴趣的数据,已经成为目前人们关注的焦点。基于内容的视频检索对视频帧的特征进行分析和利用,通过相关的检索算法快速选出所需要的视频内容,实现高效、便捷地管理和检索视频数据。镜头边界检测是视频检索的基础,然而传统镜头边界检测方法的精度和速度已经不能够满足于现在的研究和应用。随着深度学习的发展,卷积神经网络被很好地应用于此领域。卷积神经网络的不断加深,出现了梯度消失和模型退化等问题,影响了检测的精度和效率。本文提出了一个基于三维密集网络(3D Dense Net)的镜头边界检测算法。通过Dense Net独特的密集连接,在获得深度信息的同时保证了梯度的有效传播,不会产生大量的冗余造成运算量的浪费。为了能够直接对视频进行处理,本文将Dense Net原有的2D卷积替换成3D卷积,3D卷积能够捕捉视频的运动信息,有效增加了可用的特征信息。3D卷积比2D卷积更适合于视频的特征提取。3D卷积结合Dense Net可以很大程度缓解了特征不足、梯度消失和模型退化等问题。在此基础上,本文提出了一种新的深度镜头边界检测框架(DSBD),主要由3D Dense Net分类、合并和后处理三部分组成。通过将视频分为16帧一段且重叠为8的帧段,随机指定渐变、切变和不变三种标签的一种,将其传到3D Dense Net分类器中进行分类,并输出分类完成的帧段。渐变是镜头边界检测中最难检测的变换类型,在后处理中,对分类为不变标签的帧段进行二次检测,防止误检和漏检,最终输出分类正确的三类帧段。本文使用了UCF101、TRECVID和Clip Shots三种数据集对本文方法和目前较先进的两种方法进行对比训练和测试,结果表明本文方法可以有效提高镜头边界检测的准确率。本文也在百视通数字院线系统的基础上加入了镜头边界检测的功能,实现了对视频镜头的检测,并且使用了两部电影预告片进行了镜头边界检测实验,检测效果良好,证明本文提出的方法可以有效提高检测效果。
李延召[9](2019)在《基于内容的视频检索技术研究》文中指出随着互联网信息技术和多媒体技术的快速发展,人们在生活中会接触到越来越多的多媒体信息。怎样科学地在浩如烟海的视频数据中进行有效地检索,愈发成为重要的研究课题。目前,研究者们普遍从使用基于文本的检索方法转为使用基于内容的检索方法,大大提高了检索效率和准确率。本文旨在优化基于内容的视频检索的各个关键环节,实现一个具有较高检测精度的视频检索系统,为影视类视频的检索提供便利。本文主要研究内容如下:首先,对图像进行特征提取:通过量化HSV颜色空间利用颜色直方图得到图像的颜色特征向量,使用LBP算子得到图像的纹理特征向量,使用欧氏距离法度量特征向量距离;其次,将颜色、纹理特征以固定权值融合,通过对视频图像帧分块、加权,计算图像帧间差。在研究多种镜头边界检测方法后,本文设计了自适应高低阈值的计算方法,并针对镜头突变、镜头渐变分别判断,同时设计了二次判断方法,能够尽量地准确识别镜头的突变和渐变,并排除特殊情况对镜头边界检测的影响。根据比对实验结果,本文的镜头边界检测方法拥有更高的查准率与查全率。再次,对多种关键帧提取方法进行研究,确定选择用K-means聚类方法实现关键帧提取。在分析了K-means聚类方法的不足之处后,提出了一种基于K-means聚类改进的关键帧提取算法,本算法根据初始聚类中心距离最大原则选取初始类心,通过“手肘”形K值筛选和CH指标评估确认最优K值,完成对传统K-means聚类方法的改进,并使用该方法提取视频关键帧。经过对比实验,本文的方法对关键帧的提取确实拥有更好的效果,用更简洁的关键帧数来准确描述镜头内容。最后,本文根据遗传算法设计了一种基于遗传算法的多特征权值自动选取的方法,选取更为合理的颜色、纹理特征向量权值进行特征融合,提高检索准确率,最终设计并实现了视频检索系统,经测试,本系统拥有良好的视频检索效果,具有较高的检索准确率。
陈道富[10](2019)在《基于深度学习的视频目标检索技术研究》文中研究说明通常,传统的视频检索系统仅允许使用关键词作为输入,通过人工对视频内容进行标注,并使用这些标注检索相关视频。但是视频数据量的增加导致这种方式的人力成本大幅增加的同时,检索结果也越来越无法满足实际的需求。基于内容的视频检索使用图像或视频片段作为系统的输入,提取输入的内容作为检索目标,不再需要人类的参与,大大提高了系统的效率。本文主要研究了基于图像的视频目标检索涉及的关键技术,主要工作和创新点如下:(1)在视频结构化过程中,本文针对传统的关键帧提取算法的提取数量难以确定的问题,提出使用帧间差的均值和标准差计算一个自适应阈值,通过统计帧间差大于阈值的数量来判断视频中内容变化的次数,并以此为依据得到需要提取的关键帧数量。实验发现,该方法取得的关键帧数量与图像帧聚类的最佳聚类数保持一致,证明了该方法的有效性。(2)对于传统的k-medoids聚类算法结果易受初始化聚类中心的影响问题,本文提出了使用SOM算法改进基于聚类的关键帧提取算法。使用SOM聚类算法对图像帧进行初聚类,将得到的聚类结果作为聚类初始化中心,再使用k-mediods算法进行结果优化,进一步解决了孤立帧造成的影响。相比于传统的关键帧提取算法,本文的关键帧提取算法可以更好的平衡保真率和压缩比,将聚类效果保持在一个较高的水平。(3)对于传统的图像特征缺少语义信息的问题,本文提出了基于特征点的深度特征提取算法。使用预训练的CNN网络提取图像的局部卷积特征集,然后使用SURF或ORB特征快速的提取到图像的关键目标区域,筛选出更有效的局部卷积特征,最终将局部卷积特征子集聚合成一个完整的特征描述符,并在降维后作为最终检索使用的特征描述符。实验证明该特征的检索准确率优于传统的人工图像特征及深度特征,同时相对于其他卷积特征筛选方法,本文的方法有效的降低了整体算法的筛选时间。(4)为了实现基于深度特征的视频目标检索,本文使用MATLABGUI工具箱整合了提出的关键帧提取和特征提取算法,实现了一个简单实用的视频目标检索系统。该系统使用图片进行相似内容的视频片段检索,完成了视频镜头检测、关键帧提取和特征提取与检索等功能,并通过实验验证了该系统的可用性。
二、基于内容的视频检索技术研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于内容的视频检索技术研究(论文提纲范文)
(1)基于多特征融合的视频检索技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 视频关键帧提取技术现状 |
1.2.2 多特征融合技术现状 |
1.3 主要研究内容 |
1.4 论文结构安排 |
第二章 视频检索相关技术 |
2.1 视频数据 |
2.1.1 视频数据特点 |
2.1.2 视频数据的结构化 |
2.2 视频检索的结构框架和关键技术 |
2.2.1 视频检索的结构框架 |
2.2.2 视频检索的关键技术 |
2.3 视频检索相关技术介绍 |
2.3.1 关键帧提取 |
2.3.2 目标检测 |
2.3.3 特征提取 |
2.3.4 多特征融合与匹配 |
2.4 本章总结 |
第三章 基于人脸识别和K-Means的视频检索 |
3.1 关键帧提取常用方法 |
3.1.1 基于镜头边界的方法 |
3.1.2 基于内容分析的方法 |
3.1.3 基于运动分析的方法 |
3.1.4 基于K均值聚类的方法 |
3.2 基于改进K-Means聚类的关键帧提取技术 |
3.2.1 K-Means聚类算法介绍 |
3.2.2 基于改进的K-Means的关键帧提取算法 |
3.3 实验结果和分析 |
3.4 本章小结 |
第四章 基于多特征融合的视频检索 |
4.1 目标检测和特征提取 |
4.1.1 人脸检测和特征提取 |
4.1.2 人头检测和特征提取 |
4.1.3 身体姿态检测和特征提取 |
4.2 基于多特征融合的视频检索 |
4.2.1 常用融合方法 |
4.2.2 加权融合 |
4.3 实验结果及分析 |
4.4 本章小结 |
第五章 视频检索系统 |
5.1 系统设计 |
5.2 系统实现展示 |
5.2.1 系统界面 |
5.2.2 搜索实例 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 论文总结 |
6.2 研究展望 |
参考文献 |
在学期间的研究成果 |
致谢 |
(2)多模态视频片段检索技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究历史与现状 |
1.2.1 基于内容的视频片段检索 |
1.2.2 基于文本的跨模态视频片段检索 |
1.3 本文的主要贡献与创新 |
1.4 本文的结构安排 |
第二章 视频片段检索技术 |
2.1 视频片段检索框架 |
2.1.1 基于内容视频片段检索 |
2.1.2 跨模态视频片段检索 |
2.2 视频片段检索关键技术 |
2.2.1 镜头边界检测 |
2.2.2 视频特征提取 |
2.2.2.1 图像特征提取 |
2.2.2.2 时序动作特征提取 |
2.2.3 文本特征提取 |
2.2.4 跨模态特征联合嵌入 |
2.3 本章小结 |
第三章 基于两级局部敏感哈希的视频片段检索 |
3.1 现有方案的问题分析 |
3.2 两级局部敏感哈希 |
3.2.1 局部敏感哈希的基本思想 |
3.2.2 两级哈希特征提取 |
3.2.3 两级哈希特征入库 |
3.2.4 两级哈希特征检索 |
3.3 改进后的视频片段检索方案 |
3.3.1 被检索视频特征库构建 |
3.3.2 目标视频头检测 |
3.3.3 目标视频尾检测 |
3.3.4 目标视频对比检索 |
3.4 方案性能测试 |
3.4.1 测试数据集 |
3.4.2 检测准确率测试 |
3.4.3 检测速度测试 |
3.4.4 功能测试 |
3.4.5 测试结论 |
3.5 本章小结 |
第四章 基于二维时域与关系图特征的跨模态视频片段检索 |
4.1 现有方案的问题分析 |
4.2 对跨模态视频片段检索方案的改进 |
4.3 2D-SGN方案 |
4.3.1 文本特征提取 |
4.3.1.1 文本预处理 |
4.3.1.2 文本关系图特征提取 |
4.3.1.3 文本句整体特征提取 |
4.3.2 视频片段特征提取 |
4.3.2.1 视频预分段 |
4.3.2.2 视频帧关系图特征提取 |
4.3.2.3 视频片段特征提取 |
4.3.3 跨模态嵌入学习 |
4.3.3.1 整体特征的跨模态嵌入学习 |
4.3.3.2 关系图特征的跨模态嵌入学习 |
4.3.4 边界调优 |
4.4 实验分析 |
4.4.1 实验数据集 |
4.4.2 实验设计 |
4.4.2.1 实验环境与设置 |
4.4.2.2 实验参照方案 |
4.4.2.3 评估方法 |
4.4.3 实验结果及分析 |
4.4.3.1 Charades-STA数据集实验结果 |
4.4.3.2 Di De Mo数据集实验结果 |
4.4.3.3 实验结论 |
4.4.4 消融实验 |
4.5 本章小结 |
第五章 基于Flask Web框架的视频剪辑系统设计与实现 |
5.1 需求分析 |
5.2 系统整体设计 |
5.2.1 系统架构 |
5.2.2 网页功能设计 |
5.2.3 后端功能设计 |
5.3 数据库与接口设计 |
5.3.1 存储表结构设计 |
5.3.2 服务接口设计 |
5.4 系统详细设计 |
5.4.1 数据传输设计 |
5.4.2 视频片段检索服务 |
5.4.2.1 基于内容的视频片段检索服务 |
5.4.2.2 基于文本的视频片段检索服务 |
5.4.3 剪辑功能模块设计 |
5.5 系统测试 |
5.5.1 页面功能模块测试 |
5.5.2 视频片段检索与剪辑功能测试 |
5.5.2.1 视频模态剪辑功能测试 |
5.5.2.2 文本模态剪辑功能测试 |
5.5.3 响应时间测试 |
5.6 系统界面展示 |
5.7 本章小结 |
第六章 工作总结与展望 |
6.1 本文工作总结 |
6.2 未来展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(3)基于改进RBF神经网络的视频检索算法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.3 研究内容与方案 |
1.3.1 研究内容 |
1.3.2 研究方案 |
1.4 论文结构 |
第2章 视频检索算法概述 |
2.1 视频数据的特点 |
2.2 视频检索的关键技术 |
2.2.1 镜头边界检测 |
2.2.2 关键帧提取 |
2.2.3 特征量提取 |
2.2.4 相似度计算 |
2.3 图像检索评价标准 |
2.4 本章小结 |
第3章 改进RBF视频检索系统方案设计 |
3.1 视频检索系统整体方案设计 |
3.2 特征提取部分方案设计 |
3.2.1 提取中心向量方案设计 |
3.2.2 构建标签向量方案设计 |
3.2.3 改进RBF神经网络结构 |
3.3 相似度匹配方案设计 |
3.4 本章小结 |
第4章 改进RBF视频检索系统实现 |
4.1 提取中心向量方案实现 |
4.1.1 提取中心向量流程与代码 |
4.1.2 提取中心向量实验分析 |
4.2 特征提取方案实现 |
4.3 相似度匹配方案实现 |
4.4 本章小结 |
第5章 实验分析与软件实现 |
5.1 实验环境 |
5.2图像检索实验 |
5.2.1 实验参数设定 |
5.2.2 实验内容与结果 |
5.3硬件仿真实验 |
5.3.1 硬件平台配置 |
5.3.2 仿真流程 |
5.3.3 仿真结果与分析 |
5.4 视频检索系统展示 |
5.4.1 视频检索软件研究 |
5.4.2 检索系统实例分析 |
5.5 本章小结 |
总结 |
展望 |
参考文献 |
致谢 |
(4)基于深度学习的视频时空特征提取与检索算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 视频检索研究概况 |
1.2.2 经典的视频检索系统 |
1.2.3 存在的问题 |
1.3 论文主要研究内容 |
1.4 论文的组织结构 |
第二章 基础理论和相关技术 |
2.1 视频检索技术的基本概念 |
2.1.1 视频的层次结构 |
2.1.2 基于内容的视频检索框架 |
2.2 深度学习 |
2.2.1 深度学习概述 |
2.2.2 卷积神经网络 |
2.2.3 三维卷积神经网络 |
2.2.4 激活函数 |
2.2.5 损失函数 |
2.3 深度学习框架 |
2.4 本章小结 |
第三章 基于深度特征的视频关键帧提取算法 |
3.1 常用的关键帧提取算法 |
3.1.1 特定帧法 |
3.1.2 帧间差分析法 |
3.1.3 帧平均法 |
3.1.4 运动分析法 |
3.1.5 聚类法 |
3.2 基于深度特征的关键帧提取算法 |
3.2.1 改进的Dense Net-201 网络 |
3.2.2 基于Dense Net-201 的深度特征提取方法 |
3.2.3 关键帧提取算法描述 |
3.3 视频关键帧提取实验与效果展示 |
3.3.1 关键帧提取算法中阈值的确定 |
3.3.2 关键帧提取实验与效果分析 |
3.4 本章小结 |
第四章 基于深度学习的视频时空特征提取算法 |
4.1 传统特征提取技术 |
4.1.1 颜色特征 |
4.1.2 纹理特征 |
4.1.3 形状特征 |
4.1.4 SIFT特征 |
4.2 基于C3D的视频时空特征提取方法 |
4.3 融合时空特征和深度特征的视频检索 |
4.3.1 常用的相识性度量方法 |
4.3.2 融合时空特征和深度特征的视频检索算法 |
4.3.3 特征融合算法中权值的确定 |
4.4 本章小结 |
第五章 视频检索实验结果与分析 |
5.1 实验环境介绍 |
5.2 测试数据集介绍 |
5.3 性能评价指标 |
5.4 视频检索实验 |
5.4.1 基于图像的检索实验效果与分析 |
5.4.2 基于短视频的检索实验效果与分析 |
5.5 本章小结 |
第六章 校园监控视频检索应用系统设计与实现 |
6.1 应用背景与需求分析 |
6.2 应用系统原型设计与实现 |
6.2.1 系统开发环境介绍 |
6.2.2 主要数据库设计 |
6.2.3 系统框架与流程 |
6.3 应用系统原型运行效果展示 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 论文总结 |
7.2 今后展望 |
参考文献 |
在读期间的研究成果 |
致谢 |
(5)网络Flash动画学习资源的内容结构特征与检索研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 研究现状 |
1.3 研究目的、内容、方法和创新点 |
1.3.1 研究目的 |
1.3.2 研究内容 |
1.3.3 研究方法 |
1.3.4 创新点 |
1.4 论文内容安排 |
第二章 理论基础 |
2.1 教育信息化与数字化学习资源建设 |
2.2 多媒体信息内容管理理论 |
2.3 学习资源的语义分析 |
2.4 元数据描述 |
2.5 基于内容的信息检索技术 |
第三章 网络Flash动画学习资源概述与内容结构特征描述模型 |
3.1 网络Flash动画学习资源分析 |
3.1.1 网络Flash动画学习资源的特点 |
3.1.2 网络Flash动画学习资源的分类 |
3.1.3 网络Flash动画在互联网中的存在形式 |
3.1.4 网络Flash动画学习资源搜索 |
3.2 网络Flash动画在教育教学中的应用分析 |
3.2.1 网络Flash动画在教育教学应用中的优势 |
3.2.2 网络Flash动画在教育教学应用中的属性分析 |
3.3 网络Flash动画学习资源样本集分析 |
3.4 网络Flash动画的内容结构特征描述模型 |
第四章 网络Flash动画学习资源的场景特征分析 |
4.1 网络Flash动画的文件结构 |
4.2 网络Flash动画的场景结构模型 |
4.3 逻辑场景分割 |
4.3.1 逻辑场景 |
4.3.2 逻辑场景分割 |
4.4 视觉场景分割 |
4.4.1 视觉场景 |
4.4.2 视觉场景分割 |
4.5 场景分割实验与场景特征分析 |
第五章 网络Flash动画学习资源的组成元素特征分析 |
5.1 组成元素特征概述 |
5.2 静态视觉特征提取 |
5.2.1 静态视觉特征定义方式 |
5.2.2 静态视觉特征提取方法 |
5.2.3 静态视觉特征分析 |
5.3 动态效果提取 |
5.3.1 动态效果定义方式 |
5.3.2 动态效果提取方法 |
5.3.3 动态效果分析 |
5.4 交互特征提取 |
5.4.1 交互方式与交互特征 |
5.4.2 交互定义方式 |
5.4.3 交互特征提取 |
5.4.4 交互特征分析 |
第六章 网络Flash动画学习资源的画面情感特征分析 |
6.1 多媒体画面情感研究现状 |
6.2 多媒体画面情感描述模型 |
6.2.1 情感分类模型 |
6.2.2 画面特征提取 |
6.3 网络Flash动画学习资源的画面情感识别 |
6.3.1 视觉特征数据预处理 |
6.3.2 情感特征数据获取 |
6.3.3 基于BP神经网络的情感识别 |
6.3.4 基于SVM的学习过程情感识别 |
6.3.5 基于CNN的情感识别 |
6.4 实验结果综合分析 |
6.5 小结 |
第七章 基于内容结构的网络Flash动画学习资源检索系统 |
7.1 检索系统研究现状 |
7.2 检索系统设计 |
7.2.1 系统需求分析 |
7.2.2 功能模块设计 |
7.2.3 数据库设计 |
7.3 检索系统实现 |
7.3.1 环境要求 |
7.3.2 模块实现 |
7.3.3 检索界面 |
7.3.4 系统测试 |
7.4 检索系统的应用 |
7.4.1 系统面向对象 |
7.4.2 系统应用案例 |
7.4.3 案例分析 |
第八章 Flash动画内容结构特征与学习兴趣关联度分析 |
8.1 实验设计 |
8.2 实验平台开发 |
8.3 实验实施过程 |
8.4 实验分析 |
第九章 总结与展望 |
9.1 论文工作总结 |
9.2 工作展望 |
注释 |
参考文献 |
图索引 |
表索引 |
附录 |
攻读博士学位期间的学术成果 |
谢辞 |
(6)自适应视频镜头边界检测及关键帧提取方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 镜头边界检测技术的研究现状 |
1.2.2 关键帧提取技术的研究现状 |
1.2.3 两种技术中存在的问题 |
1.3 课题主要研究内容及创新点 |
1.3.1 论文主要研究内容 |
1.3.2 论文主要创新点 |
1.4 论文的组织结构 |
第二章 视频检索相关技术概述 |
2.1 视频的特点 |
2.2 视频的结构及分析 |
2.2.1 视频结构 |
2.2.2 视频镜头边界 |
2.2.3 关键帧提取 |
2.3 视频检索技术及原理 |
2.3.1 基于关键字的视频检索 |
2.3.2 基于内容的视频检索 |
2.4 本章总结 |
第三章 自适应阈值镜头边界检测算法 |
3.1 特征选取 |
3.1.1 颜色特征 |
3.1.2 形状特征 |
3.1.3 纹理特征 |
3.1.4 本文特征提取方法 |
3.2 基于融合特征的多步比较方案镜头边界检测算法 |
3.2.1 融合特征多步比较镜头边界检测算法 |
3.2.2 突变检测 |
3.2.3 渐变检测 |
3.3 实验结果分析及评价对比 |
3.3.1 数据集的选取及评价准则 |
3.3.2 实验结果 |
3.3.3 实验结果分析及评价对比 |
3.4 本章小结 |
第四章 基于VIBE算法运动特征的关键帧提取算法 |
4.1 背景建模算法 |
4.1.1 Code Book背景模型 |
4.1.2 混合高斯模型 |
4.1.3 ViBe算法 |
4.2 相似性度量算法 |
4.2.1 欧氏距离 |
4.2.2 曼哈顿距离 |
4.2.3 切比雪夫距离 |
4.2.4 马氏距离 |
4.2.5 余弦夹角距离 |
4.2.6 汉明距离 |
4.3 基于ViBe算法运动特征的关键帧提取算法 |
4.3.1 特征提取 |
4.3.2 关键帧提取算法 |
4.3.3 实验结果分析及评价对比 |
4.4 本章小结 |
第五章 镜头边界检测基础上的关键帧提取系统实现 |
5.1 视频镜头类型分析 |
5.2 系统关键帧提取算法 |
5.2.1 系统关键帧提取算法步骤 |
5.3 系统平台的搭建 |
5.4 系统平台的运行 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 未来展望 |
参考文献 |
在读期间取得科研成果 |
致谢 |
(7)基于时序动作检测的监控视频异常事件检索方法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 时序动作检测研究现状 |
1.2.2 视频检索技术研究现状 |
1.3 论文主要研究内容和章节安排 |
第2章 相关概念与关键技术 |
2.1 时序动作检测基础知识 |
2.1.1 深度学习理论基础 |
2.1.2 卷积神经网络基础 |
2.1.3 多阶段动作检测方法概述 |
2.1.4 检测性能评价标准 |
2.2 视频检索基础知识 |
2.2.1 视频数据的结构和特点 |
2.2.2 视频检索相关技术概述 |
2.2.3 检索性能评价标准 |
2.3 本章小结 |
第3章 基于时序动作检测的异常事件检测算法 |
3.1 引言 |
3.2 3D卷积神经网络 |
3.3 基于异常事件片段补充生成器的时序动作检测算法 |
3.3.1 异常事件片段补充生成器 |
3.3.2 改进3D卷积网络结构的分类网络 |
3.3.3 后处理 |
3.4 实验结果与分析 |
3.4.1 实验数据描述 |
3.4.2 实验结果与分析 |
3.5 本章小结 |
第4章 监控视频异常事件检索方法 |
4.1 引言 |
4.2 基于SCFV的视频特征描述方法 |
4.2.1 Fisher特征向量 |
4.2.2 SCFV特征向量 |
4.3 基于LSH的多级可拓展索引构建方法 |
4.3.1 数据库技术简介 |
4.3.2 局部敏感哈希技术 |
4.3.3 可拓展的多级索引构建方法 |
4.4 基于非对称比较的距离度量方法 |
4.5 实验结果与分析 |
4.5.1 实验数据描述 |
4.5.2 检索方法关键环节性能验证与分析 |
4.5.3 整体异常事件检索方法性能验证与分析 |
4.6 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的文章和取得的科研成果 |
致谢 |
(8)基于三维密集网络的视频镜头边界检测技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状及存在的问题 |
1.2.1 视频检索研究现状 |
1.2.2 镜头边界检测研究现状 |
1.2.3 存在的问题 |
1.3 论文研究内容 |
1.4 论文组织结构 |
第二章 视频检索技术 |
2.1 基本概念 |
2.1.1 视频的结构特点 |
2.1.2 视频数据的结构化分析 |
2.1.3 视频检索框架 |
2.2 特征提取与匹配 |
2.2.1 特征提取技术 |
2.2.2 特征匹配方法 |
2.3 镜头边界检测技术 |
2.3.1 常用方法 |
2.3.2 基于深度学习法 |
2.4 关键帧提取技术 |
2.5 本章小结 |
第三章 基于三维密集网络的镜头边界检测技术 |
3.1 密集网络 |
3.2 深度镜头边界检测框架 |
3.2.1 3D卷积 |
3.2.2 三维密集网络 |
3.2.3 DSBD框架 |
3.3 数据集 |
3.4 镜头边界检测评价标准 |
3.5 训练过程 |
3.5.1 损失函数 |
3.5.2 学习率 |
3.5.3 压缩系数 |
3.5.4 增长率 |
3.6 训练结果与分析 |
3.6.1 分析结果对比 |
3.6.2 网络参数和训练速度 |
3.7 本章总结 |
第四章 镜头边界检测系统研究 |
4.1 百视通数字院线系统 |
4.2 系统镜头边界检测流程 |
4.2.1 检测流程 |
4.2.2 检测实验 |
4.3 本章小结 |
第五章 总结与展望 |
5.1 全文总结 |
5.2 未来工作展望 |
参考文献 |
攻读硕士学位期间发表的学术论文 及取得的相关科研成果 |
致谢 |
(9)基于内容的视频检索技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 镜头边界检测技术 |
1.2.2 关键帧提取技术 |
1.3 论文研究内容 |
1.4 论文的组织结构 |
第2章 基于内容的视频检索的分析与特征提取和匹配 |
2.1 视频数据的概念与特点 |
2.1.1 视频数据的基本概念 |
2.1.2 影视类视频的特点 |
2.2 基于内容的视频检索的框架与关键技术 |
2.2.1 基于内容的视频检索的框架 |
2.2.2 基于内容的视频检索的关键技术 |
2.3 特征提取与特征匹配 |
2.3.1 特征提取 |
2.3.1.1 颜色空间 |
2.3.1.2 颜色特征提取 |
2.3.1.3 纹理特征提取 |
2.3.1.4 特征融合 |
2.3.2 特征匹配 |
2.4 本章小结 |
第3章 镜头边界检测 |
3.1 镜头边界检测基本概念 |
3.1.1 镜头边界检测 |
3.1.2 镜头转换类型 |
3.1.3 镜头边界检测的评价标准 |
3.2 常见的镜头边界检测方法 |
3.2.1 镜头突变检测 |
3.2.2 镜头渐变检测 |
3.3 自适应双阈值的镜头边界检测方法 |
3.4 实验结果分析 |
3.5 本章小结 |
第4章 关键帧提取 |
4.1 关键帧概念与选取原则 |
4.1.1 关键帧概念 |
4.1.2 关键帧提取原则 |
4.2 典型的关键帧提取方法 |
4.3 基于k-means聚类改进的关键帧提取算法 |
4.3.1 传统K-means聚类的特点 |
4.3.2 传统k-means算法聚类的不足 |
4.3.3 基于k-means聚类改进的关键帧提取算法 |
4.4 实验结果与分析 |
4.5 本章小结 |
第5章 基于遗传算法的多特征权值自动选取与视频检索结果 |
5.1 基于遗传算法的多特征权值自动选取 |
5.1.1 遗传算法 |
5.1.2 基于遗传算法的多特征权值自动选取方法 |
5.2 影视类视频检索效果 |
5.3 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间发表的论文和取得的科研成果 |
致谢 |
(10)基于深度学习的视频目标检索技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状和存在的问题 |
1.2.1 国内外研究现状 |
1.2.2 存在的问题 |
1.3 论文研究内容和组织结构 |
第二章 数字视频和深度学习介绍 |
2.1 数字视频 |
2.1.1 视频数据的基本概念 |
2.1.2 视频数据的特点 |
2.1.3 视频数据的结构化 |
2.2 基于内容的视频检索框架 |
2.3 深度学习 |
2.3.1 深度学习的概念 |
2.3.2 深度学习的发展历程 |
2.3.3 卷积神经网络 |
2.4 本章小结 |
第三章 改进的自适应聚类关键帧提取算法 |
3.1 关键帧提取概述 |
3.2 常用关键帧提取技术 |
3.3 改进的自适应聚类关键帧提取算法 |
3.3.1 自适应关键帧数量 |
3.3.2 SOM初聚类 |
3.3.3 K-mediods聚类优化 |
3.4 实验及结果分析 |
3.4.1 数据集及评价标准 |
3.4.2 结果分析 |
3.5 本章小结 |
第四章 基于特征点的深度特征提取算法 |
4.1 传统图像特征提取 |
4.2 基于深度学习的图像特征 |
4.3 基于特征点的深度图像特征提取方法设计 |
4.3.1 基于特征点的深度卷积特征 |
4.3.2 局部卷积特征的嵌入和聚合 |
4.4 实验及结果分析 |
4.4.1 数据集、评价指标以及实现细节 |
4.4.2 实验结果及分析 |
4.5 本章小结 |
第五章 基于深度特征的视频目标检索系统 |
5.1 系统模块及界面设计 |
5.2 视频结构化模块 |
5.3 特征提取及检索模块 |
5.4 系统功能模块测试 |
5.5 本章总结 |
第六章 全文总结与展望 |
6.1 全文总结 |
6.2 后续工作展望 |
致谢 |
参考文献 |
四、基于内容的视频检索技术研究(论文参考文献)
- [1]基于多特征融合的视频检索技术研究[D]. 支卫建. 北方工业大学, 2021(01)
- [2]多模态视频片段检索技术研究[D]. 陈俞舟. 电子科技大学, 2021(01)
- [3]基于改进RBF神经网络的视频检索算法研究[D]. 董博晨. 北京建筑大学, 2020(01)
- [4]基于深度学习的视频时空特征提取与检索算法研究[D]. 程勇. 佛山科学技术学院, 2020(01)
- [5]网络Flash动画学习资源的内容结构特征与检索研究[D]. 石林. 山东师范大学, 2020(08)
- [6]自适应视频镜头边界检测及关键帧提取方法研究[D]. 李秋玲. 山东理工大学, 2020(02)
- [7]基于时序动作检测的监控视频异常事件检索方法研究[D]. 杨莹. 哈尔滨工程大学, 2020(05)
- [8]基于三维密集网络的视频镜头边界检测技术研究[D]. 张翔. 上海工程技术大学, 2020(04)
- [9]基于内容的视频检索技术研究[D]. 李延召. 哈尔滨工程大学, 2019(06)
- [10]基于深度学习的视频目标检索技术研究[D]. 陈道富. 电子科技大学, 2019(01)