一、Index of abstracts appeared in Technical Acoustics(论文文献综述)
董晨语[1](2021)在《海洋声学层析成像数据库与可视化软件系统设计》文中研究表明海洋数据具有大规模、复杂结构、同源异构、强时空过程依赖性等特点,针对不同海洋数据的性质,设计相应的数据管理方案,并基于数据库形成相应的数据管理系统,是多种类海洋科学研究的基石。海洋数据表达可视化技术是数据参数性质的直观表达,也是海洋数据处理结果的展示方式。当前对于海洋数据的管理与可视化技术的研究,多针对于特定一类数据、或一种算法的实现,难以推广到大规模、多类型、复杂结构的海洋数据的情景。因此,本文依托相关项目需求,对海洋数据管理与可视化中的数据管理技术、图像超分辨率重建和三维可视化算法三项关键技术进行了研究,设计开发了相应的海洋声学层析成像数据库与可视化软件系统。海洋数据管理技术主要包括数据编码方案、数据库存储方案和检索方案三部分。数据编码方案是数据的唯一标识,在存储时生成,主要用于检索时进行数据定位,且能够对海洋数据的各项性质予以区别。数据库存储方案对导入的海洋数据进行自动地分库分表,并依据海洋数据的特点设计相应的数据库结构。基于数据库结构和编码方案提出了相应的检索方案,对海洋数据进行精确地检索定位。基于以上三部分建立海洋数据库,作为后续超分辨率重建和海洋数据可视化的数据来源。超分辨率重建技术将输入的低分辨率海洋数据进行重建,提升其分辨率以达到项目对海洋数据可视化的要求,本文通过两次图信号处理与正则化技术结合的方式,使重建后分辨率提高的同时,较好地保护了有效数据与无效数据的边缘,其重建结果可用于后续三维海洋数据可视化的实现。本文对三维海洋数据的可视化进行了研究,分析了传统光线投射算法在海洋数据实现上存在的不足,依据海洋数据的特点,在垂向温、盐度变化较大区域范围进行均匀化处理、自动数据分类、海洋数据有效数据与无效数据边缘保护四方面对光线投射算法进行了改进,并简化了一定的计算过程。本文的创新点在于,依托项目需求设计了相应的数据库结构及数据管理方案,结合图信号处理进行了海洋数据的超分辨率重建,对光线投射算法进行了改进,并在三项关键技术的基础上,设计了相应的数据库与软件系统“海洋声学层析成像数据库与可视化软件系统”,对项目收集和试验采集的数据进行编码、存储、检索,对原始数据和处理结果进行了显示。
张力文[2](2021)在《时序关系依赖的音频语义特征学习方法研究》文中指出声音信号中包含着大量关于人们生活环境的信息。随着互联网上音频数据的日益增多,以及人们对智能设备依赖程度的增加,迫切希望机器能具有更多的感知和理解声音的能力。针对声音感知与理解的研究,目前主要集中在声学事件识别和声学场景分类上。二者同属于音频分类的范畴,其所要解决的关键问题之一,就是如何学习出有效的音频语义特征表示。鉴于音频是一种时序性信号,其语义内容既取决于所包含的各个基元内容,也取决于各个基元间的时序关系。然而传统的基于帧级别的声学特征提取方法,以及流行的基于深度学习等片段级别的时频域特征学习方法,由于未明确考虑各帧级别或片段级别基元间的时序依赖关系,因而大都无法有效刻画音频样本中的完整时序信息,从而也不能有效学习出具有完整语义内容的样本级特征表示。尽管近年来有部分研究工作开始尝试使用时序建模的方法,来将基元间的长时依赖关系引入到音频语义特征学习过程之中,但这些方法自身还存在着一定的局限性,且未充分考虑音频信号的复杂多样性。因此,仍然需要对时序关系依赖的音频语义特征学习方法进行更深入的研究。基于此,本文从无监督和有监督学习两个方面,对音频样本中时序信息的学习问题展开研究,提出了一系列解决方法:1.为探索能有效刻画完整时序信息的语义特征学习方法,先从最简单的情况出发,尝试一种能够在单一尺度上捕捉基元间时序关系的时序建模方法。首先利用音频词袋方法以固定的时间尺度构建出每个样本的片段级基元表示序列,然后以此为基础,提出一种基于回归的无监督时序性特征学习方法。它以基元间的时间先后顺序为约束,利用参数可学习的线性函数来对基元间的时序关系进行编码,并通过求解支持向量回归问题来对参数进行学习,最后将函数参数作为完整序列的特征表示。此外,通过使用基于稀疏编码的音频词袋方法所构建出的基元表示序列作为输入,所提出的方法可以获得更为鲁棒的音频语义特征。实验结果表明,所提出的无监督时序性特征学习方法可以有效提升音频分类系统的性能。2.鉴于目前大多数时序建模方法都是在单一尺度的基元表示序列上,对基元间的时序关系进行建模。然而,音频数据中各声音事件的变化快慢程度并非一致,其所对应的基元尺度也不可能完全相同。因此,采用统一尺度的基元表示不足以充分反映音频数据的这一特点,需要考虑多尺度的基元表示形式,以及有效刻画多尺度基元间时序关系的方法。为此,将所提出的基于单尺度基元间时序关系的时序性特征学习方法,推广为具有层级结构的能有效捕捉多尺度基元间时序关系的金字塔时序池化网络。首先采用能在多种尺度上刻画局部时频结构的卷积神经网络来构建出样本的基元表示序列。然后利用金字塔时序池化网络学习序列中的多尺度时序信息,进而得到表达能力更强的音频特征表示。实验结果表明,对于声学事件识别和声学场景分类,所提出的方法均可有效地提升系统的性能。3.鉴于音频数据的类别标签包含了人类对其认识的先验知识,合理地利用这些先验知识,将有助于获得更有效的语义特征表示。为此,利用双层优化思想,提出一种有监督的时序性特征学习方法,将类别先验信息引入到时序关系依赖的语义特征学习之中。首先通过将先前基于回归的无监督特征学习中的时序关系编码问题,看作是顶层分类器优化目标的底层约束条件,来构造出任务驱动时序性特征学习问题的双层优化结构。然后采用基于梯度的优化策略对此双层优化问题进行求解,以实现对基元间时序关系及分类器参数的联合学习。实验结果表明,所提出的方法能在更低维度的特征空间中获得区分能力更好的语义特征。4.鉴于声学场景中存在着语义无关联的短时声音模式,它们之间并不存在时序依赖关系。若捕捉所有模式间的时序关系将会引入冗余信息,因而需重点考虑捕捉语义相关模式间的时序关系。为此,提出以语义近邻为约束来学习基元间时序关系的思想,进而提出一种端到端的三维卷积神经网络,来实现对基元表示、基元间时序关系依赖的语义特征,以及分类器的联合学习。所提出的网络将经过卷积运算后得到的局部基元表示映射到语义空间,并通过聚类的方式获得各基元的语义近邻,然后采用多层感知机来对各基元及其近邻间的时序关系进行学习。此外,还提出一种注意力池化的方法来对语义邻域内的时序关系进行聚合,从而使得网络能在更大的邻域内获得有助于分类的时序关系。实验结果表明,所提出的网络可在声学场景数据集上获得优异的分类性能,并超过众多主流的深度学习方法。
刘秀丽[3](2020)在《蒙古语肃北话辅音声学研究》文中研究表明进入21世纪后,保护弱势语言、抢救濒危语言是世界各国共同面临的紧迫任务。而中国语言文字的发展是离不开少数民族语言的进一步发展,因此加速推进少数民族语言文字的标准化、规范化和信息化进程,保护弱势语言、抢救濒危语言的工作尤为重要。在我国少数民族语言中,有的语言正处于濒临失传的境地,因此针对正在消失或被同化的语音现象,本文以位于甘肃省酒泉市肃北蒙古县为调查点,蒙古语肃北话为研究对象,并在前辈们的研究理念和基础上,利用建设“中国少数民族语言语音声学参数统一平台”的原理和方法,建立“蒙古语肃北话语音声学参数数据库”,从而对蒙古语肃北话辅音音位进行了系统的定量与定性分析。第一部分主要从肃北蒙古自治县的地理位置、蒙古语肃北话的研究综述、本次研究中所运用的方法、设备和软件以及建立“蒙古语肃北话语音声学参数数据库”的概况等方面进行介绍(绪论)。而第二部分是本文的正文也是本次研究的重点,主要对“蒙古语肃北话语音声学参数数据库”中出现的塞音、塞擦音、擦音以及浊辅音等音位的分布特征、出现频率的统计、词中位置与声学参数之间的关系等方面进行了统计分析(第二章至第五章);经本次研究我们初步得出,蒙古语肃北话中有双唇塞音[p][ph]、舌尖塞音[t][th]和舌根塞音[k][kh]等6个塞音,[t∫][t∫h][ts][tsh]等4个塞擦音,[s][∫][x]等3个清擦音,7个浊辅音,分别是鼻辅音[n][m][(?)],边音[1],近音[j][w],颤音[(?)]等20个单辅音以及42组复辅音组合等初步结论。本文主要利用的“中国少数民族语言语音声学参数统一平台”是致力于开发一个基于互联网技术的中国少数民族语言资源和技术在线服务平台。希望本文能够对本“统一平台”以及民族语言言语声学工程研究和提供语音学基础数据资源,还为蒙古语方言研究领域和语言保护工作中能起到作用。
付茜雯[4](2020)在《计算机科技论文摘要的机翻错误类型及译后编辑》文中研究表明科研论文在知识传播过程中作用重大,推动国际范围内的知识共享。摘要是科研论文中必不可少的一部分,既是对论文的概括性总结,也是读者发现和探寻相关领域知识的快捷途径。然而,目前英文摘要的机器翻译质量在精确性和专业性方面都不尽人意,需要通过后期编辑和人工校对才能产出高质量的中文翻译文本。本文以计算机科学论文摘要为例,对谷歌机器翻译的300篇计算机英文论文摘要的中文版本进行了翻译错误类型分析并归类,并提出相应的译后编辑策略。首先在赖斯文本类型理论翻译策略指导下,对机器翻译系统生成的译文进行译后编辑,再邀请计算机专业以及翻译专业的专业人士进行确认。之后以DQF-MQM错误类型分类框架为依据,对机器翻译系统生成的译文中的错误进行分类。研究发现,机器翻译的计算机英文论文摘要的中文版本中存在七大类翻译错误,其中不符合中文表达习惯的翻译错误占比最大,其次是术语误译、误译、欠译、漏译、过译以及赘译。本论文研究发现,由于源文本的信息型学术文本特征,长难句、被动语态以及术语翻译是造成机器翻译错误的主要原因。针对源文本的逻辑缜密、语步序固定等特征,本研究针对性地对各类错误类型提出了相应译后编辑策略。建议译者在译后编辑中通过将隐性连接转换为显性连接从而保持源文逻辑性,通过增加主语以及调整语序处理被动语态保持源文的学术精准,通过恰当选取词意处理半技术词汇等。本研究采用定性和定量分析方法,系统归类了计算机科技文本摘要中机器翻译出现的错误,并提出相应译后编辑策略,为该领域的译者提供参考建议,从而提高该领域的机器翻译质量。
孙磊[5](2020)在《复杂声学场景下多人对话语音识别的预处理方法研究》文中研究表明现如今,人工智能产业正处于快速发展的阶段,各种智能算法、智能硬件等层出不穷,它们将在不远的将来深刻改变人们的生活。为了方便人与智能设备之间自然无障碍的交流,首要任务就是推进针对语音识别的研究,即让机器明白人类的语言,并将其转换为精准的文本信息。可以想象,通过语音识别可以方便的将人类各种指令、需求发送给机器,机器能够做出相对反应并能够反过来与人进行交互,这就是人们心中所畅想的“智能机器人”所能达到的水平。在一代又一代研究人员的努力推动下,语音技术的发展已经取得了不小的成就。目前最先进的语音识别系统,在相对安静无干扰的场景下,能够达到相当高的识别性能。在某些特定场景下,更是有研究宣称超过了人类速记员的水平。然而,在智能语音识别技术真正落地的时候,由于真实场景的复杂度极大,理想的语音识别水平并不那么容易达到。一方面,语音信号以声波的形式在空气等媒介中从发声源传播至接收端。在这个传播的过程中会遇到各种各样的干扰因素,如环境背景噪声、混响等,会大大降低语音质量和可懂度。所以,让机器准确地识别如此多复杂因素干扰后的信号也是巨大的挑战。另一方面,目前绝大部分研究围绕着对单个目标语音的识别问题,即在当前时刻仅有一个说话人发声。当说话人数量增加,不同人的语音混叠在一起,会使得识别准确率急剧下降。综合两方面,针对复杂声学场景下的多人对话语音识别问题,仍然是一个丞待解决的难点。通常地,可以将整个语音识别处理过程分为前端算法和后端算法两个主要部分来看待。后端算法指涉及到识别的部分,一般包括声学模型建模,语言模型建模和解码算法等,即从信号直接到识别文本的部分。而前端部分,是为了解决原始接收信号中的干扰问题,为后端算法提供尽可能纯净的语音信号,也可以称作预处理算法。针对不同的干扰类型,有不同的预处理算法,例如在高噪声环境下,需要进行降噪预处理,在高混响场景下,需要进行去混响预处理,在多说话人场景下,需要说话人分割聚类预处理或者语音分离预处理等等。本文围绕多人对话语音识别的问题,研究各种前端预处理算法,目的是提供一个完整的算法处理框架。首先,针对环境噪声问题,主要有传统语音增强算法和基于深度学习的语音增强算法。传统的无监督语音增强算法可以较好地处理平稳噪声,但是却难以处理非平稳噪声。几年来,很多研究证明基于DNN的有监督语音增强算法,相较于传统语音增强算法可以取得很大的性能提升,尤其是在处理非平稳噪声的情况下。然而,它在实际应用中面对复杂场景时存在着推广性问题,如语音失真、可懂度降低等。本文首先引入了长短时记忆模型(LSTM),通过其强大的时序建模能力,来捕捉语音序列的长时特性。另外,在语音增强目标函数的设计上,探究了不同方式的优缺点。同时,引入了多目标学习的方法来捕捉不同方法之间的互补性,最终在算法能力和推广性上均取得了提升,并在NSF Hearable Challenge数据上进行验证,取得了较好的听感提升。其次,针对多说话人混合语音分离的问题,我们提出了一种结合深度学习和传统阵列信号处理的特定说话人语音分离系统。具体来说,我们设计了一个两阶段的单通道特定说话人语音分离框架,该框架基于给定的说话人标注信息,能够利用有限的训练数据下对目标说话人语音进行提取。进一步地,我们将其与阵列算法结合,利用空间信息对目标人进行更加精确的估计,同时避免了多人分离的置换问题。我们在CHiME-5比赛的真实远场多人对话语音数据上验证了算法性能。紧接着,在没有说话人先验信息的情况下,需要说话人分割聚类算法对多人对话数据进行预处理。传统说话人分割聚类研究的场景较为简单,主要集中在广播数据和电话数据上,然而在更加复杂的环境下表现不佳。我们提出基于渐进式多目标的语音增强模型和基于信噪比估计的语音增强预挑选算法,能够在不同场景下选择合适的增强目标。最终,在DIHARD比赛上验证了整体设计的有效性。最后,对复杂声学场景下的多人对话语音识别任务,我们在无任何先验知识的条件下,提出了多阵列语音分离算法,直接从远场数据中对多个说话人同时进行估计。分离后的语音能够帮助降低说话人分割聚类系统的混淆性,并最终提升多人语音识别的效果。在本文结尾,我们总结了所有研究工作,并对未来工作进行了展望。
晋松[6](2020)在《基于LZW的海底声学探测数据压缩方法研究与实现》文中提出声学探测技术在海洋勘探领域发挥着至关重要的作用,随着声学探测技术的提高,海底声学探测数据量剧增,必然对海底探测仪器的存储以及传输信道提出了挑战,而数据压缩技术可为以上问题提供很好的解决方案以及实践指导。对于声学探测数据的实时数据压缩技术,目前在实际勘探中应用并不广泛,因此,搭载实时数据压缩技术的声学探测设备有着巨大的开发价值与应用前景。本文基于LZW(Lempel-Ziv-Welch)无损压缩算法,从物理算法模拟和数据压缩算法硬件移植两方面着手,研究海底声学探测数据的实时压缩方法及实现技术。物理算法模拟方面,以实际的海底地震仪探测的数据为数据源,在计算机平台测试LZW算法的压缩效果,并对压缩结果进行内存上的重新划分,极大程度上减少压缩结果的内存占用,改善压缩效果,并结合压缩效果分析压缩算法的可行性。在数据压缩的硬件移植方面,在算法研究的基础上,研究基于FPGA(Field Programmable Gate Array)硬件平台的LZW硬件电路压缩实现方法,研制数据实时采集和实时压缩的电路,实现数据压缩算法的硬件化。在物理算法模拟和数据压缩算法硬件移植工作的基础上,基于QT平台开发具有解压功能的上位机软件。通过理论分析和软硬件设计,实现声学数据的压缩,提高数据传输有效速率,提升海底声学探测设备的有效存储能力。在数据压缩算法硬件移植以及QT上位机解压软件开发完成后,在实验室进行数据压缩硬件电路以及上位机软件联调,验证了整个压缩及解压流程的正确性,实现了声学数据压缩与解压,提高了数据传输的有效速率,提升了海底声学探测设备的有效作业能力,对国内今后研制具有搭载数据压缩模块的海底声学探测仪器的研发具有很好的指导意义。
姚帆[7](2019)在《互联网教育的视频云笔记及其内容分析研究》文中研究表明当今社会,互联网在线教学和课堂面对面教学是教育行业两种主要的教学方式,互联网在线教学打破课堂面对面教学在时间、空间的限制,为学习者提供丰富的教学资源和多样的学习平台。然而,学习多样化改变的同时,学习辅助工具并没有突破性的进展,尤其是视频云笔记。视频云笔记作为学习者和视频资源交互的工具,可以提供便捷的笔记记录方式、完善的笔记分享机制及个性化的笔记服务。一个完善的视频云笔记可以发挥笔记内容的潜能,挖掘教学视频的重点和难点,也有利于帮助学习者构建完善的知识体系。现有的视频云笔记中,学习者采用传统键盘输入方式记录笔记,同时观看视频和操作键盘会降低学习者学习效率,如果能将便捷且人机交互性好的语音识别技术融入其中,则会很大程度改善这一现象。而且在视频学习过程中,学习者只重视笔记内容的回忆巩固,研究人员也对学习者笔记内容的分析研究知之甚微,这样不利于发挥笔记内容的潜在作用。基于以上问题,本文的主要贡献如下:1、对语音识别技术中的DNN-HMM声学模型进行研究。分析深度神经网络模型的组成和训练,结合隐马尔科夫模型建立基于视频云笔记的DNN-HMM声学模型,将它们进行解析、设计和训练,采用THCHS30中文语料库和人工录制的实验数据测试DNN-HMM声学模型在视频云笔记语音识别中的准确率。实验结果表明,该模型的词错误率和句错误率都低于传统的GMM-HMM模型,能够有效提高视频云笔记的学习质量。2、深入分析学习者笔记内容,利用TF-IDF算法提取笔记内容热点。首先针对传统TF-IDF算法对笔记内容热点提取中的不足,并结合笔记篇幅简短、言简意赅、标题正文分开的特点,提出一种基于笔记内容热点分析的改进算法TF-IDF-G,在算法中引入笔记词性和位置权重因子。然后对笔记内容进行中文分词、词性标记和位置获取处理。最后采用学习平台笔记数据集验证TF-IDF-G算法在笔记内容热点提取的正确性。最后,以西安电子科技大学网络与继续教育学院学习平台为对象,实现一款面向在线学习的视频云笔记。把训练好的DNN-HMM声学模型应用到视频云笔记的语音听写笔记记录中,并采用TF-IDF-G算法对笔记内容进行分析,提取笔记内容热点。实验表明,DNN-HMM声学模型和TF-IDF-G算法能够有效改善互联网教育的视频学习机制,从而提高学习者的学习热情和效率。
季朝鲁门(Ji Cholmen)[8](2019)在《基于语音声学参数库的新疆图瓦语元音研究》文中指出本文利用“图瓦语语音声学参数库”,采用定量和定性相结合的分析方法,对新疆图瓦语长短元音、复合元音、元音和谐律和词重音等问题进行了比较系统的研究。本论文由绪论、正文、讨论、参考文献和附录等部分构成。第一章是绪论部分,主要介绍了有关图瓦人、图瓦语的研究概况、意义、内容、方法和研制数据库等内容。第二章主要探讨了词首音节、非词首音节短元音问题。词首音节中出现了[?]、[e]、[i]、[?]、[?]、[y]、[o]、[?]、[u]、[?]、[?]等11个短元音,归类于/?/、/e/([?])、/i/、/?/、/?/、/y/、/o/([?])、/u/、/?/等9个元音音位;非词首音节中出现了[?]、[?]、[i]、[e]、[?]、[y]、[?]、[?]、[u]、[?]、[o]、[?]等12个短元音,归类于/?/、/?/、/i/、/?/([e])、/y/、/?/、/?/、/u/、/o/([?])等9个短元音音位。第三章主要探讨了词首音节、非词首音节长元音问题。词首音节中出现了[??]、[e?]、[i?]、[??]、[??]、[y?]、[o?]、[??]、[u?]、[??]等10个长元音,归类于/??/、/e?/、/i?/,/??/、/??/、/y?/、/o?/([??])、/u?/、/??/等9个长元音音位。图瓦语非词首音节中出现了/??/、/e?/、/i?/、/??/、/??/、/y?/、/o?/、/u?/、/??/等9个长元音音位。第四章主要探讨了图瓦语复合元音问题。图瓦语中出现了[?i]、[ei]、[oi]、[o?]、[ui]、[?i]等6个复合元音。图瓦语复合元音[?i]、[ei]、[?i]、[ui]、[oi]均有前响复合元音特征,没有出现后响复合元音。第五章主要探讨了图瓦语的元音和谐律。部位和谐较严整,而唇位和谐基本打破了元音和谐律的规则。第六章主要探讨了词重音问题,主要包含以下几个内容:1词重音位置与词中长短元音的分布有着密切关系;2随着音节个数的增多各个音节音强依次增强,词重音也随之后移;3同样,音节个数的增多各个音节音高也随之增高,词重音也随之后移。
王鑫[9](2019)在《智能语音会议纪要系统的设计与实现》文中提出随着人工智能技术的发展,越来越多的研究者和开发者使用机器学习和深度学习的算法开发出更加智能化的应用。人工智能领域包括机器人、语音识别、图像识别、自然语言处理和专家系统。在日常生活中,语音识别和自然语言处理应用最为广泛,但是这些算法在使用上比较单一,没有将两种或多种组合算法和技术应用到同一个场景中。技术是自然语言处理中应用最为广泛的技术之一,该技术在不改变大篇幅文档原意的情况下,自动的总结生成主要内容。在这个海量的信息时代,这项用简短的文本表达信息主要内容的技术,有利于缓解信息过载问题。机器情感分析是人们对问题、事件或话题的观点、情绪和态度的计算研究。情感分析技术使得机器通过语音和文字来感知情感,在特定场景下,利用语音和文字的情感,发掘潜在的用户信息和商业信息。本文基于深度学习中语音识别技术、文本摘要抽取技术和情感分析技术实现了智能语音会议纪要系统。首先,系统语音处理模块由说话人分类模块和语音识别模块组成。语音处理模块用于将会议语音转化为会议剧本。说话人分类模块利用说话人多音频流时间轴策略对会议语音中的说话人进行分类和标记,主要研究和实现了语音端点检测技术。语音识别模块主要研究语音识别现有的优秀算法,尤其是带有注意力机制的语音识别算法,并对比常用语音识别模型的精度和响应时间。其次,系统文本处理模块是由文本摘要模块和情感分析模块组成。文本处理模块将语音处理模块输出的会议剧本作为输入,提取总结会议摘要并对会议总结进行情感分析,分析会后参会人员实施的可能性。文本摘要模块介绍了文本词向量化技术,研究了摘要提取和生成的技术,其中包括:抽取式摘要技术和生成式摘要技术,同时实现了基于ELMo词向量技术和注意力机制的摘要抽取模型的文本摘要模型。情感分析模块研究了音频情感特征提取方法,情感分析双向LSTM模型,并利用TensorFlow深度学习框架搭建了语音情感分析模型。最后,系统使用Python中搭建Web服务的引擎技术,将上述模块分别用引擎的方式实现,组合成会议纪要系统。针对不同的功能模块分别做了相应的工程测试,并利用系统测试工具对系统的性能进行测试分析,验证系统,满足需求。
李延鑫[10](2019)在《针对计算机学科资源的垂直搜索引擎的设计与实现》文中指出随着互联网的发展和数据量的指数型增长,各个领域充斥着大量信息。增加网络检索的可靠性和专业性成为了各领域的重要任务。因此,本文把结合垂直搜索引擎的技术开发出针对计算机学科资源的搜索引擎平台作为研究目的。本文首先从用户需求、爬虫结构、分词索引等角度分析了现存的各大搜索引擎的研究现状,结合本设计的需求提出新的要求,对搜索引擎的核心组件数据采集(网络爬虫)、数据处理、索引、检索器等功能和原理进行研究和描述。针对计算机领域的知识进行结构化处理,改善了其搜索功能,在设计搜索引擎时对以下几项技术在实现时进行了优化:一是对爬虫算法进行了优化,引入了爬虫对URL的判别机制,减少了爬虫的爬取次数,从而提高了搜索引擎的运行效率;二是针对计算机学科资源对文本分类和分词方法进行优化,让搜索引擎对这一领域信息判断更加准确;三是根据目前对搜索引擎结果页的研究对系统的用户友好度进行优化。本文主要工作分为以下几个方面:(1)设计爬虫程序和爬虫策略以取得结构化的计算机学科资源数据,对网页代码构造结构树,实现网页分块,根据网页元素信息xpath找到所在的文档对象,获取结构化数据。(2)面对获取数据重复,数据损坏等情况,将Jaccard算法引入到搜索引擎领域,提出通过两步编码的方式用于数据预处理。Jaccard的思想是将两个集合的交集与并集的比例作为两个集合的相似度。结合以上内容本文提出一种重复信息筛选方法,对结构化数据信息进行筛选处理。(3)研究了搜索结果页面要素分布对搜索体验的影响。一方面嵌入新型页面元素,使搜索结果页面呈现垂直化、多样化特征;另一方面结合用户的搜索行为数据,包括眼球、光标、手势、声学等各类数据,实现对用户意图的预测。在以上工作的基础上,对实现的针对计算机学科资源的垂直搜索引擎中的检索功能和网络爬虫进行功能测试,保证系统数据的信息准确性。
二、Index of abstracts appeared in Technical Acoustics(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、Index of abstracts appeared in Technical Acoustics(论文提纲范文)
(1)海洋声学层析成像数据库与可视化软件系统设计(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 选题背景 |
1.2 国内外研究现状 |
1.2.1 海洋数据的管理技术 |
1.2.2 海洋数据的可视化方法 |
1.3 论文主要工作及创新点 |
1.4 论文技术路线 |
1.5 章节安排 |
2 一种自适应的海洋数据组织与管理方案 |
2.1 数据管理技术概论 |
2.2 关系型数据库与非关系型数据库 |
2.2.1 关系模型及数据库应用 |
2.2.2 MySQL数据库简介 |
2.3 数据说明 |
2.4 数据编码方案 |
2.4.1 编码在数据管理中的必要性 |
2.4.2 基于海洋试验数据的编码方案 |
2.5 基于数据编码的自适应的数据组织方式 |
2.5.1 基于MySQL的数据库结构设计 |
2.5.2 数据自适应存储与管理方案 |
2.6 本章小结 |
3 基于图信号处理的海洋数据重建研究 |
3.1 HYCOM数据介绍 |
3.2 数据重建方法 |
3.2.1 传统超分辨率重建方法比较 |
3.2.2 正则化技术在图像重建中的应用 |
3.2.3 图拓扑及图信号处理基础 |
3.2.4 数据重建质量评价方法 |
3.3 HYCOM数据重建图信号处理方法 |
3.3.1 超分辨重建图信号处理方法 |
3.3.2 有效数据与无效数据的边界处理 |
3.4 基于两次图信号处理的HYCOM数据重建 |
3.4.1 图信号处理数据重建两步流程 |
3.4.2 HYCOM数据重建应用场景 |
3.5 本章小结 |
4 基于改进的光线投射算法的海洋环境数据可视化研究 |
4.1 三维可视化的面绘制与体绘制算法 |
4.1.1 面绘制算法 |
4.1.2 体绘制算法 |
4.2 光线投射算法的实现 |
4.2.1 算法基本思想 |
4.2.2 传统光线投射算法的实现 |
4.2.3 传统光线投射算法存在的待改进问题 |
4.3 基于海洋环境数据的光线投射算法研究 |
4.3.1 数据预处理与自动数据分类 |
4.3.2 传输函数设计 |
4.3.3 重采样与图像合成 |
4.4 本章小结 |
5 海洋声学层析成像数据库与可视化软件系统设计实现 |
5.1 软件编程环境介绍 |
5.1.1 开发环境简述 |
5.1.2 涉及数据说明 |
5.2 系统需求及总体设计 |
5.2.1 系统需求分析 |
5.2.2 系统总体框架 |
5.3 数据管理方案 |
5.3.1 数据导入与存储模块 |
5.3.2 数据检索模块 |
5.4 数据可视化方案 |
5.4.1 海洋环境数据显示方案 |
5.4.2 观测数据显示方案 |
5.5 本章小结 |
6 总结 |
6.1 主要工作内容及创新点 |
6.2 进一步研究展望 |
参考文献 |
作者介绍 |
攻读硕士学位期间主要研究成果 |
(2)时序关系依赖的音频语义特征学习方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状与分析 |
1.2.1 帧级别声学特征提取方法 |
1.2.2 片段级时频域特征学习方法 |
1.2.3 基于时间序列建模的音频特征学习 |
1.3 目前存在的主要问题 |
1.4 主要研究内容 |
第2章 基于单尺度基元间时序关系的语义特征学习 |
2.1 引言 |
2.2 BoAW片段级特征学习 |
2.2.1 基于聚类的BoAW片段级特征学习 |
2.2.2 基于稀疏编码的BoAW片段级特征学习 |
2.3 单尺度基元间时序关系的捕捉 |
2.3.1 特征序列的平滑预处理 |
2.3.2 基于线性SVR的时序性特征学习 |
2.3.3 基于非线性SVR的时序性特征学习 |
2.4 实验与分析 |
2.4.1 数据集与实验设置 |
2.4.2 实验结果与讨论 |
2.4.3 与目前主流方法性能对比与分析 |
2.5 本章小结 |
第3章 基于多尺度基元间时序关系的语义特征学习 |
3.1 引言 |
3.2 基于CNN的片段级特征学习 |
3.3 基于金字塔时序池化的多尺度基元间时序关系捕捉 |
3.3.1 时序池化的定义 |
3.3.2 金字塔时序池化网络 |
3.4 实验与分析 |
3.4.1 数据集与前端声学特征提取 |
3.4.2 Event-Net和Scene-Net的训练与评估 |
3.4.3 PTP参数选择与消融实验分析 |
3.4.4 与目前主流方法的性能对比与分析 |
3.5 本章小结 |
第4章 基于任务驱动的时序性语义特征学习 |
4.1 引言 |
4.2 任务驱动时序编码的双层优化问题 |
4.3 双层优化问题的参数求解 |
4.4 时序性语义特征与分类器的联合学习 |
4.5 实验与分析 |
4.5.1 数据集与实验设置 |
4.5.2 区分性映射的有效性实验分析 |
4.5.3 语义特征维度对比分析 |
4.5.4 与目前主流方法的性能对比与分析 |
4.6 本章小结 |
第5章 基于基元语义近邻约束的端到端时序性语义特征学习 |
5.1 引言 |
5.2 语义近邻约束的时序关系捕捉 |
5.2.1 语义近邻筛选 |
5.2.2 语义近邻基元间的时序关系捕捉 |
5.3 语义邻域内受注意的时序关系聚合 |
5.3.1 基于位置编码的时序关系捕捉 |
5.3.2 基于注意力池化的时序关系聚合 |
5.4 基于Res Net的TRo SN-Net和ATRe SN-Net |
5.5 实验与分析 |
5.5.1 数据集与实验设置 |
5.5.2 与主干基线网络的性能对比分析 |
5.5.3 消融实验分析 |
5.5.4 与目前主流方法性能的对比与分析 |
5.6 本章小结 |
结论 |
参考文献 |
攻读博士学位期间发表的论文 |
致谢 |
个人简历 |
(3)蒙古语肃北话辅音声学研究(论文提纲范文)
中文摘要 |
英文摘要 |
第1章 绪论 |
1.1 甘肃肃北蒙古族 |
1.1.1 肃北蒙古族历史溯源 |
1.1.2 肃北蒙古族的现状 |
1.2 蒙古语肃北话研究现状 |
1.2.1 国外研究 |
1.2.2 国内研究 |
1.3 研究意义、内容和方法 |
1.3.1 研究意义和内容 |
1.3.2 研究方法 |
1.4 “蒙古语肃北话语音声学参数数据库”介绍 |
1.4.1 “索引库”的建立 |
1.4.2 “声样库”的建立 |
1.4.3 “语音标注库” |
1.4.4 “声学参数标注库” |
第2章 蒙古语肃北话塞音声学分析 |
2.1 肃北话[p][p~h]辅音声学分析 |
2.1.1 肃北话[p][p~h]辅音的分布特征和出现频率统计 |
2.1.2 肃北话[p][p~h]辅音的声学语图特征和共振峰分布模式 |
2.1.3 肃北话[p][p~h]辅音的词中位置与声学参数之间的关系 |
2.2 肃北话[t][t~h]辅音声学分析 |
2.2.1 肃北话[t][t~h]辅音的出现位置和频率统计 |
2.2.2 肃北话[t][t~h]辅音的声学语图特征和共振峰分布模式 |
2.2.3 肃北话[t][t~h]辅音的词中位置与声学参数之间的关系 |
2.3 肃北话[k][k~h]辅音声学分析 |
2.3.1 肃北话[k][k~h]辅音的出现位置和频率统计 |
2.3.2 肃北话[k][k~h]辅音的声学语图特征和共振峰分布模式 |
2.4 小结 |
第3章 蒙古语肃北话塞擦音声学分析 |
3.1 肃北话[t∫][t∫~h]辅音声学分析 |
3.1.1 肃北话[t∫][t∫~h]辅音的分布特征及出现频率统计 |
3.1.2 肃北话[t∫][t∫~h]辅音的声学语图特征和共振峰分布模式 |
3.1.3 肃北话[t∫[t∫~h]辅音的词中位置与声学参数之间的关系 |
3.2 肃北话[ts][ts~h]辅音声学分析 |
3.2.1 肃北话[ts][ts~h]辅音的分布特征及出现频率统计 |
3.2.2 肃北话[ts][ts~h]辅音的声学语图特征和共振峰分布模式 |
3.2.3 肃北话[ts][ts~h]辅音的词中位置与声学参数之间的关系 |
3.3 小结 |
第4章 蒙古语肃北话擦音声学分析 |
4.1 肃北话[s]辅音声学分析 |
4.1.1 肃北话[s]辅音的分布特征和出现频率统计 |
4.1.2 肃北话[s]辅音的声学语图特征和共振峰分布模式 |
4.1.3 肃北话[s]辅音的词中位置与声学参数之间的关系 |
4.2 肃北话[∫]辅音声学分析 |
4.2.1 肃北话[∫]辅音的分布特征和出现频率统计 |
4.2.2 肃北话[∫]辅音的声学语图特征和共振峰分布模式 |
4.2.3 肃北话[∫]辅音的词中位置与声学参数之间的关系 |
4.3 肃北话[x]辅音声学分析 |
4.3.1 肃北话[x]辅音的分布特征和出现频率统计 |
4.3.2 肃北话[x]辅音的声学语图特征和共振峰分布模式 |
4.3.3 肃北话[x]辅音的词中位置与声学参数之间的关系 |
4.4 小结 |
第5章 蒙古语肃北话浊辅音声学分析 |
5.1 肃北话[n][m][η]辅音声学分析 |
5.1.1 肃北话[n][m][η]辅音的分布特征和出现频率统计 |
5.1.2 肃北话[n][m][η]辅音的声学语图特征 |
5.1.3 肃北话[n][m][η]辅音的词中位置与声学参数之间的关系 |
5.2 肃北话[1]辅音声学分析 |
5.2.1 肃北话[1]辅音的分布特征和出现频率统计 |
5.2.2 肃北话[1]辅音的声学语图特征 |
5.2.3 肃北话[1]辅音的词中位置与声学参数之间的关系 |
5.3 肃北话[j][w]辅音声学分析 |
5.3.1 肃北话[j][w]辅音的分布特征和出现频率统计 |
5.3.2 肃北话[j][w]辅音的声学语图特征 |
5.3.3 肃北话[j][w]辅音的词中位置与声学参数之间的关系 |
5.4 肃北话/r/辅音声学分析 |
5.4.1 肃北话[(?)]辅音的分布特征和出现频率统计 |
5.4.2 肃北话[(?)]辅音的声学语图特征 |
5.4.3 肃北话[(?)]辅音的词中位置与声学参数之间的关系 |
5.5 肃北话浊辅音复辅音分析 |
5.5.1 肃北话前置辅音为鼻音的复辅音 |
5.5.2 肃北话前置辅音为边音的复辅音 |
5.5.3 肃北话前置辅音为闪音的复辅音 |
5.6 小结 |
结论 |
参考文献 |
附录1 |
附录2 |
致谢 |
(4)计算机科技论文摘要的机翻错误类型及译后编辑(论文提纲范文)
摘要 |
Abstract |
CHAPTER1 INTRODUCTION |
1.1 Research Background and Significance |
1.2 Aims of the Study |
1.3 Organization of the Thesis |
CHAPTER2 LITERATURE REVIEW AND FRAMEWORK |
2.1 Overview on Machine Translation and Post-editing |
2.2 Previous Studies on MT Error Types and Post-Editing Strategies |
2.3 DQF-MQM Error Classification Framework |
2.4 Previous Studies on MT Error Types of Paper Abstracts |
2.5 Text Typology Theory |
2.5.1 Text Typology Theory of Reiss |
2.5.2 Previous Studies on Informative Texts and Translation Principles |
CHAPTER3 METHODOLOGY |
3.1 Source Text and Text Analysis |
3.1.1 Source Text |
3.1.2 Text Analysis |
3.2 Research Method |
3.3 Translation Process |
3.3.1 Translating300 computer science abstracts with MT system |
3.3.2 Post-editing the MT-generated translation based on Text Typology Theory |
3.3.3 Conducting a semi-structured interview for ensuring post-editing quality |
3.3.4 Analyzing and summarizing the errors in300 abstracts |
3.3.5 Preliminary error classifications based on DQF-MQM Framework |
3.3.6 Conducting the2nd semi-structured interview to confirm error classifications |
3.3.7 Quantitative analysis of all MT errors in the300 abstracts |
CHAPTER4 RESULTS AND DISCUSSION |
4.1 Error Types of Machine Translated English Abstracts |
4.1.1 Unidiomatic Translation Errors in MT output |
4.1.2 Terminology Mistranslation Errors in MT Output |
4.1.3 Mistranslation Errors in MT Output |
4.1.4 Under-translation Errors in MT Output |
4.1.5 Omission Translation Errors in MT Output |
4.1.6 Over-translation Errors in MT Output |
4.1.7 Errors of Addition in MT Output |
4.2 Post-editing Strategies for Machine Translated Abstracts |
4.2.1 Post-editing Strategies for Long and Complex Sentences |
4.2.2 Post-editing Strategies for Passive Voice Sentences |
4.2.3 Post-editing Strategies for Technical Terms |
CHAPTER5 CONCLUSION |
5.1 Major Findings |
5.2 Limitations and Suggestions |
References |
Appendix Source Texts and Target Texts of300 Abstracts |
1-20 Abstracts |
21-40 Abstracts |
41-60 Abstracts |
61-80 Abstracts |
81-100 Abstracts |
101-120 Abstracts |
121-140 Abstracts |
141-160 Abstracts |
161-180 Abstracts |
181-200 Abstracts |
201-220 Abstracts |
221-240 Abstracts |
241-260 Abstracts |
261-280 Abstracts |
281-300 Abstracts |
ACKNOWLEDGEMENTS |
(5)复杂声学场景下多人对话语音识别的预处理方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 语音识别概述 |
1.1.1 语音识别简介及研究历史 |
1.1.2 语音识别系统基本框架 |
1.1.3 复杂场景下多人对话语音识别问题 |
1.2 语音增强算法概述 |
1.2.1 单通道增强算法 |
1.2.2 多通道增强算法 |
1.3 语音分离算法概述 |
1.4 说话人分割聚类算法概述 |
1.5 本文的研究内容和组织安排 |
1.5.1 本文的研究内容 |
1.5.2 本文的组织安排 |
第2章 深度学习算法在不同预处理方向中的应用 |
2.1 引言 |
2.2 深度学习在语音增强中的应用 |
2.2.1 基于频域特征的语音增强 |
2.2.2 基于时域信号的语音增强 |
2.3 深度学习在语音分离中的应用 |
2.3.1 说话人相关的语音分离 |
2.3.2 说话人无关的语音分离 |
2.4 深度学习在说话人分割聚类中的应用 |
2.5 本章总结 |
第3章 基于长短时记忆模型的多目标语音增强 |
3.1 引言 |
3.2 长短时记忆网络 |
3.3 基于长短时记忆模型的多目标语音增强 |
3.3.1 不同的语音增强学习目标 |
3.3.2 多目标学习网络 |
3.3.3 多目标网络输出的融合 |
3.4 实验和结果 |
3.4.1 实验配置 |
3.4.2 增强结果 |
3.5 本章总结 |
第4章 面向多人对话语音的特定说话人分离算法 |
4.1 引言 |
4.2 CHiME-5数据分析 |
4.3 前端系统介绍 |
4.3.1 多通道预处理 |
4.3.2 单通道语音增强 |
4.3.3 基于特定说话人的语音分离 |
4.3.4 结合深度学习先验的传统阵列处理算法 |
4.3.5 基于说话人掩码的后置滤波 |
4.4 实验结果及分析 |
4.4.1 实验配置 |
4.4.2 基于特定说话人的语音分离模型实验 |
4.4.3 结合多通道波束形成的实验 |
4.4.4 最终融合结果 |
4.5 本章总结 |
第5章 面向复杂场景下说话人分割聚类的语音增强 |
5.1 引言 |
5.2 说话人分割聚类系统简介 |
5.3 针对说话人分割聚类的鲁棒性前端算法 |
5.3.1 结合多目标学习的渐进式语音增强算法(PL-MTL) |
5.3.2 多目标渐进式语音增强算法(PMT) |
5.3.3 基于信噪比估计的选择性增强策略 |
5.4 说话人分割聚类数据简介 |
5.5 实验结果和分析 |
5.5.1 对比传统的与基于深度学习的语音增强 |
5.5.2 改进的多目标渐进式语音增强算法 |
5.6 本章总结 |
第6章 多人对话语音识别的完整预处理框架 |
6.1 引言 |
6.2 问题描述 |
6.3 基于多阵列分离算法的前端系统 |
6.3.1 基于深度学习的多阵列语音分离 |
6.3.2 基于空间聚类的时频掩码重估计 |
6.4 实验和结果 |
6.4.1 实验配置 |
6.4.2 实验结果 |
6.5 本章总结 |
第7章 总结 |
7.1 本文的主要贡献与创新点 |
7.2 后续的研究工作 |
参考文献 |
在读期间发表的学术论文与取得的研究成果 |
致谢 |
(6)基于LZW的海底声学探测数据压缩方法研究与实现(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状和发展趋势 |
1.3 本文研究的主要内容和章节安排 |
1.4 本章小结 |
第2章 数据压缩算法分析 |
2.1 常用无损数据压缩算法简介 |
2.2 数据压缩性能指标 |
2.3 LZW数据压缩算法原理分析 |
2.4 LZW算法压缩流程的实现 |
2.5 压缩结果的内存重新分配 |
2.6 LZW算法解压流程的实现 |
2.7 本章小结 |
第3章 LZW数据压缩算法软件仿真测试 |
3.1 LZW数据压缩算法软件测试 |
3.2 LZW数据压缩算法正确性验证 |
3.3 LZW数据压缩算法软件测试效果总结 |
3.4 本章小结 |
第4章 LZW数据压缩算法的硬件实现 |
4.1 硬件顶层设计 |
4.2 基于FPGA的 LZW数据压缩整体方案设计 |
4.3 数据压缩FPGA硬件系统验证测试 |
4.4 本章小结 |
第5章 LZW数据压缩算法的解压上位机软件开发 |
5.1 解压软件整体方案设计 |
5.2 解压软件测试 |
5.3 本章小结 |
第6章 综合测试 |
6.1 综合测试思路 |
6.2 测试结果 |
6.3 性能分析 |
6.4 本章小结 |
第7章 工作与展望 |
7.1 工作总结 |
7.2 工作展望 |
致谢 |
参考文献 |
个人简介 |
(7)互联网教育的视频云笔记及其内容分析研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 云笔记研究现状 |
1.2.2 语音识别研究现状 |
1.2.3 关键词提取技术研究现状 |
1.3 研究内容及结构 |
第二章 相关理论与技术 |
2.1 视频云笔记中的语音识别技术 |
2.1.1 语音识别概述 |
2.1.2 语音识别基本原理 |
2.1.3 语音信号处理 |
2.1.4 语音识别模型 |
2.1.5 解码器 |
2.2 笔记内容分析 |
2.2.1 内容关键词提取 |
2.2.2 关键词提取算法 |
2.3 本章小结 |
第三章 基于视频云笔记的语音识别声学模型研究 |
3.1 深度信念神经网络 |
3.2 深度神经网络模型 |
3.2.1 DNN组成 |
3.2.2 DNN训练 |
3.3 隐马尔科夫模型 |
3.3.1 HMM概述 |
3.3.2 HMM分类和结构 |
3.4 基于DNN-HMM的声学模型研究 |
3.4.1 Kaldi语音识别 |
3.4.2 DNN-HMM解析 |
3.4.3 DNN-HMM设计 |
3.4.4 DNN-HMM训练 |
3.5 模型测试与分析 |
3.5.1 数据准备 |
3.5.2 测试结果分析 |
3.6 本章小结 |
第四章 基于TF-IDF算法的笔记内容分析 |
4.1 笔记内容处理 |
4.1.1 中文分词 |
4.1.2 词性标记 |
4.1.3 位置获取 |
4.2 基于传统TF-IDF的笔记内容热点提取算法 |
4.2.1 提取笔记内容热点的实现 |
4.2.2 提取笔记内容热点的不足 |
4.3 基于改进TF-IDF的笔记内容热点提取算法 |
4.3.1 评价指标 |
4.3.2 改进算法基本思想 |
4.3.3 改进算法提取笔记内容热点的实现 |
4.4 算法测试与分析 |
4.4.1 数据准备 |
4.4.2 测试结果分析 |
4.5 本章小结 |
第五章 视频云笔记在互联网教育中的应用 |
5.1 视频云笔记总体设计 |
5.1.1 架构设计 |
5.1.2 技术框架 |
5.2 视频云笔记模块测试 |
5.2.1 笔记记录 |
5.2.2 视频转化 |
5.2.3 视频定位 |
5.3 笔记内容采集和分析 |
5.3.1 笔记内容采集 |
5.3.2 笔记内容分析 |
5.4 性能测试和评价 |
5.4.1 浏览器兼容性测试 |
5.4.2 平台性能测试 |
5.4.3 系统评价 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 论文总结 |
6.2 论文展望 |
参考文献 |
致谢 |
作者简介 |
(8)基于语音声学参数库的新疆图瓦语元音研究(论文提纲范文)
论文摘要 |
abstract |
第一章 绪论 |
1.1 新疆图瓦蒙古人和图瓦语 |
1.1.1 图瓦蒙古人 |
1.1.2 图瓦语 |
1.2 图瓦语研究综述 |
1.2.1 国外研究 |
1.2.2 国内研究 |
1.3 研究意义、研究内容、研究方法 |
1.3.1 研究意义、研究内容 |
1.3.2 研究方法 |
1.4 “图瓦语语音声学参数库”介绍 |
1.4.1 “索引库”的建立 |
1.4.2 “声样库”的建立 |
1.4.3 “语音标注库” |
1.4.4 “声学参数标注库” |
第二章 图瓦语短元音声学分析 |
2.1 词首音节短元音声学分析 |
2.2 词首音节短元音声学参数对比 |
2.2.1 音长对比 |
2.2.2 不同音节数量对词首音节短元音音长的影响 |
2.2.3 音强对比 |
2.2.4 音长、音强对比 |
2.3 非词首音节短元音声学分析 |
2.4 非词首音节短元音声学参数对比 |
2.4.1 非词首音节短元音音长比较 |
2.4.2 非词首音节短元音音强比较 |
2.4.3 非词首音节音长、音强比较 |
2.5 词首音节短元音和非词首音节短元音比较 |
2.5.1 词首音节短元音和非词首音节短元音声学空间对比 |
2.5.2 词首音节短元音和非词首音节短元音音长对比 |
2.5.3 词首音节短元音和非词首音节短元音音强对比 |
2.6 小结 |
第三章 图瓦语长元音声学分析 |
3.1 词首音节长元音声学分析 |
3.2 词首音节长元音声学参数对比 |
3.2.1 词首音节长元音音长比较 |
3.2.2 词首音节长元音音强比较 |
3.2.3 词首音节长元音音长、音强比较 |
3.3 非词首音节长元音声学分析 |
3.4 非词首音节长元音声学参数对比 |
3.4.1 非词首音节长元音音长对比 |
3.4.2 非词首音节长元音音强对比 |
3.4.3 非词首音节长元音音长、音强对比 |
3.5 词首音节长元音和非词首音节长元音比较 |
3.5.1 词首音节短元音和非词首音节短元音声学空间对比 |
3.5.2 词首音节长元音和非词首音节长元音音长对比 |
3.5.3 词首音节长元音和非词首音节长元音音强对比 |
3.6 长元音和短元音对比 |
3.6.1 长元音和短元音的声学空间比较 |
3.6.2 长元音和短元音音长对比 |
3.6.3 长元音和短元音音强对比 |
3.7 小结 |
第四章 图瓦语复合元音 |
4.1 图瓦语复合元音问题 |
4.2 复合元音共振峰分析 |
4.3 复合元音音长、音强对比 |
4.3.1 复合元音音长 |
4.3.2 复合元音音强 |
4.4 小结 |
第五章 图瓦语元音和谐律 |
5.1 元音和谐律的定义 |
5.2 图瓦语元音和谐律概况 |
5.3 不同元音后接相同或不同元音的统计分析 |
5.4 小结 |
第六章 图瓦语词重音 |
6.1 双音节词音律模式 |
6.1.1 音长分布模式 |
6.1.2 音强分布模式 |
6.1.3 音高分布模式 |
6.2 三音节词音律模式 |
6.2.1 音长分布模式 |
6.2.2 音强分布模式 |
6.2.3 音高分布模 |
6.3 四音节词音律模式 |
6.3.1 音长分布模式 |
6.3.2 音强分布模式 |
6.3.3 音高分布模式 |
6.4 小结 |
6.4.1 双音节词重音特点 |
6.4.2 三音节词重音特点 |
6.4.3 四音节词重音特点 |
第七章 讨论 |
参考文献 |
攻读学位期间发表的论文目录 |
致谢 |
(9)智能语音会议纪要系统的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 课题研究背景与意义 |
1.1.1 会议及其现实问题 |
1.1.2 课题研究意义 |
1.2 国内外研究现状 |
1.2.1 语音识别技术的现状概述 |
1.2.2 文本摘要技术的现状概述 |
1.2.3 情感分析技术的现状概述 |
1.2.4 现有会议系统概述 |
1.3 研究内容和研究重点 |
1.4 本文组织结构 |
第二章 相关技术 |
2.1 语音识别概述 |
2.1.1 语音识别过程 |
2.1.2 语音模型 |
2.2 自动文本摘要技术 |
2.2.1 词向量空间模型 |
2.2.2 生成式文本摘要 |
2.3 情感分析概述 |
2.3.1 情感分析简介 |
2.3.2 情感分析过程 |
2.4 WebAPI开发技术 |
2.4.1 Nginx服务器 |
2.4.2 Flask Web开发框架 |
2.4.3 Supervisor进程管理 |
2.5 本章小结 |
第三章 智能语音会议纪要系统总体设计 |
3.1 智能语音会议纪要系统的需求分析 |
3.2 智能语音会议纪要系统的架构设计 |
3.2.1 智能语音会议纪要系统业务结构图 |
3.2.2 智能语音会议纪要系统模块架构图 |
3.3 智能语音会议纪要系统的数据库设计 |
3.4 智能语音会议纪要系统的局部模块设计 |
3.4.1 语音识别模块的设计 |
3.4.2 情感分析模块的设计 |
3.5 本章小结 |
第四章 智能语音会议纪要系统功能模块 |
4.1 说话人分类关键技术算法与实现 |
4.1.1 说话人多音频流时间轴策略 |
4.1.2 语音端点检测算法 |
4.1.3 说话人分类模块实现 |
4.2 语音识别模块关键技术算法与实现 |
4.2.1 语音识别算法研究 |
4.2.2 语音识别模块实现 |
4.3 文本摘要模块关键算法与实现 |
4.3.1 文本摘要算法研究 |
4.3.2 文本摘要算法实现 |
4.4 情感分析模块键技术算法与实现 |
4.4.1 情感分析技术研究 |
4.4.2 情感分析技术实现 |
4.5 本章小结 |
第五章 系统其他功能模块的设计与实现 |
5.1 会议数据抓取技术实现 |
5.1.1 定时任务 |
5.1.2 数据抓取与优化 |
5.2 系统负载均衡 |
5.3 本章小结 |
第六章 测试与结果分析 |
6.1 系统环境 |
6.2 算法与功能测试 |
6.2.1 说话人分类功能测试 |
6.2.2 语音识别功能测试 |
6.2.3 文本摘要算法实验 |
6.2.4 情感分析算法实验与功能测试 |
6.3 系统测试 |
6.3.1 性能测试 |
6.3.2 接口测试 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 本文总结 |
7.2 未来展望 |
参考文献 |
致谢 |
作者简介 |
(10)针对计算机学科资源的垂直搜索引擎的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题来源及意义 |
1.2 国内外研究现状 |
1.3 研究内容 |
1.4 文章结构 |
第二章 基本理论 |
2.1 技术概述 |
2.2 垂直搜索引擎技术 |
2.3 网络爬虫技术 |
2.4 分词技术 |
2.5 索引技术 |
2.6 Lucene研究 |
2.7 本章小结 |
第三章 搜索引擎优化研究 |
3.1 采集模块的优化 |
3.2 文本分类与分词的优化 |
3.3 面向用户的优化 |
3.4 本章小结 |
第四章 针对计算机学科资源的垂直搜索引擎设计 |
4.1 针对计算机学科资源的垂直搜索引擎的功能与目标 |
4.2 总体设计 |
4.3 数据采集模块设计 |
4.4 数据预处理和索引模块设计 |
4.5 本章小结 |
第五章 实验数据和运行测试 |
5.1 实验环境 |
5.2 爬虫原始数据集 |
5.3 搜索功能实现 |
5.5 爬虫程序测试 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
个人简介 |
四、Index of abstracts appeared in Technical Acoustics(论文参考文献)
- [1]海洋声学层析成像数据库与可视化软件系统设计[D]. 董晨语. 浙江大学, 2021(01)
- [2]时序关系依赖的音频语义特征学习方法研究[D]. 张力文. 哈尔滨工业大学, 2021(02)
- [3]蒙古语肃北话辅音声学研究[D]. 刘秀丽. 西北民族大学, 2020(08)
- [4]计算机科技论文摘要的机翻错误类型及译后编辑[D]. 付茜雯. 大连理工大学, 2020(06)
- [5]复杂声学场景下多人对话语音识别的预处理方法研究[D]. 孙磊. 中国科学技术大学, 2020(01)
- [6]基于LZW的海底声学探测数据压缩方法研究与实现[D]. 晋松. 长江大学, 2020(02)
- [7]互联网教育的视频云笔记及其内容分析研究[D]. 姚帆. 西安电子科技大学, 2019(02)
- [8]基于语音声学参数库的新疆图瓦语元音研究[D]. 季朝鲁门(Ji Cholmen). 西北民族大学, 2019(02)
- [9]智能语音会议纪要系统的设计与实现[D]. 王鑫. 西安电子科技大学, 2019(02)
- [10]针对计算机学科资源的垂直搜索引擎的设计与实现[D]. 李延鑫. 宁夏大学, 2019(02)