基于直接数据访问的并行文件系统

基于直接数据访问的并行文件系统

一、基于直接数据访问的并行文件系统(论文文献综述)

吴嘉澍,王红博,代浩,须成忠,王洋[1](2020)在《基于机器学习的动态分区并行文件系统性能优化》文中研究指明近年来,随着大数据、云计算技术的发展,应用系统越来越集中,规模亦越来越大,使得存储系统的性能问题越来越突出。为应对其性能要求,并行文件系统得到了大量的应用。然而现有的并行文件系统优化方法,大多只考虑应用系统或并行文件系统本身,较少考虑两者之间的协同。该文基于应用系统在并行文件系统上的访问模式对存储系统的性能有显着影响这一特点,提出基于动态分区的并行文件系统优化方法。首先,利用机器学习技术来分析挖掘各个性能影响因素和性能指标之间的关系和规律,生成优化模型。其次,以优化模型为基础,辅助并行文件系统的参数调优工作。最后,基于Ceph存储系统进行原型实现,并设计了三层架构应用系统进行了性能测试,最终达到优化并行文件系统访问性能的目的。实验结果表明,所提出方法可以达到85%的预测优化准确率;在所提出模型的辅助优化下,并行文件系统的吞吐量性能得到约3.6倍的提升。

程鹏[2](2020)在《面向高性能计算系统的融合数据管理关键技术研究》文中研究指明随着高性能计算、大数据与人工智能的不断融合,高性能计算社区亟需同时支持这三种场景的计算系统来加速科学发现。然而,爆炸性增长的科学数据以及不同场景下应用截然不同的I/O特征促使融合应用呈现前所未有的复杂性。与此同时,不断加深的存储层次和多样化的数据定位需求进一步增加数据管理难度,导致高性能计算系统面临严峻的数据存储与管理挑战。为了在高性能计算系统上有效支持融合应用,本文结合层次式存储结构和应用特征,研究融合应用场景下数据管理的关键问题,优化高性能计算系统的数据管理能力并提升应用I/O性能。本文的主要工作包括:1.针对高性能计算系统存储层次不断加深的趋势,本文设计基于层次式存储结构的数据管理系统,统一管理内存、固态硬盘等多个存储层次,为融合应用提供高效数据缓存空间。为充分发挥不同存储层次的性能和容量等特点,该层次式数据管理系统结合应用数据访问模式定制数据管理策略,协调数据在各个存储层次的分布方式。此外,针对存储层次加深引起的数据局部性变化,本文设计数据感知的任务调度机制,配合资源管理系统尽可能将任务调度到拥有数据的计算资源。相比于底层并行文件系统,该层次式数据管理系统能够为应用带来54%的性能提升。2.针对单一数据管理策略无法充分发挥层次存储结构性能优势的问题,本文以科学工作流应用为代表,提出面向融合应用的自适应数据管理技术。本文将层次式存储结构下的数据放置问题抽象为分类问题,提出基于分类模型的智能数据放置策略:该策略以最小化科学工作流应用的总I/O时间为目标,挖掘不同应用特征和系统实时状态下数据放置策略对应用总I/O时间的影响,并训练分类模型智能做出数据放置决策。数据预取问题方面,本文分析科学工作流应用的数据流图拓扑结构和数据访问特征之间的关系,提出针对文件类别的自适应数据预取策略:通过结合局部性预取策略和智能预取策略的各自优势,提升复杂数据访问模式识别能力。相比于固定数据放置策略,本文提出的自适应数据放置策略能够实现34%的I/O性能提升;相比于传统局部性预取策略,本文提出的自适应预取策略识别复杂数据访问模式的能力显着提升,并能够降低54.2%的数据读取时间。3.针对并行文件系统管理海量科学数据时面临的数据定位挑战,本文提出耦合文件系统的索引与查询优化。文件粒度数据定位问题方面,本文设计并发元数据提取机制,快速提取文件系统中已有文件的“应用定制元数据”信息,通过定制的层次式哈希索引结构,高效满足文件粒度定位需求。记录粒度数据定位问题方面,本文采取原位索引构建机制,允许数据在写入文件系统的同时构建索引信息;为了权衡索引粒度与索引构建开销,本文提出轻量级Range-bitmap索引结构;结合本文设计的并行查询处理机制,记录粒度数据定位需求能够被快速响应。对生物和气象等数据集的测试表明,本文设计的文件粒度索引查询方案能够在毫秒内从包含数百万个文件的目录中定位目标文件;本文设计的记录粒度索引查询方案相比于遍历整个数据集定位内部数据的方式实现2个数量级的查询速度提升。

梁伟浩[3](2019)在《E级计算的存储系统突发数据缓存的I/O性能优化》文中认为超级计算机用于自然科学的很多关键领域中进行复杂系统的大规模计算和模拟。随着芯片技术的高速发展,到2020年超级计算机的性能将会达到EFlop/s(每秒百亿亿次浮点运算)。爆发性增长的计算能力同时也导致了科学计算模拟输出的数据规模激增,从而引发了对大型存储系统的高性能I/O需求。例如,在美国超算中心的系统上使用12万个核模拟计算3万亿个粒子的磁重联物理过程,每小时就会产生约100TB的数据。存储和检索如此大规模的突发性产生的数据会极大地影响这些科学应用的整体性能。当前集中式存储的I/O系统也难以提供足够的性能去充分满足极端规模的科学计算平台要求。为此,近年来学术界提出了突发数据缓存(Burst Buffer)结构:它在计算和存储节点之间添加了新型硬件如非易失性存储器作为缓冲层,支持对于大量突发性的I/O请求进行快速处理。但是针对突发数据缓存的设计仍面临许多问题,需要高效的系统软件与该新的存储架构相结合,来满足支持百亿亿次计算的科学应用所要求的极端并行性和性能需求。本文的工作旨在研究数据密集型科学应用在突发数据缓存系统中的I/O性能优化方法。通过分析应用的数据访问特征和存储需求动态调度分配缓存资源以减少应用之间的相互影响。通过异步数据传输实现跨存储层次之间的数据移动优化,从而提高应用的整体性能和存储系统的效率。本文的研究工作和成果主要包括以下三个方面:1.针对共享式突发数据缓存系统上的资源调度展开了研究。通过分析现有针对缓存节点的调度分配策略,发现多应用在共享访问缓存系统时会引发带宽竞争现象导致了应用的I/O性能下降。为了解决突发数据缓存节点的负载不均衡及应用性能瓶颈问题,本文提出了一种基于竞争感知的存储资源分配算法。通过在运行时中实现对应用的数据读写特征和资源需求的实时分析并根据缓存系统中的节点负载分布,该算法会动态分配合理的缓存节点来协调来自大量进程的高度并发I/O访问以最大化每个应用可获得的I/0带宽,降低进程之间的带宽竞争并平衡节点之间的I/O负载。为了进一步研究节点内带宽竞争的产生机制,本文提出了面向多进程并发I/O访问场景的性能模型和三种衡量指标以定量评估不同的调度策略分别对应用和缓存系统产生的性能影响。实验结果表明,相对现有的静态资源调度策略,所提出的竞争感知分配算法可以使应用的平均效率提高25%和突发数据缓存系统的带宽利用率提高20%。2.针对分布式突发数据缓存系统上的数据传输问题展开了研究。计算节点内独立的非易失性存储虽然能提供本地的高I/O带宽以快速处理应用的大量突发性I/O读写请求,但是计算结束后本地数据回传到外部存储系统的时间开销严重地影响应用的总体性能。为了解决这一问题,本文提出了一种自适应可扩展的异步数据传输优化策略。该策略通过在运行时中利用少量的计算核异步地在计算节点中统一地调度处理来自不同进程发出的I/O请求而不影响程序继续其计算,有效地将应用的计算阶段和I/O阶段交替并行地执行以达到隐藏数据传输延迟的目的。在所有计算阶段结束后,通过调用更多的空闲计算核对缓存在本地存储中的数据回传过程实现I/O并行传输优化,进一步降低数据传输的开销。实验结果显示,与默认的同步I/O模式对比,所提出的异步传输优化策略能使科学应用的数据传输时间减少30%。3.针对异构突发数据缓存系统中的数据调度问题展开了研究。由于异构缓存系统中存储介质的多样性,存储层次之间对于应用的I/O访问特征有着不同的性能表现,增加了数据移动的复杂性。本文提出了一种结构感知的动态I/O调度方案,通过运行时透明地在异构缓存系统中不同存储层之间自动地调度数据,加速科学应用的端到端I/O访问过程。本文提出了流量感知的调度优化方法,通过对在计算节点内的进程发出的I/O请求进行动态分流,以降低大量突发性写操作对节点本地缓存带来的带宽压力。针对跨存储层的数据移动问题,本文提出了干扰感知的I/O调度算法,通过将缓存数据动态映射到不同的存储目标以最大化所有存储层的利用率并减少共享缓冲层中应用之间的I/O干扰。实验结果表明,所提出的调度方法能使应用共享访问异构缓存系统时的I/O干扰降低一倍,程序总体性能获得了54%的提升。本文设计的一系列针对突发数据缓存系统的I/O性能优化技术方法解决了数据密集型科学应用在大规模超算系统上并发存储和访问数据所面临的一系列挑战。本文提出的缓存资源分配算法、异步数据传输优化策略和动态I/O调度方案可以作为一般方法论推广应用于其他存储结构。同时,对下一代E级超级计算机的存储系统的改进和软件生态建设也具有参考价值。

黄璜[4](2019)在《基于故障数据预处理的超算系统容错关键技术研究》文中进行了进一步梳理随着超级计算机的规模不断扩大,体系结构日益复杂,系统可靠性的要求也急剧增高,使得与可靠性紧密相关的系统故障预测和研究面临着极大的挑战。超级计算机系统中的故障一般具有瞬时性、多样性以及不确定性,这些因素对故障信息采集、故障预测以及容错提出了更高更复杂的要求。由高效的数据采集能力和快速准确地数据分析能力所构成的数据预处理技术,为面向超算系统的容错技术提供了强大的数据保障。于此同时,E级系统中单个科学计算应用所产生的最大数据规模将从TB级别增长到PB级。而大规模数据采集时要求更高的聚合带宽来降低延迟以增强实时性,因此实时数据采集很容易产生大量的突发性I/O请求。这样的数据密集型应用和突发性I/O可能成为影响系统I/O性能的最大瓶颈,从而影响故障数据采集的效率。与此同时,I/O性能降低也将影响超算系统容错的执行效率。本文针对超级计算机系统可靠性问题以及与之紧密相关的I/O问题,以保障大规模应用在超算系统高效运行和提高I/O密集型应用的存储利用效率为目标,对故障数据预处理技术、容错技术以及与之相关的I/O问题展开了多方位较深入的研究和实验分析,取得的主要成果如下:设计和优化了面向超算系统的故障数据预处理技术。首先,针对当前系统规模不断增大,数据采集效率较低的情况提出了面向超级计算机系统的实时数据采集框架。实时数据采集框架由数据采集器、H2FS和分布式数据采集管理器组成。针对超算系统中可能产生突发性I/O的复杂应用环境,通过加入高效的H2FS为整个采集框架提供了高性能和高可用性的支持。其次,针对运行时应用相关性能信息收集不完整的问题,优化了用来收集和分析典型应用性能特性的性能分析工具的功能,丰富了实时数据采集框架中的采集数据类型。再次,为了提高系统故障分析和诊断的准确性和时效性,提出了基于离线预处理的在线日志模板提取方法。该方法由两部分组成:第一部分,通过对现有离线日志模板技术的研究和分析,设计了一种针对天河超级计算机的离线日志模板提取流程;第二部分,采用我们设计的实时故障数据采集框架,在存储中间层当中快速增量式的在线分析日志。然后将整个设计融入到数据预处理模块当中与实时数据采集模块联合运行。最后,实验结果表明该框架具有较高的性能和较好的可扩展性,同时验证了基于离线预处理的在线日志模板提取方法的准确性,以此证明面向超算系统的故障数据预处理技术的可用性。针对大规模应用在运行时遇到系统故障可能性增大以及涉及的失效节点数量更多的问题,在XOR的检查点/恢复容错方法的基础上,提出了基于多维度XOR的检查点/恢复容错技术。系统的频繁失效会使得那些在超级计算机平台上长时间运行的任务的完成时间大大髙于任务原本所需的执行时间。而传统检查点/恢复技术在恢复所需的时间成本和恢复所需的存储容量之间往往很难取得平衡。为了解决这些问题,我们提出了基于多维度XOR的检查点/恢复容错方法,并对基于数学函数库的容错框架进行了分析和讨论。通过多维度XOR的检查点/恢复容错方法对大规模并行应用进行容错操作,在不过度增加存储容量的情况下又能够较大程度的提高系统的可靠性。最后,通过实验验证了多维度XOR的检查点/恢复容错方法的有效性。为了解决超算系统中大量突发性I/O对系统性能以及容错效率的影响,提出了面向超算系统的存储负载管理模型SWMM。它可以在多个数据密集型应用并行访问文件系统时优化I/O路径,从而提高带宽效率。同时,优化了面向超级计算机存储系统的容量均衡策略,用于解决存储扩展中的容量不平衡问题。这些技术可以进一步提高应用运行的效率,同时一定程度上缓解了容错技术中I/O性能带来的影响。我们在天河-1A超级计算机上对SWMM进行了测试,实验结果表明,I/O路径优化和容量平衡策略达到了预期的效果,数据采集模块在小数据块传输中具有低开销和高传输效率。

喻杰[5](2018)在《高性能计算机I/O性能优化关键技术研究》文中研究指明目前超级计算机的计算性能正从Pflops量级向Eflops量级发展,在超级计算机系统结构中,计算子系统和存储子系统分离,计算子系统与存储子系统之间增加了I/O转发层以应对日益增长的计算结点规模。高性能计算应用不断增长的运行规模和日趋复杂的数据处理模式给超级计算机存储系统提出了严峻挑战,目前基于硬盘构建的超级计算机存储系统已经无法满足来自超级计算机系统和高性能计算应用的I/O性能要求。以SSD为代表的新型存储器技术的快速发展为解决超级计算机存储系统面临的技术挑战带来了新的机会,同时,超级计算机也面临着如何高效地组织管理计算结点端的SSD为数据访问服务的技术难题。限于经费原因,目前只能在超级计算机的部分计算结点中安装SSD。本文基于用户的并行I/O特性,提出将部分计算结点上配置的SSD组织成面向作业的临时全局缓存系统(WatCache),它在作业启动时根据作业的不同I/O需求,使用不同数量的含有SSD的计算结点构建成可供该作业所有进程共享访问的全局缓存空间,最后在作业结束时退出。利用本文提出的数据布局机制和元数据缓存机制,WatCache可以在靠近计算结点的位置为应用提供低延迟、高带宽的I/O服务。在超级计算机的作业调度系统中,为了减少作业进程间的通信开销,通常为作业分配相邻的计算结点,但是,这种结点分配方式将在包含I/O转发层的超级计算机中造成性能瓶颈。目前许多超级计算机使用I/O结点承担计算结点与存储服务器之间的命令请求和数据转发,I/O结点与计算结点之间采用静态映射,每个I/O结点服务于一组相邻的(如同一个机柜内)计算结点。该种分配方式导致一个作业仅能使用有限数量的I/O结点,降低了作业的并行I/O性能,造成了I/O结点的负载不均。本文分析了天河一号的作业运行日志和I/O trace,发现作业的I/O流量在进程中分布不均和作业运行的结点在机柜中分布不均将导致I/O结点负载不均,进而影响作业的I/O性能。为此,本文提出基于作业I/O流量分布进行作业计算结点分配的策略,使作业的I/O负载能更均衡地被更多的I/O结点处理。当前超级计算机采用多层次I/O系统结构,包括计算结点、I/O转发层和底层存储系统。每个I/O结点各自独立地处理一组计算结点的I/O请求,易导致I/O结点上的负载不均衡;当多个计算结点通过不同I/O结点同时或先后访问同一文件中相同或相邻的数据时,每个I/O结点都需要访问存储系统,造成不必要的多次数据访问,而且在多个I/O结点上产生多个数据副本,额外增加数据一致性维护开销。为此,本文提出面向作业的基于内容的I/O转发模式,使得一个作业使用的计算结点共享它们所配置的I/O结点,均衡I/O结点的负载。同时,根据文件数据在存储系统上的条带化布局信息,将文件数据条带化地分布到作业使用的多个I/O结点上,访问相同数据条带的I/O请求将由同一个I/O结点处理,并建立I/O结点与存储结点上数据条带的分组映射关系,提升I/O结点的数据局部性,以减少数据一致性维护和I/O竞争,并获得更高的并行访问性能。

刘欣[6](2018)在《基于层次式混合存储技术的并行文件系统关键技术研究》文中研究指明超级计算机规模、数据密集型应用和大数据应用规模的多重快速增长的叠加作用,对当前超级计算机中广泛采用的基于磁盘的并行文件系统带来巨大技术挑战。在超级计算机中,计算分系统与存储分系统分离,增大了I/O延迟。计算结点不配置磁盘[1,2],难以在所有计算结点中配置固态盘(SSD),使得数量巨大的本地I/O汇聚到共享并行文件系统,并产生巨大I/O压力。超级计算机中CPU核数已经达到千万量级[2,3],它将聚合产生数量巨大的I/O请求。研究和实际应用表明,当前基于磁盘构建的单一存储层次的并行文件系统在提供超大存储容量的同时,难以同时满足Exascale超级计算机提出的高并行、高带宽和低延迟的要求。本文以天河一号超级计算机、高性能计算应用和大数据应用为基础,面向Exascale超级计算机对并行文件系统的要求,研究新的并行文件系统结构和关键实现技术,主要研究工作和创新点如下:1)提出了基于层次式混合存储技术的并行文件系统结构ONFS当前在超级计算机中广泛使用基于磁盘的并行文件系统,它只有单一存储层次,由于存储服务器远离计算结点,并受限于磁盘固有的性能不足,使得它们难以满足高速低延迟的要求。基于SDD的Burst Buffer Node和ION仅用于构建局部文件系统,没有与底层基于磁盘的存储系统融为一体。本文根据Exascale超级计算应用的I/O需求特性,提出了基于DRAM、SSD和磁盘构建的具有三个存储层次的并行文件系统ONFS,以靠近计算结点的基于DRAM和SSD的存储层次为用户程序提供高速低延迟的并行文件读/写服务,利用基于磁盘的存储层次实现超大存储容量,文件可以在三个存储层次之间动态高效迁移,实现单一名空间,支持POSIX协议。经过与典型并行文件系统比较,ONFS是首个可综合实现超大存储容量、高并行、高速度和低延迟文件服务的并行文件系统,可满足Exascale超级计算机对并行文件系统的综合高要求。2)提出了基于用户组子目录的元数据划分、分布存储和处理的方法元数据的高效管理是实现高性能并行文件系统的重要基础,它包括元数据的划分、分布、存储和服务。划分方法主要有静态子树、动态子树和哈希分布三大类。静态子树粒度大,难以支持负载和规模的有效动态调整;动态子树粒度小,子树关系复杂,管理的开销大;哈希分布丢弃元数据之间的相互关系,在目录名和文件名修改时将产生元数据迁移。本文基于用户目录构建过程,提出以根目录之下的用户组子目录(UGSD)为元数据划分粒度,它保持了目录固有的树状结构,简化了元数据划分的描述和管理;提出了在UGSD上增加自然整数后缀,实现UGSD在映射函数输入变量空间的均匀分布;采用简单的MOD函数和查找表,实现UGSD到MDS、MDS到MDSS之间的映射;采用同步更新和调峰机制,实现元数据负载动态调整和MDS规模动态增减,等。由实验和比较分析可知:UGSD的元数据划分粒度合理,易于描述和管理;文件路径名到MDS之间的映射算法简单,分布均匀;可动态实现元数据负载和MDS规模的调整;综合解决了元数据划分、存储和处理上存在的主要技术问题。3)提出了DS-m的内存借用和归还策略、并行存储控制和综合性能优化方法在超级计算机中,计算结点内存是专供用户程序使用的。基于结点内存构建高速低延迟存储层次最关键的问题是如何获得可以使用的内存。迄今为止,所有基于HPC计算结点内存构建存储系统的研究工作都回避该问题。本文基于计算密集型和数据密集型程序使用内存的不同情况,将所有计算结点划分为小内存分区和全内存分区,采用静态方式先从小内存分区的结点中借用确定数量的内存;根据用户程序使用内存的动态变化情况,采用最大值方法,动态窃用小内存分区结点中的剩余内存;采用静态与动态结合的方法,及时归还程序需要的内存,确保程序正确执行。本方法首次解决了基于结点内存构建存储系统的内存来源和管理的关键问题。现有的存储空间分配方法是面向磁盘的,不适合DS-m。DS-m的可用内存容量小,读/写带宽受限于互连接口带宽,这影响了大文件存储和多进程并行读/写带宽。DRAM为易失性存储器件,通常采用双副本方法解决存储可靠性问题,现行的串行更新主辅副本的方法,延迟大。VFS的页缓存控制策略是面向磁盘小数据块的,在大文件读/写时性能低;FUSE分拆大数据块的读/写请求,引入较大的读/写请求发送延迟。为了解决上述问题,本文提出由多个DS-m/DS-s并行工作,提高DS-m组的可用存储容量和多进程的聚合带宽;采用主辅副本并行更新方法,消除串行更新方法引入的写延迟;提出了关闭VFS页缓存,增大FUSE的MAXsize参数,构建和管理客户端缓存的方法,大幅提升了大数据块的读/写性能。实验和分析表明,由4个DS-m构成的分组并行存储,提高存储容量4倍,平均提高读/写带宽3.4倍;并行副本更新时间仅为串行方式的48.8%;客户端缓存的读和写速度分别是使用VFS页缓存的6.7倍和1.78倍。4)提出了基于内存容量阀值控制的文件向下迁移和基于应用特性的文件向上预迁移的控制策略文件数据迁移是层次式存储系统获得高性能的关键技术。当前,向下迁移主要以可用存储容量作为迁移条件,向上迁移主要以文件访问特性,如读/写、访问请求大小等,为迁移条件。现有的方法或是基于低速磁盘的,或是没有考虑高性能计算应用程序访问文件的特性。使用文件访问的动态特性计算热度,开销大;仅仅使用可用存储容量控制向下迁移,不考虑文件所处的open/close状态,易于使处于open状态的文件产生迁移乒乓效应。本文按照文件所处的open和close状态,使用双LRU表,实现文件冷度计算;在DS-m中设立三个可用内存容量阀值,并与文件冷度结合触发向下迁移;基于数据密集型应用程序读/写和处理文件数据的特性,提出了全文件和部分文件结合的混合迁移粒度方法,以及向上主动预迁移和被动预迁移结合的控制策略。实验和分析结果表明,冷度计算方法的计算开销小;向下迁移可在迁出文件数据量和写入数据量两个方面取得性能均衡;全文件和部分文件数据向上迁移、主动向上预迁移可减少无效迁移操作,在DS-m与DS-d之间可提高读带宽16倍以上。ONFS支持POSIX协议,我们在天河一号超级计算机上实现了ONFS原型系统,用户程序不需要修改便可在ONFS上运行。IOR benchmark测试表明,ONFS的文件读/写带宽是Lustre的7.7倍或以上;典型数据密集型应用程序测试结果表明,ONFS文件读和写带宽分别是Lustre的5.44倍和4.67倍,实际应用效果良好。

董文睿[7](2017)在《I/O特性感知的并行存储系统关键技术研究》文中指出随着超级计算机规模的快速发展,高性能计算和模拟已经成为解决人类面临的若干重大技术挑战的重要手段。超级计算机由计算、通信和存储三大分系统组成,由于存储系统是基于机电磁合为一体的磁盘构成,控制过程复杂,存取数据的延迟大、速度不快,使得存储系统与计算系统之间的性能差距越来越大,存储系统已经成为影响超级计算机性能快速提升的瓶颈。因此,亟待研究存储系统的I/O性能优化技术。在超级计算机存储系统关键实现技术中,基于应用程序I/O特性,优化I/O缓存和预取,以及I/O调度等技术依然是重要的研究内容,它们面临着难以获取复杂的I/O特性、I/O缓存效率差、多个并发应用的I/O干扰等难题。针对上述问题,本文主要研究I/O特性获取、基于I/O特性感知的分布式Cache和I/O调度技术。本文的主要研究工作和创新点如下:(1)提出了应用程序I/O特性的获取、存储和检索方法目前,获取高性能计算应用程序I/O特性的主要方法是使用某些工具来分析操作系统I/O统计量和应用程序的I/O迹线(trace)。现有分析工具存在使用范围受限、分析能力不足和使用灵活性较差的问题。本文提出了基于FUSE文件系统(Filesystem in User Space)的应用程序I/O特性获取框架FTracer。FTracer本质上是一个文件系统,因此能够获取各类应用的I/O特性。FTracer可提供进程级、文件级和应用级的I/O分析功能,能够获取各个视角下的I/O特性。另外,FTracer能够在运行时实时配置分析例程、分析视角等,灵活性较高。本文使用FTracer分析了典型I/O密集型应用的I/O特性,其中,首次分析了典型的数据密集型应用Gather和WRF程序的I/O行为。应用I/O特性主要用于为I/O性能优化技术提供决策支持。Cache和预取等I/O优化技术需要快速的获取需要的I/O特性数据,以保证及时决策和低开销。另外,不同层面的I/O特性数据的表示方法多样。如何有效存储和及时检索I/O特性数据意义重大。本文提出基于Key-Value存储的I/O特性数据库,既能够表示多种类型的I/O特性,又能保证低访问延时。(2)提出了基于I/O特性感知的分布式Cache结构分布式Cache技术通过将多个节点上的空闲内存组织起来,向应用程序提供一个大容量、高带宽的Cache存储空间。文件的数据块通常被缓存在最近访问该数据块节点的Cache中。当一个文件被多个节点共享访问时,该文件的数据块会被分散到各个节点的Cache中。每个节点上的Cache基于确定的算法(如LRU)和本Cache中数据存储的历史信息对缓存在Cache中的文件数据进行替换操作,它不考虑文件全局被访问的信息,这就导致Cache命中率大大降低。此外,为了维护数据一致性,同一个数据块会在多个节点的Cache间频繁抖动,大幅降低了Cache的性能。本文提出了I/O特性可感知的分布式Cache结构SFDC,它以文件为单位进行数据分布,将一个文件的所有数据缓存在同一个节点上。各个节点的Cache根据文件的全局I/O特性,计算文件数据的价值,并且基于数据价值进行缓存和预取,尽早地将无价值数据转存到底层并行文件系统,同时预取高价值的数据。SFDC基于范围进行写操作合并,将地址不连续的小I/O整合成大I/O,以适应底层并行文件系统。此外,SFDC还提供了可指定I/O特性的编程接口,向用户提供不透明的使用方式。(3)提出了基于I/O特性感知的I/O调度方法超级计算机上并发运行的多个应用程序独占式的使用计算节点,但是共享的使用存储系统。因此,在存储系统中,一个存储服务器要同时服务多个应用程序的I/O请求。并且,一个应用程序的I/O操作通常同时覆盖多个存储服务器,而I/O操作的同步要求使得其完成时间取决于被最晚服务的I/O请求。由于存储服务器的I/O调度算法不区分应用,导致一个应用程序的I/O请求在不同服务器上的完成顺序不同。因此,各个应用程序的I/O时间会因为在存储服务器上的相互竞争而增长。这种应用之间的I/O干扰(I/O interference)还会破坏单个应用的空间局部性,进一步降低I/O系统的整体性能。本文提出了基于I/O特性可感知的I/O调度框架DWFC,该框架综合考虑多个应用程序总体的I/O性能,降低在存储服务器上的I/O干扰带来的性能下降。DWFC通过探测存储服务器的实时负载来识别I/O干扰。在I/O干扰发生时,DWFC基于请求的时间紧迫性进行I/O调度,优先选择紧迫性高的I/O请求,以保证应用程序的I/O性能。在发送I/O请求时,DWFC根据存储服务器的I/O负载来确定I/O的请求的数据量。实验结果表明,当两个应用并发运行时,DWFC能够在不降低任何应用程序I/O性能的前提下,提高两个应用的整体I/O性能。

刘培浩[8](2017)在《面向全基因组关联分析的海量数据多任务并行数据框架研究》文中研究表明二代测序相比较它的上一代,显着的特征是测序的通量高,因此也叫高通量测序,它使得成本成倍地降低,基因数据量呈几何式的翻倍增长。世界范围内,百万人基因组计划的相继推出,十万人,甚至百万人规模的全基因组关联研究有望在常见病和复杂性状的研究上取得突破。基因数据分析面临着如何高效组织和访问PB甚至ZB级数据的问题,海量数据的基因大数据分析遭遇了存储墙的问题,目前并行访问这些PB级的基因数据,存在着比较严重的性能瓶颈,这其中存在着数据存放和计算作业访问方式之间的矛盾,大数据量的数据访问带来的网络带宽和内存带宽压力,海量数目的文件读写带来的元数据拥堵等。本文提出面向全基因组关联分析的海量数据并行框架,它基于在高性能环境中有多年成熟使用经验的HDF5的数据格式,支持关联分析的多任务并行,使用了数据分片、数据超转置、数据过滤、数据高通量编码压缩以及结合天河二号环境的数据对齐、聚合访问及缓存优化等技术,缓解了计算作业访问数据的局部性差的矛盾,避免了计算作业并行访问时的数据竞争,并行文件系统元数据服务器(MDS)的压力得到释放。紧贴基因关联分析类计算作业的特点开展研究,分析了数据特性,运用数据过滤、类型转换、列存储压缩等减少了数据量和访存带宽方面的开销,而且这些处理的开销在生产环境中都可以隐藏在数据由生产环节到数据分析环节的传输开销中,而HDF5的虚拟数据集特性允许我们将不同批次数据处理后存储在不同文件中,而计算作业同时又能以连续数据集的视角来访问这些文件。本文数据框架Gwasin中的数据分片和数据超转置是对VariantDB中数据标注过滤思想的延伸,VariantDB通过建立数据域的标注,然后利用数据库对标注进行查询和过滤,减少计算作业的数据访问量,本文基于HDF5灵活性的特点,实现了并行任务作业的数据重组织,重组织后计算作业连续访问与计算直接相关的数据。数据块转置将一个基因文件中,与单个计算相关的数据块看作是矩阵中的一个元素,对这个超大矩阵进行转置操作,实现同一计算作业的连续聚合,提高了访问数据访问连续性,并将多个文件的数据组织在HDF5的一个数据集中,这样由于HDF5的自述性,即HDF5中数据对象的元数据存储在HDF5内部,因此,降低了对并行文件系统的元数据访问,从而缓解了并行文件系统在处理元数据时的压力。本文同时结合基因数据分析计算任务特点对基因数据进行了数据过滤和高通量编码压缩操作,将与计算作业无关的数据在数据预处理阶段清洗掉,能够提高数据密度,减轻网络和内存带宽压力,结果显示数据过滤能实现51.8倍的数据减少效果,结合数据编码压缩能实现579倍的减少效果。结合天河二号的优化,运用的是HDF5在Lustre系统上的调优方法,改变HDF5库对存放数据对象的特性设置,对数据集进行在分块对齐、压缩、聚合访问和元数据缓存挤出等方面的设置,实现了并行IO的同时,降低了与IO服务器交互的计算节点数量,减少了数据访问的拥塞,也提高了元数据的处理效率,计算作业在提高扩展性的同时,数据访问速度提升了10倍以上。

王立新[9](2017)在《并行文件系统元数据管理研究》文中指出人类社会的快速发展使得人类获取信息的能力逐步加强,各种应用模式层出不穷,由此产生的数据量急剧增加,数据类型也日益丰富。大规模计算机集群系统面临着对海量的、非结构化的数据进行高效分析处理的问题。元数据密集型应用作为大规模计算机集群系统的一种典型应用,给存储系统的底层并行文件系统带来的严峻挑战。如何构建一个高性能、高可靠性和可扩展的元数据管理方法成为当前并行文件系统研究领域的一个重要课题。本文在现有并行文件系统框架的基础上,研究面向元数据密集型应用的并行文件系统元数据管理方法。在一个混合式并行文件系统架构中,针对元数据分布、路径遍历优化、元数据索引、小文件I/O和大目录自适应扩展等问题提出了一系列优化技术和方法。本文的主要工作体现在:1.提出了一种面向元数据密集型负载的混合式并行文件系统结构(第二章)现有的并行文件系统受限于其元数据管理方法,在处理元数据密集型负载时性能不佳。本文提出一种基于已有并行文件系统的混合式并行文件系统Moon FS系统结构,致力于为用户提供融合、一致的全局文件系统视图和高效的元数据操作性能。在该结构中,小文件和元数据由元数据管理模块统一管理,而大文件则直接映射到底层共享并行文件系统中。通过将小的、随机的和较慢的更新合并成大的、顺序的和较快的写操作,并存储于底层共享文件系统中,从而充分利用底层共享并行文件系统的大文件读写性能优势。2.提出了一种基于客户端无状态缓存和服务端目录复制的元数据管理方法(第三章)为了提高多元数据服务器环境下的元数据的访问性能,本文提出了一种基于客户端无状态缓存和目录复制的元数据管理方法。该方法基于目录粒度分布元数据,并通过一致性哈希方法将同一目录下的子目录和子文件映射到同一元数据服务器上,从而保持了目录的局部性和元数据服务器的负载均衡。同时,基于客户端无状态缓存和目录复制的优化方法能够有效减少路径遍历和权限检查导致的RPC开销。经实验验证,该元数据管理方法能够有效解决路径遍历和权限验证的RPC放大问题,优化并行文件系统的元数据访问性能。3.提出了一种基于LSM-tree的元数据及小文件索引方法(第四章)现有的元数据管理方法大多采用B-tree或Copy-on-Write tree的索引方式管理元数据,这些读优化的索引结构在大量元数据并发写的情况下开销较大,性能较低。本文提出了一种基于目录粒度列分割和LSM-tree(Log-structured merge tree)的元数据索引管理方法,对文件元数据操作与LSM-tree操作映射、名字空间划分、元数据表现形式、元数据存储、元数据操作优化等方面进行了详细介绍。同时,本文提出了一种基于LSM-tree和延迟key分配的小文件写优化方法,有效降低了LSM-tree的compaction操作开销。原型系统实验结果表明,这两种优化相比于其他典型索引结构更高效。4.提出了一种基于乐观同步的目录扩展方法(第五章)现有的元数据管理方法在处理有大目录需求的应用时往往性能不佳。本文提出了一种基于乐观同步的目录自适应扩展方法。通过将大目录自适应扩展到多个元数据服务器上,不仅能保持负载均衡,而且能充分发挥元数据服务器集群的性能优势。与此同时,客户端能够容忍过时的目录映射信息,保证在弱一致性条件下的正确访问。原型系统实验表明,基于乐观同步的目录自适应扩展方法能够有效提高大目录的元数据服务性能。

王志翔[10](2015)在《面向高并发数据访问的并行I/O性能优化机制研究》文中认为在当今大数据时代下,很多科学计算应用正从传统的计算密集型向数据密集型模式进行转变。在这些科学计算应用中,多个进程同时访问一个共享文件是一种非常常见的并行I/O访问模式,其I/O性能始终是制约并行程序运行效率的一个重要因素,为了提高程序性能,针对这种访问模式进行I/O优化的MPI-IO库被广泛采用,得到了良好的效果。与此同时,为了适应大数据存储与访问需求,诸如Lustre等并行文件系统也被越来越多地部署在高性能计算环境中,这为传统并行I/O中高并发数据访问优化带来了新的挑战。为了解决新环境下面临的并行I/O性能问题,面向高并发数据访问的并行I/O性能优化系统,通过采用将应用I/O访问模式与数据物理布局相匹配的设计思路,重新组织I/O请求顺序,使得I/O代理进程与I/O节点之间形成“一对一”的匹配模式,从而减少高并发数据访问时的数据访问竞争。该优化系统先通过获取分析应用I/O访问模式,从而将其转换成数据物理存储访问信息。然后综合两者信息,设计实现优化的代理进程选择方法与文件域划分方式,使得各I/O节点都能保证均衡的I/O负载,同时将待访问的文件数据段按锁边界对齐,减少锁竞争的发生。最后对I/O请求进行重新组织调整,得到最优的请求顺序,从而保证将一个大的数据请求分成若干子请求时,在完成每个子请求的迭代过程中,不会产生资源访问竞争。这种基于迭代过程这一更细的并行粒度的优化策略,为I/O请求重组织提供了更高的灵活性,保证减少数据访问竞争的同时,不会引入额外的进程间通信开销。基于Lustre分布式文件系统和MPI-IO访问模式的实验测试结果分析表明,该优化系统与传统的优化策略系统相比,在不同的中间缓存大小、条块分布的存储对象设备数量以及计算进程数量条件下,对高并发数据访问的并行I/O性能可以达到平均30%以上的提升效果。

二、基于直接数据访问的并行文件系统(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于直接数据访问的并行文件系统(论文提纲范文)

(2)面向高性能计算系统的融合数据管理关键技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 论文研究背景和意义
    1.2 融合场景下数据管理关键问题与挑战
    1.3 本文工作和贡献
    1.4 论文组织结构
第二章 背景和相关工作
    2.1 融合场景下应用特征与系统存储结构变化
        2.1.1 科学工作流
        2.1.2 应用特征变化
        2.1.3 系统存储结构变化
    2.2 现有数据存储与管理方案
        2.2.1 设计动态库丰富数据管理功能
        2.2.2 拓展文件系统优化数据存储与管理
        2.2.3 定制外部数据管理系统管理科学数据
        2.2.4 其他数据管理工具
    2.3 自适应和智能数据管理优化
        2.3.1 数据放置优化
        2.3.2 数据预取优化
    2.4 科学数据索引与查询优化
        2.4.1 文件粒度索引与查询优化
        2.4.2 记录粒度索引与查询优化
第三章 基于层次式存储结构的数据管理系统设计
    3.1 前言
    3.2 目的与挑战
    3.3 层次式数据管理系统TDMS
        3.3.1 TDMS系统架构
        3.3.2 水平及垂直数据管理策略
        3.3.3 系统接口设计
    3.4 面向应用特征的定制数据管理技术
        3.4.1 科学工作流及数据访问模式划分
        3.4.2 定制层次式数据管理策略
        3.4.3 跨存储层的负载均衡机制
    3.5 数据感知的任务调度技术
    3.6 系统实现
    3.7 系统评估
        3.7.1 实验配置
        3.7.2 TDMS基本性能评估
        3.7.3 科学工作流应用评估
    3.8 小结
第四章 面向融合应用的自适应层次式数据管理技术
    4.1 前言
    4.2 基于分类模型的智能数据放置策略
        4.2.1 目的与挑战
        4.2.2 数据放置与分类问题
        4.2.3 基于启发式方法的自动数据标注
        4.2.4 智能数据放置引擎
    4.3 面向文件类别的自适应数据预取策略
        4.3.1 目的与挑战
        4.3.2 结合数据流图拓扑结构分析数据访问特征
        4.3.3 针对文件类别设计自适应数据预取策略
    4.4 实现
    4.5 系统评估
        4.5.1 实验配置
        4.5.2 数据放置策略评估
        4.5.3 数据预取策略评估
    4.6 小结
第五章 耦合并行文件系统的数据索引与查询优化
    5.1 前言
    5.2 面向科学数据的索引与查询模块设计
    5.3 面向“应用定制元数据”的文件粒度索引技术
        5.3.1 文件粒度索引与查询案例:气象大数据
        5.3.2 并发元数据提取
        5.3.3 层次式哈希索引结构
        5.3.4 文件粒度查询处理
    5.4 基于原位索引构建的记录粒度索引技术
        5.4.1 记录粒度索引与查询案例:生物大数据
        5.4.2 原位索引构建过程
        5.4.3 Range-bitmap索引结构
        5.4.4 双层并发查询处理
    5.5 实现
    5.6 系统评估
        5.6.1 实验配置
        5.6.2 文件定位服务性能评估
        5.6.3 记录定位服务性能评估
    5.7 小结
第六章 总结与展望
    6.1 总结
    6.2 未来工作
致谢
参考文献
作者在学期间取得的学术成果

(3)E级计算的存储系统突发数据缓存的I/O性能优化(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景
        1.1.1 数据驱动的高性能科学计算
        1.1.2 E级计算系统的发展趋势
        1.1.3 大规模存储系统的发展趋势
    1.2 E级计算存储系统设计面临的挑战性问题
    1.3 本文主要研究内容
    1.4 论文组织结构
第2章 相关研究工作
    2.1 高性能存储系统结构
        2.1.1 近数据端计算架构
        2.1.2 突发数据缓存架构
        2.1.3 相关工作总结
    2.2 数据存储格式与I/O编程接口
        2.2.1 MPI-IO
        2.2.2 HDF5
        2.2.3 NetCDF
        2.2.4 相关工作总结
    2.3 I/O执行模式
        2.3.1 解耦合执行模式
        2.3.2 异步执行模式
        2.3.3 相关工作总结
第3章 竞争感知的共享式突发数据缓存分配算法
    3.1 引言
    3.2 相关背景介绍
        3.2.1 共享式突发数据缓存系统
        3.2.2 面向存储资源的调度分配
        3.2.3 动机
    3.3 基于竞争感知的存储资源调度方案
        3.3.1 运行时框架设计与实现
        3.3.2 竞争感知的节点分配算法
        3.3.3 性能模型分析
    3.4 实验评估
        3.4.1 仿真实验
        3.4.2 模拟实验
    3.5 本章小结
第4章 分布式突发数据缓存的异步数据传输优化策略
    4.1 引言
    4.2 相关背景介绍
        4.2.1 分布式突发数据缓存系统
        4.2.2 动机
    4.3 自适应可扩展的异步数据传输优化策略
        4.3.1 运行时框架设计与实现
        4.3.2 自适应的异步数据传输策略
        4.3.3 动态数据回传优化方法
        4.3.4 性能模型分析
    4.4 实验评估
        4.4.1 测试平台与测试程序
        4.4.2 实验结果与分析
    4.5 本章小结
第5章 结构感知的异构突发数据缓存的动态I/O调度方案
    5.1 引言
    5.2 相关背景介绍
        5.2.1 异构突发数据缓存系统
        5.2.2 动机
    5.3 结构感知的动态I/O调度方案
        5.3.1 运行时框架设计与实现
        5.3.2 本地缓存的流量感知调度方法
        5.3.3 跨存储层的I/O重定向策略
        5.3.4 基于干扰感知的I/O调度算法
    5.4 实验评估
        5.4.1 测试平台与测试程序
        5.4.2 实验结果与分析
    5.5 本章小结
第6章 结果与展望
    6.1 研究工作与结果
    6.2 主要创新
    6.3 下一步研究工作
参考文献
致谢
在读期间发表的学术论文与取得的研究成果
在读期间参与的科研项目

(4)基于故障数据预处理的超算系统容错关键技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 故障数据处理技术研究现状
        1.1.1 相关概念
        1.1.2 面向超级计算机的数据采集技术
        1.1.3 面向超级计算机的故障数据处理技术、
    1.2 容错技术发展现状
        1.2.1 面向超级计算机的容错技术
        1.2.2 面向超级计算机的容错库
        1.2.3 其他容错技术
    1.3 I/O相关技术研究现状
        1.3.1 MPI-IO
        1.3.2 MPI-IO、Lustre与数据密集型应用相关研究
        1.3.3 I/O性能分析工具与I/O工作负载管理
        1.3.4 科学数据管理
    1.5 主要贡献和创新点
    1.6 论文组织结构
第二章 面向超算系统的故障数据预处理技术
    2.1 引言
    2.2 研究背景
        2.2.1 I/O软件栈,I/O转发层和H~2FS
        2.2.2 数据采集框架和存储负载管理模型
        2.2.3 资源管理器和性能分析工具
        2.2.4 日志模板提取技术
    2.3 面向超算系统的实时数据采集框架
        2.3.1 实时数据采集框架
        2.3.2 优化后的性能分析收集工具
    2.4 基于离线预处理的在线日志模板提取方法
    2.5 实验
        2.5.1 实验环境
        2.5.2 结果与讨论
    2.6 小结
第三章 面向超算系统的容错技术
    3.1 研究背景
        3.1.1 超级计算机的可靠性现状
        3.1.2 检查点/恢复容错技术
        3.1.3 超算系统中的故障数据相关性分析
    3.2 主要工作
        3.2.1 基于多维度XOR容错模式
        3.2.2 基于数学函数库的容错模式
    3.3 性能分析与实验
        3.3.1 性能分析
        3.3.2 实验设计
    3.4 小结
第四章 面向超算系统容错的I/O优化技术
    4.1 引言
    4.2 研究背景
        4.2.1 ROMIO,Lustre以及SLURM
        4.2.2 I/O性能与系统状态
        4.2.3 存储资源以及资源管理系统
    4.3 方法
        4.3.1 I/O路径优化模块
        4.3.2 存储容量均衡模块
        4.3.3 I/O数据采集和故障预警模块
    4.4 实验设计
        4.4.1 实验环境
        4.4.2 实验一
        4.4.3 实验二
        4.4.4 实验三
    4.5 小结
第五章 结论与展望
    5.1 工作总结
    5.2 研究展望
致谢
参考文献
作者在学期间取得的学术成果

(5)高性能计算机I/O性能优化关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景
        1.1.1 超级计算机的现状和发展趋势
        1.1.2 高性能计算应用的I/O需求分析
    1.2 超级计算机I/O系统的现状和挑战
        1.2.1 超级计算机I/O系统的现状
        1.2.2 超级计算机I/O系统面临的挑战性问题
    1.3 本文工作
        1.3.1 基于应用程序I/O负载感知的临时性客户端Flash缓存系统
        1.3.2 面向空间突发I/O特性的计算结点分配策略
        1.3.3 层次式I/O系统中的跨层次I/O请求协调控制策略
    1.4 论文组织
第二章 相关研究
    2.1 基于新型存储器的客户端存储层次
        2.1.1 临时存储层次
        2.1.2 基于文件系统的管理方式
        2.1.3 基于客户端缓存系统的管理方式
    2.2 I/O竞争缓解技术
        2.2.1 I/O竞争的原因分析
        2.2.2 存储服务器端的I/O竞争缓解技术
        2.2.3 客户端的I/O竞争缓解技术
    2.3 I/O结点负载均衡技术
第三章 基于应用程序I/O负载感知的临时性客户端Flash缓存系统
    3.1 引言
    3.2 基于应用程序I/O负载感知的临时性缓存系统
        3.2.1 缓存系统的临时性组织方式
        3.2.2 基于I/O负载感知的计算结点分配策略
    3.3 WatCache系统设计
        3.3.1 WatCache的基本组成
        3.3.2 分布式元数据管理机制
        3.3.3 分布式锁管理机制
    3.4 数据布局策略
        3.4.1 Rank0 I/O特性分析
        3.4.2 缓存粒度的选取
        3.4.3 基于I/O大小感知的数据布局策略
    3.5 元数据缓存机制
        3.5.1 小I/O特性分析
        3.5.2 元数据缓存机制
        3.5.3 与数据布局策略的协同控制
    3.6 性能测试
        3.6.1 实验环境
        3.6.2 整体性能
        3.6.3 元数据服务的性能开销
        3.6.4 小I/O性能
        3.6.5 Rank0 I/O与 all rank I/O性能
        3.6.6 BTIO测试程序
        3.6.7 WRF工作流
        3.6.8 不同快速存储设备比例下WatCache的性能
    3.7 本章小节
第四章 面向空间突发I/O特性的计算结点分配策略
    4.1 引言
    4.2 作业日志和I/O trace的获取方式
    4.3 空间突发I/O特性分析
        4.3.1 分布的不均匀性度量
        4.3.2 作业I/O流量在多个进程中不均匀分布
        4.3.3 作业分配结点在多个机柜中不均匀分布
        4.3.4 天河一号的空间突发I/O特性
    4.4 应用程序I/O特性感知的计算结点分配策略
        4.4.1 结点分配准则
        4.4.2 可优化的作业类型分析
        4.4.3 应用程序I/O特性一致性分析
        4.4.4 基于Slurm插件的实现
    4.5 性能测试
        4.5.1 实验环境
        4.5.2 基准测试程序
        4.5.3 抽道集应用
        4.5.4 WRF应用
    4.6 本章小节
第五章 层次式I/O系统中的跨层次I/O请求协调控制策略
    5.1 引言
    5.2 研究动机
        5.2.1 改善数据局部性
        5.2.2 均衡I/O结点负载
        5.2.3 缓解I/O竞争
    5.3 计算结点与I/O结点间的I/O请求协调控制策略
        5.3.1 基于内容的I/O转发模式
        5.3.2 作业级I/O结点映射机制
        5.3.3 基于IOFSL的实现方案
    5.4 I/O结点与存储结点间的I/O请求协调控制策略
        5.4.1 数据条带的协调分布方法
        5.4.2 结合预取优势的数据条带协调分布方法
        5.4.3 超大规模作业的数据条带协调分布方法
    5.5 性能分析与测试
        5.5.1 实验环境
        5.5.2 I/O并发度分析
        5.5.3 基准测试程序
        5.5.4 BTIO测试程序
        5.5.5 抽道集应用
        5.5.6 WRF工作流应用
    5.6 本章小节
第六章 结论与展望
    6.1 工作总结
    6.2 研究展望
致谢
参考文献
作者在学期间取得的学术成果

(6)基于层次式混合存储技术的并行文件系统关键技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景
        1.1.1 高性能计算机对并行文件系统性能的要求
        1.1.2 高性能计算应用和大数据应用的I/O需求
    1.2 存储设备、存储系统和文件系统技术概述
        1.2.1 存储设备的发展
        1.2.2 存储系统和文件系统的发展
    1.3 层次式混合存储技术的现状、难点和挑战
        1.3.1 层次式混合存储技术的现状
        1.3.2 层次式混合存储技术的难点和挑战
    1.4 本文的研究工作
    1.5 论文结构
第二章 相关研究工作
    2.1 面向Exascale超级计算机系统的存储系统和I/O栈
    2.2 基于SSD的存储系统
    2.3 基于DRAM的存储系统
    2.4 混合存储技术和混合存储系统
    2.5 混合存储环境下的文件数据迁移
    2.6 元数据分布存储和管理
    2.7 面向对象存储的OSD规范
第三章 基于层次式混合存储技术的并行文件系统(ONFS)结构
    3.1 引言
    3.2 研究背景
    3.3 ONFS并行文件系统结构概述
        3.3.1 ONFS组成结构
        3.3.2 ONFS在TH-1A上的物理实现
        3.3.3 基于结点内存的存储层次DS-m
        3.3.4 基于SSD的存储层次DS-s
        3.3.5 基于磁盘的存储层次DS-d
        3.3.6 对象存储,文件数据与元数据分离
    3.4 ONFS文件系统简要工作流程
        3.4.1 元数据操作
        3.4.2 文件数据的分布存储和读/写操作
        3.4.3 文件数据的迁移
    3.5 性能比较分析
    3.6 小结
第四章 基于用户组子目录的元数据分布存储与管理方法
    4.1 引言
    4.2 相关工作
        4.2.1 元数据划分和映射方法
        4.2.2 元数据分布存储和管理方法
    4.3 研究背景
        4.3.1 元数据的操作数量和元数据的数据量的分析
        4.3.2 Lustre文件系统MDS的构成和性能分析
    4.4 元数据分布存储和处理的集群系统组成
    4.6 UGSD、MDS和MDSS之间的映射关系和映射方法
        4.6.1 UGSD到MDS的映射方法
        4.6.2 MDS与MDSS相互映射方法
    4.7 MDS和MDSS之间的元数据一致性实时维护方法
    4.8 动态负载调整和可扩展性的实现方法
        4.8.1 临时性动态调整某一个MDS的高负载
        4.8.2 永久性调整某一个MDS的高负载
        4.8.3 扩大MDS规模的方法
        4.8.4 处理MDS故障的方法
        4.8.5 增大MDSS规模的方法
    4.9 实验和测试结果分析
        4.9.1 与Lustre的MDS的主要元数据操作性能的比较
        4.9.2 UGSD方法与DDG方法的性能比较与分析
    4.10 与现有的元数据处理方法和元数据系统的比较
    4.11 小结
第五章 DS-m的内存借用与归还策略,综合性能优化的技术方法
    5.1 引言
    5.2 研究背景
        5.2.1 TH-1A计算结点内存管理方法和使用情况分析
        5.2.2 D-m的可用存储容量和通信带宽,多副本更新,客户端缓存
    5.3 静态与动态结合的计算结点内存借用与归还方法
        5.3.1 静态借用计算结点内存的方法
        5.3.2 静态归还计算结点内存的方法
        5.3.3 内存的动态使用特性分析
        5.3.4 VFS中的页缓存对内存资源影响的分析
        5.3.5 动态窃用和归还内存的控制策略
    5.4 DS的并行存取控制策略
        5.4.1 平均文件大小和存储空间分配单元(SAU)大小的分析
        5.4.2 数据块传输大小对读/写带宽的影响
        5.4.3 分组并行存储方法
    5.5 基于双副本的可靠性存储控制策略
    5.6 客户端缓存的实现方法
    5.7 实验和测试结果分析
        5.7.1 单个DS读/写性能与Lustre的单个OST读/写性能的比较
        5.7.2 以4个DS-m/DS-s为一组与4个OST为strip的读/写性能的比较
        5.7.3 ONFS的读/写性能可扩展性的分析
        5.7.4 并行更新双副本的方法与串行更新双副本的方法的效果对比分析
        5.7.5 客户端缓存效果分析
    5.8 小结
第六章 文件数据迁移控制方法
    6.1 引言
    6.2 研究背景
    6.3 文件数据向上迁移的混合粒度
    6.4 基于内存容量阀值的文件数据向下迁移控制策略
        6.4.1 基于可用存储容量阀值和文件冷度的向下迁移控制策略
        6.4.2 文件冷度相关参数的计算方法
        6.4.3 确定向下迁移控制阀值Cf-m和 Cn-m的方法
        6.4.4 向下迁移的实现方法
    6.5 主动向上预迁移控制策略
        6.5.1 应用程序读输入文件的特性分析
        6.5.2 主动预迁移的控制策略和实现方法
        6.5.3 被动迁移的控制策略和实现方法
    6.6 实验和测试结果分析
        6.6.1 确定Cn-m和 Cf-m阈值的初值
        6.6.2 向上迁移的效益分析
        6.6.3 典型数据密集型应用程序性能测试和分析
    6.7 小结
第七章 总结与展望
    7.1 工作总结
    7.2 研究展望
致谢
参考文献
作者在学期间取得的学术成果

(7)I/O特性感知的并行存储系统关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题背景
        1.1.1 高性能计算发展概述
        1.1.2 HPC系统的I/O瓶颈问题
        1.1.3 超级计算机存储系统
    1.2 I/O优化技术面临的难点
        1.2.1 复杂的I/O模式
        1.2.2 程序的并行访问
        1.2.3 应用的I/O竞争
        1.2.4 I/O层次间干扰
    1.3 本文工作
        1.3.1 高性能计算应用程序I/O特性的获取、存储和检索方法
        1.3.2 I/O特性可感知的分布式I/O Cache
        1.3.3 I/O特性感知的请求调度技术
    1.4 主要创新
第二章 相关研究
    2.1 应用I/O特性的获取
        2.1.1 基于操作系统统计量的I/O特性获取
        2.1.2 基于I/O trace和分析的I/O特性获取
    2.2 I/O缓存和预取技术
        2.2.1 分布式缓存结构
        2.2.2 提高Cache命中率和预取准确性
    2.3 I/O调度技术
        2.3.1 服务器侧I/O调度
        2.3.2 客户端侧I/O调度
    2.4 本章小结
第三章 基于FUSE的 I/O特性获取
    3.1 引言
    3.2 基于FUSE的 I/O特性获取框架
        3.2.1 FUSE用户空间文件系统框架
        3.2.2 FTracer:基于FUSE的 I/O trace
        3.2.3 I/O特性的在线分析
        3.2.4 FTracer的性能开销分析和优化
    3.3 典型高性能计算应用的I/O特性分析
        3.3.1 实验平台
        3.3.2 I/O核程序特性分析
        3.3.3 抽道集应用I/O特性分析
        3.3.4 WRF应用I/O特性分析
    3.4 基于Key-Value的 I/O特性数据库
        3.4.1 基于Key-Value存储的I/O特性库
        3.4.2 性能分析
    3.5 本章小结
第四章 I/O特性可感知的分布式Cache机制
    4.1 引言
    4.2 研究动机
    4.3 系统结构
        4.3.1 Cache客户端
        4.3.2 Cache服务器
        4.3.3 文件写操作合并
        4.3.4 基于文件价值的空间清理和替换策略
        4.3.5 可扩展性和可靠性
        4.3.6 SFDC的典型配置和使用
        4.3.7 SFDC的通信机制
    4.4 性能测试
        4.4.1 实验平台
        4.4.2 基于Socket的 SFDC的性能测试
        4.4.3 基于RDMA的 SFDC的性能测试
        4.4.4 RTM程序性能测试
    4.5 本章小结
第五章 I/O特性感知的请求调度技术
    5.1 引言
    5.2 背景知识和研究动机
        5.2.1 I/O干扰原因分析
        5.2.2 产生非紧迫性I/O请求的优化技术
        5.2.3 不恰当预取和写回带来的I/O干扰
        5.2.4 存储设备的当前状态分析
    5.3 DWFC:负载可感知的I/O流控机制
        5.3.1 DWFC整体结构
        5.3.2 DWFC的 I/O流控制
        5.3.3 I/O流请求调度
        5.3.4 I/O流目标选取
        5.3.5 I/O流目标负载检测
    5.4 实验评估
        5.4.1 IOR
        5.4.2 MADbench2与IOR并发运行
    5.5 本章小结
第六章 结论与展望
    6.1 工作总结
    6.2 研究展望
致谢
参考文献
作者在学期间取得的学术成果

(8)面向全基因组关联分析的海量数据多任务并行数据框架研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题背景
        1.1.1 高通量测序数据存储面临挑战
        1.1.2 高性能计算与大数据融合成为趋势
        1.1.3 全基因组关联分析的数据访问效率问题
    1.2 研究意义
        1.2.1 生物信息领域存在的数据“三多”难题-多场景、多流程、多格式
        1.2.2 缺乏面向群体基因分析的高效数据框架
        1.2.3 数据预处理提高海量数据访问效率
    1.3 研究思路及主要工作
    1.4 论文组织结构
第二章 相关研究
    2.1 现有的高通量测序数据框架
        2.1.1 VariantDB标注过滤减少数据传输量
        2.1.2 BioHDF灵活的数据组织
        2.1.3 SeqDB的编码压缩方法
        2.1.4 底层数据容器的选取
    2.2 海量数据的I/O性能优化
    2.3 HDF5 调优方法
        2.3.1 HDF5 格式的设计思想
        2.3.2 HDF5 对元数据的管理
        2.3.3 HDF5 中复合数据类型与性能优化
    2.4 设计并行数据框架结构
        2.4.2 数据框架具有的功能
        2.4.3 数据框架结构模型
    2.5 本章小结
第三章 关联分析数据相关处理技术
    3.1 全基因组关联分析应用及数据特点
        3.1.1 全基因组关联分析简介
        3.1.2 连锁不平衡效应
    3.2 关联分析数据格式
    3.3 结合全基因组关联的数据过滤
    3.4 基因数据的编码压缩
    3.5 本章小结
第四章 面向并行计算作业的数据重组织
    4.1 多任务并行的海量数据访问模型
        4.1.1 数据访问不连续性
        4.1.2 不连续模型
    4.2 海量数据带来的并行困难
        4.2.1 大数据量带来的难题
        4.2.2 大文件数带来的难题
        4.2.3 并行任务的数据竞争
    4.3 改善数据访问的两种方案
    4.4 数据分块和超转置
        4.4.1 数据重新组织的功能架构
        4.4.2 数据分块减少访问竞争
        4.4.3 数据块转置的优化
    4.5 本章小结
第五章 基于天河二号的HDF5 调优
    5.1 HDF5 底层IO方式选择
    5.2 HDF5 元数据缓存设置
        5.2.1 “碰撞”而导致的影子缓存设计
    5.3 HDF5 数据分块与对齐
        5.3.2 数据分块
        5.3.3 数据对齐
    5.4 本章小结
第六章 总结与展望
    6.1 工作总结
    6.2 研究展望
致谢
参考文献
作者在学期间取得的学术成果

(9)并行文件系统元数据管理研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 存储系统
        1.1.1 存储系统的发展
        1.1.2 存储结构的变迁
        1.1.3 存储系统的发展趋势
        1.1.4 大规模存储系统的需求分析
        1.1.5 存储系统的研究热点
    1.2 研究内容与研究现状
        1.2.1 元数据
        1.2.2 小文件访问优化
        1.2.3 大目录需求支持
        1.2.4 文件共享访问优化
    1.3 主要创新
    1.4 论文组织
第二章 混合式并行文件系统MoonFS系统结构
    2.1 元数据密集型
        2.1.1 并行应用分类
        2.1.2 元数据密集型应用
        2.1.3 元数据密集型应用带来的挑战
    2.2 元数据访问性能模型
    2.3 系统结构
        2.3.1 元数据服务器
        2.3.2 客户端
        2.3.3 底层共享并行文件系统
    2.4 需求分析
        2.4.1 元数据管理
        2.4.2 小文件I/O
        2.4.3 大目录支持
    2.5 本章小结
第三章 基于客户端无状态缓存和服务端目录复制的元数据管理方法
    3.1 文件系统层次结构与元数据访问特征研究
    3.2 元数据分布粒度
    3.3 MoonFS的元数据分布方法
    3.4 基于客户端无状态缓存和服务端目录复制的路径遍历和权限验证优化
        3.4.1 路径遍历和权限验证开销分析
        3.4.2 客户端无状态目录缓存方法
        3.4.3 元数据服务器端目录复制方法
        3.4.4 客户端无状态缓存和服务端目录复制方法
    3.5 MoonFS分布式元数据管理总结
    3.6 实验分析
        3.6.1 实验背景
        3.6.2 实验测试用例
        3.6.3 顺序写-随机读测试用例
        3.6.4 随机写-随机读测试用例
    3.7 本章小结
第四章 基于LSM-tree的元数据及小文件索引方法
    4.1 研究背景介绍
        4.1.1 本地文件系统元数据索引方法
        4.1.2 RocksDB和LSM-tree
        4.1.3 LSM-tree面临的挑战
    4.2 基于目录粒度列分割和LSM-tree的元数据索引管理方法
        4.2.1 文件元数据操作与LSM-tree操作映射关系
        4.2.2 动态名字空间划分
        4.2.3 文件元数据键值对映射关系
        4.2.4 元数据操作优化
        4.2.5 失效一致性
        4.2.6 元数据存储
    4.3 基于LSM-tree和延迟key分配的小文件写优化方法
    4.4 实验分析
        4.4.1 实验背景
        4.4.2 测试系统配置
        4.4.3 元数据密集型应用测试
        4.4.4 数据密集型应用测试
        4.4.5 大文件I/O
    4.5 本章小结
第五章 基于乐观同步的目录扩展方法
    5.1 应用的大目录需求
    5.2 MoonFS的目录自适应扩展方法
        5.2.1 目录分裂前提条件
        5.2.2 目录分裂方法
        5.2.3 目录项定位
        5.2.4 基于乐观同步的目录分裂优化
    5.3 实验分析
        5.3.1 实验背景
        5.3.2 测试系统配置
        5.3.3 元数据可扩展性
        5.3.4 分裂优化性能测试
        5.3.5 客户端访问开销
    5.4 本章小结
第六章 结束语
    6.1 论文工作总结
    6.2 课题研究展望
致谢
参考文献
作者在学期间取得的学术成果

(10)面向高并发数据访问的并行I/O性能优化机制研究(论文提纲范文)

摘要
Abstract
1. 绪论
    1.1 研究背景和意义
    1.2 国内外研究现状
    1.3 研究内容
    1.4 论文框架结构
2. IBCS系统架构与设计
    2.1 系统概述
    2.2 相关系统简介
    2.3 系统体系结构与功能模块
    2.4 系统工作机制与工作流程
    2.5 系统关键问题与难点分析
    2.6 小结
3. IBCS系统关键技术
    3.1 I/O访问模式和数据物理存储布局的获取与分析
    3.2 代理进程的选择与文件域划分
    3.3 I/O请求重组织
    3.4 小结
4. 系统测试和性能分析
    4.1 测试环境
    4.2 基准测试程序性能测试
    4.3 小结
5. 总结与展望
致谢
参考文献
附录1攻读硕士学位期间参加的主要科研项目
附录2攻读硕士期间申请的发明专利目录
附录3攻读学位期间发表的论文

四、基于直接数据访问的并行文件系统(论文参考文献)

  • [1]基于机器学习的动态分区并行文件系统性能优化[J]. 吴嘉澍,王红博,代浩,须成忠,王洋. 集成技术, 2020(06)
  • [2]面向高性能计算系统的融合数据管理关键技术研究[D]. 程鹏. 国防科技大学, 2020(01)
  • [3]E级计算的存储系统突发数据缓存的I/O性能优化[D]. 梁伟浩. 中国科学技术大学, 2019(02)
  • [4]基于故障数据预处理的超算系统容错关键技术研究[D]. 黄璜. 国防科技大学, 2019(01)
  • [5]高性能计算机I/O性能优化关键技术研究[D]. 喻杰. 国防科技大学, 2018(02)
  • [6]基于层次式混合存储技术的并行文件系统关键技术研究[D]. 刘欣. 国防科技大学, 2018(02)
  • [7]I/O特性感知的并行存储系统关键技术研究[D]. 董文睿. 国防科技大学, 2017(02)
  • [8]面向全基因组关联分析的海量数据多任务并行数据框架研究[D]. 刘培浩. 国防科技大学, 2017(02)
  • [9]并行文件系统元数据管理研究[D]. 王立新. 国防科学技术大学, 2017(02)
  • [10]面向高并发数据访问的并行I/O性能优化机制研究[D]. 王志翔. 华中科技大学, 2015(06)

标签:;  ;  ;  ;  ;  

基于直接数据访问的并行文件系统
下载Doc文档

猜你喜欢