一、元计算环境对FORTRAN并行程序设计的支持(论文文献综述)
李传莹[1](2020)在《面向高性能应用的通信特征分析技术研究》文中研究说明高性能计算伴随着大规模数据处理日益增长的情况下,其科学技术的研究和国民生活经济的各个方面均拥有着海量的应用需求和广泛的应用前景。随之而来的是高性能计算机系统的计算速度不断刷新新高,高性能应用也在不断发展与完善。面对海量计算的高性能应用,用户如何更直观的分析程序性能状态、更快的找出程序性能瓶颈迫在眉睫,目前国内外的研究机构和科研院校在这方面已经进行了大量的工作并积累了许多经验,对程序性能监测工具的研究也具有代表性,虽然他们是针对于不同的应用开发而来,并且采用的分析手段也不相同,但均是对程序的性能起到监测分析的作用。针对高性能应用的性能分析,本文研究高性能应用的通信特征,并对其进行分析,设计实现了一个通信特征分析工具,该工具通过数据采集接口实现实时获取应用程序性能数据,提供了更高的实用性、可移植性和易用性。本文主要工作如下:(1)设计并实现面向高性能计算的通信数据采集方法。本文主要根据不同网络层次确定需要采集的通信数据类型以及采集的手段,在此基础上设计合理的数据采集方案,通过代码插桩技术,在不影响高性能应用的前提下自动有效地采集正确的性能参数和通信行为特征数据。(2)设计并实现面向高性能应用的通信特征分析。将数据采集接口嵌入到应用的多个层级上,通过设置不同的参数组合运行程序,记录应用的通信数据,然后从采集数据中抽取提炼程序的通信特征,进而提取应用通信特征的关键参数,比如说通信函数开始时间、结束时间、传输数据量等等,最后利用通信特征分析技术报告进行后续的性能分析。在本文中,针对不同层次、不同结点采集的数据具有不同的格式,提取并根据时间顺序重新整理数据,对全局通信计算其通信量,整合这些通信数据并生成报告,对得到的通信特征进行分析,便于用户对应用进行后续的优化。(3)特征分析技术在Linux系统中的实现与实例分析。本文在Linux系统中对面向高性能应用的通信特征分析技术的关键点进行了测试,并且通过实例对并行程序性能数据进行通信特征分析,证明通信特征分析技术在真实环境中的可实现性。同时用直观、富于语义的方式来展示性能数据,如程序结构可视化、数据分布的可视化以及计算可视化。在本文中通过应用实例对应用的通信特征进行分析,采取不同的数据进行对比,结果表明,该技术极大的方便用户找出应用程序的性能瓶颈。因此面向高性能应用的通信特征分析技术能够高效优化程序,在接下来即将到来的E级计算时代,能较为轻易的收集并行信息、数据分配信息和通信信息,较为准确的判断应用的性能情况,让用户据此更为合理的分配计算负载给处理器,以达到大规模计算下的处理器负载均衡,提高计算的效率的同时也更加合理的利用资源。
唐佩佳[2](2020)在《基于标记的跨平台并行编程框架设计与实现》文中研究说明随着并行计算技术的发展和普及,业界存有大量的串行应用程序需要迫切改造为并行程序,来提高数据处理能力。而串行程序并行化面临两个基本问题:(1)并行编程的高成本问题。并行编程需要专业的并行编程能力和丰富的工程经验,开发并行程序需要大量的工程成本和时间。(2)并行平台的多样性问题。随着各种并行硬件平台和并行编程模型数量的增加,并呈现出多样化,需要具备快速生成所需目标并行平台的并行程序的能力。针对上述两个问题,需要通过高效易用的并行编程框架来辅助并行编程。为此,本文设计并实现了一种基于标记语言的三层并行编程框架,主要的思路和方法是:(1)并行编程框架结构设计。设计了三层框架结构,分别是串行程序层、并行中间代码层、目标并行编程语言程序层。通过对串行代码进行语言标记来实现有并行语义的并行中间代码层,再对并行中间代码层进行代码解析来实现可执行的目标并行编程语言程序层,其中并行中间代码层实际是多种并行平台编程模型的一种抽象,与具体并行平台无关。(2)并行机制与标记语言设计。通过对多种并行编程模型(共享存储并行模型、分布式存储并行模型、多任务操作系统并行模型和GPU并行模型)下的数据并行任务进行抽象,建立了基于数据并行的标准任务模型,包括三个计算阶段:数据划分和分发、数据计算、数据收集和规约。设计了一套并行标记方法用于表达与平台无关的并行语义,来辅助并行编程框架进行代码解析,代码解析系统将带有标记的串行程序转化为用户指定平台的并行程序,实现串行程序跨平台并行化。(3)辅助支撑系统设计。设计了性能标记方法用于程序性能参数的自动寻优,这些寻优参数为线程数和进程数、任务负载量等,寻优系统提升了并行程序的性能。此外,还包括用户搭建跨平台并行计算环境和设置并行条件等。本文框架适用于多种软件平台(Windows、Linux、VxWorks)和硬件平台(X86和PowerPC)下的以计算为主的流数据处理任务。最后,将并行编程框架应用于某工程数据处理项目。项目应用反映了框架可以产生用户指定并行平台的并行程序,且计算结果与对应串行程序结果一致;并且评估了框架在共享存储平台和分布存储平台下产生的并行程序的性能,其加速比与人工编写的并行程序相当。
盛红佼[3](2020)在《基于OpenMP的磁壳参数L值并行计算和优化研究》文中认为在日地空间环境中,磁层是太阳活动与地球相互作用的主要区域,是物质能量交换的重要场所。辐射带是磁层的核心区域之一,是磁层俘获高能粒子的主要聚集地,这些高能粒子是日地相互作用过程中物质能量的载体。辐射带粒子在磁场的作用下发生回旋、弹跳和漂移运动,是威胁航天器安全和效能的重要因素。辐射带研究中(L,B)坐标系可实现把三维问题降为二维问题,大大提升了辐射带三维空间有限观测数据的利用率。磁壳参数L值是其中的重要参量之一,在粒子特性分析、航天器轨道辐射环境描述以及辐射带建模等研究领域应用十分广泛。L值由磁力线追踪积分计算而得,由于地球磁场位型极为复杂,导致磁力线追踪步长严格受限,造成单次追踪计算步数多。此外,由于不同空间位置处磁力线追踪路径和追踪距离随时空变化差异显着,造成多次L值追踪计算之间相互独立、复杂度不一且无法简并,导致L值计算速度慢、效率低。随着计算机软硬件技术的快速发展,并行计算为此类大型且复杂的计算问题提供了解决方案。本文通过分析不同模式的并行计算,选定共享内存的OpenMP作为并行工具。鉴于OpenMP的并行优势,已经被广泛应用于不同的研究领域,但目前尚未发现在磁壳参数L值计算领域有所涉及。由于L值被广泛应用于科学和应用领域,但其计算速度慢、效率低,所以,提高L值的计算效率具有重要的研究意义。为了提高L值的计算效率,本文采用OpenMP对目前广泛应用的L值计算程序实现单机多线程并行化,并分析了并行程序计算结果的准确性、加速比、效率以及负载平衡性。结果表明,OpenMP可以成功实现程序的并行化,明显提高L值的计算效率。当线程数量设置与系统最大线程数相等时(本文所用计算机系统线程数最大为8),并行效果最优,加速比范围为1.57~2.81,并行效率范围为19.63%~35.13%。分析发现,线程间负载不平衡是影响并行效果的主要因素。为了进一步提高并行加速比和并行效率,优化负载不平衡。本文提出了一种表征L值计算复杂度的排序因子,并基于此提出了排序和重分配(“sort”、“S”分配)的优化负载算法。采用dynamic、sort+“S”、sort+dynamic、sort+“S”+dynamic四种方式优化并行程序,对不同方式的优化效果进行了比对分析,结果表明sort+dynamic的优化效果最优,加速比范围为2.30~3.30,效率为28.75%~41.25%。优化后并行加速比提升了0.49~0.73,并行效率提升了6.12%~9.12%。本文研究表明,OpenMP可以成功实现L值计算程序的并行化,明显提高L值的计算效率。针对负载不平衡的问题,采用sort+dynamic方式调节可获得最好的并行加速比和效率。该研究可以为空间科学和其他领域类似大数据分析研究提供有益探索和重要参考。
崔家武[4](2019)在《MPI并行技术在测绘数据处理中的应用》文中提出随着科技发展,空间数据获取手段越来越丰富,测绘数据类型越来越多,数据量爆发式增长,如何快速、实时地处理海量数据成为测绘领域当前的研究热点。多核多处理器计算机是人类解决大规模科学计算的有力工具。随着并行技术不断发展,与并行计算机配套的并行系统、并行编程环境、并行处理算法等也日趋完善。其中,消息传递接口MPI(Message Passing Interface)作为并行计算领域消息传递编程模型的代表,已被广泛应用到各个学科及领域中。本文将MPI并行技术应用到测绘数据处理中,主要从以下3个方向具体展开研究:(a)物理大地测量学领域的格网重力场元并行计算;(b)摄影测量与遥感学领域的影像分块并行匹配;(c)激光点云领域的多幅点云数据并行配准。本文主要研究工作如下:(1)介绍了并行计算机体系,比较了消息传递、共享存储和数据并行三种并行编程环境,分析了MPI并行模式,总结了MPI常用调用接口的通信模式、功能特点和适用范围。(2)针对球谐综合法计算大规模格网重力场元耗时长问题,首先分析了求解地球重力场元的球谐综合计算公式,引入数组预存再调用方法来避免传统算法中对cosm?、sinm?及勒让德函数的递推系数的重复计算问题,再结合MPI并行技术来提高计算效率,并分别在DELL服务器和天河二号超算上进行了测试。实验结果表明,MPI并行技术能大幅度提高计算效率,大大减少计算耗时;系数预存再调用的方式在性能一般的服务器上,可显着提高计算效率,但在计算性能优异的超算平台上反而会拖慢计算速度。(3)SIFT(Scale Invariant Feature Transformation)算法匹配精度高,但实时性较差。本文利用MPI对图像进行分块并行处理,并针对图像分块匹配产生的裂缝问题,提出采用图像重叠分割并行处理。SIFT算法主要可分为两部分:特征提取和特征匹配,其中特征提取耗时占整个算法耗时的大部分,而特征匹配耗时占比较小。基于这个特点,实验设置了两个并行方案:并行方案1并行提取特征,再收集特征进行串行匹配;并行方案2并行提取特征后,将其中1幅图像的特征收集并广播给所有进程,实现了特征并行匹配。实验结果表明,利用MPI对图像进行分块并行处理可显着加快SIFT匹配速度;方案2的通信时间开销要多于方案1,但特征匹配耗时减少,整体效率比方案1更优。(4)点云精确配准一般采用ICP(Iterative Closest Point)算法,利用ICP算法对多幅点云进行逐对配准时,处理时间较长。本文引入分局变换矩阵作为过渡矩阵,通过MPI将一系列点云进行分段并行处理。实验结果表明,利用MPI对多幅点云进行分段处理可显着加快配准速度,减少执行时间;文本类型点云读取慢,利用MPI对多幅点云并行读取可大幅度减少耗时。
汪超[5](2019)在《薄壳结构的多GPU并行计算方法及其在车身设计中的应用研究》文中研究指明基于壳单元理论的有限元分析方法广泛应用于汽车车身的CAE分析,在本文中主要用于解决板壳结构的非线性问题和板料冲压成形的仿真计算问题。随着有限元模型越来越复杂,仿真过程中需要处理庞大的计算量,所以计算仿真的效率较低。由于强大的数据处理能力,基于GPU的并行计算方法早已用于解决仿真分析中计算效率低的问题。但是,单个GPU受到硬件资源的限制,无法满足大规模计算的需求。当前的异构计算平台能够配置2-4块GPU设备,单机多路GPU的计算平台突破了单个GPU硬件资源的限制。本文主要工作就是将基于单机多路GPU的并行技术应用于解决薄壳结构的动态非线性问题和板料的冲压成形的仿真问题。具体的工作与成果如下:(1)在调用多个GPU对有限元模型进行仿真计算之前,合理的对有限元网格模型进行区域分解是相当重要的。本文基于METIS开源库开发了适用于本文算法的数据分区预处理系统从而实现了有限元网格数据的快速区域分解。该系统有两个优点:一是各子区域的计算量均衡,二是各区域间的边界点数量较小。(2)使用OpenMP和统一计算架构(CUDA)的混合编程模型实现了有限元显式求解的多GPU并行计算方法,并开发了具有自主知识产权的基于多GPU并行的车身结构分析软件。并行实现的大致思路分两方面:一方面为基于OpenMP模式CPU线程级并行,另一方面为基于CUDA架构的GPU轻量级线程并行。前者主要是通过开辟与GPU设备数量相同的CPU线程数,一个CPU线程控制着一个GPU设备的启动与挂起。后者则主要是通过建立GPU线程与单元、节点、自由度的抽象映射关系,从而实现基于BT壳单元理论的显式迭代求解部分在多GPU上全过程处理。(3)在基于预索引策略的节点内力组装过程中,在处理百万级单元规模的有限元模型时,计算的循环量达到万亿级别,耗时相当严重。因此,本文对此预索引策略加以改进,同样处理百万级单元规模的有限元模型时,计算的循环量则只有千万级别,从而降低了算法的时间复杂度,明显的缩短了索引时间。对板壳非线性问题进行数值仿真,计算的结果表明,本文提出的基于多GPU的并行计算方法能满足工程问题的精度要求,并且计算效率得到了明显的提升。在四路Titan Xp GPU工作站上对10,889,568自由度的车身弹性变形问题进行求解时,四路GPU的计算绝对加速比可达73倍,相对加速比可达3.4,非常接近理论值。(4)本文提出了适用于板料冲压成形仿真计算的多GPU并行计算方法。针对显式迭代过程中的求解特征,提出了包括弹塑性材料本构的单元计算的多GPU并行计算方法以及接触力求解的GPU并行计算方法,实现了板料冲压成形仿真的显式迭代过程的全流程并行。通过数值算例测试基于多GPU的板料冲压成形仿真的并行计算方法的计算精度和计算效率。结果表明:在计算精度方面,基于多GPU计算平台的并行计算方法的仿真结果与基于CPU平台的计算方法的结果是一致的;在计算效率方面,对单元规模为49万的板料有限元模型进行数值计算时,相比串行程序的计算速度,基于四路Titan Xp GPU计算平台可达到近210倍的绝对加速比。
张昆[6](2018)在《各向异性复合材料的本构关系及其在X射线辐照下动力学响应的三维有限元模拟》文中提出以碳纤维增强树脂(Carbon Fiber Reinforced Polymer,CFRP)为代表的各向异性复合材料具有高强度,高模量,性能可设计等优点,在航天器结构件的设计与制造中获得了广泛的使用。航天器在外太空工作时,可能受到核爆产生的高能X射线脉冲辐照,此时复合材料制成的表层蒙皮可能会产生汽化、烧蚀、层裂,材料内部则会产生热激波传播,上述现象会严重威胁到航天器的正常工作。因此,研究CFRP材料在X射线脉冲辐照下的动力学响应问题具有重要意义。但是,各向异性复合材料的性能较为复杂,其在X射线脉冲辐照下的动力学响应不仅需要本构模型与物态方程来进行描述,而且还涉及汽化相变及拉伸断裂等损伤行为。并且对于这一过程采用有限元等数值计算方法进行研究时,还需要解决能量沉积过程与动力学计算耦合的问题。基于各向异性复合材料在航天领域获得广泛使用的背景,本文以解决该类材料抗辐射加固评估技术为目标,对某型正交各向异性CFRP材料在X射线辐照下动力学响应的三维数值模拟开展了较系统研究,研究工作及主要结论如下:1.将高空核爆X射线近似为一定温度的黑体辐射,给出了不同黑体谱温度下光子随波长的能量分布,并基于X射线光子与材料相互作用的光电效应及Compton散射效应,计算得到了铝及CFRP材料对不同波长光子的质量吸收系数。以有限长圆柱壳体靶板为例,首次给出了一种三维条件下通过计算能通量矢量面积分来得到X射线辐照能量沉积剖面的计算方法。2.建立了正交各向异性材料的三维弹塑性本构模型与物态方程。其中弹性段应力应变关系采用广义Hook定律描述,塑性段应力应变则采用塑性流动法则计算。压强在压缩状态采用Grüneisen物态方程描述,在膨胀及汽化状态采用PUFF物态方程描述。针对材料各向异性力学特性导致的本构关系与物态方程不耦合的问题,本文对上述物态方程进行了修正,使得修正后的物态方程在高压段仍保留对压力与体积的非线性关系的描述,又能在低压段反映出材料的正交各向异性的特点。3.采用拉格朗日描述下的显式有限元算法自行编写了三维X射线热激波计算程序TSHOCK3D。针对热激波计算问题的特点及等参单元结合单点Gauss积分的数值方法,给出了对应的人工体积黏性及沙漏黏性的修正方案。在程序代码编写上将单元运算函数及节点运算函数分离进行封装,程序结构清晰。利用铝飞片撞击CFRP材料平板实验验证了程序动力学计算部分及本文给出的CFRP材料力学模型的正确性,并通过对碳纤维增强酚醛树脂材料(C/PF)平板撞击实验的模拟,对本文提出的材料力学模型进行了定量的分析与验证。基于对Sandia实验室铝靶在Z箍缩设备X射线辐照下的汽化反冲实验的模拟计算,得到了相应工况下的靶板汽化反冲冲量,通过比对实验及理论模型结果验证了TSHOCK3D程序对X射线辐照动力学响应问题计算的准确性及可靠性。4.采用TSHOCK3D程序对CFRP材料在几种典型黑体谱X射线辐照下的三维动力学响应进行了数值模拟,并对汽化反冲冲量和热激波传播规律进行了分析。结果表明CFRP材料的各向异性力学性能对热激波传播有非常明显的影响,与金属铝相比,能够有效降低表层汽化反冲冲量及内部压力峰值。5.基于抗辐射加固研究中大规模数值计算的需要,结合TSHOCK3D程序编写中各个子函数的特点,本文提出了一种数据并行与过程并行相结合的并行算法设计方案,并利用MPI并行库在个人计算机上实现了该程序的并行加速。该方案的可扩展性良好,加速性能上与串行程序相比较,并行版程序最高能将计算时间压缩至前者的20%左右,加速效率则维持在70%左右。
崔杨洋[7](2017)在《基于OpenMP大地电磁二维有限元正演模拟》文中指出大地电磁测深(MT)是通过采用天然交变电磁场来分析研究地质体的电性差异,主要用于地球内部结构、地壳深部探测等方面的一种频率域电磁勘探方法。随着大地电磁技术的不断发展,二维、三维正反演技术的不断更新,对大地电磁计算精度与效率的要求也不断提高。目前,已经有许多研究在有限元的差值函数以及解线性方程组的精度上做了改进,而有限元研究区域剖分的差异还存在误差影响,同时还存在着在大地电磁正演中求解大型稀疏矩阵线性方程组计算效率的问题,不仅会增加正演的计算时间,而且同时降低了反演的速度,所以并行技术的使用可以加快正反演的计算速度,提高其运算效率。本文首先全面概括了大地电磁数值模拟和OpenMP并行计算的国内外研究历史以及现状,在大地电磁正演中,针对大地电磁正演采用有限单元法进行数值模拟,本文主要以二维模型为例,首先以频率域的麦克斯韦方程组为基础,详细推导二维MT正演模拟过程中的边值问题和变分问题所满足的微分方程,对研究区域采用矩形剖分,双线性插值的插值方法,然后采用变带宽存储大型稀疏矩阵并解决线性方程组的求解问题,同时在求解过程中定义TE和TM两种模式,依据不同的模式分别编写计算视电阻率的实用正演程序。在此基础上,首先研究并行计算的理论与并行方式,从OpenMP并行计算的原理出发,实现二维大地电磁任意频点数的有限元正演模拟及OpenMP并行计算。对于不同频点之间并行策略的完全对等性,进行多线程并行化。通过对模型的分析,验证并行计算技术的正确性,更好地加快运算效率。通过设计一维均匀层状模型,对数值模拟和理论计算下的不同结果作对比,由此来来说明本文算法正确性;然后设计均匀半空间中含有的异常体二维模型,以此来验证程序的可靠性和准确性;并针对“低阻异常”进行简单分析,总结影响探测异常体能力的变化规律;针对研究区域采用四种的网格剖分方式,以此来总结网格剖分方式对异常体埋藏深度的影响;通过煤矿采空区的应用实例分析,验证数值计算结果的可靠性,对有效探测煤矿采空区提供了更好的应用价值。
贾红学[8](2015)在《板的特大增量步算法及并行计算》文中研究说明本文涉及的“特大增量步算法(Large Increment Method,简称LIM)”是指基于广义逆矩阵理论、针对小变形和小位移的固体材料非线性问题的一种新颖的力法有限元方法。与传统的位移法有限元相比,它具有应力计算精度高,运算量小,空间和时间上的可并行性强等特点。在空间并行性方面,它能够以单元为最小单位并行求解柔度方程;在时间并行性方面,由于它能对各个时刻均利用线弹性的结果作为初始值,并行地引入不同加荷历史中材料的非线性性质,通过整体几何协调的迭代优化算法求解,因而具有很强的时间上的可并行性。基于适用于中厚板的Reissner-Mindlin理论建立的位移法板单元在求解较薄的板时,随着板的厚跨比逐渐变小,剪切应变能被过分夸大,计算出的弯曲变形远小于实际变形,从而出现所谓的“剪切闭锁”现象。剪切闭锁产生的根源是由于将三维的问题的位移场在一些强假设的限定下简化为二维问题而导致的数值问题。LIM是一种以力为变量的力法有限元方法,在这方面有突出的优势。为了求解板问题,采用LIM,本文通过假设合适的广义内力场创新性地提出了以力为变量的四节点和八节点四边形板单元,分别应用平衡的单元广义内力场和简化的中厚板位移场,通过虚余功原理建立板单元的控制方程。由于假设的广义内力场能比较正确地反映薄板和中厚板的内力的分布,通过本文的LIM方法求解不易出现剪切闭锁现象。在此基础上,本文还基于LIM的控制方程和广义逆矩阵理论提出了判别单元柔度矩阵是否存在零能模式、是否病态的充要条件。通过与精确解和位移法有限元法的结果比较,本文构造的板单元在LIM方法求解中厚板和薄板问题时有较好的收敛性和准确性。此外,为了将LIM应用到求解板的弹塑性问题,论文给出了板单元的一致弹塑性柔度矩阵,算例分析结果表明,LIM在求解弹塑性问题时有很高的计算效率和适用性。本文所使用的是一般用户容易获得和掌握的并行环境。它们是:硬件环境为内存16GB、8核的小型工作站,处理器为Intel(R)Core(TM)CPU;软件环境为64位Windows 7操作系统和基于Open Multi-Processing(简称OpenMP)和Message Passing Interface(简称MPI)的编程环境。OpenMP是共享内存并行程序设计的标准,适用于共享内存的多核计算机。MPI是一种消息传递编程模式,适用于共享内存的多核计算机和分布式内存计算机。本文的空间并行直接应用OpenMP实现,而时间并行按MPI实现。通过分析可知,LIM在空间和时间上有很好的并行效果。
张帆[9](2011)在《基于MPI和GPU直流电法和大地电磁法三维正演的并行算法研究》文中认为电磁法勘探是勘探地球物理方法中重要的分支,电磁法勘探分为两大类,即传导类电磁法和感应类电磁法,传导类电磁法中是以直流电法为主;感应类电磁法中,主要是电磁测深法,其中具有代表性的是大地电磁法。随着电磁法勘探技术的不断发展,特别是三维正反演技术的不断更新,大规模计算问题也越来越多,迫切需要将并行计算最新技术应用到电磁法勘探解释工作中来。直流电法和大地电磁法的三维正演都存在需要求解大型稀疏对称系数矩阵线性方程组的问题,计算消耗的时间很长,降低了正演的运算效率,同时降低了三维反演的效率。因为直流电法和大地电磁法的三维正演计算问题都具备一定的并行性,本论文采用并行计算最新技术基于GPU并行计算和基于MPI的并行计算相结合的计算模式对这两种电磁法已有的三维正演串行算法进行并行化处理。即基于MPI的并行方法粗粒度的分配计算任务到各个计算节点,然后基于GPU的并行计算将计算任务繁重的大型稀疏对称系数矩阵线性方程组的求解进行细粒度的并行化处理,使用GPU的众多流处理器执行运算。对于直流电法,将供电电源多次移动,即多个供电电源的位置上测得的测量电极电位差的多个数据集粗粒度的分配到各个计算节点,每个计算节点在进行三维正演计算时将基于共轭梯度算法的求解大型稀疏对称系数矩阵线性方程组的过程细粒度并行化,分解到GPU的各个流处理器中执行运算。对于大地电磁法,因为所处理的数据是按照不相同的多个频率来处理的,所以将大地电磁三维正演算法所需要计算的频率基于MPI并行粗粒度的分配到各个计算节点中,在每个节点在进行三维正演计算时将基于共轭梯度算法的求解大型稀疏对称系数矩阵线性方程组的过程细粒度并行化,分解到GPU的各个流处理器中执行运算。最后,选取不同模型,通过实验分析验证了直流电法和大地电磁的三维正演并行算法的正确性和性能。通过该并行计算模式能够实现更大限度的并行化,更好的提高这两种正演算法的运算效率。
白建方[10](2007)在《复杂场地土层地震反应分析的并行有限元方法》文中提出复杂场地的土层地震反应分析对结构的地震反应计算及抗震安全性评价有重要意义。采用直接有限元法对土层进行三维建模,可使系统的计算力学模型更加符合实际情况。但由此带来的计算量之大,使得普通微机的硬件环境难以胜任。在此背景下,本文将并行有限元理论引入到土层地震反应分析领域,主要完成了以下几方面的工作:1.探讨了将约束子结构模态综合法引入到复杂场地地震反应分析领域的可行性,建立了在一致输入下基于约束子结构模态综合法的土层等效线性化分析的计算框图。在此基础上,为提高计算效率,结合土层有限元模型自身的特点和约束子结构本身的性质,提出了几种改进措施。2.结合数值试验,给出了行波输入下沿地震波传输方向上的土层有限元网格划分原则。推导了静力子结构方法计算拟静力位移的步骤,通过实际算例验证了行波输入下利用约束子结构模态综合法进行复杂场地地震反应分析的可行性。3.利用神经网络方法研究了地震波激励作用下,土层阻尼系数转换频率与各主要影响因素之间复杂的非线性关系。通过比较时域和频域的计算结果,探讨了在土层时域分析中,如何由滞后阻尼系数形成阻尼矩阵的问题。利用实际地震波的分析结果,建立了阻尼系数转换频率的BP神经网络预测模型,为利用滞后阻尼系数在时域中进行土层反应分析创造了条件。4.利用面向对象方法完成了串行程序的编制,列出了程序中涉及到的一些主要类的接口。并结合几个算例说明了使用本文串行程序进行有限元建模时在人工边界的处理和单元类型的选择方面应该注意的一些问题。5.介绍了并行计算系统的主要种类和相关特性以及构建并行计算系统的硬件要求、系统软件及编程环境,讨论了在其上分布并行计算的一些概念和需要解决的问题。基于Windows操作系统和MPI并行程序开发环境,使用C++语言编写了复杂场地地震反应分析的并行有限元程序ParaSR3D,并在高性能计算机群上对该程序的并行性能进行了评测。6.对实际河谷地形进行了等效线性化分析。计算结果表明,不同的行波速度和行波输入方向对地表加速度的峰值和相位有不同程度的影响,对于大跨度结构来说考虑多点输入有助于科学合理的进行地震反应分析。
二、元计算环境对FORTRAN并行程序设计的支持(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、元计算环境对FORTRAN并行程序设计的支持(论文提纲范文)
(1)面向高性能应用的通信特征分析技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 国内研究现状 |
1.2.2 国外研究现状 |
1.3 本文组织结构 |
第2章 相关理论与技术 |
2.1 高性能计算与并行计算 |
2.1.1 高性能计算 |
2.1.2 并行计算 |
2.1.3 五种主要并行编程模型 |
2.2 代码插桩技术 |
2.3 应用通信特征分析 |
2.4 本章小结 |
第3章 应用通信数据采集方法 |
3.1 通信数据采集基本方案 |
3.1.1 基本方案 |
3.1.2 主要功能和工作流程 |
3.2 代码插桩技术 |
3.2.1 代码插桩流程 |
3.2.2 代码插桩的实现 |
3.3 通信特征数据的传输 |
3.3.1 数据传输原理 |
3.3.2 通信特征数据传输的实现 |
3.4 数据采集模块的实现 |
3.5 本章小结 |
第4章 面向高性能应用的通信特征分析 |
4.1 通信特征分析方法 |
4.1.1 模板抽取与处理 |
4.1.2 基于时序的程序行为分析 |
4.1.3 标准格式下的程序行为分析 |
4.2 通信特征整理与分析 |
4.2.1 通信函数整理与分析 |
4.2.2 程序内存占用整理与分析 |
4.2.3 程序进程通信函数时间整理与分析 |
4.3 通信特征模型的建立与特征分析 |
4.4 本章小结 |
第5章 实验与结果分析 |
5.1 通信特征数据采集测试 |
5.1.1 代码插桩测试 |
5.1.2 数据传输测试 |
5.1.3 通信特征数据采集 |
5.2 通信特征分析测试及可视化 |
5.2.1 模板抽取与处理测试 |
5.2.2 程序结构可视化 |
5.2.3 数据分布可视化 |
5.2.4 计算可视化 |
5.3 实例测试与特征分析 |
5.3.1 实例模型 |
5.3.2 加速比和效率 |
5.3.3 通信特征分析 |
5.4 本章小结 |
结论 |
参考文献 |
附录A 攻读硕士学位期间主要研究成果 |
致谢 |
(2)基于标记的跨平台并行编程框架设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状 |
1.2.1 自动并行技术及工具 |
1.2.2 并行编程模型及框架 |
1.2.3 基于标记的并行框架 |
1.2.4 面向应用编程框架 |
1.3 本文研究内容 |
1.3.1 并行编程框架结构设计 |
1.3.2 并行机制与标记语言设计 |
1.3.3 辅助支撑系统设计与实现 |
1.4 论文组织 |
第2章 相关并行编程模型和框架 |
2.1 PVTOL |
2.2 OpenMM |
2.3 本章小结 |
第3章 并行编程框架总体设计 |
3.1 任务模型设计 |
3.1.1 信号处理问题 |
3.1.2 任务模型抽象和建立 |
3.2 框架总体设计 |
3.2.1 框架层次模型 |
3.2.2 框架处理流程 |
3.2.3 框架结构设计 |
3.3 标记系统设计 |
3.3.1 标记语言设计 |
3.3.2 标记语言结构 |
3.3.3 标记语言分类 |
3.4 基于标记的代码解析 |
3.4.1 代码解析算法设计 |
3.4.2 数据划分和分发阶段 |
3.4.3 数据计算阶段 |
3.4.4 数据收集和归约阶段 |
3.5 本章小结 |
第4章 并行编程框架实现及优化 |
4.1 并行环境实现 |
4.1.1 并行条件设置 |
4.1.2 并行初始化实现 |
4.2 并行及跨平台实现 |
4.2.1 标记系统实现 |
4.2.2 代码解析系统实现 |
4.3 性能参数自动寻优 |
4.3.1 共享存储平台 |
4.3.2 分布存储平台 |
4.4 实验与结果分析 |
4.4.1 并行跨平台程序生成实验 |
4.4.2 并行性能对比实验 |
4.5 本章小结 |
第5章 总结 |
5.1 本文工作 |
5.2 本文贡献与创新之处 |
5.3 进一步工作 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
攻读学位期间参加的科研项目 |
(3)基于OpenMP的磁壳参数L值并行计算和优化研究(论文提纲范文)
摘要 |
abstract |
第1章 引言 |
1.1 研究背景 |
1.1.1 磁层的基本结构 |
1.1.2 辐射带粒子的运动 |
1.1.3 辐射带研究历史 |
1.1.4 辐射带与航天安全 |
1.2 地球磁壳 |
1.2.1 磁壳的概念 |
1.2.2 磁壳参数L值 |
1.2.3 研究意义及应用 |
1.3 并行计算 |
1.3.1 并行计算的概念 |
1.3.2 并行计算的模型、模式和开发 |
1.3.3 并行计算的性能评估 |
1.3.4 并行计算的性能优化 |
1.3.5 研究意义 |
1.4 研究进展 |
1.4.1 L值的研究历史 |
1.4.2 并行计算的研究历史 |
1.5 研究意义、内容与文章结构 |
第2章 L值的计算 |
2.1 计算原理 |
2.2 计算源代码 |
2.2.1 IRBEM-LIB库 |
2.2.2 L值计算源代码 |
2.2.3 L值计算输入参量 |
2.2.4 L值计算流程 |
2.3 L值计算代码改造 |
2.3.1 代码提取 |
2.3.2 主程序编写 |
2.3.3 编译调试 |
2.4 程序验证 |
第3章 OpenMP并行方法 |
3.1 并行原理 |
3.2 并行方法 |
3.3 任务分配方式 |
3.4 并行性能分析方法 |
3.4.1 并行计算误差 |
3.4.2 并行加速比和效率 |
3.4.3 负载平衡分析方法 |
第4章 L值的OpenMP并行计算 |
4.1 L值并行可行性 |
4.1.1 并行特点 |
4.1.2 硬件环境 |
4.1.3 可行性分析 |
4.2 输入参数设定 |
4.3 并行过程 |
4.4 并行结果 |
4.4.1 并行准确性分析 |
4.4.2 并行加速比和效率分析 |
4.4.3 负载平衡分析 |
4.5 结果讨论 |
第5章 OpenMP并行优化 |
5.1 优化原理 |
5.2 优化方法 |
5.2.1 dynamic调节 |
5.2.2 Sort+“S”调节 |
5.2.3 Sort+“S”+dynamic调节 |
5.2.4 Sort+dynamic调节 |
5.3 优化结果 |
5.4 优化结果讨论 |
5.4.1 最优调节方式 |
5.4.2 不同外磁场模型下“子任务”耗时分布 |
5.4.3 不同外磁场的并行加速比 |
5.4.4 不同外磁场的优化潜力 |
第6章 结论与展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(4)MPI并行技术在测绘数据处理中的应用(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 MPI并行技术发展现状 |
1.2.2 重力数据并行处理研究现状 |
1.2.3 影像并行处理研究现状 |
1.2.4 点云数据并行处理研究现状 |
1.3 本文研究内容 |
第二章 MPI并行程序设计 |
2.1 并行计算环境 |
2.1.1 并行计算机体系 |
2.1.2 并行计算软件环境 |
2.2 MPI基础知识 |
2.3 MPI并行模式 |
2.3.1 SPMD模式和MPMD模式 |
2.3.2 对等模式和主从模式 |
2.3.3 数据并行和步骤并行 |
2.4 MPI常用函数接口 |
2.4.1 MPI的数据类型 |
2.4.2 MPI基本函数接口 |
2.4.3 MPI点对点通信模式 |
2.4.4 MPI组通信函数接口 |
2.5 并行性能评价标准 |
2.6 本章小结 |
第三章 基于MPI的格网重力场元并行计算 |
3.1 球谐综合基本原理 |
3.2 串行算法及数组预存 |
3.3 格网重力场元并行算法与实现 |
3.4 算例与分析 |
3.4.1 服务器上的并行实验分析 |
3.4.2 天河二号上的并行实验分析 |
3.5 本章小结 |
第四章 基于MPI的影像分块SIFT并行匹配 |
4.1 SIFT基本原理 |
4.1.1 构建DOG尺度空间 |
4.1.2 特征点检测与定位 |
4.1.3 特征点方向计算 |
4.1.4 SIFT特征向量生成与匹配 |
4.2 基于MPI的 SIFT并行算法与实现 |
4.2.1 SIFT并行算法 |
4.2.2 SIFT并行实现 |
4.3 SIFT并行匹配分析 |
4.3.1 图像分割对特征提取的影响 |
4.3.2 SIFT并行效率分析 |
4.4 本章小结 |
第五章 基于MPI的多幅点云ICP并行配准 |
5.1 多幅点云ICP配准原理 |
5.1.1 点云滤波 |
5.1.2 最近点匹配 |
5.1.3 LM算法 |
5.1.4 ICP逐步匹配多幅点云 |
5.2 多幅点云并行匹配算法与实现 |
5.3 算例与分析 |
5.4 本章小结 |
结论与展望 |
参考文献 |
攻读学位期间的科研成果 |
致谢 |
(5)薄壳结构的多GPU并行计算方法及其在车身设计中的应用研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 引言 |
1.2 有限元方法与并行计算方法发展概述 |
1.2.1 基本有限元方法 |
1.2.2 有限元并行计算技术 |
1.3 车身薄板冲压成型数值方法研究现状 |
1.4 本文主要研究内容 |
第2章 基于CUDA架构的多GPU的并行技术 |
2.1 基于GPU的并行计算技术 |
2.1.1 计算机架构 |
2.1.2 异构计算 |
2.1.3 CUDA异构计算平台 |
2.2 CUDA编程模型 |
2.2.1 CUDA程序执行方式 |
2.2.2 GPU内存管理 |
2.2.3 线程管理 |
2.3 基于多GPU的并行技术 |
2.3.1 OpenMP技术 |
2.3.2 OpenMP-CUDA混合编程模型 |
2.4 杆单元算例的性能测试 |
2.4.1 杆单元算例模型 |
2.4.2 杆单元计算结果 |
2.5 本章小结 |
第3章 BT壳单元有限元理论和并行计算方法 |
3.1 BT壳单元有限元理论 |
3.1.1 随动坐标系 |
3.1.2 应力位移关系 |
3.1.3 有限元方程 |
3.1.4 沙漏控制技术 |
3.1.5 中心差分法 |
3.2 BT单元理论的显式有限元计算方法并行的可行性分析 |
3.2.1 求解时间步长 |
3.2.2 计算节点外力 |
3.2.3 单元计算 |
3.2.4 更新节点的坐标 |
3.3 基于单GPU的显式有限元并行实现 |
3.3.1 计算对象与GPU线程间的映射策略 |
3.3.2 矢量化内存访问 |
3.3.3 显式求解过程的并行实现 |
3.3.4 数据通信策略 |
3.4 本章小结 |
第4章 基于多GPU的板壳单元显式并行计算方法 |
4.1 有限元网格数据分区 |
4.1.1 多级分区算法 |
4.1.2 基于METIS开源库的分区策略 |
4.2 多GPU并行的实现过程 |
4.2.1 多GPU内核函数的执行 |
4.2.2 多GPU并行算法程序流程图 |
4.2.3 多GPU并行的数据通信 |
4.3 数值算例及分析 |
4.3.1 并行计算的性能评价指标 |
4.3.2 Spherical cap标准算例 |
4.3.3 大规模的数值算例 |
4.4 本章小结 |
第5章 基于多GPU的板料冲压成形的并行计算方法 |
5.1 板料冲压成形问题的有限元仿真方法 |
5.1.1 模型建立 |
5.1.2 本构关系 |
5.1.3 接触摩擦计算 |
5.1.4 仿真计算流程 |
5.2 冲压成形程序关键算法的GPU并行 |
5.2.1 并行程序的整体流程图 |
5.2.2 弹塑性材料本构计算并行化 |
5.2.3 接触计算并行化 |
5.3 基于多GPU的薄板冲压成形并行计算系统开发 |
5.3.1 基于多GPU的冲压成形仿真计算流程 |
5.3.2 板料有限元网格数据分区 |
5.3.3 多GPU的并行实现过程 |
5.3.4 数据通信策略 |
5.4 数值算例及分析 |
5.4.1 杯突成形的计算模型 |
5.4.2 数值仿真计算 |
5.4.3 结果分析 |
5.5 本章小结 |
总结与展望 |
1 本文总结 |
2 后期工作展望 |
参考文献 |
附录 A 攻读学位期间的研究成果 |
1 已投稿的期刊论文 |
2 软件着作权 |
致谢 |
(6)各向异性复合材料的本构关系及其在X射线辐照下动力学响应的三维有限元模拟(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 引言 |
1.2 国内外研究动态综述 |
1.2.1 CFRP类材料的力学性能相关研究 |
1.2.2 X射线脉冲辐照所引起的动力学响应相关研究 |
1.2.3 CFRP材料在X射线辐照下动力学响应研究中存在的主要问题 |
1.3 研究目的和主要研究内容 |
第二章 X射线在材料中的能量沉积及热激波产生机理 |
2.1 核爆X射线的能谱及其与物质的相互作用机理 |
2.1.1 X射线的黑体辐射模型 |
2.1.2 X射线光子与物质相互作用机理及质量吸收系数的计算 |
2.2 X射线在物质内的能量沉积及热激波的产生 |
2.3 材料汽化反冲冲量及X射线热激波的理论解 |
2.4 小结 |
第三章 三维动力学有限元设计 |
3.1 基于拉格朗日描述的动力学方程组 |
3.2 三维显式有限元方法 |
3.2.1 有限元计算的一般步骤 |
3.2.2 等参单元及单点高斯积分 |
3.2.3 人工黏性力及沙漏黏性力 |
3.3 三维条件下六面体单元能量沉积算法 |
3.3.1 算法描述 |
3.3.2 算例分析 |
3.4 TSHOCK3D程序设计 |
3.5 小结 |
第四章 三维应变下正交各向异性本构模型及物态方程 |
4.1 正交各向异性弹塑性本构模型 |
4.2 考虑正交各向异性的物态方程修正 |
4.3 平板撞击问题的模拟及修正模型的影响因素 |
4.3.1 与真实平板撞击实验的对比及模型验证 |
4.3.2 与数值实验的对比及模型影响因素分析 |
4.4 本章小结 |
第五章 CFRP及铝板X射线热激波的三维数值模拟 |
5.1 铝板中的汽化反冲冲量及其与实验的对比 |
5.2 CFRP平板中热激波的数值计算 |
5.2.1 CFRP材料中热激波与铝靶的对比 |
5.2.2 X射线能谱对热激波的影响 |
5.3 本章小结 |
第六章 TSHOCK3D程序的并行化设计 |
6.1 并行计算及MPI简介 |
6.2 并行程序设计方案 |
6.3 并行算例及并行效率研究 |
6.4 本章小结 |
第七章 结论与展望 |
7.1 结论 |
7.2 论文创新点 |
7.3 研究展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(7)基于OpenMP大地电磁二维有限元正演模拟(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 引言 |
1.2 国内外大地电磁发展现状 |
1.3 选题依据和研究意义 |
1.4 研究目标和内容 |
1.4.1 研究目标 |
1.4.2 研究内容 |
第2章 二维大地电磁正演数值模拟的理论基础 |
2.1 大地电磁的边值问题 |
2.1.1 基本方程 |
2.1.2 边界条件 |
2.2 变分问题 |
2.3 有限单元法 |
2.3.1 有限单元法理论基础 |
2.3.2 网格剖分 |
2.3.3 双线性插值 |
2.3.4 单元分析 |
2.4 计算视电阻率 |
第3章 OpenMP并行计算理论基础 |
3.1 OpenMP原理与特征 |
3.2 OpenMP并行算法设计 |
第4章 正演程序与OpenMP并行程序的实现 |
4.1 正演程序实现 |
4.1.1 Fortran语言 |
4.1.2 正演程序 |
4.1.3 程序流程图 |
4.2 OpenMP并行计算程序实现 |
第5章 模型验证与分析 |
5.1 大地电磁一维水平层状模型 |
5.1.1 模型一 |
5.2 二维大地电磁水平地形正演模拟 |
5.2.1 模型二 |
5.2.2 模型三 |
5.3 OpenMP并行计算 |
5.4 低阻异常的响应 |
5.4.1 低阻目标体截面积大小变化的数值模拟 |
5.4.2 低阻目标体埋藏深度变化的数值模拟 |
5.4.3 低阻目标体视电阻率变化的数值模拟 |
5.5 目标体埋藏深度对网格剖分的影响 |
5.5.1 浅部异常 |
5.5.2 深部异常 |
5.6 煤矿工作面采空区模拟 |
5.6.1 低阻采空区数值模拟 |
5.6.2 煤矿采空区探测实例分析 |
第6章 结论与建议 |
6.1 结论 |
6.2 建议 |
参考文献 |
致谢 |
附录 |
(8)板的特大增量步算法及并行计算(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 板理论和板的有限元发展历史 |
1.2 有限元方法在材料非线性问题分析中的研究现状 |
1.3 特大增量步算法的提出及研究现状 |
1.4 并行有限元方法研究现状 |
1.5 本论文主要的研究内容和应用范围 |
第二章 特大增量步算法的理论基础 |
2.1 特大增量步算法的控制方程 |
2.2 广义逆矩阵理论及其应用 |
2.2.1 广义逆矩阵理论简介 |
2.2.2 广义逆矩阵理论的应用 |
2.3 特大增量步算法中的优化理论 |
2.4 材料非线性问题的特大增量步算法的计算流程 |
2.5 本章小结 |
第三章 特大增量步算法在板分析中的应用 |
3.1 板的基本理论 |
3.1.1 薄板理论 |
3.1.2 中厚板理论 |
3.2 特大增量步算法中板单元的控制方程 |
3.3 四节点四边形板单元 |
3.3.1 广义内力场的选择 |
3.3.2 算例分析 |
3.4 八节点四边形板单元 |
3.4.1 广义内力场的选择 |
3.4.2 算例分析 |
3.5 零能模式的抑制方法 |
3.6 本章小结 |
第四章 一致弹塑性柔度矩阵的建立 |
4.1 平面应力状态下的一致弹塑性柔度矩阵 |
4.1.1 弹塑性材料本构模型的基本描述 |
4.1.2 平面应力状态下的一致弹塑性柔度矩阵 |
4.2 板单元广义Mises屈服准则下的一致弹塑性柔度矩阵的推导 |
4.3 材料非线性问题的数值分析算例 |
4.3.1 单调加载情况分析 |
4.3.2 往复加载情况分析 |
4.4 本章小结 |
第五章 基于MPI和 OpenMP的多核并行计算 |
5.1 并行计算概述 |
5.1.1 并行计算机及其分类 |
5.1.2 并行计算的两种模型 |
5.1.3 并行计算性能评价 |
5.2 基于MPI的网络并行计算 |
5.2.1 MPI简介 |
5.2.2 MPI常用的基本函数 |
5.2.3 MPI程序设计流程 |
5.3 基于OpenMP的多核并行计算 |
5.3.1 OpenMP简介 |
5.3.2 OpenMP编程基础 |
5.3.3 OpenMP编译指导语句 |
5.3.4 OpenMP常用的库函数 |
5.3.5 编译环境的设置 |
5.4 LIM使用的并行环境 |
5.5 本章小结 |
第六章 特大增量步算法的并行方案与并行效率分析 |
6.1 特大增量步算法的并行性分析 |
6.2 特大增量步算法的并行方案 |
6.2.1 非线性弹性问题的并行方案 |
6.2.2 往复加载的弹塑性问题的并行方案 |
6.3 特大增量步算法的并行程序的基本结构 |
6.4 特大增量步算法并行效率分析 |
6.4.1 空间并行性分析 |
6.4.2 时间并行性分析 |
6.5 本章小结 |
第七章 结论和展望 |
7.1 论文结论 |
7.2 论文创新点 |
7.3 展望 |
参考文献 |
攻读博士学位期间发表的学术论文 |
致谢 |
(9)基于MPI和GPU直流电法和大地电磁法三维正演的并行算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 引言 |
1.1 本论文研究目的及其意义 |
1.2 国内外研究现状 |
1.3 本论文研究内容 |
1.4 本论文研究方法和技术路线 |
1.4.1 硬件方面 |
1.4.2 软件方面 |
1.4.3 直流电法三维正演并行算法 |
1.4.4 大地电磁三维正演并行算法 |
1.5 本论文结构 |
1.6 本论文创新点 |
1.7 本章小结 |
第2章 基于MPI 及GPU 的并行计算技术 |
2.1 并行计算的研究目的和内容 |
2.2 并行计算机发展历程 |
2.3 基于MPI 的并行计算 |
2.3.1 MPI 简介 |
2.3.2 MPI 并行程序设计 |
2.3.3 MPI 的通信模式 |
2.4 基于GPU 的并行计算 |
2.4.1 GPU 并行计算的发展 |
2.4.2 基于CUDA 的GPU 并行计算 |
2.5 本章小结 |
第3章 直流电法三维正演并行算法设计 |
3.1 直流电法三维有限差分正演算法简介 |
3.1.1 三维点电源地电场电势的微分方程 |
3.1.2 偏微分方程的离散化 |
3.1.3 边界条件 |
3.1.4 基于预处理共轭梯度法求解线性方程组 |
3.2 直流电法三维正演并行算法的必要性 |
3.3 直流电法三维正演并行算法的总体设计思路 |
3.3.1 基于MPI 的并行计算粗粒度任务划分 |
3.3.2 基于GPU 的细粒度的并行计算 |
3.4 直流电法三维正演并行算法验证分析 |
3.4.1 二维板状体 |
3.4.2 三维棱柱体 |
3.5 本章小结 |
第4章 大地电磁三维正演并行算法设计 |
4.1 大地电磁三维正演交错采样有限差分法简介 |
4.1.1 大地电磁场应满足的方程 |
4.1.2 大地电磁三维正演交错采样网格化 |
4.1.3 大地电磁麦克斯韦方程组积分形式的离散化 |
4.1.4 边界条件 |
4.1.5 基于预处理共轭梯度法求解大地电磁线性方程组 |
4.2 大地电磁三维正演并行算法的必要性 |
4.3 大地电磁三维正演并行算法的总体设计思路 |
4.3.1 基于MPI 的并行计算粗粒度任务划分 |
4.3.2 基于GPU 的细粒度的并行计算 |
4.4 大地电磁三维正演并行算法实验分析 |
4.4.1 二维棱柱体 |
4.4.2 三维棱柱体 |
4.5 本章小结 |
第5章 结论 |
致谢 |
参考文献 |
附录 |
(10)复杂场地土层地震反应分析的并行有限元方法(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 选题背景和研究现状 |
1.1.1 复杂场地的土层地震反应分析 |
1.1.2 结构分析理论的并行有限元方法 |
1.2 本文的研究目的及研究内容 |
1.2.1 论文的研究目的 |
1.2.2 理论意义和实际应用价值 |
1.2.3 主要研究内容 |
1.2.4 课题创新点 |
1.2.5 论文的组织 |
第2章 理论基础 |
2.1 土层地震反应的基本方程 |
2.1.1 一致输入下运动方程 |
2.1.2 多点输入下运动方程 |
2.1.3 土层地震反应分析的等效线性化方法 |
2.2 结构动力分析的子结构理论 |
2.2.1 分析复杂结构的策略思想和常见的子结构种类 |
2.2.2 约束子结构的计算原理 |
2.3 并行机算简介 |
2.3.1 并行机算机的分类和发展历史 |
2.3.2 并行程序设计基本知识 |
2.3.3 消息传递并行程序设计 |
2.3.4 并行算法的性能度量 |
2.4 面向对象方法学与有限元 |
2.4.1 结构化编程技术的缺点 |
2.4.2 面向对象方法学 |
2.4.3 类—对象之间关系图 |
2.4.4 面向对象有限元 |
第3章 一致输入下土层地震反应分析的约束子结构法 |
3.1 复杂场地动力反应分析的约束子结构模态综法 |
3.1.1 计算原理与步骤 |
3.1.2 土层有限元建模 |
3.1.3 算法验证 |
3.2 设置标准子结构的土层动力反应约束子结构模态综合法 |
3.2.1 引言 |
3.2.2 优化算法的原理 |
3.2.3 优化算法的验证 |
3.3 考虑局部非线性的土层等效线性化方法 |
3.4 基于模态摄动原理的一种改进的等效线性化方法 |
3.4.1 传统等效线性化方法的效率分析 |
3.4.2 模态摄动法的基本思想 |
3.4.3 基于模态摄动原理的土层等效线性化分析的一种改进 |
3.4.4 算例分析 |
3.5 土层有限元建模的两个问题研究 |
3.5.1 扩展区地形地貌的变化对核心计算区动力反应的影响 |
3.5.2 扩展区地质参数的变化对核心计算区动力反应的影响 |
3.5.3 实际土层有限元建模的建议 |
3.6 本章小结 |
第4章 行波输入下土层地震反应分析的约束子结构法 |
4.1 行波传输方向上有限元网格的划分原则 |
4.1.1 数值试验方案 |
4.1.2 数值试验结果及分析 |
4.2 基于静力子结构的多点输入拟静力位移求解 |
4.3 算例分析 |
4.4 本章小结 |
第5章 基于神经网络的土层阻尼系数转换频率预测 |
5.1 理论基础 |
5.1.1 阻尼系数转换频率 |
5.1.2 神经网络基本理论 |
5.2 基于BP网络的阻尼系数转换频率预测模型 |
5.2.1 网络拓扑结构的确定 |
5.2.2 样本集的准备和数据的前后处理 |
5.2.3 BP网络模型的训练 |
5.3 神经网络模型的应用 |
5.4 本章小结 |
第6章 串行有限元程序的面向对象分析与实现 |
6.1 面向对象分析 |
6.1.1 静态结构分析 |
6.1.2 动态行为分析 |
6.2 面向对象设计 |
6.2.1 单元类 |
6.2.2 节点类 |
6.2.3 材料类 |
6.2.4 子结构类 |
6.2.5 整体结构类 |
6.3 面向对象程序实现 |
6.3.1 编程语言的选择 |
6.3.2 编程环境的选择 |
6.4 关于串行程序的几点说明 |
6.4.1 固端梁算例 |
6.4.2 均匀土层算例 |
6.4.3 结果分析 |
6.5 本章小结 |
第7章 并行有限元程序的面向对象分析与实现 |
7.1 分布存储式并行计算环境的构建原理 |
7.1.1 并行机种类的确定 |
7.1.2 硬件配置和网络拓扑结构的确定 |
7.1.3 操作系统的安装 |
7.1.4 并行编程环境的选择 |
7.2 基于消息传递接口的并行编程环境配置 |
7.2.1 几个MPI重要概念 |
7.2.2 基于消息传递的并行程序执行模式 |
7.2.3 一般的MPI程序设计流程图 |
7.2.4 Microsoft Windows环境下MPICH的安装与配置 |
7.3 基于约束子结构模态综合法的并行有限元程序设计 |
7.4 程序性能测试与评价 |
7.4.1 正确性检验 |
7.4.2 并行性能测试与评价 |
7.5 本章小结 |
第8章 实际场地的并行有限元分析 |
8.1 算例基本情况简介 |
8.2 计算结果及分析 |
8.2.1 不同地震波的影响 |
8.2.2 基岩不同地震波输入方式的影响 |
8.2.3 地震波输入方向的影响 |
8.2.4 土层非线性的影响 |
8.3 本章小结 |
第9章 结论与展望 |
9.1 本文主要研究成果 |
9.2 对下一步工作的展望 |
参考文献 |
致谢 |
个人简历 |
在学期间发表的学术论文与研究成果 |
四、元计算环境对FORTRAN并行程序设计的支持(论文参考文献)
- [1]面向高性能应用的通信特征分析技术研究[D]. 李传莹. 湖南大学, 2020(07)
- [2]基于标记的跨平台并行编程框架设计与实现[D]. 唐佩佳. 中国科学技术大学, 2020(02)
- [3]基于OpenMP的磁壳参数L值并行计算和优化研究[D]. 盛红佼. 中国科学院大学(中国科学院国家空间科学中心), 2020(02)
- [4]MPI并行技术在测绘数据处理中的应用[D]. 崔家武. 广东工业大学, 2019(02)
- [5]薄壳结构的多GPU并行计算方法及其在车身设计中的应用研究[D]. 汪超. 湖南大学, 2019(07)
- [6]各向异性复合材料的本构关系及其在X射线辐照下动力学响应的三维有限元模拟[D]. 张昆. 国防科技大学, 2018(01)
- [7]基于OpenMP大地电磁二维有限元正演模拟[D]. 崔杨洋. 桂林理工大学, 2017(06)
- [8]板的特大增量步算法及并行计算[D]. 贾红学. 上海交通大学, 2015(03)
- [9]基于MPI和GPU直流电法和大地电磁法三维正演的并行算法研究[D]. 张帆. 中国地质大学(北京), 2011(07)
- [10]复杂场地土层地震反应分析的并行有限元方法[D]. 白建方. 同济大学, 2007(07)