甲骨文与英特尔挑战合作极限

甲骨文与英特尔挑战合作极限

一、Oracle与Intel挑战合作极限(论文文献综述)

袁博[1](2021)在《微波凝视关联成像收发通道不确定性参数分析、估计及成像方法研究》文中研究说明基于微波时空两维随机辐射场的微波凝视关联成像是一种新的可用于凝视成像几何构型下的雷达成像技术。微波凝视关联成像利用随机辐射源在成像区域构建时空两维随机辐射场,利用接收的回波信号和演算得到的辐射场进行关联处理,获得目标的雷达图像。作为一种计算成像技术,微波凝视关联成像系统需要准确获取雷达系统成像工作状态时的各项参数,从而对辐射场矩阵进行精确计算,通过关联处理获取目标的最终图像。然而,雷达系统中存在的不确定参数,极大的影响了关联成像的成像质量,也阻碍了微波凝视关联成像从理论研究走向实用化。本文主要针对微波凝视关联成像系统收发通道中的不确定性参数问题进行了研究。本文第一部分工作首先针对多发射单接收、发射随机跳频信号的雷达系统体制,系统梳理和分析了收发通道中存在的不确定性参数,建立了包含不确定性参数的成像模型;分析了不确定性参数对成像的影响;通过仿真,分析了各项不确定性参数误差的范围对成像的影响,从而确立系统的校正指标范围。本文第二部分工作研究了高稳健性的微波凝视关联成像方法。为了减小成像求解的病态性,考虑对稀疏目标,引入目标的稀疏先验信息;对非稀疏目标,添加合适的正则化约束。对于稀疏目标,本文考虑了散射点分布的空间聚簇特性,提出了一种新的空间聚簇分布假设先验,并利用变分贝叶斯和广义近似消息传递框架推导了算法的迭代过程,通过仿真分析了所提算法的有效性。对非稀疏目标,提出了基于混合高斯分类的非局部低秩正则化项,通过对成像场景的非局部相似子图像进行分类,并添加低秩约束,提高了成像求解的质量。仿真验证了所提方法对不确定性参数具有更高的容忍度,成像效果更加稳健。本文第三部分工作研究了基于辅助校正通道的不确定性参数估计方法。首先提出了基于辅助校正通道的不确定性参数系统设计方案;然后针对系统的参数模型,提出了具体的数据处理流程和数据处理方法,仿真验证了所提方法的有效性。最后通过暗室实验,初步验证了所提方法可以有效提取不确定性参数,从而减小对辐射场的演算误差。本文第四部分工作研究了基于区间搜索的自校正微波凝视关联成像方法。针对系统中,不确定性参数的区间范围已知的情况下,分别考虑了针对基带同步误差和随机相位误差的自校正微波凝视关联成像方法。为了减小计算量,并且取得较好的收敛效果,提出了基于批次处理的不确定性参数迭代估计方法。通过仿真验证了所提方法的有效性,从而进一步完善了微波凝视关联成像不确定性参数的处理方法。

刘智[2](2020)在《面向多系统的数据库调优》文中提出关系型数据库系统具有大量用于I/O优化、并行计算、查询计划、内存分配、日志等方面的配置参数。普通用户甚至数据库专家都很难将其进行调优以获得良好的性能。虽然有很多可用于数据库调优的操作指南,但指南不可以一直为数据库提供优越的性能。尽管可以凭借指南来在特定数据库使用场景下发挥出不错的性能表现,但它们并非适用于所有场景。很多机构不得不雇佣昂贵的人力来对数据库系统进行调优。同时随着信息技术的高速发展,后台系统中多系统相互依赖和影响的情况越来越突出。以往针对性能、可用性和可靠性的研究主要面向单一系统,单节点或多节点,相对忽视了多系统情况的整体优化目标。本研究的目的是在单一系统调优的基础上,提出能有效扩展到多系统的调优方法,并开发一套调优工具。本文贡献分为如下三个方面:首先构建调优模型,将基于关系型数据库PostgreSQL和分布式计算框架Spark共同构建一个存储与计算相分离并且资源弹性配置的数据仓库DuoSQL纳入调优模型并将其设置为本文的调优对象。基于DuoSQL中PostgreSQL、Spark工作中相互影响的事实,将二者参数统一纳入面向多系统的调优模型,整体考虑系统参数对面向多系统数据库的影响。实现了在单一数据库系统调优的基础上构建面向多系统的数据库调优模型。其次是在调优模型的基础上对性能衡量指标进行降维、聚类处理,使其成为非冗余数据。并对PostgreSQL、Spark的配置参数进行权重排序,减少数据中噪音的数量,提高数据的质量。对调优模型中对数据库内部测量值将系统的工作负载进行映射匹配,使用高斯过程回归和梯度下降,帮助调优模型推荐优秀性能表现下的配置参数。最后是针对DuoSQL在大规模数据处理中,PostgreSQL与Spark集群之间需要数据交互的情况下,运行中各阶段耗费时间的占比相差过大的问题。因此我们根据不同系统的参数空间进行分级,划分为网络资源参数空间、计算资源参数空间,在参数分类的基础下针对不同使用情景形成协同调优策略进行更细粒度的调优,从而优化查询时间及各阶段时间占比结构。

刘宣[3](2020)在《面板数据空间回归模型的变量选择》文中研究指明信息技术的快速发展迎来了数据量的急剧膨胀,这些数据带来海量信息的同时也携带大量冗余信息,从而造成模型的不确定问题更加突出。因此,如何利用好已有数据,排除冗余信息,在众多的变量信息中选择显着变量构建统计模型是学界关心的热点问题之一。空间回归模型是空间计量经济学的主要实证模型,它可以描述数据的空间相依特性,解释空间聚集和溢出效应,对深入理解区域间的空间传导机制具有重要价值。虽然在过去的四十多年里,空间回归模型理论不断发展完善,但多数研究仍然停留在传统的估计和统计推断方法的考察上,对变量选择问题的研究相对滞后,客观上已难以满足实证应用的进一步需要。基于上述考虑,本文对尚未开始探讨的固定效应空间回归模型、随机效应空间回归模型以及具有稳健性的固定效应空间分位数自回归模型和随机效应空间分位数自回归模型的变量选择问题进行深入研究,具有重要的理论意义和实践价值。本文主要的研究内容和结论体现在以下三个方面:第一,固定效应空间回归模型和随机效应空间回归模型的变量选择研究。在固定效应空间回归模型的设定下,为避免固定效应随样本量增大而出现冗余参数问题,论文通过转换方法剔除固定效应,再结合拟似然函数和SCAD惩罚函数构建了该模型的惩罚拟似然函数方法来实现变量选择。在随机效应空间回归模型的设定下,虽然拟似然函数的结构更加复杂,但冗余参数问题不再出现,论文直接采用拟似然函数和SCAD惩罚函数构建了该模型的惩罚拟似然函数方法来实现变量选择。不过,为了有效选择变量和识别空间效应,两类模型均对回归系数和空间自回归系数分别给予了不同程度的惩罚。在上述基础上,论文还设计了新的算法解决了两类模型目标函数的非凸优化问题,以及给出了 BIC信息准则处理惩罚函数调节参数的选择问题。在一定的正则假设条件下,证明了所构建的惩罚估计量具有相合性、稀疏性和渐近正态性。数值模拟结果表明:有限样本环境中,惩罚拟似然方法表现良好,其变量选择精度随样本量的增加而提高,具有同时实现空间效应识别、自变量选择以及未知参数估计的特点,与理论结果一致。此外,模拟结果受不同空间效应强度和空间权重矩阵的影响较小,具有较强的稳健性。第二,固定效应空间分位数自回归模型和随机效应空间分位数自回归模型的变量选择研究。在固定效应空间分位数自回归模型的设定下,通过分位数工具变量法解决模型的内生性问题,结合分位数回归损失函数构建了自适应LASSO惩罚方法来实现变量选择。在随机效应空间分位数自回归模型的设定下,为改善模型估计的效果,以贝叶斯的视角审视随机效应的处理,再结合分位数工具变量法和分位数回归损失函数构建了自适应LASSO惩罚方法来实现变量选择。同样,为了有效选择变量和识别空间效应,两类模型均对回归系数和空间自回归系数分别给予了不同程度的惩罚。在上述基础上,还设计了新的算法解决了两类模型目标函数的优化问题,以及给出了 BIC信息准则处理惩罚函数调节参数的选择问题。在一定的正则假设条件下,证明了所构建的惩罚估计量具有相合性、稀疏性和渐近正态性。数值模拟结果表明:有限样本环境中,自适应LASSO惩罚方法表现良好,其变量选择精度随样本量的增加而提高,具有同时实现空间效应识别、自变量选择以及未知参数估计的特点,与理论结果一致。此外,模拟结果受不同分位点、空间效应强度、空间权重矩阵和扰动项的分布影响较小,具有较强的稳健性。第三,基于2007-2017年国内省域相关数据,根据所提出的面板数据空间回归模型的变量选择方法研究气候和生产条件对农业净收益的影响。实证结果表明:国内省域间农业净收益存在显着的空间相关性;农村人均用电量和受灾面积的影响可忽略不计;人均水资源、单位面积化肥施用量和平均气温具有正向影响;在低分位点,人均水资源的影响不明显,单位面积化肥施用量、农业机械化程度和人口密度的影响相对较大;随着分位点的增大,人均水资源的作用显着提升,而农业机械化程度、人口密度和平均气温的影响逐渐降低。

张鹏[4](2020)在《面向异构众核平台的多任务流编程与性能优化技术研究》文中研究表明传统通用处理器的设计与制造受限于功耗、散热等因素,其计算能力的持续提升遇到瓶颈,不能满足人们日益增加的计算能力需求。由通用多核处理器和专用加速器组成的异构众核系统具有很好的计算能耗比,在高性能计算领域和嵌入式计算领域都得到了越来越广泛的应用。然而,通用多核处理器与加速器间的数据搬运开销(通信开销)却成为影响异构程序性能的重要因素。多任务流技术是一项可以高效利用异构系统计算资源的编程技术。它通过对计算任务与硬件资源的划分,重叠计算任务与数据传输任务,以利用异构系统的时间与空间共享特征,从而掩藏数据搬运开销。因此,面向异构众核系统研究多任务流机制的编程方法与性能优化技术具有重要的研究意义。使用多任务流技术编写高效异构程序,仍面临包括多任务流编程模型支持短缺、程序编写门槛高、性能优化困难等在内的多方面的挑战。目前只有部分编程模型支持多任务流编程,特别是国产众核系统尚缺乏对异构编程模型及多任务流机制实现的支持。异构系统的编程相对传统编程,增加了主机与加速器的数据传输、负载分配、加速器管理等操作,而且还需要针对加速器专门编写内核代码。而多任务流编程在异构系统编程基础上,还需要程序员划分任务数据、调度数据传输与计算任务,这进一步增加了编程难度。多任务流编程的性能问题主要是流配置参数的选择,包括任务的划分数量和硬件资源的划分数量。这些参数对多任务流程序性能有很大影响,且选择参数不当时程序的性能会比不使用任务流编程时更差。而选择恰当的参数很具有挑战性,这是因为流配置参数的取值空间很大,并且不同的平台、程序和输入数据集,最优的参数取值都可能不同。本文面向异构众核平台研究多任务流机制实现与多任务流程序优化技术,包括支持多任务流机制的编程模型实现技术、多任务流代码自动生成技术和多任务流程序自动调优技术,旨在最小化宿主机与加速器间的通信开销并降低程序员编写异构程序的难度,从而最大程度地发掘异构系统的潜在计算性能。本文的研究内容和贡献主要包括:1.针对国产众核加速器Matrix-2000缺少多任务流编程模型支持的问题,本文首次设计并实现了Open CL编程环境MOCL,支持多任务流编程;其运行时系统采用“推送优先”的任务分派方法和“无锁”的原子操作实现,方便用户有效利用众核加速器。还针Matrix-2000的体系结构特点,提出了一组新的分析与优化技术,可以帮助用户高效地发挥加速器计算潜力。2.针对编写异构多任务流程序容易出错且耗时的问题,本文首次实现了一个异构多任务流代码的自动生成与优化框架,能够将串行C代码自动地分析并转换成异构多任务流代码。该框架不仅能够支持当前各种主流的异构编程环境,具有良好的可扩展性,而且还实现了消除冗余数据传输等优化技术,从而显着地提高所生成的多任务流代码的性能。3.流配置参数(含任务划分数量和硬件资源划分数量)是Xeon Phi平台上影响异构多任务流程序性能的重要参数。针对最优流配置难以找寻的问题,本文首次提出了一种自动化的最佳流配置预测模型构建方法:先对参数进行分类,然后使用机器学习算法训练分类器,使用分类器来预测多任务流程序参数。实验结果表明,与只使用单个任务流相比,使用本方法能够获得的平均加速比为1.6倍,能够达到最优性能的94.5%。4.使用分类方法获得的流配置参数只能落到训练时“所能见到的”参数集合中,但是该参数集合有可能无法覆盖整个参数取值空间,导致模型的泛化能力有限。为了避免对参数进行分类并将该方法应用到更多的异构众核平台,本文使用回归方法构建性能模型以预测使用不同参数时多任务流程序的性能,通过对参数空间进行搜索找到优化参数。在Intel Xeon Phi和NVIDIA GPU两个平台上的实验结果表明,与使用单个任务流相比,本方法能够取得的平均加速比分别为1.6倍和1.1倍,分别达到最优性能的93.7%和97.9%。

陈松懋[5](2020)在《单光子探测编码技术及图像重构算法研究》文中提出得益于其良好的距离分辨力与方向性,激光雷达技术已被广泛应用于光电侦查、遥感测绘等领域,并在自动驾驶等若干新兴领域扮演着不可或缺的角色。然而激光在介质中快速衰减的特性严重限制了激光雷达的作用距离,成为了技术发展的瓶颈之一。单光子探测技术通过采用单光子探测器可以响应单光子级能量的回波,极大地提升了探测灵敏度,使得远距离高精度探测成为了可能。盖革模式雪崩光电二极管(Geiger mode Avalanche Photon Diode,Gm APD)因为具有成本低、二值化响应等优势使其成为了最常用的单光子探测器之一,但由于Gm APD不响应强度信息,故需大量累积回波信号才能恢复出回波信号。这一方面使得远距离探测的回波信号过于稀疏,难以有效重建目标信息;另一方面为了快速获取回波光子而采用高重频激光器,导致了距离模糊问题。本文围绕远距离高精度单光子探测存在的距离模糊问题与稀疏光子条件下的图像重建问题对单光子探测成像技术展开研究,取得的主要研究成果如下:(1)为了克服距离模糊提出了两种伪随机编码生成算法——多相伪随机编码快速生成算法与最优多相伪随机编码生成算法,并基于快速傅立叶变换(Fast Fourier Transform,FFT)算法实现快速解码。本文采用伪随机编码的方法大幅增加系统的探测距离,并针对传统的m序列存在的无法高速调制、不包含强度信息以及编码形式、长度固定的问题提出了新的伪随机编码生成算法。多相伪随机编码快速生成算法根据系统参数与Mersenne-Twister算法所产生的随机数对脉冲间隔调制,再通过预设的强度划分范围将调制位的幅值映射至对应的强度。最优多相伪随机编码生成算法则将编码看做是若干个码元的排列问题并通过粒子群优化(Partical Swarm Optimization,PSO)算法求解,初始化则由复杂度较低的线性同余法实现。仿真实验说明本文提出的两种伪随机编码生成算法所产生的伪随机编码自相关性均明显优于对比的双探测器伪随机编码生成算法和m序列,且易于生成;其良好的性质也使得解码算法可选用效率最高的基于FFT的解码算法。(2)针对远距离成像时回波过于稀疏的问题,本文基于Non-Local思想提出了一种稀疏光子条件下的图像重建算法框架NL3DR(Non-Local 3D Restoration)。本文通过建立相似度矩阵获取全部像素间的相关性,基于相似度矩阵构建Laplacian正则项作为约束重建目标的三维图像并交替提升空间联系与重建质量。为了避免稀疏光子条件下大量存在的“空”像素与噪点对获取Non-Local相关性的干扰,本文基于超像素原理提出了MSA(Multi-Scale Analysis)算法作为NL3DR的初始化,大幅提高了重建的鲁棒性;基于数据的泊松统计特性以及Laplacian正则项构建代价函数,其良好的分离特性使得代价函数的最小化问题可由交替方向乘子(Alternating Direction Method of Multipliers,ADMM)算法高效求解。此外还针对NL3DR算法计算复杂度较高的问题,提出了非均匀采样算法为代表的多种优化策略,将NL3DR算法进一步优化为OPN3DR(Optimized based Nonlocal 3D Restoration)算法,显着降低了重建算法对计算资源的需求。仿真数据集与实测数据集的实验结果均表明OPN3DR算法在采样点数远少于RDI-TV等算法的条件下仍具有良好的重建能力,在采样点数相同的情况下优势更为明显;并且在多个数据集中均实现了PPP(Photon-per-Pixel)小于1的图像三维重建。(3)为了利用量子器件的真随机性破解周期性照明对远距离成像的限制,本文研究了基于单光子源的三维成像系统,同时基于OPN3DR算法的变体F3DRSI(Fast 3D Restoration for Single photon source Imaging)算法实现了高精度三维成像。单光子源以其量子器件真随机的特性从原理上避免了距离模糊问题,也避免了使用额外的调制模块与伪随机编码;仅通过测量关联光子对间的时间差即可获得目标距离信息。单光子源极低的探测能量在带来了一系列优点的同时也使得回波信号更为稀疏,为了充分利用有限的回波信息,本文利用F3DRSI算法实现了PPP小于1的快速高精度三维重建,在接近理论极限的环境下实现了毫米级探测精度,重建时间仅为0.18秒至0.41秒。(4)考虑到探测环境对不同谱段有着不同的吸收与散射特性,本文研究了多光谱单光子成像系统及其重建算法MS3DR(Multispectral Sparse 3D Restoration)。多光谱单光子成像可以利用多个谱段探测目标,在获取距离信息的同时能够同时获得目标的光谱特性;而多个谱段的回波也有望增强稀疏光子条件下信息获取的鲁棒性。为了充分利用稀疏的高维回波数据,本文将OPN3DR算法进一步拓展为MS3DR算法;该算法同时利用了谱段间的相关性以及目标在空间分布上的相关性作为先验知识,并进一步基于此重建目标的多光谱图像。仿真实验结果显示MS3DR算法可以在单谱段平均像素光子数小于1的条件下较好地重建出多光谱三维图像。此外本文还研究了MS3DR算法在复杂环境下的重建能力,实现了在单谱段平均像素光子数仅为0.57且SBR(Signal-to-Background Ratio)仅为8.72的条件下的复杂场景多光谱三维重建。

付茜雯[6](2020)在《计算机科技论文摘要的机翻错误类型及译后编辑》文中研究表明科研论文在知识传播过程中作用重大,推动国际范围内的知识共享。摘要是科研论文中必不可少的一部分,既是对论文的概括性总结,也是读者发现和探寻相关领域知识的快捷途径。然而,目前英文摘要的机器翻译质量在精确性和专业性方面都不尽人意,需要通过后期编辑和人工校对才能产出高质量的中文翻译文本。本文以计算机科学论文摘要为例,对谷歌机器翻译的300篇计算机英文论文摘要的中文版本进行了翻译错误类型分析并归类,并提出相应的译后编辑策略。首先在赖斯文本类型理论翻译策略指导下,对机器翻译系统生成的译文进行译后编辑,再邀请计算机专业以及翻译专业的专业人士进行确认。之后以DQF-MQM错误类型分类框架为依据,对机器翻译系统生成的译文中的错误进行分类。研究发现,机器翻译的计算机英文论文摘要的中文版本中存在七大类翻译错误,其中不符合中文表达习惯的翻译错误占比最大,其次是术语误译、误译、欠译、漏译、过译以及赘译。本论文研究发现,由于源文本的信息型学术文本特征,长难句、被动语态以及术语翻译是造成机器翻译错误的主要原因。针对源文本的逻辑缜密、语步序固定等特征,本研究针对性地对各类错误类型提出了相应译后编辑策略。建议译者在译后编辑中通过将隐性连接转换为显性连接从而保持源文逻辑性,通过增加主语以及调整语序处理被动语态保持源文的学术精准,通过恰当选取词意处理半技术词汇等。本研究采用定性和定量分析方法,系统归类了计算机科技文本摘要中机器翻译出现的错误,并提出相应译后编辑策略,为该领域的译者提供参考建议,从而提高该领域的机器翻译质量。

陈杰[7](2018)在《基于x86 SoC的车辆智能驾驶舱和高级驾驶辅助系统设计》文中提出随着社会的进步,汽车工业和电子科技发展迅速,车载电子器件的数量越来越多,汽车电子的平台集成度越来越高,两者的融合正在革新着人们的驾乘体验。本文基于x86 SoC进行系统设计,实现高效的汽车智能驾驶舱技术和高级驾驶辅助系统,降低用户总体成本。本文主要工作如下:一、调查了车载系统的国内外行业现状和发展趋势,对主流车载控制厂商和主要一级供应商的方案进行分析,指出目前智能驾驶舱车载系统的优点与不足,对设计中的关键技术进行阐述,提出本系统设计的整体架构和方案。二、对智能驾驶舱和高级驾驶辅助系统的硬件架构和安全模式进行研究,设计车载计算机系统的硬件架构方案,包括核心主控系统、输入输出控制系统、显示模块、全景摄像模块和存储模块等各子功能模块,提出了360度全景摄像头和双屏后座娱乐显示子模块解决方案。系统实现了智能驾驶舱和高级驾驶辅助系统平台的主控计算机功能。三、在软件方面,采用虚拟化技术,以一个总体的硬件平台无缝支持车载信息娱乐系统(IVI)、数字仪表(Cluster)、后座娱乐双屏显示以及车载导航仪等多个高清屏幕的使用和互动,提升用户体验和降低系统风险。本文实现了完整的智能驾驶舱和高级驾驶辅助系统。通过对系统整体与各子模块的测试,验证了系统的各项预期功能指标,具备良好的推广价值和应用前景。

杨振平[8](2019)在《随机变分不等式问题及其在天然气市场中的应用研究》文中指出变分不等式问题(VIP)在生产分配、管理科学、能源市场以及最优控制等领域有着广泛的应用。然而,许多实际问题往往会受到某些随机因素的影响,漠视这些因素可能会导致经济或社会利益受损。因此,研究随机变分不等式问题(SVIP)有着重要的理论和现实意义。当前,带数学期望的SVIP因其应用广泛而备受关注。由于数学期望通常难以计算,求解VIP的算法一般不能直接应用于求解SVIP。如何设计高效的数值算法求解SVIP,业已成为当今运筹学界最为活跃的课题之一。另一方面,天然气作为一种清洁环保的高效能源,合理开发利用天然气对调整一次能源消费结构和推动节能减排等具有重大的现实意义。然而,随着天然气市场化的推进,天然气生产、运输以及销售过程中的随机性日益显着,例如,天然气的生产成本和市场价格通常会受到天气和市场需求等随机因素的影响,天然气的调压成本则会受到调压器温度等随机因素的影响。这些随机因素给市场参与者制定策略带来了巨大的挑战,由此形成了不确定环境下的天然气生产与运输问题和天然气贸易市场均衡问题。在一定的控制条件下,这两类问题均可转化为SVIP,进而设计高效的数值算法对其进行求解。这是对天然气市场随机问题研究的新探索。本文重点研究一类带数学期望的SVIP,提出了求解SVIP的若干数值算法,并分析了算法的收敛性和复杂度。进一步,将设计的算法用于求解天然气随机生产与运输模型和天然气市场随机均衡模型,研究了随机因素对天然气市场策略的影响,从而为天然气市场决策者提供理论依据。本文的主要研究内容和创新点概括如下:首先,本文研究了一类特殊形式的SVIP,即随机互补问题。结合不可行内点算法和样本均值近似(SAA)方法,构造了基于SAA的不可行内点算法求解随机互补问题,并分析了算法的收敛性和复杂度。进一步,将该算法推广至求解一类更一般形式的随机互补问题。数值结果表明新算法在计算效率上优于一些现有的方法。其次,本文提出了求解SVIP的方差下降修正向前-向后算法,该算法利用随机近似型Armijo线搜索确定步长。与方差下降外梯度算法相比,新算法每次迭代时仅需做一次投影计算。在伪单调等条件下分析了算法的收敛性、残差函数均值的次线性收敛率和复杂度,进而在不需要强单调的条件下证明了算法在有限计算预算下的线性收敛率。数值实验表明,与一些现有的算法相比,新算法具有一定的优势。再次,受VIP的次梯度外梯度算法的启发,本文提出了求解SVIP的方差下降次梯度外梯度算法,该算法利用随机近似型Armijo线搜索确定步长。新算法利用特殊的次梯度投影替换方差下降外梯度算法中的第二个正交投影,该次梯度投影具有显式表达,故每次迭代仅需做一次投影计算。在Minty不等式等条件下分析了算法的收敛性、残差函数均值的次线性收敛率和复杂度。进而,分别在强Minty不等式和有界邻近误差界条件下证明了算法在有限计算预算下的线性收敛率。数值结果表明新算法在计算效率上优于一些现有的算法。进一步,作为SVIP的推广,混合SVIP一般不能直接应用SVIP的求解算法。基于方差下降技术在计算效率上的优势,本文提出了两个求解混合SVIP的方差下降邻近迭代算法:外梯度邻近迭代算法和修正向前-向后邻近迭代算法。在单调等条件下研究了算法的收敛性,进而在有界度量次正则条件下分析了算法的收敛率、迭代复杂度和oracle复杂度。数值结果表明,本文提出的算法是有效的。最后,研究了随机变分不等式问题在天然气市场中的应用。考虑到天气和市场需求等随机因素对天然气的生产成本和市场价格的影响,以利润最大为目标,建立了天然气随机生产与运输模型,进而利用求解随机互补问题的基于SAA的不可行内点算法进行求解。另外,考虑到不同的天然气消费群体对气压的要求不同、贸易商的天然气交易量受长距离管道运输压降的限制以及市场价格受随机因素的影响,以最大化贸易商的利润为目标,建立了天然气市场随机均衡模型,进而利用本文设计的求解SVIP的方差下降算法进行求解。通过对不确定环境下由三个压缩机组成的天然气供应网络和由三个贸易商组成的天然气贸易市场进行仿真测试,研究了随机变量取值范围的变化对天然气市场参与者的策略和最终收益的影响。结合数值结果,为天然气市场参与者在不确定环境下制定策略提供理论帮助。

杨启凡[9](2019)在《面向重型移动应用的直接安卓模拟技术》文中提出移动模拟器在移动操作系统(安卓和i OS)及其应用的研究、开发、调试、大规模部署和跨平台执行方面具备基础性支撑作用。过去二十年里,为了满足移动应用不断增长的性能需求,同时兼顾放缓增长的个人电脑计算能力,学术界和工业界通过不断升级移动模拟器的核心架构来提升模拟效率。目前,在经历了多轮架构迭代之后,个人电脑上最普遍使用的移动模拟技术是Android-x86 On Virtual Box(缩写为AOVB),即使用Virtual Box全虚拟化架构来运行Android-x86系统。AOVB能帮助个人电脑用户顺利运行大部分移动应用,但对于重型移动应用、特别是图形渲染计算量巨大的三维游戏应用(如腾讯公司的“刺激战场”),模拟效率依然差强人意,导致移动应用的运行流畅度过低、困扰用户的卡顿现象频繁出现。究其根本原因,是AOVB为解决移动应用和个人电脑在指令集、操作系统、媒体设备之间高度的异构性,所依赖的全虚拟化架构导致模拟效率始终存在一个较低的上界。为突破模拟效率的瓶颈,本文探索并研发了面向重型移动应用的直接安卓模拟技术(Direct Android emulation On Windows,缩写为DAOW),首次实现了在x86 Windows上直接运行安卓应用的可执行文件,从而消除了全虚拟化所带来的额外计算开销。基于实用高效的指令重写和系统调用模拟机制,DAOW能通过Windows内核接口提供给安卓外来进程直接访问宿主电脑硬件的能力,让安卓应用能以贴近原生移动设备硬件性能的速度运行。此外,DAOW利用图形学技术克服媒体设备差异、增强用户在个人电脑上的移动应用体验,并采取内核层信息安全技术防止可能的移动应用作弊行为。直接安卓模拟技术已被腾讯手机游戏助手软件实际采用,用户量超过5000万,运行重型三维移动应用超过8000个,是目前国际上效率最高的移动模拟软件。相比AOVB,移动应用的运行流畅度平均提升21%(绝大多数重型三维应用能够无卡顿运行于中低端个人电脑)、启动时间缩短48%(平均从25秒缩短到13秒)、内存使用降低22%(平均从1.62 GB降低到1.26GB)。

方佳瑞[10](2019)在《基于“神威·太湖之光”的并行深度学习训练系统》文中提出深度学习是目前最成功的人工智能技术,有望带领人类真正进入智能时代。巨大的计算需求正驱动着深度学习系统软件和超级计算机的结合。因为有美国对我国高性能芯片禁售的前车之鉴,规划中的下一代国产超算系统将全部采用国产众核处理器制造。但是,国产超算上的深度学习系统软件的研究仍是一片空白,它的构建过程临着多方面挑战:一是缺少适合国产众核处理器创新硬件架构特点的优化指导方法;二是缺乏从复杂深度学习计算核心到全新体系结构的映射方法;三是国产编译工具和系统库使用时仍有待克服的技术障碍;四是需要创新的优化方法来解决网络、I/O等硬件模块在超大规模扩展时遇到的问题。为解决以上挑战,本文以我国最快的超级计算机一采用国产“申威26010”异构众核处理器的“神威·太湖之光”为目标平台,针对深度学习训练任务提出了一套系统化的软件设计方法。为了更高效进行开发和调优,本文采用模块化的软件组织方法,将深度学习训练系统分解为矩阵乘法、深度学习算子、自动代码调优和并行通信等功能模块。具体来说,本文的主要贡献如下:第一,本文设计了适合“申威26010”创新体系结构特性的性能分析模型和张量化编程模型。在性能分析模型指导下,使用以张量为操作目标的访存和计算原语来表达算法,可以弥合硬件使用方式和算法设计之间的鸿沟。为了实现张量化编程模型所需要的关键计算原语,本文提出了面向众核核间通信机制的矩阵乘法。第二,本文将性能分析模型和张量化编程模型应用于深度学习计算核心的优化中,并提出了自动化的代码调优方法来减少工程负担。首先,在“申威26010”上设计了常见的复杂深度学习算子优化方法,包括卷积、全连接、LSTM等。然后,为深度学习算子设计了端到端的自动调优和代码生成方法,使优化后的算子实现获得了超过GPU上cuDNNv7.5的运算效率。第三,本文研究了超级计算机上深度学习并行训练的关键技术,在系统和算法层面突破了扩展瓶颈。系统层面上,本文在“神威·太湖之光”上实现了一个并行训练框架,通过对网络通信、I/O、内存管理等方面定制优化后,可以在1024节点上完成目前常用的深度学习模型的训练任务。算法层面上,本文使用残差梯度压缩方法减少需要通信的数据量,在不损失模型精度条件下,提升了系统的可扩展性。它不仅在最新的GPU超级计算机上显着加速了曾经难以扩展的深度学习训练过程,还能为下一代国产超级计算机上深度学习系统软件设计提供参考。

二、Oracle与Intel挑战合作极限(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、Oracle与Intel挑战合作极限(论文提纲范文)

(1)微波凝视关联成像收发通道不确定性参数分析、估计及成像方法研究(论文提纲范文)

摘要
abstract
符号说明
第1章 绪论
    1.1 论文的研究背景及选题
        1.1.1 雷达成像技术面临的挑战
        1.1.2 微波凝视关联成像技术的提出
    1.2 研究历史与现状
        1.2.1 微波凝视关联成像研究进展
        1.2.2 论文相关问题聚焦及研究现状
    1.3 本文的主要工作及创新
第2章 微波凝视关联成像不确定性参数分析
    2.1 引言
    2.2 包含不确定性参数的成像模型的建立
    2.3 不确定性参数对成像的影响分析
    2.4 仿真分析各项不确定性参数对成像的影响
        2.4.1 不确定性参数对辐射场矩阵演算误差的影响
        2.4.2 不确定性参数对成像的影响
    2.5 本章小结
第3章 高稳健的微波凝视关联成像方法研究
    3.1 引言
    3.2 基于聚簇稀疏假设先验的稀疏目标成像算法研究
        3.2.1 所提聚簇稀疏先验模型
        3.2.2 CSP-VB算法和CSP-AMP算法
        3.2.3 成像仿真
    3.3 基于非局部低秩正则化的非稀疏目标成像算法研究
        3.3.1 GMM-NLLR算法
        3.3.2 成像仿真
    3.4 不确定参数存在时所提算法的成像性能分析
        3.4.1 不确定参数条件下稀疏目标成像算法仿真
        3.4.2 不确定参数条件下非稀疏目标成像算法仿真
    3.5 本章小结
第4章 基于辅助校正通道的微波凝视关联成像收发通道不确定性参数校正方法研究
    4.1 引言
    4.2 基于辅助校正通道的微波凝视关联成像收发通道不确定性参数校正方法研究
        4.2.1 从辅助校正通道中提取收发通道的不确定性参数的方法研究
        4.2.2 仿真分析
    4.3 基于辅助校正通道的微波凝视关联成像收发通道不确定性参数校正的暗室初步实验验证
        4.3.1 暗室实验方案设计
        4.3.2 暗室实验数据和结果分析
    4.4 小结
第5章 基于自校正的微波凝视关联成像方法研究
    5.1 引言
    5.2 多通道基带同步误差自校正算法研究
        5.2.1 多通道基带同步误差自校正算法——SC-TSE-CSP算法
        5.2.2 成像仿真
    5.3 随机相位误差自校正算法研究
        5.3.1 随机相位误差自校正算法——SC-RPE-CSP算法
        5.3.2 成像仿真
    5.4 小结
第6章 结束语
    6.1 本文工作总结
    6.2 后续工作展望
参考文献
附录A 附录
    A.1 Generalized Approximate Message Passing算法
    A.2 计算各个通道的基带时间同步误差的梯度和Hessien矩阵
    A.3 计算各个通道的随机相位误差的梯度
致谢
在读期间发表的学术论文与取得的研究成果

(2)面向多系统的数据库调优(论文提纲范文)

摘要
abstract
第1章 引言
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 参数配置调优
        1.2.2 其他维度调优
    1.3 研究内容及主要贡献
    1.4 论文的组织结构
第2章 参数调优相关背景与工作
    2.1 数据库参数调优
    2.2 Spark参数调优
    2.3 技术算法概述
        2.3.1 相似度计算
        2.3.2 回归分析
    2.4 本章小结
第3章 调优对象与模型
    3.1 DuoSQL概述
        3.1.1 DuoSQL系统架构设计
        3.1.2 分布式存储模块
        3.1.3 中间层通讯模块
        3.1.4 分布式计算模块
        3.1.5 DuoSQL执行流程
    3.2 调优性能模型
    3.3 调优模型所面临的挑战
    3.4 本章小结
第4章 调优工具与性能评价
    4.1 DuoTune概述
        4.1.1 DuoTune架构设计与实现
        4.1.2 DuoTune执行流程
    4.2 机器学习调优方法
        4.2.1 数据预处理
        4.2.2 自动调优
        4.2.3 协同参数调优
    4.3 实验设计与结果分析
        4.3.1 实验环境介绍
        4.3.2 实验数据介绍
        4.3.3 实验结果分析
    4.4 本章小结
第5章 总结与展望
    5.1 本文总结
    5.2 本文展望
参考文献
致谢
作者简介及攻读学位期间发表的学术论文与研究成果

(3)面板数据空间回归模型的变量选择(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景
    1.2 研究内容
    1.3 研究意义
    1.4 创新之处
    1.5 论文结构
第2章 文献综述
    2.1 变量选择的基本理论
        2.1.1 变量选择的影响
        2.1.2 变量选择的方法
    2.2 空间回归模型
        2.2.1 空间回归模型的设定和解释
        2.2.2 空间回归模型的估计和检验
        2.2.3 空间回归模型的变量选择
    2.3 分位数回归模型
        2.3.1 分位数回归的原理
        2.3.2 传统分位数回归模型
        2.3.3 空间分位数回归模型
        2.3.4 分位数回归模型的变量选择
    2.4 本章小结
第3章 固定效应空间回归模型的变量选择
    3.1 引言
    3.2 固定效应空间回归模型
        3.2.1 模型设定
        3.2.2 拟极大似然估计
    3.3 变量选择方法
        3.3.1 惩罚方法
        3.3.2 大样本性质
        3.3.3 算法的实现
    3.4 蒙特卡洛模拟
        3.4.1 数据生成过程
        3.4.2 结果评价标准
        3.4.3 数值模拟结果
    3.5 小结
    3.6 定理的证明
第4章 随机效应空间回归模型的变量选择
    4.1 引言
    4.2 随机效应空间回归模型
        4.2.1 模型设定
        4.2.2 拟极大似然估计
    4.3 变量选择方法
        4.3.1 惩罚方法
        4.3.2 大样本性质
        4.3.3 算法的实现
    4.4 蒙特卡洛模拟
        4.4.1 数据生成过程
        4.4.2 结果评价标准
        4.4.3 数值模拟结果
    4.5 小结
    4.6 定理的证明
第5章 固定效应空间分位数自回归模型的变量选择
    5.1 引言
    5.2 模型设定和估计
        5.2.1 固定效应空间自回归模型
        5.2.2 固定效应空间分位数自回归模型
        5.2.3 工具变量估计
    5.3 变量选择方法
        5.3.1 惩罚方法
        5.3.2 大样本性质
        5.3.3 算法的实现
    5.4 蒙特卡洛模拟
        5.4.1 数据生成过程
        5.4.2 结果评价标准
        5.4.3 数值模拟结果
    5.5 小结
    5.6 定理的证明
第6章 随机效应空间分位数自回归模型的变量选择
    6.1 引言
    6.2 模型设定和估计
        6.2.1 随机效应空间自回归模型
        6.2.2 随机效应空间分位数自回归模型
        6.2.3 工具变量估计
    6.3 变量选择方法
        6.3.1 惩罚方法
        6.3.2 贝叶斯解释
        6.3.3 大样本性质
        6.3.4 算法的实现
    6.4 蒙特卡洛模拟
        6.4.1 数据生成过程
        6.4.2 结果评价标准
        6.4.3 数值模拟结果
    6.5 小结
    6.6 定理的证明
第7章 我国农业净收益的影响因素
    7.1 引言
    7.2 实证模型
    7.3 数据检验
        7.3.1 数据的单位根检验
        7.3.2 空间相关性检验
    7.4 实证结果
        7.4.1 固定效应空间回归模型的估计结果
        7.4.2 固定效应空间分位数回归模型的估计结果
    7.5 小结
第8章 研究总结与展望
    8.1 研究总结
    8.2 研究展望
参考文献
攻读学位期间承担的科研任务与主要成果
致谢
个人简历

(4)面向异构众核平台的多任务流编程与性能优化技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景
        1.1.1 异构计算平台
        1.1.2 异构编程环境
        1.1.3 多任务流编程机制
    1.2 研究问题
        1.2.1 多任务流编程机制实现问题
        1.2.2 多任务流编程困难问题
        1.2.3 多任务流程序调优方法平台受限问题
    1.3 相关研究
        1.3.1 OpenCL编程模型实现
        1.3.2 异构代码自动生成
        1.3.3 多任务流优化
    1.4 研究内容
        1.4.1 多任务流编程模型实现
        1.4.2 多任务流异构代码自动生成
        1.4.3 XeonPhi平台上的多任务流优化的参数调优
        1.4.4 通用异构系统上的多任务流优化的参数调优
    1.5 主要创新
    1.6 论文组织
第二章 异构系统架构及编程介绍
    2.1 异构系统架构
    2.2 异构系统编程环境
    2.3 多任务流编程机制
第三章 面向Matrix-2000 多任务流编程模型的高效实现
    3.1 问题提出
        3.1.1 Matrix-2000 架构
        3.1.2 OpenCL编程接口介绍
    3.2 MOCL的设计与实现
        3.2.1 整体设计
        3.2.2 MOCL内核编译器
        3.2.3 MOCL运行时系统
        3.2.4 其他功能实现
    3.3 MOCL的验证与评估
        3.3.1 实验配置
        3.3.2 整体性能
        3.3.3 内核编译策略
        3.3.4 设备端运行时调度
        3.3.5 原子操作评估
        3.3.6 Matrix-2000 平台的编程与优化:一个程序员的角度
        3.3.7 评估MOCL的可扩展性
    3.4 总结
第四章 面向多后端的多任务流代码自动生成与优化
    4.1 研究动机
    4.2 通用异构程序表示
        4.2.1 异构程序主机端代码分析
        4.2.2 异构程序内核代码分析
        4.2.3 异构多任务流程序代码分析
        4.2.4 通用异构程序表示介绍
    4.3 AutoStreamer框架
    4.4 代码优化
        4.4.1 冗余数据传输优化
        4.4.2 内核函数合并
    4.5 测试环境
        4.5.1 软硬件环境与测试程序
        4.5.2 其他工具及技术
    4.6 测试结果
        4.6.1 与原C程序的性能比较
        4.6.2 与其他异构代码自动生成工具的比较
        4.6.3 与NVIDIA的 ZeroCopy技术比较
        4.6.4 冗余数据传输优化效果分析
        4.6.5 内核合并优化效果分析
    4.7 总结
第五章 面向XeonPhi平台的多任务流程序参数自动调优
    5.1 问题描述与方法介绍
        5.1.1 问题描述
        5.1.2 研究动机
        5.1.3 方法介绍
    5.2 预测模型
        5.2.1 训练预测模型
        5.2.2 特征值
        5.2.3 运行时部署
    5.3 测试环境
        5.3.1 软硬件环境与测试程序
        5.3.2 分析模型
        5.3.3 性能评价方法
    5.4 测试结果
        5.4.1 XeonPhi平台上的性能评估
        5.4.2 与固定流配置的性能比较
        5.4.3 与分析模型的比较
        5.4.4 模型分析
    5.5 总结
第六章 面向通用异构平台的多流参数自动调优方法
    6.1 研究动机
    6.2 整体介绍
    6.3 性能模型
        6.3.1 训练性能模型
        6.3.2 特征值
        6.3.3 运行时部署
    6.4 测试环境
        6.4.1 软硬件环境与测试程序
        6.4.2 分析模型
        6.4.3 性能评价方法
    6.5 测试结果
        6.5.1 整体性能
        6.5.2 与固定流配置对比
        6.5.3 与分析模型的比较
        6.5.4 与基于分类器方法的比较
        6.5.5 对多流程序性能的详细分析
        6.5.6 对不同预测模型的分析
    6.6 总结
第七章 结论与展望
    7.1 论文工作总结
    7.2 课题研究展望
致谢
参考文献
作者在学期间取得的学术成果

(5)单光子探测编码技术及图像重构算法研究(论文提纲范文)

摘要
abstract
符号列表
第1章 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 成像原理
        1.1.3 研究意义
    1.2 国内外研究现状
        1.2.1 单光子探测器研究现状
        1.2.2 单光子成像系统研究现状
        1.2.3 单光子成像算法研究现状
        1.2.4 单光子成像技术发展趋势
    1.3 本文主要研究内容
第2章 基于单光子探测的伪随机编码技术研究
    2.1 引言
    2.2 编码式单光子探测原理
    2.3 伪随机编码
        2.3.1 m序列
        2.3.2 多相伪随机编码快速生成算法
        2.3.3 最优多相伪随机编码生成算法
    2.4 多相伪随机编码快速解码算法
    2.5 实验结果与分析
    2.6 本章小结
第3章 基于Non-Local的单光子图像重建算法框架
    3.1 引言
    3.2 算法框架结构与参数
        3.2.1 Non-Local重建算法结构
        3.2.2 信号观测模型
    3.3 多尺度分析
    3.4 空间相似性
        3.4.1 相似度矩阵
        3.4.2 像素特征提取
    3.5 图像重建
        3.5.1 代价函数
        3.5.2 Laplacian矩阵
    3.6 交替方向乘子法
        3.6.1 增广拉格朗日方程
        3.6.2 ADMM算法
    3.7 重建算法框架
    3.8 本章小结
第4章 基于Non-Local的重建算法优化与结果分析
    4.1 引言
    4.2 优化策略
        4.2.1 非均匀采样
        4.2.2 聚类分割
        4.2.3 优化代价函数
        4.2.4 其他优化策略
        4.2.5 OPN3DR算法
    4.3 实验结果
        4.3.1 仿真原理及评价准则
        4.3.2 对比算法简介
        4.3.3 实验环境与参数
        4.3.4 仿真数据实验结果
        4.3.5 实测数据实验结果
    4.4 本章小结
第5章 基于单光子源的三维成像技术研究
    5.1 引言
    5.2 成像原理与系统
        5.2.1 成像系统结构
        5.2.2 成像原理
        5.2.3 目标特性分析
    5.3 重建算法
    5.4 实验结果
    5.5 本章小结
第6章 基于多光谱的单光子图像重建算法研究
    6.1 引言
    6.2 成像原理与系统
    6.3 重建算法
        6.3.1 观测模型
        6.3.2 互相关算法
        6.3.3 MS3DR算法
    6.4 实验结果
    6.5 本章小结
第7章 总结与展望
    7.1 本文总结
    7.2 未来展望
参考文献
作者简历及攻读学位期间发表的学术论文与研究成果
致谢

(6)计算机科技论文摘要的机翻错误类型及译后编辑(论文提纲范文)

摘要
Abstract
CHAPTER1 INTRODUCTION
    1.1 Research Background and Significance
    1.2 Aims of the Study
    1.3 Organization of the Thesis
CHAPTER2 LITERATURE REVIEW AND FRAMEWORK
    2.1 Overview on Machine Translation and Post-editing
    2.2 Previous Studies on MT Error Types and Post-Editing Strategies
    2.3 DQF-MQM Error Classification Framework
    2.4 Previous Studies on MT Error Types of Paper Abstracts
    2.5 Text Typology Theory
        2.5.1 Text Typology Theory of Reiss
        2.5.2 Previous Studies on Informative Texts and Translation Principles
CHAPTER3 METHODOLOGY
    3.1 Source Text and Text Analysis
        3.1.1 Source Text
        3.1.2 Text Analysis
    3.2 Research Method
    3.3 Translation Process
        3.3.1 Translating300 computer science abstracts with MT system
        3.3.2 Post-editing the MT-generated translation based on Text Typology Theory
        3.3.3 Conducting a semi-structured interview for ensuring post-editing quality
        3.3.4 Analyzing and summarizing the errors in300 abstracts
        3.3.5 Preliminary error classifications based on DQF-MQM Framework
        3.3.6 Conducting the2nd semi-structured interview to confirm error classifications
        3.3.7 Quantitative analysis of all MT errors in the300 abstracts
CHAPTER4 RESULTS AND DISCUSSION
    4.1 Error Types of Machine Translated English Abstracts
        4.1.1 Unidiomatic Translation Errors in MT output
        4.1.2 Terminology Mistranslation Errors in MT Output
        4.1.3 Mistranslation Errors in MT Output
        4.1.4 Under-translation Errors in MT Output
        4.1.5 Omission Translation Errors in MT Output
        4.1.6 Over-translation Errors in MT Output
        4.1.7 Errors of Addition in MT Output
    4.2 Post-editing Strategies for Machine Translated Abstracts
        4.2.1 Post-editing Strategies for Long and Complex Sentences
        4.2.2 Post-editing Strategies for Passive Voice Sentences
        4.2.3 Post-editing Strategies for Technical Terms
CHAPTER5 CONCLUSION
    5.1 Major Findings
    5.2 Limitations and Suggestions
References
Appendix Source Texts and Target Texts of300 Abstracts
    1-20 Abstracts
    21-40 Abstracts
    41-60 Abstracts
    61-80 Abstracts
    81-100 Abstracts
    101-120 Abstracts
    121-140 Abstracts
    141-160 Abstracts
    161-180 Abstracts
    181-200 Abstracts
    201-220 Abstracts
    221-240 Abstracts
    241-260 Abstracts
    261-280 Abstracts
    281-300 Abstracts
ACKNOWLEDGEMENTS

(7)基于x86 SoC的车辆智能驾驶舱和高级驾驶辅助系统设计(论文提纲范文)

摘要
abstract
专用术语注释表
第一章 绪论
    1.1 课题的研究背景及意义
        1.1.1 选题的背景
        1.1.2 选题的意义
    1.2 国内外研究现状和发展趋势
        1.2.1 业界现状
        1.2.2 发展趋势
    1.3 本文主要研究内容和结构安排
第二章 系统总体概念介绍
    2.1 智能驾驶舱系统概述
        2.1.1 车辆智能驾驶舱功能需求分析和系统功能
        2.1.2 系统总体硬件架构
    2.2 智能驾驶舱与高级驾驶辅助系统介绍
        2.2.1 高级驾驶辅助系统的功能安全分析
        2.2.2 智能驾驶舱系统的工作模式介绍
    2.3 系统方案介绍
        2.3.1 系统硬件介绍
        2.3.2 系统软件介绍
    2.4 本章小结
第三章 智能驾驶舱和高级驾驶辅助系统硬件设计
    3.1 系统功能架构及各模块功能介绍
        3.1.1 Intel SoC处理器介绍
        3.1.2 输入输出控制器功能介绍
    3.2 硬件平台系统电路设计
        3.2.1 系统电源设计
        3.2.2 主控SoC总线接口设计
        3.2.3 显示模块设计
        3.2.4 输入输出控制器设计
        3.2.5 存储模块设计
        3.2.6 模拟视频输入设计
        3.2.7 非易失闪存接口设计
        3.2.8 CAN收发器设计
    3.3 本章小结
第四章 智能驾驶舱和高级驾驶辅助系统软件设计
    4.1 虚拟化操作系统介绍
        4.1.1 车载虚拟化系统架构
        4.1.2 系统虚拟化的应用
    4.2 安卓车载系统介绍
        4.2.1 安卓车载系统架构
        4.2.2 安卓车载系统的额外需求
    4.3 车载Linux系统介绍
        4.3.1 Linux操作系统软件架构
        4.3.2 Linux内核系统
        4.3.3 Linux操作系统移植
    4.4 本章小结
第五章 系统功能测试及调试
    5.1 主机性能指标测试要求
    5.2 系统测试概要
        5.2.1 测试方案
        5.2.2 系统软件升级及诊断要求
        5.2.3 系统升级流程
        5.2.4 系统诊断流程
    5.3 系统测试法规及试验要求
        5.3.1 测试法规要求
        5.3.2 系统EMC测试
    5.4 本章小结
第六章 总结与展望
    6.1 整体工作总结
    6.2 本课题创新点
    6.3 课题研究工作的展望
参考文献
附录1 程序清单
附录2 攻读硕士学位期间撰写的论文
致谢

(8)随机变分不等式问题及其在天然气市场中的应用研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景与意义
    1.2 研究现状
        1.2.1 变分不等式问题的研究现状
        1.2.2 随机变分不等式问题的研究现状
        1.2.3 天然气市场的研究现状
    1.3 主要研究内容
    1.4 论文创新点
第二章 理论基础
    2.1 变分分析基础
    2.2 概率论基础
第三章 求解随机机互补问题的基于SAA的不可行内点算法
    3.1 基于SAA的不可行内点算法
        3.1.1 算法描述及其适定性
        3.1.2 内循环的迭代复杂度
    3.2 收敛性分析
    3.3 算法的推广
    3.4 数值实验与结果分析
    3.5 本章小结
第四章 求解随机变分不等式问题的修正向前-向后算法
    4.1 修正向前-向后算法
    4.2 收敛性分析
        4.2.1 几乎处处收敛性
        4.2.2 收敛率和复杂度
    4.3 数值实验与结果分析
    4.4 本章小结
第五章 求解随机变分不等式问题的次梯度外梯度算法
    5.1 次梯度外梯度算法
    5.2 收敛性分析
        5.2.1 几乎处处收敛性
        5.2.2 收敛率和复杂度
    5.3 数值实验与结果分析
    5.4 本章小结
第六章 求解混合随机变分不等式问题的邻近迭代算法
    6.1 外梯度邻近迭代算法
    6.2 收敛性分析
        6.2.1 几乎处处收敛性
        6.2.2 收敛率和复杂度
    6.3 修正向前-向后邻近迭代算法
    6.4 数值实验与结果分析
    6.5 本章小结
第七章 随机变分不等式问题在天然气市场中的应应用
    7.1 天然气随机生产与运输模型
        7.1.1 模型建立
        7.1.2 数值仿真与结果分析
    7.2 天然气市场随机均衡模型
        7.2.1 模型建立
        7.2.2 数值仿真与结果分析
    7.3 本章小结
第八章 总结与展望
    8.1 总结
    8.2 展望
参考文献
作者在攻读博士学位期间公开发表及完成的论文
致谢

(9)面向重型移动应用的直接安卓模拟技术(论文提纲范文)

摘要
abstract
第1章 引言
    1.1 研究背景与挑战
    1.2 主要研究内容
    1.3 各章内容简介
第2章 相关工作
    2.1 安卓游戏跨平台方法概述
        2.1.1 安卓系统架构
        2.1.2 四种安卓游戏跨操作系统平台技术思路
    2.2 基于游戏引擎的移动游戏跨操作系统平台移植
        2.2.1 游戏引擎的原理与机制
        2.2.2 基于Unity游戏引擎移植
    2.3 基于运行时的移动游戏跨操作系统平台模拟
        2.3.1 基于对编译器与安卓源代码的修改
        2.3.2 基于Chrome浏览器中的安卓环境
    2.4 基于虚拟机的移动游戏跨操作系统平台模拟
        2.4.1 基于QEMU模拟
        2.4.2 基于Virtual Box模拟
    2.5 基于操作系统虚拟化的移动游戏跨操作系统平台模拟
        2.5.1 操作系统虚拟化的研究原型
        2.5.2 基于Window中的Linux子系统
        2.5.3 基于Chrome OS中的安卓容器环境
    2.6 相关工程系统的定性对比
        2.6.1 系统架构
        2.6.2 可访问性
        2.6.3 系统调用方式与覆盖度
        2.6.4 多媒体适配
    2.7 流畅度的量化方法
    2.8 本章小结
第3章 理解AOVB架构与瓶颈
    3.1 流畅度的量化
        3.1.1 流畅度量化的设计
        3.1.2 流畅度量化的评估
    3.2 AOVB架构模拟器的性能瓶颈
        3.2.1 AOVB-EMU的架构特征
        3.2.2 软件虚拟化的计算开销
    3.3 AOVB架构模拟器的性能优化
        3.3.1 性能优化方法
        3.3.2 性能优化的贡献和局限
    3.4 本章小结
第4章 直接安卓模拟技术的设计和实现
    4.1 安卓游戏分析
        4.1.1 静态分析
        4.1.2 动态分析
    4.2 Android-x86 定制
    4.3 加载时二进制重写
    4.4 运行时稀缺指令重定向
    4.5 动态二进制指令翻译
    4.6 模拟Linux系统调用
    4.7 安全防御措施
    4.8 游戏支持措施
        4.8.1 场景感知的键位映射
        4.8.2 自适应的、逐步递进的抗锯齿
    4.9 本章小结
第5章 性能评估
    5.1 评估方法
        5.1.1 数据收集方法
        5.1.2 宏观评估方法
        5.1.3 微观评估方法
    5.2 用户侧上报结果
        5.2.1 运行时流畅度
        5.2.2 游戏启动时间
        5.2.3 内存、CPU、GPU占用
        5.2.4 应用覆盖度
    5.3 微观基准测试结果
    5.4 本章小结
第6章 总结
    6.1 研究总结
    6.2 计划进一步开展的工作
参考文献
致谢
个人简历、在学期间发表的学术论文与研究成果

(10)基于“神威·太湖之光”的并行深度学习训练系统(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 人工智能与深度学习概述
    1.2 超级计算机系统概述
    1.3 基于国产超算的深度学习训练系统:机遇与挑战
    1.4 本文主要贡献和行文结构
第2章 研究背景及现状分析
    2.1 深度学习训练方法
    2.2 单节点深度学习训练性能优化研究
        2.2.1 深度学习算子库
        2.2.2 深度学习训练框架
    2.3 多节点深度学习训练并行优化研究
    2.4 本章小结
第3章 申威架构的性能模型和张量化编程模型
    3.1 申威异构众核处理器架构
        3.1.1 概况
        3.1.2 从核访存特性
        3.1.3 核间通信特性
        3.1.4 指令执行特性
        3.1.5 和其他众核架构比较
    3.2 性能分析方法
        3.2.1 核间通信的性能影响
        3.2.2 定量的性能模型分析
        3.2.3 定性的性能分析模型
    3.3 张量化编程模型
        3.3.1 张量化访存优化
        3.3.2 张量化计算优化
        3.3.3 张量化计算访存比优化
    3.4 本章小结
第4章 swGEMM: 基于众核核间通信的矩阵乘法
    4.1 矩阵乘法原语优化
        4.1.1 分布式矩阵存储与通信方式
        4.1.2 增加寄存器数据局部性优化
        4.1.3 增加计算单元效率优化
    4.2 原语使用示例: 张量化GEMM运算
        4.2.1 深度学习中GEMM运算的挑战
        4.2.2 张量化优化方法
        4.2.3 自动调优分块大小
        4.2.4 边界处理
    4.3 实验结果
        4.3.1 矩阵乘法原语性能
        4.3.2 GEMM运算性能
    4.4 本章小结
第5章 swDNN: 深度学习算子的张量化
    5.1 卷积算子
        5.1.1 基于显式矩阵乘法的卷积优化
        5.1.2 基于隐式矩阵乘法的卷积优化
        5.1.3 基于Winograd的卷积优化
    5.2 全连接和LSTM算子
    5.3 其它算子
    5.4 实验结果
        5.4.1 卷积算子
        5.4.2 LSTM算子
    5.5 本章小结
第6章 swAutoDNN: 深度学习算子张量化自动调优
    6.1 张量化自动优化动机
    6.2 swAutoDNN设计方法
        6.2.1 概观
        6.2.2 计算描述DSL
        6.2.3 调度器
        6.2.4 IR优化器
        6.2.5 自动调优器
        6.2.6 代码生成器
    6.3 实验结果
        6.3.1 相对手动优化性能提升
        6.3.2 自动调优性能和效果
        6.3.3 应用swAutoDNN到swDNN
        6.3.4 和GPU性能对比
    6.4 本章小结
第7章 swCaffe: 基于“神威·太湖之光”的并行深度学习框架
    7.1 单核组计算性能优化
    7.2 多节点并行性能优化
        7.2.1 并行通信模块
        7.2.2 并行I/O模块
    7.3 实验结果
        7.3.1 单节点性能效果
        7.3.2 多节点性能效果
    7.4 本章小结
第8章 RedSync: 深度学习数据并行通信压缩方法
    8.1 研究动机
    8.2 RedSync系统设计方法
        8.2.1 并行友好型通信集合选择算法
        8.2.2 通信集合的量化方法
        8.2.3 稀疏Allreduce方法
        8.2.4 通信计算重叠
        8.2.5 其它技巧
    8.3 实验结果
        8.3.1 软硬件配置
        8.3.2 模型精度测试
        8.3.3 扩展性测试
    8.4 本章小结
第9章 总结与展望
    9.1 本文总结
    9.2 未来展望
参考文献
致谢
个人简历、在学期间发表的学术论文与研究成果

四、Oracle与Intel挑战合作极限(论文参考文献)

  • [1]微波凝视关联成像收发通道不确定性参数分析、估计及成像方法研究[D]. 袁博. 中国科学技术大学, 2021(06)
  • [2]面向多系统的数据库调优[D]. 刘智. 中国科学院大学(中国科学院深圳先进技术研究院), 2020(01)
  • [3]面板数据空间回归模型的变量选择[D]. 刘宣. 福建师范大学, 2020(12)
  • [4]面向异构众核平台的多任务流编程与性能优化技术研究[D]. 张鹏. 国防科技大学, 2020(01)
  • [5]单光子探测编码技术及图像重构算法研究[D]. 陈松懋. 中国科学院大学(中国科学院西安光学精密机械研究所), 2020(06)
  • [6]计算机科技论文摘要的机翻错误类型及译后编辑[D]. 付茜雯. 大连理工大学, 2020(06)
  • [7]基于x86 SoC的车辆智能驾驶舱和高级驾驶辅助系统设计[D]. 陈杰. 南京邮电大学, 2018(02)
  • [8]随机变分不等式问题及其在天然气市场中的应用研究[D]. 杨振平. 上海大学, 2019(03)
  • [9]面向重型移动应用的直接安卓模拟技术[D]. 杨启凡. 清华大学, 2019(02)
  • [10]基于“神威·太湖之光”的并行深度学习训练系统[D]. 方佳瑞. 清华大学, 2019(02)

标签:;  ;  ;  ;  ;  

甲骨文与英特尔挑战合作极限
下载Doc文档

猜你喜欢