您现在的位置:网站首页答辩论文计算机毕业设计其他计算机专业毕业资源

[并行计算] MPI并行程序设计

  • 简介:MPI并行程序设计 消息传递并行程序设计 指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。 在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。 这种编程方式...
    • 请与管理员联系购买资料 QQ:5739126
  • 论文简介
  • 相关论文
  • 论文下载
目录 1.基本的MPI
基本概念
点到点通信(Point to point)
MPI程序的编译和运行
2.深入MPI
用户自定义(/派生)数据类型(User-defined(Derived) data type)
集合通信(Collective)
数据移动,数据聚集,同步
MPI环境管理函数组,上下文和通信空间/通信子的管理
3.实例 参考资料 黄铠,徐志伟著,陆鑫达等译. 可扩展并行计算技术,结构与编程. 北京:机械工业出版社, P.33~56,P.227~237, 2000.
陈国良著.并行计算—结构、算法、编程. 北京:高等教育出版社,1999.
Barry Wilkinson and Michael Allen. Parallel Programming(Techniques and Applications using Networked Workstations and Parallel Computers). Prentice Hall, 1999.
李晓梅,莫则尧等著. 可扩展并行算法的设计与分析. 北京:国防工业出版社,2000.
张宝琳,谷同祥等著. 数值并行计算原理与方法. 北京:国防工业出版社,1999.
都志辉著. 高性能计算并行编程技术—MPI并行程序设计. 北京:清华大学出版社, 2001.
MPI并行程序设计
消息传递并行程序设计
指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。
在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。
这种编程方式是大规模并行处理机(MPP)和机群(Cluster)采用的主要编程方式。
并行计算粒度大,特别适合于大规模可扩展并行算法
由于消息传递程序设计要求用户很好地分解问题,组织不同进程间的数据交换,并行计算粒度大,特别适合于大规模可扩展并行算法.
消息传递是当前并行计算领域的一个非常重要的并行程序设计方式
查看评论 已有0位网友发表了看法
  • 验证码: