云计算的发展经历了哪几种计算的演变和改进_云计算与大数据之间的关系「建议收藏」

云计算的发展经历了哪几种计算的演变和改进_云计算与大数据之间的关系「建议收藏」云计算(七):计算的概述与未来_智算中心和超算中心的区别

云计算的发展经历了哪几种计算的演变和改进_云计算与大数据之间的关系「建议收藏」

算力的定义

算力是设备根据内部状态的改变,每秒可处理的信息数据量。——2018年诺贝尔经济学奖获得者William D. Northaus在《计算过程》中提出

对算力通俗的理解就是计算能力,即CPU、GPU、TPU、FPGA、ASIC等各类处理器依托计算机服务器、高性能计算集群、各类智能终端等承载设备,每秒执行数据运算次数的能力。

处理器缩写 中文全称
APU 加速处理器
CPU 中央处理器
DPU 数据处理器
GPU 图形处理器
NPU 神经网络处理器
TPU 张量处理器

常用的计量单位:
1、每秒运算次数(OPS)
2、每秒执行的浮点数运算次数(Flops, 1 EFlops = 10^18 Flops)。
3、每秒哈希运算次数(Hash/s)

计算的分类

通用计算:以CPU提供计算能力
异构计算:以GPU、NPU、FPGA提供计算能力

计算的量度

对于计算的衡量,主要从以下三个方面:

  • 性能:通俗讲就是完成任务所需要的时间。
  • 功耗:功率的损耗指设备、器件等输入功率和输出功率的差额。
  • 成本:计算机的成本跟芯片成本紧密相关。

计算的发展

  1. 阶段一:大型机时代
    主要用于大量数据和关键项目的整数运算
  2. 阶段二:中型机与小型机时代
    算力从大型机房走向产业应用,极大解放生产力
  3. 阶段三:计算集群
    集群计算据备并行数据处理和高计算能力,可扩展性,容错能力等优势。
  4. 阶段四:云计算时代
    网络服务和移动计算成为主要计算模式。云计算可通过网络按需分配计算资源。

云计算、超算和智算的关系与区别

云计算、超算和智算相互联系的同时,也各有侧重。数据中心相对应可分为三类:云计算数据中心、超算中心和智算中心。

  • 云计算:主要用于处理数据密集、通讯密集的事务性任务,帮助用户降本增效或提升盈利水平。
  • 超算:侧重于科学计算等计算密集型任务,面向科研人员和科学计算场景提供支撑服务。
  • 智算:面向AI典型应用场景,促进AI产业化、产业AI化和政府治理智能化。

计算的未来

冯诺依曼结构的瓶颈突破,存算一体技术或将改变计算架构

现代计算机以冯诺依曼结构为基础,该结构中处理单元(中央处理器,CPU)和存储单元(随机存储器,RAM)分开,而指令与数据同时存在存储单元。

计算机科学发展到今天,CPU的运算速度已经远远超过了访存速度,前者通常是后者的200倍以上,因此CPU在执行指令间不得不等待数据。虽然现代计算机加入了离CPU更近的多级缓存(Cache)结构,为CPU提前读取一批数据,也加入了流水线和分支预测,以减少CPU的等待时间;更有些计算机加入了多核、多CPU等结构,以望提高计算机的性能,但CPU和内存之间的数据传输带宽始终是限制计算机性能进一步提高的瓶颈。这也被成为处理器和存储器之间的“带宽墙”

存算一体旨在计算单元和存储单元融合,在实现数据存储的同时直接进行计算,以消除数据搬移带来的开销,极大提升运算效率,实现计算存储的高效节能。存算一体非常符合高访存、高并行的人工智能场景计算需求。

摩尔定律的尽头,精度的极限,Chiplet可能是最现实技术路径

摩尔定律:集成电路上的元器件的数量,大约18-24个月会翻一番,性能也会提升一倍。

随着芯片技术的发展,每块芯片上目前已经能集成上百亿个晶体管;台积电也在2022年底开始生产3nm的芯片。然而,更高的精度不但挑战着技术的极限,也在挑战着理论和实用性的极限。

  • 技术极限——光刻技术
    为了追逐摩尔定律,光刻技术需要每两年把曝光关键尺寸(CD)降低30%-50%。
  • 电子极限——电子隧穿
    当晶体管缩小到一定程度的时候,电子就会产生量子隧穿效应,晶体管失去开关作用。
  • 实用极限——功耗墙
    随着晶体管尺寸和间距的缩小和微处理器频率的上升,信号发送器需要消耗更多的能量,这就是处理器和存储器之间的功耗墙。

Chiplet是硅片级别的“解构-重构-复用”,它把传统的SoC分解为多个芯粒模块,将这些芯粒分开制备后再通过互联封装形成一个完整芯片。

量子计算

什么是量子计算
量子计算是一种基于量子力学原理的新型计算模式,不同于现代经典计算机只能处理0和1,量子计算可以处理0和1的叠加态。世界最强的超级计算机8年才能完成的任务,用中科大的祖沖之号(62比特可编程超导量子计算机)最短1.2个小时就能实现。

技术路线
主流的技术路线有超导、半导、离子阱、光学以及量子拓扑等方向。
目前进展最快最好的是超导方向,有两种实现方式:

  • 先多比特,再高精度:代表企业有谷歌、IBM和英特尔
  • 先高精度,再多比特:代表企业有阿里达摩院

量子计算的趋势
量子纠错和实用优势成为核心命题:
演示“量子纠错”系统,必须同时达到多比特、高精度和高连接度,也就是至少需要几千个高质量、强关联的比特。
在“实用优势”中,则会继续以模拟物理为主流,冷原子和量子煺火系统等模拟量子计算平台,将连同数字平台一起,继续产生鼓舞人心的进步。

光子计算

光子计算是指使用光子代替电子的计算机,用光信号进行运算、逻辑操作、信息存储的计算。光子代替电子,具有并行、高速的特征,同时其传输过程也不容易失真。

由于光子相较于电子在传输速度、功耗、抗干扰等诸多优越性,光正在从微观到宏观的各个层次对计算机领域进行渗透。

神经拟态计算(类脑计算)

神经拟态计算是对计算机架构自下而上的彻底颠覆,其目标是应用神经科学的最新见解,来创造作用方式更类似于人脑的芯片而非传统计算机的芯片。神经拟态系统在硬件层面上复制了神经元组织、通信和学习方式。应用上,在CV、NLP等领域具有涉及。

今天的文章云计算的发展经历了哪几种计算的演变和改进_云计算与大数据之间的关系「建议收藏」分享到此就结束了,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/85367.html

(0)
编程小号编程小号

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注