您现在的位置 :

首页 >  行业动态 > 正文

全中国只有20万张一个大模型就需要10万张的A100显卡到底有多牛?_焦点

时间 :2023-05-30 02:18:15   来源 : 百度网友d5a4530


(资料图片)

众所周知,大模型的训练需要大量的数据支持,而A100显卡正是能够快速处理这些数据的利器。英伟达(NVIDIA)A100显卡是一款基于Ampere架构的高性能图形处理器(GPU),专为深度学习、人工智能(AI)和高性能计算(HPC)应用设计。A100显卡具有强大的计算能力、大容量高速内存和先进的硬件特性,使其成为处理复杂计算任务的理想选择。

同时,由于近年来,美国政府对中国的技术出口实施了一系列限制措施,其中包括对高性能计算设备和技术的出口限制。由于NVIDIA A100显卡是一款高性能的AI和高性能计算(HPC)设备,所以实际出口中国是有限制影响。目前国内由于受限制,因此使用英伟达另一款A800来进行训练,但效率则为A100的七折左右。

其次A100在定价1.5万美元,自从Chatgpt走红了之后,全球各大科技公司加速训练大模型,导致显卡供不应求,价格一路上涨。自2023年初至今已经上涨30%。这意味着,要开发一个大模型,从零开始做起,仅显卡所需资金可能需要高达15亿美元,也正因为显卡的价格之昂贵。

那么为什么像Chatgpt这样的大模型,一定要使用A100显卡来训练?简单来说,由于大模型需要处理大量的数据,必须要有一款显卡可以高速、大容量运算,而且由于AI模型的逻辑背后是矩阵运算。

看过三体的朋友们应该也记得一幕,就是三体版的秦始皇使用了大量人力来计算三体问题。A100是同样的道理,而且其不单是高速运算,还有运算的机制、制式都能够适应AI大模型的需求。另外,英伟达强大之处还在于其软件能力,其搭配A100的Tensorflow和Tensorcore都是为深度学习而设的软件生态系统。

综上,你觉得A100显卡真的是那么牛吗?或者你有什么更加强大的技术产品推荐?快来评论区告诉我们吧!

#AI共创计划#

标签:

推荐文章