chatGPT出圈,大模型算力需求攀升

ChatGPT编程2年前 (2023)发布 一起用AI
474 0 0

原标题:chatGPT出圈,大模型算力需求攀升

▲关注信息化时代

新视界、新思维、新洞察

2月份,社交媒体上热度最高的话题莫过于chatGPT。几乎所有新闻媒体,社交平台都在讨论这个AI聊天机器人。

2022年底,最新版本chatGPT就已经受到IT技术界的关注。春节过后,一夜爆火,突然出圈,上亿网友尝试着使用了chatGPT,其颇有“智慧”的聊天模式,让人震惊。但很快,大家发现除了一些有标准答案的科学技术内容还算相对可靠外;很多内容更像是“一本正经的胡说报道”。

有分析文章指出,在马斯克投资openAI后,将原来chatGPT的“人工智障”模式调整为了现在“一本正经胡说八道”模式,用来吸引更多的人玩。这同时为chatGPT提供了一个非常庞大的天然的免费训练模型库,以此获得一个更加智能的AI聊天机器人。

chatGPT-3训练成本超百万美元

据2月12日国盛证券公布的最新数据显示,最新版本的chatGPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。虽然成本高昂,但对于大型科技公司,训练费用尚在可接受范围内。

人工智能产品应用的训练非常烧钱,而算力更是人工智能发展的关键因素之一。值得一提的是,对于人工智能应用而言,训练和推理所需要的算力是不同的。通常意义上,训练要比推理高一个数量级的算力,至少是10倍的算力。

用户对chatGPT提问时,几秒钟时间就会给出反馈,这属于实时或者半实时推理的过程;而后台可能已经花了几周甚至几个月时间对这个问题完成了训练。

虽然如此, ChatGPT在应用时仍然需要大算力的服务器支持,这也为算力服务商们带来更多市场空间和发展机会。带着相关问题,《中国信息化周报》记者采访到了宁畅副总裁兼CTO赵雷。

“早在几年前,宁畅就已经在人工智能赛道布局了,我们着力发展人工智能服务器,并从产品技术、市场等多个维度取得突破。”赵雷向记者介绍说。

据了解,宁畅针对ChatGPT对于大数据和算力的超高要求,可以提供单机和集群的硬件产品解决方案,如人工智能序列服务器X620X640X660,分别可以提供基础的推理算力、平衡型的推理和训练的算力以及顶级性能的训练算力。

“要实现一个理想的人工智能状态,至少需要现在100-1000倍的算力。”赵雷坦言,短期内,利用ChatGPT处理一些基础科学方面的内容、写写代码、文章是可以的;但真正要变成一个智能助手,去替代人类的职业,比如工程师、记者、律师等是不太可能的。

算力不均、成本高是症结

得益于深度学习算法的普及和应用,具有海量数据并行计算能力、能加速计算处理的AI芯片被越来越多的采用,伴随而来的是AI服务器市场持续增长。截至2021年底,全球 AI 服务器市场规模已达到 145 亿美元,并预计 2025 年将超过 260 亿美元。

聚焦我国算力产业发展情况,主要存在算力分布不均和算力成本高两大问题,丞需解决。

第一,总体算力分布不均。比如算力不协调,A时间算力过剩,B时间算力不足。一方面需要云技术去平衡算力,另一方面需要深度定制等手段去提高算力的生产效率。

第二,算力成本高。虽然目前算力单价在下降,但过去三年服务器成本一直是上涨的状态。单一算力类型,不足以支撑高速增长的算力需求。应用类型越窄,算力效率越高;反之,通用化模型,算力效率会比较低。在复杂算力场景中,如何组合不同的算力类型,是降低成本的关键。

借大模型东风 布未来发展大局

在数字经济时代,算力作为经济发展重要底座支撑,作为一种全新的生产力,其作用日益凸显,已经成为国家和地区竞争力的体现。

虽然业内早有共识,但ChatGPT的出圈,开始让更多产业界人士意识到大模型正在敲开通用人工智能大门。

事实上,不仅仅是ChatGPT,这只不过是人工智能赛道中偶然爆火的一个产品应用,众多的应用,比如自然语言合成、自动驾驶、图形图像处理等,都依赖大模型的训练,而这背后离不开各大服务商们对人工智能算力市场的保障和支持。

人工智智能产品的训练精度越高,或者训练模型越大,给用户的反馈越准确,客户的体验越好,这些都为算力市场带来了更多机会。

当前,服务器的研发测试、生产制造都是以年为周期的,赵雷表示:“未来,预计两三年内,宁畅都将会坚定不移的深耕定制化市场,以用户为核心,持续在人工智能领域持续发力。”

—End—返回搜狐,查看更多

责任编辑:

© 版权声明

相关文章