【硬件资讯】AI取代人类的最大阻碍,分析机构尝试分析ChatGPT运行成本,暂时远超人工成本。

ChatGPT办公2年前 (2023)发布 一起用AI
550 0 0

新闻①:分析师称 ChatGPT 每天运行开销达 70 万美元,微软开发自主芯片尝试降低成本

北京时间 4 月 21 日早间消息,据报道,芯片行业研究公司 SemiAnalysis 首席分析师迪伦・帕特尔(Dylan Patel)表示,由于 ChatGPT 运行在价格昂贵的计算基础设施之上,OpenAI 每天为运行 ChatGPT 投入的成本可能高达 70 万美元(当前约 481.6 万元人民币)。

帕特尔指出,ChatGPT 需要庞大的算力,才能基于用户的输入信息做出反馈,包括撰写求职信、生成教学计划,以及帮助用户优化个人资料等。他表示:“大部分成本都来自于昂贵的服务器。”

此外,帕特尔最初的估计基于 OpenAI 的 GPT-3 模型,而在采用最新的 GPT-4 模型之后,ChatGPT 现在的运行成本可能更高。

对此,OpenAI 尚未对此做出回应。

帕特尔和 SemiAnalysis 的另一位分析师阿夫扎尔・艾哈迈德(Afzal Ahmad)表示,此前外界已经注意到,训练 ChatGPT 背后的大语言模型可能要花费上亿美元,但运营费用,或者说人工智能推理的成本,以任何合理的部署规模来看都远远超过了训练成本。他们指出:“事实上,按周来看,ChatGPT 的推理成本超过了训练成本。”

过去几年,使用 OpenAI 语言模型的公司也一直在承担高昂的价格。创业公司 Latitude 开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官尼克・沃尔顿(Nick Walton)表示,运行该模型,以及相应的购买亚马逊 AWS 云服务器的费用 2021 年达到每月 20 万美元(当前约 137.6 万元人民币)。因此,沃尔顿最终决定改用 AI21 Labs 支持的语言软件提供商。这帮助他将公司的人工智能成本降低了一半,至每月 10 万美元(当前约 68.8 万元人民币)。

沃尔顿在接受采访时表示:“我们会开玩笑说,我们有人类员工和人工智能员工,在这两类员工身上花费的成本大致相同。我们每个月在人工智能上花掉数十万美元,而且我们也不是一家大型初创公司,所以这是一笔巨大的开支。”

近期有报道称,为了降低生成式人工智能模型的运行成本,微软正在开发一款代号为“雅典娜”的人工智能芯片。该项目于 2019 年启动。在此几年前,微软与 OpenAI 达成了 10 亿美元的投资协议,要求 OpenAI 仅在微软的 Azure 云服务器上运行其模型。

微软启动这一芯片项目的背后有两方面思考。知情人士透露,微软高管意识到,他们在自主芯片开发方面落后于谷歌和亚马逊。与此同时,微软正在寻找更便宜的方案去替代英伟达的 GPU 芯片。

目前,微软大约有 300 多名员工正在开发这款芯片。消息人士称,该芯片最早可能在明年发布,供微软和 OpenAI 内部使用。微软拒绝对此消息置评。

原文链接:https://m.ithome.com/html/687915.htm

问为什么AI取代不了我?因为我更便宜实惠。之前我们也讨论过,目前ChatGPT还需要昂贵的NVIDIA专业卡提供支持,而这些显卡的价格和功耗都是不低的成本。随着GPT的迭代,可以预见的算力需求和成本也会更高。之前我们也说过,未来如果有企业应用,自然是要构建本地端,本地端的算力需求也不会小,就目前成本来看,还是人工更经济实惠啊,还能被PUA。

新闻②:微软正在开发定制AI芯片,代号“雅典娜”,更具成本优势

据The Information的一份报告显示,微软一直在努力打造用于处理人工智能(AI)的定制处理器,该项目代号为“雅典娜(Athena)”。其基于台积电(TSMC)的5nm工艺制造,旨在加速人工智能工作负载,并扩展到数百甚至数千个芯片并行运作。

【硬件资讯】AI取代人类的最大阻碍,分析机构尝试分析ChatGPT运行成本,暂时远超人工成本。

随着大型语言模型(LLM)的蓬勃发展,进行训练需要增加计算能力,从英伟达等公司处购买大量GPU。像亚马逊、谷歌或者Meta这种超大规模的企业,很早之前就开始为人工智能训练设计芯片,不过对于微软而言,打造定制芯片方面只是刚刚起步。

暂时还不太清楚微软这款定制AI处理器的具体信息,只知道该项目从2019年就开始了,目前这些芯片已经在微软和OpenAI的特定员工手中,从事对应的AI项目,以提升算力。有业内人士称,一旦微软能够设计出与英伟达GPU性能相近的芯片,那么将有明显的成本优势,仅为后者的三分之一,这将大幅度节省成本。

据了解,微软计划明年更广泛地部署这些芯片,不过具体时间和项目仍不确定,可以预计的是,Azure云服务将是合理的切入点。此外,微软并不认为定制AI处理器会全面取代英伟达GPU,两者都会有适用的应用领域,以更好地发挥各自的优势。

原文链接:https://www.expreview.com/87909.html

不过成本问题想来微软也早就注意到了,早在2019年微软就启动了自研AI芯片的项目,为未来更广泛的AI应用服务。如果微软的自研芯片取得成功,那就将摆脱对NVIDIA的依赖,成本自然也能大幅下降。再往更远处想一下,未来提供企业级服务时,将会是软硬件整体的解决方案,自然会有更高的利润。微软关于AI芯片的长远考虑从多年前就已经开始了,希望能有更好的结果。

新闻③:龙芯发布 3D5000 服务器 CPU:采用自主指令系统龙架构,无需国外授权

2023 中国・鹤壁信息技术自主创新高峰论坛今日正式召开,龙芯中科技术股份有限公司副总裁张戈在论坛上发布了新款高性能服务器处理器 —— 龙芯 3D5000。

龙芯中科张戈表示,龙芯 3D5000 通过芯粒(chiplet)技术将两个 3C5000 的硅片封装在一起,是一款面向服务器市场的 32 核 CPU 产品。

龙芯 3D5000 内部集成了 32 个高性能 LA464 处理器核,频率 2.0GHz,支持动态频率及电压调节;片内集成 64MB 片上 L3 共享缓存以及 8 个 72 位 DDR 3200 内存控制器,支持 ECC 校验;搭载 5 个 HT 3.0 高速接口,支持自研桥片及双路、四路 CPU 扩展。

【硬件资讯】AI取代人类的最大阻碍,分析机构尝试分析ChatGPT运行成本,暂时远超人工成本。

此外,龙芯 3D5000 片内还集成了安全可信模块工程,SPEC 2006 分数超过 425,双精度浮点性能可达 1TFLOPS,是典型 ARM 核心性能的 4 倍。

值得一提的是,龙芯 3D5000 采用龙芯自主指令集 LoongArch,具备超强算力、性能卓越的特点,且无需国外授权,可满足通用计算、大型数据中心、云计算中心的计算需求。龙芯 3D5000 的推出,也标志着龙芯中科在服务器 CPU 芯片领域进入国内领先行列。

原文链接:https://m.ithome.com/html/685164.htm

值得一提的是,不久前龙芯发布了属于我们自己的服务器处理器— 龙芯3D5000。这颗处理器是类似于EPYC那种MCM封装的方式实现的,龙芯将两颗3C5000处理器封装在一起实现了32核的规格。从相对性能上来看,3D5000已经达到了主流水平,而且目前曝光出的消息中,3D5000还是在较低频率上,不知道未来会不会有更高频率的版本,那样的话性能还会提升。近来AI技术逐步普及,我们也期待未来我们自研芯片能在这一领域有所建树,期待龙芯的作为吧!

【硬件资讯】AI取代人类的最大阻碍,分析机构尝试分析ChatGPT运行成本,暂时远超人工成本。

备注

文章转载自网络(链接如上)。文章出现的任何图片,标志均属于其合法持有人;本文仅作传递信息之用。如有侵权可在本文内留言。

    引用文章内容与观点不代表电脑吧评测室观点。

© 版权声明

相关文章