—— 中新系全媒体矩阵 ——
新闻行业垂直网站人工智能目前非常热门,每天有数百万用户使用 chatgpt。由于需求如此之高,因此运营 chatgpt 需要的费用也很高。研究公司 semianalysis 的首席分析师 dylan patel 估计,chatgpt 目前每天要耗费 openai 公司 70 万美元,或每个问题回复耗费 36 美分。
这是一笔不小的开支,而且 ai 公司,包括微软,需要从英伟达等公司大量购买 gpu 以帮助维护其 ai 服务,因为需求不断增加。行业分析师估计,openai 可能需要在今年订购 3 万个额外的英伟达 gpu 来支持其商业努力。
构建自己的 ai 芯片可以帮助降低成本,这似乎正是微软正在做的事情。微软自己的 ai 芯片代号为「athena 雅典娜」。据报道,它已经有了足够的优势,并已在微软内部的某些团队进行了测试。该公司计划在明年将其 ai 芯片分配给其 azure ai 服务。
行业内部人士表示,他们不指望微软直接取代 英伟达,而是减少对其的依赖。由于 chatgpt 运行在 azure 服务上,降低成本将有助于 openai 以更便宜的费用运行 chatgpt,以及其他选择 azure 作为主机的 ai 服务。
在谷歌推出名为 bard 的 ai 产品之后,微软在过去几个月里一直在积极推动人工智能。最近的报道称,一些谷歌员工对 bard 没有信心,觉得谷歌为了对抗微软的 bing ai 而匆忙面向市场推出了该产品。