微软因为大力投资 OpenAI,目前被看好在 AI 领域取得领先地位。 不过,据 The Information报道,微软正在制定B计划,避免过于依赖OpenAI。 原因无他,因为 OpenAI 在训练上烧钱太多了。
报道称,微软研究主管 Peter Lee 已责成其公司 1500 名研究人员中的许多人,开发更小且运行成本更低的对话式 AI 系统,虽然它们的能力可能不如 GPT-4。
微软目前正在将人工智能功能建置到几乎所有产品中,甚至发布了基于聊天的 Windows 版 Copilot。 但另一方面,运行人工智能的成本可能会激增,从而抵消更广泛和更密集的使用带来的任何经济效益。
尽管微软已经承诺为 OpenAI 提供超过大量资金,不过微软仍必须控制成本。
特别是,微软要推出的新功能,其实不一定用得上 OpenAI 的 GPT- 4 模型所具备的高端运算能力,这时采用 GPT- 4 就有点大材小用了。
据微软搜索主管 Mikhail Parakhin 表示,Bing Chat 目前在创意和精确模式下使用 100% GPT-4。 不过,这可能是大多数用户选择的模式应该是平衡模式。 这种情况下,微软使用其普罗米修斯模型,可识别和回答较简单的问题。
微软最近还推出了拥有13亿参数的Phi-1,这是一个小型而高效的代码模型,它实现了 Python 中更大模型的代码性能,但成本远低于 GPT-4。
此外,微软正在试验 Orca 等模型,该模型基于 Meta 的 Llama 2,据说部分达到了 GPT-3.5 和 GPT-4 的水平。
据报道,研究主管 Peter Lee 下令将其研究部门可用的 2000 块 Nvidia 显示卡中的大部分,用于开发更高效的模型,这些模型可以执行比 GPT-4 更简单的任务,例如客户服务。 据称,与 OpenAI 要耗用的资源相比,它需要的资源少得多。
此外,据报道,微软还希望这样做可以节省更多的人工智能服务器芯片,这些芯片一直供不应求。
企业软件公司 Databricks 的高管 Naveen Rao 在谈到微软内部的人工智能进程时称,这最终是必须发生的。
据称,微软的自研设想仍处于早期阶段。 Naveen Rao 指出,微软是一家聪明的企业公司,他们需要高效。