网站搜索

微软拥抱 OpenAI 的 ChatGPT 插件标准


这些更新将使开发人员能够创建自己的插件并将其无缝集成到 Microsoft Copilot 堆栈中。

Word 中的 Microsoft 365 Copilot。

在最新一届年度 Build 开发者大会上,微软发布了一系列公告,旨在简化人工智能应用程序和副驾驶的开发,并采用 OpenAI 为 ChatGPT 引入的相同开放插件标准。 

此举将使开发人员更轻松地创建插件并使用新的 Bing Chat 的强大结构(由 OpenAI 的 GPT-4 构建)。这些插件可以让 Bing 帮助用户轻松订购杂货、寻找新房子或预订餐厅,所有这些都可以在 Bing 聊天窗口中完成。 

反过来,这将使开发人员能够创建跨业务和消费者界面无缝运行的插件。

“插件是关于你,副驾驶开发者,如何让你的副驾驶或人工智能系统拥有目前尚未显现的功能,并将其连接到数据,并将其连接到你正在构建的系统,”根据凯文·斯科特,微软首席技术官。 “我认为最终将会出现一个极其丰富的插件生态系统。”

除了之前发布的 OpenTable 和 Wolfram Alpha 插件之外,Bing 现在还整合了来自 Zillow、Klarna、Instacart、Kayak、Redfin 等的插件。此集成将使用户可以直接从 Bing Chat 内访问这些服务。 

开发人员创建插件来充当信息源和程序(在本例中为人工智能系统)之间的桥梁。它们使副驾驶能够检索实时数据、合并专有业务数据、执行复杂的计算并代表用户执行操作。 

采用与 ChatGPT 相同的插件标准将保证 ChatGPT 和 Microsoft 各种 Copilot 程序(包括 Dynamics 365 Copilot、Microsoft 365 Copilot 和 Windows Copilot)之间的互操作性。 

微软还宣布扩展其 Copilot 程序,Power BI 中的 Copilot 和 Power Pages 中的 Copilot 目前处于预览阶段。 Microsoft Fabric 和 Windows Copilot 中的 Copilot 也将很快提供预览版。 

“你可能会看到 Bing Chat 并认为这是一些超级神奇的复杂事情,但微软正在为开发人员提供他们开始构建自己的副驾驶所需的一切,”斯科特说。 “我认为在未来几年,这将成为对所有软件如何工作的期望。”

随着 Microsoft 将插件功能扩展到 Copilot,它为开发人员提供了在 Microsoft 365 中利用 Teams 消息扩展和 Power Platform 连接器的机会。这将使他们能够加强现有投资,并使用 Microsoft Teams Toolkit for Visual Studio Code 和视觉工作室。

开发商将打造世界上最多的副驾驶

Microsoft 的这些更新将使程序员能够开发、测试和部署自己的插件,并自定义 Microsoft Copilots 的能力,以增强他们自己的生成式 AI 应用程序。 

例如,接受过大型语言模型培训的副驾驶可以访问企业的数据和后端系统,使其能够根据特定的公司知识响应员工的查询。 

尽管 Copilot 堆栈的扩展仍在继续,但 Scott 声称,未来大多数可用的副驾驶将由独立开发人员(而不是公司)创建。 

斯科特说:“他们将了解他们或他们的用户正在尝试完成的特定事情,并且他们将使用这种人工智能软件开发模式来为这些用户构建这些东西。”

这将大大加快 Microsoft 客户的创新步伐,因为 Visual Studio Code、GitHub Copilot 和 GitHub Codespaces 简化了插件开发过程,提供了创建、调试和部署工具。 

“我们今天的处境真是太棒了。你可以采用像 GPT-4 这样的大型语言模型,并开始使用它来构建应用程序,”斯科特说。 “我们建立了这个名为 Copilot 的新应用程序平台。”

借助 Azure AI Studio,开发人员将能够在私有企业数据上运行和测试插件,以实现流畅的集成体验。完成后,这些插件将在 Microsoft 的 Copilot 体验中运行。 

完整的微软生态系统为开发人员提供了构建适合当前人工智能领域的软件所需的所有工具。借助各种 Microsoft 产品之间的无缝互操作性以及 OpenAI 工具的集成,开发人员可以创建各种插件以增强用户体验。

“我们在 Azure 上提供了创建副驾驶所需的一切,”Scott 补充道。 “而且这些东西协同工作得非常好,因此在 Azure 上尝试你的想法并快速迭代将比任何其他方式更容易。”

相关文章