OpenAI宣布更新:大幅加强人工智能模型

金色财经 阅读 36806 2023-6-14 16:07
分享至
微信扫一扫,打开网页后点击屏幕右上角分享按钮

2023年(北京时间)6月13日,OpenAI宣布,更新为了提高工作场所的人工智能能力,OpenAI宣布对其开创性的生成AI模型GPT-3.5 Turbo和GPT-4进行一系列更新。

具体的迭代,包括革命性地引入新的函数调用功能、改进可操纵性、GPT-3.5 Turbo 的扩展上下文以及修订的定价结构,旨在为开发人员提供一个扩展的工具箱,用于创建复杂、高性能的 AI 应用程序,以满足现代工作环境的复杂性。

这些迭代,包括引入全新函数调用能力、改进的可引导性、GPT-3.5 Turbo的扩展上下文以及修订的定价结构,旨在为开发人员提供一个扩展的工具箱,以创建复杂、高性能的人工智能应用程序,满足现代工作环境的复杂性。

前情提要:OpenAI驱动一切?

注意:开发者并不是唯一将从OpenAI的GPT模型的最新改进中受益的部分:我们已经看到——微软与OpenAI合作,为开发者带来了人工智能模型,并通过生成性人工智能增强了Bing和Office等流行产品、Snapchat使用OpenAI的GPT模型推出了其生成性人工智能聊天机器人My AI、Salesforce发布了第一个生成性人工智能CRM产品,Einstein GPT,由OpenAI最 "先进的模型 "提供支持、摩根士丹利宣布与OpenAI合作,成为少数能获得最新GPT-4模型的财富管理公司之一、HubSpot开发了基于OpenAI GPT-4的ChatSpot.ai、Stripe纳入了OpenAI GPT技术,以帮助了解客户并减少欺诈

那么,OpenAI对GPT-3.5 Turbo和GPT-4的有哪些改进?

OpenAI宣布更新GPT-3.5 Turbo和GPT-4模型,包括在Chat Completions API中引入全新的函数调用功能,改善可操控性,为GPT-3.5 Turbo扩展上下文,以及进一步降低价格等。

产品更新

Chat Completions API——API新函数调用能力

更新gpt-4与gpt-3.5-turbo的更新、更新更多了指导性版本

gpt-3.5-turbo的新的16k上下文版本(相对于标准的4k版本)。

最新embeddings model的成本降低了75%。

gpt-3.5-turbo的输入Token成本降低25%。

官宣gpt-3.5-turbo-0301和gpt-4-0314模型淘汰的时间安排

所有模型都会按照OpenAI 2023年3月1日推出的同样标准数据隐私和安全保证,客户的API数据不会被用于训练。

创建聊天机器人,通过调用外部工具回答问题、

将自然语言查询转换为函数调用、API调用或数据库查询、

从文本中提取结构化数据

新API参数为开发者提供了向模型描述功能的方法,并要求模型选择性地调用特定功能

函数调用的引入为开发者提供了新可能性,从而可以将GPT模型与其他API或外部工具无缝集成。

例如,一个工作场所的应用程序可以使用这一功能,将用户的自然语言查询转换为对CRM或ERP系统的函数调用,使应用程序更加友好、高效。虽然OpenAI仍然关注与不受信任的数据相关的潜在安全问题,但它建议开发者只从受信任的工具中获取信息,并在执行有影响的行动之前加入用户确认步骤,从而保护他们的应用程序。

函数调用

开发者现在可以gpt-4-0613和gpt-3.5-turbo-0613进行函数描述,并让模型智能选择输出一个包含参数的JSON对象,对函数进行调用,这样,可以更可靠地将GPT的能力与外部工具和API连接起来。

(是指原来应用侧自己解析AI输出结果并调用自己的功能,改为我把可能的调用都给AI,让它自己选)

根据开发者的反馈和功能要求,OpenAI赋能开发者,向更新的模型进行功能描述,并让AI智能生成包含这些功能参数的JSON对象,使GPT的能力与外部工具和API的连接更加可靠,这样就可以支持从模型中更好地检索结构化数据。新的函数调用这块,支持多样化的应用。

这些模型已经进行过fine-tuned ,既可以检测需要调用一个函数(取决于用户的输入)的时间,又可以以符合函数签名要求的JSON文件来响应。函数调用允许开发人员更可靠地从模型中获得结构化的数据。

例如,开发人员可以:

创建聊天机器人,通过调用外部工具(比如说ChatGPT插件)来直接回答问题:将比如说是 "给Anya发邮件,看她下周五是否想喝咖啡 "这样的query

转换为send_email(to: string, body: string)这样的函数调用,

或者将 "波士顿的天气如何?"

转换为get_current_weather(location: string, unit: 'celsius' | 'fahrenheit')

(笔者注:API玩插件,Langchain的部分能力很可能会被取代)

将 "谁是本月的十大客户?"转换为内部API调用,如

get_customers_by_revenue(start_date: string, end_date: string, limit: int),或将 "Acme, Inc.上个月有多少订单?"直接转换成SQL语句,使用sql_query(query: string)。

从文本中提取结构化数据:

定义一个名为extract_people_data(people: []的函数,以提取维基百科文章中提到的所有人物。这些用例是由OpenAI的/v1/chat/completions端点中的新API参数 functions 和 function_call促成的,允许开发者通过JSON Schema向模型描述功能,并可选择要求它调用一个特定的功能。

从开发者文档开始,如果你发现函数调用可以改进的情况,可以添加evals。

模型改进

新的GPT-4和GPT-3.5 Turbo模型包含了改进的可引导性和扩展的上下文。

开发人员可以利用增加的可引导性来设计人工智能应用程序,使其更符合组织或任务的具体要求,如生成更有针对性的商业报告或在客户服务聊天机器人中创建详细的、上下文感知的响应。

发布的GPT-3.5 Turbo-16k可以提供四倍于标准GPT-3.5 Turbo的上下文长度,在一次请求中支持多达20页的文本。这种扩展的上下文能力使人工智能能够理解并生成更大的文本体的响应。

例如,在法律或学术工作场所,文件往往是冗长的,这一功能可以极大地提高模型理解和总结大量文本的能力,使信息提取更有效率。同样,对于项目管理应用,它可以让人工智能一次性处理和理解整个项目计划,帮助生成更有洞察力的项目分析和预测。

OpenAI还宣布废除早期的GPT-4和GPT-3.5 Turbo版本,在9月13日之前,旧版本仍可使用。开发者们得到了平稳过渡的保证,并被鼓励提供反馈以帮助完善这一过程。

降低价格

随着系统效率的提高,OpenAI正在将节省的成本赋能开发者。使用流行的text-embedding-ada-002的价格降低了75%。此外,GPT-3.5 Turbo模型的输入令牌的成本也降低了25%。

结合功能的改进,成本降低会使开发者更容易在他们的应用中使用和试验这些模型。

继续研发GPT模型

OpenAI致力于根据开发者的反馈持续改进其平台。随着其生成性人工智能模型的最新增强,OpenAI为开发者提供了新的可能性,为工作场所创造创新和改进的人工智能应用。新的API更新和GPT模型为开发者提供了更多的能力,以创建更适合处理工作场所环境中常见任务的复杂性和特殊性的AI应用。

其他解读&推测

2023年3日,笔者发过一篇文章,刚刚!OpenAI推出ChatGPT Plugins的解读

其中提到了:

1.平台化的公司,未来的优势应该仅仅限于自己的数据本身了,数据直接通过AI触达,用户跳过了中间的这个工程架构的设计。

比如说,假如我们现在要模仿B站开发一个C站,传统上是需要先看一下B站的业务结结构是怎么样的,然后找架构师克隆一遍,该用开源代码就用开源代码,但是,随着ChatGPT Plugin的横空出世,这种形式可能将成为过去式,以后可能会变成一种叫平台业务租赁的这种方式,来直接把数据一步到位转化给用户。

2.Open AI作为行业的裁判员,直接开始下场参赛。既是选手,还是裁判。这一切发生得太快了。

那么,今天笔者再补一些思考:

Plugin的本质,其实是资源平权,OpenAI会成为以后的大数据之王,而不是具体服务商。存量资源平权化,我认为是这一轮AI的真实内核,我们考虑问题,得思考技术累积的厚积薄发,而不能只仅仅流量角度考虑问题。

btcfans公众号

微信扫描关注公众号,及时掌握新动向

来源链接:https://www.jinse.com/
免责声明:
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
2.本文版权归属原作所有,仅代表作者本人观点,不代表比特范的观点或立场
标签: 人工智能 OpenAI
上一篇:鞋业集团 Puma 推出 3D Web3 体验 下一篇:Nostr2.0:作为比特币 Layer 2 链下数据存储层

相关资讯