AI春晚OpenAI开发者大会一文汇总 - 迈向通用AGI的第一步 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }
AI春晚OpenAI开发者大会一文汇总 - 迈向通用AGI的第一步
原创 数字生命卡兹克 数字生命卡兹克 2023-11-07 04:26 天津
在2023年这个AI爆发的元年,OpenAI作为这轮AI浪潮真正的奠基者,任何动作都一定是万众瞩目的。
11月7号凌晨2点,有史以来第一次的OpenAI开发者大会,更被戏称为AI春晚,在奥特曼预告了好几个月之后,终于正式开始了。
干货和新消息非常多,核心是GPT4-Turbo模型和Agents,我分成了三趴:
-
新的GPT4-Turbo模型,功能更强大、更便宜、支持token更长。
-
开放更多的API,包括视觉、图像创建(DALL·E 3) 和文本转语音(TTS),新出了Assistants API,可以帮助开发者构建在自己的应用程序中构建Agent。
-
ChatGPT的更新,官宣AI Tools,发布用户可自定义的GPTs。
ChatGPT用户数
先恭喜OpenAI,目前有大概200万开发者,在500强中有92%用了GPT改善工作流,周活有将近1亿用户。
GPT-4 Turbo
1.GPT-4 Turbo 支持 128k 的上下文窗口,大概相当于300多页的文档。
2.函数调用更强了,可以一次性调用多个函数,准确性也更高。还有新的输出json模式,在这个模式下,新的API参数response_format使模型能够约束模型输出,以生成语法正确的 JSON 对象。还有一个新的seed参数,能使模型在大多数时间返回一致的完成来实现可重现的输出。
3.知识库更新到了2023年4月。
4.GPT4开放微调,并且OpenAI还开放了一个叫做Custom models(自定义模型)的功能,让选定的公司能跟 OpenAI 合作,针对他们的特定领域训练定制 GPT-4。支持修改模型训练过程的每个步骤,并且训练好后的模型是公司专属。
5.GPT4的API价格更便宜了,GPT-4 Turbo 输入代币比 GPT-4 便宜 3 倍,为 0.01 美元,输出代币便宜 2 倍,为 0.03 美元。
顺带手把GPT-3.5 Turbo也给升级了,新版本GPT-3.5 Turbo默认支持16K了,版本的的价格也给砍了。
GPT-3.5 Turbo 4K 模型输入token减少 4 倍至 0.003 美元,输出token便宜 2.7 倍,至 0.006 美元。GPT-3.5 Turbo 16K版本输入便宜 3 倍,为 0.001 美元,输出便宜 2 倍,为 0.002 美元。
并且OpenAI承诺不会拿API过来的数据进行训练,以保护开发者,避免版权纠纷。
开放API
1.多模态、Dalle3、TTS都开放API,后面可以接入了。
2.新的Assistants API,可以帮助开发者构建在自己的应用程序中构建Agent,Assistants API 包含Code Interpreter(代码解释器)、Retrieval(知识库)、Function calling(函数调用)。
具体的API文档可以看OpenAI的官方文档:
https://platform.openai.com/docs/assistants/overview
价格这块,Code interpreter 单次0.003美元,Retrieval 是0.20 美元/GB/助理/天,这些在11月17号前免费,17号后开始收费。
最后演示的时候挺搞笑的,他们现场做了一个,然后给在座的所有人都发了500美元的API额度。。。
3.开源了Whisper v3 和 Consistency Decoder。Whisper是大名鼎鼎的语音转文字的标杆,这次开源了V3版本,马上还要开放Whisper v3的API。Consistency Decoder是Stable Diffusion VAE的替代品,该解码器改进了与 Stable Diffusion 1.0+ VAE 兼容的所有图像,在文本、面部等方面有显着改进。
ChatGPT相关
1.正式发布AI Tools,GPT-4用户不用再点模型的各种下拉菜单了,以后只有一个窗口,模型可以自主调用代码解释器、联网工具、Dalle3等等,走上了通用AGI的第一步。
2.GPTs。ChatGPT 的自定义版本,用户为他的特定任务创建定制版本的 ChatGPT ,且无需编写任何代码行。也就是说,没有任何开发经验的用户,都可以在ChatGPT创作自己的Agents应用。
跟Assistants API不同的是,Assistants API是将GPT的Agent能力集成在他自己的应用程序上,而GPTs是活在ChatGPT上。
而且用户做完的GPTs,还可以跟朋友分享,本月晚些时候,OpenAI将推出 GPT 商店,甚至还可以根据使用你创作的 GPT 的人数来赚钱。这个影响挺深远的,这就是AI时代的真正的GPTs store。生态会真正的起来。
这个GPTs自定义性非常强,用户可以将GPT 连接到 API 以执行任务,例如管理数据库、电子邮件、发短信等等。
这里有一个演示视频可以看一下:
最后
这张图应该能说明很多东西了。
OpenAI在迈向通用AGI的路上,正式开始了第一步,推出了GPTs、推出了Assistants API,还发布新版本的GPT-4 Turbo,再把价格巨幅降低。
我一边看到的是AI行业的狂欢,这是AI春晚也好不为过。
而另一方面,看到的是无数中小AI创业公司的消亡。
AI实在是一个巨大的杠杆。
今晚的OpenAI仿佛在重复着《三体》中的一句话:
“我消灭你,与你无关”
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。
数字生命卡兹克
 阅读 赞  分享 ‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言