火狐体育全站app:

  如果说,前几天刚刚登顶App榜的Sora 2是OpenAI技术硬实力的直观展现,那么美国时间10月6日举办的OpenAI DevDay,则更清晰地展示了OpenAI的野心。

  整场发布会的内容可拆解为四个部分,除了API开放之外,其他三个部分一起构成了OpenAI的未来蓝图,也可能是所有AI公司的未来路径:构建一个以AI为绝对核心的全新软件生态体系。

  发布会上展示的功能,大多可视为过去两年 AI 技术演进的线性延伸,并无太多意外之处。但 OpenAI 此次首次将这一蓝图更系统化、平台化地呈现出来。

  “LLM即将成为所有软件的入口”,这个在2024年人们脑中还略显模糊的想象,到2025年已然成为共识。

  OpenAI此次推出的Apps SDK,基于已建成的MCP体系,首次将这一愿景的实现路径完整呈现出来。

  Apps SDK是一套完整的开发堆栈,允许开发者在ChatGPT内部构建真实、可交互的应用程序。通过这套SDK,开发的人能连接自己的数据、触发具体操作、并渲染出完全交互式的用户界面。

  此前,Claude、GitHub Copilot等别的产品虽有工具使用能力,但只是将外部服务的结果以文本形式返回,缺乏真正的上下文理解和自然的交互界面。也就是说,过去的工具难以真正被“用起来”,而OpenAI的Apps SDK让用户能在LLM中像在电脑上一样使用App。

  当用户正在为宠物狗业务进行头脑风暴时,可以直接“@”出Canva,它会立刻理解之前用户和它聊到的所有点子,并根据“色彩丰富、异想天开”的模糊要求,生成一系列精美的海报。

  如果灵感迸发,用户还可以要求它把其中一张海报直接扩展成一份完整的商业计划书(Pitch Deck)。

  而当业务需要扩张时,ChatGPT会根据上下文建议用户考虑“匹兹堡”这个城市,并无缝唤起Zillow应用,直接扩大到全屏,帮助寻找合适的房源,用户只需要在ChatGPT内提出新要求,就能让它筛选出“带院子的三居室”。

  接着,用户还可以跟它继续沟通,在ChatGPT里问它诸如“这个房子离狗狗公园有多远”之类的问题。

  这一系列操作行云流水,背后展现的是Apps SDK将不同应用无缝融合的能力。

  App不再是孤立的程序,而是能随时被调用、能完全理解对话上下文、并以视频、地图等丰富形态呈现结果的智能插件。用户无需在不同软件间切换,只需通过对话,就能在一个统一的入口中,让最合适的工具在最恰当的时机出现,并协同完成一项复杂的任务。

  OpenAI发布的重要进展是基于MCP,使开发的人能设计其应用的逻辑和界面。结合GPT本身对图像的识别能力,它让App更“自然”地融合在了对话过程中。

  因为对话和理解的便捷性,尤其是OpenAI在这场展示中着重强调的对上下文的记忆和理解,用户都能够很容易地在GPT中调用多种App去完成同一个工作。

  这种强大的上下文理解能力,正是LLM有望成为主流软件入口的核心竞争力之一。

  而App也不再是功能孤岛,而是能被随时唤醒、能充分理解对话背景的“插件”,并以最合适的用户界面融入当前的对话流中。

  那如何让App更好地适应客户的真实需求,和对话更好的连接,以推动万物都在LLM内的大计呢?

  此前行业间普遍将 2025 年称作 “Agent元年”,可如今时间已行至10月,市场上却始终未出现能复刻去年Manus那般、引发行业震荡的现象级Agent产品。

  OpenAI希望让Agent时代来得更快,他们推出了号称“最简便、快捷”的Agent开发工具包——AgentKit。

  面对Dify、Coze等市场主流工具,OpenAI的答案是:让一切回归可视化。

  AgentKit的核心是一套可视化的画布“Agent Builder”,开发者不再需要从零开始编写代码,而是通过拖拽和连接不同的功能节点,比如文件搜索等,来直观地设计和测试复杂的业务流程。

  此外,AgentKit还提供了名为“ChatKit”的可嵌入聊天组件,让开发者能轻松地将具备品牌定制能力的聊天界面集成到自己的应用中。

  同时,它还有一个Connector功能,可以直接把Agentkit的Agent工具建构和企业内部数据和工具联系到一起。

  为了展示AgentKit的便捷性,产品经理Christina在现场仅用了8分钟,从零开始为一个静态的DevDay活动官网构建并上线了一个智能问答Agent。

  从演示中能够正常的看到,AgentKit只有Agent、End(结束)、Note(笔记)三个功能节点,各个Agent间,可以用条件、同时进行和用户许可三个逻辑点决定分叉走向。

  每个Agent中,能够正常的使用文件搜索、安全防护和MCP应用这三个工具。也可以将它们作为功能点加在外部。

  目前看,这个AgentKit并没有整体在设计逻辑上超越Dify类工具很多,但确实更精简,更易用。

  第三方工具只能将GPT作为API“黑箱”调用,而AgentKit则能深入模型内部来优化。目前,OpenAI慢慢的开始实验对GPT-5的RFT功能,开发的人能通过RFT来定制OpenAI的推理模型,还可以专门训练模型,让其学会在最恰当的时机、以最优的方式调用工具,以此来实现更好的推理效果。

  这对于想用GPT作为基础模型,达成最好的Agent效果的公司和开发者来讲,是个巨大的优势。

  它增加了“数据集构建”、“跟踪评估”和“自动化提示优化”等能力,允许开发者对工作流进行端到端的评估,精准定位并修复问题。这对于Agent开发而言,确实十分便捷。

  今天的展示,不禁让我想到了当年OpenAI发布的Agent alpha版本,就是GPT Store的命运。当时,模型主要依赖上下文,无法有效调用工具和数据,导致应用场景受到很大限制。而当下,Agent面临的一些具体落地问题,这个框架能否解决还是疑问重重。

  据Sam Altman介绍,自八月上线以来,Codex已经处理了40T的token,成为OpenAI增长最快的产品之一。从程序员社群的反馈来看,Codex的出现确实让Claude一直以来的编程王者地位摇摇欲坠。

  本次发布会中,Codex正式从研究预览版转为正式版(GA),其主要更新来自于对企业和工程团队的深度支持,具体可大致分为三个方面:

  首先是Slack集成。这是一个被社区呼吁已久的功能。现在,团队可以直接在日常沟通的Slack频道中调用Codex,让它在对话流里直接回答技术问题或编写代码片段,无需切换应用 。

  其次是推出了全新的Codex SDK。这使得公司能够将Codex的能力作为模块,自动化并扩展到自己内部的开发工作流中 ,让Codex能更好地融入企业现有开发体系。

  最后,OpenAI提供了一套新的后台管理与报告工具。这包括了环境控制、监控、分析仪表盘等一系列功能,让企业的管理者可以更加好地追踪和管理Codex在组织内的使用情况。

  但这些升级,远不如现场最后的那段演示来得震撼。演示者Raman的目标是仅通过对话,让现场的语音助手调用Codex SDK,命令它做一个滚动的开发者名单。Codex在后台实时修改了前端应用的React代码,屏幕上立刻开始滚动开发者的姓名。

  这个场景就是OpenAI预想的软件开发的未来——你甚至不需要看到代码,软件就可以在与你的对话中,实时地自我迭代和进化。

  首先,OpenAI迄今为止最强大的模型GPT-5 Pro 正式通过API向所有开发者开放。

  其次,为了普及语音交互,OpenAI发布了一款更小、更便宜的语音模型 GPT Real-time mini。它的成本比之前的版本降低了70%,但保留了同样优秀的音质和情感表现力,无疑将大幅度的降低开发者构建语音应用的门槛。

  而其中最重要的是Sora 2 API的开放。这在某种程度上预示着,开发者终于能将OpenAI顶级的视频生成能力,集成到自己的产品中。

  这个API的开放,表明未来在各种应用中,我们都可以方便地用上Sora 2来创作内容了。

  今年的旗舰模型GPT-5,尽管依旧强大,却缺少了当初GPT-4发布时那种跨时代的惊艳感,它更像是一次稳健但可预期的迭代。

  Sora 2的发布也是如此,其真正的惊艳之处,并非视频生成技术本身相较于早它发布的Veo 3等竞品。而是其产品团队精准洞察到了社会化媒体的下一个爆点:将真实的人物无缝融入AI生成的视频中。

  这是一个天才的产品构想,但它的光芒更多来自于商业嗅觉,而非底层的技术革命。

  此次 DevDay,正是这一趋势的集中爆发。无论是试图将所有应用纳入对话框的 Apps SDK、旨在统一开发标准的 AgentKit,还是面向企业深度定制的 Codex,OpenAI 的每一步动作,都在沿着一条早已清晰的路径深耕:搭建一个以自家大模型为绝对核心、封闭且极具掌控力的软件生态。

  只是,我们分明可以感觉到,OpenAI 早年那种自带的神秘感与对未知领域的探索气质,正慢慢的变淡;曾经让人肾上腺素飙升的 “惊艳感”,似乎也在慢慢褪色。

  如今的 OpenAI,商业帝国的轮廓愈发清晰,甚至已经隐隐盖住了通用AI(AGI)的远景图景。

,火狐体育下载app