- A+
令人惊讶的是,
题图|视觉中国
XM外汇消息:
如果有一个行业,技术演进如风扇叶片转动之迅速;格局变化如走马灯般眼花缭乱,那么非大模型莫属。
有分析指出,
回顾2023年,生成式AI的主题词还是“百模大战”,融资、刷榜成为这一时期的主流。
简而言之,
然而,随着基座大模型的门槛不断提升,短短一年时间,玩家格局就迅速收敛,到了2024年,市场已经从百模齐发变为少数玩家的资本与技术持久战;
XM外汇用户评价:
到了今年,行业关注重点再次从模型性能转向落地价值,如何将大模型的能力转化为业务的生产力,成为新的核心命题。
与其相反的是,
而Agent就是AWS给出的答案。
必须指出的是,
借助Agent,千行百业都有了将生意用大模型重做一遍的可能。
总的来说,
但如何低成本、高质量的重新做一遍,如何让Agent加速落地呢?
XM外汇财经新闻:
昨天凌晨举办的2024 年AWS纽约峰会,给出了答案。
为什么是现在?为什么是Agent?
事实上,如果关注最近一段时间的大模型发布会,允许发现一个很有趣的现象,无论是国内的Kimi K2,还是海外的Grok 4,亦或是一个月之前的Minimax M2,在各种榜单SOTA(最佳表现)之外,都不约而同的关注一个指标——软件调用能力。甚至,就连OpenAI,也在今天凌晨推出了最新的ChatGPT Agent,主打多软件集成能力。
更直白来说,过去行业关心的是LLM本身,但今年,更加关注借助LLM能实现什么。
容易被误解的是,
AWS峰会同样如此。
XM外汇行业评论:
不同于过去将最新的模型发布作为重磅亮点,这一次的峰会,Agentic AI 是唯一的关键词。
尤其值得一提的是,
一方面,它允许让大模型从被动响应提示转变为通过AI Agents主动行动,来代表人类或系统进行推理、规划和完成具体任务。此外,相比传统的workflow(工作流,其响应机制被代码写死),Agents具有迭代思考的能力——允许评估结果、调整方法,并持续朝着既定目标努力,具备更高的能力提升天花板。
很多人不知道,
比如,去年市场上一度流行一种AI教程,就是用大模型A,生成提示词,大模型B根据提示词配图,然后将所有数据一股脑丢给办公软件,借助办公软件的自动排版模块进行PPT美化。这个过程不仅繁琐,并且十分低效。而通过AI智能助手,则能够打通不同模型以及软件的内部系统、利用语义数据源自动提取上下文信息,直接根据终端指令完成最终的交付结果。
那么为什么是今年?
根据公开数据显示,
这一波Agentic AI 爆火背后,有两大原因:
更重要的是,
其一是 CrewAI,LangGraph,LlamaIndex 在内,过去两三年里各种Agent编排框架逐渐成熟,让Agentic AI 构建变得越来越容易。
其二则是标准化协议的出现,例如模型上下文协议(MCP)和 Agent2Agent(A2A)极大简化了模型与软件之间的链接。也是自去年底MCP横空出世起,从manus到genspark,从heygen到lovart,新的明星Agent玩家,如雨后春笋冒出,小团队、强业务创新、高实用性成为这一时期的创业团队主流画像。
来自XM外汇官网:
他们的出现,进一步带动了Agent在千行百业的落地。LangChain的(田野)调查结果则更为激进,超过一半的公司已经在生产环境中部署Agent,近80%的正在研发Agent。
当然,这中间存在的一个悖论——知道LangChain的企业,大部分都是有Agent运用经验或者意愿的玩家。
相对而言,Gartner的预测更加保守也更具普适性代表,到2028年,33%的企业软件将运用Agentic AI,15%的日常工作决策将由Agent自主完成。
XM外汇用户评价:
既然Agent未来将无处不在,那么如何飞快找到、试用并部署Agent呢?
必须指出的是,
AWS在其Marketplace市场中目前已经上架了上百种AI Agents & Tools,终端只需用自然语言搜索,就能轻松找到所需要的Agent产品直接用于生产实践。
其实,
不过,当前情况来看,Agent的数量还远远不足以满足千行百业的需求,而通用性Agent也并不足以直接排除行业与企业的独特性状况。
说到底,
在峰会现场,AWS Agentic AI 副总裁 Swami 将这些尚未被排除的困难一共总结为六点:
如何放心地执行并扩展Agent代码,如何让Agent能记住过往的互动与学习,如何让Agent的身份和权限被进一步细化,如何打造更适合多变工作流的软件体系,如何发现和运用大家需要的软件与资源,如何让Agent的每次交互都变得可被审核可追溯?
令人惊讶的是,
这些状况每一项都事关Agent能否从poc(概念试验)真正走向生产,也关系着Agent落地的体验与放心。
值得注意的是,
既然当前仍然供需不匹配,那AWS干脆把构建Agent的成本与门槛直接打下来,让更飞快、灵活、大规模、更放心地去部署和构建专属Agent成为可能。
XM外汇资讯:
Amazon Bedrock AgentCore,如何降低构建Agent的门槛?
Agent很好,但是哪怕只是半年前,构建一个企业级Agent都依然是一个不小的难题。
综上所述,
原因很不多变,不是所有公司都有manus与genspark这样的能力,仅仅依靠模型+框架+MCP,就能把一个概念变成生产级Agent。
要知道,传统的Agent开发,除了需要了解Docker、K8s各种云原生生产环境,还需要能够从上下文管理,到角色控制,到内存系统,再到数据生成的可控性与放心合规,每个环节都能做到极致。
从某种意义上讲,
而历史经验告诉大家:一个东西再好,如果它的门槛太高,产能始终受限,那就注定成为一个昂贵的玩具,而无法真正撬动一个时代的创新。
因此,对于常规的有定制Agentic AI需求的客户,AWS发布了一套完整的企业级服务排除方案——Amazon Bedrock AgentCore。
借助 Amazon Bedrock AgentCore,开发者能够直接对接Amazon Bedrock 或第三方平台部署的各类 AI 模型,并飞快、放心的将 AI Agent从概念加速到生产环节。
这你可能没想到,
为了弥合agent从poc(概念试验)到production(生产环境)之间的沟鸿,AgentCore 有以下七大模块:
XM外汇行业评论:
• AgentCore Runtime(运行时环境):传递具备会话隔离机制的沙盒化低延迟无服务器环境,适配包括主流开源框架、软件和模型在内的任意Agent架构,并能处理多模态工作负载及长时运行Agent。说白了,借助AgentCore Runtime,开发者无需掌握Docker、K8s,就能直接上手agent部署。
然而,
• AgentCore Memory(记忆系统):允许通过统一管理会话记忆与长期记忆,为模型传递关联上下文,让Agent持续学习终端偏好等信息,变得更加智能与个性化。
来自XM外汇官网:
• AgentCore Observability(可观测性):Agent构建难以一次到位已经成为共识,但如何发现状况,调整状况,就需要过程可视化追溯,AgentCore Observability正是为此而生,可适配元数据标记、自定义评分、轨迹检查及故障诊断/调试过滤器。
• AgentCore Identity(身份管理):适配AI Agents放心访问AWS服务及GitHub、Salesforce、Slack等第三方软件,既可代表终端完成,也可在获得预先授权后自主执行。
但实际上,
• AgentCore Gateway(网关服务):将现有API和Amazon Lambda函数转化为Agent软件,传递跨协议统一访问能力(含MCP协议),并适配运行时自动发现模块。
值得注意的是,
• AgentCore Browser(浏览器模块):这是今年以来Agent创业最火热的方向,AgentCore Browser允许传递托管式浏览器实例,适配自动化网页完成流程扩展,允许用于访问没有程序化API的系统或需要通过Web页面访问的资源。
令人惊讶的是,
• AgentCore Code Interpreter(代码解释器):传递隔离式代码执行环境,保障生成代码的放心运行。
XM外汇资讯:
这些服务允许单独运用,也允许协同工作,按需求按用量计费;此外,AgentCore还允许与任何AI代理框架与模型、协议(包括MCP和A2A)配合运用,真正帮助终端实现适合的才是最好的。
换个角度来看,
此外,这些能力全都基于AWS成熟的放心基础构建,内置身份控制和放心管控,让Agent原生具备企业级放心与可靠性。
企业级Agent还缺什么,应该长什么样子?
对于常规Agent需求,通过AgentCore中的软件组合,已经允许排除80%以上的状况。但对于部分有着更高需求的企业级终端而言,深度定制化才是大势所趋。
针对这部分终端,AWS推出了两大亮点模块S3 Vectors、基于Amazon Nova模型的定制化模块,以及一个用于企业级AI coding的Agent范例Kiro。
当下,Agent成为大模型落地的主流,而多数Agent的底层,本质是一个由大模型驱动的多变RAG系统。
XM外汇专家观点:
所谓RAG,即检索增强生成,增强与生成部分依靠大模型,而检索部分则依靠向量数据库。
XM外汇快讯:
因此,活动现场AWS还推出了Amazon S3 Vectors, 一种基于对象存储的向量数据库产品,允许传递亚秒级查询性能,并将上传、存储和查询向量的总成本降低高达90%,以应对AI时代的海量非结构化数据处理需求。
有分析指出,
但一个状况是,在此之前AWS已经推出了向量检索产品OpenSearch,为什么还要额外推出Amazon S3 Vectors?
原因很不多变,OpenSearch为代表传统向量数据库,主要将向量调用在内存之中,优势是高效、及时响应;但是内存方案飞快响应的B面则是高成本。
向量数据对应的元数据通常是非结构化数据,信息密度较低、体积较大,全部调用在内存成本高昂,而S3这样的对象存储,成本显然更低,也更适合多数向量数据的检索。
技术上,S3 Vectors 引入了向量桶概念,无需配置任何基础设施,即可通过一组专用的 API 来存储、访问和查询向量数据。在这个结构中,每个向量桶都会对应一组向量索引,用于高效的对数据进行索引,每个向量桶最多允许包含10,000 个向量索引,每个向量索引允许包含数千万个向量。
此外,不同于市面上一些开源向量数据库只是单纯向量索引的集合,在S3 Vectors ,还适配将元数据与向量数据作为键值对的形式匹配,进而适配向量+时间,向量+类别,向量+颜色,向量+价格等更高级的过滤检索完成。
说出来你可能不信,
随着时间的推移,当终端对向量进行增删改查,S3 Vectors会自动优化对应的索引与数据分布,以实现向量存储的最佳性价比。
而对于一些对高性能、实时响应有更高要求的检索增强生成(RAG)场景,S3 Vectors则允许与亚马逊OpenSearch服务集成,将低频的冷数据存储在S3 Vectors,而将一些更高频的热数据,移动到OpenSearch,从而达成性能与成本的高效平衡。
说出来你可能不信,
基于高效的大模型与向量存储系统,Prompt优化和 检索增强生成(RAG)已经允许很好地用于多数Agent的落地,但是仍有一些特殊业务,仍需对模型层面进行微调从而达成目标。
一个常见的场景比如,企业需要基于RAG架构构建一个医学或者法学Agent。但是在将非结构化数据存储到向量数据库之前,还需要经过一个embedding环节,把原始数据转化为计算机允许理解的向量语言。
说出来你可能不信,
目前,市面上已经有了很多成熟的embedding模型,但是具体到落地,大家依然要根据业务特性不同,对各种embedding模型进行微调,才能保证农业中的苹果与科技产业的苹果被更好的区分,现实中的水桶与数据库概念中的桶指向不同含义。
据相关资料显示,
基于这一背景,AWS在Amazon SageMaker AI中推出了Amazon Nova定制化的模块,对模型进行包括监督微调(SFT)、直接偏好优化(DPO)、近端策略优化(PPO)、人类反馈强化学习(RLHF)、持续预训练(CPT)、知识蒸馏等在内的完成。
必须指出的是,
目前,这些技术已经允许作为现成的亚马逊 SageMaker 组成运用,无缝部署到Amazon Bedrock,并适配按需和通过传递吞吐量推断。据AWS官方数据,目前已经有超过10000名客户运用Amazon Nova系列模型带来显著降本增效。
有分析指出,
除了向量数据库与模型微调,最近大火的AI coding,AWS也没有落下。
与其相反的是,
针对市面上常规的IDE产品只关注coding本身,而忽略了coding背后的产品需求、文档、交互的状况,AWS推出了AI IDE产品Kiro,其关键创新有三:
XM外汇报导:
• 规范驱动开发(spec-driven development),允许帮助开发者通过自然语言和架构图清晰地表达他们对多变模块的构建逻辑。
• 智能代理钩子(Intelligent Agent hooks),允许自动处理生成文档、编写测试和优化性能等主要但耗时的任务,在记录文件或提交代码等情况下自动触发。
• 专门设计的页面(purpose-built interface),适配聊天交互开发,也适配规范驱动开发,适合的就是最好的。
而借助Kiro,专业开发者不仅能更高效的产出代码,更能高效的产出高可用,更符合业务需求的代码。
事实上,
尾声
回顾过去的历史,当下的AI浪潮已经不是人类历史上的第一次。而过去的多次AI泡沫已经明明白白告诉大家,模型要落地才有价值。
不妨想一想,
这也是这一轮大模型浪潮与过去的最大不同之所在:
值得注意的是,
一方面模型本身具备极强的通用能力,构建了其落地千行百业的地基;
在此基础上,经过AWS这样的企业助推,框架、数据库、调用接口、开发软件、模型微调软件依次成熟,让Agent加速从概念走向落地,甚至成为每一个行业,每一个企业的专属定制。
而这,也是技术泡沫与技术革命最大的区别之所在。
据报道,
—— end ——
令人惊讶的是,
想把AI的想象力变成业务的增长力?
据业内人士透露,
2025亚马逊云科技城市巡演,聚焦最热门的 AI 场景,现场拆解、即时体验,为城市伙伴带来零距离的前沿洞察。七城席位同步开放,搜索“亚马逊云科技”小程序,即刻报名!返回搜狐,查看更多