本文根据吴侃老师在〖2025 XCOPS智能运维管理人年会-广州站〗的演讲内容整理而成配资安全炒股配资门户。
作者介绍
吴侃,新浪微博 增值业务研发中心总经理。曾工作于硅谷,后参与微博从无到有至今十六年。关注技术落地、商业模式与创新应用落地,参与国家十四五项目、国家自然科学基金项目。
一、引言:商业目标驱动下的AI应用探索
笔者主要负责微博的增值业务,这通常指有商业收入的业务形态,其核心是探索可持续的商业变现模式,这要求我们对所有技术投入的投资回报效益(ROI)进行严格的审视与度量。因此,本次分享将完全基于商业实践,剖析AI技术如何从概念走向落地,并与实体经济的逻辑相结合,以驱动实际的业务增长。
这次分享的内容逻辑脉络如下:
1、回顾与重估:以微博早期直播业务为参照系,审视AI时代下,我们对原有技术挑战与解决方案的全新认知。
2、多模态价值挖掘:探讨如何运用AI从多模态、多维度的数据中萃取商业价值,构建可直接驱动营收的端到端业务链路。
3、实践挑战与前瞻:聚焦于AI技术在实际部署中所面临的核心挑战,并对未来的发展范式进行展望。
二、历史回溯:高并发场景下的运维范式演进
回溯至2019年,那时笔者同时负责微博直播业务。直播业务面临的关键挑战之一,是应对在国家级活动和重大社会事件中,瞬间涌入的、高达数百万量级的峰值并发用户(PCU)。这种流量洪峰对系统稳定性的冲击是巨大的,要求我们具备在短时间内将计算资源进行数百乃至上千倍弹性伸缩的能力。
我们最初的探索,是从纯粹的人工运维,逐步过渡到基于规则的自动化运维。然而,该阶段的自动化高度依赖对CPU利用率、PCU历史数据等有限指标的线性回归预测模型。实践证明,这类简单模型的预测精度与时效性均存在显著局限,已无法满足高动态、高不确定性业务场景的需求。其根本原因在于,决策辅助系统中缺乏真正意义上的“智能”,无法洞察数据间的深层关联。
三、AI时代的再审视:从数据处理到智能决策
现在,在新的AI时代,随着对于生成式技术的理解不断深入,我们发现有很多不一样的方式可以重新审视这个问题。我们获得了重构这一问题的全新技术栈与方法论。
1、智能决策与全域数据整合: AI赋予我们处理全域、多维异构数据的能力。过去受限于人工分析的瓶颈,我们只能选择性地使用部分数据;现在,我们可以将包括所有设备遥测数据在内的海量信息纳入决策模型,将决策权部分移交于AI系统。这并非意味着简单套用通用基础模型,而是需要构建针对特定业务场景的定制化决策智能。
2、智能故障预警与时空序列预测: 在异常检测(Anomaly Detection)层面,我们面对的是海量的、非结构化的设备时序数据。我们正积极应用时空序列预测模型,对设备在未来周期(如30分钟)内的状态进行推演,以实现预测性维护。尤其在微博的社交媒体场域中,舆情动态的微妙变化,往往是预测平台流量激增或其他衍生技术异常的关键先行指标。
3、反馈控制闭环的构建: 我们致力于构建一个完整的反馈控制闭环(Feedback Control Loop)。AI的预测结果与自动化操作,将接受真实世界业务指标的持续检验。系统将根据实际效果数据,对AI模型进行自适应校准与迭代优化,从而实现决策精度的持续提升和对业务目标的强收敛。我们会发现,例如自适应监控、报警以及报告生成等工作,现在AIGC(生成式AI)非常擅长。
四、数据深层语义的挖掘与商业应用
微博平台每日产生数以亿计的博文、评论等用户生成内容(UGC),这些数据在表层信息之下,蕴藏着丰富的深层语义与商业洞察。
1、隐性关联与用户画像: 通过对用户行为链路的深度分析,我们可以挖掘其潜在的兴趣图谱与行为模式。热点议题的演化——从萌芽、观点聚合、情绪极化到形成社会影响力——其整个生命周期都可以在数据层面被精确捕捉和分析。
2、情感计算与商业洞察: 我们运用情感倾向性计算模型,量化用户对特定事件、品牌或产品的情感态度。这种能力在为企业客户提供商业智能服务时,能够实现对品牌舆情危机的早期预警和对市场偏好的精准洞察。
五、方法论的泛化:以物联网(IoT)为例
上述方法论具备高度的可移植性与泛化能力,在物联网(IoT)领域同样适用。IoT场景面临着更高频(可达毫秒级)、更巨量的数据挑战。传统IoT运维的可视化大屏,本质上仍是数据的平面展示,决策过程依旧高度依赖人工经验,这已远远超出人类专家的认知带宽。所以说,那个时代更多的是做了数据的采集和可视化展示,但背后隐藏的含义很难通过人工方式发掘。
试想一个场景:系统同时监测到两个看似不相关的弱异常信号——燃气浓度轻微超标,以及邻近水路管网的压力异常。任何一个单一信号都不足以触发高优先级警报。然而,领域专家的先验知识告诉我们,这两者的耦合,可能预示着地下管网的结构性形变,存在燃气泄漏并引发爆炸的高风险。
这揭示了一个核心问题:对跨模态数据关联性的精准洞知,是实现高级别风险预判的关键,而这正是AI的核心优势所在。我们的目标,正是要将这种高度依赖专家经验的隐性知识,转化为AI可以规模化、自动化执行的能力。所以我举这个例子是为了让大家了解,在多源和多模态的情况下,我们得到的大量数据其实是具有相关性的。
人类对于这种相关性的判断,非常需要专家型的经验,普通人可能很难从中发现潜在问题。但我们自身的目标,是从业务端的角度考虑,希望在异常发生时,有更多方式可以检测到,或者更具体和确定地发现问题。这时,我们就需要具备对大量多模态内容和多源内容进行分析的能力。因此,我们思考的一些思路是,不管在任何一种数据运维场景下,我们都需要具备这样的能力,而传统上这种能力很难通过人力来处理。
六、未来架构:从单体智能到“群体智能”协同
为了系统性地解决上述问题,我们正在探索一种全新的技术架构。
1、“万物皆Agent”的理念与数据标准化: 核心理念是“万物皆Agent”,将每一个设备、每一个数据源都视为一个具备自主性与通信能力的智能体。首要任务是借助大模型的语义理解能力,实现海量非结构化、异构数据的标准化与结构化,将其统一到标准的Agent通信协议框架下。
2、“AI Agent工厂”与流程内增效: 我们设想构建一种可规模化生产、部署和管理AI Agent的“工厂模式”。利用当前流行的低代码/无代码平台(如n8n, Coze, Dify等),快速构建和编排Agent。我们强调,AI并非要颠覆或取代现有业务流程(SOP),而是作为一种赋能技术,无缝嵌入至流程的各个节点,实现“流程内增效”。
这也代表了我们自己的一个思考观点:我们到底是在做一个全新的AI工作,还是在将AI嵌入到现有的某个生产环节里?我们更倾向于尊重传统,即无论是数据运维还是某项具体工作,其固有的流程依然存在。我们对于AI的使用,应该是更多地嵌入到每一个环节中,用AI来进行提效。
这里也跟大家分享一个案例:智慧空间的管理工作。实际上,在某个单点设备发生异常时,它可以告知云管理平台。但每个异常并非孤立存在,它往往是联动的。这时,我们的运营管理平台自身的AI会去分析,基于当前问题,还需要采集哪些数据,或者需要跟哪些设备进行沟通。在得到一个总体情况后,我们会进行更大量、更全面的分析。这其实就涉及到我们希望能够把每一个设备,无论是互联网设备还是物联网设备,都更多地总结到一起,从“看数”到“用数”的过程。因为传统上靠人力决策非常复杂,尤其在数据量巨大的情况下是很难做到的。
七、面向未来的AI Agent范式
我们认为,下一代AI Agent将呈现出与传统对话机器人截然不同的范式。
从“人类触发”到“事件驱动”: 未来的AI Agent将是事件驱动(Event-Driven)的。它的启动和运作,不再依赖于用户的即时查询,而是由环境中的特定事件(如一个异常信号、一个数据阈值被触发)自主激活。
从“短期交互”到“长周期任务”: 它将具备执行长周期、复杂任务(Long-running, Complex Tasks)的能力。任务的目标是明确的,但执行路径是动态规划的,Agent会自主调用工具、协同其他Agent,直至达成最终目标。
模型定制化与轻量化: 通用大语言模型(LLM)因缺乏特定业务目标的强收敛性,难以直接应用于高要求的生产环境。因此,掌握模型微调(Fine-tuning)、知识蒸馏(Knowledge Distillation)等模型轻量化与领域自适应技术,将业务目标直接注入模型训练过程,是实现AI商业化落地的必要前提。在边缘计算场景,这可能意味着将模型压缩至1B乃至更小的参数规模。
多智能体协同(Multi-Agent Collaboration): 现实世界的复杂问题,无法由任何单一的Agent或LLM解决。未来的解决方案必然是一个由多个专职Agent组成的协同智能体集群。通过事件流编排技术,云端的核心协调器将统筹调度这些Agent,使其像一个团队一样高效工作。这就要求我们必须深入研究并应用多智能体协同的协议与框架(如Google的A2A,微软的相关研究等)。
交互界面的革命: UI将从单一的聊天窗口,演变为一个集对话式交互与数据可视化深度融合的“驾驶舱”。AI在后台的推理和执行过程,将以摘要、图表、流程图等多种形式直观地呈现给用户,实现人机之间的无缝信息同步与联合决策。
这也带出了我们现在整个大语言模型本身的一个问题:大语言模型本身的训练,其目标性并不强。但实际上对于我们具体的业务场景来说,我们的目标性非常强,比如我们要提高效率,或者需要达成某个运维指标。而大模型的训练本身,很难直接指向这么一个具体目标进行训练。
所以,我们自己的思考方向是,所有对AI的研发和应用,都必须指向我们的业务目标去单独训练。不管是我们把它训练到70亿参数(7B)甚至更小,比如在物联网里有很多边缘计算设备,我们可能需要把模型蒸馏到10亿参数(1B)甚至0.5、0.6亿参数的水平。因此,在这个过程中,我们发现自己应该具备微调和蒸馏的能力,可以定向地按照自己的目标去进行训练。
接下来,可以看一下这两个例子。首先是我们正在发布的一个产品。这个产品本身的业务场景非常复杂,主要的应用场景是很多人在路上会听一些相关新闻。但这个过程对于微博本身来说,首先需要采集这个新闻背后大家都在讨论什么内容,也就是说,基于这个新闻或话题本身,从微博上收集群众的意见、他们发表的观点,甚至媒体方面会产生哪些内容。
第二步,我们会把这些内容都整理出来。我们这个产品主要是面向在路途中收听多场景信息的需求,将文本转换成播客(Podcast)的方式来做。那么,音频的生成,最初并非简单地像用一个“小美小帅”(AI语音合成)那样读出来就结束了,更多的是要把事件本身背后隐藏的内容,通过对话的方式把知识总结整理出来。
所以这里面涉及到几个事情: 第一,微博内容的感知,即我们是否能把内容本身提取出来。 第二,内容的理解,也就是说我们能否把一大堆博文转换成有实际意义的知识并理解出来。 第三,通过生成式的方式,我们能生成一个播客脚本,通过两个人的对话把情绪和知识点带入。其实在这个过程里面大家也能知道,每一个AI Agent应该针对性地去做它自己该做的事情,它是由一个AI Agent团队来完成的。
接下来例子,展示了用户界面(UI)会发生一些变化。传统来说,我们都会觉得在聊天界面里是不是就能完成所有工作,就像左边这个视频里展示的聊天部分。但实际上,我觉得人类在理解信息的时候,不一定只是通过文字,更多时候是通过图表获得更强的理解能力。所以,对于我们来说,未来的聊天UI会更多地考虑,无论是通过对话方式,还是通过左边图表的方式,它们是一体化产生的。每一个AI Agent给我们产生内容的时候,我们可以看到它同时有聊天的文本摘要信息,也有图表展示,它们是一体化工作的。
八、结论:构建新时代的技术护城河
最后,我们回归到核心问题:在大模型技术日益普惠的今天,企业的核心技术护城河究竟在何处?
我们目前的答案有两点:
1、深度垂直的领域数据资产: 持续积累、清洗和标注的,且无法通过公开渠道获取的专有数据,是AI模型性能与业务洞察力的基石。
2、数据到价值的闭环实现能力: 拥有将数据资产与具体业务场景深度耦合,并构建起从数据采集、模型训练、业务应用到价值评估的完整闭环的能力。
人类专家的认知带宽存在固有瓶颈,而AI,作为一种强大的智能增强工具,能够突破此瓶颈,实现对超大规模多模态数据的整合与分析,最终辅助我们进行更优的商业决策。将AI从一个“实习生”培养成能够与人类专家并肩作战、甚至超越其能力的“战略伙伴”,是我们追求的终极目标。
最后,分享一个最终的观点。我们对AI的认知配资安全炒股配资门户,可能从最初视其为初级助理(如实习生),逐步演进。但关键在于,AI具备持续学习与进化的潜力。人类的认知与处理能力终有其限,而AI则能赋予我们超越这些局限的能力,高效整合并分析多元、多模态数据,从而辅助复杂决策,驱动业务目标的达成。此点至为关键。
华信配资提示:文章来自网络,不代表本站观点。