360 亿方大模型 2.0 重磅发布,全面提升复杂场景下多模态知识处理能力
近日,360 亿方智能与 360 人工智能研究院推出的知识大模型“360 亿方大模型”正式迎来 2.0 版本更新。
本次升级不仅显著增强了该模型的视觉布局分析、跨模态混合检索、多模态向量化等多项能力,并同步面向广大企业与用户上线至 360AI 知识库,进一步有效解决传统文本知识库难以处理的复杂布局和非结构化知识场景的问题。
三大核心创新,破解知识管理复杂场景困局
360 亿方大模型 2.0 基于 360 人工智能研究院的 RzenEmbed 多模态 Embedding 模型及 FG-CLIP 图文跨模态模型进行整合升级,重点在“多模态理解、多模态生成、文档智能解析”三大技术领域取得重大突破。不同于现有知识大模型,360 亿方大模型打破了大模型在复杂逻辑与长尾知识处理上的边界,在模型核心上实现了三大核心创新:
· 攻克 AI 视觉“细粒度”难题:传统 CLIP 模型善于理解图像的全局概念,但在区分细微的物体属性、复杂的空间关系以及精准的语言表达时,往往力不从心。360 亿方大模型 2.0 面对包含多个物体的复杂场景,其细节识别置信度仍高达 96%。这种从“宏观”到“微观”、从“看得见”到“看得清”的能力跃迁,是 AI 真正理解物理世界的关键一步。

理解画面各元素
· 打破文本、图像等不同模态的数据壁垒:通过构建统一的语义嵌入空间,实现跨模态与混合模态的精准语义对齐,支持用户以“单一模态”(如文本描述、单张图像)或“模态组合”(如“指令 + 文本 + 图像”)为检索条件,高效匹配其他模态的相关内容,解决传统检索中“模态割裂”“上下文丢失”等痛点。360 亿方大模型 2.0 实现了文字、图片、图表等多元信息的深度语义融合,让机器真正“看懂”企业文档中的每一处细节。
实际问答多模态输出
· 实现从“基础识别”到“深度研读”的跨越:360 亿方大模型 2.0 通过视觉布局分析技术,实现了对文档形态的“像素级”感知与“人类视角”的逻辑还原。它不仅能精准识别倾斜、折叠、满屏水印等极端场景下的内容,更首次实现了对文档内部引注关系、图表关联及上下文脉络的深度理解。将碎片化的非结构化数据转化为逻辑严密的结构化知识资产,彻底攻克了企业知识管理中长尾知识识别难、逻辑推导不可信的顽疾。
多栏复杂板式内容识别
综合实力领跑,多项权威评测稳居全球第一梯队
360 亿方大模型 2.0 的强大性能,源于其深度整合了 360 人工智能研究院自主研发的两大顶级模型。这两大底层模型在国际权威基准测试中表现卓越,为 360 亿方大模型提供了世界领先的视觉理解与检索动力。
首先,在视觉语言理解层面,360 亿方大模型 2.0 内置了专为细粒度图文对齐设计的 FG-CLIP2 模型。该模型在涵盖长短文本检索、开放世界目标检测等 29 项权威公开基准测试中,表现全面超越了科技巨头 Google 的 SigLIP 2 与 Meta 的 MetaCLIP 2。依托这一算法底层的重大破局,360 亿方大模型实现了从“看清”到“看懂”的质变,不仅能精准识别图像主体,更能捕捉微小的属性关系与深层语义细节,开启了视觉理解“超清、精准”的新篇章。
其次,在决定知识获取效率的向量化技术上,360 亿方大模型 2.0 深度集成了 RzenEmbed 多模态 Embedding 模型。该模型在国际知名评测基准 MMEB 中凭借卓越的综合性能,斩获总榜排名第一与单项第一的双重桂冠。特别是在最能体现企业应用价值的 VisDoc(多模态文档检索)专项测试中,其以绝对优势稳居榜首。这确保了 360 亿方大模型在处理复杂办公文档、消除“模态割裂”方面具备行业顶级的核心竞争力,通过将顶尖底层能力转化为产品原动力,正式定义了企业级 RAG 检索与知识管理的新标准。
四重价值加持,打造企业知识管理更优解
相较于其他知识管理类大模型,360 亿方大模型 2.0 以“省力、省心、省时、省钱”四大核心优势,成为企业级知识管理的优选。其价值不仅体现在整体技术能力的跨越,更聚焦于业务全流程成本的极致优化,多维度为企业知识管理减负提效。
省力:SaaS 化即开即用,零门槛拥抱 AI
提供成熟的 SaaS 化服务形态,企业无需经历复杂的开发周期。通过直观的交互界面与标准化 API,基于 360AI 知识库产品实现“部署即实战”,让非技术背景的业务人员也能轻松驾驭顶尖 AI 能力。
省心:高并发企业级特性,无缝适配复杂业务
具备极高的架构稳定性与并发支撑能力,原生支持多模态交互。无论是处理海量公文流转,还是跨部门的复杂知识协同,模型都能在保障数据安全的前提下,提供丝滑、可靠的技术底座。
省时:从“周”级到“秒”级,极速激活沉睡知识
凭借先进的文档布局分析与向量检索技术,原本需要数周人工梳理的非结构化资料,现在仅需分钟级即可完成入库;毫秒级的响应速度,让员工获取精准答案不再需要漫长等待,极大缩短了决策链路。
省钱:极致效能比,大幅降低企业综合 TCO
通过多模态推理数据合成技术,模型在保持 SOTA 性能的同时显著优化了算力消耗。更重要的是,它通过自动化替代了繁琐的人工文档结构化工作,激活企业内部长期“沉睡”的非结构化数据资产,为企业创造了远超投入的商业价值。
聚焦场景实战,从实验室走向企业应用
目前,360 亿方大模型 2.0 亿落地多项企业知识管理与 AI 应用等场景,依托视觉布局分析、跨模态混合检索、多模态向量化等多项能力,精准攻克了传统知识库在复杂场景下的“最后一公里”难题,解决多项企业内知识管理“老大难”的问题:
复杂版式识别
在处理报纸、期刊、多栏研报等图文交织的复杂版面时,传统方案常因扫描顺序混乱导致识别错误甚至无法识别。面对满屏水印、文档弯折、多栏穿插的非理想原始件,识别结果往往大相径庭。
360 亿方大模型 2.0 通过视觉布局分析技术,即使是复杂的表格、公式或倾斜排版,模型也能精准梳理出符合人类阅读习惯的内容流。这种对复杂长尾场景的高兼容性,让海量杂乱文档的处理从“不可用”变为“高精度可用”。
专业文档学习
对于动辄数百页的行业标准、技术规范、审计报告或维修说明等,人工查阅极易遗漏关键逻辑。360 亿方大模型 2.0 不仅能识别文字,更能理解上下文脉络。
它能自动建立文档内的引注关联,当用户询问某个具体零件维修方案时,系统不仅给出答案,还能溯源至复杂的逻辑推导过程。这种深度学习能力,让企业员工从机械的翻阅中解脱出来,直接进入高价值的决策环节。
以图搜图 / 搜案
在制造业、电商或创作领域,很多知识“只可意会不可言传”。360AI 知识库实现了真正的跨模态对齐。用户仅需上传一张零件草图或产品局部照,系统即可在海量图库中精准锁定相似设计。
360 亿方大模型 2.0 的跨越式迭代并非偶然,而是 360 对 AI 底层能力长期深耕的厚积薄发。从实验室的 SOTA 突破到知识库的正式上线,360 亿方大模型 2.0 不仅是技术的迭代,更是大模型应用从“玩具”向“生产力工具”的一次质变。
通过打破多模态知识处理的重重壁垒,360 亿方智能正在让曾经难以利用的非结构化数据,真正转化为驱动企业高质量发展的战略资产。站在 AI 重构业务的前夜,360 亿方智能将继续驱动知识管理向智能化、极简化演进,让 AI 从单一的功能性工具,成长为无处不在、深度懂业务的智能伙伴,在智能时代实现资产价值的重构与跃迁。



