6 月 11 日,英特用型在火山引擎 2025 春季原动力大会上,尔露英特尔联合火山引擎一起发布搭载英特尔至强 6 功能核处理器的脸火第四代通用核算型(ECS)实例宗族,即全新推出的山引实例通用核算根底型实例 g4i、算力增强型实例 g4ie ,擎春起并深化展现了此前发布的季原 I/O 增强型实例 g4il 的丰厚用例。不只如此 ,动力大会代通两边还共享了 AI 年代一起驱动算力本钱优化 、布第端云协同与开发范式晋级的核算最新协作开展 。
AI 的开展推进着云核算的演进 ,加快职业从云原生年代迈向 AI 原生年代。脸火在这一进程中 ,山引实例企业对算力的擎春起需求日益多样化 ,一起对高性价比、高稳定性的需求也日积月累 。根据多年的广泛协作,英特尔与火山引擎持续携手共进,一方面充分利用两边的优势,打造包括从通用到智能的弹性 AI 算力底座,为企业供给强壮、灵敏、统筹本钱效益的 AI 算力根底设施;另一方面 ,两边亦经过共建敞开生态,支撑大模型使用、智能体 DevOps 中台与高性价比智算渠道相结合 ,构建 AI 生态新范式 ,加快企业的智能化进程。
本次大会上 ,英特尔携手火山引擎一起发布了全新第四代 ECS 实例宗族,不只功能上愈加丰厚 ,在功能与架构上也得到了进一步提高。与上一代实例比较,通用核算根底型实例 g4i 在 MySQL 数据库和 Web 使用上别离完成了 20% 和 19% 的功能提高 ,算力增强型实例 g4ie 在视频解码和图画渲染上带来了 15% 和 26% 提高 ,I/O 增强型实例 g4il 在 Spark 大数据和 Redis 数据库上也完成了 13% 和 30% 的提高 。值得一提的是 ,得益于英特尔 。 高档矩阵扩展(AMX)的深度优化,根底型实例 g4i 在 RAG 全链路提速、WDL 模型推理优化上均展现了超卓的功能。其间,RAG 全链路在文档处理 、Embedding 、向量数据库检索和 Reranking 加快中 ,耗时减少了 40%-90%。
边际 AI 使用的开展,对定制化、快捷化和安全化提出了新的需求 ,这让具有灵敏、高效、高性价比的智算渠道成为抱负之选 。在根据英特尔至强处理器和多张英特尔锐炫显卡的一体机解决计划中 ,全新英特尔锐炫 Pro B60 ,单卡可供给 24GB 显存,在上下文扩展和并发扩展等场景中,供给更强的处理才能。因而,在边际和企业 AI 等使用场景中,该计划能够以超卓的本钱效益优势,供给高效 、牢靠的 AI 算力 。此外,英特尔供给了包括 vLLM 、PyTorch 在内的完善的干流生态软件栈和封装成服务化的企业 AI 渠道(EAP) ,协助用户将上层使用滑润迁移到英特尔渠道上 ,加快用户私有化布置 LLM 使用和智能体。
经过协助企业打造弹性的 AI 算力底座,英特尔与火山引擎正携手推进 AI 技能在云端的遍及与使用 ,护航 AI 云原生从开发到出产的全流程,本次活动的现场展区也展现了两边协作的丰厚效果 。
在企业 AI 使用开发侧,英特尔携手火山引擎根据第四代实例供给了大模型使用的开发环境 ——“开源大模型使用-知识库问答”使用镜像,支撑开发者快速完成大模型的微谐和推理环境的建立 。在结合 HiAgent 大模型才能中台时,能够从 Dev 到 Ops 全方位支撑智能体规划、开发与使用 ,协助下降 AI 落地的技能门槛和运营本钱。在助力企业 AI 出产领域,英特尔至强处理器和 AMX 加快引擎 、合作火山引擎的深度优化 ,让企业在大模型落地阶段能够完成全流程功能提高,下降 AI 使用的布置本钱 ,保证在高并发场景下的体系稳定性的一起 ,提高产品的整体功能与实践落地功率 。
经过一起构建敞开的 AI 生态 ,英特尔与火山引擎正在推进 AI 算力普惠,打造高性价比的智算渠道。展望未来 ,两边也将持续探究 AI 年代云核算的更多立异使用,以高效的算力加快低本钱 AI 使用落地,助力企业的智能化晋级之路。
广告声明 :文内含有的对外跳转链接(包括不限于超链接、二维码、口令等方式) ,用于传递更多信息,节约甄选时刻,成果仅供参考,一切文章均包括本声明 。
Copyright 2019 庚势. All Rights Reserved 网站地图