尊龙凯时 (中国)人生就是搏!据IDC预测,2023年AI系统的支出将达到979亿美元,是2019年375亿美元支出的2.5倍多。
在摩尔定律和云效率的帮助下,人工智能正在从复杂的组织向每一个应用程序渗透。
然而每个场景都有不同的计算需求,自动驾驶、图像识别、智能语音……万变不离「芯」力量,对多元化算力需求的高涨,也促使了专用AI芯片的诞生。
这也带动了一大批AI芯片公司的崛起。据不完全统计,仅中国目前的AI芯片公司数量就已超过60家。
算力多元化,既能辅助各类AI应用落地,又能带动AI芯片产业发展,益处显而易见,但正如硬币的两面,面临的阻碍也同样明显。
最直观的困难就是芯片种类越来越多,集成难度增大,无论是硬件部署亦或软件开发。
事实上,AI应用本身的开发流程并不复杂,但是很多场景下的AI应用,既需要CPU,也需要GPU和FPGA的支持,整个应用的部署甚至会变得举步维艰。
各种类型AI芯片的连接接入标准不同,用户在使用多元AI芯片系统时会遇到系统适配、芯片驱动、互联互通、功耗管理、安全传输、易用性等各类问题,给用户在部署多元AI芯片算力系统时提出巨大挑战。
然而,定制开发有两个突出的问题,一是成本高、开发周期长,二是不具有复用性。如今各行各业都在向数字化AI化转型,改弦更张并不现实,若没有复用性、不能大规模推广变现,就很难取得商业上的成功。
如果存在这样一个平台:可以方便地连接不同的芯片,还能弹性且智能地调用多元化的算力,上述问题都将得到缓解。
而放眼当下市场,阿里云等云服务尽管一定程度上实现了资源的分布式利用和弹性扩容,但大多是基于同类的芯片。
在一台服务器同时调用多种类型芯片算力的难度,依然如同一道天堑横在实现算力多元化的路上。
国内首个多元算力调度平台!集成多元异构算力,AIStation将成产业AI催化剂
9月17日,在苏州举行的第四届全球人工智能产品应用博览会(AIExpo2021)上,浪潮发布新版AIStation人工智能推理服务平台。
该平台实现了对GPU、FPGA、ASIC等异构加速芯片的插拔式使用,芯片厂商通过适配浪潮提供的芯片对接规范即就可快速无缝接入AIStation推理平台。
实测显示,借助AIStation平台搭建异构AI计算平台,部署周期可从2月显著缩短至7天,且不需要跨平台运维调度,大幅缩短了AI基础设施的投产周期,降低运维成本。
目前AIStation推理平台已可以接入寒武纪、昆仑芯、高通、鲲云等12款AI加速芯片。
AIStation平台实现多元算力的统一管理及调度,为生产环境算力运行提供一致的监管功能,对GPU、MLU等AI芯片的性能状况、AI业务流量及响应延时进行实时监控,并根据监控数据进行分析、决策、执行操作,实现服务算力的自动调节、自适应推理业务突发资源扩展需求。
AIStation 致力于打通多元芯片从适配、管理到应用的路径尊龙凯时 (中国)人生就是搏!,为此从制定标准化手段开始,打造统一、开放、灵活的多元算力平台,让AI应用开发和应用更简单。
K8S是一个可移植、可扩展的容器服务管理平台,可以实现服务部署、负载均衡、日志记录和监视等,让服务的调度变的异常轻松。
但是K8S对算力的调度并不顺畅尊龙凯时 (中国)人生就是搏!,比如GPU,K8S通常是随机分配容器所在节点的GPU,而不能指定使用某类GPU或CPU,AIStation则不同,统一的管理机制可以对各种芯片的算力实现智能调度,将异构算力标准化,用户不用自己规划资源分配,比如用一个GPU,两个FPGA,只需要告诉AIStation需要多少算力,选设备、调度都会自动完成。
AIStation另一个强大之处在于对算力的细粒度划分,将GPU、MLU等芯片的算力划分至0.01核级,以前是不敢想象的。用户不需要修改模型应用就能在单张加速卡上同时运行多个应用服务,过去一张GPU跑一个OCR应用,现在可以跑4-6个,一卡多任务从未像今天这么简单。
尽管越来越多的AI技术从实验室走向各行各业,但是从Al产业化向产业Al化的转型和落地并不尽如人意。
现在的AI应用,一大优势就是可以实现个性化的服务,但是个性化的服务越多,会导致计算资源的紧张,算力资源不足或者成本过高,阻碍了很多AI应用在行业的渗透,没有规模就不好推广开来,如何在硬件资源有限的情况下充分利用算力,成为了产业AI化必须要解决的问题。
在一台服务器创建多个AI应用,如果使用的框架多样,环境变量就会冲突,而且不同框架之间还有资源抢占的问题,比如有些TensorFlow应用会默认吃掉所有GPU显存,其他应用就会宕机。
AIStation通过整合计算资源、数据资源以及AI开发环境,实现了AI 计算资源统一分配调度、训练数据集中管理与加速尊龙凯时 (中国)人生就是搏!、AI模型流程化开发训练,一站式破除了这些AI落地的拦路虎。
浪潮AIStation帮助爱驰汽车打造的敏捷AI开发平台,让爱驰的AI计算资源利用率提高到90%以上,运维人员减少了50%的工作量,降本增效十分明显。
AI计算资源利用率的显著提升,不仅为企业节约了成本、提高了效率,更可以加强绿色结盟,顺应「双碳」目标的实现。
例如针对传统的工业设计仿真、气象模拟等科学计算,数值精度要求高;而自动驾驶、智慧医疗等AI训练,则可以使用数值范围大、精度低的16位浮点类型;对于AI推理,由于推理要求的速度快、耗能少,则可以在更低的数值精度下处理。
AI的应用引入了新的计算类型,从推理到训练,跨度更大,同时,数据量也从GB级到TB级、PB级不断提升,类型从结构化到半结构化、非结构化更加复杂多样。
面对不断变化的计算需求,算力基础设施供应商需要在算力平台、智算系统、算力加速、高效节能等领域都要做出持续创新。
在核心技术创新上,在智算基础系统层面,浪潮拥有业内最丰富的智慧计算产品布局;在智算加速系统方面,浪潮推出了业界领先的算力机组,浪潮已经位居全球AI服务器市场份额首位,浪潮AI服务器在全球AI基准测试MLPerf中多次打破性能记录并率先支持GPU液冷技术;同时,面向云化、大数据、AI等应用场景,打造超高密度和超大规模的智算存储系统。
在网络互联上,浪潮在数据中心网络数据平面、控制平面的可编程化领域持续创新,推出智能化的全自驱网络解决方案;在系统软件层面,在业内率先推出智算操作系统,实现多元异构计算、存储和网络的统一管理,保障从海量数据处理、分布式训练、自动模型生成,到实时推理应用的快速上线和高效运维。
此外,在绿色节能方面,浪潮在冷板式液冷、浸没式液冷、直流供电、电源负载智能调度等技术上全面布局,可支持PUE1.2的大规模数据中心的方案构建。
如今,浪潮助力建成的南京智算中心,已成为长三角地区算力最高的城市智算中心。
这是个开始,算力供给基建化尚在起步阶段,算力网络国家枢纽节点建设之路也依然遥远,但可以明确的是:全能的玩家势必会在这条路上走得更远、更扎实。返回搜狐,查看更多