在当今科技界,AI大模型的发展正如火如荼,其背后的潜力与前景吸引了无数企业与科研机构的目光。2024年9月27日,由中国科协企业创新服务中心、北京经济技术开发区管理委员会等联合主办的“AI大模型应用场景”产学研融通创新活动在北京召开。此次活动旨在搭建产学研交流平台,促进AI大模型等新兴技术在传统产业中的深度应用,全面助力我国产业数字化转型升级。
作为领先的融合算力基础设施服务企业代表,博大数据产品及生态拓展部副总裁高辉受邀出席本次活动,并参与圆桌对话环节。围绕“AI大模型应用场景真正爆发离我们还有多远”的主题,与来自智谱AI、北京服装学院、北京首医大科技发展有限公司等机构的领导与专家一同探讨如何通过多维度的协同合作,释放AI大模型的潜力,推动其在能源、医疗、纺织等产业中的深度应用与创新发展。
高辉将当前AI大模型的发展状态比作“寒武纪生物大爆发的前夜”。这在某种程度上预示着,AI大模型正处于一个孕育新物种、新生态的关键时期,众多企业都在积极筹备,试图在这场科技变革中寻找自我的“生态位”。然而,这一过程并非一蹴而就,需要一些时间的积累和生态的完善,以及产业链上下游的携手共建,一个健康的生态系统将促进AI大模型的高质量发展。
在谈到AI大模型发展的阻碍时,高辉强调了算力与生态的双重挑战。从算力的角度来看,算力运营商与高密机柜运营商面临的最大痛点是找到商业上能跑通的闭环场景;其次是算力资源仍然相对昂贵;再者,算力的调度、组网以及设备的选择也是企业面临的难题。未解决这样一些问题,高辉建议通过共享算力的方式来实现资源的优化配置,并指出算力虽然是共享的,但数据可以是私有化的,能保证企业的数据安全。
在生态方面,AI大模型的落地需要一个完整的ECO作为支撑,这其中涵盖了上下游企业的协同合作、与高校和政府的紧密联动等。“目前这一ECO仍处于探索阶段,我们行业内各方应一起努力,通过组建生态方阵等方式来推动生态系统的建立和完善。”高辉呼吁。
随着AI应用的大规模落地,各行业对于算力需求空前高涨。高辉认为,当前的算力需求分为训练需求和推理与微调需求两大类别。对于前者,由于其需要处理大量的数据,因此常常要数万甚至数十万张显卡级别的算力支持,并且对故障率和组网效率也有较高的标准。而对于推理算力,则会根据具体的应用场景的不同,对时延、地理位置和网络条件有着特定的需求。举例来说,在大模型推理、无人驾驶、量化交易、电竞游戏这类高算力需求的应用场景中,利用边缘算力资源进行复用是一种有效的策略,其能够在一定程度上帮助降低整体成本,同时提升资源的使用效率。
智算中心作为承载大规模算力的关键基础设施,在AI时代已经演变为智算中心。博大数据凭借前瞻的行业视野,以及超过二十年的深耕实践,针对智能时代下各行业的算力需求,打造了深圳前海智算中心和廊坊智算中心两大新一代智算中心。基于高弹性、高管理、高可靠、高算力、高能效、高安全的智算理念,博大数据提供了高度满足区域AI、云技术和传统数据中心等多维度的服务需求。
展望未来,高辉对于AI大模型的发展持乐观态度。基于博大数据智算中心的成功实践和技术积累,他认为,随着算力和电力成本的降低和技术的慢慢的提升,AI大模型将迎来爆发式增长。据预测,在未来两三年内,当算力和电力成本降到足够低的水平时,AI大模型的应用场景将呈现出指数级的增长态势。
“现如今,很多企业都在‘All in AI’,我认为未来有很大的可能性发展成为‘AI in All’。”高辉强调,观望和等待只会错失良机,企业应躬身入局,通过加入生态、参与探索等方式来积累经验和资源,为未来的爆发式增长奠定坚实的基础。
官网
阿里店铺