Deprecated: Creation of dynamic property db::$querynum is deprecated in /www/wwwroot/www.jldqz.com/inc/func.php on line 1413

Deprecated: Creation of dynamic property db::$database is deprecated in /www/wwwroot/www.jldqz.com/inc/func.php on line 1414

Deprecated: Creation of dynamic property db::$Stmt is deprecated in /www/wwwroot/www.jldqz.com/inc/func.php on line 1453

Deprecated: Creation of dynamic property db::$Sql is deprecated in /www/wwwroot/www.jldqz.com/inc/func.php on line 1454
AI大模型加速落地阿里云持续「滋养」_米乐·M6(中国)官方网站-m6米乐手机网页版登录
全国服务热线:

13857621608

新闻资讯

News

AI大模型加速落地阿里云持续「滋养」

更新时间:2024-12-23 14:41:18    来源:米乐6
   

  

AI大模型加速落地阿里云持续「滋养」

  在刚刚结束的2024云栖大会上,小鹏汽车董事长、CEO何小鹏驾驶着小鹏P7+缓缓驶入会场,吸引了众多观众的关注。据了解,这是全球首款AI汽车,搭载了最新的端到端的无人驾驶技术,能够在无图情况下实现全城智能驾驶,并且每两天就能进行一次升级。

  何小鹏表示:“对于最普通的用户,从现在到未来的36个月,可以让我们每一个人在每一个城市都像老司机一样开车。”

  小鹏汽车为何能率先推出首款AI汽车?其背后离不开大量算力支持。据了解,两年前,小鹏汽车与阿里云在乌兰察布共同建立了中国最大的无人驾驶AI算力中心,该中心成立后,将无人驾驶模型训练效率提升了超600倍,与此同时这两年该中心算力规模已经提升了四倍,达到了2.51 Eflops,在车企里是TOP级别。

  小鹏汽车无人驾驶负责人李力耘则更进一步指出,端到端对于无人驾驶只是开局,真正的竞赛正在云端展开。

  无论感知到还是不能感知到,一场大模型为代表的AI驱动的变革,正以前所未有的光度和深度在展开。

  一方面让我们正真看到,随着大模型与千行百业发生关联, AI计算正在加速演进,成为整个计算体系的主导。另一方面也充分证明,大模型要想真正落地并发挥效能,不单单是模型的训练和推理,而是一项涉及多个环节的系统性工程,需要AI基础设施的支持。

  阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在2024云栖大会上表示,在新增算力市场上,超过50%的新需求由AI驱动产生,AI算力需求已经占据主流地位,且该趋势还会持续扩大。

  据相关多个方面数据显示,当前,行业前沿模型训练计算量每年增长4~5倍,中国AI算力规模2022~2027年复合增长率高达33.9%;模型参数以10倍速增长,模型数据集以50倍速增长,对存力也提出了更高需求。

  Pascal的发明人曾经写过一句线倍就是一架喷气机——而当任何的事情的规模增加了1000倍,它就会发生天翻地覆的变化。“这样一个时间段一定要引入了新的东西,不然它没法解决了。”中国工程院院士、之江实验室主任、阿里云创始人王坚在前不久的外滩大会上这样说道。

  在历史的长河中,那些至关重要的创新最终往往融入并成为基础设施的一部分,如工业时代的电力。AI时代的云计算也正是如此,据红杉资本的研讨会资料显示,云计算如今已是基础设施的核心,英伟达等公司也被划分到了基础设施类别中。

  阿里云智能集团资深副总裁、阿里云公共云事业部总裁刘伟光,在云栖大会上给出了他的答案:

  “今天云的分布式架构能力、全球部署能力、全球一张网的高速通信能力,以及高性能的存储和网络解决能力,以及节能、绿色环保能力,服务器使用效率等等,相比传统企业架构,是更适合为 AI 应用爆发和迭代提供非常有力的全方位支撑。”

  当然,眼下也有一些企业个人选择自建IDC买几十台、上百台 GPU 推理训练服务器进行模型的训练,但实际上这会面临一系列的挑战。

  首先,怎么样才能解决算力规模化问题。对于当前的算力需求而言,尽管英伟达的芯片仍然是业界翘楚,但许多客户也开始提出了对国产算力的具体实际的要求。因此,适配多架构算力已成为一项重要任务,能让客户在一个平台上同时支持多种芯片及多类算力服务。

  其次,如何提升模型训练效率问题。卡有了,但并不意味着算力效率就高,大模型推理和训练过程是一个软硬件协调的系统,其中网络的消耗、I/O 的操作几乎占据了大模型训练推理一半时间,企业要构建一个高性能的网络,但这是一个巨大的挑战。

  另外,上层应用怎么样应对高并发的难题,当在一款 APP 端去发布一个火爆应用,无论是文字、文本、图片、图像,或者是推理计算的时候,会引发千万人、上亿人在同一秒钟涌进 APP 进行尝试。这对应用背后的性能支撑、弹性能力的挑战是非常强的,类似于极限“秒杀”,这些是自建IDC很难应对的。

  除了这些技术层面问题外,还有成本问题。AI 智能应用的能耗密度要比传统 IT 高出 10 倍以上,整个 GPU 服务器能耗是传统 CPU 能耗的 10-30 倍。当在大模型应用上计算一道高等数学题时,背后消耗的电量是利用普通搜索引擎检索的近10倍。对于很多企业来讲,去大规模构建智能化应用的时候,持续稳定电力供应以及电力成本也是非常大的挑战。

  眼下,AWS、Azure、阿里云和GCP等全球顶级云厂商都在围绕AI基础设施进行布局,并展开激烈竞争。

  具体来讲,阿里云已形成了基础设施即服务(IaaS)、平台即服务(PaaS)和模型即服务(MaaS)三层架构,可为公司可以提供大模型的训练及推理提供高性能、低成本的算力资源和机器学习服务。

  这一年多来,阿里云凭借其深厚的技术积累和开源开放战略,从底层到平台层再到应用层,构建了一套完整的技术栈,为通义大模型的快速迭代与大范围的应用提供了有力保障。

  据雷峰网(公众号:雷峰网)获悉,本次云栖大会上,阿里云智能集团CTO周靖人又公布了阿里云在技术上的最新成果。

  在底层支持上,其最新上线的磐久AI服务器,支持单机16卡、显存1.5T,并提供AI算法预测GPU故障,准确率达92%;

  阿里云ACS首次推出GPU容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升;

  为AI设计的高性能网络架构HPN7.0,可稳定连接超过10万个GPU ,模型端到端训练性能提升10%以上;

  阿里云CPFS文件存储,数据吞吐20TB/s,为AI智算提供指数级扩展存储能力;

  人工智能平台PAI,已实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超90%。

  在平台层,据雷峰网获悉,百炼平台作为阿里云AI基础设施的重要组成部分,为开发者提供了便捷的API接口。通过接入百炼平台,开发的人能轻松调用通义大模型的能力,实现各种复杂的应用场景。这一平台层的赋能极大地降低了AI技术的使用门槛,加速了AI技术的应用。

  为了让大模型进一步惠及各行各业,通义千问多款模型进一步降价,Qwen-Turbo价格直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max分别再降价80%和50%。其中,Qwen-Plus推理能力追平GPT4,可应用于复杂任务,是效果、速度及成本均衡的最优选择,降价后,Qwen-Plus性价比达到业界最高,同等规模较行业价格低84%。同时,阿里云百炼平台还为所有新用户免费赠送超5000万tokens及4500张图片生成额度。

  周靖人表示:“云厂商拥有全栈技术储备,并通过基础设施的全面升级,让AI训练、推理、部署和应用整个生命周期变得更高效。”

  得益于完整的AI基础设施,阿里云通义大模型已经在广泛的场景中得到了落地应用。2024年云栖大会的展区堪称大模型的“嘉年华”。三个场馆中 ,AI 底层和前沿技术的展商有 17 家,AI 算力计算馆展商 有80 家,AI 创新应用的前沿应用馆展商数量则高达 170 多家。

  据公开数据,阿里云通义大模型已经服务了超 30 万家企业客户,重点覆盖了互联网、金融、汽车、科研、医疗、教育、政务、工业制造和零售等领域,包含营销设计、社交、AI 游戏、在线教育、智慧终端、无人驾驶、智能座舱、金融客服、政务服务、代码开发、药物研发、气象预测、太空探索等场景。

  喜马拉雅、星巴克、三得利等都是率先将通义大模型应用于营销设计的公司;微博和小红书则利用通义大模型把社交“玩”出了新高度;无论是老牌的新东方,还是新兴的酷学院和精准学,在线教育学习管理机关都在牵手通义大模型来改善学习效率。

  游戏行业是拥抱大模型最彻底的行业。完美世界游戏通过接入通义大模型,在剧情、对话和音频生成等多个环节中获得了助力,不仅提升了游戏内容的丰富度,也为玩家带来了更好的沉浸式体验。网易游戏通过将AI引擎部署在云端,实现了AI队友的高效推理,极大地丰富了游戏玩法,增强了玩家的游戏体验。

  同时,大模型优秀的泛化能力使得终端更智能、金融服务、政务服务更便捷,软件开发更高效,等等。

  随着智能手机市场的饱和,通过技术创新吸引客户成为了一个新课题。vivo基于通义大模型开发的“vivo看见”,通过实时语音播报、画面内容识别等功能,为用户更好的提供了全新的交互方式,增加了产品的竞争力。联想在其AI PC中集成了通义千问等模型,打造了“天禧”个人大模型,提升了智能终端的智能化水平。

  在公众服务方面,众安保险、盈米基金、红棉小冰等通过与通义大模型的合作,在智能客服等场景进行了全面升级,有效提升了服务效率和客户满意程度。上海市徐汇区通过通义大模型的支持,使得涉企服务场景中的咨询更加准确,服务更方便快捷高效。

  中国一汽、长安汽车、趣丸科技、哈罗集团等引入通义灵码,用于提升软件代码生成效率。

  智能座舱和无人驾驶让汽车成为新的物种,小米汽车、极氪汽车、零跑汽车等也都与通义大模型合作,提升智能座舱的体验。

  机器人的出现让历史悠远长久的工业制造重启智能之路。拓斯达和有鹿的机器人接入通义大模型后,具备了诸多新能力。

  当然,大模型带来的AI技术进步,让人类不仅关注眼前和脚下,还把探索的焦点投向生命健康、气候和太空。

  携手阿里云,复旦大学CFFF平台发布了气象大模型,并将预测速度从原来的小时级缩短到了3秒内。基于通义大模型,医药巨头阿斯利康搭建药品不良反应自动分析和总结平台,使药物安全把控效率提升300%,准确率从90%提升至95%;国家天文台和中科院地化所联合通义大模型,打造出“观星”和“探月”的垂直大模型,让中国科研更有竞争力。

  上述种种,不一而足。2024云栖大会的召开可谓正当其时,提振了市场对大模型和AI发展的信心。

  前年底,当大模型横空出世时,震撼力非比寻常,从业者对大模型落地应用有各种各样的畅想,然而经历了一年多发展后,舆论场上慢慢的出现各种质疑的声音,认为大模型在应用落地方面未能尽如人意。

  但阿里云本次集中展示的大模型落地全景无疑给了市场一剂强心针。无论是通义大模型服务的客户数目,还是给用户带来的价值,都远远超出外界期待。

  当然,大模型所代表的生成式AI技术还在应用的早期,在大多数人的经验里还没发生过这类事情,本能会产生怀疑,这很正常,因为大部分新的技术革命都会在大多数人的怀疑中成长。

  风物长宜放眼量。从1956年达特茅斯会议算起,AI已经走过了近70年的时间,这中间几度沉沉浮浮,但学界和业界从未丧失信心,接力探索。

  在2024云栖大会首日,大家集中讨论了这样的一个问题:“今年大模型发展究竟是变快了,还是变慢了?”

  “变快了。” 清华大学人工智能研究院副院长、生数科技首席科学家朱军,阶跃星辰创始人、首席执行官姜大昕,月之暗面Kimi创始人杨植麟都出了相同的回答。

  作为阿里云的掌门人,吴泳铭则更为乐观和坚决:“过去22个月,AI发展速度超过任何历史时期,但我们依然还处于AGI变革的早期。生成式AI最大的想象力,绝不是在电子设备屏幕上做一两个新的超级app,而是接管数字世界,改变物理世界。”

版权所有  米乐6

地址:浙江省台州市黄岩区宁溪镇宁川东路96号 移动电话:13857621608 电话:0576-84757788 传真:0576-84736678

技术支持:米乐M6官方网站

米乐6

13857621608 

 

首页 产品中心 新闻资讯 联系我们