AI算力

华为版《黑客帝国》首次亮相:训推复杂AI前先“彩排”,小时级预演万卡集群

就在刚刚,华为首次亮相了一套“虚”的技术——数字化风洞,一个在正式训推复杂AI模型之前,可以在电脑中“彩排”的虚拟环境平台。这套有种《黑客帝国》意味般的技术(都是通过虚拟世界预演现实),是由华为马尔科夫建模仿真团队构建,可以小时级预演万卡集群方案。而之所以要在真枪实弹训推复杂AI模型之前来这么一个步骤,是因为华为研究团队发现,超过60%的算力浪费在硬件资源错配与系统耦合上。于是,就像汽车设计师用

20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点

如果有一种芯片,天生只为大模型而生,能否突破当前AI的算力瓶颈?要知道,如今的芯片算力,强依赖于制程、工艺等非芯片设计因素。这是因为,传统通用型的GPGPU计算架构在应对日益庞大的模型和复杂计算时,其硬件固有的局限性日益凸显。通用图形处理器(General-Purpose Graphics Processing Unit,GPGPU)在这样的背景下,学术界和产业界都在积极探索新的更针对AI大模型

警惕 AI 扩张!十年内或吞噬巨量电力,成本飙升至数千亿美元

近日,一项由乔治城大学、Epoch AI 和兰德公司研究人员进行的新研究警告称,如果当前趋势持续,用于训练和运行人工智能的数据中心将在未来十年内面临爆炸式增长,其芯片数量可能达到数百万个,耗资数千亿美元,并需要相当于大型城市电网的电力供应。该研究分析了2019年至今全球500多个 AI 数据中心项目的数据,揭示了惊人的增长轨迹。尽管数据中心的计算性能每年增长超过一倍,但其电力需求和资本支出也在同步