5月11日,以“大模型驱动产业发展”为主题的第九届宁波市计算机大会(NBCC2025)在甬举行。大会聚焦大模型、机器人、人工智能等前沿技术与教育、医疗、工业互联网、产业链应用等深度融合,邀请了中国工程院郑纬民院士、英国皇家工程院杨广中院士、美国工程院陈掌星院士等多位嘉宾,同近千名与会者共话未来发展。
郑纬民:大模型领域,宁波能做的两件事和不必做的三件事
作为土生土长的宁波老乡,郑纬民院士是中国计算机机器智能、人工智能大模型的领军科学家,其带领的清华大学计算机系团队过去几年为阿里的通义千问、月之暗面的Kimi以及Deepseek贡献了许多开源技术,为中国大模型的成长提供助力。
他在会上的主旨报告首先介绍了一个人工智能大模型完整生命周期的5个重要环节。
首先是数据获取,也就是从海量的互联网和各类终端中获取上千亿计数的各类数据。第二个环节是数据预处理,这个阶段要筛除重复数据、无效数据或低效数据。
“这个过程说起来简单,但非常耗时,以GPT-4举例,整个模型训练周期是一年,其中有半年就是在做数据预处理。”他介绍。
第三个环节是模型训练,这个阶段需要海量的算力,还是以GPT-4举例,需要1万块A100的GPU训练半年以上。“前三个阶段耗时耗资源,成本极高。我认为作为宁波这座城市以及宁波的企业,这三个环节不必要投入太多。”郑纬民说。
第四个环节是模型调整,也就是说在通用大模型的基础上做垂直领域模型的训练,如医疗、教育、工业制造、金融等,其实是模型的二次训练,得到专属行业的专用大模型。
而第五个阶段就是应用,根据使用的实际情况继续提高模型的能力和稳定性。
“后面两个阶段对宁波尤其重要,宁波产业基础好,应该在全国率先训练出细分行业的专用模型。”同时,郑纬民特别强调,在人工智能时代要特别重视开源生态。他在现场介绍了两个其带领的清华团队研发的两项用于优化大模型的开源技术“Mooncake”“KTransformers”。
Mooncake的核心创新在“以存换算”,构建了一个分离的推理架构。
“比如,今天星期几和明天星期几,本质上是一个问题,但以往也是作为两个问题来储存和计算。我们的算法就是优化一系列这样的问题,使得数据预处理、模型训练和推理之间的任务可以高效分离开来,能够在处理复杂任务时显著降低延迟,提高吞吐量。”他介绍。
而KTransformers项目,则是让普通人都可以享受到“专属个人的满血版推理模型”。
网页版的DeepSeek-R1本质上是全球用户都在云端使用价值20亿元的算力硬件。而本地部署671B(6710亿参数模型,也就是满血版),理论上需要高端的A100/H100服务器才能支撑,设备价格高达数百万元人民币,令许多中小型团队望而却步。然而,KTransformers通过一系列技术创新,成功将计算负载压缩到了可承受的范围。