对话全国人大代表刘庆峰:构建自主可控AI生态 警惕“幻觉数据”带来的风险

admin 阅读:80185 2025年03月08日

南方财经全媒体集团全国两会报道组 本报记者 白杨 北京报道

今年的全国两会,全国人大代表、科大讯飞董事长刘庆峰带来了九条建议,涵盖多个领域,且均与AI相关。

对话全国人大代表刘庆峰:构建自主可控AI生态 警惕“幻觉数据”带来的风险
图片来源于网络,如有侵权,请联系删除

他在接受南方财经全媒体集团全国两会报道组采访时表示,人工智能的持续发展,需要你追我赶,并在源头技术上做更多创新。除了当前的语言大模型,AI还涉及语音模型、OCR模型以及各类专用模型的组合,因此AI带来的将是一场全方位的技术变革。

他也提到了DeepSeek。“DeepSeek的出现,最大的意义在于提升了中国各界对自主创新的信心。他们的团队专注且纯粹,聚焦于底层大模型的创新,不急于行业落地,也不考虑短期变现,展现出一种极客精神。这种极客精神在中国尤为珍贵,我们都对这样的专注态度心生敬佩。”刘庆峰称。

如今,在DeepSeek的推动下,整个AI产业正加速迈入应用落地阶段,各个大模型厂商也开始各有侧重。在刘庆峰看来,“大家开始百花齐放,说明大家对未来充满了信心,这是非常好的局面。”

对话全国人大代表刘庆峰:构建自主可控AI生态 警惕“幻觉数据”带来的风险
图片来源于网络,如有侵权,请联系删除

刘庆峰。资料图

对话全国人大代表刘庆峰:构建自主可控AI生态 警惕“幻觉数据”带来的风险
图片来源于网络,如有侵权,请联系删除

中美之间的AI较量

在国际舞台上,中国的AI产业目前已经站到了C位。

刘庆峰认为,中国的AI发展目前在全球范围内,仅次于美国,因此在谈论国际差距时,核心还是中美之间的差距。

客观来看,中美在AI领域仍存在不小的差距。刘庆峰称,“在算力方面,我们整体落后一代左右。”但值得肯定的是,中国的算力已经能够支撑千亿参数级别乃至更大规模的大模型自主可控的训练,因此,这已不再是“从0到1”的问题。

在算法层面,目前全球已知的AI算法基本处于同一水平。尤其是在基于算法的工程化实现上,DeepSeek做了很多创新,使训练成本大幅降低,让中国与全球顶尖水平可以并跑。

不过刘庆峰也指出,在算法的源头性创新方面,比如脑机接口、类脑计算以及更深层次的神经网络研究方面,中国仍需进一步加强。

但在数据方面,中国已经具备一定优势。尤其是在行业应用领域,中国拥有庞大的用户群体与高效的数据反馈机制,因此能够在垂直领域实现快速迭代与优化。

谈及中国AI产业的未来发展,刘庆峰指出,当前的通用大模型仍有广阔的发展空间和极高的技术天花板,所以一方面要坚定不移地推进大模型的研发,依托国产自主可控的平台,对标全球最先进水平。

另一方面要推动大模型在行业中的落地应用,覆盖教育、医疗、司法、汽车、能源、金融等关键领域,并致力于在这些方向上实现全球领先。

刘庆峰表示,中国应该充分发挥应用场景丰富和数据飞轮效应的优势,让人工智能带来的社会红利率先在国内落地。

“无论是提升生产效率、重塑产业格局,还是满足民生需求,我们都具备全球最好的条件。同时,中国的AI创新生态相对完善,创新意愿强烈,政府在资源调动、政策支持和技术推动方面具有举国体制的独特优势。因此,我们有理由对AI产业红利的率先释放充满信心。”刘庆峰说。

AI产业的自主可控

尽管已经取得了一些成绩,但中国AI产业在发展过程中仍面临诸多挑战。

刘庆峰表示,“2025年,我最希望推动完全自主可控的通用人工智能生态体系建设。”

他指出,在自主可控平台上发展通用底座大模型并达到全球顶尖水平,特别是在国计民生相关重点领域对标并实现超越,对我国在未来全球人工智能产业竞争中掌握主动权、赢得战略优势至关重要。

但目前,由于国产算力软件生态基础薄弱,使得算子库、工具链、开源训练框架及开发平台等AI配套工具尚不完善。刘庆峰表示,若不能加快解决国产自主可控人工智能产业生态薄弱、适配困难等问题,无异于“在别人地基上建高楼”。

因此他建议,应对做国产算力芯片的企业和使用国产芯片训练大模型的企业给予资金专项支持,在国家公共算力上给予资源倾斜,加速基于国产算力的大模型算法创新。

同时,应鼓励央国企优先采购基于国产算力平台研发的全栈自主可控大模型以及优先推广基于全栈自主可控大模型的行业垂直应用。

此外,刘庆峰认为要依托中国广泛的AI应用场景,积极推广大模型在产业领域的应用,并形成数据飞轮,让中国率先获得AI产业落地红利。

他还向记者强调,“我们现在已经具备了一定的追赶条件,但如果没有实际应用的推动,自主生态就难以发展,正如过去国产CPU因缺乏应用场景而未能跟上行业步伐。如果这次在通用大模型的发展中,大家都只是观望,等生态成熟后再加入,那么自主可控的平台就无法真正成长,整体的创新能力也难以提升。”

“因此,我们需要更加重视在自主可控的平台上构建生态体系,推动开源发展,让更多企业愿意在这个生态中投入和成长。仅仅做推理或微调相对容易,但要真正能够推动大规模训练,这才是关键所在,也是决定未来竞争力的核心。”刘庆峰说。

治理“幻觉数据”

随着AI技术向社会各领域渗透,刘庆峰还关注到“AI幻觉”带来的数据污染及其对社会的负面影响。

刘庆峰向记者表示,当前,已有超过两亿人使用通用大模型,但与此同时,大模型也在生成大量幻觉数据。如果未来几年内,人工智能生成的不真实、甚至错误的信息在互联网上泛滥,势必会影响整个社会对数字世界的认知。

他进一步指出,特别是深度推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成“数据污染—算法吸收—再污染”的恶性循环。

而普通民众对AI技术原理及生成机制的认知和理解不足,极易将算法输出的“幻觉数据”误判为真实可信信息。在刘庆峰看来,当大模型生成的“幻觉数据”充斥互联网信息生态时,不仅会削弱公众信任,还可能影响社会稳定。

为此,刘庆峰建议从技术研发和管理机制上构建可信的信息环境。

首先,是建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性。

其次,是研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,然后由监管部门定期清理幻觉数据。

刘庆峰表示,“我们必须尽早建立人工智能生成内容的溯源机制,这一机制应像‘拉网’一样持续清理错误信息,并为科研机构和个人提供相应工具,帮助他们自主筛查、判断信息的真实性。”

刘庆峰指出,在人工智能深刻改变生产和生活方式的今天,相关的法律和监管机制必须更加积极、快速地推进,以确保信息环境的健康可控。

搜索
排行榜