GitaGopinath 习近平 俞敏洪 倪虹 冷友斌 刘元春 刘强东 刘永好 刘爱华 周鸿祎 姚洋 屈宏斌 张晓 张礼卿 张青松 拜登 易宪容 普京 曹德旺 李家超 李想 李斌 李迅雷 林毅夫 林泽昌 汪小菲 潘功胜 王毅 胡锡进 董宇辉 董建国 蔡崇信 袁亚湘 袁海霞 贾跃亭 赵燕菁 迟福林 邹澜 郁亮 郑栅洁 雷军 韩文秀 高善文 黄仁勋 黄晓庆

清华大学薛澜:要平衡好AI创新发展和风险管控

“这一两年会是一个转折点,一些互联网大厂的高管现在开始转向 AIGC 创业,这是一个非常重要的标志。”近日,在由香港中文大学(深圳)前海国际事务研究院主办的百川论坛——“全球经济治理:中国与世界 2024 年研讨会”上,清华大学文科资深教授、苏世民书院院长、公管学院学术委员会主任、人工智能国际治理研究院院长薛澜谈到,AI 大模型产业生态已经出现重要变革趋势。 

他认为,AI从基础层、中间层、应用层到环境层方面都有很多的变化——尤其是AI大模型在水平领域和垂直领域上的应用已经非常广泛,比如文本生成、音频生成、图像生成、视频生成等,对社会的影响是全面的。

“尽管人工智能技术在未来有更为广阔的应用前景,但若要让技术真正落地,还有诸多风险需要考量。”薛澜指出人工智能发展的四大风险:第一是伦理安全层面的风险,如怎样处理人工智能与人类之间的关系;第二是产业层面的风险,大模型产业容易形成寡头格局;第三是社会层面的风险,对就业体系、教育体系、分配体系等的冲击;第四是政治层面的风险,大模型对公共舆论、意识形态、政治信任的影响。

“在人工智能领域,中国跟美国都是处于最前沿的。中国在学术研究发表量、专利申请与授予量等方面总体上保持领先,”美国则在前沿大模型研究方面处于引领地位。此外,薛澜指出,在人工智能领域,学术界与产业界之间的关系日益密切。过往关键机器学习模型的发明大都源于学术界,但 2014 年是“分水岭”,产业界开始超过学术界在人工智能关键学习模型的研究上担任“主角”。

如何保证不会出现“文明的冲突”?薛澜认为,一旦人工智能走向失控,我们所面临的问题将不再是国家与国家之间的冲突,而是硅基生命与碳基生命之间的冲突,将可能给人类生存带来颠覆性的挑战。同时,AI 模型的发展或将加剧人机进化失调、人机关系边界模糊化等风险,“本来我们希望它是我们的助手,可能到未来我们会变成它的附庸”,薛澜表达了担忧。

对此,薛澜提出了中国的解决和治理之道。他指出,在地方政府层面,北京、上海、重庆、浙江、深圳等等地方政府出台了各种针对人工智能发展的鼓励措施和治理措施,已经形成了一个多维度、多领域、多层次的人工智能完整治理体系。“这样一个体系可以说是多元主体、多维共治、敏捷协同的人工智能治理体系,这里面有政府、企业、社会组织、公众共同参与”。不过,中国仍需继续加强人工智能的基础性、原创性和前沿性研究,真正在前沿应用领域加强体制、机制和创新生态的完善。他强调,“最前沿的工作往往是突破潜力大,但风险也比较大的领域”,如何在治理体系中平衡创新发展和风险管控之间的关系,是需要进一步审慎考虑的问题。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注