PG电子(中国)官方网站龚克丨为AI立心为人类赋能
栏目:媒体报道 发布时间:2024-05-25
 pg电子模拟器当今世界正处于大发展大变革大调整时期,为了积极倡导平等、互鉴、对话、包容的文明观,牢牢把握全球性挑战下和平与发展的时代命脉,第六届清华会讲以“文明互鉴与和平发展”为主题,围绕“文明互鉴与和平发展”、“科技变革与全球治理”、“科技创新与企业发展”等议题进行研讨。  南开大学学术委员会的主任,中国新一代人工智能发展战略研究院执行院长龚克教授在“会讲二:科技变革与全球治理”上做了主题为

  pg电子模拟器当今世界正处于大发展大变革大调整时期,为了积极倡导平等、互鉴、对话、包容的文明观,牢牢把握全球性挑战下和平与发展的时代命脉,第六届清华会讲以“文明互鉴与和平发展”为主题,围绕“文明互鉴与和平发展”、“科技变革与全球治理”、“科技创新与企业发展”等议题进行研讨。

  南开大学学术委员会的主任,中国新一代人工智能发展战略研究院执行院长龚克教授在“会讲二:科技变革与全球治理”上做了主题为《为AI立心,为人类赋能》的主旨发言。以下是龚教授的演讲实录,在此编撰成文,以飨读者。

  在本次发言中,龚教授从AI治理的必要性、方向和国际动态三个方面展开深入分析。首先,龚教授强调AI治理应当采取发展导向,理由在于AI技术本质上是一种先进生产力,其发展势不可挡;并通过历史进程的类比,指出人类一直在通过创新工具来推动生产力的发展,AI的快速发展仅是这一历史进程的最新表现。

  其次,龚教授提到了伴随这种发展可能出现的风险,针对这些风险,需要建立有效的治理机制和标准。在伦理治理方面,龚教授引用了联合国教科文组织在2021年通过的《关于AI伦理的建议书》,强调了其提出的四条核心价值观和十条原则。

  第三,在全球治理的背景下,龚教授强调了AI治理的国际合作以及中国在全球人工智能治理倡议中的积极作用。他倡导中美两国在全球AI治理上实现更有效的合作,并支持联合国主导的广泛对话,以确保AI技术的发展既符合人类共同的价值观,又能促进全球的可持续发展。此次演讲不仅强调了AI技术的巨大潜力和相关风险,也深刻指出了通过国际合作对技术进行有效治理的必要性。

  我今天的发言题目是“为AI立心,为人类赋能”。2023年10月18日,在“一带一路”合作十周年高峰论坛上,中国发布了《全球人工智能治理倡议》。一星期后,联合国秘书长于10月26日宣布成立AI智能高级咨询机构。数日后的10月30日,美国总统拜登签署并发布了AI安全、可靠、可信发展和应用的行政命令。三天后,全球人工智能安全峰会发布了《布莱切利人工智能安全宣言》。以上皆堪称为AI治理方面的里程碑式的国际性事件。提到AI治理,为什么AI要治理?怎么才能治理好AI?我有以下几个观点。

  首先,AI的治理应该是一个发展导向的治理。为什么以发展为导向?因为AI是一个先进的生产力,先进生产力的进步是不可阻挡的。从手动纺织到机械纺织,从马车到飞机,从手工生产线到自动化生产线,从算盘到大型运算……都是人类在不断创造新的工具来增强自身的能力。所有人类创造的工具都在提升能力,从体力到脑力,算盘就是解决脑力问题。人类社会生产力的发展进程势不可挡。

  从AI的发展来看,这张图显示的是ChatGPT从去年11月30日发布以来到一个多礼拜之前,Token长度从8K到32K到128K,11个月增长16倍,这背后是处理能力的答复提高。国际组织预测,从2023年到2030年,AI产值将以年均38%的速度增长。这样的生产力发展趋势不仅不可阻挡,而且是越来越快。我们所要治理的是快速发展的先进生产力。

  习主席讲我们现在经历信息,人工智能是引领这一轮科技和产业变革的战略性技术。中国对人工智能发展的基本判断——这是先进生产力。谈治理的时候应该明确我们治理什么东西,我们不是治理某一种不规范行为,我们是对先进生产力的发展来实施治理,是代表先进生产力发展要求的治理。

  为什么要治理呢?因为它可能出错。比如某生成式人工智能工具在介绍晚清清华留美预备考官时,把他的外孙女婿当成把他的女婿,虽然是这家成员,但弄错了辈分,造成基本的事实错误。从原理上讲,AI输出的答案是基于这些词的组合与输入词语组合的联合概率分布。既然是概率,就不可能100%正确,即出错的概率不会为0。问题不在于AI会出错,人类的回答也有出错的概率,但是需要可解释、可控。目前AI模型缺乏可解释性,这才是问题所在。

  引用OpenAI自己的说法:“尽管GPT-4的功能强大,但是有类似于早期GPT模型局限性,它仍然不会完全可靠,会出现错误。在处理高风险的上下文时应格外小心使用,精确的协议程序,例如人工审查,应与特定应用场合的需求相匹配”。对于高风险的文本生成,制定必要的审查程序,这就是治理。

  我们谈论AI风险,大体来自两个方面。一个方面来自技术的不完善,一个方面来自于对它的恶意运用。技术不完善我们就要靠发展技术来解决这个问题,不发展是最大的不安全。

  以发展为导向的AI治理需要做什么呢?第一个是坚持标准,如果不利于AI生产力发展,就不是个好政策。第二是要推动它和实体经济深度融合。第三个是从研究的角度,要大力发展可解释性研究和可信AI技术研究,大力支持高效计算等绿色AI技术发展,大力普及AI,消解社会上不必要的焦虑,大力支持隐私计算等安全技术发展。

  发展是我们的追求,但底线是人类伦理。因此,AI治理应是以伦理为基础的治理。谈到伦理不得不提联合国教科文组织在2021年10月31日一致通过的《关于AI伦理的建议书》,它被认为是联合国机构的第一个关于AI治理的文件,为整个AI治理提供基本的通用伦理框架。这个里面提出了四条非常重要的价值观和基于四条价值观的十条原则:第一条是尊重保护和促进和基本自由,以及人的尊严;第二是保证环境和生态的蓬勃发展;第三是确保多样性和包容性,包括人类社会的多样性和包容性,也包括自然界的多样性和包容性;最后是社会的和平、公正和互联。十项重要的原则,第一条是相称性和不损坏,还有一条是人类的监督和决定。人工智能不管怎么发展都是人创造出来的工具,要服从人类,不能当做跟人同样平等的主体,是不符合我们伦理原则。

  其次,基于伦理治理需要技术手段落地,否则只是纸上的条目。技术手段更要通过标准体现出来。中国在2021年推出了这样一个标准框架,这是一个比较完整的标准框架:从术语到参考文献、到支撑技术、到基础软硬件、通用技术、专业技术、应用规范、隐私保护、安全、道德……比较完整。这个框架在国际上也做了一定的宣传,很多国际组织和国家都在做这项工作,比较可惜的是由于中美两个人工智能发展大国之间在标准上还没有形成有效的正向对话,整个国际人工智能标准的进展较慢。此次拜登总统和习主席达成共识的第一条就是建立人工智能的政府间对话,标准是其中的应有之义。

  第三是按风险进行分类治理。既然治理针对风险,风险的危害性是不同的,首先要看有谁使用,好比刀叉是好用的工具,但是儿童不宜使用;第二要看对谁使用,比如有的检查工具不适于对孕妇使用;第三要看在什么场合使用,比如在飞机上不能使用剪刀。不久前发布的《关于科技伦理审查办法的通知》,也包括人工智能的伦理审查。文件的附件列出了一些高风险行为,跟人工智能有关的是对人类主观行为、心理情绪、生命健康有较强影响的人机融合系统的研究。第二是具有社会动员能力和社会意识引导能力的算法模型、应用程序等。第三是面向存在安全人身健康风险的,自动化决策系统的研发。这三类属于明确的高风险的,是由国家科技伦理委员会发布的。

  以欧盟为例,欧盟即将最后通过的AI法案明确提出“要以风险的等级为主线,对算法进行共同治理”。第一个等级是导致自然人身体和心理伤害的算法。第二是对危害健康和安全或对基本权利造成不利影响风险的算法。如果用于关键设施,用于公民教育,用于公民就业,用于公共服务和执法等领域,也是高风险。它是与场合有关、工具以及人有关系,以此才能让低风险得到快速发展。

  第四,AI治理应是全员治理。比如对生成式AI治理,中国出了全球第一个规范,目前是针对生工智能服务提供者的治理。还需要对使用者的规范,比如,若是生成式人工智能的工具制造谣言,那不是ChatGPT或者文心一言自己造出来的谣,是其使用者运用这个工具在造谣。就像我们保障驾驶安全,要有安全的车、安全的路,更要有合规的驾驶员,否则在安全的车、再好的路,仍然会出事故。所以,不仅要制定车辆的安全标准、道路的安全标准,还要有规范司机和行人的交通规则。

  最后,AI治理应是全球性的,而且是多利益攸关方的治理。中国提出来的《人工智能全球治理倡议》,是在140多个国家参加的“一带一路”国际合作高峰论坛上发表的,是共同的倡议。联合国组建的AI高级别咨询机构的39个成员来自五个大洲,其中两位来自中国,男女性别平等,背景包括了政府、学界、企业、民间组织,做了一个多利益攸关方的治理典范。美国政府的AI行政命令在发布之前向20多个国家和欧盟进行咨询,也是全球性的考虑。人工智能安全峰会有25个国家参加,主办国顶住压力邀请中国政府代表团参加,并共同签署了《布莱切利宣言》。不久前,我们分析了一下《布莱切利宣言》,美国总统的行政命令和我们的倡议,发现有很多重要共识。比如,AI的发展给全球繁荣带来了机遇,它的发展和管理应该坚持“安全、可信、负责任”原则,坚持以人为本。AI的风险是全球性的,它的治理和风险防范也应该是全球性的,帮助发展中国家加强人工智能能力的建设,关注网络安全、虚假信息、隐私泄露等等方面都是共识。但也有不同的地方,如今最大的问题是中美两个最重要的国家能不能真正落实两国元首达成的共识,真正有效地开展“人工智能政府间对话”,这是两国元首旧金山各项共识之首,可见这个问题的重要性。我认为更重要的是希望中美能够支持由联合国为主导的,真正多元参与的人工智能发展的全球性广泛对话,形成明确共识。只有这样才能真正实现一个目标——那就是让AI具有人类价值观并为可持续发展服务。

  “鸿儒雅集曰会,切磋学问曰讲”。“清华会讲”由清华大学主办,以清华大学国家治理与全球治理研究院、清华大学一带一路战略研究院及清华大学社会科学学院为依托,以韩国SK集团为支持,旨在通过“清华会讲”、“高端论坛和学术工作坊”及“名家讲堂” 三大品牌特色,打造多元化、度、高水平的学术平台,营造众流洄环的学问渊薮,群峰峙雄的思想高原,从而助于产、学、研界同仁多视角地体悟“更创新、更国际、更人文、更从容”的大学之风,共享学术共同体思想碰撞与观点交流之成果,以此弘扬“和而不同” “以人为本”等东方价值优势,推进工具理性与价值理性的统一,人文精神与科学精神的融合,促进学术发展、教育变革与社会进步。

  清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。