业界动态
“驯服”AI还是被AI驯服:人工智能全球治理上海宣言出炉,人类,技术,发展
2024-07-09 03:17:52
“驯服”AI还是被AI驯服:人工智能全球治理上海宣言出炉,人类,技术,发展

ChatGPT唤(huan)醒了AI的黄(huang)金时代。

自上个世(shi)纪提(ti)出AI至今(jin),这一技术与产业几经起落,终于从科幻小说走入生产生活的现实(shi)。

但AI在解放生力可能(neng)性的同时,其(qi)带来的新风险也无法忽(hu)视。

图灵奖获得者、中国科学(xue)院院士姚期智就在WAIC 2024上指出,AI运行存在神秘的“黑盒子”;同时,它又具备强大的能(neng)力,如同火车、蒸汽机发明一样,会使全(quan)人类(lei)生活发生巨变。两(liang)个现状叠(die)加,使得治(zhi)理迫在眉睫。

在现实(shi)世(shi)界中,人工智能(neng)的迅猛发展,似乎也将人类(lei)带入了“黑暗森林”。和未知的外星文明一样,AI身周环绕(rao)着许多想象。

在完全(quan)了解AI之前,没人知道对面是(shi)拯救人类(lei)的“面壁者”,还是(shi)封锁一切希望的“智子”。

《三体》里叶文洁曾说过一句话:“我点燃了火,却控制不了它”。如今(jin)面对汹涌而来的AI,人类(lei)希望在某种意义(yi)上希望能(neng)够“驯服”AI。

在今(jin)年WAIC会议期间,多个与AI治(zhi)理相关的论(lun)坛密集举办,上海向全(quan)球发布了《人工智能(neng)全(quan)球治(zhi)理上海宣言》。宣言提(ti)出要促进人工智能(neng)发展,维护人工智能(neng)安全(quan),构建人工智能(neng)治(zhi)理体系,加强社会参与和提(ti)升公众素养,提(ti)升生活品质与社会福(fu)祉。

联合国人工智能(neng)高层顾问机构专家(jia)曾毅(yi)认为,这是(shi)在世(shi)界人工智能(neng)大会系列(lie)当中第一次发表(biao)了以大会为名义(yi)的共识,人工智能(neng)安全(quan)和治(zhi)理可以说是(shi)人工智能(neng)发展过程当中的国际共识。

图源:主办方供图

AI黑暗森林

人工智能(neng)的未来充满不确定(ding)性,唯一可以确定(ding)的是(shi),技术迭代、应用落地的速度越(yue)来越(yue)快。

然而,当AI走进现实(shi),人类(lei)似乎成为了《三体》中看到了宇宙倒计时的汪淼,不可思议与无能(neng)为力的情绪同时产生。

一个疑问浮现:AI的背(bei)后到底是(shi)什(shi)么,会让人类(lei)如此恐(kong)惧?

清华大学(xue)苏世(shi)民书院院长、人工智能(neng)国际治(zhi)理研究院院长薛澜指出,人工智能(neng)技术目前存在三重风险:技术内在问题、技术开(kai)发伴生风险以及技术误用和滥用可能(neng)带来的影响。

技术内在问题,是(shi)指包括“幻觉”在内的人工智能(neng)系统内生问题。

所谓“AI幻觉(AI Hallucinations)”,是(shi)指大语言模型有(you)时会提(ti)供看似合理但错漏百出的答案的现象。

另外,大模型的能(neng)力与其(qi)训练数据高度相关。然而,数据也是(shi)个“是(shi)非之地”。高质量数据的难以获得是(shi)业界亟待解决的难题。如果(guo)数据质量不高,其(qi)后期展现出的能(neng)力将无法保证。

在智能(neng)社会与全(quan)球治(zhi)理框架论(lun)坛中,同济大学(xue)经济与管(guan)理学(xue)院副院长、长江学(xue)者特聘教授钟宁桦表(biao)示:“对于人工智能(neng)模型的训练,数据(的重要性)占70%-80%,而后才是(shi)算法。”

薛澜担忧的第三重风险,来自商(shang)业实(shi)践中的技术误用或滥用。AI技术最终要走向应用,相比于技术和代码,应用会直接影响到更多用户的感知与体验。

比如,通过对抗性输入、“越(yue)狱”(jailbreaking)操作等方式,可以让大模型突破安全(quan)限制,帮助操作者实(shi)现不法目的。

问题总是(shi)新的,治(zhi)理工作或多或少都可能(neng)有(you)一定(ding)的滞后性。

为什(shi)么对AI治(zhi)理的要求如此紧(jin)迫?

驯服还是(shi)被驯服?

因为,没有(you)人知道大模型和AI的边界在哪(na)。如同人类(lei)发现火种、使用电力,AI不止(zhi)作为一种工具介入生活,AI本身可能(neng)就意味了新的生活。但也意味着新变量。

2015年,全(quan)世(shi)界193个国家(jia)在联合国共同签署了人类(lei)可持续发展目标(SDGs)。SDGs包括17个目标,下设169个具体的指标,它们希望用这些目标考(kao)察2015-2030年人类(lei)社会如何实(shi)现更好发展。“但去年有(you)研究机构发现,人工智能(neng)会对169个指标里的134个带来积极促进作用;但同时也有(you)可能(neng)对其(qi)中59个左右指标产生不利影响。 ”薛澜指出。

“如何推动人工智能(neng)健康发展,尽可能(neng)地让它收益最大化?同时把风险降(jiang)到最低?”在WAIC开(kai)幕式上,他这样发问。

其(qi)实(shi)如同《三体》里,地球三体组织(zhi)里出现了拯救派、降(jiang)临派、幸存派等不同派别。当前AI治(zhi)理也出现了不同派系。

其(qi)一是(shi)“乐观派”,其(qi)信(xin)仰者提(ti)倡加速技术创(chuang)新,快速推出新技术并应用,从而颠覆社会结构。Sam Altman被认为是(shi)隐(yin)藏的有(you)效加速主义(yi)者。

而在WAIC 2024上,中国工程院院士,之江实(shi)验室主任,阿里云创(chuang)始人王坚也表(biao)达了他的乐观,“我是(shi)个无药(yao)可救的技术乐观主义(yi)者。”王坚坦陈(chen)。在他看来,任何人类(lei)产生的问题,最后都会在发展中被解决。过去每(mei)一个变革节点带来的恐(kong)慌不一定(ding)比今(jin)天的AI带来的小。“但我们都走过来了。”他说。

他认为,环绕(rao)人工智能(neng)的疑问、担忧与风险十分复(fu)杂,解决它们不可能(neng)一蹴而就。“未来十年将是(shi)人工智能(neng)发展激动人心的关键时期。”王坚指出,人工智能(neng)是(shi)少数几种会对人类(lei)的基础设施(shi)建设产生极大影响的技术。它带来的变化可能(neng)改变人类(lei)的行为习惯,甚至将重新定(ding)义(yi)社会规范。

马斯克一直对人工智能(neng)的态度较为悲观,他多次强调AI的危险性,甚至认为AI的危险要远大于核武器,“我想我们不会允许任何人都去制造核武器,请再次记住我的话,AI要比这危险得多。”

在今(jin)年戛纳(na)国际广告节上,马斯克在接受采访时引用了Geoffrey Hinton的观点,认为存在10%到20%的可能(neng)性AI会“导致糟糕的情况发生”。他还提(ti)到,人工智能(neng)应用可能(neng)会带来意义(yi)危机:”如果(guo)AI能(neng)完成一切事情,甚至比人类(lei)做得更好,那我们工作的意义(yi)何在?“

在更早的2023年年末,OpenAI反转不断的“宫斗”剧(ju)中,Sam的反对者――OpenAI首席科学(xue)家(jia)Ilya Sutskever则相对中立。

Ilya曾在去年7月组建OpenAI超级(ji)对齐团(tuan)队。这个团(tuan)队的核心理念是(shi)要求AI能(neng)够在各种环境下自发推导出符合人类(lei)价值观的行动方针。

在AI领域里,意图和结果(guo)的偏差被称为“对齐问题(The Alignment Problem)”。因此,“价值对齐”可以理解为是(shi)让人工智能(neng)系统与人类(lei)价值观保持一致。确保AI以对人类(lei)和社会有(you)益的方式行事,不对人类(lei)造成干扰和伤害(hai)。

尽管(guan)当下各种观点各有(you)拥趸(dun),但价值对齐可能(neng)是(shi)人工智能(neng)治(zhi)理较为普遍的“核心价值”。

在更为落地的层面,各国监管(guan)部门(men)也陆续出手(shou)AI治(zhi)理。

今(jin)年5月,欧盟理事会正式批准欧盟《人工智能(neng)法案》,这被认为是(shi)全(quan)球首部综合性人工智能(neng)治(zhi)理立法。欧盟方案以“风险分类(lei)分级(ji)”为核心思路,将人工智能(neng)系统按(an)照(zhao)对用户和社会的潜(qian)在影响程度将其(qi)分为4类(lei):不可接受风险类(lei)、高风险类(lei)、有(you)限风险类(lei)、最小风险类(lei)。不同风险等级(ji),意味着不同力度的监管(guan)。

45°平(ping)衡(heng)率

治(zhi)理的尺度应如何把控?

上海人工智能(neng)实(shi)验室主任、首席科学(xue)家(jia),清华大学(xue)惠妍讲席教授周伯文尝试给出一个结论(lun)。

在人工智能(neng)领域有(you)一条非常知名的定(ding)律――尺度定(ding)律(Scaling Law),这条大模型界的“摩尔定(ding)律”,简而言之,是(shi)指随着模型规模(数据、模型和算力规模)的不断提(ti)升,大模型的能(neng)力基本也能(neng)够不断提(ti)升。

周伯文指出,在Transformer为代表(biao)的基础模型架构下,尺度定(ding)律被不断印证,证明目前AI性能(neng)呈(cheng)指数级(ji)增(zeng)长。但与此形成对比的是(shi),在AI安全(quan)维度典型的技术,呈(cheng)现零散化、碎片化,且后置性的特性。

在他看来,人类(lei)最终应当以“AI-45°平(ping)衡(heng)律” (AI-45° Law)的技术思想体系作为人工智能(neng)产业健康发展的参考(kao)。

图源:主办方供图

“从长期的角度来看,我们要大体上沿着45度安全(quan)与性能(neng)平(ping)衡(heng)发展。”周伯文说。在他看来,短期内的波动可以被接受,但不能(neng)长期偏离45°的基准线。“太低了,AI安全(quan)性无法保障;如果(guo)太高,则意味着AI发展被抑制。”

百年后的功(gong)过暂且不论(lun),处于当下的人们相信(xin),ChatGPT唤(huan)醒了AI的黄(huang)金时代。

从哪(na)走、如何走、走向哪(na),没有(you)人能(neng)给出确切答案。但要发展、要健康地发展,这个共识跨越(yue)了时间和空间。

发布于:北(bei)京市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7