业界动态
专访|联合国专家谈负责任使用AI:能搜索到信息就别用聊天机器人了,人工智能,研究,女性
2024-07-15 01:23:06
专访|联合国专家谈负责任使用AI:能搜索到信息就别用聊天机器人了,人工智能,研究,女性

“作为(wei)计算机科学教授,1984年我就做(zuo)了一个(ge)关于人工智能的项目(mu),可想而(er)知AI的发展经历了多么漫长的讨(tao)论。” 英国南安普敦大学教授温迪·霍尔(Wendy Hall)近日在第十二届世界和平论坛上说(shuo)到这里时,台上同席而(er)坐的几位专家笑称那时候他们还是(shi)孩子(zi)。

霍尔上大学的时候还几乎(hu)接触不到电(dian)脑,在数学专业读(du)到博士毕(bi)业后(hou),她对新出(chu)现的微型计算机颇感兴趣,于是(shi)转(zhuan)而(er)攻读(du)计算机科学硕士,并(bing)在毕(bi)业时写了一个(ge)智能教学程序。她7月7日在北(bei)京接受澎湃新闻(www.thepaper.cn)专访时说(shuo),“那时我只是(shi)想眺望一下未来,看看我们可以怎样依靠电(dian)脑来使用人工智能。”彼时,全球范围内(nei)的人工智能正在从理论研究走向实际应用。

英国南安普敦大学教授温迪·霍尔(Wendy Hall)接受澎湃新闻专访。

自那一眺望之后(hou),霍尔带(dai)领的团队(dui)在1988年开发出(chu)微观(guan)世界超媒体系(xi)统(Microcosm Hypermedia System),将文档之间的链接存储(chu)在单(dan)独的数据库中,来构建一个(ge)更加互联的网络(luo),那时候万维网还未出(chu)现。

“此后(hou),我的职(zhi)业生涯(ya)一直在使用人工智能。”霍尔说(shuo)道。

上世纪80年代末,霍尔在南安普顿大学计算机科学专业教了3年书之后(hou),意(yi)识到一个(ge)奇怪(guai)的现象,这个(ge)专业的学生当(dang)中没有女性,英国其他高校也基本如此。她回忆,那个(ge)时候计算机被包装为(wei)男孩的玩具进行销(xiao)售,似乎(hu)与女性没什么关系(xi)。“我们就这样让一代女性对计算机失去了兴趣,之后(hou)此学科的性别比例也没有完全恢复平衡,所以相应的做(zuo)人工智能的女性就更少了。”

不过,令她感到欣(xin)喜的是(shi),联合(he)国层面的AI咨询系(xi)统注意(yi)到了多样性问(wen)题。2023年霍尔入选联合(he)国人工智能高级别咨询机构(High-level Advisory Body on Artificial Intelligence),39名专家中包含20名女性和19名男性,代表33个(ge)国家。她强调(diao),如果开发人工智能的团队(dui)不具有多样性,很有可能存在偏见和不公,因为(wei)只是(shi)用单(dan)一方式思考。

霍尔曾在2017年受英国政府之邀为(wei)国家撰写AI产业发展路线图,两周前还与时任英国首相苏纳克(ke)一起讨(tao)论人工智能安全问(wen)题。近一年,她和联合(he)国人工智能咨询机构的团队(dui)成(cheng)员一起撰写《以人为(wei)本的人工智能治理》报告,报告最终版(ban)将于今夏发布。对于人工智能的治理与监管,这位教授从英国和联合(he)国机构的视(shi)角阐述(shu)了见解。

人工智能领域的女性角色

澎湃新闻:您从1984年就涉足(zu)人工智能领域,至今已(yi)经有40年,这期间人工智能的技术和商业应用已(yi)经发生了翻天(tian)覆地的变化,您一直坚(jian)守在这个(ge)学科进行研究工作的动力是(shi)什么?

温迪·霍尔:我曾是(shi)一名数学家,博士毕(bi)业正值微型计算机开始出(chu)现,当(dang)时我想要在研究型大学工作,但(dan)因为(wei)太年轻了找不到合(he)适(shi)的岗位,也发现自己的能力无法(fa)与微型计算机的记忆力与算力匹敌。当(dang)我了解到除了通过程序代码之外,还可以与计算机进行交互,在计算机上放置图形和多媒体时,我对如何将其应用于教育很感兴趣,之后(hou)对超媒体(hypermedia)也变得非常感兴趣,便开始了研究的道路。

二三十年前,人们觉得计算机科学家杰弗里·辛顿(Jeffery Hinton)疯了,因为(wei)他不断提出(chu)新点子(zi),但(dan)这通常就是(shi)研究的方式,也是(shi)我为(wei)什么喜欢做(zuo)研究的原因。我乐于被告知自己所做(zuo)的研究永远不会实现,然后(hou)时隔多年我可以对人们说(shuo),“看,我30年前所做(zuo)的研究现在已(yi)经实现。”我对此感到非常自豪。比如在1990年代我就谈(tan)论过可穿戴(dai)计算机设(she)备(bei),并(bing)有视(shi)频记录,当(dang)时人们问(wen)我为(wei)什么需要可穿戴(dai)计算机,而(er)现在智能穿戴(dai)已(yi)经普及。

我不想为(wei)科技巨头工作,因为(wei)产业界是(shi)利益(yi)驱动的,必须(xu)专注于让股价上涨和销(xiao)售产品。我在上世纪90年代确实创办了一些初创公司,它们取得了不同程度的成(cheng)功,但(dan)并(bing)没让我变得富有。我在大学可以自由地思考,可以做(zuo)感兴趣的研究,是(shi)很棒的体验。

澎湃新闻:在人工智能领域,像(xiang)您这样的女性研究者并(bing)不多见,如何提高女性的参与度?

温迪·霍尔:我认(ren)为(wei)人工智能不应该被视(shi)为(wei)计算机科学的一个(ge)子(zi)集,它比计算机科学要大得多。当(dang)我们讨(tao)论它时,不仅仅是(shi)在谈(tan)论编(bian)程,还在谈(tan)论它的伦理、治理、政策,我们需要立法(fa)者、人文学科研究者、商业人士、哲学家和心理学家。所以,性别、年龄、种族方面的多样性非常重要,因为(wei)人工智能是(shi)为(wei)全世界打造的。

我非常担心人工智能通过计算机科学来筛(shai)选人才,而(er)研究计算机科学的女性非常少。所以相应的,做(zuo)人工智能的女性就更少了。从进入人工智能领域至今40年,我仍然是(shi)该领域中少数女性之一。

澎湃新闻:人工智能领域中女性研究者较少是(shi)否(fou)会导致(zhi)多样性的缺失,进而(er)引发其他问(wen)题?

温迪·霍尔:我非常强烈地主张多样性,如果只是(shi)单(dan)一文化,那么生产的任何东西,无论是(shi)研究还是(shi)产品,都更有可能存在偏见和不公,因为(wei)只是(shi)以一种方式思考。如果开发人工智能的团队(dui)不具有多样性,那从道德的层面来看是(shi)有问(wen)题的。

当(dang)然,联合(he)国人工智能高级别咨询机构的团队(dui)是(shi)极具多样性的,不仅男女比例对半分,在年龄、种族、商业背景方面也非常多样化。所以这是(shi)一个(ge)很棒的团队(dui),是(shi)多样性的一个(ge)典范。

AI规则制定应由谁主导

澎湃新闻:人工智能高级别咨询机构的39名专家分布在33个(ge)不同国家,每个(ge)大洲都有代表。当(dang)不同国家、学科和背景的专家一起制定报告时会有怎样的分歧?

温迪·霍尔:因为(wei)小组(zu)具有多样性,各个(ge)地区的专家都非常深入地参与其中,所有专家都敢于说(shuo)出(chu)自己的想法(fa),因此我们不是(shi)在每件事上都意(yi)见一致(zhi)。但(dan)之所以机构运行成(cheng)功,很大程度上归功于联合(he)国的领导,尤其是(shi)联合(he)国秘书长技术特使阿曼迪普o吉尔,他是(shi)一个(ge)非常有影(ying)响力的人物,但(dan)他并(bing)不显得高高在上,通常能让每个(ge)人以自己的方式行事,他鼓励人们发言,让人们真正参与到讨(tao)论中。通常来说(shuo)每个(ge)人都会发声,这就是(shi)全面的多样性,这让我深有感触。

我特别喜欢听团队(dui)中的法(fa)律从业者以不同的方式去思考世界,非常合(he)乎(hu)逻辑。我们彼此了解,已(yi)经进行了多次线上和线下会议,包括一些深入的探讨(tao),包括开源、人工智能的和平,以及儿童和性别等各种议题。

澎湃新闻:联合(he)国人工智能高级别咨询机构去年12月发布了《以人为(wei)本的人工智能治理》中期报告,呼吁将国际规范与人工智能的开发和推(tui)广方式更紧密地结合(he)起来。最终报告尚未发布,现在的工作进展如何?

温迪·霍尔:最终报告已(yi)经基本完成(cheng)了并(bing)提交给了联合(he)国秘书长,还会有一些反(fan)馈意(yi)见,可能后(hou)期会更新和迭代,最重要的是(shi)联合(he)国领导层是(shi)否(fou)乐于接受我们所提出(chu)的内(nei)容,我们必须(xu)要以他们能接受的方式坚(jian)定地说(shuo)出(chu)想说(shuo)的话(hua)。这份报告将作为(wei)今年9月未来峰会(Summit of the Future)上将讨(tao)论的全球数字契约的一部(bu)分。我们非常希望报告中的大部(bu)分内(nei)容被纳入契约。

对于报告的细节,我们为(wei)联合(he)国和人工智能机构留(liu)有探讨(tao)的空间和其他可能性,我们访问(wen)了世界卫生组(zu)织、知识产权组(zu)织、人权组(zu)织、国际电(dian)信联盟(ITU),他们都在推(tui)进有关人工智能的工作,但(dan)往往只能看到自己关注的那一部(bu)分,我们正试图跨越这个(ge)障碍,构建一个(ge)网络(luo)是(shi)一种解决方案。

澎湃新闻:小到科研机构、科技公司,大到国家政府和联合(he)国,都在不同层面讨(tao)论和制定人工智能相关的规则来尽可能地确保安全,那么究竟哪一方享有规则制定的主导权?

温迪·霍尔:国家政府在规则制定方面有很大的影(ying)响力,比如英国去年成(cheng)立了人工智能安全研究所,旨在提高对人工智能安全的认(ren)识。但(dan)我并(bing)不是(shi)很赞同这种做(zuo)法(fa),因为(wei)它过多地带(dai)有政府部(bu)门的色彩,缺乏学术界的参与。而(er)联合(he)国是(shi)世界上唯(wei)一真正具有普遍性的全球组(zu)织,可以处理各种问(wen)题,尽管它可能是(shi)不完美的,但(dan)是(shi)我们可以利用这样一个(ge)平台来构建一个(ge)AI治理的网络(luo)。

澎湃新闻:英国去年主办了一次国际人工智能安全峰会,时任首相苏纳克(ke)说(shuo):“目(mu)前唯(wei)一测试人工智能模型安全性的是(shi)开发它的公司。”他认(ren)为(wei)这是(shi)远远不够的。那么如何让更多人参与到人工智能安全性的检测和提升(sheng)当(dang)中?

当(dang)地时间2023年11月2日,英国伦敦,人工智能安全峰会期间,英国时任首相苏纳克(ke)与特斯拉CEO马斯克(ke)出(chu)席一场对话(hua)活动。视(shi)觉中国 图

温迪·霍尔:谈(tan)到去年在英国举办的人工智能峰会,非常坦率地讲,让我恼火的是(shi)有很多国家没有被邀请,受邀的标准并(bing)不清楚,而(er)且很多学者完全被排(pai)除在外。

关于人工智能的安全性,在很多行业,一般是(shi)行业开发测试工具对产品进行检测,然后(hou)提交报告给政府接受监管,这也是(shi)目(mu)前人工智能遵循的一套规则。在英国,人工智能安全研究所都不一定能够访问(wen)那些科技公司的数据,更不用说(shuo)其他机构和个(ge)人。我认(ren)为(wei)公司管理安全性和政府监管的平衡需要更进一步(bu)优化。

两周前,我见了苏纳克(ke)首相,当(dang)时和他谈(tan)论了人工智能,我问(wen)他试图通过AI安全研究所达成(cheng)什么目(mu)标。他充满(man)热情,希望英国能成(cheng)为(wei)人工智能安全领域的领导者,但(dan)实际上这是(shi)一个(ge)全球性问(wen)题。而(er)且我认(ren)为(wei)很多研究应该在大学里进行,由商业公司来支付费用,然后(hou)由政府来监管技术的开发,而(er)且政府需要派人到人工智能的最前沿,以便了解正在发生什么并(bing)进行监管。

别让ChatGPT做(zuo)简单(dan)数学题

澎湃新闻:您既参与了2017年英国人工智能独立报告的制定,也参与了联合(he)国人工智能高级别咨询机构的AI治理工作,如何看待(dai)欧(ou)盟最新发布的人工智能法(fa)案?一些科技公司指责这样的法(fa)案会打击创新,您怎么看?

温迪·霍尔:我们必须(xu)在创新和监管之间找到正确的平衡。我认(ren)为(wei)英国的手段太软了,当(dang)然也对创新比较友好(hao)。实际上不管是(shi)欧(ou)盟还是(shi)英国制定的监管方案,确保安全的目(mu)标是(shi)一致(zhi)的,只是(shi)实现的手段不同。

我们必须(xu)要有强力的法(fa)规,如果只是(shi)科技公司自我监管是(shi)不够的。就像(xiang)烟草行业,人们都知道吸烟的害处,但(dan)如果不制定相关法(fa)规,烟草公司为(wei)了盈利会以自己的方式制造和销(xiao)售香烟。不同国家的法(fa)律会有所不同,但(dan)我们需要在联合(he)国层面上形成(cheng)一定的原则,各国可以在这样的原则基础上制定自己的法(fa)规。

澎湃新闻:您在社交平台上分享了一份有关深度伪造(Deepfake)的联名书,呼吁制定新的法(fa)律法(fa)规,保护人们免(mian)受深度造假的危害。现在深度伪造带(dai)来的哪些危害值得重点关注?应该从哪些方面努力去应对这种危害?

温迪·霍尔:可以看到今年有很多国家举行选举,我们很担心深度伪造会改变人们在选举中的投票,现在通过任何法(fa)律或技术都很难解决这个(ge)问(wen)题。比如有专家提到可以运用水印来防止(zhi)伪造,实际上水印也很容易破解。

我认(ren)为(wei)每个(ge)人都应该意(yi)识到人工智能能做(zuo)什么以及它如何被滥用来制造虚假信息和深度伪造。我们不能期望政府做(zuo)所有事情,而(er)且也不希望政府和科技公司成(cheng)为(wei)审查者。真正困(kun)难的是(shi),谁来判定某件事或某个(ge)信息的真实性,而(er)且这也涉及到言论自由和隐(yin)私的问(wen)题。因此还是(shi)要回归到人们的意(yi)识问(wen)题,需要每个(ge)人都认(ren)识到人工智能应该如何被正当(dang)使用。

澎湃新闻:您在演讲中提到生成(cheng)式人工智能工具ChatGPT改变了很多,在开发和使用生成(cheng)式人工智能的进程中有哪些需要关注的风险或盲区?

温迪·霍尔:我想强调(diao)人工智能的耗能问(wen)题,它的庞大电(dian)力需求是(shi)一个(ge)值得关注的问(wen)题。人们很多时候不正当(dang)地使用生成(cheng)式人工智能,对ChatGPT提出(chu)极其简单(dan)的请求,比如输入简单(dan)的算术题,这太疯狂了。我们需要负责任地使用人工智能,一些在搜(sou)索引擎中可以查找的信息不需要用资源密集型的生成(cheng)式人工智能来完成(cheng)。当(dang)公司销(xiao)售产品时,不应该说(shuo)现在可以用这个(ge)来做(zuo)所有事情,而(er)应该思考如何确保以一种负责任的方式使用它。

当(dang)然,对于人工智能的发展我还是(shi)比较乐观(guan)的,重要的是(shi)要看怎么样和人工智能进行合(he)作,比如AI在粮(liang)食安全、气候变化、能源、医疗卫生方面已(yi)经有很多突破,这是(shi)很棒的进展。我们要支持人工智能向好(hao)的方向发展,要建立一个(ge)机制去确保安全,这是(shi)一个(ge)漫长的旅程,我们不应该反(fan)对人工智能,而(er)是(shi)要和人工智能进行协作,因为(wei)人工智能可以帮助人类有一个(ge)更好(hao)的未来。

发布于:上海(hai)市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7