业界动态
奥特曼谈AI的机遇、挑战与人类自我反思:中国将拥有独特的大语言模型,人工智能,问题
2024-07-07 03:47:24
奥特曼谈AI的机遇、挑战与人类自我反思:中国将拥有独特的大语言模型,人工智能,问题

①奥特曼认为AI在提升(sheng)生产力方面已显现积极作(zuo)用,但网络安全等问题也随之而来。

②GPT-4o能覆盖97%人群的母语,奥特曼承诺将持续改进,解决语言公平性问题。

③面对AI治理的挑战,OpenAI成立安全委员(yuan)会,奥特曼强(qiang)调安全与效率并重。

④奥特曼预(yu)测在众多大(da)语言模(mo)型(xing),少数将会胜出;中国将会拥有自己独特的大(da)语言模(mo)型(xing)。

⑤奥特曼认为AI可能使(shi)人类(lei)更(geng)谦卑,促使(shi)我们重新(xin)认识自身在宇宙中的位置。

①奥特曼认为AI在提升(sheng)生产力方面已显现积极作(zuo)用,但网络安全等问题也随之而来。

②GPT-4o能覆盖97%人群的母语,奥特曼承诺将持续改进,解决语言公平性问题。

③面对AI治理的挑战,OpenAI成立安全委员(yuan)会,奥特曼强(qiang)调安全与效率并重。

④奥特曼预(yu)测在众多大(da)语言模(mo)型(xing),少数将会胜出;中国将会拥有自己独特的大(da)语言模(mo)型(xing)。

⑤奥特曼认为AI可能使(shi)人类(lei)更(geng)谦卑,促使(shi)我们重新(xin)认识自身在宇宙中的位置。

在近日(ri)在瑞(rui)士举行的2024年的人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官山姆·奥特曼(Sam Altman)通(tong)过视(shi)频连(lian)线,与《大(da)西(xi)洋月刊》的CEO尼古拉(la)斯·汤普森(Nicholas Thompson)展开了深入的交流。该峰会由联合国国际电信联盟发起。

这场对话不(bu)仅触(chu)及了人工智能技术的前沿(yan)发展,更(geng)深入探讨了人工智能对全球社会、经济以及文化格局的深远影响。

在全球化的浪潮中,人工智能作(zuo)为一项革命性技术,其发展速度和(he)影响力前所未有。奥特曼在对话中特别(bie)提到,中国将在这个领域扮演重要角色,孕育出具有本(ben)土特色的大(da)语言模(mo)型(xing)。这一预(yu)见(jian)不(bu)仅彰显了中国在全球人工智能领域中日(ri)益增(zeng)长的影响力,也预(yu)示(shi)着未来技术发展的多元化趋势。

奥特曼预(yu)计(ji),在未来将有10到20个大(da)语言模(mo)型(xing)在全球范围内“存活(huo)”并发挥(hui)重要作(zuo)用。这些(xie)模(mo)型(xing)将成为推动各(ge)行各(ge)业发展的关(guan)键(jian)力量,同时也将引发对技术伦理、数据安全和(he)国际合作(zuo)的全新(xin)思考。奥特曼的洞察(cha)提醒我们,面对人工智能技术的快速发展,我们需要建立一个更(geng)加包容(rong)和(he)协(xie)作(zuo)的全球治理体系,确保技术进步能够(gou)惠及全人类(lei),而不(bu)是成为新(xin)的分化力量。

以下为此次(ci)对话的全文:

大(da)语言模(mo)型(xing)的未来与技术伦理

主持人非常荣幸你能够(gou)参加今天的活(huo)动。在今天的访谈中,我期望探讨多个领域,包括(kuo)人工智能的现状、未来趋势、关(guan)键(jian)议(yi)题以及治理问题。让我们先设(she)定一个背景:我们正处在一个人工智能的有趣(qu)时期,人们普遍认识到其巨大(da)潜力,尽管它(ta)尚未彻底改变世界(jie)或我们讨论的各(ge)个领域。我的问题不(bu)是这一变革何(he)时到来,而是想问当人工智能开始真正产生影响时,我们首先会看到哪些(xie)积极和(he)消极的影响?

奥特曼:目前,人工智能在提升(sheng)生产力方面已经产生了影响。软件开发人员(yuan)是最常见(jian)的例(li)子,也是最能说明问题的例(li)子。人们能够(gou)以更(geng)快、更(geng)有效的方式完成工作(zuo),更(geng)多地专注于他们所喜欢的工作(zuo)。随着这些(xie)工具成为工作(zuo)流程的一部分,人们很(hen)快就会发现,没有它(ta)们,工作(zuo)将难(nan)以想象。我预(yu)计(ji)这种模(mo)式将在更(geng)多领域出现,我们会看到各(ge)行各(ge)业因为能够(gou)利用这些(xie)工具而变得更(geng)加高效,这将对编写代码、教育、学习、医(yi)疗保健等各(ge)个方面产生积极影响。效率的提升(sheng)将是第一个明显可感知的积极成果。

至于消极影响,随着这些(xie)工具的出现,已经有一些(xie)负面效应。网络安全是我特别(bie)想提醒大(da)家(jia)注意的问题,我认为这可能是一个相当严重的问题,不(bu)过我不(bu)确定它(ta)是否会是第一个出现的问题。

主持人确实,这是一个极具吸引力的话题。在深入探讨这个问题的深层原(yuan)因之前,我想先询问一下你正在训练的新(xin)模(mo)型(xing)。你刚刚宣布已开始开发下一代模(mo)型(xing),无论是GPT-5还是其他名称。现场观众的主要担忧是,GPT-4和(he)其他大(da)语言模(mo)型(xing)在英语、西(xi)班(ban)牙语和(he)法语上的表现要优于斯瓦希里语(一种在非洲广泛使(shi)用的语言)等语言。在训练产品的下一个重大(da)迭代时,你如何(he)看待语言公平性的重要性?

奥特曼我不(bu)确定这是否是一个准备好的问题,但我欣然接受。我们对几周前发布的GPT-4o感到非常满意,因为它(ta)在更(geng)多种类(lei)的语言上都表现出色,我们将继(ji)续让未来的版本(ben)更(geng)加优秀(xiu)。我们公布的统计(ji)数据显示(shi),GPT-4o能够(gou)很(hen)好地覆盖97%人群的母语,这确实是一个巨大(da)的进步。公众对此表示(shi)高度认可,我们亦将持续致力于此领域的进一步改进与发展。

主持人我们把话题转向贵公司正在研发的下一代模(mo)型(xing)的后续进展。在它(ta)进行训练的过程中,你认为我们将看到怎样程度的提升(sheng)?我们是否会经历线性增(zeng)长,还是会迎(ying)来指数增(zeng)长的显著飞(fei)跃,或者是否会有令人震惊的指数级(ji)提升(sheng)?

奥特曼这是一个极具洞察(cha)力的问题。我们并不(bu)认为我们正处于任何(he)指数增(zeng)长的临界(jie)点。然而,这是一个在全球范围内广泛讨论的话题。对我们而言,最好的策略是展示(shi)成果而非仅仅预(yu)言。众多人士正在提出各(ge)种预(yu)测,而我们的策略是致力于进行尽可能深入的研究,并随后决定如何(he)负责任地发布我们所能创造的成果。我预(yu)期在某(mou)些(xie)领域将实现巨大(da)的进步,在其他一些(xie)领域可能提升(sheng)并不(bu)如预(yu)期显著,这与我们之前每次(ci)模(mo)型(xing)更(geng)新(xin)时的情况(kuang)相似。当我们从3.0版本(ben)升(sheng)级(ji)到3.5版本(ben),再(zai)到4.0版本(ben)时,关(guan)于是否真的会有显著改进,将在哪些(xie)方面改进,都存在许多讨论。答案(an)似乎是,我们仍然有很(hen)大(da)的发展空间,我预(yu)计(ji)我们会在一些(xie)人们未曾预(yu)料到的领域取得进展。

人工智能的可解释(shi)性与安全性

主持人现在网络中充斥(chi)着大(da)量由其他大(da)语言模(mo)型(xing)生成的合成数据,而这将是OpenAI首次(ci)在很(hen)大(da)程度上使(shi)用合成数据来训练模(mo)型(xing)。你对使(shi)用这些(xie)由大(da)语言模(mo)型(xing)创建的数据来训练大(da)语言模(mo)型(xing),可能引发的系统出错问题有多担忧?

奥特曼我认为关(guan)键(jian)在于获取高质量的数据。无论是合成数据还是人类(lei)生成的数据,都存在质量良莠不(bu)齐(qi)的问题。只要我们能够(gou)收集到足(zu)够(gou)高质量的数据来训练模(mo)型(xing),或者能够(gou)开发出提高数据效率的方法,从较少的数据量中学习更(geng)多,或者采用其他各(ge)种技术手(shou)段,我认为这个问题是可以解决的。我们有信心,我们拥有为开发下一代模(mo)型(xing)所需的一切资源。

主持人OpenAI是否为了训练模(mo)型(xing)而创建了大(da)量的合成数据?OpenAI是否自行生成了用于训练的数据?

奥特曼我们自然已经进行了各(ge)种实验,包括(kuo)大(da)量生成合成数据。我期望的是,如果训练模(mo)型(xing)的最佳途径仅仅是创造数以万亿计(ji)的合成数据Tokens并将其重新(xin)输入系统,那显得非常不(bu)合常理。你可能会认为,这种方法在某(mou)种程度上显得效率不(bu)高,应该存在一种机制,让模(mo)型(xing)在训练过程中能够(gou)更(geng)有效地从数据中学习。我认为我们还有许多问题需要解决,但当然,我们已经生成了大(da)量合成数据,用以进行训练方面的实验。然而,我认为你提问的核心是如何(he)实现用更(geng)少的数据获得更(geng)多的学习成果。

主持人这确实引人入胜,我之前并不(bu)知情。让我们探讨一个关(guan)键(jian)议(yi)题,我认为这将决定这些(xie)技术如何(he)在世界(jie)范围内应用。去年,我有幸与Stripe的创始人帕特里克(ke)·科里森(Patrick Collison)进行了一次(ci)精(jing)彩的对话。他当时提出了一个深刻的问题:在人工智能领域,如果有某(mou)些(xie)变化,是否会让人类(lei)对人工智能可能给世界(jie)带来的巨大(da)负面影响的担忧大(da)为减少?

你曾经说,如果我们能够(gou)深入理解背后真正发生的事情、能够(gou)洞察(cha)单个神经元的活(huo)动,就像你希望人工智能模(mo)型(xing)能够(gou)传授某(mou)人化学知识,但不(bu)希望它(ta)教授如何(he)制造化学武器一样,你期望这种控制能力是内嵌在模(mo)型(xing)的核心,而不(bu)仅仅是界(jie)面层。这样的理解是否正确?这个问题是否已经得到解决?

奥特曼我认为,确保安全性需要一种全面的方法,而模(mo)型(xing)的可解释(shi)性显然是一个值得探究的领域,它(ta)可能在多个层面上发挥(hui)作(zuo)用。尽管我们尚未解决可解释(shi)性问题,但我对正在发生的许多事情感到非常兴奋,尽管这还没有达到我可以宣布“大(da)家(jia)可以放心,我们已经完全理解了”的地步。在我看来,我们对这些(xie)模(mo)型(xing)内部运作(zuo)的理解越深入,我们就越能做(zuo)出更(geng)好的决策。我相信,这可以成为我们构(gou)建和(he)验证安全性声明的综(zong)合性方案(an)的一部分。

主持人如果你不(bu)完全理解正在发生的事情,这是否成为不(bu)继(ji)续推出更(geng)新(xin)、更(geng)强(qiang)大(da)模(mo)型(xing)的理由?

奥特曼尽管我们无法在单个神经元层面上完全理解大(da)脑(nao)的运作(zuo),但我们确信它(ta)能够(gou)遵循规(gui)则。除了在神经元层面的深入理解之外,还有许多其他方式可以帮(bang)助我们理解整个系统。这些(xie)系统的特质和(he)行为已经被非常精(jing)确地界(jie)定。事实上,包括(kuo)我自己在内的许多领域内的专家(jia)都对这一点感到惊讶:在新(xin)技术发展的历程中,我们能够(gou)如此迅速地让这些(xie)系统被普遍认为既安全又稳定。

主持人

发布于:上海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7