业界动态
“AI大神”戴文渊谈AI进化隐忧:利用技术搞破坏,是眼前最大的风险,事情,人类,可控
2024-07-17 12:26:43
“AI大神”戴文渊谈AI进化隐忧:利用技术搞破坏,是眼前最大的风险,事情,人类,可控

近日,“AI大(da)神”、第四范式公司创(chuang)始人、CEO戴文渊做客格隆汇高端访谈《格隆博士会客厅》。

在与格隆的对话(hua)中,戴文渊在谈到AI的进化隐忧时指出,在一个可预见的时间内,还是可控的。

碳基生命利(li)用 AI 去毁灭碳基生命离我(wo)们更近。

他担心大(da)家花过(guo)多时间担忧短期(qi)不会发生的事(shi),反而(er)不太(tai)关注更近可能会发生的事(shi)情。

随着AI的进化,AI会否产生自主意识控制或奴役(yi)人类的担忧愈来愈多。

不过(guo)戴文渊认为(wei),在一个可预见的时间内,还是可控的。

首(shou)先,这样的能力不是很多人能做的到,现在极少人能做到这样,并且(qie)要做到这样的效(xiao)果(guo)需要消耗大(da)量的资源。

如果(guo)我(wo)们发现,当 AI 有了这方面能力以后,我(wo)们可以及时的切断(duan)这些资源。

第二个,以这一代的AI基本理论基础,它需要人类去设置目标,而(er)后面 AI 做的所有的事(shi)情都是基于人类设置的目标产生的结果(guo)。

如果(guo)发现 AI 发生了一些意想不到的事(shi)情,那我(wo)们可以召集(ji)一些最顶尖的科学家去研究是不是目标设置的有问(wen)题。

如何去修正目标、如何通过(guo)修正目标让 AI 不要去做这些事(shi)情,这些在他看来,至少可预见的时间内,都还是可控的。 戴文渊表示,作为(wei) AI 从业者,他更担心的不是AI 有了自主的意识去替代人类或者去奴役(yi)人类,而(er)是大(da)家花了过(guo)多的时间去担忧一些短期(qi)不会发生的事(shi)情,而(er)更近可能会发生的事(shi)情反倒(dao)不太(tai)关注。 在他看来,这一代的 AI 取决于人类设置的目标。设置一个好的目标, AI 就在做好的事(shi)情;设置不好的目标, AI 就会干不好的事(shi)情。

另(ling)外一个方面, AI 所获取的成本其实在降低。当这个成本降低到一定的程度后,最需要担心的不是 AI 本身,而(er)是我(wo)们人类当中不好的那部分人。 因为(wei)每个人的想法都会有不一样且(qie)又很难控制,这里面就会产生很多不可控因素。

这个不可控因素如果(guo)没有 AI 叠(die)加,在过(guo)去每一个人的破坏力是有限的,社会总体是可控的。

但如果(guo)由于 AI 门槛不断(duan)下降,人破坏力得到提升,这个时候 AI 对社会的影响就是我(wo)们不可忽视的地方。

戴文渊也提出了自己(ji)的的担心和(he)焦虑。他希望让公众更多的关注到这个点上,不过(guo)戴文渊也表示,现在整个社会形态(tai)下,没有一个特别好的解法。所以在 AI 成本进一步下降之前,可能需要一种新的社会组织形态(tai),才能控制住这些不可控因素的影响。

发布(bu)于:广东省
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7