业界动态
面壁智能刘知远:模型的知识密度将按每八个月增长一倍的速度发展,科学化,数据,技术
2024-07-09 05:56:17
面壁智能刘知远:模型的知识密度将按每八个月增长一倍的速度发展,科学化,数据,技术

新京报贝(bei)壳财经讯(记者(zhe) 白(bai)金蕾 韦英姿)“人工智(zhi)能(neng)科(ke)学(xue)化(hua)、计算系统智(zhi)能(neng)化(hua)、领域(yu)应用广谱化(hua)是大模型未来的三大主战场。”7月3日至7月10日,2024新京报贝(bei)壳财经年(nian)会(hui)在北京、深圳两地举行,面壁智(zhi)能(neng)联合创始(shi)人、首席科(ke)学(xue)家,清华大学(xue)计算机系长聘(pin)副教授刘知远出席“‘通’往未来 向新有AI”主题论坛,并以“大模型未来发展的三大主战场”为题发表主旨演讲。

刘知远在演讲中回溯了人工智(zhi)能(neng)七十年(nian)的发展史,标定了大模型在其中的地位,并创造性地指出了“随着(zhe)算力算法的发展,模型的知识密(mi)度将按照每八个月增(zeng)长一(yi)倍的速(su)度发展”。

刘知远以面壁智(zhi)能(neng)在WAIC(世(shi)界人工智(zhi)能(neng)大会(hui))2024上最新发布的MiniCPM-S为例。“该模型目前有1.2B 版本,已经能(neng)够达到(dao)约88%的稀疏度,让全链接层能(neng)耗降低至84%。同时它带来更加极致快速(su)推理的能(neng)力,对比(bi)相对应的稠密(mi)模型,推理速(su)度提高接近3倍,能(neng)够在性能(neng)不变的情(qing)况下,变得(de)稀疏激(ji)活,从而让它的知识密(mi)度持续(xu)增(zeng)强下去。”刘知远说(shuo)。

面壁智(zhi)能(neng)联合创始(shi)人、首席科(ke)学(xue)家,清华大学(xue)计算机系长聘(pin)副教授刘知远。

如何定位大模型在人工智(zhi)能(neng)史上的地位?

应该如何准确地把握大模型在整个人工智(zhi)能(neng)发展历(li)史上的地位?在刘知远看来,人工智(zhi)能(neng)七十年(nian)的发展,经历(li)了高潮和低谷,但核心命题一(yi)直没(mei)有变,就是要让计算机掌握完成各种各样复杂任(ren)务(wu)的能(neng)力。

具体而言,上世(shi)纪五十年(nian)代的符(fu)号智(zhi)能(neng),是各领域(yu)专(zhuan)家用符(fu)号的形式总结各行业、各任(ren)务(wu)的知识,并用知识库(ku)等符(fu)号系统存储这些(xie)知识;跨越到(dao)上世(shi)纪九十年(nian)代,人类开始(shi)通过(guo)搜集相关(guan)任(ren)务(wu)的大量标注(zhu)数据,通过(guo)有监督学(xue)习(自动) 的方式,将任(ren)务(wu)知识储存在任(ren)务(wu)专(zhuan)用小模型里,这是专(zhuan)用智(zhi)能(neng);现在以大模型为代表的技术,实际上是更加通用的智(zhi)能(neng),从2018年(nian)开始(shi)探索出的(大模型)技术是一(yi)种比(bi)符(fu)号智(zhi)能(neng)和专(zhuan)用智(zhi)能(neng)更加通用的知识学(xue)习。基于此,他表示,大模型技术其实是实现了用序(xu)列化(hua)数据提取相关(guan)知识的通用方法。

“所以我(wo)们会(hui)清晰地看到(dao),在通用框架的支持下,在序(xu)列预测学(xue)习方法的支持下,不管是文本数据、图象数据还是生命科(ke)学(xue)的DNA数据,还是人类使用各种各样工具的行为数据,都可以作为大模型学(xue)习的知识来源。”刘知远表示。可以理解为大模型的技术就是基于大数据和算力,去支持知识的持续(xu)积累,这也进一(yi)步证明了OpenAI提出的“规模法则(Scaling Law)”,即模型参数规模越大,学(xue)到(dao)的知识越多,就会(hui)越涌现出更强大的智(zhi)能(neng)。

回顾过(guo)去,刘知远判断,“我(wo)们经历(li)了符(fu)号智(zhi)能(neng)、专(zhuan)用智(zhi)能(neng),今天所在的位置是大模型的序(xu)幕(mu),从OpenAI提出ChatGPT的第一(yi)个版本开始(shi),到(dao)现在不过(guo)五六年(nian)时间。目前,我(wo)们正在加速(su)迈向更加通用的人工智(zhi)能(neng),而大模型技术就是非常重要的技术基础。”

摩尔定律(lu)和大模型的发展规律(lu)

对于大模型发展规律(lu),刘知远认为可以对标半导体领域(yu)的摩尔定律(lu)来进行理解。“我(wo)们看到(dao)半导体领域(yu)过(guo)去八十年(nian),都在不断提高自己的芯片制程,以至于现在我(wo)们的手(shou)机、小型设备都拥有非常强大的算力芯片。”

摩尔定律(lu)最初是由英特尔公司的创始(shi)人之一(yi)戈登·摩尔在1965年(nian)提出的观察(cha)和预测。具体是指集成电路上可容纳的晶(jing)体管数量每隔一(yi)段时间就会(hui)翻倍,就是在相同的芯片上每段时间让它的算力提高一(yi)倍。这一(yi)发现成为了计算机行业的基础法则之一(yi),也支持着(zhe)计算设备快速(su)完成小型化(hua)。

基于此,他猜测,有个类似于“摩尔定律(lu)”的规律(lu)来指引着(zhe)大模型的发展。“我(wo)们发现过(guo)去的四年(nian)时间里,随着(zhe)算力算法的发展,模型的知识密(mi)度按照每八个月增(zeng)长一(yi)倍的速(su)度在发展,知识密(mi)度的持续(xu)增(zeng)强不仅发生在语言文本模型层面,在多模态大模型上也得(de)到(dao)了验(yan)证。”刘知远说(shuo)。

刘知远判断,类比(bi)于半导体行业,“我(wo)们更加需要注(zhu)意未来大模型的‘制程’——我(wo)们需要不断提升模型的‘制程’,从而把更强的智(zhi)能(neng)或者(zhe)能(neng)力放到(dao)更少参数的模型里,让大模型真正地飞(fei)入千家万户。”

为实现让大模型知识密(mi)度持续(xu)增(zeng)强的愿(yuan)景(jing),刘知远提出了大模型未来的三大主战场,即人工智(zhi)能(neng)科(ke)学(xue)化(hua)、计算系统智(zhi)能(neng)化(hua)、领域(yu)应用广谱化(hua)。

具体而言,人工智(zhi)能(neng)科(ke)学(xue)化(hua)将为能(neng)力涌现等关(guan)键机制建立科(ke)学(xue)理论,科(ke)学(xue)解释人工智(zhi)能(neng)形成的原理。计算系统智(zhi)能(neng)化(hua)则指大模型将与底层芯片、操作系统、数据管理、编(bian)程开发、网络通信深度融合;领域(yu)应用广谱化(hua)指将大模型应用于高精尖制造、科(ke)学(xue)发现等高度专(zhuan)业化(hua)场景(jing)中,让模型更好地适应各行各业智(zhi)能(neng)化(hua)应用的需求,成为更好的助手(shou)。

面向未来,刘知远表示,“我(wo)们要在上述三大主战场进行布局,要持续(xu)推进人工智(zhi)能(neng)的科(ke)学(xue)化(hua),让模型知识密(mi)度不断增(zeng)强,更好地、更广谱地赋(fu)能(neng)百(bai)业千行,所以我(wo)们也需要进行长时序(xu)建模,验(yan)证模型在高风险条件(jian)的可靠性,不断提升模型的响(xiang)应速(su)度。”

编(bian)辑 段文平

校对 张彦(yan)君(jun)

发布于:北京市(shi)
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7