也有很多人脑洞大开提问,ChatGPT能帮自己做副业吗?能成为自己的良师益友、解决自己的精神内耗吗?另外也有瞧不上ChatGPT的声音。前一阵,ChatGPT连小学数学题都算不对的新闻也传播了一番。一些家长形成了先行印象,认为这哪里算得上AI。
对此,我们对话了中国计算机学会科学普及工作委员会主任助理崔原豪博士。他也是电影《流浪地球2》中人工智能领域科学顾问。请他分享了ChatGPT的诸多硬核洞察。
关注ChatGPT的原因在于,我们应该了解将来如何使用ChatGPT相关的AI产品去提升自己的工作效率,这是未来工作中的最优选择。当世界在进步时,一成不变就将形成数字鸿沟,从而影响自身发展。2、
迄今为止,还没有发现AI有超越人类智能或者企图反叛人类的苗头。评价机器是否智能只有通过图灵测试,但真正完备的图灵测试无法实现。3、
下一步,需要在数据层面集中增加更多关于世界常识的标注数据;在它原有的记忆上更新,因为随着时间的进程,某些事实和知识都会发生变化,它需要不断更新。
大概是在2个月前,第一次使用了ChatGPT。当时用它做了一篇英文论文的润色,让ChatGPT帮我推敲其中的语法,结果超乎我想象的好。我告诉它:你现在是一个英语翻译家,我希望你把我说的话翻译成优雅且简练的英语句子,不要作过多解释,也不要改变它的原意。
这里每一个“要”或“不要”都是一个指示。在这几条指示的要求下,它就会把你输入的一段英语文本变得更加优美简洁。这比以前用的Grammarly(英语语法检测)润色出来的效果好很多。专业性上,ChatGPT会做很多专业术语的替换,这是之前的语法检测工具很少能做到的;文法方面,被它替换后的词汇和语法相较之前会更优雅一些。
最近更多的是用它来做论文润色、英语翻译或其他语言翻译,有时候也会逗它玩一会儿。它的使用过程还是挺有趣的,像是工作助手,大幅度地减少了我的工作时间,提高了效率。
要了解大模型的角色,我们首先要了解机器如何评价一段文本的好坏。举个例子,《流浪地球2》里有一句经典台词“我相信人类的勇气,可以跨越时间,跨越每一个历史、当下和未来。”
假如我把句子顺序调整一下,“我相信勇气的人类,可以跨越时间、当下、未来,跨越每一个历史。”大家会觉得有一点奇怪,但还是能听出来我说的是什么意思。但当我把它整体打乱,变成“人类勇气未来,时间当下跨越每一个,可以我相信的历史”,你就会觉得无法理解。
我们会觉得第一个句子非常合理,最后一个不合理的原因是,在我们人类所有的语言里,最后一个句子出现的概率非常低。
从统计角度来看,在“人类语言模型”里,第一句话发生的概率最大,第二句话次之,第三句话几乎不可能发生。这就是文本合理性的量化。
机器就是在它的训练集中,获得文本合理性的量化指标。如果训练集足够泛化到含括所有的语言模型,那么机器就有资格评价这段文本是不是符合人类语法。
当你让它生成一段新的文本时,它会按照人类最常用、最喜欢的方式生成,从语法结构上来看,你会觉得它说得很有道理,但事实层面却不一定对。
语言模型的好坏,决定了整个下游任务处理的好坏,因为是它在评价语言是不是合理。如果刚开始评价指标就错了,那么后边的所有东西都会变成错的。所以语言模型是根本。
我个人觉得颠覆性其实体现在,它变成了一个可以直接面对用户的产品。以前大家做大模型的目的,第一是可以完成更多的自然语言处理任务,第二个是可以在每个细分的载源处理任务上可以去刷新,去达到更高的进度。包括谷歌的大模型、微软的大模型,还有智源研究院的大模型。
但是很少有人去站在用户的角度去想:我们是不是可以去做一个大家都可以用得起来的人工智能产品。以前所有的人工智能产品,比如小冰、小爱同学,或者是手机里边的图像处理、图像增强的算法也都是内嵌在其他产品里边的,并没有真正打包成一个完全的人工智能的产品去卖给用户。
现在ChatGPT就是每个人都可以用得起来一个产品,大家都可以接受他能做到什么程度,而且它还可以接入更多人工智能的算法,包括图像和视频领域的算法。
主要原因是ChatGPT还不懂什么是“事实”。ChatGPT的训练过程第一步是预训练。预训练是采用无监督训练的方法,也就是把网络上的数据包括其他的东西,交给它来进行自我训练。
这造成的一个结果就是,它不知道这些东西哪一个是真的,哪一个是错误的。因为预训练模型是一个语言模型,它的主要目的是去了解人类的语言习惯,包括单词之间的构造关系,只要学足够多的文字语料,这些语义信息都是可以被抽取出来的。
但是抽取出来的关于世界的常识,它自己是无法评判真实性的,需要人类来进行标注。
下一步,如果它要变得更能分辨事实的话,就需要再加入很多关于世界常识的标注数据,人类需要对哪一些是真的世界常识去做标注。
另外一个,它需要做一个记忆上更新,因为有很多事实是冲突的,随着时间的进程,某些事实和知识会发生变化,它需要不断更新。
A6:这个还是要从智能本身的定义来想,什么叫“智能”?我一直觉得在这个领域里边没有一个普适的评价基准,去评价机器或者大语言模型本身的能力。现在是根据每一个细分任务去评价它的准确度,但是准确度其实跟智能没有太大关系。
要评价它是否智能就需要通过图灵测试,但是真正完备的图灵测试是实现不了的,因为它要求的是人与机器不断交互,这是一个无限长的过程,基本上无法实现。如果是限定时间内,人和机器的交互,其实是有可能会被机器骗过去的。
比如,你和一个大语言模型聊5分钟,如果话题比较窄,可能你就会觉得它已经达到人类的标准了。
但是如果你跟它聊得非常宽泛,把范围扩展到它未曾接触过的领域,或者你跟它聊大概一个月左右,你可能就会觉得它确实不是一个人。
大方向上是朝着“人脑”这个方向努力的,但是在真正的研究过程中其实反而没想这么多。比如,在ChatGPT的研究过程中,最开始的时候机器是需要人的提示的,你需要给它一个例子,它会按照这个例子把你想要的内容生成出来,但是现在已经演变到你直接给它下命令,它就能生成的程度。
所以,实际上它确实是在朝着一个既定的目标去研究的,但是这个既定目标可能并不一定是为了更智能,也可能是为了让它变得更容易使用。
我觉得这个不一定,因为知识是需要更新的。人类大脑有一个遗忘的功能,这非常重要,因为大脑的储存容量是有限的,现在我们每天都会接收到很多的信息,从视觉、听觉、嗅觉,包括皮肤都可以接受到非常细微的刺激。
人类的大脑有注意力机制和遗忘机制,我们会注意到我们感兴趣的信息,也会遗忘掉很多细节信息。这两个机制保证了人类大脑不会被过多的信息冲垮。对于大语言模型来说,现在注意力机制已经有了,但遗忘机制还没有。
现在的大语言模型还只是一个“新生”的阶段,它的训练并不是像我们人类在现实生活中实时训练,而是在训练之后使用一段时间,然后再更新、再训练。
在使用过程中训练是我们人类独有的能力,而大语言模型无法在使用过程中训练,这也是未来大语言模型需要解决的问题。
我个人觉得大家都比Open AI要落后2年,不只是国内,国外其他公司也一样。因为Open AI选择的这条路线,在ChatGPT发布之前,大家都觉得它只是一条路线而已,都不觉得它会是一条通往未来通用人工智能的标准路线。
ChatGPT出现之后,现在注册用户已经超过1亿了,这是以前从来没有过的一个数字。这个现象让大家觉得,朝这个方向做通用人工智能是完全有可能的,而且ChatGPT也展示了潜力。
现在做自然语言处理的初创公司有很多。像智源研究院、百度这样的互联网科技公司,阿里巴巴、京东这样的传统互联网公司,都具备做出类ChatGPT产品的能力。
还有知乎,大家觉得它会成为未来类ChatGPT产品的基础语料库,这会给知乎带来很多流量。
下一步应该就是图像和视频。据我所知,现在也有很多关于图像和视频的大模型,只不过它们并没有像自然语言走得那么靠前。基于ChatGPT 这个大模型本身会有很多衍生产品,未来它可能会成为一个基石,跟各行各业的需求结合起来。
Q12:ChatGPT的算力对芯片提出了巨大的挑战,目前我国的芯片技术能否达到ChatGPT的算力需求?
目前国内的芯片技术肯定是比国外要弱一些。虽然会比国外弱一点,但它不是决定因素。我们说,如果智商不够,也可以靠数量来凑。ChatGPT的算力需求,国内的芯片还是可以达到的。
其实高端芯片的困境,不太会影响类ChatGPT在我国的开发,能做大模型创新的公司其实很少,也就是几个主流的互联网公司,像百度、华为都有自己的芯片体系,这对他们来说应该不是大问题。但是芯片也等于是算力的价格,假如芯片便宜,那么在后续运行大模型时,它的成本就会比较低,现在可能看不太出来,以后就会成为一个重要的竞争力,因为未来每个公司都在做类ChatGPT产品,那么成本就是一个重要的考量标准。
从自主可控的角度来讲,国家会需要有属于自己的大模型。我国现在已经有了大模型,虽然跟国外有差距,但是差距并不是特别大。
研发类ChatGPT的产品,这是一个值得去战略思考的,需要去做战略储备、战略决策或者战略指引的一个事情。
AI替代的不是人类,而是不会使用AI的人类。我们要关注ChatGPT的原因,在于需要了解以后应该怎么使用ChatGPT相关的AI产品去提升自己的工作效率,这是我们以后工作中的最优选择。
产业革命、工业革命之所以是革命,就是因为它对我们每个人的生活都产生了影响,比如以前的蒸汽机、电力、互联网,现在没有人不使用它们。AI技术被我们认为是一个新的工业革命,原因也是一样。
所有人的生活,都会因为AI产品本身或者是AI衍生的其他产品而产生改变。当所有人都在进步,只有我们一成不变,形成数字鸿沟,那么受到影响的就会是我们自己。
但同时,AI并不一定能替代人类工作,现在我们也可以看到,它的精确度并不是很高,它还存在很多问题,如事实性、时效性和理解程度。
所以应该做的不是焦虑、恐慌,而是跟上发展的浪潮,主动了解ChatGPT,以便更好地使用。
不能说完全不行,但要用它写出充满可读性的网文,需要比较精心的引导,目前还达不到给它一份大纲,它就能生成非常完美的一篇网文的程度。现在的情况更多的是,我们给它大纲,然后它生成一篇充满套路的文章。
也就是说:华丽的词藻,但是空洞的思想。未来互联网上的信息会更加膨胀,大家会更偏向看有质量的东西,那么ChatGPT生成的充满套路的文章肯定是行不通的。
AI首先是一个工具。从这个角度上来看,我们应该考虑到,工具和技术本身没有善恶,但它的使用角度可能会有问题。而且,人工智能这样一个工具,严重地依赖它的数据,还有它的生成过程。所以我们希望人类本着负责任的态度去使用它,这样大模型生成的内容也是相对负责任的。
另外一方面,就是我们日常担忧的AI问题。最近也有一些人在谈论,ChatGPT这类大语言模型,除了现在的仿造能力,将来会不会涌现其他新的能力,比如逻辑思维能力,这是今年热度很高的一个问题。
这也是我们目前正在研究的问题,如果有一天它真的出现逻辑思维的能力,或者开始出现类似于小孩的心智,那么可能会变成一个比较严重的问题。
这应该是对大模型的普遍担忧。第一个就是,数据公平的问题。有很多模型的训练集本身就没有公平,导致它产生的结果就是不公平的。
第二个是,它的答案可能是有害的。目前ChatGPT已经对很多领域都已经做出了限制,我们很少能看到有害的问题和有害的答案。但是如果有新的模型,它们可能没有做出限制,就很难避免。第三个是,现在AI界在强调的,我们要做负责任的AI。AI只是一种技术,但作为技术的生产商,需要让这个技术对人类负责任,它的每一个决定都不能随意。
568人已赞赏>
568人赞赏钛媒体文章钛粉30456 赞赏了不与雅迪、小牛抢饭吃,bsport体育appbsport体育app海归电动两轮车品牌「号外」卷...bsport体育app