想刁难ChatGPT?没想到破防的是小编!权威专家科普来了!
2024-07-15 02:57:29智能制造解决方案

  大家想出各种各样奇奇怪怪的问题,尽情“投喂”给这款聊天机器人,看它如何给出或专业准确的回复,或驴头不对马嘴的搞笑答案。

  记者也出了些题让ChatGPT作答,一块儿来看看它的“小作文”写得怎么样吧!没想到,其中一篇,记者的小编同事被戳中痛点,破防了!

  对于特定采访对象,ChatGPT贴心设计了有明确的目的性的提问,可以说基本达到了记者们的应有水平吧。

  ChatGPT是懂新闻行业的!这描述也太生动贴切了吧,简直“人间真实”!

  它还对从事新闻工作的意义进行了升华,有小编看完后对记者表示,自己顿感肩头责任重大,看着看着,不禁眼眶一热,破防了!(强行与AI共鸣)

  从写工作周报、写求职信、回答公试题的情况去看,ChatGPT的表现还行。那么,它的工作原理是怎样的?

  根据OpenAI介绍,相比之前的GPT模型,其对ChatGPT采用了全新的训练方式,即为一种“从人类反馈中强化学习”的训练方式。

  这意味着,用户输入信息越多,ChatGPT深度学习、持续改进的机会也就越多,对人类语言的理解和“反刍”,也会慢慢的深刻。换言之,是广大新老用户义务帮OpenAI来“教”自家的“娃”。

  对此,中新网记者专访清华大学国强教授、智能产业研究院(AIR)首席研究员聂再清,对ChatGPT的创新性、特点以及应用前景等,进行深入解析。

  ChatGPT本质上是一个基于统计的语言模型。当然,它现在还只是一个语言模型,以后应当会慢慢地发展到多模态,比如为图片(拟出)对应文字,给出对图片的理解等。与人聊天只是它能力的一方面,更多地还是内容生成的能力,包括未来可能更多地把它运用到写作上。

  OpenAI官网介绍ChatGPT为一种“优化对话的语言模型”。图片来自:OpenAI官网截图

  大家或多或少接触过国内已有的一些语音聊天机器人,比如扫地机器人、语音智能助手等,ChatGPT与这类机器人相比,有哪些区别?

  之前的聊天机器人已经可以通过语音交互,帮用户完成很多重复性的工作。这类机器人在业界比较成功的应用,是运用基于任务型的对话,通过意图理解、槽值填充,把问题参数抽出来,然后去回答用户的问题,比如智能客服;或帮用户完成一个智能家居的操作,比如AIoT语音助手。

  它们更多是属于一些封闭域内任务完成型的机器人,通过对话真正去执行某些特定领域的功能,首先得把事情做对,才可以获得用户信任。这是这类机器人最关键的一项能力。

  ChatGPT更多地则是实现开放域的对话、输出写作内容等。跟以前的聊天机器人比,ChatGPT最让人印象非常深刻的就是能用像模像样的“人话”来回答几乎任何领域的用户问题,并对上下文有某些特定的程度的理解。

  一些人以 “从0到1”、“划时代的革命性突破” 来形容ChatGPT, 美国富豪埃隆马斯克也发文称“ChatGPT好得吓人”。您认为ChatGPT有那么厉害吗?其创新性体现在哪些方面?

  ChatGPT在算法层面一个较为重要的创新,就是把强化学习引入到大模型的训练和使用上。之前实现开放域对话的最大困难,在于用户输入的话题各种各样,任务空间太大,很难有足够的监督信号拿来训练。

  那么,如今ChatGPT通过利用人类反馈信号学习到的奖励模型(reward model),来为任意一个问题自动估算监督信号,充分的利用强化学习的尝试探索(exploration)能力来解决开放域任务空间太大的挑战。这是一个比较好的创新应用。它在回答开放域问题时基本上能做到逻辑上比较通畅,句式上也像模像样,这不是非常容易就能做到的。

  同时ChatGPT用到的GPT3.5,作为一个基础语言模型的质量也是非常高的。这需要大量的数据预处理工作,需要把各领域的语料整理好“喂”进大模型,在训练过程中不间断地积累能力,才能产生一个如此高效的基础语言模型。

  另一个较为重要的能力,就是ChatGPT能拒绝回答一些它判断为不适合回答的问题,懂得“拒绝”。实际上之前一些聊天机器人在设计时,也会谨慎处理一些比较敏感的问题,以及跟人类主流价值观不契合的内容。ChatGPT也在不断的提高这种能力,防范生产出敏感或有偏见的内容。

  ChatGPT的试用页面上,标注了偶尔可能输出错误、有害、有偏见信息;对2021年后的世界认知有限等说明。

  大家体验后发现,ChatGPT不是完美的,还是会出错,也就是“一本正经地胡说八道”。您认为它需要改进的方面有哪些?

  ChatGPT进行开放域聊天最大的好处,是它什么话题都接得住,能一直聊下去,有连续性。但最大的坏处是,有时用户无法判断它是不是正确。如果提问人对问题答案不了解的话,会觉得它答得不错;但对一些不常见,提问人又知道答案的问题,就会发现ChatGPT有可能用一本正经的口气,编出了错误答案。

  因此,不看具体知识点的话,ChatGPT似乎回答得很专业。但它目前难以真正理解和回答开放域里有具体知识点的问题,在处理开放域的问题上实际上还是基于概率,基于前一个值来生成下一个值。要通过图灵测试,还要继续努力。

  ChatGPT是把所有输入给它的信息复制、堆砌起来,还是能生成原创内容?它有“创造力”吗?

  可以视为ChatGPT是在搞创作,因为这是它经过大量学习后,基于概率自己产生的内容。让它写一封邮件、一首诗,也可以输出看上去“长得很像”用户所要求的东西。

  但比如去写论文、搞数学论证、去做实验并得出结果,它现在应该还没那么强大,还不能系统地提出具有创新性的观点,但是它输出的一些内容可能会对科研工作带来一些启发。

  在谁可能取代自己这样的一个问题上,ChatGPT列出了一些对象,中国企业华为的产品上榜。

  我认为我们特别有必要去构建像ChatGPT这样一个大的语言模型,中国需要有自己的这类产品。ChatGPT不光可以聊天、帮助写作,也是很多下游人工智能任务的基础模型(foundation model)。一些中国企业已经在跟进,相信接下来我们的祖国会出现类似的模型。但是具体功能和质量能否超越ChatGPT,需要等发布以后才知道。这要求我们的企业在资源和人才投入上有耐心,具备长远的眼光,不能太注重短期的商业回报。

  我认为,虽然有一些模板化、重复性的写作可以被ChatGPT取代,但应该说它还是作为人类的助手更合适。比如帮助用户在从事写作、写代码、商业提案、广告文案设计、翻译等工作时,可以大幅度提高他们的工作效率。

  它应当被用作一种提高效率的工具,成品终究是要人类来把关和确认。而且如果出了错,责任应该还是落到具体的人身上。

  用户向ChatGPT提问的问题,本身就带有信息量,向它输入信息,不排除有一定的信息泄露风险,包括信息跨境流动问题。这取决于这样的产品的研发人员、运营人员、数据管理者等,是否对有关信息进行了妥当处理,不让个人隐私等外泄,或用于其他用途。如果有问题,责任应由他们承担。

  看完专家的权威分析,再来看看我们还给ChatGPT布置了哪些有趣的“作业”吧!

  看到小帅、大壮、小美几个名字,你的耳畔有没有自动响起一段充满悬疑感的音乐?

  这首诗说明,对于博大精深的中华文化,ChatGPT还有很多东西要学习

  虽然知道ChatGPT是语言模型,记者还是想“逼”它画画,但是直接让它画,它回答做不到,最后记者用“打印”指令,让它“画”出了一只数码小猫,送给大家。

Copyright © 2018 乐鱼官网app平台游戏下载 All Rights Reserved
网站地图 备案信息: 湘ICP备14017517