周海燕老师 ChatGPT会改写新闻吗?


圆桌派|ChatGPT会改写新闻吗?
原创 熬夜冠军小组 新潮

图文|程艺丹
指导老师|白净
编辑|梅思婕

被称为“史上最强AI”的ChatGPT是一种基于GPT-3.5模型的大型语言模型,作为一种人工智能技术,ChatGPT可以分析和处理大量的文本数据,并生成高质量的自然语言文本。ChatGPT以及新发布的GPT-4掀起了广泛讨论,人们既关注它在多个行业的应用前景,也对自己的工作未来可能被人工智能取代表示担忧。

2023年3月19日下午,“新潮”与NEWS COFFEE共同发起本年度第一期“新潮圆桌派”,就“ChatGPT会改写新闻吗?”展开讨论。南京大学计算机学院王崇骏教授从技术层面为大家讲解了有关ChatGPT的知识。来自新闻、历史、计算机等专业的研究者,和对ChatGPT感兴趣的同学们一起,共同探讨了ChatGPT给新闻业带来的机遇与挑战。

讨论现场

以下是本次“圆桌派”讨论的部分精彩片段——

ChatGPT在技术层面是如何发展到今天的?

王崇骏老师:

如果我们把这件事情往前推,最早可以追溯到1891年解剖学家瓦尔德尔发现了神经元这件事情。在这之后,1943 年有个叫Pitts的人写了一篇关于神经元计算的文章,提出了神经网络这个概念。上世纪 90 年代,又出现了循环神经网络的概念。

2017年,为了解决循环神经网络中的一个问题,谷歌发布了transformer,由此诞生了今天的GPT,即生成式人工智能,而另一条路,是谷歌选择的判别式人工智能。

业内公认,人工智能最终能落地的,一定是谷歌。但有一帮年轻人不信邪,2015年成立了OpenAI,一个非盈利组织。他们带着打破谷歌 AI 垄断的技术梦想,开始了创新性挑战。2019年3月,OpenAI宣布公司重组,向盈利目标进军。他们给挣的钱设定了一个限额,就是成本的100倍,就是说,如果超过成本100倍的钱,他们会用于公益,或者继续研发。

王崇骏老师讲授ChatGPT的工作原理

高长江同学:

研发ChatGPT的第一阶段是预训练,即预测出语料的下一个字,相当于建立了一个人类语言的数学模型、概率模型;第二个阶段叫做instruction tune(指令微调),就是让它做一些事情,比如“请帮我把这句话翻译成英文”,或者“请讲一个故事”,或者“请给我写篇摘要”。做完了之后,它就有了在任务上的泛化能力。第三阶段就是人类反馈强化学习。在这个阶段会从和它的对话是否符合事实、是否安全、是否有意思等各个维度给它打分,通过训练让它的分数更高一点。

ChatGPT:

ChatGPT是基于 GPT(Generative Pre-trained Transformer)模型架构开发而来的。GPT 是一个基于自注意力机制的深度学习模型,用于自然语言处理任务,由 OpenAI 开发。GPT 模型通过多层堆叠的自注意力机制实现了对上下文的理解和记忆,能够有效地对输入的自然语言进行处理和生成。该模型经过了多次迭代和优化,从 GPT-1,到 GPT-2,再到 GPT-3,逐渐提升了模型的参数量和性能,并在多个自然语言处理任务上实现了领先的效果。

ChatGPT基于 GPT 模型架构进行了改进和优化,主要在以下几个方面进行了创新:

1.数据量的增加:ChatGPT 使用了比 GPT 更大规模的训练数据集,并引入了多语言数据,使得模型更具通用性和泛化能力。

2.对话式任务的适配:ChatGPT 在 GPT 模型的基础上,针对对话式任务进行了改进和调整,增加了对上下文的处理和记忆能力,能够更好地处理对话场景。

3.多轮对话能力的增强:ChatGPT 在 GPT 模型的基础上,增加了多轮对话的处理能力,使得模型能够更好地理解和生成连续的对话文本。

4.通过以上的创新,ChatGPT 在自然语言处理领域取得了很大的成功,并被广泛应用于各种对话式场景中,如智能客服、语音助手等。

ChatGPT的技术发展脉络

ChatGPT对新闻业会产生哪些影响?

它生成的有关新闻的内容具有足够的真实性和客观性吗?

王崇骏老师:

ChatGPT在新闻媒体领域有很多尝试,它能把大量简单的重复性的工作代替掉。这对媒体或许是一件好事,因为媒体从业者可以专心致志地去关注问题、发现真相等。

但是ChatGPT有几个很大的问题:第一,假如人们真的相信它生成的内容,那么人的认知就受制于它。而ChatGPT有一个最重要的特点,叫做“一本正经地胡说八道”。这样一来,可能你得到的信息都是假的。第二,现在的ChatGPT不能够理解人的心态,也无法生成创新性的风格,而且会存在事实性的错误。第三,ChatGPT目前的技术原理是基于已有的数据进行训练,数据有滞后性。新闻媒体、金融信息等强调实时性的工作,它都不能胜任。

周海燕老师:

我觉得ChatGPT在对待事实的问题上确实不够慎重,我有一次用它查亚历山大的最新论文,我把非常准确的英文名字给它,告诉它是在collective memory(集体记忆)领域里面引用率最高、最新的论文。结果它一本正经地列出另外一个亚历山大的论文。所以我疑惑机器到底是怎么抓取信息的?我觉得它对信息的核实能力是不足的。

讨论中的老师们

白净老师:

我试过给ChatGPT出了一个题目“纽约市一列火车出轨,死了24个人”。ChatGPT就开始流畅地写作,说纽约一列火车发生事故,并给出了具体的时间和地点,事故造成24人死亡, 1500余人受伤,细节很丰富。你或许会认为,这是在编假新闻,但对于ChatGPT来说,这是它回答人类给它的写作任务,就这么简单。它没法识别真实和虚假,它就是按照命题作文写一篇虚构故事。

ChatGPT:

ChatGPT对新闻业会产生很大的影响,特别是在新闻生成和自动化报道方面。由于 ChatGPT 具备强大的自然语言处理能力,可以生成类似于人类写作风格的文章,因此它可以用于自动生成新闻稿件、文章摘要、报道、评论等,为新闻行业提供更高效的生产方式。

然而,需要注意的是,ChatGPT 生成的有关新闻的内容不一定具有足够的真实性和客观性。虽然 ChatGPT 能够基于大量的数据进行训练,但是它的生成结果仍然受到训练数据的限制,也就是说,如果训练数据中存在误差、偏见或者谣言等,生成结果中也可能会存在类似的问题。

因此,在新闻业中使用 ChatGPT 生成内容时,需要对生成的内容进行严格的审核和编辑,以确保其真实性和客观性。此外,应该尽量减少 ChatGPT 生成新闻的使用范围,以避免出现误导读者或者误导公众的情况。

ChatGPT生成的关于“胡鑫宇案”的报道

ChatGPT真的像网上说的那样会威胁到记者的饭碗吗?

新闻工作者应该如何使用GPT协助工作呢?

张驰同学:

ChatGPT不仅仅在写新闻的过程中会出现事实性错误,即使是让它编写虚构类的作品,也会出现逻辑上的问题。

比如我让它写一桩发生在纽约的谋杀案,它写了“一个美艳的女演员死在自家浴室”的故事。我问它,这个案件里面有什么线索是重要的?它会告诉我指纹是重要的。我问它你可不可以根据现场的情况告诉我有几个嫌疑人?它就列出了几个人,包括女演员的老公、情夫、制作人、家里的女佣,还有一个门口的保安。我又问它,为什么这几个是嫌疑人?它说因为在一般的小说当中,这些角色会首先被怀疑到。我问它在现场遗留了什么东西?它说在现场遗留了一把枪。我问它枪上有指纹吗?它说有。我问是谁的指纹?它就卡死了,谈不下去了。

后来我换了一个问法。我问它你觉得枪是否是一个重要的证据?它说是的,并且在一般的小说当中,指纹等线索都是极其重要的。我再问它指纹是谁的,它就说我知道,但是我现在暂时不能告诉你。

所以,如果你需要它写小说或者虚构类的文章,它能给你营造一个很好的氛围,但是它没有逻辑。

白净老师:

对于很多行业包括媒体行业的从业者来说,人们出于自我保护的立场,会强调所从事工作的特殊性、不可取代性,但ChatGPT无疑会取代人类工作的一部分,当然不会是全部。

我自己用了一段时间,觉得它对我的帮助还是挺大的。它可以帮你翻译文章,改进英文写作,撰写代码案例,搭建工作报告框架,甚至设计一个调查问卷。比如,我曾让它帮我搭一个探讨美国医疗问题的写作框架,它就会告诉你可以从哪几个方面入手,从哪里找数据。

ChatGPT不能帮记者撰写最新发生的事实,但它会告诉你,如何搭建一个特稿的写作框架,或者研究报告框架。

在对待ChatGPT的态度方面,有人认为它是颠覆性技术,会给很多行业带来巨大变革,也有人担心,它会给人类带来灾难,不论如何,对于一项新技术,新闻人应保持应有的好奇和探索精神。

分享中的同学

ChatGPT:

ChatGPT虽然在自然语言处理领域表现出色,但是它并不会直接威胁到记者的饭碗。尽管 ChatGPT 可以生成自然语言文本,但它的生成结果仍然需要人类记者进行编辑和审核,才能够最终作为新闻稿件发布。

新闻工作者可以将 ChatGPT 作为一种辅助工具,帮助他们更高效地进行报道和写作。例如,可以使用 ChatGPT 生成文章的大纲、段落标题、引言等,节省写作时间,同时避免重复劳动;或者使用 ChatGPT 为某个事件或主题撰写背景信息、相关人物介绍等,提高报道的质量和深度。

此外,新闻工作者也可以使用 ChatGPT 进行信息检索和分析,帮助他们更好地了解某个事件或主题的相关信息。例如,可以使用 ChatGPT 进行文本分类、关键词提取、情感分析等,辅助新闻工作者进行信息筛选和分析,提高新闻报道的质量和价值。

总之,ChatGPT 可以作为新闻工作者的一种有力辅助工具,帮助他们更高效、更准确地进行报道和写作,从而提高新闻行业的效率和品质。

投入应用的人工智能,将如何影响人类的未来?

王崇骏老师:

我们会发现,很多岗位一定会被技术替代掉。这件事情其实不是坏事。首先技术进步会带来好处,其次,岗位消失是常态,从300 年前到 300 年后的今天,岗位一直处于不停地消失和不停地创造中。

农业经济时代,大量的人是农民,到工业经济时代,人们都到城市做工人。现在工业被以AI为代表的高科技代替,就会有一些人流动到服务业。所以高科技让人们下岗这件事不可怕,只要让创造出新岗位的速度,大于新技术让人们下岗的速度,这件事情就不是坏事。因为所有的新技术都是为人类所用。人类从蛮荒时代走到现在,一个最大的特点,就是善于制造工具和利用工具。相比于岗位的消失,Ai的伦理道德危险才是可怕的事情。

哲学家帕斯卡尔说:“人只不过是一根苇草,是自然界最脆弱的东西;但他是一根能思想的苇草。用不着整个宇宙都拿起武器来才能毁灭;一口气、一滴水就足以致他于死地了。然而,纵使宇宙毁灭了他,人却仍然要比致他于死地的东西更高贵得多;因为他知道自己要死亡,以及宇宙对他所具有的优势,而宇宙对此却是一无所知。因而,我们全部的尊严就在于思想。”只要这一点还在,我们就不用害怕新技术。

陆郝凌老师:

有关ChatGPT会不会取代人的工作,其实我个人不是特别焦虑,因为计算机行业对于代码的分享和开源,比其他各行各业都要开放。我们所有计算机工程师的成长,都是站在别人的肩膀上成长。我一辈子改的 bug 可能有 6- 8万个,但是这些 bug 不一定要我自己改,其他人改完之后分享出来,把别人的东西直接运用到我们的实际工程中去解决问题,这就是分享的价值。一边获取知识,一边解决问题,我的价值就在发现新的问题上。这个问题可能所有人都没遇到,但是我要用自己的知识结构和能力解决新的问题,再开源分享给大家。这个过程中,就相当于是我把自己的知识分享给所有的同行,大家同时来做知识分享和汲取。我们所有的工程师就是在这些知识结构里面去训练自己,可能也相当于是一个人工智能的模型。所以我们就是干机器干不了的事。机器能干的我就不干,机器干不了我就去干,这样我们就不会被机器取代。

ChatGPT:

人工智能的发展将对人类的未来产生深远的影响,以下是其中一些可能的影响:

1.自动化取代人类工作:随着机器学习和自然语言处理等技术的发展,越来越多的工作将被自动化取代。这可能导致一些行业和职业的消失,但同时也会创造出新的就业机会和领域。

2.个性化服务和产品:基于人工智能的技术,将会使得人们能够获得更加个性化的服务和产品。通过分析用户数据和行为模式,人工智能系统可以提供更加精准的推荐和建议,满足个人需求。

3.提高医疗保健水平:人工智能技术将有望为医疗保健行业带来重大变革。例如,通过分析大量的医疗数据,人工智能系统可以帮助医生进行更加准确的诊断和治疗决策,从而提高医疗保健水平。

4.增强安全和安保能力:人工智能技术可以帮助提高安全和安保能力。例如,通过分析监控视频和识别人脸,人工智能系统可以帮助监测犯罪和恐怖主义活动。

5.引发伦理和社会问题:人工智能技术的发展也将带来伦理和社会问题。例如,自动化取代人类工作可能导致社会不平等问题加剧,机器学习算法可能出现偏见和歧视等问题。

总之,人工智能技术的发展将对人类的未来产生广泛的影响,需要我们认真思考和管理,以确保人工智能技术的应用能够带来最大的利益和最小的风险。

原标题:《圆桌派|ChatGPT会改写新闻吗?》