8月21日-23日,第19届红辣椒时评研讨会在湖南长沙召开,来自全国各地的近百名国内知名评论员、高校学者、评委代表,以及红网评论作者代表齐聚一堂,围绕新时代时评发展展开讨论。
以下为中国人民大学新闻学院副教授杨奇光在会上的发言摘编:
可能两三年前我们还在谈这个元宇宙,但是我们这两三年时间已经经历了大模型,从文字大模型到视频大模型,比如说sora。到现在还有学者提出了文生世界大模型,就是我们不管它是文字还是视频,还是图像,我们整个世界都可以用模型来生成,这就叫文生世界大模型。所以大模型的不断迭代也使得我们的新闻评论,它的这个多模态,音频的、视频的、短视频、长视频的都可能提升了生产效率。当然这是从积极的层面来看。但是作为教评论、写评论、研究评论的,从学术研究的角度,其实我们还是要做出一些反思。
第一个方面,就是大模型带给新闻评论的,最大的一个bug就是深度和独到性的问题。所以不管是是否取代还是怎么样,至少目前我们的这个大模型它所表现出来的这个深度还是不够的,同质化的现象还是比较严重的。
那么第二个其实也是更为严峻的问题,就是大模型生成的观点文本当中,包含着大量的事实错误和逻辑混乱的问题。这个为什么呢?这主要是因为数据库的原因。我在课堂的时候也带着学生去试验,去给这个大模型发指令,比如说对某新闻事件,你先做出一个新闻文本本身、新闻消息的一个摘要,然后围绕新闻摘要你去生成观点,接着根据你生成的观点去产生论证。我们大概有这三步指令性的动作,但是你会发现,这里面他所依托的文本,是来自于互联网这样的一个非常驳杂的空间,那么事实晚于观点、情绪压倒真相、态度决定了立场。所以面对如此复杂和混乱的文本库,大模型的观点的生成,也可能会导致一些事实错误甚至是一些有害信息。这里面我们也在谈论ai安全的问题,可能有一些出于某种利益把它植入到了这个模型当中,可能还有一些危害性的言论也会被大模型生成。
除此之外,其实还有一个更大的挑战,是发生在评论区。可能有很多专家,也关注到了我们的评论区。其实评论区里的评论未必是真实的人类写的评论,我们很多这种chatbot聊天机器人,都已经每一天在占领着我们的评论区,有的时候你看到的那些言论非常耸人听闻,甚至挑战你的三观,它的背后有可能是机器。所以在这个复杂的国际环境、舆论场的环境当中,对于机器生成的这种信息,特别是这种观点性的信息,其实我们的人类主体还是有非常重要的一种存在的价值。
(本文据录音整理,未经本人审阅)
来源:红网
作者:红辣椒评论
编辑:唐盈
本文为尊龙凯时首页 原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。