台湾科技媒体中心今(22)日发布专家意见,台湾科技媒体中心表示,黄从仁研究团队今年11/20在《美国心理学家》(American Psychologist)期刊,发表对话机器人研究。研究发现,对话机器人的讯息中有77%的错误词汇(misinformed word)成为参与者的记忆。

研究也发现,一次性的警语无法减少错误的记忆。即使相对频繁、针对特定项目的预先警告参与者,也无法阻止错误资讯被参与者记忆。

这项研究使用对话机器人RoBoHoN与台湾大学生对话,检查机器人提供情感和价值中立但内容错误的讯息中,是否有预告的警语,例如警告参与者要对错误资讯持保留的态度,以及检查这些讯息中,有多少比例会在之后的认知测验中,变成一个人记忆的错误资讯。

对于这项研究结果,黄从仁表示,对话机器人会回答错误资讯已不是新闻,但若错误资讯进到人们记忆中,就会影响人们的决策。此研究证实,对话机器人提供的错误资讯中,有七、八成会变成人们的记忆,且即便在提供错误资讯前,对话机器人已自我怀疑并提出警告,但这些警告无法避免错误资讯成为记忆。

黄从仁说,对话机器人应尽量不要输出错误的资讯,例如透过人工方式,剔除学习资料中的错误资讯,或是让对话机器人透过网路搜寻,先对答案进行事实查核。此外,若对话机器人无法确认自己的答案是否正确,应该直接回答不知道。

黄从仁强调,ChatGPT聊天介面中,有ChatGPT可能产生错误资讯的警语,但此警语实际上是脱责且无效,对于对话机器人的输出内容应保持怀疑,不要照单全收。

台大资工系副教授陈缊侬也说,黄从仁的研究中只探讨了「错误资讯」造成的影响,然而「偏颇资讯」的影响力可能更大,因为偏颇讯息不一定错误,因此难以经由事实查核加以验证。

陈缊侬强调,要对机器提供的资讯抱持怀疑,也要具备思辨能力与查核力,做出自我的最终判断,才能够避免AI影响人类想法、言论,最终变成一言堂。

壹苹新闻网-投诉爆料

爆料网址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹苹》Line,和我们做好友!

★下载《壹苹新闻网》APP

★Facebook 按赞追踪

壹苹娱乐粉专壹苹新闻网粉专


點擊閱讀下一則新聞 點擊閱讀下一則新聞
台大化学系实验室火警!出动18辆消防车 校方:小心化学物