美国军事新闻网站防务一号(Defense One)报导,兰德公司(RAND)专攻亚洲安全议题的政策分析家莫小龙(Nathan Beauchamp-Mustafaga)7日向记者表示:「有鉴于人民解放军与中国共产党先前的意图与先前的行为…从逻辑上来看,我们认为中国下一个目标将是台湾(2024年总统)选举。」

兰德研究人员在新发布的报告中写道,中国研究使用科技在关键目标地点改变或操控外国舆论至少可追溯到2005年,当时人民解放军研究人员率先「支持创造他们有时称为『合成资讯』的想法,也就是使用一些原始资讯捏造不实内容,意图在网路上散布恶意讯息」。

由于中国政府执迷于审查与封锁外国媒体频道等手段,中国在将假消息武器化上一直处于劣势,落后像俄罗斯等技术较纯熟的国家,但生成式人工智慧(generative AI)工具肯定将改这种局势。

报告提到:「ChatGPT等生成式AI(大型语言模式)能大规模弥合党国之间的这种文化鸿沟。然而,生成式AI仰赖大量的训练资料,将是人民解放军将著重的关键要点,人民解放军的资讯战研究人员甚至曾抱怨内部缺乏数据分享。」

这份报告提到中国AI研究人员李弼程的工作,他受命在中国寻找让AI应用于军事的层面。报告指出,李弼程「在人民解放军内的特殊重要性,从他2019年与311基地研究人员共同撰写一篇文章的这个事实可显而易见,而在那之前,台湾指控311基地透过社群媒体干预选举」。

具体而言,李弼程率领研究的是机器人对社群媒体的影响,并指出在现在,这类机器人很容易被侦测出来且没有说服力,因为它们不擅长驾驭语言,无法自行回答关于自己的简单生平问题。根据报告,李弼程目前在研究如何「改善语言模型的产出,以在生成文字上更妥善运用情绪,借此创造出更具说服力的合成文字」。

然而,生成式AI可以如何改变或影响对台湾的舆论呢?生成式AI工具可协助人民解放军创造大量似乎抱持特定观点或意见的假人格,因此塑造出特定意见或观点获得热烈支持的印象,但实际上并不是这样,这种现象有时候称为「带风向」(astroturfing)。然而,生成式AI可快速产生假的新闻报导、研究论文等报告,以假乱真。

示意图。路透社
示意图。路透社

兰德公司的国家安全与国防政策计划副主任威廉斯(Heather Williams)告诉记者:「谈到影像或影片时,人们经常想到深度伪造(deepfake),但生成式AI将让你拥有更可信的深度伪造效果,所以,如果你想要试著创造你想呈现的事实,但实际上却是谎言,如果使用这些工具,现在能非常轻松或未来可非常容易地办到。」

他说:「这些可能是如果我们所知的世界持续这么运转下去,未来将发生混乱或灾难的大肆预测,或者有小团体可能在控制事件或民政的阴谋论…由于这些第3代社群媒体操控工具能让行为恶劣者这么做,这些假讯息现在将变得更加可信。」

兰德研究人员说,他们没有确切资讯指出台湾将成为主要目标,但美国官员已警告,中国可能会在2027年前入侵台湾。至于中国未来几年会对台湾发起什么行动,台湾2024年总统大选可能将产生重大影响。(中央社)


點擊閱讀下一則新聞 點擊閱讀下一則新聞

好一场「海上不期而遇」!路透社:美台海军执行未公开「军事演习」