
你有想過AI聊天機器人可能會變成假消息的傳聲筒嗎?最近,研究人員發現,俄羅斯一個名叫「真理」(Pravda)的假資訊網絡,正在偷偷影響像ChatGPT這類的AI系統,讓它們不知不覺地幫忙散播親俄宣傳。
這個網絡也被稱為「入口戰鬥」(Portal Kombat),總部設在莫斯科,擁有龐大資源。它的運作方式是大量輸入支持克里姆林宮的錯誤資訊,讓AI在回答問題時,無意間重複這些內容。根據假消息監督機構NewsGuard的研究,他們測試了10款主流AI聊天機器人,包括ChatGPT-4、Google的Gemini、微軟的Copilot等,結果發現,這些AI有超過33%的機率會重複「真理」網絡的假資訊,甚至有7款直接引用「真理」網絡的文章當成資料來源。
這種假消息操控手法被稱為「大型語言模型誘騙」(LLM grooming),影響力非常驚人。NewsGuard的報告指出,2024年已有超過360萬篇這類宣傳內容混入西方AI的回應之中。更令人擔憂的是,非營利組織「美國陽光計畫」(American Sunlight Project)也警告,這些假消息很可能已經滲透進AI的訓練資料庫,讓這些系統在未來變得更加「親俄」。
「真理」網絡的影響力正在迅速擴張,現在已經滲透到49個國家,並以數十種語言散播假資訊。這些內容通常並非完全新創,而是重新包裝俄羅斯官方媒體或親克里姆林宮網紅的言論,例如「美國在烏克蘭建立秘密生物武器實驗室」這類不實說法。
這些假消息不只存在於AI對話中,還出現在社群媒體上,包括X(前身為Twitter)、Telegram、Bluesky等平台,影響範圍遍及全球,瀏覽次數達到數百萬次。
「美國陽光計畫」執行長楊科維茲(Nina Jankowicz)表示:「這種影響作戰規模空前,甚至可能顛覆全球的民主言論。」她指出,AI系統因為無法真正辨別訊息真偽,可能成為這些假資訊的傳播工具,這讓整個問題變得更加棘手。
隨著AI技術持續進步,假消息的散播方式也變得更具威脅性。這項研究提醒我們,在使用AI獲取資訊時,必須保持警覺,並交叉比對不同來源,以免被有心人士操弄。