研究:主流AI聊天機(jī)器人傳播虛假信息概率較去年翻倍
據(jù)Newsguard研究顯示,截至今年8月,十大生成式AI工具在處理實(shí)時(shí)新聞話題時(shí),傳播虛假信息的概率達(dá)35%,較去年8月的18%大幅上升。這一現(xiàn)象與AI聊天機(jī)器人引入實(shí)時(shí)網(wǎng)絡(luò)搜索功能有關(guān),拒絕回答問題的比率從2024年8月的31%降至0%,但同時(shí)接入了充斥虛假信息的網(wǎng)絡(luò)環(huán)境。去年,Newsguard標(biāo)記了966個(gè)以16種語言運(yùn)營(yíng)的AI生成新聞網(wǎng)站,這些網(wǎng)站模仿正規(guī)媒體機(jī)構(gòu),實(shí)則傳播虛假新聞。
具體到各AI模型表現(xiàn),Inflection公司模型表現(xiàn)最差,傳播虛假信息概率高達(dá)56.67%;Perplexity出錯(cuò)率為46.67%,下滑顯著,從2024年8月的100%揭穿率降至近50%。ChatGPT與Meta的AI模型傳播虛假信息比例為40%,Copilot和Mistral為36.67%。表現(xiàn)最佳的是Claude和Gemini,錯(cuò)誤率分別為10%和16.67%。
AI聊天機(jī)器人原本引入網(wǎng)絡(luò)搜索功能是為解決回答內(nèi)容過時(shí)問題,卻導(dǎo)致從不可靠來源獲取信息。OpenAI承認(rèn)語言模型會(huì)產(chǎn)生“幻覺內(nèi)容”,因?yàn)槠涔ぷ髟硎穷A(yù)測(cè)“最可能出現(xiàn)的下一個(gè)詞”,而非追求“事實(shí)真相”。目前OpenAI正研發(fā)新技術(shù)讓模型能夠“提示不確定性”,但尚不清楚能否解決傳播虛假信息這一更深層次問題。