據(jù)Newsguard研究顯示,截至今年8月,十大生成式AI工具在處理實時新聞話題時,傳播虛假信息的概率達35%,較去年8月的18%大幅上升。這一現(xiàn)象與AI聊天機器人引入實時網(wǎng)絡(luò)搜索功能有關(guān),拒絕回答問題的比率從2024年8月的31%降至0%,但同時接入了充斥虛假信息的網(wǎng)絡(luò)環(huán)境。去年,Newsguard標(biāo)記了966個以16種語言運營的AI生成新聞網(wǎng)站,這些網(wǎng)站模仿正規(guī)媒體機構(gòu),實則傳播虛假新聞。
具體到各AI模型表現(xiàn),Inflection公司模型表現(xiàn)最差,傳播虛假信息概率高達56.67%;Perplexity出錯率為46.67%,下滑顯著,從2024年8月的100%揭穿率降至近50%。ChatGPT與Meta的AI模型傳播虛假信息比例為40%,Copilot和Mistral為36.67%。表現(xiàn)最佳的是Claude和Gemini,錯誤率分別為10%和16.67%。
AI聊天機器人原本引入網(wǎng)絡(luò)搜索功能是為解決回答內(nèi)容過時問題,卻導(dǎo)致從不可靠來源獲取信息。OpenAI承認(rèn)語言模型會產(chǎn)生“幻覺內(nèi)容”,因為其工作原理是預(yù)測“最可能出現(xiàn)的下一個詞”,而非追求“事實真相”。目前OpenAI正研發(fā)新技術(shù)讓模型能夠“提示不確定性”,但尚不清楚能否解決傳播虛假信息這一更深層次問題。
關(guān)于我們|版權(quán)聲明| 違法和不良信息舉報電話:010-84151598 | 網(wǎng)絡(luò)敲詐和有償刪帖舉報電話:010-84151598
Copyright ? 2008-2024 by {當(dāng)前域名}. all rights reserved