眼下,一種“AI套娃”現(xiàn)象正在悄然蔓延——AI生成的內(nèi)容被另一批AI抓取、學習、再輸出,形成一場無限循環(huán)的“以訛傳訛”,帶來前所未有的真實性風險與信任危機。
“AI套娃”的核心病灶在于“垃圾進、垃圾出”的數(shù)據(jù)污染。一些虛假信息、謬誤觀點甚至惡意內(nèi)容,通過AI的“咀嚼消化”搖身一變甚至成為“權(quán)威答案”。有研究顯示,當訓練數(shù)據(jù)集中僅有0.01%的虛假文本時,模型輸出的有害內(nèi)容會增加11.2%。就像俄羅斯套娃層層嵌套,每一代AI都在復制上一次錯誤,形成累積性的認知偏差。
商業(yè)利益的驅(qū)使讓“AI套娃”愈演愈烈。一些機構(gòu)利用生成式引擎優(yōu)化技術,用AI批量炮制看似中立的營銷內(nèi)容,再通過算法推送給互聯(lián)網(wǎng)用戶。這種“以流量換利益”的模式,正在將互聯(lián)網(wǎng)變成AI的“垃圾食品加工廠”,而我們每個人都在被動接受這些“精神快餐”的投喂。
更荒誕的是,如今還出現(xiàn)“用AI打敗AI”的怪象。不少網(wǎng)友分享“如何將需求扔給模型A生成方案,再將生成方案讓模型B修改”的經(jīng)驗。不少老師吐槽,學生用AI完成作業(yè),再用AI降“AI率”,導致行文邏輯不通、辭藻空洞;學術圈同樣未能幸免,作者用AI潤色論文、審稿人再讓AI生成論文評審意見的例子并不罕見。一位大學教授痛心疾首:“我們正在培養(yǎng)一批不會思考的‘AI提線木偶’,他們能熟練操作模型,卻寫不出一句有獨立見解的話。”
誠然,AI可以幫助人們快速從海量數(shù)據(jù)中提取有價值的知識和信息,但不能忽視的是,AI在解決問題的同時,也正在成為問題本身?!癆I幻覺”本就難以根治,“AI套娃”更讓問題雪上加霜。一旦習慣于“AI套娃”,人們的獨立思考和信息甄別能力會出現(xiàn)退化,導致“AI越來越像人,而人越來越像AI”;以信任為基礎的評價體系被重創(chuàng),將帶來一系列社會倫理風險;而其形成的“回音室效應”,對于伴隨互聯(lián)網(wǎng)成長起來的年輕一代,危害尤甚。而醫(yī)療、法律等專業(yè)領域的“套娃”風險,更是關乎生死。整治“AI套娃”,勢在必行。
9月1日起施行的《人工智能生成合成內(nèi)容標識辦法》,明確要求AI生成內(nèi)容必須明確標識。這是一個開始,但遠非終點。相關部門要把好數(shù)據(jù)源頭關,明確要求AI研發(fā)機構(gòu)對訓練數(shù)據(jù)集的合規(guī)性與真實性負責,建立更嚴格的數(shù)據(jù)清洗、標注和溯源標準,推動大模型提升安全能力水平。平臺也應加強篩查和審核,對疑似AI生成的大規(guī)模同質(zhì)化、低質(zhì)或虛假內(nèi)容進行限流與標注,嚴防其污染公共信息生態(tài)。此外,教育、科研等機構(gòu)也需重塑考核評價方式,由“重成果輸出”向“重過程考查”轉(zhuǎn)變,重視考查學生或作者的思維過程、原始數(shù)據(jù)與創(chuàng)新性,同時設立“AI使用聲明與倫理規(guī)范”,并將此納入學術誠信管理范疇。
技術本身無罪,但技術再先進也不能替代人類的價值判斷。技術狂飆之時,我們需要的是更清醒的使用者、更負責任的企業(yè)、更嚴格的監(jiān)管以及更深刻的反思。錨定價值理性的坐標,守住數(shù)據(jù)源頭的純凈,筑牢內(nèi)容審核的防線,才能讓AI走出“套娃”怪圈,盡其善、利于民。(蘇群超、陳立民)