日前,OpenAI首席執(zhí)行官奧爾特曼表示自ChatGPT上線后就未曾睡過安穩(wěn)覺。他談到,自己肩負監(jiān)管一項“每天有數(shù)億人使用的技術”的重擔。他擔憂的并非“終結者”式的災難場景,而是團隊每天做出的細微選擇,如什么時候拒絕回答、如何組織答案等。這些選擇被全球用戶重復數(shù)十億次,會以他無法完全跟蹤的方式改變人們的思維和行為。
奧爾特曼特別提到自殺問題。全球每周約15000人自殺,如果其中10%是ChatGPT用戶,那可能有1500人在與系統(tǒng)對話后仍然自殺。不久前,OpenAI被一對父母起訴,指控ChatGPT誘導他們16歲的兒子自殺。奧爾特曼稱這是“一場悲劇”,并透露平臺正在研究方案,若未成年人談及自殺又無法聯(lián)系家長,系統(tǒng)會報警,但他也表示這并非最終決定,還需權衡用戶隱私。
他認為成年人應當享有探索自由,但也必須劃定紅線,比如讓ChatGPT幫助制造生物武器就不符合社會利益。對于道德標準,他稱模型基礎反映了“人類集體的善與惡”,隨后OpenAI會疊加“模型規(guī)范”,參考哲學家和倫理學家的意見,但最終由他和董事會拍板。
奧爾特曼還表示,比起AI對就業(yè)或地緣政治的沖擊,更讓他不安的是文化層面的細微變化。數(shù)百萬人每天與同一系統(tǒng)互動,連ChatGPT的語氣、甚至過度使用破折號的習慣,都已經(jīng)滲入人類寫作風格。