伊人成人在线,超薄丝袜足交,无码无套少妇18p在线直播,亚洲 sss

 
  • 當(dāng)前位置: 當(dāng)前位置:首頁>保山>LLM會(huì)夢到AI智能體嗎?不,是睡著了也要加班正文

    LLM會(huì)夢到AI智能體嗎?不,是睡著了也要加班

    作者:幾度夢回大唐R 來源:保山 瀏覽: 【】 發(fā)布時(shí)間:2025-09-16評(píng)論數(shù):

    新智元報(bào)道

    編輯:傾傾

    【新智元導(dǎo)讀】人類的大腦,會(huì)在夢里篩選記憶。如今,AI也開始學(xué)會(huì)在「睡眠」中整理、保存,甚至遺忘。Bilt部署數(shù)百萬智能體,讓科幻小說里的設(shè)問——「仿生人會(huì)夢見電子羊嗎?」——逐步成真。那么,當(dāng)AI也能選擇忘記時(shí),它會(huì)變得更像人,還是更陌生?

    幾十年前,菲利普·迪克提出了一個(gè)看似荒誕,卻直擊人心的問題:

    「仿生人會(huì)夢見電子羊嗎?」

    如果機(jī)器也能做夢,它們夢見的,會(huì)不會(huì)是人類記憶的殘影?

    半個(gè)世紀(jì)后,這個(gè)問題正在以另一種方式被回應(yīng)。

    人類在睡眠中整理記憶,而今天,一些AI也開始「學(xué)會(huì)」這樣做。

    AI也會(huì)「做夢」

    睡眠中的記憶整理實(shí)驗(yàn)

    對(duì)人類來說,睡眠不僅是休息,更是一次「后臺(tái)整理」。

    大腦會(huì)自動(dòng)把白天的精力歸檔:記住重要的,忘記無關(guān)的。

    在今天,這個(gè)問題正在以另一種方式被回應(yīng)。

    Bilt公司,最近部署了數(shù)百萬個(gè)AI智能體,并為他們安排了「睡眠時(shí)間」。

    在這段時(shí)間里,AI會(huì)停下對(duì)話,啟動(dòng)「睡眠計(jì)算」(sleeptime compute)的機(jī)制,像人腦一樣整理記憶。

    它們會(huì)評(píng)估過往的互動(dòng),決定哪些內(nèi)容進(jìn)入長期記憶庫,哪些放在快速提取區(qū)。

    Fast Company指出,這不僅是模仿人類的夢,更是主動(dòng)智能的開端:

    AI 不再被動(dòng)回答,而是在睡眠中「預(yù)演未來」,在推理任務(wù)上展現(xiàn)出更高的效率與更低的成本

    這種看似科幻的實(shí)驗(yàn),讓「AI會(huì)做夢」不再只是文學(xué)隱喻,而是正在發(fā)生的現(xiàn)實(shí)。

    從人腦到AI

    記憶機(jī)制的巨大差距

    人類大腦的記憶,就像一塊不斷吸水的海綿。

    這意味著,人類不僅能記住事情本身,還能帶著情緒權(quán)重來篩選信息,并且能在不知不覺中提煉重點(diǎn),把情緒、場景、細(xì)節(jié)打包成長期經(jīng)驗(yàn)。

    而AI的大腦遠(yuǎn)沒這么靈活。

    它們的「記憶」取決于上下文窗口——它只能調(diào)用輸入的信息。

    即便GPT-4 Turbo的上限是128k tokens,也不過相當(dāng)于幾百頁書。

    相比之下,人腦的容量被估算高達(dá)2.5PB(250萬GB)。

    因此,想讓AI記得上次說了什么,就需要把內(nèi)容再輸入一遍。

    但問題是,上下文窗口長度有限。

    如果信息量太大,AI就容易「過載」:邏輯混亂、答非所問、憑空幻覺。

    相比之下,人類不僅能牢牢記住重要信息,還能在需要時(shí)靈活調(diào)用。

    正如Letta的CEO Charles Packer所說:

    人類大腦會(huì)因?yàn)椴粩辔斩M(jìn)化,但語言模型在同一個(gè)上下文里循環(huán)太久,只會(huì)被污染,越跑越偏,直到不得不重置。

    這意味著,人類的「夢境」能讓我們更清醒,而AI的「上下文」卻常常讓它迷失。

    Bilt+Letta

    百萬智能體的「睡眠計(jì)算」

    在Bilt的實(shí)驗(yàn)中,睡眠計(jì)算是核心。

    數(shù)百萬AI智能體同時(shí)運(yùn)行時(shí),大部分其實(shí)都處于空閑狀態(tài)

    這些智能體會(huì)在后臺(tái)進(jìn)入一種「休眠」?fàn)顟B(tài),暫停與用戶的交互,轉(zhuǎn)而對(duì)過去的對(duì)話和經(jīng)驗(yàn)做一次系統(tǒng)化梳理。

    它們會(huì)自動(dòng)區(qū)分兩類信息:

    第一類:長期記憶。像用戶的偏好、歷史記錄、關(guān)鍵事件,這些會(huì)被牢固保存。

    第二類:快速提取。更短期、臨時(shí)性的信息,可以隨時(shí)調(diào)用,也能很快被替換。

    在 Letta 的演示中,用戶Chad的偏好最初是零碎的描述:

    Chad 喜歡藍(lán)色,比藍(lán)色更喜歡紅色,最喜歡灰色,討厭綠色。

    經(jīng)過睡眠計(jì)算后,這些信息被整理成清晰的偏好表。

    這就像把零散的對(duì)話記錄壓縮成一份長期「記憶檔案」。

    圖:睡眠代理整理用戶輸入的內(nèi)容,并把用戶對(duì)顏色的喜好排序

    更具顛覆性的是,這兩個(gè)區(qū)間并非孤立存在。

    Letta的技術(shù)支持對(duì)某一個(gè)「記憶塊」進(jìn)行單點(diǎn)更新,隨后數(shù)十萬智能體的行為便會(huì)隨之改變。

    這意味著,AI個(gè)體之間的「經(jīng)驗(yàn)」是可共享的。

    正如 Bilt 的工程師 Andrew Fitz 所說:

    「我們可以通過一次更新,就讓整個(gè)系統(tǒng)的表現(xiàn)發(fā)生連鎖變化?!?/p>

    根據(jù)Letta的介紹,該機(jī)制采用的是「主代理+睡眠代理」的架構(gòu)。

    前者負(fù)責(zé)實(shí)時(shí)交互,后者在后臺(tái)持續(xù)整理記憶,把信息寫入共享的memory blocks,讓AI在「醒來」后擁有更清晰、更穩(wěn)定的認(rèn)知。

    對(duì)此,F(xiàn)ast Company評(píng)論道:

    這不僅是模仿人類的夢境,更是「主動(dòng)智能」(proactive intelligence) 的雛形。

    AI 不再只是被動(dòng)回答,而是在睡眠中提前優(yōu)化推理策略。

    實(shí)驗(yàn)顯示,在數(shù)學(xué)和邏輯測試中,應(yīng)用睡眠計(jì)算的模型表現(xiàn)更好,推理時(shí)間和成本也顯著下降。

    如果說人類的夢境是私密的,那AI的「睡眠記憶」更像是一場同步的大規(guī)模演練。

    從健忘到記憶

    AI的短板與突圍

    越來越多的用戶抱怨AI健忘、答非所問,甚至編造「回憶」。

    不少研究者認(rèn)為,記憶缺陷是限制AI智能與穩(wěn)定的根源。

    如果沒有穩(wěn)定可靠的記憶,AI無法形成真正的個(gè)性化與長期價(jià)值。

    也正因如此,「提高記憶力」成為行業(yè)的集體突圍方向。

    LangChain的CEO Harrison Chase把記憶視為「上下文工程的核心」。

    他認(rèn)為,AI的智能很大程度取決于開發(fā)者選擇放進(jìn)上下文的信息。

    LangChain因此提供了不同的記憶存儲(chǔ)機(jī)制,從用戶長期畫像到近期交互記錄,都能靈活調(diào)用。

    對(duì)此,OpenAI也在嘗試。

    今年2月,它宣布ChatGPT將具備記憶功能,能在多輪對(duì)話中逐步學(xué)習(xí)用戶偏好——只不過細(xì)節(jié)并未公開。

    與此不同的是,Letta和LangChain把「記憶回調(diào)」的過程完全透明化,方便工程師理解和管理。

    AI托管平臺(tái)Hugging Face的CEO Clem Delangue也強(qiáng)調(diào):

    「不僅模型需要開放,記憶系統(tǒng)也必須開放?!?/p>

    MemGPT則在探索如何把短期與長期記憶區(qū)分開,避免AI被「污染」。

    這套思路后來被Letta進(jìn)一步擴(kuò)展,用在了大規(guī)模智能體的「睡眠計(jì)算」中。

    可以說,「誰先解決記憶問題,誰就更接近下一個(gè)AI時(shí)代」。

    學(xué)會(huì)遺忘

    AI未來的關(guān)鍵一步

    在大多數(shù)人眼里,AI的進(jìn)化意味著要「記住更多」。

    但Charles Packer卻提出另一種思路:

    AI不僅要會(huì)記,還要學(xué)會(huì)忘。

    在人類世界,遺忘是進(jìn)化出優(yōu)勢。

    研究顯示,睡眠中的「智能忘卻」能幫助大腦抑制無效信息,把注意力集中在真正重要的片段上。

    如果沒有遺忘,我們的大腦就會(huì)像塞滿文件的硬盤,總有一天會(huì)崩潰。

    而對(duì)于AI來說,這是它面臨的另一難題:災(zāi)難性遺忘(catastrophic forgetting)

    因?yàn)?,AI的神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)新任務(wù)時(shí),往往會(huì)覆蓋舊知識(shí) 。

    這和人類的「選擇性遺忘」不同,它是一種有層次的、可控的機(jī)制。

    因此,未來的 AI 需要發(fā)展出「人工遺忘」。

    當(dāng)用戶對(duì)AI說「把那個(gè)項(xiàng)目刪掉,不要再記了」,未來AI的回應(yīng)不止是停止調(diào)用這段記憶,還能追溯性地清除所有相關(guān)內(nèi)容。

    即使是AI,也必須學(xué)會(huì)刪除涉及敏感或過時(shí)的信息。

    在歐洲,「被遺忘權(quán)(Right to Be Forgotten)」已寫進(jìn)隱私法規(guī)。

    這不僅是技術(shù)挑戰(zhàn),更是倫理問題。

    那么,誰有權(quán)利決定AI記得什么、忘記什么?

    當(dāng)遺忘成為可能,它會(huì)帶來更安全的使用體驗(yàn),還是新的操控手段?

    或許,真正讓AI更像人的,不是「永不遺忘」,而是「學(xué)會(huì)遺忘」。

    參考資料:

    https://www.wired.com/story/sleeptime-compute-chatbots-memory/

    https://www.fastcompany.com/91368307/why-sleep-time-compute-is-the-next-big-leap-in-ai?utm_source=chatgpt.com

    https://www.letta.com/blog/sleep-time-compute?utm_source=chatgpt.com