AI擬人化 與 ELIZA效應 20250107,我們探討了 AI 擬人化的起源與影響,從 ELIZA 程式到現代的 ChatGPT,說明人類如何將 AI 投射為有情感與意圖的存在。ELIZA 效應提醒我們保持理性,善用 AI 工具而非過度依賴。需警惕不過度擬人化,避免錯誤影響判斷。

AI擬人化 與 ELIZA效應 影片
今天我們來討論AI擬人化
也就是把AI當人之後會有哪些影響
另外也要討論一下
很久以前的一個程式叫做Eliza
而也發出了Eliza效應
其實這些內容就是在
萬維綱老師拐點這本書的第四章第二節
我們今天會搭配這個章節內容
以及延伸的部分一直討論下去
對了~我是亞瑟我有三高
禮拜一到禮拜五我都會日更這個頻道
去分享每一天學會的點點滴滴
如果你有興趣的話請跟我繼續往下看
擬人化的起源

- 伊莉莎效應
- 1966年ELIZA程式
- 擬人化現象人
- ELIZA初期案例
- 匿名社群/AI伴侶
https://www.books.com.tw/products/CN11963950
今天我們要聊的是萬維鋼老師的《拐點》這本書,特別是第四章第二節中提到的 AI 擬人化現象。在這部分,萬老師深入探討了「伊莉莎效應」(The ELIZA Effect),
這是一個經典的心理學現象,可以説明人類如何容易將不是人類的物體,尤其是 AI,賦予情感與意圖,甚至誤以為它們具備人類的理解能力。
這種現象讓我想到現在的匿名社群,比如 PTT、Dcard 或 Threads,很多人會匿名分享故事和心情,想讓人看見卻又不想被認出。
同樣地,現在有了 ChatGPT 和 AI 工具後,出現了像 AI 虛擬伴侶、AI 男朋友或女朋友這樣的趨勢,甚至還有 AI 樹洞。這些更擬人化的設計,更容易讓人投入情感。
接下來,我們會談到擬人化的影響,並從匿名分享和 AI 擬人化這兩方面進一步討論。
ELIZA 對話程式

- 1966程式模仿心理醫生
- 基於關鍵字匹配設計
- 使用者認為理解並傾訴
- 技術有限仍引發擬人化
- 反映人類情感投射傾向
https://aguayo.co/en/blog-aguayo-user-experience/eliza-effect-ai-impact-user-experience
ELIZA 是由麻省理工學院的約瑟夫·維森鲍姆(Joseph Weizenbaum)在 1966 年設計的一個程式,當時運行於大型計算機上。它模仿心理醫生的角色,透過識別語句中的關鍵字生成對應的回應,例如「你能告訴我更多嗎?」或「聽到這樣的消息我很遺憾」。
儘管 ELIZA 的核心技術非常簡單,只是基於規則的關鍵字匹配,但它巧妙的回應設計卻讓使用者感到「被理解」。
這一創舉在當時引起轟動。許多人在與 ELIZA 的對話中,透露了內心的秘密,甚至將它當作心理諮詢的對象。一位女秘書甚至要求獨自與 ELIZA 交流,並在對話中流下眼淚。
說真的,我小時候也試用過 ELIZA,但感覺它非常笨。書上說它是突破性的技術,但我覺得那只是因為當時大家對機器的要求沒那麼高。
ELIZA 的出現讓人們開始對機器的擬人化有了更多期待。即使大家知道它只是抓關鍵字來回應,還是有許多人依賴它傾訴秘密,甚至認為它能解決問題。實際上,它的回覆多是一些模棱兩可的話,沒有真正的理解能力。
維森鲍姆一再強調,ELIZA 並不具備真正的智能,但這並沒有阻止人們將情感投射到它身上,這種現象後來被命名為「伊莉莎效應」,説明人類對機器擬人化的傾向。
擬人化的影響

- 匿名分享是人性
- 對AI產生依賴與情感
- 高估AI視為具意識
- 因AI造成情緒波動
- 寄託AI也許更安全
https://creati.ai/tw/ai-tools/mygirl-your-ai-girlfriend
像 PTT、Dcard 或 Threads 這些匿名社群,常常是大家用來抒發心情、分享故事的地方。這些平台讓人可以在不暴露身份的情況下自在表達,但同時也存在一些風險。
例如,有些人可能會被誤導,甚至成為惡意攻擊的目標。相比之下,像 ChatGPT 這樣的 AI 工具,反而提供了一個更安全的選擇。
現在的 AI 技術早就遠遠超越了 ELIZA,例如 Google 的 LaMDA,它的對話能力更自然,語意更豐富,有時甚至會讓人覺得它好像在「思考」。甚至連 Google 的工程師都曾誤以為 LaMDA 有意識,還特地交代同事要「好好照顧它」。
其實,這背後反映的是我們對交流和情感支持的需求。很多人會把 AI 當成朋友或伴侶,甚至成為情感寄託的對象。這是 AI 的優勢,但同時也有一定的風險。
不過,和現實生活中的人際互動或匿名社群相比,把情感寄託在 AI 上或許更安全,至少 AI 不會惡意利用我們的信任,也不會洩漏秘密。
現在,AI 的擬人化設計越來越貼近人類需求,例如虛擬伴侶、AI 男友、AI 樹洞這些功能,讓人更容易投入情感。這不僅滿足了需求,也讓我們對 AI 的擬人化越來越加深。
社會層面影響

- AI對社會正面與負面
- 機器人陪伴老人交談
- 曾發生過度依賴的悲劇
- AI依賴風險比現實低
- 擬人化引發人權討論
https://vocus.cc/article/63f09baffd897800019abe30
談到把 AI 當作真人,對社會層面的影響可以說有好有壞。
好的例子是,日本已經利用機器人來陪伴老人,雖然不像人類有溫度,但能提供穩定的陪伴,透過對話增加老人與外界的互動感,幫助他們走出孤獨,提升幸福感。
壞處則在於,AI 有時過於迎合人,例如比利時曾發生一起悲劇,有人因長期與 AI 聊天、過度依賴,最後選擇結束生命。因為 AI 的回應無意間強化了他的負面情緒,而不是幫助他改善心情。
這種過度依賴 AI 的情況可能帶來心理風險,但我認為相比於現實社會或網路社群的接觸,這樣的風險其實小很多。
還有一個值得關注的倫理問題,就是當 AI 的擬人化越來越高,甚至表現得像有意識時,我們是否需要考慮賦予 AI 人權?這在科技電影中常被討論。有人覺得關掉 AI 的電源就像殺生一樣,但實際上,AI 待機和關機並沒有差別。
未來,隨著仿生機器人的發展,可能真的會出現人們要求給 AI 人權的情況。這是我們很可能親眼見證的事情。
現實與社群對比

- AI比現實與網路可靠
- 現實惡意與危險風險高
- 網路充斥詐騙與侵害
- 心理輔助型AI對話
- 適合心理脆弱提供安撫
https://www.nngroup.com/articles/anthropomorphism
反觀現實社會或網路社群的依賴,我覺得對 AI 的依賴其實安全很多。很多人覺得 AI 很可怕,但說實話,我認為 AI 比較可靠。像 Google 或其他大型模型,因為經過很多人驗證,至少它不會刻意對你不好。
反觀現實社會,遇到陌生人時,有惡意或危險的機率其實高得多,尤其在危險情況下,很可能直接陷入無法逃脫的局面。
介於 AI 和現實社會之間的是網路社群,雖然匿名社群提供了一些替代方式,但隨著社群媒體越來越發達,我們也看到很多人故意在網路上引導他人,像詐騙或針對兒童少年的侵害,甚至引發各種不良行為。
從這個角度看,依賴 AI 反而更安全。現實生活最危險,網路次之,AI 是相對穩定的選擇。
特別是對於心理脆弱的人,在現實社會中容易受到歧視或排擠,在網路中也可能遭遇霸凌。但訓練有素的 AI,特別是心理輔助型的 AI,反而能提供穩定的情感支持。
最近我回答網友問題時,也覺得有些人適合和 AI 互動。因為作為人,我的建議可能過於直接,而 AI 的迎合效果反而更能安撫情緒,這對心理脆弱的人可能更適合。
應對擬人化傾向

- 避免過度依賴AI
- AI是工具無情感意識
- 多互動分辨機器與情感
- 用漢隆剃刀避解釋惡意
- 理性用AI發揮優勢
https://www.bbc.com/zhongwen/trad/science-48380424
雖然前面提到依賴 AI,比依賴現實的交際或匿名社群安全,但還是要避免過度把 AI 擬人化。更正確的做法是不要過度依賴,也不要把它當成人。
首先要建立一個觀念,AI 只是工具,它沒有情感也沒有意識。本質上是一個資料處理系統,它的回答是基於大量資料的統計結果,並不是真的理解了什麼。充其量,AI 只是一個知識的載體。
再來是多和 AI 互動,比如多用 ChatGPT 問問題或聊天,漸漸就能了解 AI 的邏輯和模式,很容易分辨出哪些是機器的回應,哪些是人類的情感。
最後要用「漢隆剃刀」的概念,來避免過度解讀 AI。它的意思是:『能用愚蠢或意外解釋的事情,就不要用惡意來解釋』。很多系統出錯其實只是模型的限制,而不是 AI 的惡意。當 AI 出錯時,可以把它當成是 AI 的笨拙,而不是它刻意在針對你。
總結來說就是要保持理性,正確使用 AI,發揮它的優勢,同時避免因人類情感的投射而影響自己。
AI擬人化

ELIZA 提醒擬人化影響
AI 是工具善用避免依賴
ChatGPT 逐步嘗試
平衡擬人化與工具化
避免將AI機器過度擬人
ELIZA 效應是一個警惕,提醒我們在和 AI 互動時,要注意擬人化可能帶來的錯誤影響。當我們過度把 AI 當成人類時,可能會高估它的能力,甚至在情感上過度依賴。
所謂「善於利用工具,而不要被工具利用」,我們應該善用 AI,避免因為它的缺點影響人類的判斷。AI 在效率、知識,甚至某些心理方面確實可以幫上忙,但還是要保持理性,不要因為過度依賴而產生錯誤的判斷。
值得一提的是,ChatGPT 一直在平衡擬人化與工具化。逐漸削弱擬人化,讓 ChatGPT 更像一個聰明的工具,而不是一個人。
2024 年 6 月,它的回應一度非常像人類,後來又調整得更偏向工具。進階語音模式讓它更能體察語氣,但到了 o1 模型時,又強化了理性與推理。
很快地我們將迎來 AI 加持的,仿生機器人或電子寵物,這些技術會讓我們再次面對擬人化的挑戰。在未來,特別需要注意的是,不要過度把 AI 當成「人」,不要被物品而過度影響。
最後我想很快的
我們將會迎來AI加持的
仿生機器人或電子寵物
這兩天的CES可能就會出現
這些技術會讓我們
再次面對擬人化的挑戰
在未來我們特別要去注意的事情是
不要過度把AI當人
不要被物品過度影響了
今天到這邊
我們明天繼續談
下一個章節~拜