AI擬人化 與 ELIZA效應 20250107

AI擬人化 與 ELIZA效應 20250107

AI擬人化 與 ELIZA效應 20250107,我們探討了 AI 擬人化的起源與影響,從 ELIZA 程式到現代的 ChatGPT,說明人類如何將 AI 投射為有情感與意圖的存在。ELIZA 效應提醒我們保持理性,善用 AI 工具而非過度依賴。需警惕不過度擬人化,避免錯誤影響判斷。

AI擬人化 與 ELIZA效應 20250107

AI擬人化 與 ELIZA效應 影片

今天我們來討論AI擬人化
也就是把AI當人之後會有哪些影響
另外也要討論一下
很久以前的一個程式叫做Eliza
而也發出了Eliza效應
其實這些內容就是在
萬維綱老師拐點這本書的第四章第二節
我們今天會搭配這個章節內容
以及延伸的部分一直討論下去

對了~我是亞瑟我有三高
禮拜一到禮拜五我都會日更這個頻道
去分享每一天學會的點點滴滴
如果你有興趣的話請跟我繼續往下看

擬人化的起源

AI擬人化 與 ELIZA效應 20250107
  • 伊莉莎效應
  • 1966年ELIZA程式
  • 擬人化現象人
  • ELIZA初期案例
  • 匿名社群/AI伴侶

https://www.books.com.tw/products/CN11963950

今天我們要聊的是萬維鋼老師的《拐點》這本書,特別是第四章第二節中提到的 AI 擬人化現象。在這部分,萬老師深入探討了「伊莉莎效應」(The ELIZA Effect),

這是一個經典的心理學現象,可以説明人類如何容易將不是人類的物體,尤其是 AI,賦予情感與意圖,甚至誤以為它們具備人類的理解能力。

這種現象讓我想到現在的匿名社群,比如 PTT、Dcard 或 Threads,很多人會匿名分享故事和心情,想讓人看見卻又不想被認出。

同樣地,現在有了 ChatGPT 和 AI 工具後,出現了像 AI 虛擬伴侶、AI 男朋友或女朋友這樣的趨勢,甚至還有 AI 樹洞。這些更擬人化的設計,更容易讓人投入情感。

接下來,我們會談到擬人化的影響,並從匿名分享和 AI 擬人化這兩方面進一步討論。

ELIZA 對話程式

AI擬人化 與 ELIZA效應 20250107
  • 1966程式模仿心理醫生
  • 基於關鍵字匹配設計
  • 使用者認為理解並傾訴
  • 技術有限仍引發擬人化
  • 反映人類情感投射傾向

https://aguayo.co/en/blog-aguayo-user-experience/eliza-effect-ai-impact-user-experience

ELIZA 是由麻省理工學院的約瑟夫·維森鲍姆(Joseph Weizenbaum)在 1966 年設計的一個程式,當時運行於大型計算機上。它模仿心理醫生的角色,透過識別語句中的關鍵字生成對應的回應,例如「你能告訴我更多嗎?」或「聽到這樣的消息我很遺憾」。

儘管 ELIZA 的核心技術非常簡單,只是基於規則的關鍵字匹配,但它巧妙的回應設計卻讓使用者感到「被理解」。

這一創舉在當時引起轟動。許多人在與 ELIZA 的對話中,透露了內心的秘密,甚至將它當作心理諮詢的對象。一位女秘書甚至要求獨自與 ELIZA 交流,並在對話中流下眼淚。

說真的,我小時候也試用過 ELIZA,但感覺它非常笨。書上說它是突破性的技術,但我覺得那只是因為當時大家對機器的要求沒那麼高。

ELIZA 的出現讓人們開始對機器的擬人化有了更多期待。即使大家知道它只是抓關鍵字來回應,還是有許多人依賴它傾訴秘密,甚至認為它能解決問題。實際上,它的回覆多是一些模棱兩可的話,沒有真正的理解能力。

維森鲍姆一再強調,ELIZA 並不具備真正的智能,但這並沒有阻止人們將情感投射到它身上,這種現象後來被命名為「伊莉莎效應」,説明人類對機器擬人化的傾向。

擬人化的影響

AI擬人化 與 ELIZA效應 20250107
  • 匿名分享是人性
  • 對AI產生依賴與情感
  • 高估AI視為具意識
  • 因AI造成情緒波動
  • 寄託AI也許更安全

https://creati.ai/tw/ai-tools/mygirl-your-ai-girlfriend

像 PTT、Dcard 或 Threads 這些匿名社群,常常是大家用來抒發心情、分享故事的地方。這些平台讓人可以在不暴露身份的情況下自在表達,但同時也存在一些風險。

例如,有些人可能會被誤導,甚至成為惡意攻擊的目標。相比之下,像 ChatGPT 這樣的 AI 工具,反而提供了一個更安全的選擇。

現在的 AI 技術早就遠遠超越了 ELIZA,例如 Google 的 LaMDA,它的對話能力更自然,語意更豐富,有時甚至會讓人覺得它好像在「思考」。甚至連 Google 的工程師都曾誤以為 LaMDA 有意識,還特地交代同事要「好好照顧它」。

其實,這背後反映的是我們對交流和情感支持的需求。很多人會把 AI 當成朋友或伴侶,甚至成為情感寄託的對象。這是 AI 的優勢,但同時也有一定的風險。

不過,和現實生活中的人際互動或匿名社群相比,把情感寄託在 AI 上或許更安全,至少 AI 不會惡意利用我們的信任,也不會洩漏秘密。

現在,AI 的擬人化設計越來越貼近人類需求,例如虛擬伴侶、AI 男友、AI 樹洞這些功能,讓人更容易投入情感。這不僅滿足了需求,也讓我們對 AI 的擬人化越來越加深。

社會層面影響

AI擬人化 與 ELIZA效應 20250107
  • AI對社會正面與負面
  • 機器人陪伴老人交談
  • 曾發生過度依賴的悲劇
  • AI依賴風險比現實低
  • 擬人化引發人權討論

https://vocus.cc/article/63f09baffd897800019abe30

談到把 AI 當作真人,對社會層面的影響可以說有好有壞。

好的例子是,日本已經利用機器人來陪伴老人,雖然不像人類有溫度,但能提供穩定的陪伴,透過對話增加老人與外界的互動感,幫助他們走出孤獨,提升幸福感。

壞處則在於,AI 有時過於迎合人,例如比利時曾發生一起悲劇,有人因長期與 AI 聊天、過度依賴,最後選擇結束生命。因為 AI 的回應無意間強化了他的負面情緒,而不是幫助他改善心情。

這種過度依賴 AI 的情況可能帶來心理風險,但我認為相比於現實社會或網路社群的接觸,這樣的風險其實小很多。

還有一個值得關注的倫理問題,就是當 AI 的擬人化越來越高,甚至表現得像有意識時,我們是否需要考慮賦予 AI 人權?這在科技電影中常被討論。有人覺得關掉 AI 的電源就像殺生一樣,但實際上,AI 待機和關機並沒有差別。

未來,隨著仿生機器人的發展,可能真的會出現人們要求給 AI 人權的情況。這是我們很可能親眼見證的事情。

現實與社群對比

AI擬人化 與 ELIZA效應 20250107
  • AI比現實與網路可靠
  • 現實惡意與危險風險高
  • 網路充斥詐騙與侵害
  • 心理輔助型AI對話
  • 適合心理脆弱提供安撫

https://www.nngroup.com/articles/anthropomorphism

反觀現實社會或網路社群的依賴,我覺得對 AI 的依賴其實安全很多。很多人覺得 AI 很可怕,但說實話,我認為 AI 比較可靠。像 Google 或其他大型模型,因為經過很多人驗證,至少它不會刻意對你不好。

反觀現實社會,遇到陌生人時,有惡意或危險的機率其實高得多,尤其在危險情況下,很可能直接陷入無法逃脫的局面。

介於 AI 和現實社會之間的是網路社群,雖然匿名社群提供了一些替代方式,但隨著社群媒體越來越發達,我們也看到很多人故意在網路上引導他人,像詐騙或針對兒童少年的侵害,甚至引發各種不良行為。

從這個角度看,依賴 AI 反而更安全。現實生活最危險,網路次之,AI 是相對穩定的選擇。

特別是對於心理脆弱的人,在現實社會中容易受到歧視或排擠,在網路中也可能遭遇霸凌。但訓練有素的 AI,特別是心理輔助型的 AI,反而能提供穩定的情感支持。

最近我回答網友問題時,也覺得有些人適合和 AI 互動。因為作為人,我的建議可能過於直接,而 AI 的迎合效果反而更能安撫情緒,這對心理脆弱的人可能更適合。

應對擬人化傾向

AI擬人化 與 ELIZA效應 20250107
  • 避免過度依賴AI
  • AI是工具無情感意識
  • 多互動分辨機器與情感
  • 用漢隆剃刀避解釋惡意
  • 理性用AI發揮優勢

https://www.bbc.com/zhongwen/trad/science-48380424

雖然前面提到依賴 AI,比依賴現實的交際或匿名社群安全,但還是要避免過度把 AI 擬人化。更正確的做法是不要過度依賴,也不要把它當成人。

首先要建立一個觀念,AI 只是工具,它沒有情感也沒有意識。本質上是一個資料處理系統,它的回答是基於大量資料的統計結果,並不是真的理解了什麼。充其量,AI 只是一個知識的載體。

再來是多和 AI 互動,比如多用 ChatGPT 問問題或聊天,漸漸就能了解 AI 的邏輯和模式,很容易分辨出哪些是機器的回應,哪些是人類的情感。

最後要用「漢隆剃刀」的概念,來避免過度解讀 AI。它的意思是:『能用愚蠢或意外解釋的事情,就不要用惡意來解釋』。很多系統出錯其實只是模型的限制,而不是 AI 的惡意。當 AI 出錯時,可以把它當成是 AI 的笨拙,而不是它刻意在針對你。

總結來說就是要保持理性,正確使用 AI,發揮它的優勢,同時避免因人類情感的投射而影響自己。

AI擬人化

AI擬人化 與 ELIZA效應 20250107

ELIZA 提醒擬人化影響
AI 是工具善用避免依賴
ChatGPT 逐步嘗試
平衡擬人化與工具化
避免將AI機器過度擬人

https://www.kantti.net/tw/article/440/impact-of-ai-on-social-interaction

ELIZA 效應是一個警惕,提醒我們在和 AI 互動時,要注意擬人化可能帶來的錯誤影響。當我們過度把 AI 當成人類時,可能會高估它的能力,甚至在情感上過度依賴。

所謂「善於利用工具,而不要被工具利用」,我們應該善用 AI,避免因為它的缺點影響人類的判斷。AI 在效率、知識,甚至某些心理方面確實可以幫上忙,但還是要保持理性,不要因為過度依賴而產生錯誤的判斷。

值得一提的是,ChatGPT 一直在平衡擬人化與工具化。逐漸削弱擬人化,讓 ChatGPT 更像一個聰明的工具,而不是一個人。

2024 年 6 月,它的回應一度非常像人類,後來又調整得更偏向工具。進階語音模式讓它更能體察語氣,但到了 o1 模型時,又強化了理性與推理。

很快地我們將迎來 AI 加持的,仿生機器人或電子寵物,這些技術會讓我們再次面對擬人化的挑戰。在未來,特別需要注意的是,不要過度把 AI 當成「人」,不要被物品而過度影響。

最後我想很快的
我們將會迎來AI加持的
仿生機器人或電子寵物
這兩天的CES可能就會出現
這些技術會讓我們
再次面對擬人化的挑戰

在未來我們特別要去注意的事情是
不要過度把AI當人
不要被物品過度影響了

今天到這邊
我們明天繼續談
下一個章節~拜

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

返回頂端