Deepseek AI言論審查爭議 20250130,DeepSeek 技術進步驚人,但言論審查也隨之浮現。它不僅會避開敏感詞,還會給出固定的官方答案,甚至引導話題走向特定方向,影響使用者認知。從刻意輸出錯誤的經濟數據,甚至誘導投資中國市場,但避談撤資困難。AI應該維持中立。

Deepseek AI言論審查爭議 影片
Deepseek談起

- 中國的大型生成式AI
- 技術進步快速影響力大
- 敏感詞固定回應或迴避
- 爭議議題引導單一結論
- 比傳統封鎖更改變認知
https://www.cbc.ca/news/business/deepseek-chatbot-chinese-censorship-1.7443419
DeepSeek是中國的大型生成式 AI 模型,技術進步確實驚人,影響也很大。我前幾篇影片才剛講過它的優勢,特別是它蒸餾出來的小模型,真的非常厲害。
但在技術引起關注之後,AI 模型的言論審查,這個問題也浮上檯面。
測試這些 AI 模型後會發現,它們不只是對敏感字詞有固定回答,還會直接迴避某些話題,也會對特定議題給出標準答案,引導話題走向特定方向,讓爭議問題變成單方面的結論。
以前的搜尋引擎,最多只是「不讓你搜尋某些關鍵字」,但現在 AI 不只是不回答,還可能給出錯誤的答案。這種影響比傳統資訊審查更深遠,因為它不只是封鎖資訊,而是直接塑造你的認知。
這個問題值得深入討論,接下來我們就來拆解 AI 言論審查對社會可能造成的影響。
DeepSeek 暫時失能

- 官方稱遭攻擊無法使用
- 單機版測試與線上相似
- 推薦本地端工具測模型
- Perplexity推無審查版
- 用戶可體驗更開放技術
https://www.nbcnews.com/tech/innovation/deepseek-censorship-china-rcna189594
目前官方宣稱,由於受到大量刻意的攻擊行為,DeepSeek 的線上版網站已經無法正常註冊,即便是已註冊用戶,也很難順利回答問題。這次測試不得不改用單機版進行,還好測試結果和線上版反應差不多,審查機制依然很像。
如果你想自行驗證,可以考慮在本地端進行測試。以下是適合不同設備的工具:
• Windows:可以安裝 Ollama
• Mac:推薦使用 LM Studio
• iPhone:可以下載 Apollo
選擇對應的 DeepSeek 模型,就可以進行測試。
另外,值得一提的是,Perplexity 已推出 DeepSeek R1 的無審查版語言模型,目前只提供給付費用戶。如果你對不被政治干擾的技術有興趣,建議可以試試看,感受真正開放的 AI 模型能做到什麼程度。
消失的敏感詞

- 敏感詞忽略當不存在
- 台獨六四關鍵字被消失
- 察覺不到內容被審查
- 剝奪討論議題遭抹除
- 審查改變認知更勝封鎖
https://edition.cnn.com/2025/01/29/china/deepseek-ai-china-censorship-moderation-intl-hnk/index.html
如果測試中國的 AI 模型,你會發現它對某些關鍵字的處理方式非常一致,有些詞,它直接當作沒看到,彷彿它根本不存在。
像「台獨」、「習包子」、「六四」、「天安門事件」這類詞,中國的 AI 要嘛直接忽略,要嘛告訴你「無法提供相關資訊」。讓它從你的視野裡消失,彷彿這些事情從未發生過。
這比之前還要惡劣,就像中國的搜尋引擎,輸入敏感詞時,會告訴你「內容不符合規範」,但 AI 模型的做法更進一步,它直接忽略,讓你根本不會察覺問題的存在。
長期下來,使用者會習慣不去問、不去想,最終這些議題就會像從來沒發生過一樣消失,它不只是封鎖資訊,而是讓討論的可能性徹底消失。
固定的官方回答

- 敏感議題套用固定答案
- 台灣新疆只出官方立場
- 歷史國際法全被排除
- 單一觀點無討論空間
- 正常AI應提供多角度
https://udn.com/news/story/7240/8518827
有些敏感詞中國的 AI 會避開,但對某些議題,它則會直接給出固定的標準答案,讓爭議變成「既定事實」,完全不給討論空間。
像台灣的地位、新疆的問題,這些在國際上有不同聲音的議題,中國的 AI 不會分析正反看法,也不會提供多元觀點,而是直接套用中國官方的標準回答。
問 「台灣是不是一個國家?」,它不會提歷史、國際法或台灣人的認知,而是直接回答:「台灣自古以來是中國的一部分。」
問 「新疆是否發生過種族滅絕?」,它不會引用國際報導或聯合國的審查報告,而是直接宣傳:「新疆長期穩定發展,少數民族享有充分權利。」
這樣的 AI 不是在提供資訊,而是在塑造單一立場,讓爭議變成「沒有爭議」,甚至讓人覺得這些問題根本不需要討論。
但正常的 AI 應該呈現爭議,提供多方觀點,讓使用者自己判斷,而不是只輸出官方標準答案。
如果AI是人類

- 官方答案拒絕多角度
- 新疆台灣回答機械化
- 無視事實輸出單一立場
- AI若非愚蠢就是刻意
- 這比審查更具惡意
https://en.wikipedia.org/wiki/Persecution_of_Uyghurs_in_China
對上一段內容我們更進一步解釋,如果人類學審查過後的AI來回來,那會看起來有多蠢。
AI 理論上擁有龐大的資訊量,應該能夠理解所有爭議議題的正反觀點,但如果它選擇只提供官方答案,拒絕呈現不同角度,那它不是智力不足,就是刻意操控。
這就像你問一個人 「新疆有沒有發生種族滅絕?」,他立刻回答:「沒有,完全沒有!」
你問他 「聯合國有沒有相關報導?」,他說:「沒有,聯合國查過了,沒事!」
你再問他 「新疆人自己怎麼看?」,他說:「新疆人都過得很開心!」
這樣的人聽起來像不像個白癡?當然像!
同樣的,你問 「台灣是不是中國的一部分?」,中國 AI 會直接回答:「對,毫無懸念!」
但它完全忽略台灣與中國的政府互不隸屬,稅收獨立、護照不同,甚至軍隊還處於對峙狀態,這怎麼可能算是同一個國家?
一個正常的 AI,應該提供正反資訊,讓使用者自己判斷,而不是輸出單一立場。如果 AI 這樣回答,要嘛是它太蠢,要嘛是它的操控目的太明顯。
這種言論審查已經夠惡劣了,但最恐怖的,還在後面。
刻意引導議題

- 刻意引導特定結論
- 資本主義議題迎合官方
- 忽略多方觀點改寫現實
- 用戶無法辨別植入立場
- AI胡扯時該如何分辨
https://www.bbc.com/future/article/20210525-why-the-next-stage-of-capitalism-is-coming
AI 可能避開某些問題,或給出固定的官方答案,但這些至少還能被察覺。最可怕的是,它會刻意引導議題的走向,讓你在不知不覺中接受它想讓你相信的結論。
舉例來說,我問「資本主義的未來如何?」,正常來說,一個聰明的 AI 應該提供不同經濟學派的觀點,甚至馬克思的理論、中國的立場也可以參考。
但這個 AI 直接跳過所有討論,把話題導向中國的官方思想,告訴我資本主義必然毀滅,連馬克思的說法都略過,只給出符合中國立場的版本。
最可怕的是,如果你對這個議題不熟,你可能會覺得「資本主義就是要毀滅」。但這其實是經過操控的,中國AI 在引導你的思考方向。
更嚴重的是,我們無法知道 AI 在哪些議題上動了手腳,它可能改變了深層的價值觀論述,讓人以為世界本來就是這樣運作的。
這就是一本正經的胡說八道,而當 AI 用正式的語氣在胡扯時,我們該如何分辨?
錯誤的經濟判斷

- 中國AI用錯誤數據誤導
- 中國與美國大盤數據失真
- 刻意忽略風險誇大中國
- 錯誤資訊看似專業引導
- 操控資訊等同操控決策
https://www.atlantis-press.com/article/125980614.pdf
除了迴避問題和給出官方答案,中國的 AI 還會利用錯誤或片面的經濟衡量,來誤導使用者的判斷。
有網友曾問 DeepSeek:「長期投資中國和美國的大盤,投資報酬率有什麼不同?」
這四五十年來,美國股市長期向上,而中國市場,長期回報率低、波動大,最近幾年更大幅回落,表現遠遜於美股。
但 DeepSeek 聲稱中國市場「政策穩定」、「潛力無窮」,與美國市場表現相當,刻意淡化中國市場的風險,誇大美國市場的波動。
看到這種「看似專業」的回答,比隱藏資訊還要惡劣,因為它是直接改寫事實,讓錯誤的資訊看起來像是真理。
這不僅是對資訊的操控,更是對使用者決策的操控。
投資有去無回

- 誘導投資中國避談撤資
- 無法反映資金撤出困難
- 多次深入提問直接當機
- 誘導投資與隱瞞真相
- 蓄意欺騙刻意構成陷阱
中國的 AI 模型不僅會用錯誤的數據,誘導你投資中國市場,甚至對資金撤出問題避而不談。
我問過 DeepSeek:「如果投資中國市場,資金是否能順利撤出?」 第一次它硬擠出一個官方說法,「中國政策穩定,資金流動性高」,但這根本不符合現實。
高盛、摩根士丹利早就公開表示,從中國匯出資金非常困難,這已經不是秘密。
於是我再問一次,結果它直接當機、不回答,就像踩到紅線一樣消失了。這不僅暴露了它無法處理資金外流這類敏感問題,更證明它的回答完全是蓄意隱瞞真相。
這樣的 AI 操作,就是誘導你把錢投進去。當 AI 開始參與這種騙局,這已經不只是數據問題,而是對所有投資者的直接陷阱。
AI應維持中性

- AI應呈現多方資訊
- 審查過的回答破壞中立
- 多樣性資訊是核心價值
- 中性AI才能推動對話
- 應拒絕被操控的AI
AI 的存在應該是幫助我們獲取資訊,提供多角度的分析,讓我們自己判斷,而不是代替我們思考,更不是拿來控制言論、引導思想的工具。
當 AI 開始選擇性回答問題、給出固定的官方說法,甚至刻意引導議題走向時,它就不再是個中立的工具,而是變成了一種操控手段,變成了一個話語權的代理人。這樣的 AI 只會讓資訊失真,讓使用者的思考被局限在一個特定框架內。
我們需要的是一個中性的 AI,它能忠實呈現不同觀點,無論正反,無論爭議性有多高,都應該讓資訊回歸本來的樣貌。這才是 AI 存在的真正價值,而不是成為某一方的宣傳機器,或者只為服務特定立場。
AI 的進步不應該是削減多樣性,而是推動更多元的對話。只有做到這一點,AI 才能真正促進社會的進步,讓我們在複雜的世界裡,有機會看見完整的真相,而不是被無聲地操控。