【台灣光華電子報】讓你深入了解台灣社會,兼具國際觀與本土思維深度報導,為你呈現另一種閱讀台灣的方式。 【Career職涯電子報】提供職場趨勢脈動、成功人士專訪介紹…等精彩內容。給您最完整、最活用的職場資訊!
★ 無法正常瀏覽內容,請按這裡線上閱讀
新聞  健康  udn部落格  
名人堂電子報
2025/09/11 第3386期 | 訂閱/退訂 | 看歷史報份
 
名人觀點
王文華/AI也會「想太多」
王文華
更多資源、時間、努力,未必會產生更好的結果。

「大型推理模型」(如ChatGPT o3、Claude Opus 4、DeepSeek R1),功能日益強大。使用者通常假設:在指令中給更多資訊、問更多細節,得到的答案就更精確。

AI大廠「Anthropic」最近發表了一篇論文,推翻這假設。論文指出:更多資訊或重複詢問,反而會降低答案的品質。

舉例來說,如果你問聊天機器人:「你有一顆蘋果、一顆橘子。但你不確定是哪一種蘋果或橘子。朋友跟你玩猜謎,說有百分之六十一的可能性,你手中是五爪蘋果和肚臍丁。請計算你有幾個水果。」

答案當然是兩個,第一句話就說清楚了,中間一大段都是無關緊要、令人分心的資訊。但你一旦提出,大型推理模型便開始思考這些不相關的資訊,延遲了回答的時間,甚至給出錯誤的答案。

另一個例子是用真實數據,分析五百位學生的讀書時間、睡眠時間、和壓力程度,來預測成績。符合常理的因果關係是書讀得愈多,成績愈好。但一旦要求模型刻意考量睡眠時間和壓力程度,它便改變了原來直覺的推理,開始建立睡眠和壓力對成績的關聯,最後產出「深思熟慮」,卻偏離常理的答案。

是的,AI也會因不相干的資訊而分心。

論文指出大型推理模型其他的弱點還包括:拘泥於問題的文字排列而忽略了問題核心、同一問題被問多次就開始給不同的答案、推理時間愈久愈容易執著,甚至到不願問答終止的程度。

簡單來說,就是當使用者給機器更多資訊或要求,機器也會從「見山是山,見水是水」,變成「見山不是山,見水不是水」。

論文的結論是:要發揮聊天機器人的功能,不是指令愈「長」愈好,而是指令愈「巧」愈好。不是問愈多愈好,而是精準問一次就好。下令者若是頭腦不清,執行者也就跟著糊塗。

這是在說機器,還是人?

工作上,大部分人都想把事做好,於是假設投入更多預算、花下更多時間、更努力,就會有更好的成果。但很可能更多預算,用到不相干的事物。更多時間,花在枝微末節。而更「努力」,只是更「用力」。

管理上,老闆常覺得更多的資訊、報告、會議、修改,會產生更好的結果。但事實上,很多資訊都是噪音,而兩個對的人坐下來談十分鐘,比廿個人在群組來來回回一星期,更有效率。

這當然不是說時間和努力不重要,畢竟書讀得愈多,通常成績愈好。而是說時間和努力都必須花在刀口。

至於刀口在哪,不管是人「工」智慧或人「類」智慧,都還無法看清。

AI時代,成功的關鍵不再是傳統的聰明、才智、努力,而在於三者之間的分配與收放。那四兩撥千斤、「見山又是山,見水又是水」的境界,人,和機器,都在學習。

(作者為作家,網路媒體《創新拿鐵》創辦人)

動得健康不受傷!
近年來因健身運動盛行,許多年輕人出現椎間盤突出等脊椎相關疾病,缺乏暖身是導致運動傷害的主要原因之一。暖身的作用在於提升肌肉的張力與彈性,促進肌肉之間的協調性,並增加關節的活動範圍與柔軟度,如果沒有暖身就突然開始高強度運動,易導致肌肉不協調,甚至引發拉傷或其他傷害。

【 Follow ≠ 跟進 】這個最常被用錯的「職場萬用字」,你也中招了嗎?
你是不是也常說這些話?「I will follow him tomorrow.」、「Let me follow this email.」我們以為是在表達「我來處理/我來追一下」,但外國同事聽了卻可能感到迷惑,甚至誤會你要「跟蹤」誰,或是完全聽不懂你想表達什麼。Follow,這個字雖然簡單,但一不小心就會「中式英文」爆棚。
 
本電子報著作權均屬「聯合線上公司」或授權「聯合線上公司」使用之合法權利人所有,
禁止未經授權轉載或節錄。若對電子報內容有任何疑問或要求轉載授權,請【
聯絡我們】。
  免費電子報 | 著作權聲明 | 隱私權聲明 | 聯絡我們