隨著 AI 技術的進展,會不會有一天出現「超人」的 AI,如果出現,會不會成為人類歷史上最爆發的事件? 超人 AI 並非科幻影劇或小說形容的機器人,有強大的能量與知覺與人類作對,相反的,超人的 AI 是我們創造的機器,吸取更多的資訊來觀測未來,超越人類在現實世界的抉擇能力,一旦形成,對人類是福是禍無法預測。
柏克萊加大電腦教授 Stuart Russell 認為 AI 可能變成超人,所以要在「進化」到超人之前阻止,但為什麼會出現,他認為是現行 AI 的錯誤發展方向所致。現在「標準」的 AI 可以說是一個有智慧的機器藉運轉達成目標。但機器沒有自己的目標,目標是我們人給的,我們打造機器、給它目標、讓它運轉,機器越有智慧,目標越容易達成。這一切很完美,只要我們給的目標完整又正確,一旦目標給錯了,機器的智慧又高過我們,後果就不堪設想。
現在的 AI 智慧發展還在初期,僅用在生活的瑣碎事情,也會出現弊端,以後超人 AI 必會用在全球事務,出錯就是災禍。例如用超人 AI 控制地球氣象,目標是把 CO2 減少到工業化以前的排放量,超人 AI 為了達到這個目標,可能解釋成減少地球人口到零。關掉機器?那個時候的 AI 不會讓你有開關可關,也不會讓你有插頭可拔。
要阻止超人 AI,Russell 教授提出一個新的概念,要 AI 成為一個「造福」的機器,藉運轉達成「我們」的目標,我們是廣義的,指全體人類的優質內涵,這是一個模糊不確定的目標,而不確定性正是安全智慧系統的重要功能。這也是說,無論智慧進化的多高,機器要永遠尊重人類,會向人類請求、會接受錯誤、同時會允許被關機。
這樣的新 AI 當然還有很長的一段路要走,華盛頓大學的電腦教授 Oren Etzioni 提出另一個做法,他說現在的 AI 遠談不上智慧,即使被大家稱道的圍棋,也不過是我們人框架出來的問題,然後設計去解決,AlphaGo 擊敗圍棋高手應歸功於 DeepMind 一群人的智慧,而非機器。不過對於越來越多「超級智慧」危害人類的討論,他設定幾個「金絲雀」作為警訊的指標。
一百多年前進入礦坑挖煤,都帶著金絲雀下去,金絲雀對一氧化碳以及別的毒氣非常敏感,如果死了,就是礦坑災難的警訊。AI 不會一夜之間發展成超級智慧,一旦金絲雀倒下去了,警訊亮起紅燈,我們再設法管制也不算遲。Etzioni 教授提出的三個預警金絲雀是:規劃學習問題、自駕車、機器人醫生。
規劃學習問題,也可以說是提出一個問題讓機器學習,包括描述問題,簡化問題,資料設計,學習能力。這些工作對人來說已經不容易,何況是 AI?要這隻金絲雀倒下,還看不到絲毫影子。
自駕車越來越多,但距理想還有一段距離,AI 在特殊狀況之下失控,可能造成災難,例如遇到一個坐輪椅的人過街。自駕車的挑戰是,在不可預測的人車互動現實環境,即時的做保護生命的決定。我們可以逐步的增加自駕車,減少事故的發生,但直到與人類同等的駕駛層次,金絲雀才能倒下。
機器人醫生由來已久,有的能診斷病情,更有的精確解讀醫學顯影,但這僅是醫師工作的一小部分。如果 AI 醫師能問診病人,考量病情複雜化,諮詢別的醫生,就像人類醫生一樣瞭解病人,做廣泛的工作,金絲雀才有機會低下頭。
上述的兩位學者以不同方式阻止與監視 AI 的過度發展,都是長遠的考量,但現在的 AI 已經進入了我們日常的生活,許多以前由人決定的事,申請入學、求職、升遷、貸款、乃至罪犯量刑,現在時常用 AI 決定。這些生活事務的決定,人的因素過多,為求公允藉助 AI, 希望減少人為的影響。
AI 是人設計的,人的偏差,同樣轉移到 AI 的偏差,有人因此受到不平等待遇,成為現在 AI 亟待解決的問題。幸好問題已被發現,也有越來越多的學者研究解決之道,但牽涉太廣,需各個領域的合作,把公平放進 AI,但定義「公平」又成為另一個挑戰。這不是 AI 的問題,是人的問題。
AI 會變成超人嗎?超人 AI 會是什麼樣子?對人類是好是壞? Photo by Alex Knight form Pexels ls
|