FIND研究員:廖柏仰
過去十年社交媒體的快速發展,在疏於管控的情形,社交媒體在資安上已產生許多問題,包括錯誤資訊的傳播、詐騙氾濫、用戶隱私侵犯等。緊接著在AI剛起飛的現在,藉由過去社交軟體的經驗,使我們在開發和應用人工智慧(AI)技術的過程,如ChatGPT,可以避免重蹈覆轍,確保國人可以安全地使用服務,不再被錯誤引導、或是造成財務或各方面的損失。政府以及第三方監測單位,在這過程中扮演著重要的監管角色,以確保AI技術能夠健康發展。
防止錯誤訊息傳播
社交媒體上的虛假資訊傳播迅速且廣泛,已對社會造成了深遠的影響。台灣在2023年被詐騙金額高達新台幣88億元,且實際數字可能更高。MIT研究顯示,虛假新聞比真實新聞傳播得更快更廣。為了解決這一問題,我們可以將自然語言處理(NLP)和機器學習技術應用於GPT的設計中,以檢測和標記虛假資訊。
社交媒體中,已有利用如BERT和GPT等模型,透過大量已標註的數據進行訓練,可以分析並識別出虛假資訊。這些模型,能高效地識別誤導性內容。此外,可以整合核查工具,功能如ClaimBuster,做到即時內容核查。ClaimBuster使用機器學習算法來檢測並標記文本中的事實性聲明,幫助生成回應時自動核查資訊的準確性,避免傳播虛假資訊 。
圖:ClaimBuster運作流程
資料來源:IDIR of University of Texas at Arlington
保護用戶隱私
社交媒體企業為求利潤最大化,依賴廣告收入,導致大量使用者的數據被收集和利用,造成嚴重的隱私問題。AI技術在這方面也面臨類似挑戰。然而,我們可以透過實施先進的隱私保護技術來降低這類風險。
差分隱私技術(DP)是一種有效的方法,它透過在數據中新增隨機噪聲來保護個人資訊,同時允許數據的總體分析。這樣可以確保ChatGPT在處理和分析用戶數據時,不會暴露個人隱私。此外,差分隱私的另一個好處,在於能夠協調跨應用程式的安全參數,它將隱私與其它程式的參數分開,以便更好控制實用性和隱私之間的權衡。另外,區塊鏈技術可以提供數據的不可篡改性,確保數據透明和可信。透過區塊鏈技術,ChatGPT可以記錄和驗證數據來源,防止數據被未經授權的更改和濫用,進一步保護用戶的隱私。
政府和第三方角色
政府可以規定AI系統必須整合事實查工具,並定期審核,以確保它們有效檢測並標記虛假資訊。或是規範需與第三方監測機構配合,定期提供審核報告,確保AI系統符合相關標準和規定。
政府應該規定推薦演算法的透明度,要求企業公開其算法的設計和運行原理,特別是涉及內容推薦和決策的部分。第三方算法審查機構可以對這些推薦系統進行獨立評估,確保其運行符合透明和公平的原則。
改進內容推薦系統
社交媒體的推薦系統經常發布極端和煽動性內容,以利提升用戶參與度,但同時也助長錯誤訊息的傳播和社會行為的扭曲。AI技術可以透過改進推薦算法來避免這一問題。
改進推薦系統的算法,應包括內容的真實性和多樣性,而不僅僅是點擊率和分享率。例如,透過引入新的優化目標,ChatGPT可以優先推薦經過驗證的優質內容,減少極端和煽動性內容的曝光率。這可以透過加權因素來平衡內容的品質和用戶偏好,確保推薦的內容既有價值又可靠。
結論
社交媒體的發展歷程為我們在開發和應用ChatGPT這類AI技術時提供寶貴的教訓。透過準確性提示、保護用戶隱私、改進推薦算法和提高數位素養,我們可以減少AI技術對社會的負面影響,確保AI技術能夠為我們的生活帶來更多正面的改變。
政府在此發展過程中扮演著關鍵角色,透過制訂和執行相關法規,監督AI技術的發展和應用,確保這些技術得以正向且負責任的方式服務社會大眾。此外,第三方監測單位和教育機構的介入,可以提供更加中立的獨立審核和輔助,確保AI技術的應用符合社會的道德和法律標準。這些措施不僅能改善當前的網路環境,還能為未來的技術發展奠定堅實的基礎,使我們能夠更好地應對新技術帶來的挑戰和機會。
封面圖片來源:本文作者以AI生成
參考資料來源:
1.台灣事實查核中心. (2024, March 18). 【詐騙】網傳臉書廣告、粉專「專業律師團幫你找回被詐騙的錢」? Retrieved from https://tfc-taiwan.org.tw/articles/10396
2.Tholoniat, P. (2023, December 22). 擁有資料的同時隱藏資料:差分隱私介紹. Cloudflare. Retrieved from https://blog.cloudflare.com/have-your-data-and-hide-it-too-an-introduction-to-differential-privacy-zh-tw
3.Sanders, N. E., & Schneier, B. (2024, March 13). Let’s not make the same mistakes with AI that we made with social media. MIT Technology Review. Retrieved from https://www.technologyreview.com/2024/03/13/1089729/lets-not-make-the-same-mistakes-with-ai-that-we-made-with-social-media/
4.MIT Sloan Office of Communications. (2021, March 17). What can be done to reduce the spread of fake news? MIT Sloan research finds that shifting peoples’ attention toward accuracy can decrease online misinformation sharing. MIT Management Sloan School. Retrieved from https://mitsloan.mit.edu/press/what-can-be-done-to-reduce-spread-fake-news-mit-sloan-research-finds-shifting-peoples-attention-toward-accuracy-can-decrease-online-misinformation-sharing
5.Meserole, C. (2018, May 9). How misinformation spreads on social media—And what to do about it. The Brookings Institution. Retrieved from https://www.brookings.edu/articles/how-misinformation-spreads-on-social-media-and-what-to-do-about-it/
6.Donovan, J. (2020, April 14). Social-media companies must flatten the curve of misinformation. Springer Nature Limited. Retrieved from https://www.nature.com/articles/d41586-020-01107-z
7.American Psychological Association. (2023, November 29). 8 recommendations for countering misinformation. Retrieved from https://www.apa.org/topics/journalism-facts/misinformation- recommendations#:~=URL%3A%20https%3A%2F%2Fwww.apa.org%2Ftopics%2Fjournalism,100