AI攻防社群媒體的隱私與道德

圖/美聯社

文/李政德 成功大學數據科學研究所教授

網路技術的成熟與行動裝置的普及,使得社群媒體成為人們分享生活點滴與獲取最新資訊的重要平台。人工智慧技術在社群媒體上是一把雙面刃,為演算技術的研發帶來機會,也為隱私道德的界線帶來挑戰。

AI技術在社群媒體上被惡意人士用來探測個人隱私資訊,如透過AI還原用戶彼此間的社交關係以及揭露使用者曾活動的地點。

你是否知道,AI利用社群媒體上的貼文文字就能得知你最近在什麼地方活動?你是否知道有心人士利用AI僅需透過打卡紀錄,就能準確猜出你有哪些朋友?僅藉由一種監督式學習方法「隨機森林」訓練AI,就能準確預測用戶發表貼文的所在地點。但是若將部分文字的語意模糊化,譬如把貼文中的「新光三越」換成「百貨公司」,就能有效降低AI揭露隱私的預測效果。

另一方面,研究人員開發出基於主動學習的演算法,運用用戶打卡資料便可成功預測朋友關係。不過,若藉由一種特殊打卡防衛機制,來推薦兼具隱私保護與地點語意的打卡地點,便能有效降低洩漏交友隱私的風險。

隨著用戶愈來愈重視隱私,他們在社群媒體上所揭露的個資和數位足跡將大量減少。然而是否能讓應用於社群網路的AI(如朋友推薦與用戶興趣偵測),能兼顧用戶隱私保護與預測實用性呢?研究人員實驗發現,透過矩陣運算來有效融合使用者個資(如性別與年齡)與社群網路結構,加上圖特徵表示學習技術,將能彌補維護隱私所帶來的資料稀疏性問題,讓AI既能保護個資,也能準確推薦社群朋友與偵測興趣。此外,AI也能輔助自動設定貼文的隱私,根據文字資訊與使用者隱私設定的歷史紀錄,推薦貼文的隱私層級,例如僅家人可見、親密好友可見、一般朋友可見,或完全公開。其中一種有效方法是結合文字特徵與用戶屬性的多任務學習,可同時預測貼文類別並推薦隱私層級。

社群媒體上近年最受關注的議題,莫過於假新聞橫行、網路霸凌猖獗,以及仇恨言論引起族群對立,AI對這些越過道德界限的社群行為也有應對之策。AI從大量社群媒體貼文資料中,學習理解文字隱含的語意,並結合用戶屬性、回覆情緒,以及訊息轉傳擴散結構,讓深度學習演算法得以學會自動找出違反道德之文字。針對假新聞偵測,最新的研究設計出「圖神經網路」模型,捕捉用戶性格與貼文主題間的關聯,並能找出哪些字詞與用戶是偵測假新聞的關鍵線索。針對網路霸凌偵測,最新研究開發出深度語意理解模型,分析回覆者的文字情緒、意圖以及回覆習慣,對於早期偵測貼文霸凌有正面幫助,在霸凌行為萌生之初便能準確預測,可供社群平台管理者應用。

AI迎戰社群媒體的隱私與道德議題,是一直在攻防之間不斷來回的動態過程,有心人士透過AI揭露隱私的方法會持續進步,社群媒體用戶越過道德界限的方式也不斷調整、設法避過AI。

但AI本身的學習框架與訓練方法,亦能隨著累積、更新的社群數據來修正預測模型。透過妥善運用AI來保護隱私道德,以對抗惡意使用AI造成的問題,我們或許可以期待,終將邁向一個兼具隱私保護與道德品質的社群媒體。

>>訂閱名家評論周報,關心全球財經大小事

延伸閱讀