近期藝人黃子佼因持有未成年兒少性影像,引起社會軒然大波,連帶使政府單位封鎖散播管道「創意私房」偷拍論壇,而對於未成年人的性敏感內容保護,社群巨頭之一的 Instagram 也提出新對策,未來將預設模糊化 IG 私訊中的裸露圖像。
根據 Instagram 母公司 Meta 的說法,近期 IG App 正在測試全新功能,旨在保護年輕人的私密影像傳播,避免使用者遭到性勒索、威脅與詐騙,其中,最主要的防護措施即是私訊中的裸體影像模糊功能。
Meta 指出,這項保護功能主要奠基於機器學習,當使用者透過 IG 私訊發送、接收敏感影像時,若系統檢測到裸體內容,將會自動模糊化並跳出文字警告,而收到裸照的使用者也將收到訊息,提醒他們不需要被迫回應,同時還可以封鎖和檢舉裸照發送者。
由於是透過機器學習進行自動辨識,因此 Meta 表示,除非對話遭到手動檢舉,否則官方將無法存取這些私密圖像,最大程度消除可能的隱私疑慮。
掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊
社群平台對青少年保護不足
未成年人私密影像的傳播對於社群平台一直都是困擾。
科技媒體《The Verge》指出,Facebook 和 Instagram 等社群平台,過去一直受到來自外界的批評,指稱他們未提供足夠的防護措施,導致年輕族群使用者受到傷害,散佈私密影像不只損害兒童的心理和身體健康,甚至還為故意施虐的父母提供分享平台,而那些渴求兒童性影像的剝削者,更將其視作一個龐大市場。
Meta 表示,未來 IG 私訊中的裸露保護功能,將會對全球 18 歲以下使用者預設開啟,同時官方也鼓勵成年人啟用此功能,進一步保障自己不被性勒索和詐騙。
未來將主動隱藏性勒索帳戶
此外,Instagram 未來也會導入另一項安全措施,對發送與接收裸照的使用者主動發出提醒,例如透過文字警告用戶不應該在不知情的狀況下,任意截圖或轉發私密影像,亦會用情感面的角度提醒對話雙方,現在的親密關係未來可能會發生變化,並且提供一系列相關教育資源,提點出藉由網路傳送私密影像的風險。
至於針對那些透過他人性影像進行勒索的帳號,Meta 則向《TechCrunch》表示,內部已經在研發新技術,未來將主動隱藏有疑慮的潛在帳戶,讓使用者根本無法接收到他們的訊息。
【延伸閱讀】
*本文開放合作夥伴轉載,資料來源:《TechCrunch》、《The Verge》、《Engadget》。首圖來源:Pixabay。



