▲在某社交平臺上,有博主對AI眼鏡指示燈漏洞開展測評。圖/社交平臺截圖
今年上半年,隨著巨頭和新銳們密集發布新產品,AI眼鏡掀起消費熱潮,而“拍攝功能”也引發隱私爭議和擔憂。
近日,南都記者走訪深圳華強電子世界與賽格電子市場時注意到,有大量不知名品牌的AI眼鏡在售,部分眼鏡的拍攝指示燈可以通過鏡框上的按鈕“一鍵關閉”。另在部分電商平臺,記者搜索發現,打著“華強北頂配”“某米同款”“工廠直銷”標簽的AI眼鏡不在少數。
可見,各種AI眼鏡的普及,也帶來了新的社會問題。除了山寨AI眼鏡以偷拍為賣點,即便是正規產品,某種程度上也存在隱私保護的隱患,甚至一些廠商將“指示燈可關閉”作為賣點。這使得公共場所拍攝,可能成為一個嚴重對立的輿論問題,繼而影響AI眼鏡行業及其相關技術的發展。
對隱私不被侵犯的合理預期
AI眼鏡拍攝引起的糾紛,關鍵在于隱私權的法律界定。
根據我國治安管理處罰法第四十二條的規定,偷窺、偷拍、竊聽、散布他人隱私的行為屬于侵犯人身權利的行為。
隱私主要包括三大類,即私人信息,如個人情況,病歷、三圍、財產狀況等;私人活動,如社會交往、夫妻性生活、婚外戀等;私人領域,也稱私人空間,指個人隱秘部位、個人日記、居室等。
直至20世紀60年代初,各國所遵循的隱私界定原則是“隱私止于屋門之前”,即主要集中于對家庭內私密的保護,而公共場所“不被認為存在合法的隱私”。隨著微型攝像技術的普及,令“隱私止于門前”的理念漸漸變得不合時宜。
20世紀80年代,美國法學家麥克魯格提出“隱私合理期待”觀點。比如一個人將日記藏在抽屜里,他對自己日記就是有隱私預期的。但如果,他將日記扔在大街上,做成海報,他就放棄了對日記的隱私期待。
公共場所,也可以有對隱私的合理期待。因為私生活不僅在住宅之內,也存在于外在環境之中。只要權利人相信其活動不在公眾視野中,有“隱”的意思表達,有“藏”的動作,那么,就可以認為,當事人有對隱私不被侵犯的合理預期。
回到具體的場景中來,裙底顯然屬于合理期待的范圍,從頭頂往下拍,顯然也屬于合理期待的范圍。這都是典型的違反治安管理處罰法第四十二條的行為。但是,一個女生坐在地鐵座位上,男生站著,目光所及所看到的,或者他戴了一個AI眼鏡,是否屬于隱私的合理期待范圍呢?
如果嚴格按照中國法律,這不是隱私。但在現在社會思潮中,對隱私的界定越來越嚴格。這點毋庸置疑。而AI眼鏡的出現,必然會倒逼形成新的社會共識。
需要構建協同防控體系
從法律上,以拍攝隱私作為賣點的AI眼鏡,可能構成“銷售竊聽、竊照等專用間諜器材的行為”。
根據我國刑法第二百八十三條規定,非法生產、銷售間諜專用器材罪是指非法生產、銷售竊聽、竊照等專用間諜器材的行為。
2024年,王昌銘通過某二手平臺銷售加裝攝像頭的手表、機頂盒等竊聽、竊照設備,獲利1890元,被判處有期徒刑并處罰金。
偷拍設備違規售賣問題長期存在且難以根治,背后不僅有法律懲戒力度不足的短板,更存在監管執行不力的困境。而AI眼鏡的出現,相當于為他們打了掩護。本來在一些電商平臺、社交軟件上,搜索“針孔攝像頭”“隱藏攝像頭”等詞條,會被直接屏蔽,現在則可以搜索AI眼鏡來找到賣家。
對此,一方面要強化源頭治理,從生產全流程搭建剛性約束體系;另一方面要填補銷售環節的監管漏洞,通過構建線上線下聯動、平臺與監管協同的防控體系,切斷偷拍設備產業鏈。
當然,行業在技術層面可能需要出臺強制標準,法律層面也需補齊監管空白,產業發展方面則需重視倫理生態,尤其是大廠要主動承擔社會責任,尊重個人隱私。
公共場所拍攝與隱私保護難兼顧
AI眼鏡,現在都有拍攝提示的設定,但某種程度上,這些措施很容易被繞過。任何計算機設備都是可以破解的,可以通過其他方式關閉,甚至干脆在物理上弄壞。
試想一下,一個人在公共場所,面對另一個戴著智能眼鏡的人,正常地看著自己,紅燈也沒閃爍,他該怎么辦?
如果報警,查證需要花費自己的時間、耗費警力,最終只是正常角度拍攝,或者更微妙的,這個人聲稱只是在拍攝其他物品,只是不可避免地將人拍進去了,那么,警方是無法處罰的。
一個人故意搞壞了提示燈,但他可以說是壞掉了,自己并不知道。一個類似的情況是,車燈壞了,從來不在處罰范圍內。
在這種情況下,如果公共場所是可以拍攝的,隨著大量AI眼鏡進入,引發的投訴、報警的案件可能非常多,最后必須投入大量的警力去調查,而法律后果輕微。
那么,在經濟上可行的辦法,就是在多個場合禁止AI眼鏡進入,或者進入后必須取下。這是一個更容易識別的辦法,也更可行。
消費者使用數據關乎行業發展
不過,禁止也有禁止的壞處。
首先,AI眼鏡可以給消費者帶來極大的方便。翻譯、導航、可以輔助殘疾人出行,為盲人將畫面轉為文字、為聽障人士將聲音轉為畫面。
其次,作為AI的一個重要終端,AI眼鏡背后是,精密制造、精密光學、視網膜投影等一系列技術。只有大規模消費級的應用,才能推動相關技術進一步發展。
在人類大腦接收的信息總量中,視覺占了90%以上。人類的這個生理特征,使得人類社會的信息,大部分都是視覺構成的,比如,馬路上的各種信息。這也是為什么,自動駕駛即便加入了激光雷達,也仍然是以光學信息為基礎的。
未來AI的發展,多模態的AI,僅僅靠文字輸入是不行的,一定需要大量輸入各種場景的光學信息。在模擬輸入、實驗性輸入、廠家的主動輸入之外,真正重要的是消費者使用中輸入的各種數據。這樣就形成了一個產量越大,能力越強,競爭力更強,市場份額越大的正反饋循環。而在這個循環中,數據量是一個非常關鍵的環節。
這就意味著,當一個社會出臺立法,在多個場景,嚴格限制AI眼鏡后,就會抑制AI的數據輸入,這就像擋住了AI的眼睛,限制相關行業的發展。
另一個微妙而深遠的影響是:如果將一些場景視為隱私,那么,在公共場所外露隱私,最終將變為不道德的、羞恥的。這是一個邏輯上的必然。
總之,現在輿論對于公共場所拍攝的認知,在多種因素的影響下,實際上是一種“嚴格且模糊的狀態”。但AI眼鏡,將會打破這種模糊的局面。
可以拍,還是不可以拍,這本質上是一個公共選擇,建立在充分的社會討論之上。重要的是,不能基于情緒去選擇,而是要明白如何選擇會產生什么影響與后果,然后再進行理性抉擇。
撰稿 / 劉遠舉(上海金融與法律研究院研究員)
編輯 / 徐秋穎 何睿
校對 / 付春愔
本文鏈接:http://www.020gz.com.cn/news-6-3104-0.htmlAI眼鏡不能成下一個“偷拍神器” | 新京報專欄
聲明:本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕