《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 人臉識別引發(fā)道德倫理擔憂,你的臉被監(jiān)視了嗎

人臉識別引發(fā)道德倫理擔憂,你的臉被監(jiān)視了嗎

2020-11-29
來源:新浪科技綜合

人臉識別系統(tǒng)已經(jīng)給我們的城市帶來諸多方便。然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟蹤其使用,揭露其危害并開展運動以尋求保障甚至是徹底禁止技術的使用。然而,技術發(fā)展的潮流浩浩蕩蕩,更多人認為該技術的存在是“不可避免的”,但是其背后存在的道德倫理問題值得我們深思。

31.jpg

  近期,《自然》雜志的一系列報道對人臉識別系統(tǒng)背后的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背后存在的歧視發(fā)出警告,并呼吁加強監(jiān)管、提高技術透明度。

  《自然》雜志對480位從事人臉識別、人工智能計算機科學領域研究的研究人員的調查顯示,人們對人臉識別研究的倫理學普遍存在擔憂,但也存在分歧。

  有些未經(jīng)同意獲取數(shù)據(jù)

  為了使人臉識別算法正常工作,必須對大型圖像數(shù)據(jù)集進行訓練和測試,理想情況下,必須在不同的光照條件和不同的角度多次捕獲這些圖像。過去,科學家普遍招募志愿者,只為收集各種角度的照片;但現(xiàn)在,大多數(shù)人未經(jīng)許可即被收集人臉圖像。

  在《自然》雜志的480位受訪者中,當被問及對應用面部識別方法從外表識別或預測個人特征(如性別、年齡或種族)的研究有何看法時,約三分之二的人表示,此類研究只能在獲得面部識別者知情同意的情況下進行,或者在與可能受到影響的群體代表討論后進行。

  大多數(shù)人認為,使用人臉識別軟件的研究應事先獲得倫理審查機構(例如機構審查委員會)的批準。他們認為,對于在學校、工作場所或由私人公司監(jiān)視公共場所時使用人臉識別進行實時監(jiān)視感到最不舒服,但是他們通常會支持警察在刑事調查中使用人臉識別系統(tǒng)。

  從法律上講,目前尚不清楚歐洲的科學家是否可以未經(jīng)人們的同意而收集個人人臉的照片以進行生物識別研究。歐盟的通用數(shù)據(jù)保護條例并沒有為研究人員提供明顯的法律依據(jù)。在美國,一些州表示,商業(yè)公司未經(jīng)其同意使用個人的生物識別數(shù)據(jù)是非法的。

  受訪者強烈認為,應該有其他法規(guī)來規(guī)范公共機構使用人臉識別技術。超過40%的人則希望禁止實時大規(guī)模監(jiān)視。

  存在性別和種族偏見現(xiàn)象

  人臉識別系統(tǒng)通常是專有的并且保密,但是專家說,大多數(shù)系統(tǒng)涉及一個多階段過程,該過程通過深度學習對大量數(shù)據(jù)進行大規(guī)模神經(jīng)網(wǎng)絡訓練。

  美國國家標準技術研究院(NIST)在去年年底發(fā)布的報告中稱,人臉識別的準確率有了顯著提高,深度神經(jīng)網(wǎng)絡在識別圖像方面效果明顯。但NIST同時也證實,相對于有色人種或女性,大多數(shù)人臉識別對于白人男性面孔的準確性更高。特別是,在NIST的數(shù)據(jù)庫中被歸類為非裔美國人或亞裔的面孔被誤認的可能性是那些被歸類為白人的面孔的10—100倍。與男性相比,女性誤報的可能性更高。

  領導NIST圖像小組的電氣工程師克雷格·沃森認為,這種不準確很可能反映了每家公司培訓數(shù)據(jù)庫構成的不平衡,一些公司可能已經(jīng)開始解決這個問題。

  有待嚴格立法和監(jiān)管

  致力于人臉識別或分析技術的研究人員指出,人臉識別有很多用途,比如尋找走失的兒童,追蹤罪犯,更方便地使用智能手機和自動取款機,通過識別機器人的身份和情緒來幫助機器人與人類互動,在一些醫(yī)學研究中,還可以幫助診斷或遠程跟蹤同意的參與者。

32.jpg

  人臉識別技術有好處,但這些好處需要根據(jù)風險進行評估,這就是為什么它需要得到適當和細致的監(jiān)管。

  目前,許多研究人員以及谷歌、亞馬遜、IBM和微軟等公司都呼吁在人臉識別系統(tǒng)方面出臺更嚴格的監(jiān)管措施。

  馬薩諸塞州波士頓東北大學研究面部監(jiān)控的計算機科學家、法學教授伍德羅·哈特佐格說視人臉識別技術為“史上最危險的發(fā)明”,說如果美國立法者允許公司使用人臉識別,他們應該編寫規(guī)則,從健身房到餐廳都應當禁止“面部指紋”的收集和儲存,并禁止將人臉識別技術與自動化決策(如預測性警務、廣告定位和就業(yè))結合使用。

  尚須謹慎研究和思考

  密歇根州立大學東蘭辛分校的計算機科學家阿尼爾·賈恩說:“在我們的社會中,我們需要大量正當而合法的人臉和生物識別應用。”但一些科學家表示,研究人員也必須認識到,在人們不知情的情況下對人臉進行遠程識別或分類的技術從根本上是危險的,應該努力抵制其被用來控制人們的做法。

  作為人工智能領域的首要會議之一,神經(jīng)信息處理系統(tǒng)會議是今年首次要求進行這種道德考量,即提交有關人臉識別論文的科學家必須添加一份聲明,說明他們的工作中存在的倫理問題和潛在的負面后果。

  此外,《自然機器智能》雜志也在試圖要求一些機器學習論文的作者在文章中加入一項聲明,考慮到更廣泛的社會影響和倫理問題。

  紐約伊薩卡市康奈爾大學從事技術倫理研究的社會學家凱倫·利維認為,研究人臉識別的學者意識到道德倫理問題,“感覺像是科學界真正的覺醒”。


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 国产偷窥女洗浴在线观看| 国模精品一区二区三区| 久久国产精品国产精品| 欧美在线观看视频网站| 亚洲美女视频免费| 粉嫩大学生无套内射无码卡视频| 国产69精品久久久久777| 野花国产精品入口| 国产成人免费手机在线观看视频| 美女无遮挡拍拍拍免费视频 | 又粗又黑又大的吊av| 蜜桃成熟之蜜桃仙子| 国产又色又爽又刺激在线播放| 欧美色图第三页| 国产精品久久久久国产精品| 91青青草视频| 国语高清精品一区二区三区| av电影在线播放| 奇米四色77777| xxxx日本视频| 妇女被猛烈进入在线播放| 三级日本高清完整版热播| 成人黄色激情视频| 中日韩国语视频在线观看| 日本一道综合久久aⅴ免费| 久久国产乱子伦精品免| 日韩成人一区ftp在线播放| 五月天婷五月天综合网站| 欧洲mv日韩mv国产mv| 亚洲中文字幕无码av永久| 欧美大片在线观看完整版| 亚洲国产精品福利片在线观看| 欧美日韩在线视频不卡一区二区三区| 亚洲精品亚洲人成人网| 波多野结衣与上司出差| 亚洲精品成人a| 毛片在线免费播放| 亚洲激情视频在线观看| 欧美精品一区二区久久| 亚洲日本韩国在线| 欧美性猛交xxxx乱大交中文 |