刷臉進(jìn)站、刷臉支付、刷臉簽到……人民日報:會不會刷走安全

隨著數據的積累(lèi)、計算(suàn)機算力的躍升和算法的優化,人工智(zhì)能正在讓(ràng)生活(huó)變得高效。語音識別、圖像識別使身份認證更可信賴,短短幾秒就能證明(míng)“你就是你”;智能診療和自動駕(jià)駛,更讓人們看到了戰勝疾病、減(jiǎn)少事故的新機會;人工智能還可以輕鬆戰勝圍(wéi)棋高(gāo)手,寫出優美的詩句……其自主性(xìng)和創造性正在模糊人和機器(qì)的分野(yě)。


但(dàn)是(shì),當隱私侵犯、數據泄(xiè)露、算法偏見等事件層出不窮時(shí),人們又不得(dé)不(bú)反思:人工智能的(de)持續進步和廣泛應用帶來的好處是巨(jù)大的,為了讓它真正有益於社會(huì),同樣不能忽視的還有對(duì)人工智能的價值引導、倫理調節以及風險規製。

“刷臉”應用(yòng)更廣(guǎng)泛,對隱私權(quán)的威脅值得(dé)重視

“刷臉(liǎn)”進站、“刷臉”支付、“刷臉”簽到、“刷臉”執法(fǎ)……人臉識別技術正走進更為廣闊的應用場景,與指紋(wén)、虹膜等相比,人臉是一個具有弱隱私(sī)性的生物特征,因此,這一技術對於公民隱私保護造成(chéng)的威脅性尤其值得重視。“人臉圖像(xiàng)或視(shì)頻廣義上講也是數據,如果沒有妥善保管和合理使用(yòng),就會容(róng)易侵犯用戶的(de)隱私。”中國社會科學院哲學(xué)研究所研(yán)究員段偉文說(shuō)。

通過數據采集和機器學習來對(duì)用戶的特征、偏好等“畫像”,互聯網服務商進而提供一些(xiē)個性化的服務和推薦等(děng),從正麵看是(shì)有利於供(gòng)需雙方的一種互動。但對於消(xiāo)費者來說,這種交換是不對等的。就頻頻發生的個人數據侵權的事件來看(kàn),個(gè)人數據權利(lì)與機(jī)構(gòu)數據權(quán)力的對比已經失衡,在對數據的收(shōu)集和使用方(fāng)麵(miàn),消費者是被(bèi)動的,企業和機構是主動的。段偉文表示,“數據實際上成為被企業壟斷的資源,又(yòu)是驅動經濟的要素(sù)。”如果商家隻從自身利益出發,就難(nán)免會(huì)對個(gè)人數據過度(dù)使用或者不恰當披露。

“大數據時代(dài),個人在互聯網上的(de)任何行為都會變成數據(jù)被沉澱下來,而這些數據(jù)的匯集都(dōu)可能最(zuì)終導致個人隱私的泄露。”湖南師範大學人工智能道(dào)德決策研究所所(suǒ)長李倫認為,用戶已經成為被觀察、分析和監測的對象。

算法應更客觀透明,要避免歧視與(yǔ)“殺熟”

在信息爆炸的時(shí)代,數據的處理、分析、應用很多都是由算法來實現(xiàn)的,越來越多的決策正被算法(fǎ)所取(qǔ)代(dài)。從(cóng)內容推薦到廣告投放,從信用額度評估到犯(fàn)罪風(fēng)險評估,算法無處不在——它操作的自動駕駛或許比司機更加安全,它得出的診斷結果可能比醫生(shēng)更準確,越來越多的(de)人(rén)開始習慣一個由(yóu)算(suàn)法構建的“打分(fèn)”社會。

作為一種信息技術,算法在撥開信息和數據“迷霧”的同時,也麵臨著倫理上的挑戰:利用人工智能來評估犯罪風險,算法(fǎ)可以影響刑罰;當自動駕駛汽車麵臨(lín)危險,算法可以決定犧牲哪一方;應用(yòng)於武器係統的算法甚至可(kě)以決定攻擊的目標……由此引(yǐn)發了一(yī)個不容忽視的問題:如何確保算法的公正?

騰訊研究院法律研(yán)究中心高級研究員曹建峰認為,即使作為一種數學表達,算法本質上也是“以數學方式或者計算(suàn)機代碼表達的意見”。算法的(de)設(shè)計、模型、目的、成功標準(zhǔn)、數據使用等,都是(shì)編程人員的主觀選擇,偏(piān)見會有意或者無意(yì)地嵌(qiàn)入算法,使之代碼化。“算法並不客觀,在算(suàn)法(fǎ)決策起作用的諸多領域,算法歧視也並不鮮見。”

“算法決策多數情況下是一種預測,用過去(qù)的數據預測未來的趨(qū)勢,算法模型和數據輸入決定著預測(cè)的(de)結果,因此這兩個要素也就成為算法歧視的主要來源。”曹建峰解釋說,除(chú)了主觀因素以外,數據本身也會影響算法的決策和預測。“數據是(shì)社會現實的反映,數據(jù)可能(néng)是不正確、不完整或者過時的,訓(xùn)練(liàn)數據本身也可能是歧(qí)視性的,用這樣的數據訓練(liàn)出來的算法係統,自然也會帶(dài)上歧視的烙印。”

2016年3月,微軟人工智能聊天機器人Tay上線(xiàn),在與網民互動過程(chéng)中,很短時間內就“誤入歧途”,集性別歧(qí)視(shì)、種族歧視於一(yī)身,最終微(wēi)軟不得不讓它“下崗”。曹建峰認為,算法傾向於將歧(qí)視固化或放大,使歧視長存於整個算法之中。因此(cǐ),如果將(jiāng)算法應用在犯(fàn)罪評估、信用貸款、雇傭評估等(děng)關係人們切身利益的場合,一旦產生歧(qí)視,就可能危害個(gè)人乃至社會的利益。

此外,深度學習還是一個典型的“黑箱”算法,可能連設計者都不知道算法如何決(jué)策,因而要在係統中發(fā)現是否存在歧視(shì)和歧視根源,技術上也較為困難。“算法的‘黑箱’特征使其決策邏輯缺乏透明(míng)性和可解釋(shì)性。”李倫說(shuō),隨著大數據“殺熟”、算(suàn)法歧視等事(shì)件的出現,社(shè)會對(duì)算法的質疑也逐(zhú)漸增多。政府和企業在使用數(shù)據的過程(chéng)中,必須提高對公(gōng)眾的透明度,讓選擇權回歸個人(rén)。

加(jiā)強核查監管,加大對數據濫用等行(háng)為的懲戒力度

2017年7月,國務院印發《新一(yī)代人工智能發展規劃》(以下簡稱《規劃》)。《規劃(huá)》強調,促進人工智能行業和企業自律,切實加強管理,加大對數據濫用、侵犯個人隱私、違背道德倫理等行為的懲戒(jiè)力(lì)度。

“雖然‘刷臉’的應用越來越(yuè)多,但人工智能目(mù)前仍處於起步階段,需加(jiā)大對數據和隱(yǐn)私的保護(hù)力度,關(guān)注(zhù)和防範由算法濫用所導(dǎo)致(zhì)的決策失誤(wù)和社(shè)會不公。”在個人數據權利的保護方麵,段偉文建議,應(yīng)促(cù)使(shǐ)數(shù)據(jù)交易各方對自己的行(háng)為負責(zé),讓每個人知道自己(jǐ)的數據如何被處理,特別是用於其他用途的情形,減少數據濫用,讓(ràng)人們清楚知道自己的“臉”還是否安全。

段偉文認(rèn)為,要進一步加(jiā)強人工(gōng)智能的倫理設計(jì),對算法的理論預設、內在機製與實踐語境等進行全流程追問與核查,從算法決策的結果和影響中的不公正入手,反向核查(chá)其機製與過程有無故意或不自覺的曲(qǔ)解與誤導(dǎo),揭示存在的問題,並促使其修正和(hé)改進。

在曹(cáo)建峰看來,應對人工智能(néng)帶來的倫理問題,一(yī)是要構建算法治理的內外部約束機製,將人類社會的(de)法律、道德等規範和價值嵌入(rù)人工智能係統;二是在人工智能研發中貫徹倫理原則,促使研發人員遵守基本的倫理準則;三(sān)是對(duì)算法進行必要的監管,提升算法自身的代(dài)碼透明(míng)性和算法決策的透明性(xìng);四是針對(duì)算法決策和歧視以及造(zào)成(chéng)的人(rén)身財(cái)產損害,提供法律救濟。

“我們生活在一個(gè)人機共生的時代,人類與機器之間勢必將發生各種衝(chōng)突和矛(máo)盾,僅靠法律和製(zhì)度很難完全解決。”李倫表示,人們還應努力提升自身(shēn)的科學素(sù)養,主動維護自身的權利,社會也應盡快建立討論人工智能倫理問題的公共平台,讓各方充分(fèn)表達意見,促進共識的形成。




香港昆侖(lún)科技有限公司主要致力於地鐵,高速公路隧道,石油化工(gōng),冶金核電,海工造船。橋梁礦山等行業內部應急專用通訊係統,風景區,機場遊客求助管理係(xì)統,市(shì)政SOS,110,119報警係統。特種工業IP電話機,SOS 電話機,IP調度係統的(de)研發、生產和銷售。

防爆電話機(jī)、消防電話機(jī)昆侖KNZD-65, 昆侖KNSP-13,昆侖KNSP-22等等。

有主機呼叫係統:KNPA-7石油化工作業區電(diàn)話廣播視屏遠程控製係統。

KNPA5無主機呼叫係統:無主機呼叫係統核電(diàn)、陸上、海上平台(tái)應(yīng)用等等。

解(jiě)決方案:地鐵、高(gāo)鐵、核電、石油化工等(děng)解決方案

昆侖科技綜合管廊通(tōng)信係統解(jiě)決方案昆(kūn)侖科技綜合管廊管道通信係(xì)統解決方(fāng)案

詳細的產品信息敬請關注公司官(guān)網:http://www.koontech.com/cn/Index.htm

乱H合集系列小说目录男男丨欧美日韩精品网丨精品国产国产综合精品丨国产资源一区丨亚洲国产不卡顿免费无码看av丨久久精品免费看国产成人丨欧美日韩精品免费一区二区三区丨亚洲人成网77777色在线播放