隨著數據的積累(lèi)、計算機算力的躍升和算法的優化,人(rén)工智能正在讓生活變得高(gāo)效。語音識別、圖像識別使身(shēn)份認證更可信賴,短(duǎn)短幾秒(miǎo)就能證明“你就是你”;智能診(zhěn)療和自(zì)動駕駛,更讓(ràng)人們看到了戰勝疾病、減少事故的新機會;人工智能還可以輕鬆戰勝(shèng)圍棋高手,寫出(chū)優美的(de)詩句……其自主性和創造性(xìng)正在模糊人和機器的分野。
但是,當隱私侵犯、數據泄露、算法偏見等事件層出不窮時,人們又不得不反思:人工(gōng)智能(néng)的持(chí)續進步和(hé)廣泛應用帶來的好處是巨大(dà)的,為了(le)讓它真正有益於社(shè)會,同樣不能忽視的還有對人工智能的價值引導、倫理調節以及風險(xiǎn)規製。
“刷臉”應用更廣泛,對隱私權的威脅值得(dé)重視
“刷臉”進站、“刷臉”支付、“刷臉(liǎn)”簽到、“刷臉”執法……人臉識別(bié)技術正走進(jìn)更為(wéi)廣闊的應用場景,與指紋、虹膜等相比,人臉是一個(gè)具有弱隱私性的(de)生物特(tè)征,因(yīn)此(cǐ),這一技術對於公民隱私保護(hù)造成的威脅性尤其值得(dé)重視。“人(rén)臉圖像或視頻廣義上講也是數據,如果沒有妥善保管和合理使用,就會容(róng)易(yì)侵犯用戶的隱(yǐn)私。”中國(guó)社會科學院哲學研究所研究員段偉文說。
通過數據采集和機(jī)器學習來(lái)對用戶的特征、偏好等“畫像”,互聯網服務商進而提供一些個性化的服務和推薦等,從正麵看是有利於供需雙方的一種互動。但對於消費者來說,這種交換是不對等的。就頻頻發生的個人數(shù)據侵權的事件來看,個(gè)人數據權利與機構數據權力的對比已經失衡(héng),在(zài)對數據(jù)的收集(jí)和使用方麵,消(xiāo)費者是被動的,企業和機構(gòu)是主動(dòng)的。段偉文表示,“數據(jù)實際上成為被企業壟斷的資源,又是驅動經濟的要素。”如果(guǒ)商家隻從自身利益出發,就難免(miǎn)會(huì)對個人數據過度使用或者不恰(qià)當披露。
“大(dà)數據時代,個人在互聯網上的(de)任何行為都會變成數據被沉澱下來,而這些數據(jù)的匯集都可能最終導致個人隱私的泄露。”湖南師範大學人工智能道德(dé)決策研究所所長李倫(lún)認為,用戶已經成為被觀察、分析和監測的對象(xiàng)。
算法應更客觀透明,要避免歧視與“殺熟”
在信息爆炸的時代,數據的處理、分析、應用很多都是由(yóu)算法來實現(xiàn)的,越來越多的決策正被算(suàn)法(fǎ)所(suǒ)取代。從內容推薦到廣告投(tóu)放,從信用額度評估到犯(fàn)罪風險評估,算法無處(chù)不在(zài)——它操作的自(zì)動駕駛或許比司機(jī)更加安全(quán),它得出的診斷結果可(kě)能比醫生更準確,越來越多的人開始習慣一個由算法構建的“打分”社會。
作為一種信(xìn)息技術,算法(fǎ)在撥開信息和數據“迷霧”的(de)同時,也麵臨著倫理(lǐ)上的挑戰:利用人工智能來評(píng)估犯(fàn)罪風險,算法可以影響刑罰;當自動駕駛汽車麵臨危險(xiǎn),算法可以決定犧牲哪一方;應用(yòng)於武器係統的算法甚至可(kě)以決定攻擊的目標……由此引發了一個不容忽(hū)視的問題:如何確保算法的公正?
騰(téng)訊(xùn)研究(jiū)院法律研究中心高級研究員(yuán)曹建峰認為,即使作為一種數(shù)學表達,算法本質上也是(shì)“以數學(xué)方式或者計算機代碼表達的意見”。算法(fǎ)的(de)設計、模型、目的、成功標準、數據使用等,都(dōu)是編(biān)程人員的主觀選擇,偏見(jiàn)會有意或者無意地嵌(qiàn)入算法,使(shǐ)之代碼化。“算法(fǎ)並不客觀,在(zài)算法決(jué)策起作用的諸多領域,算法歧視(shì)也並不(bú)鮮見。”
“算法決策多數情況下是一(yī)種預測,用過去的數(shù)據預測未來的趨勢,算法模型和數(shù)據輸入決定著預測的結果,因此這兩個要素也就成為算法歧視的主要來源。”曹建峰解釋說,除了主觀因(yīn)素以外,數據(jù)本身也會影響算法的決策和預測。“數據(jù)是社會現實的反映,數據可能是不正確、不(bú)完整或者過時的,訓練數據本身也可能(néng)是歧視性的,用這(zhè)樣的數(shù)據訓練出來的算法係統,自然(rán)也會帶(dài)上歧視的烙印。”
2016年3月,微(wēi)軟人工智能聊天機器人Tay上線(xiàn),在與網民互動過程中,很短時(shí)間內就“誤入歧途”,集性別歧視、種族歧(qí)視於一身,最終微軟不得不(bú)讓它“下崗”。曹建峰認為,算法傾向於將歧視固化或放大,使歧視長(zhǎng)存於(yú)整個算法之中。因此,如果將算法應用在犯罪(zuì)評估(gū)、信用貸(dài)款、雇傭評估(gū)等關係人們切身利益的場合,一(yī)旦產生歧視(shì),就可能(néng)危害個人乃至社會的利益。
此外,深度(dù)學習(xí)還是(shì)一個典型的(de)“黑箱”算法,可能(néng)連設計者都不知道算法(fǎ)如何決(jué)策,因(yīn)而要在係統中發現(xiàn)是否(fǒu)存在歧視和歧(qí)視根源,技術上也較為困(kùn)難。“算法的‘黑箱’特征使其決策(cè)邏輯缺乏透明性和可解釋性。”李倫說,隨著大數據“殺熟”、算法歧視等事件的出現,社會對算法的(de)質疑也逐漸增多。政府和(hé)企業在使用(yòng)數據的過程中,必(bì)須提高對公眾的透明度,讓選擇權回歸個人。
加強核查(chá)監管,加大(dà)對(duì)數(shù)據濫用等行為的懲戒力度
2017年7月,國務院印發(fā)《新一代人工智能發(fā)展規劃》(以下簡(jiǎn)稱《規劃》)。《規劃》強調,促進(jìn)人工智能行業和(hé)企業自律,切(qiē)實加強管理,加大對數據濫用、侵犯個人隱私(sī)、違背道德倫理等行為的懲戒力度。
“雖然‘刷臉’的應用越來越多(duō),但人工智能(néng)目前仍處於起步階段(duàn),需加大對數據和(hé)隱私的保護力(lì)度,關注和防範由算法濫用(yòng)所導致的(de)決策(cè)失誤和社會不公。”在個(gè)人(rén)數據權利的保護方麵,段偉文建議,應促(cù)使(shǐ)數據(jù)交易各(gè)方對自己的行為負責,讓每個(gè)人知道自己(jǐ)的數據如何被處(chù)理,特別是用於其他用途的情形,減少數據濫用,讓人們清楚知道自己的“臉”還(hái)是(shì)否安全。
段偉文認為,要(yào)進一步加強人工智能的倫理設計,對算法的(de)理論(lùn)預設(shè)、內在機製與實踐語境等進行全流程追問與核查,從(cóng)算法決策的(de)結果(guǒ)和影響中的不公正入手,反向核查其機製與過程有無故意或不自覺的曲解與誤導(dǎo),揭示存在的(de)問題,並促使其修正和改進。
在曹(cáo)建(jiàn)峰看來,應對人工智能帶來的倫理問題,一是要構建(jiàn)算法治理的內外部約束機製,將人類社會的法律、道德等規範和價值嵌入人工智能係統;二是在人工智能研發中貫徹倫理原則,促使研發人員遵守基本(běn)的倫(lún)理(lǐ)準(zhǔn)則;三是對算法進行必要的(de)監管,提升算法自身的代碼透明性和算法決策的透明性;四是針對(duì)算(suàn)法決(jué)策和(hé)歧視以及(jí)造成的人(rén)身(shēn)財產損害,提供法(fǎ)律救濟。
“我們生活在(zài)一個人機共生的時(shí)代,人類與機器之間(jiān)勢必將發生各種衝突和矛盾,僅靠法律和製度很難完全解(jiě)決。”李倫(lún)表示,人們還應努力提升自身的科學素養,主動維(wéi)護(hù)自身的權利,社會也應盡快建立討論人工智能倫理問題的公共平台,讓各方(fāng)充分(fèn)表(biǎo)達意見,促進共識的形成。
防爆電話機、消防電話機:昆侖KNZD-65, 昆侖KNSP-13,昆侖KNSP-22等等。
有主機呼叫係統:KNPA-7石油(yóu)化工作業區電話廣播視屏遠程控製(zhì)係統。
KNPA5無(wú)主機呼叫係統:無主機呼叫係統核電、陸上、海上平台應用(yòng)等等。
解決方(fāng)案:地鐵、高鐵、核電、石油化工等解決方案
昆侖科技綜合管廊通信係統解決方案;昆侖科技(jì)綜合管廊管道(dào)通信係統解決方案
詳細的產品信息敬(jìng)請關注公司官網:http://www.koontech.com/cn/Index.htm