久久中文字幕无码A片不卡_亚洲和欧洲免费在线av观看久久精品无码_成人亚洲A片V二区三区久久_国产日韩在线免费视频中字乱码_在线午夜福利视频免费_一线二线三线,在线观看av无需播放器



新聞動態(tài)

聯(lián)系我們


大連愛利斯智能裝備有限公司 


聯(lián)系人�。�王椿隴 總經(jīng)理助理 

聯(lián)系手機:13304082001 

公司熱線: 0411-87329315 

Email  :[email protected]

聯(lián)系地址:大連市經(jīng)濟技術(shù)開發(fā)區(qū)淮河中路1181號

新聞動態(tài)
您當(dāng)前位置: 首頁 > 新聞動態(tài) > 行業(yè)新聞

機器也會歧視人類?這個局如何破

史蒂芬·霍金曾說,“全面化人工智能可能意味著人類的終結(jié)。”他認(rèn)為,機器可以自行啟動,并且自動對自身進(jìn)行重新設(shè)計,速率也會越來越快。而受到漫長的生物進(jìn)化歷程的限制,人類無法與之競爭,終將被取代。




霍金的預(yù)言是否會成真并不重要,重要的是他在提醒我們要對人工智能進(jìn)行管控。在算法和數(shù)據(jù)高速發(fā)展的當(dāng)下,社會生活的各方面都在悄無聲息地與人工智能發(fā)生聯(lián)系。誠然,人工智能給我們的生活帶來了極大的便利,但完全依賴人工智能,人類將如何自處?面對人工智能可能會帶來的不利后果,我們又該做些什么來對其進(jìn)行規(guī)避?


9月28日,在以“更公平的AI”為主題的騰云下午茶上,安理律師事務(wù)所合伙人、互聯(lián)網(wǎng)法律專家王新銳從理論和實操兩個層面出發(fā),提出了AI監(jiān)管的思路,并著重強調(diào)了數(shù)據(jù)保護(hù)問題。


很多人覺得AI的法律和監(jiān)管問題離我們還比較遠(yuǎn),但我們在實務(wù)中其實已經(jīng)接觸到很多跟人工智能相關(guān)的法律問題,其中既有比較具有普遍意義但抽象的問題,比如產(chǎn)生糾紛時雙方舉證責(zé)任和賠償責(zé)任的分配原則;也有比較具體、個性化的問題,比如用于訓(xùn)練算法的數(shù)據(jù)集的一些知識產(chǎn)權(quán)問題。這些問題在具體的語境下,也許是有解的,也許是無解的,但如果把這些問題串在一起看,至少會觀察到,人工智能技術(shù)對很多行業(yè)的影響越來越大,產(chǎn)生了新的利益和風(fēng)險,也需要新的規(guī)則。


我把實務(wù)中遇到的AI法律問題分為兩大類:算法和數(shù)據(jù)。按照人工智能產(chǎn)業(yè)的普遍看法,大數(shù)據(jù)是人工智能快速發(fā)展的基礎(chǔ)。其中數(shù)據(jù)在法律上是一個很宏大的問題,并非人工智能領(lǐng)域所獨有,其中對于個人信息和隱私保護(hù)很多國家都有相對成熟的立法和監(jiān)管機制,中國在《網(wǎng)絡(luò)安全法》出臺后也進(jìn)一步加強了對個人信息的保護(hù);而數(shù)據(jù)權(quán)屬問題在全球范圍內(nèi)也沒有達(dá)成共識,爭議很大;除此以外,數(shù)據(jù)的保密和公開以及跨境傳輸,也有一些復(fù)雜的規(guī)則。而算法的監(jiān)管問題在法律上則更為前沿,舉個例子,歐盟制定了《通用數(shù)據(jù)保護(hù)條例》(GDPR),其中規(guī)定歐盟國家公民將有權(quán)要求“審查某項特定服務(wù)中如何做出特定算法決策”,這對算法影響非常大,具體如何落地,可能會引發(fā)監(jiān)管機構(gòu)和人工智能公司之間的沖突。


我認(rèn)為在人工智能發(fā)展早期的很多因技術(shù)bug產(chǎn)生的問題并不是那么重要(盡管很容易被新聞媒體夸大),因為從長遠(yuǎn)來看,這些問題會隨著技術(shù)發(fā)展自然而然地解決掉,監(jiān)管和法律介入的必要性也不是很大。而重要的是大的框架,也就是人工智能中數(shù)據(jù)和算法的監(jiān)管、立法等問題,這些不達(dá)成共識,行業(yè)發(fā)展到一定階段就會受阻,影響公眾對人工智能的信任和接受。


事前、事中、事后監(jiān)管


人工智能的邊界到底哪里?我認(rèn)為在可能出現(xiàn)重大危機或者影響人類利益的場景下,要實現(xiàn)對算法和數(shù)據(jù)的約束。對人工智能的監(jiān)管思路,從實務(wù)或者理論架構(gòu)來看有三個方面:


第一,對于事后結(jié)果的監(jiān)管。雖然現(xiàn)在深度學(xué)習(xí)只能是機器學(xué)習(xí)的一小塊,甚至連1%都沒有,但是我們必須承認(rèn)深度學(xué)習(xí)的推動作用。算法和數(shù)據(jù)有時候像個黑盒子,我們不確切的知道里面發(fā)生了什么事情,但是我們?nèi)匀豢梢詫Y(jié)果進(jìn)行監(jiān)管,或者通過嚴(yán)格責(zé)任追究開發(fā)者的法律責(zé)任。


第二,對于數(shù)據(jù)采集進(jìn)行事中監(jiān)管。比如美國建立了禁止數(shù)據(jù)采集的負(fù)面清單,中國人民銀行在關(guān)于征信的相關(guān)法規(guī)中對于不同人群和機構(gòu)能采集什么數(shù)據(jù)也有規(guī)定。哪些數(shù)據(jù)不適合提供給人工智能公司,或不允許用于人工智能,也是需要研究的。


第三,在采集行為發(fā)生前,從根上避免一些不宜公開的數(shù)據(jù)被采集。比如,犯罪記錄數(shù)據(jù)的采集。在很多國家,包括中國,犯罪記錄既是個人信息,也是管理信息,超過一定犯罪期限內(nèi)的數(shù)據(jù)不能隨便公開,更不要說未成年人信息。


現(xiàn)在發(fā)展很快的人臉識別技術(shù)和指紋識別最大的區(qū)別在于,人臉識別不需要接觸就可以實現(xiàn),那么人臉識別數(shù)據(jù)采集環(huán)節(jié)怎么進(jìn)行約束是值得考慮的問題。


決策權(quán)不能完全交給機器


人工智能在開發(fā)過程中需要考慮不同場景下的不同影響,并有所區(qū)別,有時需要預(yù)先設(shè)置黑名單或白名單。以智能音箱為例,國外就有因為算法對指令的識別有誤而直接播放色情內(nèi)容給小孩的案例,所以對于直接提供給未成年人的東西就需要限制,這樣才不會引起家長和社會的恐慌,否則也會招致批量的法律糾紛。


而在某些關(guān)系重大的場景中,做決策不能單純依靠人工智能。中國最早發(fā)布人工智能相關(guān)規(guī)范的就是衛(wèi)計委,因為即便人工智能對醫(yī)療有很大的幫助(這一點已有較多的實例支持),但決策權(quán)依然不能完全交給機器,因為責(zé)任是由醫(yī)生來承擔(dān)的。醫(yī)學(xué)倫理問題更加復(fù)雜,不能用簡單的標(biāo)準(zhǔn)化程式解決,更不可能交給機器來判斷。衛(wèi)計委今年出臺四個技術(shù)規(guī)范,這是關(guān)注人工智能邊界的體現(xiàn)。


更公平的AI也是可追責(zé)的AI,在不同的場景和階段采用不同的方法,對新技術(shù)的應(yīng)用進(jìn)行約束。那么法律干預(yù)的必要性在什么地方?這可能是需要思考和解決的問題。


聯(lián)系手機:13304082001  公司熱線:  0411-87329315  網(wǎng)站備案/許可證號遼ICP備13006033號-2

聯(lián)系人: 王森觀 總經(jīng)理助理   Email:[email protected]   聯(lián)系地址:大連市經(jīng)濟技術(shù)開發(fā)區(qū)淮河中路1173號