12月15日消息,據(jù)《華盛頓郵報》報道,全球領(lǐng)先的人工智能公司谷歌首席執(zhí)行官桑達(dá)爾·皮查伊(Sundar Pichai)本周接受采訪時表示,對人工智能技術(shù)被濫用的擔(dān)憂是“非常合理的”,但同時應(yīng)該相信科技行業(yè)能夠負(fù)責(zé)任地規(guī)范好該技術(shù)的使用。

桑達(dá)爾·皮查伊周二下午在接受采訪時表示,新的人工智能工具,比如無人駕駛汽車和疾病檢測算法等,都要求科技公司設(shè)置道德護(hù)欄并思考什么是對該技術(shù)的濫用。
“我認(rèn)為科技公司必須意識到不能先創(chuàng)造人工智能工具,然后再去完善它,”皮查伊說,“我認(rèn)為這樣是行不通的。”
同時皮查伊表示,科技巨頭必須確保人工智能與其應(yīng)用不對人類造成危害。他說,他對人工智能的長期益處持樂觀態(tài)度,但他對人工智能潛在風(fēng)險的評估與一些科技批評人士的觀點一致。這些批評人士認(rèn)為,人工智能可能會被用于侵入性監(jiān)控的授權(quán)、致命武器和錯誤信息的傳播。SpaceX和特斯拉(Tesla)創(chuàng)始人埃隆·馬斯克(Elon Musk)以及其他一些科技公司的高管甚至做出了更可怕的預(yù)測,稱人工智能可能”比核武器危險得多”。
人工智能技術(shù)支撐著谷歌的方方面面,很多業(yè)務(wù)都離不開人工智能技術(shù)。而最近,谷歌如何部署人工智能的決定也引發(fā)了員工動蕩。
在皮查伊呼吁科技公司自我監(jiān)管之前,曾出席國會聽證會,當(dāng)時立法者威脅要對技術(shù)施加限制以應(yīng)對技術(shù)濫用現(xiàn)象-包括使用科技傳播錯誤信息和仇恨言論。如今,皮查伊承認(rèn)AI構(gòu)成的潛在威脅,這非常關(guān)鍵,因為這位出生于印度的工程師經(jīng)常吹噓自動化系統(tǒng)的世界形態(tài),這些系統(tǒng)可以在沒有人為控制的情況下學(xué)習(xí)和做出決策。
皮查伊在采訪中表示,世界各地的立法者仍在努力掌握AI的影響以及政府監(jiān)管的潛在需求。他說道:“有時我擔(dān)心人們低估了中長期可能出現(xiàn)的變化規(guī)模,我認(rèn)為這些問題實際上非常復(fù)雜。”包括微軟在內(nèi)的其他科技巨頭,最近也接受了對AI的監(jiān)管,這種監(jiān)管既來自于創(chuàng)建該技術(shù)的公司,也來自于監(jiān)督AI使用的政府部門。
同時皮查伊表示,如果處理得當(dāng),AI可以帶來“巨大的好處”,包括幫助醫(yī)生通過自動掃描健康數(shù)據(jù)來檢測眼疾和其他疾病。他說:“在早期,對技術(shù)進(jìn)行監(jiān)管非常困難,但我確實認(rèn)為公司應(yīng)該自我監(jiān)管,這也是為什么我們想要努力闡明一套AI原則??赡懿⒉皇俏覀冏龅拿恳患露际钦_的,但我們認(rèn)為開始對話很重要。”
皮查伊于2004年加入谷歌,11年后成為首席執(zhí)行官,1月份曾稱AI是“人類正在為之努力的最重要的事情之一”,并稱AI對人類社會的影響可能會被證明比“電力”的影響更“深刻”。但是,對自動化機(jī)器的追求,重新引發(fā)了人們對于硅谷的企業(yè)精神的擔(dān)憂,這種企業(yè)精神-像Facebook曾經(jīng)說過的那樣,“快速行動,打破現(xiàn)狀”-可能會導(dǎo)致強(qiáng)大的、不完美的技術(shù)取代眾多就業(yè)崗位,傷害人們。
在谷歌內(nèi)部,其在人工智能方面的努力也引發(fā)了爭議。今年早些時候,該公司曾因在一份涉及人工智能的國防部合同中所做的工作而受到嚴(yán)厲批評,該合同中的AI技術(shù)可以自動為汽車、建筑和其他用于軍用無人機(jī)的物品貼上標(biāo)簽。一些員工辭職是因為他們認(rèn)為谷歌在從“戰(zhàn)爭業(yè)務(wù)”中獲利。
當(dāng)被問及員工的強(qiáng)烈反對態(tài)度時,皮查伊告訴記者,谷歌員工是“我們文化的重要組成部分。他們肯定會有自己的意見,非常重要的意見,我非常珍視這些意見。”
今年6月,皮查伊宣布谷歌明年不再續(xù)簽與國防部的合同后,公布了一系列人工智能道德原則,其中包括了一般禁止開發(fā)系統(tǒng),這些系統(tǒng)可能會造成傷害,損害人權(quán)或被用于違反國際公認(rèn)準(zhǔn)則的監(jiān)視行為。
谷歌在2015年發(fā)布其內(nèi)部機(jī)器學(xué)習(xí)軟件TensorFlow,有助于加速人工智能的廣泛開發(fā),但它同時也被用于自動創(chuàng)建騷擾和逼真虛假視頻。這使谷歌備受批評。
谷歌和皮查伊為該軟件的發(fā)布進(jìn)行了辯護(hù),他們說,限制技術(shù)的使用可能會導(dǎo)致公眾監(jiān)督的減少,并阻止開發(fā)人員和研究人員以有益的方式提高其能力。
皮查伊在接受采訪時表示:“隨著時間的推移,當(dāng)技術(shù)不斷進(jìn)步時,我認(rèn)為圍繞道德(和)偏見展開對話,同時取得進(jìn)展是很重要的。”
他說:“從某種意義上,你確實希望建立道德框架,盡早聘請非計算機(jī)科學(xué)家,以更具代表性的方式讓人類參與其中,因為這項技術(shù)將影響人類。”
皮查伊將AI技術(shù)早期的圍繞AI設(shè)置參數(shù)的工作,比作學(xué)術(shù)界在遺傳學(xué)研究早期的努力。“許多生物學(xué)家開始劃定這項技術(shù)的發(fā)展方向,”他說。“學(xué)術(shù)界有很多的自我監(jiān)管,我認(rèn)為這一點非常重要。”
這位谷歌高管表示,尤其是在自主武器研發(fā)方面,自我監(jiān)管是至關(guān)重要的,這個問題一直困擾著科技高管和員工。今年7月,包括谷歌在內(nèi)的科技公司數(shù)千名技術(shù)工人簽署了一項承諾,反對開發(fā)可編程殺人的人工智能工具。
皮查伊還說,他在YouTube上發(fā)現(xiàn)了一些可恨的、陰謀論的視頻,這些視頻在一些媒體報道中被描述為“令人憎惡的”,他還表示,該公司將致力于改進(jìn)其系統(tǒng)以檢測有問題的內(nèi)容信息。這些視頻自今年4月出現(xiàn)以來,在YouTube上被觀看了數(shù)百萬次。視頻中包含一些毫無根據(jù)的指控,即民主黨人希拉里·克林頓(Hillary Clinton)及其長期助手胡瑪·阿貝丁(Huma Abedin)襲擊、殺害一名女孩并喝了她的血。
皮查伊說,他沒有看過這些他在國會聽證會上也被問及的視頻,并拒絕透露YouTube在這一領(lǐng)域的缺陷是源于檢測系統(tǒng)的限制,還是源于用于評估是否應(yīng)該刪除特定視頻的政策的限制。但他補(bǔ)充說,“你會看到我們2019年將會繼續(xù)在此方面做出更多努力。”
關(guān)鍵詞: