您的瀏覽器不支援script
科技部國際合作簡訊網
回首頁  意見信箱  English  科技部科教國合司  連結到科技部
  新聞剪影
  專題報導
  科技短訊
  科技政策
  科技新知
  學人及社團活動
  求才專欄
  合作機會
  科技臺灣
  歐盟科技報導
  相關網站
科技新知
  友善列印友善列印 文章轉寄文章轉寄  回上一頁
深究人工智慧的光明前景與危害
作者:駐法國代表處科技組 現職:駐法國代表處科技組
文章來源:法國世界報Le Monde
發佈時間:2018.05.29
人類是否受到科技的威脅?機器是否可能統治人類?以下我們為此一幻想與真實整理了一篇專文。

人工智慧(IA)已蔚為風潮,2017年,光是法國《世界報》(Le Monde)的報紙和網站(Lemonde.fr)就有200篇文章提及人工智慧,2016年的相關文章則佔了將近15%以上。此一命題涉及所有領域,包括經濟、科學、甚至政治,總理Edouard Philippe已經委託艾松省(Essonne)前進黨(LRM)黨籍議員暨數學家Cédric Villani著手研究相關問題,並將於明年1月提交結論報告。
接下來要探究這個辭彙背後代表的意義。當然,這些難以置信的突破顯示,今後機器在特定任務中的表現將優於人類。例如在衛生領域,比起黑素瘤或乳房腫瘤科醫生,機器在醫學影像測定方面的表現更佳。運輸上,機器造成的事故比司機要少。更別提其他領域的進步:語音辨識、遊戲(撲克牌、圍棋)、寫作、繪畫、音樂。
在這個如此特殊的世界後方,活躍著不少數位巨擘,例如谷歌(Google)、臉書(Facebook)、亞馬遜(Amazon)、微軟(Microsoft)、IBM、百度(Baidu)等等,或是想要取代其地位的創投公司。

馬斯克vs祖克柏
當然,這些發展都會引發問題,例如令人擔憂的就業問題,出錯時的法律責任歸屬也尚無解答。別忘了還有隱私權保護的問題:這些機器人能看到一切、聽到一切、預測一切(或幾乎一切),還能將收集到的數據傳送到公司伺服器裡,而我們永遠不會知道這些公司將如何使用這些數據。失控的現象早已出現。資訊學家不就已經研發出一套測試系統,單純從個人相片來判斷性向嗎?
汽車製造商特斯拉公司(Tesla)暨美國太空探索科技公司(SpaceX)總裁伊隆.馬斯克(Elon Musk)曾於2017年夏季宣稱:「我不斷發出警告,但是只要人們沒有看到機器人上街殺人,他們就不會有任何反應。」這些言談引起臉書創辦人馬克.祖克柏(Mark Zuckerberg)的激烈反應,認為這些話是「不負責任的」,並迫不及待地誇讚人工智慧帶來的進步。馬斯克在推特(Twitter)上回應:「我與馬克(祖克柏)都討論過這些,但是他對這個問題的理解很有限。」
人工智慧讓許多人活躍起來,因此我們必須在幻想與真實、誘人的承諾與真實的風險之間做一個整理。

就業受到威脅?
這是不斷出現的恐懼之一。這些科技是否將讓人類退出某些行業?沒有什麼是確定的。目前已發表了多項相關研究,這些研究雖然嚴謹,但也都自相矛盾。2013年,牛津大學的研究員估計,美國有47%的職務受到威脅。三年後,經濟合作開發組織(OCDE)表示,在其35個會員國中,僅有9%的職務受到威脅。
就業導向委員會(COE)主席Marie-Claire Carrère-Gée於2017年1月19日在參議院聽證會上強調:「這些研究只關注就業狀況突然崩解的現象。」
她認為,這些研究沒有考慮到這些科技對創造職位或現有行業轉型的正面影響,但這是錯誤的:「每一次的科技大創新,都會有大量失業的憂慮。然而歷史顯示,科技進步一直都能創造就業機會,最近幾年也是如此。」因此,不可能確切預測未來幾年人工智慧對此一領域的影響。

偏差的數據?
許多人工智慧科技會利用人類創建的巨大資料庫來「學習」和自我充實,例如我們提供1萬份履歷給機器,並指出哪些履歷投遞者能獲得面談機會,機器分析所有的履歷後,會記住跟人類一樣的揀選標準。然而,這些數據經常是有偏差的,結果導致有些程式已經顯示會重現人類的種族或性別歧視。
因此,當人工智慧程式成為2016年選美比賽的評審,它淘汰了大部分的黑人參賽者。另一項科技原本應該要傳達不同字詞之間的連結,結果卻重現了某些刻板印象,例如將女性與家庭、男性與科學職業結合起來.....。另一個問題:2017年9月,兩名加州史丹福大學(Stanford)的研究員宣稱設計了一套程式,可以從臉部辨識出同性戀者。
因此,人工智慧向我們習得了偏見,為的是能進一步……重現。我們該如何校正之?谷歌歐洲研究中心(Google Research Europe)主任Emmanuel Mogenet認為,若數據庫有所偏差,那也是因為這些數據庫通常不夠完整,而且甚少能代表少數族群。
他於2017年4月在《世界報》上表示:「我們必須找到數據收集不足之處。我們正在研究這個問題,我們對此十分關切,因為我們想要有不會忽略少數族群的模型。我們持續進展當中。」

邁向人類心智的「盜版」?
Eric Horvitz直言不諱地說,他擔心「人工智慧會攻擊人類的心智」。這位微軟研究中心(Microsoft Research Lab)主任是該議題的專家,他於2017年3月在美國德州奧斯汀(Austin)舉行的「南西南」藝術慶典(SXSW)上,列出了他認為從現在開始就必須思索的潛在危險。他所謂的「攻擊」,無關乎在腦中植入各項科技的「網路龐克」(cyberpunk)妄想。他所謂的危險更為具體,而且已經出現了。他特別提及那些「專為個人設計」、能撰寫個人化推特(tweet)、並從網路行為獲得啟發的人工智慧程式。
「他在推特上發表了什麼?幾時回覆?參與了哪些活動?這些資訊都可用來設計一條推文,讓此人幾乎不可能不去點擊。」這是最新的特定廣告,但不僅限於此。「有些公司會使用這些數據將訊息個人化,也可用來影響人們投票的方法,例如劍橋分析公司(Cambridge Analytica)。」這間英國創投公司在2016年美國總統大選中,為唐納.川普(Donald Trump)的獲選發揮了很大的作用。
Eric Horvitz也擔心會出現「假新聞」(fake news),這些從頭到尾都是錯誤的訊息有可能會利用這些科技,有些程式甚至已能在視頻上塑造出我們想要的歐巴馬(Barack Obama)或普亭(Vladimir Poutine)形象。

禁止自主武器?
今日在技術上,沒有什麼能阻礙致命自主武器的製造。但軍方表示,這些機器都是由人類遠端遙控,從未「自行決定射擊」。目前並無任何國際規章禁止使用致命自主武器,因此聯合國(ONU)正在討論相關議題。
加州大學柏克萊分校(Berkeley)的Stuart Russell教授曾於2017年11月擔憂地表示,這些科技「已經存在」。這位十分投入的研究員補充道:「它們可以進行殺戮,危及我們的安全和自由。」
2015年,包括眾多人工智慧研究員以及公眾人物如伊隆.馬斯克、天文物理學家史蒂芬.霍金(Stephen Hawking)等千餘人,曾呼籲禁止這類武器並表示:「這是非常重要的:繼火藥和核武後,自主武器被視作第三次的戰爭技術革命。」

無所遁形?
近幾年來,由於自主式深度學習(deep learning)的進展,電腦視覺有了重大進步,電腦程式已能辨識臉部、區分貓狗、描述影像。
這些創新逐漸應用到視頻上。法國國鐵(SNCF)也於2015年11月攻擊事件後,宣佈正在測試利用監視器來偵測可疑行為的科技,其標準包括「體溫改變、嗓音提高、舉止不流暢,這些都有可能是某種焦慮反應。」
這類系統加上臉部辨識科技,就有可能直接偵測棄置可疑包裹的通緝犯。但是獨裁政權也能利用此一技術來辨識人權鬥士……。也就是說,這些系統的運作遠遠不夠完美,很有可能造成重大失誤。

如何保護個資?
為了運作,許多人工智慧程式必須利用數十萬、甚至數百萬的人類數據來「自我訓練」。這些數據如何取得?是否有獲得相關人士的同意?
2017年4月,一名研發人員在網路上發表了4萬張Tinder交友應用程式(app)用戶的資料照片,供人工智慧專家使用。這些圖像最後在Tinder要求下刪除,因為該應用程式規定禁止這類型的使用。
2015年,谷歌旗下的人工智慧公司DeepMind與隸屬英國公醫制度(NHS)的倫敦醫院簽約,卻陷入同樣的困境。DeepMind藉此取得160萬名患者的資料,以便研發能協助醫院員工的應用程式,卻在整個英國引發極大的爭議。

解釋不可理解之處?
今日,我們能設計出醫療診斷提案的程式或是批准貸款申請的程式,但是這些程式做出的決定,有一大部份是無法解釋的。
工程師無法追蹤機器大量計算得出的結論。換句話說,若貸款申請被拒或履歷被淘汰,將無法提供任何理由。這點令人十分困擾,更說明了人工智慧通常只能用來提供解決方案,驗證部份仍須倚靠人類。
對專業研究員來說,這是一個重大關鍵。國立礦業暨電信聯合學院(IMT)的研究主任David Sadek於2017年1月19日在參議院中指出:「行為解釋非常重要,因為它決定了社會對這些系統的接受度。」

有責任但無罪?
2017年1月19日,時任默爾特-摩塞爾省(Meurthe-et-Moselle)議員的Jean-Yves Le Déaut在眾議院中強調:「若機器人發展起來,誰該負責?損壞時的修復將會是一個問題。」
無論是在法國或他處,法律似乎都未能立即做出改變。2017年3月,德州大學(Texas)法學院教授Derek Jinks在「南西南」藝術慶典上表示:「針對工程師無法預測的情況,我們會越來越仰賴自動化系統做出決定。」
那麼自動駕駛汽車如何?這個問題讓保險公司十分困擾:若這輛汽車在意外事故中造成某人死亡,該負責的是製造商、工程師、汽車擁有者或是坐在駕駛座上的人?這些問題都亟需解決,卻沒有任何答案,然而在美國,實驗性的自動駕駛汽車已經於真實道路上行駛了數百萬公里。

「終結者」,一個虛假的威脅?
2017年4月,巴黎高等師範學院(ENS)人工視覺研究員Jean Ponce宣稱:「奇異點(singularité)讓我覺得很煩躁。」他批評此一理論的支持者,該理論假設並指出人工智慧超越人類智力的時刻。他在谷歌於巴黎舉行的會議上肯定地表示:「我沒有看到任何跡象能證明,今日的智能機器比以往更像我們。」
在集體想像中,人工智慧經常讓人想起電影《魔鬼終結者》(Terminator)裡,那些向人類宣戰的機器。然而實際上,大部分的人工智慧研究員表示,他們無法製造出像人類一樣聰明、能自然對話、具備常識和情緒等等的機器,更別提製造人形化機器人了。
認為人工智慧能脫離創造者的掌控,這種想法同樣引起科學界的訕笑,他們難以理解為何有些人擔心,設計用來下圍棋的程式會突然攻擊人類。
Eric Horvitz在「南西南」藝術慶典上吃驚地說:「令人難以置信的是,這激起了人們的興趣。記者試圖傳遞一種極端的觀點,然而真實的情況更加微妙。」他認為:「這些都是非常有意思的問題,值得我們的關注,而且我們不能恥笑說這些人瘋了。」但是他也強調:「這些都是非常長期的問題,但我們必須要思索的是與我們有直接關係、當下的問題。」


資料來源:法國《世界報》,2017年12月30日
網址:http://abonnes.lemonde.fr/pixels/article/2017/12/30/l-intelligence-artificielle-ses-promesses-et-ses-perils_5236008_4408996.html
TOP
Copyrightsc2003 Department of International Cooperation and Science Education. All rights reserved. 科技部科教國合司 版權所有
隱私權宣告 ● 版權宣告  最佳瀏覽解析度1024x768