首頁 » 新聞 » 千名西方學者聯名警告:世界將毀於人工智慧軍備賽

千名西方學者聯名警告:世界將毀於人工智慧軍備賽

近日,物理學家斯蒂芬•霍金(Stephen Hawking)、哲學家諾姆•喬姆斯基(NoamChomsky)、科技專家伊隆·馬斯克(Elon

Musk)和數千名知識份子在一封聯名公開信中警告:必須取締「機器人殺手」的研發和應用,人工智慧方面的軍備競賽可能是人類的災難,它將助長戰爭和恐怖主義,加劇世界動盪局勢。英國《獨立報》(The

Independent)進行了跟蹤報導,澎湃新聞對此進行了編譯。

自主性武器已被描述為繼火藥和覈武器之後的第三次軍事革命

千餘名機器人專家和人工智慧(AI)研究人員

–包括物理學家斯蒂芬·霍金、科技專家伊隆·馬斯克和哲學家諾姆·喬姆斯基,近日簽署了一封公開信,呼籲禁止使用「具有攻擊性的自主武器」–

廣告-請繼續往下閱讀

「機器人殺手」。簽署該公開信的還有蘋果公司的聯合創始人史蒂夫·沃茲尼亞克(Steve

Wozniak),以及數以百計的人工智慧和機器人科技研究員,他們均來自世界一流大學和實驗室。

這封公開信由未來生活研究所(Future of Life

Institute)發起,這個團體致力於緩解「人類面臨的生存風險」,警告人們啟動「人工智慧軍備競賽」的危險。這些機器人武器可能包括根據自身程式蒐索並殺死特定目標的軍用無人機,這種新一代的無人機可以通過遠程操控對幾千裡外的地區發動攻擊。

公開信中談到「人工智慧科技已經達到了這樣一個地步:如果沒有法律限制,那麼這種系統的部署在未來幾年中就可以實現,並不需要等待幾十年。」它補充說,自主性武器已被描述為繼火藥和覈武器之後的第三次軍事革命。

廣告-請繼續往下閱讀

未來生活所相信人工智慧的巨大潛力在很多方面會造福人類,但是機器人武器的發展並不會,它很有可能被恐怖分子、殘酷的獨裁者和那些熱衷種族清洗的人所利用。

這種武器雖然還沒有真正研製出來,但是科技的推進使得他們的誕生並不遙遠。該武器的反對者,就像這封信的簽署者一樣,相信通過消除人類死亡的危險,機器人武器(這項科技在未來幾年內會變得無處不在,價格低廉)將會降低戰爭的門檻,使得戰爭更加頻發。

製造機器人武器,使人擔憂人工智慧的濫用

去年,韓國推出了類似的武器–武裝哨兵機器人,它們現時被安裝在朝鮮邊境。通過相機和熱感測器,它們能夠檢測並自動追跡人類,但是該機器需要人工操作才能射擊。

公開信警告說,對人工智慧的和平使用,將會給人類帶來潛在的益處。但如果用它來製造機器人武器,便會滋長公眾的不滿,削減了人工智慧真正的好處。

這種說法聽起來很有未來感,但是在這塊領域科技的確正在以極快的速度推進,與此同時人們對人工智慧暴力使用的反對呼聲也越來越強烈。

「封鎖機器人殺手」的運動率先呼籲禁止機器人武器

2012年,由一系列非政府組織,其中包括人權觀察(Human Rights

Watch)發起的「封鎖機器人殺手」運動率先呼籲禁止機器人武器。現時他們正努力在《特定常規武器公約》(Convention ofConventional

Weapons)的框架內處理機器人武器的問題,該公約在日內瓦聯合國大會上通過,旨在禁止使用某些常規武器,如地雷和鐳射武器在1995年已經被禁止使用,這場運動希望自主性武器也可以同樣被禁止。這項運動試圖通過該公約,設立一個以禁止這種武器為目的政府專家小組來處理相關事件。

今年初,英國在聯合國會議上反對禁止機器人殺手,其外交部官員告訴《衛報》(The

Guardian),他們並不認為有必要對自主性武器實施禁止,並且聲稱英國並沒有研製類似的武器。

廣告

看看這個吧

這個警察本想呼叫同仁閃避,下一秒他竟然「被車撞」…最後往生!「這畫面」讓所有人暴哭!

>>全台最快速,高清1080p ...

出租房竟飄出「異味」,沒想到一開門整張床「滿滿的都是這個」…房東嚇到去收驚!

>>每日更新50片,高清108 ...