你好,歡迎來到川北在線
微信
騰訊微博
新浪微博
專家警告未來戰(zhàn)場用智能自動武器非常危險 如被黑客侵入后果不堪設想
時間:2016-03-24 14:29   來源:川北在線整理   責任編輯:沫朵
  原標題:專家警告未來戰(zhàn)場用智能自動武器非常危險 如被黑客侵入后果不堪設想

專家警告未來戰(zhàn)場用智能自動武器非常危險

  圖中是科幻電影《鋼鐵俠2》中的機器人戰(zhàn)士,目前專家指出,未來將自動化武器投入戰(zhàn)場是很危險的,如果被黑客侵入系統(tǒng)后果不堪設想。
 
  據(jù)英國每日郵報報道,將自動武器投入戰(zhàn)場將很大程度人類戰(zhàn)士的負擔和危險,但目前專家提出,這樣做將更加危險和不安全。近期召開的一次國際會議中,研究人員表示,智能化自動武器可以被不道德行為利用,甚至成為黑客的操控平臺。
 
  不同于人類可以完全控制的無人機,未來自動武器將自動選擇和攻擊目標。該問題在今年1月份瑞士召開的世界經(jīng)濟論壇上重點討論。美國新南威爾士大學人工智能專家托比-沃爾什(Toby Walsh)教授指出,自動武器是我們2015年關(guān)注的一個焦點,我們普遍認為當前并不具備制造倫理機器人的能力,尤其令人擔憂的是,近年來全球各國紛紛開始將機器人投入戰(zhàn)場,我們并不認為現(xiàn)在能夠制造出倫理機器人。
 
  為了制造一個“倫理機器人”,研究人員將對機器人系統(tǒng)編程特殊規(guī)則,避免它們失去控制。例如:科幻小說作家艾薩克-阿西莫夫(Isaac Asimov)撰寫的一部短篇科幻小說《環(huán)舞》,小說中提出控制機器人行為的三條定律,定律一是機器人不能傷害人類,或者遇到人類被傷害時不能坐視不管;定律二是機器人必須遵守人類指令,除非遇到指令與定律一相沖突;定律三是機器人在不違反前兩條定律的前提下必須要保護好自己。
 
  專家認為,這三條定律將有助于研制道德規(guī)范化機器人,最終設計師將使用這些定律設計機器人。部分專家表示,談及“人工智能機器人反叛”為時過早。新美國安全中心倫理自動項目主管保羅-夏倫(Paul Scharre)說:“當前絕大多數(shù)自動化武器并未投入使用,多數(shù)自動化武器系統(tǒng)仍處于‘發(fā)射后不管’的階段,甚至設計的先進系統(tǒng)也不能智能化選擇目標。”
 
  夏倫在世界經(jīng)濟論壇上發(fā)言指出,雖然自動化武器在戰(zhàn)爭中并未禁止使用,但是它們?nèi)绻磥硗度霊?zhàn)場,能否遵循公認的交戰(zhàn)規(guī)則將是一個很大的挑戰(zhàn)。最終即使自動化機器人合法和遵循倫理道德,它們也是非常危險的,故障失控和敵方黑客侵入,都將使自動化武器系統(tǒng)具有巨大威脅。尤其是自動化武器的安全系統(tǒng)被黑客侵入并改寫,這將成為戰(zhàn)場上的災難,伴隨著武器系統(tǒng)變得更加自動化,黑客攻擊潛在的威脅日益增大,不論是否這個武器平臺仍被人類所控制。

   投稿郵箱:chuanbeiol@163.com   詳情請訪問川北在線:http://m.sanmuled.cn/

川北在線-川北全搜索版權(quán)與免責聲明
①凡注明"來源:XXX(非在線)"的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,本網(wǎng)不承擔此類稿件侵權(quán)行為的連帶責任。
②本站所載之信息僅為網(wǎng)民提供參考之用,不構(gòu)成任何投資建議,文章觀點不代表本站立場,其真實性由作者或稿源方負責,本站信息接受廣大網(wǎng)民的監(jiān)督、投訴、批評。
③本站轉(zhuǎn)載純粹出于為網(wǎng)民傳遞更多信息之目的,本站不原創(chuàng)、不存儲視頻,所有視頻均分享自其他視頻分享網(wǎng)站,如涉及到您的版權(quán)問題,請與本網(wǎng)聯(lián)系,我站將及時進行刪除處理。



圖庫
合作媒體
金寵物 綠植迷 女邦網(wǎng) IT人
法律顧問:ITLAW-莊毅雄律師