AI技術的軍事應用引發道德爭議。

人工智慧(AI)科技發展日新月異,但有關技術在軍事武器的應用卻引發道德爭議。荷蘭一個非政府組織針對全球科技巨企進行研究,調查企業在開發致命AI武器的投入度,並指微軟、亞馬遜等巨企的AI發展令人擔憂。有學者呼籲,國際應全面禁止AI殺人機器。

高度關注微軟亞馬遜等巨企

荷蘭和平組織Pax根據3個範疇,包括企業有否發展AI致命武器的相關科技、有否發展AI軍事項目、有否承諾不再繼續發展,為50間企業排名。其中,正在競投美國國防部的100億美元雲端軍事基建的微軟及亞馬遜,被列入「高度關注」類別。而與美國中情局(CIA)有關的軟件企業Palantir,則因為發展價值8億美元的實時戰鬥分析AI系統,而同被列為「高度關注」。

報告作者斯利普(Frank Slijper)質問︰「這此爭議性武器,可以在沒有人類直接干涉之下,自行決定殺人。為甚麼微軟及亞馬遜甚至不否認正在開發有關武器?」

加州大學柏克萊分校的電腦科技教授羅素(Stuart Russell)亦指出,負責開發AI技術的企業,在阻止自動殺人武器的流通上,有很大的責任。