尖端科技軍事雜誌社

首頁 新聞總覽 戰鬥機器人技術躍進:自行識別目標,只問人是否要接戰...

戰鬥機器人技術躍進:自行識別目標,只問人是否要接戰...

編譯:李思平

  在美國陸軍目標合流( Project Convergence)演習中,美國陸軍進行了一次讓機器人投入作戰的試驗,而在此演習的機器人,具備了史無前例的強大自主化作戰能力….

  機器人的目標,是在猶馬驗證場(Yuma Proving Ground)中模擬都市作戰環境的建築群之中。在建築群外,有一個無人機作為人類操作者與機器人間的通訊中繼站,其他的機器人(無人車/無人機)則朝建築群內挺進,而人類操作者則在機器人發現目標後,授權機器人開火,機器人就接手殺人的工作。

  接著,透過輔助目標識別(Aided Target Recognition,ATR)演算法,機器人發現了一輛T-72,但此目標距離機器人的武器實在太遠,因此發現T-72的機器人將目標資訊上傳到戰術網路,接著,再次得到人類操作者的允許後,申請了砲兵支援。

  根據演習主持者,考夫曼准將(Rrig. Gen Richard Ross Coffman)指出,本次的演習對於機器人發展來說是一大躍進,且現在機器人有了機器視覺,可以靠攝影機進行自主障礙迴避,而不需傳統的光達或雷達。

 

設立軍用機器人的全新標準

  在此演習中的機器人運用驗算法實施目標識別,並具備半自主判斷的能力,且還擁有「機器視覺」(一種不靠光達就能迴避障礙物的能力),其能力比現役的軍用機器人都還要強大,而它們雖然並不是全自主化,但目前需要人力遙控的程度已經比以往大幅減少。目前機器所做到的事情,雖然還不能自己思考,但已經可以將情資回傳給人類操作者,而操作者再告訴它們要往哪裡去、做些什麼事情。

  在現今主流的軍用機器人採用的是遠端操作(Teleoperation)的方式,它可以有效讓人類操作者遠離危險,因此很適合做為小規模偵察或爆裂物拆除等工作,但當投入快節奏的作戰或者是大規模衝突時,其反應時間將會過慢,且操作所需的能量會過於巨大。因此,要讓機器人有效投入新型態的作戰,機器人必須具備一定程度的自主能力。

  負責監督機器戰鬥車(Robotic Combat Vehicle,RCV)以及可選擇載人戰鬥車(OMFV)計畫的Coffman准將,在本此演習前八個月,曾對陸軍人工智慧特遣隊(Artificial Intelligence Task Force)的人說:「我想要你們可以靠機器人就感測到目標,而且前進的時候還不需要靠光達(Lidar)。」

 

不需要光達就能導航、光看攝影機就能判別目標

  光達(Lidar)是一種使用低功率雷射偵測障礙物的導航設備,常用於自動駕駛車上,但考夫曼認為這種設備會主動發射雷射光,容易讓敵人偵測到,因此應該避免使用這樣的導航設備。

  在本次實驗中使用的機器人名為起源(Origin),它倚靠的是被動感測器:攝影機陣列,作為障礙物迴避的導航設備。透過演算法,機器人現在可以靠攝影機輸入的光學畫面,判讀潛在障礙物的位置,且無須光達或雷達判讀障礙物的距離與方向。這對於人類和動物來說可能很簡單,透過眼睛和大腦就可以判讀目標的深度和方向,但對於機器人來說卻還是很困難,然而本次實驗卻是機器人研發中的一大成功。

  透過機器視覺,機器人已經可以安全的從A點抵達B點,但陸軍要求的並不只是如此,而是還要有機器人自行偵察威脅和目標,自行判別與回報,無須人類操作者一直盯著螢幕,這也就是為何輔助目標識別(Aided Target Recognition,ATR)的出現。有趣的是,ATR同時也是自主化目標識別Automated Target Recongnition)的縮寫,但陸軍不想要在字面上有取代人類判斷的嫌疑,因此使用了輔助一詞替代自主化。

  以影像實施目標識別是一個大挑戰,雖然現在民間已經有很厲害的影像識別人工智慧,但沒有私人公司有興趣做出分辨M1和T-72戰車的影像識別技術,或者是識別普通的Toyota皮卡和恐怖份子自行改裝的武裝皮卡,同時,識別混雜在民眾中的敵人,對於人工智慧來說也是很複雜的任務。更困難的是,機器人必須在地面上,識別活用迷彩和掩蔽物的敵人目標,這種難度遠比在空中俯視與判別目標更高。

  為了解決這樣的難題,陸軍提供了多達350萬幅影像讓機器自主學習,而就像人類要學習判讀不同目標一樣,機器也可以透過觀察多個角度的影像,自行學習判讀。而與傳統資料庫比對方法不同的是,機器人不需要在記憶體中儲存上百萬張照片,而是有點像人類記憶的方式,讓機器自己想起曾經看過的圖片,自主進行分類。

  事實上,考夫曼說,陸軍已經成功的在UAV、機器人和載具上驗證過這樣的技術了,現在機器可以識別敵人的型號以及位置。

  換句話說,在這場演習中的機器人,已經不像以前的機器人一樣還需要持續向中繼站傳輸即時穩定的高解析度畫面才能有效提供情報,以及讓人類進行決策,而是透過搭載在機器人上的人工智慧,向後傳輸必要的資訊,例如是否發現目標、目標數量和位置以及它們當前的行動等,接著再讓人類決策即可。如此一來,不僅可以大幅減少傳輸所需的頻寬,有效增進抗干擾能力,更能大幅降低人類操作者的負擔。

  也許,接下來最大的問題,就是是否要讓人類離開決策循環,讓機器人自主作戰,但就目前來看,陸軍還是會讓人類握有主控權。

https://breakingdefense.com/2020/09/army-robots-hunt-tanks-in-project-convergence/

https://www.army.mil/article/239118/engineers_and_scientists_test_autonomous_weaponry_for_the_us_army_during_project_convergence_20

https://www.army.mil/article/238953/next_generation_combat_vehicle_cross_functional_team_converges_efforts_during_project_convergence_20