머신 킬러의 유령은 계속됩니다. 푸틴 대통령은 무엇을 믿습니까?
기술

머신 킬러의 유령은 계속됩니다. 푸틴 대통령은 무엇을 믿습니까?

군용 로봇 지지자들(1)은 자동화 무기가 인명 보호를 위한 더 많은 옵션을 제공한다고 주장합니다. 기계는 군인보다 적에게 더 가까이 다가갈 수 있으며 위협을 정확하게 평가할 수 있습니다. 그리고 감정은 때때로 올바른 결정을 내리는 능력을 마비시킵니다.

킬러 로봇을 사용하는 것을 옹호하는 많은 사람들은 더 적은 수의 군인이 죽을 것이기 때문에 전쟁이 덜 유혈이 될 것이라고 강력하게 믿습니다. 그들은 로봇이 연민을 느끼지는 않지만 종종 전쟁 범죄로 이어지는 공황, 분노, 복수와 같은 부정적인 인간 감정에 면역이 있다는 점에 주목합니다.

인권 운동가들은 군대가 지난 반세기 동안 민간인 사상자를 크게 줄였으며 군대의 로봇화를 통해 전쟁법을 보다 엄격하게 집행할 수 있다는 주장을 사용합니다. 그들은 기계가 전쟁의 법칙을 따르도록 강요하는 소프트웨어가 장착될 때 윤리적이 될 것이라고 주장합니다.

물론, 매우 유명한 사람들을 포함하여 수많은 사람들이 수년 동안 이 의견을 공유하지 않습니다. 2013년 2월에는 (XNUMX)라는 슬로건 아래 국제 캠페인이 시작되었습니다. 그 틀 내에서 비정부 조직은 자율 무기 사용에 대한 완전한 금지를 요구합니다. 많은 국가의 전문가들이 2014년 XNUMX월 제네바에서 열린 UN 군축 회의에서 처음으로 이 주제를 논의했습니다. Human Rights Watch와 Harvard University의 과학자들이 몇 달 후 발표한 보고서에 따르면 자율적인 것은 너무 위험할 것이라고 말했습니다. 그들은 자신의 목표를 선택하고 사람들을 죽였습니다. 동시에 누가 책임을 져야 하는지도 명확하지 않습니다.

2. Stop Killer Robots 캠페인의 일환으로 시연

작은 드론 떼가 할 수 있는 일

킬러 로봇(ROU)을 둘러싼 분쟁은 수년간 계속되어 왔으며 사라지지 않습니다. 최근 몇 달 동안 군용 로봇을 막으려는 새로운 시도와 이러한 유형의 새로운 프로젝트에 대한 보고서가 쏟아져 나왔고, 그 중 일부는 실제 전투 조건에서도 테스트되고 있습니다.

2017년 XNUMX월, 다음을 보여주는 비디오 미니 드론의 치명적인 떼 ., 무서운 행동으로. 시청자들은 더 이상 프레데터가 기관총으로 대량 학살을 위해 던진 중장비, 탱크 또는 미사일이 필요하지 않다는 것을 알게 되었습니다. 버클리의 인공 지능 교수인 수석 이사인 스튜어트 러셀(Stuart Russell)은 다음과 같이 말합니다.

-

지난 봄 XNUMX명의 교수 세계 유수의 대학들이 한국과학기술연구원(KAIST)과 협력사인 한화시스템에 상고에 서명했다. 그들은 대학과 협력하지 않고 KAIST 게스트를 호스트하지 않을 것이라고 발표했습니다. 그 이유는 두 기관에서 수행 한 "자율 무기"건설이었습니다. KAIST는 언론 보도를 부인했다.

얼마 후 미국에서 3명 이상의 Google 직원 군대를 위한 회사의 일에 대해 항의했다. 그들은 구글이 인공지능을 사용해 군용 드론 비디오에서 사물과 얼굴을 인식하는 것을 목표로 하는 코드명 메이븐(Maven)이라는 정부 프로젝트와 협력하고 있다고 우려했다. 회사 경영진은 메이븐의 목표는 공격성이 아닌 지루한 작업에서 사람들을 구하고 생명을 구하는 것이라고 말합니다. 시위대는 확신하지 못했다.

전투의 다음 부분은 선언이었습니다. 인공 지능 전문가, 포함 Google 프로젝트에서 작업하고 일론 머스크. 그들은 로봇을 개발하지 않을 것을 약속합니다. 그들은 또한 정부에 이러한 무기를 규제하고 제한하기 위한 노력을 강화할 것을 촉구합니다.

성명서는 부분적으로 "인간의 생명을 앗아가기로 한 결정은 기계에 의해 취해져서는 안 된다"고 말한다. 세계의 군대에는 많은 자동 장치가 장착되어 있으며 때로는 높은 수준의 자율성을 갖고 있지만, 많은 전문가들은 미래에 이 기술이 완전히 자율적이어서 인간 오퍼레이터와 지휘관의 개입 없이 살해할 수 있다고 우려하고 있습니다.

전문가들은 또한 자율 살인 기계가 통제 불능 상태에 빠지기 쉽기 때문에 "핵무기, 화학무기, 생물학 무기"보다 훨씬 더 위험할 수 있다고 경고합니다. 지난해 170월 총 2464개 기관과 2019명의 개인이 FGI(Institute for the Future of Life) 주관 서한에 서명했다. XNUMX년 초, FLI에 소속된 의료 과학자 그룹은 인공 지능(AI) 제어 무기 개발을 금지하는 새로운 서한을 다시 요청했습니다.

작년 XNUMX월 Gniewo에서 열린 군사용 "킬러 로봇"의 법적 규제 가능성에 대한 UN 회의는 성공적으로 끝났습니다... 기계. 미국, 러시아 및 이스라엘을 포함한 국가 그룹은 이러한 무기에 대한 국제적 금지 도입에 대한 추가 작업을 차단했습니다(특정 재래식 무기의 사용 금지 또는 제한에 관한 협약 초안, CCW). 이들 국가가 자율 및 로봇 무기의 고급 시스템에 대한 작업으로 알려진 것은 우연이 아닙니다.

러시아는 전투 로봇에 중점을 둡니다.

블라디미르 푸틴 대통령은 종종 군사 AI 시스템과 전투 로봇에 대해 다음과 같이 말한 것으로 인용됩니다.

-.

자율 무기 개발에 대해 공개적으로 이야기합니다. 발레리 게라시모프(Valery Gerasimov) 군의 참모총장은 최근 군 통신인 Interfax-AVN과의 인터뷰에서 로봇 사용이 미래 전쟁의 주요 특징 중 하나가 될 것이라고 말했습니다. 그는 러시아가 노력하고 있다고 덧붙였다. 전장을 완전히 자동화. 드미트리 로고진 부총리와 세르게이 쇼이구 국방장관도 비슷한 발언을 했다. Viktor Bondarev 국방 안보 연방 위원회 위원장은 러시아가 발전을 위해 노력하고 있다고 말했습니다. 로주테크놀로지스이를 통해 드론 네트워크가 단일 개체로 기능할 수 있습니다.

최초의 텔레탱크가 30년대 소련에서 개발되었다는 것을 기억한다면 이것은 놀라운 일이 아닙니다. 그들은 제 XNUMX 차 세계 대전이 시작될 때 사용되었습니다. 오늘날 러시아는 또한 탱크 로봇 점점 더 자율적이 됩니다.

푸틴 정부는 최근 시리아에 자국을 보냈다. 무인 전투 차량 Uran-9 (삼). 장치는 지상 통제 지점과의 접촉이 끊겼고 서스펜션 시스템에 문제가 있었으며 무기가 완벽하게 작동하지 않고 움직이는 목표물을 공격하지 못했습니다. 그다지 심각하게 들리지는 않지만 많은 사람들은 시리아의 전멸을 러시아가 기계를 개선할 수 있는 좋은 전투 테스트로 생각합니다.

Roscosmos는 올해 XNUMX월까지 두 대의 로봇을 국제 우주 정거장에 보낼 예비 계획을 승인했습니다. 표도르 (4) 무인 연합에서. 짐처럼은 아니지만. 영화 RoboCop에서처럼 Fedor는 사격 연습 중에 무기를 휘두르며 치명적인 사격 솜씨를 보여줍니다.

문제는 우주에 있는 로봇이 왜 무장을 하느냐는 것입니다. 이 문제는 지상 신청에만 있는 것이 아니라는 의혹이 있습니다. 한편 지구에서는 러시아의 무기 제조업체 Kalashnikov가 시각화를 보여주었습니다. 노예 이고렉이는 많은 웃음을 자아냈지만 회사가 자율 전투 차량에 대해 진지하게 작업하고 있음을 나타냅니다. 2018년 XNUMX월, Kalashnikov는 "쏘거나 하지 않는" 결정을 내리는 데 사용하는 무기를 만들고 있다고 발표했습니다.

이 정보에 러시아 총포 제작자 Digtyarev가 작은 자율 탱크 Nerekht 혼자서 조용히 목표물을 향해 이동한 다음 강력한 힘으로 폭발하여 다른 건물이나 건물 전체를 파괴할 수 있습니다. 만큼 잘 탱크 T14 아르마타 , 러시아군의 자부심은 원격 제어 및 무인 운전을 위해 설계되었습니다. 스푸트니크는 러시아 군사 엔지니어들이 T-14를 완전 자율 장갑차로 만들기 위해 노력하고 있다고 주장합니다.

반대 지시

미군 자체가 무기의 자율성 수준에 대해 상당히 명확한 한계를 부과했습니다. 2012년 미 국방부는 인간이 무장 로봇의 행동에 반대할 권리가 있어야 한다는 지침 3000.09를 발표했습니다. (일부 예외가 있을 수 있지만). 이 지침은 유효합니다. 현재 펜타곤의 정책은 무기 사용의 결정적 요소는 항상 사람이어야 하고, 그러한 판단은 사람이어야 한다는 것입니다. 전쟁법을 준수하다.

미국인들은 수십 년 동안 비행, 프레데터, 리퍼 및 기타 많은 슈퍼머신을 사용해 왔지만 자율 모델이 아니었고 그렇지도 않습니다. 그들은 원격으로, 때로는 수천 킬로미터의 거리에서 운영자에 의해 제어됩니다. 이러한 유형의 기계의 자율성에 대한 열띤 토론은 프로토타입의 시사회와 함께 시작되었습니다. X-47B 드론 (5) 독립적으로 비행할 수 있을 뿐만 아니라 항공모함에서 이륙하여 착륙하고 공중에서 급유할 수도 있습니다. 의미도 사람의 개입 없이 쏘거나 폭탄을 터뜨리는 것입니다. 그러나 이 프로젝트는 아직 테스트 및 검토 중입니다.

5. 미국 항공모함에서 무인 X-47B 시험

2003년 국방부는 탱크와 같은 소형 로봇을 실험하기 시작했습니다. 스포 기관총을 장비. 2007년 그는 이라크로 파견되었다. 그러나 로봇이 이상하게 행동하여 소총을 이상하게 움직이기 시작한 후 프로그램이 종료되었습니다. 결과적으로 미군은 수년 동안 무장 지상 로봇 연구를 포기했습니다.

동시에 미 육군은 20년 2014만 달러에서 156년 2018억 2019만 달러로 작전 지출을 늘렸습니다. 327년에 이 예산은 이미 1823억 XNUMX만 달러로 급증했습니다. 이것은 불과 몇 년 만에 XNUMX%의 누적 증가입니다. 전문가들은 이르면 2025년 미군이 전장을 가질 수 있다고 말한다. 인간보다 로봇 병사가 더 많다.

최근 미 육군에 의해 많은 논란을 일으키고 발표한 아틀라스 프로젝트 () - 자동적 인. 언론에서는 이를 앞서 언급한 지침 3000.09를 위반한 것으로 간주했습니다. 그러나 미군은 의사 결정 주기에서 사람을 배제하는 것은 불가능하다고 부인하고 확신합니다.

AI는 상어와 민간인을 인식합니다.

그러나 자율 무기의 옹호자들은 새로운 주장을 가지고 있습니다. 교수 Georgia Institute of Technology의 로봇 공학자인 Ronald Arkin은 그의 간행물에서 다음과 같이 말합니다. 현대 전쟁에서 기계 학습 기술은 전투원과 민간인, 중요하거나 중요하지 않은 목표를 구별하는 데 효과적으로 도움이 될 수 있으므로 지능형 무기는 민간인 사상자를 방지하는 데 필수적입니다.

그러한 AI 기술의 예는 호주 해변을 순찰하는 것입니다. 드론 리틀 리퍼시드니 공과 대학에서 개발한 SharkSpotter 시스템이 장착되어 있습니다. 이 시스템은 상어가 있는지 물을 자동으로 스캔하고 안전하지 않은 것을 발견하면 운영자에게 경고합니다. (6) 사람, 돌고래, 보트, 서핑보드 및 물 속의 물체를 식별하여 상어와 구별할 수 있습니다. 그것은 높은 정확도로 약 XNUMX종의 다른 종을 감지하고 식별할 수 있습니다.

6. SharkSpotter 시스템에서 인식된 상어

이러한 고급 기계 학습 방법은 항공 정찰의 정확도를 90% 이상 높입니다. 비교를 위해 비슷한 상황의 작업자는 항공 사진에서 물체의 20~30%를 정확하게 인식합니다. 또한, 식별은 알람 전에 사람에 의해 여전히 확인됩니다.

전장에서 운영자는 화면의 이미지를 보고 지상에 있는 사람들이 손에 AK-47을 들고 있는 전투기인지, 예를 들어 창을 든 농부인지 거의 판별할 수 없습니다. Arkin은 사람들이 특히 스트레스가 많은 상황에서 "보고 싶은 것을 보는" 경향이 있다고 말합니다. 이 효과는 1987년 USS Vincennes에 의해이란 항공기가 우발적으로 격추되는 데 기여했습니다. 물론 그의 의견으로는 AI 제어 무기가 실제로 지각이 없는 현재의 "스마트 폭탄"보다 나을 것입니다. 지난 XNUMX월 사우디아라비아의 레이저 유도 미사일이 예멘에서 학생들로 가득 찬 버스를 공격해 XNUMX명의 어린이가 사망했습니다.

"스쿨 버스에 적절한 레이블이 지정되면 자율 시스템에서 식별하는 것이 비교적 쉬울 수 있습니다."라고 Popular Mechanics의 Arkin은 주장합니다.

그러나 이러한 주장은 운동가들이 자동 살인마에 반대하도록 설득하는 것 같지 않습니다. 킬러 로봇의 위협 외에도 또 다른 중요한 상황을 고려해야 합니다. "좋은" "세심한" 시스템조차도 매우 나쁜 사람들이 해킹하여 인수할 수 있습니다. 그런 다음 군사 장비를 방어하는 모든 주장은 힘을 잃습니다.

코멘트를 추가