군사 테크

AI는 이미 전쟁 중

기사이미지

2024.03.01 14:03

Foreign Affairs
icon 18min
kakao facebook twitter

평화기에 군사혁신을 이룬 나라가 전쟁에서 승리합니다. 1차 세계대전에 사고가 머물러 거함거포의 전함(battleship)에 집착하던 일본 해군은 항공모함 중심으로 전술을 혁신한 미 해군에 패배했습니다. 장차전(將次戰)도 미리 군사혁신을 이루는 나라가 승리할 것입니다. 그런 점에서 우리는 AI에 주목할 필요가 있습니다. 로봇기술과 함께 AI기술은 미래 전쟁을 완전히 바꿀 가능성이 있습니다. 미국의 경우 이미 AI는 국방부문에 도입되고 있습니다. 오바마 행정부 시절 국방 치관을 지냈고 바이든 행정부에서 국방장관 물망에 올랐던 미셸 플러노이가 2023년 11/12월호 포린어페어스에 기고한 이 글은 AI가 국방을 위해 어떤 일을 하게 될 것이며 이를 위해 무엇을 준비해야 하는지 살펴보고 있습니다. 우리보다 앞서 있는 미국의 AI 군사혁신을 면밀히 참고해야 할 것입니다.


2002년에 한 특수작전팀이 은신처 급습을 연습했다. 팀은 가상의 테러리스트 지도자가 숨어 있는 군사훈련용 2층 건물에 조용히 접근했다. 한 병사가 열린 창문으로 다가가 인공지능(AI)이 조종하는 소형 드론을 던져 넣었다. AI 드론은 건물을 자율적으로 비행하며 모든 방들을 돌아다니며 카메라로 영상을 찍었고, 이 영상을 외부에 있는 지휘관의 휴대용 태블릿에 직접 전송하기 시작했다. 불과 몇 분 안에 팀은 건물 내부 상황을 완전히 파악할 수 있었다. 어떤 방이 비어 있는지, 어떤 방에 가족들이 자고 있는지, 공격 대상이 어디에 있는지 파악할 수 있었다. 팀은 어디로 가야 하는지 정확히 알고 건물에 진입함으로써 각 대원의 위험을 줄였다. 훈련은 성공적이었다. 실제 상황이었다면 팀은 그 테러리스트 지도자를 성공적으로 사살했을 것이다.


내가 고문으로 있던 쉴드AIShield AI가 설계한 AI 조종 쿼드콥터는 이후 실제 작전에 사용되었다. 이는 AI가 미국의 국가안보를 재편하기 시작한 여러 가지 방식 중 하나에 불과하다. 미군은 장비 유지보수부터 예산 결정에 이르기까지 모든 것을 최적화하기 위해 AI를 활용하고 있다. 정보 분석가들은 AI를 활용해 산더미 같은 정보를 빠르게 스캔하여 유의미한 패턴을 식별함으로써 더 나은 판단을 내리고 더 빠른 의사결정을 내리고 있다. 앞으로 미국인들은 AI가 미국과 적들이 전장에서 싸우는 방식에도 변화를 가져올 것임을 알게 될 것이다. 요컨대, AI는 안보 혁명을 촉발시켰고, 이 혁명은 이제 막 시작하고 있다.


AI가 대중의 의식 속에 파고들면서 일부 연구자들은 AI의 위험성을 우려하며 개발 중단을 촉구하고 있다. 하지만 AI의 수학적 기반은 어차피 보편적인 것이고, AI 모델을 만드는 인간의 기술은 이미 널리 확산되었으며, 인간의 창의성과 상업적 이익이라는 AI 연구 개발의 원동력은 매우 강력하기 때문에 미국의 AI 발전을 멈추는 것은 불가능하다. 발전을 막으려는 시도 또한 잘못이다. AI 발전과 관련해 중국은 특히 군사적 응용 분야에서 미국을 능가하기 위해 열심히 노력하고 있다. 만약 성공한다면 중국은 훨씬 더 강력한 군대를 보유하게 될 것이며, 미국이 따라잡을 수 없을 정도로 작전의 속도와 효과를 높일 수 있을 것이다. 미국의 통신망과 핵심 인프라에 대한 중국의 사이버-전자전 능력도 위험할 정도로 강화될 것이다. 간단히 말해, 미 국방부는 통제가능한 AI 도입을 늦추지 말고 가속화해야 한다. 그렇지 않으면 미국은 자신의 국익과 동맹국 및 파트너의 안보, 규범에 기반한 국제 질서를 뒷받침하는 군사적 우위를 잃을 수도 있다.


그러나 가속화는 말처럼 쉬운 일이 아니다. 미국은 AI 연구 및 개발 분야에서 세계를 선도하고 있지만, 미국 정부는 여전히 AI와 같은 혁신적인 기술을 충분한 속도와 규모로 채택하는 데 어려움을 겪고 있다. AI 제품을 테스트, 평가, 조달 및 관리하는 데 필요한 기술적 전문성을 갖춘 전문가를 충분히 고용하지 못하고 있다. 대규모 AI 모델을 지원하는 데 필요한 데이터와 컴퓨터 인프라를 구축하는 데 여전히 어려움을 겪고 있다. 가장 유망한 AI 시험모델들을 신속하게 도입해 이를 여러 기관들에 맞춰 운용해보는 데 필요한 유연한 예산 체계가 갖춰져 있지 않다. 또한 군사 시스템에 통합되는 모든 AI가 안전하며 신뢰할 수 있는지 확인하는 데 필요한 테스트 및 평가 절차와 플랫폼을 아직 구축하지 못하고 있다. AI가 무력사용에서 역할을 맡게 될 때는 안전과 신뢰성에 대한 기준이 매우 높아야 한다.



정치인과 국방 관계자들은 이러한 문제를 잘 알고 있다. 의회 지도자들은 AI에 세심한 주의를 기울이고 있으며, AI 산업을 규제하면서도 글로벌 경쟁력을 유지할 수 있는 방법을 논의하고 있다. 국방장관실은 국방부가 책임감 있고 안전하게 AI를 도입할 수 있도록 정책 기본방침을 발표했다. AI를 육성하는 동시에 그 사용에 대한 안전장치를 마련하기 위해 꼭 필요한 노력들, 즉 모순처럼 보이는 목표들을 동시에 달성하려는 노력이 진행 중이다.


그러나 의회는 아직 행동에 나서지 않았고 국방부의 AI 방침 구현은 아직 이뤄지지 않았다. 국방부에 디지털-AI 총괄부서를 신설한 것은 중요한 이정표였지만, 의회는 아직 이 부서에 국방 기관 전반에 걸쳐 통제가능한 AI 보급을 추진하는 데 필요한 자원을 제공하지 않았다. AI 국방 애플리케이션들의 안전과 성공을 보장하기 위해 국방부는 AI 안전지침을 더욱 강화하고, 새로운 기술 인력을 추가하고, AI 테스트 및 조달 방법을 개발해야 할 것이다. 문제는 시간이며, 미국이 뒤처진다면 큰 위험을 초래하게 될 것이다.

지금 여기

아직 정책과 규정이 완성되지도 않은 상태지만 AI는 이미 미국 안보를 변화시키고 있다. 예를 들어, 미 공군은 리소스를 할당하고 특정한 결정이 프로그램과 예산에 어떤 영향을 미치는지 예측하는 데 AI를 활용하기 시작했다. 예를 들어 공군 지휘부가 F-35 전투기 편대를 하나 추가할 경우, AI기반 자원할당 플랫폼은 해당 결정의 직접적인 비용뿐만 아니라 인력, 기지, 항공기 가용성 및 기타 중요한 영역에 미치는 영향을 즉시 파악할 수 있다.


이렇게 군에서는 함정부터 전투기까지 복잡한 무기체계의 유지관리에 AI 모델을 사용하기 시작했다. 이제 AI 프로그램은 플랫폼의 센서에서 데이터를 수집하여 언제, 어떤 종류의 유지관리가 비용을 최소화하면서 준비 상태와 수명을 최대화할 수 있을지 예측할 수 있다.


이러한 유지관리 예측은 매우 유용하며, AI가 할 수 있는 일의 시작에 불과하다. 미국 정보기관들과 여러 미국 전투사령부(특정 지역 또는 기능에 대한 작전 책임을 가진 합동군사령부)는 AI를 사용하여 방대한 양의 기밀 및 공개 데이터를 뒤져가며 움직임의 패턴을 식별하고 향후 국제상황을 예측하고 있다. 정보기관 분석가들 사이에서는 러시아의 우크라이나 침공을 수개월 전에 예측해 미국이 전 세계에 경고하고 블라디미르 푸틴 러시아 대통령에게 기습 공격의 빌미를 제공하지 않도록 하는 데 AI가 도움이 되었다. 미국 전략사령부에서는 내가 고문으로 있는 롬버스파워Rhombus Power에서 개발한 AI를 사용해 과거에는 종종 탐지에 실패했던 적성국의 핵미사일 움직임을 관계자들에게 경고하고 있다.


이러한 예측 AI는 또한 미국이 잠재적 적, 특히 중국 지도자들이 어떤 생각을 하고 있는지 이해할 수 있게 도와준다. 냉전이 한창이던 시절에는 소련의 정책결정 과정에 대한 전문가들이 많았는데, 그때와 달리 현재의 미국은 중국 지도부가 어떻게 공표된 정책을 집행하는지를 파악하려 애쓰고 있을 뿐이다. 이러한 상황에서 예를 들어 정보기관들은 중국 지도자들의 모든 글과 연설, 그리고 그들에 대한 미국 정보보고를 종합해 시진핑 주석이 명시된 정책을 어떻게 실행에 옮길지를 시뮬레이션 해보이는 대규모 언어 모델을 개발할 수 있다. 분석가들은 이 모델에 "시진핑 주석이 어떤 상황에서 대만에 무력을 사용할 의향이 있는가"라는 구체적인 질문을 던지고, 이 모델은 인간이 빠르게 종합할 수 있는 것보다 더 많은 출처의 풍부한 데이터를 기반으로 예측할 수 있다. 심지어 이 모델에 위기가 어떻게 전개될 수 있는지, 다양한 결정이 어떤 결과를 낳을지 예측하도록 요청할 수도 있다. 이 AI를 훈련시키는 트레이닝 세트가 '투명하고'(주요 판단의 근거가 되는 데이터의 출처를 확인할 수 있다는 의미) '신뢰할 수 있다면'(AI의 말도 안되는 추론인 '환각'이 발생하지 않는다는 의미), 분석가와 정책결정자에게 정보를 제공하는 데 유용한 예측이 될 수 있다.


정보 담당자들은 이미 매일 수천 장의 사진과 동영상을 걸러내는데 AI를 사용하고 있다. 과거에는 분석가들이 수천 시간의 풀모션 비디오를 시청해 탱크가 밀집해 있는 장면이나 분산된 이동식 미사일 등 관심 있는 대상을 찾아 태그를 지정해야 했다. 하지만 AI의 경우 개발자가 이 모든 자료를 보면서 분석가가 찾고 있는 물체만 식별해내도록 모델을 훈련시킬 수 있는데, 보통 몇 초 또는 몇 분 안에 가능하다. 또한 분석가는 특정지역에서 새로운 관심 대상이 발견될 때마다 경고를 보내도록 AI 모델을 설정할 수 있다. 이러한 '컴퓨터 비전' 도구를 통해 분석가는 인간만이 할 수 있는 일, 즉 AI가 발견한 것의 의미와 의미를 평가하기 위해 자신의 전문 지식과 판단력을 적용하는 데 더 많은 시간을 할애할 수 있다. 이러한 AI 모델은 더욱 정확해지고 신뢰도가 높아짐에 따라 현장의 미군 지휘관이 적의 대응보다 훨씬 빠르게 중요한 작전 결정을 내릴 수 있도록 지원함으로써 미군에 엄청난, 어쩌면 결정적인 이점을 제공할 수 있는 잠재력을 갖게 될 것이다.


AI는 다른 방식으로도 군사작전을 지원할 수 있다. 예를 들어, 적이 미국의 지휘, 통제 및 통신 네트워크를 방해하거나 공격할 경우, AI는 탐지센서, 의사 결정자, 무기사용자 간의 정보 흐름을 재지정하여 연결 상태를 유지하고 상황 인식을 유지할 수 있는 스마트 스위칭 및 라우팅 에이전트를 가동할 수 있다. 이러한 역량을 확보하는 것은 미국과 동맹국이 치열한 전투 속에서 적보다 더 나은 결정을 더 빨리 내릴 수 있도록 하는 데 매우 중요하다.


AI는 현장에서 개별 군인의 임무를 증폭시켜 미국과 동맹군을 더욱 도울 수 있다. 현재 개발 중인 일부 AI 애플리케이션은 군인 한 명이 공중, 해상 또는 해저에 있는 드론 떼와 같은 여러 무인 무기체계를 제어할 수 있게 해준다. 예를 들어, 전투기 조종사는 비행하는 드론 떼를 사용해 적의 레이더와 방공 시스템을 혼란시키거나 압도할 수 있다. 잠수함 사령관은 해저 무인함정을 사용해 방어가 강력한 지역에서 정찰을 수행하거나 미국과 동맹국 함정을 위협하는 해저 기뢰를 수색할 수 있다. 미 국방부는 최근 향후 2년 내에 수천 대의 작지만 스마트한 저비용 소모성 자율 무기체계를 배치할 것을 약속하는 레플리케이터Replicator 드론 프로그램(벌떼처럼 공격하는 소형드론 프로그램 - 역자주)을 발표했다.


대만을 둘러싼 중국과의 분쟁에서 이러한 인간과 기계의 협력은 매우 중요할 수 있다. 중국이 무력을 사용해 대만을 점령하기로 결정하면 중국은 자국 뒷마당에서 싸울 수 있다는 이점을 갖게 되어 병력을 더 쉽게 대량으로 투입할 수 있다. 반면 미국은 훨씬 적은 수의 병력을 장거리로 보내게 될 것이다. 미군이 전투기, 폭격기, 함정, 잠수함 등 유인 플랫폼을 상대적으로 저렴한 무인 시스템으로 대거 보강할 수 있다면 이러한 상대적 불리함을 어느 정도 보완하고 중국군의 작전을 크게 망가뜨릴 수 있다.

제대로 플레이하기

물론 중국은 미국에 기술 우위를 내줄 생각이 없다. 중국은 자체적으로 첨단 AI 군사 애플리케이션을 개발하기 위해 열심히 노력하고 있다. 중국은 감시, 표적 식별, 군집 드론 등 미국과 마찬가지로 많은 AI 활용법에 막대한 투자를 하고 있다. 차이점은 특히 완전 자율 무기시스템 사용과 관련하여 중국은 미국 및 동맹국과 같은 윤리적 제약에 얽매이지 않을 수 있다는 점이다.


기술 패권을 향한 경쟁에서 중국은 몇 가지 분명한 이점을 가지고 있다. 미국과 달리 중국은 자국의 경제 우선순위를 정하고 AI 목표를 달성하는 데 필요하다고 판단되는 모든 자원을 할당할 수 있다. 중국의 국가 안보 정책은 중국의 해커, 공무원, 기업직원들이 서방의 지적 재산을 훔치도록 장려하고 있으며, 중국은 서방의 주요 기술자들을 중국 기관과 협력할 수 있도록 영입하는 데 전혀 부끄러워 하지 않는다. 중국은 민간과 군사 부문의 장벽을 없애는 '민군 융합' 정책을 시행하고 있기 때문에 인민해방군은 언제든지 중국 전문가와 기업의 연구를 활용할 수 있다. 그리고 2025년까지 중국은 과학, 기술, 공학, 수학 분야에서 미국보다 거의 두 배나 많은 박사학위 취득자를 배출할 것이며, 특히 유능한 컴퓨터 과학자들이 중국 경제에 넘쳐날 것이다.


하지만 미국만의 고유한 강점도 있다. 미국의 시장기반 경제와 보다 개방적인 정치 시스템은 개발자들이 창의력을 발휘할 수 있는 여지를 제공한다. 캘리포니아의 실리콘 밸리, 텍사스의 오스틴 대도시 지역, 매사추세츠의 루트 128 회랑 등에는 타의 추종을 불허하는 혁신 생태계가 있다. 또한 미국은 국내외 투자를 유치하는 활발한 벤처캐피탈 및 사모펀드 생태계도 갖추고 있다. 또한 세계 유수의 대학이 다수 소재하고 있어 세계 최고의 기술 인재를 유치하고 유지할 수 있다. 실제로 실리콘밸리에 있는 스타트업의 절반은 적어도 한 명 이상의 창업자가 이민자 출신이다. 중국의 빠른 AI 발전을 한탄하는 사람들 중에도 미국을 버리고 중국을 택할 사람은 거의 없다. 그러나 거의 모든 사람들은 미국이 승리하기 위해 더 분발해야 한다는 데 동의할 것이다.


그러기 위해서는 국방부와 정보기관들이 AI 도입을 가속화하는 데 더 많은 투자를 해야 한다. 우선 상호운용성을 보장하기 위해 동일한 표준을 공유하는 공통 디지털 인프라 시스템을 구축하는 것부터 시작할 수 있다. 이 인프라에는 클라우드 기반 기술 및 서비스, 공통 데이터 표준, 검증된 데이터 세트, 보안 소프트웨어 스택에 대한 공유 액세스, AI 모델의 테스트, 평가 및 검증을 위한 정교한 도구, 다양한 수준의 분류에서 누가 어떤 정보에 액세스할 수 있는지 제어하는 보안 애플리케이션 프로그래밍 인터페이스 등이 포함된다. 목표는 개발자가 새로운 AI 도구를 만들고, 테스트하고, 검증하고, 사용하는 데 필요한 데이터, 알고리즘, 도구, 컴퓨팅 파워 또는 고속 컴퓨팅 파워를 제공하는 것이다.


물론 이러한 도구는 이를 운용하는 사람만큼만 우수할 수 있는데, 현재 국방부에는 디지털 업무에 능숙한 인력이 없다. AI 사용을 적절히 관리하고, AI 도구를 테스트 및 평가하여 국방부의 '통제가능한 AI' 기준을 충족하는지 확인하거나, 세계 최대 업체 중 하나로도 볼 수 있는 미국 군대와 국방부의 요구에 가장 적합한 AI 모델을 평가할 수 있을 정도로 AI에 대해 충분히 이해하는 직원은 거의 없다.


더 많은 AI 인재를 유치하고 이미 보유한 기술 인력을 더 잘 활용하기 위해 국방부는 디지털 업무에 숙련된 직원을 채용하고 관리하는 방식을 개선해야 한다. 국방부는 AI에 관한 국가안보위원회의 조언을 따르고 육군 의무단을 모델로 한 디지털 군단을 설립하여 기술자를 조직, 훈련 및 장비하는 것부터 시작할 수 있다. 또한 기존의 모든 사관학교에서 AI의 기초를 가르치기 시작해야 하며, 국방부는 민간 기술자 지망생을 교육하고 훈련하는 미국 디지털 서비스 아카데미를 설립하여 졸업 후 최소 5년 동안 정부에서 일하겠다는 약속을 하는 대신 무료 대학 교육을 제공해야 한다. 마지막으로, 국방부는 미국 전역의 기술 인력이 파트타임으로 국가에 자원봉사할 수 있는 디지털예비군을 창설해야 한다.


그러나 국방부는 아무래도 민간 부문만큼 많은 AI 전문가를 유치할 수는 없을 것이다. 따라서 국방부는 외부 인재를 활용하는 방법을 개선해야 한다. 우선, 국방부는 테크기업 및 주요 대학의 컴퓨터과학 학과들과 대화를 강화해야 한다. 또한 테크기업이 정부와 거래하는 데 걸림돌이 되는 낡은 장벽을 낮춰야 한다. 이를 위해 국방부 관리들은 AI를 포함한 소프트웨어 기반 제품 및 서비스 조달 방식을 재고해야 한다. 국방부는 군용 하드웨어를 조달할 때처럼 매우 구체적인 요구 사항을 개발하는 데 수년이 걸리는 대신, 해결하고자 하는 구체적인 문제와 제안된 솔루션이 충족해야 하는 공통 표준을 신속하게 파악한 다음 경쟁입찰을 통해 기업들이 솔루션을 제공할 수 있도록 해야 한다. 또한 특정 AI 도구를 실제 사용할 사람들이 모델이 개발되고 테스트될 때 피드백을 제공할 수 있도록 해야 한다.


실제로 국방부는 AI 및 기타 상용기술을 전문적으로 다루고자 하는 획득 전문가를 위한 별도의 직별을 신설해야 한다. 현재 국방부의 획득 담당자들 대부분은 잠수함, 미사일, 제트기 등 복잡한 무기 시스템을 구매하도록 훈련받았기 때문에 계약업체가 엄격한 사양, 비용 요구 사항, 일정을 충족하는지 세심한 주의를 기울인다. 결과적으로 이러한 전문가 대부분은 (당연히) 위험을 매우 싫어하며, 빠르게 발전하는 상용기술을 구매하거나 보다 효과적인 신기술을 통합하기 위해 기존의 다년간 획득 프로그램을 중단할 수 있는 훈련이나 인센티브를 받지 못했다. 따라서 국방부는 이러한 종류의 시스템을 구매하도록 특별히 훈련된 새로운 획득 전문가 집단을 만들어야 한다. 이들은 말하자면 획득 부대의 그린베레로 간주되어야 하며, AI와 같은 필요한 상용기술을 신속하게 제공하고 확장하는 능력에 따라 보상과 승진이 이루어져야 한다.


내부 개혁이 국방부의 발전을 가속화하는 데 도움이 되겠지만, 국방부 관리들은 중국에 뒤쳐지지 않기 위해 의회의 지속적인 지원도 필요로 할 것이다. 이를 위해 의회는 국방부가 AI 프로그램을 최적으로 관리할 수 있도록 보다 유연한 자금지원을 제공해야 한다. 국방부의 예산은 대부분 고정되어 있어 의회가 특정 프로그램에 자금을 지원하면 국방부는 그 자금을 다른 곳에 사용할 수 없다. 그러나 AI는 매우 빠르게 다양한 방향으로 진화하고 있기 때문에 국방부 관리들은 의회에 적절한 경로로 보고하면서 실적이 저조한 프로젝트에서 자금을 신속하게 이동해 더 유망한 프로젝트에 재투자 할 수 있도록 더 많은 재프로그램 권한과 더 유연한 자금이 필요하다. 이러한 접근방식은 국방부가 보다 민첩하고 신속하게 AI를 채택할 수 있도록 하는 데 매우 중요하다.


의회는 동시에 국방부의 디지털-AI 총괄부서에 브릿지펀딩을 제공해 유망한 AI 시범 프로젝트가 소위 '죽음의 계곡'(프로젝트가 성공을 입증하는 시점과 국방부가 이를 '다년간 정식 프로그램'(POR)으로 만들 준비가 된 시점 사이의 어려운 기간)을 넘을 수 있도록 지원해야 한다. 미군은 2023년에 등장하는 중요한 AI 도구의 채택을 2025 회계년도 예산이나 그 이후로 미룰 여유가 없다.


또한 미국은 미국 이민 시스템의 요소를 개혁하는 등의 조치를 통해 세계 최고의 기술 인재를 지속적으로 유치해야 한다. 과학 및 기술 분야의 학생과 근로자들은 미국에 와서 체류하기를 원할 수 있지만, 엄격한 이민 규정으로 인해 많은 이들이 그렇게 할 수 없다. 예를 들어, 교육비자는 외국인 학생들이 졸업 후 3년 이상 미국에 체류하는 것을 허용하지 않는다. 이러한 시스템의 결과는 부정적이다. 미국 교육기관은 세계 최고의 기술 전문가를 양성하고도 이들을 해외로 내보내고 있다. 이들 중 상당수가 중국인이고 중국으로 돌아간다.


또한, 미국이 숙련된 근로자에게 가장 일반적으로 제공하는 비자인 H-1B 비자에 대해 의회가 부과한 상한선으로 인해 미국은 신청자 중 극히 일부만 미국으로 데려올 수 있다. 예를 들어, 2023년 로또에 가까운 H-1B 프로세스에 의해 75만8994명의 온라인 신청자 중 11만791명(15% 미만)만이 선발되었다. 요컨대, 미국은 AI 및 기타 핵심 기술 분야에서 경쟁하는 미국의 능력에 기꺼이 그리고 의미 있게 기여할 수 있는 꼭 필요한 외국 인재를 못 들어오게 막고 있는 것이다.

하이 리스크, 하이 리턴

AI는 미국의 미래 안보에 없어서는 안 될 필수 요소다. 하지만 큰 위험도 존재한다. AI는 이미 온라인에서 허위정보의 확산을 가속화하고 사용시 의도치 않은 차별을 강화하고 있다. 컴퓨터 과학자들은 AI가 '기계의 빠른 속도'로 자동화된 사이버 공격을 가능하게 할 수 있다고 주장했다. 화학자들은 AI가 화학무기를 합성할 수 있음을 보여주었고, 생물학자들은 새로운 병원균이나 생물무기를 설계하는 데 사용될 수 있다는 우려를 표명했다. 이러한 위험은 AI 업계 리더들조차 우려를 표명할 만큼 심각하다. 2023년 5월, 미국의 거의 모든 주요 AI 연구소장들은 자신들의 발명이 인류에게 생존의 위협이 될 수 있다고 경고하는 서한에 서명했다.


실제로 국가안보는 AI의 위험이 가장 심대한 인간 활동의 영역이다. 예를 들어, AI 모델은 사람이나 사물을 표적으로 잘못 식별하여 분쟁 중에 의도하지 않은 사망과 파괴를 초래할 수 있다. 추론을 적절히 이해하거나 설명할 수 없는 블랙박스 AI 모델은 군사 기획자가 위험한 결정을 내리도록 유도할 수 있다. 이러한 위험은 특정 상황에 맞게 개발된 AI가 충분한 테스트와 감독 없이 다른 상황에 적용될 경우 가장 심각하게 나타날 수 있다. 어떤 상황에서는 완벽하게 합리적이고 책임감 있는 결정이 다른 상황에서는 비합리적이고 위험할 수 있다.


이러한 위험은 단순히 잘못 설계되거나 부주의하게 사용되는 시스템에서 비롯되는 것이 아니다. 미국은 AI 개발과 구현에 신중을 기하지만, 적들이 미국 데이터를 손상시킬 방법을 찾아내 시스템을 엉망으로 만들 수도 있다. 예를 들어, 적이 미국의 AI 기반 컴퓨터 비전 도구를 군용 차량이 아닌 민간 차량을 표적으로 삼도록 '스푸핑'할 수 있다면 미국은 분쟁 지역에서 의도치 않게 민간인에게 피해를 입혀 신뢰도와 도덕적 권위의 훼손을 받게 될 수 있다. 또한 적이 데이터를 손상시켜 AI를 사용하는 무기 시스템의 성능을 저하시키거나 시스템을 종료시킬 수도 있다.


미 국방부는 이러한 위험을 인식하고 2020년 2월에 AI 사용 방식에 관한 일련의 윤리적 원칙을 발표했다. 한 가지 원칙은 국방부 직원들에게 AI 기능을 개발, 배포 및 사용할 때 판단력과 주의를 기울일 것을 촉구했다. 또 다른 원칙은 국방부가 "의도하지 않은 AI 작동상 편향을 최소화"하기 위해 노력할 것이라고 말했다. 세 번째는 모든 AI가 투명하고 감독이 가능한 데이터와 방법론을 통해 이해하고 설명할 수 있는 방식으로 만들어지고 사용되도록 할 것을 촉구했다. 또한 국방부 지도부는 구성원들에게 AI 시스템의 안전성, 보안성, 효과성을 엄격하게 테스트하고, AI 시스템을 명확하게 정의된 용도에만 할당하며, 의도하지 않은 행동을 보이는 경우 AI 시스템의 연결을 해제하거나 비활성화할 수 있도록 지시했다.


자율 및 반자율 무기의 경우 국방부는 훨씬 더 구체적인 지침을 발표했다. 국방부 지휘부는 지휘관과 무기 운용자들에게 AI 장착 무기에 대해 신중한 판단을 하도록 지시했으며, 이러한 무기가 해당 AI 모델의 훈련 범위와 AI가 배치되는 작전의 교전 규칙에 부합하는 방식으로 사용되도록 하는 등의 조치를 취했다. 국방부의 규칙은 또한 지휘관이 전쟁법에 따라 AI를 사용하도록 규정하고 있다. 예를 들어, 모든 AI 장착 무기는 전장에서 전투원과 비전투원을 구별할 수 있어야 하며, 의도적으로 비전투원을 표적으로 삼는 것을 피할 수 있어야 한다. 미 국방부는 또한 핵 지휘통제 시스템에 AI 사용을 금지했으며 다른 핵무기 보유국들에게도 같은 조치를 취할 것을 촉구했다.


미국 국방 커뮤니티의 지도부 사이에서 이러한 '통제가능한 AI' 규칙은 큰 공감대를 형성했다. 그러나 이러한 규칙을 실행에 옮기는 것은 특히 미국 국방 조직의 규모를 고려할 때 결코 작은 일이 아니다. 국방부는 고위급 거버넌스 조직을 만들고, 다양한 AI 애플리케이션을 지원하기 위한 데이터 및 디지털 인프라를 구축하기 시작했으며, 국방부의 AI 원칙을 준수하는 데 필요한 테스트, 평가 및 검증 기능을 구축하고, 부처 전체에 AI 인식을 높이는 것으로 프로세스를 시작했다. 이 구현 프로세스는 아직 초기 단계에 있다. 하지만 정책 기본틀이 튼튼한 기반이 되어 그 위에 AI 실행방식이 자리 잡게 될 것이다.


그럼에도 불구하고 국방부는 이러한 지침을 더욱 강화하는 것이 현명할 것이다. 예를 들어, 국방부 관계자는 모든 AI 공급업체가 AI 훈련 세트에 사용하는 데이터의 출처를 국방부에 완전히 투명하게 제공하도록 요구해야 한다. 또한, 국방부는 채택하는 모든 AI 모델의 동작이 혁신을 저해하지 않으면서도 사용자와 개발자가 충분히 이해할 수 있도록 설명할 수 있어야 한다. 이를 위해 시스템을 테스트, 평가 및 검증하는 방법을 강화해야 한다. 또한 국방부는 군용 신기술 개발을 담당하는 기관 중 하나인 국방고등연구계획청(DARPA)의 업무를 확대하고 확장해 AI 도구가 설계 단계에서부터 설명 및 통제가 가능하도록 만들어야 한다. 즉, 국방부의 윤리적 원칙은 처음부터 필수적 요소로서 국방 AI 모델의 설계를 이끌어야 한다.


그러나 미국 국방 커뮤니티가 효과적이고 책임감 있고 윤리적이며 합법적인 방식으로 AI를 사용할 것이라는 대중의 믿음이 없다면 국방 커뮤니티는 AI 채택 속도를 높일 수 없을 것이다. 또는 AI 애플리케이션이 전장에서 매우 잘못된 결정을 내리거나 의도하지 않은 심각한 결과를 초래할 경우, 전투원들은 이를 신뢰하지 않을 것이며 정책 입안자와 의원들은 AI 사용을 중단 또는 금지시킬 가능성이 높다. 따라서 국방부는 AI 안전 및 보안 연구 개발에 대한 투자를 늘려야 한다. 국방부는 AI를 어떤 용도로 사용할 것인지, 사용하지 않을 것인지 투명하게 밝혀야 한다. 그리고 국방부는 공급업체가 AI를 개발하는 방식에 대해 안전지침을 마련해야 한다. 예를 들어, 어떤 기업이 군에 AI를 제공하려는 경우 국방부는 엄격한 데이터 보호 및 사이버 보안 표준을 충족하도록 요구할 수 있다. 이렇게 함으로써 국방부는 군대뿐만 아니라 모든 사람이 AI를 더 안전하게 사용할 수 있도록 도울 수 있다.


물론 미국 혼자서 AI가 책임감 있게 개발되고 사용되도록 할 수는 없다. 경쟁국을 포함한 다른 국가들도 정책적 보호 장치와 규범을 채택해야 할 것이다. 2021년 11월, 193개국이 세계 최초로 AI 윤리에 관한 국제협약에 동의하면서 세계는 소중한 첫걸음을 내디뎠다. 여기에는 각국이 모든 AI에 대한 인간의 감독과 권한을 보장해야 한다는 원칙이 포함되어 있다.


물론 이 협약이 중요한 AI 윤리의 기초가 되지만, 미국은 냉전시대에 소련과 핵무기 및 기타 형태의 무기 통제에 대해 직접 논의할 방법을 찾았던 것처럼 잠재적 적대국, 특히 중국과 AI에 대해 논의할 방법을 찾아야 한다. 성공하려면 미국은 동맹국 및 파트너와 긴밀히 협력하여 모두가 같은 생각을 가지도록 해야 한다. 일련의 AI 규범에 동의하는 국가는 다자간 경제제재, 국제 포럼에서의 제명, 피해 책임을 묻는 법적 조치 등 심각한 대가를 치를 것이라고 규범 위반자를 압박할 의지가 있어야 한다. 예를 들어, 2014년 중국 해커 5명이 미국 기업을 대상으로 사이버 공격을 감행한 혐의로 기소된 것처럼 AI 규정을 위반하는 행위자는 미국 연방법원에 기소될 수 있도록 하는 것이다. 또한 규칙을 위반한 국가는 가해에 대한 잠재적 보복에 직면할 수 있으며, 극단적인 경우 군사적 조치에 직면할 수도 있다.

통제가능한 속도

마이크로전자공학의 세계에서 전문가들은 칩의 트랜지스터 수가 2년마다 두 배로 증가하여 기하급수적으로 성능이 향상된다는 무어의 법칙에 대해 자주 이야기한다. 이 법칙은 스마트폰과 검색엔진을 비롯한 수많은 기술혁신의 급속한 부상을 설명하는 데 도움이 된다.


국가 안보 분야에서도 AI의 발전은 또 다른 종류의 무어의 법칙을 만들어냈다. 향후 몇 년 동안 누가 먼저 데이터와 AI를 작전에 조직화, 통합화, 제도화하는 데 성공하느냐에 따라 기하급수적인 발전을 이룩하여 적보다 현저한 우위를 점할 수 있을 것이다. AI를 대규모로 처음 도입하는 기업은 의사결정 주기가 빨라지고 의사 결정의 근거가 되는 더 나은 정보를 확보할 가능성이 높다. 공격을 받을 때 네트워크의 복원력이 높아져 상황인식을 유지하고, 병력을 방어하고, 표적을 효과적으로 공격하고, 지휘, 통제 및 통신 기능을 보호할 수 있는 능력을 유지할 수 있을 것이다. 또한 공중, 해상, 수중에서 무수히 많은 무인 무기체계를 제어하여 적을 공격하고 압도할 수 있게 될 것이다. 미국은 뒤처질 여유가 없다.


하지만 국가 안보 조직들은 무모할 여지도 주어지지 않는다. 적절한 안전장치가 없다면 AI 모델은 의도하지 않은 모든 종류의 해를 끼칠 수 있다. 불량 시스템은 심지어 전투 지역이나 그 근처에서 미군이나 비무장 민간인을 죽일 수도 있다. 따라서 미국은 난제에 직면해 있다. AI 개발도입의 속도를 늦추는 데 따르는 대가도 감당할 수 없을 정도로 크지만, 필요한 예방 조치 없이 앞만 보고 달려가는 데 따르는 대가 역시 만만치 않다.


미국 정책결정자들은 이 역설을 이해하고 있는 것으로 보인다. 의회 지도자들은 AI를 지나치게 엄격하게 규제하면 최고의 AI 혁신가들이 규제가 덜한 곳으로 떠나게 되고, 그러면 미국이 경쟁국에 뒤처질 수 있다는 것을 알고 있다. 그러나 민주당과 공화당 정책결정자들은 모두 AI 도입이 안전하고 규율있게 이루어지기 위해서는 어느 정도의 규제와 감독이 필수적이라는 것을 알고 있다. 하원과 상원은 의원들을 교육하기 위한 세션을 개최하고 전문가들의 조언을 얻기 위한 청문회 일정을 잡고 있다. 입법에 앞서 초당적인 공감대를 형성하려는 이러한 노력은 박수 받을 만하다.


하지만 문제를 이해하는 것은 첫 번째 단계에 불과하다. 이 문제를 해결하려면, 즉 속도와 안전의 필요성 사이에서 균형을 맞추려면 정책결정자들은 AI 채택을 가속화하고 안전을 강화하기 위한 더 나은 접근 방식을 모색해야 한다. 그렇지 않으면 미국인들은 AI의 위험과 미국의 힘과 영향력 감소라는 두 가지 위험 모두에 휘말릴 수 있다.



미셸 플러노이는 앤서니 블링컨(현 미 국무장관) 등과 설립한 컨설팅펌 WestExec Advisors의 매니징 파트너이자 신미국안보센터Center for a New American Security의 석좌이다. 2009~2012년 미국 국방부 정책 담당 차관을 역임했다.




1922년 창간된 격월간 국제정치 전문지. 미국의 국제정치 싱크탱크인 외교협회(CFR)에서 발행하는데 국제정치 분야에서 가장 영향력 있는 매거진으로 꼽힙니다.
 
close
top