AI가 전장을 지배하는 시대

2025년, 미국 국방부는 ‘Operation Fierce Fury(장대한 분노)’라는 작전명으로 AI 기반 군사 작전 체계를 공식 가동했다. 이 작전은 팔란티어(Palantir)의 데이터 수집 및 타겟팅 시스템, 앤스로픽(Anthropic)의 Claude AI 분석 엔진, 그리고 최종 발사 결정을 내리는 인간 오퍼레이터로 구성된 3단계 킬체인(kill chain)으로 구성된다.

이는 단순한 기술 실험이 아니다. 실제 전투 환경에서 AI가 어떻게 인간의 생명을 좌우하는 결정에 관여하는지 보여주는 생생한 사례다. AI 무기화는 더 이상 SF 영화 속 이야기가 아니라, 우리가 마주한 현실이 되었다.

킬체인의 3단계: 팔란티어 → Claude → 인간

1단계: 팔란티어 — 데이터 수집과 타겟 식별

팔란티어의 Gotham 플랫폼은 위성 이미지, 드론 영상, 신호 정보(SIGINT), 오픈소스 인텔리전스(OSINT)를 실시간으로 통합한다. 수백만 건의 데이터 포인트를 교차 분석하여 “고가치 타겟(HVT)”을 식별하고, 이동 패턴을 예측하며, 공격 가능 시간대를 계산한다.

팔란티어는 이미 우크라이나 전쟁에서 입증된 시스템이다. 러시아군 이동을 추적하고, 보급로를 분석하며, 지휘부 위치를 특정하는 데 활용되었다. ‘Fierce Fury’는 이를 한 단계 더 발전시켜, AI가 타겟 우선순위까지 제안하는 수준에 이르렀다.

2단계: 앤스로픽 Claude — 상황 분석과 위험 평가

팔란티어가 수집한 데이터는 Claude로 전송된다. Claude는 다음을 수행한다:

  • 타겟 검증: 민간인 피해 가능성 분석, 부수적 피해(collateral damage) 추정
  • 상황 맥락 이해: 지역 정세, 국제법 위반 가능성, 정치적 리스크 평가
  • 대안 제시: 다른 공격 수단, 타이밍, 또는 비살상 옵션 제안
  • 근거 생성: 공격 정당성을 설명하는 보고서 자동 작성

앤스로픽은 이 시스템이 “인간의 최종 판단을 돕는 도구”라고 강조한다. 하지만 비판자들은 AI가 제시한 분석이 사실상 결정을 좌우한다고 지적한다. 인간 오퍼레이터가 AI의 권고를 거부하는 경우는 극히 드물기 때문이다.

3단계: 인간 — 최종 발사 결정

마지막 단계는 인간이다. 군 오퍼레이터는 Claude의 보고서를 검토하고, 최종 발사 승인을 내린다. 법적으로는 “인간이 결정한다(human-in-the-loop)”는 원칙을 지키지만, 현실은 다르다.

  • 시간 압박: 타겟이 이동 중이거나, “기회의 창(window of opportunity)”이 짧을 때, 오퍼레이터는 몇 초 내에 결정해야 한다.
  • 정보 비대칭: AI가 제공한 방대한 데이터를 인간이 독립적으로 검증하기는 사실상 불가능하다.
  • 자동화 편향(automation bias): 인간은 AI의 권고를 과신하는 경향이 있다.

결과적으로, 인간은 “승인 버튼을 누르는 역할”로 전락할 위험이 있다.

AI 무기화의 현실: 효율성 vs 윤리

옹호론: 정밀성과 인명 보호

지지자들은 AI가 오히려 민간인 피해를 줄인다고 주장한다:

  • 정밀 타격: 과거에는 “지역 폭격”으로 무고한 사람들이 희생되었지만, AI는 타겟만 정확히 공격할 수 있다.
  • 감정 배제: 인간은 복수심이나 두려움으로 잘못된 결정을 내릴 수 있지만, AI는 객관적이다.
  • 빠른 대응: 위협을 조기에 제거함으로써 아군 피해를 줄인다.

반대론: 책임 공백과 자율무기 위험

비판자들은 근본적인 문제를 제기한다:

  • 책임 소재 불명확: AI가 잘못된 분석을 제공해 민간인이 사망했다면, 누가 책임지는가? 개발자? 군? AI 자체?
  • 블랙박스 문제: AI의 결정 과정을 인간이 이해할 수 없다면, 진정한 통제가 가능한가?
  • 자율무기로의 진화: 지금은 “인간이 승인”하지만, 기술적으로는 완전 자율화가 가능하다. 킬러 로봇은 먼 미래가 아니다.

유엔은 2023년부터 자율무기 규제 논의를 진행 중이지만, 강제력 있는 합의는 아직 없다. 미국, 중국, 러시아 모두 규제에 소극적이다.

앤스로픽의 딜레마: AI 안전 vs 국방 계약

앤스로픽은 “AI 안전(AI safety)”을 핵심 가치로 내세운 회사다. 창립자들은 OpenAI를 떠나며 “상업화보다 안전을 우선한다”고 선언했다. 하지만 ‘Fierce Fury’ 참여는 이 원칙과 충돌한다.

  • 2024년 국방부 계약: 앤스로픽은 “방어적 목적”으로만 AI를 제공한다는 조건으로 계약을 체결했다고 밝혔다.
  • 내부 반발: 일부 직원들은 군사 협력을 반대하며 사직했다.
  • 투명성 부족: 구체적인 사용 사례나 안전장치에 대한 공개 정보는 거의 없다.

앤스로픽은 “AI가 인명을 구한다”고 주장하지만, 비판자들은 “킬체인에 참여하는 순간 그 원칙은 무너진다”고 반박한다.

글로벌 AI 군비 경쟁의 시작

미국만의 이야기가 아니다:

  • 중국: ‘지능형 작전 시스템’을 개발 중이며, 드론 떼(swarm) 공격에 AI를 활용한다.
  • 러시아: 자율 순항 미사일과 AI 전자전 시스템을 배치했다.
  • 이스라엘: AI 기반 타겟팅 시스템 ‘Gospel’을 가자지구에서 사용했다는 보도가 있다.

AI 군비 경쟁은 이미 시작되었고, 멈출 기미가 보이지 않는다.

우리는 무엇을 해야 하는가?

국제 규범 마련

  • 투명성 의무화: AI가 군사 결정에 어떻게 사용되는지 공개해야 한다.
  • 책임 체계 확립: AI 오작동 시 법적 책임 소재를 명확히 해야 한다.
  • 완전 자율무기 금지: 인간 개입 없는 살상 결정은 금지되어야 한다.

기술 기업의 윤리적 책임

AI 기업들은 이윤보다 원칙을 지켜야 한다. 군사 계약을 체결할 때:

  • 사용 목적을 명확히 제한하고
  • 독립적인 윤리 감독을 받으며
  • 투명성을 보장해야 한다

시민사회의 감시

우리는 질문을 멈춰서는 안 된다:

  • 누가 AI 군사 시스템을 통제하는가?
  • 오작동 시 피해자는 어떻게 구제받는가?
  • 이 기술이 민주주의와 인권에 미치는 영향은 무엇인가?

결론: 판도라의 상자는 이미 열렸다

‘장대한 분노’ 작전은 AI 시대 전쟁의 새로운 표준이 되었다. 팔란티어가 타겟을 찾고, Claude가 분석하며, 인간이 발사 버튼을 누른다. 기술적으로는 효율적이지만, 윤리적으로는 위험천만하다.

AI는 전쟁을 더 정밀하게 만들 수 있지만, 동시에 더 비인간적으로 만들 수도 있다. 우리는 지금 역사적 갈림길에 서 있다. AI가 인류를 위해 사용될 것인가, 아니면 인류에 대항하여 사용될 것인가?

그 답은 우리가 지금 내리는 선택에 달려 있다.