
2026년 2월은 AI 업계에 있어 그야말로 격동의 한 달이었습니다. 미 국방부와 AI 기업 간의 전례 없는 대치, 새로운 AI 에이전트 플랫폼의 등장, 그리고 AI 안전에 대한 근본적인 질문들이 쏟아져 나왔습니다. 이번 포스트에서는 2월 중순부터 말까지의 AI 뉴스를 주제별로 정리해 드립니다.
🏛️ Anthropic vs 펜타곤: AI 군사 활용의 최전선

2월 마지막 주, AI 업계를 뒤흔든 최대 이슈는 단연 Anthropic과 미 국방부(Pentagon) 간의 대치였습니다.
무슨 일이 있었나?
미 국방부는 Anthropic에 자사 AI 모델의 “모든 합법적 사용(any lawful use)”을 허용하라고 요구했습니다. 이에 Anthropic은 단호하게 거부하며, 자율 무기 시스템이나 국내 대량 감시 등에 AI가 사용되는 것에 대한 우려를 표명했습니다.
상황은 급격히 악화되었습니다:
- 2월 27일: 펜타곤이 Anthropic을 “공급망 리스크(supply chain risk)”로 지정하겠다고 위협
- 2월 28일: Anthropic은 법적 대응을 선언하며 법원에서 이 지정에 이의를 제기하겠다고 밝힘
- 전 트럼프 AI 정책 고문 Dean Ball은 이를 “기업 살인 시도(attempted corporate murder)”라고 표현
- 전직 법무부 관계자는 이것이 AI 산업의 부분적 국유화의 첫 단계가 될 수 있다고 경고
OpenAI는 어떤 입장?
한편, OpenAI의 Sam Altman은 펜타곤과 새로운 합의에 도달했다고 발표했습니다. 이 합의에 따르면 미군이 OpenAI 모델을 기밀 네트워크에 배포할 수 있게 되지만, 다음과 같은 조건이 포함됩니다:
| 조건 | 내용 |
|---|---|
| 국내 대량 감시 금지 | 미국 시민 대상 무차별 감시에 AI 사용 금지 |
| 무력 사용 시 인간 책임 | 자율 무기 포함, 인간이 최종 결정권 보유 |
| 동일 조건 요구 | 모든 AI 기업에 같은 조건 적용 제안 |
Ilya Sutskever도 입을 열다
OpenAI 공동창립자이자 현재 Safe Superintelligence(SSI)를 이끄는 Ilya Sutskever도 이례적으로 입장을 밝혔습니다:
“Anthropic이 물러서지 않은 것은 매우 좋은 일이며, OpenAI가 비슷한 입장을 취한 것도 의미 있다. 미래에는 이보다 훨씬 어려운 상황이 올 것이고, 치열한 경쟁자들이 차이를 넘어 힘을 합치는 것이 중요할 것이다.”
이번 사건은 AI 군사 활용의 윤리적 경계를 어디에 둘 것인지에 대한 업계 전체의 논쟁을 촉발했습니다. AI 기업들이 연대하여 군사 AI에 대한 레드라인(red line)을 함께 설정해야 한다는 목소리도 커지고 있습니다.
🤖 AI 에이전트 시대의 본격 개막

2월에는 AI 에이전트 분야에서도 의미 있는 진전이 있었습니다.
Perplexity “Computer” 출시
검색 AI로 유명한 Perplexity가 “Computer”라는 새로운 AI 에이전트 플랫폼을 공개했습니다. 이 플랫폼은 단일 AI가 아닌 복수의 서브 에이전트가 협력하는 구조입니다:
- 추론(Reasoning): 복잡한 문제를 분석하고 판단
- 위임(Delegation): 작업을 적절한 서브 에이전트에 분배
- 검색(Search): 웹에서 실시간 정보 수집
- 코딩(Code): 프로그램 작성 및 실행
- 기억(Memory): 맥락 유지 및 학습
Perplexity는 이를 “범용 디지털 워커(general-purpose digital worker)”로 정의하며, 기존의 AI 에이전트 도구들과 차별화를 꾀하고 있습니다.
Amazon AGI 연구소장의 갑작스러운 퇴사
Amazon 샌프란시스코 AGI 연구소를 이끌던 David Luan이 퇴사하고 “새로운 것을 만들겠다”고 밝혔습니다. AGI라는 아직 존재하지도 않는 것을 연구하던 리더가 “더 새로운 것”을 추구한다니, 업계에서는 다소 아이러니하다는 반응도 나왔습니다.
🛡️ AI 안전과 윤리: 갈수록 뜨거워지는 논쟁

OpenAI, 캐나다 학교 총격 사건 후 안전 프로토콜 개편
2월 중순 캐나다 브리티시 컬럼비아의 한 학교에서 발생한 총격 사건(8명 사망, 수십 명 부상)과 관련하여, 범인이 ChatGPT와 폭력 가능성을 시사하는 대화를 나눈 것으로 확인되었습니다.
당시 OpenAI는 해당 계정을 정지시켰지만, 경찰에 신고하지는 않았습니다. 이에 대한 비판이 쏟아지자 OpenAI는 새로운 안전 프로토콜을 발표하며, “현재의 프로토콜이 적용되었다면 경찰에 알렸을 것”이라고 밝혔습니다.
이 사건은 AI 기업의 사용자 행동 모니터링과 신고 의무 사이의 균형에 대한 심각한 논의를 불러일으키고 있습니다.
Anthropic: “우리 챗봇은 의식이 있을 수 있다”
Anthropic은 자사의 AI 챗봇 Claude를 “의식이 있을 수 있는 새로운 종류의 존재(a new kind of entity)”라고 표현하며 큰 논란을 일으켰습니다. AI 의식에 대한 논쟁은 학계에서 오랫동안 이어져 왔지만, AI 기업이 직접 자사 모델의 의식 가능성을 언급한 것은 이례적입니다.
이 발언은 다음과 같은 중요한 질문들을 제기합니다:
- AI에게 권리를 부여해야 하는가?
- AI 의식의 판별 기준은 무엇인가?
- 이것이 마케팅 전략인가, 진지한 철학적 탐구인가?
📱 제품과 서비스: 일상 속 AI 변화

Google의 AI 행보
Google은 2월에도 여러 AI 제품을 업데이트했습니다:
- Google Translate + Gemini: 문맥 기반 대안 번역 제공. “Understand”와 “Ask” 버튼으로 AI에게 번역 맥락을 물어볼 수 있음
- Google Flow 확장: AI 영상 생성 도구인 Flow에 이미지 생성기 Whisk과 ImageFX를 통합, “생성·편집·애니메이션을 하나의 작업공간에서” 가능하게 함
YouTube의 AI 슬롭 문제
뉴욕타임스 보도에 따르면, CoComelon이나 Bluey 같은 인기 어린이 채널을 시청한 후 YouTube가 추천하는 Shorts의 40% 이상이 AI 생성 영상으로 나타났습니다. YouTube는 어린이 대상 AI 애니메이션 영상에 대한 라벨링을 의무화하지 않고 있어, 콘텐츠 검증 부담이 온전히 부모에게 전가되고 있습니다.
Oura 링, 여성 건강 AI 챗봇 추가
스마트 링 제조사 Oura는 AI 챗봇 Oura Advisor에 여성 건강 전문 모델을 추가했습니다. 초기 생리 주기부터 폐경기까지의 생식 건강 전반을 커버하며, 대화 데이터는 Oura 자체 인프라에서만 호스팅되고 제3자와 공유되지 않는다고 밝혔습니다.
🏛️ AI 정책과 규제
트럼프 대통령의 국정연설(State of the Union)
트럼프 대통령은 2월 국정연설에서 AI 관련 두 가지 사항을 언급했습니다:
- 데이터센터 전력 자급: 테크 기업들에게 자체 전력 수요를 해결하라고 지시했다며, 데이터센터가 일반 소비자의 전기료를 인상하지 않도록 하는 “요금 보호 서약”을 협상했다고 주장
- Take It Down Act: 영부인 멜라니아가 추진한 AI 딥페이크 포함 비동의 친밀 이미지 삭제 의무화 법안의 성과를 강조
AI 산업 국유화 우려
Anthropic-펜타곤 갈등 과정에서, 전문가들은 국방생산법(Defense Production Act)이 AI 기업에 적용될 가능성을 경고했습니다. 이는 AI 산업의 부분적 국유화로 이어질 수 있으며, 업계 전체에 위축 효과(chilling effect)를 가져올 수 있다는 우려가 커지고 있습니다.
📊 2월 AI 뉴스 한눈에 보기
| 날짜 | 이벤트 | 분야 |
|---|---|---|
| 2/24 | Oura, 여성 건강 AI 모델 발표 | 제품 |
| 2/24 | OpenAI, 신임 최고인사책임자(CPO) 임명 | 기업 |
| 2/25 | Perplexity “Computer” AI 에이전트 플랫폼 출시 | 에이전트 |
| 2/25 | Anthropic, AI 의식 가능성 언급 | 안전/윤리 |
| 2/25 | Google Flow, 이미지 생성 도구 통합 | 제품 |
| 2/25 | 트럼프 국정연설에서 AI 정책 언급 | 정책 |
| 2/26 | YouTube AI 슬롭 어린이 노출 보도 | 안전 |
| 2/26 | Google Translate, Gemini 기반 번역 업데이트 | 제품 |
| 2/26 | Amazon AGI 연구소장 David Luan 퇴사 | 기업 |
| 2/26 | OpenAI, 캐나다 총격 사건 관련 안전 프로토콜 개편 | 안전 |
| 2/27 | Anthropic, 펜타곤 ‘모든 합법적 사용’ 요구 거부 | 정책 |
| 2/28 | OpenAI, 펜타곤과 새 계약 체결 | 정책 |
| 2/28 | Anthropic, 법적 대응 선언 | 정책 |
마무리: 2026년 AI의 방향성
2월의 뉴스를 관통하는 키워드는 “경계”입니다.
- AI의 군사적 활용은 어디까지 허용되어야 하는가?
- AI 에이전트는 인간의 일을 어디까지 대체할 수 있는가?
- AI의 의식과 권리는 언제부터 논의해야 하는가?
- AI가 만드는 콘텐츠의 품질과 안전은 누가 책임지는가?
특히 Anthropic과 펜타곤의 대치는 AI 기업의 윤리적 책임과 국가 안보 사이의 긴장을 극적으로 보여주었습니다. 경쟁 관계인 Anthropic과 OpenAI가 군사 AI에 대해 비슷한 입장을 취한 것은, 업계가 공동의 윤리 기준을 세워나갈 수 있다는 희망적인 신호이기도 합니다.
3월에는 또 어떤 뉴스가 AI 업계를 뒤흔들지, 계속 주시해 보겠습니다.
참고 출처
- The Verge - Artificial Intelligence
- TechCrunch - AI
- Politico - AI Industry Fears
- Perplexity Computer 공식 블로그
- Google Flow 업데이트