OpenAI 저작권 소송·xAI 기밀망 논란, AI 신뢰 위기 확산

AI 뉴스 바이블 시리즈에 오신 것을 환영합니다. 오늘은 2026년 3월 17일자 소식입니다. 이번 주 AI 업계는 저작권과 국가안보라는 두 개의 굵직한 쟁점이 동시에 수면 위로 떠오르며 업계 전반에 거센 파장을 일으키고 있습니다. 메리엄-웹스터와 브리태니커 백과사전이 OpenAI를 상대로 낸 저작권 침해 소송, 그리고 일론 머스크의 xAI가 미국 국방부 기밀 네트워크에 접근 권한을 부여받았다는 사실이 잇따라 알려지면서 AI 기업들의 책임과 투명성 문제가 그 어느 때보다 강하게 도마 위에 올랐습니다.

OpenAI 저작권 소송 AI 신뢰 위기

브리태니커·메리엄-웹스터, OpenAI에 저작권 소송 제기

2026년 3월 16일, 전 세계에서 가장 권위 있는 참고 자료 출판사인 브리태니커 백과사전과 메리엄-웹스터 사전이 OpenAI를 상대로 저작권 침해 소송을 공동으로 제기했습니다. 소장의 핵심 내용은 OpenAI가 두 기관이 보유한 거의 10만 건에 달하는 기사와 항목을 무단으로 수집·학습에 활용했다는 것입니다. 원고 측은 OpenAI가 허가나 보상 없이 독점 참고 콘텐츠를 대규모 언어 모델 학습 데이터로 사용했다고 주장합니다.

이번 소송에서 주목할 부분은 피해 산정 방식입니다. 원고 측 법률 대리인은 무단 사용된 10만 건 콘텐츠의 경제적 가치를 라이선스 시장 기준으로 환산하면 수억 달러 규모에 이를 수 있다고 주장합니다. 뉴욕타임스가 2023년 OpenAI를 상대로 제기한 소송에서 수십억 달러 규모의 손해배상을 청구한 것, 그리고 미국 작가 길드(Authors Guild)가 별도 집단소송을 진행 중인 것과 비교하면, 이번 사건은 청구 규모 면에서 유사하거나 그 이상이 될 전망입니다.

이번 소송은 AI 업계를 향한 저작권 법적 공세의 연장선상에 있습니다. 앞서 뉴욕타임스, 작가 길드, 이미지 라이선스 기관 등이 유사한 소송을 제기한 바 있으며, 이번 사건을 포함하면 OpenAI를 향한 주요 저작권 소송 건수는 빠르게 누적되고 있습니다. 업계 전문가들은 이번 소송이 “AI 학습 데이터와 공정 이용(fair use) 원칙의 경계선을 어디에 그을 것인가”라는 근본적인 법적 질문에 대한 답을 구하는 핵심 사례가 될 것이라 분석합니다.

특히 브리태니커와 메리엄-웹스터는 단순한 온라인 출판사가 아닌, 200년이 넘는 역사를 가진 검증된 지식 기관이라는 점에서 이번 소송은 상징적인 무게를 가집니다. 이들 기관의 콘텐츠는 사실 검증과 학술적 신뢰도 측면에서 일반 웹 콘텐츠와 차별화되며, 그 가치는 단순한 텍스트 데이터를 훨씬 넘어섭니다. 소송 결과에 따라 AI 기업들이 앞으로 학습 데이터를 수집하는 방식 전반이 크게 달라질 수 있습니다.

OpenAI 측은 공식 입장을 아직 발표하지 않았으나, 기존 소송들에서 일관되게 주장해온 공정 이용(fair use) 방어 논리를 이번에도 적용할 것으로 예상됩니다. 핵심 논거는 AI 학습이 원저작물을 “변형적(transformative)”으로 사용하는 것이므로 저작권 침해에 해당하지 않는다는 것입니다. 다만 미국 법원의 최근 판례 경향을 보면, 변형적 이용 주장이 대규모 상업적 AI 학습에도 적용될 수 있는지에 대해 판사마다 판단이 엇갈리고 있어 최종 결론은 상당 기간 불확실한 상태가 이어질 것으로 보입니다.

xAI, 국방부 기밀망 접근 승인 — 워런 상원의원 “국가안보 위협”

같은 날, 미국 상원의원 엘리자베스 워런은 국방부(펜타곤)가 일론 머스크의 AI 스타트업 xAI에 기밀 정부 네트워크 접근 권한을 부여한 결정에 대해 공개적으로 문제를 제기했습니다. 워런 의원은 성명을 통해 xAI의 첫봇 서비스 그록(Grok)이 “사용자에게 유해한 출력물을 생성한 전력이 있으며, 잠재적 국가안보 위협을 내포하고 있다”고 경고했습니다.

워런 의원이 지적한 xAI의 문제는 구체적입니다. 그록은 과거 충분한 안전장치 없이 부적절한 콘텐츠를 생성한 사례가 기록되어 있습니다. 특히 2024년 말에는 그록이 특정 인종 및 종교 집단에 대한 혐오 표현을 여과 없이 출력한 사건이 있었고, 성적으로 노골적인 콘텐츠를 생성하는 데 쉽게 유도될 수 있다는 보안 연구자들의 보고도 잇따랐습니다. 이러한 이력이 있는 시스템이 기밀 정보망에 접근한다는 것은 명백한 위험 요소라는 것이 워런 의원의 주장입니다.

내부 안정성 문제도 쟁점입니다. 최근 들어 복수의 공동창업자가 회사를 떠나는 등 xAI 내부의 안정성에 적신호가 켜졌습니다. 기밀 정보망에 접근하는 AI 시스템에 대한 검증 기준이 충분히 엄격하지 않았다는 지적이 나오는 이유입니다. 이번 논란은 AI 기업들과 미국 군·정보 기관 사이의 복잡하고 모순적인 관계를 다시 한번 드러냅니다. 한편에서는 AI 스타트업에 광범위한 기밀 접근을 허용하면서, 다른 한편에서는 Anthropic이 국방부로부터 “공급망 위험(supply chain risk)” 기업으로 분류되어 연방 소송을 제기하는 상황이 공존하고 있습니다. Anthropic은 해당 분류가 수정헌법 제1조(표현의 자유)를 침해한다고 주장하며 법적 대응을 이어가고 있습니다. AI 기업에 대한 정부의 위험 평가 기준이 일관되지 않다는 비판이 거세지는 배경입니다.

xAI 기밀망 논란 AI 규제

AI 신뢰 위기, 법·제도적 틀 마련이 시급하다

두 사건은 서로 다른 분야에서 벌어졌지만, 공통된 메시지를 담고 있습니다. AI 기술의 급속한 발전 속도에 비해 이를 규율하는 법·제도적 틀이 현저히 뒤처져 있다는 사실입니다.

저작권 문제의 경우, 현행 공정 이용(fair use) 원칙이 대규모 AI 학습이라는 새로운 현실을 어디까지 포괄할 수 있는지에 대한 해석이 법원마다 엇갈리고 있습니다. 브리태니커·메리엄-웹스터 소송은 이 불확실성을 해소할 선례가 될 가능성이 높습니다. AI 기업 입장에서는 소송 리스크가 높아질수록 학습 데이터 확보 비용 및 라이선스 계약 부담이 급증할 수밖에 없습니다. 국제적으로는 EU AI Act가 고위험 AI 시스템에 대한 데이터 거버넌스 요건을 명문화한 반면, 미국은 아직 연방 차원의 포괄적 규율이 없는 상태입니다. 한국의 AI 기본법 논의에도 이번 소송은 중요한 시사점을 제공합니다. 학습 데이터의 출처와 사용 허가 여부를 의무적으로 공개하게 할 것인지, 아니면 사후 분쟁 해결에 맡길 것인지가 핵심 쟁점이 될 것입니다.

국가안보 측면에서는 AI 시스템에 대한 정부의 이중적 태도가 신뢰를 갉아먹고 있습니다. 충분한 검증 없이 일부 AI에 기밀망 접근을 허용하면서, 다른 기업은 자의적인 기준으로 위험 분류하는 행태는 업계 전반의 불투명성을 심화시킵니다. 전문가들은 기밀 시스템에 접근하는 AI에 대한 표준화된 심사 기준과 독립적인 감사 체계 수립이 더 이상 미룰 수 없는 과제라고 강조합니다.

크리에이터가 선택할 수 있는 대안

이번 소송과 논란은 콘텐츠 제작자와 출판사에게도 중요한 현실적 질문을 던집니다. AI 기업의 무단 학습에 맞서 실질적으로 무엇을 할 수 있을까요?

가장 널리 알려진 방법은 robots.txt를 통한 크롤링 차단입니다. 그러나 이 방식에는 근본적인 한계가 있습니다. robots.txt는 법적 구속력이 없는 권고 사항에 불과하며, OpenAI의 GPTBot 등 일부 AI 크롤러는 실제로 robots.txt 지침을 무시한 사례가 보고된 바 있습니다. 즉, 기술적 방어막이 법적 보호를 대체할 수 없습니다.

보다 실질적인 대안으로는 라이선스 계약 모델이 부상하고 있습니다. AP 통신은 OpenAI와 콘텐츠 사용 계약을 체결해 적정 보상을 받는 방식을 택했고, 독일 미디어 그룹 Axel Springer도 유사한 계약을 맺었습니다. 이처럼 소송 대신 협상을 통해 수익을 확보하는 전략이 현실적인 대안으로 주목받고 있습니다. 물론 대형 미디어 기업과 달리, 개인 블로거나 소규모 출판사가 AI 기업과 직접 협상 테이블에 앉기는 현실적으로 어렵습니다. 이 간극을 메우기 위해 크리에이터 연합 구성이나 집단 라이선스 협약 같은 접근도 논의되고 있지만, 아직 구체적인 성과는 나오지 않은 상태입니다.

결국 이번 두 사건은 AI 기업들이 기술 혁신 못지않게 법적·윤리적 책임에 대한 대비를 강화해야 한다는 경고음입니다. 저작권 침해, 안전성 미비, 투명성 부족 — 이 세 가지 문제를 해결하지 못한다면 AI 산업 전체의 신뢰 기반이 흔들릴 수 있다는 점에서, 앞으로의 법적·정책적 움직임을 주목해야 합니다.

참고 소스

– TechCrunch AI — “The dictionary sues OpenAI”: https://techcrunch.com/2026/03/16/merriam-webster-openai-encyclopedia-brittanica-lawsuit/

– TechCrunch AI — “Warren presses Pentagon over decision to grant xAI access to classified networks”: https://techcrunch.com/2026/03/16/warren-presses-pentagon-over-decision-to-grant-xai-access-to-classified-networks/

댓글 남기기