판사, DOGE의 ChatGPT 보조금 심사는 "어리석고 위법했다" 판결
배경: DOGE가 AI로 연방 보조금을 심사했다
2025년, 트럼프 행정부 산하 정부효율부(DOGE, Department of Government Efficiency) 는 연방 보조금 프로그램을 대규모로 정비하는 과정에서 ChatGPT를 활용한 자동화 심사 방식을 도입했습니다. AI에게 보조금 신청서나 프로그램 설명문을 분석하게 하여, DEI(Diversity, Equity, Inclusion — 다양성·형평성·포용성) 관련 단어가 포함된 프로그램을 자동으로 걸러내는 방식이었습니다.
이를 통해 수백 건의 연방 보조금이 검토도 없이 중단되었고, 의료, 교육, 사회복지 등 다양한 분야의 기관들이 갑작스러운 재정 중단을 통보받았습니다.
판결: 절차적으로도, 법적으로도 위법
미국 연방 판사는 이 방식이 위법(illegal) 하다는 판결을 내렸습니다. 판결의 핵심 근거는 다음과 같습니다.
- 적법 절차 위반: 보조금 수혜 기관들에게 사전 통지나 이의제기 기회가 주어지지 않았습니다.
- 자의적·변덕스러운 행정 행위: AI가 단순히 특정 단어의 포함 여부만으로 프로그램의 적법성을 판단한 것은 행정법상 자의적 결정에 해당합니다.
- 의회 승인 예산 집행 방해: 의회가 이미 승인한 예산을 행정부가 임의로 집행 거부할 수 없습니다.
판사는 이 과정을 "어리석고 위법했다(both dumb and illegal)"고 표현하며 강하게 비판했고, 취소됐던 연방 보조금들의 복원을 명령했습니다.
AI 거버넌스의 경고등: 공공 행정에서의 AI 남용
이번 사건은 단순한 정치적 논쟁을 넘어, AI 거버넌스(AI Governance) 측면에서 중요한 선례를 남깁니다.
AI가 공공 행정에 투입될 때의 위험성
-
맥락 없는 키워드 필터링: ChatGPT가 DEI 관련 단어를 기계적으로 검출하는 방식은 프로그램의 실질적 목적이나 효과를 전혀 고려하지 못합니다. 예를 들어, 장애인 접근성 개선 프로그램도 "equity(형평성)"라는 단어 하나로 걸러질 수 있습니다.
-
책임 소재의 불명확성: AI가 결정을 내렸을 때, 그 결정에 대한 법적·행정적 책임을 누가 지는가? 이번 사건은 이 질문에 대해 "AI를 도입한 행정부"가 책임진다는 답을 제시했습니다.
-
투명성 부재: AI의 판단 근거가 불투명하면 이의제기가 사실상 불가능합니다. 이는 행정의 공정성과 투명성을 근본적으로 훼손합니다.
개발자·IT 커뮤니티에 던지는 질문
이번 사건은 AI를 개발하고 배포하는 개발자들에게 중요한 질문을 던집니다.
"AI가 할 수 있다(technically possible)"는 것이, AI가 해야 한다(ethically appropriate)는 것을 의미하지 않는다.
특히 개인의 권리나 공적 자원 배분에 영향을 미치는 시스템에서는 AI 자동화에 반드시 인간의 검토(human-in-the-loop) 와 이의제기 메커니즘이 수반되어야 합니다.
Reddit 반응: 10,000점 넘는 공감
이 뉴스는 Reddit r/technology에서 10,863점의 높은 공감을 받으며 큰 반향을 일으켰습니다. 사용자들은 "AI를 마법 지팡이처럼 휘두른 결과", "LLM으로 법적 결정을 내리는 것은 처음부터 잘못됐다" 등의 반응을 보였습니다.
원본 기사
이 사건에 대한 자세한 내용은 The Verge의 원본 기사에서 확인할 수 있습니다:
👉 Judge rules DOGE used ChatGPT in a way that was both dumb and illegal — The Verge
AI는 강력한 도구지만, 공공 행정과 법적 결정에는 반드시 적절한 절차와 인간의 감독이 함께해야 합니다. 이번 판결이 AI 거버넌스 논의에 중요한 이정표가 되길 기대합니다.
이 글 공유하기
// SPONSORED
[>]댓글
아직 댓글이 없어요. 첫 댓글을 남겨보세요!