국가 AI 정책 프레임워크(National AI Policy Framework)는 2026년 3월 20일 트럼프 행정부가 발표한 입법 권고안 및 정책 가이드라인 세트입니다. [1] [2] 이 프레임워크는 미국 의회가 인공지능을 규제하는 통일된 연방법을 초안하고 제정하기 위한 청사진 역할을 합니다. 주요 목표는 미국의 혁신을 촉진하고, 글로벌 AI 분야에서 미국의 리더십을 확보하며, 안전, 지적 재산권 및 개인의 권리를 위한 보호 장치를 마련하는 것입니다. [3]
이 정책의 핵심 원칙은 행정부가 '파편화된 짜깁기'라고 부르는 상충하는 규제들을 방지하기 위해 주(州) 단위의 AI 법안보다 연방법을 우선시하는 것입니다. [3] [2] 프레임워크는 '가벼운 규제'와 '부담을 최소화하는' 국가 표준을 옹호하며, 특히 중국과 같은 경쟁국과의 '글로벌 AI 경쟁'에서 국가 경쟁력을 확보하기 위해서는 일관성이 필수적이라고 주장합니다. [4] [1]
국가 AI 표준을 위한 추진은 프레임워크 발표 전부터 시작되었습니다. 2025년 12월, 도널드 트럼프 대통령은 AI 산업을 위한 단일 국가 규제 표준 수립을 촉구하고, 주 정부가 AI 기업에 제한을 가하는 새로운 법률을 제정하는 것을 금지하는 행정 명령에 서명했습니다. [2] [4] 이 행정 조치는 연방 정부 주도의 AI 규제 접근 방식을 위한 토대를 마련했습니다. 이 프레임워크는 백악관 AI 담당관 데이비드 삭스(David Sacks)와 과학기술정책국(OSTP) 국장 마이클 크라츠오스(Michael Kratsios)가 공동으로 제작했습니다. [5]
국방수권법(NDAA)과 관련된 노력을 포함하여, 연방 선점권 조항을 의회에서 통과시키려던 이전의 시도들은 실패했으며, 이는 이러한 접근 방식의 정치적 어려움을 부각시켰습니다. [4] 이 프레임워크는 2026년 3월 20일, 의회를 향한 행정부의 공식적인 입법 희망 목록으로서 공식 공개되었습니다. 발표 이후, 행정부는 제안된 내용들을 공식 법안으로 전환하기 위해 향후 몇 달 동안 의회와 협력할 의사를 밝혔으며, 2026년 내에 이를 법제화하는 것을 목표로 삼았습니다. [2]
- 트럼프 행정부: 프레임워크를 작성하고 발표한 책임이 있는 행정부입니다. [3]
- 도널드 J. 트럼프 대통령: 프레임워크 개발 당시의 대통령으로, 2025년 12월 행정명령을 통해 해당 정책을 시작했습니다. [2]
- 마이클 크라츠오스(Michael Kratsios): 백악관 과학기술정책국(OSTP) 국장이자 프레임워크의 공동 제작자입니다. 그는 프레임워크 발표 당시 주요 대변인 역할을 수행했습니다. [2] [5]
- 데이비드 삭스(David Sacks): 백악관의 AI 책임자(AI czar)로, 크라츠오스와 함께 프레임워크 초안을 공동 제작하도록 지시받았습니다. [5]
- 미국 의회: 프레임워크 권고안의 수신처로, 연방 AI 법안을 초안하고 제정하는 임무를 맡고 있습니다. [3]
- 멜라니아 트럼프 영부인: 그녀의 "Take It Down Act" 이니셔티브는 프레임워크의 아동 안전 규정의 토대로 인용되었습니다. [3]
이 프레임워크는 7개의 기둥을 중심으로 구성되어 있으며, 각 기둥은 의회를 위한 구체적인 정책 권고안을 서술합니다. [3]
이 핵심 축은 AI 시스템과 상호작용하는 미성년자의 안전을 보장하는 데 중점을 둡니다. 다음과 같은 내용을 포함하는 법안 제정을 권고합니다:
- 부모가 AI 기반 플랫폼에서 자녀의 개인정보 보호 설정, 화면 이용 시간 및 콘텐츠 노출을 제어할 수 있는 도구를 제공하여 부모의 권한을 강화합니다.
- 미성년자가 접속할 가능성이 높은 플랫폼에 대해 개인정보를 보호하면서도 상업적으로 합리적인 연령 확인 요건을 수립합니다.
- AI 플랫폼이 어린 사용자들 사이에서 발생할 수 있는 성착취 및 자해 위험을 완화하기 위한 기능을 구현하도록 의무화합니다.
- AI 모델 학습을 위한 데이터 수집을 제한하는 등 기존의 아동 개인정보 보호법이 AI 시스템에도 적용되도록 강화합니다.
- 딥페이크 악용 및 AI 생성 아동 성학대물(CSAM) 제작에 대응하기 위해 "Take It Down Act"와 같은 기존 이니셔티브를 기반으로 대책을 마련합니다. [3] [4]
이 섹션은 AI가 사회, 경제 및 보안에 미치는 광범위한 영향을 다룹니다. 주요 권장 사항은 다음과 같습니다:
- 인프라 및 에너지: AI 인프라 및 데이터 센터용 현장 발전 시설에 대한 연방 허가 절차를 간소화합니다. 또한 새로운 데이터 센터 건설에 따른 에너지 수요로 인해 주거용 전기 요금이 인상되는 것을 방지하기 위한 "납세자 보호 서약(Ratepayer Protection Pledge)"과 궤를 같이합니다. [3]
- 사기 예방: 특히 노년층을 대상으로 하는 사기에 초점을 맞추어, AI 기반 사기에 대응하기 위한 법 집행 기관의 자원을 증대합니다. [3]
- 국가 안보: 국가 안보 기관이 AI 개발자와 협력하여 고급 프런티어 AI 모델의 위험을 평가하고 완화할 수 있는 역량을 갖추도록 요구합니다. [3]
- 중소기업 지원: 중소기업이 AI 도구를 도입하고 활용할 수 있도록 보조금, 세제 혜택 및 기술 지원을 제공합니다. [3]
이 핵심 원칙은 행정부가 제안한 저작권 및 디지털 정체성에 대한 접근 방식을 개괄하며, 이는 상당한 논의를 불러일으켰습니다.
- AI 훈련 및 저작권: 이 프레임워크는 저작권이 있는 저작물로 AI 모델을 훈련하는 것이 본질적으로 저작권법을 위반하는 것은 아니라고 주장합니다. AI 훈련이 "공정 이용"에 해당하는지에 대한 법적 문제는 의회의 새로운 입법이 아닌 법원을 통해 해결되어야 한다고 권고합니다. [3]
- 라이선스 체계: 의회가 자발적인 "권리 집단 관리 시스템" 구축을 가능하게 해야 한다고 제안합니다. 이러한 시스템을 통해 창작자들은 반독점 책임에 직면하지 않고 AI 기업으로부터 자신의 저작물 사용에 대한 보상을 협상할 수 있게 되지만, 그러한 라이선스가 언제 필수적인지에 대해서는 규정하지 않습니다. [3]
- 디지털 복제물: 이 프레임워크는 AI로 생성된 개인의 목소리나 초상이 무단으로 상업적 이용되는 것으로부터 개인을 보호하기 위한 새로운 연방법 제정을 제안합니다. 이 법에는 패러디, 풍자, 뉴스 보도와 같이 수정헌법 제1조(표현의 자유)에 의해 보호되는 활동에 대한 명확한 예외 조항이 포함될 것입니다. [3]
이 섹션은 AI 기반 플랫폼의 맥락에서 수정헌법 제1조에 따른 권리를 보호하는 데 중점을 두며, 콘텐츠 중재에 대한 행정부의 우려를 반영합니다.
- 정부의 과도한 개입: 이 프레임워크는 연방 정부가 당파적 또는 이념적 이유로 콘텐츠를 검열, 삭제 또는 변경하도록 AI 제공업체에 강요하거나 압력을 가하는 것을 금지할 것을 권고합니다. 이는 콘텐츠 정책을 둘러싸고 기술 기업들과 벌였던 행정부의 이전 분쟁들과 연관되어 있습니다. [3] [5]
- 법적 구제: 개인이 연방 기관이 AI 플랫폼에서 자신의 합법적인 표현을 검열하려 했다고 믿는 경우, 이에 대한 구제를 요청할 수 있는 법적 경로를 마련할 것을 제안합니다. [3]
이 기둥은 AI 개발에 대한 혁신 친화적이고 제한적인 규제 접근 방식을 상세히 설명합니다.
- 규제 철학: 이 프레임워크는 AI를 위한 새로운 연방 규칙 제정 기구의 창설을 명시적으로 반대합니다. 대신, 기존의 부문별 규제 기관의 권한을 활용하고 산업 주도의 표준 개발을 촉진할 것을 옹호합니다. [3] [4]
- 혁신 도구: 개발을 가속화하기 위해 새로운 AI 애플리케이션의 신속한 테스트 및 배포를 위한 규제 샌드박스 구축을 권장합니다. 또한 산업계와 학계 모두의 모델 학습을 지원하기 위해 민감하지 않은 연방 데이터 세트를 AI 활용이 가능한 형식으로 접근할 수 있도록 할 것을 요구합니다. [3]
이 섹션에서는 AI의 경제 통합으로 인해 발생하는 노동 및 교육 과제를 다룹니다.
- 기술 개발: 기존 교육, 수습 과정 및 인력 지원 프로그램에 AI 교육을 통합하기 위해 비규제적 방법을 사용할 것을 권장합니다. [3]
- 인력 연구: 이 프레임워크는 AI가 직무를 어떻게 변화시키고 있는지 이해하기 위해 연방 연구를 확대할 것을 요구하며, 이는 근로자를 지원하는 정책에 더 나은 정보를 제공하는 것을 목표로 합니다. [3]
- 랜드그랜트(Land-Grant) 기관: AI 기술 지원을 제공하고 AI 관련 청소년 프로그램을 개발할 수 있도록 랜드그랜트 기관의 역량을 강화할 것을 제안합니다. [3]
이 기둥은 AI 규제에 있어 연방 정부와 주 정부 간의 제안된 권한 균형을 정의하며, 프레임워크의 가장 중요한 구성 요소 중 하나입니다.
-
국가 표준: 상충되는 주 법률의 "패치워크(누더기 식 규제)"를 방지하기 위해 "부담을 최소화하는 국가 표준"을 옹호합니다. 이는 단일 표준이 주간 통상 및 국가 안보의 문제라고 주장합니다. [3] [2]
-
연방 선점 영역: 프레임워크는 연방 법률이 주 정부의 다음 사항에 대한 규제를 방지해야 한다고 제안합니다.
- AI 개발: AI 모델을 설계, 훈련 및 구축하는 프로세스.
- 개발자 책임: 주 정부가 제3자 사용자의 불법 행위에 대해 AI 개발자에게 책임을 묻는 것을 제한하여 "세이프 하버(면책)" 조항을 만듭니다. [4] [5]
-
보존된 주 권한: 프레임워크는 주 정부가 여러 분야에서 전통적인 권한을 유지할 것임을 명시합니다.
- 일반 법률: 소비자 보호, 사기 및 아동 안전과 관련된 기존 법률의 집행. [5]
- 용도 지역 설정(Zoning): AI 데이터 센터 및 기타 인프라의 위치 선정을 위한 지역 용도 지역법의 사용.
- 주 정부 사용: 법 집행 및 공립학교와 같은 분야에서 주 정부 자체의 AI 기술 조달 및 사용에 대한 규제. [3]
국가 AI 정책 프레임워크는 복잡한 정치적 환경 속에서 발표되었습니다. 행정부는 이를 분열된 의회에서 초당적 지지를 얻을 수 있는 제안으로 규정했습니다. [2] 하지만 연방 우선권(federal preemption)에 대한 강경한 입장은 논쟁의 중심이 되었습니다. 이 프레임워크는 안전 보고 및 위험 공시 의무를 부과하는 캘리포니아(SB 53) 및 뉴욕(RAISE Act)과 같은 주의 기존 또는 계류 중인 AI 법안에 직접적으로 도전하는 내용을 담고 있습니다. [5]
공화당 내부에서도 연방 우선권 제안에 대한 반발이 있었습니다. 2026년 3월 초, 50명 이상의 공화당 의원들은 주 정부의 권리에 대한 우려를 표하며 주 단위 AI 입법을 중단하거나 무력화하려는 연방 정부의 노력에 반대하는 서한에 서명했습니다. [5]
프레임워크 발표 이후, 존 튠(John Thune) 상원 원내대표와 테드 크루즈(Ted Cruz) 상무위원회 위원장을 포함한 공화당 지도부는 2026년 4월 말까지 권고안을 바탕으로 한 법안 초안 작성을 목표로 삼았습니다. 민주당의 지지를 끌어내기 위한 입법 전략으로, 이 프레임워크에 기반한 법안을 아동 온라인 안전법(KOSA) 수정안과 병합하는 방안이 보고되었습니다. [4]