인공지능 기술의 발전 속도가 인류의 예측 범위를 넘어서면서 전 세계 주요 국가들은 혁신과 규제 사이에서 치열한 줄타기를 이어가고 있습니다. 이러한 흐름 속에서 2025년 12월 19일, 캐시 호철 뉴욕주지사가 서명한 인공지능 안전법인 RAISE 법안(S6953B/A6453B)은 단순한 지역법을 넘어 글로벌 빅테크 기업들과 한국을 포함한 주요 IT 강국들에게 강력한 이정표를 제시하고 있습니다. 인공지능이 가져올 잠재적 위험을 선제적으로 차단하면서도 경제 성장의 동력을 잃지 않겠다는 뉴욕주의 결단은 현재 인공지능 기본법 제정을 앞두고 진통을 겪고 있는 대한민국에도 시사하는 바가 매우 큽니다.
뉴욕주 AI 안전법의 핵심: 프런티어 모델에 대한 강력한 가드레일
이번에 통과된 뉴욕주의 RAISE 법안은 모든 인공지능 서비스를 규제 대상으로 삼는 대신, 소수의 거대 자본과 기술력이 집약된 프런티어 모델에 집중하고 있다는 점이 특징입니다. 법안의 적용을 받는 주요 대상은 훈련 단계에서 누적 연산 자원 투입 비용이 1억 달러(한화 약 1,350억 원)를 초과하는 초거대 모델 개발사들입니다. 이는 사실상 오픈AI, 구글, 앤스로픽, 메타와 같은 글로벌 선도 기업들을 직접 겨냥한 것이며, 자금력이 부족한 스타트업이나 학계의 연구 활동에는 과도한 규제 부담을 주지 않겠다는 의도가 깔려 있습니다.
주요 의무 사항을 살펴보면 개발자는 모델을 대중에게 배포하기 전 반드시 서면 형태의 안전 및 보안 프로토콜을 구현하고 이를 공개해야 합니다. 이 프로토콜의 사본은 주기적으로 갱신되어야 하며, 특히 인공지능의 오작동이나 보안 사고가 발생했을 때 이를 인지한 시점으로부터 72시간 이내에 뉴욕주 법무장관과 국토안보부(DHS)에 보고해야 하는 조항은 기업들에게 매우 높은 수준의 운영 투명성을 요구하고 있습니다. 이러한 강력한 보고 체계는 뉴욕주가 인공지능을 단순한 소프트웨어가 아니라 사회적 안전망 차원에서 관리해야 할 고위험 기술로 보고 있음을 의미합니다. 뉴욕주가 발표한 공식 보도자료를 참고하면 주정부가 이번 법안을 통해 달성하고자 하는 투명성의 범위를 더욱 명확히 이해할 수 있습니다.
치명적 위해의 정의: 100명 이상의 인명 피해와 10억 달러의 손실
RAISE 법안에서 가장 주목해야 할 지점은 규제의 근거가 되는 치명적 위해(Critical Harm)에 대한 엄격한 정의입니다. 법안에 따르면 100명 이상의 인명 피해를 야기하거나, 재산 및 권리에 10억 달러 이상의 손해를 입힐 가능성이 있는 경우 해당 모델의 배포는 엄격히 제한됩니다. 이는 인공지능이 생화학 무기 제조를 돕거나 대규모 자동화 범죄에 악용되는 시나리오를 법적으로 방어하겠다는 강력한 의지의 표현입니다.
또한 뉴욕주는 금융서비스국(DFS) 내에 새로운 감독 기구를 설치하여 프런티어 모델 개발사들의 안전 프로토콜 준수 여부를 상시 모니터링하기로 했습니다. 만약 기업이 허위 보고를 하거나 필수적인 안전 조치를 이행하지 않을 경우, 첫 위반 시 최대 100만 달러, 반복 위반 시 최대 300만 달러의 민사 벌금이 부과될 수 있습니다. 캘리포니아주에서 과거 논의되었던 규제안들이 기술 혁신 저해를 이유로 거부되었던 것과 달리, 뉴욕주는 실제적인 피해 수치를 명시함으로써 법적 예측 가능성을 높였습니다.
글로벌 규제 지형의 변화와 연방 정부와의 마찰
뉴욕주의 이번 조치는 미국 내 다른 주정부뿐만 아니라 연방 정부와의 관계에서도 묘한 긴장감을 형성하고 있습니다. 현재 미국 연방 정부 차원에서는 주정부의 개별적인 AI 규제가 주간 통상을 방해하거나 연방 규정과 충돌할 경우 이를 무력화하려는 움직임이 포착되고 있습니다. 특히 최근 발표된 연방 행정명령(EO)은 주정부의 AI 규제가 기술 발전을 저해하지 않도록 감시하는 태스크포스 구성을 지시하기도 했습니다.
그럼에도 불구하고 뉴욕주가 이번 법안을 밀어붙인 이유는 기술 중심지로서의 주도권을 놓치지 않으면서도 시민의 안전을 보호하겠다는 명분이 확실하기 때문입니다. 이는 유럽연합의 AI 법(EU AI Act)과 유사하면서도, 미국 실정에 맞는 훈련 비용 기준을 도입했다는 점에서 독창적인 규제 모델로 평가받습니다.
한국 테크 기업과 인공지능 기본법에 주는 시사점
대한민국 역시 인공지능 산업의 건전한 발전과 신뢰 기반 조성을 위한 인공지능 기본법 제정을 서두르고 있습니다. 2025년을 기점으로 본격적인 시행령 마련이 진행 중인 한국의 상황에서 뉴욕주의 사례는 두 가지 핵심 과제를 던져줍니다.
첫째는 고영향 인공지능에 대한 명확한 기준 설정입니다. 한국도 뉴욕주처럼 훈련 비용이나 연산 규모 등 객관적인 수치를 통해 규제 대상을 특정함으로써 스타트업의 혁신을 보장하고 거대 모델 개발사에게는 합당한 책임을 물어야 합니다. 둘째는 글로벌 규제 상호운용성(Interoperability) 확보입니다. 삼성전자나 네이버처럼 글로벌 시장에 진출하는 국내 기업들은 뉴욕주의 72시간 보고 의무와 같은 기준이 사실상의 국제 표준이 될 가능성에 대비해야 합니다.
또한 국내 법안에서도 논의 중인 워터마크 표시 의무화나 알고리즘 투명성 확보는 단순한 규제가 아니라, 글로벌 시장에서 한국산 AI의 신뢰성을 증명하는 도구가 될 수 있습니다. 뉴욕주의 법안이 딥페이크를 통한 선거 개입이나 디지털 초상권 침해에 대해 강력한 형사 처벌을 병행하는 것처럼, 한국도 기술적 규제와 법적 처벌 체계가 조화를 이루는 세밀한 설계가 필요합니다.
결론: 책임 있는 혁신이 지속 가능한 성장을 만든다
캐시 호철 주지사가 이끄는 뉴욕주의 행보는 기술 혁신이 결코 통제 불능의 영역에 머물러서는 안 된다는 강력한 메시지를 던지고 있습니다. RAISE 법안은 기업들에게는 단기적인 행정적 제약으로 느껴질 수 있으나, 사고 발생 시의 천문학적인 배상 책임과 사회적 혼란을 예방한다는 측면에서 거시적인 안전장치라고 보아야 합니다.
대한민국의 테크 산업 역시 단순히 규제를 피하는 것에 급급할 것이 아니라, 설계 단계부터 안전(Safety by Design)과 윤리적 가치를 내재화하는 방향으로 나아가야 합니다. 뉴욕주와 같은 선진적인 규제 모델을 참고하여 우리만의 합리적인 가이드라인을 정립한다면, 한국은 글로벌 인공지능 거버넌스에서 단순한 추격자가 아닌 규칙 제정자로서의 위상을 확립할 수 있을 것입니다. 결국 미래의 승자는 가장 빠른 인공지능을 만드는 기업이 아니라, 인류가 가장 안심하고 사용할 수 있는 인공지능을 만드는 기업이 될 것입니다.
