캘리포니아, AI 규제를 위한 SB 1047을 고려하다

캘리포니아, AI 규제를 위한 SB 1047을 고려하다

작성자
Luisa Rodriguez
4 분 독서

주요 사항

  • 캘리포니아의 SB 1047은 AI로 인한 재앙, 즉 대량 인명 피해나 5억 달러 사이버 공격을 방지하는 것을 목표로 합니다.
  • 이 법안은 1억 달러 이상의 비용이 드는 대형 AI 모델을 대상으로 하며, 훈련 시 10^26 FLOPS를 사용합니다.
  • 개발자는 비상 정지 버튼 및 연간 제3자 감사와 같은 안전 프로토콜을 구현해야 합니다.
  • 새로운 캘리포니아 기관인 프론티어 모델 부서(FMD)가 준수 및 인증을 감독할 것입니다.
  • 실리콘밸리는 SB 1047에 반대하며, 혁신을 저해하고 스타트업에 엄격한 규제를 부과할 것을 우려하고 있습니다.

분석

캘리포니아의 SB 1047은 고비용, 고출력 AI 모델을 대상으로 하여 대량 인명 피해 및 사이버 공격과 같은 위험을 완화하는 것을 목표로 합니다. 직접적인 원인으로는 AI의 악용 가능성과 고급 모델 개발의 높은 비용이 포함됩니다. 단기적인 영향으로는 OpenAI 및 Google과 같은 기업들이 규제 준수 비용을 부담하게 되어 혁신이 저해될 수 있습니다. 장기적으로, 이 법안은 보다 안전한 AI 환경을 조성할 수 있지만 법적 도전이 있을 가능성이 높습니다. 프론티어 모델 부서(FMD)의 설립은 산업 표준과 감시에 영향을 미쳐, 기술 대기업과 스타트업 모두에 영향을 줄 것입니다.

알림

  • 프론티어 모델 부서(FMD): FMD는 캘리포니아에서 SB 1047 준수를 감독할 새로운 기관으로 제안되었습니다. 고비용 및 높은 컴퓨팅 집약적인 대형 AI 모델을 중심으로 구현될 것입니다. 이 기관은 개발자가 안전 프로토콜을 구현하고 연간 제3자 감사 및 위험 평가를 준수하도록 할 책임이 있습니다. FMD의 이사회는 산업계, 오픈 소스 커뮤니티 및 학계의 대표로 구성되어 다양한 관점에서 균형 잡힌 감시를 목표로 합니다.
  • 비상 정지 버튼: "비상 정지" 버튼은 SB 1047에 의해 요구되는 안전 기능으로, AI 시스템이 큰 해를 끼칠 가능성이 있을 경우 즉시 비활성화하거나 정지시킬 수 있게 해 줍니다. 이러한 기능을 구현하는 것은 AI 고장이나 오용으로부터 재앙적인 결과를 막기 위한 안전 조치입니다.
  • 연간 제3자 감사: SB 1047은 대형 AI 모델의 개발자에게 안전 프로토콜 및 규정 준수를 보장하기 위해 연간 제3자 감사를 실시할 것을 의무화하고 있습니다. 이 감사는 독립 기관에 의해 수행되어 AI 시스템의 안전성과 신뢰성을 객관적으로 평가합니다. 이를 통해 AI 시스템이 수용 가능한 위험 범위 내에서 운영되고 있는지를 정기적으로 확인함으로써 높은 안전 기준을 유지하고 잠재적인 재앙을 예방하는 것이 목표입니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요