OpenAI, 중요한 결정을 위한 안전 및 보안 위원회 설립

OpenAI, 중요한 결정을 위한 안전 및 보안 위원회 설립

작성자
Elena Moretti
3 분 독서

OpenAI, 비판에 대응하기 위해 안전과 보안 위원회 설립

OpenAI는 최근 안전과 보안 위원회를 설립했습니다. 이 위원회는 Bret Taylor, Adam D'Angelo, Nicole Seligman 이사와 CEO Sam Altman이 이끌고 있으며, 향후 90일 내에 중요한 보안 결정에 대한 권고안을 마련할 것입니다. 이는 OpenAI가 최근 안전 문제에 대한 비판을 받았기 때문입니다. 또한 OpenAI는 인공 일반 지능(AGI) 달성을 위한 큰 발전을 목표로 차기 주력 모델 훈련에 착수했습니다. 안전과 보안 위원회의 권고사항은 공개될 예정이며, 이 위원회는 OpenAI의 전문가와 외부 보안 전문가로 구성됩니다.

주요 요점

  • OpenAI는 최근 안전 관행에 대한 비판에 대응하기 위해 새로운 안전과 보안 위원회를 설립했습니다.
  • Bret Taylor, Adam D'Angelo, Nicole Seligman 이사와 CEO Sam Altman이 이끄는 이 위원회는 중요한 보안 권고안 마련을 담당합니다.
  • OpenAI는 AGI 달성을 위한 발전을 목표로 차기 주력 모델 훈련을 시작했습니다.
  • 안전과 보안 위원회에는 OpenAI 내부 전문가와 전 사이버 커미셔너 Rob Joyce 등 외부 전문가가 포함되어 있습니다.

분석

OpenAI가 안전과 보안 위원회를 설립한 것은 최근 안전 관행에 대한 비판에 대한 전략적 대응입니다. 이 위원회의 권고안은 OpenAI 프로젝트에 관여하는 조직과 개인들에게 큰 영향을 미칠 것입니다. 특히 OpenAI가 권고안을 공개한다는 점에서 그렇습니다. 이번 initiative는 OpenAI의 수퍼AI 정렬팀 해체에 이어 AGI 달성을 위한 능력 향상에 초점을 맞추고 있습니다.

알아두면 좋은 점

  • AGI(인공 일반 지능): 인공 일반 지능은 다양한 과제에서 인간 능력과 동등하거나 능가하는 AI 개발을 목표로 합니다. 이는 AI 연구에서 계속 추구되는 목표입니다.
  • 안전과 보안 위원회: 이 위원회는 내부와 외부 전문가로 구성되어 OpenAI 프로젝트와 관련된 중요한 보안 결정에 대한 권고안을 제공합니다.
  • 주력 모델: 기계 학습 및 AI 분야에서 주력 모델은 일반적으로 기관의 가장 발전된 모델을 의미합니다. OpenAI의 차기 주력 모델 개발은 AGI 달성을 위한 큰 발전을 목표로 하고 있습니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요