OpenAI, 새로운 AI 모델을 위한 안전 위원회 구성

작성자
Luisa Fernandez
1 분 독서

OpenAI, 안전성 및 보안 위원회 설립

세계적인 인공지능 연구기관인 OpenAI가 CEO 샘 알트먼과 이사회 멤버인 브렛 테일러, 애덤 디안젤로, 니콜 셀리그먼으로 구성된 안전성 및 보안 위원회를 설립했습니다. 이 위원회는 GPT-4를 이을 새로운 주력 AI 모델 훈련을 감독할 것입니다. 이번 결정은 전 임원이었던 잔 레이키와 일리야 수츠케버가 AI 정렬에 집중했던 것과 달리 OpenAI가 AI 안전성에 우선순위를 두지 않는다는 비판이 제기되면서 나온 것입니다. 레이키는 OpenAI가 "눈부신 제품"을 우선시하고 안전성 팀에 자원을 충분히 배정하지 않는다고 공개적으로 비판했습니다. 이 안전 위원회의 주요 목표는 향후 90일 동안 현재의 프로세스와 안전장치를 평가하고 강화하는 것이며, 그 후 권고사항과 업데이트를 공개할 계획입니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요