OpenAI, 안전성 및 보안 위원회 설립
세계적인 인공지능 연구기관인 OpenAI가 CEO 샘 알트먼과 이사회 멤버인 브렛 테일러, 애덤 디안젤로, 니콜 셀리그먼으로 구성된 안전성 및 보안 위원회를 설립했습니다. 이 위원회는 GPT-4를 이을 새로운 주력 AI 모델 훈련을 감독할 것입니다. 이번 결정은 전 임원이었던 잔 레이키와 일리야 수츠케버가 AI 정렬에 집중했던 것과 달리 OpenAI가 AI 안전성에 우선순위를 두지 않는다는 비판이 제기되면서 나온 것입니다. 레이키는 OpenAI가 "눈부신 제품"을 우선시하고 안전성 팀에 자원을 충분히 배정하지 않는다고 공개적으로 비판했습니다. 이 안전 위원회의 주요 목표는 향후 90일 동안 현재의 프로세스와 안전장치를 평가하고 강화하는 것이며, 그 후 권고사항과 업데이트를 공개할 계획입니다.