Meta의 AI 책임자가 대규모 언어 모델에 대한 의문을 제기하다

Meta의 AI 책임자가 대규모 언어 모델에 대한 의문을 제기하다

작성자
Giovanni Rossi
1 분 독서

메타의 AI 책임자 얀 르쿤은 대규모 언어 모델(LLM)이 사람처럼 진정한 추론과 계획을 할 수 있다는 능력에 대해 의문을 제기했습니다. 르쿤에 따르면, 이러한 모델들은 특정 교육 데이터에 크게 의존하기 때문에 "본질적으로 안전하지 않습니다". 이에 대응하여 르쿤과 메타의 기초 AI 연구소(Fair Lab) 팀은 "세계 모델링"에 초점을 맞춘 새로운 세대의 AI 시스템 개발을 주도하고 있습니다. 이를 통해 상식과 인간과 유사한 세계 학습 능력을 갖춘 AI를 만들고자 합니다. 이 야심찬 시도는 위험하고 비용이 많이 들 수 있지만, 중요한 결과를 내기까지 최대 10년이 걸릴 것으로 전망됩니다. 르쿤의 우려에도 불구하고, 메타와 경쟁업체들은 지속적으로 LLM을 개선하고 있으며, 메타는 최근 Llama 3 모델을 출시했습니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요