Purdue 대학 연구에 따르면 OpenAI의 챗봇 ChatGPT가 컴퓨터 프로그래밍 질문의 52%를 잘못 답변하다
최근 Purdue 대학의 연구에서는 OpenAI의 챗봇 ChatGPT가 컴퓨터 프로그래밍 질문의 52%를 잘못 답변하고, 그 중 77%는 지나치게 장황한 것으로 나타났습니다. 이러한 단점에도 불구하고 사용자들은 그 포괄적인 답변을 35%의 경우 선호하는 것으로 확인되었습니다. 또한 이 연구에서는 프로그래머들이 AI가 제공한 잘못된 정보의 39%를 간과한 것으로 나타나, AI 생성 답변의 위험성에 대한 인식 제고와 신뢰성 향상의 필요성이 강조되었습니다.
주요 요약
- Purdue 대학 연구에 따르면 OpenAI의 AI 챗봇 ChatGPT가 컴퓨터 프로그래밍 질문의 52%를 잘못 답변했습니다.
- ChatGPT 답변의 77%가 장황하지만, 사용자들은 그 포괄성 때문에 35%의 경우 이를 선호했습니다.
- 연구에 참여한 프로그래머들은 AI 챗봇의 잘못된 정보를 39%나 간과했습니다.
- 구글의 AI 기반 검색에서 볼 수 있듯이, 독특한 질문에 대한 AI 챗봇의 신뢰성은 의문시되며, 이는 기술 기업들의 막대한 투자에도 불구하고 혁신적인 도구에 대한 기대를 저하시킵니다.
분석
Purdue 대학 연구의 ChatGPT 부정확성 강조는 AI 생성 콘텐츠의 위험성을 부각시키며, 개발자와 기업들의 문제 해결을 위한 AI 신뢰도에 영향을 줄 것입니다. 이는 OpenAI뿐만 아니라 구글 등 다른 IT 기업에게도 우려를 제기하며, 장기적으로 AI 도입과 개발을 저해할 수 있습니다.
이에 따라 이해관계자들은 정확성과 간결성 향상을 위해 AI 역량 강화 전략을 재평가해야 할 것이며, 이는 AI 관련 산업의 성장에 영향을 미칠 것입니다. AI 연구에 투자하는 국가들 또한 이러한 불확실성을 향후 전략에 고려해야 할 것입니다.