banner

소식

Mar 14, 2024

거짓을 퍼뜨리는 AI 챗봇의 경향은 문제를 야기합니다

ChatGPT와 같은 인공지능(AI) 챗봇이 허위 정보를 생성하는 문제는 기업, 조직, 개인의 우려가 커지고 있습니다. 이 문제는 심리치료부터 법적 간략한 글쓰기까지 다양한 분야에 영향을 미칩니다. AI 챗봇 Claude 2의 공동 창립자인 Daniela Amodei는 오늘날 모든 모델이 주로 다음 단어를 예측하도록 설계되었지만 종종 부정확하기 때문에 어느 정도의 "환각"을 겪고 있음을 인정합니다. ChatGPT를 만든 Anthropic 및 OpenAI와 같은 개발자는 이 문제를 해결하고 AI 시스템의 진실성을 개선하기 위해 적극적으로 노력하고 있습니다.

그러나 해당 분야 전문가들은 이 문제를 완전히 근절하는 것이 불가능할 수도 있다고 지적한다. 언어학 교수 Emily Bender는 AI 기술과 제안된 사용 사례 간의 불일치로 인해 본질적인 한계가 발생한다고 설명합니다. 생성 AI 기술의 신뢰성은 세계 경제에 2조 6천억~4조 4천억 달러의 기여를 할 것으로 예상되면서 매우 중요합니다. 예를 들어, Google은 정확성의 필요성을 강조하면서 언론사에 뉴스 작성 AI 제품을 제공하는 것을 목표로 하고 있습니다.

잘못된 정보의 의미는 서면 텍스트를 넘어 확장됩니다. 컴퓨터 과학자 Ganesh Bagler는 인도의 호텔 관리 기관과 협력하여 AI 시스템을 활용하여 레시피를 개발해 왔습니다. 부정확한 출력은 식사의 맛과 품질에 상당한 차이를 만들 수 있으며, 이는 생성 AI의 정확성에 대한 필요성을 강조합니다.

OpenAI CEO인 샘 알트만(Sam Altman)은 잘못된 정보를 생성하는 AI 시스템의 경향을 개선하는 데 대해 여전히 낙관적인 입장을 유지하는 반면, 벤더(Bender)와 같은 회의론자들은 개선만으로는 충분하지 않을 수 있다고 주장합니다. 언어 모델은 주로 학습 데이터를 기반으로 단어 시퀀스를 예측하도록 설계되었으며, 생성되는 출력은 본질적으로 사실 정보가 아닌 창의적인 글쓰기입니다. 이러한 모델은 독자가 식별하기 어려운 미묘한 방식으로 실패하는 경향이 있습니다.

우려에도 불구하고 일부 기업에서는 AI 챗봇이 허위 정보를 생성하는 경향을 귀중한 기능으로 보고 있습니다. Jasper AI와 같은 마케팅 회사는 AI의 창의적인 결과물을 활용하여 고객의 프레젠테이션에 대한 고유한 아이디어를 생성합니다. 그러나 정확한 콘텐츠에 대한 요구는 여전히 높으며, Google과 같은 기업에서는 이 문제를 해결하기 위한 노력이 진행 중입니다.

빌 게이츠와 기타 AI 지지자들은 AI 모델이 사실과 허구를 구별하는 데 도움이 되는 개선이 이루어질 수 있다는 낙관론을 표현합니다. 그럼에도 불구하고, 앞으로 AI가 생성한 텍스트가 완전한 정확성을 달성할 수 있을지는 지켜봐야 합니다.

공유하다