오픈AI "추론단계별 보상훈련 …AI의 잘못된 정보 제공 개선"
상태바
오픈AI "추론단계별 보상훈련 …AI의 잘못된 정보 제공 개선"
  • 임정은 기자
  • 승인 2023.06.01
  • 댓글 0
이 기사를 공유합니다

(사진=연합뉴스)
(사진=연합뉴스)

 

[이슈밸리=임정은 기자] 챗GPT 개발사 오픈AI가 인공지능(AI)의 '환각'(hallucination) 문제를 개선하기 위해 새로운방법을 도입하고 있는 것으로 알려졌다.

오픈AI는 30일(현지 시각) 발표한 연구 논문에서 "AI 모델이 정답에 도달했을 때 올바른 최종 결론을 스스로 보상하도록하는 것이 아니라 각각의 올바른 추론 단계에 대해 보상하도록 훈련"함으로써 환각을 개선할 수 있다고 밝혔다.

환각은 AI가 잘못된 정보를 마치 사실인 것처럼 제공하는 것을 의미한다.

논문은 "심지어 최첨단 모델도 거짓을 만들어내는 경향이 있다"며 "이는 불확실한 순간에 사실을 지어내려는 경향을 보여준다"고 설명했다.

이어 "이런 환각은 다단계 추론이 필요한 영역에서 특히 문제가 된다"며 한 단계에서 논리적 오류가 발생하면 단계를 거치면서 더 큰 오류를 초래할 수 있기 때문이라고 덧붙였다.

연구원들은 이에 "AI 모델이 최종 결론에 대해서가 아니라 각각의 올바른 추론 단계에 대해 보상하도록 훈련하는 것"이필요하다고 강조했다.

그러면서 이런 접근 방식을 "결과 감독"(outcome supervision)과 반대되는 "과정 감독"(process supervision)이라고 언급했다.

논문은 "이 방식은 AI 모델이 인간과 유사한 사고 과정을 따르도록 촉진하기 때문에 이를 통해 더 나은 설명 가능한 AI가될 수 있다"라고 설명했다.

그러나 미 경제매체 CNBC는 이에 대해 회의적인 시각도 있다고 전했다.

전자 개인정보센터의 AI 및 인권 프로젝트 책임자인 벤 윈터스는 "이것만으로는 AI의 잘못된 정보와 결과에 대한 우려를완화하기는 어렵다"고 말했다.

미 브라운대학교의 기술 책임센터장인 수레시 벤카타수브라마니안은 "대규모 언어 모델이 작동하는 방식이 전반적으로불안정하기 때문에 어떤 환경에서는 작동한다 해도 다른 환경에서는 작동하지 않을 수 있다"고 했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토