유발 하라리 "AI가 인류 장악하기 전 통제해야"
상태바
유발 하라리 "AI가 인류 장악하기 전 통제해야"
  • 임정은 기자
  • 승인 2023.03.27
  • 댓글 0
이 기사를 공유합니다

유발 하라리(사진=연합뉴스)
유발 하라리(사진=연합뉴스)

 

[이슈밸리=임정은 기자] 인공지능(AI) 챗봇 챗GPT 열풍이 불고 있는 다운데 역사학자이자 베스트셀러 작가인 유발 하라리가 'GPT-4' 같은 인공지능(AI)의 위험성을 지적하며 이에 대한 통제 방법을 찾아야 한다고 주장했다.

하라리는 인도적 기술 센터 공동설립자인 트리스탄 해리스와 아자 라스킨와 뉴욕타임스(NYT) 공동기고문에서 “AI의 언어 습득은 AI가 문명의 운영 체제를 해킹하고 조작할 수 있게 됐음을 뜻한다”며 이같이 밝혔다.

이들은 GPT-4 이상 성능의 AI 시스템을 지나치게 빠르게 받아들여서는 안 된다며 AI 수용 속도를 기술 기업들의 시장 장악 경쟁에 맡기지 말고 인류가 AI를 잘 다룰 수 있는 능력을 갖추는 것에 맞춰야 한다고 강조했다.

필자들은 AI라는 유령이 20세기 중반부터 떠돌았지만 최근까지도 공상과학에 등장하는 것과 같은 먼 미래 일로 남았다면서 AI가 실질적인 위험으로 떠오르게 된 계기는 바로 GPT-4 같은 언어모델이라고 했다.

하라리에 따르면 언어는 인류 문화의 운영 체제로서 신화와 법, 신과 돈, 예술과 과학, 우정과 국가, 컴퓨터 코드가 언어에서 탄생했는데 AI가 언어를 습득한 것은 인류 문명의 마스터키를 손에 넣은 것과 같다는 것이다.

필자들은 AI는 인류 문화를 빠르게 소화해 새 문화 유물을 쏟아낼 수 있고 이는 학교 에세이뿐 아니라 정치연설, 종교 등에도 해당한다며 2028년 미국 대선은 더는 사람이 주도하지 않는 선거가 될 수도 있다고 지적했다.

다른 사람의 책, 예술품, 종교 등을 통해 현실을 간접 경험해온 인류가 인간이 아닌 AI가 만든 콘텐츠에 둘러싸여 살아갈 경우 발생할 상황도 우려된다고 했다. 이는 곧 영화 속 처럼 AI가 로봇을 보내 인간을 공격하거나 인간 두뇌를 컴퓨터 네트워크에 연결해 가두고 통제하는 것 같은 행위가 AI가 인간을 환상 속에 가두는 방식으로 가능해질 수도 있다는 것이다.

필자들은 AI가 만든 환상의 장막이 인류 전체에 드리워지고 우리는 그 장막을 걷어낼 수 없고 심지어 장막이 있다는 사실조차 깨닫지 못할 수도 있다고 경고했다.

소셜미디어에 사용된 원시적 AI가 사회 양극화 심화, 정신건강 문제, 민주주의 혼란 등을 초래한 것을 고려할 때 훨씬 강력한 거대 언어모델 AI는 그보다 큰 부작용을 낳을 수 있다는 우려도 제기된다.

필자들은 AI가 암 퇴치, 신약 발견, 기후·에너지 위기 해법 개발 등에 도움을 줄 잠재력이 있지만 문명의 기반이 무너진다면 AI의 혜택이 아무리 커도 소용이 없다고 지적했다.

이들은 AI의 영향력이 예술과 정치, 종교까지 확대될 경우 새 문화 유물을 쏟아내는 것에서 더 나아가 2028년 미국 대선이 더는 사람이 주도하지 않는 선거가 될 수도 있다고 지적했다.

또 필자들은 신속하게 움직이지 않으면 서방이 중국에 패할 수 있지 않으냐는 의문에 대해서는 ‘아니다’고 했다. 오히려 통제되지 않는 AI가 신과 같은 힘을 무책임하게 휘두르는 것이 중국에 패하는 이유가 될 수 있다고 설명했다.

그러면서 이들은 민주주의는 곧 대화이고 대화는 언어에 의존한다는 점에서 언어 자체가 해킹당하면 대화가 무너지고 민주주의는 유지될 수 없다고도 경고했다. 

이들은 “AI의 뛰어난 능력이 상응하는 책임·통제와 조화를 이룰 때 우리는 그 혜택을 실현할 수 있다”며 이를 위한 첫걸음은 AI가 인간을 장악하기 전에 인간이 AI를 장악할 수 있게 시간을 버는 것이라고 강조했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토