국내 연구진, 인공지능 모델 성능 저하 막는 학습 기술 개발
상태바
국내 연구진, 인공지능 모델 성능 저하 막는 학습 기술 개발
  • 권동혁 기자
  • 승인 2024.03.26
  • 댓글 0
이 기사를 공유합니다

(사진=울산과학기술원)
(사진=울산과학기술원)

 

[이슈밸리=권동혁 기자] 국내 연구진이 인공지능 모델의 성능을 저하하는 현상에 효과적으로 대응할 수 있는 학습 기술을 개발했다.

울산과학기술원(UNIST) 연구진은 산업공학과와 인공지능대학원 김성일, 임동영 교수팀은 '데이터 드리프트에 강건한 시계열 학습 기술'을 만들었다고 밝혔다.

시계열 데이터는 시간 순서에 따라 연속적으로 수집된 데이터를 말한다.

금융, 경제, 교통, 농업, 제조, 헬스케어 등 각종 산업에서 사용하는 수많은 데이터가 시계열 형태다.

시계열 데이터에는 데이터 발생에 영향을 주는 외부 요인의 변화에 따라 '데이터 드리프트'라는 현상이 발생한다.

이 현상은 인공지능 모델이 훈련에 사용한 데이터와 실제 운영 환경의 데이터가 달라지는 것을 말한다.

데이터 드리프트가 발생하면 시계열 학습 인공지능 모델의 성능이 저하되는데 이는 각종 산업에서 시계열 데이터 활용을 어렵게 만드는 고질적 문제로 알려져 있다.

이에 연구팀은 이 문제를 해결하기 위해 뉴럴(Neural) SDEs(Stochastic Differential Equations) 기반의 강건한 신경망 구조 설계에 대한 방법론을 개발했다.

연구팀은 방법론에 따라 설계한 세 가지 뉴럴 SDEs 모델을 선보였다.

연구팀은 이 모델들은 데이터 드리프트 현상이 일어난 데이터세트에서 다양한 작업을 수행할 때 안정적이고 우수한 성능을 나타냈다고 했다.

제1저자 오용경 연구원은 "앞으로 개발된 기술과 연계한 시계열 데이터 드리프트 감시 기술, 학습 데이터 재구성 기술 등을 지속해서 개발해 다양한 국내 기업이 활용할 수 있도록 할 계획"이라고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토