초거대 AI LG '엑사원 2.0', 신뢰·전문성에 올인…엉뚱한 답변 막는다
고품질 학습 데이터·비용 효율성·맞춤형 설계
전문가 AI 개발 기반 엑사원 3대 플랫폼 공개
입력 : 2023-07-19 16:01:07 수정 : 2023-07-19 17:17:18
 
[뉴스토마토 신지하 기자] LG AI연구원이 19일 초거대 인공지능(AI) 모델 '엑사원 2.0'을 공개했습니다. 1년 반 만에 새로 선보인 엑사원은 그동안 AI 서비스의 한계로 지적돼 온 환각 현상 개선을 위해 기존 AI 모델과는 다른 방법을 도입했습니다. 특허나 논문 등 전문적인 데이터 학습량을 늘리고 질문에 맞는 근거부터 찾도록 설계해 AI 답변의 신뢰성과 전문성을 확보한다는 구상입니다.
 
배경훈 LG AI연구원장은 이날 서울 강서구 마곡 LG사이언스파크에서 열린 'LG AI 토크 콘서트'에서 "환각 현상 이슈는 AI가 답변하는 과정에서 반드시 발생할 수밖에 없다"면서도 "엑사원은 전문적인 데이터를 학습하고, 처음부터 질문 내용과 가장 유사한 문서를 찾아 이를 근거로 답변을 생성하는 두 가지 방식으로 환각 오류를 잡는 데 주력할 계획"이라고 말했습니다.
 
환각 현상은 AI가 틀린 정보나 무의미한 내용을 마치 환각을 보듯이 그럴듯하게 제시하는 것을 말합니다. 오픈AI의 챗GPT, 마이크로소프트의 빙 등 대다수 AI 챗봇에서 이 같은 환각 현상이 자주 발견됐습니다. 이는 AI가 정답을 추론하는 과정에서 다음에 나타날 가능성이 큰 단어를 계속 만들어내기 때문에 벌어지는 현상입니다. 배 원장은 "이용자들은 엑사원이 내놓은 답변과 근거를 통해 환각 오류를 바로잡을 수 있을 것"이라고 말했습니다.
 
배경훈 LG AI연구원장이 19일 서울 마곡 LG사이언스파크 컨버전스홀에서 열린 LG AI 토크 콘서트에서 발표하고 있다. 사진=LG
 
"고품질 학습 데이터·비용 효율성·맞춤형 설계"
 
이날 공개된 엑사원 2.0은 지난 2021년 12월 LG AI연구원이 공개한 초기 모델(엑사원 1.0)의 업그레이드 버전입니다. 1년 반가까이 4500만건의 전문 문헌(특허·논문)과 3억5000만장의 이미지를 학습해 왔습니다. 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어 모델로 개발됐으며, 기존 모델보다 학습 데이터 양도 4배 이상 늘렸습니다.
 
비용 효율성도 한층 개선했습니다. 배 원장은 "초거대 AI의 고비용 이슈를 해결하기 위해 대규모 언어 모델(LLM)과 멀티모달 모델의 경량화, 최적화 신기술에 상당한 리소스를 투입했다"고 설명했습니다.
 
언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론 처리 시간은 25% 단축하고, 메모리 사용량은 70% 줄여 약 78%의 비용을 절감했습니다. 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델보다 메모리 사용량을 2배 늘렸지만 추론 처리 시간은 83% 단축해 약 66%의 비용 절감을 달성했습니다. 멀티모달은 언어와 이미지 간 양방향 생성이 가능한 AI 기술입니다.
 
맞춤형 설계도 가능합니다. 배 원장은 "고객들의 활용 목적에 따라 엑사원 2.0을 맞춤형 모델로 제공할 수 있다"며 용도나 예산에 맞게 모델의 크기부터 비전과 멀티모달, 사용 언어까지 선택할 수 있어 전문 산업 분야에서 엑사원의 활용도가 커질 것으로 기대한다"고 말했습니다. 고객 데이터 보안을 위해 학습 과정을 미세 조정하는 파인 튜닝과 AI 인프라를 고객이 보유한 서버에 직접 설치하는 구축형 및 사설 클라우드 방식도 지원합니다.
 
엑사원 2.0은 현재 LG 계열사 곳곳에서 시범적으로 적용되고 있습니다. 활용 사례 중 하나로 LG전자의 AI 컨택 센터(AICC)가 소개됐습니다. AICC는 고객과의 상담 내용을 실시간으로 분석·요약하고 상담 내용에 적합한 답변이나 콘텐츠를 제안합니다. 실시간 음성인식 기술은 94.3%로, 기존 AI 기술과 비교해 5~10% 정도의 적은 양의 데이터 튜닝으로 작동합니다. LG AI연구원은 국내서 시범 운영 중인 AICC를 하반기 중 정식 서비스로 전환할 예정이며, 내년부터는 영어권 국가로 확대할 계획입니다.
 
사진=신지하기자
 
전문가용 대화형 AI 플랫폼 '엑사원 유니버스'
 
LG AI연구원은 엑사원 기반 3대 플랫폼인 '엑사원 유니버스', '엑사원 디스커버리', 엑사원 아틀리에'도 선보였습니다.
 
우선 엑사원 유니버스는 질의응답·대화, 텍스트 분류·요약, 키워드 추출·생성, 번역 등 기능별로 메뉴를 나눴던 방식에서 전문가용 대화형 AI 플랫폼으로 고도화했습니다. 이문태 LGAI연구원 랩장은 "엑사원 유니버스를 각 분야의 전문가들이 믿고 정보를 탐색하며 인사이트를 찾을 수 있는 플랫폼으로 만들기 위해 전문성과 신뢰성을 높이는 데 주력했다"고 설명했습니다.
 
엑사원 유니버스는 다른 대화형 AI들과 달리 사전 학습한 데이터는 물론 각 도메인별 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 생성합니다. 질문에 대한 답변과 함께 화면 좌측과 우측에 각각 질문과의 연관성이 가장 높은 전문 문헌들과 AI가 답변하는 과정에서 활용한 단락을 표시합니다.
 
LG AI연구원은 엑사원 유니버스의 AI·머신러닝 분야 서비스를 이달 31일부터 LG그룹 내 AI 연구자와 협력 중인 대학을 대상으로 시작해, 9월에는 LG에서 AI를 연구하거나 공부하는 임직원 대상으로 정식 서비스를 진행할 계획입니다. 화학과 바이오, 제약, 의료, 금융, 특허 등 엑사원 유니버스의 각 전문 도메인별 특화 서비스도 준비하고 있습니다.
 
사진=신지하기자
 
신소재·신물질·신약 개발 플랫폼 '엑사원 디스커버리'
 
엑사원 디스커버리는 화학과 바이오 분야에 특화한 AI 플랫폼입니다. 우선 신소재, 신물질, 신약 관련 탐색에 적용하고 있습니다. 논문과 특허 등 전문 문헌의 텍스트뿐 아니라 분자 구조, 수식, 차트, 테이블, 이미지 등 비텍스트 정보까지 AI가 읽고 학습할 수 있는 형태로 데이터베이스화 하는 심층 문서 이해(DDU) 기술을 적용했습니다.
 
한세희 LG AI연구원 랩장은 "엑사원 디스커버리를 통해 1만회가 넘었던 합성 시행착오를 수십회로 줄이고, 연구개발 소요 시간은 40개월에서 5개월로 단축시킬 수 있을 것"이라고 말했습니다. LG AI연구원은 올해 4분기에 그룹 내 화학과 바이오 분야 연구진들을 대상으로 엑사원 디스커버리 서비스를 제공할 예정입니다.
 
사진=신지하기자
 
멀티모달 AI 플랫폼 '엑사원 아틀리에'
 
또 다른 AI 플랫폼 엑사원 아틀리에는 멀티모달 기능을 극대화했습니다. 저작권이 확보된 이미지와 텍스트가 짝을 이룬 페어 데이터 3억5000만장을 학습한 엑사원 2.0을 기반으로 이미지 생성과 이미지 이해에 특화된 기능을 제공합니다. 인간과 AI가 상호작용을 통해 디자인을 완성하는 '디자인 싱킹 프로세스'를 엑사원 아틀리에에 접목하기 위해 미국 파슨스 디자인 스쿨과 공동 연구개발도 진행 중입니다.
 
지난달에는 세계 최대 이미지 플랫폼 셔터스톡과 함께 상용화한 '캡셔닝 AI' 기능도 엑사원 아틀리에에 탑재했습니다. 캡셔닝 AI는 처음 보는 이미지까지 자연어로 설명할 수 있으며, 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등의 메타 데이터를 생성합니다. LG AI연구원은 이날 제품 이미지를 보고 마케팅 문구 등을 생성하는 엑사원 아틀리에의 새로운 서비스를 시연했습니다. 이서비스는 향후 대중에게 공개할 예정입니다.
 
배 원장은 "LG는 국내에서 유일하게 이중 언어 모델과 양방향 멀티모달 모델을 모두 상용화한 기업"이라며 "세상의 지식을 이해하고 발견하는 상위 1%의 전문가 AI를 개발하고 있다"고 말했습니다. 그러면서 "국내외 파트너사와의 협력을 통해 실질적인 성공 사례를 만들어가며 글로벌 경쟁력을 갖춘 AI 컴퍼니로 발전해 나갈 것"이라고 덧붙였습니다.
 
신지하 기자 ab@etomato.com

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지



  • 신지하