(AI 시대 에너지 쇼크)③결국 적게 쓰는 게 답…각광받는 저전력 반도체
데이터센터로 인한 전력난에 LPDDR과 NPU 급부상
IT 기업, 파라미터 압축 등 효율화에 힘써야
입력 : 2024-07-17 06:00:10 수정 : 2024-07-17 06:00:10
[뉴스토마토 최수빈 기자] 인공지능(AI) 발전에 따른 전력 부족 현상으로 전력 사용량 절감이 빅테크 기업들의 핵심 과제로 꼽히고 있습니다. ‘전기 먹는 하마’라는 비판에도 데이터센터 늘리기에 나선 이들은 친환경에너지 투자에 공을 들이는 등 전력 공급에 애를 쓰고 있는데요. 동시에 데이터센터의 전력 폭증을 해결할 방안으로 ‘저전력 반도체’가 각광받고 있습니다. 
 
저전력 반도체는 전력을 덜 소모하고 열 발생이 적어 데이터센터의 전력 효율 최적화에 도움을 준다는 평가를 받고 있습니다. 이 때문에 AI 수요 급증에 의한 전력난은 저전력 AI칩으로 승부를 봐야 한다는 목소리가 나옵니다. 
 
삼성전자가 대만 반도체 설계 기업인 미디어텍(MediaTek)과 10.7Gbps LPDDR5X D램 동작 검증을 완료했다고 16일 밝혔다. 사진은 삼성전자 LPDDR5X 제품 이미지. (사진=연합뉴스/삼성전자 제공)
 
글로벌 빅테크, 저전력 반도체에 집중
 
국제에너지기구(IEA)에 따르면 지난 2022년 전 세계 데이터센터 전력 사용량은 전체 전력 사용량의 2.1%를 차지했는데요. 올해부터 AI 데이터센터 구축이 본격화되면서 2030년 기준, 데이터센터 전력 사용량은 10.2%까지 증가할 전망입니다. 
 
이에 글로벌 빅테크들은 저전력 반도체에 시선을 돌리고 있는데요. 그동안 데이터센터에 주로 활용됐던 CPU(중앙처리장치)의 연산처리는 명령어를 순서대로 처리하는 ‘직렬’ 방식이었습니다. 반면 GPU는 병렬 처리 방식으로 여러 개의 연산을 동시에 처리할 수 있습니다. AI는 순차적인 계산보다 대량의 데이터를 한번에 처리해야 하기에 현재 많은 AI 데이터센터에 GPU가 탑재돼 있는데요.
 
GPU는 고사양 그래픽 게임용 칩이었기에 전력 면에서 비효율적이라는 지적이 잇따릅니다. 그 대표적 예시로 글로벌 AI 반도체 기업인 엔비디아가 2024년 중 출시할 예정인 H100의 차기작 GPU 블랙웰(B100)을 들 수 있습니다. B100의 소비전력은 대당 1000W에 달합니다. H100의 소비전력이 700W였다는 점과 비교하면, 성능을 높일수록 전력 소모도 함께 증가하는 경향을 띕니다. 
 
고대역폭메모리(HBM) 역시 큰 전력을 소비하는 것으로 알려졌는데요. 이 문제를 해결하기 위해 기업들은 저전력 D램인 LPDDR과 신경망처리장치(NPU) 등에 집중하고 있습니다. 엔비디아의 젠슨 황 최고경영자(CEO)마저도 AI 발전으로 인한 전력 폭증의 대안으로 LPDDR을 주목하고 있는데요. 
 
젠슨 황 CEO는 지난 6월 18일(현지시간) 에디슨 전기협회의 연례 회의에 참석해 “모바일용 저전력 D램(LPDDR)을 이용해 서버 전력 사용량을 줄이고 있다”라며 “LPDDR은 데이터센터를 운영할 수 있는 메모리로 많은 전력을 절약하고 있다”고 강조했습니다. 엔비디아는 HBM 시장에서 ‘큰 손’으로 꼽히는데요. HBM에 대해서는 별다른 언급을 하지 않았습니다. 
 
젠슨 황 엔비디아(NVIDIA) CEO가 지난 3월 18일(현지시각) 미 캘리포니아 새너제이에서 개막한 엔비디아 개발자 콘퍼런스 '엔비디아 GTC'에 참석해 인공지능(AI)과 기후를 주제로 기조연설하고 있다. (사진=뉴시스)
 
저전력 학습용 AI 반도체는 '아직'
 
LPDDR은 주로 스마트폰과 태블릿 등 전력 효율성이 중요한 모바일 기기에 사용됐습니다. 그러다 데이터센터 전력 소비가 폭증하면서 본격적으로 서버용으로도 쓰임새가 늘고 있는데요. 삼성전자와 SK하이닉스는 경쟁적으로 LPDDR 제품 개발에 힘을 쏟고 있습니다.
 
삼성전자는 대만 반도체 설계 기업인 미디어텍과 업계 최고 속도인 10.7Gbps(초당 기가바이트) LPDDR5X 동작 검증을 완료하는 등 저전력 반도체 업계에서 순항하고 있습니다. NPU 역시 처음부터 저전력으로 AI 추론 연산을 가속화하기 위해 설계됐습니다. 
 
그러나 현재 업계에 공개된 저전력 반도체는 모두 AI 추론에 활용됩니다. 아직까지 학습용 AI 반도체의 전력 소모를 낮추는 것은 불가능한데요. 학습용 반도체는 챗GPT 등 대형언어모델(LLM)을 만드는 데 사용되며 추론용 반도체보다 전력 소모가 큰 것으로 알려졌습니다. 
 
학습용 AI 시장의 성장세가 줄고 추론용 AI 시장이 커질 것이라는 전망이 나오지만, 저전력 학습용 AI 데이터 개발에도 박차를 가해야 한다는 목소리가 나오는데요. 김명주 서울여자대학교 정보보호학과 교수는 “GPU가 함께 학습을 해주지만, 전기를 적게 쓰는 저전력 GPU를 개발하는 수밖에 없다”라며 “전력이 많이 드는 것도 결국 비용인데, 소비자들이 AI를 활용해 얻는 이익보다 지불해야는 돈이 더 크다면 투자 대비 효과가 떨어지면서 (AI 시장이) 위험해지는 것”이라고 진단했습니다. 
 
기업 차원에서 전력 발생을 줄이기 위해 AI 모델의 파라미터(매개변수)를 압축하는 등 효율화해야 한다는 조언도 나옵니다. 김 교수는 “학습 데이터의 경우 알고리즘을 효율적으로 바꿔주면 전기 소모가 줄어드는 경우가 있다. 다만 알고리즘은 오픈 소스로 거의 고정돼 있기에 학습한 것을 더 많이 기억하도록 하기 위해 파라미터 수를 늘린다”라며 “파라미터의 사이즈를 줄이면 전기가 훨씬 적게 들지만, AI 성능도 다소 떨어지게 된다. 적절한 위치를 찾는 것이 중요하다”라고 전했습니다. 
 
최수빈 기자 choi32015@etomato.com
 

ⓒ 맛있는 뉴스토마토, 무단 전재 - 재배포 금지



  • 최수빈

싱싱한 정보와 살아있는 뉴스를 제공하겠습니다!