한국일보 애틀랜타 전자신문
2024년 3월 20일 (수요일) D10 경제 2024년3월20일수요일 환율 원 ₙ 코스닥 코스피 SK하이닉스가 고대역폭 메모리 ( HBM ) 5세대인HBM3E ( 사진 ) D 램을 미국 반도체업체엔비디아에 가장먼저납품한다.HBM3에이어 HBM3E도세계최초로대량생산에 들어가며HBM시장의주도권을굳 힌다는계획이다. SK하이닉스는 초고성능인공지 능 ( AI ) 용메모리신제품인HBM3E 를양산해이달말부터고객사에공 급한다고 19일 밝혔다. SK하이닉 스가 지난해 8월 HBM3E 개발을 알린지7개월만이다.이날 발표는 18~21일 이 어지는 고객 사 엔비디아 의 AI 개발 자 콘퍼런스 ( GTC 2024 ) 에서경쟁사들의신제품 소개를 염 두에둔것으로풀이된다. HBM은여러장의D램을수직으 로 쌓아기존D램보다데이터용량 과 처리속도를 혁신적으로 끌어올 린제품이다. 글로벌빅테크업체들 이천문학적인투자금을 쏟아붓는 생성형인공지능 ( AI ) 기술을개발하 려면그래픽처리장치 ( GPU ) 가필요 한데HBM은 연산에필요한 각종 정보를GPU에보내주고결괏값을 받아다시저장하는데특화됐다. SK하이닉스는“HBM3에이어현 존D램최고성능이구현된HBM3E 역시가장 먼저고객에공급하게됐 다”며“HBM3E양산도성공적으로 진행해AI 메모리시장에서경쟁우 위를이어가겠다”고밝혔다. 앞서미국 마이크론이지난달 26 일 ( 현지시간 ) 올해2분기 ( 4~6월 ) 출 시예정인엔비디아의최신형GPU 인H200에탑재될HBM3E양산을 시작했다고 발표했지만 실제납품 을위한대량생산은SK하이닉스가 처음인것으로알려졌다. SK하이닉스의HBM3E는 초당 최대1.18테라바이트 ( TB ) 의데이터 를 처리한다. 이는 풀 - HD급 영화 ( 5GB ) 230편분량이넘는데이터를 1초 만에처리하는 수준이다.열발 생을 효과적으로 제어하기위해신 제품에어드밴스드 매스리플로 몰 디드언더필 ( MR - MUF ) 공정을 사 용해열방출성능을이전세대보다 10%향상시켰다. SK하이닉스의어 드밴스드 MR - MUF는 기존 공정 보다칩을쌓을때가해지는압력을 줄이고 휨현상제어기능도개선해 HBM 수율을 높이는 핵심기술로 꼽힌다. AI 반도체시장이팽창하면서D 램 매출에서HBM 비중도 급증하 고있다.시장조사업체트렌드포스 는전체D램매출에서HBM매출이 차지하는비율이2022년 2.6%에서 2023년 8.4%,올해는 20.1%까지상 승할 것이라고예상했다. HBM 생 산능력도올해크게향상해지난해 웨이퍼기준 삼성전자 와 SK하이닉 스각각월4만5,000장수준으로생 산했지만올해는삼성전자 13만장, SK하이닉스 12만 ∼ 12만5,000장으 로생산량이 늘 어날전 망 이다. 이윤주기자 역대최고 ‘AI 칩’부터로봇까지$ ‘플랫폼’ 야심드러낸엔비디아 SK하이닉스, 세계첫‘HBM3E’대량생산시작$“이달 말부터엔비디아에납품” 18일 ( 현지시간 ) 미국 캘 리포 니 아 주 ( 州 ) 새너 제이SAP 센 터. 검 은가 죽 재 킷 을 입 은 젠슨황 엔비디아최 고경영자 ( CE O ) 가 무 대에 섰 다. 연 례 개발자콘퍼런스GTC의개 막 기 조연 설 을하기위해서 였 다. 환호 하는 참관 객들을 바라보며 그가말했다.“이게콘서트가아 니란 걸잊 지말기바 랍니 다.”장난스 럽 게 던 진 말이 었 으 나 농담 으로만 들리 지는 않았 다. 테크기업행사에SAP 센 터1만1,000여 석 이가 득 찬 것은 전 례 가 없 는일이라서다. 그 뒤 이어 진 2시간은 ‘젠슨황원맨쇼’나 다 름 없었 다. 평균 1시간 동안 주요 임원 들이 돌 아가며 무 대에 오르 는 다 른 테크업체행사들과 달리그는 혼 자 꼬박 2시간을 채웠 다. 그의앞엔대 본 을 띄워 주는모 니 터도 없었 다. 이 번 GTC는엔비디아가2019년이 후 5년만에 오프 라인으로개최한행 사다.엔비디아가인공지능 ( AI ) 열 풍 의최대수 혜 자로 떠오른뒤 엔처음 열린것이기도하다.세계AI반도체 시장의90%를장 악 한엔비디아의지 난해매출은전년대비 3 배 이상 증 가했고, 주가도 3 배 넘게 뛰 어올 랐 다.시가 총액 은반도체기업사상처 음으로지난달 2조달러 ( 약 2,600조 원 ) 를넘어 섰 다. 불 과 2년전까지게 임 마 니 아들 사이에서만 최고로 꼽 혔 던 이 회 사는이제 몸 값으로세 손 가 락안 에드는기업이됐다. 황 CE O 는이날연 설 에서현존최 고의AI 칩으로 불 리는 ‘ H100 ’ 보다 연산처리속도가크게향상된차세 대AI칩 ‘블랙웰’ 을공개했다.AI 반 도체시장 독 보적1위를수성하겠다 는의지를분 명히 한것이다.행사마 지 막 에는엔비디아의AI 칩과 소 프 트웨어로구 동되 는로 봇 을 깜짝등 장시 켜단순히‘ 반도체기업 ’ 으로만 머물 지 않 겠다는 뜻 도내비 쳤 다. 테 크업계에선 “엔비디아의현재위상 뿐 아 니 라 거 대한 야 심을 확 인시 킨 자리”라는 평 가가 나왔 다. 블랙웰 은 AI 개발에 특화한 칩 이다. 블랙웰 라인업의대표 제품이 라 볼 수 있는 신형 그래픽처리장 치 ( GPU ) ‘ B100 ’ 은 현재전 세계적 으로 품 귀 현상을 빚 고있는H100 보다연산 처리속도가 2.5 배빨 라 졌다고 한다. AI 모 델훈련 을 위해 H100을사용할경우 8,000개를 90 일 동안 가 동 시 켜야 했다면B100을 쓸 경우 2,000개만으로도 같 은 기 간에 훈련 이가능하다고 엔비디아 측 은 설명 했다. 엔비디아는 또 B100과 자체 개 발한 중 앙 처리장치 ( CPU ) 를 결 합 한이 른 바 ‘블랙웰슈 퍼칩 ’ 도선보 였 다. GPU 와 CPU를하 나 로 묶 으면 처리속도는더 빨 라지고전력소모 는 줄어 든 다. 블랙웰 GPU 72개 와 CPU 36개를 묶 은 슈 퍼칩을여러개 결 합 할경우매개 변 수 ( 파 라미터 ) 가 최대 10조 개에이 르 는 AI 모 델 도 구 동 할수있다고한다.업계에선 오 픈 AI의최신형 거 대언어모 델 ( LL M ) GPT - 4의 파 라미터를 5,000 억 개정 도로 추 정하고있다. 파 라미터가 늘 수 록 AI의성능은향상된다.엔비디 아 블랙웰슈 퍼칩을사용할경우이 론적으로는GPT - 4의성능을 20 배 이상향상시 킬 수있다는 얘 기다. 엔비디아는 블랙웰 제품들을 연 말 시장에출시할예정이라고 하면 서도 금 액 은 밝 히 지 않았 다. 현재 H100 가 격 이개당 2만5,000~4만 달러에형성 돼 있는데, B100은성능 이향상된만 큼 그보다비 싼 5만달 러 ( 약 6,700만 원 ) 전 후 가될것으로 업계는전 망 하고있다. 그 럼 에도 황 CE O 는마이크로소 프 트 ( MS ) · 구글 · 아마존 · 메 타·오픈 AI 등 이이미 블랙 웰 을 ‘ 선주문 ’ 했다고 소개했다. 황 CE O 는“ 블랙웰 은세계에서가장역 동 적인기업들과 협 력해모 든 산업 에서AI의가능성을 실현해줄 것” 이라며“우리 회 사역사상가장성공 적인제품이될것”이라고자신했다. 황 CE O 는이날AI칩 외 에도서로 다 른 AI모 델 을서로연결하고 쉽 게 배 포할수있는소 프 트웨어 ( N IM ) 를 공개했다. 또 자체적으로 훈련 시 킨 로 봇 을 무 대위로 깜짝등 장시 키 고, 로 봇 용 블랙웰 칩과로 봇 플 랫폼 구 축 을 돕 는소 프 트웨어도선보 였 다. 실리콘밸리=이서희특파원 엔비디아가주최하는연례인공지능(AI)개발자회의 ‘GTC 2024’가개막한18일미국캘리포니아주새너제이SAP센터에서기조연설을하는 젠슨황최고경영자뒤로차세대그래픽처리장치(GPU)블랙웰을중심으로한AI연산플랫폼의모습이보이고있다. 새너제이=AFP연합뉴스 D램쌓아올려속도등최고성능 5GB영화230편1초만에처리 AI메모리시장경쟁우위이어가 젠슨황 CEO, 대본없이2시간기조연설 참관객 1만여명앞 ‘원맨쇼’ 블랙웰칩탑재된GPU‘B100’ 기존제품대비연산속도2.5배 자체CPU와여러개결합할땐 매개변수10조개‘AI모델’구동 “GPT-4의성능20배높일수도” 로봇플랫폼구축돕는SW선봬 “반도체기업넘어도약”뜻내비쳐
Made with FlippingBook
RkJQdWJsaXNoZXIy NjIxMjA=