폰 노이만 구조를 가진 컴퓨터를 제작하기 위해서는 프로그램과 데이터를 함께 저장할 수 있는 통합 메모리를 필요로 하게 됩니다. 이 시기, 초기 컴퓨터들이 채택한 대표적인 메모리 기술 중 하나는 수은 지연 메모리*Mercury Delay Line Memory* 였습니다. 1940년대 말 영국에서 개발된 EDSAC(1949)과 미국의 EDVAC(1951)이 이 수은 지연 메모리를 주기억장치로 사용해 각각 512단어와 1,000단어 정도의 데이터를 저장할 수 있었습니다.
수은 지연 메모리는 데이터를 전기적 신호가 아닌, 음파의 형태로 바꾼 다음, 액체 수은이 채워진 긴 튜브 속에 음파를 전파시켜 보관하는 방식이었습니다. 음파가 수은 속을 천천히 이동하고, 끝에 도달하면 이를 다시 전기 신호로 바꾼 뒤 다시 반대편에서 음파로 전환시켜 튜브에 주입하는 식으로 계속 순환시키며 데이터를 유지한 것입니다.
하지만 수은 지연 메모리는 여러 한계를 안고 있었습니다. 저장된 정보에 접근하려면 해당 데이터가 음파 형태로 도달할 때까지 기다려야 했기 때문에, 속도는 매우 느렸습니다. 특정 위치의 데이터를 읽기 위해서는 항상 순서를 따라 기다려야만 했죠. 이는 점점 빨라지는 연산 속도와 대조적으로, 메모리 병목을 유발하는 근본적인 한계였습니다.
또한 수은이라는 재료 자체도 고가이고 위험성이 있으며, 온도에 민감해 통제가 어려웠죠. 이는 상용화 및 대량 생산 측면에서도 제약을 불러왔습니다.
1940년대 말부터 수은 지연 메모리의 한계가 명확히 드러나면서, 컴퓨터는 보다 빠르고 용량이 큰 메모리를 요구하게 됩니다. 특히, 2차 세계대전 이후 미국은 정보 처리 능력을 향상시키기 위한 기술 개발에 국가적 자원을 집중하기 시작했고, 해군과 정보 기관은 빠른 암호 해독과 대규모 표 계산이 가능한 장치를 원했습니다.
이 배경에서 등장한 것이 바로 자기 드럼 메모리*Magnetic Drum Memory* 입니다. 자기 드럼 메모리는 1932년 오스트리아의 구스타브 타우셰크*Gustav Tauschek* 에 의해 고안되었고, ERA(Engineering Research Associates)라는 회사와 함께 ATLAS-I라는 컴퓨터로 현실화됩니다.
자기 드럼 메모리는 원통형 금속 드럼이 빠르게 회전하며, 그 표면에는 자성 물질이 코팅되어 있습니다. 여러 개의 자기 헤드가 이 표면에 붙어 있어, 일정한 간격으로 데이터를 자화시켜 저장하거나 읽어들이는 방식입니다.
자기 드럼 메모리는 수은 지연 메모리보다 훨씬 더 큰 용량을 가질 수 있었고, 특히 회전하는 동안 여러 트랙에 병렬로 데이터를 기록하거나 읽을 수 있다는 점에서 속도 면에서도 우수했습니다.
ERA는 UNIVAC과 합병되며 기술을 상업화했고, IBM을 비롯한 대형 컴퓨터 제조업체들이 이 기술을 받아들이며, 드럼 메모리는 1950년대 상용 컴퓨터의 핵심 메모리 장치로 자리 잡게 됩니다. 대표적인 사례로는 1954년 IBM이 출시한 최초의 대량생산 컴퓨터 IBM 650이 있습니다. 이 제품은 약 17.5KB의 드럼 메모리를 탑재해, 과학 계산이나 은행 업무 등에서 폭넓게 활용되었고, ‘세계 최초의 상업용 베스트셀러 컴퓨터’라는 별명을 얻게 됩니다. 이후 초창기에는 약 62.5KB 정도의 용량을 지원했고, 이후 1950년대에 이르러서는 100KB를 넘는 제품도 등장하게 됩니다.
그러나 드럼 메모리에도 구조적 한계는 있었습니다. 자기 드럼은 계속 회전해야 하며, 데이터를 저장한 물리적 위치가 자기 헤드 아래로 도달할 때까지 기다려야 한다는 문제가 있었습니다. 또한 기계적 회전체이기 때문에 소음과 마모, 신뢰성 문제도 함께 따라왔습니다.
그리고 같은 시기, RCA의 연구원 얀 라히크만*Jan A. Rajchman* 은 CRT와 유사한 셀렉트론 튜브*Selectron Tube* 를 개발해 개별 전자빔을 다수의 작은 셀에 쏘아 메모리로 사용하려 했지만, 제작이 너무 복잡했고, 결국 소량 생산에 그치며 실질적인 표준이 되지는 못했습니다.
Fig.5 자기 코어 메모리
CRT 기반 메모리는 무작위 접근이 가능하다는 점에서 혁신이었지만, 정전기 누설, 외부 전기장 간섭, 짧은 데이터 유지 시간 같은 단점이 있었습니다. 이런 한계를 극복하기 위한 대안으로 등장한 것이 자기 코어 메모리입니다.
이 기술은 전류가 흐를 때 생성되는 자기장의 성질과, 자성체의 잔류 자기 상태를 이용해 정보를 저장하는 방식이었습니다. MIT의 제이 포레스터*Jay Forrester* 는 이 기술을 구현하는 데 결정적인 기여를 합니다. 그는 세 방향에서 전류를 동시에 흘려 교차점에 위치한 페라이트 코어 하나만 자화되도록 하는 ‘동시 전류 방식’을 개발했고, 이를 통해 메모리 공간에서 원하는 위치를 정확하게 선택하고 데이터를 읽고 쓰는 작업이 가능해졌습니다. 구조는 간단하지만, 정밀한 제어가 가능해지면서 메모리 기술은 한 단계 도약하게 되었죠.
그러나 자기 코어 메모리는 처음부터 완벽한 기술은 아니었습니다. 데이터를 읽는 순간 그 정보를 잃어버리는 ‘파괴적 읽기’라는 근본적인 한계를 지니고 있었기 때문입니다. 이 문제를 해결한 인물이 바로 안 왕*An Wang* 이었습니다. 그는 데이터를 읽은 뒤 즉시 원래 상태로 되돌리는 ‘쓰기 후 읽기’ 기술을 제안했고, 이를 통해 자기 코어 메모리는 안정성과 지속성을 갖춘 실용적인 기억장치로 자리 잡을 수 있게 되었습니다.

자기 코어 메모리는 이후 IBM 701, IBM 704, DEC의 PDP 시리즈 등 다양한 컴퓨터에 채택되며, 1950년대부터 1970년대 초반까지 약 20여 년간 사실상 컴퓨터 주기억장치의 표준으로 사용됩니다. 특히 전원이 꺼져도 데이터가 유지되는 비휘발성 특성과 뛰어난 내구성, 고장에 대한 낮은 민감도는 이 기술을 항공, 우주, 군사 분야에서도 널리 사용되게 만들었습니다. 실제로 NASA의 아폴로 우주선에 탑재된 컴퓨터에도 이 기술이 사용되었죠.
사실 자기장을 활용한 정보 저장은 이미 1930년대부터 다양한 형태로 실험되던 분야였습니다. 제2차 세계대전 이후 전자기기와 통신 기술의 비약적인 발전은 자성체 응용 연구에 활력을 불어넣었습니다. 페라이트와 같은 자성 소재가 저렴하고 가공이 쉬웠다는 점, 그리고 수작업 조립 기반의 생산 방식이 새로운 전자 산업의 일자리를 창출했다는 점도 자기 코어 메모리의 보급에 유리하게 작용했죠.
또한 냉전이라는 시대적 배경 속에서 군사 분야에서의 컴퓨터 활용이 급속히 확대되며, 높은 신뢰성과 내구성을 갖춘 메모리 기술에 대한 수요가 폭증하게 됩니다. 컴퓨터가 단순히 연구소나 학문적 도구가 아니라, 국방, 통신, 행정 등 다양한 영역에서 전략적 자산으로 인식되기 시작하면서, 안정적인 메모리 기술 확보는 곧 국가 안보의 문제로 연결되기도 했습니다.
Fig.6 반도체 메모리자기 코어 메모리가 1950년대부터 1960년대까지 컴퓨터의 주력 기억장치로 사용되면서, 컴퓨터는 과학 기술, 군사, 행정 분야를 중심으로 본격적인 사회적 도구로 자리 잡아갔습니다. 그러나 시간이 흐르면서 이 기술도 점차 한계를 드러내기 시작합니다. 메모리 용량을 늘리려면 수많은 자성 코어를 손으로 엮어야 했고, 이는 숙련된 노동력이 대규모로 투입되어야 가능한 일이었고, 소형화의 한계도 있었습니다.

이런 상황에서 전자공학과 반도체 기술의 발전이 돌파구를 열어줍니다. 1960년 벨 연구소에서 근무하던 강대원 박사는 금속-산화막-반도체 구조를 이용한 전계효과 트랜지스터, 즉 MOSFET을 발명합니다. 이 소자는 전류의 흐름을 정밀하게 제어할 수 있는 능력을 갖추고 있었고, 무엇보다도 아주 작은 면적 안에 여러 개의 소자를 집적할 수 있는 가능성을 보여주었죠. 바로 이 기술이 반도체 메모리의 근간이 됩니다.

MOSFET의 발명 이후, 1964년 페어차일드 반도체의 존 슈미트*John Schmidt* 는 세계 최초의 SRAM*Static Random Access Memory* 을 개발합니다. 이 메모리는 여섯 개의 트랜지스터로 구성된 셀 하나가 하나의 비트를 저장하고, 전원이 공급되는 한 데이터를 지속적으로 유지할 수 있었습니다. 빠른 속도와 높은 안정성 덕분에 이후 CPU 내부의 캐시 메모리 같은 고속 메모리 영역에서 중요한 역할을 하게 되지만, 트랜지스터 수가 많아 제조 단가가 높고 집적도가 떨어진다는 한계를 가지고 있었습니다.
한편, IBM의 로버트 데나드*Robert Dennard* 는 더 작고, 더 싸고, 더 많은 데이터를 저장할 수 있는 메모리를 만들기 위해 동적 램, DRAM을 개발하게 됩니다. 1966년 완성된 이 기술은 셀 하나를 단 하나의 트랜지스터와 축전기(캐퍼시터)로 구성하는 구조였으며, 집적도를 획기적으로 높일 수 있다는 장점이 있었습니다. 하지만 축전기에 저장된 전하는 시간이 지나면 자연스럽게 새어나가기 때문에, 일정한 시간 간격으로 정보를 재충전해야 했고, 이 때문에 ‘동적’이라는 이름이 붙게 됩니다.

이후 인텔은 1970년, DRAM 기술을 바탕으로 세계 최초의 상용 반도체 메모리 칩인 ‘Intel 1103’을 출시합니다. 이 제품은 기존의 자기 코어 메모리보다 훨씬 작고, 훨씬 싸고, 훨씬 빠르게 생산할 수 있었기 때문에 시장에서 폭발적인 반응을 얻게 됩니다.
반도체 메모리는 자기 코어 메모리와 달리 자동화된 공정에서 대량 생산이 가능했고, 실리콘 기반 제조 기술의 발전은 생산 단가를 계속해서 낮출 수 있는 길을 열어줍니다. 1970년대에 들어서면서 DRAM의 생산 원가가 자기 코어 메모리의 1/10 수준까지 내려가자, 기업들은 일제히 반도체 메모리로 전환하게 됩니다.

이후에도 DRAM 기술은 소형화를 위한 구조적 혁신을 계속 이어갑니다. 1980년대에 들어서면서 커패시터의 축전 능력을 유지하면서 셀의 크기를 줄이기 위해, 실리콘을 수직으로 파고드는 트렌치 구조나, 위로 층을 쌓아올리는 스택 구조 같은 3차원 설계 방식이 도입됩니다. 이 가운데 스택형 구조는 제조 효율성과 불량률 제어 측면에서 유리하여 오늘날까지도 DRAM의 주류 구조로 사용되고 있습니다.
이 같은 기술이 가능했던 데에는 1960년대 미국의 산업·군사 전략이 중요한 배경으로 작용했습니다. 냉전이 한창이던 시기, 미국은 소련과의 기술 경쟁에서 우위를 점하기 위해 국방과 항공우주 분야에 막대한 예산을 투입했고, 이는 곧 고성능·고속·소형화된 전자기술 개발로 이어져 반도체 메모리 등장까지 이어진 것이었죠.
Fig.7 DRAM의 진화 SDRAM
1980년대 말에서 1990년대 초, 퍼스널 컴퓨터(PC)가 가정과 사무실을 넘어서 산업 전반에 확산되고, 마이크로프로세서의 성능이 해마다 배로 증가하던 시기였습니다. 인텔의 80486(1989), 펜티엄(1993), 펜티엄 프로(1995)처럼 CPU는 더 빠르게, 더 정교하게 연산을 수행하게 되었지만, 컴퓨터 시스템 전체의 속도는 예상만큼 빠르게 향상되지 않았습니다. 문제는 CPU 자체가 아니라, 연산에 필요한 데이터를 불러오는 ‘속도 차이’에서 발생하고 있었죠. 이 현상은 메모리 병목으로 불리며, 메모리 기술이 CPU 속도를 따라가지 못하기 때문에 나타나는 문제였죠.

게다가 이 시기는 웹 브라우저의 보급, 멀티미디어 콘텐츠의 확산, 그리고 GUI 중심 운영체제의 대중화로 컴퓨터에 더 많은 연산과 메모리 처리를 요구했습니다. 이런 문제를 해결하기 위해 등장한 것이 바로 SDRAM*Synchronous DRAM* 입니다. 기존의 DRAM은 CPU와 독립적으로 작동했기 때문에, 데이터 전송 시기가 어긋나는 경우가 많았고, 이에 따라 데이터 전송 손실과 속도 저하가 빈번했습니다. 반면, SDRAM은 CPU와 클럭 신호를 동기화하여 메모리 접근 타이밍을 정확하게 맞출 수 있도록 설계되었습니다. 이를 통해 CPU와 메모리 간 데이터 전송 속도가 비약적으로 향상되었고, SDRAM은 1990년대 중반 이후 고성능 시스템의 새로운 표준이 되었습니다.
하지만 시간이 지나면서 SDRAM조차 한계를 드러내기 시작합니다. SDRAM은 클럭 주파수 한 번에 하나의 데이터만 전송할 수 있었기 때문에, 성능을 높이려면 클럭 자체의 주기를 짧게 줄여야 했고, 이는 발열과 소비전력 문제로 이어졌습니다. CPU의 속도는 계속 빨라지는데, 메모리의 속도 향상은 일정한 벽에 부딪히기 시작한 것이죠.

이런 한계를 극복하기 위해 제안된 해법이 바로 DDR*Double Data Rate* 입니다. DDR 메모리는 기존 SDRAM과 구조는 비슷하지만, 클럭 신호의 상승과 하강 엣지 모두에서 데이터를 전송함으로써, 클럭 주기를 두 배로 활용할 수 있도록 설계되었습니다. 덕분에 클럭을 올리지 않고도 전송 속도를 두 배로 향상시킬 수 있었고, 이는 발열과 전력 문제 없이 성능을 끌어올리는 가장 현실적인 선택이었습니다.
이러한 DDR의 핵심 기술은 바로 ‘프리페치 버퍼*Prefetch Buffer*’에 있었습니다. 프리페치 버퍼는 메모리 내부에 있는 일종의 대기 공간으로, 상대적으로 느린 내부의 실제 데이터 저장 공간(메모리 셀)과 매우 빠른 외부 데이터 통로(I/O) 사이의 속도 차이라는 고질적인 문제를 해결하기 위해 고안되었습니다. 이 버퍼는 외부에서 데이터가 요청되기 전에, 느린 내부 저장 공간에서 앞으로 필요할 데이터 2개를 미리 가져와(2-bit Prefetch) 대기시킵니다. 그러다 CPU가 데이터를 요청하면, 이미 준비된 2개의 데이터를 빠른 통로에 맞춰 한 번에 전송하여 병목 현상을 줄이는 것입니다. 특히 DDR의 상용화는 1998년 삼성전자가 세계 최초로 실현하게 되는데, 이는 단순한 기술 상용화를 넘어, 메모리 시장에서 한국 반도체 산업이 세계 표준을 선도하는 분기점이 됩니다.
이후 DDR 기술은 이 프리페치 버퍼가 한 번에 미리 가져오는 데이터의 양을 4개(DDR2), 8개(DDR3)로 계속 늘려나가는 방식으로 발전하며 데이터 전송 속도를 폭발적으로 향상시키게 됩니다.
1990년대 후반부터 2000년대 초까지, 메모리 반도체 산업은 ‘치킨게임’ 양상으로 흘러가기 시작합니다. 삼성전자, SK하이닉스, 마이크론 등 대형 메모리 제조업체들이 시장 점유율을 높이기 위해 대규모 시설 투자와 가격 인하 경쟁을 벌이면서, 중소 규모 제조사들은 급속히 도태되었습니다. 특히 2012년 일본의 엘피다메모리가 파산하면서, 전 세계 DRAM 시장은 삼성, 하이닉스, 마이크론의 ‘3강 구도’로 재편되었죠.
Fig.8 LPDDR: 모바일 혁명과 함께한 저전력 메모리의 진화
기존의 DDR 계열 메모리는 성능 면에서는 우수했지만, 높은 전력 소비와 발열 문제로 인해 배터리 기반의 기기에는 적합하지 않았습니다. 이러한 요구 속에서 등장한 것이 바로 LPDDR, 즉 Low Power DDR 메모리였습니다. LPDDR은 기본적으로 DDR 메모리의 데이터 전송 구조를 유지하면서, 작동 전압을 낮추고 불필요한 회로를 비활성화하는 방식으로 에너지 소비를 줄이도록 설계되었습니다. 이는 단순한 기술 개선을 넘어, 배터리 지속 시간과 발열 관리가 곧 사용자 경험과 직결되는 모바일 환경에 꼭 필요한 진화였습니다.
기술적으로 보면, LPDDR은 모바일 SoC*System on Chip* 와의 통합을 염두에 둔 패키징 구조를 채택해, 적은 면적에서 고집적화된 설계가 가능하도록 발전해왔습니다. 이는 스마트폰이나 태블릿처럼 소형화된 디바이스에 매우 적합했고, 모바일 기기 안의 열 관리 시스템이 제한적인 상황에서도 안정적인 성능을 유지할 수 있도록 도와주었습니다. 또한, 클록 게이팅(clock gating), 파워 다운 모드 같은 절전 기능들이 대거 적용되면서, 필요한 순간에만 회로가 동작하도록 조절하는 유연성도 갖추게 됩니다.
스마트폰의 대중화와 함께 LPDDR의 중요성이 부각되기 시작했습니다. 스마트폰은 고해상도 영상 재생, 게임, 실시간 네비게이션, 모바일 웹 서핑 등 다양한 연산을 동시에 처리해야 했습니다. 이처럼 복잡하고 다중적인 작업을 배터리 하나로 감당하기 위해서는, CPU뿐 아니라 메모리의 전력 효율성과 속도, 발열 제어 성능이 핵심적인 요소가 되었습니다. LPDDR은 이러한 요구를 만족시키며 스마트폰 생태계의 성장을 실질적으로 뒷받침한 기술이었습니다.
삼성전자, SK하이닉스, 마이크론 등 세계 주요 메모리 기업들은 스마트폰 제조사들과의 긴밀한 협력을 통해 LPDDR을 표준화된 모바일 메모리 기술로 자리잡게 만들었고, 이는 곧 고부가가치 모바일 반도체 시장을 선점하기 위한 중요한 경쟁 무대가 되었습니다. 특히 삼성전자는 2009년 세계 최초로 LPDDR2 DRAM을 출시한 이후, LPDDR5X에 이르기까지 시장을 선도해왔습니다.
Fig.9 GDDR: 게임·그래픽 산업의 급성장과 GPU 중심 메모리의 고속화
2000년대에 들어서면서 3D 게임, 실시간 영상 편집, 가상현실(VR), 고해상도 그래픽 렌더링 등의 수요가 급증했고, 이는 단순한 연산 속도뿐만 아니라 데이터를 실시간으로 대량 전송할 수 있는 능력을 갖춘 메모리를 요구하게 되었습니다. 이러한 기술적 과제를 해결하기 위해 개발된 것이 바로 GDDR*Graphics Double Data Rate* 메모리입니다.
GDDR은 이름 그대로 DDR 구조를 기반으로 하지만, GPU*Graphics Processing Unit* 의 특수한 요구에 맞춰 대역폭을 극대화하고 버스 구조를 확장한 메모리입니다. CPU와 메모리가 주고받는 데이터가 주로 직렬적이고 논리적인 흐름이라면, GPU는 방대한 양의 픽셀 데이터를 동시에 처리해야 하는 병렬 연산 구조를 가지고 있습니다. 이에 따라 GDDR은 보다 넓은 대역폭과 빠른 데이터 전송 속도, 그리고 더 많은 입출력 채널을 필요로 했고, 이러한 요건에 특화된 설계 방식으로 발전하게 된 것이죠.
기술적으로 GDDR은 클럭 속도를 단순히 높이는 방식이 아니라, 다중 뱅크 구조*****, 버퍼 구조의 최적화, 프리페치(pre-fetch) 메커니즘 등 다양한 고속화 전략을 동원하여 설계되었습니다. 발열을 줄이면서도 연산 성능을 유지할 수 있도록 패키징 구조와 냉각 솔루션도 함께 발전하게 됩니다.
GPU와 GDDR의 발전으로 3D 게임의 대중화, 디지털 영화의 후반 작업, 실시간 그래픽 시뮬레이션, 고해상도 영상 스트리밍, 가상현실과 증강현실 콘텐츠 등이 가능해졌습니다. 경제적으로도 GDDR은 전략적 부품으로 자리잡습니다. 엔비디아(NVIDIA), AMD와 같은 GPU 제조업체들은 고성능 그래픽카드의 성능을 좌우하는 핵심 요소로 GDDR의 속도와 용량을 경쟁적으로 개선해왔습니다. 이에 따라 마이크론(Micron), 삼성전자, SK하이닉스 등 주요 메모리 기업들은 GDDR4, GDDR5, GDDR6, GDDR6X로 이어지는 진화의 주도권을 확보하기 위해 치열한 기술 경쟁을 벌였습니다.
다중 뱅크 구조 : 메모리라는 하나의 거대한 작업 공간을 여러 개의 독립적인 구역(뱅크)으로 나누어 놓은 설계 방식. 이렇게 하면, 하나의 구역이 특정 데이터를 찾느라 바쁘게 일하는 동안에도 다른 구역들은 쉬지 않고 다음 데이터 요청을 받아 동시에 작업을 준비할 수 있습니다. 여러 작업을 겹쳐서 처리하기 때문에 기다리는 시간이 줄어들고, 결과적으로 메모리 시스템 전체가 훨씬 더 많은 데이터를 빠르게 처리할 수 있게 되어 성능(대역폭)이 크게 향상됩니다.
Fig.10 HBM: AI·슈퍼컴퓨터 시대의 메모리 혁신
2010년대 이후, 인공지능·자율주행·슈퍼컴퓨팅·빅데이터 분석 등에서 요구되는 데이터 처리량이 폭발적으로 증가하면서, 메모리는 단순한 저장장치를 넘어 연산 속도와 효율을 좌우하는 핵심 부품으로 자리 잡게 되었습니다. 특히 GPU 기반의 병렬 연산 환경에서는 데이터를 제때 공급받지 못해 발생하는 병목 현상이 심각한 한계로 지적되었고, 기존의 2차원 평면 배치 메모리 구조로는 이를 해결하기 어려웠죠.
이런 문제를 해결하기 위해 등장한 것이 HBM*High Bandwidth Memory* 입니다. HBM은 메모리를 단순히 연산 장치 옆에 놓는 보조 부품에서, 연산 장치와 한 몸처럼 통합된 시스템으로 바꿔 놓았습니다. 이로인해 GPU나 CPU가 데이터를 처리할 때, HBM이 곧바로 위에서 데이터를 공급해주는 구조를 갖춤으로써 AI·슈퍼컴퓨터 환경에서 필수적인 속도를 실현하게 된 것이죠.
HBM은 기존처럼 칩을 평면에 나열하지 않고, 여러 개의 메모리 칩을 3차원으로 쌓아올린 뒤 TSV*Through Silicon Via* 기술을 이용해 수직으로 연결하죠. 이 방식 덕분에 데이터 전송 거리를 크게 줄이고 전송 폭을 획기적으로 넓힐 수 있었으며, 동시에 전력 소모와 발열 문제도 개선되었습니다.
2013년 SK하이닉스가 세계 최초로 HBM1 양산에 성공하며 상업화를 시작했고, 2015년에는 AMD의 Radeon R9 Fury X에 적용되었습니다. 다만 초기 HBM은 공정 난이도, 수율 문제, 상대적으로 높은 단가 등으로 인해 큰 영향을 주지는 못했습니다. 그러나 HBM2, HBM2E, HBM3로 이어지면서 적층 높이(최대 8-Hi), 전송 속도(3.6GT/s 이상), 스택당 대역폭(819GB/s 이상) 등이 크게 개선되어 대규모 AI 모델 학습이나 고성능 GPU 환경에서 사실상 표준 메모리로 자리잡게 되었죠.
Reference.- 작자미상. (2022). 메모리(RAM)의 발전 과정 - DDR, GDDR 메모리. 퀘이사존. URL :
https://quasarzone.com/bbs/qc_plan/views/30872- 최리노. (2020). 최리노의 한 권으로 끝내는 반도체 이야기. 양문