
지난 2년 동안 AI 논의는 GPU 부족, 컴퓨팅 용량 부족, 클러스터 부족 등 거의 전적으로 컴퓨팅 성능을 중심으로 이루어졌습니다.그러나 이 보고서는 한 가지 핵심 사항을 반복해서 강조합니다. AI를 진정으로 방해하는 것은 계산 능력이 아니라, 데이터를 이동할 수 없음.
모델 크기가 수십 메가바이트에서 수 기가바이트로 확장됨에 따라 시스템에서 가장 많이 사용되는 구성 요소는 더 이상 컴퓨팅 장치가 아니라 메모리와 버스입니다.즉, AI의 병목 현상은 "컴퓨팅 문제"에서 보다 근본적인 제안으로 조용히 이동하고 있습니다. 저장 문제.
이는 보다 급진적인 방향으로 이어졌습니다. 즉, 데이터 이동이 가장 큰 오버헤드라면 계산이 발생하도록 놔두는 것이 어떨까요? 직접 보관함?
CIM(Compute-in-Memory)이라는 아키텍처는 루트에서 이 논리를 다시 작성하려고 합니다.이를 가능하게 하는 열쇠는 더 발전된 프로세스 노드가 아니라 과거에는 그다지 "주류"가 아니었던 기술 유형입니다.아날로그 메모리.
이 기사는 우리에게 중요한 질문을 다시 생각해 보도록 권유합니다. AI가 오늘날의 수준으로 발전함에 따라 컴퓨팅 성능 또는 스토리지 중 실제로 상한선을 결정하는 것은 무엇입니까?
AI의 성능 병목 현상은 '컴퓨팅 파워'에서 '저장 및 데이터 이동'으로 전환되고 있으며, 그 해결책은 '아날로그 메모리+CIM(Compute-in-Memory)'으로 컴퓨팅 패러다임을 재구성하는 데 있다.
심층 신경망(DNN)의 핵심 계산은 본질적으로 대규모 가중치 판독에 의존하는 벡터 행렬 곱셈(VMM)입니다.모델 크기가 메가바이트에서 기가바이트(10MB~10GB)로 증가함에 따라 온칩 스토리지에 대한 수요가 엄청납니다.
훈련은 "쓰기 집약적"인 반면 추론은 "읽기 집약적"입니다. 둘 다 무게 저장(시냅스 메모리)을 중심으로 이루어집니다.
결론: AI는 순수한 컴퓨팅 문제가 아닙니다.이는 본질적으로 "스토리지 + 데이터 이동 효율성"의 문제입니다.
기존 GPU/TPU는 간단한 원리로 작동합니다. 즉, 처리 요소(PE)에서 계산이 발생하고 데이터는 SRAM/DRAM에 저장되므로 데이터 이동이 빈번하고 효율성이 매우 낮습니다.
에너지 효율 비교:
핵심 모순: 문제는 계산 능력이 없다는 것이 아니라 데이터를 효율적으로 이동할 수 없다는 것입니다.
CIM 아키텍처는 메모리 어레이에 직접 가중치를 저장하고 이러한 어레이 내에서 계산(병렬 VMM)을 수행하므로 "스토리지 ← 컴퓨팅 장치" 간에 데이터를 이동할 필요가 없습니다.
근본적인 변화:
이는 단순한 최적화가 아닌 아키텍처 수준의 패러다임 전환입니다.
CIM을 실현하려면 새로운 '중량 운반체'가 필요합니다.주요 후보는 다음과 같습니다.
이러한 장치의 필수 기능은 연속 컨덕턴스(아날로그 다중 비트)를 사용하여 가중치를 표현하는 것입니다.
보고서는 "가능한지 여부"가 아니라 실제적인 장애물을 강조합니다.
1. 훈련 과제(작문 과정)
요구사항: 선형성과 대칭성
실제 문제: 비선형성과 비대칭성으로 인해 정확도가 저하됩니다.
2. 추론 문제(읽기 안정성)
다음과 같은 문제로 인해 시간이 지남에 따라 가중치가 변동됩니다.
- 열 드리프트
- 간섭 읽기
- 보유 문제
3. 어레이 수준 문제
- 장치 간 다양성
- 정밀도, ADC 성능 및 어레이 크기 간의 균형
핵심 결론: 아날로그 메모리의 문제는 '정확도'가 아니라 '안정성과 제어성'이다.
향후 방향은 다음과 같습니다.
에센스: 단일점 돌파가 아닌 풀스택 재구성입니다.
AI의 병목 현상은 더 이상 컴퓨팅 성능이 아니라 '저장 및 데이터 흐름'입니다.Analog CIM은 "스토리지"를 컴퓨팅의 새로운 핵심으로 전환하여 AI 시스템이 처음부터 작동하는 방식을 재정의하고 있습니다.