반응형
CPU (Central Processing Unit)
- 컴퓨터의 정중앙에서 모든 데이터를 처리하는 장치이다.
- ALU가 한 개이다.
- CPU 에는 제어장치(CU)가 존재하는 대신, ALU 가 1개 뿐이다.
- 따라서, 단순 사칙연산 속도는 GPU 에 비해 안 좋으나, 복잡한 연산에는 용이하다.
GPU (Graphics Processing Unit)
- GPU는 컴퓨터 그래픽을 처리하는 장치로, 그래픽 카드를 구성하는 가장 중요한 요소이다.
- 3D 그래픽의 각종 광원 효과 및 질감 표현기법 등이 발전하면서 이를 CPU 혼자 처리하기에 버거워져 보조하기 위해 개발되었다.
- 하지만, 현재는 딥 러닝 영역에서 컴퓨팅 워크로드를 가속화하기 위해, 보다 광범위하게 활용되고 있다.
- ALU가 약 2500개이다.
- ALU 의 개수가 CPU 보다 많기 때문에, CPU 에 비해 단순 사칙연산 속도가 빠르다.
TPU (Tensor Processing Unit)
- 구글에서 2016년 5월에 발표한 데이터 분석 및 딥러닝 용 하드웨어이다. 벡터/행렬연산의 병렬처리에 특화되어있다.
- 구글 AI 소프트웨어 Tensorflow에 최적화되어있다.
- ALU가 약 3만개이다.
- 벡터/행렬연산을 쉽게 하기 위해 ALU 위치별 용도를 미리 설계해 놓았다. (딥러닝에 유리)
참고
반응형
'Hardware' 카테고리의 다른 글
[HW] GPU 구조 / CUDA 시스템에서 host(CPU)에서 devie(GPU)로 커널 호출 시, thread들이 SIMT 형태로 병렬 처리되는 과정 /Nvidia GPU Architecture Roadmap (0) | 2022.01.27 |
---|---|
[HW] 딥러닝에 GPU를 사용하는 이유 / CPU와 GPU의 차이 (0) | 2021.09.05 |