요약
AI 칩은 AI 추리와 훈련의 요구를 차근차근 충족시킬 수 있는 인공지능의 컴퓨팅 능력의 기초이다. AIoT 가 대량의 데이터를 제공하고 심도 있는 학습 알고리즘이 성숙해짐에 따라 AI 칩이 AI 애플리케이션 착지의 컴퓨팅 기반이 되는 중요성이 커지고 있습니다. 이 기관의 분석가는 1) 터미널 AI 칩이 저전력 추리 작업을 추구하고, 실제 착지 시나리오 수요를 겨냥하며, 에너지 소비/컴퓨팅 능력/지연/비용에 차이가 있다는 것을 알게 되었습니다. 2) 에지 AI 칩은 터미널과 클라우드 사이에서 짧은 대기 시간, 높은 개인 정보 보호 요구 사항, 높은 네트워크 대역폭 점유 추론 또는 교육 작업을 수행합니다. 3) 클라우드 AI 칩은 CPU/GPU/FPGA/ASIC 등 높은 컴퓨팅 성능/교육 작업에 적합합니다. 이 기관의 분석가들은 운훈 임무가 서부 허브 포지셔닝에 부합하며, 운AI 칩은' 동산서산' 의 혜택을 받을 것으로 보고 있다.
기존의 범용 칩 CPU/GPU/FPGA 는 AI 의 요구를 부분적으로 충족했으며, GPU 는 높은 컴퓨팅 성능을 통해 메인스트림 선택이 되었습니다. 기존 CPU 는 직렬 실행 모드를 따르며 컴퓨팅 장치 비중이 작습니다. 공급업체는 클럭 속도/컴퓨팅 단위 수/코어 수를 늘려 컴퓨팅 성능을 높이려고 했지만 비용/전력/기술적 어려움 등으로 인해 현재 AI 요구 사항을 충족하는 메인스트림 CPU 제품은 없습니다. GPU 의 컴퓨팅 단위 비율이 높아 대규모 데이터의 병렬 처리에 적합합니다. 전력 소비량과 비용은 여전히 높지만, 고도의 컴퓨팅 능력은 심도 있는 학습과 같은 알고리즘의 데이터 처리 요구 사항에 적응하여 성숙한 생태 CUDA 를 겹칩니다. GPU 는 클라우드 AI 칩의 주류 선택이 되었습니다. 또한 FPGA 는 프로그래밍 가능성으로 인해 유연성이 향상되어 CPU/GPU/ASIC 보다 컴퓨팅 성능/전력/비용 (소규모) 이 더 유리합니다. 이 기관의 분석가들은 칩 수요가 불균형하고 AI 알고리즘이 끊임없이 반복되는 상황에서 FPGA 가 재구성 가능한 기능 중 하나로 꼽힌다.
AI 클라우드 컴퓨팅 용량 요구 사항에 따라 ASIC/DPU 와 같은 전용 칩이 등장했습니다. ASIC 는 특수 칩으로 R&D 비용과 유연성은 부족하지만, 특정 사용 시나리오에서 높은 컴퓨팅 능력/저전력/소면적이라는 장점은 여전히 국내외 업체들의 적극적인 배치 (예: TPU, 뇌칩 등) 를 끌어들이고 있다. 이 기관 분석가들은 AI 침투율 향상과 RISC-V 오픈 소스 명령어 세트 개발이 ASIC 단위 칩 비용 감소를 촉진하여' 규모 효과-비용 절감-응용 규모 향상' 의 선순환을 형성할 것으로 보고 미래의 주류 선택이 될 것으로 전망했다. DPU 는 CPU 네트워크 전송, 데이터 보안, 스토리지 가속 등의 기능을 오프로드하여 데이터 센터의 기본 컴퓨팅 작업을 최적화하고, 상위 계층 어플리케이션에 CPU 컴퓨팅 기능을 확보하여 데이터 센터 수준의 컴퓨팅 성능을 향상시킵니다. 이 기관의 분석가들은 DPU 가 CPU, GPU 와 완전히 대립하여 데이터 센터의 핵심 컴퓨팅 기능 지원이 될 것으로 예상하고 있습니다.