本文へ移動

HBM-PIM:次世代AIを加速する最先端のメモリ技術

  • 共有
今、世界ではChatGPTが大きく注目されています。 ChatGPTとは、OpenAIで開発された超巨大人工知能(AI)サービスです。 ChatGPTのような超巨大人工知能(AI)は、人間の頭脳のように自ら学習し、考え・判断することができ、これと同レベルのAIを実装するには、処理するデータと演算量が指数関数的に増加するため、従来のコンピュータシステムでは性能と効率に限界があります。 これを解決するためには、次世代メモリ半導体の役割が不可欠です。 サムスン電子は、新しいAI専用半導体ソリューションであるPIM(Processing-In-Memory)技術を、世界で初めて高性能DRAMであるHBMに適用しました。 PIMは、プロセッサが実行するデータ演算機能をメモリ内に実装した次世代メモリ技術です。 この技術は、プロセッサとメモリ間のデータ移動を減らすことでAIアクセラレータシステムの性能とエネルギー効率を向上させます。 サムスン電子は、AMDのグラフィック処理装置(GPU)であるMI-100アクセラレータカードにHBM-PIMメモリを搭載しました。 HBM-PIMクラスタを実装して超巨大人工知能(AI)とHPCアプリケーションに適用した結果、従来のGPUアクセラレータに比べて性能が2倍アップし、エネルギー消費量は50%削減されたことが確認されました。 一方、世界最大級の半導体製造会社であるAMDのCEOリサ・スー氏は先月20日、アメリカ・サンフランシスコで開催された世界最大の半導体技術学会「ISSCC 2023」で基調講演を行い、「PIM技術を活用することで、従来のメモリの情報処理に比べて85%以上の消費電力が節約できた。現在サムスン電子と次世代メモリ半導体分野で緊密に協力している」と述べました。 サムスン電子では、現在HBM-PIMをはじめ次世代半導体技術をするとともにソフトウェアとシミュレーターを公開し、エコシステムの構築も行っています。