
人工知能(AI)が直面している大きな課題の1つに、コンピューターのメモリと処理装置の相互作用がある。アルゴリズムが動作している間、この2つのコンポーネント間ではデータが急速に行き来する。しかし、AIモデルは膨大な量のデータに依存しているため、ここがボトルネックとなってしまうのだ。
パデュー大学とジョージア工科大学が実施し、米国時間12月16日にFrontiers in Scienceで発表された新しい研究は、脳に着想を得たアルゴリズムを用いてAIモデル用のコンピューターアーキテクチャを構築するという、斬新なアプローチを提案している。研究者らは、この方法でアルゴリズムを構築すれば、AIモデルに関連する電力コストを削減できる可能性があるとしている。
「言語処理モデルの規模は、過去4年間で5000倍に拡大した」と、パデュー大学のコンピューター工学教授であり、本研究の筆頭著者であるKaushik Roy氏は述べた。「この驚くほど急速な拡大により、AIを可能な限り効率化することが極めて重要になっている。つまり、コンピューターの設計方法を根本から再考する必要がある」
今日のコンピューターのほとんどは、処理とメモリを分離する「ノイマン型アーキテクチャ」と呼ばれる1945年のアイデアに基づいてモデル化されている。ここで速度低下が発生する。世界中でより多くの人々が、データを大量に消費するAIモデルを利用するにつれ、コンピューターの処理能力とメモリ容量の区分けは、より深刻な問題になる可能性がある。
IBMの研究者たちも、2025年の早い時期に投稿した記事でこの問題を指摘していた。コンピューターエンジニアたちが直面しているこの問題は、「メモリの壁」と呼ばれている。
「メモリの壁」を打ち破る
メモリの壁とは、メモリと処理能力の間の不均衡を指す。要するに、コンピューターのメモリが処理速度に追いつくのに苦労しているということだ。これは新しい問題ではない。バージニア大学の2人の研究者が、1990年代にこの言葉を考案した。
しかし、AIが普及した現在、メモリの壁問題は、AIモデルを動作させる基盤となるコンピューターの時間とエネルギーを浪費させている。論文の研究者らは、メモリと処理を統合した新しいコンピューターアーキテクチャを試すべきだと主張している。
脳の働きに着想を得た、この論文で言及されているAIアルゴリズムは、「スパイキングニューラルネットワーク(SNN)」として知られている。過去、これらのアルゴリズムに対する一般的な批判として、遅くて不正確であるという点があった。しかし一部のコンピューター科学者は、これらのアルゴリズムがここ数年で大幅に改善していると主張している。
研究者らは、SNNに関連する概念「コンピュート・イン・メモリ(CIM)」をAIモデルで活用すべきだと提案している。この概念は、AIの分野ではまだ比較的新しいものだ。
著者らは論文の抄録で、「CIMは計算能力をメモリシステムに直接統合することで、メモリの壁問題に対する有望な解決策を提供する」と記している。
コンピューターの処理とメモリが単一のシステムに統合されれば、医療機器、輸送、ドローンなどの分野で改善が見込めると研究者らは考えている。
「AIは21世紀で最も変革的な技術の1つだ。しかし、それをデータセンターから出して現実世界へ移行させるには、電力使用量を大幅に削減する必要がある」と、共著者でありパデュー大学の研究者であるTanvi Sharma氏は述べた。
「データ転送を減らし、処理をより効率化することで、AIはバッテリー持続時間の長い小型で手頃な価格のデバイスに収まるようになる」(同氏)
この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。
Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています。