脳を模倣するAIチップ:BrainChipの超低消費電力特許戦略


脳を模倣するAIチップ「Akida」:超低消費電力技術の核心

現代のAI(人工知能)技術は、膨大なデータを処理するために多大な電力を消費する。しかし、この常識を覆し、人間の脳のように効率的かつ低消費電力で動作するAIチップの開発が進んでいる。その先頭に立つのが、オーストラリアのBrainChip Holdings Ltd.が開発したAkida™(アキーダ)ニューロモルフィックAIチップだ。このチップは、神経信号(スパイク)ベースの**イベント駆動型(event-based)**処理を特徴とする完全デジタルアーキテクチャを持ち、必要なタイミングでのみ電力を消費する。これにより、従来型AIチップに比べて圧倒的な省電力性能を実現しているのだ。

その超低消費電力技術は、Akida Picoという極低電力コアで具現化される。これは、マイクロワットからミリワット単位の消費電力で動作し、ウェアラブルデバイスIoT機器音声起動機器などへの組み込みに最適化されたものだ。具体的な技術構成として、Akidaは1~4ビット量子化、イベント型処理、小さなNPU(ニューラルプロセッシングユニット)の分散配置などにより、演算量(MAC数)、メモリ使用量、帯域幅を約半分に削減。少量学習やリアルタイム処理を支えるため、イベントベースのアルゴリズムとローカル推論を可能にしている。実測性能例では、キーワード認識モデルが1インファレンスあたり約37マイクロジュール(1Wあたり27,336推論)で91%の精度を達成。自動車の車内環境では、顔認識を22mW、音声検出を6~8mW、キーワードスポッティングを600µWという極めて低い消費電力で実現可能であるという。これらの性能は、22nmプロセス0.12mm²という超小型のダイ面積に収まる設計によって支えられている。


知財が護る「エッジAIの最前線」:特許戦略のパターン

BrainChipの知財戦略は、この脳模倣型AIチップ超低消費電力技術を多層的に特許で保護することで、エッジAI市場の最前線を守り、模倣を防止する。その特許出願の時系列は、技術の進化と市場展開への明確な意図を示す。

まず、基盤技術から応用進化へと段階的に特許を取得している。初期の動的ニューラル関数ライブラリ技術(2019年公表の米国特許)やイベントベースのスパイキングCNN(2022年公表の米国特許)といった中核技術から始まり、その後、AIモデルをライブラリとして保存・共有する機構や、イベントベースのスパイキングCNN分類、改良されたスパイキングニューラルネットワークの学習機構、セキュア音声通信、時系列スパイクCNNの再構成可能な分類機構、無監督のパターン検出方式(雑音下でも繰り返しパターン検出可能)、少量学習(Low-shot learning)適用のスパイキングNNといった、用途ごとの特許へと展開している。これは、中核技術を確立した上で、その応用範囲を広げながら知的財産で囲い込む戦略だ。

特に、リアルタイム処理低消費電力といったエッジAIの核心技術は厳重に保護されている。イベントベース処理による推論、少量学習、雑音耐性技術などが特許で囲い込まれる。さらに、「スパイクタイミングを暗号化するSecure Voice Communications」に関する特許(2022年公表の米国特許)によって、セキュリティ領域まで網羅している。現在、米国で13件の特許を取得しているほか、豪州、欧州、中国などで19件以上が取得済みであり、さらに30件以上が世界13カ国以上で出願中であるという。この国際的なIP展開は、サードパーティの追随を防ぎながら、パートナー企業向けライセンス展開を狙う構造である。

EAP(Early Access Program)の開始により、大手企業との連携も進む。宇宙分野(NASA)や自動車分野(Valeo)など、幅広い用途でAkidaの実装評価が行われ、知財的な強みと市場信頼を両立させている。センサーからオンチップ学習・推論までの一貫処理を可能にする特許技術群により、他社製品との違いを明確化し、特に超小型IoT機器での冷却不要かつ「常時オン」方式を実現する技術として差別化されている。


未来を見据えた知財展開:センサー直結AIエコシステムの構築

BrainChipの知財戦略は、単に半導体チップの性能を競うだけでなく、低電力技術を核としたAIエコシステムの構築と、それを通じた未来社会への貢献を見据えている。

エッジAIの主力チップとしての地位確立を目指し、イベントベース処理や低ショット学習など、微細用途に強い特徴を特許化し、差別化を図る。これにより、スマートセンサーなどバッテリー駆動機器の標準AI基盤となることを目指す。

また、自動車、産業機器、防犯センサーといった、リアルタイム処理低消費電力が強く求められる分野でAkidaを標準技術にする布石を打っている。将来は、データ転送不要のオンチップ学習・推論を広範囲に展開することで、ユーザーのプライバシー保護にも貢献し、IoTエコシステム全体を最適化する。

AIセキュリティへの波及展開も重要な要素だ。暗号化やセキュア音声通信技術に関する特許で、IoT/エッジAI領域のデータ保護を担保する仕組みを整備。さらに、データセンターへの依存を減らし、消費電力最小化型AIカーボンフットプリントを削減することで、環境サステナビリティへの貢献も目指す。これは、脱炭素社会にマッチした技術基盤を提供するという、社会貢献事業戦略の融合である。

Orcan Energyが分散型ゼロエミ電源網を構築するように、BrainChipはAIコアIPライセンス展開の中心に据え、超小型機器市場プラットフォーム化を目指す。グローバルIPによる模倣防止とライセンス収益化を推進し、多国権利を取得することで、サードパーティの追随を防ぎながらパートナー企業向けライセンス展開を狙う構造だ。BrainChipの知財戦略は、中核技術から応用・セキュリティまで多層的に特許化し、国際的に権利網を張る高度に構造化された計画であり、Akidaを超省電力センサー直結学習能力安全性を備えた“未来型AIデバイス向けプラットフォーム”へと進化させているのだ。

参考元のURL:


1. **BrainChip 独自リリース:「US Patent for Accessing Learned Functions 」
イベントベース・機能共有ライブラリ技術に関する特許取得を発表。
https://brainchip.com/brainchip-awarded-us-patent-accessing-learned-functions-intelligent-target-device/ 


2. プレスリリース(Business Wire, 2024年10月):「BrainChip Introduces Lowest‑Power AI Acceleration Co‑Processor」
Akida Pico の登場を伝えるリリース。 <1 mW の消費特性が明記されています。
https://www.businesswire.com/news/home/20241001993143/en/BrainChip-Introduces-Lowest-Power-AI-Acceleration-Co-Processor 


3. **BrainChip 公式:Akida Pico 発表ページ(2024年10月3日)**
ウェアラブル・メディカル用途向けに「μW〜mW」の動作を謳う紹介ページ。
https://brainchip.com/akida-pico-announcement/ 


4. **公式リリース:「BrainChip Fortifies Neuromorphic Patent Portfolio」**
イベントベース特許(pattern detection, EP3324344, US2019/0286944 など)取得を報告。
https://brainchip.com/brainchip-fortifies-neuromorphic-patent-portfolio-with-new-awards-and-ip-acquisition/ 


5. **AllAboutCircuits 記事(2024年10月29日):「BrainChip Accelerates AI at the Edge With New Low‑Power Neural Processor」**
Akida Pico の消費電力 <1 mW、0.18 mm² ダイサイズ、用途指向型AIを解説。
https://www.allaboutcircuits.com/news/brainchip-accelerates-ai-edge-with-new-low-power-neural-processor/ 


6. **PR的情報:「BrainChip unveils AI NPU that consumes less than a milliwatt」**
公式サイト記事として、Akida Pico の「<1 mW NPU」実装を紹介。
https://brainchip.com/brainchip-unveils-ai-npu-that-consumes-less-than-a-milliwatt/ 


7. **ipXchange(2024年10月24日):「BrainChip’s Akida Pico Brings Large Language Models to the Edge」**
Akida Pico がエッジで LLM を動かす可能性を評価。AI活用範囲の広がりを示唆。
https://ipxchange.tech/product-news/brainchips-akida-pico-brings-large-language-models-to-the-edge/ 

コメントを残す