Shopping Cart
Total:

$0.00

Items:

0

Your cart is empty
Keep Shopping

アップルが「読唇」AI企業Q.aiを巨額買収、その狙いは? – CNET Japan



アップルが「読唇」AI企業Q.aiを巨額買収、その狙いは? - CNET Japan

 声を出さずに口を動かすだけで、AIアシスタントが言葉を理解する――。そのようなことが、スマートグラスやイヤホン、スマートフォンのカメラを通じて現実になろうとしている。Appleは最近、これに取り組むイスラエルの新興企業Q.aiを買収した。奇妙でSFのようだが、スマートグラスやウェアラブルデバイスを長年追ってきた筆者にとっては、非常に親近感のある話だ。

 AppleによるQ.aiへの投資は、決して小さなものではない。Financial TimesReutersなどの報道によると、買収額は約20億ドル(約3100億円)にのぼるという。これは、2014年のBeats買収以来の大きな動きだ。Beatsとは異なり、現時点でQ.aiはあまり知られていない。しかし、新しいインターフェースが登場する可能性は極めて高い。拡大を続ける未来のパーソナルテクノロジーというパズルに、また新たなピースが加わろうとしている。

 Q.aiの共同創業者であるAviad Maizels氏は、かつてMicrosoftの「Xbox」用カメラ「Kinect」の3Dスキャン機能を支えた赤外線技術「PrimeSense」を生み出した人物だ。PrimeSenseは2013年にAppleによって買収された。その技術は「Face ID」を支える「TrueDepth」カメラへと進化し、現在は「Apple Vision Pro」の近距離ハンドトラッキングにも活用されている。

 特許に関するこれまでの報道から推測すると、Q.aiの技術は光学センサーを用いて、顔のわずかな動きや感情表現を追跡できる。これにより、AIインターフェースへの静かなコマンド入力や、微細な表情の変化の認識が可能になる。イスラエルのサイト「GeekTime」はさらに踏み込み、この技術は筋肉や唇の動きを測定するもので、口の近くに配置する必要があるかもしれないと報じている。

 米CNETはAppleとQ.aiにコメントを求めたが、すぐに回答は得られなかった。

ウェアラブルやスマートグラス向け新UIの一部に?

 筆者は先日、AppleがAI搭載のウェアラブルデバイス(ピン、スマートグラス、イヤホン、ウォッチ、あるいはそれらの組み合わせ)によるエコシステムへと移行しつつある兆候について記事を書いた。これらのウェアラブルデバイスはいずれも、Q.aiが開発する技術を利用できる可能性がある。中でもヘッドホンとスマートグラスが最も有力だろう。次世代の「AirPods」に赤外線カメラが搭載されるといううわさもあり、点と点がつながり始めている。

 Apple Vision Proなどの複合現実(MR)ヘッドセットも、Q.aiの技術を活用できるはずだ。Vision Proはすでに、アイトラッキングカメラや下向きのカメラ、赤外線センサーによって表情を認識できる。しかし、操作にはまだ少し不自然さが残る。視線でターゲットを定め、手でピンチ操作を行うが、音声リクエストには「Siri」と呼びかけなければならない。操作感はもっと自然で、さりげないものであるべきだ。今回の買収が、その解決策になるかもしれない。

 著名な拡張現実(AR)アーティストであり研究者のHelen Papagiannis氏は、最近のニュースレターの中で次のように述べている。「Appleが開発中とうわさされるAIピンは、単体製品としてではなく、Appleのエコシステムにおけるノード(結節点)と考えるのが妥当だ。AirPodsや、将来的にはスマートグラスと連携し、デバイス間で共有されるセンシング、インテリジェンス、コンテキストを活用するものになるだろう」

 Metaの既存のスマートグラスや、Googleから登場予定の製品は、主に音声操作に頼っている。それを無言で行えるようになれば大きな強みになるが、音声以外の操作方法も台頭しつつある。Metaは手首に装着するニューラルバンドを開発しており、最終的にはスマートグラスにアイトラッキングを追加することも目指している。Googleのスマートグラスも、スマートウォッチによるジェスチャー操作に対応する予定だ。

 筆者はプライバシーについても、少なからず懸念を抱いている。唇の動きを読み取り、微細な表情を認識できる技術は、離れた場所からユーザーの意図を追跡し、盗み見るために悪用される恐れがある。この技術のプライバシーと信頼性は、どのように確保されるのだろうか。あるいは、口を動かすだけでリクエストを送れるようになることは、現在の音声コマンドよりもプライバシーが守られることになるのだろうか。

「読唇」の先にあるもの

 筆者は、発話を一切必要としないインターフェースを今も求めている。筋電図(EMG)を用いたMetaのニューラルバンド技術は、手首のジェスチャーを進化させ、スマートグラスやイヤホンと連携させる複雑な方法を示唆している。別のイスラエル企業であるWearable Devicesも「Mudra」というニューラルバンドを展開しており、運動ニューロンの電気信号を利用して、目立たない入力機能の拡張を目指している。

 脳波(EEG)も、一つの方向性だ。いくつかの企業がブレイン・コンピューター・インターフェース(BCI)として脳波の活用を模索しているが、現時点では主に健康や医療分野に焦点を当てたセンサーシステムに留まっている。

 Q.aiの技術も、われわれが使用するウェアラブルコンピューターを、より身体に近い存在に感じさせるインターフェースの一つだ。それは奇妙で、不気味でさえあるが、多くのスマートグラス、ウェアラブル、VR/AR企業はそこに向かっていると思われる。今回のAppleの動きは特殊な例ではなく、大きな潮流の一部なのだ。

この記事は海外Ziff Davis発の記事を4Xが日本向けに編集したものです。

Amazonで開催中のセールを見る

Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています。





Source link

0
Show Comments (0) Hide Comments (0)
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Recent Posts:
0
Would love your thoughts, please comment.x
()
x