
アップルは今週、イスラエルに拠点を置くプライムセンスを3億5000万ドルで買収することに合意した。
PrimeSense は、Microsoft の Kinect に搭載されている 3D モーション トラッキング テクノロジの開発で最もよく知られています。
これはAppleが独自のKinectを開発する計画があることを意味するのでしょうか?もしかしたらそうかもしれません。しかし、Appleはもっともっと興味深いものを考えているのかもしれません。
Apple による PrimeSense 買収には、すべての標準的な注意事項が適用されます。
Appleが企業を買収したという事実は、将来の製品についてほとんど何も示唆しません。企業が他の企業を買収するのは、優秀な人材を獲得するためかもしれません。特許を狙うためかもしれませんし、競合他社を排除するためかもしれません。
それでも、Apple には、主要な新しいユーザー インターフェイスの取り組みを買収に基づいて行ってきた長い歴史があります。
例えば、AppleのiOSユーザーインターフェースは、iPhone発売の2年前にAppleが買収したFingerWorksの技術を一部ベースとしていました。Siriは2010年に買収され、その後iPhoneのコアインターフェースとして組み込まれました。
Microsoft の Kinect 製品との関連性から、Apple による PrimeSense の買収により、Apple デバイス、特にテレビ、そしてタブレットや携帯電話向けの新しい空中ジェスチャー インターフェースが実現するだろうと容易に推測できます。
しかし、PrimeSense は、Kinect のようなジェスチャー インターフェースやゲームから、Apple マップの屋内マッピングまで、あらゆる分野で強力な機能を Apple にもたらします。
実際、PrimeSense のテクノロジーは、同社の少数のパートナー企業によって、3D プリント オブジェクト スキャナー、ロボット工学、拡張現実、ヘルスケア、そして Kinect や Kinect のような空中ジェスチャー インターフェースに既に使用されているか、現在も使用されています。
しかし、Appleはあれこれと新しい事業に飛びつくような企業ではありません。彼らは、主にコンテンツの制作、消費、そして汎用コンピューティングとコミュニケーションといった、ごく限られた範囲の非常に主流の事業に注力しています。
Apple が PrimeSense テクノロジーで実現できる最もクールで強力な機能の 1 つは、新しいインターフェースではなく、Siri がユーザーとユーザーの環境を理解して、より適切なヘルプを提供できる新しい方法です。
PrimeSense 3Dセンサーを使用してSiriに視覚情報を提供できるというアイデアは、マーク・ハックマン氏、シェル・イスラエル氏などによって最近提案されたが、まだ検討されていない。
しかし、PrimeSense のセンサー、特に同社の低電力システムオンチップである Capri ブランドのセンサーの性能を見ると、Apple が Siri を驚くほど強化するために何ができるか、また何をすべきかは容易に想像できる。
Kinect ユーザーなら誰でも、PrimeSense がユーザーに向けられた複数の「カメラ」のようなものを使用していることを知っています。そのため、PrimeSense が人間の 3D 視覚のように機能すると誤って想定する人もいます。
人間は、わずかに異なる2つの視点から同じシーンを映した2つの「ビデオフィード」を脳に送ることで、脳内に3D感覚を作り出します。視覚は、光を検知して電気信号に変換するハードウェアであり、それを理解するウェットウェアでもあります。
PrimeSenseは、「ライトコーディング」という商標を持つ特許技術をベースにしており、同社によれば「サブミリメートル精度の3Dスキャン」を可能にするという。この「ライトコーディング」は、部屋、人、あるいは一連の物体を、人間の視覚範囲外、赤外線に近いが赤外線範囲には入らない光で照らし、その反射光を一般的な市販のCMOSセンサーで検出する。その後、並列計算アルゴリズムが返されたデータを分析し、目に見えるすべての表面がセンサーからどれだけ離れているかを正確に算出し(正確な3D画像を提供)、このデータを色データと統合することで、物体同士の識別能力を高める。しかも、物体だけでなく、PrimeSenseセンサーは床、壁、天井、ドアの違いも判別できる。
PrimeSenseの新製品Capriは、Microsoft Kinectのセンサーを小型化、低価格化、高速化、高解像度化した製品と言えるでしょう。スマートフォンに内蔵しても価格を大幅に上げずに済むほど小型で低価格です。
実際、将来の iPhone や iPad の前面と背面、そして将来の iTV、将来の iMac、MacBook の前面に Capri のようなセンサーが組み込まれることは想像に難くない。その主な目的は、Siri のコンテキスト認識の向上である。
携帯電話を持ち上げて Siri に話しかけると、Siri はあなただけでなくあなたの周囲についても学習できるようになります。
たとえば、PrimeSense テクノロジーにより、Siri は次のことが可能になります。
* 家の中のあなたの位置を把握。iTV、iMac、iPhone、iPadを通してあなたとあなたの周囲を見ることで、Siriはあなたが家の中のどこにいるか、あるいは家にいないかどうかを知ることができます。
* 誰と一緒にいるかを知る。Siriはあなたが一人でいるのか、それとも他の人と一緒にいるのかを認識できます。一人でいる場合は、Siriがあなたに話しかけるかもしれません。レストランにいる場合は、Siriは画面に自分の情報だけを表示するかもしれません。
* あなたの感情を読み取る。あなたの表情をスキャンすることで、Siriはあなたの言葉の理解度を向上させ、その理解度を測ることができるようになります。Siriの将来のバージョンがGoogle Nowのような先読み提案機能を強化した場合(おそらくそうなるでしょう)、Siriは様々な提案があなたを喜ばせているのか、それともイライラさせているのかを学習できるでしょう。
* あなたが何に注意を払っているかを認識する。Siriは、あなたが注意を払っているときに対話し、何か他のことに集中しているときには邪魔をしないようにすることで、より丁寧で敏感になるでしょう。また、あなたが何をしているのか(睡眠中、食事中、イヤホンで音楽を聴いている、運動中など)も把握し、それに応じて対話してくれるようになるでしょう。
* 普段着ている服のサイズを推測してみましょう。正確なサイズがわからなくても、簡単に服を注文できます。
* 成長していくお子様のサイズを把握しましょう。お子様がiMacやテレビの前を歩くたびに、PrimeSenseテクノロジーがお子様を認識し、身長と服のサイズをモニタリングします。いつでもSiriに「ジェイソンの身長は今何センチ?」と尋ねるだけで、身長を測ることができます。
* 物のサイズを教えてくれます。店内の家電製品や家具にスマートフォンを向けると、Siriは(既にすべてのスペースを見て計測しているので)それがあなたの家に収まるかどうかを教えてくれます。
Siri のような仮想アシスタントは、主にコンテキスト部分、つまりユーザーの状況や環境を認識し、それに応じてユーザーを支援する機能の向上により、時間の経過とともに進化していきます。
Siriがあなたとあなたの周囲で何が起こっているかを真に理解するには、周囲を見回し、見たものについて基本的な理解を得る必要があります。PrimeSenseテクノロジーはまさにその点で優れています。
Apple は Siri に本当に優れた視点を与えたのではないかと思う。