JP5976787B2 - レーザー・ダイオード・モード - Google Patents

レーザー・ダイオード・モード Download PDF

Info

Publication number
JP5976787B2
JP5976787B2 JP2014508461A JP2014508461A JP5976787B2 JP 5976787 B2 JP5976787 B2 JP 5976787B2 JP 2014508461 A JP2014508461 A JP 2014508461A JP 2014508461 A JP2014508461 A JP 2014508461A JP 5976787 B2 JP5976787 B2 JP 5976787B2
Authority
JP
Japan
Prior art keywords
laser diodes
computing device
mode
physical
operating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014508461A
Other languages
English (en)
Other versions
JP2014513357A (ja
Inventor
イー,ドーソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014513357A publication Critical patent/JP2014513357A/ja
Application granted granted Critical
Publication of JP5976787B2 publication Critical patent/JP5976787B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Semiconductor Lasers (AREA)
  • Position Input By Displaying (AREA)

Description

[0001] 計算デバイスと対話処理するためにユーザーに入手可能になっているデバイスの量は、更に増えつつある。例えば、計算デバイスとの対話処理は、最初は、テキストを用いて行われていた。したがって、ユーザーは、通例、キーボードを用いてテキストを入力し、計算デバイスによる、同様にテキストの出力を見ていた。
[0002] その後、これらの技法はグラフィカル・ユーザー・インターフェースに拡大され、ユーザーは、マウスのような、カーソル制御デバイスと対話処理することができるようになった。これらの技法は、グラフィカル・ユーザー・インターフェースがユーザーによって行われるジェスチャーを認識して入力を計算デバイスに供給するように構成されたために、拡大し続けた。例えば、物体を選択する、ビデオ・ゲームと対話処理する等のために、ジェスチャーを用いることができる。しかしながら、これらの技法は、当該技法が採用される環境のために、限界に直面する可能性があり、入力を認識する能力を妨げる可能性がある。その結果、これらの限界のために、計算デバイスによってサポートすることができる入力の数およびタイプが限られる可能性がある。
[0003] レーザー・ダイオード・モード技法について記載する。1つ以上の実施態様では、計算デバイスの物理的な周囲の状況の内少なくとも一部に照明を当てるために、計算デバイスの1つ以上のレーザー・ダイオードに、発振閾値(lasing threshold)未満で動作させる。照明が当てられた物理的な周囲の状況の1つ以上の画像を、計算デバイスのカメラによって取り込み、計算デバイスによって表示されるユーザー・インターフェースとの対話処理のために、これらの取り込んだ画像から1つ以上の入力を認識する。
[0004] 1つ以上の実施態様では、計算デバイスによって実現する方法は、1つ以上のレーザー・ダイオードを自発モードで動作させて、インコヒーレント光を用いて計算デバイスの物理的な周囲の状況の内少なくとも一部に照明を当てるステップと、1つ以上のレーザー・ダイオードをコヒーレント・モードで動作させて、コヒーレント光を用いて、1つ以上のレーザー・ダイオードと物理的な周囲の状況における1つ以上の物体との間の距離を判定するために使用可能なパターンを投射するステップとを含む。
[0005] 1つ以上の実施態様では、装置は、カメラと、1つ以上のレーザー・ダイオードと、1つ以上のモデュラス(modulus)とを含む。1つ以上のモデュラスは、第1モードで動作すると、1つ以上のレーザー・ダイオードに発振閾値未満で動作させて、カメラの物理的な周囲の状況の少なくとも一部に照明を当てさせ、照明を当てた物理的な周囲の状況の1つ以上の画像をカメラに取り込ませるように構成されている。また、1つ以上のモデュラスは、第2モードで動作すると、1つ以上のレーザー・ダイオードを発振閾値を越えて動作させて、パターンに配列されたコヒーレント光の出力を発生させ、物理的な周囲の状況において1つ以上の物体の深度を判定するために、物理的な周囲の状況におけるコヒーレント光のパターンの少なくとも1つの画像をカメラに取り込ませるように構成されている。
[0006] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを簡略化された形式で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判断する際に、補助として用いられることを意図するのでもない。
[0007] 添付図面を参照して、詳細な説明を記載する。図では、参照番号の内一番左側にある数字(1つまたは複数)が、その参照番号が最初に現れる図を特定する。同じ参照番号が説明および図において異なる場合に用いられるときは、同様の項目または同一の項目を示すことがある。
図1は、本明細書において説明するレーザー・ダイオード・モードを採用するために動作可能な一実施態様例における環境の図である。 図2は、複数のモードでレーザー・ダイオードを動作させるように構成したときの、図1のレーザー・モード・モジュールを更に詳細に示すシステム例を例示する。 図3は、照明またはコヒーレント光を供給するためにレーザー・ダイオードを異なるモードで動作させる一実施態様例における手順を示す流れ図である。 図4は、レーザー・ダイオードを発振閾値未満で動作させることによって照明を当てた物理的環境を取り込んだ画像から入力を認識する一実施態様例における手順を示す流れ図である。 図5は、図1を参照して説明した計算デバイスの種々の構成を示すシステム例を示す。 図6は、本明細書において説明するレーザー・ダイオード・モード技法の実施形態を実現するために、図1、図2、および図5を参照して説明する、いずれのタイプの携帯デバイスおよび/または計算デバイスとしても実現することができるデバイス例の種々のコンポーネントを示す。
全体像
[0014] 計算デバイスと対話処理するために利用することができる入力技法は、通例キーボードを用いて実施するテキスト入力技法から、カメラを用いて取り込むことができるジェスチャーまで発展した。例えば、カメラはユーザーの向きまたは1つ以上の身体部分を検出し、検出した向きからジェスチャーを認識することができる。次いで、このジェスチャーは、計算デバイスによって出力されるユーザー・インターフェースと対話処理するために用いることができる。
[0015] しかしながら、計算デバイスが用いられる環境は、十分な照明がある環境(例えば、事務所)からユーザーが自宅でビデオ・ゲームをプレーしているときに典型的に用いられるような、比較的暗い環境まで大きく異なる可能性がある。したがって、これらの環境は大きく異なる可能性があるので、これらの環境の各々においてジェスチャーを認識するカメラを価格効率的に構成することは困難な場合もあり得る。
[0016] しかしながら、本明細書では、カメラが画像を取り込み、この画像からジェスチャーを認識することを可能にするために、環境に照明を当てるときに用いることができる技法について説明する。例えば、この技術は、1つ以上のレーザー・ダイオードを利用して、これらのレーザー・ダイオードが発光ダイオード(LED)として動作するように、発振閾値未満でこれらのダイオードを動作させることができる。加えて、人間の目には見えないように(例えば、近赤外線波長で)この光を設定することによって、物理的環境における光の侵入を最小限に抑えることができる。次いで、カメラは、この光を用いて照明が当てられた画像を取り込むことができ、これによって画像を用いてジェスチャーおよび他の物体を認識する能力を高める。
[0017] 更に、これらの技法は、計算デバイスによって他の目的にも採用されてもよいレーザー・ダイオードを利用することができる。例えば、計算デバイスは、あるパターンのコヒーレント(例えば、レーザー)光を物理的環境に投射するように構成されているレーザー・ダイオードを含むことができる。次いで、このパターンは、カメラまたは他のセンサーによってパターンの画像を取り込むことによって、物理的環境における物体の深度を判定するために用いることができる。この例では、レーザー・ダイオードは、発振閾値を超えて動作することによって深度検知モードで動作し、発振閾値未満で動作することによって照明モードで動作するために、複数のモードをサポートするように構成することができる。このように、レーザー・ダイオードを多数の目的に合わせて用いることができ、これによって計算デバイスのコストを節約することができる。レーザー・ダイオード・モードについてのこれ以上の論述は、以下の章に関連して見いだすことができる。
[0018] 以下の論述では、最初に、本明細書において説明するレーザー・ダイオード・モード技法を採用するために動作可能な環境例について説明する。次いで、本技法および手順の図示例について説明する。これらは、前述の環境例だけでなく他の環境においても採用することができる。したがって、この環境例は、本技法および手順例を実行することに限定されるのではない。同様に、本技法および手順例は、本環境例における実施に限定されるのでもない。
環境例
[0019] 図1は、レーザー・モード技法を採用するために動作可能な一実施態様例における環境100の図である。図示の環境100は、種々の方法で構成することができる計算デバイス102の一例を含む。例えば、計算デバイス102は、以下で図5と関連付けて更に説明するように、従前からのコンピューター(例えば、デスクトップ・パーソナル・コンピューター、ラップトップ・コンピューター等)、移動局、娯楽機器、図示のようにディスプレイ・デバイス104(例えば、テレビジョン)に通信状態で結合されているゲーム・コンソールとして構成することができ、ディスプレイ・デバイス(例えば、テレビジョン)、ワイヤレス・フォン、タブレット、ネットブック等の一部として構成することができる。このように、計算デバイス102は、大量のメモリーおよびプロセッサー・リソースを有するリソース充実デバイス(例えば、パーソナル・コンピューター、ゲーム・コンソール)から、メモリーおよび/または処理リソースが限られている低リソース・デバイス(例えば、従前からのセット・トップ・ボックス、ハンド・ヘルド・ゲーム・コンソール)までの範囲に及ぶことができる。また、計算デバイス102は、計算デバイス102に1つ以上の動作を実行させるソフトウェアにも関係することができる。
[0020] 計算デバイス102は、入力/出力モジュール106も含むように示されている。入力/出力モジュール106は、入力の認識および/または計算デバイス102による出力の供給に関する機能を表す。例えば、入力/出力モジュール106は、キーボード、マウスから入力を受け、ジェスチャーを特定し、このジェスチャーに対応する動作を実行させる等を行うように構成することができる。入力は、入力/出力モジュール106によって種々の異なる方法で検出することができる。
[0021] 入力/出力モジュール106は、図示のように、コントローラー108のようなハードウェア・デバイスとの接触相互作用を通じて、1つ以上の入力を受け取るように構成することができる。接触相互作用は、ボタンを押すこと、ジョイスティックを動かすこと、トラック・パッドを横切る移動、ディスプレイ・デバイス104のタッチ・スクリーンの使用(例えば、ユーザーの手の指またはスタイラスの検出)等を伴うことができる。接触入力の認識は、計算デバイス102によって出力されるユーザー・インターフェースと対話処理するために利用することができる。ゲーム、アプリケーションと対話処理する、インターネットをブラウズする、計算デバイス102の1つ以上の設定を変更する等のために、入力/出力モジュール106によって利用することができる。また、デバイスとの接触相互作用を伴う種々の他のハードウェア・デバイスも考えられる。このようなハードウェア・デバイスの例には、カーソル制御デバイス(例えば、マウス)、リモコン(例えば、テレビジョンのリモコン)、移動体通信デバイス(例えば、コンピューター・デバイス102の1つ以上の動作を制御するように構成されているワイヤレス・フォン)、およびその一部のユーザーまたは物体との接触を伴う他のデバイスが含まれる。
[0022] また、入力/出力モジュール106は、自然ユーザー・インターフェース(NUI)を設けるように構成することもできる。自然ユーザー・インターフェース(NUI)は、接触を伴わなくてもよい相互作用を認識することができる。例えば、計算デバイス102はNUI入力デバイス110を含むこともできる。NUI入力デバイス110は、ユーザーに特定のデバイスに接触させることなく、マイクロフォンの使用によるオーディオ入力の認識というように、入力を検出するように種々の方法で構成することができる。例えば、入力/出力モジュール106は、特定の発声(例えば、発話されたコマンド)を認識するために音声認識を実行するように、そしてその発声を行った特定のユーザーを認識するように構成することができる。
[0023] 他の例では、NUI入力デバイス110は、ジェスチャー、提示された物体、画像等を、カメラの使用によって認識するように構成することができる。カメラは、多数のレンズを含み、例えば、異なる視界を取り込み、そのようにして深度を判定することができるように構成することができる。例えば、異なる視界は、NUI入力デバイス110からの相対的な距離を判定し、こうして相対的な距離の変化を判定することができる。異なる視界は、計算デバイス102によって深度認知として利用することができる。また、画像も、入力/出力モジュール106によって、特定のユーザー(例えば、顔認識によって)、物体等を識別するための技法というような、種々の他の機能を設けるために利用することができる。
[0024] 入力/出力モジュール106は、NUI入力デバイス110を利用して、人間の身体の特定点(例えば、48カ所の骨格点)の特徴抽出と共に、骨格マッピングを実行して、1人以上のユーザーを追跡し(例えば、同時に4人のユーザー)動き分析を実行することができる。例えば、NUI入力デバイス110は、画像を取り込むことができ、この画像を入力/出力モジュール106によって分析して、ユーザーが行った1つ以上の動き(motion)を認識することができる。この認識には、どの身体部分が動きを行うために用いられたか、およびどのユーザーがその動きを行ったのかが含まれる。ユーザーの手112の1本以上の指の位置付けおよび移動の認識、および/またはユーザーの手112の全体としての移動の認識を通じて、一例を示す。これらの動きは、入力/出力モジュール106によってジェスチャーとして特定され、対応する動作を開始することができる。
[0025] 1種類の入力(例えば、動きジェスチャー(motion gesture))から認識されるジェスチャー、および多種類の入力を伴うジェスチャー、例えば、動きジェスチャーおよびスタイラスのような物体を用いて行われる物体ジェスチャーというような、多数の異なる種類のジェスチャーを認識することができる。このように、入力/出力モジュール106は、入力間の分割を認識し利用することによって、種々の異なるジェスチャー技法をサポートすることができる。尚、自然ユーザー・インターフェース(NUI)における入力間で差別化することによって、これらの入力の各々のみによって可能になるジェスチャーの数も増えることは、注記してしかるべきである。例えば、移動(movements)が同じであっても、異なる種類の入力を用いると、異なるジェスチャー(または類似するコマンドに対する異なるパラメータ)を含めることもできる。このように、入力/出力モジュール106は、接触を伴わない種々のユーザー相互作用をサポートする自然ユーザー・インターフェースを設けることができる。
[0026] したがって、以下の論述では入力の具体的な例について説明するが、場合によっては、本願の主旨および範囲から逸脱することなく、異なる種類の入力も用いることができる。更に、以下の論述における実例では、ジェスチャーはNUIを用いて入力されるように示されるが、タブレット・コンピューターのタッチ・スクリーン機能を採用するというように、種々の異なるデバイスによって種々の異なる技法を用いて、ジェスチャーを入力することもできる。
[0027] 更に、計算デバイス102は、レーザー・モード・モジュール114を含むように示されている。レーザー・モード・モジュール114は、レーザー・ダイオード116を動作させる機能を表す。例えば、レーザー・ダイオード116は、NUI入力デバイス110によって、コヒーレント光を用いてパターンを投射するために用いることができる。次いで、このパターン110は、入力/出力モジュール106によって、計算デバイス102が存在する物理的環境において深度を検知するために用いることができる。例えば、深度検知は、ジェスチャー、部屋における物体の位置等を判定するために用いることができる。
[0028] レーザー・モード・モジュール106は、レーザー・ダイオード116を発振閾値未満で動作させることによって、照明の目的でレーザー・ダイオード116を動作させることもできる。照明は、画像の取り込みにおいて役立てるために用いることができ、この画像は、ジェスチャー、物体等を識別するために、入力/出力モジュール106によって用いることができると、更に好ましい。これについての更なる論述は、図2に関連して見いだすことができる。
[0029] 一般に、本明細書において説明する機能はいずれも、ソフトウェア、ファームウェア、ハードウェア(例えば、固定論理回路)、またはこれらの実施態様の組み合わせを用いて実現することができる。「モジュール」、「機能」、および「ロジック」という用語は、本明細書において用いられる場合、一般に、ソフトウェア、ファームウェア、ハードウェア、またはその組み合わせを表す。ソフトウェア実施態様の場合、モジュール、機能、またはロジックは、プロセッサー(例えば、1つまたは複数のCPU)上で実行されたときに、指定されたタスクを実行するプログラム・コードを表す。プログラム・コードは、1つ以上のコンピューター読み取り可能メモリー・デバイスに格納することができる。本明細書において説明するレーザー・モード技法の特徴は、プラットフォームに依存しないということであり、これが意味するのは、種々のプロセッサーを有する種々の商用計算プラットフォーム上で実現できるということである。
[0030] 例えば、計算デバイス102は、計算デバイス102のハードウェアに動作を実行させるエンティティ(例えば、ソフトウェア)、例えば、プロセッサー、機能ブロック等も含むことができる。例えば、計算デバイス102は、当該計算デバイス、更に特定すると計算デバイス102のハードウェアに動作を実行させる命令を維持するように構成することができるコンピューター読み取り可能媒体を含むことができる。つまり、命令は、動作を実行するためのハードウェアを構成するように機能し、このようにして、機能を実行するようにハードウェアの変換を行う。命令は、コンピューター読み取り可能媒体によって、種々の異なる構成を通じて計算デバイス102に供給することができる。
[0031] コンピューター読み取り可能媒体のこのような一構成は、信号支持媒体であり、したがって、ネットワークを通じてというようにして、計算デバイスのハードウェアに命令を送信する(例えば、搬送波として)ように構成されている。また、コンピューター読み取り可能媒体は、コンピューター読み取り可能記憶媒体として構成することもでき、したがって信号支持媒体ではない。コンピューター読み取り可能記憶媒体の例には、ランダム・アクセス・メモリー(RAM)、リード・オンリー・メモリー(ROM)、光ディスク、フラッシュ・メモリー、ハード・ディスク・メモリー、ならびに命令およびその他のデーターを格納するために磁気、光、またはその他の技法を用いることができる他のメモリー・デバイスが含まれる。
[0032] 図2は、図1のレーザー・モード・モジュール114を更に詳細に示す一実施態様例におけるシステム200を示す。この例における計算デバイス102は、図1に関連付けて説明した、レーザー・モード・モジュール114およびレーザー・ダイオード116、ならびにカメラ202を含む。
[0033] レーザー・モード・モジュール114は、レーザー・ダイオード116の制御のために、コヒーレント・モード204および自発モード206をサポートするように示されている。コヒーレント・モード204では、レーザー・モード・モジュール114はレーザー・ダイオード116を発振閾値を超えて動作させるように構成されている。これによって、レーザー・ダイオード116にコヒーレント光を出力させる。このコヒーレント光は、計算デバイス102を取り巻く物理的環境にパターン(例えば、一連のドットで形成された格子)を投射するというような、種々の目的に用いることができる。このパターンは、物理的環境に含まれる物体の深度を検知するため、例えば、レーザー・ダイオード116と物体との間の距離を判定するために、計算デバイス102によって用いることができる。
[0034] 自発モード206では、レーザー・モード・モジュール114は、レーザー・ダイオード116を発振閾値未満で動作させる。これによって、レーザー・ダイオード116によってインコヒーレント光を出力させる。つまり、このモードでは、レーザー・ダイオード116は、発光ダイオード116として機能し、計算デバイス102の物理的な周囲の状況の少なくとも一部に照明を当てるために用いることができる光を出力する。また、この光は種々の目的に用いることもできる。例えば、自発モード206では、レーザー・ダイオード116に、人の目には見えない光(例えば、近赤外線光)を物理的環境に出力させることができる。カメラ202は、この例では、レーザー・ダイオード116によって出力される波長に対応する波長、例えば、人の目には見えない光で、画像を取り込むように構成することができる。このように、計算デバイス102の物理的な周囲の状況は、レーザー・ダイオード116によって出力される照明が作用しているようには見えず、したがって、環境は比較的暗いままに見えるかもしれないが、それでもカメラ202は、ジェスチャー、物理的な周囲の状況における物体等を認識するのに適した画像を取り込むことが可能である。
[0035] このように、これらの技法は、構造化光深度カメラ・システムを利用することができ、この構造化光深度カメラ・システムは、コヒーレント(例えば、レーザー)光を用いて、既知の基準パターンを物理的な周囲の状況に投射し、更に画像を取り込むために周囲の状況に照明を当てる。例えば、レーザー・モード・モジュール114は、追加のレーザー・ダイオード、即ち、補助照明が計算デバイス102によって用いられないように、周波数に基づいて前述のモード間で切り替えることができる。レーザー・モード・モジュール114は、レーザー・ダイオード116に供給される動作電流を変化させることによってというようにして、種々の方法で、レーザー・ダイオード116のコヒーレント・モード204および自発モード206を生じさせることができる。種々の他の例も考えられ、それについてのこれ以上の論述は、以下の手順に関連して見いだすことができる。
手順例
[0036] 以下の論述では、先に説明したシステムおよびデバイスを利用して実現することができるレーザー・モード技法について説明する。これらの手順の各々の態様は、ハードウェア、ファームウェア、ソフトウェア、またはその組み合わせで実現することができる。これらの手順は、1組のブロックとして示され、これらのブロックは、1つ以上のデバイスによって実行される動作を指定し、それぞれのブロックによって動作を実行するために示す順序には必ずしも限定されない。以下の論述の一部では、図1の環境100および図2のシステム200を参照する。
[0037] 図3は、レーザー・ダイオードを異なるモードで動作させて照明またはコヒーレント光を供給する一実施態様例における手順300を示す。1つ以上のレーザー・ダイオードを自発モードで動作させて、インコヒーレント光を用いて計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てる(ブロック302)。例えば、レーザー・モード・モジュール114は、動作電流をレーザー・ダイオード116に供給させることができ、レーザー・ダイオード116を発振閾値未満で動作させる。したがって、レーザー・ダイオード116は発光ダイオード(LED)として動作する。このモードで動作するとき、レーザー・ダイオード116は、可視光、人の目には見えない光(例えば、近赤外線光等)を含む、種々の波長で光を出力することができる。
[0038] また、1つ以上のレーザー・ダイオードをコヒーレント・モードで動作させて、コヒーレント光を用いたパターンを物理的な周囲の状況に投射する。このパターンは、1つ以上のレーザー・ダイオードと物理的な周囲の状況における1つ以上の物体との間の距離を判定するために使用可能である(ブロック304)。直前の例を続けると、レーザー・モード・モジュール114は、動作電流をレーザー・ダイオード116に供給することができる。この電流は、レーザー・ダイオード116を発振閾値を超えて動作させるのに十分である。これによって、レーザー・ダイオード116にコヒーレント光を出力させ、先に説明したように種々の目的にこのコヒーレント光を用いることができる。
[0039] 例えば、コヒーレント光は、基準パターンを投射するために用いることができる。基準パターンは、計算デバイス102から物理的な周囲の状況の種々の部分の深度を検出するために用いることができる。入力/出力モジュール106は、カメラ202が取り込んだ基準パターンの画像を調べ、基準パターンの歪み、例えば、パターンの種々の部分の広がりによって、物理的環境の種々の部分の深度を判定することができる。このように、レーザー・ダイオード116は多数の目的に用いることができ、これによって計算デバイス102の製造および使用におけるコストを節約する。種々の他の例も考えられ、これらについてのこれ以上の論述は、以下の図に関連して見いだすことができる。
[0040] 図4は、レーザー・ダイオードを発振閾値未満で動作させることによって照明を当てた物理的環境の取り込み画像から入力を認識する一実施態様例における手順400を示す。計算デバイスの1つ以上のレーザー・ダイオードを発振閾値未満で動作させて、計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てる(ブロック402)。以前と同様、レーザー・モード・モジュール114は、レーザー・ダイオード116を発光ダイオードとして機能させて、人の目には見えない近赤外線の出力によってというようにして、周囲の状況に照明を当てることができる。
[0041] 照明を当てられた物理的な周囲の状況の1つ以上の画像を、計算デバイスのカメラによって取り込む(ブロック404)。カメラ202は、例えば、自発モード206で動作しているときのレーザー・ダイオード116によって出力される放射光線の波長に対応する放射光線の波長の画像を取り込むように構成することができる。
[0042] 取り込んだ1つ以上の画像から、計算デバイスによって表示されたユーザー・インターフェースとの対話処理のための1つ以上の入力を認識する(ブロック406)。入力/出力モジュール106は、画像を処理して、この画像からジェスチャーを認識することができる。例えば、ジェスチャーは、ユーザーの身体の1つ以上の部分の向き、1つ以上の物体、物体の移動(movement)等を伴うことがある。次いで、認識したジェスチャーを用いて、ディスプレイ・デバイスによる表示のために計算デバイス102によって出力されたユーザー・インターフェースとの対話処理を伴う動作というような、動作を計算デバイス102に実行させる。
[0043] 計算デバイスの1つ以上のレーザー・ダイオードを発振閾値を超えて動作させる(ブロック408)。以前と同様、この動作によって、レーザー・ダイオード116にコヒーレント光を出力させることができる。コヒーレント光は、種々の目的に用いることができる。例えば、カメラによって取り込んだ少なくとも1つの画像によって、物理的な周囲の状況における1つ以上の物体の深度を判定することができる(ブロック410)。前述のように、種々の他の例も考えられる。
システムおよびデバイス例
[0044] 図5は、図1を参照して説明したような計算デバイス102を含むシステム例500を示す。システム例500は、パーソナル・コンピューター(PC)、テレビジョン・デバイス、および/または移動体デバイス上でアプリケーションを実行しているときに、シームレスなユーザー体験を得るための遍在環境(ubiquitous environment)を可能にする。サービスおよびアプリケーションは、アプリケーションを利用しながらデバイス間で移り変わるとき、ビデオ・ゲームをプレーするとき、ビデオを視聴するとき等に、共通のユーザー体験に合わせて、3つの環境の全てにおいて実質的に同様に実行する。
[0045] システム例500では、多数のデバイスが中央計算デバイスを介して相互接続されている。中央計算デバイスは、多数のデバイスに対してローカルであってもよく、または多数のデバイスから離れて位置付けられてもよい。一実施形態では、中央計算デバイスは、ネットワーク、インターネット、または他のデーター通信リンクを通じて多数のデバイスに接続されている1つ以上のサーバ・コンピューターのクラウドであってもよい。一実施形態では、この相互接続アーキテクチャーは、多数のデバイスに跨がって機能を配給し、多数のデバイスのユーザーに、共通でシームレスな体験を提供する。多数のデバイスの各々は、異なる物理的要件および能力を有してもよく、中央計算デバイスは、デバイスに対する体験の配信を可能にするプラットフォームを用いる。この体験は、当該デバイスに合わせて個別に作られしかも全てのデバイスに共通である。一実施形態では、目標デバイスという部類を作成し、この包括的なデバイスの部類に合わせて体験を個別に作り出す。物理的特徴、使用の種類、またはデバイスの他の共通特性によって、デバイスの部類を定義することもできる。
[0046] 種々の実施態様では、計算デバイス102は、コンピューター502、移動体504、およびテレビジョン506の使用のためというように、種々の異なる構成を想定することができる。これらの構成の各々は、総じて異なる構造および能力を有するかもしれないデバイスを含み、このため、計算デバイス102は、異なるデバイスの部類の1つ以上にしたがって構成することができる。例えば、計算デバイス102は、パーソナル・コンピューター、デスクトップ・コンピューター、マルチスクリーン・コンピューター、ラップトップ・コンピューター、ネットブック等を含む、コンピューター502というデバイスの部類として実現することができる。
[0047] また、計算デバイス102は、移動体電話機、携帯用音楽プレーヤー、携帯用ゲーミング・デバイス、タブレット・コンピューター、マルチスクリーン・コンピューター等のような移動体デバイスを含む、移動体502というデバイスの部類として実現することもできる。また、計算デバイス102は、日常の視聴環境において通常もっと大きな画面を有するまたは接続されているデバイスを含む、テレビジョン506というデバイスの部類として実現することもできる。これらのデバイスには、テレビジョン、セット・トップ・ボックス、ゲーミング・コンソール等が含まれる。本明細書において説明した技法は、これら種々の構成の計算デバイス102によってサポートすることができ、本明細書において説明した技法の具体的な例に限定されるのではない。
[0048] クラウド508は、コンテンツ・サービス512のためのプラットフォーム510を含む、および/またはプラットフォーム510を表す。プラットフォーム510は、クラウド508のハードウェア(例えば、サーバ)およびソフトウェア・リソースの基礎機能を抽象化したものである。コンテンツ・サービス512は、計算デバイス102から離れているサーバ上でコンピューター処理が実行されている間に利用することができるアプリケーションおよび/またはデーターを含むことができる。コンテンツ・サービス512は、インターネットを通じて、および/またはセルラまたはWi−Fiネットワークのような加入者ネットワークを通じてサービスとして提供することができる。
[0049] プラットフォーム510は、計算デバイス102を他の計算デバイスに接続するリソースおよび機能を抽象化することができる。また、プラットフォーム510は、プラットフォーム510を通じて実現されるコンテンツ・サービス512に対して出された要求(encountered demand)に合わせて、対応する程度の規模を提供するために、リソースの規模調整(scaling)を抽象化するように機能することもできる。したがって、相互接続されたデバイスの実施形態では、本明細書において説明した機能の実現は、システム500全体に分散させることができる。例えば、機能は部分的に計算デバイス102上において実現することができ、更にクラウド508の機能を抽象化するプラットフォーム510を通じて実現することもできる。
[0050] 図6は、本明細書において説明した技法の実施形態を実現するために、図1、図2、および図5を参照して説明した計算デバイスの内いずれの形式としても実現することができるデバイス例600の種々のコンポーネントを示す。デバイス600は、通信デバイス602を含む。通信デバイス602は、デバイス・データー604(例えば、受信データー、受信しているデーター、ブロードキャストの予定があるデーター、データーのデーター・パケット等)の有線通信および/またはワイヤレス通信を可能にする。デバイス・データー604または他のデバイス・コンテンツは、デバイスの構成設定値、デバイスに格納されているメディア・コンテンツ、および/またはデバイスのユーザーに関連がある情報を含むことができる。デバイス600に格納されているメディア・コンテンツは、いずれのタイプのオーディオ、ビデオ、および/または画像データーでも含むことができる。デバイス600は、1つ以上のデーター入力606を含む、データー入力606を介して、ユーザー選択可能な入力、メッセージ、音楽、テレビジョン・メディア・コンテンツ、記録されているビデオ・コンテンツ、ならびにあらゆるコンテンツおよび/またはデーター・ソースからの他のあらゆるタイプのオーディオ、ビデオ、および/または画像データーというような、あらゆるタイプのデーター、メディア・コンテンツ、および/または入力を受け取ることができる。
[0051] また、デバイス600は、通信インターフェース608も含む。通信インターフェース608は、シリアルおよび/またはパラレル・インターフェース、ワイヤレス・インターフェース、あらゆるタイプのネットワーク・インターフェース、モデムのいずれか1つ以上として、そしてあらゆる他のタイプの通信インターフェースとして実現することができる。通信インターフェース608は、デバイス600と通信ネットワークとの間に接続および/または通信リンクを設け、これを介して、他の電子デバイス、計算デバイス、および通信デバイスがデーターをデバイス600と通信する。
[0052] デバイス600は、1つ以上のプロセッサー610(例えば、マイクロプロセッサー、コントローラー等のいずれか)を含む。プロセッサー610は、種々のコンピューター実行可能命令を処理して、デバイス600の動作を制御し、更に本明細書において説明した技法の実施形態を実現する。代わりにまたは加えて、デバイス600には、全体的に612で識別される処理および制御回路と関連付けて実装されるハードウェア、ファームウェア、または固定論理回路の内いずれか1つまたはその組み合わせを実装することもできる。図示しないが、デバイス600は、当該デバイス内にある種々のコンポーネントを結合するシステム・バスまたはデーター転送システムを含むことができる。システム・バスは、メモリー・バスまたはメモリー・コントローラー、周辺バス、ユニバーサル・シリアル・バス、および/または種々のバス・アーキテクチャーのいずれかを利用するプロセッサーまたはローカル・バスというような、異なるバス構造の内いずれか1つまたはその組み合わせを含むことができる。
[0053] また、デバイス600は、1つ以上のメモリー・コンポーネントというような、コンピューター読み取り可能媒体614も含む。その例には、ランダム・アクセス・メモリー(RAM)、不揮発性メモリー(例えば、リード・オンリー・メモリー(ROM)、フラッシュ・メモリー、EPROM、EEPROM等の内いずれか1つ以上)、およびディスク記憶デバイスが含まれる。ディスク記憶デバイスは、ハード・ディスク・ドライブ、記録可能および/または書き換え可能コンパクト・ディスク(CD)、いずれかのタイプのディジタル・バーサタイル・ディスク(DVD)等のような、いずれかのタイプの磁気または光学記憶デバイスとして実現することができる。また、デバイス600は、大容量記憶媒体デバイス616も含むことができる。
[0054] コンピューター読み取り可能媒体614は、デバイス・データー604、ならびに種々のデバイス・アプリケーション618およびデバイス600の動作態様に関係する他のあらゆるタイプの情報および/またはデーターを格納するデーター記憶メカニズムを設ける。例えば、オペレーティング・システム620は、コンピューター読み取り可能媒体614を用いてコンピューター・アプリケーションとして維持し、プロセッサー610上で実行することができる。デバイス・アプリケーション618は、デバイス・マネージャーを含むことができる(例えば、制御アプリケーション、ソフトウェア・アプリケーション、信号処理および制御モジュール、特定のデバイスに対してネーティブなコード、特定のデバイスに対するハードウェア抽象レイヤー等)。また、デバイス・アプリケーション618は、本明細書において説明したジェスチャー技法の実施形態を実現するためには、いずれのシステム・コンポーネントまたはモジュールでも含む。この例では、デバイス・アプリケーション618は、インターフェース・アプリケーション622および入力/出力モジュール624(入力/出力モジュール114と同じでも異なっていてもよい)を含む。これらは、ソフトウェア・モジュールおよび/またはコンピューター・アプリケーションとして示されている。入力/出力モジュール624は、タッチ・スクリーン、トラック・パッド、カメラ、マイクロフォン等のような、入力を取り込むように構成されているデバイスとのインターフェースを設けるために用いられるソフトウェアを表す。代わりにまたは加えて、インターフェース・アプリケーション622および入力/出力モジュール624は、ハードウェア、ソフトウェア、ファームウェア、またはそのいずれかの組み合わせとして実現することもできる。加えて、入力/出力モジュール624は、それぞれ、視覚入力および聴覚入力を取り込むための別個のデバイスのような、多数の入力デバイスをサポートするように構成することもできる。
[0055] また、デバイス600は、オーディオおよび/またはビデオ入力/出力システム626も含む。ビデオ入力/出力システム626は、オーディオ・データーをオーディオ・システム628に供給し、ビデオ・データーをディスプレイ・システム630に供給する。オーディオ・システム628および/またはディスプレイ・システム630は、オーディオ、ビデオ、および画像データーを処理する、表示する、および/またはそれ以外でレンダリングするデバイスであればいずれでも含む。ビデオ信号およびオーディオ信号は、デバイス600からオーディオ・デバイスおよび/またはディスプレイ・デバイスに、RF(無線周波)リンク、S−ビデオ・リンク、複合ビデオ・リンク、コンポーネント・ビデオ・リンク、DVI(ディジタル・ビデオ・インターフェース)、アナログ・オーディオ接続、またはその他の同様の通信リンクを介して伝達することができる。一実施形態では、オーディオ・システム628および/またはディスプレイ・システム630は、デバイス600に対して外部コンポーネントとして実装される。あるいは、オーディオ・システム628および/またはディスプレイ・システム630は、デバイス例600の一体化コンポーネントとして実装される。
結論
[0056] 以上、構造的特徴および/または方法論的動作に特定的な文言で本発明について説明したが、添付した特許請求の範囲において定義されている発明は、これらの説明した具体的な特徴や動作には必ずしも限定されないことは、理解されてしかるべきである。逆に、これらの具体的な特徴および動作は、特許請求する発明を実現する形態例として開示したまでである。

Claims (19)

  1. 計算デバイスの1つ以上のレーザー・ダイオードに、前記計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てるために、発振閾値未満で動作させるステップと、
    前記計算デバイスのカメラによって、前記照明を当てた物理的な周囲の状況の1つ以上の画像を取り込むステップと、
    前記取り込んだ1つ以上の画像から、前記計算デバイスによって表示されるユーザー・インターフェースとの対話処理のための1つ以上の入力を認識するステップと、
    前記計算デバイスの前記1つ以上のレーザー・ダイオードに、前記発振閾値を超えて動作させることによって、前記1つ以上のレーザー・ダイオードに、前記物理的な周囲の状況にパターンを投射するために、コヒーレント光を出力させるステップと、
    を備えている、方法。
  2. 請求項1記載の方法において、前記動作させるステップが、前記1つ以上のレーザー・ダイオードに、それぞれ、1つ以上の発光ダイオードとして動作させる、方法。
  3. 請求項1又は2に記載の方法において、前記1つ以上のレーザー・ダイオードに前記発振閾値未満で動作させるステップが、前記1つ以上のレーザー・ダイオードによって、人の目によって見えない照明を供給させる、方法。
  4. 請求項1〜3のいずれか一項に記載の方法において、前記1つ以上のレーザー・ダイオードに前記発振閾値未満で動作させるステップが、前記1つ以上のレーザー・ダイオードに、近赤外線照明を供給させる、方法。
  5. 請求項1〜4のいずれか一項に記載の方法において、前記1つ以上の入力を認識するステップが、前記計算デバイスの前記物理的な周囲の状況に対して行われた変化を特定するステップを含む、方法。
  6. 請求項1〜5のいずれか一項に記載の方法において、前記1つ以上の入力を認識するステップが、人間の身体の1つ以上の部分を用いて行われるジェスチャーを識別するステップを含む、方法。
  7. 請求項1〜6のいずれか一項に記載の方法において、前記物理的な周囲に含まれる物体の深度を検知するために、前記パターンは用いられる、方法。
  8. 請求項1〜6のいずれか一項に記載の方法において、前記照明を当てた物理的な周囲の状況の1つ以上の画像を取り込むステップが、深度撮像のために行われるのではない、方法。
  9. 計算デバイスによって実施される方法であって、
    インコヒーレント光を用いて前記計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てるために、1つ以上のレーザー・ダイオードを自発モードで動作させるステップと、
    前記1つ以上のレーザー・ダイオードと前記物理的な周囲の状況における1つ以上の物体との間の距離を判定するために使用可能なパターンを、コヒーレント光を用いて投射するために、1つ以上のレーザー・ダイオードをコヒーレント・モードで動作させるステップと、
    を備えている、方法。
  10. 請求項9に記載の方法において、前記インコヒーレント光を用いて前記計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てるために、1つ以上のレーザー・ダイオードを自発モードで動作させるステップは、前記1つ以上のレーザー・ダイオードを発光ダイオードとして動作させる、方法。
  11. 請求項9又は10に記載の方法において、
    前記インコヒーレント光を用いて前記計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てるために、1つ以上のレーザー・ダイオードを自発モードで動作させるステップは、前記1つ以上のレーザー・ダイオードを発振閾値未満で動作させ、
    前記1つ以上のレーザー・ダイオードと前記物理的な周囲の状況における1つ以上の物体との間の距離を判定するために使用可能なパターンを、コヒーレント光を用いて投射するために、1つ以上のレーザー・ダイオードをコヒーレント・モードで動作させるステップは、前記1つ以上のレーザー・ダイオードを前記発振閾値を超えて動作させる、
    方法。
  12. 請求項9〜11のいずれか一項に記載の方法において、
    前記インコヒーレント光を用いて前記計算デバイスの物理的な周囲の状況の少なくとも一部に照明を当てるために、1つ以上のレーザー・ダイオードを自発モードで動作させるステップは、前記1つ以上のレーザー・ダイオードによって、人の目によって見えない照明を供給する、方法。
  13. 請求項1〜12のいずれか一項に記載の方法を実行するためのプログラム。
  14. 請求項1〜12のいずれか一項に記載の方法を実行するためのプログラムを記録した記録媒体。
  15. 1つ以上のレーザー・ダイオードと、
    カメラと、
    1つ以上のモジュールであって、
    第1のモードにおいて、
    前記1つ以上のレーザー・ダイオードを発振閾値未満で動作させ、前記カメラの物理的な周囲の少なくとも一部に照明を当てるステップと、
    前記カメラによって、前記照明を当てた物理的な周囲の状況の1つ以上の画像を取り込むステップと、
    を実行し、
    第2のモードにおいて、
    前記1つ以上のレーザー・ダイオードを前記発振閾値を超えて動作させ前記物理的な周囲の状況にパターンを投射するために、コヒーレント光を出力させるステップと、
    前記物理的な周囲に含まれる物体の深度を検知するために、前記カメラによって、前記照明を当てた物理的な周囲の状況の中のコヒーレント光によるパターンの1つ以上の画像を取り込むステップと、
    を実行するモジュールと、
    を含む装置。
  16. 請求項15に記載の装置であって、前記1つ以上のモジュールが、前記第1のモードにおいて、前記カメラによって取り込んだ画像は、人間の身体の1つ以上の部分を用いて行われるジェスチャーを識別し、前記装置が表示するユーザー・インターフェースとの対話に用いられることを特徴とする、装置。
  17. 請求項15又は16に記載の装置であって、前記1つ以上のレーザー・ダイオードを発振閾値未満で動作させ、前記カメラの物理的な周囲の少なくとも一部に照明を当てるステップは、前記1つ以上のレーザー・ダイオードによって、人の目によって見えない照明を供給する、装置。
  18. 請求項15〜17のいずれか一項に記載の装置であって、前記第1のモードは、深度撮像のために行われるのではない、装置。
  19. 請求項15〜18のいずれか一項に記載の装置であって、前記装置はゲーム・コンソールの一部であり、前記1つ以上のモジュールが、前記第1のモードと前記第2のモードを用いてユーザが対話をすることができるようなゲームを出力するものである、装置。
JP2014508461A 2011-04-25 2012-04-23 レーザー・ダイオード・モード Expired - Fee Related JP5976787B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/093,621 US8620113B2 (en) 2011-04-25 2011-04-25 Laser diode modes
US13/093,621 2011-04-25
PCT/US2012/034641 WO2012148844A2 (en) 2011-04-25 2012-04-23 Laser diode modes

Publications (2)

Publication Number Publication Date
JP2014513357A JP2014513357A (ja) 2014-05-29
JP5976787B2 true JP5976787B2 (ja) 2016-08-24

Family

ID=47020912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014508461A Expired - Fee Related JP5976787B2 (ja) 2011-04-25 2012-04-23 レーザー・ダイオード・モード

Country Status (8)

Country Link
US (1) US8620113B2 (ja)
EP (1) EP2702464B1 (ja)
JP (1) JP5976787B2 (ja)
KR (1) KR102007445B1 (ja)
CN (1) CN103502910B (ja)
AR (1) AR086175A1 (ja)
TW (1) TWI552791B (ja)
WO (1) WO2012148844A2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8869073B2 (en) * 2011-07-28 2014-10-21 Hewlett-Packard Development Company, L.P. Hand pose interaction
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
USD767590S1 (en) * 2013-12-30 2016-09-27 Nikolai Joukov Display screen or portion thereof with graphical user interface for displaying software cells

Family Cites Families (411)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US7831204B1 (en) 1981-11-03 2010-11-09 Personalized Media Communications, Llc Signal processing apparatus and methods
JPS58225745A (ja) * 1982-06-24 1983-12-27 Fujitsu Ltd 半導体レ−ザ送信回路
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
US4931865A (en) 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5175641A (en) 1991-04-05 1992-12-29 International Business Machines Corporation Dual-mode laser diode transmitter
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
JP3270264B2 (ja) 1994-10-19 2002-04-02 富士写真フイルム株式会社 放射線像変換パネルおよびその製造法
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
DE19516664C1 (de) 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
JPH11508359A (ja) 1995-06-22 1999-07-21 3ディブイ・システムズ・リミテッド 改善された光学測距カメラ
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US7895076B2 (en) 1995-06-30 2011-02-22 Sony Computer Entertainment Inc. Advertisement insertion, profiling, impression, and feedback
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
JPH0981309A (ja) 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US5904484A (en) 1996-12-23 1999-05-18 Burns; Dave Interactive motion training device and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6750848B1 (en) 1998-11-09 2004-06-15 Timothy R. Pryor More useful man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
WO1999019828A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
DE59809883D1 (de) * 1997-12-23 2003-11-13 Siemens Ag Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US7196720B2 (en) 1998-03-06 2007-03-27 Intel Corporation Method and apparatus for powering on an electronic device with a video camera that detects motion
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6181472B1 (en) * 1998-06-10 2001-01-30 Robotic Vision Systems, Inc. Method and system for imaging an object with a plurality of optical beams
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6141010A (en) 1998-07-17 2000-10-31 B. E. Technology, Llc Computer interface method and apparatus with targeted advertising
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US7134130B1 (en) 1998-12-15 2006-11-07 Gateway Inc. Apparatus and method for user-based control of television content
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6466232B1 (en) 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6226388B1 (en) 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6377296B1 (en) 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
US7120880B1 (en) 1999-02-25 2006-10-10 International Business Machines Corporation Method and system for real-time determination of a subject's interest level to media content
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
DE69942663D1 (de) 1999-04-13 2010-09-23 Sony Deutschland Gmbh Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen
US6591236B2 (en) 1999-04-13 2003-07-08 International Business Machines Corporation Method and system for determining available and alternative speech commands
US20030141360A1 (en) 1999-04-22 2003-07-31 De Leo Stephen L. System and method for providing information and services to and from an automated teller machine
US7015950B1 (en) * 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US7821507B2 (en) 1999-05-25 2010-10-26 Silverbrook Research Pty Ltd Method of providing information via a printed substrate and two-mode sensing device
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6291816B1 (en) * 1999-06-08 2001-09-18 Robotic Vision Systems, Inc. System and method for measuring object features with coordinated two and three dimensional imaging
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
DE69922706T2 (de) 1999-09-08 2005-12-08 3Dv Systems Ltd. 3d- bilderzeugungssystem
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
US7028001B1 (en) 1999-12-27 2006-04-11 Motorola, Inc. System and method for measuring web page advertisement impressions
JP2003529975A (ja) 2000-01-03 2003-10-07 アモヴァ.コム 個人化されたメディアの自動作成システム
US7146329B2 (en) 2000-01-13 2006-12-05 Erinmedia, Llc Privacy compliant multiple dataset correlation and content delivery system and methods
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1277104A1 (en) 2000-03-30 2003-01-22 Ideogramic APS Method for gesture based modeling
US6778171B1 (en) 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
EP1316055A4 (en) 2000-05-29 2006-10-04 Vkb Inc DEVICE FOR ENTERING VIRTUAL DATA AND METHOD FOR ENTERING ALPHANUMERIC AND OTHER DATA
IL136432A0 (en) * 2000-05-29 2001-06-14 Vkb Ltd Data input device
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7042442B1 (en) 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20090234718A1 (en) 2000-09-05 2009-09-17 Novell, Inc. Predictive service systems using emotion detection
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US20030036944A1 (en) 2000-10-11 2003-02-20 Lesandrini Jay William Extensible business method with advertisement research as an example
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
AU2002232630B2 (en) * 2000-12-15 2007-06-07 E.I. Du Pont De Nemours And Company Receiver element for adjusting the focus of an imaging laser
US20020144259A1 (en) 2001-03-29 2002-10-03 Philips Electronics North America Corp. Method and apparatus for controlling a media player based on user activity
CN100394366C (zh) * 2001-04-09 2008-06-11 华邦电子股份有限公司 应用于计算机的撷取影像和操控光标的装置及方法
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US20020174445A1 (en) 2001-05-17 2002-11-21 Koninklijke Philips Electronics N.V. Video playback device with real-time on-line viewer feedback capability and method of operation
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
US20030007018A1 (en) 2001-07-09 2003-01-09 Giovanni Seni Handwriting user interface for personal digital assistants and the like
US6868383B1 (en) 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
GB2379017A (en) 2001-07-27 2003-02-26 Hewlett Packard Co Method and apparatus for monitoring crowds
FI115419B (fi) 2001-08-20 2005-04-29 Helsingin Kauppakorkeakoulu Informaatiopalveluiden käyttäjäkohtainen personointi
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US8561095B2 (en) 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6730913B2 (en) 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
ATE321689T1 (de) 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US20040001616A1 (en) 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US8019121B2 (en) 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
WO2004017102A2 (en) * 2002-08-16 2004-02-26 Brown University Research Foundation Scanning magnetic microscope having improved magnetic sensor
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
AU2003275134A1 (en) 2002-09-19 2004-04-08 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US7002560B2 (en) 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
US20040113933A1 (en) 2002-10-08 2004-06-17 Northrop Grumman Corporation Split and merge behavior analysis and understanding using Hidden Markov Models
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7435941B2 (en) * 2003-03-14 2008-10-14 Inphase Technologies, Inc. Methods for measuring optical characteristics by differential diffractive scanning
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
WO2005113099A2 (en) 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US7214932B2 (en) * 2003-08-20 2007-05-08 Xyratex Technology Limited Resonator method and system for distinguishing characteristics of surface features or contaminants
US7170605B2 (en) * 2003-08-25 2007-01-30 Evan Francis Cromwell Active sensor and method for optical illumination and detection
WO2005022900A2 (en) 2003-08-26 2005-03-10 Redshift Systems Corporation Infrared camera system
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7155305B2 (en) 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
GB2410359A (en) 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
JP4092697B2 (ja) 2004-04-07 2008-05-28 ソニー株式会社 情報処理装置および方法、プログラム並びに記録媒体
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
WO2006038779A1 (en) 2004-10-01 2006-04-13 Samsung Electronics Co., Ltd. Device and method for displaying event in wireless terminal
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US7212665B2 (en) 2004-11-05 2007-05-01 Honda Motor Co. Human pose estimation with data driven belief propagation
US7870589B2 (en) 2004-11-23 2011-01-11 Palo Alto Research Center Incorporated Method for providing commentary audio and additional or replacement video content
US7814518B2 (en) 2004-11-23 2010-10-12 Palo Alto Research Center Incorporated Methods, apparatus, and program products for presenting replacement content instead of a portion of a recorded content
US7217020B2 (en) 2004-11-24 2007-05-15 General Motors Corporation Headlamp assembly with integrated infrared illuminator
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7379566B2 (en) 2005-01-07 2008-05-27 Gesturetek, Inc. Optical flow based tilt sensor
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
JP3862027B2 (ja) 2005-01-25 2006-12-27 船井電機株式会社 放送信号受信システム
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
GB2423808B (en) 2005-03-04 2010-02-17 Ford Global Tech Llc Motor vehicle control system for controlling one or more vehicle devices
US20060218573A1 (en) 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
US7643056B2 (en) 2005-03-14 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US7468998B2 (en) * 2005-03-25 2008-12-23 Pavilion Integration Corporation Radio frequency modulation of variable degree and automatic power control using external photodiode sensor for low-noise lasers of various wavelengths
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
JP5038296B2 (ja) 2005-05-17 2012-10-03 クアルコム,インコーポレイテッド 方位感受性信号出力
US20060262116A1 (en) 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
TW200713060A (en) 2005-09-30 2007-04-01 Primax Electronics Ltd Adaptive input method for touch screen
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US20070150281A1 (en) 2005-12-22 2007-06-28 Hoff Todd M Method and system for utilizing emotion to search content
US20070150916A1 (en) 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
US20070214292A1 (en) 2006-02-24 2007-09-13 Gillian Hayes System and method for archiving of continuous capture buffers
CN101496032B (zh) 2006-02-27 2011-08-17 普莱姆传感有限公司 使用斑纹解相关的距离映射的方法及设备
US20070219430A1 (en) 2006-03-17 2007-09-20 Moore Barrett H Electricity Providing Privately Provisioned Subscription-Based Survival Supply Unit Method And Apparatus
JP4484836B2 (ja) * 2006-03-24 2010-06-16 三洋電機株式会社 ビーム照射装置
US7568116B2 (en) 2006-04-14 2009-07-28 Clever Innovations, Inc. Automated display device
WO2007130693A2 (en) 2006-05-07 2007-11-15 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
US20070271580A1 (en) 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US7640304B1 (en) 2006-06-14 2009-12-29 Yes International Ag System and method for detecting and measuring emotional indicia
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
TW200806029A (en) 2006-07-14 2008-01-16 Asustek Comp Inc Display system and control method thereof
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US20080027984A1 (en) 2006-07-31 2008-01-31 Motorola, Inc. Method and system for multi-dimensional action capture
US8775237B2 (en) 2006-08-02 2014-07-08 Opinionlab, Inc. System and method for measuring and reporting user reactions to advertisements on a web page
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
JP5194015B2 (ja) 2006-09-05 2013-05-08 インナースコープ リサーチ, インコーポレイテッド 感覚的刺激への視聴者反応を決定する方法およびシステム
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
US8287372B2 (en) 2006-09-28 2012-10-16 Mattel, Inc. Interactive toy and display system
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US20080124690A1 (en) 2006-11-28 2008-05-29 Attune Interactive, Inc. Training system using an interactive prompt character
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
CN101202994B (zh) 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
KR100720335B1 (ko) 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
KR20080058740A (ko) 2006-12-22 2008-06-26 삼성전자주식회사 디지털 방송 수신 장치 및 시간 동기화 방법
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US20080163283A1 (en) 2007-01-03 2008-07-03 Angelito Perez Tan Broadband video with synchronized highlight signals
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US20090070798A1 (en) 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US20080234023A1 (en) 2007-03-23 2008-09-25 Ajmal Mullahkhel Light game
US20100007801A1 (en) 2007-04-03 2010-01-14 TTE Technology, Inc System and method for toggling between system power modes based on motion detection
US20090217315A1 (en) 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
KR20090002809A (ko) 2007-07-04 2009-01-09 삼성전자주식회사 어플리케이션에서 생성된 데이터를 hdmi cec에 따라송수신하는 방법
US7865916B2 (en) 2007-07-20 2011-01-04 James Beser Audience determination for monetizing displayable content
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8081302B2 (en) * 2007-08-17 2011-12-20 Princeton Satellite Systems, Inc. Multimode optical sensor
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
KR101182286B1 (ko) 2007-09-19 2012-09-14 삼성전자주식회사 움직임을 감지하는 리모트 컨트롤러 및, 리모트 컨트롤러에의해 포인터를 제어하는 영상디스플레이장치 및 그들의제어방법
EP2042969A1 (en) 2007-09-28 2009-04-01 Alcatel Lucent Method for determining user reaction with specific content of a displayed page.
WO2009046224A1 (en) 2007-10-02 2009-04-09 Emsense Corporation Providing remote access to media, and reaction and survey data from viewers of the media
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8776102B2 (en) 2007-10-09 2014-07-08 At&T Intellectual Property I, Lp System and method for evaluating audience reaction to a data stream
US20090106645A1 (en) 2007-10-17 2009-04-23 Thinkingcraft, Inc. Adaptive response/interpretive expression, communication distribution, and intelligent determination system and method
US8001108B2 (en) 2007-10-24 2011-08-16 The Invention Science Fund I, Llc Returning a new content based on a person's reaction to at least two instances of previously displayed content
EP2203893A4 (en) 2007-10-30 2014-05-07 Hewlett Packard Development Co INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION
US8094891B2 (en) 2007-11-01 2012-01-10 Sony Ericsson Mobile Communications Ab Generating music playlist based on facial expression
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US20090157472A1 (en) 2007-12-14 2009-06-18 Kimberly-Clark Worldwide, Inc. Personalized Retail Information Delivery Systems and Methods
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
WO2009086088A1 (en) 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
US8090030B2 (en) 2008-01-04 2012-01-03 Silicon Image, Inc. Method, apparatus and system for generating and facilitating mobile high-definition multimedia interface
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
JPWO2009093461A1 (ja) * 2008-01-22 2011-05-26 新世代株式会社 撮像装置、オンラインゲームシステム、操作物、入力方法、画像解析装置、画像解析方法、及び記録媒体
US20090189858A1 (en) * 2008-01-30 2009-07-30 Jeff Lev Gesture Identification Using A Structured Light Pattern
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
WO2009099296A2 (en) 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
KR101365776B1 (ko) 2008-04-08 2014-02-20 엘지디스플레이 주식회사 멀티 터치 시스템 및 그 구동 방법
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
GB2459707B (en) 2008-05-01 2010-08-11 Sony Computer Entertainment Inc Media recorder, audio visual entertainment system and method
US7979591B2 (en) 2008-05-27 2011-07-12 Eyran Lida Network views for a multi display network supporting CEC
US8477139B2 (en) 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
CN201247590Y (zh) 2008-08-01 2009-05-27 鸿富锦精密工业(深圳)有限公司 可自动切换显示模式的电子相框
US8925001B2 (en) 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100070987A1 (en) 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US8516561B2 (en) 2008-09-29 2013-08-20 At&T Intellectual Property I, L.P. Methods and apparatus for determining user authorization from motion of a gesture-based control unit
US20100086204A1 (en) 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US9399167B2 (en) 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US20100107184A1 (en) 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US20100138797A1 (en) 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
KR101531363B1 (ko) 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US20100153984A1 (en) 2008-12-12 2010-06-17 Microsoft Corporation User Feedback Based Highlights of Recorded Programs
JP4775671B2 (ja) 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5156617B2 (ja) * 2008-12-26 2013-03-06 日本システムウエア株式会社 対象物検出用画像処理装置、方法、プログラム、並びに該プログラムを格納するコンピュータ可読媒体
US8856829B2 (en) 2008-12-29 2014-10-07 Ngc Network Us, Llc Interactive display highlight systems, methods, and computer program products
US20100248832A1 (en) 2009-03-30 2010-09-30 Microsoft Corporation Control of video game via microphone
US9172482B2 (en) 2009-03-31 2015-10-27 At&T Intellectual Property I, L.P. Content recommendations based on personal preferences
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
KR101567603B1 (ko) 2009-05-07 2015-11-20 엘지전자 주식회사 멀티 음성 시스템의 동작 제어 장치 및 방법
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8255955B1 (en) 2009-06-16 2012-08-28 Tivo Inc. Dynamic item highlighting system
US20100332842A1 (en) 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US20110016102A1 (en) 2009-07-20 2011-01-20 Louis Hawthorne System and method for identifying and providing user-specific psychoactive content
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8326002B2 (en) 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US7873849B2 (en) 2009-09-02 2011-01-18 Apple Inc. Motion sensor data processing using various power management modes
KR101557277B1 (ko) 2009-09-08 2015-10-05 텔레콤 이탈리아 소시에떼 퍼 아찌오니 디지털 정보 콘텐츠의 카탈로그를 탐색하는 방법
US8275834B2 (en) 2009-09-14 2012-09-25 Applied Research Associates, Inc. Multi-modal, geo-tempo communications systems
US8875167B2 (en) 2009-09-21 2014-10-28 Mobitv, Inc. Implicit mechanism for determining user response to media
US20110077718A1 (en) 2009-09-30 2011-03-31 Broadcom Corporation Electromagnetic power booster for bio-medical units
US20110145040A1 (en) 2009-12-16 2011-06-16 Microsoft Corporation Content recommendation
US10356465B2 (en) 2010-01-06 2019-07-16 Sony Corporation Video system demonstration
JP5609160B2 (ja) 2010-02-26 2014-10-22 ソニー株式会社 情報処理システム、コンテンツ合成装置および方法、並びに記録媒体
US9124651B2 (en) 2010-03-30 2015-09-01 Microsoft Technology Licensing, Llc Controlling media consumption privacy settings
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US20110264531A1 (en) 2010-04-26 2011-10-27 Yahoo! Inc. Watching a user's online world
US8424037B2 (en) 2010-06-29 2013-04-16 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content in response to selection of a presented object
US9247205B2 (en) 2010-08-31 2016-01-26 Fujitsu Limited System and method for editing recorded videoconference data
US8949871B2 (en) 2010-09-08 2015-02-03 Opentv, Inc. Smart media selection based on viewer user presence
US20120084812A1 (en) 2010-10-04 2012-04-05 Mark Thompson System and Method for Integrating Interactive Advertising and Metadata Into Real Time Video Content
US20120109726A1 (en) 2010-10-30 2012-05-03 Verizon Patent And Licensing, Inc. Methods and Systems for Trigger-Based Updating of an Index File Associated with a Captured Media Content Instance
US8667520B2 (en) 2011-07-06 2014-03-04 Symphony Advanced Media Mobile content tracking platform methods
JP4945675B2 (ja) 2010-11-12 2012-06-06 株式会社東芝 音響信号処理装置、テレビジョン装置及びプログラム
US20120209715A1 (en) 2011-02-11 2012-08-16 Microsoft Corporation Interaction with networked screen content via motion sensing device in retail setting
US20110145041A1 (en) 2011-02-15 2011-06-16 InnovatioNet System for communication between users and global media-communication network
US20120226981A1 (en) 2011-03-02 2012-09-06 Microsoft Corporation Controlling electronic devices in a multimedia system through a natural user interface
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US20120304059A1 (en) 2011-05-24 2012-11-29 Microsoft Corporation Interactive Build Instructions
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US20130145385A1 (en) 2011-12-02 2013-06-06 Microsoft Corporation Context-based ratings and recommendations for media
US8943526B2 (en) 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US20130159555A1 (en) 2011-12-20 2013-06-20 Microsoft Corporation Input commands
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program

Also Published As

Publication number Publication date
US8620113B2 (en) 2013-12-31
TWI552791B (zh) 2016-10-11
US20120268362A1 (en) 2012-10-25
EP2702464A2 (en) 2014-03-05
KR20140024876A (ko) 2014-03-03
EP2702464B1 (en) 2017-09-06
CN103502910A (zh) 2014-01-08
AR086175A1 (es) 2013-11-27
WO2012148844A3 (en) 2013-02-14
CN103502910B (zh) 2017-03-01
JP2014513357A (ja) 2014-05-29
WO2012148844A2 (en) 2012-11-01
TW201242644A (en) 2012-11-01
KR102007445B1 (ko) 2019-08-05
EP2702464A4 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
US10761612B2 (en) Gesture recognition techniques
JP5976787B2 (ja) レーザー・ダイオード・モード
JP6828189B2 (ja) 混合現実環境でのコンテキストアプリケーション
US10318011B2 (en) Gesture-controlled augmented reality experience using a mobile communications device
US9268404B2 (en) Application gesture interpretation
US20170052599A1 (en) Touch Free Interface For Augmented Reality Systems
JP2019071048A (ja) 一人称視点でのディープラーニングベースのハンドジェスチャー認識のためのシステムおよび方法
US9720567B2 (en) Multitasking and full screen menu contexts
JP2013141207A (ja) ハンドヘルドプロジェクタを用いたマルチユーザインタラクション
JP6504058B2 (ja) 情報処理システム、情報処理方法およびプログラム
US20070164992A1 (en) Portable computing device for controlling a computer
CN108984075A (zh) 显示模式切换方法、装置及终端
US11880548B2 (en) Image processing apparatus and image processing method
US20240192917A1 (en) Detecting notable occurrences associated with events
JP6064617B2 (ja) 電子装置、電子装置の入力制御方法、入力制御プログラム
KR20230111093A (ko) 전자 장치 및 그 제어 방법
KR102086181B1 (ko) 제어 노출

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150409

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160720

R150 Certificate of patent or registration of utility model

Ref document number: 5976787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees