JP5926184B2 - コンピュータ装置の遠隔制御 - Google Patents

コンピュータ装置の遠隔制御 Download PDF

Info

Publication number
JP5926184B2
JP5926184B2 JP2012530394A JP2012530394A JP5926184B2 JP 5926184 B2 JP5926184 B2 JP 5926184B2 JP 2012530394 A JP2012530394 A JP 2012530394A JP 2012530394 A JP2012530394 A JP 2012530394A JP 5926184 B2 JP5926184 B2 JP 5926184B2
Authority
JP
Japan
Prior art keywords
image
hand
light pattern
user
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012530394A
Other languages
English (en)
Other versions
JP2013505508A (ja
JP2013505508A5 (ja
Inventor
ナダフ グロッシンガー,
ナダフ グロッシンガー,
イスラエル グロッシンガー,
イスラエル グロッシンガー,
ニタイ ロマーノ,
ニタイ ロマーノ,
Original Assignee
ペブルステック リミテッド
ペブルステック リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ペブルステック リミテッド, ペブルステック リミテッド filed Critical ペブルステック リミテッド
Publication of JP2013505508A publication Critical patent/JP2013505508A/ja
Publication of JP2013505508A5 publication Critical patent/JP2013505508A5/ja
Application granted granted Critical
Publication of JP5926184B2 publication Critical patent/JP5926184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、コンピュータ装置の制御に関し、さらに詳しくは、しかし排他的にではなく、コンピュータ装置の遠隔制御のためのシステムおよび方法に関する。
現在、コンピュータ装置の遠隔制御に使用される多種多様の方法が存在する。
現在使用されている方法の幾つかは、コンピュータユーザが、ユーザの腕または脚のような1つ以上の身体部分を使用して、予め定められたジェスチャによりコンピュータ装置を制御することを可能にする。
現在使用されている方法では、ジェスチャの離散的セットが定義される。ひとたびユーザの身体部分が予め定められた位置に整列したように見えると、ジェスチャが検知される。その結果、コンピュータ装置が予め定められた機能を実行する。
現在の方法では、各ジェスチャは、ひとたび検知されると、特定のジェスチャに対して予め定められたコンピュータ動作を起動させる。現在の方法は典型的に、初期設定段階を含む。設定段階で、ジェスチャの離散的セットおよびセットにおける特定の各ジェスチャに対するコンピュータ機能が定義される。
ジェスチャは、現在使用されている種々の方法を介して検知することができる。
例えば、現在の方法の幾つかは、デジタル・ビデオ・ストリームからの通常の画像解析を含む。ビデオ画像を解析して、優勢な身体部分の位置および姿勢を検知する。身体部分が予め定められた位置に位置合せされていると、予め定められた機能がコンピュータ装置によって実行される。
通常の画像解析方法では、身体部分の検知は、ビデオ画像の各画素の解析によって実行される。画素は、当該画素の色値と当該画素に近接する他の画素の色値との間で行なわれる比較によって解析される。すなわち、通常の画像解析方法は、身体部分と背景物体との間の色の有意差に依存する。
現在使用されている他の方法は、計算量が過大になる三次元深度マップの計算に基づく。
深度マップとは、深度カメラの前に位置する物体の部分までの距離を各画素に保持する画像である。
三次元深度マップにより、ユーザの手の位置を抽出することは、手が典型的にはユーザの身体の残部の前に位置するので、比較的容易であることが判明するであろう。したがって、特定の距離を越える距離に位置する三次元マップの部分は放棄してもよい。
深度マップは種々の方法を用いて計算することができる。例えば立体視法では、2つ以上のカメラを使用してユーザの身体の画像を取得する。カメラから取得された物体の画像を比較かつ解析して、ユーザの身体の表面上の各点の深さ位置の三次元データを生成し、こうして深度マップを作成する。
陰影からの形状復元(shape from shading)法では、ユーザの身体は幾つかの方向から照明される。
身体の影を比較かつ解析して、ユーザの身体の表面上の各点の位置の三次元データを生成し、こうして深度マップを作成する。
本発明の第1態様では、コンピュータ装置の遠隔手制御のための装置であって、コンピュータ装置のユーザの手の動きを追跡するように構成された手追跡器と、手追跡器に関連付けられ、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに従って第1画像を動かすように構成された画像提示器と、画像提示器に関連付けられ、第1画像と第2画像との間の相互作用に応じてコンピュータ装置を制御するように構成され、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするコンピュータ制御器とを備えた装置を提供する。
本発明の第2態様では、コンピュータ装置の遠隔手制御のためのコンピュータ実装方法であって、コンピュータ装置が実行するようにプログラムされたステップを含み、該ステップがコンピュータ装置のユーザの手の動きを追跡するステップと、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップとを含む、方法を提供する。
本発明の第3態様では、コンピュータ装置の遠隔手制御のためのステップを実行するためのコンピュータ実行可能命令を格納するコンピュータ可読媒体であって、該ステップがコンピュータ装置のユーザの手の動きを追跡するステップと、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップとを含む、コンピュータ可読媒体を提供する。
別途定義されない限り、本明細書で使用されるすべての技術的用語および/または科学的用語は、本発明が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。本明細書で与えられる材料、方法および実施例は例示にすぎず、限定であることは意図されない。
本発明の方法およびシステムを実行することは、特定の選択されたタスクまたはステップを、手動操作で、自動的にまたはそれらを組み合わせて実行または完了することを含んでいる。さらに、本発明の方法およびシステムの好ましい実施形態の実際の機器や装置によって、いくつもの選択されたステップを、ハードウェアによって、またはソフトウェアによって、ファームウェアのオペレーティングシステムまたはそれらの組合せで実行できる。
例えば、ハードウェアとして、本発明の選択されたステップは、チップまたは回路として実施されることができる。ソフトウェアとして、本発明の選択されたステップは、コンピュータが適切なオペレーティングシステムを使って実行する複数のソフトウェアの命令として実施されることができる。いかなる場合においても、本発明の方法およびシステムの選択されたステップは、データプロセッサ、例えば複数の命令を実行する計算プラットフォームで実行されるものとして記載されることができる。
本明細書では本発明のいくつかの実施形態を単に例示し図面を参照して説明する。特に詳細に図面を参照して、示されている詳細が例示として本発明の好ましい実施態様を例示考察することだけを目的としており、本発明の原理や概念の側面の最も有用でかつ容易に理解される説明であると考えられるものを提供するために提示していることを強調するものである。図面について行う説明によって本発明のいくつもの形態を実施する方法は当業者には明らかになるであろう。
図1は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための装置を模式的に示すブロック図である。
図2は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための方法を示すフローチャートである。
図3は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のステップを実行するためのコンピュータ実行可能命令を格納するコンピュータ可読媒体を模式的に示すブロック図である。
図4は、本発明の例示的実施形態に係る、光パターンを投射された手を示す模式図である。
図5は、本発明の例示的実施形態に係る、強度ノーテーションを有する光パターンを投射された手を示す模式図である。
図6は、本発明の例示的実施形態に係る、コンピュータキーボードの画像を用いるコンピュータ装置の遠隔手制御を模式的に示すブロック図である。
図7は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第1ジェスチャを模式的に示すブロック図である。
図8は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第2ジェスチャを模式的に示すブロック図である。
図9は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第3ジェスチャを模式的に示すブロック図である。
図10は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第4ジェスチャを模式的に示すブロック図である。
図11は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のためのシステムを模式的に示すブロック図である。
本発明の実施形態は、コンピュータ装置の遠隔手制御のため装置および方法を含む。
本発明の例示的実施形態では、コンピュータ装置のユーザの手の動きが連続的に追跡される。
ユーザに対し、手を表わす第1画像、および第2画像が提示される。
第1画像は、スクリーン上に提示されるユーザの手の完全かつ正確な動画像とすることができる。代替的に、第1画像はむしろ、手の指先の位置を表わす5つのカーソルから構成される。第1画像はまた、以下でさらに詳述するように、第2画像に対する指(すなわち人差し指から小指までの指、親指、または両方)の位置についてのユーザ情報をもたらす、いずれかの他の視覚的外観とすることもできる。
ユーザがその手(またはその人差し指から小指までの指もしくは親指だけ)を動かすと、第1画像は追跡された動きに呼応して動く。すなわち、第1画像の動きはユーザの手の動きと相関する。ユーザがその手を左に動かすと、第1画像は左に動く。ユーザがその指の1本を屈曲すると、第1画像も指を屈曲する(またはそれに応じて指の先の位置を表わすカーソルを動かす)などする。
任意選択的に、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
コンピュータ装置は、あたかも第1画像がユーザ自身の手であり、かつ第2画像が、タッチスクリーンにユーザ自身の指をタッチすることによって、ユーザがGUIのメニュー、ボタン等と対話することを可能にするタッチスクリーンに提示されるGUIであるかのように、第1画像と第2画像との間の相互作用に従って制御される。
すなわち、第1画像および第2画像を相互作用させるために、ユーザの手または指を動かすことによって、ユーザはコンピュータ装置を制御することが可能になる。
任意選択的に、第2画像はむしろ、コンピュータ入力装置(例えば、当業界で公知の通り、コンピュータキーボード、コンピュータマウス、ジョイスティック等)を表わす画像である。
コンピュータ装置は、あたかも画像内の手がユーザ自身の手であり、かつ第2画像が、コンピュータ装置に接続された、任意の標準的周辺コンピュータ装置(例えばキーボード、ジョイスティック等)のような実際のコンピュータ入力装置であるかのように、第1画像と第2画像との間の相互作用に従って制御される。ユーザはこのようにして、第1画像および第2画像を相互作用させるようにユーザの手を動かすことによって、コンピュータ装置を制御することが可能になる。
したがって、ユーザの手の動きによるコンピュータ装置の遠隔制御は、(特定のジェスチャを定義することもできるが)特定のジェスチャの予め定められたセットに限定されたインタフェースというよりむしろ連続ユーザインタフェースに基づく。
こともできるが)。
一実施例では、ユーザがその手を動かすと、第1画像がコンピュータキーボードの画像上で動き、ユーザがその指をタイピング動作するように動かすと、以下でさらに詳述する通り、コンピュータ装置は、あたかもユーザが実際のキーボードを用いてタイピングしたかのように応答する。
本発明の例示的実施形態に係る装置および方法の原理および動作は、図面および関連する説明を参照することによって、理解を深めることができる。
本発明の少なくとも1つの実施形態を詳しく説明する前に、本発明は、その適用において、下記の説明に示されるか、または図面において例示される構成要素の構成および配置の細部に必ずしも限定されないことを理解しなければならない。
本発明は他の実施形態が可能であり、あるいは様々なやり方で実施もしくは実行することができる。また、本書で使用する表現および専門用語は説明を目的とするものであって、限定とみなすべきではないことを理解されたい。
ここで図1を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための装置を模式的に示すブロック図である。
装置1000はコンピュータ装置上に実装することができ、コンピュータ装置はデスクトップコンピュータ、ラップトップコンピュータ、携帯電話機等である。装置1000はまた、コンピュータ装置に接続可能な装置、例えばコンピュータ装置と連絡するコンピュータプロセッサを持つユニットに実装することもできる。さらに、装置1000はソフトウェアとして、ハードウェアとして、またはソフトウェアおよびハードウェアの組合せとして実装することができる。
装置1000は手追跡器110を含む。
手追跡器110は、以下でさらに詳述する通り、例えば指および親指の微細な動きを追跡するのに有用なパターンに構造化された光を投射された手の画像を用いて、コンピュータ装置のユーザの手の動きを追跡する。
任意選択的に、手追跡器110は、以下でさらに詳述する通り、コンピュータ装置から遠隔位置にある。
装置1000はさらに、手追跡器110と連絡する画像提示器120を含む。
画像提示器120は、手を表わす第1画像、および第2画像を提示する。
任意選択的に、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
任意選択的に、第2画像は、以下でさらに詳述する通り、むしろコンピュータ入力装置、例えばコンピュータマウスまたはコンピュータキーボードを表わす。
任意選択的に、第2画像は別のグラフィカルオブジェクト、ピクチャ等である。
第1画像は、スクリーン上に提示されるユーザの手の完全かつ正確な動画像とすることができる。代替的に、第1画像はむしろ、手の指先の位置を表わす5つのカーソルから構成される。第1画像はまた、第2画像に対する指(すなわち人差し指から小指までの指、親指、または両方)の位置についてのユーザ情報をもたらす、いずれかの他の視覚的外観とすることもできる。
画像提示器120はさらに、以下でさらに詳述する通り、手追跡器110によって追跡されるユーザの手の動きに呼応して第1画像を動かす。
装置1000はさらに、画像提示器120と連絡するコンピュータ制御器130を含む。
任意選択的に、コンピュータ制御器130は、以下でさらに詳述する通り、デスクトップコンピュータ、ラップトップコンピュータ等の一部である。
任意選択的に、コンピュータ制御器130は、以下でさらに詳述する通り、自動車に据え付けられる装置の一部である。
任意選択的に、コンピュータ制御器130は、以下でさらに詳述する通り、携帯電話機(例えばスマートフォン)の一部である。
コンピュータ制御器130は、第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御する。したがって、コンピュータ制御器130は、以下でさらに詳述する通り、第1画像および第2画像を相互作用させるように手を動かすことによって、ユーザがコンピュータ装置を制御することを可能にする。
一実施例では、ユーザがその手を動かすと、画像提示器120がコンピュータキーボードの画像上で第1画像を動かす。ユーザが指をタイピング動作するように動かすと、コンピュータ制御器130はコンピュータ装置を制御し、以下でさらに詳述する通り、あたかもユーザが実際のキーボードを用いてタイピングしたかのように、コンピュータ装置に応答させる。
第2実施例では、ユーザがその手を動かすと、画像提示器120がコンピュータマウスの画像上で第1画像を動かす。ユーザがその指をクリック動作するように動かすと、第1画像の指は、手の動作の動きに正確に相関してクリック動作するように動く。その結果として、コンピュータ装置は、コンピュータマウスの画像に対する第1画像の位置に従って(すなわち、第1画像の指が画像内のコンピュータマウスのボタン上に位置する状態で)、あたかもユーザが実際のコンピュータマウスのボタンの1つをクリックしたかのように応答する。
第3実施例では、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
コンピュータ制御器130は、第1画像と第2画像との間の相互作用に従って、コンピュータ装置を制御する。コンピュータ装置は、あたかも第1画像がユーザ自身の手であり、かつ第2画像が、タッチスクリーンにその指をタッチすることによって、ユーザがGUIのメニュー、ボタン等と対話することを可能にするタッチスクリーン上に提示されるGUIであるかのように、制御される。
任意選択的に、手追跡器110は、以下でさらに詳述する通り、手の動きを追跡するために、二次元ビデオデータ、例えば手追跡器110に接続されたカメラから流れる例えば二次元ビデオ画像を使用する。
任意選択的に、手追跡器110は、手に投射される光パターンの連続的特徴のセグメント化(すなわち分割)を検知することによって動きを追跡する。光パターンは、以下でさらに詳述する通り、第1方向の連続的特徴、および第1方向に対し実質的に垂直な方向の非連続的(例えば周期的)特徴を有する。
一実施例では、光パターンは、互いに平行(または実質的に平行)に配列された幾つかの縞を含む。
手追跡器110は、以下でさらに詳述する通り、光パターンの中に、手の指(すなわち人差し指から小指までの指または親指)による縞のセグメント化によって生じる、1つ以上の縞セグメントの1つ以上のクラスタを識別する。
手追跡器110は、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、指の動きを追跡する。
任意選択的に、手追跡器110はさらに、光パターンの中に、手の掌による縞のセグメント化によって生じる1つ以上の縞セグメントの1つ以上のクラスタを識別する。手追跡器110は、掌による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、手の動きを追跡する。
任意選択的に、手追跡器110はさらに、手に投射される光パターンの連続的特徴に沿ったノーテーションの位置のずれを検知することができる。手追跡器110は、以下でさらに詳述する通り、検知されたずれを手の追跡に使用する。
任意選択的に、手追跡器110は、以下でさらに詳述する通り、指の深度移動(例えばクリックと同様の動作またはタッチスクリーンのような操作)をさらに識別する。
任意選択的に、手の指および掌によって生じた縞セグメントのクラスタが検知された後、掌および指クラスタの縞セグメントだけが追跡され、それによって手の動きが追跡される。背景縞セグメントおよび追加的画像情報のような、縞セグメントクラスタ以外のビデオデータの部分は、こうして除外することができる。
その結果、動きを追跡するための計算量および処理時間をかなり軽減することができる。
任意選択的に、装置1000はさらに、以下でさらに詳述する通り、手追跡器110と連絡する投光器およびカメラを含む。
一実施例では、以下でさらに詳述する通り、投光器、カメラ、または両方とも、コンピュータ装置から遠隔位置にある。
任意選択的に、投光器は、当業界で公知の通り、光源および微細構造素子を含む。
光源は、当業界で公知の通り、レーザダイオード、発光ダイオード(LED)、光ビームを放出する任意の他の素子とすることができる。
光源から放出された光ビームは、微細構造素子を介してユーザの手の上に伝搬する。微細構造素子は、以下でさらに詳述する通り、ユーザの手に投射される光パターンを生成するために光ビームを修正する。
任意選択的に、微細構造素子は光ビームを可変断面強度プロファイルの光ビームに変換する。その結果として、断面強度プロファイルは光ビームに沿って変化し、したがって、以下でさらに詳述する通り、光源からの物体(例えばユーザの指の1つ)の距離を示す情報を提供する。
任意選択的に、投光器は、以下でさらに詳述する通り、第1方向に連続的特徴を有し、かつ第1方向に対し実質的に垂直な方向に非連続的特徴を有する光パターンを手の上に投射する。
任意選択的に、微細構造素子は、当業界で公知の通り、回折光学素子である。
回折光学素子は、当業界で公知の通り、一次元または二次元空間配列を有する離散数のスポットに光ビームを分割する周期的微細構造によって得ることができる。
任意選択的に、円筒状マイクロ・レンズ・アレイのような追加的素子または追加的回折素子を使用して、スポットの各々から縞を形成する。
任意選択的に、縞は、以下でさらに詳述する通り、縞に沿って互いに固定距離に位置する位相ノーテーションによりマーキングされる。
円筒状マイクロ・レンズ・アレイのような追加的微細構造素子を使用する利点として考えられることは、当業界で公知の通り、追加的素子がレーザビームのような零次の光ビームを分散させることである。
零次とは回折素子から出力される光スポットの中心であり、比較的高いエネルギによって特徴付けることができる。零次を縞のような光構造に分散することで、目の安全性限界を超えることなく、レーザ光ビームの強度を高めることができる。
任意選択的に、投光器はさらに、投射された縞を反射する物体からの距離に関して、光パターンにおける各縞の断面強度プロファイルを変化させる、追加的回折素子を含む。断面強度プロファイルとは、投射された光の伝搬方向に垂直な強度プロファイルである。
任意選択的に、強度プロファイルの変化は、投射された光が物体に伝搬し、かつ物体の表面から反射して戻る際に、投射された光の移動距離に沿って漸進的に実行される、ガウス断面強度プロファイルからトップハット断面強度プロファイルへの漸次変化である。
任意選択的に、強度プロファイルの変化は、当業界で公知の通り、単一ピークを持つ強度プロファイルから2つ以上のピーク等を持つ強度プロファイルへの漸次変化である。
光パターンを持つ光が投射された物体から反射した光の移動距離に沿った強度プロファイルの変化は、以下でさらに詳述する通り、異なる範囲で、異なる物体から反射した縞間の差別化を助長し、したがってさらにセグメント一体化問題の克服を助長することができる。
さらに、強度プロファイルの変化はさらに、物体までの(例えばユーザの手、人差し指から小指までの指、および親指までの)距離を直接測定するために使用することができる。
カメラは、投光器の隣に配置された、ウェブカメラまたは携帯電話機のカメラのようなビデオカメラとすることができる。
カメラは光パターンを投射された手の1つ以上の画像を取得し、取得した画像を手追跡器110に転送する。手追跡器110は、以下でさらに詳述する通り、手の動きを追跡するために、取得された画像を使用する。
任意選択的に、装置1000はさらに、手追跡器110と連絡するジェスチャ認識器を含む。
ジェスチャ認識器は、追跡された手の動きの中で、装置1000の管理者によって予め定められたジェスチャを検知する。ジェスチャを検知すると、コンピュータ制御器130は、以下でさらに詳述する通り、検知されたジェスチャに対し予め定められた方法でコンピュータ装置を制御する。
任意選択的に、特定の予め定められたジェスチャを検知すると、画像提示器120は第1画像を予め定められた位置に位置合せする。一実施例では、ユーザがその手を振ると、画像提示器120は、第1画像を第2画像(例えばコンピュータキーボードの画像)の中心位置に位置合せする。
任意選択的に、特定の予め定められたジェスチャを検知すると、画像提示器120は、以下でさらに詳述する通り、第1画像(すなわち手の画像)のサイズを変更する。
ここで図2を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための方法を示すフローチャートである。
本発明の例示的実施形態に係る例示的方法は、コンピュータ装置上に実装することができ、コンピュータ装置はデスクトップコンピュータ、ラップトップコンピュータ、携帯電話機等である。
例示的方法は、上で詳述した通り、コンピュータ装置に接続可能な装置上に、例えばコンピュータ装置と連絡するコンピュータプロセッサを持つユニット上に、実装することもできる。
例示的方法では、以下でさらに詳述する通り、例えば指および親指の微細な動きを追跡するのに有用なパターンに構造化された光を投射された手の画像を用いて、コンピュータ装置のユーザの手の動きを追跡する210。任意選択的に、動きは、上で詳述した通り、手追跡器110を用いて追跡される。
同時に、手を表わす第1画像、および第2画像をユーザに、例えばコンピュータ装置のスクリーン上に、提示する220。任意選択的に、第2画像および第1画像は、上で詳述した通り、画像提示器120によってユーザに提示される。
任意選択的に、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
任意選択的に、第2画像はむしろ、以下でさらに詳述する通り、コンピュータ入力装置、例えばキーボードまたはコンピュータマウスを表わす。
任意選択的に、第2画像は別のグラフィカルオブジェクト、ピクチャ等である。
第1画像は、スクリーン上に提示されるユーザの手の完全かつ正確な動画像とすることができる。代替的に、第1画像はむしろ、手の指先の位置を表わす5つのカーソルから構成される。第1画像はまた、第2画像に対する指(すなわち人差し指から小指までの指、および親指)の位置に関するユーザ情報をもたらす、いずれかの他の視覚的外観を有することもできる。
第1画像は、以下でさらに詳述する通り、手追跡器110によって追跡される210ユーザの手の動きに呼応して動く。
コンピュータ装置は、第1画像と第2画像との間の相互作用に従って、例えばコンピュータ制御器130によって制御される230。
その結果として、ユーザは、以下でさらに詳述する通り、第1画像および第2画像を相互作用させるように手を動かすことによって、コンピュータ装置を制御することが可能になる。
一実施例では、ユーザがその手を動かすと、第1画像はコンピュータキーボードの画像上で動く。
ユーザがその指をタイピング動作するように動かすと、コンピュータ装置は、以下でさらに詳述する通り、あたかもユーザがコンピュータ装置にワイヤ接続された実際のキーボードを用いてタイピングしたかのように、コンピュータ装置が応答するように制御される230。
第2実施例では、ユーザがその手を動かすと、第1画像はコンピュータマウスの画像上で動く。
ユーザがその指をクリック動作するように動くと、第1画像の指は、手の動作の動きに正確に相関してクリック動作するように動く。その結果として、コンピュータ装置は、コンピュータマウスの画像に対する第1画像の位置に従って(すなわち、第1画像の指が第2画像内のコンピュータマウスのボタン上に位置する状態で)、あたかもユーザが実際のコンピュータマウスのボタンの1つをクリックしたかのように応答する。
第3実施例では、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
コンピュータ装置は、画像間の相互作用に従って(例えばコンピュータ制御器130によって)制御される230。コンピュータ装置は、あたかも第1画像がユーザ自身の手であり、第2画像が、ユーザがタッチスクリーンにその指をタッチすることによってGUIのメニュー、ボタン等と対話することを可能にする、タッチスクリーン上に提示されたGUIであるかのように、制御される230。
任意選択的に、手の動きの追跡210は、上で詳述した通り、二次元ビデオデータ(例えば手追跡器110に接続されたカメラから流れる二次元ビデオ画像)を用いて実行される。
任意選択的に、手に投射された光パターンの連続的特徴のセグメント化(すなわち分割)を検知することによって、動きは追跡される210。光パターンは、以下でさらに詳述する通り、第1方向に連続的特徴を有し、第1方向に対して実質的に垂直な方向に非連続的(例えば周期的)特徴を有する。
一実施例では、光パターンは互いに平行(または実質的に平行)に配列された幾つかの縞を含む。
任意選択的に、以下でさらに詳述する通り、光パターンの中に、手の指(すなわち人差し指から小指までの指または親指)による縞のセグメント化によって生じる、1つ以上の縞セグメントの1つ以上のクラスタを識別することができる。その結果として、指の動きの追跡210は、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって行なわれる。
任意選択的に、さらに、以下でさらに詳述する通り、例えば追跡されたクラスタ内のセグメントの数の変化を検知することによって、指の深度移動(例えばクリックと同様の動作またはタッチスクリーンのような操作)が識別される。
任意選択的に、さらに、光パターンの中で、手の掌による縞のセグメント化によって生じる1つ以上の縞セグメントの1つ以上のクラスタが識別される。その結果として、手の動きの追跡210は、掌による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって行なわれる。
任意選択的に、さらに、手に投射された光パターンの連続的特徴に沿ったノーテーションの位置のずれが検知される。検知されたずれは、以下でさらに詳述する通り、例えば手追跡器110による手の追跡210に使用される。
任意選択的に、例示的方法はさらに、追跡された210手の動きの中で、装置1000の管理者によって予め定められたジェスチャを検知することを含む。ジェスチャを検知すると、コンピュータ装置は、以下でさらに詳述する通り、検知されたジェスチャに対して予め定められた方法で(例えばコンピュータ制御器130によって)制御される230。
任意選択的に、予め定められたジェスチャが検知されると、第1画像は予め定められた位置に位置合せされる。一実施例では、ユーザがその手を振ると、画像提示器120は、第1画像を第2画像(例えばコンピュータキーボード画像またはGUI)の中心位置に位置合せする。
任意選択的に、予め定められたジェスチャが検知されると、第1画像は、以下でさらに詳述する通り、(例えば画像提示器120によって)サイズを変更される。
ここで図3を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のステップを実行するためのコンピュータ実行可能命令を格納するためのコンピュータ可読媒体を模式的に示すブロック図である。
本発明の例示的実施形態では、CD−ROM、USBメモリ、携帯ハードディスク、ディスケット等のようなコンピュータ可読媒体3000を提供する。
コンピュータ可読媒体3000は、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のステップを実行するためのコンピュータ実行可能命令を格納する。
コンピュータ実行可能命令は、以下でさらに詳述する通り、例えば指および親指の微細な動きを追跡するのに有用なパターンに構造化された光を投射された手の画像を用いて、コンピュータ装置のユーザの手の動きを追跡するステップ310を含む。
コンピュータ実行可能命令はさらに、上で詳述した通り、手を表わす第1画像および第2画像を、例えば装置のスクリーン上でユーザに提示するステップ320を含む。
ステップ320で、第1画像はさらに、以下でさらに詳述する通り、追跡された310ユーザの手の動きに呼応して動く。
任意選択的に、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
任意選択的に、第2画像は、以下でさらに詳述する通り、むしろコンピュータ入力装置、例えばキーボードまたはコンピュータマウスを表わす。
任意選択的に、第2画像は別のグラフィカルオブジェクト、ピクチャ等である。
第1画像は、スクリーンに提示されるユーザの手の完全かつ正確な動画像とすることができる。代替的に、第1画像はむしろ、手の指先の位置を表わす5つのカーソルから構成される。第1画像はまた、第2画像に対する指(すなわち人差し指から小指までの指、親指、または両方)の位置に関するユーザ情報をもたらす、いずれかの他の視覚的外観を有することもできる。
コンピュータ実行可能命令はさらに、第1画像と第2画像との間の相互作用に従ってコンピュータ装置が制御されるステップ330を含む。
その結果として、ユーザは、以下でさらに詳述する通り、第1画像および第2画像を相互作用させるように手を動かすことによって、コンピュータ装置を制御することが可能になる。
一実施例では、ユーザがその手を動かすと、第1画像がコンピュータキーボードの画像上で動く。
ユーザがその手をタイピング動作するように動かすと、コンピュータ装置は、以下でさらに詳述する通り、あたかもユーザが実際のキーボードを用いてタイピングしたかのように、コンピュータ装置が応答するように制御される330。
第2実施例では、ユーザがその手を動かすと、第1画像はコンピュータマウスの画像上で動く。
ユーザがその指をクリック動作するように動かすと、第1画像の指は、手の動作の動きと正確に相関してクリック動作するように動く。その結果として、コンピュータ装置は、コンピュータマウスの画像に対する第1画像の位置に従って(すなわち第1画像の指が第2画像のマウスのボタンに配置された状態で)、あたかもユーザが実際のコンピュータマウスのボタンの1つをクリックしたかのように応答する。
第3実施例では、第2画像は、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのような、コンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)である。
コンピュータ装置は、あたかも第1画像がユーザ自身の手であり、かつ第2画像が、ユーザがタッチスクリーンにその指をタッチすることによってGUIのメニュー、ボタン等と対話することを可能にする、タッチスクリーン上に提示されるGUIであるかのように、画像間の相互作用に従って制御される。
任意選択的に、手の動きの追跡310は、上で詳述した通り、二次元ビデオデータ(例えばカメラから流れる二次元ビデオ画像)を用いて実行される。
任意選択的に、動きは、手に投射される光パターンの連続的特徴のセグメント化(すなわち分割)を検知することによって、追跡される310。光パターンは、以下でさらに詳述する通り、第1方向に連続的特徴を有し、かつ第1方向に対し実質的に垂直な方向に非連続的特徴を有する。
一実施例では、光パターンは、互いに平行(または実質的に平行)に配列された幾つかの縞を含む。
任意選択的に、命令はさらに、以下でさらに詳述する通り、光パターンの中に、手の指(すなわち人差し指から小指までの指または親指)による縞のセグメント化によって生じる1つ以上の縞セグメントの1つ以上のクラスタを識別することを含む。その結果として、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、指の動きを追跡することができる310。
任意選択的に、命令はさらに、以下でさらに詳述する通り、例えば追跡されたクラスタ内のセグメントの数の変化を検知することによって、指の深度移動を識別することを含む。
任意選択的に、命令はさらに、光パターンの中に、手の掌による縞のセグメント化によって生じる1つ以上の縞セグメントの1つ以上のクラスタを識別することを含む。その結果として、掌による縞のセグメント化(すなわち分割)によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、手の動きを追跡することができる310。
任意選択的に、命令はさらに、手に投射された光パターンの連続的特徴に沿ったノーテーションの位置のずれを検知することを含む。検知されたずれは、以下でさらに詳述する通り、手を追跡する310ために使用される。
任意選択的に、命令はさらに、追跡された310手の動きの中に、管理者によって予め定められたジェスチャを検知することを含む。ジェスチャを検知すると、コンピュータ装置は、以下でさらに詳述する通り、検知されたジェスチャに対して予め定められた方法で制御される330。
任意選択的に、命令はさらに、予め定められたジェスチャを検出すると、第1画像を予め定められた位置に位置合せするステップを含む。一実施例では、ユーザがその手を振ると、第1画像は、第2画像(例えばコンピュータキーボードの画像またはGUI)上の中心位置に位置合せされる。
任意選択的に、命令はさらに、以下でさらに詳述する通り、予め定められたジェスチャを検出すると、第1画像がサイズを変更されるステップをさらに含む。
ここで図4を参照すると、それは、本発明の例示的実施形態に係る、光パターンを投射された手を模式的に示す。
例示的実施形態では、手の動きの追跡は、人差し指から小指までの指および親指の微細な動きのような手の動きの検知を可能にするように設計された光パターンを用いて実行される。
特別に設計された光パターンは、上で詳述した通り、三次元深度マップとは異なり、手が身体の残部から容易に分離されない二次元ビデオデータにおいてさえも、距離に従って動きを追跡することを可能にする。
任意選択的に、光パターンは、二次元ビデオデータ(例えば通常のビデオカメラから流れるビデオ画像)において手の指の動きを追跡するように特別に設計される。さらに詳しくは、光パターンは、以下でさらに詳述する通り、指によるパターンの歪みに従って、二次元ビデオデータにおいて指(すなわち人差し指から小指までの指および親指)のみならず掌をも検知および追跡することを可能にするように設計することができる。
任意選択的に、光パターンは第1方向(例えばX軸方向)に連続的特徴を有し、かつ第1方向に対し実質的に垂直な方向(例えばY軸方向)に非連続的(例えば周期的)特徴を有する。
そのようなパターンの一実施例では、光パターンは、図4を用いて模式的に示す通り、互いに平行(または実質的に平行)に配列された幾つかの縞を含む。
カメラは、縞のパターンを手410および背景420(例えば手が載置されている台、壁等の表面)に投射する投光器より上の、Y軸方向に特定の距離に配置される。
カメラの位置は、当業界で公知の通り、カメラ、投光器、ならびにユーザの手410および背景420から反射される光の間に三角効果(triangulation effect)を形成するように選択される。
三角効果は、光パターンを投射された物体からの著しい深度ずれが存在する縞に沿った位置に、パターンの不連続性を生じる。
不連続性は、縞を2つ以上の縞セグメント、例えば手に位置するセグメント431、手の左側に位置するセグメント432、および手の右側に位置するセグメント433にセグメント化(すなわち分割)する。
そのような深度ずれから生じる縞セグメントは、カメラとユーザの身体との間に位置するユーザの手の掌または指の輪郭線上に位置付けることができる。
すなわち、ユーザの指または掌は、縞を2つ以上の縞セグメントにセグメント化する。
ひとたびそのような縞セグメントが検知されると、縞セグメントを縞セグメントの終わりまで追跡することは容易である。
手追跡器110はこうして二次元ビデオデータ(例えばカメラから手追跡器110に転送されるビデオ・ストリーム)を解析して、縞セグメントのクラスタを生成することができる。
例えば、手追跡器110は、光パターンの中に、手の指による縞のセグメント化によって生じる1つ以上の縞セグメントのクラスタ、例えば手の中指から反射される4つのセグメントのクラスタ441を識別することができる。その結果として、手追跡器110は、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、指の動きを追跡する。
指による縞のセグメント化(すなわち分割)によって生じる縞セグメントのクラスタは、X軸方向に重複する縞セグメントを含む。任意選択的に、クラスタ内の縞セグメントはさらに、同様の長さ(指の太さから導出される)またはY軸座標の相対的近接性を有する。
X軸上で、セグメントは、まっすぐに置かれた指では完全に重複し、X−Y面内に斜めに置かれた指では部分的に重複する。
任意選択的に、手追跡器110はさらに、例えば追跡されるクラスタ内のセグメントの数の変化を検知することによって、指の深度移動を識別する。
例えば、ユーザがその中指を伸ばすと、その指と投光器およびカメラの平面(X−Y面)との間の角度が変化する。その結果として、クラスタ441内のセグメントの数が4から3に減少する。
任意選択的に、手追跡器110はさらに、光パターンの中に、手の掌による縞のセグメント化によって生じる1つ以上の縞セグメントの1つ以上のクラスタを識別する。その結果として、掌による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって、またはクラスタのセグメントの少なくとも1つを追跡することによって、手の動きが追跡される210。
掌による縞のセグメント化によって生じる縞セグメントのクラスタは、X軸方向にユーザの手の指の縞セグメントクラスタと重複する上部縞セグメント431を含む。
上部縞セグメント431はX軸方向に4つの指クラスタが重複するが、4つの指クラスタの最下セグメントの最小および最大X値を超えない。
掌による縞のセグメント化によって生じる縞セグメントのクラスタはさらに、セグメント431の真下に、縞セグメント431とかなり重複する少数の縞セグメントを含む。掌による縞のセグメント化によって生じる縞セグメントのクラスタはさらに、ユーザの親指の縞セグメントクラスタ451の基部まで延びる、より長い縞セグメントを含む。
指および掌クラスタの向きは、特定の手の位置および回転により変化する。
ここで図5を参照すると、それは、本発明の例示的実施形態に係る、強度ノーテーションを有する光パターンを投射された手を模式的に示す。
これまでに示した光パターンによる1つの問題は、縞セグメント一体化問題である。
場合によっては、手の背景から反射した縞セグメントは、手から反射した縞セグメントと一体化することがある。その結果として、掌および指の縞セグメントクラスタを見つけることができず、手を追跡することができなくなる。
縞セグメント一体化問題を克服するのに役立つ1つの方法は、図5に示す通り、各縞に沿った周期的ノーテーションの導入を介するものである。
任意選択的に、ノーテーションは、縞に沿って変化する光強度320の形、または縞に沿って一定の間隔で現われる、短い垂直線のような特定の形状の形を取る。
周期的ノーテーションの導入に加えて、カメラは投光器に対して、上で詳述したようにY軸方向に間隙を置くだけでなく、X軸方向にも間隙を置いて配置される。X軸方向のこの間隙は、物体の距離に対して縞に沿ったノーテーションの位置に位相ずれを生成する。
その結果として、手から反射した縞セグメントが背景から反射したセグメントと一体化する場合に、セグメントは依然として、異なる位相の周期的ノーテーションを有する。任意選択的に、カメラと投光器との間の垂直方向および水平方向の距離の比は、セグメントが一体化される場合にセグメント間のノーテーションの位相ずれが最大になるように、慎重に選択される。
一体化されるセグメントの問題を克服するのに有用であることが証明される第2の方法は、カメラおよび投光器のセットアップを、それらのZ軸上の位置も異なるように変更することによる。
カメラと投光器との間のZ軸上の位置の相違は、カメラおよび投光器を異なるZ軸位置に物理的に配置することによって、または投光パターンの前に特定の距離を置いて負レンズまたは正レンズを配置することによって、もたらすことができる。
その結果として、物体から反射される光パターンの縞セグメントは、異なる物体距離に異なる周期を有する。したがって、手から反射した縞セグメントの1つが背景から反射した縞セグメントとたとえ一体化しても、隣接する線は周期が異なるため一体化しない。
一体化されるセグメントの問題を克服するのに有用であることが証明される第3の方法は、上で詳述した通り、光ビームを異なる断面強度プロファイルの光ビームに変換する微細構造素子を使用して実行される。
断面強度プロファイルは、光パターンを反射する物体の投光器からの距離に従って変化する。
その結果として、上で詳述した通り、手から反射した縞セグメントの断面強度プロファイルと、背景から反射した縞セグメントの断面強度プロファイルとは異なる。
本発明の例示的実施形態に係る方法はさらに、指による縞のセグメント化によって生じた縞セグメントのクラスタの垂直移動、縞セグメントのノーテーションの水平移動、または両方を検知することによって、手の指の深度移動を追跡することを含むことができる。
任意選択的に、指の深度移動の追跡は、指による縞のセグメント化によって生じる縞セグメントのクラスタにおける最上セグメントの垂直方向の移動を検知することによって実行される。最上セグメントは、Z−Y面内における指の最も重要な動きを実行する指の先を表わす。
任意選択的に、深度移動の追跡は、追跡されるクラスタ内のセグメントの数の変化を検知することによって実行される。すなわち、手の指の深度移動(すなわちZ軸方向の動き)は、指の追跡される縞セグメントの1つを上方に移動させて消失させ、新しい縞セグメントを出現させるなどする。
ここで図6を参照すると、それは、本発明の例示的実施形態に係る、コンピュータキーボードの画像を用いるコンピュータ装置の遠隔手制御を模式的に示すブロック図である。
本発明の例示的実施形態では、コンピュータ装置(例えばデスクトップコンピュータ)のユーザの手610の動きは連続的に追跡される。
ユーザに対し、当業界で公知の通り、手を表わす第1画像620、およびコンピュータ入力装置、例えばコンピュータキーボード、コンピュータマウス、ジョイスティック等を表わす第2画像がスクリーン上に提示される。
第1画像620は、スクリーン上に提示されるユーザの手の完全かつ正確な動画像とすることができる。代替的に、第1画像620は、手610の指先の位置を表わす5つのカーソルから構成することができる。第1画像620はまた、同じくスクリーン上に表示されるコンピュータ入力装置に対する指(すなわち人差し指から小指までの指および親指)の位置に関するユーザ情報をもたらす、いずれかの他の視覚的外観を持つこともできる。
ユーザが手610(またはその人差し指から小指までの指もしくは親指)を動かすと、追跡された動きに呼応して第1画像620が動く。すなわち、第1画像620の動きはユーザ自身の手610の動きと相関する。ユーザがその手610を左に動かすと、第1画像620は左に動く。ユーザがその指の1本を屈曲すると、第1画像620も指を屈曲するなどする。
コンピュータ装置は、あたかも画像620内の手がユーザ自身の手610であり、かつ入力装置がコンピュータ装置に接続された実際のコンピュータ入力装置であるかのように、第1画像620と第2画像との間の相互作用に従って制御される。コンピュータ入力装置は、キーボード、ジョイスティック、コンピュータマウス等のような標準的周辺コンピュータ装置を含むが、それらに限定されない。
ユーザはこうして、第1画像620および第2画像を相互作用させるようにユーザの手610を動かすことによって、コンピュータ装置を遠隔的に制御することが可能になる。
その結果として、ユーザの手610の動きによるコンピュータ装置の遠隔制御は、(特定のジェスチャを定義することもできるが)予め定められた特定のジェスチャのセットに限定されたインタフェースではなく、連続的ユーザインタフェースに基づく。
一実施例では、ユーザがその手610を動かすと、第1画像620はコンピュータキーボードの画像上で動き、ユーザがその指をタイピング動作するように動かすと、コンピュータ装置は、以下でさらに詳述する通り、あたかもユーザが実際のキーボードをタイピングしているかのように応答する。
一実施例では、第1画像620の第二指が、コンピュータキーボードの画像の「C」文字の真上に位置する。ユーザがその手610の第二指で押す動作を行なうと、第1画像620の第二指は平行移動して、スクリーン上に提示された画像のキーボード画像の「C」文字を押す。その結果として、コンピュータ装置は、コンピュータ装置にワイヤ接続された実際のキーボードの「C」文字がユーザによってユーザ自身の指を用いて押されたかのように、応答する。
当該実施例では、三次元空間におけるユーザの手の絶対位置は関係せず、ユーザの指の動きだけを追跡する必要がある。
第1画像620の動きは、ユーザ自身の手610の動きと正確に相関するが、異なる縮尺で実行することができる。すなわち、第1画像620のサイズは、ユーザの実際の手610のサイズとは異なってもよい。
任意選択的に、装置1000のジェスチャ認識器はさらに、以下でさらに詳述する通り、ユーザが第1画像620のサイズを変更することを可能にする。
ここで図7を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第1ジェスチャを模式的に示すブロック図である。
本発明の例示的実施形態に係る装置は、上で詳述した通り、ジェスチャ認識器を含むことができる。
本発明の例示的実施形態に係る第1の例示的ジェスチャは、ユーザがその手710をカメラの前で(例えば指および手を側方に素早く小さく揺り動かすことによって)振るリセットジェスチャである。
リセットジェスチャを検知すると、スクリーン上に提示された第1画像は、第2画像上で予め定められた位置に、例えば第2画像に提示されたコンピュータ入力装置上の予め定められた位置に、またはスクリーン上に提示されたスプレッドシートのようなグラフィカル・ユーザ・インタフェースの1行目の位置に移動する。
一実施例では、例示的リセットジェスチャを検知すると、画像提示器120は、上で詳述した通り、第1画像を表示されたコンピュータキーボードの中心の位置に移動させる。
例示的リセットジェスチャは各指の別々の動きを含むので、例示的リセットジェスチャはさらに、指の位置の検出を容易化することができる。
ここで図8を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第2ジェスチャを模式的に示すブロック図である。
第2の例示的ジェスチャはサイズ変更ジェスチャ、例えばユーザがその手810を予め定められた方向に回転させるジェスチャである。
任意選択的に、例示的サイズ変更ジェスチャを検知すると、画像提示器120は、サイズまたはズームレベルに関して第2画像を変更することなく、スクリーンに表示された第1画像のサイズを変更する。
例えば、全スクリーンモードで表示されたキーボードの画像と対話するユーザは、ユーザの実際の手の比較的小さい動きにより(動きの規模は手の画像のサイズに依存するので)、キーボードの片側から反対側に移るために、より大きい第1画像(例えば手の画像)を使用することを希望することがある。しかし、ユーザは、自分のウェブブラウザ上で小さいフォントのテキストを選択するために、より小さい第1画像(例えば手の画像)を必要とすることがある。
代替的に、第1画像(すなわち手の画像)のサイズは一定に維持され、画像提示器120はむしろ縮小、拡大、ズームイン、またはズームアウトする第2画像(例えばキーボード)のサイズを変更し、こうして第1画像と第2画像との間のサイズの割合を変更する。
ここで図9を参照すると、それは、本発明の実施形態に係る、コンピュータ装置を遠隔手制御するための第3ジェスチャを模式的に示すブロック図である。
第3の例示的ジェスチャはクリック(またはダブルクリック)ジェスチャであり、例えばユーザがその手の1本または2本の指を用いてクリックする910ジェスチャである。
任意選択的に、例示的クリック(またはダブルクリック)ジェスチャを検知すると、画像提示器120は、ユーザの指の動きと正確に同調して、第1画像の指をクリック動作するように動かす。
例えば、ユーザはコンピュータマウスの画像を提示され、画像内のコンピュータマウスの上の位置に第1画像を動かすことができる。
ユーザが自分自身の指をクリック動作するように動かすと、第1画像の指がコンピュータマウスの画像上でクリックし、コンピュータ制御器130は、あたかもユーザがユーザ自身の指で実際のコンピュータマウスをクリックしたかのように、コンピュータ装置に応答させる。
ここで図10を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のための第4ジェスチャを模式的に示すブロック図である。
第4の例示的ジェスチャは、例えばユーザの手1010を引張り動作するように動かすことによって、または(スマートフォンのタッチスクリーン上で指を互いに離れるように動かすのと同様に)ユーザの指の2本を互いに離れるように動かすことによって、ユーザがコンピュータ装置のスクリーン上に提示された画像をズームインまたは単純に拡大するジェスチャのような、ズーミングジェスチャである。
一実施例では、互いに離れる指の動きを検知すると、画像提示器120は、ユーザの指の動きと平行に、第1画像の2本の指を互いに離れるように動かす。コンピュータ制御器130は、コンピュータ装置のスクリーン上に提示された画像をズームインまたは拡大するようにコンピュータ装置(例えばセルラ・スマート・フォン)を制御し、こうして、ユーザに実際のタッチスクリーンをタッチさせることなく、ユーザにタッチスクリーンのような機能性を提供する。
本発明の例示的実施形態は、種々の他のユーザジェスチャ、例えばユーザがその指を閉じるスクロール・ダウン・ジェスチャ、またはユーザがその指を反対方向に動かすスクロール・アップ・ジェスチャを提供する。ジェスチャは、片方または両方の手、1本以上の指、手および指等により実行することができる。
しかし、本発明の例示的実施形態では、ユーザの手の動きによるコンピュータ装置の遠隔制御は、(特定のジェスチャを定義することもできるが)特定のジェスチャの予め定められたセットに限定されるインタフェースにではなく、連続的ユーザインタフェースに基づく。
例えば、コンピュータ装置の遠隔制御は、コンピュータ装置のスクリーン上に提示されたコンピュータキーボードの画像とユーザの連続的対話に基づくことができる。ユーザは、その手を空中で動かし、こうして第1画像をキーボード上で動かして、上で詳述した通り、ユーザの指をタイピング動作するように動かし、こうして第1画像の指によりキーボード上でタイピングすること等が可能になる。
別の実施例では、第1画像がスクリーン上に提示されるコンピュータマウスを保持し、マウスをドラッグするなど、対話を通して第1画像を動かすために(ユーザは)その手を動かす。コンピュータ装置は、あたかも実際のマウスがユーザによってユーザ自身の手を用いてドラッグされているかのように、スクリーン上でカーソルを動かす。
任意選択的に、当該実施例では、ユーザはさらに、単一の小さい中指動作によってマウスを自動的に移動させることができる。その結果として、マウスはスクリーンの片側から反対側に自動的に移動し、あるいはマウスはむしろ、予め定められた距離または時間(例えば3秒間)移動する。
さらに別の実施例では、ボタンおよびメニューオプションを持つMicrosoft(商標)Excelスプレッドシート、ハイパーリンク、ボタン等を持つウェブページのようなコンピュータアプリケーションのグラフィカル・ユーザ・インタフェース(GUI)が、コンピュータ装置のスクリーン上でユーザに提示される。
コンピュータ装置は、あたかもユーザが、GUIをユーザに提示するタッチスクリーンに、ユーザ自身の指をタッチしたかのように、ユーザ自身の手および指の動きに呼応して動く手の画像とGUIのメニュー、ボタン等との間の連続的対話に従って制御される。
ここで図11を参照すると、それは、本発明の例示的実施形態に係る、コンピュータ装置の遠隔手制御のためのシステムを模式的に示すブロック図である。
コンピュータ装置の遠隔手制御のための例示的システムは、上で詳述した通り、装置1000の部品を含む。
任意選択的に、装置1000の部品の1つ以上、例えばカメラおよび投光器は移動ユニット1110に設置される。移動ユニット1110は、装置1000の他の部品、コンピュータ装置1120(例えば、Apple(商標)iMacコンピュータ、コンピュータプロセッサ付きTV受像機等のような、スクリーンと結合されたコンピュータ)、または両方と無線連絡する。
ユーザは、移動ユニット1110をテーブル上に配置することができる。
次いで、ユーザはテーブルの横の椅子に着座し、その手を動かし、それによってコンピュータ装置1120を制御することができる。ユーザは、上で詳述した通り、(ユーザの手を表わす)第1画像と、コンピュータ装置1120のスクリーンに提示されたコンピュータキーボードの画像との相互作用を介して、コンピュータ装置1120を制御する。
本発明の例示的方法および装置は、さらなる用途に使用することができる。
例えば、携帯電話機では、装置1000はユーザが携帯電話機に触れることなく、スクロール、テキストの打ち込み、ズーム、およびクリックを行なうことを可能にする。その結果として、携帯電話機は小さくすることができるが、あたかも電話機がフルサイズのコンピュータキーボードを有するかのように、依然として携帯電話機との対話が可能である。
任意選択的に、携帯電話機は、壁に画像を映写することのできるプロジェクタを有する。装置1000を使用して、ユーザは、電話機の制御器の画像の隣に映写された第1画像を動かすことができ、制御器は通常の電話機のボタンまたはタッチスクリーンである。
その結果として、ユーザは、あたかもユーザが自身の手を用いて実際の電話機の制御器を直接操作するかのように、第1画像(例えば手の画像)を電話機の制御器の画像と相互作用させ、こうして相互作用に従って電話機を操作することができる。
別の実施例では、コンピュータ装置は、自動車に設置されたコンピュータ装置(例えばGPSユニットまたは電話ユニット)である。
運転しながらコンピュータ装置を操作することは、運転者は自動車のフロントウィンドウを通して道路に目を向けるよりむしろ、コンピュータ装置を操作するために、脇に目を向けなければならないので、そのような装置に典型的に設けられたインタフェース(すなわち小さいボタンまたはタッチスクリーン)の性質上、危険である。
本発明の実施形態の装置1000は自動車のコンピュータ装置に設置すること(または自動車のコンピュータ装置と連絡すること)ができる。
手追跡器110は、運転者の手および指の動きを追跡し、それによって、運転者の目を道路からユニットの小さいボタンを操作するその指に動かすことなく、運転者がコンピュータ装置(例えばGPSまたは電話ユニット)を制御することを可能にする。
任意選択的に、手の画像およびGPSまたは電話ユニットのキーの画像は、ウィンドウを介する視界を著しく妨げることなく、自動車のフロントウィンドウに設置された小さいスクリーン上で運転者に提示される。
運転者自身の手の実際の正確な位置は変化してもよい。
すなわち、運転者は、実際に番号をダイヤルするかまたはGPSユニットのガイドシステムで行先を選択するために、どこでも自分に便利と思う場所でクリックすることができる。
その結果として、運転者は、スクリーンが設置されたフロントウィンドウを覗き込み、かつ目を道路に向け続けながら、ハンドルの任意の領域で自分の手を使用して、GPSまたは電話ユニットを制御することができる。
さらに、運転者は、上で詳述した通り、リセット動作でその手を振ることができる。その結果として、第1画像は、スクリーン上に存在する自動車電話機の番号の中心、または自動車のGPSユニットのタッチスクリーンのボタンに配置される。
装置1000はまた、楽器に、例えばシンセサイザ、DJターンテーブル、または上で詳述した通り、ユーザの手の動きによって案内される別の楽器に設置することもできる。
本特許の存続期間の期間中には、多くの関連する装置およびシステムが開発されることが予想され、本明細書中の(特に、「コンピュータ」、「CD−ROM」、「USBメモリ」、「ハードディスク」、「カメラ」、「回折光学素子」、「レーザダイオード」、および「LED」)用語の範囲は、すべてのそのような新しい技術を先験的に包含することが意図される。
明確にするため別個の実施形態で説明されている本発明の特定の特徴は単一の実施形態に組み合わせて提供することもできることは分かるであろう。逆に、簡潔にするため単一の実施形態で説明されている本発明の各種の特徴は別個にまたは適切なサブコンビネーションで提供することもできる。
本発明はその特定の実施形態によって説明してきたが、多くの別法、変更および変形があることは当業者には明らかであることは明白である。従って、本発明は、本願の請求項の精神と広い範囲の中に入るこのような別法、変更および変形すべてを包含するものである。
本明細書中で言及した刊行物、特許および特許願はすべて、個々の刊行物、特許または特許願が各々あたかも具体的にかつ個々に引用提示されているのと同程度に、全体を本明細書に援用するものである。さらに、本願で引用または確認したことは本発明の先行技術として利用できるという自白とみなすべきではない。
さらなる概論
一部の方法は、デジタル・ビデオ・ストリームからの通常の画像解析を含む。
ビデオ画像はしたがって、関心のある特定領域、通常は手、顔、腕等のような身体部分を検知するために解析される。
身体部分の位置および姿勢が検知された後、身体のジェスチャが検知され、コンピュータスクリーン上またはTV上に表示された媒体を制御するように変換される。ユーザの手および指のような身体部分を検知するには、最初に画像内の各画素をその色値によって解析し、それをその環境内の他の画素と比較する必要がある。そのような方法は、長い計算時間ならびに誤りおよび読取りミスの比較的高い百分率を免れない。主な問題の1つは、検知すべき手の背後の背景に由来する。例えば、該方法は、皮膚の色に近い色のシャツまたは別の複雑な模様のあるシャツを着用しているユーザの手を検知することが困難である。部屋の照明も検出性能に影響を及ぼす。カメラに対する手の角度も、この方法では問題になることがある。手の形はその回転により変化し、指先は、手の残部をカメラの方向に向けて、同一軸上に存在し、したがって色の差によって検知されないことがある。
手の検知およびジェスチャの認知のための他の方法は、3D深度マップを使用することを含む。深度マップとは、画素によって表わされる、深度カメラの前に位置する物体の部分までの距離を各画素に保持する画像である。深度は、通常の2Dビデオ解析に存在する問題の多くを解決する。手は通常身体の前に位置しており、したがって特定の距離を越える画像の部分を取り除くことによって分離することができるので、手の位置の抽出は比較的容易である。そのような方法により、カメラに対する手の角度は同じように重要性が低くなる。手または身体の最も近い部分は、背景の色を考慮することなく、距離だけで検知することができる。しかし、完全な3D深度マップを取得するには比較的複雑なハードウェアおよび計算量が必要である。
人体の完全な深度マップは、ゲームのようなジェスチャ認知の特定のアプリケーションには重要である。例えば、テニス・ゲーム・アプリケーションでは、ユーザの手が、ボールを打つことができるように後ろに伸ばされるか、あるいはネット近くでボールを阻止するために前に伸ばされる場合に、ユーザの位置をいかに正確に突き止めるかが重要である。しかし、ジェスチャ駆動仮想キーボードまたはマウスのような他のアプリケーションは、アプリケーションを制御するために、手および指の完全な3D深度マップを必要としない。
したがって、上で詳細に教示した通り、中間ステップとして完全な3D深度マップを取得することなく、光パターン画像から直接ジェスチャを抽出することは有利であることが証明されるであろう。
画像の比較に基づく解決策は、ジェスチャを直接検知するために、グリッドパターンのような構造化光パターンを使用する。比較に基づく解決策は、グリッドパターンの歪みを検知し、該歪みを、特定のジェスチャを表わす、予め定められたグリッドパターンの歪みのセットと比較する。ひとたび検知されると、ジェスチャは、各ジェスチャに配属されたコンピュータ動作を起動させる。画像比較に基づく解決策は、取得された光パターン画像に対して手のジェスチャを直接抽出するが、それらは予め定められたジェスチャの離散的セットに限られており、上で詳述した通り、ユーザの手および指の柔軟な追跡および表現、ならびに連続的ユーザインタフェースを介するコンピュータ装置の制御を提案するものではない。

Claims (40)

  1. コンピュータ装置の遠隔手制御のための装置であって、
    コンピュータ装置のユーザの手の動きを追跡するように構成された手追跡器と、
    前記手追跡器に関連付けられ、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに従って第1画像を動かすように構成された画像提示器と、
    前記画像提示器に関連付けられ、第1画像と第2画像との間の相互作用に応じてコンピュータ装置を制御するように構成され、それによって、第1画像および第2画像を前記相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするコンピュータ制御器と
    を備え、
    前記手追跡器はさらに、手に投射される光パターンの連続的特徴のセグメント化を検知することによって動きを追跡するように構成され、平らな表面に投射される光パターンは、第1方向に前記連続的特徴を有し、第1方向に対し実質的に垂直な方向に非連続的であり、
    前記手追跡器は、前記連続的特徴に沿って反射された光の光強度プロファイルの変化に基づいて前記連続的特徴のセグメント化を検知するように構成されている、装置。
  2. 前記手追跡器はさらに、手の動きを追跡するために、二次元ビデオデータを使用するように構成される、請求項1に記載の装置。
  3. 光パターンは、互いに実質的に平行に配列された複数の縞を含み、前記手追跡器はさらに、光パターンにおいて、手のそれぞれの指による縞のセグメント化によって生じる縞セグメントの少なくとも1つのクラスタを識別し、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって指の動きを追跡するように構成される、請求項1に記載の装置。
  4. 前記手追跡器はさらに、追跡されたクラスタ内の縞のセグメントの数の変化を検知することによって、指の深度移動を識別するように構成される、請求項3に記載の装置。
  5. 投射された光パターンにおける連続的特徴は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項1に記載の装置。
  6. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項1に記載の装置。
  7. コンピュータ装置の遠隔手制御のための装置であって、
    コンピュータ装置のユーザの手の動きを追跡するように構成された手追跡器と、
    前記手追跡器に関連付けられ、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに従って第1画像を動かすように構成された画像提示器と、
    前記画像提示器に関連付けられ、第1画像と第2画像との間の相互作用に応じてコンピュータ装置を制御するように構成され、それによって、第1画像および第2画像を前記相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするコンピュータ制御器と
    を備え、
    前記手追跡器は光パターンを投射するように構成され、
    前記光パターンは、互いに実質的に平行に配列された複数の縞を含み、前記手追跡器はさらに、光パターンにおいて、手の掌による縞のセグメント化によって生じる縞セグメントの少なくとも1つのクラスタを識別し、掌による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって手の動きを追跡するように構成され、
    前記手追跡器は、前記縞に沿って反射された光の光強度プロファイルの変化に基づいて前記縞セグメントを生じるように構成されている、装置。
  8. 投射された光パターンにおける複数の縞は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項7に記載の装置。
  9. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項7に記載の装置。
  10. コンピュータ装置の遠隔手制御のための装置であって、
    コンピュータ装置のユーザの手の動きを追跡するように構成された手追跡器と、
    前記手追跡器に関連付けられ、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに従って第1画像を動かすように構成された画像提示器と、
    前記画像提示器に関連付けられ、第1画像と第2画像との間の相互作用に応じてコンピュータ装置を制御するように構成され、それによって、第1画像および第2画像を前記相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするコンピュータ制御器と
    を備え、
    前記手追跡器はさらに、対象を識別しかつ追跡することからなる群の少なくとも1つの要素を実施するように構成され、前記要素は、手に投射される光パターンの連続的特徴に沿ったノーテーションの位置のずれを検知することによって実施され、
    前記手追跡器は、前記連続的特徴に沿って反射された光の光強度プロファイルの変化に基づいて前記連続的特徴に沿ったノーテーションの位置のずれを検知するように構成されている、請求項1に記載の装置。
  11. 投射された光パターンにおける連続的特徴は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項10に記載の装置。
  12. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項10に記載の装置。
  13. 第1方向に連続的特徴を有し、かつ第1方向に対し実質的に垂直な方向に非連続的特徴を有する光パターンを手の上に投射するように構成された投光器と、
    前記手追跡器に関連付けられ、光パターンを投射された手の画像を取得することにより第一画像を取得するように構成されたカメラと
    を備えた、請求項1に記載の装置。
  14. 前記投光器はコンピュータ装置から遠隔位置にある、請求項13に記載の装置。
  15. 前記カメラはコンピュータ装置から遠隔位置にある、請求項13に記載の装置。
  16. 前記投光器は、光ビームを放出するように構成された光源と、
    光パターンを生成するために、光ビームを修正するように構成された微細構造素子と
    を備えた、請求項13に記載の装置。
  17. 前記微細構造素子はさらに、光ビームを、光ビームに沿って変化する断面強度プロファイルを有する光ビームに変換するように構成される、請求項16に記載の装置。
  18. 前記手追跡器に関連付けられ、追跡された手の動きの中で予め定められたジェスチャを検知するように構成されたジェスチャ認識器をさらに含み、前記コンピュータ制御器はさらに、検知されたジェスチャに対し予め定められた方法でコンピュータ装置を制御するように構成される、請求項1に記載の装置。
  19. 前記画像提示器はさらに、予め定められたジェスチャを検知すると、第1画像を予め定められた位置に位置合せすること、第1画像のサイズを変更すること、及び第2画像のサイズを変更することからなる群からの1つの要素を実施するように構成される、請求項18に記載の装置。
  20. 前記コンピュータ制御器は、携帯電話機、自動車に据え付けられる装置、及び楽器からなる群の1つの要素の一部である、請求項1に記載の装置。
  21. 前記手追跡器は、コンピュータ装置から遠隔位置にある、請求項1に記載の装置。
  22. 第2画像は、コンピュータ入力装置を表わす、請求項1に記載の装置。
  23. コンピュータ装置の遠隔手制御のためのコンピュータ実装方法であって、コンピュータ装置が実行するようにプログラムされたステップを含み、該ステップが
    a)コンピュータ装置のユーザの手の動きを追跡するステップと、
    b)手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、
    c)第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップと
    を含み、
    手の動きの前記追跡はさらに、手に投射された光パターンの連続的特徴のセグメント化を検知することを含み、平らな表面に投射される光パターンは、第1方向に前記連続的特徴を有し、第1方向に対して実質的に垂直な方向に非連続的であり、
    前記連続的特徴のセグメント化を検知することは、前記連続的特徴に沿って反射された光の光強度プロファイルの変化に基づいている、方法。
  24. 手の動きの前記追跡は、二次元ビデオデータを用いて実行される、請求項23に記載の方法。
  25. 投射された光パターンにおける連続的特徴は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項23に記載の方法。
  26. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項23に記載の方法。
  27. コンピュータ装置の遠隔手制御のためのコンピュータ実装方法であって、コンピュータ装置が実行するようにプログラムされたステップを含み、該ステップが
    a)コンピュータ装置のユーザの手の動きを追跡するステップと、
    b)手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、
    c)第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップと
    を含み、
    前記追跡は光パターンを投射することをさらに含み、
    前記光パターンは、互いに実質的に平行に配列された複数の縞を含み、方法はさらに、光パターンにおいて、手のそれぞれの指による縞のセグメント化によって生じる縞セグメントの少なくとも1つのクラスタを識別し、指による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって指の動きを追跡することを含み、ただし、前記縞のセグメント化は、前記縞に沿って反射された光の光強度プロファイルの変化に基づいている、方法。
  28. 追跡されたクラスタ内の縞のセグメントの数の変化を検知することによって、指の深度移動を識別することをさらに含む、請求項27に記載の方法。
  29. 投射された光パターンにおいて互いに実質的に平行に配列された複数の縞はそれぞれ、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項27に記載の方法。
  30. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項27に記載の方法。
  31. コンピュータ装置の遠隔手制御のためのコンピュータ実装方法であって、コンピュータ装置が実行するようにプログラムされたステップを含み、該ステップが
    a)コンピュータ装置のユーザの手の動きを追跡するステップと、
    b)手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、
    c)第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップと
    を含み、
    前記追跡は光パターンを投射することをさらに含み、
    前記光パターンは、互いに実質的に平行に配列された複数の縞を含み、方法はさらに、光パターンにおいて、手の掌による縞のセグメント化によって生じる縞セグメントの少なくとも1つのクラスタを識別し、掌による縞のセグメント化によって生じる縞セグメントのクラスタを追跡することによって手の動きを追跡することを含み、ただし、前記縞のセグメント化は、前記縞に沿って反射された光の光強度プロファイルの変化に基づいている、方法。
  32. 手の動きの前記追跡は、手に投射された光パターンの連続的特徴に沿ったノーテーションの位置のずれを検知することをさらに含む、請求項31に記載の方法。
  33. 投射された光パターンにおいて互いに実質的に平行に配列された複数の縞はそれぞれ、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項31に記載の方法。
  34. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項31に記載の方法。
  35. コンピュータ装置の遠隔手制御のためのステップを実行するためのコンピュータ実行可能命令を格納する非一時的なコンピュータ可読媒体であって、該ステップが
    a)コンピュータ装置のユーザの手の動きを追跡するステップと、
    b)手を表わす第1画像および第2画像をユーザに提示し、かつ追跡された動きに呼応して第1画像を動かすステップと、
    c)第1画像と第2画像との間の相互作用に従ってコンピュータ装置を制御し、それによって、第1画像および第2画像を相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするステップと
    を含み、前記追跡はさらに、手に投射された光パターンの連続的特徴のセグメント化を検知することを含み、平らな表面に投射される光パターンは、第1方向に前記連続的特徴を有し、第1方向に対して実質的に垂直な方向に非連続的であり、
    前記追跡は、前記連続的特徴に沿って反射された光の光強度プロファイルの変化に基づいて前記連続的特徴のセグメント化を検知する、コンピュータ可読媒体。
  36. 投射された光パターンにおける連続的特徴は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項35に記載のコンピュータ可読媒体。
  37. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項35に記載のコンピュータ可読媒体。
  38. コンピュータ装置の遠隔手制御のための装置であって、
    コンピュータ装置のユーザの手を追跡するように構成された手追跡器と、
    前記手追跡器に関連付けられ、手を表わす第1画像および第2画像をユーザに提示し、かつ追跡に従って第1画像を動かすように構成された画像提示器と、
    前記画像提示器に関連付けられ、第1画像と第2画像との間の相互作用に応じてコンピュータ装置を制御するように構成され、それによって、第1画像および第2画像を前記相互作用させるように手を動かすことにより、ユーザがコンピュータ装置を制御することを可能にするコンピュータ制御器と
    を備え、
    前記手追跡器はさらに、手に投射される光パターンの連続的特徴のセグメント化を検知することによって手を追跡するように構成され、平らな表面に投射される光パターンは、第1方向に前記連続的特徴を有し、第1方向に対し実質的に垂直な方向に非連続的であり、
    前記手追跡器は、前記連続的特徴に沿って反射された光の光強度プロファイルの変化に基づいて前記連続的特徴のセグメント化を検知するように構成されている、装置。
  39. 投射された光パターンにおける連続的特徴は、光パターンの伝搬方向に垂直な方向に変化する光強度プロファイルを有する、請求項38に記載の装置。
  40. 投射された光パターンは、光が物体に向かって伝搬する方向に変化する断面強度プロファイルを有する、請求項38に記載の装置。
JP2012530394A 2009-09-22 2010-09-19 コンピュータ装置の遠隔制御 Active JP5926184B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US24447309P 2009-09-22 2009-09-22
US61/244,473 2009-09-22
PCT/IB2010/054228 WO2011036618A2 (en) 2009-09-22 2010-09-19 Remote control of computer devices

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016085276A Division JP6207659B2 (ja) 2009-09-22 2016-04-21 コンピュータ装置の遠隔制御

Publications (3)

Publication Number Publication Date
JP2013505508A JP2013505508A (ja) 2013-02-14
JP2013505508A5 JP2013505508A5 (ja) 2013-10-17
JP5926184B2 true JP5926184B2 (ja) 2016-05-25

Family

ID=43796308

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2012530394A Active JP5926184B2 (ja) 2009-09-22 2010-09-19 コンピュータ装置の遠隔制御
JP2016085276A Active JP6207659B2 (ja) 2009-09-22 2016-04-21 コンピュータ装置の遠隔制御
JP2017155546A Active JP6348211B2 (ja) 2009-09-22 2017-08-10 コンピュータ装置の遠隔制御

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016085276A Active JP6207659B2 (ja) 2009-09-22 2016-04-21 コンピュータ装置の遠隔制御
JP2017155546A Active JP6348211B2 (ja) 2009-09-22 2017-08-10 コンピュータ装置の遠隔制御

Country Status (6)

Country Link
US (4) US20120194561A1 (ja)
EP (1) EP2480955B1 (ja)
JP (3) JP5926184B2 (ja)
KR (2) KR101809636B1 (ja)
CN (1) CN102656543A (ja)
WO (1) WO2011036618A2 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2023812T3 (pl) 2006-05-19 2017-07-31 The Queen's Medical Center Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii
CN102317977A (zh) 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
EP2480955B1 (en) * 2009-09-22 2018-05-16 Facebook Inc. Remote control of computer devices
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US9870068B2 (en) 2010-09-19 2018-01-16 Facebook, Inc. Depth mapping with a head mounted display using stereo cameras and structured light
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
EP2474950B1 (en) * 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US8503494B2 (en) * 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US9478067B1 (en) 2011-04-08 2016-10-25 Amazon Technologies, Inc. Augmented reality environment with secondary sensory feedback
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
CN102841733B (zh) * 2011-06-24 2015-02-18 株式会社理光 虚拟触摸屏系统以及自动切换交互模式的方法
KR101446902B1 (ko) * 2011-08-19 2014-10-07 한국전자통신연구원 사용자 인터랙션 장치 및 방법
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
KR101260053B1 (ko) 2011-11-17 2013-05-06 재단법인대구경북과학기술원 동작 및 음성을 이용한 지능형 차량 제어 장치 및 방법
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
EP2791904A4 (en) 2011-12-08 2015-08-05 Intel Corp TECHNIQUES FOR EFFICIENTLY CONNECTING STEREO BLOCKS FOR GESTURE RECOGNITION
US8782565B2 (en) * 2012-01-12 2014-07-15 Cisco Technology, Inc. System for selecting objects on display
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
JP5550670B2 (ja) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ 情報処理装置
US10448161B2 (en) 2012-04-02 2019-10-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
CN105378593B (zh) 2012-07-13 2019-03-01 索尼深度传感解决方案股份有限公司 利用手上的奇异兴趣点基于手势进行人机同步交互的方法和系统
WO2014014461A1 (en) * 2012-07-19 2014-01-23 Intel Corporation System and method for controlling an external system using a remote device with a depth sensor
US8907914B2 (en) * 2012-08-31 2014-12-09 General Electric Company Methods and apparatus for documenting a procedure
CN103777746B (zh) * 2012-10-23 2018-03-13 腾讯科技(深圳)有限公司 一种人机交互方法、终端及系统
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9626015B2 (en) 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
WO2014125427A1 (en) * 2013-02-14 2014-08-21 Primesense Ltd. Flexible room controls
JP6127564B2 (ja) * 2013-02-15 2017-05-17 コニカミノルタ株式会社 タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9560103B2 (en) * 2013-06-26 2017-01-31 Echostar Technologies L.L.C. Custom video content
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
BR112016009202A8 (pt) 2013-10-23 2020-03-24 Oculus Vr Llc aparelhos e método para gerar um padrão de luz estruturada
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
JP2015095682A (ja) * 2013-11-08 2015-05-18 株式会社東芝 電子機器、方法、及びプログラム
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9749513B2 (en) * 2014-04-29 2017-08-29 Facebook, Inc. System and method for generating a light pattern for object illumination
US9766806B2 (en) * 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US9842392B2 (en) * 2014-12-15 2017-12-12 Koninklijke Philips N.V. Device, system and method for skin detection
NL2014037B1 (en) 2014-12-22 2016-10-12 Meyn Food Proc Technology Bv Processing line and method for inspecting a poultry carcass and/or a viscera package taken out from the poultry carcass.
US20180267637A1 (en) * 2014-12-22 2018-09-20 Volkswagen Ag Finger-operated control bar, and use of the finger-operated control bar
WO2016112019A1 (en) * 2015-01-06 2016-07-14 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
KR20170124559A (ko) * 2015-02-25 2017-11-10 페이스북, 인크. 물체에 의해 반사된 광의 특성에 기반한 볼륨 내 물체의 식별
CN106033257B (zh) * 2015-03-18 2019-05-31 联想(北京)有限公司 一种控制方法和装置
KR101904181B1 (ko) * 2015-03-22 2018-10-04 페이스북, 인크. 스테레오 카메라 및 구조화된 광을 사용한 헤드 마운트 디스플레이의 심도 맵핑
EP3104209B1 (en) 2015-05-20 2021-10-20 Facebook Technologies, LLC Method and system for generating light pattern using polygons
US9648698B2 (en) 2015-05-20 2017-05-09 Facebook, Inc. Method and system for generating light pattern using polygons
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
WO2017018428A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US10067569B2 (en) * 2015-08-14 2018-09-04 Fresenius Medical Care Holdings, Inc. Touchless interface for a medical treatment system
JP6631181B2 (ja) * 2015-11-13 2020-01-15 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
CN108697367A (zh) 2015-11-23 2018-10-23 凯内蒂科尓股份有限公司 用于在医学成像扫描期间跟踪并补偿患者运动的系统、装置和方法
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
US11307762B2 (en) 2018-01-31 2022-04-19 Hewlett-Packard Development Company, L.P. Operating user interfaces
CN108537163A (zh) * 2018-04-04 2018-09-14 天目爱视(北京)科技有限公司 一种基于可见光拍照的生物特征四维数据识别方法及系统
CN108550184A (zh) * 2018-04-04 2018-09-18 北京天目智联科技有限公司 一种基于光场相机的生物特征3d四维数据识别方法及系统
JP6705926B1 (ja) * 2019-03-13 2020-06-03 Necプラットフォームズ株式会社 ウェアラブルデバイスおよび制御方法
JP7372061B2 (ja) * 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム
KR102266874B1 (ko) * 2020-01-03 2021-06-17 동의대학교 산학협력단 스마트 에어 피아노
US11119570B1 (en) * 2020-10-29 2021-09-14 XRSpace CO., LTD. Method and system of modifying position of cursor
KR102586144B1 (ko) * 2021-09-23 2023-10-10 주식회사 딥비전 딥러닝을 이용한 손 움직임 추적방법 및 장치

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335288A (en) 1992-02-10 1994-08-02 Faulkner Keith W Apparatus and method for biometric identification
JP3531014B2 (ja) 1994-06-22 2004-05-24 株式会社トプコン レーザ照準装置
US6549288B1 (en) 1998-05-14 2003-04-15 Viewpoint Corp. Structured-light, triangulation-based three-dimensional digitizer
JP2000267800A (ja) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd 動作認識装置
JP3714063B2 (ja) * 1999-10-19 2005-11-09 富士ゼロックス株式会社 3次元形状計測装置
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
CN100489881C (zh) * 2001-01-08 2009-05-20 Vkb有限公司 数据输入装置和数据输入方法
US6841780B2 (en) 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
US7176440B2 (en) * 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
US6714234B1 (en) 2001-04-11 2004-03-30 Applied Minds, Inc. Maintaining eye-contact in teleconferencing using structured light
US6947575B2 (en) * 2001-05-24 2005-09-20 Trw Inc. Apparatus and method for determining vehicle occupant characteristic utilizing imaging with provided light
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
US7385708B2 (en) 2002-06-07 2008-06-10 The University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
US8224064B1 (en) 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
US7834850B2 (en) * 2005-11-29 2010-11-16 Navisense Method and system for object control
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
US20090002342A1 (en) * 2006-02-03 2009-01-01 Tomohiro Terada Information Processing Device
JP5592070B2 (ja) * 2006-03-14 2014-09-17 プライム センス リミティド 三次元検知のために深度変化させる光照射野
EP2041640B1 (en) * 2006-07-16 2012-01-25 I. Cherradi Free fingers typing technology
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US20080256494A1 (en) * 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
US7907781B2 (en) * 2007-06-21 2011-03-15 Mitsubishi Electric Research Laboraties, Inc. System and method for determining geometries of scenes
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8646689B2 (en) * 2007-12-28 2014-02-11 Cognex Corporation Deformable light pattern for machine vision system
US20090189858A1 (en) * 2008-01-30 2009-07-30 Jeff Lev Gesture Identification Using A Structured Light Pattern
US8319832B2 (en) * 2008-01-31 2012-11-27 Denso Corporation Input apparatus and imaging apparatus
TWI409502B (zh) * 2009-01-23 2013-09-21 Univ Nat Taipei Technology 相位資訊擷取方法及其三維形貌量測系統
US9002354B2 (en) * 2009-06-12 2015-04-07 Google Technology Holdings, LLC Interference control, SINR optimization and signaling enhancements to improve the performance of OTDOA measurements
US8654234B2 (en) * 2009-07-26 2014-02-18 Massachusetts Institute Of Technology Bi-directional screen
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
EP2480955B1 (en) * 2009-09-22 2018-05-16 Facebook Inc. Remote control of computer devices
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9870068B2 (en) * 2010-09-19 2018-01-16 Facebook, Inc. Depth mapping with a head mounted display using stereo cameras and structured light
KR20120071551A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 구조 영상을 이용한 사용자 인터랙션 장치 및 방법
US8878858B2 (en) * 2011-02-03 2014-11-04 Videa, Llc Video projection apparatus and methods, with image content control
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
KR101446902B1 (ko) 2011-08-19 2014-10-07 한국전자통신연구원 사용자 인터랙션 장치 및 방법
US8887043B1 (en) * 2012-01-17 2014-11-11 Rawles Llc Providing user feedback in projection environments
CA3051912C (en) * 2012-02-24 2023-03-07 Thomas J. Moscarillo Gesture recognition devices and methods
KR20130099317A (ko) * 2012-02-29 2013-09-06 한국전자통신연구원 인터랙티브 증강현실 구현 시스템 및 증강현실 구현 방법
US9141868B2 (en) * 2012-06-26 2015-09-22 Xerox Corporation Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources
KR20140004335A (ko) * 2012-07-02 2014-01-13 한국전자통신연구원 프로젝션 컴퓨터용 사용자 인터페이스 장치 및 이를 이용한 인터페이스 방법
JP6155448B2 (ja) * 2012-11-01 2017-07-05 アイカム エルエルシー 3d撮像し、マッピングし、ネットワーク化しおよびインタフェースするための無線手首コンピューティングおよびコントロールするデバイスおよび方法
US9201499B1 (en) * 2013-02-11 2015-12-01 Amazon Technologies, Inc. Object tracking in a 3-dimensional environment
GB2513200A (en) * 2013-04-21 2014-10-22 Biogaming Ltd Kinetic user interface
KR20140133093A (ko) 2013-05-09 2014-11-19 한국전자통신연구원 인식 장치 및 그 방법
US10019843B2 (en) * 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
BR112016009202A8 (pt) * 2013-10-23 2020-03-24 Oculus Vr Llc aparelhos e método para gerar um padrão de luz estruturada
JP6359466B2 (ja) * 2014-01-13 2018-07-18 フェイスブック,インク. サブ解像度での光学的検出
US9749513B2 (en) * 2014-04-29 2017-08-29 Facebook, Inc. System and method for generating a light pattern for object illumination
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9552074B2 (en) * 2014-05-21 2017-01-24 Facebook, Inc. Method and system for generating user feedback of a gesture capturing device
EP3177890B1 (en) * 2014-08-10 2019-10-09 Facebook Technologies, LLC Structured light for 3d sensing
US10126123B2 (en) * 2014-09-19 2018-11-13 Carnegie Mellon University System and method for tracking objects with projected m-sequences
US10013068B2 (en) * 2014-10-08 2018-07-03 Canon Kabushiki Kaisha Information processing apparatus including a mirror configured to reflect an image and a projector and an image capturing unit arranged below the mirror
KR20170081272A (ko) * 2014-12-18 2017-07-11 페이스북, 인크. 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치
CN107209960B (zh) * 2014-12-18 2021-01-01 脸谱科技有限责任公司 用于提供虚拟现实环境的用户界面的系统、设备及方法
WO2016112019A1 (en) * 2015-01-06 2016-07-14 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
KR20170124559A (ko) * 2015-02-25 2017-11-10 페이스북, 인크. 물체에 의해 반사된 광의 특성에 기반한 볼륨 내 물체의 식별
CN107532885B (zh) * 2015-02-25 2020-03-03 脸谱科技有限责任公司 光图案中的强度变化用于体积中的物体的深度绘制
WO2016183395A1 (en) * 2015-05-13 2016-11-17 Oculus Vr, Llc Augmenting a depth map representation with a reflectivity map representation
US9648698B2 (en) * 2015-05-20 2017-05-09 Facebook, Inc. Method and system for generating light pattern using polygons

Also Published As

Publication number Publication date
US9927881B2 (en) 2018-03-27
US9606618B2 (en) 2017-03-28
KR20120085774A (ko) 2012-08-01
KR20170023220A (ko) 2017-03-02
EP2480955A4 (en) 2015-07-29
CN102656543A (zh) 2012-09-05
JP6348211B2 (ja) 2018-06-27
KR101711619B1 (ko) 2017-03-02
EP2480955B1 (en) 2018-05-16
US20120194561A1 (en) 2012-08-02
WO2011036618A2 (en) 2011-03-31
JP2018010653A (ja) 2018-01-18
JP6207659B2 (ja) 2017-10-04
EP2480955A2 (en) 2012-08-01
US20170147082A1 (en) 2017-05-25
US9507411B2 (en) 2016-11-29
JP2016173831A (ja) 2016-09-29
JP2013505508A (ja) 2013-02-14
WO2011036618A3 (en) 2011-08-11
US20160179188A1 (en) 2016-06-23
KR101809636B1 (ko) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6348211B2 (ja) コンピュータ装置の遠隔制御
US20220164032A1 (en) Enhanced Virtual Touchpad
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
CN114080585A (zh) 在人工现实环境中使用外围设备的虚拟用户界面
CN108399010B (zh) 增强的基于相机的输入
Prätorius et al. DigiTap: an eyes-free VR/AR symbolic input device
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
Menzner et al. Above surface interaction for multiscale navigation in mobile virtual reality
TW201439813A (zh) 顯示設備及其控制系統和方法
Edelmann et al. The dabr-a multitouch system for intuitive 3d scene navigation
Breslauer et al. Leap motion sensor for natural user interface
US20130120361A1 (en) Spatial 3d interactive instrument
Chakraborty et al. Interactive touch screen using augmented reality
Cheng et al. Real-time monocular tracking of view frustum for large screen human-computer interaction
Takahashi et al. Extending Three-Dimensional Space Touch Interaction using Hand Gesture
AU2015252151B2 (en) Enhanced virtual touchpad and touchscreen
Xie et al. Natural Bare-Hand Interaction for Remote Operating Large Touch Screen.
Pyryeskin Investigating Selection above a Multitouch Surface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140529

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160421

R150 Certificate of patent or registration of utility model

Ref document number: 5926184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250