JP2011258204A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2011258204A5 JP2011258204A5 JP2011126203A JP2011126203A JP2011258204A5 JP 2011258204 A5 JP2011258204 A5 JP 2011258204A5 JP 2011126203 A JP2011126203 A JP 2011126203A JP 2011126203 A JP2011126203 A JP 2011126203A JP 2011258204 A5 JP2011258204 A5 JP 2011258204A5
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- threshold
- determined
- user
- selecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
ある特定の特性によると、指示ジェスチャの方向は、指示ジェスチャを行うユーザの体の部位の検出によって、および3次元空間における体の部位の長手方向軸の推定によって判定される。
取り込まれた画像が、指示ジェスチャを実施する人を表す内容の画像であると解釈されるケースでは、指示ジェスチャ、この場合、図1の例によると伸ばした腕を含む画像部分が、画像分析によって抽出される。上述した、腕を伸ばした人を検出するのに用いられる機械学習技法は、この目的のために再度利用することができるが、今回は腕を伸ばした人の画像中の伸ばした腕の検出を適用する。指示ジェスチャを含む画像部分のピクセルに関連づけられた奥行き情報を用いて、指示ジェスチャに関連づけられた方向が、図2に示すように3D回帰技法を用いて実環境1の3次元(3D)空間内で判定されるが、ここでは分かりやすくするために2次元の空間に制限される。この指示方向推定はたとえば、検出された伸ばした腕に対応する、画像の点に対して線形回帰モードを使って実施される。指示ジェスチャの方向は有利には、指示ジェスチャを実施するユーザ10の体の部位の長手方向軸に対応する。ユーザの伸ばした腕を表す副画像中で、ユーザの手も、腕の先端を判定するため、すなわち、指示配向を定義するための指示ジェスチャの先端を判定するために、前述したものと同一の機械学習技法によって検出される。3Dジオメトリの簡単な規則の使用によって、算出された回帰線が出会う実環境1の第1の実オブジェクト(指示ジェスチャの判定された方向および指示ジェスチャの判定された配向から、指示ジェスチャの先端に対応する線の起点)と、算出された回帰線との間の交差が判定される。こうするために、実環境1は、たとえば、マッピングアプリケーションの使用によりユーザ10によって、または別の人によって予め3Dにマップされ、すなわち、実環境1の実オブジェクトが識別され、それぞれ実環境の3D空間内で識別子および座標(x、yおよびz)と関連づけて配置される。別の形態によると、実環境は、環境取込み手段(たとえば、奥行きセンサに関連づけられたカメラ)および処理手段、たとえば、実環境の取り込まれた画像を分析する適応型マッピングアプリケーションの使用により、自動的に3Dにマップされる。実環境の3Dマッピングおよび算出された回帰線を用いると、回帰線が出会う第1の実オブジェクトが何であるかを、したがってユーザ10の指示ジェスチャによって指示されるオブジェクトを判定することは容易である。また別の形態によると、どの実オブジェクトにも回帰線が出会わない場合、選択される実オブジェクトは、回帰線に最も近い実オブジェクト、すなわち、回帰線から閾値未満の距離(たとえば、20cm、50cmまたは1m)にある実オブジェクトである。閾値未満の距離の集合は有利には、許容域を形成し、この域は、半径が閾値に等しい、回帰線を囲む円筒の形をとる。有利には、実環境の3Dマップにマップされる実オブジェクトは、指示ジェスチャの方向の判定の不正確さが、指示される実オブジェクトの選択に影響を与えないように、臨界サイズより大きい、すなわち、閾値より大きいサイズである(たとえば、その周囲の平行六面体の3つの寸法のうち最小のものが、所定の値、たとえば40cm、50cmもしくは60cm以上であり、または指示方向に垂直な面におけるオブジェクトの投影の2つの寸法のうちやはり最小のものが、40cm、50cmまたは60cm以上である)。実際、指示ジェスチャの方向を推定するのに用いられるこうした技法から、小さすぎるオブジェクト、すなわち、閾値未満のサイズを有するオブジェクトだけが、こうしたオブジェクトと回帰線との間を交差させることによって確実に判定され得る。閾値は有利には、指示方向の推定が不正確であることを表す情報により判定される。
図2は、本発明のある特定の実施形態による、ユーザ10によって実施される指示ジェスチャの方向の推定方法を示す。分かりやすくするために、図2は、体の部位の長手方向軸の判定結果をグラフによって、また、拡張により、指示ジェスチャの方向を2次元の空間(xおよびy)で示す。有利には、長手方向軸は、3次元(x、yおよびz)空間内で拡張し、実環境1が3次元空間である。点200は、指示ジェスチャを実施するユーザの体の部位、たとえばユーザの腕に属す点に対応し、こうした点は、カメラ19によって取り込まれた指示ジェスチャの画像から(またはより具体的には、指示ジェスチャを実施する体の部位に対応する内容である画像部分から)、指示ジェスチャを実施するユーザの体の部位を表す画像部分のピクセルそれぞれに関連づけられた奥行き情報を使って判定される。この奥行き情報は、カメラ19に関連づけられた奥行きセンサによって取り込まれ、この情報は有利には、奥行きマップ(またはzマップ)に記録される。点200の3次元配置から、指示ジェスチャの長手方向軸または方向は、座標(xi、yiおよびzi)を有する点200それぞれの線形回帰または多重線形回帰によって判定されるが、座標ziについては図2に示していない。指示ジェスチャの方向を表す直線20は、2つの式からなる連立方程式によって、
次いで、ステップ41中に、実環境内を動き回るユーザの指示ジェスチャに関連づけられた方向が推定される。要求により、実環境は、3次元でマップされ、すなわち、この実環境を組成するオブジェクトは、当業者に公知である任意の方法により3Dマップでモデリングされ、3Dマップは、位置に関係した情報(すなわち、座標)を備え、空間内のオブジェクトのかさばり(すなわち、サイズ)は、実環境を定義する。有利には、指示ジェスチャの方向の推定は、ビデオカメラによる指示ジェスチャの取得、および奥行きセンサによる奥行き情報の項目の取得ステップを含み、奥行き情報は、一方では取り込まれた画像の各ピクセルおよびピクセルグループと、他方ではカメラまたは奥行きセンサとの間の距離を表し、この情報はたとえば、奥行きマップに記録される。別の形態によると、指示ジェスチャの方向は、いくつかのビデオカメラ、たとえば、指示ジェスチャの立体画像を与える2つのカメラから推定され、奥行き情報は次いで、複数のカメラによって取り込まれた画像それぞれの間の差異の算出によって推定される。有利には、指示ジェスチャの方向の判定は、当業者に公知である任意の方法により、指示ジェスチャを実施するユーザの体の部位の長手方向軸を推定することによって、たとえば線形回帰によって判定される。
具体的には、本発明は、第1の仮想環境内の第1のオブジェクトの選択方法に限定されるのではなく、このような方法を実装するマルチメディア端末、およびこの表示方法を実装するマルチメディア端末を備える表示装置にも及ぶ。本発明は、仮想環境における閾値未満のサイズのオブジェクトの選択を含むアバターの制御方法にも関する。
[付記1]
第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと、
を含む、方法。
[付記2]
前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定される、付記1に記載の方法。
[付記3]
前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きい、付記2に記載の方法。
[付記4]
前記第2のオブジェクトは、実環境に属す、付記1に記載の方法。
[付記5]
前記第2のオブジェクトは、第2の仮想環境に属す、付記1に記載の方法。
[付記6]
前記実環境は、3次元でマップされる、付記4に記載の方法。
[付記7]
前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択するステップは、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルを使用するステップを含む、付記1乃至6のいずれかに記載の方法。
[付記8]
前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャを取得するステップを含む、付記1乃至7のいずれかに記載の方法。
[付記9]
前記第2のオブジェクトを判定するステップは、線と、前記線が出会う第1の要素との間の交差を算出するステップを含み、前記線は、その起点として前記指示ジェスチャを行う前記ユーザの体の部位と、方向として前記指示ジェスチャに関連づけられた前記方向と、配向として前記指示ジェスチャの配向とを有する、付記1乃至8のいずれかに記載の方法。
[付記10]
前記指示ジェスチャの方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の長手方向軸の推定によって判定される、付記1乃至9のいずれかに記載の方法。
[付記11]
取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と、
を備えた、マルチメディア端末。
[付記1]
第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと、
を含む、方法。
[付記2]
前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定される、付記1に記載の方法。
[付記3]
前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きい、付記2に記載の方法。
[付記4]
前記第2のオブジェクトは、実環境に属す、付記1に記載の方法。
[付記5]
前記第2のオブジェクトは、第2の仮想環境に属す、付記1に記載の方法。
[付記6]
前記実環境は、3次元でマップされる、付記4に記載の方法。
[付記7]
前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択するステップは、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルを使用するステップを含む、付記1乃至6のいずれかに記載の方法。
[付記8]
前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャを取得するステップを含む、付記1乃至7のいずれかに記載の方法。
[付記9]
前記第2のオブジェクトを判定するステップは、線と、前記線が出会う第1の要素との間の交差を算出するステップを含み、前記線は、その起点として前記指示ジェスチャを行う前記ユーザの体の部位と、方向として前記指示ジェスチャに関連づけられた前記方向と、配向として前記指示ジェスチャの配向とを有する、付記1乃至8のいずれかに記載の方法。
[付記10]
前記指示ジェスチャの方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の長手方向軸の推定によって判定される、付記1乃至9のいずれかに記載の方法。
[付記11]
取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と、
を備えた、マルチメディア端末。
Claims (11)
- 第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと、
を含む、方法。 - 前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定される、請求項1に記載の方法。
- 前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きい、請求項2に記載の方法。
- 前記第2のオブジェクトは、実環境に属す、請求項1に記載の方法。
- 前記第2のオブジェクトは、第2の仮想環境に属す、請求項1に記載の方法。
- 前記実環境は、3次元でマップされる、請求項4に記載の方法。
- 前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択するステップは、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルを使用するステップを含む、請求項1乃至6のいずれかに記載の方法。
- 前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャを取得するステップを含む、請求項1乃至7のいずれかに記載の方法。
- 前記第2のオブジェクトを判定するステップは、線と、前記線が出会う第1の要素との間の交差を算出するステップを含み、前記線は、その起点として前記指示ジェスチャを行う前記ユーザの体の部位と、方向として前記指示ジェスチャに関連づけられた前記方向と、配向として前記指示ジェスチャの配向とを有する、請求項1乃至8のいずれかに記載の方法。
- 前記指示ジェスチャの方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の長手方向軸の推定によって判定される、請求項1乃至9のいずれかに記載の方法。
- 取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と、
を備えた、マルチメディア端末。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1054395A FR2960986A1 (fr) | 2010-06-04 | 2010-06-04 | Procede de selection d’un objet dans un environnement virtuel |
FR1054395 | 2010-06-04 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011258204A JP2011258204A (ja) | 2011-12-22 |
JP2011258204A5 true JP2011258204A5 (ja) | 2014-07-24 |
JP5901151B2 JP5901151B2 (ja) | 2016-04-06 |
Family
ID=43413630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011126203A Active JP5901151B2 (ja) | 2010-06-04 | 2011-06-06 | 仮想環境におけるオブジェクトの選択方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9298346B2 (ja) |
EP (1) | EP2410401B1 (ja) |
JP (1) | JP5901151B2 (ja) |
KR (1) | KR102032398B1 (ja) |
CN (1) | CN102270275B (ja) |
FR (1) | FR2960986A1 (ja) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102841733B (zh) * | 2011-06-24 | 2015-02-18 | 株式会社理光 | 虚拟触摸屏系统以及自动切换交互模式的方法 |
US9773345B2 (en) * | 2012-02-15 | 2017-09-26 | Nokia Technologies Oy | Method and apparatus for generating a virtual environment for controlling one or more electronic devices |
JP6135239B2 (ja) * | 2012-05-18 | 2017-05-31 | 株式会社リコー | 画像処理装置、画像処理プログラム、画像処理方法 |
CN104303131B (zh) * | 2012-05-22 | 2017-03-29 | 索尼公司 | 图像处理设备、图像处理方法 |
US20130342572A1 (en) * | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
KR102047494B1 (ko) * | 2012-09-10 | 2019-11-21 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 객체 선택 방법 |
US20140157206A1 (en) * | 2012-11-30 | 2014-06-05 | Samsung Electronics Co., Ltd. | Mobile device providing 3d interface and gesture controlling method thereof |
FR3000242A1 (fr) | 2012-12-21 | 2014-06-27 | France Telecom | Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’associations entre objets numeriques. |
WO2014128749A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
EP2797332A1 (en) | 2013-04-23 | 2014-10-29 | Thomson Licensing | Method and device for querying a knowledge base associated with a multimedia content |
CN103472923B (zh) * | 2013-09-23 | 2016-04-06 | 济南大学 | 一种三维虚拟手势选择场景物体的方法 |
AU2015226201B2 (en) * | 2014-03-03 | 2019-07-04 | Vsk Electronics Nv | Intrusion detection with directional sensing |
IN2014DE00899A (ja) | 2014-03-28 | 2015-10-02 | Samsung Electronics Co Ltd | |
FR3024267B1 (fr) * | 2014-07-25 | 2017-06-02 | Redlime | Procedes de determination et de commande d'un equipement a commander, dispositif, utilisation et systeme mettant en œuvre ces procedes |
PL411336A1 (pl) * | 2015-02-23 | 2016-08-29 | Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością | Sposób interakcji z urządzeniami stacjonarnymi za pomocą gestów oraz system do interakcji z urządzeniami stacjonarnymi za pomocą gestów |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
US10665019B2 (en) * | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
CN109478117B (zh) * | 2016-07-13 | 2022-09-06 | 特里弗公司 | 用于生成并显示在在线环境中使用的三维数字资产的方法和系统 |
US10769859B2 (en) | 2016-07-13 | 2020-09-08 | Trivver, Inc. | Methods and systems for displaying digital smart objects in a three dimensional environment |
US11880954B2 (en) | 2016-07-13 | 2024-01-23 | Trivver, Inc. | Methods and systems for generating digital smart objects for use in a three dimensional environment |
WO2018032970A1 (zh) | 2016-08-19 | 2018-02-22 | 腾讯科技(深圳)有限公司 | 基于虚拟现实场景的认证方法、虚拟现实设备及存储介质 |
CN106527887B (zh) * | 2016-10-18 | 2018-09-04 | 腾讯科技(深圳)有限公司 | 虚拟物体选取方法、装置及vr系统 |
US10303417B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Interactive systems for depth-based input |
WO2018106276A1 (en) * | 2016-12-05 | 2018-06-14 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US10437342B2 (en) | 2016-12-05 | 2019-10-08 | Youspace, Inc. | Calibration systems and methods for depth-based interfaces with disparate fields of view |
US10303259B2 (en) | 2017-04-03 | 2019-05-28 | Youspace, Inc. | Systems and methods for gesture-based interaction |
US20180190033A1 (en) * | 2016-12-30 | 2018-07-05 | Facebook, Inc. | Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces |
US11010601B2 (en) | 2017-02-14 | 2021-05-18 | Microsoft Technology Licensing, Llc | Intelligent assistant device communicating non-verbal cues |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
US10467510B2 (en) * | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
US11184574B2 (en) | 2017-07-17 | 2021-11-23 | Facebook, Inc. | Representing real-world objects with a virtual reality environment |
US10777202B2 (en) * | 2018-06-19 | 2020-09-15 | Verizon Patent And Licensing Inc. | Methods and systems for speech presentation in an artificial reality world |
US11023095B2 (en) | 2019-07-12 | 2021-06-01 | Cinemoi North America, LLC | Providing a first person view in a virtual world using a lens |
US11086476B2 (en) * | 2019-10-23 | 2021-08-10 | Facebook Technologies, Llc | 3D interactions with web content |
EP3842911B1 (en) * | 2019-12-26 | 2023-04-05 | Dassault Systèmes | A 3d interface with an improved object selection |
US11475639B2 (en) | 2020-01-03 | 2022-10-18 | Meta Platforms Technologies, Llc | Self presence in artificial reality |
GB2591994B (en) * | 2020-01-31 | 2024-05-22 | Fuel 3D Tech Limited | A method for generating a 3D model |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
US11295503B1 (en) | 2021-06-28 | 2022-04-05 | Facebook Technologies, Llc | Interactive avatars in artificial reality |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US20230334795A1 (en) * | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US12097427B1 (en) | 2022-08-26 | 2024-09-24 | Meta Platforms Technologies, Llc | Alternate avatar controls |
US20240112427A1 (en) | 2022-09-30 | 2024-04-04 | Sightful Computers Ltd | Location-based virtual resource locator |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6181343B1 (en) * | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP2002259989A (ja) | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP3860550B2 (ja) | 2003-03-07 | 2006-12-20 | 日本電信電話株式会社 | インタフェース方法、装置、およびプログラム |
EP2584494A3 (en) | 2006-08-03 | 2015-02-11 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
KR20090130003A (ko) * | 2007-03-02 | 2009-12-17 | 오가닉 모션 | 삼차원 물체를 트래킹하기 위한 시스템 및 방법 |
US8902227B2 (en) * | 2007-09-10 | 2014-12-02 | Sony Computer Entertainment America Llc | Selective interactive mapping of real-world objects to create interactive virtual-world objects |
KR101141087B1 (ko) * | 2007-09-14 | 2012-07-12 | 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 | 제스처-기반 사용자 상호작용의 프로세싱 |
US8073198B2 (en) * | 2007-10-26 | 2011-12-06 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger framing |
US8386918B2 (en) | 2007-12-06 | 2013-02-26 | International Business Machines Corporation | Rendering of real world objects and interactions into a virtual universe |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
CN101344816B (zh) | 2008-08-15 | 2010-08-11 | 华南理工大学 | 基于视线跟踪和手势识别的人机交互方法及装置 |
US20100100851A1 (en) * | 2008-10-16 | 2010-04-22 | International Business Machines Corporation | Mapping a real-world object in a personal virtual world |
JP5436574B2 (ja) * | 2008-12-22 | 2014-03-05 | インテリジェント スペイシャル テクノロジーズ,インク. | ポインティングによって現実世界のオブジェクトとオブジェクト表現とをリンクさせるシステム及び方法 |
US20110025689A1 (en) * | 2009-07-29 | 2011-02-03 | Microsoft Corporation | Auto-Generating A Visual Representation |
-
2010
- 2010-06-04 FR FR1054395A patent/FR2960986A1/fr not_active Withdrawn
-
2011
- 2011-05-14 US US13/068,549 patent/US9298346B2/en active Active
- 2011-05-23 KR KR1020110048589A patent/KR102032398B1/ko active IP Right Grant
- 2011-05-26 EP EP11167674.8A patent/EP2410401B1/en active Active
- 2011-06-06 JP JP2011126203A patent/JP5901151B2/ja active Active
- 2011-06-07 CN CN201110150522.6A patent/CN102270275B/zh active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011258204A5 (ja) | ||
JP6723061B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
US10417781B1 (en) | Automated data capture | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
KR101633620B1 (ko) | 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법 | |
CN104380338B (zh) | 信息处理器以及信息处理方法 | |
KR101410273B1 (ko) | 증강현실 응용을 위한 환경 모델링 방법 및 장치 | |
JP2013232195A5 (ja) | ||
JP6703812B2 (ja) | 3次元物体検査装置 | |
EP3716210B1 (en) | Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device | |
JP2014197317A5 (ja) | ||
US11373411B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
JP5951043B2 (ja) | 画像計測装置 | |
JP7103357B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2015079444A5 (ja) | ||
US11282180B1 (en) | Object detection with position, pose, and shape estimation | |
WO2015068470A1 (ja) | 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム | |
JP2016514865A5 (ja) | ||
KR101207535B1 (ko) | 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법 | |
CN107808388B (zh) | 包含运动目标的图像处理方法、装置及电子设备 | |
CN114730212A (zh) | 用于关联多人ar系统中的设备坐标系的方法和系统 | |
CN110310325B (zh) | 一种虚拟测量方法、电子设备及计算机可读存储介质 | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101896183B1 (ko) | 카메라 모션 추정을 위한 3차원 직선 검출 방법 | |
US11417063B2 (en) | Determining a three-dimensional representation of a scene |