JP2011258204A5 - - Google Patents

Download PDF

Info

Publication number
JP2011258204A5
JP2011258204A5 JP2011126203A JP2011126203A JP2011258204A5 JP 2011258204 A5 JP2011258204 A5 JP 2011258204A5 JP 2011126203 A JP2011126203 A JP 2011126203A JP 2011126203 A JP2011126203 A JP 2011126203A JP 2011258204 A5 JP2011258204 A5 JP 2011258204A5
Authority
JP
Japan
Prior art keywords
gesture
threshold
determined
user
selecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011126203A
Other languages
English (en)
Other versions
JP5901151B2 (ja
JP2011258204A (ja
Filing date
Publication date
Priority claimed from FR1054395A external-priority patent/FR2960986A1/fr
Application filed filed Critical
Publication of JP2011258204A publication Critical patent/JP2011258204A/ja
Publication of JP2011258204A5 publication Critical patent/JP2011258204A5/ja
Application granted granted Critical
Publication of JP5901151B2 publication Critical patent/JP5901151B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

ある特定の特性によると、指示ジェスチャの方向は、指示ジェスチャを行うユーザの体の部位の検出によって、および3次元空間における体の部位の長手方向軸の推定によって判定される。
取り込まれた画像が、指示ジェスチャを実施する人を表す内容の画像であると解釈されるケースでは、指示ジェスチャ、この場合、図1の例によると伸ばした腕を含む画像部分が、画像分析によって抽出される。上述した、腕を伸ばした人を検出するのに用いられる機械学習技法は、この目的のために再度利用することができるが、今回は腕を伸ばした人の画像中の伸ばした腕の検出を適用する。指示ジェスチャを含む画像部分のピクセルに関連づけられた奥行き情報を用いて、指示ジェスチャに関連づけられた方向が、図2に示すように3D回帰技法を用いて実環境1の3次元(3D)空間内で判定されるが、ここでは分かりやすくするために2次元の空間に制限される。この指示方向推定はたとえば、検出された伸ばした腕に対応する、画像の点に対して線形回帰モードを使って実施される。指示ジェスチャの方向は有利には、指示ジェスチャを実施するユーザ10の体の部位の長手方向軸に対応する。ユーザの伸ばした腕を表す副画像中で、ユーザの手も、腕の先端を判定するため、すなわち、指示配向を定義するための指示ジェスチャの先端を判定するために、前述したものと同一の機械学習技法によって検出される。3Dジオメトリの簡単な規則の使用によって、算出された回帰線が出会う実環境1の第1の実オブジェクト(指示ジェスチャの判定された方向および指示ジェスチャの判定された配向から、指示ジェスチャの先端に対応する線の起点)と、算出された回帰線との間の交差が判定される。こうするために、実環境1は、たとえば、マッピングアプリケーションの使用によりユーザ10によって、または別の人によって予め3Dにマップされ、すなわち、実環境1の実オブジェクトが識別され、それぞれ実環境の3D空間内で識別子および座標(x、yおよびz)と関連づけて配置される。別の形態によると、実環境は、環境取込み手段(たとえば、奥行きセンサに関連づけられたカメラ)および処理手段、たとえば、実環境の取り込まれた画像を分析する適応型マッピングアプリケーションの使用により、自動的に3Dにマップされる。実環境の3Dマッピングおよび算出された回帰線を用いると、回帰線が出会う第1の実オブジェクトが何であるかを、したがってユーザ10の指示ジェスチャによって指示されるオブジェクトを判定することは容易である。また別の形態によると、どの実オブジェクトにも回帰線が出会わない場合、選択される実オブジェクトは、回帰線に最も近い実オブジェクト、すなわち、回帰線から閾値未満の距離(たとえば、20cm、50cmまたは1m)にある実オブジェクトである。閾値未満の距離の集合は有利には、許容域を形成し、この域は、半径が閾値に等しい、回帰線を囲む円筒の形をとる。有利には、実環境の3Dマップにマップされる実オブジェクトは、指示ジェスチャの方向の判定の不正確さが、指示される実オブジェクトの選択に影響を与えないように、臨界サイズより大きい、すなわち、閾値より大きいサイズである(たとえば、その周囲の平行六面体の3つの寸法のうち最小のものが、所定の値、たとえば40cm、50cmもしくは60cm以上であり、または指示方向に垂直な面におけるオブジェクトの投影の2つの寸法のうちやはり最小のものが、40cm、50cmまたは60cm以上である)。実際、指示ジェスチャの方向を推定するのに用いられるこうした技法から、小さすぎるオブジェクト、すなわち、閾値未満のサイズを有するオブジェクトだけが、こうしたオブジェクトと回帰線との間を交差させることによって確実に判定され得る。閾値は有利には、指示方向の推定が不正確であることを表す情報により判定される。
図2は、本発明のある特定の実施形態による、ユーザ10によって実施される指示ジェスチャの方向の推定方法を示す。分かりやすくするために、図2は、体の部位の長手方向軸の判定結果をグラフによって、また、拡張により、指示ジェスチャの方向を2次元の空間(xおよびy)で示す。有利には、長手方向軸は、3次元(x、yおよびz)空間内で拡張し、実環境1が3次元空間である。点200は、指示ジェスチャを実施するユーザの体の部位、たとえばユーザの腕に属す点に対応し、こうした点は、カメラ19によって取り込まれた指示ジェスチャの画像から(またはより具体的には、指示ジェスチャを実施する体の部位に対応する内容である画像部分から)、指示ジェスチャを実施するユーザの体の部位を表す画像部分のピクセルそれぞれに関連づけられた奥行き情報を使って判定される。この奥行き情報は、カメラ19に関連づけられた奥行きセンサによって取り込まれ、この情報は有利には、奥行きマップ(またはzマップ)に記録される。点200の3次元配置から、指示ジェスチャの長手方向軸または方向は、座標(xi、yiおよびzi)を有する点200それぞれの線形回帰または多重線形回帰によって判定されるが、座標ziについては図2に示していない。指示ジェスチャの方向を表す直線20は、2つの式からなる連立方程式によって、
次いで、ステップ41中に、実環境内を動き回るユーザの指示ジェスチャに関連づけられた方向が推定される。要求により、実環境は、3次元でマップされ、すなわち、この実環境を組成するオブジェクトは、当業者に公知である任意の方法により3Dマップでモデリングされ、3Dマップは、位置に関係した情報(すなわち、座標)を備え、空間内のオブジェクトのかさばり(すなわち、サイズ)は、実環境を定義する。有利には、指示ジェスチャの方向の推定は、ビデオカメラによる指示ジェスチャの取得、および奥行きセンサによる奥行き情報の項目の取得ステップを含み、奥行き情報は、一方では取り込まれた画像の各ピクセルおよびピクセルグループと、他方ではカメラまたは奥行きセンサとの間の距離を表し、この情報はたとえば、奥行きマップに記録される。別の形態によると、指示ジェスチャの方向は、いくつかのビデオカメラ、たとえば、指示ジェスチャの立体画像を与える2つのカメラから推定され、奥行き情報は次いで、複数のカメラによって取り込まれた画像それぞれの間の差異の算出によって推定される。有利には、指示ジェスチャの方向の判定は、当業者に公知である任意の方法により、指示ジェスチャを実施するユーザの体の部位の長手方向軸を推定することによって、たとえば線形回帰によって判定される。
具体的には、本発明は、第1の仮想環境内の第1のオブジェクトの選択方法に限定されるのではなく、このような方法を実装するマルチメディア端末、およびこの表示方法を実装するマルチメディア端末を備える表示装置にも及ぶ。本発明は、仮想環境における閾値未満のサイズのオブジェクトの選択を含むアバターの制御方法にも関する。
[付記1]
第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと、
を含む、方法。
[付記2]
前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定される、付記1に記載の方法。
[付記3]
前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きい、付記2に記載の方法。
[付記4]
前記第2のオブジェクトは、実環境に属す、付記1に記載の方法。
[付記5]
前記第2のオブジェクトは、第2の仮想環境に属す、付記1に記載の方法。
[付記6]
前記実環境は、3次元でマップされる、付記4に記載の方法。
[付記7]
前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択するステップは、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルを使用するステップを含む、付記1乃至6のいずれかに記載の方法。
[付記8]
前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャを取得するステップを含む、付記1乃至7のいずれかに記載の方法。
[付記9]
前記第2のオブジェクトを判定するステップは、線と、前記線が出会う第1の要素との間の交差を算出するステップを含み、前記線は、その起点として前記指示ジェスチャを行う前記ユーザの体の部位と、方向として前記指示ジェスチャに関連づけられた前記方向と、配向として前記指示ジェスチャの配向とを有する、付記1乃至8のいずれかに記載の方法。
[付記10]
前記指示ジェスチャの方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の長手方向軸の推定によって判定される、付記1乃至9のいずれかに記載の方法。
[付記11]
取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と、
を備えた、マルチメディア端末。

Claims (11)

  1. 第1の仮想環境における第1のオブジェクトの選択方法であって、前記第1のオブジェクトは、前記第1の環境内で閾値未満のサイズ値で表され、前記方法は、
    ・ユーザの指示ジェスチャに関連づけられた方向を推定するステップと、
    ・前記推定された方向に従って、第2のオブジェクトを判定するステップであって、前記第2のオブジェクトは、前記閾値より大きい値のサイズを有する、ステップと、
    ・前記第2の判定されたオブジェクトに従って、前記第1のオブジェクトを選択するステップと
    を含む、方法。
  2. 前記閾値は、前記方向の前記推定が不正確であることを表す情報に従って判定される請求項1に記載の方法。
  3. 前記閾値は、前記第1のオブジェクトの境界となるボックスを表す寸法のうち最小のものに対応し、前記最小寸法は、所定の値より大きい、請求項2に記載の方法。
  4. 前記第2のオブジェクトは、実環境に属す、請求項1に記載の方法。
  5. 前記第2のオブジェクトは、第2の仮想環境に属す、請求項1に記載の方法。
  6. 前記実環境は、3次元でマップされる、請求項4に記載の方法。
  7. 前記第1のオブジェクトは、第1のオブジェクトからなるグループに属し、前記第2のオブジェクトは、第2のオブジェクトからなるグループに属し、前記第1のオブジェクトの前記選択するステップは、各第1のオブジェクトと第2のオブジェクトとの間の関連づけを確立するテーブルを使用するステップを含む、請求項1乃至6のいずれかに記載の方法。
  8. 前記方法は、ビデオカメラおよび奥行き情報の少なくとも1つの項目を使う、前記指示ジェスチャを取得するステップを含む、請求項1乃至7のいずれかに記載の方法。
  9. 前記第2のオブジェクトを判定するステップは、線と、前記線が出会う第1の要素との間の交差算出するステップを含み、前記線は、その起点として前記指示ジェスチャを行う前記ユーザの体の部位、方向として前記指示ジェスチャに関連づけられた前記方向と、配向として前記指示ジェスチャの配向を有する、請求項1乃至8のいずれかに記載の方法。
  10. 前記指示ジェスチャの方向は、前記指示ジェスチャを行う前記ユーザの体の部位の検出によって、および3次元空間における体の前記部位の長手方向軸の推定によって判定される、請求項1乃至9のいずれかに記載の方法。
  11. 取り込まれた画像を表す信号の受信用ユニットと、画像処理に適合された中央ユニットとを備えるマルチメディア端末であって、前記中央ユニットは、
    ・ユーザの指示ジェスチャに関連づけられた方向を推定する手段と、
    ・前記推定された方向に従って第2のオブジェクトを判定する手段であって、前記第2のオブジェクトは、閾値より大きい値のサイズを有する、手段と、
    ・前記第2の判定されたオブジェクトに従って、第1のオブジェクトを選択する手段であって、前記第1のオブジェクトは、第1の仮想環境に属し、前記閾値未満の値のサイズを有する、手段と
    を備えた、マルチメディア端末。
JP2011126203A 2010-06-04 2011-06-06 仮想環境におけるオブジェクトの選択方法 Active JP5901151B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1054395A FR2960986A1 (fr) 2010-06-04 2010-06-04 Procede de selection d’un objet dans un environnement virtuel
FR1054395 2010-06-04

Publications (3)

Publication Number Publication Date
JP2011258204A JP2011258204A (ja) 2011-12-22
JP2011258204A5 true JP2011258204A5 (ja) 2014-07-24
JP5901151B2 JP5901151B2 (ja) 2016-04-06

Family

ID=43413630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126203A Active JP5901151B2 (ja) 2010-06-04 2011-06-06 仮想環境におけるオブジェクトの選択方法

Country Status (6)

Country Link
US (1) US9298346B2 (ja)
EP (1) EP2410401B1 (ja)
JP (1) JP5901151B2 (ja)
KR (1) KR102032398B1 (ja)
CN (1) CN102270275B (ja)
FR (1) FR2960986A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102841733B (zh) * 2011-06-24 2015-02-18 株式会社理光 虚拟触摸屏系统以及自动切换交互模式的方法
US9773345B2 (en) * 2012-02-15 2017-09-26 Nokia Technologies Oy Method and apparatus for generating a virtual environment for controlling one or more electronic devices
JP6135239B2 (ja) * 2012-05-18 2017-05-31 株式会社リコー 画像処理装置、画像処理プログラム、画像処理方法
CN104303131B (zh) * 2012-05-22 2017-03-29 索尼公司 图像处理设备、图像处理方法
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
KR102047494B1 (ko) * 2012-09-10 2019-11-21 삼성전자주식회사 투명 디스플레이 장치 및 그 객체 선택 방법
US20140157206A1 (en) * 2012-11-30 2014-06-05 Samsung Electronics Co., Ltd. Mobile device providing 3d interface and gesture controlling method thereof
FR3000242A1 (fr) 2012-12-21 2014-06-27 France Telecom Procede de gestion d’un systeme d’information geographique adapte pour etre utilise avec au moins un dispositif de pointage, avec creation d’associations entre objets numeriques.
WO2014128749A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
EP2797332A1 (en) 2013-04-23 2014-10-29 Thomson Licensing Method and device for querying a knowledge base associated with a multimedia content
CN103472923B (zh) * 2013-09-23 2016-04-06 济南大学 一种三维虚拟手势选择场景物体的方法
AU2015226201B2 (en) * 2014-03-03 2019-07-04 Vsk Electronics Nv Intrusion detection with directional sensing
IN2014DE00899A (ja) 2014-03-28 2015-10-02 Samsung Electronics Co Ltd
FR3024267B1 (fr) * 2014-07-25 2017-06-02 Redlime Procedes de determination et de commande d'un equipement a commander, dispositif, utilisation et systeme mettant en œuvre ces procedes
PL411336A1 (pl) * 2015-02-23 2016-08-29 Samsung Electronics Polska Spółka Z Ograniczoną Odpowiedzialnością Sposób interakcji z urządzeniami stacjonarnymi za pomocą gestów oraz system do interakcji z urządzeniami stacjonarnymi za pomocą gestów
US10062208B2 (en) * 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments
US10665019B2 (en) * 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
CN109478117B (zh) * 2016-07-13 2022-09-06 特里弗公司 用于生成并显示在在线环境中使用的三维数字资产的方法和系统
US10769859B2 (en) 2016-07-13 2020-09-08 Trivver, Inc. Methods and systems for displaying digital smart objects in a three dimensional environment
US11880954B2 (en) 2016-07-13 2024-01-23 Trivver, Inc. Methods and systems for generating digital smart objects for use in a three dimensional environment
WO2018032970A1 (zh) 2016-08-19 2018-02-22 腾讯科技(深圳)有限公司 基于虚拟现实场景的认证方法、虚拟现实设备及存储介质
CN106527887B (zh) * 2016-10-18 2018-09-04 腾讯科技(深圳)有限公司 虚拟物体选取方法、装置及vr系统
US10303417B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
WO2018106276A1 (en) * 2016-12-05 2018-06-14 Youspace, Inc. Systems and methods for gesture-based interaction
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
US10303259B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US20180190033A1 (en) * 2016-12-30 2018-07-05 Facebook, Inc. Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10467510B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant
US11184574B2 (en) 2017-07-17 2021-11-23 Facebook, Inc. Representing real-world objects with a virtual reality environment
US10777202B2 (en) * 2018-06-19 2020-09-15 Verizon Patent And Licensing Inc. Methods and systems for speech presentation in an artificial reality world
US11023095B2 (en) 2019-07-12 2021-06-01 Cinemoi North America, LLC Providing a first person view in a virtual world using a lens
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
EP3842911B1 (en) * 2019-12-26 2023-04-05 Dassault Systèmes A 3d interface with an improved object selection
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
GB2591994B (en) * 2020-01-31 2024-05-22 Fuel 3D Tech Limited A method for generating a 3D model
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US20230334795A1 (en) * 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12097427B1 (en) 2022-08-26 2024-09-24 Meta Platforms Technologies, Llc Alternate avatar controls
US20240112427A1 (en) 2022-09-30 2024-04-04 Sightful Computers Ltd Location-based virtual resource locator

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002259989A (ja) 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP3860550B2 (ja) 2003-03-07 2006-12-20 日本電信電話株式会社 インタフェース方法、装置、およびプログラム
EP2584494A3 (en) 2006-08-03 2015-02-11 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
KR20090130003A (ko) * 2007-03-02 2009-12-17 오가닉 모션 삼차원 물체를 트래킹하기 위한 시스템 및 방법
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
KR101141087B1 (ko) * 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8386918B2 (en) 2007-12-06 2013-02-26 International Business Machines Corporation Rendering of real world objects and interactions into a virtual universe
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
CN101344816B (zh) 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US20100100851A1 (en) * 2008-10-16 2010-04-22 International Business Machines Corporation Mapping a real-world object in a personal virtual world
JP5436574B2 (ja) * 2008-12-22 2014-03-05 インテリジェント スペイシャル テクノロジーズ,インク. ポインティングによって現実世界のオブジェクトとオブジェクト表現とをリンクさせるシステム及び方法
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation

Similar Documents

Publication Publication Date Title
JP2011258204A5 (ja)
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US10417781B1 (en) Automated data capture
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
KR101633620B1 (ko) 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법
CN104380338B (zh) 信息处理器以及信息处理方法
KR101410273B1 (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
JP2013232195A5 (ja)
JP6703812B2 (ja) 3次元物体検査装置
EP3716210B1 (en) Three-dimensional point group data generation method, position estimation method, three-dimensional point group data generation device, and position estimation device
JP2014197317A5 (ja)
US11373411B1 (en) Three-dimensional object estimation using two-dimensional annotations
JP5951043B2 (ja) 画像計測装置
JP7103357B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015079444A5 (ja)
US11282180B1 (en) Object detection with position, pose, and shape estimation
WO2015068470A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2016514865A5 (ja)
KR101207535B1 (ko) 이동 로봇의 이미지 기반 동시적 위치 인식 및 지도 작성 방법
CN107808388B (zh) 包含运动目标的图像处理方法、装置及电子设备
CN114730212A (zh) 用于关联多人ar系统中的设备坐标系的方法和系统
CN110310325B (zh) 一种虚拟测量方法、电子设备及计算机可读存储介质
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
KR101896183B1 (ko) 카메라 모션 추정을 위한 3차원 직선 검출 방법
US11417063B2 (en) Determining a three-dimensional representation of a scene