JP6775969B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6775969B2 JP6775969B2 JP2016038042A JP2016038042A JP6775969B2 JP 6775969 B2 JP6775969 B2 JP 6775969B2 JP 2016038042 A JP2016038042 A JP 2016038042A JP 2016038042 A JP2016038042 A JP 2016038042A JP 6775969 B2 JP6775969 B2 JP 6775969B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference data
- orientation
- feature points
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
第1の実施形態では、複合現実感システムにおける現実空間と仮想物体との位置合わせ、すなわち仮想物体の描画に利用するための現実空間における撮像装置(カメラ)の位置及び姿勢の計測に本発明の方法を適用した場合について説明する。複合現実感を体験するユーザは、頭部装着型表示装置HMD(Head−Mounted Display)を装着し、HMDを通して仮想物体が重畳された現実空間を観察するものとする。HMDには撮像装置としてステレオカメラが搭載されており、ステレオカメラが撮像した画像上にステレオカメラの現実空間における位置及び姿勢に基づいて描画された仮想物体が重畳されてユーザに提示される。撮像装置の位置及び姿勢の計測に利用する現実空間中の特徴点の三次元マップは事前に生成しておき、体験時には撮像装置が撮像した画像と三次元マップを用いて撮像装置の位置及び姿勢の計測を算出する。
(位置及び姿勢の導出処理の詳細)
次に、ステップS1020における位置及び姿勢の導出処理について詳細に説明する。図4は、ステップS1020における処理手順を示すフローチャートである。
本実施形態では、Kleinらの方法(G.Klein,D.Murray,“Improving the Agility of Keyframe−Based SLAM,” Proc.10th European Conference on Computer Vision,vol.2,pp.802−815,2008.)によりリローカライゼーションを行う。
次に、ステップS1030における三次元マップの更新方法について詳細に説明する。図5は、ステップS1030における処理手順を示すフローチャートである。
ここでtwk、Rwkはそれぞれ世界座標系における最近傍キーフレームの位置を表す3次元ベクトル、姿勢を表す3×3回転行列である。また、twc、Rwcはそれぞれ世界座標系における現フレーム撮像時の撮像装置の位置を表す3次元ベクトル、姿勢を表す3×3回転行列である。次に、数3により現フレームの撮像装置座標系における三次元座標(Xc,Yc,Zc)を現フレームの画像座標(uc,vc)に変換する。
このようにして算出される画像座標(uc,vc)が現フレームの画像内部にある特徴点の割合Rpを算出する。割合Rpが閾値Tp未満の場合には最近傍キーフレームと現フレームとの間のオーバーラップが不十分であるため、位置及び姿勢計測の精度や安定性が低下しないように、ステップS1240に進んで仮想キーフレームを追加する。さもなければ処理を終了する。なおステップS1230の処理は、ステップS1220の処理よりも時間がかかるため、ステップS1220で仮想キーフレームを追加しないと判断した場合にのみステップS1230で追加判断を行っている。
図6は仮想キーフレームの生成(ステップS1240)の処理手順を示すフローチャートである。ステップS1210で選択された最近傍キーフレームが保持する特徴点の数をNpとする。
(1)(uc,vc)が現フレームの画像内部にあり、
(2)かつ奥行きZcが予め設定される奥行きの上限値・下限値の間にあり、
(3)かつ現フレームの画像座標(uc,vc)における特性が所定の条件を満たす
場合に特徴点を仮想キーフレームに追加する。
なお、画像を撮像する撮像装置はステレオカメラに限るものではなく、現実空間の画像を撮像するカメラであれば何でもよい。例えば、単眼カメラであってもよいし、リジッドに固定されてカメラ間の相対的な位置及び姿勢が既知な三台以上のカメラであってもよい。また、撮像装置はカラー画像を撮像するカメラに限るものではなく、濃淡画像を撮像するカメラであってもよい。また、特徴点を仮想キーフレームに追加するか否かの判定に用いる特性は輝度値に限るものではなく、撮像装置がカラー画像を撮像するカメラである場合にはカラー値を比較することにより特徴点の追加の判断を行ってもよい。
第1の実施形態では、特徴点を仮想キーフレームに追加すべきかどうか判断する際に最近傍キーフレーム、仮想キーフレームにおける特徴点の輝度値の差を用いることで光学的に整合する特徴点のみを仮想キーフレームに追加するようにしていた。第2の実施形態では、撮像装置がステレオカメラであることを利用し、特徴点の奥行きの差を用いることで幾何的に整合する特徴点のみを仮想キーフレームに追加できるようにする。これによって、仮想キーフレームを用いた場合の位置及び姿勢の計測を高精度化・安定化が可能になる。
(1)(uc,vc)が現フレームの画像内部にあり、
(2)かつ奥行きZc予め設定される奥行きの上限値・下限値の間にあり、
(3)かつ現フレームの画像座標(uc,vc)における特性が所定の条件を満たす
場合に特徴点を仮想キーフレームに追加する。
第2の実施形態では、特徴点の奥行きの差が小さい点を仮想キーフレームに追加した。しかしながら、仮想キーフレームに追加する特徴点の選択方法はこれに限るものではなく、特徴点の奥行きの差が小さくかつ第1の実施例で述べたように輝度値の差が小さい特徴点を仮想キーフレームに追加してもよい。この場合、現フレームにおける特徴点の奥行きZc’と、最近傍キーフレームにおける特徴点の現フレームの撮像装置座標系における奥行きZcとの差が閾値Td未満であり、かつ輝度値の差が閾値Ti未満である点を仮想キーフレームに追加する。
以上述べた実施形態では、仮想キーフレームを生成する時に最近傍のキーフレームをもとに生成していた。第3の実施形態では、特徴点データベースに保持される特徴点の世界座標系における三次元座標を直接現フレームの三次元座標に変換することで仮想キーフレームを生成する。これによって、最近傍キーフレームの位置及び姿勢の計測誤差の影響を受けずに仮想キーフレームを生成することで、位置及び姿勢計測の精度低下を防止する。
三次元情報保持部10は、キーフレームの集合に加えて特徴点の世界座標系における三次元座標を保持する特徴点データベースを保持する。特徴点データベースは、例えばFurukawaらの方法(Y.Furukawa,B.Curless,S.M.Seitz,R.Szeliski,“Reconstructing Building Interiors from Images,” Proc. 12th International Conference on Computer Vision,pp.80−87,2009.)によって生成する。
第3の実施形態では、特徴点データベースに登録されている特徴点の数をNpとする。ステップS1320では、特徴点データベース中の特徴点を指定する変数iを1にセットする。
前述したように、twc、Rwcはそれぞれ世界座標系における現フレーム撮像時の撮像装置の位置を表す3次元ベクトル、姿勢を表す3×3回転行列である。次に数3により現フレームの撮像装置座標系における三次元座標(Xc,Yc,Zc)を現フレームの画像座標(uc,vc)に変換する。
三次元マップにさらにシーンのメッシュモデルを保持してもよい。メッシュモデルを保持する場合、仮想キーフレームへの特徴点追加可否の判定の際に特徴点の可視判定を行い、該特徴点がメッシュに隠蔽されないことを追加可能な条件として利用してもよい。
以上述べた実施形態では、仮想キーフレームは単一のキーフレーム(最近傍キーフレーム)を用いて生成した。しかしながら、仮想キーフレームの生成に用いるキーフレームは一つである必要はなく、複数のキーフレームを使って生成してもよい。
以上述べた実施形態における情報処理装置は、さらに三次元マップ表示部を備えていてもよい。三次元マップ表示部は、表示部70であるユーザが装着するHMDでもよいし、他のディスプレイであってもよい。三次元マップ表示部は、三次元マップに含まれるキーフレームの情報を表示する。
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、コンピュータ読み取り可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
20 画像入力部
30 位置姿勢導出部
40 三次元マップ更新部
50 撮像装置
60 画像合成部
70 表示部
Claims (14)
- 撮像された画像と、該画像を撮像したときの撮像装置の位置及び姿勢と、該画像に対応する空間中の特徴の三次元情報とを対応付けた、複数の参照データから構成される三次元マップを予め保持する保持手段と、
撮像装置により撮像された画像を入力する入力手段と、
前記複数の参照データと、前記入力された画像とに基づいて、該画像を前記撮像装置が撮像した位置及び姿勢を導出する導出手段と、
導出された前記位置及び姿勢と前記複数の参照データとに基づいて、新たな参照データを追加するかを判定する判定手段と、
前記判定手段により新たな参照データを追加すると判定された場合に、前記入力された画像と、導出された前記位置及び姿勢と、前記複数の参照データの1つにおける特徴の三次元データとに基づいて新たな参照データに登録する特徴点を決定する決定手段と、
前記決定された特徴点を登録した前記新たな参照データを追加して前記複数の参照データを更新する更新手段と、を備える情報処理装置。 - 前記導出手段は、
前記撮像装置の現在の位置及び姿勢の予測値を求める予測手段と、
前記複数の参照データから前記予測値に基づいて少なくとも1つの参照データを選択する選択手段と、
選択された前記参照データにおける特徴点を用いて前記予測値を修正することで、前記導出される位置及び姿勢を求める修正手段と、を備える請求項1に記載の情報処理装置。 - 前記予測手段は、前フレームにおける前記撮像装置の位置及び姿勢が得られていれば、当該前フレームにおける位置及び姿勢を前記予測値とする請求項2に記載の情報処理装置。
- 前記予測手段は、前フレームにおける前記撮像装置の位置及び姿勢が得られていなければ、リローカライゼーションを行って前記予測値を求める請求項2に記載の情報処理装置。
- 前記修正手段は、選択された前記参照データから所定の個数以内の特徴点を選択し、該選択された特徴点を用いて前記予測値を修正する請求項2に記載の情報処理装置。
- 導出された前記撮像装置の位置と、選択された前記参照データにおける前記撮像装置の位置との距離を算出する距離算出手段を備え、
前記判定手段は、前記距離に基づいて、前記新たな参照データを追加するか否かを判定する請求項2に記載の情報処理装置。 - 選択された前記参照データにおける特徴点を前記入力された画像に投影した場合に、画像内部に投影される割合を算出する割合算出手段を備え、
前記判定手段は、前記割合に基づいて、前記新たな参照データを追加するか否かを判定する請求項2に記載の情報処理装置。 - 前記決定手段は、
選択された前記参照データにおいて特徴点を順に指定する指定手段と、
指定された特徴点の前記撮像装置を基準とした座標系における現フレームの三次元座標及び画像座標を算出する座標算出手段と、
前記三次元座標及び画像座標に基づいて前記指定された特徴点を追加するか否かを判定する特徴点判定手段と、
追加すると判定された前記特徴点を前記参照データに追加する追加手段とを備える請求項2に記載の情報処理装置。 - 前記選択手段は、前記複数の参照データから2以上の参照データを順次選択し、
前記修正手段は、順次選択された参照データにおける特徴点を用いて前記予測値を順次修正することで、前記導出される位置及び姿勢を求める請求項2に記載の情報処理装置。 - 前記参照データは前記特徴の属性を更に含み、
導出された前記位置及び姿勢と、選択された前記参照データにおける特徴の三次元情報とに基づいて、該特徴の前記入力された画像上での位置を算出する位置算出手段と、前記特徴の属性と前記入力された画像上での位置の属性とを比較して、生成される前記参照データの寄与度を決定する決定手段とを更に備え、
前記導出手段は、前記更新手段により更新された複数の参照データと、決定された前記寄与度とを用いて、前記撮像装置の位置及び姿勢を導出する請求項1に記載の情報処理装置。 - 前記特徴の属性は輝度または色を含む請求項10に記載の情報処理装置。
- 前記特徴の属性は前記撮像装置を基準とした距離を含む請求項10に記載の情報処理装置。
- 撮像された画像と、該画像を撮像したときの撮像装置の位置及び姿勢と、該画像に対応する空間中の特徴の三次元情報とを対応付けた、複数の参照データから構成される三次元マップを予め保持する保持手段を備えた情報処理装置における情報処理方法であって、
撮像装置により撮像された画像を入力する入力工程と、
前記複数の参照データと、前記入力された画像とに基づいて、該画像を前記撮像装置が撮像した位置及び姿勢を導出する導出工程と、
導出された前記位置及び姿勢と前記複数の参照データとに基づいて、新たな参照データを追加するかを判定する判定工程と、
新たな参照データを追加すると判定された場合に、前記入力された画像と、導出された前記位置及び姿勢と、前記複数の参照データの1つにおける特徴の三次元データとに基づいて新たな参照データに登録する特徴点を決定する決定工程と、
前記決定された特徴点を登録した前記新たな参照データを追加して前記複数の参照データを更新する更新工程と、を備える情報処理方法。 - コンピュータを、
撮像された画像と、該画像を撮像したときの撮像装置の位置及び姿勢と、該画像に対応する空間中の特徴の三次元情報とを対応付けた、複数の参照データから構成される三次元マップを予め保持する保持手段と、
撮像装置により撮像された画像を入力する入力手段と、
前記複数の参照データと、前記入力された画像とに基づいて、該画像を前記撮像装置が撮像した位置及び姿勢を導出する導出手段と、
導出された前記位置及び姿勢と前記複数の参照データとに基づいて、新たな参照データを追加するかを判定する判定手段と、
前記判定手段により新たな参照データを追加すると判定された場合に、前記入力された画像と、導出された前記位置及び姿勢と、前記複数の参照データの1つにおける特徴の三次元データとに基づいて新たな参照データに登録する特徴点を決定する決定手段と、
前記決定された特徴点を登録した前記新たな参照データを追加して前記複数の参照データを更新する更新手段として機能させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016038042A JP6775969B2 (ja) | 2016-02-29 | 2016-02-29 | 情報処理装置、情報処理方法、及びプログラム |
US15/441,086 US10643347B2 (en) | 2016-02-29 | 2017-02-23 | Device for measuring position and orientation of imaging apparatus and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016038042A JP6775969B2 (ja) | 2016-02-29 | 2016-02-29 | 情報処理装置、情報処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017156162A JP2017156162A (ja) | 2017-09-07 |
JP2017156162A5 JP2017156162A5 (ja) | 2019-03-28 |
JP6775969B2 true JP6775969B2 (ja) | 2020-10-28 |
Family
ID=59679129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016038042A Active JP6775969B2 (ja) | 2016-02-29 | 2016-02-29 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10643347B2 (ja) |
JP (1) | JP6775969B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7103354B2 (ja) * | 2017-05-24 | 2022-07-20 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7190842B2 (ja) * | 2017-11-02 | 2022-12-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP7341652B2 (ja) * | 2018-01-12 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、およびシステム |
JP7011472B2 (ja) * | 2018-01-15 | 2022-01-26 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2019205069A1 (en) * | 2018-04-27 | 2019-10-31 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for updating 3d model of building |
US11170224B2 (en) * | 2018-05-25 | 2021-11-09 | Vangogh Imaging, Inc. | Keyframe-based object scanning and tracking |
JP6860620B2 (ja) * | 2018-07-06 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11003939B2 (en) * | 2018-07-06 | 2021-05-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP7225762B2 (ja) * | 2018-12-17 | 2023-02-21 | カシオ計算機株式会社 | 自己位置推定装置、自己位置推定方法及びプログラム |
CN111694423B (zh) * | 2019-03-12 | 2023-05-26 | 阿里巴巴集团控股有限公司 | 定位、抓取、数据处理与用于增强现实的显示方法及设备 |
US10855303B1 (en) | 2020-03-16 | 2020-12-01 | Semiconductor Components Industries, Llc | Propagation delay compensation and interpolation filter |
CN113865481B (zh) * | 2020-06-30 | 2024-05-07 | 北京小米移动软件有限公司 | 对象尺寸测量方法、装置及存储介质 |
US12094184B2 (en) * | 2020-09-22 | 2024-09-17 | Apple Inc. | Contextual matching |
WO2022079258A1 (en) * | 2020-10-16 | 2022-04-21 | SLAMcore Limited | Visual-inertial localisation in an existing map |
GB2599947B (en) * | 2020-10-16 | 2022-10-19 | Slamcore Ltd | Visual-inertial localisation in an existing map |
KR102484772B1 (ko) * | 2020-11-03 | 2023-01-05 | 네이버랩스 주식회사 | 맵 생성 방법 및 이를 이용한 이미지 기반 측위 시스템 |
US20230419605A1 (en) | 2020-11-18 | 2023-12-28 | Nec Corporation | Map generation apparatus, map generation method, and non-transitory computer-readable medium storing program |
CN118355407A (zh) * | 2021-12-06 | 2024-07-16 | 斯纳普公司 | 用于增强现实(ar)的3d模型 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
EP2413286A1 (en) * | 2010-07-29 | 2012-02-01 | LiberoVision AG | Image processing method and device for instant replay |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
US9020187B2 (en) * | 2011-05-27 | 2015-04-28 | Qualcomm Incorporated | Planar mapping and tracking for mobile devices |
US8913055B2 (en) * | 2011-05-31 | 2014-12-16 | Honda Motor Co., Ltd. | Online environment mapping |
KR101850027B1 (ko) * | 2011-12-08 | 2018-04-24 | 한국전자통신연구원 | 실시간 3차원 실 환경 복원장치 및 그 방법 |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
US9420265B2 (en) * | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
GB2506338A (en) * | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
EP2711670B1 (en) * | 2012-09-21 | 2019-01-30 | NavVis GmbH | Visual localisation |
US9674507B2 (en) * | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US9685003B2 (en) * | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP6228239B2 (ja) * | 2013-06-19 | 2017-11-08 | 三菱電機株式会社 | プリミティブの組を用いてデータをレジストレーションする方法 |
US9524434B2 (en) * | 2013-10-04 | 2016-12-20 | Qualcomm Incorporated | Object tracking based on dynamically built environment map data |
AU2013237718A1 (en) * | 2013-10-04 | 2015-04-23 | Canon Kabushiki Kaisha | Method, apparatus and system for selecting a frame |
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
US20150103183A1 (en) * | 2013-10-10 | 2015-04-16 | Nvidia Corporation | Method and apparatus for device orientation tracking using a visual gyroscope |
US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
JP2015114905A (ja) * | 2013-12-12 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9390344B2 (en) * | 2014-01-09 | 2016-07-12 | Qualcomm Incorporated | Sensor-based camera motion detection for unconstrained slam |
US9948911B2 (en) * | 2014-09-05 | 2018-04-17 | Qualcomm Incorporated | Method and apparatus for efficient depth image transformation |
US9607388B2 (en) * | 2014-09-19 | 2017-03-28 | Qualcomm Incorporated | System and method of pose estimation |
US9626803B2 (en) * | 2014-12-12 | 2017-04-18 | Qualcomm Incorporated | Method and apparatus for image processing in augmented reality systems |
US10185775B2 (en) * | 2014-12-19 | 2019-01-22 | Qualcomm Technologies, Inc. | Scalable 3D mapping system |
US9911242B2 (en) * | 2015-05-14 | 2018-03-06 | Qualcomm Incorporated | Three-dimensional model generation |
JP6789624B2 (ja) * | 2015-11-20 | 2020-11-25 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6575325B2 (ja) * | 2015-11-27 | 2019-09-18 | 富士通株式会社 | カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム |
US20170161546A1 (en) * | 2015-12-08 | 2017-06-08 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping |
US9807365B2 (en) * | 2015-12-08 | 2017-10-31 | Mitsubishi Electric Research Laboratories, Inc. | System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene |
US10242455B2 (en) * | 2015-12-18 | 2019-03-26 | Iris Automation, Inc. | Systems and methods for generating a 3D world model using velocity data of a vehicle |
JP6701930B2 (ja) * | 2016-04-28 | 2020-05-27 | 富士通株式会社 | オーサリング装置、オーサリング方法およびオーサリングプログラム |
US9807359B1 (en) * | 2016-11-11 | 2017-10-31 | Christie Digital Systems Usa, Inc. | System and method for advanced lens geometry fitting for imaging devices |
JP2020505694A (ja) * | 2017-01-19 | 2020-02-20 | ブイトラス,インク. | Uavおよび他の自律車両のための屋内マッピングおよびモジュラー制御、ならびに関連するシステムおよび方法 |
US11127203B2 (en) * | 2018-05-16 | 2021-09-21 | Samsung Electronics Co., Ltd. | Leveraging crowdsourced data for localization and mapping within an environment |
-
2016
- 2016-02-29 JP JP2016038042A patent/JP6775969B2/ja active Active
-
2017
- 2017-02-23 US US15/441,086 patent/US10643347B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10643347B2 (en) | 2020-05-05 |
JP2017156162A (ja) | 2017-09-07 |
US20170249752A1 (en) | 2017-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6775969B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP4216824B2 (ja) | 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム | |
JP4889351B2 (ja) | 画像処理装置及びその処理方法 | |
US20120069018A1 (en) | Ar process apparatus, ar process method and storage medium | |
EP1303839A2 (en) | System and method for median fusion of depth maps | |
JP7116262B2 (ja) | 画像深度推定方法および装置、電子機器、ならびに記憶媒体 | |
JP7479324B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6762913B2 (ja) | 情報処理装置、情報処理方法 | |
JP6894707B2 (ja) | 情報処理装置およびその制御方法、プログラム | |
KR101865173B1 (ko) | 가상현실 콘텐츠의 영상 분석을 통한 모션 시뮬레이터의 운동 생성 방법 | |
JP2013178656A (ja) | 画像処理装置、画像処理方法および画像処理用のプログラム | |
CN114255285B (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
EP4089631A1 (en) | Image processing device, image processing method, method of generating learned model, and program | |
EP3706070A1 (en) | Processing of depth maps for images | |
JP2017037426A (ja) | 情報処理装置、情報処理方法、プログラム | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
CN114627240A (zh) | 一种抽沙船在河道数字孪生模型中三维重建与定位的方法 | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
JP6991700B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
Buck et al. | Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps | |
JP2002032744A (ja) | 3次元モデリング及び3次元画像作成のための装置及び方法 | |
JP2021152764A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7029501B2 (ja) | 情報処理装置、情報処理方法 | |
JP2009294956A (ja) | 3次元形状復元方法とその装置、プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6775969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |