JP6430064B2 - データを位置合わせする方法及びシステム - Google Patents
データを位置合わせする方法及びシステム Download PDFInfo
- Publication number
- JP6430064B2 JP6430064B2 JP2018509925A JP2018509925A JP6430064B2 JP 6430064 B2 JP6430064 B2 JP 6430064B2 JP 2018509925 A JP2018509925 A JP 2018509925A JP 2018509925 A JP2018509925 A JP 2018509925A JP 6430064 B2 JP6430064 B2 JP 6430064B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- primitives
- points
- plane
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000002594 fluoroscopy Methods 0.000 claims 1
- 238000005259 measurement Methods 0.000 description 53
- 238000012805 post-processing Methods 0.000 description 18
- 239000000284 extract Substances 0.000 description 10
- 230000036544 posture Effects 0.000 description 9
- 238000007373 indentation Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
この節では、3D点及び3D線を用いた本発明の位置合わせ方法を説明する。本発明の方法は、任意の点特徴ベースRGB−D SLAMシステムに組み込むことができる。ここで、代表的なキーフレームをSLAM地図に記憶するキーフレームベースSLAMシステムを用いた一例が提供される。本発明の位置合わせ方法の概略は、図2に見ることができ、この位置合わせ方法を用いた本発明のSLAMシステムは、図3に見ることができる。
本発明では、測定値及びランドマークの従来の術語が用いられる。システムは、各RGB−Dフレームから測定値を抽出し、大域SLAM地図にランドマークを生成する。
本発明では、赤色、緑色、青色、及び深度(RGB−D)のセンサー201を用いて3Dシーン202のデータ203が入手される(210)。これらのデータは、センサーのそれぞれ異なる姿勢(視点)ごとのフレームのシーケンスとして入手することもできるし、代替的に、複数のセンサーが用いられる。各フレーム内のデータから、本発明では、3D点211及び3D線212並びに関連付けられた記述子が抽出される。
本発明のシステムは、各RGB画像から2Dキーポイントを抽出する(311)。各キーポイントは、ロケーション(x,y)及び関連付けられた記述子を有する。2Dキーポイントは、例えば、スケール不変特徴変換(SIFT)キーポイント検出器及び記述子を用いることによって取得することができるが、任意の種類のキーポイント検出器及び記述子をこのステップに用いることができる。対応する深度が既定の範囲内にある場合、それらの深度は、有効であるとみなされる。有効な深度を有するキーポイントは、背面投影され、3D点測定値322として用いられる。無効な深度を有するキーポイントは、2D点測定値321とみなされ、センサーの光心と2Dキーポイントとを通る3D線として表される。
特徴部抽出後、本発明では、現在のフレームから抽出されたキーポイントとSLAM地図におけるキーポイントとの間の対応関係330が求められる。平面対応関係は検索されない。なぜならば、平面の数は、点の数よりもはるかに少ないからである。その代わりに、本発明のRANSAC位置合わせは、全ての可能な平面対応関係を考慮する。
本発明では、現在のフレームのキーポイントとSLAM地図の直前のk個のキーフレームのキーポイントとの間で、全対全記述子照合が実行される。地図の全てのキーポイントの代わりにk個のキーフレームを考慮することによって、検索の時間が削減される。なぜならば、連続的なセンサーの動きを仮定すると、直前のキーフレームは、シーンにおいて現在のフレームと同じ領域を観測している可能性がより高いからである。この照合は、次の対応関係、すなわち、点対点対応関係、線対点対応関係、及び線対線対応関係を返す。これらの対応関係のそれぞれは、RANSAC位置合わせフェーズにおいて特別に考慮される。線対点対応関係は、3D点ランドマークから2D点測定値又は2D点ランドマークから3D点測定値への2つの場合を考慮している。
本発明では、キーフレームの姿勢を予測として用いることによって、不要な記述子照合が回避される。本発明では、地図の全ての3D点が、予測された姿勢に基づいてフレームに投影される。フレーム内の測定値は、その投影がr個のピクセルからなる近傍の範囲内に入る場合、3D点ランドマークと整合する。これによって、点対点対応関係又は3Dランドマークから2D測定値への対応関係(すなわち、点対線対応関係)のいずれかが生成される。2Dランドマークと3D測定値との間にある点対線対応関係の場合、検索は、投影の方向の変化に伴って同じ方法で行われる。すなわち、フレームの3D点測定値は、2D点ランドマークを開始するキーフレームに投影される。線対線対応関係については、本発明では、2D点測定値を2D点ランドマークと照合するために、エピポーラ線までの距離がr個のピクセルよりも少ないことが検査される。
RANSAC位置合わせ340は、(i)3つの平面、(ii)2つの平面+1つの3D点、(iii)1つの平面+2つの3D点、及び(iv)3つの3D点の順序で異なるタイプの仮定を試行する。本発明では、2D点測定値が用いられるので、本発明では、このリストに最後の仮定も追加される。この最後の仮定は、3つの線対点対応関係を考慮するものである。
RANSAC位置合わせが成功した場合(350)、推定された姿勢及び内座層対応関係が用いられて、SLAM地図380が更新される(370)。
フレームの推定された姿勢が、地図における既存のキーフレームの姿勢と異なるとき、このフレームは、新たなキーフレーム360として地図に追加される。2D測定値が3D点ランドマークと整合する場合、この2D測定値の記述子を追加することによって、記述子の集合は、拡大される。線対線の整合の場合、本発明では、2つの線上の最も近い点の中点を求めることによって、三角測量が実行され、2D測定値の記述子を収集することによって、この中点が3D点ランドマークとして地図に追加される。本発明では、小さなカメラベースラインを用いた線対線の整合の三角測量は、雑音を導入するので無視される。3D点測定値が2D点ランドマークと整合する場合、このランドマークは、地図座標系に転送された3D点測定値の3D座標を介して3D点ランドマークとして更新される。全ての整合しない点測定値は、点ランドマークとして地図に追加される。
後処理は、既存の地図に適用されるので、全ての測定値は、ランドマークに既に関連付けられている。したがって、この段階は、キーフレームと地図との間の対応関係のみを更新する。RANSAC内座層は、キーフレームの対応関係を精緻化するのに用いられる。測定値が、現在関連付けられているランドマークと異なるランドマークと整合する場合、この測定値は、現在のランドマークから除去され、新たな内座層ランドマークに関連付けられる。同様に、測定値が、その現在のランドマークと整合していない場合、この測定値はそのランドマークから分割され、新たなランドマークが生成される。
三重項(k,l,m)は、3D点ランドマークpl(l=1,...,L)が姿勢Tk(k=1,...,K)を有するキーフレームk内の3D点測定値
バンドル調整は、非同期に実行される。本発明では、ループ閉鎖も実行される。ループ閉鎖は、まず、キーポイントに基づいて求められた局所集約記述子ベクトル(VLAD:vector of locally aggregated descriptors)記述子を用いて地図におけるキーフレームの全ての対の外観類似性をチェックする。これについては、Jegou他「Aggregating local image descriptors into compact codes」IEEE Trans. Pattern Anal. Mach. Intell., vol. 34, no. 9, pp. 1704-1716, Sept. 2012を参照されたい。オンラインSLAMは、キーフレームの対の間の類似性もチェックする。本発明では、キーフレームの現在の姿勢が過度に異なるとき、ループの閉鎖は、試行されない。類似性テストに合格したキーフレームの対について、本発明のシステムは、次に、ハイブリッド対応関係を用いてRANSAC位置合わせを実行し、RANSACが成功した場合、内座層対応関係が用いられて、地図における関連付けが更新される。
後処理は、関連付けを更新するとともに地図におけるランドマークパラメーター及びキーフレーム姿勢を精緻化するために反復的に実行される。後処理の反復では、あらゆるキーフレームが、キーフレームの残りのものを含む地図と再位置合わせされ、その対応関係が更新される。すなわち、ランドマークの分割及びマージが必要なときに実行される。全ての対応関係が更新された後、本発明では、バンドル調整が再度実行され、ランドマークパラメーター及びキーフレーム姿勢が精緻化される。本発明では、キーフレーム姿勢の平均変化が閾値よりも大きい場合に、この反復が繰り返される。したがって、バンドル調整は、オフライン後処理において逐次的に実行される。
本発明では、3Dシーン202のフレーム203が、例えば、赤色、緑色、青色、及び深度(RGB−D)のセンサー201を用いて入手される(310)。フレーム内のデータは、以下のように逐次的に処理される。
本発明の実施の形態は、SLAMシステムの位置合わせされたプリミティブを提供する。本発明の1つの目的は、RGB−Dセンサーによって入手された全てのデータを有効に用いることである。このシステムは、2D及び3DのSLAMのハイブリッドとみなすことができる。2D測定値は、センサーの光心と2D点とを通る3D線として表される。
Claims (12)
- データを位置合わせする方法であって、
異なる視点におけるセンサーによってシーンから前記データを入手するステップと、
前記データから、3次元(3D)点及び3D線と、該3D点及び該3D線に関連付けられた記述子とを抽出するステップと、
前記センサーの第1の座標系に表されたプリミティブの第1の集合を選択するステップであって、該プリミティブの第1の集合は、少なくとも3つの3D点を含む、ステップと、
第2の座標系に表されたプリミティブの第2の集合を選択するステップであって、該プリミティブの第2の集合は、少なくとも3つのプリミティブを取得するための3D点及び3D線の任意の組み合わせを含む、ステップと、
前記プリミティブの第1の集合及び前記プリミティブの第2の集合を用い、前記3D点を互いに位置合わせするとともに、前記3D点を前記3D線と位置合わせして、位置合わせされたプリミティブを取得するステップであって、前記位置合わせされたプリミティブは、同時位置同定地図生成(SLAM)システムにおいて用いられる、ステップと、
を含み、それぞれのステップは、プロセッサにおいて実行される、方法。 - 前記位置合わせされたプリミティブをSLAM地図に記憶するステップと、
バンドル調整によって前記SLAM地図を最適化するステップと、
を更に含む、請求項1に記載の方法。 - 前記センサーは、前記データを、前記シーンの前記異なる視点ごとのフレームのシーケンスとして入手し、各フレームは、ピクセル画像及び対応する深度地図を含み、それぞれのステップは、各フレームについて実行される、請求項1に記載の方法。
- 前記データからキーポイントを抽出するステップであって、該キーポイントは、有効な深度を有する3Dキーポイントと、有効な深度を有しない2次元(2D)キーポイントとを含むステップと、
前記有効な深度を有する前記3Dキーポイントを背面投影して前記3D点を生成するとともに、無効な深度を有する前記2Dキーポイントを、前記センサーの固有パラメーターに基づいて該2Dキーポイントと前記センサーの光心とを通る線として表して前記3D線を生成するステップと、
を更に含む、請求項3に記載の方法。 - 前記位置合わせするステップは、
記述子を照合することに基づいて、前記プリミティブの第1の集合と前記プリミティブの第2の集合との間の対応関係を求めて、点対点対応関係、点対線対応関係、及び線対線対応関係を生成するステップ、
を更に含む、請求項4に記載の方法。 - 前記位置合わせするステップは、同時に行われる、請求項1に記載の方法。
- 前記データは、複数のセンサーによって入手される、請求項1に記載の方法。
- 前記3D点を前記位置合わせするステップは、3点透視手順を用いる、請求項1に記載の方法。
- 前記プリミティブは3D平面を含む、請求項1に記載の方法。
- 位置合わせするステップは、全ての可能な平面対平面対応関係を考慮する、請求項9に記載の方法。
- 位置合わせするステップは、次の順序、すなわち、3つの平面対平面対応関係と、2つの平面対平面対応関係及び1つの点対点対応関係と、1つの平面対平面対応関係及び2つの点対点対応関係と、3つの点対点対応関係と、3つの点対線対応関係との順序で対応関係の三重項を用いて初期化されるランダムサンプルコンセンサス(RANSAC)を介して実行される、請求項9に記載の方法。
- データを位置合わせするシステムであって、
異なる視点において、シーンから前記データを入手するように構成されたセンサーと、
プロセッサであって、
前記データから、3次元(3D)点及び3D線と、該3D点及び該3D線に関連付けられた記述子とを抽出することと、
前記センサーの第1の座標系に表されたプリミティブの第1の集合を選択することであって、該プリミティブの第1の集合は、少なくとも3つの3D点を含むことと、
第2の座標系に表されたプリミティブの第2の集合を選択することであって、該プリミティブの第2の集合は、少なくとも3つのプリミティブを取得するための3D点及び3D線の任意の組み合わせを含むことと、
前記プリミティブの第1の集合及び前記プリミティブの第2の集合を用い、前記3D点を互いに位置合わせするとともに、前記3D点を前記3D線と位置合わせして、位置合わせされたプリミティブを取得することであって、前記位置合わせされたプリミティブは、同時位置同定地図生成(SLAM)システムにおいて用いられることと、
を行うように構成されたプロセッサと、
を備える、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/962,257 US9807365B2 (en) | 2015-12-08 | 2015-12-08 | System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene |
US14/962,257 | 2015-12-08 | ||
PCT/JP2016/086829 WO2017099251A1 (en) | 2015-12-08 | 2016-12-05 | Method and system for registering data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018523881A JP2018523881A (ja) | 2018-08-23 |
JP6430064B2 true JP6430064B2 (ja) | 2018-11-28 |
Family
ID=57838445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018509925A Active JP6430064B2 (ja) | 2015-12-08 | 2016-12-05 | データを位置合わせする方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9807365B2 (ja) |
JP (1) | JP6430064B2 (ja) |
CN (1) | CN108369741B (ja) |
WO (1) | WO2017099251A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100805518B1 (ko) | 2001-01-26 | 2008-02-20 | 엠이엠씨 일렉트로닉 머티리얼즈 인코포레이티드 | 산화 유도된 적층 결함을 실질적으로 포함하지 않는베이컨시 지배 코어를 갖는 낮은 결함 밀도의 실리콘 |
JP6775969B2 (ja) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6976270B2 (ja) | 2016-04-08 | 2021-12-08 | オービタル インサイト インコーポレイテッド | 地理的領域におけるコンテナ内に格納された量の遠隔決定 |
US10217236B2 (en) | 2016-04-08 | 2019-02-26 | Orbital Insight, Inc. | Remote determination of containers in geographical region |
WO2019057179A1 (zh) * | 2017-09-22 | 2019-03-28 | 华为技术有限公司 | 一种基于点线特征的视觉slam方法和装置 |
CN108682027A (zh) * | 2018-05-11 | 2018-10-19 | 北京华捷艾米科技有限公司 | 基于点、线特征融合的vSLAM实现方法及系统 |
WO2019241782A1 (en) * | 2018-06-16 | 2019-12-19 | Artisense Corporation | Deep virtual stereo odometry |
US10726264B2 (en) | 2018-06-25 | 2020-07-28 | Microsoft Technology Licensing, Llc | Object-based localization |
US10740645B2 (en) | 2018-06-29 | 2020-08-11 | Toyota Research Institute, Inc. | System and method for improving the representation of line features |
US20200137380A1 (en) * | 2018-10-31 | 2020-04-30 | Intel Corporation | Multi-plane display image synthesis mechanism |
CN109492639A (zh) * | 2018-11-12 | 2019-03-19 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、系统及图像识别设备 |
CN109448058A (zh) * | 2018-11-12 | 2019-03-08 | 北京拓疆者智能科技有限公司 | 装载位置三维坐标获取方法、系统及图像识别设备 |
US11288842B2 (en) | 2019-02-15 | 2022-03-29 | Interaptix Inc. | Method and system for re-projecting and combining sensor data for visualization |
CN109887087B (zh) * | 2019-02-22 | 2021-02-19 | 广州小鹏汽车科技有限公司 | 一种车辆的slam建图方法及系统 |
CN110097024B (zh) * | 2019-05-13 | 2020-12-25 | 河北工业大学 | 一种移乘搬运护理机器人的人体姿态视觉识别方法 |
CN110349213B (zh) * | 2019-06-28 | 2023-12-12 | Oppo广东移动通信有限公司 | 基于深度信息的位姿确定方法、装置、介质与电子设备 |
CN110516527B (zh) * | 2019-07-08 | 2023-05-23 | 广东工业大学 | 一种基于实例分割的视觉slam回环检测改进方法 |
CN110490085B (zh) * | 2019-07-24 | 2022-03-11 | 西北工业大学 | 点线特征视觉slam系统的快速位姿估计算法 |
WO2021056134A1 (en) * | 2019-09-23 | 2021-04-01 | Intel Corporation | Scene retrieval for computer vision |
WO2021114773A1 (en) * | 2019-12-12 | 2021-06-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Target detection method, device, terminal device, and medium |
US11494927B2 (en) | 2020-09-15 | 2022-11-08 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation |
US11615544B2 (en) | 2020-09-15 | 2023-03-28 | Toyota Research Institute, Inc. | Systems and methods for end-to-end map building from a video sequence using neural camera models |
US11508080B2 (en) * | 2020-09-15 | 2022-11-22 | Toyota Research Institute, Inc. | Systems and methods for generic visual odometry using learned features via neural camera models |
CN112258633B (zh) * | 2020-10-23 | 2023-02-28 | 华中科技大学鄂州工业技术研究院 | 一种基于slam技术的场景高精度重建方法及装置 |
US11527014B2 (en) * | 2020-11-24 | 2022-12-13 | Verizon Patent And Licensing Inc. | Methods and systems for calibrating surface data capture devices |
CN114882087B (zh) * | 2022-07-12 | 2022-10-04 | 武汉瀚迈科技有限公司 | 针对具有不完整基本图元的三维扫描点云实时配准方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7145478B2 (en) | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
JP5013961B2 (ja) * | 2007-05-21 | 2012-08-29 | キヤノン株式会社 | 位置姿勢計測装置及びその制御方法 |
US8855819B2 (en) * | 2008-10-09 | 2014-10-07 | Samsung Electronics Co., Ltd. | Method and apparatus for simultaneous localization and mapping of robot |
US8290305B2 (en) * | 2009-02-13 | 2012-10-16 | Harris Corporation | Registration of 3D point cloud data to 2D electro-optical image data |
US8224071B2 (en) * | 2009-06-30 | 2012-07-17 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering 3D points with 3D planes |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
US8831290B2 (en) * | 2012-08-01 | 2014-09-09 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of vehicle-mounted cameras for in-road obstacle detection |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US20150269436A1 (en) * | 2014-03-18 | 2015-09-24 | Qualcomm Incorporated | Line segment tracking in computer vision applications |
CN103942832B (zh) * | 2014-04-11 | 2016-07-06 | 浙江大学 | 一种基于在线结构分析的室内场景实时重建方法 |
US9430847B2 (en) * | 2014-06-12 | 2016-08-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for stereo visual odometry using points, lines and planes |
US9858681B2 (en) * | 2014-10-27 | 2018-01-02 | Digimarc Corporation | Signal detection, recognition and tracking with feature vector transforms |
US9761015B2 (en) * | 2015-04-28 | 2017-09-12 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining dimensions in an indoor scene from a single depth image |
CN104899918B (zh) * | 2015-05-14 | 2018-02-27 | 深圳大学 | 一种无人机的三维环境建模方法及系统 |
-
2015
- 2015-12-08 US US14/962,257 patent/US9807365B2/en active Active
-
2016
- 2016-12-05 CN CN201680072960.6A patent/CN108369741B/zh active Active
- 2016-12-05 JP JP2018509925A patent/JP6430064B2/ja active Active
- 2016-12-05 WO PCT/JP2016/086829 patent/WO2017099251A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2018523881A (ja) | 2018-08-23 |
US9807365B2 (en) | 2017-10-31 |
CN108369741A (zh) | 2018-08-03 |
WO2017099251A1 (en) | 2017-06-15 |
CN108369741B (zh) | 2019-08-30 |
US20170161901A1 (en) | 2017-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
Lu et al. | Visual navigation using heterogeneous landmarks and unsupervised geometric constraints | |
US20170161546A1 (en) | Method and System for Detecting and Tracking Objects and SLAM with Hierarchical Feature Grouping | |
EP2915138B1 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
EP2751777B1 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
KR20180087947A (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
Hirose et al. | Fast Line Description for Line-based SLAM. | |
US20140002597A1 (en) | Tracking Poses of 3D Camera Using Points and Planes | |
JP4709668B2 (ja) | 3次元物体認識システム | |
Wang et al. | Robust 3D reconstruction with an RGB-D camera | |
Gedik et al. | 3-D rigid body tracking using vision and depth sensors | |
Zou et al. | Indoor localization and 3D scene reconstruction for mobile robots using the Microsoft Kinect sensor | |
WO2019018065A1 (en) | THIN OBJECT DETECTION BASED ON VISION BY COMPUTER | |
Ataer-Cansizoglu et al. | Pinpoint SLAM: A hybrid of 2D and 3D simultaneous localization and mapping for RGB-D sensors | |
Bu et al. | Semi-direct tracking and mapping with RGB-D camera for MAV | |
CN110458177B (zh) | 图像深度信息的获取方法、图像处理装置以及存储介质 | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Schwarz et al. | Tracking planes with time of flight cameras and j-linkage | |
Zhang et al. | Feature regions segmentation based RGB-D visual odometry in dynamic environment | |
WO2017042852A1 (en) | Object recognition appratus, object recognition method and storage medium | |
Laganière et al. | Visual reconstruction of ground plane obstacles in a sparse view robot environment | |
Nakayama et al. | Marker-less augmented reality framework using on-site 3D line-segment-based model generation | |
Lourakis et al. | Autonomous visual navigation for planetary exploration rovers | |
Yeh et al. | Model quality aware ransac: A robust camera motion estimator | |
Xu | Stereo Visual Odometry with Windowed Bundle Adjustment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180221 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180221 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6430064 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |