JP6200989B2 - 物体姿勢認識 - Google Patents
物体姿勢認識 Download PDFInfo
- Publication number
- JP6200989B2 JP6200989B2 JP2016055730A JP2016055730A JP6200989B2 JP 6200989 B2 JP6200989 B2 JP 6200989B2 JP 2016055730 A JP2016055730 A JP 2016055730A JP 2016055730 A JP2016055730 A JP 2016055730A JP 6200989 B2 JP6200989 B2 JP 6200989B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- candidate position
- image element
- candidate
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Description
この出願は、2015年3月20日に提出された英国特許出願第1504750.9号に基づいていて、かつ、この優先権の利益を主張するものであって、その全内容が参照によってここに組み込まれる。
距離画像のみからの関節物体認識および姿勢推定は、例えば、ロボティクスアプリケーションおよび自動生産環境において重要なタスクである。カラー情報の不足および現在の商品デプスセンサの制約は、このタスクを難しいコンピュータビジョン問題にするし、標準的なランダムサンプリングベースのアプローチは時間がかかる。この難問は、局所的な確率伝播(または動的計画法)の助けを借りた、明らかな誤対応の早期排除により姿勢推定のための見込みのある正対応(inlier)セットを生成することで、取り組まれるかもしれない。データ並列を利用することによりアプローチは高速となり、計算上高価なトレーニングフェーズは必要ない。最新技術の性能は、標準的なデータセットで実証される。
デプスマップの性質ならびに画像の小片のみを占める物体を検出する問題を考慮して、不安定な目立つ特徴点に依存しないために、記述子の密(または、準密)な計算が使用されてよい。
テスト時には、記述子は、(サブサンプルされた)デプス画像における有効なデプスおよび推定された面法線を用いて画素毎に計算され、タスクは、類似の局所的な形状外観を持つ物体座標のセットを効率的に定めることである。バイナリ列の類似性を定量化するために、ハミング距離が使用される。FLANNにおけるバイナリデータのための近似最近傍実装が使用された。
マッチングステップは、画素(画像要素)毎の物体座標候補(候補位置)のリストを記述子付きで返す。姿勢仮説を生成することすらせず、距離画像に含まれる情報を利用することで、推定上の対応のペア(候補位置のペア)の品質を評価することが可能である。pおよびqがクエリ距離画像における2つの画素(画像要素)であるならば、X^pおよびX^qは、観測されたデプスによってもたらされる、それぞれの逆投影3D点であり、XpおよびXqはpおよびqにおいて伝えられる推定上の対応であり、X^p<−>Xp、X^q<−>Xqが正対応であることの必要条件は、次の通りである。
剛性の姿勢推定は、少なくとも3つの(非縮退の)点間対応を必要とする。例えば、{X^p<−>Xp,X^q<−>Xq,X^r<−>Xr}という、3つのそのような対応があれば、ユークリッド変換、そして姿勢推定はKabschのアルゴリズムまたはHornの方法を介して計算することができる。当面のタスクは、画素毎に定められた候補物体座標から3つの対応の有望なセットを生成することである。
最小限界は、クエリ画像において画素毎に密に計算され(すなわち、全画素が根となる)、pからオフセットδk(k∈{1,...,K})に位置する画素よりメッセージmp+δk→pが計算される。セット{δk}の選択は、軸に揃えられた16個のオフセットと、8個および16個の画素距離にある対角オフセット(これは、予測場所と姿勢推定の数的安定性とを交換することを目的とする)を含む。p→qおよびr→pの2つのエッジについて、(Xp,X* q→p(Xp),X* r→p(Xp))は剛性の姿勢を推定するための最小サンプルセットを形成し、最小限界は全て、これらの最小サンプルセットをランク付けするために用いられるK(K−1)/2個の係る三つ組のためのものである。方法は、後述されるように、最高位のもの(ここでは、2000個が使用される)に対する推定および評価に進む。
3Dモデルを距離画像に揃えることによって姿勢仮説の品質を評価することは、姿勢がノイズによって影響されないか殆ど影響されないならば、簡単なように見える。姿勢仮説において予想され得る実質的なノイズレベル、ならびに、姿勢をランク付けするための賢明なスコアリング関数は、これを考慮に入れる必要がある。この目的のために、スコアリング関数は、姿勢の不確実性に対して不変量である必要がある。真の姿勢は事実上は潜在的な変量であるから、1つのオプションは近くの姿勢を重要視しない(marginalize)(すなわち、平均化)することであり[これは、本質的には、入力を平滑化することに相当する]、別のオプションは潜在的な姿勢を最大化することである。以降では、後者のオプションが選択される。多数の姿勢仮説が真の姿勢の近くで得られないと予想または仮定されるので、姿勢クラスタリングまたは平均化アプローチは全く使用されない。「古典的な」幾何アプローチが、所与の3Dモデル点とデプスマップとの間の最適なアライメントを定めることにより使用される。
トレーニングフェーズ:トレーニング段階において用いられるコアデータは、興味のある1以上の物体(画像化された物体)のデプス画像と共にそれぞれの姿勢データである。これらのデプスマップは、例えばCADモデルから合成的に生成され得るし、デプスセンサによってキャプチャされ得る。CADモデルがレンダリングされるならば、物体の重心に向けてランダムにカメラ姿勢が生成される。実装では、実際のデプスセンサの特性(例えば、ノイズまたは量子化の影響)はシミュレートされないが、これらが物体の部分において対応が見つからないことにつながる場合もある(例えば、図6におけるパイプの上部は、レンダリングされた実際のデプスマップでは大幅に異なる概観を持つ)。これらのデプスマップから、デプスマップにおける(有効な)画素のランダムサブセットを選択することによって、目標数の記述子(この実験では典型的には32k個)が抽出される。ランダムサンプリングは、前額平行面パッチに近い画素の方へわずかに偏らせられる。従って、約600k個の記述子(サンプリングされた接平面回転に対して32k×18)が生成されて格納される。トレーニング時にはそれ以上の処理は関与しない。従って、トレーニングフェーズは数秒以内に完了する。
Mianデータセットは3D物体検出アルゴリズムのためのデファクトベースラインベンチマークデータセットであるから、結果はMianデータセットについて示される。ここに記述されるアルゴリズムがノイズの入った入力を処理する能力を実証するために、ASUS Xtionカメラを用いて記録された発明者独自のデータセットも示される。上述のアルゴリズムはデプスマップを入力として取るので、(レンジスキャナの較正パラメータが利用できないので)カメラの内部用の近似パラメータを用いて640×480デプスマップにレンダリングすることにより、所与のメッシュは距離画像へと変換された。従って、デプスマップにおける閉塞の量は、提供されるメッシュに比べてわずかに高いかもしれない。我々は、ベースライン法として以下のアプローチを示す:スピンイメージ、テンソルマッチング、Drost、SVSおよびTuzel。
・マッチング(FLANNを用いたハミング距離ベースの記述子マッチング):45%。
・メッセージパッシング(最小限界計算のための):24%。
・ランキング(数式(6)に従うランキング/ソート):6%。
・姿勢評価(ICPを含む):16%。
Claims (10)
- 画像化された物体の姿勢を推定するために使用されるコンピュータ実装方法であって、
(a)画像要素から構成されていて、前記画像化された物体を含むシーンを3つの空間次元で表す画像を受信するステップと、
(b)複数の画像要素の各々について、1つ以上の候補物体のアトラスにおける1つ以上の対応する候補位置を識別するステップと、
(c)前記複数の画像要素から、第1の画像要素および第2の画像要素を含む画像要素ペアを形成するステップと、
(d)前記第1の画像要素と前記第2の画像要素との間の第1の距離を定めるステップ
と、
(e)前記第1の画像要素に対応する第1の候補位置と前記第2の画像要素に対応する第2の候補位置との間の第2の距離を定めるステップと、
(f)前記第1の距離および前記第2の距離を比較するステップと、
ステップ(c)乃至ステップ(f)を、前記複数の画像要素からの1つ以上のさらなる画像要素ペアに対して実行するステップと、
(i)第1の画像要素ペアの第1の画像要素および第2の画像要素に対応する第1の候補位置および第2の候補位置を持つ第1の候補位置ペアを選択するステップと、(ii)第2の画像要素ペアの第1の画像要素および第2の画像要素に対応する第1の候補位置および第2の候補位置を持つ第2の候補位置ペアを選択するステップと、(iii)前記第1の候補位置ペアと前記第2の候補位置ペアの第2の候補位置とを含む候補位置の三つ組を形成するステップとを含むステップ(g)と、
さらなる候補位置の三つ組を形成するために、さらなる候補位置ペアに対してステップ(g)を実行するステップと、
各三つ組のうちの第1の候補位置ペアおよび第2の候補位置ペアに対して一致性スコアを定めるステップと、
定められた一致性スコアに基づいて三つ組のサブセットを選択するステップと、
前記三つ組のサブセットにおける三つ組毎に、それぞれの候補位置の三つ組に基づいて前記画像化された物体の初期姿勢推定を計算するステップと、
前記三つ組のサブセットにおける三つ組毎に、前記三つ組の初期姿勢推定に基づいて前記画像化された物体の推定画像を作成し、前記画像化された物体を含むシーンを表す画像と前記推定画像を比較し、前記比較に基づいて、前記三つ組に対する洗練された姿勢推定を決定およびスコアリングするステップと
を具備し、
前記1つ以上の候補物体のアトラスは、物体の3次元表現を提供する2D画像、物体のボリューム3D表現、または、CAD(Computer−Aided Design)ソフトウェアを用いて数学的に定められた幾何モデルであり、
前記三つ組に対する洗練された姿勢推定は、当該三つ組の初期姿勢推定を繰り返し変更し、変更後の姿勢推定に基づいて作成される推定画像が当該三つ組に対する以前の推定画像の評価に比べて良いか悪いかを定めることにより探索される、
方法。 - ステップ(i)およびステップ(ii)のうち少なくとも一方が、
ステップ(f)の結果に基づいて、それぞれの候補位置ペアの一致性スコアを決定するステップと、
前記決定に基づいてそれぞれの選択をなすステップと
を含む、
請求項1記載の方法。 - 前記三つ組のサブセットを選択するステップが、
前記三つ組を当該三つ組の対応する一致性スコアに従ってランク付けするステップと、
ランキングに基づいて前記三つ組のサブセットを選択するステップと
を含む、請求項1記載の方法。 - 前記定められた一致性スコアに基づく前記三つ組のサブセットの選択は、グラフ探索を用いて行われる、請求項1または請求項3記載の方法。
- 前記洗練された姿勢推定のスコアに基づいて、当該洗練された姿勢推定のうち1つを選択するステップをさらに具備する、請求項1記載の方法。
- ステップ(b)が、前記複数の画像要素の各々について、
前記画像要素に関連付けられる記述子を導出するステップと、
前記記述子を前記アトラスにおける1つ以上の候補位置とマッチングするステップと
を含む、請求項1記載の方法。 - 前記画像はデプスマップであり、
各画像要素は、デプスを表す強度値を持ち、
ステップ(d)は、画像要素強度値を用いて前記第1の距離を定めることを含む、
請求項1乃至請求項6のいずれか1項記載の方法。 - 請求項1乃至請求項7のいずれか1項記載の方法を実行するようにされた装置またはシステム。
- 前記画像を受け取るようにされた入出力手段と、
請求項1乃至請求項7のいずれか1項記載の方法のステップをプロセッサに実行させるための命令を格納するメモリと、
請求項1乃至請求項7のいずれか1項記載の方法のステップを実行するためのプロセッサと
を具備する、装置またはシステム。 - 1つ以上のプロセッサによる実行時に、当該1つ以上のプロセッサに請求項1乃至請求項7のいずれか1項記載の方法を実行させるようにされた機械可読命令を具備する非一時的なコンピュータ可読記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1504750.9A GB2536493B (en) | 2015-03-20 | 2015-03-20 | Object pose recognition |
GB1504750.9 | 2015-03-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016177804A JP2016177804A (ja) | 2016-10-06 |
JP6200989B2 true JP6200989B2 (ja) | 2017-09-20 |
Family
ID=53052141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016055730A Expired - Fee Related JP6200989B2 (ja) | 2015-03-20 | 2016-03-18 | 物体姿勢認識 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9818195B2 (ja) |
JP (1) | JP6200989B2 (ja) |
GB (1) | GB2536493B (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181091B2 (en) * | 2014-06-20 | 2019-01-15 | Google Llc | Fine-grained image similarity |
GB2536493B (en) * | 2015-03-20 | 2020-11-18 | Toshiba Europe Ltd | Object pose recognition |
KR101740329B1 (ko) * | 2015-08-04 | 2017-05-29 | 한국전자통신연구원 | 팝업 북 기반 영상 콘텐츠 표시 장치 및 방법 |
WO2017145356A1 (ja) | 2016-02-26 | 2017-08-31 | 株式会社ニコン | 検出装置、検出システム、検出方法、情報処理装置、及び処理プログラム |
WO2017154705A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム、データ構造、及び撮像システム |
US10198818B2 (en) | 2016-10-12 | 2019-02-05 | Intel Corporation | Complexity reduction of human interacted object recognition |
US10140675B2 (en) * | 2016-11-28 | 2018-11-27 | Google Llc | Image grid with selectively prominent images |
CN110506191A (zh) | 2017-02-15 | 2019-11-26 | 3形状股份有限公司 | 监测3d扫描仪的扫描体积 |
EP3586311A1 (en) * | 2017-02-23 | 2020-01-01 | Siemens Mobility GmbH | Image indexing and retrieval using local image patches for object three-dimensional pose estimation |
JP6827875B2 (ja) * | 2017-04-19 | 2021-02-10 | 株式会社日立製作所 | 姿勢推定システム、距離画像カメラ、及び姿勢推定装置 |
US10402448B2 (en) * | 2017-06-28 | 2019-09-03 | Google Llc | Image retrieval with deep local feature descriptors and attention-based keypoint descriptors |
US10909369B2 (en) * | 2017-07-14 | 2021-02-02 | Mitsubishi Electric Research Laboratories, Inc | Imaging system and method for object detection and localization |
US10755142B2 (en) * | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
CN116721203A (zh) * | 2017-09-27 | 2023-09-08 | 虹软科技股份有限公司 | 一种用于测量三维模型的方法、装置和存储介质 |
WO2019065298A1 (ja) * | 2017-09-29 | 2019-04-04 | ソニー株式会社 | 情報処理装置および方法 |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
WO2019175629A1 (en) * | 2018-03-14 | 2019-09-19 | Nokia Technologies Oy | Camera calibration and/or use of a calibrated camera |
US10452947B1 (en) | 2018-06-08 | 2019-10-22 | Microsoft Technology Licensing, Llc | Object recognition using depth and multi-spectral camera |
KR102324001B1 (ko) * | 2018-08-20 | 2021-11-09 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 위치자세 검출 방법 및 장치, 전자 기기 및 저장 매체 |
CN109242892B (zh) * | 2018-09-12 | 2019-11-12 | 北京字节跳动网络技术有限公司 | 用于确定图像间的几何变换关系的方法和装置 |
US11245875B2 (en) | 2019-01-15 | 2022-02-08 | Microsoft Technology Licensing, Llc | Monitoring activity with depth and multi-spectral camera |
CN109555543B (zh) * | 2019-02-01 | 2024-03-29 | 中国铁建重工集团股份有限公司 | 一种管片自动输送及识别系统 |
WO2020208976A1 (ja) * | 2019-04-08 | 2020-10-15 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US11153603B2 (en) * | 2019-06-10 | 2021-10-19 | Intel Corporation | Volumetric video visibility encoding mechanism |
CN114402364A (zh) * | 2019-09-13 | 2022-04-26 | 谷歌有限责任公司 | 使用随机森林的3d对象检测 |
CN111368934B (zh) * | 2020-03-17 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 图像识别模型训练方法、图像识别方法以及相关装置 |
US20220035003A1 (en) * | 2020-07-29 | 2022-02-03 | The Johns Hopkins University | Method and apparatus for high-confidence people classification, change detection, and nuisance alarm rejection based on shape classifier using 3d point cloud data |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6944319B1 (en) * | 1999-09-13 | 2005-09-13 | Microsoft Corporation | Pose-invariant face recognition system and process |
JP4573085B2 (ja) * | 2001-08-10 | 2010-11-04 | 日本電気株式会社 | 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム |
AU2004282790A1 (en) * | 2003-10-21 | 2005-04-28 | Nec Corporation | Image collation system and image collation method |
WO2008111452A1 (ja) | 2007-03-09 | 2008-09-18 | Omron Corporation | 認識処理方法およびこの方法を用いた画像処理装置 |
US7844105B2 (en) * | 2007-04-23 | 2010-11-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining objects poses from range images |
JP5181704B2 (ja) * | 2008-02-07 | 2013-04-10 | 日本電気株式会社 | データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム |
WO2010099035A1 (en) * | 2009-02-25 | 2010-09-02 | Honda Motor Co., Ltd. | Body feature detection and human pose estimation using inner distance shape contexts |
JP5297403B2 (ja) * | 2010-02-26 | 2013-09-25 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体 |
JP5548482B2 (ja) * | 2010-02-26 | 2014-07-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 |
JP5800494B2 (ja) | 2010-11-19 | 2015-10-28 | キヤノン株式会社 | 特定領域選択装置、特定領域選択方法及びプログラム |
US9342888B2 (en) * | 2014-02-08 | 2016-05-17 | Honda Motor Co., Ltd. | System and method for mapping, localization and pose correction of a vehicle based on images |
US9607388B2 (en) * | 2014-09-19 | 2017-03-28 | Qualcomm Incorporated | System and method of pose estimation |
GB2536493B (en) * | 2015-03-20 | 2020-11-18 | Toshiba Europe Ltd | Object pose recognition |
-
2015
- 2015-03-20 GB GB1504750.9A patent/GB2536493B/en active Active
-
2016
- 2016-03-18 US US15/074,438 patent/US9818195B2/en active Active
- 2016-03-18 JP JP2016055730A patent/JP6200989B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9818195B2 (en) | 2017-11-14 |
GB2536493B (en) | 2020-11-18 |
GB2536493A (en) | 2016-09-21 |
US20160275686A1 (en) | 2016-09-22 |
JP2016177804A (ja) | 2016-10-06 |
GB201504750D0 (en) | 2015-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6200989B2 (ja) | 物体姿勢認識 | |
Menze et al. | Object scene flow | |
Park et al. | Pix2pose: Pixel-wise coordinate regression of objects for 6d pose estimation | |
Yang et al. | Monocular object and plane slam in structured environments | |
Walch et al. | Image-based localization using lstms for structured feature correlation | |
Huang et al. | Indoor depth completion with boundary consistency and self-attention | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
Menze et al. | Object scene flow for autonomous vehicles | |
US8971612B2 (en) | Learning image processing tasks from scene reconstructions | |
Zach et al. | A dynamic programming approach for fast and robust object pose recognition from range images | |
Alvarez et al. | Providing guidance for maintenance operations using automatic markerless augmented reality system | |
Azad et al. | 6-DoF model-based tracking of arbitrarily shaped 3D objects | |
WO2017132636A1 (en) | Systems and methods for extracting information about objects from scene information | |
Tippetts et al. | Dense disparity real-time stereo vision algorithm for resource-limited systems | |
WO2012106068A2 (en) | Mobile camera localization using depth maps | |
CN114782499A (zh) | 一种基于光流和视图几何约束的图像静态区域提取方法及装置 | |
CN115362478A (zh) | 用于标记图像之间的空间关系的强化学习模型 | |
EP3639192A1 (en) | Computer vision-based thin object detection | |
Li et al. | RGBD relocalisation using pairwise geometry and concise key point sets | |
Li et al. | High-precision motion detection and tracking based on point cloud registration and radius search | |
Moon et al. | Genflow: Generalizable recurrent flow for 6d pose refinement of novel objects | |
Liu | Automatic range image registration in the markov chain | |
Figueroa et al. | A combined approach toward consistent reconstructions of indoor spaces based on 6D RGB-D odometry and KinectFusion | |
CN109146969B (zh) | 行人定位方法、装置及处理设备及其存储介质 | |
Vishnyakov et al. | Real-time semantic slam with dcnn-based feature point detection, matching and dense point cloud aggregation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6200989 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |