JP6692321B2 - 幾何的合わせこみ装置、方法、及びプログラム - Google Patents

幾何的合わせこみ装置、方法、及びプログラム Download PDF

Info

Publication number
JP6692321B2
JP6692321B2 JP2017103718A JP2017103718A JP6692321B2 JP 6692321 B2 JP6692321 B2 JP 6692321B2 JP 2017103718 A JP2017103718 A JP 2017103718A JP 2017103718 A JP2017103718 A JP 2017103718A JP 6692321 B2 JP6692321 B2 JP 6692321B2
Authority
JP
Japan
Prior art keywords
dimensional
orientation information
camera
correction amount
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017103718A
Other languages
English (en)
Other versions
JP2018200504A (ja
Inventor
直之 郡司
直之 郡司
仁 新垣
仁 新垣
筒口 けん
けん 筒口
杵渕 哲也
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017103718A priority Critical patent/JP6692321B2/ja
Publication of JP2018200504A publication Critical patent/JP2018200504A/ja
Application granted granted Critical
Publication of JP6692321B2 publication Critical patent/JP6692321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、幾何的合わせこみ装置、方法、及びプログラムに係り、特に、入力画像を撮影した際のカメラの位置及び姿勢を推定するための幾何的合わせこみ装置、方法、及びプログラムに関する。
近年、ジャイロセンサやGPSを搭載したスマートフォンや、レーザー計測機器やカメラ、GPS、IMUといった複数のセンサを具備した計測車両の出現により、撮影した際のカメラの位置姿勢情報が付与された画像が容易に得られるようになった。しかし、これら位置姿勢情報を計測するセンサに含まれる誤差や計測時のセンサの振動のために、画像に付随する位置姿勢情報と実世界の三次元モデルを用いて、実際に撮影された画像と同様の画像を透視投影によって仮想的に復元しようとしても、位置姿勢情報に含まれる誤差のために三次元モデルが投影される画像平面上の位置がずれてしまい、まったく同じ画像が得られるということは無い。本発明はこのような位置姿勢情報に含まれるズレを解消し、三次元モデルを投影した結果が実際の画像に限りなく一致するように位置姿勢情報を修正するものである。
あらかじめ用意した三次元点群など、この点群の一部分に相当する実世界の物体を撮影した画像が入力として与えられたとき、入力画像に写っているように三次元物体を撮影した際のカメラの位置姿勢を推定する問題はコンピュータビジョン分野において古くから取り組まれている。
このような問題を解決する手法として、三次元物体と画像に写った対象物体のそれぞれからコーナーなどの手がかりとなる特徴点とその対応関係が与えられたときに、三次元物体に対するカメラの位置姿勢情報を計算するDirect Linear Transform(DLT)や線形PnPアルゴリズムといった手法が存在する(非特許文献1参照)。しかし、三次元情報と画像情報の両方から自動的に同一の箇所に対応する可能性のある特徴点を取り出すことは極めて困難であることに加え、仮にそのようなことが出来たとしても抽出した特徴点を記述するような特徴量を計算し、その類似度等を用いて対応関係を自動的に推定するような方法はこれまで確立されていないため、実用的にはほぼ不可能であると考えられる。
形状特徴を必要とはするもののその正確な対応関係までは必要としない手法として、三次元物体と画像に写った対象物体のそれぞれからコーナーやエッジといった物体を表現する形状特徴を検出し、三次元物体側の特徴的な情報を画像平面上に投影した結果得られる画像上の位置と、画像から検出した形状情報の位置のズレが小さくなるように繰り返し位置姿勢情報を推定する手法がある(非特許文献2,3参照)。これはCADやメッシュのように物体の境界や輪郭、あるいはコーナーが取得しやすい形式によって表現された三次元物体を対象とするときには形状情報を正確に取得することが出来るため、このような手法は適していると考えられる。しかし、今回対象としている三次元点群からこれら形状特徴を正確に取り出すことにはいまだ大きな困難をともなうため、これらの特徴を用いてカメラの位置姿勢情報を推定することは難しいと考えられる。
コンピュータビジョン―アルゴリズムと応用―、Richard Szeliski 著・玉木 徹・福嶋 慶繁・飯山 将晃・鳥居 秋彦・栗田 多喜夫・波部 斉・林 昌希・野田 雅文訳、共立出版、2013. SoftPOSIT: Simultaneous Pose and Correspondence Determination, P. David et al., International Journal of Computer Vision, vol. 59, no. 3, pp. 259 - 284, 2004. バンドルアジャストメント、岡谷貴之、研究報告コンピュータビジョンとイメージメディア(CVIM) 2009-CVIM-167(37), pp. 1-16, 2009.
三次元点群と点群が表す物体が写った画像が入力されたとき、三次元点群と画像のそれぞれから特徴点やエッジを抽出し、三次元点群から抽出された特徴点やエッジを画像平面上に投影した位置が、画像から抽出された特徴点やエッジに一致するようにカメラの位置姿勢情報を求めるのが一般的であるが、実世界で計測された三次元点群から特徴点やエッジを正確に抽出することは困難であり、既存手法を用いて三次元点群に対する画像の正確な位置姿勢情報を求めることは現実的ではない。
本発明は、上記問題点を解決するために成されたものであり、精度よく、入力画像を撮影した際のカメラの位置及び姿勢を推定できる幾何的合わせこみ装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る幾何的合わせこみ装置は、実世界のあるシーンを表す三次元点群と、当該シーン内で撮影された入力画像と、計測機器によって得られた前記入力画像を撮影した際のカメラの位置及び姿勢に関する位置姿勢情報とを用いて、前記入力画像を撮影した際のカメラの位置及び姿勢を推定する幾何的合わせこみ装置であって、前記三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得る物体抽出部と、前記入力画像から前記入力画像に含まれるエッジの端点を表す座標の集合を得る画像エッジ抽出部と、前記三次元座標の集合と前記エッジの端点を表す座標の集合とを用いて、前記位置姿勢情報を修正することにより、前記入力画像を撮影した際のカメラの位置及び姿勢を推定するパラメータ最適化部と、を含んで構成されている。
また、第1の発明に係る幾何的合わせこみ装置において、前記パラメータ最適化部は、前記位置姿勢情報の修正量に関する探索範囲を入力として受け取り、修正後の前記位置姿勢情報と、前記三次元座標と、前記エッジの端点を表す座標とを用いてインライアと判定される前記三次元座標の数が最大となるように前記探索範囲内で前記位置姿勢情報の修正量を探索するようにしてもよい。
また、第1の発明に係る幾何的合わせこみ装置において、前記パラメータ最適化部は、前記位置姿勢情報の修正量の探索を、分枝限定法を用いて行うようにしてもよい。
また、第1の発明に係る幾何的合わせこみ装置において、前記パラメータ最適化部は、前記位置姿勢情報に含まれる回転行列の修正量と、前記位置姿勢情報に含まれる三次元ベクトルの修正量とのそれぞれの修正量について、分枝限定法を用いて別個に探索するようにしてもよい。
また、第1の発明に係る幾何的合わせこみ装置において、前記パラメータ最適化部は、前記位置姿勢情報の修正量を探索する際に、前記位置姿勢情報の修正量の探索範囲の大きさと、前記三次元座標の値と、前記位置姿勢情報と、前記エッジの端点を表す座標と、を用いて前記入力画像上に存在するエッジと前記三次元座標が表す点とが成す角度の最小値を推定し、推定された最小値が予め定められた閾値より小さい前記三次元座標をインライアと判定して探索を行うようにしてもよい。
また、第1の発明に係る幾何的合わせこみ装置において、前記物体抽出部は、前記三次元点群から少なくとも1つのケーブル状又は円柱状の物体を抽出し、抽出した物体上の三次元点の三次元座標の集合を得るようにしてもよい。
また、第1の発明に係る幾何的合わせこみ装置において、前記パラメータ最適化部は、前記インライアと判定される前記三次元座標の数が最大となるように、前記探索範囲の部分空間を探索し、探索された前記部分空間内の修正量に基づいて、修正後の前記位置姿勢情報を用いて前記三次元座標の三次元点を画像平面上に透視投影することによって得られた点から最も近いエッジまでの距離が小さくなるように前記位置姿勢情報を修正する処理を行うようにしてもよい。
第2の発明に係る幾何的合わせこみ方法は、物体抽出部、画像エッジ抽出部、及びパラメータ最適化部を含み、実世界のあるシーンを表す三次元点群と、当該シーン内で撮影された入力画像と前記入力画像を撮影した際のカメラの位置及び姿勢に関する位置姿勢情報とを用いて、前記入力画像を撮影した際のカメラの位置及び姿勢を推定する幾何的合わせこみ方法であって、前記物体抽出部が、前記三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得るステップと、前記画像エッジ抽出部が、前記入力画像から前記入力画像に含まれるエッジの端点を表す座標の集合を得るステップと、前記パラメータ最適化部が、前記三次元座標の集合と前記エッジの端点を表す座標の集合とを用いて、前記位置姿勢情報を修正することにより、前記入力画像を撮影した際のカメラの位置及び姿勢を推定するステップと、を含んで実行することを特徴とする。
第3の発明に係るプログラムは、コンピュータを、第1の発明に係る幾何的合わせこみ装置の各部として機能させるためのプログラムである。
本発明の幾何的合わせこみ装置、方法、及びプログラムによれば、三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得て、入力画像から入力画像に含まれるエッジの端点を表す座標の集合を得て、三次元座標の集合とエッジの端点を表す座標の集合とを用いて、位置姿勢情報を修正することにより、入力画像を撮影した際のカメラの位置及び姿勢を推定することにより、精度よく、入力画像を撮影した際のカメラの位置及び姿勢を推定できる、という効果が得られる。
本発明の実施の形態に係る三次元点群に対する画像の幾何的合わせこみ装置の構成を示すブロック図である。 パラメータ探索部27で用いられる、三次元点と画像上のエッジの成す角θijおよびカメラ情報修正部28で用いられるeijを説明するための図である。 パラメータ探索部27およびカメラ情報修正部28で用いられる投影点から最も近いあるエッジ上1点の定義を説明する図である。 パラメータ探索部27で、三次元部分空間として表されたカメラの位置姿勢情報に関するパラメータの探索範囲を、各次元について2分割し、8つの部分空間を新たに生成する操作を説明する図である。 点群データ記憶部30の一例を示す図である。 三次元物体記憶部33の一例を示す図である。 画像エッジ記憶部34の一例を示す図である。 本発明の実施の形態に係るモデル抽出ルーチンを示すフローチャートである。 本発明の実施の形態に係るエッジ抽出ルーチンを示すフローチャートである。 本発明の第1の実施の形態に係る合わせこみルーチンを示すフローチャートである。 本発明の実施の形態に係るカメラ情報修正ルーチンを示すフローチャートである。 本発明の第2の実施の形態に係る回転行列の修正量の探索ルーチンを示すフローチャートである。 本発明の第2の実施の形態に係る三次元ベクトルの修正量の探索ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
本実施の形態に係る幾何的合わせこみ装置は、実世界のあるシーンに表す三次元点群と当該シーン内で内部パラメータが既知のカメラで撮影された入力画像、及び計測機器で得られた、入力画像が撮影されたときのカメラの位置姿勢に関する位置姿勢情報が入力として与えられたときに、入力画像が撮影されたときのカメラの位置姿勢を正しく推定するための幾何的合わせこみ装置である。
本実施の形態では、認識が比較的容易であり、かつ、細長い形状をした物体(道路脇を走るケーブルや電柱、白線、ガードレールなど)を点群から抽出し、入力画像との合わせこみに利用する。これにより、三次元点群から合わせこみに利用するための特徴点やエッジを正確に抽出できないという困難を回避しつつ、精度よく、三次元点群と画像を合わせこむことが出来る。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の第1の実施の形態に係る幾何的合わせこみ装置の構成及び作用>
まず、本発明の第1の実施の形態に係る三次元点群に対する画像の幾何的合わせこみ装置の構成について説明する。図1に示すように、本発明の第1の実施の形態に係る三次元点群に対する画像の幾何的合わせこみ装置100は、CPUと、RAMと、後述する合わせこみルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この幾何的合わせこみ装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部40とを備えている。
入力部10は、実世界のあるシーンに相当する三次元点群を受け付け、点群データ記憶部30へ格納する。三次元点群は、三次元点の三次元座標(X,Y,Z)のNall個の集合として表現される(図5参照)。このような三次元点群としては、レーザーを用いた計測機器を具備した計測車両によって屋外を計測することによって得られた三次元点群や、屋外において撮影された大量の画像から三次元再構成技術などを用いて復元された三次元点群などがある。点群データ記憶部30には、三次元点群の三次元点毎に、三次元点の識別番号(No.)、三次元点群の三次元座標系におけるX軸の座標(X)、Y軸の座標(Y)、Z軸の座標(Z)が格納される。
また、入力部10は、上記の三次元点群が表す実世界のあるシーンにおいて撮影された入力画像、計測機器で得られた当該入力画像を撮影した際のカメラの位置及び姿勢に関する位置姿勢情報、並びにカメラの内部パラメータを入力として受け付ける。入力画像は画像データ記憶部31へ、カメラの位置姿勢情報及び内部パラメータはカメラ情報記憶部32へ格納する。このような入力画像と、入力画像を撮影した際のカメラの位置姿勢情報及び内部パラメータとのペアは、スマートフォンによる画像の撮影と撮影時のジャイロ情報及びGPSの計測値から得られる。あるいは同様の情報を計測可能な計測機器を具備した計測車両からも得ることができる。また、カメラの位置姿勢情報は3×3のサイズの回転行列と3次元ベクトルで与えられるとする。ここで入力されたカメラの位置姿勢情報に含まれる回転行列をRinit、三次元ベクトルをtinitとする。カメラの内部パラメータについては焦点距離と画像中心は必須であるが、歪みに関するパラメータについてはあっても無くてもよい。
また、入力部10は、修正量に関する探索範囲を受け付け、位置姿勢情報と共にカメラ情報記憶部32に格納しておく。探索範囲は、6次元の有限部分空間Cとする。
演算部20は物体抽出部22と、画像エッジ抽出部24と、パラメータ最適化部26と、点群データ記憶部30と、画像データ記憶部31と、カメラ情報記憶部32と、三次元物体記憶部33と、画像エッジ記憶部34とを含んで構成されている。
パラメータ最適化部26は、パラメータ探索部27と、カメラ情報修正部28とを含んで構成されている。
以降、各部の動作をフローチャートも参照しながら説明する。図8は物体抽出部22が行う動作のフローチャート、図9は画像エッジ抽出部24が行う動作のフローチャート、図10はパラメータ最適化部26が行う動作のフローチャート、図11は図10のS316においてカメラ情報修正部28が行う詳細動作のフローチャートである。各フローチャートは、物体抽出部22、画像エッジ抽出部24、及びパラメータ最適化部26の順で処理すればよい。
物体抽出部22は、入力部10で受け付けた三次元点群から、合わせこみの際の手がかりとして利用する細長い形状の物体を少なくとも1つ抽出し、抽出した物体上の三次元点の三次元座標の集合を得る(図8:S100)。このような物体としてはケーブル状又は円柱状のものがある。このような物体を三次元点群から抽出するための技術は盛んに研究されており、たとえば特許文献1や特許文献2に記載の技術などを利用することが考えられる。なお、細長い形状の物体は、複数抽出してもよく、抽出数が多いほど正確に位置姿勢情報を修正することができる。
[特許文献1]特開2014−106725号公報
[特許文献2]特開2015−1901号公報
ここで抽出された複数の物体のうちの少なくとも1つの物体上に存在する、三次元座標を持つN個の点をX,…,Xとする。物体抽出部22は、抽出した物体を特定する情報として、三次元物体記憶部33に当該物体上の三次元点の三次元座標(X,Y,Z)の集合(図6参照)を記憶する(図8:S102)。三次元物体記憶部33には、物体上の三次元点毎に、三次元点の識別番号(No.)、三次元点群の三次元座標系におけるX軸の座標(X)、Y軸の座標(Y)、Z軸の座標(Z)が格納される。
画像エッジ抽出部24は、入力部10で受け付けた画像から入力画像に含まれるエッジの端点を表す座標の集合を検出する(図9:S200)。画像からエッジを検出する手法としてはハフ変換や確率的ハフ変換、Line Segment Detector(LSD)があり、これらの手法を状況に応じて利用して必要な量のエッジを検出する。画像エッジ抽出部24は得られたN個のエッジを、エッジの端点を表す二つの点をカメラ座標系における三次元ベクトルを用いて(x,y,1)、(x',y',1)と表現し、エッジの端点の座標(x、y、x'、y')の集合(図7参照)を画像エッジ記憶部34に記憶する(図9:S202)。なお、すべてのエッジはz=1である画像平面上に存在しているため、エッジの端点を表す三次元ベクトルのz座標も1となる。また、エッジの端点を表す三次元ベクトルのz座標が1であることは自明であるため、図7のように、画像エッジ記憶部34に記憶する際にはz座標の値を省略している。画像エッジ記憶部34には、エッジ毎に、エッジの識別番号(No.)、画像座標系におけるエッジの一方の端点のX軸の座標(X)、Y軸の座標(Y)、及びエッジの他方の端点のX軸の座標(X’)、Y軸の座標(Y’)が格納される。
パラメータ最適化部26は、以下に説明する各部の処理によって、物体抽出部22で抽出した物体上の三次元点の三次元座標の集合と、画像エッジ抽出部24で入力画像から抽出したエッジの端点を表す座標の集合とを用いて、計測機器で得られた位置姿勢情報を修正することにより、入力画像を撮影した際のカメラの位置及び姿勢を推定する。
位置姿勢情報の修正を行う前に、三次元物体記憶部33に記憶された三次元点群の座標系を、Rinitとtinitを用いて、カメラを中心とするカメラ座標系に変更する。
パラメータ探索部27は、カメラの位置姿勢情報を修正する修正量の探索範囲と、カメラ情報記憶部32に記憶されているカメラの位置姿勢情報とを入力として受け取り、入力された探索範囲内で最もよいカメラの位置姿勢情報の修正量を、分枝限定法を用いて探索する。
以下、位置姿勢情報の修正量の探索範囲及び位置姿勢情報の良さの評価方法について説明する。
カメラの位置姿勢情報の修正量は、回転行列の修正量Rに関する3つのパラメータと、三次元ベクトルの修正量tに関する3つのパラメータとで表現される。ただし、ここでRは3×3のサイズの回転行列、tは三次元ベクトルである。したがって、ここで入力されるカメラの位置姿勢情報の修正量に関する探索範囲は6次元の有限部分空間Cとなる。以下では、実数θmaxとdmaxを用いて、回転行列の修正量Rの探索範囲Cを[−θmaxmax]、三次元ベクトルの修正量tの探索範囲Cを[−dmax,dmax]とする。またこれらの直積を用いてCはC=C×Cと表される。
回転行列の修正量Rを3つのパラメータを用いて表現する方法は複数存在するが、以下では回転軸及び回転角表現を利用する(非特許文献1参照)。回転軸及び回転角表現を用いることにより、任意の回転行列を立方体[−π,π]に含まれる三次元ベクトルで表現することが出来る。三次元ベクトルと回転行列との間の変換方法については非特許文献1を参照されたい。
続いて、カメラの位置姿勢情報の修正量の良さを評価するために使用する目的関数について述べる。三次元物体記憶部33に記憶された物体の三次元座標を表す点X(ただし1≦i≦Nで、カメラ座標系で表現されているものとする)を、カメラの位置姿勢情報の修正量Rおよびtを用いて剛体変換したものをX'=R(X−t)(ただし1≦i≦N)とする。
このX'を画像平面上へ透視投影して得られる点を表す三次元ベクトルをP(X')とし、P(X')と画像エッジ記憶部34に保存されているエッジE(ただし1≦j≦N)とが成す角を計算する。P(X')から最も近いE上の点を表す三次元ベクトルをNijとして、P(X')とエッジEの成す角θijを次の(1)式のように定義する(図2参照)。

・・・(1)
ここで、||・||はユークリッドノルムを、・はベクトルの内積を表す。X'とすべての画像エッジEについてθijを計算し、θij(1≦j≦N)の中で最小のものをθとすると、次の(2)式ようにθを表すことができる。

・・・(2)
このθ(1≦i≦N)があらかじめ定められた閾値θよりも小さな点X(1≦i≦N)をインライアとして定義し、このインライアの数を目的関数として使用する。インライアの数を表現する目的関数fは次の(3)式のように表すことができる。

・・・(3)

・・・(4)
以上の説明のように、パラメータ探索部27は、位置姿勢情報の修正量に関する探索範囲として有限部分空間Cを受け取り、カメラ情報記憶部32に記憶された位置姿勢情報と、三次元物体記憶部33に記憶された三次元座標と、画像エッジ記憶部34に記憶されたエッジの端点を表す座標とを用いてインライアと判定される三次元座標の数が最大となるように探索範囲内で位置姿勢情報の修正量を探索する。
続いて、探索範囲として入力された6次元の有限部分空間C内で、分枝限定法を用いて、fを最大化するようなカメラの位置姿勢情報の修正量を探索する方法について説明する。
分枝限定法を適用するためには、探索範囲として入力された6次元の有限部分空間Cに含まれる部分空間C'(すなわちC'⊆C)においてカメラの位置姿勢情報を修正したときの、fの最適値の上界と下界とが推定できなければならない。
まず、回転行列の修正量Rの探索範囲である三次元空間に部分空間として含まれる直方体C'⊆Cと、三次元ベクトル修正量tの探索範囲である三次元空間に部分空間として含まれる直方体C'⊆Cとが与えられる。カメラの位置姿勢情報は、この二つの部分空間の直積C'=C'×C'上で修正される。このとき、fの最適値の上界と下界の推定方法は以下のようになる。
まず、fの下界
としては、C'の中心に存在する三次元ベクトルrが表す回転行列Rと、C'の中心に存在する三次元ベクトルtを用いて計算したfの値を用いる。すなわち、下界
は次の(5)式のように表される。

・・・(5)
次に、fの上界
の推定方法について説明する。非特許文献4記載のTheorem1によれば、次の定理が成り立つ。
[非特許文献4]Globally Optimal 2D-3D Registration from Points or Lines Without Correspondences, M. Brown et al., In Proceedings of ICCV, 2015.
Rを回転行列とし、Rを表現する三次元ベクトルをrとする。またtを三次元ベクトル、Xを三次元点を表すベクトルとする。ある定数δとδをもちいて||r−r||<δ及び||t−t||<δが成り立つとき、上で定義したRとtに対して以下(6)式の不等式が成り立つ。

・・・(6)

・・・(7)

・・・(8)
ここで、C'が1辺の長さがdの立方体のときにはδ=√3d/2とすればよい。また、C'が1辺の長さがdの立方体のときにはδ=√3d/2とすればよい。C'、あるいはC'が立方体でないときには、それぞれを内包するような立方体を代わりに考え、その1辺の長さを用いてδおよびδを決定すればよい。
上記の定理より、カメラの位置姿勢情報が部分空間C'×C'上で修正されるとき、R(X−t)とR(X−t)の成す角度の最大値を計算することができる。すなわち、カメラの位置姿勢情報がC'r×C't上で修正されるとき、ある点Xを変換したX'が動く範囲は、R(X−t)と成す角度がε+εよりも小さくなる範囲である。したがって、θ(R,t)がθ+ε+εよりも小さければ、カメラの位置姿勢情報をC'×C'上で修正させることによって、θ(R,t)をθよりも小さくし、点Xをインライアとすることができる可能性がある。
この結果に基づき、カメラの位置姿勢情報がC'×C'上で修正されるときにインライアとすることができる可能性のある点を含めた目的関数fの値を、fの最適値の上界
とし、次の(9)式ように推定することができる。

・・・(9)
パラメータ探索部27は、以上の目的関数及び探索範囲の定義から、(5)式及び(9)式に基づき、分枝限定法を用いて、fを最大化するようなカメラの位置姿勢情報の修正量の探索範囲の部分空間を探索し、探索された部分空間内の修正量に基づいて、位置姿勢情報を修正する。
以下に、パラメータ探索部27における位置姿勢情報の修正量の探索及び修正の処理について、図10のフローチャートを参照しつつ説明する。
最初に、探索対象となる部分空間C'と、当該部分空間を探索対象として計算された目的関数fの最適値の上界
と、当該部分空間を探索対象として計算された目的関数fの最適値の下界
と、からなる3つ組
を元として持つ集合Tを空集合として初期化する(図10:S300)。
次に、Rを単位行列とし、tをゼロベクトルとした上で、上記(3)式を計算することによって得られた目的関数fの値を、fの最適値の初期値とする(図10:S302)。
次に、修正量に関する探索範囲として入力された6次元の有限部分空間C内の修正量でカメラの位置姿勢情報を修正するときの、目的関数fの最適値の上界と下界を上記(5)式及び(9)式を用いて計算し、有限部分空間Cと、ここで計算された、上界と、下界とからなる3つ組をTに追加する(図10:S304)。
続いて、以下S306〜S318の処理を、Tが空になるか、あらかじめ定められた停止条件を満たすまで繰り返し行う。
Tが空であればカメラの位置姿勢情報の修正量の探索を終了し(図10:S306)、出力部40へカメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を用いてRinitとtinitに修正を加えたカメラの位置姿勢情報を出力し、処理を終了する(図10:S320)。
Tが空でなければ、Tに含まれる元の中で、最も大きな上界を持つ3つ組τを取り出す(図10:S308)。ここで探索の停止条件を満たしているか否かを判定する(図10:S310)。考えられる停止条件としては、Tに含まれる元を取り出す回数があらかじめ定められた回数に到達する、あるいは、τに含まれる上界の値と、その時点で得られているfの最適値の差があらかじめ定められた値よりも小さくなる、といったものが考えられる。
次に、τに含まれる探索対象となる部分空間Cτを、各次元について2分割して2=64個の部分空間Cτi(iは1≦i≦64である自然数)を生成する(図10:S312)。ここで生成された部分空間Cτiの各々について、以下の処理を行う。
まず、上記(5)式及び(9)式を用いて目的関数fの最適値の上界と下界を計算する(図10:S314)。
計算された下界がfの最適値よりも大きなときは、fの最適値を当該下界の値で更新し、カメラ情報記憶部32に、当該下界の計算に用いた回転行列と三次元ベクトルをカメラの位置姿勢情報の修正量として記憶し、カメラ情報修正部28を呼び出し、カメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量に修正を加える(図10:S316)。カメラ情報修正部28の処理の詳細については後述する。
続いて、計算された上界がfの最適値よりも大きなときは、部分空間Cτiと、ここで計算された上界と、下界とからなる3つ組をTに加える(図10:S318)。
以上の処理をすべてのCτiに行った後、Tが空でなければ再度3つ組を取り出し、同様の処理を行う(図10:S306〜S318)。Tが空であれば探索を終了し、出力部40へカメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を用いてRinitとtinitに修正を加えたカメラの位置姿勢情報を出力し、処理を終了する(図10:S320)。
次に図10のS316のカメラ情報修正部28の処理の詳細について、図11のフローチャートを参照しつつ説明する。
カメラ情報修正部28は、カメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を入力として受け取り、画像エッジ記憶部34に記憶されたエッジ情報と、三次元物体記憶部33に記憶された、物体上の三次元点を画像平面上に透視投影した位置とのズレを定義し、このズレが小さくなるように、物体上の三次元点の三次元座標の集合を利用してカメラの位置姿勢情報の修正量を繰り返し更新する。
以下に具体的な計算法について説明する。まず、カメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を用いて、三次元物体記憶部33に保存された物体上の三次元点X(ただし1≦i≦N)を画像平面上に透視投影し、投影された点Xから画像エッジ記憶部34に記憶された各エッジに対するズレを計算し、ズレが最も小さなエッジと当該エッジ上の点で投影された点に最も近い点(図3参照)を求め、以下に説明する誤差Dを計算する(図11:S400)。
画像エッジ記憶部34に記憶されたN個のエッジE(ただし1≦j≦N)の端点をPj1、Pj2とし、X’を、点X(ただし1≦i≦N)をカメラの位置姿勢情報の修正量を用いて剛体変換したものとし(X'=R(X−t))、このX’を画像平面上へ透視投影して得られる点をP(X')、P(X')から最も近いE上の点をNijとしたときに、eijを次のように定義する。

・・・(10)
ここで、||・||はユークリッドノルムを表す。各画像エッジEについて、画像エッジ記憶部に記憶されたすべての画像エッジに対してこのズレeijを計算し、ズレの最小値をeとすると、次のようにeを表すことができる。

・・・(11)

・・・(12)
以上のように、三次元点を画像平面上に透視投影することによって得られた点から最も近いエッジまでの距離が小さくなるように位置姿勢情報の修正量を更新する。
上記(10)式で定義した量を用いて、ズレの二乗和として誤差Dを次のように定義する。

・・・(13)
ここで、各eに対して適切な重みwを、物体のカテゴリやパラメータの修正回数に応じて適切に設定してかけ合わせるようにしてもよい。また、その場合、(13)式は、eとなっているところをw,eと修正すればよい。
誤差Dの計算は、停止条件を満たすまで繰り返す(図11:S402)。停止条件は、誤差が所定の値以下になるか、あるいは所定の回数だけ繰り返し位置姿勢情報の修正量の更新を行ったこととし、停止条件を満たした場合には、位置姿勢情報の修正量の更新を打ち切る。
ここで、カメラの位置姿勢情報の修正量の更新方法について説明する。
カメラの位置姿勢情報の修正量を修正するにあたって、カメラの位置姿勢情報の修正量に対する変化量をパラメータとして導入し、(13)式で定義されるズレが小さくなるように変化量を非線形最適化手法によって求める。本実施の形態では非線形最適化手法としてガウス=ニュートン法を用いた。こうして求めた微小変化を位置姿勢情報の修正量に適用することによって、位置姿勢情報の修正量の更新を行う。
カメラの位置姿勢情報の修正量に対する変化量を表すパラメータp,p,p,p,p,pを導入し、これらのパラメータを用いてカメラの位置姿勢情報の修正量を次のように更新することを考える。

・・・(14)

・・・(15)

・・・(16)

・・・(17)
誤差Dを減少させるようなパラメータp〜pをガウス=ニュートン法によって求める(上記非特許文献2参照)。ここではガウス=ニュートン法に基づく方法を説明するが、無論レベンバーグ=マーカート法に代表されるニュートン法の派生アルゴリズムなど、利用するアルゴリズムは他のものでもよい。ガウス=ニュートン法によって変化量を求めるには下記の2つの量が必要である。

・・・(17)

・・・(18)

・・・(19)
以上の(19)式及びeの定義式の(11)式を用いてeとJを求めたら、次の(20)式の方程式をパラメータp,p,p,p,p,pについて解き、パラメータの値を求める(図11:S404)。

・・・(20)
こうして求めたパラメータp〜pの値を用いて、(16)式及び(17)式により、カメラ情報記憶部32に記憶された位置姿勢情報の修正量を更新する(図11:S406)。
更新したカメラの位置姿勢情報の修正量を用いて上記(13)式により誤差Dを再計算し(図11:S408)、誤差が所定の値以下になるか、あるいは所定の回数だけ繰り返し位置姿勢情報の修正量の更新を行ったところで位置姿勢情報の修正量の更新を打ち切る(図11:S402)。更新により最終的に得られたカメラの位置姿勢情報の修正量をカメラ情報記憶部32に記憶し処理を終了する(図11:S410)。このとき、更新されたカメラの位置姿勢情報の修正量によって、(3)式のインライアと判定される三次元座標の数を計算したときに、インライアの数が更新前の値と比較して減少した場合に、カメラ情報記憶部32に記憶しないようにするなどしてもよい。
以上説明したように、本発明の第1の実施の形態に係る幾何的合わせこみ装置によれば、三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得て、入力画像から入力画像に含まれるエッジの端点を表す座標の集合を得て、三次元座標の集合とエッジの端点を表す座標の集合とを用いて、位置姿勢情報を修正することにより、入力画像を撮影した際のカメラの位置及び姿勢を推定することにより、精度よく、入力画像を撮影した際のカメラの位置及び姿勢を推定できる。
<本発明の第2の実施の形態に係る幾何的合わせこみ装置の構成及び作用>
まず、本発明の第2の実施の形態に係る三次元点群に対する画像の幾何的合わせこみ装置の構成について説明する。第2の実施の形態では、6次元の有限部分空間Cを、回転行列の修正量Rの探索範囲C=[−θmax,θmaxと、三次元ベクトルの修正量tの探索範囲C=[−dmax,dmaxに分割した上で、修正量の探索を行う点が、第1の実施の形態と異なっている。これは、通常は第1の実施の形態のように、6次元の有限部分空間において分枝限定法を利用し、fを最大化するカメラの位置姿勢情報を探索するが、時間計算量および空間計算量に関する困難を伴うため、探索範囲を分割することによりこれを軽減する。
第2の実施の形態の構成は上記図1に示す第1の実施の形態と同様であるため説明を省略する。
以下、第2の実施の形態のパラメータ最適化部26の処理について図12及び図13のフローチャートを参照しつつ説明する。
最初に、探索対象となる部分空間Sと、当該部分空間を探索対象として計算された目的関数fの最適値の上界
と、当該部分空間を探索対象として計算された目的関数fの最適値の下界
と、からなる3つ組
を元として持つ集合Tを空集合として初期化する(図12:S500)。
次に、Rを単位行列とし、tをゼロベクトルとした上で上記(3)式を計算することによって得られた目的関数fの値を、fの最適値の初期値とする(図12:S502)。
次に、カメラの位置姿勢情報に含まれる回転行列Rinitが、回転行列の修正量の探索範囲である三次元部分空間C内で修正されるときの、目的関数fの最適値の上界と下界を以下に述べる方法で計算し、有限部分空間Cと、ここで計算された上界と、下界と、からなる3つ組をTに追加する(図12:S504)。上界及び下界の一部の計算方法については、図13のフローチャートの説明において後述する。
ここで、カメラの位置姿勢情報に含まれる回転行列Rinitが、回転行列の修正量Rの探索範囲である三次元部分空間C''内で修正されるときのfの上界と下界の定義、及び推定方法について説明する。
回転行列の修正量Rの探索範囲に含まれる三次元部分空間をC''とするとき、C''の中心に位置するパラメータをr''、r''によって表現される回転行列の修正量をR''とする。C''を探索対象としたときの目的関数fの最適値の上界
と、C''を探索対象としたときの目的関数fの最適値の下界
を次の(21)式及び(22)式のように定義する。

・・・(21)

・・・(22)
(21)式の右辺に含まれるf(R'',t,θ)を最大化するtと、そのときの右辺の値、及び、(22)式の右辺に含まれるf(R'',t,θ+ε)を最大化するtと、そのときの右辺の値を計算する。計算方法については図13のフローチャートの説明において後述する。
続いて、以下S506〜S518の処理を、Trが空になるか、あらかじめ定められた停止条件を満たすまで繰り返し行う。
が空であればカメラの位置姿勢情報の修正量の探索を終了し(図12:S506)、出力部40へカメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を用いてRinitとtinitに修正を加えたカメラの位置姿勢情報を出力し、処理を終了する。
が空でなければ、Tに含まれる元の中で、最も大きな上界を持つ3つ組τを取り出す(図12:S508)。ここで探索の停止条件を満たしているか否かを判定する(図12:S510)。考えられる停止条件としては、Tに含まれる元を取り出す回数があらかじめ定められた回数に到達する、あるいは、τに含まれる上界の値と、その時点で得られているfの最適値の差があらかじめ定められた値よりも小さくなる、といったものが考えられる。
τに含まれる探索対象となる部分空間
を、各次元について2分割して8個の部分空間
(iは1≦i≦8である自然数)を生成する(図12:S512)。ここで生成された各部分空間について、以下の処理を行う。
まず、(21)式及び(22)式を用いて目的関数fの最適値の上界と下界、及びそれぞれの値を達成する三次元ベクトルの修正量を計算する(図12:S514)。
計算された下界がfの最適値よりも大きなときは、fの最適値を当該下界の値で更新し、カメラ情報記憶部32に当該下界の計算に用いた回転行列と三次元ベクトルを位置姿勢情報の修正量として記憶し、カメラ情報修正部28を呼び出し、カメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量に修正を加える(図12:S516)。修正方法は第1の実施の形態の図11のフローチャートと同様である。
続いて、計算された上界がfの最適値よりも大きなときは、部分空間Crτiと、ここで計算された上界と、下界とからなる3つ組をTに加える(図12:S518)。
以上の処理をすべての
に行った後、Tが空でなければ再度3つ組を取り出し、同様の処理を行う。Tが空であれば探索を終了し、出力部40へカメラ情報記憶部32に記憶されたカメラの位置姿勢情報の修正量を用いてRinitとtinitに修正を加えたカメラの位置姿勢情報を出力し、処理を終了する(図12:S520)。
続いて、上記(21)式の右辺のf(R'',t,θ)を最大化するtと、そのときのf(R'',t,θ)の値を計算する方法について、図13のフローチャートを参照しつつ説明する。f(R'',t,θ)の最大化は、R’’が与えられたときに、f(R'',t,θ)を最大化する三次元ベクトルの修正量tを、三次元ベクトルの修正量tの探索範囲上で分枝限定法を用いて探索することによって実行する。
まず、探索対象となる部分空間Sと、当該部分空間を探索対象として計算されたf(R'',t,θ)の最適値の上界
と、当該部分空間を探索対象として計算されたf(R'',t,θ)の最適値の下界
と、からなる3つ組
を元として持つ集合Tを空集合として初期化する(図13:S600)。
また、f(R'',t,θ)の最大値fmax を、その時点で得られている目的関数fの最適値で初期化する(図13:S602)。
次に、カメラの位置姿勢情報に含まれる三次元ベクトルが、三次元ベクトルの修正量tの探索範囲である三次元部分空間C内で修正されるときの、f(R'',t,θ)の最適値の上界と下界を以下に述べる方法で計算し、有限部分空間Cと、ここで計算された上界と下界と、からなる3つ組をTに追加する(図13:S604)。
カメラの位置姿勢情報に含まれる三次元ベクトルが、三次元ベクトルの修正量tの探索範囲である三次元部分空間C''内で修正されるときのf(R'',t,θ)の上界と下界の定義と推定方法について説明する。
三次元ベクトルの修正量tの探索範囲に含まれる三次元部分空間をC''とするとき、C’’の中心に位置する三次元ベクトルの修正量をt''とする。C''を探索対象としたときのf(R'',t,θ)の最適値の上界
と、C''を探索対象としたときのf(R'',t,θ)の最適値の下界
を次のように定義する。

・・・(23)

・・・(24)
続いて、以下S606〜618の処理を、Tが空になるか、あらかじめ定められた停止条件を満たすまで繰り返し行う。
が空であれば三次元ベクトルの修正量tの探索を終了し(図13:S606)、その時点で得られているfmax を(21)式の値として、fmax を計算したときの三次元ベクトルの修正量t''を、最大値を達成した三次元ベクトルの修正量として出力し、図13の処理ルーチンを終了する(図13:S620)。
が空でなければ、Tに含まれる元の中で、最も大きな上界を持つ3つ組τを取り出す(図13:S608)。ここで探索の停止条件を満たしているか否かを判定する(図13:S610)。考えられる停止条件としては、Tに含まれる元を取り出す回数があらかじめ定められた回数に到達する、あるいは、τに含まれる上界の値と、fmax の差があらかじめ定められた値よりも小さくなる、といったものが考えられる。
探索の停止条件を満たしていないと判定された場合、τに含まれる探索対象となる部分空間
を、各次元について2分割して8個の部分空間
(iは1≦i≦8である自然数)を生成する(図13:S612)。ここで生成された部分空間の各々について、以下の処理を行う。
まず、上記(23)式及び(24)式を用いてf(R'',t,θ)の最大値の上界と下界を計算する(図13:S614)。
ここで計算された下界が、fmax よりも大きなときは、fmax を下界の値で更新し、下界の計算に用いた三次元ベクトルの修正量t''を記憶しておく(図13:S616)。
続いて、計算された上界がfmax よりも大きなときは、部分空間
と、ここで計算された上界と、下界とからなる3つ組をTに加える(図13:S618)。
以上の処理をすべての
に行った後、Tが空でなければ再度3つ組を取り出し、同様の処理を行う。Tが空であれば探索を終了し、その時点で得られているfmax を(21)式の値として、fmax を計算したときの三次元ベクトルの修正量t''を、最大値を達成した三次元ベクトルの修正量として出力し、処理を終了する(図13:S620)。
また、(22)式の右辺のf(R'',t,θ+ε)の最大値を計算するときには、以下の(25)式及び(26)式のように、上記(23)式及び(24)式を修正した上で、(21)式の右辺の最大化を計算するときと同様の操作を行えばよい。

・・・(25)

・・・(26)
以上説明したように、本発明の第2の実施の形態に係る幾何的合わせこみ装置によれば、三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得て、入力画像から入力画像に含まれるエッジの端点を表す座標の集合を得て、三次元座標の集合とエッジの端点を表す座標の集合とを用いて、探索範囲の部分空間を、回転行列の修正量Rの探索範囲と、三次元ベクトルの修正量tの探索範囲とに分割してそれぞれについて探索し、位置姿勢情報を修正することにより、入力画像を撮影した際のカメラの位置及び姿勢を推定することにより、精度よく、入力画像を撮影した際のカメラの位置及び姿勢を推定できる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
10 入力部
20 演算部
22 物体抽出部
24 画像エッジ抽出部
26 パラメータ最適化部
27 パラメータ探索部
28 カメラ情報修正部
30 点群データ記憶部
31 画像データ記憶部
32 カメラ情報記憶部
33 三次元物体記憶部
34 画像エッジ記憶部
40 出力部
100 幾何的合わせこみ装置

Claims (8)

  1. 実世界のあるシーンを表す三次元点群と、当該シーン内で撮影された入力画像と、計測機器によって得られた前記入力画像を撮影した際のカメラの位置及び姿勢に関する位置姿勢情報とを用いて、前記入力画像を撮影した際のカメラの位置及び姿勢を推定する幾何的合わせこみ装置であって、
    前記三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得る物体抽出部と、
    前記入力画像から前記入力画像に含まれるエッジの端点を表す座標の集合を得る画像エッジ抽出部と、
    前記三次元座標の集合と前記エッジの端点を表す座標の集合と、前記位置姿勢情報の修正量に関する探索範囲と、を入力として受け取り、修正後の前記位置姿勢情報と、前記三次元座標と、前記エッジの端点を表す座標とを用いてインライアと判定される前記三次元座標の数が最大となるように前記探索範囲内で前記位置姿勢情報の修正量を探索し、前記位置姿勢情報を修正することにより、前記入力画像を撮影した際のカメラの位置及び姿勢を推定するパラメータ最適化部と、
    を含む幾何的合わせこみ装置。
  2. 前記パラメータ最適化部は、前記位置姿勢情報の修正量の探索を、分枝限定法を用いて行う請求項に記載の幾何的合わせこみ装置。
  3. 前記パラメータ最適化部は、前記位置姿勢情報に含まれる回転行列の修正量と、前記位置姿勢情報に含まれる三次元ベクトルの修正量とのそれぞれの修正量について、分枝限定法を用いて別個に探索する請求項に記載の幾何的合わせこみ装置。
  4. 前記パラメータ最適化部は、前記位置姿勢情報の修正量を探索する際に、前記位置姿勢情報の修正量の探索範囲の大きさと、前記三次元座標の値と、前記位置姿勢情報と、前記エッジの端点を表す座標と、を用いて前記入力画像上に存在するエッジと前記三次元座標が表す点とが成す角度の最小値を推定し、推定された最小値が予め定められた閾値より小さい前記三次元座標をインライアと判定して探索を行う、請求項1〜3の何れか1項に記載の幾何的合わせこみ装置。
  5. 前記物体抽出部は、前記三次元点群から少なくとも1つのケーブル状又は円柱状の物体を抽出し、抽出した物体上の三次元点の三次元座標の集合を得る、請求項1〜の何れか1項に記載の幾何的合わせこみ装置。
  6. 前記パラメータ最適化部は、前記インライアと判定される前記三次元座標の数が最大となるように、前記探索範囲の部分空間を探索し、探索された前記部分空間内の修正量に基づいて、修正後の前記位置姿勢情報を用いて前記三次元座標の三次元点を画像平面上に透視投影することによって得られた点から最も近いエッジまでの距離が小さくなるように前記位置姿勢情報を修正する処理を行う、請求項1〜5の何れか1項に記載の幾何的合わせこみ装置。
  7. 物体抽出部、画像エッジ抽出部、及びパラメータ最適化部を含み、実世界のあるシーンを表す三次元点群と、当該シーン内で撮影された入力画像と前記入力画像を撮影した際のカメラの位置及び姿勢に関する位置姿勢情報とを用いて、前記入力画像を撮影した際のカメラの位置及び姿勢を推定する幾何的合わせこみ方法であって、
    前記物体抽出部が、前記三次元点群に含まれる少なくとも1つの物体上の三次元点の三次元座標の集合を得るステップと、
    前記画像エッジ抽出部が、前記入力画像から前記入力画像に含まれるエッジの端点を表す座標の集合を得るステップと、
    前記パラメータ最適化部が、前記三次元座標の集合と前記エッジの端点を表す座標の集合と、前記位置姿勢情報の修正量に関する探索範囲と、を入力として受け取り、修正後の前記位置姿勢情報と、前記三次元座標と、前記エッジの端点を表す座標とを用いてインライアと判定される前記三次元座標の数が最大となるように前記探索範囲内で前記位置姿勢情報の修正量を探索し、前記位置姿勢情報を修正することにより、前記入力画像を撮影した際のカメラの位置及び姿勢を推定するステップと、
    を含む幾何的合わせこみ方法。
  8. コンピュータを、請求項1〜請求項の何れか1項に記載の幾何的合わせこみ装置の各部として機能させるためのプログラム。
JP2017103718A 2017-05-25 2017-05-25 幾何的合わせこみ装置、方法、及びプログラム Active JP6692321B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103718A JP6692321B2 (ja) 2017-05-25 2017-05-25 幾何的合わせこみ装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103718A JP6692321B2 (ja) 2017-05-25 2017-05-25 幾何的合わせこみ装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018200504A JP2018200504A (ja) 2018-12-20
JP6692321B2 true JP6692321B2 (ja) 2020-05-13

Family

ID=64668143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103718A Active JP6692321B2 (ja) 2017-05-25 2017-05-25 幾何的合わせこみ装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6692321B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020175828A (ja) * 2019-04-19 2020-10-29 公立大学法人岩手県立大学 誘導装置
CN110992427B (zh) * 2019-12-19 2023-10-13 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
CN114596399A (zh) * 2022-03-16 2022-06-07 北京字跳网络技术有限公司 图像处理方法、装置及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162137A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 物体認識装置及び物体認識方法
JPH1151611A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2004213355A (ja) * 2002-12-27 2004-07-29 Canon Inc 情報処理方法
JP5291605B2 (ja) * 2009-12-04 2013-09-18 日本放送協会 カメラ姿勢推定装置およびカメラ姿勢推定プログラム
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
JP6235860B2 (ja) * 2013-10-25 2017-11-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP6636894B2 (ja) * 2016-10-20 2020-01-29 日本電信電話株式会社 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム

Also Published As

Publication number Publication date
JP2018200504A (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
CN105654464B (zh) 图像处理装置及图像处理方法
KR102249769B1 (ko) 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법
JP5963353B2 (ja) 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
CN107735797B (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
EP2199983A1 (en) A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
US20120294534A1 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
CN109961082B (zh) 物体识别处理装置、物体识别处理方法以及存储介质
JP2017091079A (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
CN112132523B (zh) 一种货物数量确定方法、系统和装置
CN111639663A (zh) 多传感器数据融合的方法
JP6692321B2 (ja) 幾何的合わせこみ装置、方法、及びプログラム
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
JP6636894B2 (ja) カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
CN114494466B (zh) 外参标定方法、装置及设备、存储介质
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP2019192299A (ja) カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
Bracci et al. Challenges in fusion of heterogeneous point clouds
Wang et al. Dominant plane detection using a RGB-D camera for autonomous navigation
Hamzah et al. Software Calibration for Stereo Camera on Stereo Vision Mobile Robot using Tsai's Method
CN112991372B (zh) 一种基于多边形匹配的2d-3d相机外参标定方法
CN115222789A (zh) 实例深度估计模型的训练方法、装置及设备
WO2022141262A1 (en) Object detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200414

R150 Certificate of patent or registration of utility model

Ref document number: 6692321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150