JP2017203701A - 情報処理装置、計測システム、情報処理方法およびプログラム - Google Patents

情報処理装置、計測システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2017203701A
JP2017203701A JP2016095721A JP2016095721A JP2017203701A JP 2017203701 A JP2017203701 A JP 2017203701A JP 2016095721 A JP2016095721 A JP 2016095721A JP 2016095721 A JP2016095721 A JP 2016095721A JP 2017203701 A JP2017203701 A JP 2017203701A
Authority
JP
Japan
Prior art keywords
viewpoint
measurement
unit
candidate
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016095721A
Other languages
English (en)
Other versions
JP6821326B2 (ja
Inventor
智昭 肥後
Tomoaki Higo
智昭 肥後
小林 一彦
Kazuhiko Kobayashi
一彦 小林
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016095721A priority Critical patent/JP6821326B2/ja
Publication of JP2017203701A publication Critical patent/JP2017203701A/ja
Application granted granted Critical
Publication of JP6821326B2 publication Critical patent/JP6821326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定する。【解決手段】対象物体を複数の視点から計測する計測手段により対象物体を計測した計測データを取得する第1の取得手段と、計測手段が対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、第1の取得手段によって取得された計測データと第2の取得手段によって取得された計測条件とに基づいて、対象物体を次に計測すべき計測手段の視点を決定する決定手段とを備える。【選択図】 図1

Description

本発明は、対象物体を計測するための情報処理装置、計測システム、情報処理方法およびプログラムに関する。
対象物体を様々な視点からセンサによって計測する場合、センサを配置する視点の位置姿勢を事前に決めておく方法や、計測結果を随時確認しながら人がセンサを適切な視点に
移動させる方法等がある。
一方、計測結果等から次に計測すべき視点を自動的に生成することを目的とした技術がネクスト・ベスト・ビュー(Next Best View:NBV)として知られている。この技術は、例えば、距離センサ付きのロボットアームを用いて対象物体表面の三次元形状を撮像して漏れなく自動的に計測するために、対象物体をどこから計測するかとの距離センサの視点を求める場合等に応用される。
特許文献1は、複雑な形状の測定対象を高精度に計測するため、光切断を行う光学プローブから得られた画像データに基づき測定領域の位置情報を算出し、この測定領域の位置情報をもとに光学プローブの移動(スキャン)方向を決める技術を開示する。
特開2014−145735号公報
しかしながら、特許文献1の手法では、高精度に形状計測を行うという限定的な条件のもとでしか適用することができない。このため、例えば、高速に形状計測を行いたい場合や、対象物体表面の欠陥検査を行いたい場合等における、次に計測すべき視点を適切に決定することを想定したものではない。従って、多様な計測条件に応じて、それぞれの場合にセンサ等の計測装置が次に対象物体を計測すべき視点(計測位置姿勢)を適切に決定することは困難であった。
本発明は上記課題に鑑みてなされたものであり、多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定することを目的とする。
上記課題を解決するため、本発明に係る情報処理装置のある態様によれば、対象物体を複数の視点から計測する計測手段により対象物体を計測した計測データを取得する第1の取得手段と、前記計測手段が前記対象物体を撮像する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、前記第1の取得手段によって取得された計測データと前記第2の取得手段によって取得された前記計測条件とに基づいて、前記対象物体を次に計測すべき前記計測手段の視点を決定する決定手段とを備える情報処理装置が提供される。
本発明によれば、多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定することができる。
実施形態1に係る計測システムのブロック図。 計測システムの概略図。 コンピュータの構成を示すブロック図。 計測と視点決定処理を示すフローチャート。 ポリゴンデータの例を示す図。 候補視点の求め方の例を示す図。 候補視点群の生成例を示す図。 候補視点の例を示す図。 ボクセルの状態の変化を示す図。 実施形態2に係る計測システムのブロック図。 実施形態3に係る計測システムのブロック図。 候補視点を更新する処理の例を示す概念図。 実施形態4に係る計測システムのブロック図。 変形例に係る計測システムのブロック図。 変形例に係る計測システムのブロック図。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
<実施形態1>
実施形態1に係る計測システムは、計測条件のうち、計測対象物体を計測する用途に応じて、計測対象物体を次に計測すべき計測装置(撮像部)の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測(撮像)を行うことによって、用途に応じた計測を行うものである。実施形態1に係る計測システムでは、計測対象物体を計測する用途を、複数の用途の中からユーザに選択させることにより、ユーザの要求に応える計測が可能である。計測対象物体の計測には、例えば計測対象物体の撮像が含まれるが、計測対象物体上の点群の座標の計測等も含まれる。
実施形態1では、複数の用途の例として、計測対象物体の三次元形状計測、欠陥検査、特定物体認識、人物監視の4つの用途を選択可能な場合について説明するが、実施形態1を適用可能な計測の用途はこれらに限定されない。
[実施形態1の構成]
図1は、実施形態1に係る計測システムの構成例を示すブロック図である。この計測システムは、計測対象物体5を撮像して画像データや関連情報を出力する撮像部2と、撮像部2が計測対象物体5を撮像する視点を設定する視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置1とを備えている。情報処理装置1は、撮像部2と視点設定部3とにそれぞれ接続されている。
図2の概略図に示すように、撮像部2は、例えばカメラにより構成され、計測対象物体5を様々な複数の視点から計測するために、視点設定部3に取り付けられている。撮像部2が出力する計測データは、例えば計測対象物体5を撮像したカラー画像と距離画像である。ただし、撮像部2が出力する計測データはこれらに限定されるものではなく、カラー画像または距離画像のいずれか一方でもよいし、その他モノクロ画像や距離点群あるいは計測対象物体上の点群の座標等でもよい。すなわち、計測データは画像に限られず、撮像部2は、計測対象物体を複数の視点から計測した計測データを出力するものであればよい。
撮像部2は、撮像したカラー画像および距離画像を、情報処理装置1のデータ取得部11と視点決定部12に供給する。
視点設定部3は、例えば図2に示すロボットアーム3aと、このロボットアーム3aを制御する図示しないアーム制御部とを備えている。ロボットアーム3aの先端には撮像部2が取り付けられている。アーム制御部は、情報処理装置1から計測対象物体5を次に撮像すべき撮像部2の視点を受信し、次に撮像すべき視点から撮像部2が撮像できるようにロボットアーム3aを制御して撮像部2を移動させる。すなわち、視点設定部3は、受信した視点に基づいて撮像部2の位置姿勢を設定する。また、視点設定部3は、移動した撮像部2の視点を特定する位置姿勢情報(以下、「視点位置姿勢情報」と称する。)を情報処理装置1のデータ取得部11に供給する。
図1に戻り、次に、情報処理装置1の内部の構成について説明する。
情報処理装置1は、データ取得部11と、視点決定部12と、計測対象物体5を計測する用途を含む計測条件を取得する条件取得部13とを備えている。
データ取得部11は、撮像部2から供給されたカラー画像、距離画像および視点設定部3から供給された視点位置姿勢情報を用いて用途に応じたデータ処理を行う。視点決定部12は、次に撮像すべき視点を決定し、視点設定部3に供給する。
視点決定部12は、データ取得部11から供給されたデータから、撮像部2の視点を決定する。視点決定部12は、候補視点を生成する候補視点生成部121と、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行う候補視点評価部122とを備えている。
条件取得部13は、計測対象物体5を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する。実施形態1においては、条件取得部13は、計測対象物体5を計測する用途の情報を取得する用途取得部131を備えている。
実施形態1では、条件取得部13の用途取得部131が取得した用途の情報に応じて情報処理装置1内部の動作を変化させるため、まずは動作の概略についてのみ説明し、その後で、用途ごとに場合分けして動作の詳細を説明する。
データ取得部11は、撮像部2からカラー画像と距離画像を受け取り、用途に応じたデータ統合処理等のデータ処理を実行して出力結果を生成する。そして、データ取得部11は、出力結果を視点決定部12に供給する。
視点決定部12は、データ取得部11から供給される出力結果と、条件取得部13から供給される用途とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。視点決定部12は、決定した視点を視点設定部3に供給する。
具体的には、候補視点生成部121が、撮像部2の解像度や画角、被写界深度等のセンサ情報に基づいて、用途に応じた少なくとも1つの候補視点を生成する。候補視点評価部122は、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行い、決定視点を選択する。候補視点評価部122は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
条件取得部13は、複数の計測条件のうち少なくとも1つの計測条件を取得して、その情報を視点決定部12に供給する。実施形態1では、用途取得部131が計測対象物体を計測する用途の情報を取得して、用途の情報を視点決定部12に供給する。用途の情報には、例えば三次元形状計測、欠陥検査、特定物体認識、人物監視のいずれか1つ以上が含まれる。
実施形態1において用途取得部131が用途を取得する方法は、図示しないタッチディスプレイに各用途に対応する画像を表示させ、ユーザに用途を選択させる方法であってよい。ただし、用途を取得する方法はこの例に限定されるものではなく、用途取得部131が、ユーザからの音声入力によって用途を取得するようにしてもよい。あるいは、例えば3Dプリンタ等の他の装置と接続されている場合には、接続されている装置に応じて、用途取得部131が自動的に用途を判断して選択するようにしてもよい。これにより、例えば3Dプリンタ等が接続されている場合には、用途取得部131が自動的に用途を判断して三次元形状計測を用途として選択する。
図1に示す各機能ブロックはプログラムとして、後述するROM22等の記憶部に記憶され、CPU21によって実行される。尚、図1に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
図3は、情報処理装置1のハードウェア構成の一例を示している。情報処理装置1は、CPU21、ROM22、RAM23、外部メモリ24、入力部25、出力部26を備えている。CPU21は、入力された信号やプログラムに従って、各種の演算や情報処理装置1を構成する各部分の制御を行う。具体的には、CPU21は、撮像部2からの情報に応じて計測と視点決定処理を実行し、次に撮像すべき視点を決定する。前述した図1の機能ブロックは、CPU21によって実行される機能を図示したものである。ROM22は、図1に示した各機能部を実行するためのプログラムや、各種の設定情報を記憶する。RAM23は、一時的なデータを記憶し、CPU21の作業用に使われる。外部メモリ24は、例えば、着脱可能なメモリカードであり、PC(パーソナルコンピュータ)等に装着してデータを読み出すことが可能である。
入力部25は、撮像部2から入力した情報をRAM23あるいは外部メモリ24の所定の領域に格納する。出力部26は、CPU21が決定した次に撮像すべき視点を視点設定部3に供給する。
[計測と視点決定処理]
図4は、図1の計測システムにより実行される計測および視点決定処理の詳細を示すフローチャートである。図4のフローチャートは、情報処理装置1が備えるCPU21が、ROM22等に記憶されるプログラムを実行することにより処理される。この処理は、計測対象物体5の計測処理の実行が指示されている間に実行される処理であり、例えばユーザが図示しない計測開始ボタンを押すことによって開始される処理である。
以下、図4のフローチャートにより実施形態1の計測システムによる計測と視点決定処理を説明する。実施形態1では、後に場合分けして説明する用途によらず、全体の処理の流れについては同じ図4のフローチャートを用いて説明する。
S1では、計測システムにおいて初期化処理が実行される。この初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部13の用途取得部131における用途の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S2では、撮像部2は、現在位置する視点から計測対象物体5を撮像して、カラー画像および距離画像を取得する。そして、撮像部2は、取得したカラー画像および距離画像をデータ取得部11に供給する。また、視点設定部3は、視点位置姿勢情報をデータ取得部11に供給する。
S3では、データ取得部11は、撮像部2から供給されたカラー画像、距離画像、および視点設定部3から供給された視点位置姿勢情報に対し、用途取得部131が取得した用途に応じたデータ処理を実行する。データ取得部11は、データ処理後のデータを、視点決定部12に供給する。
実施形態1において「用途に応じたデータ処理」は、後述のように、三次元形状計測、欠陥検査、特定物体認識、人物監視の各用途に応じたデータ処理であり、詳細は後述する。なお、このデータ処理を実行する機能は、データ取得部11とは別の機能部として設けてもよいし、情報処理装置1の外部に設けてもよい。あるいは、データ処理を実行する機能を撮像部2の機能として設け、データ処理の結果を、計測データとしてデータ取得部111に供給するようにしてもよい。
S4では、データ取得部11は、ユーザが図示しない計測終了ボタンを押しているかどうかを判定し、計測終了ボタンが押されていれば計測を終了する。一方、まだ計測終了ボタンが押されていない場合には、S5に進む。
S5では、視点決定部12は、データ取得部11から供給されたデータ処理後のデータと用途取得部131が取得した用途とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、視点決定部12において、候補視点生成部121が、1または複数の候補視点を生成する。また、候補視点評価部122が、生成された候補視点を評価し、条件を満たす中で最も評価が高かった視点を決定視点として選択する。視点決定部12は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
S6では、視点設定部3は、視点決定部12から受け取った次に撮像すべき視点に基づいて撮像部2を移動させる。この後、再びS2へ戻り、各部がS2からS6の処理を繰り返す。
なお、以上では、S4において、計測終了ボタンが押されているか否かで計測の終了を判定する例について述べたが、これに限定されるものではない。例えば、図示しない終了判定部がデータ取得部11から得られたデータと用途に基づいて終了すべきかどうかを判定するようにしてもよい。すなわち、終了判定部が、計測データに基づいて、視点の決定の終了条件を判定する。
次に、情報処理装置1の内部の動作に関して、三次元形状計測、欠陥検査、特定物体認識、人物監視のそれぞれの用途の情報が取得された場合の動作と、複数の用途を組合せた場合の動作について、具体的な処理内容を順に説明する。
[用途1:三次元形状計測]
条件取得部13の用途取得部131において計測の用途として三次元形状計測が取得された場合には、データ取得部11は、計測対象物体5の全周からの三次元モデルを生成する。本計測において次に計測(撮像)する視点を選択する基準は、三次元モデルにおいて形状が途切れている箇所や穴が無くなるようにすることである。
具体的には、この三次元形状計測では、データ取得部11は、撮像部2から受け取ったカラー画像と距離画像と、視点設定部3から得られる視点位置姿勢情報とを用いて、計測された三次元点群の計測対象物体5の座標系における位置を求める。
より詳細には、データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られた距離画像と視点位置姿勢情報を用い、距離画像中の各画素に対応する三次元点群の座標を求める。さらに、データ取得部11は、求めた三次元点群の座標を、計測対象物体5の座標系における三次元点群の座標に変換して、点群を統合する。ここで、「統合」とは、先に供給された距離画像から求めた点群のデータと、新たに供給された距離画像から求めた点群のデータとをマージする動作を意味している。
ただし、距離画像から取得された三次元点群には、計測対象物体5に属する点群だけでなく、背景物体に属する点群も含まれている。このため、データ取得部11は、予め取得してある背景モデルを用いて背景物体に属する点群を除去し、計測対象物体5に属する点群だけを統合する。
また、視点設定部3のロボットアーム3aの位置姿勢の制御によっては、視点位置姿勢情報に誤差が含まれている。このため、データ取得部11は、得られた三次元点群にずれが生じる場合には、ICP(Iterative Closest Point)等の位置合わせ手法を用いて点群の位置合わせを行った上で、点群を統合する。
また、三次元モデルは、上記のように、得られた形状に途切れている箇所や穴があるかどうかが問題となるため、データ取得部11は、統合した点群のデータからメッシュを生成してポリゴンデータとする。このポリゴンデータにおいて、点群同士が離れすぎている場合には、データ取得部11は、途切れている箇所や穴があるとして、当該箇所を特定する。なお、ポリゴンデータにカラー画像の情報を付加して、テクスチャ付きのポリゴンデータとしてもよいし、色付き点群のポリゴンデータとしてもよい。
また、計測の終了は、図示しない終了判定部が、データ取得部11からポリゴンデータを受け取り、この終了判定部が、ポリゴンデータに途切れている箇所や穴が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、途切れている箇所や穴がある場合には、次の視点を決定するように視点決定部12に指示し、途切れている箇所や穴が無い場合には、計測を終了させてもよい。
また、S5において、視点決定部12には、データ取得部11からポリゴンデータが供給され、条件取得部13から三次元形状計測が用途であることを示す情報が供給される。視点決定部12は、ポリゴンデータと用途の情報から、次に計測(撮像)すべき撮像部2の視点を決定する。
ここで、距離画像からは一番手前の物体の表面上の点群しか求めることができず、影になった部分の点群は求めることができない。このため、限定された数の視点からの距離画像だけでは、計測対象物体5のポリゴンデータに、途切れている箇所や穴が生じる場合がある。したがって、候補視点生成部121は、ポリゴンデータにおいて途切れている箇所や穴がある場所を特定する。
以下、図5を用いて、ポリゴンデータにおいて途切れている箇所や穴がある場所を検出する方法を説明する。図5(A)は、ポリゴンデータにおけるメッシュの定義の例を示している。ポリゴンデータ中では、頂点(5A、5B...)毎に三次元座標が対応付けられている。また、ポリゴンデータ中では、あるエッジ5Cに対してはその両端の頂点5Aと頂点5Bが対応付けられている。また、ポリゴンデータ中では、面5D、5Eに対しては対応する頂点群(頂点5A、5B...)あるいはエッジ群(5C...)が対応付けられている。
このようなポリゴンデータ中において、例えば図5(B)に太線で示すように、メッシュが途切れている箇所5Gや穴5Fがある場所では、面の頂点と頂点を結ぶエッジに対して、片側にしか面が存在していない。そこで、視点決定部12は、ポリゴンデータにおいて、エッジの片側にしか面が存在しないエッジ(未接続エッジ)を見つけ出すことで、途切れている箇所や穴を検出する。
途切れている箇所5Gや穴5Fを検出すると、視点決定部12は、図6に示すように、撮像部2の画角を考慮し、途切れている箇所5Gや穴5Fを含む面を撮像できる視点の方向を求める。さらに、視点決定部12は、候補視点生成部121に、求めた視点の方向に、計測対象物体5から撮像部2の焦点距離l程度離れた位置を候補視点201として生成させる。
なお、途切れている箇所5Gや穴5Fの領域における計測対象物体5の形状は未知である。このため、図7に示すように、候補視点生成部121が、途切れている箇所5Gや穴5Fの領域を観測する方向や視点までの距離を変化させた複数の候補視点202a、202b、202c...を生成するようにしてもよい。すなわち、計測データと、計測条件とに基づいて、計測対象物体を次に計測すべき撮像部2の複数の候補視点を生成してもよい。
ただし、候補視点の求め方は以上に限定されるものではない。例えば、図8に示すように、計測対象物体5を取り囲むように正二十面体203を想定し、候補視点生成部121が、正二十面体203の各頂点から正二十面体203の中心を観測する方向を候補視点として生成してもよい。あるいは、候補視点生成部121が、ランダムに大量の候補視点を生成してもよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部122は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。
ここでは評価値の計算方法の例として、ボクセルを用いた方法について説明する。まず、候補視点評価部122は、計測対象物体5を取り囲むのに十分な範囲にボクセルを配置する。各ボクセルのサイズは撮像部2の解像度や被写界深度に基づいて得られる三次元点群の間隔と同程度か少し大きい程度、つまり、1つのボクセルに点群が1個から十数個含まれる程度の大きさとする。
各ボクセルは「占有」、「空」、「未知」の3つの状態を持ち、最初は図9(A)に示すように、全てが「未知」の状態(図9(A)では「未」と略記。)である。なお、この図9(A)は、説明のために1ボクセル分の水平面について図示したものであり、実際にはこのような水平面が高さ方向に重なった状態でボクセルが定義されている。
次に、例えば図9(B)に示すように、ある視点205から撮像部2によって距離画像が撮像されると、データ取得部11は、距離画像から距離点群を求め、候補視点評価部122に供給する。
距離点群が供給されると、候補視点評価部122は、図9(C)に示すように、ボクセル空間において距離点群が観測されたボクセル(210a、210b)の状態を「未知」から「占有」(図9(C)では「占」と略記。)に変更する。また、候補視点評価部122は、観測値が得られなかった方向のボクセル210dの状態や、撮像部2から距離点群が観測されたボクセルまでの間にあるボクセル210cの状態を「未知」から「空」に変更する。
候補視点を評価する際には、候補視点評価部122は、当該候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。さらに、候補視点評価部122は、ポリゴンデータから当該候補視点から観測可能な未接続エッジの数E(p)を求め、式(1)によりボクセルの数V(p)と未接続エッジの数E(p)の重み付き線形和として評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p) (1)
候補視点評価部122が、この式(1)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
次に、候補視点評価部122は、候補視点のうち、評価値Eval(p)が高い候補視点から順に、現在の視点の位置姿勢から候補視点pの位置姿勢への移動が可能であるかどうか、パスプランニングの判定をシミュレーションで行うことによって確認する。
具体的には、パスプランニングの判定におけるシミュレーションでは、候補視点評価部122は、視点設定部3の可動範囲、計測対象物体5や背景との干渉等に基づいて、現在の視点から候補視点pへの移動が可能であるかを判定する。
移動が不可能であった場合、候補視点評価部122は、次に評価値の高い候補視点pについて、同様に、パスプランニングの判定を繰り返す。候補視点評価部122は、評価値の高い候補視点からパスプランニングの判定をしていき、移動可能な候補視点pが見つかった時点で、その候補視点pを次に計測すべき視点として選択し、視点設定部3に供給する。
ただし、ここでは例えば各重み値w=w=1とするが、重み値はこれに限定されるものではない。重み値wおよびwとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[用途2:欠陥検査]
用途取得部131において、計測の用途として欠陥検査が取得された場合には、データ取得部11は、計測対象物体5を全周から観測して、計測対象物体5の表面におけるキズの有無を判定する。本計測において次に計測(撮像)する視点を選択する基準は、三次元形状計測と同様に途切れている箇所や穴が無いことだけでなく、キズであるかどうかを断定するために、複数回異なる視点からキズであるかどうかを確かめるようにすることである。
具体的には、データ取得部11は、三次元形状計測の場合と同様にしてポリゴンデータを生成し、さらに撮像部2から受け取ったカラー画像に対してキズ判別処理を行い、キズであると判別した領域を計測対象物体5のポリゴンデータ上にマッピングする。キズ判別処理は、データ取得部11が、例えば予め準備しておいたキズのテンプレート画像とのテンプレートマッチングによって行う。なお、キズ判別処理は、これに限定されるものではなく、エッジ検出等を用いてキズを判別するようにしてもよい。
より詳細には、データ取得部11には、欠陥検査用途の計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られたカラー画像に対してキズ判別処理を行い、キズ領域をポリゴンデータ上にマッピングしていく。データ取得部11は、このキズ判別処理を、所定数の視点からのカラー画像からキズであるかどうかを断定できるまで繰り返す。キズ判別は、キズを観測する視点によって検出のしやすさが異なるため、データ取得部11は、複数の視点で計測した情報を統合して、最終的にキズであるかどうかを判断する。
データ取得部11は、キズであるかどうかを断定するために、キズのマッピングを行う最小単位領域tごとに、キズ度合いR(t)を計算によって求める。
キズ度合いR(t)は計測を開始する前は全ての領域で1.0という初期値であり、キズ判別によってキズでないと判別された領域のキズ度合いR(t)には、Aを乗じる。一方、キズであると判別された領域のキズ度合R(t)には、1/Aを乗じる。
データ取得部11は、例えば、キズ度合いが閾値T=Aαを超えた領域はキズであると断定し、キズ度合いが閾値T=1/Aαを下回った領域はキズではないと断定する。なお、Aは1.0より大きな任意の数であり、ここでは例えばA=2.0とする。また、αは自然数であり、ここでは例えばα=2とする。データ取得部11は、キズ度合いをマッピングしたポリゴンデータを視点決定部12に送る。
ここで、計測を終了させる方法として以下のような方法を用いてもよい。図示しない終了判定部が、データ取得部11からキズ度合いがマッピングされたポリゴンデータを受け取り、まず、三次元形状計測の場合と同様に、途切れている箇所や穴が無いかを確認して終了を判定する。終了判定部は、途切れている箇所や穴がある場合には、次の視点を決定するように視点決定部12に指示する。
一方、途切れている箇所や穴が無い場合には、終了判定部は、計測対象物体5の物体表面上でキズであるかどうかを断定できていない領域の有無を確認し、もし、断定できていない領域がある場合には、次の視点を決定するように視点決定部12に指示する。逆に、キズであるかどうかを断定できていない領域が無い場合には、終了判定部は、計測を終了させる。
S5において、視点決定部12には、データ取得部11からキズ度合いがマッピングされたポリゴンデータが供給され、条件取得部13から欠陥検査が用途であることを示す情報が供給される。
視点決定部12は、ポリゴンデータと用途の情報から、次に撮像すべき視点を2段階の処理で決定する。まず、候補視点生成部121は、三次元形状計測の場合と同様に、途切れている箇所や穴の領域を無くすように候補視点を生成する。次に、候補視点生成部121は、キズかどうか断定できていない領域を無くすように候補視点を生成する。候補視点生成部121は、キズ度合いがマッピングされたポリゴンデータにおいて、マッピングを行う最小単位領域tごとにキズ度合いR(t)の値が、T<R(t)<Tの条件を満たす領域tを特定する。
この条件を満たす領域tではキズの有無が断定されていないため、候補視点生成部121は、当該領域tを観測できるような視点を候補視点として生成する。なお、キズの有無を断定できていない領域tが多い場合には、大量の候補視点が生成されてしまうため、計算の効率を上げるために、候補視点生成部121が、適当な間隔で候補視点をサンプリングするようにしてもよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値の計算方法として、三次元形状計測の場合と同様に、ボクセルを用いた方法を用いる。さらに、ポリゴンデータが生成された領域では、マッピングされたキズ度合いによる評価を行う。まず、候補視点評価部122は、候補視点pから観測可能な領域tの集合Θ(p)に対して、式(2)によってキズ度合いの判断指数D(p)を計算する。
Figure 2017203701
ただし、g(t)は式(3)によって表現される。
Figure 2017203701
次に、候補視点評価部122は、式(4)によりボクセルの数V(p)と未接続エッジの数E(p)と判断指数D(p)の重み付き線形和として評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+wD(p) (4)
候補視点評価部122が式(4)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域や、キズであるかどうかの断定ができていない領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
さらに、三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)が高い視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択し、視点設定部3に供給する。なお、ここでは例えば重み値w=w=w=1とするが、重み値はこれに限定されるものではなく、重み値w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[用途3:特定物体認識]
用途取得部131において、特定物体認識が取得された場合には、データ取得部11は、計測対象物体5をある視点から観測して、予め定められている複数の物体モデルの中で、計測対象物体5がどのモデルに該当する物体であるかを分類する。すなわち、データ取得部11は、観測した計測対象物体5が、どのモデルの物体と同じ物体であるかを分類する。本計測において次に計測する視点を選択する基準は、計測対象物体5に固有の特徴的な幾何形状やテクスチャ等を、様々な視点から観測することである。
具体的には、データ取得部11は撮像部2から受け取ったカラー画像に対して特徴点検出(特徴点抽出)を行い、視点位置姿勢情報と距離画像を参照して特徴点に三次元位置情報とを対応付けて保存する。この際、データ取得部11は、背景モデルを用いて、背景に属する特徴点は削除し、計測対象物体5に属する特徴点のみを三次元位置情報と対応付けて保存する。
そして、データ取得部11は、検出した特徴点に対して、物体認識対象のモデルデータとマッチングを行って、類似度が高いモデルを選択する。類似度が高いモデルをただ一つ選択することができた場合は、そのモデルが認識結果となる。一方、類似度が高いモデルが存在しない場合や、複数のモデルにおいて類似度が高い場合には、データ取得部11は、次の視点で観測した結果も利用して認識結果を判断する。特徴点検出は例えばSURF(Speed−Up Robust Features)特徴量を用いるが、これに限定されるものではなく、他の特徴量を用いてもよい。
データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。データ取得部11は、新たに得られたカラー画像に対して特徴点検出を行い、物体認識対象のモデルデータとのマッチングを行う。ここで、既に得られている認識結果が、モデルAである確率がP、モデルBである確率がP、モデルCである確率がP、・・であるとする。新たに得られた認識結果が、モデルAである確率がP new、モデルBである確率がP new、モデルCである確率がP new、・・である場合、モデルjである認識確率P´は、式(5)で計算される。
Figure 2017203701
データ取得部11は、このようにして、各モデルの認識確率を更新しながら計測を行い、それを図示しない終了判定部に送る。また、データ取得部11は、視点位置姿勢情報および三次元位置情報が対応付けられた特徴点群を視点決定部12に供給する。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った各モデルにおける認識確率を確認して判定するようにしてもよい。終了判定部は、最も認識確率の高いモデルの確率が閾値Tを超えた時、そのモデルを認識結果として計測を終了させる。一方、どのモデルも認識確率が閾値Tを超えない場合には、終了判定部は、次の視点を決定するように視点決定部12に指示する。
また、S5において、視点決定部12には、データ取得部11から視点位置姿勢情報と三次元位置情報とを対応付けられた特徴点群が供給され、条件取得部13から特定物体認識が用途であることを示す情報が供給される。視点決定部12は、特徴点群と用途の情報から、次に撮像すべき視点を決定する。まず、候補視点生成部121は、特徴点群の空間的な分布を確認し、近い特徴点群同士を特徴点クラスタとする。そして、候補視点生成部121は、特徴点クラスタごとにクラスタ内部の特徴点を多く観測しやすい視点を候補視点として生成する。特徴点を多く観測しやすい視点に関しては、様々な方向からの視点が考えられるが、候補視点生成部121が、ランダムに適当な方向をサンプリングして求めればよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。評価値Eval(p)は、候補視点pから観測可能な特徴点の数F(p)と、これまでに用いた視点の集合Φを用いた式(6)により、候補視点評価部122が計算する。
Figure 2017203701
候補視点評価部122が、式(6)を用いて候補視点を評価することによって、観測可能な特徴点の数が多く、これまでに観測した視点とは異なる位置姿勢の候補視点の評価値が高くなり、次に撮像すべき視点として選ばれやすくなる。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値w=w=1とするが、重み値はこれに限定されるものではなく、重み値w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[用途4:人物監視]
用途取得部131において、人物監視が取得された場合には、データ取得部11は、計測対象である人を指定したエリア内でトラッキングするように観測する。
本計測において次に計測する視点を選択する基準としては、計測対象である人が動いている方向から、次に到達する位置を予測して、その位置を観測することである。
具体的には、データ取得部11は、撮像部2からのカラー画像と距離画像から、人物領域を切り出して、人物の行動を分類し、正常か異常かを判断する。人物の行動を分類する方法は、例えば、人体の関節モデルを当てはめて行動と対応付けてもよいし、ディープ・ラーニング(Deep Learning)等の識別器を用いてたくさんの事例との適合度から推定してもよい。
データ取得部11には、計測が終了するまで、図4のS3において、次々に視点を変えながら撮像されたカラー画像、距離画像、視点位置姿勢情報が供給される。
人物監視用途の場合は、時系列のデータを統合する必要は無く、各データの分類と正常・異常のみを判断していればよい。データ取得部11は、人体の関節モデルと分類結果を視点決定部12に供給する。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った分類結果を確認して判定するようにしてもよい。終了判定部は、一定時間、人物が検出されなくなったら計測の終了を指示する。または、別途ユーザから指定された期間、監視を行ったら計測を終了させるようにしてもよい。終了判定部は、終了しない場合には、次の視点を決定するように視点決定部12に指示する。
S5において、視点決定部12には、データ取得部11から人体の関節モデルと分類結果が供給され、条件取得部13から人物監視が用途であることを示す情報が供給される。視点決定部12は、人体の関節モデルと分類結果と用途の情報から、次に計測すべき視点を決定する。まず、候補視点生成部121は、過去の近傍数フレームにおける人体の関節モデルと新しく受け取った人体の関節モデルの推移および行動の分類結果から、関節モデルの動きを予測する。そして、候補視点生成部121は、人体を撮像部2のなるべく中心で観測できるような視点を候補視点として生成する。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値の計算に、人体モデルが次の計測時に移動すると予測される移動先yの集合Ωと、各移動先yに移動する確率ρ(y)と、候補視点pからある点xを観測した場合における画像の中心からxの撮像位置までの距離Dist(p、x)とを用いる。具体的には、候補視点評価部122は、式(7)を用いて評価値Eval(p)を計算する。
Figure 2017203701
候補視点評価部122が、式(7)を用いて候補視点を評価することによって、移動する確率が高い位置を画像の中心に捉えながら、多くの予測される移動先を画像内に網羅できるような候補視点の評価値が高くなり、次の視点として選ばれやすくなる。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値w=1とするが、重み値の値はこれに限定されるものではなく、重み値wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[複数の用途に応じた動作]
複数の用途のための次に撮像すべき視点を求めることも可能である。例えば、三次元形状計測と特定物体認識の2つの用途を実現したい場合は、候補視点生成部121は、既に述べたそれぞれの用途における処理に基づいて候補視点群を生成する。そして、候補視点評価部122は、式(1)と式(6)を組合せた式(8)によって評価値Eval(p)を求めて各候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の用途に応じて、次に撮像すべき視点を適切に決定することができる。
Figure 2017203701
以上のように、実施形態1では、計測対象物体を計測する用途に応じて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。また、実施形態1では、このように決定した視点に撮像部2を移動させて計測を繰り返す。すなわち、データ取得部11による計測データの取得と、視点決定部12による撮像部2の視点の決定と、撮像部2の視点の出力とを繰り返す。計測対象物体を次に計測すべき撮像部2の視点は用途に応じて適切に設定されているため、この視点に応じて計測を行うことにより、用途に応じて効率良く計測を行うことができる。また、計測対象物体を計測する用途は、ユーザが選択するため、ユーザの選択に応じた計測を効率よく行うことができる。
<実施形態2>
実施形態2に係る計測システムは、計測の用途に関するスペック要求に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、スペック要求に応じた適切な計測を行うことができる。ここで、「スペック要求」とは、用途に応じた、計測対象物体の計測において優先されるべき仕様の項目ないしファクタである。
実施形態1では複数の用途に応じて、次に計測すべき適切な視点を決定していたが、実施形態2では精度や速度等の複数のスペック要求に応じて次に計測すべき視点を決定する。そのため、計測の用途が決まっている場合であっても、用途に関するスペック要求に応える計測が可能である。実施形態2では、計測対象物体の三次元形状計測の用途を例に挙げて、複数のスペック要求の例として、精度、速度、複雑度、の3つのスペック要求を選択可能な場合について説明するが、実施形態2を適用可能なスペック要求はこれらに限定されない。
[装置の構成]
図10は、実施形態2に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置30とを備えている。実施形態2における計測システムは、実施形態1における図1の構成を一部変更したものであり、図10中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態2における情報処理装置30は、データ取得部31と、視点決定部32と、計測条件を取得する条件取得部33とを備えている。データ取得部31は、三次元形状計測のデータ処理を行う。視点決定部32は、データ取得部31から供給されたデータ処理後のデータと条件取得部33から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
視点決定部32は、候補視点を生成する候補視点生成部321と、候補視点生成部321によって生成された候補視点に対して評価を行う候補視点評価部322とを備えている。実施形態2において、条件取得部33は、計測に関するスペック要求の情報を取得するスペック要求取得部332を備えている。
実施形態2では、条件取得部33におけるスペック要求取得部332で取得したスペック要求の情報に応じて情報処理装置30内部の動作を変化させる。このため、まず動作の概略についてのみ説明し、その後で、スペック要求ごとに場合分けして動作の詳細を説明する。
データ取得部31は、撮像部2からカラー画像と距離画像を受け取り、例えば三次元形状計測等のデータ処理を実行する。そして、データ取得部31は、データ処理後のデータを視点決定部32に供給する。
視点決定部32は、データ取得部31から供給されるデータ処理後のデータと、条件取得部33から供給されるスペック要求(優先すべき仕様)とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。
具体的には、候補視点生成部321は、スペック要求に応じた少なくとも1つの候補視点を生成する。候補視点評価部322は、候補視点生成部321によって生成された候補視点に対してスペック要求に応じた評価を行い、決定視点を選択する。候補視点評価部322は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
条件取得部33は、計測における条件を取得して、その情報を視点決定部32に供給する。実施形態2では、スペック要求取得部332がスペック要求の情報を取得し、取得したスペック要求の情報を視点決定部32に供給する。スペック要求(優先する仕様の情報)には、例えば計測対象物体5の計測における精度、速度、複雑度のいずれか1つ以上が含まれる。
実施形態2においてスペック要求取得部332がスペック要求を取得する方法は、図示しないタッチディスプレイに各スペック要求に対応する画像を表示させ、ユーザに優先すべきスペック要求を選択させる方法である。ただし、スペック要求を取得する方法は、これに限定されるものではなく、スペック要求取得部332が、ユーザからの音声入力によって取得してもよいし、ユーザが、例えば、精度、速度、複雑度の具体的な目標値を数値として入力したものを取得してもよい。
[計測と視点決定処理]
以下、実施形態2の計測システムによる計測と視点決定処理を説明する。実施形態2では、後に場合分けして説明するスペック要求によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態2における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態2におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部33のスペック要求取得部332におけるスペック要求の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S5では、視点決定部32は、データ取得部31から供給されたデータ処理後のデータとスペック要求取得部332で取得されたスペック要求とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部321が候補視点を生成し、生成された候補視点を候補視点評価部322が評価して条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部322は、選択した決定視点を次に計測すべき撮像部2の視点として視点設定部3に供給する。
次に、情報処理装置30の内部の動作に関して、精度、速度、複雑度のそれぞれのスペック要求の情報が取得された場合の動作について、具体的な処理内容を順に説明する。
[仕様1:精度を優先する場合]
条件取得部33のスペック要求取得部332において、優先すべきスペック要求として精度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルが高精度に生成されるように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に撮像する視点を選択する基準は、ポリゴンデータにおいて設定しておいたエッジの長さの最大値を超える長さのエッジ領域を観測することである。なお、この最大値はユーザが指定しておくようにしてもよい。このように視点を選択することによって、エッジが長く疎な三次元点群しか得られていない領域の計測を行い、三次元点群の密度を高くすることができる。
S3において、データ取得部31は、実施形態1の三次元形状計測の場合と同様に、撮像部2から得られた距離画像と視点設定部3から得られた視点位置姿勢情報からポリゴンデータを生成する。計測を行っている間、視点を変更して撮像された距離画像が順次供給されるため、データ取得部31は、供給された距離画像に基づいてポリゴンデータを更新する。
精度を優先する場合、計測時間が長くかかったとしても、最終的な三次元モデルの結果の精度が高いことが望まれる。そこで、撮像部2は、同じ視点からの撮像を複数回繰り返し、複数のカラー画像および複数の距離画像をセットにしてデータ取得部31に供給する。データ取得部31は、複数のカラー画像および距離画像を平均化したカラー画像および距離画像を用いてポリゴンデータの更新を行うことで、撮像部2による偶然誤差の影響を抑制することができる。
計測の終了は、図示しない終了判定部が、データ取得部31からポリゴンデータを受け取り、途切れている箇所や穴、点群の密度が低い箇所が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、点群の密度が低い箇所が無い場合には計測を終了させる。
また、S5において、視点決定部32には、データ取得部31からポリゴンデータが供給され、条件取得部33から優先すべきスペック要求が精度であることを示す情報が供給される。視点決定部32は、ポリゴンデータと優先すべきスペック要求を示す情報とから、次に計測すべき撮像部2の視点を決定する。
候補視点生成部321が候補視点を生成する処理は実施形態1の三次元形状計測の場合と同様にして実行することができる。さらに、精度を向上させるために、候補視点生成部321は、得られた候補視点に対して、対象物体までの距離が近づくように視線方向に移動させた視点を候補視点に追加する。このような候補視点を追加することで、計測対象物体5のより詳細な部分まで撮像しやすくなる。
候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部322は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1の三次元形状計測の場合と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。次に、候補視点評価部322は、ポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)と観測可能なエッジの中で所定長より長いエッジの数L(p)を求める。さらに、候補視点評価部322は、式(9)により評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+wL(p) (9)
候補視点評価部322が、式(9)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。
さらに、実施形態2においては、長いエッジによって密度の低い三次元モデルになっている領域を観測可能な候補視点の評価値が高くなり、より高精度に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測と同様に、評価値の高い候補視点から順にパスプランニングの判定を行い、移動可能な候補視点を次に撮像すべき視点として決定する。なお、式(9)におけるそれぞれの重み値w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[仕様2:速度を優先する場合]
スペック要求取得部332において、優先すべきスペック要求として速度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルを短い時間で生成するように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に計測する視点を選択する基準は、計測対象物体5を粗い点群密度でもよいので全周から撮像することを優先し、すでに取得されている三次元形状データとのオーバーラップが少ない視点から撮像することである。
S3において、データ取得部31は、実施形態1の三次元形状計測の場合と同様に、ポリゴンデータを生成して、順次取得したデータで更新していく。速度を優先する場合、最終的な三次元モデルの精度が不十分であっても、一定時間以内に計測を終了させることが望まれる。このため、データ取得部31は、ポリゴンデータにおいて、点群同士が離れている場合でも、可能な限り点群の接続を行い、メッシュとして生成することで、いつでも結果として出力できるようにしておく。
そして、データ取得部31は、優先して全体の概形状を生成した後で、時間が残されていれば、より詳細な形状を取得して、詳細なポリゴンデータへと更新していく。なお、計測の終了は、データ取得部31あるいは図示しない終了判定部が、計測の処理時間が一定時間を超えているか否かによって判定し、一定時間を超えていれば計測の終了を指示するようにしてもよい。
S5において、視点決定部32には、データ取得部31からポリゴンデータが供給され、条件取得部33から優先すべきスペック要求が速度であることを示す情報が供給される。視点決定部32は、ポリゴンデータとスペック要求の情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部321が候補視点を生成する処理は実施形態1の三次元形状計測の場合と同様にして実行することができる。さらに、速度を向上させるために、候補視点生成部321は、得られた候補視点に対して、計測対象物体5からの距離が遠ざかるように視線方向に移動させた視点を候補視点に追加する。このような候補視点を追加することで、1回の撮像で計測対象物体5の全体像をより捉えやすくなる。
候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が最大の候補視点を決定視点として選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1の三次元形状計測の場合と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。次に、候補視点評価部322は、ポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)と観測可能なエッジの中で所定長より長いエッジの割合L(p)、および観測可能な面の面積F(p)とを求める。さらに、候補視点評価部322は、式(10)により評価値Eval(p)を計算する。
Eval(p)=wV(p)+wE(p)+w(Vall(p)−V(p))L(p)−wV(p)F(p) (10)
ただし、Vall(p)は候補視点pから観測可能なボクセルの総数である。
候補視点評価部322が、式(10)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、計測を開始して間もない未知のボクセルの数が多い状態では、既に観測しているポリゴンの面がなるべく少なくなる候補視点の評価値が高くなるようにして、同じ領域をオーバーラップして計測しにくい候補視点の評価値が高くなる。
また、計測が進み未知のボクセルの数が少なくなってくると、所定長より長いエッジが観測される視点の評価値が高くなり、粗いポリゴンデータをより詳細に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、次に撮像すべき視点を決定する。なお、式(10)におけるそれぞれの重み値w、w、w、wとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[仕様3:複雑度を優先する場合]
スペック要求取得部332において、優先すべきスペック要求として複雑度が取得された場合には、視点決定部32は、計測対象物体5の形状として複雑な箇所が優先して撮像されるように次に計測すべき撮像部2の視点の決定を行う。本計測において次に計測する視点を選択する基準としては、複雑な形状部分を多視点から観測することである。
S3において、データ取得部31は、実施形態1と同様にしてポリゴンデータを生成して、順次取得したデータで更新していく。優先すべきスペック要求が複雑度である場合、平坦な面やなだらかな面の領域は正確に計測されなかったとしても、複雑な形状の領域を正確にモデル化できることが望まれる。そこで、データ取得部31は、カラー画像と距離画像の両方から平坦な面やなだらかな面であると判断される領域については、ポリゴンデータを生成する際に、点群の密度が疎であってもエッジとして接続し、その領域に対して低い複雑度を設定する。
逆に、カラー画像と距離画像のどちらかまたは両方から、複雑な形状であると考えられる領域には、データ取得部31は、高い複雑度を設定する。さらに、データ取得部31は、設定した複雑度に対して、各面の近傍における点群の密度に応じて達成度を計算する。複雑度が高い領域ほど、点群の密度も高い必要があり、データ取得部31は、複雑度に応じた密度の基準を達成している割合を達成度として求める。
計測の終了は、図示しない終了判定部が、データ取得部31から複雑度と達成度付きのポリゴンデータを受け取り、達成度を評価して判定してもよい。達成度が基準値に満たない領域がある場合には、終了判定部は、次の視点を決定するように視点決定部32に指示し、達成度が基準値に満たない領域が無く全ての領域で達成度が満たされている場合には計測を終了させる。
S5において、視点決定部32には、データ取得部31から複雑度と達成度付きのポリゴンデータが供給されており、条件取得部33から優先すべきスペック要求が複雑度であることを示す情報が供給されている。視点決定部32は、ポリゴンデータと優先すべきスペック要求の情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部321で候補視点を生成するには、図7における途切れている箇所5Gや穴5Fを達成度が低い領域とし、その領域を様々な方向から観測する候補視点を生成すればよい。このような候補視点を追加することで、複雑な領域でかつ、計測が足りていない領域をより捉えやすくなる。
候補視点評価部322は、候補視点生成部321によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。評価値の計算では、候補視点評価部322は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求める。さらに、候補視点評価部322は、式(11)により評価値Eval(p)を求める。
Figure 2017203701
候補視点評価部322が、式(11)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、達成度が低い領域を観測可能な候補視点が選択されやすくなり、過去に観測したのとは異なる方向から撮像する候補視点が選ばれやすくなる。なお、それぞれの重み値w、w、w,wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[複数の仕様に応じた動作]
複数のスペック要求が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、速度優先かつ複雑度優先の2つを実現したい場合は、候補視点生成部321は、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部322は、式(10)と式(11)を組合せた式(12)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき撮像部2の視点とする。これにより、複数のスペック要求に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
Figure 2017203701
以上のように、実施形態2では、計測対象物体に対して、ユーザが選択したスペック要求に応じて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。すなわち、対象物体の計測において優先されるべき仕様の情報に応じて、計測対象物体を次に計測すべき計測手段の視点を適切に決定することができる。このように決定した視点に撮像部2を移動させて撮像を繰り返していくことによって、用途に関するスペック要求に応じた適切な計測を行うことができる。
<実施形態3>
実施形態3に係る計測システムは、移動可能範囲や移動速度等の移動手段の特性に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、移動手段の特性に応じた適切な計測を行うものである。実施形態1および2では、それぞれ用途とスペック要求に応じて適切な視点を決定する場合について説明したが、実施形態3では、撮像部2を計測対象物体5を計測する視点へ移動させる移動手段(視点設定部3)の特性の情報に応じて適切な視点を決定する。そのため、ユーザが自由に移動手段を取り替えても、移動手段に応じた適切な計測を行うことができる。実施形態3では、対象物体の三次元形状計測の用途を例に挙げて、移動手段の特性の例として、移動可能範囲、移動速度、移動精度の3つについて説明するが、実施形態3を適用可能な移動手段の特性はこれらに限定されない。
[装置の構成]
図11は、実施形態3に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置40とを備えている。実施形態3における計測システムは、実施形態2における図10の構成を一部変更したものであり、図11中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態3における情報処理装置40は、データ取得部41と、視点決定部42と、計測条件を取得する条件取得部43とを備えている。データ取得部41は、例えば三次元形状計測等のデータ処理を実行する。視点決定部42は、データ取得部41から供給されたデータ処理後のデータと条件取得部43から供給される計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
視点決定部42は、候補視点を生成する候補視点生成部421と、候補視点生成部421によって生成された候補視点に対して評価を行う候補視点評価部422とを備えている。また、条件取得部43は、移動手段である視点設定部3の特性の情報を取得する移動手段情報取得部433を備えている。
実施形態3では、条件取得部43における移動手段情報取得部433で取得した移動手段の特性の情報に応じて情報処理装置40内部の動作を変化させる。このため、まずは情報処理装置40内部の動作の概略についてのみ説明し、その後で、移動手段の特性ごとに場合分けして動作の詳細を説明する。
データ取得部41は、撮像部2からカラー画像と距離画像に対して、三次元形状計測のデータ処理を実行する。そして、データ取得部41は、データ処理後のデータを視点決定部42に供給する。
視点決定部42は、データ取得部41から供給されるデータ処理後のデータと、条件取得部43から供給される移動手段の特性とに応じて、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。具体的には、まず、候補視点生成部421が移動手段の特性に応じて少なくとも1つの候補視点を生成する。候補視点評価部422は、候補視点生成部421によって生成された候補視点に対して移動手段の特性に応じた評価を行い、決定視点を選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
条件取得部43は、計測における条件を取得して、その情報を視点決定部42に供給する。実施形態3では、移動手段情報取得部433が移動手段の特性の情報を取得し、取得した移動手段の特性の情報を視点決定部42に供給する。移動手段情報取得部433が取得する移動手段の特性の情報は、例えばURDF(Unified Robot Description Format)の設定ファイル等から求めることができる。実施形態3において移動手段の特性の情報には、例えば視点設定部3の移動可能範囲、移動精度、移動速度のいずれか1つ以上が含まれる。
[計測と視点決定処理]
以下、実施形態3の計測システムによる計測と視点決定処理を説明する。実施形態3では、後に場合分けして説明する移動手段の特性によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態3における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態3におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部43の移動手段情報取得部433における移動手段の特性の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S5では、視点決定部42は、データ取得部41から供給されたデータ処理後のデータと移動手段情報取得部433で取得された移動手段の特性とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部421によって候補視点を生成し、生成された候補視点を候補視点評価部422によって評価し、条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
次に、情報処理装置40の内部の動作に関して、移動可能範囲、移動精度、移動速度のそれぞれの移動手段の特性の情報が取得された場合の動作について、具体的な処理内容を順に説明する。
[特性1:移動可能範囲]
条件取得部43の移動手段情報取得部433において、視点設定部3の移動可能範囲が取得された場合には、計測対象物体5の全周からの三次元モデルを生成する際に、視点として選べる範囲が限定される。本計測において次に撮像する視点を選択する基準は、生成された候補視点を、視点設定部3が移動可能な範囲内にすることである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様に、ポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動可能範囲を示す情報が供給される。視点決定部42は、ポリゴンデータと移動可能範囲を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、得られた候補視点を移動可能範囲内に限定する方法を、図12を用いて説明する。図12に示すように、候補視点301a〜301cは、候補視点生成部421で生成された候補視点の視点位置(矢印と逆側の三角形の頂点の位置)と視線方向(矢印の方向)を示している。候補視点生成部421は、候補視点301aのように、移動可能範囲302内に生成された候補視点については、そのまま候補視点として利用する。撮像部301bのように、移動可能範囲302の外にある候補視点については、候補視点生成部421は、視線方向に沿って候補視点を移動させた場合に、候補視点301b’のように移動可能範囲302内に入れば、移動させた候補視点を新たな候補視点とする。一方、候補視点301cのように視線方向に沿って視点を移動させても移動可能範囲302内に入らない場合には、候補視点生成部421は、当該候補視点を候補視点から除外する。
候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が最大の候補視点を決定視点として選択する。すなわち、候補視点評価部422は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。ここでは評価値は、実施形態1と同様に、式(1)で計算する。この場合では、候補視点生成部421で生成された候補視点が、視点設定部3の移動可能範囲内に限定されているため、実施形態1の場合と比較して、パスプランニングの判定等の処理が必要なく、素早く次に撮像すべき撮像部2の視点を決定することができる。
[特性2:移動精度]
移動手段情報取得部433において、視点設定部3を移動させた際の視点位置姿勢の再現性の精度(移動精度)が取得された場合には、計測システムが想定している視点位置姿勢と、実際の視点位置姿勢との違いがどの程度あるかが既知となる。一般的に移動精度は位置や回転に関する移動が大きいほど悪くなる傾向がある。本計測において次に撮像する視点を選択する基準としては、移動を繰り返した際に、視点設定部3の移動精度がなるべく悪くならないようにすることである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様に、ポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。なお、移動精度に応じて視点の位置姿勢に誤差が生じるため、データ取得部41は、ICP等の位置合わせ手法を用いて点群の位置合わせを行う場合には、移動精度を考慮して行う。具体的には、データ取得部41は、移動精度に応じて、得られる三次元点群の最大ずれ量Tを求め、ICPにおいて対応する点であると見なす時の距離の差としてTを許容して位置合わせを行う。このように移動精度に応じた位置合わせを行うことで、移動精度が高い場合には、無駄な対応を計算する時間を省くことができ、移動精度が低い場合には、対応を見つけられず位置合わせに失敗することが少なくなる。
S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動精度を示す情報が供給される。視点決定部42は、ポリゴンデータと位置精度を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421が候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、候補視点生成部421は、移動精度が基準よりも高い場合には、得られた候補視点を外挿してさらに移動した場合の候補視点を生成する。移動精度が基準よりも低い場合には、候補視点生成部421は、得られた候補視点を内挿して移動変位を小さくした場合の候補視点を生成する。このような候補視点を追加することで、解の候補を適切に増やし、より良い視点を求めやすくなる。
候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値は、実施形態1と同様に、式(1)で計算する。この場合では、候補視点生成部321で生成された候補視点が、移動精度を考慮した質の良い視点であるため、実施形態1の場合と比較して、効率良く次に撮像すべき撮像部2の視点を求めることができる。
[特性3:移動速度]
移動手段情報取得部433において、視点設定部3を移動させる時の移動速度が取得された場合の動作を説明する。移動速度が速い場合には長い距離を移動する場合でも特に問題無いが、移動速度が遅い場合には、長い距離を移動させてしまうと、移動時間に多くの時間が割かれてしまう。そこで、本計測において次に撮像する視点を選択する基準は、視点設定部3の移動速度に基づいて、移動時間が基準値を超えないことである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
S5において、視点決定部42には、データ取得部41からポリゴンデータが供給され、条件取得部43から移動速度が供給される。視点決定部42は、ポリゴンデータと移動速度を示す情報とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部421で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、移動速度が基準よりも速い場合には、候補視点生成部421は、得られた候補視点を外挿してさらに移動した場合の候補視点を生成する。移動速度が基準よりも遅い場合には、候補視点生成部421は、得られた候補視点を内挿して移動変位を小さくした場合の候補視点を生成する。このような候補視点を追加することで、解の候補を適切に増やし、より良い視点が求めやすくなる。
候補視点評価部422は、候補視点生成部421によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、候補視点評価部422は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部422は、現在の視点qから候補視点pへの移動距離M(q、p)を求め、式(13)で評価値Eval(p)を計算する。
Figure 2017203701
ただし、vは視点設定部3の移動速度、Tは移動時間の許容範囲を表す閾値である。
候補視点評価部422が、式(13)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、移動時間が閾値を超える場合には評価値が大きく減点されるため、移動速度に応じて、移動時間が閾値を超えない範囲で適切な視点が選ばれやすくなる。候補視点評価部422は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮影すべき撮像部2の視点を決定する。なお、それぞれの重み値w、w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[複数の特性に応じた動作]
移動手段の複数の特性が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、移動可能範囲と移動速度の2つが与えられた場合は、候補視点生成部421が、既に述べたそれぞれの場合に基づいて候補視点群を生成し、さらに、移動可能範囲に基づいて候補視点を限定する。この上で、候補視点評価部422が、式(13)によって候補視点を評価して、次に撮像すべき撮像部2の視点とする。これにより、移動手段の複数の特性に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
以上のように、実施形態3では、取得された移動手段の特性の情報に基づいて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。このように決定された視点に撮像部2を移動させて撮像を繰り返していくことによって、移動手段が置き換えられたとしても、適切な計測を行うことができる。
<実施形態4>
実施形態4の計測システムは、ユーザからの計測指示の情報に応じて、計測対象物体を次に計測すべき適切な撮像部2の視点を決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、ユーザの意図を反映しながら計測を行うものである。実施形態1から3では、それぞれ用途、スペック要求、移動手段の特性に基づいて次に計測すべき視点を決定していたが、実施形態4では、ユーザが直接指定した領域や方向等の計測指示の情報に基づいて、計測対象物体を次に計測すべき視点を決定する。このため、ユーザの意図をより直接的に伝えて視点を求めることができる。実施形態4では、計測対象物体の三次元形状計測の用途を例に挙げて、ユーザからの計測指示の例として、計測対象物体上の注目領域、計測対象外領域(無視してよい領域)、注目方向の3つについて説明するが、実施形態4を適用可能なユーザからの計測指示はこれらに限定されない。
[装置の構成]
図13は、実施形態4に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置50とを備えている。実施形態4における計測システムは、実施形態2における図10の構成を一部変更したものであり、図13中の撮像部2、視点設定部3は、実施形態2と同じであり、同様の動作を行う。
実施形態4における情報処理装置50は、撮像部2から情報を取得するデータ取得部51と、撮像部2の視点を決定する視点決定部52と、計測条件を取得する条件取得部53とを備えている。データ取得部51は、例えば三次元形状計測等のデータ処理を実行する。視点決定部52は、データ取得部51から供給されたデータ処理後のデータと条件取得部53から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
視点決定部52は、候補視点を生成する候補視点生成部521と、候補視点生成部521によって生成された候補視点に対して評価を行う候補視点評価部522とを備えている。また、条件取得部53は、ユーザからの計測指示の情報を取得する計測指示情報取得部534を備えている。
実施形態4では、条件取得部53における計測指示情報取得部534で取得したユーザからの計測指示の情報に応じて情報処理装置50内部の動作を変化させる。このため、まずは情報処理装置50内部の動作の概略についてのみ説明し、その後で、ユーザからの計測指示ごとに場合分けして動作の詳細を説明する。
データ取得部51は、撮像部2からカラー画像と距離画像を受け取り、三次元形状計測のデータ処理を実行する。そして、データ取得部51は、データ処理後のデータを視点決定部52に供給する。
視点決定部52は、データ取得部51から供給されるデータ処理後のデータと、条件取得部53から供給されるユーザからの計測指示の情報とに応じて、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。具体的には、まず、候補視点生成部521がユーザからの計測指示の情報に応じて少なくとも1つの候補視点を生成する。候補視点評価部522は、補視点生成部521によって生成された候補視点に対してユーザの計測指示に応じた評価を行い、決定視点を選択する。候補視点評価部522は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
条件取得部53は計測指示の情報を取得して、取得した計測指示の情報を視点決定部52に送る。実施形態4では、計測指示情報取得部534がユーザからの計測指示を取得して、取得した条件指示を視点決定部52に供給する。計測指示情報取得部534が取得する計測指示の情報は、例えばタッチパネルに計測シーンを撮影した映像を表示させ、ユーザからの領域や方向の指示を入力することで取得することができる。ただし、例えば三次元形状計測の場合には、計測を終了する前に計測対象物体5の三次元モデルや全周からの映像を得ることは困難である。このため、ユーザが計測指示を入力する際には、実際の計測対象物体5ではなく、直方体や円柱等の簡易なモデルによって計測対象物体5を表現することによって、ユーザが注目領域等を容易に指定することができるようにしてもよい。実施形態4では、ユーザからの計測指示の情報には、計測対象物体上の注目領域、計測対象外領域、注目方向のいずれか1つ以上が含まれる。
[計測と視点決定処理]
以下、実施形態4の計測システムによる計測と視点決定処理を説明する。実施形態4では、後に場合分けして説明するユーザからの計測指示によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態4における処理全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。実施形態4におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部53の計測指示情報取得部534におけるユーザからの計測指示の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
S5では、視点決定部52は、データ取得部51から供給されたデータ処理後のデータと計測指示情報取得部534で得られたユーザからの計測指示とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部521によって候補視点を生成し、生成された候補視点を候補視点評価部522によって評価し、条件を満たす中で最も評価が高かった視点を決定視点として選択する。候補視点評価部522は、選択した視点を、次に撮像をすべき撮像部2の視点として視点設定部3に供給する。
なお、ここではS1でのみユーザからの計測指示が与えられるかのように説明したが、これに限定されるものではない。どのステップにおいても任意のタイミングにおいてユーザからの計測指示は指定可能であり、指定された次の候補視点生成処理においてユーザからの計測指示が反映されて候補視点が生成されるものとする。
次に、情報処理装置50の内部の動作に関して、計測対象物体上の注目領域、計測対象外領域、注目方向のそれぞれの計測指示の情報が得られた場合の動作について、具体的な処理内容を順に説明する。
[計測指示1:注目領域]
条件取得部53の計測指示情報取得部534において、計測対象物体5上の注目領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは注目領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目領域の表面をなるべく観測することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、またはユーザ指定の注目領域が無いかを確認して判定するようにしてもよい。終了判定部は、途切れている箇所や穴、またはユーザ指定の注目領域が無い場合に計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目領域が供給される。視点決定部52は、ポリゴンデータと注目領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目領域を計測できる候補視点を生成する。
候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部522は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。ここでは候補視点評価部522は、まず、実施形態1と同様にボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部522は、候補視点pから観測可能なユーザ指定の注目領域の面積S(p)を求め、式(14)で評価値を計算する。
Eval(p)=wV(p)+wE(p)+wS(p) (14)
候補視点評価部522が、式(14)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザ指定の注目領域が存在する場合には、注目領域の表面を観測できる視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[計測指示2:計測対象外領域]
条件取得部53の計測指示情報取得部534において、計測対象外領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは計測対象外領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した計測対象外領域の表面を評価値計算から除外することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、およびユーザが指定した計測対象外領域を確認することによって判定してもよい。計測対象外領域の外に途切れている箇所や穴が無い場合には、終了判定部は、計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から計測対象外領域が供給される。視点決定部52は、ポリゴンデータと計測対象外領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。
候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、実施形態1と同様に、候補視点評価部522が、ボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)を求め、それらのうち計測対象外領域に含まれない数V’(p)を求める。ポリゴンデータにおいても同様に、候補視点評価部522が、候補視点pから観測可能な未接続エッジの数E(p)を求め、それらのうち計測対象外領域に含まれない数E’(p)を求める。候補視点評価部522は、求めたボクセルの数V’(p)と未接続エッジの数E’(p)を用いて式(15)で評価値を計算する。
Eval(p)=wV’(p)+wE’(p) (15)
候補視点評価部522が、式(15)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザが指定した計測対象外領域が存在する場合には、計測対象外領域の中で途切れている箇所や穴の空いている領域は評価から除外して、計測対象外領域以外の領域に基づいて定めた視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[計測指示3:注目方向]
条件取得部53の計測指示情報取得部534において、計測対象物体5を注目すべき方向がユーザからの計測指示として取得された場合の動作を説明する。ここでは注目方向は空間ベクトルとして指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目方向と同じ方向の視点であることである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
計測の終了は、図示しない終了判定部が、データ取得部51からポリゴンデータを受け取り、途切れている箇所や穴、またはユーザ指定の注目方向が無いかを確認することによって判定してもよい。終了判定部は、途切れている箇所や穴、またはユーザ指定の注目方向が無い場合には計測を終了させる。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目方向が供給される。視点決定部52は、ポリゴンデータと注目方向とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目方向と同じ視線方向をもつ候補視点を生成する。
候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、候補視点評価部522は、まず、実施形態1と同様に、ボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部522は、式(16)を用いて評価値を計算する。
Figure 2017203701
候補視点評価部522が、式(16)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、ユーザ指定の注目方向が存在する場合には、注目方向と同じ視線方向の視点が選択されやすくなる。候補視点評価部522は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。それぞれの重み値w,w、wは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
[複数の条件指示に応じた動作]
ユーザからの計測指示が複数ある場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、注目領域と計測対象外領域の2つが与えられた場合は、候補視点生成部521が、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部522は、式(14)と式(15)を組合せた式(17)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の計測指示に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
Eval(p)=wV’(p)+wE’(p)+wS’(p) (17)
ただし、S’(p)は候補視点pからユーザ指定の注目領域のうち、計測対象外領域には含まれていない領域の表面の観測可能な面積を表す。
実施形態4では、ユーザからの計測指示の情報に応じて、計測対象物体を次に撮像すべき計測装置(撮像部2)の視点を適切に決定することができる。このように求めた視点に撮像部2を移動させて撮像を繰り返していくことによって、ユーザの意図を反映した計測を行うことができる。
<変形例>
[条件取得部が複数の取得部を備える場合]
実施形態1から実施形態4では、いずれも条件取得部がある一つの計測条件を取得する取得部を備える場合について説明した。しかし、条件取得部が備える取得部の数は1つに限定されるものではなく、用途取得部、スペック要求取得部、移動手段情報取得部、計測指示情報取得部のうちの複数を含んでいてもよい。その場合も実施形態1における図4と同様のフローチャートによって処理を行うことができる。情報処理装置内部の処理についても、実施形態1から実施形態4で説明した処理を組合せればよい。
例えば、図14に示すように、条件取得部63が、用途取得部631、スペック要求取得部632、移動手段情報取得部633、計測指示情報取得部634の4つを備える構成について説明する。計測条件として、例えば用途として三次元形状計測、優先すべきスペック要求として精度、移動手段の特性として移動可能範囲と移動速度、ユーザからの計測指示として注目方向が与えられる場合を想定する。この場合、候補視点生成部621は、各計測条件の項目によって候補視点を生成し、候補視点評価部622は、移動可能範囲による条件を満たす候補視点だけを選択し、選択した候補視点の中で、評価値を組み合わせた式(18)によって候補視点を評価する。
Figure 2017203701
このように、複数の計測条件を取得する取得部を組合せることにより、多様な計測条件に応じて、計測対象物体を次に計測すべき計測装置の視点を適切に決定することができる。これにより、ユーザからの計測に関する複雑な要望に応える計測を行うことができる。
[条件取得部の条件を途中で変更する場合]
実施形態1から実施形態4では、いずれも条件取得部が最初に取得した計測条件に従って計測が終了するまで同じ評価式を用いて視点を決定する動作について説明した。しかし、条件取得部が計測の途中で計測条件を取得し、適宜変更しながら計測を行ってもよい。例えば、三次元計測の用途において、最初は速度優先のスペック要求を計測条件として計測を行い、一定時間が経過、または計測がある段階まで進んだら、複雑度優先のスペック要求とユーザからの条件指示である注目領域に基づく計測条件に変更してもよい。このように途中で条件を変更しながら計測を行うことで、よりユーザの要望に柔軟に対応しながら計測を行うことができる。
[計測対象物体を動かす場合]
実施形態1から実施形態4では、いずれも撮像部2が視点設定部3に取り付けられており、視点設定部3によって撮像部2の視点を変化させる例について説明した。しかし、視点設定部が移動させるのは撮像部に限定されるものではなく、視点設定部が計測対象物体を移動させるようにしてもよい。計測対象物体を移動させる場合には、例えば、視点設定部としてロボットハンドを用いて、ロボットハンドが計測対象物体を把持し、撮像部の前で姿勢を変化させることで計測対象物体を複数の視点から計測することができる。撮像部を固定し、視点設定部を用いて計測対象物体の方を動かすことによって、巨大または重量のあるような撮像部であっても、多視点からの計測が可能となる。また、撮像部と計測対象物体の両方を異なる2つのロボットハンドからなる視点設定部によって動かしながら計測すれば、片方だけを動かす場合と比べて半分の移動距離で目的の視点に移動できるため、計測完了までの時間を短縮することができる。
[視点設定部が人を誘導する場合]
実施形態1から実施形態4では、いずれも視点設定部はロボットアームのような移動制御可能な機械である場合について述べた。しかし、視点設定部は移動制御可能な機械に限定されるものではなく、人を誘導することによって代替手段としてもよい。視点設定部が人を誘導する場合には、視点設定部はディスプレイ等に移動する方向や距離を表示することで、人の動きを誘導してやればよい。なお、人の動きを誘導する方法はディスプレイに限定されるものではない。例えば音の高低、大小、リズム等によって正しい移動かどうかを提示してもよいし、振動や刺激によって誘導するようにしてもよい。
[通信部を用いたパラメータの共有]
実施形態1から実施形態4では、いずれも情報処理装置には撮像部2と視点設定部3が接続された例について述べたが、図15に示すように、情報処理装置70にさらに通信部4が接続されるようにしてもよい。通信部4は様々な計測条件や計測対象物体に対して、計測を行った際に評価値の計算式において用いた重みパラメータと計測結果の良し悪しに関するデータを外部と共有する機能を有する。本計測システムを多数設け、様々な計測条件や計測対象物体を計測した際の重みパラメータと計測結果をネットワークで接続されたサーバ等に集めることにより、パラメータと計測結果の関係性を求めることができる。この関連性を用いることにより、ユーザが初めて計測する計測対象物体に対して、ユーザが選んだ計測条件において、最も効果的な重みパラメータをサーバ等から取得して用いれば、ユーザが重みパラメータの調整を明示的に行うことなく効果的な計測を実行できる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1…情報処理装置、2…撮像部、3…視点設定部、5…計測対象物体、11…データ取得部、12…視点決定部、13…条件取得部

Claims (15)

  1. 対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得する第1の取得手段と、
    前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、
    前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、前記対象物体を次に計測すべき前記計測手段の視点を決定する決定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記第2の取得手段は、前記計測手段により前記対象物体を計測する用途の情報を取得し、前記決定手段は、前記第2の取得手段により取得された前記用途の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2の取得手段により取得される前記用途の情報は、前記対象物体についての、三次元形状計測、欠陥検査、特定物体認識および人物監視のいずれか1つ以上を含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記第2の取得手段は、前記計測手段による前記対象物体の計測において優先されるべき仕様の情報を取得し、
    前記決定手段は、前記第2の取得手段により取得された前記仕様の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記仕様の情報は、前記対象物体の計測における精度、速度および複雑度のいずれか1つ以上を含むことを特徴とする請求項4に記載の情報処理装置。
  6. 前記第2の取得手段は、前記計測手段を、前記対象物体を計測する視点へ移動させる移動手段の特性の情報を取得し、
    前記決定手段は、前記第2の取得手段により取得された前記移動手段の特性の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記移動手段の特性の情報は、前記計測手段の移動可能範囲、移動精度および移動速度のいずれか1つ以上を含むことを特徴とする請求項6に記載の情報処理装置。
  8. 前記第2の取得手段は、ユーザからの計測指示の情報を取得し、
    前記決定手段は、前記第2の取得手段により取得された前記計測指示の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記計測指示の情報は、前記対象物体上の注目領域、計測対象外領域および注目方向のいずれか1つ以上を含むことを特徴とする請求項8に記載の情報処理装置。
  10. 前記決定手段は、前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、前記次に計測すべき前記計測手段の複数の候補視点を生成し、
    前記情報処理装置はさらに、前記複数の候補視点に、前記第2の取得手段により取得された前記計測条件に対応する評価関数を適用して、前記複数の候補視点から1つ以上の視点を選択する選択手段を備える、
    ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
  11. 前記計測手段の視点に基づいて前記計測手段の位置姿勢を設定する設定手段に、前記決定手段が決定した前記次に計測すべき前記計測手段の視点を出力する出力手段をさらに備え、
    前記第1の取得手段による前記計測データの取得と、前記決定手段による前記次に計測すべき前記計測手段の視点の決定と、前記出力手段による前記次に計測すべき前記計測手段の視点の出力とを繰り返す、ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記計測データに基づいて、前記決定手段による前記次に計測すべき前記計測手段の視点の決定の終了条件を判定する判定手段をさらに備えることを特徴とする請求項11に記載の情報処理装置。
  13. 対象物体を複数の視点から計測して計測データを出力する計測手段と、
    前記計測手段から出力される前記計測データを処理する請求項1から12のいずれか1項に記載の情報処理装置と、
    前記情報処理装置の決定手段により決定される前記次に計測すべき前記計測手段の視点に基づいて、前記計測手段の位置姿勢を設定する設定手段と、
    を備えることを特徴とする計測システム。
  14. 対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得するステップと、
    前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得するステップと、
    前記取得した計測データと前記取得した計測条件とに基づいて、前記対象物体を次に計測すべき前記計測手段の視点を決定するステップと、
    を備えることを特徴とする情報処理方法。
  15. コンピュータを、請求項1〜12のいずれかに記載された情報処理装置の各手段として機能させるためのプログラム。
JP2016095721A 2016-05-12 2016-05-12 情報処理装置、計測システム、情報処理方法およびプログラム Active JP6821326B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016095721A JP6821326B2 (ja) 2016-05-12 2016-05-12 情報処理装置、計測システム、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016095721A JP6821326B2 (ja) 2016-05-12 2016-05-12 情報処理装置、計測システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017203701A true JP2017203701A (ja) 2017-11-16
JP6821326B2 JP6821326B2 (ja) 2021-01-27

Family

ID=60323184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016095721A Active JP6821326B2 (ja) 2016-05-12 2016-05-12 情報処理装置、計測システム、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6821326B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945780A (zh) * 2017-12-21 2019-06-28 发那科株式会社 物体检查系统以及物体检查方法
WO2021039088A1 (ja) * 2019-08-28 2021-03-04 パナソニックIpマネジメント株式会社 撮像パラメータ出力方法、及び、撮像パラメータ出力装置
JP2021520584A (ja) * 2018-06-06 2021-08-19 ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. 住宅のデータ収集およびモデル生成方法
JP2021520583A (ja) * 2018-06-06 2021-08-19 ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. 仮想現実モデル内の穴を埋めるためのシステム及び方法
JP7412983B2 (ja) 2019-02-04 2024-01-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213943A (ja) * 2001-01-16 2002-07-31 Mitsutoyo Corp 表面性状測定システム及び方法
JP2007003285A (ja) * 2005-06-22 2007-01-11 Konica Minolta Sensing Inc 3次元測定システム
JP2010184300A (ja) * 2009-02-10 2010-08-26 Seiko Epson Corp 姿勢変更システムおよび姿勢変更方法
JP2010256276A (ja) * 2009-04-28 2010-11-11 Mitsubishi Electric Corp 三次元形状計測装置及び計測方法
JP2011198349A (ja) * 2010-02-25 2011-10-06 Canon Inc 情報処理方法及びその装置
US20130329013A1 (en) * 2012-05-11 2013-12-12 Proiam, Llc Hand held dimension capture apparatus, system and method
JP2014010559A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 計測支援装置、方法及びプログラム
JP2015069253A (ja) * 2013-09-27 2015-04-13 株式会社リコー 個体状態判定装置、個体状態判定方法および個体状態判定プログラム
JP2015085493A (ja) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 ロボット、処理装置及び検査方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213943A (ja) * 2001-01-16 2002-07-31 Mitsutoyo Corp 表面性状測定システム及び方法
JP2007003285A (ja) * 2005-06-22 2007-01-11 Konica Minolta Sensing Inc 3次元測定システム
JP2010184300A (ja) * 2009-02-10 2010-08-26 Seiko Epson Corp 姿勢変更システムおよび姿勢変更方法
JP2010256276A (ja) * 2009-04-28 2010-11-11 Mitsubishi Electric Corp 三次元形状計測装置及び計測方法
JP2011198349A (ja) * 2010-02-25 2011-10-06 Canon Inc 情報処理方法及びその装置
US20130329013A1 (en) * 2012-05-11 2013-12-12 Proiam, Llc Hand held dimension capture apparatus, system and method
JP2014010559A (ja) * 2012-06-28 2014-01-20 Toshiba Corp 計測支援装置、方法及びプログラム
JP2015069253A (ja) * 2013-09-27 2015-04-13 株式会社リコー 個体状態判定装置、個体状態判定方法および個体状態判定プログラム
JP2015085493A (ja) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 ロボット、処理装置及び検査方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945780A (zh) * 2017-12-21 2019-06-28 发那科株式会社 物体检查系统以及物体检查方法
JP2019113348A (ja) * 2017-12-21 2019-07-11 ファナック株式会社 物体検査システム及び物体検査方法
US10607337B2 (en) 2017-12-21 2020-03-31 Fanuc Corporation Object inspection system and object inspection method
CN109945780B (zh) * 2017-12-21 2020-10-16 发那科株式会社 物体检查系统以及物体检查方法
JP2021520584A (ja) * 2018-06-06 2021-08-19 ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. 住宅のデータ収集およびモデル生成方法
JP2021520583A (ja) * 2018-06-06 2021-08-19 ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. 仮想現実モデル内の穴を埋めるためのシステム及び方法
JP7412983B2 (ja) 2019-02-04 2024-01-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021039088A1 (ja) * 2019-08-28 2021-03-04 パナソニックIpマネジメント株式会社 撮像パラメータ出力方法、及び、撮像パラメータ出力装置

Also Published As

Publication number Publication date
JP6821326B2 (ja) 2021-01-27

Similar Documents

Publication Publication Date Title
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6821326B2 (ja) 情報処理装置、計測システム、情報処理方法およびプログラム
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5548482B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
US9672630B2 (en) Contour line measurement apparatus and robot system
CN105359163B (zh) 用于将基元形状拟合到3d点的集合的方法
US8792726B2 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
JP5198883B2 (ja) 腫瘍領域サイズ測定方法および装置ならびにプログラム
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP5801237B2 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP6723798B2 (ja) 情報処理装置、方法、プログラム
US20180290300A1 (en) Information processing apparatus, information processing method, storage medium, system, and article manufacturing method
CN102713975B (zh) 图像整理系统、图像整理方法和计算机程序
JP6817742B2 (ja) 情報処理装置およびその制御方法
EP2372652A1 (en) Method for estimating a plane in a range image and range image camera
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN112883920A (zh) 基于点云深度学习的三维人脸扫描特征点检测方法和装置
Eastwood et al. Autonomous close-range photogrammetry using machine learning
JP2021063774A (ja) 体重推定装置
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
JP6306903B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201111

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210106

R151 Written notification of patent or utility model registration

Ref document number: 6821326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151