JP2017203701A - 情報処理装置、計測システム、情報処理方法およびプログラム - Google Patents
情報処理装置、計測システム、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017203701A JP2017203701A JP2016095721A JP2016095721A JP2017203701A JP 2017203701 A JP2017203701 A JP 2017203701A JP 2016095721 A JP2016095721 A JP 2016095721A JP 2016095721 A JP2016095721 A JP 2016095721A JP 2017203701 A JP2017203701 A JP 2017203701A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- measurement
- unit
- candidate
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
移動させる方法等がある。
一方、計測結果等から次に計測すべき視点を自動的に生成することを目的とした技術がネクスト・ベスト・ビュー(Next Best View:NBV)として知られている。この技術は、例えば、距離センサ付きのロボットアームを用いて対象物体表面の三次元形状を撮像して漏れなく自動的に計測するために、対象物体をどこから計測するかとの距離センサの視点を求める場合等に応用される。
特許文献1は、複雑な形状の測定対象を高精度に計測するため、光切断を行う光学プローブから得られた画像データに基づき測定領域の位置情報を算出し、この測定領域の位置情報をもとに光学プローブの移動(スキャン)方向を決める技術を開示する。
本発明は上記課題に鑑みてなされたものであり、多様な計測条件に応じて、対象物体を次に計測すべき計測装置の視点を適切に決定することを目的とする。
<実施形態1>
実施形態1に係る計測システムは、計測条件のうち、計測対象物体を計測する用途に応じて、計測対象物体を次に計測すべき計測装置(撮像部)の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測(撮像)を行うことによって、用途に応じた計測を行うものである。実施形態1に係る計測システムでは、計測対象物体を計測する用途を、複数の用途の中からユーザに選択させることにより、ユーザの要求に応える計測が可能である。計測対象物体の計測には、例えば計測対象物体の撮像が含まれるが、計測対象物体上の点群の座標の計測等も含まれる。
実施形態1では、複数の用途の例として、計測対象物体の三次元形状計測、欠陥検査、特定物体認識、人物監視の4つの用途を選択可能な場合について説明するが、実施形態1を適用可能な計測の用途はこれらに限定されない。
図1は、実施形態1に係る計測システムの構成例を示すブロック図である。この計測システムは、計測対象物体5を撮像して画像データや関連情報を出力する撮像部2と、撮像部2が計測対象物体5を撮像する視点を設定する視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置1とを備えている。情報処理装置1は、撮像部2と視点設定部3とにそれぞれ接続されている。
図2の概略図に示すように、撮像部2は、例えばカメラにより構成され、計測対象物体5を様々な複数の視点から計測するために、視点設定部3に取り付けられている。撮像部2が出力する計測データは、例えば計測対象物体5を撮像したカラー画像と距離画像である。ただし、撮像部2が出力する計測データはこれらに限定されるものではなく、カラー画像または距離画像のいずれか一方でもよいし、その他モノクロ画像や距離点群あるいは計測対象物体上の点群の座標等でもよい。すなわち、計測データは画像に限られず、撮像部2は、計測対象物体を複数の視点から計測した計測データを出力するものであればよい。
視点設定部3は、例えば図2に示すロボットアーム3aと、このロボットアーム3aを制御する図示しないアーム制御部とを備えている。ロボットアーム3aの先端には撮像部2が取り付けられている。アーム制御部は、情報処理装置1から計測対象物体5を次に撮像すべき撮像部2の視点を受信し、次に撮像すべき視点から撮像部2が撮像できるようにロボットアーム3aを制御して撮像部2を移動させる。すなわち、視点設定部3は、受信した視点に基づいて撮像部2の位置姿勢を設定する。また、視点設定部3は、移動した撮像部2の視点を特定する位置姿勢情報(以下、「視点位置姿勢情報」と称する。)を情報処理装置1のデータ取得部11に供給する。
情報処理装置1は、データ取得部11と、視点決定部12と、計測対象物体5を計測する用途を含む計測条件を取得する条件取得部13とを備えている。
データ取得部11は、撮像部2から供給されたカラー画像、距離画像および視点設定部3から供給された視点位置姿勢情報を用いて用途に応じたデータ処理を行う。視点決定部12は、次に撮像すべき視点を決定し、視点設定部3に供給する。
視点決定部12は、データ取得部11から供給されたデータから、撮像部2の視点を決定する。視点決定部12は、候補視点を生成する候補視点生成部121と、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行う候補視点評価部122とを備えている。
条件取得部13は、計測対象物体5を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する。実施形態1においては、条件取得部13は、計測対象物体5を計測する用途の情報を取得する用途取得部131を備えている。
データ取得部11は、撮像部2からカラー画像と距離画像を受け取り、用途に応じたデータ統合処理等のデータ処理を実行して出力結果を生成する。そして、データ取得部11は、出力結果を視点決定部12に供給する。
視点決定部12は、データ取得部11から供給される出力結果と、条件取得部13から供給される用途とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。視点決定部12は、決定した視点を視点設定部3に供給する。
具体的には、候補視点生成部121が、撮像部2の解像度や画角、被写界深度等のセンサ情報に基づいて、用途に応じた少なくとも1つの候補視点を生成する。候補視点評価部122は、候補視点生成部121によって生成された候補視点に対して用途に応じた評価を行い、決定視点を選択する。候補視点評価部122は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
実施形態1において用途取得部131が用途を取得する方法は、図示しないタッチディスプレイに各用途に対応する画像を表示させ、ユーザに用途を選択させる方法であってよい。ただし、用途を取得する方法はこの例に限定されるものではなく、用途取得部131が、ユーザからの音声入力によって用途を取得するようにしてもよい。あるいは、例えば3Dプリンタ等の他の装置と接続されている場合には、接続されている装置に応じて、用途取得部131が自動的に用途を判断して選択するようにしてもよい。これにより、例えば3Dプリンタ等が接続されている場合には、用途取得部131が自動的に用途を判断して三次元形状計測を用途として選択する。
入力部25は、撮像部2から入力した情報をRAM23あるいは外部メモリ24の所定の領域に格納する。出力部26は、CPU21が決定した次に撮像すべき視点を視点設定部3に供給する。
図4は、図1の計測システムにより実行される計測および視点決定処理の詳細を示すフローチャートである。図4のフローチャートは、情報処理装置1が備えるCPU21が、ROM22等に記憶されるプログラムを実行することにより処理される。この処理は、計測対象物体5の計測処理の実行が指示されている間に実行される処理であり、例えばユーザが図示しない計測開始ボタンを押すことによって開始される処理である。
以下、図4のフローチャートにより実施形態1の計測システムによる計測と視点決定処理を説明する。実施形態1では、後に場合分けして説明する用途によらず、全体の処理の流れについては同じ図4のフローチャートを用いて説明する。
S2では、撮像部2は、現在位置する視点から計測対象物体5を撮像して、カラー画像および距離画像を取得する。そして、撮像部2は、取得したカラー画像および距離画像をデータ取得部11に供給する。また、視点設定部3は、視点位置姿勢情報をデータ取得部11に供給する。
実施形態1において「用途に応じたデータ処理」は、後述のように、三次元形状計測、欠陥検査、特定物体認識、人物監視の各用途に応じたデータ処理であり、詳細は後述する。なお、このデータ処理を実行する機能は、データ取得部11とは別の機能部として設けてもよいし、情報処理装置1の外部に設けてもよい。あるいは、データ処理を実行する機能を撮像部2の機能として設け、データ処理の結果を、計測データとしてデータ取得部111に供給するようにしてもよい。
S5では、視点決定部12は、データ取得部11から供給されたデータ処理後のデータと用途取得部131が取得した用途とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、視点決定部12において、候補視点生成部121が、1または複数の候補視点を生成する。また、候補視点評価部122が、生成された候補視点を評価し、条件を満たす中で最も評価が高かった視点を決定視点として選択する。視点決定部12は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
なお、以上では、S4において、計測終了ボタンが押されているか否かで計測の終了を判定する例について述べたが、これに限定されるものではない。例えば、図示しない終了判定部がデータ取得部11から得られたデータと用途に基づいて終了すべきかどうかを判定するようにしてもよい。すなわち、終了判定部が、計測データに基づいて、視点の決定の終了条件を判定する。
[用途1:三次元形状計測]
条件取得部13の用途取得部131において計測の用途として三次元形状計測が取得された場合には、データ取得部11は、計測対象物体5の全周からの三次元モデルを生成する。本計測において次に計測(撮像)する視点を選択する基準は、三次元モデルにおいて形状が途切れている箇所や穴が無くなるようにすることである。
具体的には、この三次元形状計測では、データ取得部11は、撮像部2から受け取ったカラー画像と距離画像と、視点設定部3から得られる視点位置姿勢情報とを用いて、計測された三次元点群の計測対象物体5の座標系における位置を求める。
また、視点設定部3のロボットアーム3aの位置姿勢の制御によっては、視点位置姿勢情報に誤差が含まれている。このため、データ取得部11は、得られた三次元点群にずれが生じる場合には、ICP(Iterative Closest Point)等の位置合わせ手法を用いて点群の位置合わせを行った上で、点群を統合する。
また、計測の終了は、図示しない終了判定部が、データ取得部11からポリゴンデータを受け取り、この終了判定部が、ポリゴンデータに途切れている箇所や穴が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、途切れている箇所や穴がある場合には、次の視点を決定するように視点決定部12に指示し、途切れている箇所や穴が無い場合には、計測を終了させてもよい。
ここで、距離画像からは一番手前の物体の表面上の点群しか求めることができず、影になった部分の点群は求めることができない。このため、限定された数の視点からの距離画像だけでは、計測対象物体5のポリゴンデータに、途切れている箇所や穴が生じる場合がある。したがって、候補視点生成部121は、ポリゴンデータにおいて途切れている箇所や穴がある場所を特定する。
このようなポリゴンデータ中において、例えば図5(B)に太線で示すように、メッシュが途切れている箇所5Gや穴5Fがある場所では、面の頂点と頂点を結ぶエッジに対して、片側にしか面が存在していない。そこで、視点決定部12は、ポリゴンデータにおいて、エッジの片側にしか面が存在しないエッジ(未接続エッジ)を見つけ出すことで、途切れている箇所や穴を検出する。
なお、途切れている箇所5Gや穴5Fの領域における計測対象物体5の形状は未知である。このため、図7に示すように、候補視点生成部121が、途切れている箇所5Gや穴5Fの領域を観測する方向や視点までの距離を変化させた複数の候補視点202a、202b、202c...を生成するようにしてもよい。すなわち、計測データと、計測条件とに基づいて、計測対象物体を次に計測すべき撮像部2の複数の候補視点を生成してもよい。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。すなわち、候補視点評価部122は、複数の候補視点に、計測条件に対応する評価関数を適用して、複数の候補視点から1つ以上の視点を選択する。
各ボクセルは「占有」、「空」、「未知」の3つの状態を持ち、最初は図9(A)に示すように、全てが「未知」の状態(図9(A)では「未」と略記。)である。なお、この図9(A)は、説明のために1ボクセル分の水平面について図示したものであり、実際にはこのような水平面が高さ方向に重なった状態でボクセルが定義されている。
距離点群が供給されると、候補視点評価部122は、図9(C)に示すように、ボクセル空間において距離点群が観測されたボクセル(210a、210b)の状態を「未知」から「占有」(図9(C)では「占」と略記。)に変更する。また、候補視点評価部122は、観測値が得られなかった方向のボクセル210dの状態や、撮像部2から距離点群が観測されたボクセルまでの間にあるボクセル210cの状態を「未知」から「空」に変更する。
Eval(p)=wVV(p)+wEE(p) (1)
候補視点評価部122が、この式(1)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
具体的には、パスプランニングの判定におけるシミュレーションでは、候補視点評価部122は、視点設定部3の可動範囲、計測対象物体5や背景との干渉等に基づいて、現在の視点から候補視点pへの移動が可能であるかを判定する。
ただし、ここでは例えば各重み値wV=wE=1とするが、重み値はこれに限定されるものではない。重み値wVおよびwEとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
用途取得部131において、計測の用途として欠陥検査が取得された場合には、データ取得部11は、計測対象物体5を全周から観測して、計測対象物体5の表面におけるキズの有無を判定する。本計測において次に計測(撮像)する視点を選択する基準は、三次元形状計測と同様に途切れている箇所や穴が無いことだけでなく、キズであるかどうかを断定するために、複数回異なる視点からキズであるかどうかを確かめるようにすることである。
具体的には、データ取得部11は、三次元形状計測の場合と同様にしてポリゴンデータを生成し、さらに撮像部2から受け取ったカラー画像に対してキズ判別処理を行い、キズであると判別した領域を計測対象物体5のポリゴンデータ上にマッピングする。キズ判別処理は、データ取得部11が、例えば予め準備しておいたキズのテンプレート画像とのテンプレートマッチングによって行う。なお、キズ判別処理は、これに限定されるものではなく、エッジ検出等を用いてキズを判別するようにしてもよい。
キズ度合いR(t)は計測を開始する前は全ての領域で1.0という初期値であり、キズ判別によってキズでないと判別された領域のキズ度合いR(t)には、Aを乗じる。一方、キズであると判別された領域のキズ度合R(t)には、1/Aを乗じる。
データ取得部11は、例えば、キズ度合いが閾値Tu=Aαを超えた領域はキズであると断定し、キズ度合いが閾値Tb=1/Aαを下回った領域はキズではないと断定する。なお、Aは1.0より大きな任意の数であり、ここでは例えばA=2.0とする。また、αは自然数であり、ここでは例えばα=2とする。データ取得部11は、キズ度合いをマッピングしたポリゴンデータを視点決定部12に送る。
一方、途切れている箇所や穴が無い場合には、終了判定部は、計測対象物体5の物体表面上でキズであるかどうかを断定できていない領域の有無を確認し、もし、断定できていない領域がある場合には、次の視点を決定するように視点決定部12に指示する。逆に、キズであるかどうかを断定できていない領域が無い場合には、終了判定部は、計測を終了させる。
視点決定部12は、ポリゴンデータと用途の情報から、次に撮像すべき視点を2段階の処理で決定する。まず、候補視点生成部121は、三次元形状計測の場合と同様に、途切れている箇所や穴の領域を無くすように候補視点を生成する。次に、候補視点生成部121は、キズかどうか断定できていない領域を無くすように候補視点を生成する。候補視点生成部121は、キズ度合いがマッピングされたポリゴンデータにおいて、マッピングを行う最小単位領域tごとにキズ度合いR(t)の値が、Tb<R(t)<Tuの条件を満たす領域tを特定する。
候補視点評価部122は、候補視点生成部121によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは評価値の計算方法として、三次元形状計測の場合と同様に、ボクセルを用いた方法を用いる。さらに、ポリゴンデータが生成された領域では、マッピングされたキズ度合いによる評価を行う。まず、候補視点評価部122は、候補視点pから観測可能な領域tの集合Θ(p)に対して、式(2)によってキズ度合いの判断指数D(p)を計算する。
Eval(p)=wVV(p)+wEE(p)+wDD(p) (4)
候補視点評価部122が式(4)を用いて候補視点を評価することにより、未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域や、キズであるかどうかの断定ができていない領域を観測可能な候補視点の評価値が高くなる。これにより、このような候補視点が次に撮像すべき視点として選ばれやすくなる。
用途取得部131において、特定物体認識が取得された場合には、データ取得部11は、計測対象物体5をある視点から観測して、予め定められている複数の物体モデルの中で、計測対象物体5がどのモデルに該当する物体であるかを分類する。すなわち、データ取得部11は、観測した計測対象物体5が、どのモデルの物体と同じ物体であるかを分類する。本計測において次に計測する視点を選択する基準は、計測対象物体5に固有の特徴的な幾何形状やテクスチャ等を、様々な視点から観測することである。
そして、データ取得部11は、検出した特徴点に対して、物体認識対象のモデルデータとマッチングを行って、類似度が高いモデルを選択する。類似度が高いモデルをただ一つ選択することができた場合は、そのモデルが認識結果となる。一方、類似度が高いモデルが存在しない場合や、複数のモデルにおいて類似度が高い場合には、データ取得部11は、次の視点で観測した結果も利用して認識結果を判断する。特徴点検出は例えばSURF(Speed−Up Robust Features)特徴量を用いるが、これに限定されるものではなく、他の特徴量を用いてもよい。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った各モデルにおける認識確率を確認して判定するようにしてもよい。終了判定部は、最も認識確率の高いモデルの確率が閾値TMを超えた時、そのモデルを認識結果として計測を終了させる。一方、どのモデルも認識確率が閾値TMを超えない場合には、終了判定部は、次の視点を決定するように視点決定部12に指示する。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値wF=wd=1とするが、重み値はこれに限定されるものではなく、重み値wF、wdとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
用途取得部131において、人物監視が取得された場合には、データ取得部11は、計測対象である人を指定したエリア内でトラッキングするように観測する。
本計測において次に計測する視点を選択する基準としては、計測対象である人が動いている方向から、次に到達する位置を予測して、その位置を観測することである。
具体的には、データ取得部11は、撮像部2からのカラー画像と距離画像から、人物領域を切り出して、人物の行動を分類し、正常か異常かを判断する。人物の行動を分類する方法は、例えば、人体の関節モデルを当てはめて行動と対応付けてもよいし、ディープ・ラーニング(Deep Learning)等の識別器を用いてたくさんの事例との適合度から推定してもよい。
人物監視用途の場合は、時系列のデータを統合する必要は無く、各データの分類と正常・異常のみを判断していればよい。データ取得部11は、人体の関節モデルと分類結果を視点決定部12に供給する。
計測の終了は、図示しない終了判定部が、データ取得部11から受け取った分類結果を確認して判定するようにしてもよい。終了判定部は、一定時間、人物が検出されなくなったら計測の終了を指示する。または、別途ユーザから指定された期間、監視を行ったら計測を終了させるようにしてもよい。終了判定部は、終了しない場合には、次の視点を決定するように視点決定部12に指示する。
三次元形状計測の場合と同様に、候補視点評価部122は、候補視点のうち、評価値Eval(p)の高い候補視点から順にパスプランニング判定を行い、次に撮像すべき視点を選択して、視点設定部3に供給する。なお、ここでは重み値wk=1とするが、重み値の値はこれに限定されるものではなく、重み値wkは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
複数の用途のための次に撮像すべき視点を求めることも可能である。例えば、三次元形状計測と特定物体認識の2つの用途を実現したい場合は、候補視点生成部121は、既に述べたそれぞれの用途における処理に基づいて候補視点群を生成する。そして、候補視点評価部122は、式(1)と式(6)を組合せた式(8)によって評価値Eval(p)を求めて各候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の用途に応じて、次に撮像すべき視点を適切に決定することができる。
実施形態2に係る計測システムは、計測の用途に関するスペック要求に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、スペック要求に応じた適切な計測を行うことができる。ここで、「スペック要求」とは、用途に応じた、計測対象物体の計測において優先されるべき仕様の項目ないしファクタである。
実施形態1では複数の用途に応じて、次に計測すべき適切な視点を決定していたが、実施形態2では精度や速度等の複数のスペック要求に応じて次に計測すべき視点を決定する。そのため、計測の用途が決まっている場合であっても、用途に関するスペック要求に応える計測が可能である。実施形態2では、計測対象物体の三次元形状計測の用途を例に挙げて、複数のスペック要求の例として、精度、速度、複雑度、の3つのスペック要求を選択可能な場合について説明するが、実施形態2を適用可能なスペック要求はこれらに限定されない。
図10は、実施形態2に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置30とを備えている。実施形態2における計測システムは、実施形態1における図1の構成を一部変更したものであり、図10中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態2における情報処理装置30は、データ取得部31と、視点決定部32と、計測条件を取得する条件取得部33とを備えている。データ取得部31は、三次元形状計測のデータ処理を行う。視点決定部32は、データ取得部31から供給されたデータ処理後のデータと条件取得部33から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
実施形態2では、条件取得部33におけるスペック要求取得部332で取得したスペック要求の情報に応じて情報処理装置30内部の動作を変化させる。このため、まず動作の概略についてのみ説明し、その後で、スペック要求ごとに場合分けして動作の詳細を説明する。
視点決定部32は、データ取得部31から供給されるデータ処理後のデータと、条件取得部33から供給されるスペック要求(優先すべき仕様)とに応じて、計測対象物体5を次に計測すべき撮像部2の視点を決定する。
具体的には、候補視点生成部321は、スペック要求に応じた少なくとも1つの候補視点を生成する。候補視点評価部322は、候補視点生成部321によって生成された候補視点に対してスペック要求に応じた評価を行い、決定視点を選択する。候補視点評価部322は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
実施形態2においてスペック要求取得部332がスペック要求を取得する方法は、図示しないタッチディスプレイに各スペック要求に対応する画像を表示させ、ユーザに優先すべきスペック要求を選択させる方法である。ただし、スペック要求を取得する方法は、これに限定されるものではなく、スペック要求取得部332が、ユーザからの音声入力によって取得してもよいし、ユーザが、例えば、精度、速度、複雑度の具体的な目標値を数値として入力したものを取得してもよい。
以下、実施形態2の計測システムによる計測と視点決定処理を説明する。実施形態2では、後に場合分けして説明するスペック要求によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態2における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態2におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S5では、視点決定部32は、データ取得部31から供給されたデータ処理後のデータとスペック要求取得部332で取得されたスペック要求とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部321が候補視点を生成し、生成された候補視点を候補視点評価部322が評価して条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部322は、選択した決定視点を次に計測すべき撮像部2の視点として視点設定部3に供給する。
[仕様1:精度を優先する場合]
条件取得部33のスペック要求取得部332において、優先すべきスペック要求として精度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルが高精度に生成されるように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に撮像する視点を選択する基準は、ポリゴンデータにおいて設定しておいたエッジの長さの最大値を超える長さのエッジ領域を観測することである。なお、この最大値はユーザが指定しておくようにしてもよい。このように視点を選択することによって、エッジが長く疎な三次元点群しか得られていない領域の計測を行い、三次元点群の密度を高くすることができる。
精度を優先する場合、計測時間が長くかかったとしても、最終的な三次元モデルの結果の精度が高いことが望まれる。そこで、撮像部2は、同じ視点からの撮像を複数回繰り返し、複数のカラー画像および複数の距離画像をセットにしてデータ取得部31に供給する。データ取得部31は、複数のカラー画像および距離画像を平均化したカラー画像および距離画像を用いてポリゴンデータの更新を行うことで、撮像部2による偶然誤差の影響を抑制することができる。
計測の終了は、図示しない終了判定部が、データ取得部31からポリゴンデータを受け取り、途切れている箇所や穴、点群の密度が低い箇所が無いかを確認して判定するようにしてもよい。この場合、終了判定部は、点群の密度が低い箇所が無い場合には計測を終了させる。
候補視点生成部321が候補視点を生成する処理は実施形態1の三次元形状計測の場合と同様にして実行することができる。さらに、精度を向上させるために、候補視点生成部321は、得られた候補視点に対して、対象物体までの距離が近づくように視線方向に移動させた視点を候補視点に追加する。このような候補視点を追加することで、計測対象物体5のより詳細な部分まで撮像しやすくなる。
Eval(p)=wVV(p)+wEE(p)+wLL(p) (9)
さらに、実施形態2においては、長いエッジによって密度の低い三次元モデルになっている領域を観測可能な候補視点の評価値が高くなり、より高精度に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測と同様に、評価値の高い候補視点から順にパスプランニングの判定を行い、移動可能な候補視点を次に撮像すべき視点として決定する。なお、式(9)におけるそれぞれの重み値wV、wE、wLとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
スペック要求取得部332において、優先すべきスペック要求として速度が取得された場合には、視点決定部32は、計測対象物体5の全周からの三次元モデルを短い時間で生成するように次に計測すべき撮像部2の視点の決定を行う。
本計測において次に計測する視点を選択する基準は、計測対象物体5を粗い点群密度でもよいので全周から撮像することを優先し、すでに取得されている三次元形状データとのオーバーラップが少ない視点から撮像することである。
そして、データ取得部31は、優先して全体の概形状を生成した後で、時間が残されていれば、より詳細な形状を取得して、詳細なポリゴンデータへと更新していく。なお、計測の終了は、データ取得部31あるいは図示しない終了判定部が、計測の処理時間が一定時間を超えているか否かによって判定し、一定時間を超えていれば計測の終了を指示するようにしてもよい。
Eval(p)=wVV(p)+wEE(p)+wL(Vall(p)−V(p))L(p)−wFV(p)F(p) (10)
ただし、Vall(p)は候補視点pから観測可能なボクセルの総数である。
また、計測が進み未知のボクセルの数が少なくなってくると、所定長より長いエッジが観測される視点の評価値が高くなり、粗いポリゴンデータをより詳細に計測できる候補視点が選択されやすくなる。
次に、候補視点評価部322は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、次に撮像すべき視点を決定する。なお、式(10)におけるそれぞれの重み値wV、wE、wL、wFとして経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
スペック要求取得部332において、優先すべきスペック要求として複雑度が取得された場合には、視点決定部32は、計測対象物体5の形状として複雑な箇所が優先して撮像されるように次に計測すべき撮像部2の視点の決定を行う。本計測において次に計測する視点を選択する基準としては、複雑な形状部分を多視点から観測することである。
S3において、データ取得部31は、実施形態1と同様にしてポリゴンデータを生成して、順次取得したデータで更新していく。優先すべきスペック要求が複雑度である場合、平坦な面やなだらかな面の領域は正確に計測されなかったとしても、複雑な形状の領域を正確にモデル化できることが望まれる。そこで、データ取得部31は、カラー画像と距離画像の両方から平坦な面やなだらかな面であると判断される領域については、ポリゴンデータを生成する際に、点群の密度が疎であってもエッジとして接続し、その領域に対して低い複雑度を設定する。
計測の終了は、図示しない終了判定部が、データ取得部31から複雑度と達成度付きのポリゴンデータを受け取り、達成度を評価して判定してもよい。達成度が基準値に満たない領域がある場合には、終了判定部は、次の視点を決定するように視点決定部32に指示し、達成度が基準値に満たない領域が無く全ての領域で達成度が満たされている場合には計測を終了させる。
複数のスペック要求が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、速度優先かつ複雑度優先の2つを実現したい場合は、候補視点生成部321は、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部322は、式(10)と式(11)を組合せた式(12)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき撮像部2の視点とする。これにより、複数のスペック要求に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
実施形態3に係る計測システムは、移動可能範囲や移動速度等の移動手段の特性に応じて、計測対象物体を次に計測すべき撮像部2の視点を適切に決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、移動手段の特性に応じた適切な計測を行うものである。実施形態1および2では、それぞれ用途とスペック要求に応じて適切な視点を決定する場合について説明したが、実施形態3では、撮像部2を計測対象物体5を計測する視点へ移動させる移動手段(視点設定部3)の特性の情報に応じて適切な視点を決定する。そのため、ユーザが自由に移動手段を取り替えても、移動手段に応じた適切な計測を行うことができる。実施形態3では、対象物体の三次元形状計測の用途を例に挙げて、移動手段の特性の例として、移動可能範囲、移動速度、移動精度の3つについて説明するが、実施形態3を適用可能な移動手段の特性はこれらに限定されない。
図11は、実施形態3に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置40とを備えている。実施形態3における計測システムは、実施形態2における図10の構成を一部変更したものであり、図11中の撮像部2、視点設定部3は、実施形態1と同じであり、同様の動作を行う。
実施形態3における情報処理装置40は、データ取得部41と、視点決定部42と、計測条件を取得する条件取得部43とを備えている。データ取得部41は、例えば三次元形状計測等のデータ処理を実行する。視点決定部42は、データ取得部41から供給されたデータ処理後のデータと条件取得部43から供給される計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
実施形態3では、条件取得部43における移動手段情報取得部433で取得した移動手段の特性の情報に応じて情報処理装置40内部の動作を変化させる。このため、まずは情報処理装置40内部の動作の概略についてのみ説明し、その後で、移動手段の特性ごとに場合分けして動作の詳細を説明する。
視点決定部42は、データ取得部41から供給されるデータ処理後のデータと、条件取得部43から供給される移動手段の特性とに応じて、計測対象物体5を次に撮像すべき撮像部2の視点を決定する。具体的には、まず、候補視点生成部421が移動手段の特性に応じて少なくとも1つの候補視点を生成する。候補視点評価部422は、候補視点生成部421によって生成された候補視点に対して移動手段の特性に応じた評価を行い、決定視点を選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
以下、実施形態3の計測システムによる計測と視点決定処理を説明する。実施形態3では、後に場合分けして説明する移動手段の特性によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態3における処理の全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。また、実施形態3におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S5では、視点決定部42は、データ取得部41から供給されたデータ処理後のデータと移動手段情報取得部433で取得された移動手段の特性とに基づいて、次に撮像すべき撮像部2の視点を決定する。より詳細には、候補視点生成部421によって候補視点を生成し、生成された候補視点を候補視点評価部422によって評価し、条件を満たす中で最も評価が高かった候補視点を決定視点として選択する。候補視点評価部422は、選択した決定視点を次に撮像すべき撮像部2の視点として視点設定部3に供給する。
[特性1:移動可能範囲]
条件取得部43の移動手段情報取得部433において、視点設定部3の移動可能範囲が取得された場合には、計測対象物体5の全周からの三次元モデルを生成する際に、視点として選べる範囲が限定される。本計測において次に撮像する視点を選択する基準は、生成された候補視点を、視点設定部3が移動可能な範囲内にすることである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様に、ポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
移動手段情報取得部433において、視点設定部3を移動させた際の視点位置姿勢の再現性の精度(移動精度)が取得された場合には、計測システムが想定している視点位置姿勢と、実際の視点位置姿勢との違いがどの程度あるかが既知となる。一般的に移動精度は位置や回転に関する移動が大きいほど悪くなる傾向がある。本計測において次に撮像する視点を選択する基準としては、移動を繰り返した際に、視点設定部3の移動精度がなるべく悪くならないようにすることである。
移動手段情報取得部433において、視点設定部3を移動させる時の移動速度が取得された場合の動作を説明する。移動速度が速い場合には長い距離を移動する場合でも特に問題無いが、移動速度が遅い場合には、長い距離を移動させてしまうと、移動時間に多くの時間が割かれてしまう。そこで、本計測において次に撮像する視点を選択する基準は、視点設定部3の移動速度に基づいて、移動時間が基準値を超えないことである。
データ取得部41は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部41は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
候補視点評価部422が、式(13)を用いて候補視点を評価することによって、式(1)と同様に未だ観測されていないボクセルや、ポリゴンデータが途切れている箇所や穴が空いている領域を観測可能な候補視点の評価値が高くなる。さらに、移動時間が閾値を超える場合には評価値が大きく減点されるため、移動速度に応じて、移動時間が閾値を超えない範囲で適切な視点が選ばれやすくなる。候補視点評価部422は、実施形態1の三次元形状計測の場合と同様に、評価値の高い視点から順にパスプランニングの判定を行い、計測対象物体5を次に撮影すべき撮像部2の視点を決定する。なお、それぞれの重み値wV、wE、wMは経験に基づく固定の値を用いてもよいし、計測回数に応じて変化させてもよいし、他の条件によって値を変えてもよい。
移動手段の複数の特性が取得された場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、移動可能範囲と移動速度の2つが与えられた場合は、候補視点生成部421が、既に述べたそれぞれの場合に基づいて候補視点群を生成し、さらに、移動可能範囲に基づいて候補視点を限定する。この上で、候補視点評価部422が、式(13)によって候補視点を評価して、次に撮像すべき撮像部2の視点とする。これにより、移動手段の複数の特性に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
以上のように、実施形態3では、取得された移動手段の特性の情報に基づいて、計測対象物体を次に計測すべき計測装置(撮像部2)の視点を適切に決定することができる。このように決定された視点に撮像部2を移動させて撮像を繰り返していくことによって、移動手段が置き換えられたとしても、適切な計測を行うことができる。
実施形態4の計測システムは、ユーザからの計測指示の情報に応じて、計測対象物体を次に計測すべき適切な撮像部2の視点を決定する。この決定された視点に撮像部を順次移動させながら計測対象物体の計測を行うことによって、ユーザの意図を反映しながら計測を行うものである。実施形態1から3では、それぞれ用途、スペック要求、移動手段の特性に基づいて次に計測すべき視点を決定していたが、実施形態4では、ユーザが直接指定した領域や方向等の計測指示の情報に基づいて、計測対象物体を次に計測すべき視点を決定する。このため、ユーザの意図をより直接的に伝えて視点を求めることができる。実施形態4では、計測対象物体の三次元形状計測の用途を例に挙げて、ユーザからの計測指示の例として、計測対象物体上の注目領域、計測対象外領域(無視してよい領域)、注目方向の3つについて説明するが、実施形態4を適用可能なユーザからの計測指示はこれらに限定されない。
図13は、実施形態4に係る計測システムの構成例を示すブロック図である。この計測システムは、撮像部2と、視点設定部3と、撮像部2からの情報に応じて視点設定部3の制御を行う情報処理装置50とを備えている。実施形態4における計測システムは、実施形態2における図10の構成を一部変更したものであり、図13中の撮像部2、視点設定部3は、実施形態2と同じであり、同様の動作を行う。
実施形態4における情報処理装置50は、撮像部2から情報を取得するデータ取得部51と、撮像部2の視点を決定する視点決定部52と、計測条件を取得する条件取得部53とを備えている。データ取得部51は、例えば三次元形状計測等のデータ処理を実行する。視点決定部52は、データ取得部51から供給されたデータ処理後のデータと条件取得部53から供給された計測条件とから、次に撮像すべき撮像部2の視点を決定し、視点設定部3に供給する。
視点決定部52は、候補視点を生成する候補視点生成部521と、候補視点生成部521によって生成された候補視点に対して評価を行う候補視点評価部522とを備えている。また、条件取得部53は、ユーザからの計測指示の情報を取得する計測指示情報取得部534を備えている。
データ取得部51は、撮像部2からカラー画像と距離画像を受け取り、三次元形状計測のデータ処理を実行する。そして、データ取得部51は、データ処理後のデータを視点決定部52に供給する。
以下、実施形態4の計測システムによる計測と視点決定処理を説明する。実施形態4では、後に場合分けして説明するユーザからの計測指示によらず、同じフローチャートを用いて処理の流れを説明することができる。また、実施形態4における処理全体の流れは図4のフローチャートと同様の流れであるため、図4を用いて説明を行う。実施形態4におけるS2、S3、S4、S6における処理は実施形態1と同じであり、同様の処理を行うため、それ以外のS1とS5についてのみ説明を行う。
S1では、計測システムにおいて初期化処理が実行される。初期化処理には、撮像部2の起動、視点設定部3の起動、条件取得部53の計測指示情報取得部534におけるユーザからの計測指示の取得、背景モデルの読み込み、撮像部2を初期の視点に移動させる処理等が含まれる。なお、初期の視点は計測対象物体5を観測できる範囲で自由に決定してよい。
なお、ここではS1でのみユーザからの計測指示が与えられるかのように説明したが、これに限定されるものではない。どのステップにおいても任意のタイミングにおいてユーザからの計測指示は指定可能であり、指定された次の候補視点生成処理においてユーザからの計測指示が反映されて候補視点が生成されるものとする。
[計測指示1:注目領域]
条件取得部53の計測指示情報取得部534において、計測対象物体5上の注目領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは注目領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目領域の表面をなるべく観測することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目領域が供給される。視点決定部52は、ポリゴンデータと注目領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目領域を計測できる候補視点を生成する。
Eval(p)=wVV(p)+wEE(p)+wSS(p) (14)
条件取得部53の計測指示情報取得部534において、計測対象外領域がユーザからの計測指示として取得された場合の動作について説明する。ここでは計測対象外領域は表裏のある面として指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した計測対象外領域の表面を評価値計算から除外することである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から計測対象外領域が供給される。視点決定部52は、ポリゴンデータと計測対象外領域とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は実施形態1と同様にして実行することができる。
Eval(p)=wVV’(p)+wEE’(p) (15)
条件取得部53の計測指示情報取得部534において、計測対象物体5を注目すべき方向がユーザからの計測指示として取得された場合の動作を説明する。ここでは注目方向は空間ベクトルとして指定されるものとする。本計測において次に撮像する視点を選択する基準は、ユーザが指定した注目方向と同じ方向の視点であることである。
データ取得部51は、S3において、実施形態1における三次元形状計測の場合と同様にしてポリゴンデータを生成する。データ取得部51は、順次供給される視点を変更した距離画像に基づいてポリゴンデータを更新する。
S5において、視点決定部52には、データ取得部51からポリゴンデータが供給され、条件取得部53から注目方向が供給される。視点決定部52は、ポリゴンデータと注目方向とから、次に撮像すべき撮像部2の視点を決定する。候補視点生成部521で候補視点を生成する処理は、実施形態1と同様にして実行することができる。さらに、候補視点生成部521は、ユーザが指定した注目方向と同じ視線方向をもつ候補視点を生成する。
候補視点評価部522は、候補視点生成部521によって生成された候補視点を評価して、評価値が高く条件を満たす候補視点を決定視点として選択する。ここでは、候補視点評価部522は、まず、実施形態1と同様に、ボクセルを用いて候補視点pから観測可能な「未知」のボクセルの数V(p)とポリゴンデータにおいて候補視点pから観測可能な未接続エッジの数E(p)を求める。さらに、候補視点評価部522は、式(16)を用いて評価値を計算する。
ユーザからの計測指示が複数ある場合にも、計測対象物体5を次に撮像すべき撮像部2の視点を適切に決定することが可能である。例えば、注目領域と計測対象外領域の2つが与えられた場合は、候補視点生成部521が、既に述べたそれぞれの場合に基づいて候補視点群を生成する。そして、候補視点評価部522は、式(14)と式(15)を組合せた式(17)によって候補視点を評価し、評価値が高い候補視点を次に撮像すべき視点とする。これにより、複数の計測指示に応じて、次に撮像すべき撮像部2の視点を適切に決定することができる。
Eval(p)=wVV’(p)+wEE’(p)+wSS’(p) (17)
ただし、S’(p)は候補視点pからユーザ指定の注目領域のうち、計測対象外領域には含まれていない領域の表面の観測可能な面積を表す。
[条件取得部が複数の取得部を備える場合]
実施形態1から実施形態4では、いずれも条件取得部がある一つの計測条件を取得する取得部を備える場合について説明した。しかし、条件取得部が備える取得部の数は1つに限定されるものではなく、用途取得部、スペック要求取得部、移動手段情報取得部、計測指示情報取得部のうちの複数を含んでいてもよい。その場合も実施形態1における図4と同様のフローチャートによって処理を行うことができる。情報処理装置内部の処理についても、実施形態1から実施形態4で説明した処理を組合せればよい。
実施形態1から実施形態4では、いずれも条件取得部が最初に取得した計測条件に従って計測が終了するまで同じ評価式を用いて視点を決定する動作について説明した。しかし、条件取得部が計測の途中で計測条件を取得し、適宜変更しながら計測を行ってもよい。例えば、三次元計測の用途において、最初は速度優先のスペック要求を計測条件として計測を行い、一定時間が経過、または計測がある段階まで進んだら、複雑度優先のスペック要求とユーザからの条件指示である注目領域に基づく計測条件に変更してもよい。このように途中で条件を変更しながら計測を行うことで、よりユーザの要望に柔軟に対応しながら計測を行うことができる。
実施形態1から実施形態4では、いずれも撮像部2が視点設定部3に取り付けられており、視点設定部3によって撮像部2の視点を変化させる例について説明した。しかし、視点設定部が移動させるのは撮像部に限定されるものではなく、視点設定部が計測対象物体を移動させるようにしてもよい。計測対象物体を移動させる場合には、例えば、視点設定部としてロボットハンドを用いて、ロボットハンドが計測対象物体を把持し、撮像部の前で姿勢を変化させることで計測対象物体を複数の視点から計測することができる。撮像部を固定し、視点設定部を用いて計測対象物体の方を動かすことによって、巨大または重量のあるような撮像部であっても、多視点からの計測が可能となる。また、撮像部と計測対象物体の両方を異なる2つのロボットハンドからなる視点設定部によって動かしながら計測すれば、片方だけを動かす場合と比べて半分の移動距離で目的の視点に移動できるため、計測完了までの時間を短縮することができる。
実施形態1から実施形態4では、いずれも視点設定部はロボットアームのような移動制御可能な機械である場合について述べた。しかし、視点設定部は移動制御可能な機械に限定されるものではなく、人を誘導することによって代替手段としてもよい。視点設定部が人を誘導する場合には、視点設定部はディスプレイ等に移動する方向や距離を表示することで、人の動きを誘導してやればよい。なお、人の動きを誘導する方法はディスプレイに限定されるものではない。例えば音の高低、大小、リズム等によって正しい移動かどうかを提示してもよいし、振動や刺激によって誘導するようにしてもよい。
実施形態1から実施形態4では、いずれも情報処理装置には撮像部2と視点設定部3が接続された例について述べたが、図15に示すように、情報処理装置70にさらに通信部4が接続されるようにしてもよい。通信部4は様々な計測条件や計測対象物体に対して、計測を行った際に評価値の計算式において用いた重みパラメータと計測結果の良し悪しに関するデータを外部と共有する機能を有する。本計測システムを多数設け、様々な計測条件や計測対象物体を計測した際の重みパラメータと計測結果をネットワークで接続されたサーバ等に集めることにより、パラメータと計測結果の関係性を求めることができる。この関連性を用いることにより、ユーザが初めて計測する計測対象物体に対して、ユーザが選んだ計測条件において、最も効果的な重みパラメータをサーバ等から取得して用いれば、ユーザが重みパラメータの調整を明示的に行うことなく効果的な計測を実行できる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (15)
- 対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得する第1の取得手段と、
前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得する第2の取得手段と、
前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、前記対象物体を次に計測すべき前記計測手段の視点を決定する決定手段と、
を備えることを特徴とする情報処理装置。 - 前記第2の取得手段は、前記計測手段により前記対象物体を計測する用途の情報を取得し、前記決定手段は、前記第2の取得手段により取得された前記用途の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1に記載の情報処理装置。
- 前記第2の取得手段により取得される前記用途の情報は、前記対象物体についての、三次元形状計測、欠陥検査、特定物体認識および人物監視のいずれか1つ以上を含むことを特徴とする請求項2に記載の情報処理装置。
- 前記第2の取得手段は、前記計測手段による前記対象物体の計測において優先されるべき仕様の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記仕様の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 - 前記仕様の情報は、前記対象物体の計測における精度、速度および複雑度のいずれか1つ以上を含むことを特徴とする請求項4に記載の情報処理装置。
- 前記第2の取得手段は、前記計測手段を、前記対象物体を計測する視点へ移動させる移動手段の特性の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記移動手段の特性の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記移動手段の特性の情報は、前記計測手段の移動可能範囲、移動精度および移動速度のいずれか1つ以上を含むことを特徴とする請求項6に記載の情報処理装置。
- 前記第2の取得手段は、ユーザからの計測指示の情報を取得し、
前記決定手段は、前記第2の取得手段により取得された前記計測指示の情報に基づいて前記次に計測すべき前記計測手段の視点を決定することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。 - 前記計測指示の情報は、前記対象物体上の注目領域、計測対象外領域および注目方向のいずれか1つ以上を含むことを特徴とする請求項8に記載の情報処理装置。
- 前記決定手段は、前記第1の取得手段により取得された前記計測データと、前記第2の取得手段により取得された前記計測条件とに基づいて、前記次に計測すべき前記計測手段の複数の候補視点を生成し、
前記情報処理装置はさらに、前記複数の候補視点に、前記第2の取得手段により取得された前記計測条件に対応する評価関数を適用して、前記複数の候補視点から1つ以上の視点を選択する選択手段を備える、
ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 - 前記計測手段の視点に基づいて前記計測手段の位置姿勢を設定する設定手段に、前記決定手段が決定した前記次に計測すべき前記計測手段の視点を出力する出力手段をさらに備え、
前記第1の取得手段による前記計測データの取得と、前記決定手段による前記次に計測すべき前記計測手段の視点の決定と、前記出力手段による前記次に計測すべき前記計測手段の視点の出力とを繰り返す、ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 - 前記計測データに基づいて、前記決定手段による前記次に計測すべき前記計測手段の視点の決定の終了条件を判定する判定手段をさらに備えることを特徴とする請求項11に記載の情報処理装置。
- 対象物体を複数の視点から計測して計測データを出力する計測手段と、
前記計測手段から出力される前記計測データを処理する請求項1から12のいずれか1項に記載の情報処理装置と、
前記情報処理装置の決定手段により決定される前記次に計測すべき前記計測手段の視点に基づいて、前記計測手段の位置姿勢を設定する設定手段と、
を備えることを特徴とする計測システム。 - 対象物体を複数の視点から計測する計測手段により前記対象物体を計測した計測データを取得するステップと、
前記計測手段が前記対象物体を計測する際の複数の計測条件のうち少なくとも1つの計測条件を取得するステップと、
前記取得した計測データと前記取得した計測条件とに基づいて、前記対象物体を次に計測すべき前記計測手段の視点を決定するステップと、
を備えることを特徴とする情報処理方法。 - コンピュータを、請求項1〜12のいずれかに記載された情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016095721A JP6821326B2 (ja) | 2016-05-12 | 2016-05-12 | 情報処理装置、計測システム、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016095721A JP6821326B2 (ja) | 2016-05-12 | 2016-05-12 | 情報処理装置、計測システム、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017203701A true JP2017203701A (ja) | 2017-11-16 |
JP6821326B2 JP6821326B2 (ja) | 2021-01-27 |
Family
ID=60323184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016095721A Active JP6821326B2 (ja) | 2016-05-12 | 2016-05-12 | 情報処理装置、計測システム、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6821326B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109945780A (zh) * | 2017-12-21 | 2019-06-28 | 发那科株式会社 | 物体检查系统以及物体检查方法 |
WO2021039088A1 (ja) * | 2019-08-28 | 2021-03-04 | パナソニックIpマネジメント株式会社 | 撮像パラメータ出力方法、及び、撮像パラメータ出力装置 |
JP2021520584A (ja) * | 2018-06-06 | 2021-08-19 | ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. | 住宅のデータ収集およびモデル生成方法 |
JP2021520583A (ja) * | 2018-06-06 | 2021-08-19 | ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. | 仮想現実モデル内の穴を埋めるためのシステム及び方法 |
JP7412983B2 (ja) | 2019-02-04 | 2024-01-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002213943A (ja) * | 2001-01-16 | 2002-07-31 | Mitsutoyo Corp | 表面性状測定システム及び方法 |
JP2007003285A (ja) * | 2005-06-22 | 2007-01-11 | Konica Minolta Sensing Inc | 3次元測定システム |
JP2010184300A (ja) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | 姿勢変更システムおよび姿勢変更方法 |
JP2010256276A (ja) * | 2009-04-28 | 2010-11-11 | Mitsubishi Electric Corp | 三次元形状計測装置及び計測方法 |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
US20130329013A1 (en) * | 2012-05-11 | 2013-12-12 | Proiam, Llc | Hand held dimension capture apparatus, system and method |
JP2014010559A (ja) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | 計測支援装置、方法及びプログラム |
JP2015069253A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社リコー | 個体状態判定装置、個体状態判定方法および個体状態判定プログラム |
JP2015085493A (ja) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、処理装置及び検査方法 |
-
2016
- 2016-05-12 JP JP2016095721A patent/JP6821326B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002213943A (ja) * | 2001-01-16 | 2002-07-31 | Mitsutoyo Corp | 表面性状測定システム及び方法 |
JP2007003285A (ja) * | 2005-06-22 | 2007-01-11 | Konica Minolta Sensing Inc | 3次元測定システム |
JP2010184300A (ja) * | 2009-02-10 | 2010-08-26 | Seiko Epson Corp | 姿勢変更システムおよび姿勢変更方法 |
JP2010256276A (ja) * | 2009-04-28 | 2010-11-11 | Mitsubishi Electric Corp | 三次元形状計測装置及び計測方法 |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
US20130329013A1 (en) * | 2012-05-11 | 2013-12-12 | Proiam, Llc | Hand held dimension capture apparatus, system and method |
JP2014010559A (ja) * | 2012-06-28 | 2014-01-20 | Toshiba Corp | 計測支援装置、方法及びプログラム |
JP2015069253A (ja) * | 2013-09-27 | 2015-04-13 | 株式会社リコー | 個体状態判定装置、個体状態判定方法および個体状態判定プログラム |
JP2015085493A (ja) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、処理装置及び検査方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109945780A (zh) * | 2017-12-21 | 2019-06-28 | 发那科株式会社 | 物体检查系统以及物体检查方法 |
JP2019113348A (ja) * | 2017-12-21 | 2019-07-11 | ファナック株式会社 | 物体検査システム及び物体検査方法 |
US10607337B2 (en) | 2017-12-21 | 2020-03-31 | Fanuc Corporation | Object inspection system and object inspection method |
CN109945780B (zh) * | 2017-12-21 | 2020-10-16 | 发那科株式会社 | 物体检查系统以及物体检查方法 |
JP2021520584A (ja) * | 2018-06-06 | 2021-08-19 | ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. | 住宅のデータ収集およびモデル生成方法 |
JP2021520583A (ja) * | 2018-06-06 | 2021-08-19 | ケーイー.コム (ベイジン) テクノロジー カンパニー リミテッドKe.Com (Beijing) Technology Co., Ltd. | 仮想現実モデル内の穴を埋めるためのシステム及び方法 |
JP7412983B2 (ja) | 2019-02-04 | 2024-01-15 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2021039088A1 (ja) * | 2019-08-28 | 2021-03-04 | パナソニックIpマネジメント株式会社 | 撮像パラメータ出力方法、及び、撮像パラメータ出力装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6821326B2 (ja) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6635690B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6821326B2 (ja) | 情報処理装置、計測システム、情報処理方法およびプログラム | |
JP6740033B2 (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP5548482B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
CN105359163B (zh) | 用于将基元形状拟合到3d点的集合的方法 | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP5198883B2 (ja) | 腫瘍領域サイズ測定方法および装置ならびにプログラム | |
JP6723061B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP5801237B2 (ja) | 部位推定装置、部位推定方法、および部位推定プログラム | |
JP6632208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2018091656A (ja) | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 | |
JP6723798B2 (ja) | 情報処理装置、方法、プログラム | |
US20180290300A1 (en) | Information processing apparatus, information processing method, storage medium, system, and article manufacturing method | |
CN102713975B (zh) | 图像整理系统、图像整理方法和计算机程序 | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
EP2372652A1 (en) | Method for estimating a plane in a range image and range image camera | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
CN112883920A (zh) | 基于点云深度学习的三维人脸扫描特征点检测方法和装置 | |
Eastwood et al. | Autonomous close-range photogrammetry using machine learning | |
JP2021063774A (ja) | 体重推定装置 | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
JP6306903B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201104 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201111 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6821326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |