JP7006810B2 - 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 - Google Patents

3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 Download PDF

Info

Publication number
JP7006810B2
JP7006810B2 JP2020558839A JP2020558839A JP7006810B2 JP 7006810 B2 JP7006810 B2 JP 7006810B2 JP 2020558839 A JP2020558839 A JP 2020558839A JP 2020558839 A JP2020558839 A JP 2020558839A JP 7006810 B2 JP7006810 B2 JP 7006810B2
Authority
JP
Japan
Prior art keywords
map
dimensional
measurement
image
polygon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558839A
Other languages
English (en)
Other versions
JPWO2020121406A1 (ja
Inventor
清高 渡邊
亮輔 川西
晴之 岩間
真規人 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020121406A1 publication Critical patent/JPWO2020121406A1/ja
Application granted granted Critical
Publication of JP7006810B2 publication Critical patent/JP7006810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/30Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、3次元空間に存在する物体の形状を計測し、3次元マップを作成する3次元計測装置、この3次元計測装置を搭載した移動ロボットおよび手押し車型移動装置、並びに3次元計測処理方法に関する。
実世界の3次元物体の形状をセンサで計測し、この物体の形状を表現する3次元点群データを生成する技術が知られている。この技術では、計測対象物体に対するセンサの視点をさまざまに変えて撮影を繰り返し、得られた撮影データをつなぎ合わせることによって物体全体の形状を表現する3次元点群データを生成する。特に、計測対象(以下、計測対象とする空間または物体を計測対象という)の3次元画像をフレーム単位で撮影し、データとして出力する3次元画像センサを用いた計測時の視点の推定と点群データの生成を同時に実行する技術として、Simultaneously Localization and Mapping(SLAM)と呼ばれる技術がある。
上記の3次元計測のための撮影において、撮影すべき視点の選択は、計測対象の形状やアプリケーション等に依存する。欠損のない高品質な3次元点群データを得るため、一般的には計測対象物体の形状が複雑なほど、多くの視点から計測対象を撮影する必要がある。計測の途中の段階で3次元点群データの充足度を評価し、次に計測すべき視点を選択する技術としてNext Best View(NBV)がある(例えば特許文献1参照)。
特開2017-203701号公報
特許文献1に開示されている技術では、充足度の高い高品質な3次元点群データを得るために、計測視点の選択においてボクセル(体積の要素)を使用している。この従来技術では、ボクセルによって細かく分割された3次元空間中に点群データを置き、ボクセル単位で充足度を評価するため、生成する点群データの規模を事前に想定した上で、ボクセルの数に比例する容量のメモリを処理装置内に確保する必要がある。このため、特許文献1に開示されている技術は、大規模な空間の3次元マップを生成するような用途には適し難い。
本発明は、上記問題点を解決するためになされたものであり、メモリ消費を抑制しつつ、3次元マップを得ることができる3次元計測装置、手押し車型移動装置、移動ロボットおよび3次元計測処理方法を提供することを目的とする。
本発明に係る3次元計測装置は、計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得する3次元画像取得部と、3次元画像を合成して、合成後の3次元点群データにより計測対象の3次元形状が表現される3次元マップを生成する3次元マップ生成部と、3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる3次元画像に含まれる3次元点群データから、ポリゴンを抽出するポリゴン抽出部と、ポリゴンに基づき、3次元マップの品質を評価するマップ評価部と、3次元マップの品質の評価結果に基づき、3次元画像を取得すべき計測対象領域または計測位置を示す情報を含む計測計画を生成する計測計画生成部とを備えることを特徴とする。
また、本発明に係る手押し車型移動装置の一態様は、上述した3次元計測装置であって、3次元画像を撮影する3次元画像センサと、計測計画に基づいて情報を表示する表示部とを備える3次元計測装置が搭載されることを特徴とする。
また、本発明に係る移動ロボットは、上述した3次元計測装置であって、3次元画像を撮影する3次元画像センサを備える3次元計測装置が搭載され、3次元計測装置で生成された計測計画に基づき、現在の位置から次の計測位置に到達するための動作指令信号を生成して出力する移動情報出力部と、動作指令信号に基づき移動する駆動部とを備えることを特徴とする。
また、本発明に係る3次元計測処理方法は、計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得するステップと、3次元画像を合成して、合成後の3次元点群データ により計測対象の3次元形状が表現される3次元マップを生成するステップと、3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる3次元画像に含まれる3次元点群データから、ポリゴンを抽出するステップと、ポリゴンに基づき、3次元マップの品質を評価するステップと、3次元マップの品質の評価結果に基づき、3次元画像を取得すべき計測対象領域または計測位置を示す情報を含む計測計画を生成するステップとを含むことを特徴とする。
本発明に係る3次元計測装置および3次元計測処理方法によれば、従来技術と比較してメモリ消費を抑制しつつ3次元マップを生成することができる。
また、本発明に係る手押し車型移動装置によれば、ユーザが、表示部に表示された情報を基に手押し車型移動装置を適切に移動させて必要十分な3次元画像を簡単に取得することができるので、メモリ削減効果に加えて、効率的に3次元マップを得ることができる。
また、本発明に係る移動ロボットによれば、メモリ削減効果に加えて、人手を介することなく効率的に3次元マップを得ることができる。
本発明の実施の形態1による3次元計測装置全体の構成例を表すブロック図である。 本発明の実施の形態1による3次元計測装置を移動ロボットに搭載して計測する様子を示す概観図である。 本発明の実施の形態1による3次元計測装置が備える計測処理部の構成を表すブロック図である。 本発明の実施の形態1による3次元計測装置の処理の手順を示す図である。 本発明の実施の形態1による3次元計測装置が備えるポリゴン抽出部が、ポリゴンの表面または裏面を定める方法を説明するための図である。 本発明の実施の形態1による3次元計測装置が備えるマップ評価部の構成を表すブロック図である。 本発明の実施の形態1による3次元計測装置が備える計測姿勢評価部が計測姿勢を評価する方法を説明するための図である。 本発明の実施の形態1による3次元計測装置が計測する屋内空間の形状の例を示す平面図である。 本発明の実施の形態1による3次元計測装置が、図8に例示する屋内空間を移動しながら計測する様子を表した図である。 本発明の実施の形態1による3次元計測装置が備えるマップ充足度評価部が、図8に例示する屋内空間を計測している途中でマップの充足度を評価する動作を説明するための図である。 本発明の実施の形態1による3次元計測装置が備える表示部が表示する画像の例を示す図である。 本発明の実施の形態2による3次元計測装置を手押し車型移動装置に搭載し、ユーザが手で押して計測する様子を示す図である。 本発明の実施の形態2による3次元計測装置が備える表示部へ計測計画に基づく情報を表示した例を示す図である。 本発明の実施の形態3による3次元計測装置を、ユーザが手に持って計測する様子を示す図である。
以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
実施の形態1.
図1は、本発明の実施の形態1に係る3次元計測装置の構成を表すブロック図である。なお、図1は、機能ブロックによって本実施の形態の3次元計測装置の構成を表している。実施の形態1に係る3次元計測装置は、3次元画像センサ1と、入力部2と、計測処理部3と、表示部4と、移動情報出力部5とを有する。
図2は、実施の形態1に係る車輪型の移動可能な移動ロボット1000に搭載した3次元計測装置が、屋内空間の3次元マップを生成する様子を示している。図2において、太線の直線および破線で示す四角錐は3次元画像センサ1の視野の範囲(それぞれ撮影範囲1001、撮影範囲1002)を模式的に示したものである。実施の形態1に係る3次元計測装置は、移動ロボット1000の移動に合わせて3次元画像センサ1を用いて3次元画像を撮影し、移動ロボット1000の周囲の3次元マップを生成する。
次に、実施の形態1に係る3次元計測装置の各構成要素について説明する。
図1において、3次元画像センサ1は、計測対象の3次元画像をフレーム単位で撮影し、データとして出力するセンサである。ここで、計測対象が空間である場合において、空間とは、室内や室外など、1つ以上の物体が存在する広がりを持った場所を意味する。また、3次元画像とは、計測対象の同じ位置を撮影した2次元画像と距離画像とが組になった画像である。2次元画像とは、物体または空間の明るさを示す情報が2次元に配列された画素ごとに記録された画像である。2次元画像には、白黒画像とカラー画像とがある。カラー画像は、赤(R)、緑(G)、青(B)の3色の明るさで表現されるRGB画像が一般的である。また、距離画像とは、撮影素子から被写体となった物体までの距離を示す距離情報が画素ごとに記録された画像である。距離画像の各画素には、例えば撮影素子から物体までの距離の値がミリメートル単位で記録されている。この距離画像から、計測対象の3次元形状を3次元空間中の点の集合(3次元点群)として得ることができる。
以下、3次元空間中の物体表面の点の集合である3次元点群に関するデータを3次元点群データという。
3次元画像から得られる3次元点群データは、各点の位置を示すデータ(3次元座標等)だけでなく、その点の位置での物体の明るさを示すデータ(輝度値、RGB値、CMYK値、その他のカラーコード等)も含まれうる。なお、3次元画像から得られる3次元点群データは、3次元画像から直接的に得られるデータ(画素ごとの距離情報や明るさ)に限定されず、該データから変換等によって得られるデータを含む。また、3次元画像は、2次元画像と距離画像とが組になった画像に限定されず、3次元点群データを含む画像であればよい。なお、ここで「3次元点群データを含む画像」には、3次元点群データが直接記録される画像だけでなく、上記の距離画像のように、画像データとして記録された情報(画素ごとの距離情報)から変換等により所望の3次元点群データを取得可能な画像も含まれる。 距離の計測方式としては、例えばToF(Time of Flight)方式、またはプロジェクタとカメラを組み合わせた構成によるパターン投光方式などの方式を利用することができる。3次元画像センサ1から出力される3次元画像において組をなす2次元画像と距離画像の撮像時刻は同期している。
入力部2は、3次元計測装置に対するユーザからの各種の指示の入力を受け付ける。入力部2の機能は、例えばキーボードやマウス、ペン型デバイス、タッチディスプレイなどにより実現される。これらのデバイスを介して、ユーザは入力部2に対して3次元マップ生成処理の開始・一時停止・終了、生成した3次元マップの表示およびファイル保存処理などの指示を入力する。また、入力部2を介して、ユーザは3次元計測装置の動作に関するパラメータを設定できるように構成してもよい。
計測処理部3は、入力部2から入力されたユーザの指示に基づき、3次元画像センサ1で取得した3次元画像のデータから周囲の空間などの計測対象の3次元マップを生成すると同時に、次に計測すべき位置への移動経路を生成する。計測処理部3は、演算処理部(CPU)、記憶部(ROM、RAMおよびハードディスクドライブ等)および信号入出力部を持ったコンピュータにより構成することができる。計測処理部3の機能は、コンピュータにより実現される。すなわち、コンピュータの記憶部には、計測処理部3の機能を実現するためのプログラムが格納されており、このプログラムに従って、計測処理部3における各種の演算処理が演算処理部にて実行される。計測処理部3を構成するコンピュータとしては、例えばラップトップPC(ノート型パーソナルコンピュータ)やタブレットPC(板状パーソナルコンピュータ)を用いることができる。
表示部4は、計測処理部3で実行される処理の状況または処理の結果得られた情報を表示する。例えば、表示部4は、計測処理部3で実行される処理の状況を逐次表示してもよい。また、表示部4は、計測処理部3で生成される計測計画に基づき、情報を表示してもよい。例えば、表示部4は、計測計画に基づき、3次元画像を取得すべき計測対象領域または計測位置を示す情報を表示してもよい。ここで、3次元画像を取得すべき計測対象領域または計測位置を示す情報には、計測対象領域の3次元画像を取得可能な位置(計測位置)までの経路に関する情報が含まれる。また、例えば、表示部4は、計測計画に基づき、3次元画像センサ1で次に計測すべき計測対象領域または計測位置と、この際の視線方向とを表示してもよい。また、表示部4は、計測処理部3で生成される3次元マップを画像として表示してもよい。また、表示部4は、3次元画像センサ1が撮影した3次元画像を表示してもよい。
表示部4の機能は、例えば液晶ディスプレイ、プロジェクタにより実現される。また、入力部2および表示部4としてタッチディスプレイを使用することにより、入力部2と表示部4の機能を兼備させてもよい。
移動情報出力部5は、計測処理部3で生成される計測計画に基づき、次の計測位置および該計測位置への移動経路を決定する。そして、移動情報出力部5は、決定した移動経路に沿って当該3次元計測装置を移動させるための制御信号を出力する。移動情報出力部5は、例えば、決定した移動経路に基づき、移動ロボット1000の次の移動方向および移動速度を決定して、制御信号として外部の装置へと出力する。例えば、本発明に係る3次元計測装置が車輪の回転によって移動する移動ロボット1000に搭載される場合、移動情報出力部5から出力される移動方向と移動速度に関する制御信号が、移動ロボット1000の動作指令信号として入力される。移動ロボット1000は、移動情報出力部5から与えられる制御信号に従って、車輪の角度と回転速度を制御して移動させる駆動部(図示せず)を備えていてもよい。移動ロボット1000の移動に伴って、3次元計測装置は、3次元画像センサ1により周囲を撮影し、得られた3次元画像を処理することにより、計測対象の3次元マップを生成する。
なお、本発明に係る3次元計測装置を、アクチュエーターを備える移動ロボット1000に搭載する場合、3次元画像センサ1を移動ロボット1000のアクチュエーターに取り付け、該アクチュエーターの駆動により3次元画像センサ1の位置(例えば、高さ)および姿勢の少なくともいずれかを変更できるように構成してもよい。この場合、移動情報出力部5は、計測処理部3で生成される計測計画で示される次に計測すべき計測位置および視線方向と、現在の移動ロボット1000の位置と、現在の3次元画像センサ1の位置および姿勢とから、移動ロボット1000の移動速度および移動方向と、3次元センサ1の位置および姿勢とを決定し、制御信号として移動ロボット1000へと出力してもよい。移動ロボット1000は、例えば、3次元画像センサ1の位置および姿勢に関する制御信号を移動情報出力部5から受け取ると、上述した自身の計測位置への移動処理に加えて、アクチュエーターを動作させることにより、3次元画像センサ1の位置および姿勢を変更する。なお、該制御信号は、3次元画像センサ1の位置または姿勢のいずれかに関する信号であってもよい。
移動情報出力部5は、3次元計測装置またはそれを搭載した装置が自律移動できない装置である場合、省略されてもよい。
図3は、本発明の実施の形態1に係る3次元計測装置に備えられる計測処理部3の構成要素の一例を示したブロック図である。計測処理部3は、3次元画像取得部10と、3次元マップ生成部20と、ポリゴン抽出部30と、3次元画像記憶部40と、3次元マップ記憶部50と、マップ評価部60と、計測計画生成部70と、入力イベント処理部80と、表示制御部90とを備える。
次に、本発明の実施の形態1に係る3次元計測装置の動作について説明する。
図4は、本発明の実施の形態1に係る3次元計測装置が3次元マップを生成する3次元計測処理方法における流れを示す図である。なお、図4に示す動作の流れは一例を示したものであり、一部の動作の順序が入れ替わる場合もあり、一部の動作が同時に並列して実行される場合もある。以下、図3および図4を用いて、本実施の形態の3次元計測装置の動作について説明する。なお、本実施の形態の3次元計測装置の動作は、図示していない動作制御部によって制御される。
3次元計測装置の動作が開始されると、3次元計測装置の動作はステップS1へと移行する。ステップS1では、3次元画像取得部10が、3次元画像センサ1から出力される3次元画像をフレーム単位で取得する。3次元画像を1フレーム取得した後、3次元計測装置の動作はステップS2へと移行する。
ステップS2では、ポリゴン抽出部30が、3次元画像のうちの距離画像からポリゴンを抽出する。ポリゴンとは、ここでは表面と裏面が定義された多角形の面素であるとする。また、ポリゴンデータは、該ポリゴンを表すデータ、すなわち表面と裏面が定義された多角形の面形式データであるとする。ポリゴン抽出部30では、3次元空間中の点の集合(3次元点群)を、3次元空間中の面素の集合(ポリゴン集合)に変換する処理が実行される。ポリゴン抽出部30は、例えば、3次元画像または生成途中の3次元マップから取得される3次元点群データで示される3次元点群内の近傍の3点を接続することにより、三角形のポリゴンを抽出してもよい。3次元点群データからポリゴンを生成する手法としては、Marching Cubes法、またはBall-Pivotingアルゴリズム等の既存手法を用いることができる。3次元点群データを構成する点の密度が高い領域では、生成されるポリゴンのサイズは小さくなる。なお、ポリゴンの形状は三角形に限定されず、四角形、五角形、六角形などでもよい。この場合、所定の形状における頂点の数分、3次元点群内の近傍の点を接続すればよい。また、すべてのポリゴンが同一の多角形でなくてもよい。
ポリゴンの形状を三角形とした場合、他の形状に比べて同じ3次元点群から生成されるポリゴンの数を増やすことができ、後述する3次元マップの品質の評価において、ポリゴンに基づく評価を行う際により精密にかつより簡易な計算で評価を行うことができるので好ましい。
ここで、ポリゴン抽出部30により生成されたポリゴンに対し、必要に応じて表面と裏面を定義する手順について、図5を用いて説明する。図5において、計測位置32にて取得された距離画像から、ポリゴン抽出部がポリゴン31を抽出したとする。点線33はセンサの光軸を、矢印34は計測位置32を起点としたセンサの光軸方向ベクトルを、矢印35aは抽出されたポリゴン31の法線ベクトルを表す。一般に面の法線ベクトルは0でない実数倍の任意性があるベクトルとして定義されるため、点線の矢印35bもポリゴン31の法線ベクトルとなりえる。ポリゴン31の法線ベクトルを表す矢印35aと矢印35bを、ポリゴン31の法線ベクトル35と総称する。
ここでは、以下に示す手順で法線ベクトルを定義することにより、ポリゴン31の法線ベクトルとして矢印35aが選択されるようにする。
まず、3次元画像センサ1に固定された3次元画像センサ1の3次元座標系における光軸方向ベクトルを式(1)のように表記する。
Figure 0007006810000001
また、抽出されたポリゴン31の法線ベクトルを式(2)のように表記する。
Figure 0007006810000002
ここで、αは0でない実数とし、この符号を、3次元画像センサ1の光軸方向ベクトル34と法線ベクトル35との内積が負になるように規定する。すなわち、以下の式(3)が成り立つ場合には、αを任意の正の実数に設定する。一方、以下の式(4)が成り立つ場合には、αを任意の負の実数に設定する。
Figure 0007006810000003
Figure 0007006810000004
そして、ポリゴン31の法線ベクトル35の向きが正の側をこのポリゴンの表面、負の側をこのポリゴンの裏面と定義する。なお、内積の正負と法線ベクトルの向きとの関係、また法線ベクトルの向きと裏表の関係はこの限りではない。すなわち、ポリゴンの表面および裏面は、ポリゴンの頂点をなす点の検出元となった3次元画像を取得した際の3次元画像センサの視線方向に基づき定義されればよい。なお、上記の例は、ポリゴンの頂点をなす点の検出元となった3次元画像を取得した際の3次元画像センサの視線方向に基づき特定される法線ベクトルの向きに応じて、ポリゴンの表面および裏面を定義した例である。本例において、各ポリゴンのデータ(ポリゴンデータ)は、ポリゴンを構成する3つの頂点の3次元座標およびポリゴンの法線ベクトルを含む。
距離画像から抽出されたポリゴン情報と3次元画像センサ1の光軸方向ベクトルの情報は、3次元画像と紐付けて、3次元画像記憶部40に記憶される。
再び、図3および図4を用いた、本実施の形態の3次元計測装置の動作の説明に戻る。ステップS2にて3次元画像に紐付けられるポリゴンを抽出した後、3次元計測装置の動作はステップS3へと移行する。
ステップS3では、3次元マップ生成部20は、3次元画像取得部10および3次元画像記憶部40から3次元画像データを、3次元画像記憶部40から各3次元画像に紐づけられたポリゴンデータを受け取り、3次元マップを生成する。3次元マップとは、3次元点群データにより物体または空間(より具体的には、空間を構成する物体)の3次元形状が少なくとも表現されたデータである。本例では、3次元マップ生成部20は、計測対象の3次元形状を少なくとも表現する3次元点群データを含む3次元マップを生成する。
3次元マップの生成には、複数の3次元画像を合成して3次元マップを生成する公知の手法を用いることができる。3次元マップを生成する手法として、例えばSLAM(Simultaneously Localization and Mapping)、SfM(Structure from Motion)などがある。これらの手法は、異なる視点で撮影された複数の3次元画像を入力とし、これらの3次元画像の撮影位置および姿勢を推定する問題と、これらの3次元画像を3次元座標系上でつなぎ合わせて3次元マップを生成する問題とを同時に解く。ある3次元画像の撮影位置および姿勢が推定された時、この撮影位置および姿勢を基準として、3次元画像をなす距離画像の各画素の距離情報を3次元座標系上に配置する。このとき、距離画像の各画素が3次元マップを構成する点群の1つの点に対応する。入力される3次元画像全てに対してこの処理を実行することにより、3次元マップが生成される。したがって、3次元マップには、入力された3次元画像全ての距離画像の画素に対応した点が含まれうる。なお、後述するように、3次元マップの更新の際には、生成済みの3次元マップの評価結果に基づき一部の点のデータを利用しないようにすることも可能である。
また、3次元マップ生成部20は、3次元マップ生成処理において、これまでに生成された3次元マップから抽出したポリゴンデータ(以下、3次元マップのポリゴンデータという)または合成前の3次元画像から取得したポリゴンデータ(以下、3次元画像のポリゴンデータという)を使用するように構成することも可能である。例えば、該ポリゴンデータにより表現される計測対象の面(より具体的には、計測対象物体の面または計測対象空間に含まれる物体の面)の情報を、3次元画像のつなぎ合わせの処理に使用することができる。なお、3次元マップの生成および後述する3次元マップの評価に3次元画像のポリゴンデータを用いない場合は、ステップS2の動作を省略してもよい。
ステップS3にて3次元マップが生成された後、3次元計測装置の動作はステップS4へと移行する。ステップS4では、ポリゴン抽出部30が、生成後の3次元マップを構成している3次元点群データからポリゴンを抽出する。ポリゴンの抽出方法は、3次元画像に含まれる3次元点群データからの抽出方法と同様である。一般に、3次元マップにおいて3次元画像が重なる領域がある場合、当該領域のポリゴンは合成前の3次元画像のポリゴンよりも小さくなる。3次元マップ生成部20で生成された3次元マップは、ポリゴン抽出部30が抽出した該3次元マップのポリゴンデータと合わせて、3次元マップ記憶部50に記憶される。ここで、3次元マップに対応するポリゴンデータは、3次元マップを構成する各点を含む3次元点群から生成されたポリゴンのデータである。
ステップS4の後、3次元計測装置の動作はステップS5へと移行する。ステップS5では、マップ評価部60が、3次元マップ記憶部50に記憶されている生成済みの3次元マップの品質を評価する。マップ評価部60は、(1)3次元画像を撮影した時の被写体とされた物体までの距離、(2)計測時の3次元画像センサの姿勢、(3)3次元マップを構成する点群の密度、(4)3次元マップの充足度、に基づいて3次元マップの品質を評価する。これらのうち(1)と(2)は、3次元マップの計測精度、より具体的には3次元マップを構成している3次元点群データまたは3次元マップの元となった3次元画像の3次元点群データの計測精度を指標として用いる。換言すると、マップ評価部60は、計測精度、点群密度および充足度の3つの指標を用いて、3次元マップの品質を評価する。このとき、マップ評価部60は、ポリゴン抽出部30が抽出したポリゴンに基づき、3次元マップの品質を評価することで、3次元マップの生成におけるメモリ消費を抑制する。マップ評価部60は、上記指標のすべてを用いなくてもよい。また、マップ評価部60は、上記指標のすべてについて、ポリゴンを利用して品質を評価しなくてもよい。例えば、マップ評価部60は、上記指標のいずれか1つのみを用いて3次元マップの品質を評価することも可能である。
次に、マップ評価部60の各構成要素について説明する。
図6は、マップ評価部60の構成例を示すブロック図である。マップ評価部60は、計測距離評価部61と、計測姿勢評価部62と、点群密度評価部63と、マップ計測精度評価部64と、マップ充足度評価部65とを備える。3次元マップの品質の指標のうち、計測距離評価部61、計測姿勢評価部62、およびマップ計測精度評価部64が3次元マップの計測精度を、点群密度評価部63が3次元マップの点群密度を、マップ充足度評価部65が3次元マップの充足度を評価する。従来技術では3次元マップの充足度のみが評価されていたが、本実施の形態の3次元計測装置は、計測精度、点群密度および充足度という3つの指標を用いて3次元マップの品質を評価することができる。
なお、マップ評価部60は必ずしも前述の構成要素全てを備える必要はない。例えば、3次元マップの点群密度を考慮する必要がない場合には、マップ評価部60の構成要素から点群密度評価部63を省いた構成とすることも可能である。また、例えば、3次元マップの計測精度を考慮する必要がない場合には、マップ評価部60の構成要素から計測距離評価部61、計測姿勢評価部62およびマップ計測精度評価部64を省いた構成とすることも可能である。なお、計測精度として、計測距離または計測姿勢を考慮する必要がない場合は、さらにマップ評価部60の構成要素からさらに計測距離評価部61または計測姿勢評価部62と、マップ計測精度評価部64とを省いた構成とすることも可能である。また、例えば、3次元マップの充足度を考慮する必要がない場合には、マップ評価部60の構成要素からマップ充足度評価部65を省いた構成とすることも可能である。
図6において、計測距離評価部61は、3次元マップの生成に使用した3次元画像を撮影した時の3次元画像センサ1から3次元マップで表現する物体までの距離に関する評価を実行する。3次元画像センサの一般的な性質として、センサから被写体までの距離が遠いほど、距離の計測精度が悪化する。この性質を踏まえて、計測距離評価部61は、3次元マップの生成に用いた3次元画像の撮影時において上記距離が小さい計測データ(3次元マップを構成する3次元点群データに含まれる各点に対応するデータ)に対して高い評価値を与えるように動作する。すなわち、計測距離評価部61は、3次元マップを構成する3次元点群データが示す計測対象の位置(より具体的には、計測対象物体の位置または計測対象空間に含まれる物体の位置)と、該計測対象の位置に対応する点に関するデータ(例えば、距離値)を含む3次元画像を取得した際の3次元画像センサの位置との距離を評価する。
具体的には、計測距離評価部61は、まず3次元マップ記憶部50に記憶されている3次元マップを読み込む。次に、この3次元マップを生成するために使用した3次元画像を3次元画像記憶部40から読み込む。そして、読み込んだ3次元画像に記録されている距離値に基づき、3次元マップを構成する3次元点群データが示す各点に対して評価値を割り付けていく。
計測姿勢評価部62は、3次元マップの生成に使用した3次元画像を撮影した際の、3次元画像の被写体(3次元マップで表現される物体 )に対する3次元画像センサ1の向き(姿勢)に関する評価を実行する。3次元画像センサの一般的な性質として、センサで物体の面を撮影する際、物体の面に対してセンサの向きが正面に近いほど距離情報の計測精度が高くなる。この性質を踏まえて、計測姿勢評価部62は、3次元マップのポリゴンデータまたは3次元マップの生成に使用した3次元画像のポリゴンデータに基づき、計測対象の面(より具体的には、計測対象物体の面または計測対象空間に含まれる物体の面)と3次元画像センサ1との相対的な姿勢を評価する。計測姿勢評価部62は、3次元マップのポリゴンデータまたは3次元マップの生成に使用した3次元画像のポリゴンデータが示す各ポリゴンの法線ベクトルと、このポリゴンの頂点をなす点に関するデータを含む3次元画像を取得した際の3次元画像センサの光軸方向ベクトルとの内積を計算して、上記相対的な姿勢を評価してもよい。なお、3次元画像の合成時に、異なる3次元画像に含まれる3次元点群データがつなぎあわされた結果、あるポリゴンの頂点のデータを含む3次元画像が異なる場合の3次元画像センサの光軸方向ベクトルについては次のように扱ってもよい。計測姿勢評価部62は、例えば、最多の頂点のデータを含む3次元画像における3次元画像センサの光軸方向ベクトルを用いてもよいし、各頂点のデータを含む3次元画像における3次元画像センサの光軸方向ベクトルの合成ベクトルを用いてもよい。
内積の絶対値が1に近いほど、相対的に高い評価値を与えるように動作する。例えば、内積の絶対値(0~1)をこのまま評価値としてもよいし、内積の絶対値に対する閾値を1つまたは複数設けて、閾値より大きい値となったポリゴンに対して、該閾値以下であったポリゴンよりも高い評価値を付してもよい。そして、3次元マップを構成する各点に対して評価値を割り付ける。
3次元マップを構成する各点にポリゴンの評価値を割り付ける方法としては、次の例が挙げられる。例えば、各ポリゴンの評価値をこのポリゴンを構成している各点の評価値に割り振った上で、各点においてそれら評価値を加算していく方法でもよい。また、例えば、各ポリゴンの評価値をこのポリゴンを構成している各点の評価値に割り振った上で、各点においてそれら評価値の平均をとる方法でもよい。また、各ポリゴンの評価値をこのポリゴンを構成している各点に割り振る方法は、例えば、ポリゴンの評価値をこのままこのポリゴンを構成している各点の評価値とする方法でもよいし、ポリゴンの評価値をこのポリゴンを構成している各点で分配(等分配等)する方法でもよい。なお、平均は、ポリゴンのサイズ等に応じた重みづけによる加重平均であってもよい。
計測姿勢評価部62による計測姿勢の評価の方法を、図7を用いて説明する。図7において、点621は3次元画像センサの位置(計測位置)、矢印622は点621を起点とした3次元画像センサ1の光軸方向ベクトルを表しているとする。そして、白抜き丸印で示している点623a、点623b、点623c、および点623dの4点が3次元点群データとして得られたとする。すると、ポリゴン抽出部30で3次元点群データからポリゴンを抽出する処理を実行することにより、ポリゴン624aとポリゴン624b、およびそれぞれに対応する法線ベクトルとして法線ベクトル625aと法線ベクトル625bが得られる。このとき、光軸方向ベクトル622と法線ベクトル625aのなす角度は約180度であり、これらのベクトルの内積の絶対値は1に近くなる。これは、ポリゴン624aの面が方向ベクトル622に対してほぼ正対していることを示しており、点623aと点623bの距離の計測精度は高いと期待される。このため、計測姿勢評価部62は点623aと点623bに対して、これよりも内積の絶対値が0に近いポリゴンを構成している各点よりも高い評価値を与える。一方、方向ベクトル622と法線ベクトル625bの内積は0に近くなる。これは、3次元画像センサ1がポリゴン624bの面の向きに対して斜め向きに計測していることを示しており、点623cと点623dの距離の計測精度は低いと考えられる。このため、計測姿勢評価部62は点623cと点623dに対して、これよりも内積の絶対値が1に近いポリゴンを構成している各点よりも低い評価値を与える。なお、計測姿勢評価部62は、ポリゴンごとに上記内積に応じた評価値を求め、それを上述した方法により各点に割り付けてもよい。
点群密度評価部63は、生成済みの3次元マップの点群の密度に関する評価を実行する。点群密度評価部63は、点群の密度が高いほど、高い評価値を与えるように動作する。点群の密度は、ポリゴン抽出部30で抽出されるポリゴンの辺の長さの合計に基づいて算出する。具体的には、点群密度評価部63は、まず3次元マップ記憶部50に記憶されている3次元マップおよびこのポリゴンデータを読み込む。また、点群密度評価部63は、上記に代えて、3次元画像記憶部40に記憶されている3次元画像およびこのポリゴンデータを読み込んでもよい。そして、読み込んだポリゴンデータが示すポリゴンのサイズに基づき、3次元マップを構成する各点に対して評価値を割り付けていく。例えば、ポリゴンのサイズが相対的に小さいほど、このポリゴンを構成している点に対して高い評価値を割り付けていく。3次元マップまたは3次元画像のポリゴンと3次元マップを構成する各点との対応づけは、上述した3次元マップを構成する各点に対して評価値を割り付ける方法と基本的に同様でよい。なお、点群密度評価部63で算出される評価値は、3次元マップを構成する点毎以外に、3次元マップの小領域毎にも求められる。小領域毎の評価値の求め方は後述する。
マップ計測精度評価部64は、計測距離評価部61および計測姿勢評価部62のそれぞれの評価結果を統合した結果に基づき、3次元マップの計測精度の評価値を算出する。なお、計測距離評価部61、計測姿勢評価部62およびマップ計測精度評価部64で算出される評価値も、3次元マップを構成する点毎以外に、3次元マップの小領域毎にも求められる。
マップ計測精度評価部64は、計測距離評価部61および計測姿勢評価部62で算出された評価値の重み付け和を求めることにより、生成済みの3次元マップの計測精度に関する評価値を算出する。マップ計測精度評価部64は、生成済みの3次元マップの点群の寸法誤差が小さいほど、高い評価値を出力する。
各評価値の重み付けは、ユーザが任意に指定できるようにする。例えば、計測距離精度が高い3次元画像センサを使用する場合には、計測距離評価部61にて算出される計測距離に関する評価値の重みを小さく設定する。
3次元マップの小領域毎に評価値を求める方法としては、次のような方法が挙げられる。例えば、3次元マップを構成する点を少なくとも1つ含むように所定サイズの小領域(例えばボクセル)を3次元空間に対して定義し、この小領域毎に各々の評価値を算出するように構成してもよい。小領域は、3次元マップを構成する点を複数含むように定義されてもよい。
点を含む小領域毎に評価することにより、局所的な領域に対して計測精度および点群密度を評価することができる。なお、この方法では点を含まない領域に対して上記の評価がされないが、このような領域については後述する充足度を用いて評価すればよい。
また、例えば、3次元マップを多数の立方体(小領域)で等分割し、この立方体内に含まれる各点の評価値の平均をこの小領域の評価値とすることも可能である。評価値自体は3次元マップを構成する各点に割り付けられているため、仮に小領域の数が増えたとしても、3次元マップの生成におけるメモリ消費が増えるわけではない。
マップ充足度評価部65は、欠損のない3次元マップが生成できているかといった、3次元マップの充足度を評価する。より具体的に、マップ充足度評価部65は、3次元マップ内に仮想的な視点を設定し、仮想的な視点を中心とする仮想球上において、3次元マップのポリゴンの表面または裏面が射影された領域の表面積を求めることにより、3次元マップの充足度に基づく評価値を算出する。
マップ充足度評価部65によるマップ充足度の評価の方法を、図8から図10を用いて説明する。ここで、図8に平面図として示している回廊の形状の空間の3次元マップを、本実施の形態に係る3次元計測装置を用いて生成する場合を考える。図8において、白色の部分が、3次元計測装置が移動できる空間を表し、斜線でハッチングされている部分が壁の内側または裏側にあたる範囲を表す。
図9は、本実施の形態に係る3次元計測装置が空間を計測する様子を示している。図9では2次元の図面を用いて計測の様子を説明しているが、実際の3次元計測装置では3次元空間中で動作する。図9の黒丸の点は3次元画像センサの位置、黒丸の点に付随する三角形は、3次元画像センサの画角(視野)を表現している。3次元計測装置は、黒丸で表している点651aを初期位置として、矢印にて示す順番で点651b、点651c、点651dと移動していき、点651dの位置で現在停止しているとする。このように3次元空間を計測することにより、図9で実線と一点鎖線で示す3次元マップ、ならびにこの3次元マップに付随するポリゴン(図示しない)が生成されたとする。図9において、実線301側がポリゴンの表面であり、一点鎖線302側はポリゴンの裏面であるとする。また、図9の点線303の部分は、3次元マップが作成されていない部分(領域)を表す。
このとき、生成済みの3次元マップの充足度を算出する方法を、図10を用いて説明する。まず、3次元マップ中のある仮想的な視点(立脚点)Pを中心とした仮想球652を定義する。そして、生成済みの3次元マップのポリゴンを、仮想球652へと射影する。図10の仮想球652において、仮想的な視点Pから見てポリゴンの表面が見えている範囲を実線311で、ポリゴンの裏面が見えている範囲を一点鎖線312で、ポリゴンが見えない範囲を点線313で、それぞれ示している。すなわち、仮想的な視点Pを基準に、実線311は仮想的な視点Pから見て計測済みの範囲を、一点鎖線312は仮想的な視点Pから見て計測対象の面として裏側のみが計測されている範囲を、点線313は未計測の範囲をそれぞれ示している。このように、仮想的な視点Pからのポリゴンの見え方を求めた後、ポリゴンの表面が仮想球に射影された領域(図10の実線311の範囲に対応)の表面積を求める。この表面積を、仮想的な視点Pを基準としたマップ充足度とする。
マップ充足度評価部65が仮想球を設定する場所は、計測対象を含む所定の空間内の任意の点を設定可能であるが、例えば3次元計測装置が既に移動してきた過去の経路上の、複数(例えば、1メートル間隔)の位置としてもよい。あるいは、3次元計測装置が移動してきた過去の経路の、近傍の位置としてもよい。近傍の位置とは、3次元画像センサによる3次元画像の撮影位置と、撮影した3次元画像から抽出されたポリゴンとの間の点とする。仮想球の位置をこのように設定することにより、実際には計測が不可能な壁の内側のような位置を基準としたマップ充足度の評価が実行されないようにできる。
実施の形態1に係る3次元計測装置が備えるマップ充足度評価部65を、従来技術を用いて実現することも可能である。しかしながら、従来技術では、生成する3次元マップの充足度の評価においてボクセルを使用しているため、SLAMのように、3次元マップの生成中にデータが逐次拡大していく手法においては、事前にデータの規模を想定して大量のメモリを確保する必要がある。一方、本実施形態の3次元計測装置は、3次元マップの評価をポリゴンに基づいて行っているため、空間全体を埋めるように生成していくボクセルと異なり、ポリゴンは計測対象の面(特に表面)が存在する領域にのみ生成されればよいため、メモリの使用量を大幅に低減できる。さらに、本実施形態では、任意に設定可能な仮想視点からのポリゴンの見え方に基づいて3次元マップの充足度を評価できるので、複雑な形状の計測対象であっても、メモリの使用量を抑えながら、欠損のない3次元マップを得ることができる。さらに、得られた3次元マップの評価結果を利用して、次に計測すべき位置、該位置までの経路または次の仮想視点を決定したり、仮想視点の設定位置や設定間隔を調整するなど計測計画を最適化することで、さらに適切に、メモリの使用量の削減効果と複雑な形状に対応した3次元マップの充足度とを両立できる。
再び、図3および図4を用いた、実施の形態1に係る3次元計測装置の動作の説明に戻る。
ステップS5にて3次元マップの品質を評価した後、3次元計測装置の動作はステップS6へと移行する。ステップS6では、計測計画生成部70は、3次元マップの評価結果に基づいて、計測計画を生成する。計測計画は、新たに(例えば、次回以降に)3次元画像を取得すべき対象領域(以下、計測対象領域という)または該計測対象領域の3次元画像を取得可能な位置(計測位置)を示す情報を含む。なお、計測計画に含まれる計測対象領域および計測位置は、すでに3次元画像を取得済みの領域および位置と同一であってかまわない。
また、計測計画は、計測方向(計測対象領域に対する計測方向または計測位置における計測方向)を示す情報を含んでいてもよい。また、計測計画は、複数の計測対象領域または複数の計測位置を示す情報を含んでいてもよい。また、計測計画は、計測位置までの経路を示す情報を含んでいてもよい。
以下では、計測計画として、次に計測すべき計測対象領域を示す情報と、該計測対象領域に対する計測方向を示す情報と、該計測対象領域の3次元画像を取得可能な計測位置までの経路を示す情報とを生成した場合を例に説明する。
計測計画生成部70は、例えば、3次元マップの計測精度、点群密度および充足度のうちの少なくとも1つの指標の評価に基づいて、次の計測対象領域と該計測対象領域への視線方向とを決定してもよい。そして、計測計画生成部70は、決定された計測対象領域の3次元画像を取得可能な位置に、移動ロボットが移動するように、現在位置から該位置までの経路を生成してもよい。また、計測計画生成部70は、例えば、3次元マップの計測精度、点群密度または充足度のうちの少なくとも1つの指標の評価に基づいて、次の計測位置と視線方向とを決定してもよい。そして、計測計画生成部70は、決定された計測位置に、移動ロボットが移動するように、現在位置から該位置までの経路を生成してもよい。計測計画生成部70は、生成した移動経路の情報を含む計測計画を、移動情報出力部5へと出力してもよい。
3次元マップの品質の要素のうち、計測精度、点群密度、充足度のどれを用いるか、またどれをどの程度優先するかは、生成する3次元マップのアプリケーションに応じて、ユーザが指定できるようにする。例えば、空間の3次元形状を大まかに知ることができれば十分なアプリケーションであれば、マップ充足度の評価値の重みを大きく設定する。こうすることにより、計測計画生成部70は、欠損のない3次元マップが生成できるような計測計画を生成する。
なお、図3における3次元マップ生成部20とマップ評価部60とを結ぶ矢印に示すように、ステップS5にて3次元マップの品質を評価した結果を、ステップS3の3次元マップの生成にフィードバックするように処理の流れを構成することも可能である。すなわち、マップ評価部60で得られるマップの特に計測精度の評価結果に基づき、3次元マップ生成部20が、生成済みの3次元マップを更新する。例えば、計測対象の同一の箇所を撮影した3次元画像データが3次元画像記憶部40に複数格納されており、これらを撮影した時の計測距離、点群密度、計測姿勢のいずれかが異なるとする。この場合、3次元マップ生成部20は、マップ評価部60の評価結果に基づき、より品質の高い3次元画像データを3次元画像記憶部40から選択し、3次元マップの生成に使用するようにしてもよい。具体的には、3次元マップ生成部20において、より近距離で撮影された3次元画像データ、より点群密度の高い3次元画像データ、ならびに撮影物体の面に対して正面向きに近い姿勢で撮影された3次元画像データを3次元画像記憶部40から読み出し、3次元マップの生成に利用する。なお、ここでいう3次元画像データは必ずしも1つの3次元画像から得られるすべてのデータでなくてもよく、1つの3次元画像から得られるデータの一部であってもよい。例えば、3次元マップ生成部20は、複数の3次元画像間で撮影範囲が重複している場合に、それら3次元画像のうち同じ個所を撮影した部分のデータの中からより評価が高いデータを読み出し、3次元マップの生成に利用してもよい。また、例えば、3次元マップ生成部20は、複数の3次元画像間で撮影範囲が重複していない場合であっても、評価結果が所定の閾値未満のデータを3次元マップの生成に利用しないようにすることも可能である。
そして、3次元マップ記憶部50に記憶されている3次元マップを更新する。3次元マップ生成部をこのような動作とすることにより、より品質の高い3次元画像データからなる3次元マップを生成することができる。
ステップS6にて計測計画を生成した後、3次元計測装置の動作はステップS7へと移行する。ステップS7では、3次元計測装置によるマップ生成処理を終了するか否かの判定処理を実行する。終了しない場合にはステップS1へと戻り、前述の手順を繰り返す。ステップS7においては、例えば、生成すべき3次元マップの品質の基準をあらかじめ定めておき、生成途中の3次元マップがこの基準を満たしているか否かにより、終了を判定する。あるいは、入力部2を介したユーザの操作により終了の指示がなされた場合に、マップ生成処理を終了する。
次に、実施の形態1に係る3次元計測装置が備える構成要素のうち、その他の構成要素について説明する。
図3において、入力イベント処理部80は、3次元計測装置に対して、入力部2を介してユーザが与えた入力指示を受け取る。入力イベント処理部80が受け取る指示入力は、例えば3次元マップ生成処理の開始・一時停止・終了などの、3次元計測装置の動作に関する指示である。また、入力イベント処理部80は、3次元マップ生成部20、マップ評価部60、計測計画生成部70の内部動作に関するパラメータの設定情報を受け取り、各部に転送する機能を有する。さらに、3次元マップの作成が必要な区域と不要な区域が存在する場合、あるいは立ち入り禁止の区域が存在する場合、これらの区画に関する情報を計測計画生成部70へと入力する。
表示制御部90は、3次元画像センサ1により取得された3次元画像、および3次元マップ生成部20で生成された3次元マップを表示部4に表示するための画像(表示画面等)を生成し、この画像データを表示部4に送出する。また、表示制御部90は、計測計画生成部70で生成された計測計画に基づく情報を表示部4に表示するための画像を生成し、この画像データを表示部4に送出してもよい。このとき、表示制御部90は、計測計画に基づいて、3次元画像を取得すべき計測対象領域または計測位置を示す情報を、取得された3次元画像または生成された3次元マップに重畳させて表示部4に表示するための画像を生成し、この画像データを表示部4に送出してもよい。
図11は、表示部4が表示する画像の例として、左側に3次元画像センサ1により取得されるカラー画像(a)と距離画像(b)を、右側に生成途中の3次元マップ(c)を並べた例である。図11中の左下の距離画像(b)は、例えば距離を画像の濃淡に変換して表示した一例である。表示制御部90と表示部4は、同一の筐体に具備するようにして有線通信してもよいし、または無線通信により3次元計測装置から離れた位置にある表示部4へ画像データを送出するように構成してもよい。
以上のように、実施の形態1に係る3次元計測装置によれば、生成する3次元マップから逐次抽出するポリゴンを用いて3次元マップを構成する3次元点群データの計測精度、3次元マップの充足度および3次元マップの密度に基づく品質評価を含んだ3次元マップの品質評価を行うため、従来技術と比較して、高精度な3次元マップをより少ないメモリ量で得ることができる。したがって、例えば、大規模な空間や複雑な形状の空間であっても、大容量のメモリ等を用意しなくても簡便に高精度な3次元マップを得ることができる。
さらに、3次元計測装置を移動ロボットに搭載し、3次元計測装置が生成する計測計画に基づいて移動ロボットを移動させたり、3次元画像センサの姿勢を変更させて自律的に空間の3次元計測を行うよう構成すれば、人手を介することなく効率的に空間の3次元マップを得ることもできる。
なお、上記の3次元画像センサ1を移動ロボットに搭載し、該移動ロボットとネットワークを介して接続された3次元計測装置が移動ロボットから取得した3次元画像を用いて、3次元マップの生成を行ってもよい。この場合、3次元計測装置は、生成した3次元マップを評価して計測計画を生成し、生成した計測計画に基づいて、移動ロボットに制御信号を出力してもよい。このような構成であっても、上記と同様の効果を得ることができる。
実施の形態2.
実施の形態1では、3次元計測装置またはこの一部の機能を移動ロボットに搭載して3次元マップを生成していた。実施の形態2では、3次元計測装置またはこの一部の機能を手押し車型移動装置に搭載し、この手押し車型移動装置をユーザが手で押して移動することで空間を計測する。本実施形態では、上述した3次元計測装置の構成要素のうち少なくとも3次元画像センサ1および表示部4が手押し車型移動装置に搭載される。
図12は、3次元計測装置を手押し車型移動装置2000に搭載し、ユーザが手押し車型移動装置2000を押して移動しながら計測する様子を示した図である。図12において、太線の直線および破線で示す四角錐は手押し車型移動装置2000の視野の範囲(それぞれ撮影範囲2001、撮影範囲2002)を模式的に示したものである。
ユーザ自身が3次元計測装置を動かしながら空間の3次元計測を実施する場合、3次元計測装置は、ユーザが次にどこを計測すべきかをユーザに提示し、ユーザを誘導するように構成してもよい。例えば、3次元計測装置が備える計測計画生成部70が、次の計測位置または該計測位置への移動経路を含む計測計画を生成した後、この計測計画に従って現在の位置から次の計測位置に到達するための動作指令信号を生成し、ユーザが移動するように誘導する表示画面を表示制御部90で生成し、表示部4に表示してもよい。
図13は、計測計画に基づく情報を表示部4に表示し、ユーザを誘導する例を示している。図13では、3次元画像センサにより取得されたカラー画像(d)を左上に表示し、さらに、移動経路(本例では進行方向)および計測対象領域をこのカラー画像(d)に重畳して表示している。カラー画像(d)を用いた視覚的な誘導と合わせて、左下にはユーザに対するメッセージの表示板(e)を表示している。例えば、図13に示すように、表示板(e)において、「計測漏れの場所があります。矢印の方向に進んで計測して下さい。」、および「点群密度が不十分です。色が塗られている部分を計測して下さい。」を表示する。また、図13の右側は、図11と同じく、生成途中の3次元マップ(c)を表している。
実施の形態2に係る3次元計測装置において、以上で述べた以外の動作は、実施の形態1で説明したものと同様である。
実施の形態2に係る3次元計測装置によれば、ユーザは手押し車型移動装置に搭載された3次元計測装置を手で押して空間を計測できる。このとき、ユーザは、表示部に表示された情報を基にユーザが手押し車型移動装置を移動させることで、必要十分な3次元画像を効率的に取得することができる。また、実施の形態2に係る3次元計測装置によれば、例えば3次元マップの作成が必要な区域と不要な区域が存在する場合、あるいは立ち入り禁止の区域が存在するような場合に、ユーザが計測時に現場で判断しながら計測を実施することができる。したがって、実施の形態2に係る3次元計測装置によれば、人手による判断が必要な計測条件を有する空間であっても、効率的な3次元マップに取得できる。
また、実施の形態2に係る手押し車型移動装置に搭載される3次元計測装置は、実施の形態1で説明したのと同様の効果も有する。
実施の形態3.
実施の形態1ならびに実施の形態2では、3次元計測装置またはこの一部の機能が床面上を走行する移動ロボットまたは手押し車型移動装置に搭載される例を示した。実施の形態3では、3次元計測装置またはこの一部の機能(少なくとも3次元画像センサ1および表示部4)を携帯型端末によって構成する。すなわち、ユーザは3次元画像センサと表示部4とを少なくとも備える3次元計測装置を手に持って空間を計測する。3次元計測装置10000は、例えばタブレットPCにより実現される。
図14は、タブレットPCにより実現される3次元計測装置10000をユーザが手に持ち、屋内の3次元空間を計測している様子を示した図である。図14において、太線の直線および破線で示す四角錐はユーザ手持ちの3次元計測装置10000の視野の範囲(それぞれ撮影範囲10001、撮影範囲10002)を模式的に示したものである。3次元画像センサ1は、3次元計測装置10000に一体で取り付けられている。表示部4(ここではタブレットPCの画面)には、実施の形態2と同じく、図13に示したようなユーザを誘導する画面が表示される。
実施の形態3に係る3次元計測装置において、以上で述べた以外の動作は、実施の形態2で述べたものと同様である。
実施の形態3に係る携帯型の3次元計測装置は、携帯型端末等により実現されるので、ユーザが手にもって移動できる。このため、実施の形態3に係る携帯型の3次元計測装置によれば、人手による判断が必要な計測条件を有する空間だけでなく、移動ロボットが入りにくい狭隘な空間、および複雑な形状の物体が存在する空間でも効率的に3次元マップを得ることができる。
また、実施の形態3に係る3次元計測装置は、実施の形態1で述べたのと同様の効果も有する。
[付記1]
計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得する3次元画像取得部と、
前記3次元画像を合成して、合成後の3次元点群データにより前記計測対象の3次元形状が表現される3次元マップを生成する3次元マップ生成部と、
前記3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる前記3次元画像に含まれる3次元点群データから、ポリゴンを抽出するポリゴン抽出部と、
前記ポリゴンに基づき、前記3次元マップの品質を評価するマップ評価部と、
前記3次元マップの品質の評価結果に基づき、前記3次元画像を取得すべき計測対象領域または計測位置を示す情報を含む計測計画を生成する計測計画生成部と、
を備える3次元計測装置。
[付記2]
計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得する3次元画像取得部と、
前記3次元画像を合成して、合成後の3次元点群データにより前記計測対象の3次元形状が表現される3次元マップを生成する3次元マップ生成部と、
前記3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる前記3次元画像に含まれる3次元点群データから、ポリゴンを抽出するポリゴン抽出部と、
前記ポリゴンに基づき、前記3次元マップの品質を評価するマップ評価部と、
前記3次元マップの品質の評価結果に基づき、現在の位置から次に前記3次元画像を取得すべき計測位置までの移動経路を示す情報を含む計測計画を生成する計測計画生成部と を備える3次元計測装置。
[付記3]
前記ポリゴンは、抽出元とされた3次元点群データが示す3次元点群内の近傍の3点を接続する三角形の面素である付記1または付記2に記載の3次元計測装置。
[付記4]
前記ポリゴンは、裏面と表面が定義された三角形の面素であり、
前記ポリゴンの法線ベクトルの向きは、前記ポリゴンの頂点をなす点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの視線の方向ベクトルとの内積が負になるように定義され、
前記ポリゴンの法線ベクトルの向きが正の側を前記ポリゴンの表面、負の側を裏面とされる
付記1から3のうちのいずれかに記載の3次元計測装置。
[付記5]
前記マップ評価部において評価される前記品質の指標には、前記3次元マップの計測精度が含まれる付記1から4のいずれかに記載の3次元計測装置。
[付記6]
前記マップ評価部において評価される前記品質の指標には、前記3次元マップの点群密度が含まれる付記1から5のいずれかに記載の3次元計測装置。
[付記7]
前記マップ評価部において評価される前記品質の指標には、前記3次元マップの充足度が含まれる付記1から6のいずれかに記載の3次元計測装置。
[付記8]
前記マップ評価部は、
前記ポリゴンを抽出した3次元点群データが示す物体の位置と、前記物体の位置に対応する点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの位置との距離を評価する計測距離評価部を含み、
前記計測距離評価部による評価に基づき前記3次元マップの計測精度を評価する
付記5に記載の3次元計測装置。
[付記9]
前記マップ評価部は、
前記ポリゴンの法線ベクトルと、前記ポリゴンの頂点をなす点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの光軸方向ベクトルとの内積を計算することにより、前記3次元画像センサと前記ポリゴンとの相対的な姿勢を評価する計測姿勢評価部を含み、
前記計測姿勢評価部による評価に基づき前記3次元マップの計測精度を評価する付記5または8に記載の3次元計測装置。
[付記10]
前記マップ評価部は、
前記ポリゴンの辺の長さを求めることにより、前記3次元マップの品質の評価として前記3次元マップの点群密度に基づく評価値を算出する点群密度評価部を含み、
前記点群密度評価部による評価に基づき前記3次元マップの点群密度を評価する付記6に記載の3次元計測装置。
[付記11]
前記マップ評価部は、
前記3次元マップ内に仮想的な視点を設定し、前記仮想的な視点を中心とする仮想球上において、前記ポリゴンの表面が射影された領域の表面積を求めることにより、前記3次元マップの充足度に基づく評価値を算出するマップ充足度評価部を含み、
前記充足度評価部による評価に基づき前記3次元マップの充足度を評価する付記7に記載の3次元計測装置。
1 3次元画像センサ、2 入力部、3 計測処理部、4 表示部、5 移動情報出力部、10 3次元画像取得部、20 3次元マップ生成部、30 ポリゴン抽出部、40 3次元画像記憶部、50 3次元マップ記憶部、60 マップ評価部、70 計測計画生成部、80 入力イベント処理部、90 表示制御部、10000 3次元計測装置

Claims (16)

  1. 計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得する3次元画像取得部と、
    前記3次元画像を合成して、合成後の3次元点群データにより前記計測対象の3次元形状が表現される3次元マップを生成する3次元マップ生成部と、
    前記3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる前記3次元画像に含まれる3次元点群データから、ポリゴンを抽出するポリゴン抽出部と、
    前記ポリゴンに基づき、前記3次元マップの品質を評価するマップ評価部と、
    前記3次元マップの品質の評価結果に基づき、前記3次元画像を取得すべき計測対象領域または計測位置を示す情報を含む計測計画を生成する計測計画生成部と、
    を備える3次元計測装置。
  2. 前記マップ評価部は、前記ポリゴンに基づき、前記3次元マップの充足度を少なくとも指標として前記3次元マップの品質を評価する請求項1に記載の3次元計測装置。
  3. 前記ポリゴンは、表面および裏面が定義された多角形の面素であることを特徴とする請求項1または2に記載の3次元計測装置。
  4. 前記表面および前記裏面は、前記ポリゴンの頂点をなす点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの視線方向に基づき特定される法線ベクトルの向きに応じて定められる請求項3に記載の3次元計測装置。
  5. 前記マップ評価部は、
    前記3次元マップ内に仮想的な視点を設定し、前記仮想的な視点を中心とする仮想球上において、前記ポリゴンの表面が射影された領域の表面積を求めることにより、前記3次元マップの充足度に基づく評価値を算出するマップ充足度評価部を備える請求項1から4のうちのいずれか1項に記載の3次元計測装置。
  6. 前記マップ評価部は、
    前記ポリゴンを抽出した3次元点群データが示す物体の位置と、前記物体の位置に対応する点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの位置との距離を評価する計測距離評価部と、
    前記ポリゴンの法線ベクトルと、前記ポリゴンの頂点をなす点に関するデータを含む前記3次元画像を取得した際の3次元画像センサの光軸方向ベクトルとの内積を計算することにより、前記3次元画像センサと前記ポリゴンとの相対的な姿勢を評価する計測姿勢評価部と、
    前記計測距離評価部の評価結果と前記計測姿勢評価部の評価結果とを統合し、前記3次元マップの品質の評価として前記3次元マップの計測精度に基づく評価値を算出するマップ計測精度評価部と、
    を備える請求項1から5のいずれか1項に記載の3次元計測装置。
  7. 前記マップ評価部は、
    前記ポリゴンの辺の長さを求めることにより、前記3次元マップの品質の評価として前記3次元マップの点群密度に基づく評価値を算出する点群密度評価部を備える請求項1から6のいずれか1項に記載の3次元計測装置。
  8. 前記3次元マップ生成部は、前記3次元画像に含まれる3次元点群データから抽出される前記ポリゴンにより表現される被写体の面の情報を利用して、前記3次元マップを生成する請求項1から7のいずれか1項に記載の3次元計測装置。
  9. 前記計測計画生成部は、3次元画像を取得すべき1つ以上の計測対象領域または計測位置を示す情報と、前記計測対象領域または前記計測位置における計測方向を示す情報とを含む計測計画を生成する請求項1から8のいずれか1項に記載の3次元計測装置。
  10. 前記計測計画生成部は、次回の計測対象領域または計測位置を示す情報と、現在の位置から前記計測対象領域の3次元画像を取得可能な位置または前記計測位置までの移動経路を示す情報とを含む計測計画を生成する請求項1から9のいずれか1項に記載の3次元計測装置。
  11. 前記3次元画像を撮影する3次元画像センサと、
    前記計測計画に基づいて情報を表示する表示部と、
    を備える請求項1から10のいずれか1項に記載の3次元計測装置。
  12. 前記計測計画に基づいて、前記3次元画像を取得すべき計測対象領域または計測位置を示す情報を、前記3次元画像または前記3次元マップに重畳させて前記表示部に表示させる表示制御部を備える請求項11に記載の3次元計測装置。
  13. 携帯型である請求項1から12のいずれか1項に記載の3次元計測装置。
  14. 請求項1から13のいずれか1項に記載の3次元計測装置であって、前記3次元画像を撮影する3次元画像センサと、前記計測計画に基づいて情報を表示する表示部と、を備える3次元計測装置が搭載される手押し車型移動装置。
  15. 請求項1から13のいずれか1項に記載の3次元計測装置であって、前記3次元画像を撮影する3次元画像センサを備える3次元計測装置が搭載され、
    前記3次元計測装置で生成される計測計画に基づき、現在の位置から次の計測位置に到達するための動作指令信号を生成して出力する移動情報出力部と、
    前記動作指令信号に基づき移動する駆動部と、
    を備える移動ロボット。
  16. 計測対象の3次元画像であって、3次元空間中の物体表面の点である3次元点に関するデータの集合である3次元点群データを含む3次元画像を取得するステップと、
    前記3次元画像を合成して、合成後の3次元点群データにより前記計測対象の3次元形状が表現される3次元マップを生成するステップと、
    前記3次元マップを構成する3次元点群データまたは3次元マップの生成に用いられる前記3次元画像に含まれる3次元点群データから、ポリゴンを抽出するステップと、
    前記ポリゴンに基づき、前記3次元マップの品質を評価するステップと、
    前記3次元マップの品質の評価結果に基づき、前記3次元画像を取得すべき計測対象領域または計測位置を示す情報を含む計測計画を生成するステップと、
    を含む3次元計測処理方法。
JP2020558839A 2018-12-11 2018-12-11 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 Active JP7006810B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045498 WO2020121406A1 (ja) 2018-12-11 2018-12-11 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法

Publications (2)

Publication Number Publication Date
JPWO2020121406A1 JPWO2020121406A1 (ja) 2021-09-02
JP7006810B2 true JP7006810B2 (ja) 2022-01-24

Family

ID=71077183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558839A Active JP7006810B2 (ja) 2018-12-11 2018-12-11 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法

Country Status (2)

Country Link
JP (1) JP7006810B2 (ja)
WO (1) WO2020121406A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247573B2 (ja) * 2018-12-17 2023-03-29 凸版印刷株式会社 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム
CN112967400B (zh) * 2021-04-13 2022-07-15 成都四方伟业软件股份有限公司 一种基于Unity3D的三维图表动态创建方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237847A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006064453A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元形状入力装置および方法
JP6323993B2 (ja) * 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237847A (ja) 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
JPWO2020121406A1 (ja) 2021-09-02
WO2020121406A1 (ja) 2020-06-18

Similar Documents

Publication Publication Date Title
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
US20220196840A1 (en) Using photometric stereo for 3d environment modeling
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
US11263823B2 (en) Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
KR101835434B1 (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
CN104956404B (zh) 具有功率有效深度传感器使用的实时三维重建
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
JP4392507B2 (ja) 3次元サーフェス生成方法
CN112771539A (zh) 采用使用神经网络从二维图像预测的三维数据以用于3d建模应用
JP5248806B2 (ja) 情報処理装置、情報処理方法
US11120613B2 (en) Image generating device and method of generating image
CN111031897A (zh) 用于分析皮肤状况的系统和方法
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110648274B (zh) 鱼眼图像的生成方法及装置
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
CN110312111A (zh) 用于图像装置的自动校准的装置、系统和方法
US11893705B2 (en) Reference image generation apparatus, display image generation apparatus, reference image generation method, and display image generation method
KR20130068575A (ko) 인터랙티브 증강 공간 제공 방법 및 시스템
CN116485984B (zh) 全景影像车辆模型全局光照模拟方法、装置、设备及介质
JP7006810B2 (ja) 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法
CN110322541A (zh) 一种从五个倾斜相机中选择最优墙面纹理的方法
US20230245396A1 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications
US20180213215A1 (en) Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape
Du et al. Design and evaluation of a teleoperated robotic 3-D mapping system using an RGB-D sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220