JPWO2017126060A1 - 3次元計測装置及びその計測支援処理方法 - Google Patents

3次元計測装置及びその計測支援処理方法 Download PDF

Info

Publication number
JPWO2017126060A1
JPWO2017126060A1 JP2017562217A JP2017562217A JPWO2017126060A1 JP WO2017126060 A1 JPWO2017126060 A1 JP WO2017126060A1 JP 2017562217 A JP2017562217 A JP 2017562217A JP 2017562217 A JP2017562217 A JP 2017562217A JP WO2017126060 A1 JPWO2017126060 A1 JP WO2017126060A1
Authority
JP
Japan
Prior art keywords
measurement
distance sensor
dimensional
mapping
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017562217A
Other languages
English (en)
Other versions
JP6489566B2 (ja
Inventor
亮輔 川西
亮輔 川西
関 真規人
真規人 関
慧介 三本木
慧介 三本木
優 榎本
優 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017126060A1 publication Critical patent/JPWO2017126060A1/ja
Application granted granted Critical
Publication of JP6489566B2 publication Critical patent/JP6489566B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

3次元計測装置において、計測装置本体は、距離センサの位置及び方向を算出する。また、計測装置本体は、距離センサを次に移動させるべき位置及び方向の候補である移動候補を決定する。さらに、計測装置本体は、移動候補において距離センサにより観測可能な特徴である移動候補内特徴を取得し、移動候補内特徴を用いて移動候補でのマッピングの安定性を評価する。さらにまた、計測装置本体は、評価結果に基づいて、距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示する。

Description

この発明は、例えば生産現場及びエレベータ昇降路などの3次元空間の寸法を計測し3次元マップを作成する3次元計測装置及びその計測支援処理方法に関するものである。
例えば生産現場及びエレベータ昇降路などでは、機器の据付又は保守のために3次元空間である作業環境の寸法を計測する必要がある。しかし、人手による3次元空間の計測は難しく、一部の箇所を計測し忘れたり一部の計測値が誤っていたりすることがしばしば発生する。このような場合、設計の修正又は部材の再加工等が発生し、作業の遅延につながる。
また、対象物件が顧客のものである場合、寸法の再計測のために、顧客に現場の停止(生産停止又はエレベータの運転停止等)を再度依頼しなければならない。
これに対して、3次元空間の形状を簡単に計測(スキャン)し、その3次元形状を保存することで、あらゆる箇所の寸法をいつでも計測できるようにし、またシミュレーション上での据付の検証を可能にすることが要求されている。
3次元空間の形状の取得方法の1つとして、3D(three-dimensional)センサを用いて手動でスキャンする方法がある。この場合、複数の計測データからそれぞれ特徴を抽出する。そして、計測データ間で共通して観測された特徴が重なるように計測データを位置合わせして、3次元マップを作成(更新)する。このようなデータの位置合わせ処理をマッピングと呼ぶ。
従来の画像処理装置では、制御部に3次元マップ生成部が設けられている。3次元マップ生成部は、カメラを移動させ、2地点において撮像させた2枚の2次元画像に基づいて部分的な3次元マップを生成する。また、制御部は、ガイドレール上の各地点からカメラに撮影させて、得られた画像から全体の3次元マップを生成し記憶する。さらに、制御部は、記憶している全体の3次元マップに基づいて、任意の撮像対象地点を見通せる地点を導出する。そして、導出した地点の近傍で、撮像対象地点を含む3次元マップが生成できるまでカメラ10に撮像させ、その部分の3次元マップを生成し、撮影対象地点の3次元マップを取得する(例えば、特許文献1参照)。
また、従来の自己位置推定方法では、移動体に搭載した撮像装置により撮像された画像中の特徴点を検出しつつ、移動体の移動に伴う画像上での特徴点の変化から移動体周囲の物体の位置を検出することで、自己位置を推定する。このとき、移動体がその場で回転していない場合には、撮像装置の撮像方向を初期方向とする。また、移動体がその場で回転している場合には、撮像装置の撮像方向を、移動体が回転する前に取得した画像に存在した特徴点の少なくとも一部を撮像可能な向きとする。これにより、特徴点をロストする可能性を低減して、自己位置推定が継続的に実施可能となる(例えば、特許文献2参照)。
特開2009−155056号公報 特許第5310285号公報
特許文献1に示された従来の画像処理装置では、マッピングの安定性評価を行うのがカメラの移動後であり、最適な視点は試行錯誤により決定しなければならない。
また、特許文献2に示された従来の自己位置推定方法では、マッピングの安定性を評価していないため、センサ経路によっては精度が低下する恐れがある。
この発明は、上記のような課題を解決するためになされたものであり、よりスムーズかつ精度良く3次元マップを作成することができる3次元計測装置及びその計測支援処理方法を得ることを目的とする。
この発明に係る3次元計測装置は、計測対象までの距離の計測データを3次元空間中の点の集合として取得可能な距離センサ、及び距離センサで取得した複数の計測データから特徴を抽出し、抽出した特徴を重ね合わせることにより3次元マップを作成する計測装置本体を備え、計測装置本体は、距離センサの位置及び方向を算出し、距離センサを次に移動させるべき位置及び方向の候補である移動候補を決定し、移動候補において距離センサにより観測可能な特徴である移動候補内特徴を取得し、移動候補内特徴を用いて移動候補でのマッピングの安定性を評価し、評価結果に基づいて、距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示する。
また、この発明に係る3次元計測装置の計測支援処理方法は、計測対象までの距離の計測データを3次元空間中の点の集合として取得可能な距離センサと、前記距離センサで取得した複数の計測データから特徴を抽出し、抽出した前記特徴を重ね合わせることにより3次元マップを作成する計測装置本体とを備えている3次元計測装置の計測装置本体によって、3次元計測を支援する処理方法であって、距離センサの位置及び方向を算出するステップ、距離センサを次に移動させるべき位置及び方向の候補である移動候補を決定するステップ、移動候補において距離センサにより観測可能な特徴である移動候補内特徴を取得するステップ、移動候補内特徴を用いて移動候補でのマッピングの安定性を評価するステップ、及び評価結果に基づいて、距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示するステップを含む。
この発明の3次元計測装置及びその計測支援処理方法は、マッピングの安定性の評価結果に基づいて、距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示するので、よりスムーズかつ精度良く3次元マップを作成することができる。
この発明の実施の形態1による3次元計測装置を示すブロック図である。 使用者が実施の形態1の3次元計測装置により計測対象をスキャンして3次元マップを作成している様子を示す平面図である。 図2の作業の様子を使用者の後方から見た図である。 図1の特徴抽出部による形状的な特徴の抽出方法の例を示す説明図である。 図1の特徴抽出部により得られた第1及び第2の特徴点群を並べて示す説明図である。 図5の第1及び第2の特徴点群の共通部分を重ねた状態を示す説明図である。 図6の第1及び第2の特徴点群に第3及び第4の特徴点群の共通部分を重ねた状態を示す説明図である。 予測誤差が小さい場合のマッピング結果の一例を示す説明図である。 予測誤差が大きい場合のマッピング結果の一例を示す説明図である。 図1の出力部による表示装置への表示内容の一例を示す説明図である。 図10の3次元マップ表示領域に対応するマッピング作業の様子を示す説明図である。 図1の出力部により表示装置に表示されたエレベータ昇降路の水平断面の一例を示す説明図である。 図1の出力部により表示装置に表示されたエレベータ昇降路の垂直断面の一例を示す説明図である。 図1の計測装置本体の動作を示すフローチャートである。 この発明の実施の形態2による3次元計測装置を示すブロック図である。 図15の特徴抽出部による視覚的な特徴の抽出方法の例を示す説明図である。 この発明の実施の形態3による3次元計測装置を示す正面図である。 図17の3次元計測装置を示す背面図である。 この発明の実施の形態4による3次元計測装置を示すブロック図である。 図19の計測装置本体の動作を示すフローチャートである。 この発明の実施の形態5による3次元計測装置を示すブロック図である。 図21の計測装置本体の動作を示すフローチャートである。 この発明の実施の形態6による3次元計測装置を示すブロック図である。 図23の計測装置本体の動作を示すフローチャートである。 実施の形態1〜6の3次元計測装置を用いてエレベータ昇降路のピット内の3次元マップを作成する様子を示す平面図である。 実施の形態1〜6の3次元計測装置を移動ロボットに搭載した状態を示す斜視図である。
以下、この発明を実施するための形態について、図面を参照して説明する。
実施の形態1.
図1はこの発明の実施の形態1による3次元計測装置を示すブロック図である。図において、3次元計測装置は、計測装置本体1と、計測装置本体1に接続されている距離センサ2とを有している。
距離センサ2は、計測対象までの距離の計測データである距離データを、3次元空間中の点の集合(3次元点群)として取得可能なセンサである。距離の計測方式としては、例えば、ToF(Time of Flight)方式、又はプロジェクタとカメラとを用いたシステムによるパターン投光を利用したアクティブステレオ方式など、種々の方式を利用することができる。
また、距離センサ2は、使用者が手で保持して手動で動かしてもよいし、台車等に設置して台車を動かすことによって計測を行ってもよい。距離の測定は、使用者が指令を入力したタイミングで行うことも、予め設定した時間間隔毎に自動的に行うこともできる。
計測装置本体1は、演算処理部(CPU)、記憶部(ROM、RAM及びハードディスク等)及び信号入出力部を持ったコンピュータにより構成することができる。計測装置本体1の機能は、コンピュータにより実現される。即ち、コンピュータの記憶部には、計測装置本体1の機能を実現するためのプログラムが格納されている。また、計測装置本体1を構成するコンピュータとしては、例えばタブレットPC(板状パーソナルコンピュータ)を用いることができる。
ここで、図2は使用者が実施の形態1の3次元計測装置により計測対象をスキャンして3次元マップを作成している様子を示す平面図、図3は図2の作業の様子を使用者の後方から見た図である。図2、3に示すように、計測装置本体1としてタブレットPCを用い、距離センサ2を計測装置本体1に固定した場合、使用者は3次元計測装置を手で保持し、移動したり回転したりすることができる。即ち、並進及び回転の6自由度に対応することができる。
計測装置本体1は、機能ブロックとして、特徴抽出部11、マッピング部12、記憶部13、移動候補決定部14、登録特徴取得部15、マッピング評価部16、及び出力部17を有している。
特徴抽出部11は、距離センサ2から得た複数の計測データに基づいて、計測対象の特徴を抽出する。抽出する特徴には、形状的特徴と、いわゆるプリミティブとが含まれている。形状的特徴には、例えば、稜線等の直線、頂点等の点、直線の方向、及び面の法線などが含まれている。また、プリミティブには、例えば円、四角及び球などが含まれている。
特徴抽出方法として、頂点の抽出には、例えば曲率算出法を用いることができる。また、稜線の抽出には、例えばハフ変換法を用いることができる。さらに、プリミティブの抽出には、例えば、3Dモデルを利用したモデルフィッティング法を用いることができる。
図4は図1の特徴抽出部11による形状的な特徴の抽出方法の例を示す説明図である。例えば、距離センサ2により直方体を計測すると、計測データとして図4に示すような3次元点群21が得られる。この3次元点群21に対して、プリミティブ当てはめを行うことで複数の平面21aを抽出できる。また、同様のプリミティブ当てはめにより、球なども抽出できる。
さらに、3次元点群21に対して、周囲の勾配変化が急な点を検出し、それらの点を結ぶ直線を検出することで、複数の稜線21bを抽出できる。さらにまた、注目点周囲の曲率が高い、もしくは稜線の交点等の情報から、複数の頂点21cを抽出できる。
マッピング部12は、抽出した特徴を用いて、異なる計測データ間で共通して観測された特徴を重ね合わせ、計測データの位置合わせをすることで3次元マップの作成及び更新を行う。
また、マッピング部12は、位置合わせ結果に基づいて、データ取得時の距離センサ2の位置及び方向(以下、センサ位置方向と称する)を算出する。さらに、マッピング部12は、記憶部13に対して、3次元マップ情報、センサ位置情報、及びセンサ方向情報の追加及び更新を行う。記憶部13は、マッピング部12から得た情報を記憶する。
具体的なマッピング方法の一例として、マッピング部12は、まず少なくとも2つの計測データ、即ち3Dデータを選択する。続いて、選択した3Dデータから特徴を抽出する。このとき、どのような特徴を抽出して用いるかによって、重ね合わせの計算時に異なる拘束条件が得られる。
この後、マッピング部12は、3Dデータ間で特徴を対応付ける。即ち、共通した特徴を見付ける。そして、3Dデータ間の特徴が重なるように座標変換する。例えば、移動前の3Dデータを基準とし、移動後の3Dデータ中の特徴が、移動前の3Dデータ中の特徴と重なるように、移動後の3Dデータを座標変換する。
この場合、距離センサ2の移動前に対する移動後の相対的な位置姿勢関係が得られる。実装上は、座標変換のための変換行列、即ち距離センサ2の相対的な位置姿勢情報からなる行列を計算する。変換行列の計算には点(2D、3Dどちらでも可)、線(2D、3D)、及び面(3D)などの特徴のうち少なくとも1種類を用いる。
図5は図1の特徴抽出部11により得られた第1及び第2の特徴点群t1,t2を並べて示す説明図、図6は図5の第1及び第2の特徴点群t1,t2の共通部分を重ねた状態を示す説明図、図7は図6の第1及び第2の特徴点群t1,t2に第3及び第4の特徴点群の共通部分を重ねた状態を示す説明図である。
マッピング部12は、第1の計測データに含まれる第1の特徴点群t1と第2の計測データに含まれる第2の特徴点群t2とを比較し、両者の共通部分を検出する。そして、共通部分(図6の点線内)が重なるように、第2の計測データの座標を変換する。
この後、マッピング部12は、第3の計測データに含まれる第3の特徴点群t3を、特徴点群t1,t2と比較し、共通部分を検出し、共通部分が重なるように、第3の計測データの座標を変換する。続いて、第4の計測データに含まれる第4の特徴点群t4を、特徴点群t1,t2,t3と比較し、共通部分を検出し、共通部分が重なるように、第4の計測データの座標を変換する。このような処理を繰り返し、3次元マップを作成する。
移動候補決定部14は、距離センサ2を次に移動させるべき位置及び方向の候補である移動候補を決定する。移動候補は1つだけでも2つ以上であってもよい。また、位置の移動候補は現在位置であってもよい。
さらに、例えば上下左右に並進10cmかつ回転10度ずつ移動した4方向など、現在のセンサ位置方向に対して、相対的に一定の位置及び方向だけ移動した地点を移動候補としてもよい。さらにまた、移動候補として、移動する位置と方向とを手動で入力してもよい。また、現在位置までの距離センサ2の移動軌跡から、距離センサ2が次に移動する位置と方向とを予測し、予測された位置と方向とを移動候補としてもよい。
登録特徴取得部15は、3次元マップ内に登録された特徴のうち、移動候補において距離センサ2が観測可能であると推定される特徴である移動候補内特徴を取得する。
マッピング評価部16は、登録特徴取得部15により取得した移動候補内特徴を用いて、移動候補でのマッピングの安定性を評価する。安定性評価の方法の1つとして、位置合わせに最低限必要な数の特徴が観測可能かどうかを判定、即ち位置合わせのための計算自体が可能かどうかを判定する方法がある。この場合、例えば、特徴数が、予め設定された個数以下であれば計算不可と判定する。
その他の安定性評価の方法として、特徴の種類と配置とからマッピングにおける予測誤差を算出する方法がある。特徴の配置とは、移動候補におけるセンサ視野内の観測可能な特徴の分布である。
計測誤差がなければ、図6に示すように、マッピングにより算出されたセンサ位置方向は、実際のセンサ位置方向と同一である。また、計測誤差がある場合でも、図8に示すように、異なる特徴点群t1,t2の共通部分が比較的広範囲に分散していれば、マッピングにより算出されたセンサ位置方向は、実際のセンサ位置方向とほぼ同じであると推定され、予測誤差は小さい。
一方、計測誤差がある場合であって、図9に示すように異なる特徴点群t1,t2の共通部分が比較的狭い範囲に偏在している場合、マッピングにより算出されたセンサ位置方向と、実際のセンサ位置方向との間の予測誤差は大きい。
予測誤差の算出方法としては、観測可能な特徴の位置が微小変化した場合に生じる計測データの位置合わせ誤差を用いる方法がある。この場合、特徴の分布がセンサ視野内で偏っているほど位置合わせ誤差が大きくなり易い。また、特徴の数が少ないほど、特徴の位置が変化した場合の位置合わせ誤差が相対的に大きくなり易い。従って、センサ視野内の特徴数が多いほど良い評価になる。
このとき、特徴の位置の微小変化量は、実際にセンサデータから特徴を抽出する際に生じうる特徴の位置ずれ量として定義でき、ToF方式の距離センサ2であれば測距の分解能(奥行き方向の計測誤差、水平(垂直)方向の測距間隔など)、カメラを用いた距離センサ2であれば1画素として決定する方法がある。
計測誤差が全くない理想的な状態においては、予測誤差の大きさに関わらず、マッピング時に生じる計測データの重ね合わせ誤差はゼロになることが期待される。しかし、実際の計測では必ず誤差が生じるため、予測誤差が大きいほど実際にマッピングした際の計測データの重ね合わせの誤差も大きくなることが想定される。
逆に、予測誤差が小さい場合には、計測データに誤差が生じる場合でもマッピング時の重ね合わせ誤差は小さくなる傾向にある。
具体的なマッピング評価方法の一例として、マッピング評価部16は、まずマッピングの評価をしたいセンサ位置姿勢を1つ選択する。このとき、例えば、現在のセンサ位置姿勢に対して一定量だけずれた位置姿勢とする。続いて、マッピング評価部16は、選択したセンサ位置姿勢で観測可能な特徴を作成済みのマップから取得する。
この後、マッピング評価部16は、取得した特徴を用いてマッピングが可能であるかどうかを判定する。例えば、3D点であれば少なくとも異なる3点、面であれば少なくとも異なる3面が必要である。複数の特徴を併用する場合、3D点2つと面1つなど、必要最低限の特徴数は特徴の組み合わせによって変化する。このようにマッピング可否の判断基準は使用する特徴によって異なる。
マッピング可能であれば、全ての特徴を用いてマッピングを実行する。また、マッピングに用いる特徴の位置(平面の法線であれば方向)をずらしてマッピングを実行する。このとき、例えば、画像上で1ピクセルだけずらしたり、空間中で1mmだけずらしたりする。
さらに、取得した特徴のうちからマッピングが可能な最小限もしくはそれ以上の数の特徴を用いてマッピングを実行する。これらのマッピング方法のいずれか、もしくは組み合わせにより得られる複数のマッピング結果から、センサ位置姿勢の相対変化量を用いた統計量を取得し、統計量に基づいて評価値を計算する。
例えば、評価値となる統計量をセンサ位置姿勢の相対変化量の分散値とした場合、値が小さいほど良い評価であるとする。
また、評価値は、特徴の再投影誤差としてもよい。再投影誤差は、算出されたセンサの位置姿勢を用いて、マップ内の特徴を各センサ位置姿勢で取得される2D画像に投影し、元の2D画像上の特徴の2D位置と、投影された特徴の2D位置との差として計算される。これは、当該技術分野のベーシックな評価方法の1つである。
さらに、より簡易的に、センサ視野内の特徴の分布の偏り及び密度の少なくともいずれか一方を評価値として用いてもよい。この場合、偏りが大きいほど評価が悪く、密度が高いほど評価が良いとする。
また、予測した距離センサ2の移動方向を評価に用いてもよい。この場合、例えば、センサの移動方向に特徴が多く存在する場合に、評価が良いとする。
出力部17は、マッピング評価部16から得られる評価結果に基づいて、移動候補に対応する距離センサ2の移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示する。提示方法としては、ディスプレイ等の表示装置を用いて図示する方法と、音声による方法とがある。
ここで、移動方向は、距離センサ2の現在地からマッピングの安定性を評価した移動候補に向かう方向として得られる。移動速度は、距離センサ2の取得データに移動速度に起因するブレが生じない速度、もしくは距離センサ2の現在地からマッピングの安定性を評価した移動候補までの距離を、距離センサ2のデータ取得の時間間隔で除算する等によって得られる。移動速度は絶対値として取得してもよいし、前回のデータ取得時の距離センサ2の移動速度に対する相対値として取得してもよい。
表示装置を用いて提示する内容としては、A)現在距離センサ2から取得している計測データ及び抽出された特徴などの処理結果と、B)生成された3次元マップの俯瞰図及びセンサ位置方向など、記憶部13に登録された情報との2つがある。AとBとを同時に使用者に提示することで、スキャン状況の把握が容易になる。このとき、3次元マップにおけるセンサ位置方向をBに重畳すると、状況把握はさらに容易である。
図10は図1の出力部17による表示装置への表示内容の一例を示す説明図であり、表示装置であるタブレットPCの表示部1aに表示する例を示している。この例では、表示部1aが左右2つに分割されており、左側が計測状況表示領域1b、右側が3次元マップ表示領域1cとなっている。
計測状況表示領域1bには、距離センサ2による現在の計測状況と、出力部17による距離センサ2の移動方向及び移動速度の提示内容とが表示される。3次元マップ表示領域1cには、作成中の3次元マップが表示される。
計測状況表示領域1bの周囲4辺には、枠部1dが設けられている。枠部1dは、マッピング済み領域の方向と未計測領域の方向とを区別して表示している。図10の例では、マッピング済み領域の方向と未計測領域の方向とを異なる色又は濃淡で区別している。例えば、図10では、濃い部分がマッピング済み領域の方向を示している。なお、未計測領域の検出については、後述の実施の形態6で説明する。
また、計測状況表示領域1bの中央、即ち枠部1dで囲まれた部分には、抽出された特徴、及び提示された距離センサ2の移動方向及び移動速度が表示されている。この例では、特徴が三角形で示されており、距離センサ2の移動方向が矢印の向きで示されており、距離センサ2の移動速度が矢印の長さで示されている。
3次元マップ表示領域1cには、作成されている3次元マップがマッピング作業に連動して表示される。図11は図10の3次元マップ表示領域1cに対応するマッピング作業の様子を示す説明図であり、距離センサ2の経路を矢印で示しており、距離センサ2の視野を点線の四角で示している。
上記のBにおいては、計測対象によって俯瞰する視点を変更することも有効である。一例として、エレベータ昇降路のような閉鎖空間内が計測対象になる場合は、図12に示すように、3次元マップを真上から俯瞰した視点(水平断面でもよい)と、図13に示すように、距離センサ2の光軸方向が見える垂直断面との2視点の俯瞰図があるとよい。これにより、2次元の図面と3次元形状との両方を対応付けることが容易になる。なお、図12及び図13において、三角形のマークはセンサ位置方向を示している。
このとき、水平断面図の投影方式を平行投影すると、2次元の図面により近い表示となり、直感的な理解が容易になる。また、垂直断面図の投影方式を透視投影とすると、3次元的な見え方に近い表示になり、直感的な理解が容易になる。
その他の例として、部品検査などの目的で物体の外観が計測対象になる場合には、計測対象に対して死角がないよう取り囲むような複数視点の俯瞰図を表示すると、計測データが得られていない部分を容易に発見することができる。
上記のAもしくはBに、推奨される距離センサ2の移動方向、もしくは移動できない方向を重畳して表示することで、距離センサ2を移動させるべき方向が直感的に理解できる。移動方向を矢印で重畳表示する場合には、矢印の長さ変更又は点滅表示などの視覚効果を加えることで、使用者は現在の距離センサ2の移動速度が速過ぎるのか遅過ぎるのかを直感的に知ることができる。
音声により使用者に情報提示する場合は、表示装置を見ることなくスキャン誘導が実現できるという利点がある。また、表示装置による提示と音声による提示とを併用することで、より複雑な誘導が可能になる。
次に、図14は図1の計測装置本体1の動作を示すフローチャートである。処理を開始すると、計測装置本体1は、距離センサ2から計測データを取得し(ステップS1)、計測データから特徴を抽出する(ステップS2)。次に、計測装置本体1は、複数の計測データの特徴を重ね合わせることにより3次元マップを作成する(ステップS3)。この後、マッピングが成功したかどうかを判定し(ステップS4)、成功していれば3次元マップを更新する(ステップS5)。
マッピングが不成功だった場合、マッピングを終了するかどうかを使用者に確認する(ステップS12)。そして、マッピングを継続する場合には、使用者に対して距離センサ2を移動させるよう報知して(ステップS13)ステップ1に戻る。
マッピングに成功し、3次元マップを更新した場合、距離センサ2の現在位置及び方向を算出し、更新する(ステップS6)。続いて、距離センサ2の移動候補を決定し(ステップS7)、移動候補内特徴を取得する(ステップS8)。
この後、計測装置本体1は、移動候補内特徴を用いて移動候補でのマッピングの安定性を評価する(ステップS9)。このマッピング評価は、全ての移動候補でのマッピングの安定性を評価するまで行う(ステップS9、S10)。
全ての移動候補のマッピング評価が終了すると、計測装置本体1は、評価結果として、距離センサ2の移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示する(ステップS11)。そして、マッピングを終了するかどうかを使用者に確認し(ステップS12)、マッピングを継続する場合には、使用者に対して距離センサ2を移動させるよう報知して(ステップS13)ステップ1に戻る。また、使用者によりマッピングの終了が入力されると、処理を終了する。
このような3次元計測装置及びその計測支援処理方法では、マッピングの安定性の評価結果に基づいて、距離センサ2の移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示するので、よりスムーズかつ精度良く3次元マップを作成することができる。
即ち、各計測データ及び抽出された特徴を目視で確認するだけでは、マッピングの成否及び精度を予想することは難しいが、計測装置本体1により移動候補におけるマッピングの安定性の評価が行われ、マッピングが失敗するセンサの移動方向が事前に分かるため、マッピングの失敗を防止することができ、スキャン作業のやり直しによる手間を低減できる。また、より精度良くマッピングできる移動方向が分かるため、マッピングの精度向上が期待できる。さらに、精度が良くなるまで試行錯誤的に繰り返しスキャンし直す必要がなくなる。
実施の形態2.
次に、図15はこの発明の実施の形態2による3次元計測装置を示すブロック図である。実施の形態2では、距離センサ2に加えて、カラー又はモノクロの2次元画像を撮影可能な可視カメラ4が併用されており、距離データから抽出される形状的な特徴だけでなく、画像データから抽出される視覚的な特徴も同時に用いてマッピングが行われる。
特徴抽出部11は、距離センサ2から得た距離データから特徴を抽出するとともに、可視カメラ4から得た画像データから視覚的な特徴、例えば特徴点及び直線等を抽出する。画像データからの特徴抽出方法としては、例えば、特徴点であれば物体の角にあたるコーナー点としてハフ変換を適用することができる。また、直線であれば、画像から物体輪郭を検出した上で、輪郭に対してハフ変換を適用することができる。
図16は図15の特徴抽出部11による視覚的な特徴の抽出方法の例を示す説明図であり、可視カメラ4により撮影された画像を示している。図16において、×印は、抽出された特徴点を示している。
特徴抽出部11では、注目点周囲の色合い変化が大きい点が特徴点として抽出される。このとき、直線の抽出は可能であるが、例えば直線上の点のように、近傍の点と区別がつかない点は、色合い変化が大きかったとしても特徴点としては抽出されない。また、柱の角、及び壁に貼られているポスタ22の角が特徴点として抽出される。
さらに、ポスタ22の模様などから特徴点を抽出することもできる。
マッピング部12、記憶部13、登録特徴取得部15及びマッピング評価部16においても、距離データから得た特徴に加えて、画像データから得た特徴も利用する。他の構成及び動作は、実施の形態1と同様である。
このような3次元計測装置及びその計測支援処理方法によれば、より多くの特徴を利用することができ、マッピングの安定性をより向上させることができる。
なお、可視カメラ4は、距離センサ2と一体化しても別体で構成してもよい。
実施の形態3.
次に、図17はこの発明の実施の形態3による3次元計測装置を示す正面図、図18は図17の3次元計測装置を示す背面図である。実施の形態3では、距離センサ2及び可視カメラ4が搭載された筐体5が計測装置本体1に固定されている。距離センサ2としては、距離計測用カメラが用いられている。
また、筐体5には、照明装置6及びプロジェクタ7も搭載されている。筐体5と計測装置本体1とは、ケーブル8を介して互いに接続されている。筐体5に搭載された機器は、ケーブル8を通して計測装置本体1から給電される。また、距離センサ2及び可視カメラ4は、ケーブル8を通して計測装置本体1にデータを送信する。さらに、筐体5に搭載された機器は、ケーブル8を通して計測装置本体1からの指令信号を受ける。
プロジェクタ7は、計測対象に対してパターン投光を行う。距離センサ2は、投光されたパターンを撮影し、アクティブステレオ方式で距離データを検出する。照明装置6は、計測対象に対して光を照射する。他の構成及び動作は、実施の形態2と同様である。
このように、距離センサ2の計測方法として、プロジェクタとカメラとを用いたシステムによるパターン投光を利用したアクティブステレオ方式を用いてもよい。
また、照明装置6で計測対象に光を当てることにより、エレベータ昇降路のピットなどの暗い場所で計測する場合にも、可視カメラ4により得られた画像データから視覚的特徴を抽出するのが容易になる。
さらに、距離センサ2及び可視カメラ4と照明装置6とを一体化したので、これらの位置関係が常に一定となり、視点の違いによる見え方の違いを低減することができる。また、計測対象と照明装置6との間に遮蔽物が存在することで影ができる可能性も低減できる。
なお、実施の形態3では、照明装置6を距離センサ2及び可視カメラ4と一体化したが、例えば昇降路ピットなどの計測環境に据え付けられている照明装置を利用してもよい。
実施の形態4.
次に、図19はこの発明の実施の形態4による3次元計測装置を示すブロック図である。実施の形態4の計測装置本体1は、作成中の3次元マップ内からマッピングが安定する撮影地点を探索する安定位置探索部18をさらに有している。また、マッピング評価部16は、登録されたセンサ位置方向における評価結果を記憶部に登録する。さらに、出力部17は、安定位置探索部18により得られる撮影地点を使用者に提示する。
安定位置探索部18は、記憶部13に登録されているセンサ位置方向毎のマッピング評価結果のうち、評価結果の良い位置を探索する。出力する位置の優先順位の基準としては、マッピングの評価値の高さと現在位置からの近さとを考慮した評価関数の値によって決定する。
使用する評価関数は、常に同じものでもよいし、状況によって使用者が優先項目を選択することで変更してもよい。安定位置探索部18が安定位置の探索を開始するのは、マッピングに失敗したとき、又は現在地のマッピング評価値が一定以下になったときである。これらのいずれかに加えて、使用者が指定したときとしてもよい。他の構成及び動作は、実施の形態1、2、又は3と同様である。
図20は図19の計測装置本体1の動作を示すフローチャートである。実施の形態4の計測装置本体1は、マッピングが成功したかどうかの判定結果(ステップS4)、マッピング評価結果(ステップS11)、及び使用者の指定の有無によって、安定位置を探索するかどうかを判定する(ステップS14)。そして、探索が必要と判定された場合、マッピングが安定する位置を探索し(ステップS15)、探索された位置を使用者に対して提示する(ステップS16)。
このような3次元計測装置及びその計測支援処理方法では、実施の形態1〜3の効果に加えて、センサ視野内の特徴数が減少するなどしてマッピングが不安定になったとき、マッピングが安定する撮影地点に戻ることでマッピングが不安定な状態から容易に復帰することができるという効果が得られる。
実施の形態5.
次に、図21はこの発明の実施の形態5による3次元計測装置を示すブロック図である。実施の形態5の計測装置本体1は、作成中の3次元マップ内の任意の位置間の、マッピングが途切れずに移動可能なセンサ経路を算出するセンサ経路算出部19をさらに有している。
センサ経路算出部19で算出するセンサ経路は、始点と終点とセンサ経路上の複数の経由点とを含む。経由点の初期値は、センサ経路の始点と終点を結ぶ線分上を一定間隔でサンプリングした位置とする。各経由点におけるセンサ方向は、始点におけるセンサ方向と終点におけるセンサ方向とから線形補間で算出する。
また、経由点は、使用者が手動で設定してもよい。この場合、使用者が設定した経由点間をさらにサンプリングして経由点を増やしてもよい。手動で経由点を設定することで、より複雑なセンサ経路の算出が可能になる。また、使用者が設定した経由点間をサンプリングすることで、使用者が多数の経由点を設定する手間を省くことができる。
移動候補決定部14は、上記の始点と終点と経由点とを移動候補として決定する。マッピング評価部16は、上記の移動候補に対してマッピング評価を実行する。このとき、始点及び終点のいずれかがマッピング不能と判断された場合、センサ経路の算出処理を終了する。また、経由点においてマッピング不能な位置方向が含まれている場合は、その経由点近傍のセンサ位置方向を移動候補として決定し、再度マッピング評価を実行する。このとき、一定回数以上、経由点が変更された場合は、センサ経路の算出処理を終了する。
出力部17は、センサ経路の算出結果を使用者に提示する。このとき、マッピング可能かどうかによって経路上のセンサ位置方向の表示を変更する。例として、マッピング可能なセンサ位置を緑、マッピング不能なセンサ位置を赤とするなど、異なる色で表示する。経路上のマッピング不能な位置を使用者に提示することで、センサ経路を手動で再設定する際の経由点の選択を効率良く行うことができる。他の構成及び動作は、実施の形態4と同様である。
図22は図21の計測装置本体1の動作を示すフローチャートである。実施の形態5の計測装置本体1は、距離センサ2の現在位置及び方向を更新すると(ステップS6)、センサ経路を算出するかどうかを判定する(ステップS17)。そして、センサ経路の算出が必要と判定された場合、センサ経路を算出する(ステップS18)。
また、全ての移動候補でのマッピングの安定性を評価(ステップS9、S10)した後、センサ経路を評価するかどうかを判定する(ステップS19)。そして、センサ経路の評価が必要と判定された場合、センサ経路上が全てマッピング可能となっているかどうかを判定する(ステップS20)。
センサ経路上にマッピング不能な箇所がある場合、ステップS18に戻る。センサ経路上が全てマッピング可能と判定された後、安定位置の探索が不要と判定(ステップS14)された後、及び安定位置を探索(ステップS15)し使用者に提示(ステップS16)した後、センサ経路を使用者に提示するかどうかを判定する(ステップS21)。
センサ経路の提示が必要と判定された場合、センサ経路を使用者に提示し(ステップS22)、ステップS12に進む。センサ経路の提示が不要であれば、直接ステップS12に進む。
このような3次元計測装置及びその計測支援処理方法では、実施の形態4の効果に加えて、センサ経路算出部19により、使用者は予め提示された経路を辿って目的地まで移動することができるため、スキャンに要する作業時間を短縮することができるという効果が得られる。
即ち、計測ができていない部分まで移動してスキャンする際に、マッピングが途切れないよう試行錯誤的に経路を発見しながら移動するとスキャンに要する作業時間が長くなってしまう恐れがあるが、実施の形態5では、最適なセンサ経路が提示されるので、作業時間を短縮することができる。
実施の形態6.
次に、図23はこの発明の実施の形態6による3次元計測装置を示すブロック図である。実施の形態6の計測装置本体1は、作成中の3次元マップにおける未計測領域を検出する未計測領域検出部20をさらに有している。
未計測領域検出部20は、3次元マップとセンサ位置方向とセンサ視野角と測距可能距離とを用いて、距離センサ2及び可視カメラ4が観測済みの3次元領域を算出し、観測済みでない領域を未計測領域として検出する。
出力部17は、探索された未計測領域を使用者に対して提示する。未計測領域を表示部1aに表示する方法の一例として、図10の枠部1dで表示する方法がある。他の構成及び動作は、実施の形態5と同様である。
図24は図23の計測装置本体1の動作を示すフローチャートである。実施の形態6の計測装置本体1は、センサ経路を提示するかどうかを判定(ステップS21)した後、未計測領域を検出するかどうかを判定する(ステップS23)。そして、未計測領域の検出が必要と判定された場合、未計測領域を検出し(ステップS24)、使用者に対して提示する(ステップS25)。
このような3次元計測装置及びその計測支援処理方法では、実施の形態5の効果に加えて、スキャン対象のどこに計測できていない部分があるかを容易に確認できるため、スキャン後に計測抜けが発覚して計測をやり直すような手戻りを防止できるという効果が得られる。
ここで、図25は実施の形態1〜6の3次元計測装置を用いてエレベータ昇降路のピット内の3次元マップを作成する様子を示す平面図である。ピット内には、かご(図示せず)の昇降を案内する一対のガイドレール31a,31b、及び緩衝器32等が設置されている。
ピット内のような環境では、テクスチャ及び形状的な特徴に乏しく、マッピングに必要な特徴が比較的少ない。そのため、距離センサ2の経路によっては、マッピング不能に陥る可能性がある。
これに対して、実施の形態1〜6の3次元計測装置によれば、マッピング可能なセンサ経路でのスキャンになるよう使用者に情報を提示することで、マッピングの失敗によるスキャンのやり直しによる手戻りを防止することが可能である。また、未計測領域を検出することで、まだスキャンできていない部分を知ることができるため、計測漏れによる手戻りも防止することができる。
さらに、ピット内のような狭い空間(例えば2m四方程度を想定)を計測する場合には、距離センサ2から計測対象までの距離が短くなる傾向にある。距離が短いと、センサ視野内で観測される特徴の数が相対的に減少するため、マッピングの安定性が低下する恐れがある。マッピング評価では特徴の数が多いほど良い評価値になるため、評価値の良いセンサ姿勢になるように狭い空間をスキャンする場合、空間の中心をはさんで反対側の昇降路壁を計測する姿勢を保った状態で、円を描くように計測を行うように誘導されることになる。
次に、図26は実施の形態1〜6の3次元計測装置を移動ロボット33に搭載した状態を示す斜視図であり、自律走行型で車輪型の移動ロボット33を示している。このように、3次元計測装置を移動ロボット33に搭載することにより、移動ロボット33の周辺環境の3次元マップを生成することができる。
移動ロボット33による3次元マップ生成では、ロボット自身が3次元マップ内のどこにいるか(自己位置)を常に認識できる必要があるが、マッピングに失敗してしまうと自己位置が不明になりシステムが破たんする。これに対して、実施の形態1〜6の3次元計測装置では、次の移動を開始する前に予めマッピング評価を行うため、移動ロボット33はマッピングが失敗しない経路を選択することができる。
また、未計測領域を検出することで、計測できていない場所まで移動して3次元マップを更新することが可能である。これにより、欠損のない3次元マップを自動的かつ効率的に構築できる。
なお、実施の形態1〜6において、計測装置本体1の機能を2つ以上のコンピュータ又は電子回路に分割して実行させてもよい。
また、計測対象は特に限定されるものではなく、この発明はエレベータ昇降路以外の3次元計測にも適用できる。

Claims (17)

  1. 計測対象までの距離の計測データを3次元空間中の点の集合として取得可能な距離センサ、及び
    前記距離センサで取得した複数の計測データから特徴を抽出し、抽出した前記特徴を重ね合わせることにより3次元マップを作成する計測装置本体
    を備え、
    前記計測装置本体は、前記距離センサの位置及び方向を算出し、前記距離センサを次に移動させるべき位置及び方向の候補である移動候補を決定し、前記移動候補において前記距離センサにより観測可能な前記特徴である移動候補内特徴を取得し、前記移動候補内特徴を用いて前記移動候補でのマッピングの安定性を評価し、評価結果に基づいて、前記距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示する3次元計測装置。
  2. 前記計測装置本体は、表示部を有しており、前記距離センサによる現在の計測状況と、前記距離センサの移動に関する提示内容とを前記表示部に併せて表示する請求項1記載の3次元計測装置。
  3. 前記計測装置本体は、前記距離センサの移動方向を矢印の向きとして前記表示部に表示し、前記距離センサの移動速度を前記矢印の長さとして前記表示部に表示する請求項2記載の3次元計測装置。
  4. 前記計測装置本体は、前記距離センサによる現在の計測状況と作成中の3次元マップとを前記表示部に並べて表示する請求項2又は請求項3に記載の3次元計測装置。
  5. 前記計測装置本体は、前記距離センサによる現在の計測状況を表示する領域の周囲の枠部に、マッピング済み領域の方向と未計測領域の方向とを区別して表示する請求項2から請求項4までのいずれか1項に記載の3次元計測装置。
  6. 前記計測装置本体は、マッピングの評価値の高さと現在位置からの近さとを考慮した評価関数により、作成中の3次元マップ内からマッピングが安定する撮影地点を探索し使用者に対して提示する請求項1から請求項5までのいずれか1項に記載の3次元計測装置。
  7. 前記計測装置本体は、作成中の3次元マップ内の任意の位置間の、マッピングが途切れずに移動可能な前記距離センサの経路を算出し使用者に対して提示する請求項1から請求項6までのいずれか1項に記載の3次元計測装置。
  8. 前記計測装置本体は、作成中の3次元マップにおける未計測領域を検出し使用者に対して提示する請求項1から請求項7までのいずれか1項に記載の3次元計測装置。
  9. 前記計測対象の2次元画像を撮影可能な可視カメラをさらに備え、
    前記計測装置本体は、前記可視カメラから得た複数の画像データから視覚的な特徴を抽出し、マッピングに利用する請求項1から請求項8までのいずれか1項に記載の3次元計測装置。
  10. 計測対象に対して光を照射する照明装置をさらに備えている請求項1から請求項9までのいずれか1項に記載の3次元計測装置。
  11. 計測対象に対してパターン投光を行うプロジェクタをさらに備え、
    前記距離センサは、投光されたパターンを撮影し、アクティブステレオ方式で距離データを検出する請求項1から請求項10までのいずれか1項に記載の3次元計測装置。
  12. 計測対象までの距離の計測データを3次元空間中の点の集合として取得可能な距離センサと、前記距離センサで取得した複数の計測データから特徴を抽出し、抽出した前記特徴を重ね合わせることにより3次元マップを作成する計測装置本体とを備えている3次元計測装置の前記計測装置本体によって、3次元計測を支援する処理方法であって、
    前記距離センサの位置及び方向を算出するステップ、
    前記距離センサを次に移動させるべき位置及び方向の候補である移動候補を決定するステップ、
    前記移動候補において前記距離センサにより観測可能な前記特徴である移動候補内特徴を取得するステップ、
    前記移動候補内特徴を用いて前記移動候補でのマッピングの安定性を評価するステップ、及び
    評価結果に基づいて、前記距離センサの移動方向及び移動速度の少なくともいずれか一方を使用者に対して提示するステップ
    を含む3次元計測装置の計測支援処理方法。
  13. 前記距離センサによる現在の計測状況と前記距離センサの移動に関する提示内容とを表示部に併せて表示するステップをさらに含む請求項12記載の3次元計測装置の計測支援処理方法。
  14. 前記距離センサによる現在の計測状況を表示する際に、マッピング済み領域の方向と未計測領域の方向とを区別して表示する請求項13記載の3次元計測装置の計測支援処理方法。
  15. マッピングの評価値の高さと現在位置からの近さとを考慮した評価関数により、作成中の3次元マップ内からマッピングが安定する撮影地点を探索し使用者に対して提示するステップをさらに含む請求項12から請求項14までのいずれか1項に記載の3次元計測装置の計測支援処理方法。
  16. 作成中の3次元マップ内の任意の位置間の、マッピングが途切れずに移動可能な前記距離センサの経路を算出し使用者に対して提示するステップをさらに含む請求項12から請求項15までのいずれか1項に記載の3次元計測装置の計測支援処理方法。
  17. 作成中の3次元マップにおける未計測領域を検出し使用者に対して提示するステップをさらに含む請求項12から請求項16までのいずれか1項に記載の3次元計測装置の計測支援処理方法。
JP2017562217A 2016-01-20 2016-01-20 3次元計測装置及びその計測支援処理方法 Active JP6489566B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/051598 WO2017126060A1 (ja) 2016-01-20 2016-01-20 3次元計測装置及びその計測支援処理方法

Publications (2)

Publication Number Publication Date
JPWO2017126060A1 true JPWO2017126060A1 (ja) 2018-07-05
JP6489566B2 JP6489566B2 (ja) 2019-03-27

Family

ID=59362170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017562217A Active JP6489566B2 (ja) 2016-01-20 2016-01-20 3次元計測装置及びその計測支援処理方法

Country Status (7)

Country Link
US (1) US10393515B2 (ja)
JP (1) JP6489566B2 (ja)
KR (1) KR101973917B1 (ja)
CN (1) CN108474653B (ja)
DE (1) DE112016006262B4 (ja)
HK (1) HK1254590A1 (ja)
WO (1) WO2017126060A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10701343B2 (en) * 2016-05-26 2020-06-30 Asustek Computer Inc. Measurement device and processor configured to execute measurement method
US11423005B2 (en) * 2017-04-03 2022-08-23 Mitsubishi Electric Corporation Map data generator and method for generating map data
KR101997109B1 (ko) * 2017-11-21 2019-07-05 인천대학교 산학협력단 루트 정보를 이용한 이동 이력 데이터 저장 장치 및 방법
WO2020000395A1 (en) * 2018-06-29 2020-01-02 Baidu.Com Times Technology (Beijing) Co., Ltd. Systems and methods for robust self-relocalization in pre-built visual map
EP3671115B1 (en) * 2018-12-17 2023-10-11 Leica Geosystems AG Geodetic stake-out system
KR102140594B1 (ko) * 2019-04-09 2020-08-03 한국과학기술연구원 프리미티브 기반의 3차원 자동 스캔 방법 및 시스템
JP7146271B2 (ja) * 2019-05-14 2022-10-04 ジオ・サーチ株式会社 埋設物計測装置、方法、及びプログラム
US20220155448A1 (en) * 2019-05-16 2022-05-19 Mitsubishi Electric Corporation Information processing device, information processing method, and storage medium
KR102242744B1 (ko) * 2019-06-14 2021-04-20 고려대학교 산학협력단 이동 로봇과 이동 로봇의 엘리베이터 인식 방법
US20220107414A1 (en) * 2020-10-07 2022-04-07 Luminar, Llc Velocity determination with a scanned lidar system
KR102228939B1 (ko) * 2021-02-05 2021-03-17 한국과학기술연구원 3차원 자동 스캔 시스템 및 방법
WO2023238465A1 (ja) * 2022-06-09 2023-12-14 日産自動車株式会社 部品検査方法および装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2009155056A (ja) * 2007-12-27 2009-07-16 Seiko Precision Inc 画像処理装置、荷物搬送設備、及びプログラム
JP2010288112A (ja) * 2009-06-12 2010-12-24 Nissan Motor Co Ltd 自己位置推定装置及び自己位置推定方法
JP2012015674A (ja) * 2010-06-30 2012-01-19 Fujifilm Corp 撮像装置ならびにその動作制御方法およびそのプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5310285B1 (ja) 1969-09-16 1978-04-12
JPS5310285A (en) 1976-07-15 1978-01-30 Mitsubishi Electric Corp Reverse conducting thyristor
DE4206608A1 (de) * 1992-03-03 1993-09-09 Optoelektronische Inspektions Vorrichtung zur innenvermessung von rohren
JP2007010419A (ja) * 2005-06-29 2007-01-18 Komatsu Engineering Corp 対象物の3次元形状検証システム。
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP4608533B2 (ja) 2007-10-16 2011-01-12 日信工業株式会社 車両用ディスクブレーキ
CN101520319B (zh) * 2008-02-27 2012-02-22 邹小平 复合式三维激光测量系统及测量方法
WO2010007960A1 (ja) * 2008-07-14 2010-01-21 クラリオン株式会社 車載用カメラの視点変換映像システム及び視点変換映像取得方法
JP5762131B2 (ja) * 2011-05-23 2015-08-12 三菱電機株式会社 キャリブレーション装置、キャリブレーション装置のキャリブレーション方法およびキャリブレーションプログラム
US9183631B2 (en) 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
JP6355710B2 (ja) 2013-03-15 2018-07-11 ファロ テクノロジーズ インコーポレーテッド 非接触型光学三次元測定装置
CN104515478B (zh) * 2014-12-11 2017-08-01 华中科技大学 一种高精度的航空发动机叶片自动三维测量方法和系统
US10046459B2 (en) * 2015-11-16 2018-08-14 Abb Schweiz Ag Three-dimensional visual servoing for robot positioning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法
JP2009155056A (ja) * 2007-12-27 2009-07-16 Seiko Precision Inc 画像処理装置、荷物搬送設備、及びプログラム
JP2010288112A (ja) * 2009-06-12 2010-12-24 Nissan Motor Co Ltd 自己位置推定装置及び自己位置推定方法
JP2012015674A (ja) * 2010-06-30 2012-01-19 Fujifilm Corp 撮像装置ならびにその動作制御方法およびそのプログラム

Also Published As

Publication number Publication date
HK1254590A1 (zh) 2019-07-26
JP6489566B2 (ja) 2019-03-27
DE112016006262B4 (de) 2023-05-04
WO2017126060A1 (ja) 2017-07-27
KR101973917B1 (ko) 2019-04-29
US10393515B2 (en) 2019-08-27
CN108474653B (zh) 2020-03-20
US20190049240A1 (en) 2019-02-14
KR20180090353A (ko) 2018-08-10
DE112016006262T5 (de) 2018-10-04
CN108474653A (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
JP6489566B2 (ja) 3次元計測装置及びその計測支援処理方法
KR100785594B1 (ko) 화상 처리 장치
JP4811272B2 (ja) 3次元計測を行う画像処理装置および画像処理方法
JP4537557B2 (ja) 情報呈示システム
EP2228769B1 (en) Segmentation of a depth maps of printed circuit boards
KR100499764B1 (ko) 디지털 이미지에서 객체를 측정하는 방법 및 시스템
TWI696906B (zh) 處理地板之方法
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
WO2015049853A1 (ja) 寸法計測装置、寸法計測方法、寸法計測システム、プログラム
JP5388921B2 (ja) 3次元距離計測装置及びその方法
JP2010219825A (ja) 三次元計測用画像撮影装置
JP2007333679A (ja) 3次元位置補正装置
US11727624B2 (en) Construction visualization systems and methods
KR101090082B1 (ko) 단일 카메라 및 레이저를 이용한 계단 치수 측정 시스템 및 방법
JP6599697B2 (ja) 画像測定装置及びその制御プログラム
JP2017151026A (ja) 三次元情報取得装置、三次元情報取得方法、及びプログラム
JP6132246B2 (ja) 寸法計測方法
KR100733396B1 (ko) 3차원 측정 데이터 획득장치 및 방법
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
JP4351090B2 (ja) 画像処理装置および画像処理方法
JP4409924B2 (ja) 三次元画像表示装置及び方法
JP2004347488A (ja) 現場作業支援装置
JP4427305B2 (ja) 三次元画像表示装置及び方法
KR20240089778A (ko) 미스얼라인먼트 측정 시스템, 용접 강관의 제조 설비, 촬상 단말, 촬상 시스템, 정보 처리 장치, 미스얼라인먼트 측정 방법, 용접 강관의 제조 방법, 및 용접 강관의 품질 관리 방법
JPS63124107A (ja) 作業環境モデル作成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6489566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250