JP2020085798A - 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法 - Google Patents

三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法 Download PDF

Info

Publication number
JP2020085798A
JP2020085798A JP2018224199A JP2018224199A JP2020085798A JP 2020085798 A JP2020085798 A JP 2020085798A JP 2018224199 A JP2018224199 A JP 2018224199A JP 2018224199 A JP2018224199 A JP 2018224199A JP 2020085798 A JP2020085798 A JP 2020085798A
Authority
JP
Japan
Prior art keywords
dimensional position
unit
lidar
detection
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018224199A
Other languages
English (en)
Other versions
JP7206855B2 (ja
Inventor
均 並木
Hitoshi Namiki
均 並木
藤井 俊茂
Toshishige Fujii
俊茂 藤井
上田 健
Takeshi Ueda
健 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018224199A priority Critical patent/JP7206855B2/ja
Priority to US16/697,669 priority patent/US20200175706A1/en
Publication of JP2020085798A publication Critical patent/JP2020085798A/ja
Application granted granted Critical
Publication of JP7206855B2 publication Critical patent/JP7206855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

【課題】対象物の正確な三次元位置を検出すること。【解決手段】開示の技術の一態様に係る三次元位置検出装置は、所定の回転軸周りに回転する回転機構部と、前記回転軸上に配置され、前記回転機構部による回転角度毎で、LIDAR(Light Detection And Ranging)法により対象物の第1の三次元位置を検出するLIDAR検出部と、前記回転軸と交差する方向に前記回転軸から離れて配置され、前記回転機構部により回転されながら、前記対象物の画像を撮像する撮像部と、前記回転機構部による前記回転角度毎で撮像された2以上の前記画像に基づいて前記対象物の第2の三次元位置を検出する画像検出部と、前記第1の三次元位置と、前記第2の三次元位置との比較により取得される前記対象物の三次元位置情報を出力する三次元位置出力部と、を有する。【選択図】図4

Description

本願は、三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法に関する。
従来、発光素子等から対象物に光を投光した投光タイミングと、対象物からの反射光を受光した受光タイミングとの時間差から、対象物までの距離を測定するTOF(Time of Flight)法が知られている。
TOF法として、レーザ光源から射出されたレーザ光を回転ミラーで走査し、対象物で反射又は散乱された光を、再度回転ミラーを介して受光素子で検出することで、所望の範囲の対象物の有無や、対象物の三次元位置を取得する走査型LIDAR(Light Detection and Ranging)装置が航空機や鉄道、車載等で広く使用されている。
また、走査型LIDAR装置として、受光素子の出力電流に基づく電圧信号(受光信号)に、オフセット量が時間的に変化するオフセット信号を加算することにより、三次元位置等の対象物に関する情報の検出精度を向上させる装置が開示されている(例えば、特許文献1参照)。
しかし特許文献1の装置では、太陽光や回路の電磁波ノイズ等に起因した受光信号のノイズにより、検出される対象物の三次元位置情報に正確でないものが含まれる場合があった。
本発明は、上記の点に鑑みてなされたものであって、対象物の正確な三次元位置を検出することを課題とする。
開示の技術の一態様に係る三次元位置検出装置は、所定の回転軸周りに回転する回転機構部と、前記回転軸上に配置され、前記回転機構部による回転角度毎で、LIDAR(Light Detection And Ranging)法により対象物の第1の三次元位置を検出するLIDAR検出部と、前記回転軸と交差する方向に前記回転軸から離れて配置され、前記回転機構部により回転されながら、前記対象物の画像を撮像する撮像部と、前記回転機構部による前記回転角度毎で撮像された2以上の前記画像に基づいて前記対象物の第2の三次元位置を検出する画像検出部と、前記第1の三次元位置と、前記第2の三次元位置との比較により取得される前記対象物の三次元位置情報を出力する三次元位置出力部と、を有する。
本発明の一実施形態によれば、対象物の正確な三次元位置を検出することができる。
第1の実施形態に係る三次元位置検出装置の構成の一例を説明する図であり、(a)は斜視図であり、(b)は上面図であり、(c)は側面図である。 第1の実施形態に係るLIDAR検出部の構成の一例を説明するブロック図である。 第1の実施形態に係る処理部のハードウェア構成の一例を説明するブロック図である。 第1の実施形態に係る処理部の機能構成の一例を説明するブロック図である。 第1の実施形態に係る全方位カメラの撮像画像の一例を説明する図である。 LIDAR検出部と全方位カメラの位置合わせ処理の一例を説明する図である。 第1及び第2の三次元位置情報の座標空間を合わせる処理の一例を説明する図である。 三次元位置比較部による処理の一例を説明する図である。 第1の実施形態に係る三次元位置検出装置の動作の一例を示すフローチャートである。 第1の実施形態に係る三次元位置検出装置による検出結果の一例を示す図である。 第2の実施形態に係る三次元位置検出システムによる検出方法の一例を説明する図である。 第2の実施形態に係る三次元位置検出システムの機能構成の一例を説明するブロック図である。 第2の実施形態に係る三次元位置検出システムの動作の一例を示すフローチャートである。
以下、図面を参照して発明を実施するための形態について説明する。なお、各図面において、同一構成の部分には同一符号を付し、重複した説明を省略する場合がある。
[第1の実施形態]
<三次元位置検出装置の構成>
図1は、本実施形態に係る三次元位置検出装置の構成の一例を説明する図である。(a)は斜視図であり、(b)は上面図であり、(c)は側面図である。
図1に示すように、三次元位置検出装置1は、回転ステージ2と、回転ステージ2上に配置されたLIDAR(Light Detection And Ranging)検出部3と、LIDAR検出部3の筐体上に配置された全方位カメラ4とを有する。
回転ステージ2は、回転機構部の一例であり、回転ステージ2上に搭載されたLIDAR検出部3及び全方位カメラ4を、A軸(所定の回転軸の一例)周りに回転させることができる。
LIDAR検出部3は、回転ステージ2のA軸上に固定され、回転ステージ2の回転に伴ってA軸周りに検出方向を変化させながら、各検出方向に存在する対象物の三次元位置を検出することができる。
ここで、LIDAR検出部3は、自機から検出方向にある対象物までの距離を検出する走査型レーザレーダである。LIDAR検出部3は、対象物に向けて走査光を投光し、走査光を投光してから、走査光が対象物に反射(散乱)された反射光を受光するまでの時間である光飛行時間に基づいて、自機から対象物までの距離を検出することができる。
図1(a)に示す破線の矢印310は、走査光の走査方向を示し、311は走査光を示している。例えば走査光のうちのレーザ光311aの反射光から、レーザ光311aの方向にある対象物の距離を検出することができ、またレーザ光311bの反射光から、レーザ光311bの方向にある対象物の距離を検出することができる。
なお、図1(a)に示すLIDAR検出部3は、A軸に平行な方向(Y方向)にレーザ光を走査し、A軸と直交する方向にはレーザ光を広げて投光することで、直交2方向の走査範囲にある対象物にレーザ光を照射する1軸走査方式のLIDAR装置である。
但し、これに限定されるものではなく、LIDAR検出部3を、直交2方向に走査する2軸走査方式のLIDAR装置で構成してもよい。2軸走査方式にすることで、A軸と直交する方向においても、対象物に照射するレーザ光を集光することができるため、反射光の光強度を大きくでき、距離検出の精度を向上させることができる。このような直交2方向に走査する構成は、「直交する2軸方向に光を走査する光走査部」の一例である。
このLIDAR検出部3の構成の詳細については、別途、図2を用いて説明する。
一方、全方位カメラ4は、「撮像部」の一例であり、360度の全方位の画像である全方位画像を1台で一度に撮像できるカメラである。全方位カメラ4は、図1(c)に示すように、LIDAR検出部3の筐体上に配置され、回転ステージ2の回転に伴ってA軸周りに撮像方向(角度)を変化させながら、対象物の画像を撮像することができる。
また、全方位カメラ4は、A軸と交差する方向においてA軸から離れた位置に配置されているため、回転ステージ2の回転に伴い、角度だけでなく位置も変化させることができる。これにより、全方位カメラ4は、回転ステージ2の回転に伴い、視差のある画像を撮像することができる。
なお、全方位カメラ4は全方位の画像を撮像できるため、全方位カメラ4の備える撮像レンズの光軸の向きは、必ずしもLIDAR検出部3の検出方向と合わせなくてもよく、任意の方向に向けて全方位カメラ4を配置してもよい。但し、図1では分かりやすいように、撮像レンズの光軸方向とLIDAR検出部3の検出方向とが合うように示している。
また、図中のY方向はA軸と平行の方向を示し、Zθ方向は回転ステージ2の回転に伴ってA軸周りに変化するLIDAR検出部3の検出方向及び全方位カメラ4の撮像方向を示している。以降の図で示すY方向、Zθ方向においても同様である。
<LIDAR検出部の構成>
次に、三次元位置検出装置1の備えるLIDAR検出部3の構成について説明する。図2は、LIDAR検出部の構成の一例を説明するブロック図である。
図2に示すように、LIDAR検出部3は、投光系31と、受光光学系33と、検出系34と、時間計測部345と、同期系35と、測定制御部346と、三次元位置検出部347とを有する。
投光系31は、光源としてのLD(Laser Diode)と、LD駆動部312と、投光光学系32とを有する。LDは、LD駆動部312から出力される駆動電流に応じてパルス状のレーザ光を出力する半導体素子であり、一例として、端面発光レーザ等である。
LD駆動部312は、測定制御部346からのLD駆動信号に応じてパルス状の駆動電流を出力する回路であり、駆動電流を蓄積するコンデンサ、コンデンサとLD21との導通/非導通を切り換えるトランジスタ、電源等から構成される。
投光光学系32は、LD21から出力されたレーザ光を調光する光学系であり、レーザ光を平行化させるカップリングレンズ、レーザ光の進行方向を変化させる偏向器としての回転ミラー等から構成される。投光光学系32から出力されたパルス状のレーザ光が走査光となる。
受光光学系33は、走査範囲に投光された走査光が対象物に反射された反射光を受光するための光学系であり、集光レンズ、平行化レンズ等から構成される。
検出系34は、反射光を光電変換し、光飛行時間を算出するための電気信号を生成する電気回路である。検出系34は、時間測定PD(Photodiode)342及びPD出力検出部343を含んでいる。
時間測定PD342は、反射光の光量に応じた電流(検出電流)を出力するフォトダイオードである。PD出力検出部343は、時間測定PD31からの検出電流に応じた電圧(検出電圧)を生成するI/V変換回路等から構成される。
同期系35は、走査光を光電変換し、走査光の投光タイミングを調整するための同期信号を生成する電気回路である。同期系35は、同期検知PD354及びPD出力検出部356を含んでいる。同期検知PD354は、走査光の光量に応じた電流を出力するフォトダイオードである。PD出力検出部356は、同期検知PD354からの電流に応じた電圧を利用して同期信号を生成する回路である。
時間計測部345は、検出系34により生成された電気信号(検出電圧等)及び測定制御部346により生成されたLD駆動信号に基づいて光飛行時間を計測する回路であり、例えばプログラムにより制御されるCPU(Central Processing Unit)、適宜なIC(Integrated Circuit)等により構成される。
時間計測部345は、PD出力検出部356からの検出信号(PD出力検出部356での受光信号の検出タイミング)に基づいて、時間計測用PD342での受光タイミングを求め、受光タイミングとLD駆動信号の立ち上がりタイミングとに基づいて対象物までの往復時間を計測する。そして、時間計測部345は、対象物までの往復時間を、時間計測結果として測定制御部346に出力する。
測定制御部346は、時間計測部345からの時間計測結果を距離に変換することで、対象物までの往復距離を算出し、往復距離の1/2を距離データとして三次元位置検出部347に出力する。
三次元位置検出部347は、測定制御部346からの1走査又は複数の走査で取得された複数の距離データに基づいて、対象物が存在する三次元位置を検出し、三次元位置情報を測定制御部346に出力する。測定制御部346は、三次元位置検出部347からの三次元位置情報を処理部100に転送する。ここで、LIDAR検出部3による三次元位置は、「第1の三次元位置」の一例であり、以下では第1の三次元位置という。
また、測定制御部346は、処理部100からの測定制御信号(例えば、測定開始信号や測定停止信号等)を受けて、測定の開始や停止を行なうことができる。
なお、LIDAR検出部3には、特開2017−161377号公報に記載されたもの等を適用することができるため、ここでは、さらに詳細な説明は省略する。
<処理部のハードウェア構成>
次に、三次元位置検出装置1の備える処理部100のハードウェア構成について説明する。図3は、処理部のハードウェア構成の一例を説明するブロック図である。
処理部100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、SSD(Solid State Drive)104と、入出力I/F(Interface)105とを有している。それぞれはシステムバスBで相互に接続されている。
CPU101は、ROM102やSSD104等の記憶装置からプログラムやデータをRAM103上に読み出し、処理を実行することで、処理部100全体の制御や、後述する機能を実現する演算装置である。なお、CPU101の有する機能の一部、又は全部を、ASIC(application specific integrated circuit)やFPGA(Field-Programmable Gate Array)といったハードウェアにより実現させてもよい。
ROM102は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM102には、処理部100の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定等のプログラムやデータが格納されている。RAM103は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。
SSD104は、処理部100による処理を実行するプログラムや各種データが記憶された不揮発性メモリである。なお、SSDはHDD(Hard Disk Drive)であってもよい。
入出力I/F105は、PC(Personal Computer)や映像機器等の外部機器と接続するためのインターフェースである。
<処理部の機能構成>
次に、処理部100の機能構成について説明する。図4は、処理部の機能構成の一例を説明するブロック図である。
図4に示すように、処理部100は、回転制御部111と、LIDAR制御部112と、ステレオ検出部113と、座標空間合わせ部114と、三次元位置比較部115と、三次元位置出力部116とを有している。
回転制御部111は、回転ステージ2に電気的に接続され、回転ステージ2の回転を制御する機能を有する。回転制御部111は、制御信号に応じて駆動電圧を出力する電気回路等により実現することができる。
LIDAR制御部112は、LIDAR検出部3に電気的に接続され、測定制御部346に測定制御信号を出力して、測定の開始や停止を制御することができる。
ステレオ検出部113は、全方位カメラ4に電気的に接続され、A軸周りの回転角度毎での全方位カメラ4の撮像画像を入力することができる。上述したように、これらの画像には視差が含まれるため、ステレオ検出部113は、ステレオマッチングにより検出した視差に基づき三次元位置を検出し、三次元位置情報をRAM103等に記憶させることができる。
ここで、ステレオ検出部113の検出した三次元位置は、「第2の三次元位置」の一例であり、以下では第2の三次元位置という。またステレオ検出部113は「画像検出部」の一例である。
なお、ステレオマッチングには、ブロックマッチング法やセミグローバルマッチング法等の公知の技術を適用できるため、ここでは、詳細な説明は省略する。
また、全方位カメラ4で撮像した画像に基づき、ステレオマッチングに代えて、複数枚の画像から対象の形状を復元するSFM(Structure From Motion)法を適用して、対象物の三次元位置を検出してもよい。SFM法も公知のものを適用可能であるため、詳細な説明は省略する。
座標空間合わせ部114は、LIDAR検出部3に電気的に接続され、LIDAR検出部3による第1の三次元位置情報を入力し、また、ステレオ検出部113による第2の三次元位置情報を入力して、第1及び第2の三次元位置情報の座標空間を合わせる処理を実行することができる。また、座標空間合わせ部114は、座標空間を合わせた第1及び第2の三次元位置情報をRAM103等に記憶させることができる。
三次元位置比較部115は、座標空間が合わせられた第1及び第2の三次元位置情報を比較し、第1の三次元位置情報から正確であると推定される三次元位置情報を選択して、三次元位置出力部116に出力する機能を有する。
三次元位置出力部116は、三次元位置比較部115から入力した三次元位置情報を出力することができる。
ここで、図5は、本実施形態に係る全方位カメラの撮像画像の一例を説明する図である。図5において、回転ステージ2は太い矢印53で示した方向に回転し、回転に伴ってA軸周りに全方位カメラ4の撮像方向Zθは変化する。回転ステージ2の所定の回転角度毎で、全方位カメラ4により対象物の画像が撮像される。図5の画像52a〜52dは、それぞれ所定の回転角度毎で、全方位カメラ4により撮像される画像の一例である。
上述したように、全方位カメラ4は、A軸と交差する方向にA軸から離れて配置されているため、図5に示すように円を描くように回転し、画像52a〜52dには、回転半径と回転角度にて決定される視差が含まれる。ステレオ検出部113は、この視差を利用して、ステレオマッチングにより対象物の三次元位置を検出することができる。
次に、座標空間合わせ部114による処理について説明する。
ここで、第1の三次元位置は、LIDAR検出部3の配置位置を基準とした三次元位置であり、第2の三次元位置は、全方位カメラ4の配置位置を基準とした三次元位置である。上述したように、回転ステージ2上で、LIDAR検出部3はA軸上に配置され、全方位カメラ4はA軸と交差する方向にA軸から離れて配置されている。
従って、第1の三次元位置と第2の三次元位置は基準位置が異なり、座標空間が異なっている。そのため、座標空間合わせ部114は、第2の三次元位置情報の座標空間を、第1の三次元位置情報の座標空間に合わせる処理を実行する。
図6は、LIDAR検出部と全方位カメラの位置合わせ処理の一例を説明する図である。なお、この処理は、座標空間合わせ部114が実行する処理の1つである。
図6において、A軸に交差する方向での全方位カメラ4のA軸からの距離をtとし、また、Y方向におけるLIDAR検出部3の中心位置と全方位カメラ4の光軸との距離をhとする。
一方、回転ステージ2の回転原点におけるLIDAR検出部3の検出方向及び全方位カメラ4の撮像方向をZ0とし、回転ステージ2の回転角度がθの時のLIDAR検出部3の検出方向及び全方位カメラ4の撮像方向をZθとする。
これらの関係からLIDAR検出部3の中心に対する全方位カメラ4の光軸位置は次の(1)式で表すことができる。
また、図7は、第1及び第2の三次元位置情報の座標空間を合わせる処理の一例を説明する図である。なお、この処理も座標空間合わせ部114が実行する処理の1つである、
図7において、全方位カメラ4の撮像画像53aの座標をu、vとすると、全方位カメラ4による第2の三次元位置の座標空間(x、y、z)は、次の(2)式で表すことができる。
ここで、(2)式において、u0、v0は撮像画像の中心座標を表し、例えば撮像画像の画素数が1920×1080画素の場合、(u0、v0)=(960、540)となる。またfは全方位カメラ4の焦点距離である。
(1)式及び(2)式と、回転ステージ2による回転角度θから、次の(3)式を用いて、第2の三次元位置情報の座標空間を変換し、第1の三次元位置情報の座標空間に合わせることができる。
なお、(3)式におけるTは転置行列を示している。
次に、図8は、三次元位置比較部による処理の一例を説明する図である。
ここで、LIDAR検出部3により検出される第1の三次元位置は、太陽光等に起因したショットノイズで距離を誤検出する場合がある。つまり、正確な距離を検出できるが、正確でない距離が含まれる場合もある。
そこで、三次元位置比較部115は、第1の三次元位置情報と、座標空間を合わせた後の第2の三次元位置情報とを比較し、第2の三次元位置情報に距離検出値が近い第1の三次元位置情報を、正確であると推定される三次元位置情報として選択する。
図8において、第1の三次元位置情報811には、第2の三次元位置情報821が近い距離検出値として存在する。一方、第1の三次元位置情報812には、第2の三次元位置情報に近い距離検出値が存在しない。
そのため、三次元位置比較部115は、第1の三次元位置情報811のみを、正確であると推定される三次元位置情報として選択する。近い距離検出値があるか否かの判定では、一例として、予め定められた閾値を用い、第1の三次元位置情報と第2の三次元位置情報の差が閾値を下回る場合に、近い距離検出値が存在すると判定することができる。
<三次元位置検出装置の動作>
次に、本実施形態に係る三次元位置検出装置1の動作について説明する。
図9は、本実施形態に係る三次元位置検出装置の動作の一例を示すフローチャートである。
先ず、ステップS91において、LIDAR検出部3は、回転ステージ2の所定の回転角度(回転原点等)で第1の三次元位置を検出する。検出された第1の三次元位置情報は、RAM103等に出力され、記憶される。
続いて、ステップS92において、全方位カメラ4は、対象物が含まれる画像を撮像する。撮像された画像情報は、RAM103等に出力され、記憶される。
続いて、ステップS93において、回転制御部111は、予め定めた全ての回転角度で第1の三次元位置の検出、及び画像の撮像が実行されたかを判定する。
ステップS93において、全ての回転角度で第1の三次元位置の検出、及び画像の撮像が実行されていないと判定された場合は(ステップS93、No)、ステップS94において、回転制御部111は予め定めた所定の回転角度で回転ステージ2を回転させる。その後、ステップS91に戻る。
一方、ステップS93において、全ての回転角度で第1の三次元位置の検出、及び画像の撮像が実行されたと判定された場合は(ステップS93、Yes)、ステップS95において、ステレオ検出部113は、回転ステージ2による回転角度毎で、2以上の撮像画像を用いてステレオマッチング処理を実行し、第2の三次元位置を検出する。検出された第2の三次元位置情報は、RAM103等に出力され、記憶される。
なお、この場合、ステレオ検出部113は、回転ステージ2による所定の回転角度において、LIDAR検出部3により検出された第1の三次元位置情報が2個以上ある場合に限って、ステレオマッチング処理を実行するようにしてもよい。
第2の三次元位置情報は、第1の三次元位置情報から正確であると推定されるものを選択するために用いられるが、所定の回転角度での第1の三次元位置情報が1個のみの場合は、正確である場合が多い。従って、この場合にはステレオマッチング処理の実行を省略することで、演算の処理負荷を低減させるとともに、処理時間を削減することができる。
図9に戻って説明を続けると、ステップS96において、座標空間合わせ部114は、RAM103等に記憶された第1及び第2の三次元位置情報を読み出し、第2の三次元位置情報の座標空間を、第1の三次元位置情報の座標空間に合わせる処理を実行する。回転ステージ2による所定の回転角度毎で、第1及び第2の三次元位置が検出されるため、座標空間合わせ部114は、所定の回転角度毎で、座標空間を合わせる処理を実行し、処理結果を三次元位置比較部115に出力する。
続いて、ステップS97において、三次元位置比較部115は、入力した第1及び第2の三次元位置情報を比較し、正確であると推定される第1の三次元位置情報を選択する処理を実行する。この場合も、ステップS97と同様に、三次元位置比較部115は、回転ステージ2による所定の回転角度毎で、三次元位置の比較処理を実行し、処理結果を三次元位置出力部116に出力する。
続いて、ステップS98において、三次元位置出力部116は、三次元位置比較部115から正確であると推定された三次元位置情報を入力し、表示装置やPC(Perspnal Computer)等の外部装置に出力する。
このようにして、三次元位置検出装置1は、三次元位置情報を取得し、出力することができる。図10は、三次元位置検出装置1による検出結果の一例を示す図である。図10は、対象物までの距離を各画素の輝度値に置き換えて表示した距離画像である。このようにして三次元位置を検出することができる。
<三次元位置検出装置の効果>
以上説明してきたように、本実施形態では、回転ステージ2で回転させながら検出した第1及び第2の三次元位置情報に基づき、正確であると推定された三次元位置情報を検出する。これにより、ショットノイズに起因した正確でない三次元位置情報を、第2の三次元位置情報との比較により、第1の三次元位置情報から除去することができる。そして、対象物の正確な三次元位置を検出することができる。
また、本実施形態によれば、LIDAR検出部3の誤検出を低減するために、複数回の検出を行ったり、検出値の後処理を行ったりしなくてよい。追加の機能を搭載することがないため、三次元位置検出装置1のコストの低減を図ることができる。
[第2の実施形態]
次に、第2の実施形態に係る三次元位置検出システムについて説明する。なお、既に説明した実施形態と同一の構成部についての説明は省略する。
図10に三次元位置の検出結果の一例を示したが、図10に110で示した箇所のように、三次元位置検出装置1からみて対象物の裏側は、LIDAR検出部3から投光される光は届かず、また全方位カメラ4でも撮像することができない場合がある。そのため、このような対象物の裏側は死角となり、三次元位置を検出することができない場合がある。
そこで、本実施形態に係る三次元位置検出システムでは、三次元位置検出装置1の位置を変化させながら、三次元位置検出装置1により複数回の検出を行い、検出結果を合成することで、死角のない三次元位置検出を実現している。
図11は、本実施形態に係る三次元位置検出システムによる検出方法の一例を説明する図である。図11に示すように、三次元位置検出装置1P1は、第1の位置に設置された三次元位置検出装置1を示し、三次元位置検出装置1P2は、第1の位置とは異なる第2の位置に設置された三次元位置検出装置1を示している。なお、三次元位置検出装置1の第1の位置から第2の位置への移動は、直動ステージで行うが、図11では直動ステージの図示を省略している。
本実施形態に係る三次元位置検出システム1aは、このように位置を変えながら三次元位置検出装置1による複数回の検出を実行することができる。
<三次元位置検出システムの構成>
図12は、本実施形態に係る三次元位置検出システムの機能構成の一例を示すブロック図である。
図12に示すように、三次元位置検出システム1aは、直動ステージ5と、処理部100aとを有している。また、処理部100aは、三次元位置出力部116aと、位置制御部121と、撮像位置取得部122と、LIDAR位置角度取得部123と、三次元位置合成部124と、合成三次元位置出力部125とを有している。
三次元位置出力部116aは、三次元位置比較部115から入力した、回転角度毎での三次元位置情報を、RAM103等に出力し、記憶させることができる。
直動ステージ5は、位置可変部の一例であり、三次元位置検出装置1を搭載したテーブルを移動させることで、三次元位置検出装置1の位置を変化させることができる。なお、直動ステージ5による移動方向の軸数は、1軸や2軸等、何れの数であってもよい。
位置制御部121は、直動ステージ5に電気的に接続され、直動ステージ5による三次元位置検出装置1の位置を制御する機能を有する。位置制御部121は、制御信号に応じて直動ステージ5に駆動電圧を出力する電気回路等により実現することができる。
撮像位置取得部122は、直動ステージ5が変化させた位置毎で全方位カメラ4が撮像した画像に基づき、SFM法により全方位カメラ4の位置情報を取得し、取得した位置情報をLIDAR位置角度取得部123に出力する機能を有する。
SFM法は、上述したように、複数枚のカメラ画像から、個々のカメラの配置位置や三次元空間を推定するための画像処理アルゴリズムである。SFM法のアルゴリズムが実装された演算装置は、各画像の特徴点を探索し、画像同士の特徴点の類似度と位置関係をマッピングする処理を実行する。そして、特徴点が最も適切に当てはまる位置を推定することで、個々のカメラの相対位置を決定し、また、個々のカメラの位置関係から特徴点の三次元位置を決定することができる。なお、SFM法自体は公知の技術を適用できるため、ここでは詳細な説明は省略する。
一方、LIDAR位置角度取得部123は、入力した全方位カメラ4の位置情報に基づき、LIDAR検出部3の位置及び角度の情報を取得し、三次元位置合成部124に出力する機能を有する。
より詳しくは、LIDAR位置角度取得部123は、先ず、全方位カメラ4の位置情報に基づいて、三次元位置検出装置1の位置(三次元位置検出装置1の装置中心が配置された位置)を特定する。そして、既知である三次元位置検出装置1の装置中心に対するLIDAR検出部3の位置の情報を用いて、LIDAR検出部3の位置及び角度情報を取得することができる。
三次元位置合成部124は、LIDAR検出部3の位置及び設置角度情報に基づき、三次元位置検出装置1により検出され、RAM103等に記憶された三次元位置を合成する処理を実行し、合成三次元位置出力部125に出力する機能を有する。
合成三次元位置出力部125は、入力した三次元位置を表示装置やPC等の外部装置に出力することができる。
<三次元位置検出システムの動作>
図13は、本実施形態に係る三次元位置検出システムの動作の一例を示すフローチャートである。
図13のステップS131〜S137の処理は、図9のステップS91〜S97の処理と同じであるため、説明を省略する。
ステップS138において、三次元位置出力部116aは、三次元位置比較部115から入力した、回転角度毎での三次元位置情報を、RAM103等に出力し、記憶させる。
続いて、ステップS139において、位置制御部121は、予め定められた全ての位置で、三次元位置検出装置1による検出が行われたか否かを判定する。
ステップS139において、全ての位置で三次元位置検出装置1による検出が行われていないと判定された場合は(ステップS139、No)、ステップS140において、位置制御部121は、直動ステージ5を所定の移動量だけ変化させ、三次元位置検出装置1の位置を変化させる。その後ステップS131に戻る。
一方、ステップS139において、全ての位置で三次元位置検出装置1による検出が行われたと判定された場合は(ステップS139、Yes)、ステップS141において、撮像位置取得部122は、直動ステージ5により変化させた位置毎で全方位カメラ4により撮像され、RAM103等に記憶された画像に基づき、SFM法により全方位カメラ4の位置情報を取得する処理を実行する。そして、取得した全方位カメラ4の位置情報をLIDAR位置角度取得部123に出力する。
続いて、ステップS142において、LIDAR位置角度取得部123は、入力した全方位カメラ4の位置情報に基づき、LIDAR検出部3の位置及び角度情報を取得し、三次元位置合成部124に出力する。
続いて、ステップS143において、三次元位置合成部124は、RAM103等から位置毎での三次元位置情報を読み出し、LIDAR検出部3の位置及び角度情報に基づいて、読み出した三次元位置情報を合成する。そして、合成された三次元位置情報を合成三次元位置出力部125に出力する。
続いて、ステップS144において、合成三次元位置出力部125は、入力した三次元位置情報を表示装置やPC等の外部装置に出力する。
このようにして、三次元位置検出システム1aは、変化させた位置毎での三次元位置情報を合成した三次元位置情報を取得し、出力することができる。
<三次元位置検出システムの効果>
以上説明してきたように、本実施形態では、直動ステージ5で位置を変化させながら三次元位置検出装置1により検出した三次元位置情報に基づき、合成した三次元位置情報を検出する。これにより、死角のない対象物の正確な三次元位置を検出することができる。
複数の箇所で検出された三次元位置情報を合成する比較例として、例えば、三次元位置情報をメッシュ構造化し、メッシュ同士を比較して構造の近い場所を探して合成する手法や、加速度センサ等から三次元位置情報を検出した箇所のずれを把握し、ずれを解消するように合成する手法等がある。
しかし、メッシュ構造化する手法は、三次元位置情報のデータ間隔が細かい(解像度が高い)とメッシュ化が困難になる場合や、室内空間等の広い空間ではメッシュ化が困難になる場合がある。また、加速度センサ等を用いる手法は、三次元位置検出システムの構成に加速度センサ等を追加する必要があり、システム構成が複雑になり、またコストが増大する場合がある。
本実施形態では、全方位カメラ4で撮像した画像に基づき三次元位置情報を合成するため、高精度、簡単、かつ低コストで、合成した三次元位置情報を取得することができる。
なお、これ以外の効果は、第1の実施形態で説明したものと同様である。
尚、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
また、本実施形態では、三次元位置検出方法を含む。例えば、三次元位置検出方法は、所定の回転軸周りに回転する回転工程と、前記回転軸上に配置され、前記回転工程による回転角度毎で、LIDAR法により対象物の第1の三次元位置を検出する工程と、前記回転軸と交差する方向に前記回転軸から離れて配置され、前記回転工程により回転されながら、前記対象物の画像を撮像する工程と、前記回転工程による前記回転角度毎で撮像された2以上の前記画像に基づいて前記対象物の第2の三次元位置を検出する工程と、前記第1の三次元位置と、前記第2の三次元位置との比較により取得される前記対象物の三次元位置情報を出力する工程と、を含む。このような三次元位置検出方法により、上述の三次元位置検出装置と同様の効果を得ることができる。
また上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
1 三次元位置検出装置
1a 三次元位置検出システム
2 回転ステージ
3 LIDAR検出部
4 全方位カメラ
5 直動ステージ
31 投光系
312 LD駆動部
32 投光光学系
33 受光光学系
34 検出系
342 時間計測用PD
343 PD出力検出部
345 時間計測部
346 測定制御部
347 三次元位置検出部
35 同期系
354 同期検知用PD
356 PD出力検出部
51 対象物
52 撮像画像
100 処理部
101 CPU
102 ROM
103 RAM
104 SSD
105 入出力I/F
111 回転制御部
112 LIDAR制御部
113 ステレオ検出部
114 座標空間合わせ部
115 三次元位置比較部
116、116a 三次元位置出力部
121 位置制御部
122 撮像位置取得部
123 LIDAR位置角度取得部
124 三次元位置合成部
125 合成三次元位置出力部
B システムバス
特開2017−161377号公報

Claims (7)

  1. 所定の回転軸周りに回転する回転機構部と、
    前記回転軸上に配置され、前記回転機構部による回転角度毎で、LIDAR(Light Detection And Ranging)法により対象物の第1の三次元位置を検出するLIDAR検出部と、
    前記回転軸と交差する方向に前記回転軸から離れて配置され、前記回転機構部により回転されながら、前記対象物の画像を撮像する撮像部と、
    前記回転機構部による前記回転角度毎で撮像された2以上の前記画像に基づいて前記対象物の第2の三次元位置を検出する画像検出部と、
    前記第1の三次元位置と、前記第2の三次元位置との比較により取得される前記対象物の三次元位置情報を出力する三次元位置出力部と、を有する
    三次元位置検出装置。
  2. 前記LIDAR検出部は、直交する2軸方向に光を走査する光走査部を有する
    請求項1に記載の三次元位置検出装置。
  3. 前記画像検出部は、前記2以上の前記画像の視差に基づき、前記第2の三次元位置を検出する
    請求項1、又は2に記載の三次元位置検出装置。
  4. 前記撮像部は、全方位画像を撮像する全方位カメラを含む
    請求項1乃至3の何れか1項に記載の三次元位置検出装置。
  5. 前記画像検出部は、前記回転機構部による所定の回転角度において、前記LIDAR検出部による前記第1の三次元位置情報が2個以上ある場合に、前記2以上の前記画像の視差に基づき、前記第2の三次元位置情報を検出する
    請求項3、又は4に記載の三次元位置検出装置。
  6. 請求項1乃至5の何れか1項に記載の三次元位置検出装置を搭載し、前記三次元位置検出装置の位置を変化させる位置可変部と、
    前記位置可変部により変化させた位置毎で、前記撮像部により撮像された前記画像に基づき、SFM(Structure From Motion)法により前記撮像部の位置を取得する撮像位置取得部と、
    前記回転軸と、前記撮像部との位置関係に基づき、前記LIDAR検出部の設置された位置及び角度を取得するLIDAR位置角度取得部と、
    前記LIDAR検出部の前記位置及び前記角度に基づき、合成された前記三次元位置情報を出力する合成三次元位置出力部と、を有する
    三次元位置検出システム。
  7. 所定の回転軸周りに回転する回転工程と、
    前記回転軸上に配置され、前記回転工程による回転角度毎で、LIDAR法により対象物の第1の三次元位置を検出する工程と、
    前記回転軸と交差する方向に前記回転軸から離れて配置され、前記回転工程により回転されながら、前記対象物の画像を撮像する工程と、
    前記回転工程による前記回転角度毎で撮像された2以上の前記画像に基づいて前記対象物の第2の三次元位置を検出する工程と、
    前記第1の三次元位置と、前記第2の三次元位置との比較により取得される前記対象物の三次元位置情報を出力する工程と、を含む
    三次元位置検出方法。
JP2018224199A 2018-11-29 2018-11-29 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法 Active JP7206855B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018224199A JP7206855B2 (ja) 2018-11-29 2018-11-29 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法
US16/697,669 US20200175706A1 (en) 2018-11-29 2019-11-27 Three-dimensional position detecting device, three-dimensional position detecting system and method for detecting three-dimensional positions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018224199A JP7206855B2 (ja) 2018-11-29 2018-11-29 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法

Publications (2)

Publication Number Publication Date
JP2020085798A true JP2020085798A (ja) 2020-06-04
JP7206855B2 JP7206855B2 (ja) 2023-01-18

Family

ID=70849256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018224199A Active JP7206855B2 (ja) 2018-11-29 2018-11-29 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法

Country Status (2)

Country Link
US (1) US20200175706A1 (ja)
JP (1) JP7206855B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113043329A (zh) * 2021-03-24 2021-06-29 清华大学 一种测量模组的精度标定试验装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114577112A (zh) * 2022-01-19 2022-06-03 格力电器(芜湖)有限公司 一种底盘螺栓位置检测方法及检测装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090251680A1 (en) * 2008-04-02 2009-10-08 Ali Farsaie Three dimensional spatial imaging system and method
US20160061954A1 (en) * 2014-08-27 2016-03-03 Leica Geosystems Ag Multi-camera laser scanner
JP2017173258A (ja) * 2016-03-25 2017-09-28 富士通株式会社 距離測定装置、距離測定方法及びプログラム
WO2018213338A1 (en) * 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090251680A1 (en) * 2008-04-02 2009-10-08 Ali Farsaie Three dimensional spatial imaging system and method
US20160061954A1 (en) * 2014-08-27 2016-03-03 Leica Geosystems Ag Multi-camera laser scanner
JP2017173258A (ja) * 2016-03-25 2017-09-28 富士通株式会社 距離測定装置、距離測定方法及びプログラム
WO2018213338A1 (en) * 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤原浩平 外5名: ""屋内外で利用可能な可搬型三次元計測装置の開発"", ロボティクス・メカトロニクス講演会2013講演論文集[DVD-ROM], JPN6022027772, 21 May 2013 (2013-05-21), pages 1 - 1, ISSN: 0004892306 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113043329A (zh) * 2021-03-24 2021-06-29 清华大学 一种测量模组的精度标定试验装置

Also Published As

Publication number Publication date
JP7206855B2 (ja) 2023-01-18
US20200175706A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN111742241B (zh) 光测距装置
JP5503578B2 (ja) 物体検出装置及び物体検出方法
WO2012053521A1 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
EP2927710B1 (en) Ranging system, information processing method and program thereof
JP2015017992A (ja) 環境を光学的に走査および測定する方法ならびにデバイス
JP6526955B2 (ja) センサ情報統合方法、及びその装置
JP6435661B2 (ja) 物体識別システム、情報処理装置、情報処理方法及びプログラム
US10055881B2 (en) Video imaging to assess specularity
US20210150744A1 (en) System and method for hybrid depth estimation
JP2019158414A (ja) 情報処理装置
JP7206855B2 (ja) 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法
JP2017181488A (ja) 距離画像生成装置、距離画像生成方法及びプログラム
JP6772639B2 (ja) 視差演算システム、移動体及びプログラム
JP2015049200A (ja) 計測装置、方法及びプログラム
WO2022050279A1 (ja) 三次元計測装置
JP2014130086A (ja) 距離画像センサ、処理装置、プログラム
De Villar et al. Design and implementation of a long range iris recognition system
WO2023162730A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021049490A1 (ja) イメージレジストレーション装置、画像生成システム、イメージレジストレーション方法及びイメージレジストレーションプログラム
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
JP4218283B2 (ja) ターゲット投影式3次元形状計測方法および装置
CN112630750A (zh) 传感器标定方法和传感器标定装置
JP7140091B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム
WO2022113877A1 (ja) 三次元計測装置及び三次元計測プログラム
KR102433837B1 (ko) 3차원 정보 생성 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7206855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151