JP7262064B2 - 測距撮像システム、測距撮像方法、及びプログラム - Google Patents

測距撮像システム、測距撮像方法、及びプログラム Download PDF

Info

Publication number
JP7262064B2
JP7262064B2 JP2021508967A JP2021508967A JP7262064B2 JP 7262064 B2 JP7262064 B2 JP 7262064B2 JP 2021508967 A JP2021508967 A JP 2021508967A JP 2021508967 A JP2021508967 A JP 2021508967A JP 7262064 B2 JP7262064 B2 JP 7262064B2
Authority
JP
Japan
Prior art keywords
dimensional image
dimensional
image
dimensional data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508967A
Other languages
English (en)
Other versions
JPWO2020195755A1 (ja
Inventor
学 薄田
信三 香山
明弘 小田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020195755A1 publication Critical patent/JPWO2020195755A1/ja
Application granted granted Critical
Publication of JP7262064B2 publication Critical patent/JP7262064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、測距撮像システム、測距撮像方法、及びプログラムに関し、より詳細には、対象空間の輝度情報と距離情報とを取得する測距撮像システム、測距撮像方法、及びプログラムに関する。
特許文献1には、画像対応付け方法が開示されている。
この画像対応付け方法では、レーザースキャナによって計測対象の三次元点群データを得ると共に、計測対象を撮影して二次元カラー画像を取得する。次に、二次元カラー画像上において任意に3点以上を選択し、当該選択した各点に、三次元点群データに基づく三次元位置情報を与える。そして、選択点の三次元位置情報に基づいて、計測対象の撮影時におけるカメラとレーザースキャナとの相対的な位置関係を算出する。そして、算出した相対的な位置関係と、選択した点における三次元位置情報とに基づいて、点群データの各点のデータにカラー画像の画像データを対応させる。
特開2005-77385号公報
別々に配置されているカメラの画像(輝度情報)とレーザースキャナのデータ(距離情報)とを対応付ける場合、これらの装置のデータの取得タイミング、視点、データ形式等が異なるため、データの対応付けが難しい。
本開示は、輝度情報と距離情報とを対応付けたデータを得ることが可能な測距撮像システム、測距撮像方法、及びプログラムを提供することを目的とする。
本開示の一態様に係る測距撮像システムは、第1取得部と、第2取得部と、第3取得部と、演算処理部と、を備える。前記第1取得部は、対象空間の第1の2次元画像を取得する撮像部から、前記第1の2次元画像を示す第1の2次元データを取得する。前記第2取得部は、前記対象空間の第1の3次元画像を取得する測距部から、前記第1の3次元画像を示す第1の3次元データを取得する。前記第3取得部は、同軸光学系で前記対象空間の第2の2次元画像と第2の3次元画像とを取得する検出部から、前記第2の2次元画像を示す第2の2次元データと前記第2の3次元画像を示す第2の3次元データとを取得する。前記演算処理部は、前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の3次元データと前記第2の3次元データとを対応付ける第2対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第3対応付け処理と、を実行する。前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第2対応付け処理は、前記第1の3次元画像に含まれる対象物までの距離の情報及び前記第2の3次元画像に含まれる対象物までの距離の情報に基づいて、前記第1の3次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第3対応付け処理は、前記第1対応付け処理の結果、前記第2対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。
本開示の一態様に係る測距撮像方法は、第1取得ステップと、第2取得ステップと、第3取得ステップと、処理ステップと、を含む。前記第1取得ステップは、対象空間の第1の2次元画像を取得する撮像部から、前記第1の2次元画像を示す第1の2次元データを取得することを含む。前記第2取得ステップは、前記対象空間の第1の3次元画像を取得する測距部から、前記第1の3次元画像を示す第1の3次元データを取得することを含む。前記第3取得ステップは、同軸光学系で前記対象空間の第2の2次元画像と第2の3次元画像を取得する検出部から、前記第2の2次元画像を示す第2の2次元データと前記第2の3次元画像を示す第2の3次元データとを取得することを含む。前記処理ステップは、前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の3次元データと前記第2の3次元データとを対応付ける第2対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第3対応付け処理と、を実行することを含む。前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第2対応付け処理は、前記第1の3次元画像に含まれる対象物までの距離の情報及び前記第2の3次元画像に含まれる対象物までの距離の情報に基づいて、前記第1の3次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第3対応付け処理は、前記第1対応付け処理の結果、前記第2対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。
本開示の一態様に係る測距撮像システムは、第1取得部と、第2取得部と、演算処理部と、を備える。前記第1取得部は、第1の2次元画像を示す第1の2次元データを取得する。前記第2取得部は、同軸光学系で取得された第2の2次元画像を示す第2の2次元データと第1の3次元画像を示す第1の3次元データとを取得する。前記演算処理部は、前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第2対応付け処理と、を実行する。前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第2対応付け処理は、前記第1対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。
本開示の一態様に係る測距撮像方法は、第1取得ステップと、第2取得ステップと、処理ステップと、を含む。前記第1取得ステップは、第1の2次元画像を示す第1の2次元データを取得することを含む。前記第2取得ステップは、同軸光学系で取得された第2の2次元画像を示す第2の2次元データと第1の3次元画像を示す第1の3次元データとを取得することを含む。前記処理ステップは、前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第2対応付け処理と、を実行することを含む。前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。前記第2対応付け処理は、前記第1対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む。
本開示の一態様に係るプログラムは、1以上のプロセッサに、上記の測距撮像方法を実行させるためのプログラムである。
図1は、一実施形態の測距撮像システムのブロック図である。 図2は、同上の測距撮像システムにおける撮像部のブロック図である。 図3は、同上の測距撮像システムにおける測距部のブロック図である。 図4は、同上の測距撮像システムにおける検出部のブロック図である。 図5は、同上の測距部の動作説明図である。 図6は、同上の測距撮像システムにおける信号処理部のブロック図である。 図7Aは、同上の撮像部で取得される第1輝度画像の一例を示す図である。図7Bは、図7AのA1部分の拡大図である。 図8Aは、同上の測距部で取得される第1距離画像の一例を示す図である。図8Bは、図8AのA2部分の拡大図である。 図9Aは、同上の検出部で取得される第2輝度画像の一例を示す図である。図9Bは、図9AのA3部分の拡大図である。 図10Aは、同上の検出部で取得される第2距離画像の一例を示す図である。図10Bは、図10AのA4部分の拡大図である。 図11は、変形例1の測距撮像システムのブロック図である。 図12は、同上の測距撮像システムにおける融合データの生成手順を説明する図である。
以下、本開示の実施形態に係る測距撮像システム1について、図面を用いて説明する。ただし、下記の実施形態は、本開示の様々な実施形態の一部に過ぎない。下記の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。
(1)実施形態
(1.1)概要
図1に示すように、本実施形態の測距撮像システム1は、第1取得部21と、第2取得部22と、第3取得部23と、演算処理部3と、を備えている。
第1取得部21は、通信インターフェースである。第1取得部21は、演算処理部3に接続されている。第1取得部21は、撮像部4に接続される。第1取得部21は、撮像部4から、第1の2次元データを取得する。第1の2次元データは、例えば、対象空間S1の第1の2次元画像に関する情報である。第1の2次元画像は、撮像部4によって取得される。第1取得部21は、例えば、撮像部4から、対象空間S1の第1の2次元画像に関する第1の2次元データを取得する。
第2取得部22は、通信インターフェースである。第2取得部22は、演算処理部3に接続されている。第2取得部22は、測距部5に接続される。第2取得部22は、測距部5から、第1の3次元データを取得する。第1の3次元データは、例えば、対象空間S1の第1の3次元画像に関する情報である。第1の3次元画像は、測距部5によって取得される。第1の3次元画像は、例えば、対象空間S1に存在する対象物O1までの距離を示す画像である。第2取得部22は、例えば、測距部5から、対象空間S1の第1の3次元画像に関する第1の3次元データを取得する。
第3取得部23は、通信インターフェースである。第3取得部23は、演算処理部3に接続されている。第3取得部23は、検出部6に接続される。第3取得部23は、検出部6から、第2の2次元データと第2の3次元データとを取得する。第2の2次元データは、例えば、対象空間S1の第2の2次元画像に関する情報である。第2の2次元画像は、検出部6によって取得される。第2の3次元データは、例えば、対象空間S1の第2の3次元画像に関する情報である。第2の3次元画像は、検出部6によって取得される。第2の3次元画像は、例えば、対象空間S1に存在する対象物O1までの距離を示す画像である。検出部6は、第2の2次元画像と第2の3次元画像とを、同軸光学系で取得する。第3取得部23は、例えば、検出部6から、対象空間S1の第2の2次元画像に関する第2の2次元データと、対象空間S1の第2の3次元画像に関する第2の3次元データと、を取得する。
演算処理部3は、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の3次元データと第2の3次元データとを対応付ける処理と、を実行するよう構成されている。
本実施形態の測距撮像システム1によれば、演算処理部3は、第1の2次元データと第2の2次元データとの対応付けを行い、第1の3次元データと第2の3次元データとの対応付けを行う。すなわち、検出部6が取得する第2の2次元データと第2の3次元データとを介して、第1の2次元データと第1の3次元データとが対応付けられる。そのため、2次元データ(第1の2次元画像)と3次元データ(第1の3次元画像)とを対応付けたデータを得ることが可能となる。
(2)構成
本実施形態の測距撮像システム1について、図1~図10Bを参照して、より詳細に説明する。本実施形態では、測距撮像システム1が自動車等の車両に搭載されて障害物を検知する物体認識システムとして用いられる場合を想定するが、測距撮像システム1の用途はこれに限られない。測距撮像システム1は、例えば、物体(人)等を検知する監視カメラ、セキュリティカメラ等にも利用することができる。
本実施形態の測距撮像システム1は、図1に示すように、信号処理部10と、撮像部4と、測距部5と、検出部6と、を備えている。信号処理部10は、第1取得部21~第3取得部23及び演算処理部3を備えている。ここでは、撮像部4、測距部5、及び検出部6は互いに異なる受光部及び光学系を有しており、互いに異なる光軸を有している。ただし、撮像部4、測距部5、及び検出部6は、概ね光軸の向きが揃っており、同一の対象空間S1からの光を受光するように配置されている。
撮像部4は、対象空間S1の第1の2次元画像を取得する。ここでは、撮像部4は、対象空間S1を撮像して、第1の2次元画像としての第1輝度画像100(図7A参照)を取得する。撮像部4は、例えば、CCD(Charge Coupled Devices)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の固体撮像デバイスを備えている。撮像部4は、外部光を受光する。外部光は、発光体(太陽、照明装置等)から放射される放射光、放射光が対象物O1により散乱された散乱光、等である。
撮像部4は、図2に示すように、受光部(以下、「第1受光部」ともいう)41と、制御部(以下、「第1制御部42」ともいう)と、光学系(以下、「第1光学系」ともいう)43と、を備える。
第1受光部41は、二次元アレイ状に配置された複数の画素セルを備えている。複数の画素セルの各々は、フォトダイオード等の受光素子を備える。受光素子は、光子を電荷に変換する光電変換部である。複数の画素セルの各々は、露光している間のみ、光を受光する。画素セルの露光タイミングは、第1制御部42によって制御される。複数の画素セルの各々は、受光素子で受けた光に応じた電気信号を出力する。電気信号の信号レベルは、受光素子が受光した光の受光量に応じた値である。
第1光学系43は、例えば、外部光を第1受光部41に集光するレンズを含む。第1光学系43は、各画素セルに入射される光の波長を選択するカラーフィルタを備えていてもよい。
第1制御部42は、1以上のメモリ及び1以上のプロセッサを含むコンピュータシステムにより実現され得る。すなわち、コンピュータシステムの1以上のメモリに記録されたプログラムを、1以上のプロセッサが実行することにより、第1制御部42の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。
第1制御部42は、第1受光部41を制御する。第1制御部42は、第1受光部41の各画素セルから出力される電気信号に基づいて、2次元画像である第1輝度画像100を生成する。第1制御部42は、第1の2次元データを生成し、信号処理部10へ出力する。第1の2次元データは、ここでは、生成した第1輝度画像100を示す第1輝度情報である。第1制御部42は、第1輝度情報を、第1の2次元データとして、信号処理部10(第1取得部21)へ出力する。
測距部5は、対象空間S1の第1の3次元画像を取得する。第1の3次元画像は、ここでは、第1距離画像200である。測距部5は、ここではTOF(Time Of Flight)法を利用して対象物O1までの距離を測定し、第1距離画像200(図8A参照)を取得する。測距部5は、図3に示すように、受光部(以下、「第2受光部」ともいう)51と、制御部(以下、「第2制御部」ともいう)52と、光学系(以下、「第2光学系」ともいう)53と、発光部(以下、「第1発光部」ともいう)54と、を備えている。
なお、以下では測距部5としてTOF法を利用した方法を説明するが、これに限る必要は無く、例えば、レーザーパルス光を照射して被写体からの反射光を検出し、その反射時間から距離を算出するLiDAR法などを用いてもよい。
第1発光部54は、パルス状の光を出力する第1光源を備える。第1発光部54から出力される光は、単色光であり、パルス幅が比較的短く、ピーク強度が比較的高いことが好ましい。第1発光部54から出力される光の波長は、人間の視感度が低く、太陽光からの外乱光の影響を受けにくい近赤外帯の波長域であることが好ましい。本実施形態では、第1発光部54は例えばレーザーダイオードを備え、パルスレーザーを出力する。第1発光部54の発光タイミング、パルス幅、発光方向等は、第2制御部52によって制御される。
第2受光部51は、固体撮像デバイスを備えている。第2受光部51は、第1発光部54から出力されて対象物O1で反射された反射光を、受光する。第2受光部51は、二次元アレイ状に配置された複数の画素セルを備える。複数の画素セルの各々は、フォトダイオード等の受光素子を備える。受光素子は、アバランシェフォトダイオードであってもよい。複数の画素セルの各々は、露光している間のみ、光を受光する。画素セルの露光タイミングは、第2制御部52によって制御される。複数の画素セルの各々は、受光素子で受けた光に応じた電気信号を出力する。電気信号の信号レベルは、受光素子が受光した光の受光量に応じた値である。
第2光学系53は、例えば、反射光を第2受光部51に集光するレンズを含む。
第2制御部52は、1以上のメモリ及び1以上のプロセッサを含むコンピュータシステムにより実現され得る。すなわち、コンピュータシステムの1以上のメモリに記録されたプログラムを、1以上のプロセッサが実行することにより、第2制御部52の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。
第2制御部52は、第1発光部54及び第2受光部51を制御する。第2制御部52は、第1発光部54の発光タイミング、パルス幅、発光方向等を制御する。また第2制御部52は、第2受光部51の露光タイミング、露光時間等を制御する。
第2制御部52は、対象空間S1の第1の3次元画像として、対象空間S1に存在する対象物O1までの距離を示す第1距離画像200を生成する。第2制御部52は、例えば以下のようにして、第1距離画像200を取得する。
第2制御部52は、まず、第1発光部54からのパルス光の発光方向を決める。発光方向が決まると、第2受光部51の複数の画素セルのうちで、パルス光が対象物O1で反射された反射光を受光し得る画素セルも、決まる。第2制御部52は、1回の距離測定において、この画素セルから電気信号を取得する。
図5に示すように、第2制御部52は、1回の距離測定に対応する期間(以降、「フレームF1」という)を、n個(nは、2以上の整数)の測定期間が含まれるように分割する。つまり、第2制御部52は、1つのフレームF1を、第1測定期間Tm1~第n測定期間Tmnのn個の測定期間が含まれるように分割する。例えば、各測定期間の長さは等しく設定される。
また、図5に示すように、第2制御部52は、各測定期間を、n個の分割期間に更に分割する。ここでは、第2制御部52は、各測定期間を、第1分割期間Ts1~第n分割期間Tsnのn個の分割期間に等分する。
そして、第2制御部52は、各測定期間の最初の分割期間(第1分割期間Ts1)で、第1発光部54からパルス光を出力させる。
第2制御部52は、各測定期間において、第1分割期間Ts1~第n分割期間Tsnのいずれかで、第2受光部51の(全ての)画素セルを露光させる。第2制御部52は、第1測定期間Tm1~第n測定期間Tmnにおいて、画素セルを露光させるタイミングを、第1分割期間Ts1~第n分割期間Tsnまで1つずつ順次ずらす。
具体的には、第2制御部52は、第1測定期間Tm1では第1分割期間Ts1で画素セルを露光させ、第2測定期間Tm2では第2分割期間Ts2で画素セルを露光させ、第n測定期間Tmnでは第n分割期間Tsnで画素セルを露光させるというように、画素セルの露光タイミングを制御する(図5参照)。そのため、1つのフレームF1で見ると、画素セルは、第1分割期間Ts1~第n分割期間Tsnの全てが、いずれかの測定期間において露光されることとなる。
第2受光部51の画素セルは、露光している期間のみ、対象物O1で反射された反射光を検知することができる。第1発光部54が発光してから第2受光部51に反射光が到達するまでの時間は、測距部5から対象物O1までの距離に応じて変化する。測距部5から対象物O1までの距離をd、光の速度をcとすると、第1発光部54が発光してから時間t=2d/c後に、反射光が第2受光部51に到達する。したがって、第2制御部52は、いずれの分割期間で第2受光部51の画素セルが反射光を受光したか、言い換えれば、いずれの測定期間で第2受光部51の画素セルが反射光を受光したか、に基づいて、当該発光方向に存在する対象物O1までの距離を、算出することができる。
例えば図5の例では、各測定期間において第2分割期間Ts2と第3分割期間Ts3とに跨がる時間に、対象物O1からの反射光が到達している。この場合、第1分割期間Ts1で画素セルが露光される第1測定期間Tm1では、第2受光部51は反射光の存在を検知しない。そのため、画素セルから出力される電気信号の信号レベルは、予め設定された閾値レベルよりも低くなる。一方、第2分割期間Ts2で画素セルが露光される第2測定期間Tm2、及び第3分割期間Ts3で画素セルが露光される第3測定期間Tm3では、反射光が第2受光部51に到達するタイミングで画素セルが露光されるので、第2受光部51は反射光を検知する。そのため、画素セルから出力される電気信号の信号レベルは、閾値レベル以上となる。これにより、第2制御部52は、第2分割期間Ts2に対応する距離範囲及び第3分割期間Ts3に対応する距離範囲に、対象物O1が存在する、と判定することができる。言い換えれば、第2制御部52は、第1発光部54が発光を開始してから第2分割期間Ts2が開始するまでの期間に相当する距離(c×Ts/2)と、第1発光部54が発光を開始してから第3分割期間Ts3が終了するまでの期間に相当する距離(3×c×Ts/2)と、の間の距離範囲に、対象物O1が存在する、と判定することができる。ここで、上記の「Ts」は、各分割期間の長さを示す。
上述の説明から明らかなように、測距部5の測定可能距離(測距部5が距離測定を可能な距離の上限)は、n×Ts×c/2で表される。また、測距部5による距離の分解能は、Ts×c/2となる。
第2制御部52は、第1発光部54の発光方向を(水平方向及び/又は鉛直方向で)変更し、変更した発光方向に対応する画素セルから電気信号を取得する。これにより、複数の画素セルの各々に対応する発光方向において、対象空間S1内の対象物O1までの距離が測定される。
第2制御部52は、第2受光部51の各画素セルから出力される電気信号に基づいて、各画素の値が対象空間S1に存在する対象物O1までの距離に相当する画像である第1距離画像200を生成する。
見方を変えれば、測距部5は、測距部5からの距離に基づいて、測定可能距離を複数(n個)の距離範囲に分割している、と言える。複数の距離範囲は、第1分割期間Ts1に対応する第1距離範囲(0~Ts×c/2)、第2分割期間Ts2に対応する第2距離範囲(Ts×c/2~2×Ts×c/2)、・・・及び、第n分割期間Tsnに対応する第n距離範囲((n-1)×Ts×c/2~n×Ts×c/2)を含む。そして、測距部5は、各距離範囲において、複数の画素セルの各々を単位画素とする2次元画像を生成している、と言える。ここで、各距離範囲に対して生成される2次元画像は、例えば、当該距離範囲に対応する測定期間において、対象物O1からの反射光を受光した画素セル(つまり、信号レベルが閾値レベル以上である画素セル)の画素値が「1」、受光しなかった画素セルの画素値が「0」となるような、2値の画像である。そして、第2制御部52は、複数の距離範囲にそれぞれ対応する複数の2次元画像を、例えば距離範囲ごとに異なる色で色づけし、さらに、閾値レベルをどれだけ上回るかに応じた重み付けをして足し合わせることで、第1距離画像200を生成する。
第2制御部52は、第1の3次元データを生成し、信号処理部10へ出力する。第1の3次元データは、ここでは、生成した第1距離画像200を示す第1距離情報である。第2制御部52は、第1距離情報を、第1の3次元データとして、信号処理部10(第2取得部22)へ出力する。
検出部6は、対象空間S1の第2の2次元画像を取得する。ここでは、検出部6は、第2の2次元画像として、対象空間S1の第2輝度画像300(図9A参照)を取得する。また、検出部6は、対象空間S1の第2の3次元画像を取得する。第2の3次元画像は、ここでは、第2距離画像400である。検出部6は、TOF法(TOF: Time Of Flight)を利用して対象物O1までの距離を測定し、第2距離画像400(図10A参照)を取得する。検出部6は、図4に示すように、受光部(以下、「第3受光部」ともいう)61と、制御部(以下、「第3制御部」ともいう)62と、光学系(以下、「第3光学系」ともいう)63と、発光部(以下、「第2発光部64」ともいう)と、を備えている。
第2発光部64は、第1発光部54と同様に、パルス状の光を出力する光源(第2光源)を備える。第2発光部64から出力される光は、単色光であり、パルス幅が比較的短く、ピーク強度が比較的高いことが好ましい。第2発光部64から出力される光の波長は、人間の視感度が低く、太陽光からの外乱光の影響を受けにくい近赤外帯の波長域であることが好ましい。本実施形態では、第2発光部64は例えばレーザーダイオードを備え、パルスレーザーを出力する。第2発光部64の発光タイミング、パルス幅、発光方向等は、第3制御部62によって制御される。
第3受光部61は、第2受光部51と同様に、固体撮像デバイスを備えている。第3受光部61は、第2発光部64から出力されて対象物O1で反射された反射波を、受光する。第3受光部61は、二次元アレイ状に配置された複数の画素セルを備える。例えば、第3受光部61が備える画素セルの数は、第1受光部41が備える画素セルの数よりも少なく、第2受光部51が備える画素セルの数よりも少ない。複数の画素セルの各々は、フォトダイオード等の受光素子を備える。受光素子は、アバランシェフォトダイオードであってもよい。複数の画素セルの各々は、露光している間のみ、光を受光する。画素セルの露光タイミングは、第3制御部62によって制御される。複数の画素セルの各々は、受光素子で受光した光に応じた電気信号を出力する。電気信号の信号レベルは、受光素子が受光した光の受光量に応じた値である。
第3光学系63は、例えば、外部光及び反射光を第3受光部61に集光するレンズを含む。
第3制御部62は、1以上のメモリ及び1以上のプロセッサを含むコンピュータシステムにより実現され得る。すなわち、コンピュータシステムの1以上のメモリに記録されたプログラムを、1以上のプロセッサが実行することにより、第3制御部62の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。
第3制御部62は、第2発光部64及び第3受光部61を制御する。第3制御部62は、第2発光部64の発光タイミング、パルス幅、発光方向等を制御する。また第3制御部62は、第3受光部61の露光タイミング、露光時間等を制御する。
第3制御部62は、第2発光部64からのパルス光の発光方向を決め、第3受光部61の複数の画素セルのうちで、このパルス光の反射光を受光し得る画素セルを特定する。第3制御部62は、1回の距離測定において、この画素セルから電気信号を取得する。
第3制御部62は、1回の距離測定に対応する期間を、x個(xは、2以上の整数)の測定期間が含まれるように分割し、各測定期間を、x個の分割期間に更に分割する。第3制御部62は、各測定期間の最初の分割期間で第2発光部64からパルス光を出力させ、複数の測定期間において互いに異なる分割期間で、第3受光部61の画素セルを露光させる。ここでは、検出部6が距離測定を行う際の分割期間の長さTtは、測距部5の分割期間の長さTsよりも長い。第3制御部62は、測定期間ごとに、第3受光部61においてこの発光方向に対応する画素セルから、電気信号を取得する。
第3制御部62は、第2発光部64の発光方向及び第3受光部61の複数の画素セルのうちで電気信号を取得する画素セルを変更して、複数の画素セルそれぞれについて上記の測定を行う。これにより、第3制御部62は、複数の測定期間にそれぞれ対応して、複数の2次元画像を生成する。測距部5で説明したのと同様に、複数の測定期間は、検出部6からの距離に基づいて対象空間S1を分割した複数の距離範囲にそれぞれ対応している。また、各2次元画像の各画素セルの画素値は、対応する測定期間においてこの着目する画素セルで受光した受光量に、対応している。
第3制御部62は、複数の2次元画像(複数の距離範囲にそれぞれ対応している)の各画素セルの画素値を、画素セルごとに足し合わせることで、第2輝度画像300を生成する。言い換えれば、検出部6は、複数の2次元画像を、距離範囲を識別せず合成することによって、第2輝度画像300(第2の2次元画像)を生成する。
一方、第3制御部62は、複数の2次元画像の各々について、各画素セルの画素値を所定の閾値と比較することで、複数の2値画像を生成する。ここで言う複数の2値画像は、複数の2次元画像(つまり、複数の距離範囲)に1対1に対応しており、対応する2次元画像の画素セルの画素値が閾値以上であれば「1」、閾値よりも小さければ「0」となるような画像である。また、第3制御部62は、各2値画像において「1」となる画素の画素値を、この2値画像に対応する距離範囲(測定期間)に応じた値に設定する。例えば、第3制御部62は、検出部6から遠い距離範囲に対応する2値画像ほど画素値が大きくなるように、複数の2値画像の画素値を設定する。つまり、第3制御部62は、複数の2値画像を、対応する距離範囲に応じて色付けする。そして、第3制御部62は、得られた(画素値が設定し直された)複数の2値画像の各画素セルの画素値を、画素セルごとに閾値レベルをどれだけ上回るかに応じた重み付けをして足し合わせることで、第2距離画像400を生成する。要するに、検出部6は、複数の2次元画像を、距離範囲を識別して合成することによって、第2距離画像400(第2の3次元画像)を生成する。
このように、検出部6は、同一の画素セルでの受光量に基づいて、第2輝度画像300と第2距離画像400とを生成する。更に、第2輝度画像300と第2距離画像400とは、同一の複数の2次元画像の組を元にして、生成されている。そのため、各画素に対応する対象空間S1上の位置は、第2輝度画像300と第2距離画像400とで1対1に対応することとなる。また、第2輝度画像300(第2の2次元画像)に含まれる複数の画素と第2距離画像400(第2の3次元画像)に含まれる複数の画素とは、1対1に対応することとなる。
第3制御部62は、第2の2次元データを生成し、信号処理部10へ出力する。第2の2次元データは、ここでは、生成した第2輝度画像300を示す第2輝度情報である。第3制御部62は、第2輝度情報を、第2の2次元データとして、信号処理部10(第3取得部23)へ出力する。また、第3制御部62は、第2の3次元データを生成し、信号処理部10へ出力する。第2の3次元データは、ここでは、生成した第2距離画像400を示す第2距離情報である。第3制御部62は、第2距離情報を、第2の3次元データとして、信号処理部10(第3取得部23)へ出力する。
信号処理部10は、図6に示すように、第1取得部21~第3取得部23、及び演算処理部3を備えている。
第1取得部21は、撮像部4から、第1の2次元データを取得する。第1取得部21はここでは、第1の2次元データとして、第1輝度画像100を示す第1輝度情報を、撮像部4から取得する。第1輝度情報は、例えば、第1輝度画像100の各画素の位置(座標)に対して、輝度の大きさを示す数値が画素値として割り当てられた情報である。
第2取得部22は、測距部5から、第1の3次元データを取得する。第2取得部22はここでは、第1の3次元データとして、第1距離画像200を示す第1距離情報を、測距部5から取得する。第1距離情報は、例えば、第1輝度画像100の各画素の位置(座標)に対して、距離の大きさを示す数値が画素値として割り当てられた情報である。
第3取得部23は、検出部6から、第2の2次元データを取得する。第3取得部23はここでは、第2の2次元データとして、第2輝度画像300を示す第2輝度情報を、検出部6から取得する。第2輝度情報は、例えば、第2輝度画像300の各画素の位置(座標)に対して、輝度の大きさを示す数値が画素値として割り当てられた情報である。また、第3取得部23は、検出部6から、第2の3次元データを取得する。第3取得部23はここでは、第2の3次元データとして、第2距離画像400を示す第2距離情報を、検出部6から取得する。第2距離情報は、例えば、第2距離画像400の各画素の位置(座標)に対して、距離の大きさを示す数値が画素値として割り当てられた情報である。
図6に示すように、演算処理部3は、2次元画像変換部としての輝度画像変換部31と、3次元画像変換部としての距離画像変換部32と、融合データ生成部33と、を備えている。演算処理部3は、1以上のメモリ及び1以上のプロセッサを含むコンピュータシステムにより実現され得る。すなわち、コンピュータシステムの1以上のメモリに記録されたプログラムを、1以上のプロセッサが実行することにより、演算処理部3の各部(輝度画像変換部31、距離画像変換部32、融合データ生成部33)の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。
輝度画像変換部31は、第1輝度画像100の各画素の画素値を、第2輝度画像300における対応する画素領域へ割り当て変換して、演算輝度画像を生成する。すなわち、2次元画像変換部は、第1の2次元画像の各画素の画素値を、第2の2次元画像における対応する画素領域へ割り当て変換して、演算2次元画像を生成する。
距離画像変換部32は、第1距離画像200の各画素の画素値を、第2距離画像400における対応する画素領域へ割り当て変換して、演算距離画像を生成する。すなわち、3次元画像変換部は、第1の3次元画像の各画素の画素値を、第2の3次元画像における対応する画素領域へ割り当て変換して、演算3次元画像を生成する。
融合データ生成部33は、演算輝度画像と演算距離画像とに基づき、第1輝度情報と第1距離情報とを対応付けた融合データを生成する。すなわち、融合データ生成部33は、演算2次元画像と演算3次元画像とに基づき、第1の2次元データと第1の3次元データとを対応付けた融合データを生成する。
以下、演算処理部3の動作を、図7A~図10Bを参照しながら説明する。
ここでは、測距撮像システム1(撮像部4、測距部5、検出部6、信号処理部10を含む)が自動車に搭載されており、自動車の前方の対象空間S1に、対象物O1として人が存在しているものとする。
撮像部4は、対象空間S1を撮像して、例えば図7A、図7Bに示すような第1輝度画像100を取得する。図7A、図7Bに示すように、撮像部4は、第1受光部41の画素数(画素セルの数)等に依存して決まる分解能で、対象物O1を含む第1輝度画像100を生成する。ただし、第1輝度画像100は、対象物O1までの距離の情報は有していない。
測距部5は、第1発光部54から対象空間S1に投射した光の反射光を第2受光部51の複数の画素セルで受光し、受光した光を処理することで、図8A、図8Bに示すような第1距離画像200を生成する。第1距離画像200では、測距部5の分割期間の長さTs等に依存して決まる分解能で、対象物O1までの距離を識別可能である。例えば、分割期間の長さTsが20nsの場合、分解能は3mである。図8Aでは、測距部5から第1距離画像200内の各物体までの距離を、測距部5からの距離が遠くなるほど色が濃くなるような態様で示している。
検出部6は、第2発光部64から対象空間S1に投射した光の反射光を第3受光部61で受光し、受光した光を処理することで、例えば図9A、図9Bに示すような第2輝度画像300、及び図10A、図10Bに示すような第2距離画像400を生成する。上述のように、第2輝度画像300の各画素と第2距離画像400の各画素とは、1対1に対応している。ここで、検出部6の第3受光部61の画素数は、撮像部4の第1受光部41の画素数よりも少ないため、第2輝度画像300の分解能は第1輝度画像100の分解能よりも小さい。すなわち、撮像部4と検出部6とは、互いに異なる空間分解能を有している(ここでは、撮像部4の方が高い空間分解能を有している)。また、検出部6が距離測定を行う際の分割期間の長さTtは、測距部5の分割期間の長さTsよりも長いため、第2距離画像400の分解能(距離の分解能)は、第1距離画像200の分解能よりも小さい。すなわち、測距部5と検出部6とは、互いに異なる距離分解能を有している(ここでは、測距部5の方が高い距離分解能を有している)。検出部6による分割期間の長さTtは、例えば100nsであり、距離の分解能は15mである。
輝度画像変換部31は、例えば、第1輝度画像100及び第2輝度画像300それぞれから対象物O1の輪郭等の特徴量を抽出し、各輝度画像から抽出した特徴量についてマッチングを行うことで、第1輝度画像100の複数の画素と第2輝度画像300の複数の画素との間の対応付けを行う。例えば、輝度画像変換部31は、抽出した特徴量に基づいて、図7Bの画素範囲A11が図9Bの画素範囲A31に対応すると判定して、第1輝度画像100における画素範囲A11に対応する複数の画素と第2輝度画像300における画素範囲A31に対応する複数の画素とを対応付ける。また、輝度画像変換部31は、抽出した特徴量に基づいて、図7Bの画素範囲A12が図9Bの画素範囲A32に対応すると判定して、第1輝度画像100における画素範囲A12に対応する複数の画素と第2輝度画像300における画素範囲A32に対応する複数の画素とを対応付ける。このようにして、第1輝度画像100を構成する複数の画素と、第2輝度画像300を構成する複数の画素とが、対応付けされる。例えば、第1輝度画像100の画素数と第2輝度画像300の画素数とが同じであって、撮像部4と検出部6とが同一の対象空間S1を撮像している場合には、第1輝度画像100に含まれる複数の画素と第2輝度画像300に含まれる複数の画素とが、1対1に対応付けられ得る。例えば、第1輝度画像100の縦方向及び横方向の画素数が、第2輝度画像300のそれらの2倍ずつであって、撮像部4と検出部6とが同一の対象空間S1を撮像している場合には、第2輝度画像300における1つの画素に対して、第1輝度画像100における4つ(2×2)の画素が対応付けられ得る。
対応付けができると、輝度画像変換部31は、第1輝度画像100の各画素の画素値を、第2輝度画像300における対応する画素領域へ割り当て変換して、演算輝度画像を生成する。これにより、第2輝度画像300における各画素の座標に対して第1輝度画像100における画素の画素値が対応付けられた演算輝度画像が、生成され得る。すなわち、第2の2次元画像における各画素の座標に対して第1の2次元画像における画素の画素値が対応付けられた演算2次元画像が、生成され得る。
つまり、生成される演算輝度画像(演算2次元画像)では、第2輝度画像300(第2の2次元画像)における各画素領域に対して、第1輝度画像100(第1の2次元画像)における画素の画素値が割り当てられている。
距離画像変換部32は、例えば、第1距離画像200に含まれる対象物O1までの距離の情報と、第2距離画像400に含まれる対象物O1までの距離の情報とを比較し、第1距離画像200に含まれる対象物O1と第2距離画像400に含まれる対象物O1との間の対応付けを行う。ここで、距離画像変換部32は、第2距離画像400において、同一の距離範囲において信号レベルが閾値レベルを超えている画素が複数つながっている場合は、これらつながった画素に対応する領域に、1つの対象物O1が存在している、と解釈する(図10Bの対象物O1参照)。また、距離画像変換部32は、第1距離画像200に含まれる対象物O1までの距離と第2距離画像400に含まれる対象物O1までの距離とのうちの一方が、他方に含まれている場合、これらの対象物O1が同じである可能性がある、と判定する。例えば、図8Aに示す第1距離画像200における領域A2内において、294~297mの距離範囲に、対象物O1を示す画素が複数あるとする。また、図10Aに示す第2距離画像400における領域A4内において、270~300mの距離範囲に、対象物O1を示す複数のつながった画素があるとする。この場合、距離画像変換部32は、領域A2内の対象物O1と領域A4内の対象物O1とが、同じ対象物O1である可能性がある、と判定する。距離画像変換部32は、例えば、この判定を複数の対象物O1に対して行い、第1距離画像200に含まれる複数の対象物O1と第2距離画像400に含まれる複数の対象物O1との間の位置関係を判定する。そして、距離画像変換部32は、これら複数の対象物O1の間の位置関係に基づいて、第1距離画像200に含まれる複数の画素と第2距離画像400に含まれる複数の画素との間の対応付けを行い、距離精度の向上を行う。具体的には、図10Bの対象物O1の距離範囲を、270~300mから、294~297mに修正する。なお、演算輝度画像の場合と同様、第1距離画像200の画素数と第2距離画像400の画素数とが同じであって、測距部5と検出部6とが同一の対象空間S1からの反射光を受光している場合には、第1距離画像200に含まれる複数の画素と第2距離画像400に含まれる複数の画素とが、1対1に対応付けられ得る。また、第1距離画像200の縦方向及び横方向の画素数が、第2距離画像400のそれらの2倍ずつであって、測距部5と検出部6とが同一の対象空間S1からの反射光を受光している場合には、第2距離画像400における1つの画素に対して、第1距離画像200における4つの画素が対応付けられ得る。
対応付けができると、距離画像変換部32は、第1距離画像200の各画素の画素値を、第2距離画像400における対応する画素領域へ割り当て変換して、演算距離画像を生成する。これにより、第2距離画像400における各画素の座標に対して第1距離画像200における画素の画素値が対応付けられた演算距離画像が、生成され得る。すなわち、第2の3次元画像における各画素の座標に対して第1の3次元画像における画素の画素値が対応付けられた演算3次元画像が、生成され得る。
つまり、生成される演算距離画像(演算3次元画像)では、第2距離画像400(第2の3次元画像)における各画素領域に対して、第1距離画像200(第1の3次元画像)における画素の画素値が優先的に割り当てられている。
融合データ生成部33は、演算輝度画像と演算距離画像とに基づき、第1輝度画像100の情報と第1距離画像200の情報とを対応付けた融合データを生成する。
上述のように、第2輝度画像300と第2距離画像400とは画素数が同じであって、第2輝度画像300に含まれる複数の画素と第2距離画像400に含まれる複数の画素とは1対1に対応している。融合データ生成部33は、第2輝度画像300における所定の画素領域に対応付けられた第1輝度画像100の画素の画素値と、第2距離画像400においてこの(第2輝度画像300の)画素領域に対応する画素領域に対応付けられた第1距離画像200の画素の画素値とを、対応付ける。つまり、融合データ生成部33は、検出部6で生成された第2輝度画像300と第2距離画像400とを仲介として、第1輝度画像100の複数の画素と第1距離画像200の複数の画素との間の対応付けを行っている。
このようにして、融合データ生成部33は、第1輝度情報と第1距離情報とを対応付けた融合データ(第1の2次元データと第1の3次元データとを対応付けた融合データ)を生成することができる。生成された融合データが示す情報は、例えば立体画像として表示されてもよい。
このように、本実施形態の測距撮像システム1では、検出部6が取得する第2の2次元データと第2の3次元データとを介して、第1の2次元データと第1の3次元データとが対応付けられる。これにより、輝度情報(第1輝度情報)と距離情報(第1距離情報)とを対応付けたデータ(融合データ)、言い換えれば2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータ(融合データ)を、得ることが可能となる。
また、第1輝度画像100の画素数と第1距離画像200の画素数とが異なっていても、第2輝度情報と第2距離情報とを介して、第1輝度画像100と第2輝度画像300とを対応付けることが可能となる。すなわち、第2の2次元データと第2の3次元データとを介して、第1の2次元画像と第2の3次元画像とを対応付けることが可能となる。
(3)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。
(3.1)変形例1
本変形例の測距撮像システム1A及び測距撮像方法について、図11を参照して説明する。
図11に示すように、本変形例の測距撮像システム1Aは、信号処理部10Aを備えている。信号処理部10Aは、第1取得部21Aと、第2取得部23Aと、演算処理部3Aと、を備えている。ここで、第2取得部23Aは、上記の実施形態の第3取得部23に対応する。すなわち、本変形例の測距撮像システム1Aは、実施形態の測距撮像システム1における第2取得部22及び測距部5に相当する構成を、備えていない。本変形例の測距撮像システム1Aにおいて、実施形態の測距撮像システム1と共通する構成については、符号の末尾に添字「A」を付して適宜説明を省略する。
第1取得部21Aは、第1の2次元データを取得する。第1取得部21Aは、例えば撮像部4Aに接続される。第1取得部21Aは、例えば撮像部4Aから、第1の2次元データを取得する。第1の2次元データは、例えば、対象空間S1の第1の2次元画像に関する情報である。第1の2次元画像は、例えば、対象空間S1の第1輝度画像100Aである。
第2取得部23Aは、同軸光学系で第2の2次元データと第1の3次元データとを取得する。第2取得部23Aは、例えば検出部6Aに接続される。第2取得部23Aは、例えば検出部6Aから、同軸光学系で第2の2次元データと第1の3次元データとを取得する。第2の2次元データは、例えば、対象空間S1の第2の2次元画像に関する情報である。第2の2次元画像は、例えば、対象空間S1の第2輝度画像300Aである。第1の3次元データは、例えば、対象空間S1の第1の3次元画像に関する情報である。第1の3次元画像は、例えば、対象空間S1に存在する対象物O1までの距離を示す画像である。第1の3次元画像は、例えば、対象空間S1の第1距離画像400Aである。
演算処理部3Aは、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の2次元データと第1の3次元データとを対応付けする処理と、を実行するよう構成される。
具体的には、演算処理部3Aは、2次元データ変換部と、融合データ生成部と、を備えている。
2次元データ変換部は、図12に示すように、第1取得部21Aで取得された第1の2次元データと第2取得部23Aで取得された第2の2次元データとを対応付けて、演算2次元データを生成する。より詳細には、2次元データ変換部は、第1の2次元画像(第1輝度画像100A)の各画素の画素値を、第2の2次元画像(第2輝度画像300A)における対応する画素領域へ割り当て変換して演算2次元画像(演算輝度画像)を生成する。すなわち、2次元データ変換部は、第1の2次元データの各画素の画素値を、第2の2次元データにおける対応する画素領域へ割り当て変換して演算2次元データを生成することで、第1の2次元データと第2の2次元データとを対応付ける処理を行う。
融合データ生成部は、図12に示すように、演算2次元画像と第1の3次元画像(第1距離画像400A)に基づいて、第1の2次元データと第1の3次元データとを対応付けた融合データを生成する。すなわち、融合データ生成部は、演算2次元データと第1の3次元データとに基づいて、第1の2次元データと第1の3次元データとを対応付けた融合データを生成する。
ここで、検出部6Aは、検出部6と同様、同一の画素セルでの受光量に基づいて、第2輝度画像300Aと第1距離画像400Aとを生成している。更に、第2輝度画像300Aと第1距離画像400Aとは、同一の複数の2次元画像の組を元にして、生成されている。そのため、第2輝度画像300A(第2の2次元データ)に含まれる複数の画素と第1距離画像400A(第1の3次元データ)に含まれる複数の画素とは、1対1に対応することとなる。
このように、本変形例の測距撮像システム1Aでは、検出部6Aが取得する第2の2次元データを介して、第1の2次元データと第1の3次元データとが対応付けられる。そのため、2次元データ(第1の2次元画像)と3次元データ(第1の3次元画像)とを対応付けたデータを得ることが可能となる。
また、本変形例の測距撮像システム1Aでは、第2取得部23Aにより第2の2次元データと第1の3次元データとが同軸光学系で1対1対応で取得できるため、複雑な機構は不要である。また、第1取得部21Aの第1の2次元データと第2取得部23Aの第2の2次元データとの間の対応付けは、例えば3次元データ同士の間の対応付けに比べて容易である。
(3.2)その他の変形例
測距撮像システム1,1Aの演算処理部3,3Aと同様の機能は、測距撮像方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。
一態様に係る測距撮像方法は、第1取得ステップと、第2取得ステップと、第3取得ステップと、処理ステップと、を含む。第1取得ステップは、対象空間S1の第1の2次元画像を取得する撮像部4から、第1の2次元データを取得することを含む。第2取得ステップは、対象空間S1の第1の3次元画像を取得する測距部5から、第1の3次元データを取得することを含む。第3取得ステップは、同軸光学系で対象空間S1の第2の2次元画像と第2の3次元画像とを取得する検出部6から、第2の2次元データと第2の3次元データとを取得することを含む。処理ステップは、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の3次元データと第2の3次元データとを対応付ける処理と、を実行することを含む。
一態様に係る測距撮像方法は、第1取得ステップと、第2取得ステップと、処理ステップと、を含む。第1取得ステップは、第1の2次元データを取得することを含む。第2取得ステップは、第2の2次元データと第1の3次元データとを取得することを含む。処理ステップは、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の2次元データと第1の3次元データとを対応付ける処理と、を実行することを含む。
一態様に係るプログラムは、1以上のプロセッサに、上記の測距撮像方法を実行させるためのプログラムである。
以下、その他の変形例を列挙する。以下では、実施形態の測距撮像システム1を主に例に挙げて説明するが、以下の変形例は、変形例1の測距撮像システム1Aに適宜適用されてもよい。
本開示における測距撮像システム1は、例えば、撮像部4の第1制御部42、測距部5の第2制御部52、検出部6の第3制御部62、演算処理部3等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における第1制御部42、第2制御部52、第3制御部62、演算処理部3としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
また、測距撮像システム1における複数の機能が、1つの筐体に集約されていることは測距撮像システム1に必須の構成ではない。測距撮像システム1の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、演算処理部3等、測距撮像システム1の少なくとも一部の機能は、例えば、サーバ装置及びクラウド(クラウドコンピューティング)等によって実現されてもよい。反対に、上述の実施形態のように、測距撮像システム1の全ての機能が、1つの筐体に集約されていてもよい。
第1取得部21~第3取得部23は、同一の通信インターフェースから構成されてもよいし、互いに異なる通信インターフェースから構成されてもよい。また、第3取得部23は、第2輝度情報を取得する通信インターフェースと、第2距離情報を取得する通信インターフェースとが、異なっていてもよい。第1取得部21~第3取得部23は、通信インターフェースに限られず、単に、撮像部4、測距部5、及び検出部6と演算処理部3とをつなぐ電線等であってもよい。
第1制御部42は、必ずしも第1輝度画像100(第1の2次元画像)を生成する必要はない。第1制御部42は、第1輝度画像100(第1の2次元画像)を生成可能な情報を、第1輝度情報(第1の2次元データ)として出力してもよい。同様に、第2制御部52は、必ずしも第1距離画像200(第1の3次元画像)を生成する必要はない。第2制御部52は、第1距離画像200(第1の3次元画像)を生成可能な情報を、第1距離情報(第1の3次元データ)として出力してもよい。第3制御部62は、必ずしも第2輝度画像300(第2の2次元画像)を生成する必要はない。第3制御部62は、第2輝度画像300(第2の2次元画像)を生成可能な情報を、第2輝度情報(第2の2次元データ)として出力してもよい。第3制御部62は、必ずしも第2距離画像400(第2の3次元画像)を生成する必要はない。第3制御部62は、第2距離画像400(第2の3次元画像)を生成可能な情報を、第2距離情報(第2の3次元データ)として出力してもよい。検出部6Aの制御部は、必ずしも第1距離画像400A(第1の3次元画像)を生成する必要はない。検出部6Aの制御部は、第1距離画像400A(第1の3次元画像)を生成可能な情報を、第1距離情報(第1の3次元データ)として出力してもよい。
融合データは、第2輝度画像300における各画素の画素値、第2距離画像400における各画素の画素値等を、内部データとして有していてもよい。この場合、例えば、第1輝度画像100におけるある画素の画素値が異常な値であった場合に、この画素の画素値を第2輝度画像300の画素値で置き換える等の処置を行うことが可能となる。
第1輝度画像100の分解能(画素数)と第2輝度画像300の分解能(画素数)とは、同じであってもよいし異なっていてもよい。第1距離画像200の分解能(距離の分解能)と第2距離画像400の分解能(距離の分解能)とは、同じであってもよいし異なっていてもよい。
撮像部4の複数の画素セルと、検出部6の複数の画素セルとは、予め対応付けられていてもよい。そして、演算処理部3は、予め対応付けられた撮像部4の画素セルと検出部6の画素セルとの対応関係に基づいて、第1輝度画像100と第2輝度画像とを対応付けてもよい。また、測距部5の複数の画素セルと、検出部6の複数の画素セルとは、予め対応付けられていてもよい。そして、演算処理部3は、予め対応付けられた測距部5の画素セルと検出部6の画素セルとの対応関係に基づいて、第1距離画像200と第2距離画像400とを対応付けてもよい。
(4)まとめ
以上説明した実施形態及び変形例等から以下の態様が開示されている。
第1の態様に係る測距撮像システム(1)は、第1取得部(21)と、第2取得部(22)と、第3取得部(23)と、演算処理部(3)と、を備える。第1取得部(21)は、撮像部(4)から、第1の2次元データを取得する。撮像部(4)は、対象空間(S1)の第1の2次元画像を取得する。第2取得部(22)は、測距部(5)から、第1の3次元データを取得する。測距部(5)は、対象空間(S1)の第1の3次元画像を取得する。第3取得部(23)は、検出部(6)から、第2の2次元データと第2の3次元データとを取得する。検出部(6)は、同軸光学系で、対象空間(S1)の第2の2次元画像と第2の3次元画像とを取得する。演算処理部(3)は、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の3次元データと第2の3次元データとを対応付ける処理と、を実行する。
この態様によれば、検出部(6)が取得する第2の2次元データと第2の3次元データとを介して、第1の2次元データと第1の3次元データとが対応付けられる。これにより、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
第2の態様の測距撮像システム(1)では、第1の態様において、演算処理部(3)は、2次元画像変換部(輝度画像変換部31)と、3次元画像変換部(距離画像変換部32)と、融合データ生成部(33)と、を備える。2次元画像変換部は、第1の2次元画像の各画素の画素値を、第2の2次元画像における対応する画素領域へ割り当て変換して演算2次元画像を生成する。3次元画像変換部は、第1の3次元画像の各画素の画素値を、第2の3次元画像における対応する画素領域へ割り当て変換して演算3次元画像を生成する。融合データ生成部(33)は、演算2次元画像と演算3次元画像とに基づき、第1の2次元データと第1の3次元データとを対応付けた融合データを生成する。
この態様によれば、第1の2次元データと第1の3次元データとを対応付けた融合データを得ることが可能となる。
第3の態様の測距撮像システム(1)では、第1又は第2の態様において、検出部(6)は、対象空間(S1)を、検出部(6)からの距離に基づいて複数の距離範囲に分割して、複数の距離範囲にそれぞれ対応する複数の2次元画像を生成する。検出部(6)は、複数の2次元画像を、距離範囲を識別せず合成することによって、第2の2次元画像を生成する。検出部(6)は、複数の2次元画像を、距離範囲を識別して合成することによって、第2の3次元画像を生成する。第2の2次元画像に含まれる複数の画素と、第2の3次元画像に含まれる複数の画素とが、1対1で対応する。
この態様によれば、同一の複数の2次元画像の組から、第2の2次元画像と第2の3次元画像とが生成されるので、第2の2次元画像と第2の3次元画像との対応付けが容易になる。
第4の態様の測距撮像システム(1)では、第1~第3のいずれか1つの態様において、撮像部(4)と検出部(6)とは、互いに異なる光軸を有し、測距部(5)と検出部(6)とは、互いに異なる光軸を有する。
この態様によれば、互いに異なる光軸を有する撮像部(4)、測距部(5)、検出部(6)によって、第1の2次元画像、第1の3次元画像、第2の2次元画像、第2の3次元画像が生成される場合であっても、2次元画像(第1の2次元画像)と3次元画像(第1の3次元画像)との間の対応付けを行うことが可能となる。
第5の態様の測距撮像システム(1)では、第1~第4のいずれか1つの態様において、撮像部(4)と検出部(6)とは、互いに異なる空間分解能を有し、測距部(5)と検出部(6)とは、互いに異なる距離分解能を有する。
この態様によれば、撮像部(4)と検出部(6)とが互いに異なる空間分解能を有し、測距部(5)と検出部(6)とが互いに異なる距離分解能を有する場合であっても、2次元画像(第1の2次元画像)と3次元画像(第1の3次元画像)との間の対応付けを行うことが可能となる。
第6の態様の測距撮像システム(1)は、第1~第5のいずれか1つの態様において、撮像部(4)、測距部(5)、及び検出部(6)のうちの少なくとも一つを更に備える。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。測距撮像システム(1)は、撮像部(4)、測距部(5)、及び検出部(6)のうちの2つを更に備えてもよいし、撮像部(4)、測距部(5)、及び検出部(6)の全てを更に備えてもよい。
第7の態様に係る測距撮像方法は、第1取得ステップと、第2取得ステップと、第3取得ステップと、処理ステップと、を含む。第1取得ステップは、対象空間(S1)の第1の2次元画像を取得する撮像部(4)から、第1の2次元データを取得することを含む。第2取得ステップは、対象空間(S1)の第1の3次元画像を取得する測距部(5)から、第1の3次元データを取得することを含む。第3取得ステップは、検出部(6)から、第2の2次元データと第2の3次元データとを取得することを含む。検出部(6)は、同軸光学系で、対象空間(S1)の第2の2次元画像と第2の3次元画像とを取得する。処理ステップは、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の3次元データと第2の3次元データとを対応付ける処理と、を実行することを含む。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
第8の態様に係るプログラムは、1以上のプロセッサに、第7の態様の測距撮像方法を実行させるためのプログラムである。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
第9の態様の測距撮像システム(1A)は、第1取得部(21A)と、第2取得部(23A)と、演算処理部(3A)と、を備える。第1取得部(21A)は、第1の2次元データを取得する。第2取得部(23A)は、同軸光学系で第2の2次元データと第1の3次元データとを取得する。演算処理部(3A)は、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の2次元データと第1の3次元データとを対応付けする処理と、を実行する。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
第10の態様の測距撮像システム(1A)では、第9の態様において、演算処理部(3A)は、2次元データ変換部と、融合データ生成部と、を備える。2次元データ変換部は、第1の2次元データの各画素の画素値を、第2の2次元データにおける対応する画素領域へ割り当て変換して演算2次元データを生成することで、第1の2次元データと第2の2次元データとを対応付ける処理を行う。融合データ生成部は、演算2次元データと第1の3次元データとに基づき、第1の2次元データと第1の3次元データとを対応付けた融合データを生成する。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けた融合データを得ることが可能となる。
第11の態様の測距撮像システム(1A)では、第9又は第10の態様において、第2の2次元データに含まれる複数の画素と、第1の3次元データに含まれる複数の画素とが、1対1で対応する。
この態様によれば、第2の2次元データと第2の3次元データとの対応付けが容易になる。
第12の態様の測距撮像システム(1A)では、第9~第11のいずれか1つの態様において、第1取得部(21A)と第2取得部(23A)とは、互いに異なる光軸を有する。
第13の態様の測距撮像システム(1A)では、第9~第12のいずれか1つの態様において、第1取得部(21A)と第2取得部(23A)とは、互いに異なる空間分解能を有する。
第14の態様の測距撮像方法は、第1取得ステップと、第2取得ステップと、処理ステップと、を備える。第1取得ステップは、第1の2次元データを取得することを含む。第2取得ステップは、同軸光学系で第2の2次元データと第1の3次元データとを取得することを含む。処理ステップは、第1の2次元データと第2の2次元データとを対応付ける処理と、第1の2次元データと第1の3次元データとを対応付けする処理と、を実行することを含む。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
第15の態様に係るプログラムは、1以上のプロセッサに、第14の態様の測距撮像方法を実行させるためのプログラムである。
この態様によれば、2次元データ(第1の2次元データ)と3次元データ(第1の3次元データ)とを対応付けたデータを得ることが可能となる。
1,1A 測距撮像システム
21 第1取得部
22 第2取得部
23A 第2取得部
23 第3取得部
3,3A 演算処理部
31 輝度画像変換部
32 距離画像変換部
33 融合データ生成部
4,4A 撮像部
5 測距部
6,6A 検出部
S1 対象空間
O1 対象物

Claims (15)

  1. 対象空間の第1の2次元画像を取得する撮像部から、前記第1の2次元画像を示す第1の2次元データを取得する第1取得部と、
    前記対象空間の第1の3次元画像を取得する測距部から、前記第1の3次元画像を示す第1の3次元データを取得する第2取得部と、
    同軸光学系で、前記対象空間の第2の2次元画像と第2の3次元画像とを取得する検出部から、前記第2の2次元画像を示す第2の2次元データと前記第2の3次元画像を示す第2の3次元データとを取得する第3取得部と、
    前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の3次元データと前記第2の3次元データとを対応付ける第2対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第3対応付け処理と、を実行する演算処理部と、
    を備え
    前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第2対応付け処理は、前記第1の3次元画像に含まれる対象物までの距離の情報及び前記第2の3次元画像に含まれる対象物までの距離の情報に基づいて、前記第1の3次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第3対応付け処理は、前記第1対応付け処理の結果、前記第2対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む、
    測距撮像システム。
  2. 前記演算処理部は、
    前記第1の2次元画像の各画素の画素値を、前記第2の2次元画像における対応する画素領域へ割り当て変換して演算2次元画像を生成する2次元画像変換部と、
    前記第1の3次元画像の各画素の画素値を、前記第2の3次元画像における対応する画素領域へ割り当て変換して演算3次元画像を生成する3次元画像変換部と、
    前記演算2次元画像と前記演算3次元画像とに基づき、前記第1の2次元データと前記第1の3次元データとを対応付けた融合データを生成する融合データ生成部と、
    を備える、
    請求項1に記載の測距撮像システム。
  3. 前記検出部は、
    前記対象空間を、前記検出部からの距離に基づいて複数の距離範囲に分割して、複数の距離範囲にそれぞれ対応する複数の2次元画像を生成し、
    前記複数の2次元画像を、前記距離範囲を識別せず合成することによって、前記第2の2次元画像を生成し、
    前記複数の2次元画像を、前記距離範囲を識別して合成することによって、前記第2の3次元画像を生成し、
    前記第2の2次元画像に含まれる複数の画素と、前記第2の3次元画像に含まれる複数の画素とが、1対1で対応する、
    請求項1又は2に記載の測距撮像システム。
  4. 前記撮像部と前記検出部とは、互いに異なる光軸を有し、
    前記測距部と前記検出部とは、互いに異なる光軸を有する、
    請求項1~3のいずれか1項に記載の測距撮像システム。
  5. 前記撮像部と前記検出部とは、互いに異なる空間分解能を有し、
    前記測距部と前記検出部とは、互いに異なる距離分解能を有する、
    請求項1~4のいずれか1項に記載の測距撮像システム。
  6. 前記撮像部、前記測距部、及び前記検出部のうちの少なくとも一つを更に備える、
    請求項1~5のいずれか1項に記載の測距撮像システム。
  7. 対象空間の第1の2次元画像を取得する撮像部から、前記第1の2次元画像を示す第1の2次元データを取得する第1取得ステップと、
    前記対象空間の第1の3次元画像を取得する測距部から、前記第1の3次元画像を示す第1の3次元データを取得する第2取得ステップと、
    同軸光学系で、前記対象空間の第2の2次元画像と第2の3次元画像とを取得する検出部から、前記第2の2次元画像を示す第2の2次元データと前記第2の3次元画像を示す第2の3次元データとを取得する第3取得ステップと、
    前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の3次元データと前記第2の3次元データとを対応付ける第2対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第3対応付け処理と、を実行する処理ステップと、
    を含み、
    前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第2対応付け処理は、前記第1の3次元画像に含まれる対象物までの距離の情報及び前記第2の3次元画像に含まれる対象物までの距離の情報に基づいて、前記第1の3次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第3対応付け処理は、前記第1対応付け処理の結果、前記第2対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第2の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む、
    測距撮像方法。
  8. 1以上のプロセッサに、請求項7の測距撮像方法を実行させるための、
    プログラム。
  9. 第1の2次元画像を示す第1の2次元データを取得する第1取得部と
    同軸光学系で取得された第2の2次元画像を示す第2の2次元データと第1の3次元画像を示す第1の3次元データとを取得する第2取得部と、
    前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第2対応付け処理と、を実行する演算処理部と、
    を備え
    前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第2対応付け処理は、前記第1対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む、
    測距撮像システム。
  10. 前記演算処理部は、
    前記第1の2次元データの各画素の画素値を、前記第2の2次元データにおける対応する画素領域へ割り当て変換して演算2次元データを生成することで、前記第1の2次元データと前記第2の2次元データとを対応付ける処理を行う2次元データ変換部と、
    前記演算2次元データと前記第1の3次元データとに基づき、前記第1の2次元データと前記第1の3次元データとを対応付けた融合データを生成する融合データ生成部と、
    を備える、
    請求項9に記載の測距撮像システム。
  11. 前記第2の2次元データに含まれる複数の画素と、前記第1の3次元データに含まれる複数の画素とが、1対1で対応する、
    請求項9又は10に記載の測距撮像システム。
  12. 前記第1取得部と前記第2取得部とは、互いに異なる光軸を有する、
    請求項9~11のいずれか1項に記載の測距撮像システム。
  13. 前記第1取得部と前記第2取得部とは、互いに異なる空間分解能を有する、
    請求項9~12のいずれか1項に記載の測距撮像システム。
  14. 第1の2次元画像を示す第1の2次元データを取得する第1取得ステップと、
    同軸光学系で取得された第2の2次元画像を示す第2の2次元データ第1の3次元画像を示す第1の3次元データとを取得する第2取得ステップと、
    前記第1の2次元データと前記第2の2次元データとを対応付ける第1対応付け処理と、前記第1の2次元データと前記第1の3次元データとを対応付ける第2対応付け処理と、を実行する処理ステップと、
    を含み、
    前記第1対応付け処理は、前記第1の2次元画像に含まれる対象物の特徴量及び前記第2の2次元画像に含まれる対象物の特徴量に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第2の2次元画像に含まれる複数の画素との間の対応付けを行う処理を含み、
    前記第2対応付け処理は、前記第1対応付け処理の結果、及び1対1に対応する前記第2の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との対応関係に基づいて、前記第1の2次元画像に含まれる複数の画素と前記第1の3次元画像に含まれる複数の画素との間の対応付けを行う処理を含む、
    測距撮像方法。
  15. 1以上のプロセッサに、請求項14の測距撮像方法を実行させるための、
    プログラム。
JP2021508967A 2019-03-26 2020-03-09 測距撮像システム、測距撮像方法、及びプログラム Active JP7262064B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019059472 2019-03-26
JP2019059472 2019-03-26
PCT/JP2020/010092 WO2020195755A1 (ja) 2019-03-26 2020-03-09 測距撮像システム、測距撮像方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020195755A1 JPWO2020195755A1 (ja) 2020-10-01
JP7262064B2 true JP7262064B2 (ja) 2023-04-21

Family

ID=72610079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508967A Active JP7262064B2 (ja) 2019-03-26 2020-03-09 測距撮像システム、測距撮像方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220003875A1 (ja)
JP (1) JP7262064B2 (ja)
CN (1) CN113597534B (ja)
WO (1) WO2020195755A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4372419A1 (en) * 2021-07-16 2024-05-22 Nuvoton Technology Corporation Japan Object detection device and object detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008687A (ja) 2006-06-27 2008-01-17 Toyota Motor Corp 距離測定システム及び距離測定方法
US9215382B1 (en) 2013-07-25 2015-12-15 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for data fusion and visualization of video and LADAR data
JP2016091516A (ja) 2014-11-11 2016-05-23 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2018506700A (ja) 2014-11-05 2018-03-08 シエラ・ネバダ・コーポレイション 移動体用の改良型環境表示を生成するためのシステムおよび方法
JP2018044942A (ja) 2016-09-08 2018-03-22 パナソニックIpマネジメント株式会社 カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
US20180249143A1 (en) 2017-02-24 2018-08-30 Analog Devices Global Systems and methods for compression of three dimensional depth sensing
JP2019012915A (ja) 2017-06-30 2019-01-24 クラリオン株式会社 画像処理装置、画像変換方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04169805A (ja) * 1990-11-01 1992-06-17 Matsushita Electric Ind Co Ltd 三次元画像測定装置
JP2016040520A (ja) * 2013-01-10 2016-03-24 三洋電機株式会社 物体検出装置
EP2918972B1 (de) * 2014-03-14 2019-10-09 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
JP6646361B2 (ja) * 2015-04-27 2020-02-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
WO2016199518A1 (ja) * 2015-06-09 2016-12-15 富士フイルム株式会社 距離画像取得装置及び距離画像取得方法
CN109285220B (zh) * 2018-08-30 2022-11-15 阿波罗智能技术(北京)有限公司 一种三维场景地图的生成方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008687A (ja) 2006-06-27 2008-01-17 Toyota Motor Corp 距離測定システム及び距離測定方法
US9215382B1 (en) 2013-07-25 2015-12-15 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for data fusion and visualization of video and LADAR data
JP2018506700A (ja) 2014-11-05 2018-03-08 シエラ・ネバダ・コーポレイション 移動体用の改良型環境表示を生成するためのシステムおよび方法
JP2016091516A (ja) 2014-11-11 2016-05-23 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2018044942A (ja) 2016-09-08 2018-03-22 パナソニックIpマネジメント株式会社 カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
US20180249143A1 (en) 2017-02-24 2018-08-30 Analog Devices Global Systems and methods for compression of three dimensional depth sensing
JP2019012915A (ja) 2017-06-30 2019-01-24 クラリオン株式会社 画像処理装置、画像変換方法

Also Published As

Publication number Publication date
CN113597534B (zh) 2023-07-25
US20220003875A1 (en) 2022-01-06
JPWO2020195755A1 (ja) 2020-10-01
WO2020195755A1 (ja) 2020-10-01
CN113597534A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
Hussmann et al. A performance review of 3D TOF vision systems in comparison to stereo vision systems
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US9978148B2 (en) Motion sensor apparatus having a plurality of light sources
US11300400B2 (en) Three-dimensional measurement device
EP2530442A1 (en) Methods and apparatus for thermographic measurements.
CN112189147B (zh) 一种飞行时间ToF相机和一种ToF方法
EP2927710B1 (en) Ranging system, information processing method and program thereof
KR20160045670A (ko) 비행-시간 카메라 시스템
JP2020003446A (ja) 光測距装置
JP2015049200A (ja) 計測装置、方法及びプログラム
US20100110209A1 (en) Fast motion measurement device for gaming
KR20210127950A (ko) 동적 비전 센서 및 패턴 투사를 사용하는 3차원 이미징 및 감지
CN113780349A (zh) 训练样本集的获取方法、模型训练方法及相关装置
JP2018021776A (ja) 視差演算システム、移動体及びプログラム
CN110986816B (zh) 一种深度测量系统及其测量方法
JP7262064B2 (ja) 測距撮像システム、測距撮像方法、及びプログラム
CN112740065B (zh) 成像装置、用于成像的方法和用于深度映射的方法
JP6776692B2 (ja) 視差演算システム、移動体及びプログラム
CN112230244B (zh) 一种融合的深度测量方法及测量装置
JP7206855B2 (ja) 三次元位置検出装置、三次元位置検出システム、及び三次元位置検出方法
WO2022195954A1 (ja) センシングシステム
JP7450237B2 (ja) 情報処理システム、センサシステム、情報処理方法、及びプログラム
WO2021084891A1 (ja) 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム
CN112929519B (zh) 深度相机、成像装置和电子设备
Jawad et al. Measuring object dimensions and its distances based on image processing technique by analysis the image using sony camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R151 Written notification of patent or utility model registration

Ref document number: 7262064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151