JP2022154179A - 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム - Google Patents

距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2022154179A
JP2022154179A JP2021057085A JP2021057085A JP2022154179A JP 2022154179 A JP2022154179 A JP 2022154179A JP 2021057085 A JP2021057085 A JP 2021057085A JP 2021057085 A JP2021057085 A JP 2021057085A JP 2022154179 A JP2022154179 A JP 2022154179A
Authority
JP
Japan
Prior art keywords
distance
distance information
correction
information
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021057085A
Other languages
English (en)
Other versions
JP2022154179A5 (ja
Inventor
誠 大井川
Makoto Oigawa
伸 田中
Shin Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021057085A priority Critical patent/JP2022154179A/ja
Priority to US17/705,062 priority patent/US20220321871A1/en
Priority to EP22164940.3A priority patent/EP4067813A1/en
Publication of JP2022154179A publication Critical patent/JP2022154179A/ja
Publication of JP2022154179A5 publication Critical patent/JP2022154179A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】誤差の影響を低減することが可能な距離計測装置等を実現する。【解決手段】距離計測装置は、結像光学系を介して、誤差を含む第1の距離情報を取得する第1の取得手段310と、前記誤差が前記第1の距離情報より少ない第2の距離情報を取得する第2の取得手段320と、前記第2の距離情報に基づき、前記第1の距離情報の前記誤差の補正をするための補正値を算出する補正情報生成手段330と、前記補正値を用いて前記第1の距離情報の前記補正を行う補正手段340と、を有する。【選択図】図3

Description

本発明は、距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム等に関するものである。
撮像装置において、異なる視点から撮像された視差のある画像信号に基づいて被写体のデフォーカス状態、あるいは撮像装置から被写体までの距離(以降、被写体距離と呼ぶ)などの距離情報を取得できる測距機能を備えたものが提案されている。
国際公開WO2010/010707号
このような測距機能を有する撮像装置では、熱でレンズや鏡筒が膨張・収縮することなどに依って光学系と撮像素子との相対位置関係がずれ、測距誤差が発生する場合がある。
特許文献1では、温度センサにより検知した温度を用いて、これらの測距誤差を補正する補正係数を作成している。しかし、特許文献1では温度センサが別途必要なことと、温度センサ近辺の温度しかわからないことから、センサ面上あるいはレンズの温度に分布(ばらつき)がある場合に温度変化を正確に検出できず、測距誤差を精度良く補正できない場合がある。
上記課題に鑑み、本発明は誤差の影響を低減することが可能な距離計測装置等を提供することを目的とする。
本発明の距離計測装置は、
結像光学系を介して、誤差を含む第1の距離情報を取得する第1の取得手段と、
前記誤差が前記第1の距離情報より少ない第2の距離情報を取得する第2の取得手段と、
前記第2の距離情報に基づき、前記第1の距離情報の前記誤差の補正をするための補正値を算出する補正情報生成手段と、
前記補正値を用いて前記第1の距離情報の前記補正を行う補正手段と、を有することを特徴とする。
本発明によれば、誤差の影響を低減することが可能な距離計測装置等を実現することができる。
(A)は本発明の実施例1に係る撮像装置の構成を概略的に示す図、(B)は図1(A)の撮像素子101のxy断面図、(C)は、図1(B)の画素群150のI-I’断面を模式的に示した図である。 (A)は、結像光学系の射出瞳と撮像素子の受光部の関係を示す図、(B)は合焦時の状態を示した図、(C)は像側でz軸の負方向にデフォーカスした状態を示した図、(D)は像側でz軸の正方向にデフォーカスした状態を示した図である。 (A)は、実施例1の距離計測装置110の概要構成を表す機能ブロック図、(B)は距離計測装置110の動作を表すフローチャート、(C)は(B)の一部の動作を表すフローチャートである。 (A)は、結像光学系120の像面湾曲量の2次元分布を撮像素子101の有効画素範囲内で表した図、(B)は図4(A)中のI-I’に沿った像面湾曲量を示す図、(C)は図4(A)のI-I’に沿った像側変化量を表す図である。 (A)は、第2の取得手段320が行う第2の取得処理の動作を表すフローチャート、(B)、(C)、(D)はオプティカルフローの算出に関して説明する図でありある。又、(B)は時刻t2での画像信号S21に対して算出した特徴点501を示す図、(C)は時刻t1での第1の画像信号S11に対して算出した特徴点502を示す図、(D)は算出したオプティカルフローを示す図である。 (A)は、ステップS330で補正情報生成手段330が行う補正情報生成処理の動作を表すフローチャートである。又、(B)は第1の取得手段310で取得した第1の距離情報Idist1であるデフォーカス量D1の、想定像面に対するデフォーカス量を示す図である。又、(C)は第2の取得手段320で取得した第2の距離情報Idist2であるデフォーカス量D2の、想定像面に対するデフォーカス量を示す図である。(D)は図6(B)、(C)中のI-I’に沿った像側デフォーカス量を示す図、(E)はフィッティングにより算出された像側変化量を破線で示す図である。 (A)は本発明の実施例2に係る距離計測システムの構成を概略的に示すブロック図、(B)は実施例2の第2の距離計測装置730の構成例を示す図である。 (A)は、実施例2の距離計測装置720の概要構成を表す機能ブロック図、(B)は第2の距離計測装置730で取得される第2の距離情報Idist2を説明する図である。 (A)は実施例3の補正処理の実施判定を伴うフローチャート、(B)は図9(A)のステップS900についてのフローチャートである。 (A)は実施例4の領域分割を伴う補正値処理を実施する全体フローを示すフローチャート、図10(B)はデフォーカス量を算出する領域を分割した状態を示す図、図10(C)はステップS1030の詳細を示すフローチャートである。 (A)は算出した補正値をフィードバックして補正をループ処理する全体のフローチャート、図11(B)は図11(A)の一部のフローチャートである。 (A)は実施例5の移動装置の全体構成を示した模式図であり、(B)は実施例5のブロック図である。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、撮像装置として車載カメラに適用した例について説明する。しかし、撮像装置はデジタルスチルカメラ、デジタルムービーカメラ、カメラ付きのスマートフォン、カメラ付きのタブレットコンピュータ、ネットワークカメラ、ドローンカメラ、ロボットに搭載されたカメラなどの撮像機能を有する電子機器等を含む。
又、実施例では移動装置としての自動車に搭載された撮像装置の例を用いて説明するが、移動装置は自動車に限定されず移動可能な装置を含む。即ち、移動装置は、例えば、AGV(Automatic Guides Vehicle)、AMR (Autonomous Mobile Robot)、お掃除ロボット、ドローンなどを含む。
(実施例1)
本実施例では異なる手法で取得した距離値を像面デフォーカス量に換算して比較することにより、像面湾曲量の経時変化量を補正値として算出し、経時的な測距誤差の影響を低減させる。以下詳細に説明する。
<撮像装置の構成>
図1(A)は、本発明の実施例に係る撮像装置の構成を概略的に示す図である。
図1(A)において、撮像装置100は、結像光学系120、撮像素子101、距離計測装置110、情報格納手段170を備える。距離計測装置110は、論理回路を用いて構成することができる。又、距離計測装置110の別の形態として、中央演算処理装置(CPU)と演算処理プログラムを格納するメモリを有し、コンピュータとしてのCPUにメモリに記憶されたコンピュータプログラムを実行させるようにしても良い。
結像光学系120は、撮像装置100の撮影レンズ等であり、被写体の像を撮像素子101上に形成する機能を有する。結像光学系120は複数のレンズ群(不図示)から構成され、撮像素子101から所定距離離れた位置に射出瞳130を有する。尚、本明細書中では、z軸を、結像光学系120の光軸140と平行とする。更に、x軸とy軸は互いに垂直であり、且つ光軸と垂直な軸とする。
<撮像素子の構成>
撮像素子101はCMOS(相補型金属酸化膜半導体)やCCD(電荷結合素子)から構成され、撮像面位相差測距方式による測距機能を有する撮像素子である。結像光学系120を介して撮像素子101上に結像した被写体像は、撮像素子101により光電変換され、被写体像に基づく画像信号を生成する。取得した画像信号に対して、画像生成部により現像処理を施すことで、カラー画像を生成することができる。又生成したカラー画像を画像格納部に格納することができる。
図1(B)は、図1(A)の撮像素子101のxy断面図である。撮像素子101は、2行×2列の画素群150を複数配列することで構成される。画素群150は、対角方向に緑画素150G1及び150G2、他の2画素に赤画素150R及び青画素150Bが配置され、構成されている。
図1(C)は、図1(B)の画素群150のI-I’断面を模式的に示した図である。各画素は受光層182と導光層181から構成される。受光層182には、受光した光を光電変換するための2つの光電変換部(第1の光電変換部161、第2の光電変換部162)が配置される。
導光層181には、画素へ入射した光束を光電変換部へ効率良く導くためのマイクロレンズ183、所定の波長帯域の光を通過させるカラーフィルタ(不図示)、画像読み出し用及び画素駆動用の配線(不図示)などが配置される。これは、1つの瞳分割方向(x軸方向)に2分割された光電変換部の例であるが、仕様に応じて、2つの瞳分割方向(x軸方向及びy軸方向)に分割された光電変換部を備える撮像素子を用いても良い。瞳分割方向及び分割数については任意である。
又、各画素が受光する色の組み合わせは図示の配置に限定されず、IR(Infra Red)や透過波長帯域に制限を加えないWhiteなど、検出する波長帯域に応じた所望の分光特性が、所望の配置で構成される。受光層182は検出する波長帯域に感度を有する半導体等を用いて光電変換部が形成されていて、検出する波長帯が可視域の場合はSi等を用いるが、これに限定されず対象波長帯に応じて任意の素材で形成される。
<瞳分割撮像面位相差測距方式による距離計測の原理>
本実施例の撮像素子101が備える第1の光電変換部161及び第2の光電変換部162が受光する光束について、図2(A)~(D)を用いて説明する。
図2(A)は、結像光学系の射出瞳と撮像素子の受光部の関係を示す図である。結像光学系120の射出瞳130と、撮像素子101中に配置される画素の代表例として緑画素150G1についてのみ示しでいる。図2(A)に示した画素150G1内のマイクロレンズ183により、射出瞳130と受光層182が光学的に共役関係になっている。
その結果、図2(A)に示すように、射出瞳130内の第1の瞳領域(210)を通過した光束は第1の光電変換部161に入射する。一方、第2の瞳領域(220)を通過した光束は第2の光電変換部162に入射する。
各画素に設けられる複数の第1の光電変換部161は、受光した光束を光電変換して第1の画像信号を生成する。又同様に、各画素に設けられる複数の第2の光電変換部162は、受光した光束を光電変換して第2の画像信号を生成する。第1の画像信号から第1の瞳領域210を主に通過した光束が撮像素子101上に形成する像の強度分布を得ることができ、第2の画像信号から第2の瞳領域220を主に通過した光束が撮像素子101上に形成する像の強度分布を得ることができる。
第1の画像信号と第2の画像信号間の視差量は、デフォーカス量に応じた量となる。視差量とデフォーカス量の関係について、図2(B)、(C)、(D)を用いて説明する。図2(B)、(C)、(D)は本実施例の撮像素子101と結像光学系120の結像位置の関係について示した概略図である。図中の211は第1の瞳領域210を通過する第1の光束を示し、221は第2の瞳領域220を通過する光束を示す。
図2(B)は合焦時の状態を示した図であり、第1の光束211と第2の光束221が撮像素子101上で収束している。この時、第1の光束211により形成される第1の画像信号と第2の光束221により形成される第2の画像信号間の相対的な位置ズレ量は0となる。図2(C)は像側でz軸の負方向にデフォーカスした状態を示した図である。
この時、第1の光束により形成される第1の画像信号と第2の光束により形成される第2の画像信号間の相対的な位置ズレ量は0とはならず、負の値を有する。図2(D)は像側でz軸の正方向にデフォーカスした状態を示した図である。この時、第1の光束により形成される第1の画像信号と第2の光束により形成される第2の画像信号間の相対的な位置ズレ量は0とはならず、正の値を有する。
図2(C)と(D)の比較から、デフォーカス量の正負に応じて、位置ズレの方向が入れ替わることが分かる。又、幾何関係から、デフォーカス量に応じて視差が生じることが分かる。従って、第1の画像信号と第2の画像信号間の視差量を、後述する領域ベースのマッチング手法により検出し、検出した視差量を所定の変換係数を介してデフォーカス量に変換することができる。このように、本実施例では、単眼式光学系の異なる瞳領域を通過した光束から出力される視差を有する複数の視差画像信号を、1つの撮像素子によって取得し、それらの複数の信号に基づき第1の距離情報を取得している。しかし、1つの撮像素子に限定されず複数の撮像素子によって取得しても良い。
更に、後述の数2を用いて説明する結像光学系120の結像関係を用いることで、像側のデフォーカス量を被写体から撮像装置100までの距離(以降、被写体距離)へ変換することができる。
<距離計測装置の説明>
本実施例の距離計測装置について説明する。図3(A)は、本実施例の距離計測装置110の概要構成を表す機能ブロック図であり、図3(B)は距離計測装置110の動作を表すフローチャート、図3(C)は図3(B)の一部の動作を表すフローチャートである。距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図3(B)、(C)の各処理を行うことで図3(A)の各ブロックの機能を実現している。
距離計測装置110は、第1の取得手段310にて第1の距離情報Idist1を取得し、第2の取得手段320にて第2の距離情報Idist2を取得する。第1の取得手段310は、結像光学系を介して、誤差(撮像装置の経時誤差、製造誤差)を含む第1の距離情報を取得し、第2の取得手段320は、誤差が第1の距離情報より少ない第2の距離情報を取得する。誤差は経時誤差や製造誤差を含むが、以下の実施例では主に経時誤差について述べる。
補正情報生成手段330にて第1の距離情報Idist1と第2の距離情報Idist2から補正値Icを取得する。即ち、補正情報生成手段330は、第2の距離情報に基づき、第1の距離情報の経時誤差の補正をするための補正値Icを算出する。更に、補正手段340にて補正値Icを用いて第1の距離情報Idist1の補正を行うことで補正距離情報IdistCを生成し、出力している。即ち、補正手段340は、前記補正値を用いて第1の距離情報の補正を行っている。
以下では、第1の取得手段310、第2の取得手段320、補正情報生成手段330、補正手段340にて行う処理内容について説明する。
<第1の距離情報の取得>
第1の取得手段310は、撮像素子101から取得した第1の画像群Sg1を用いて、ステップS310で第1の取得処理を行い、被写体までの距離を表す第1の距離情報Idist1を取得する。(第1の取得工程)
第1の画像群Sg1には、第1の光電変換部161により生成された第1の画像信号S11と、第2の光電変換部162により生成された第2の画像信号S12が含まれている。以下に、ステップS310における第1の取得処理の具体的な処理内容について図3(C)を用いて説明する。
ステップS311では、第1の取得手段310が、第1の画像信号S11と第2の画像信号S12の光量差の補正を行う。結像光学系120に起因して、第1の画像信号S11と第2の画像信号S12の間で光量バランスが崩れる。ステップS311では、情報格納手段170に格納された光量補正値を用いて、第1の画像信号S11と第2の画像信号S12間の光量補正処理を行う。
尚、必ずしも情報格納手段に格納された光量補正値を用いる必要はない。例えば、第1の瞳領域210と第2の瞳領域220の面積比から光量補正値を生成したのち、光量補正を行っても構わない。
ステップS312では、第1の取得手段310が、撮像素子101にて発生したノイズを低減するためのノイズ低減処理を行う。具体的には、第1の画像信号S11と第2の画像信号S12に対して、バンドパスフィルタを用いたフィルタ処理を行う。一般に、空間周波数が高い周波数帯域ほど、SN比(信号成分とノイズ成分の比)が低くなり、相対的にノイズ成分が多くなる。
従って、高周波になるほど通過率が低くなるローパスフィルタを用いる。尚、ステップS311における光量補正処理を経ても、結像光学系120の製造誤差などにより設計値通りになるとは限らない。そのため、例えば空間周波数=0における周波数帯域の通過率が0であり、且つ高い周波数帯域の通過率が低いバンドパスフィルタ等を用いる。
ステップS313では、第1の取得手段310により、第1の画像信号S11と第2の画像信号S12間の視差量を算出する視差量検出処理を行う。具体的には、第1の画像信号S11内に注目点を設定し、注目点を中心とする照合領域を設定する。照合領域は、例えば、注目点を中心とした一辺が所定の長さの長方形とするが、それに限定されない。
次に、第2の画像信号S12内に、参照点を設定し、参照点を中心とする参照領域を設定する。参照領域は照合領域と同一の大きさ及び形状である。参照点を順次移動させながら照合領域内に含まれる第1の画像信号S11と参照領域内に含まれる第2の画像信号S12の相関度を算出し、最も相関の高い参照点を注目点と対応する対応点とする。注目点と対応点間の相対的な位置のズレ量が注目点における視差量となる。
第1の取得手段310は、注目点を順次変更しながら視差量を算出することで、複数の画素位置における視差量を算出することができる。相関度の算出方法としては公知の手法を用いることができる。例えば、画像信号間の正規化相互相関を評価するNCC(Normalized Cross-Correlation)と呼ばれる手法や、画像信号化の差の二乗和を評価するSSD(Sum of Squared Difference)や、差の絶対値を評価するSAD(Sum of Absolute Difference)を用いることができる。
これらの相関度の算出手法を用いた場合には、各画素ブロックのテクスチャ量や周波数成分情報を用いて、算出した距離情報の信頼性を表す信頼度情報を生成することができる。
ステップS314では距離変換処理を行う。即ち、第1の取得手段310により、所定の変換係数を用いて視差量を撮像素子101から結像光学系120による結像点までの距離(デフォーカス量)へ変換する。以降、視差量をデフォーカス量に変換する係数をBL値と呼ぶ。BL値をBL、デフォーカス量をΔL、視差量をdとしたとき、以下の数1により視差量dをデフォーカス量ΔLに変換することができる。
(数1)
ΔL=BL×d
第1の取得手段310は、複数の画素位置にて視差量をデフォーカス量に変換することで、複数画素位置のデフォーカス量を距離情報として含む第1の距離情報Idist1を取得することができる。
更に、このデフォーカス量を被写体距離に変換するには、幾何光学におけるレンズの公式である以下の数2を用いることができる
(数2)
1/A+1/B=1/f
A:物面から結像光学系120の主点までの距離、
B:結像光学系120の主点から像面までの距離、
f:結像光学系120の焦点距離。
数2において、焦点距離は既知の値である。又、Bの値はデフォーカス量を用いて算出することができる。従って、焦点距離とデフォーカス量を用いて、物面までの距離A、すなわち被写体距離を算出することができる。このような方法で被写体の距離情報を取得する方式を位相差測距方式と呼び、特に前述のようなひとつの光学系の異なる瞳領域から取得した信号から距離情報を取得する方式を瞳分割位相差方式と呼ぶ。
このとき、算出したデフォーカス量を用いて求めた結像光学系120の主点から像面までの距離Bが誤差を持つ場合、数2より、算出した物面までの距離A、すなわち被写体距離にも誤差が含まれることになる。
上記の誤差が生じる要因としては、周囲の温湿度の変化や振動などの影響に伴い生じる、撮像装置100の経時的な変化が挙げられる。具体的には、周囲の変化に起因した結像光学系120の各レンズの屈折率や曲率が変化することによる光学特性の変化や、周囲の変化に起因した撮像素子101のたわみなどの変形である。その他、製造誤差によっても誤差は生じる。
結像光学系120の想定像面位置と実際の結像位置とに差が生じていることで、デフォーカス量と物面から結像光学系120の主点までの距離の変換関係が崩れ、結像光学系120の主点から像面までの距離Bの値に誤差が発生する。以降、結像光学系120の想定像面位置と実際の結像面位置の差を、像側変化量と呼ぶ。像側変化量≠0の場合でも、デフォーカス量と物体距離の関係は数2に従うため、正しく推定した像側変化量を用いてデフォーカス量を補正すれば、誤差の低減された被写体距離である距離Aを求めることができる。
以上説明したように、第1の取得手段310は、結像光学系を介して、撮像素子101から出力される、視差を有する第1の信号と第2の信号に基づき第1の距離情報を取得する。尚、視差を有する信号は2つ以上であっても良い。このような瞳分割位相差方式で第1の距離情報を取得した場合には、前述のように、第1の距離情報には結像光学系や撮像素子の特性の経時誤差が含まれる。
経時的な変化で像側変化量≠0となる要因は複数あるが、例えば、結像光学系120の光学的な特性が温度変化により経時的に変化した場合について説明する。
図4(A)は、結像光学系120の像面湾曲量の2次元分布を撮像素子101の有効画素範囲内で表した図、図4(B)は図4(A)中のI-I’に沿った像面湾曲量を示す図である。
図4(B)中のm1は、経時的な変化が生じていない時の像面湾曲量を表し、m2は経時的な変化が生じたときの像面湾曲量を表している。図中のm1とm2の差が、前述の像側変化量となる。図4(C)は図4(A)のI-I’に沿った像側変化量を表す図である。図4(C)に示すように、結像光学系120の光学的な特性に経時的な変化が生じた場合、像側変化量は画角に応じて変化する。像側変化量が画角に依らず一定の値の場合には、少なくとも1つの補正用情報があれば補正ができる。
しかし、像側変化量が画角に応じて変化する場合には、1つの補正用情報のみを用いて像側変化量を推定することは難しい。この場合には、像側変化量の2次元分布を推定する必要がある。この補正値Icを生成するために本実施例では第1の取得手段とは異なる取得手段で取得した第2の距離情報を用いて補正値Icを生成する。
尚、本実施例では前述のように、第1の取得手段310の撮像素子101から取得した第1の画像群Sg1を用いて、被写体までの距離を表す第1の距離情報Idist1を取得する。更に、撮像素子101で取得した第1の画像群Sg1を一旦情報格納手段170に格納し、情報格納手段170に格納した第1の画像群Sg1を、第2の取得手段において第2の画像群Sg2として用いて、第2の距離情報Idist2を取得する。
<第2の距離情報の取得>
第2の取得手段320は、情報格納手段170から取得した第1の画像群Sg1と第2の画像群Sg2とを取得する。ここで、第2の画像群Sg2は、第1の画像群Sg1より前の時刻の画像信号を情報格納手段170に蓄積した画像群である。第2の取得手段320は、第1の画像群Sg1と第2の画像群Sg2とを用いて、第2の距離情報Idist2を取得する。第2の画像群Sg2には、撮像装置100を用いて第1の画像群Sg1とは異なるタイミングで撮像された第1の画像信号S21と第2の画像信号S22が含まれている。
このように、第2の取得手段は、本実施例では2枚のフレームの画像信号に基づき第2の距離情報を取得しているが、3以上の複数フレームの画像信号に基づき第2の距離情報を取得するようにしても良い。
尚、前述のように、第1の画像信号S21は、第1の光電変換部161により生成された画像信号であり、第2の画像信号S22は、第2の光電変換部162により生成された画像信号である。
第2の取得手段320では公知の手法であるSfM(Structure from Motion)法を用いて第2の距離情報Idist2を取得する。以下、ステップS320において、第2の取得手段320で行う第2の取得処理の具体的な内容について図5(A)を用いて説明する。
図5(A)は、ステップS320において、第2の取得手段320が行う第2の取得処理の動作(第2の取得工程)を表すフローチャートである。
距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図5(A)の各処理を行う。
ステップS321において、オプティカルフロー算出処理を行う。即ち、情報格納手段170に格納されている時刻t1で取得した第1の画像群Sg1から画像信号S11と、異なる時刻t2で撮像した第2の画像群Sg2から画像信号S21とを取得する。そして、各画像信号から公知の手法でオプティカルフローを算出する。時刻の関係はt1>t2であり、t2はt1より過去の時系列となる。
オプティカルフローを算出する複数の画像は、同じ視点からの画像信号であればよく、第2の画像信号S12とS22から算出しても良い。或いは、第1の画像群Sg1の第1の画像信号と第2の画像信号を足し合わせた(S11+S12)と第2の画像群Sg2の(S21+S22)から算出しても良い。
オプティカルフローの算出に関して、図5(B)、(C)、(D)を用いて具体的に説明する。取得した画像信号S11と画像信号S21に対して公知の手法である Harris コーナー検出アルゴリズムを用いて特徴点を算出する。図5(B)は時刻t2での画像信号S21に対して算出した特徴点501を示す図、図5(C)は時刻t1での第1の画像信号S11に対して算出した特徴点502を示す図、図5(D)は算出したオプティカルフローを示す図である。
時刻t2での画像信号S21に対して算出した特徴点501を図5(B)の星印として、時刻t1での第1の画像信号S11に対して算出した特徴点502を図5(C)の星印として示す。図5(D)は、算出した画像信号S21と画像信号S11間の特徴点同士の対応付けを公知の手法であるKLT(Kanade-Lucas-Tomasi)特徴追跡アルゴリズムを用いて行い算出したオプティカルフロー500である。
尚、特徴点や特徴量の算出、オプティカルフローの算出に用いるアルゴリズムは上記の手法に限定されない。FAST (Features from Accelerated Segment Test)や、BRIEF (Binary Robust Independent Elementary Features)、ORB (Oriented FAST and Rotated BRIEF)などを用いても良い。
ステップS322では距離算出処理を行う。即ち、算出したオプティカルフロー500を用いて被写体までの距離を公知の手法で算出する。距離を算出する被写体の画像座標系での座標を(u,v)、距離を算出する被写体のオプティカルフローを(Δu,Δv)、被写体までの距離をzとする。オプティカルフローを算出する際に用いた画像間でのカメラ移動量のうち、回転移動量(ωx,ωy,ωz)、並進移動量(tx,ty,tz)とする。そしてカメラの焦点距離をfとすると、以下の関係が成り立つ。
Figure 2022154179000002
Figure 2022154179000003
カメラの焦点距離fは事前のキャリブレーションにより予めわかる。従って、カメラ移動量である、回転移動量(ωx,ωy,ωz)、並進移動量(tx,ty,tz)を求めれば、オプティカルフローから画像上の被写体位置(u,v)におけるカメラから被写体までの距離zを算出できる。
オプティカルフロー500の算出に用いた画像信号S21と画像信号S11間のカメラ移動量を公知の手法で算出する。具体的には、時刻t2での特徴点501と、時刻t1での特徴点502と、その対応関係であるオプティカルフロー500とを用いてエピポーラ拘束を満たすよう、8 Pointアルゴリズムを用いてカメラ基礎行列Fを取得する。このとき、RANSAC(Random Sample Consensus)法も用いることで外れ値を効率的に除外して、安定的な手法で算出することも好適である。
カメラ基礎行列Fを公知の手法でカメラ基本行列Eに分解し、カメラ基本行列Eからカメラ外部パラメータである回転移動量R(ωx,ωy,ωz)、並進移動量T(tx,ty,tz)を求める。ここで、求めたカメラ外部パラメータは時刻t2から時刻t1へのカメラ移動量の相対的な変位でありスケーリング不定のため、特に並進移動量T(tx,ty,tz)は規格化された相対値である。
これをスケーリングすることで実際の移動量である並進移動量T(tx,ty,tz)にする。具体的には、特徴点502を求めた第1の画像信号S11に対して同一時刻での異なる視点からの画像信号に対応する第2の画像信号S12を情報格納手段170から取得する。同様に特徴点501を求めた画像信号S21に対して同一時刻での異なる視点からの画像信号に対応する画像信号S22を情報格納手段170から取得する。
そして、各画像組に対しステップS310で第1の取得処理を行うことにより視差量をもとにした第1の距離情報から夫々距離値を取得する。その後、オプティカルフローで対応付けられた特徴点502と特徴点501間の距離値の差分から並進移動量Tのうちカメラの光軸に平行な移動量tzを取得する。
取得したスケーリング済みでもある実際の移動量tzから他成分のスケーリングも行い、時刻t2からt1への実際の並進移動量T(tx,ty,tz)を取得する。そして、数3、数4を用いて第1の画像信号S11の特徴点502の画像上の各座標におけるカメラからの距離zを算出する。
カメラ移動量をスケーリングする手法は本手法に限定されず、各種計測機器、具体的にはIMU(inertial measurement unit)やGNSS(Global Navigation Satellite System)、車載カメラの場合には車速情報やGPS情報等からカメラ移動量を得てスケーリングを行うようにしても良い。
尚、カメラ移動量や被写体とカメラの位置関係の算出に公知の手法であるバンドル調整を用いるようにしても良い。焦点距離などカメラ内部パラメータを含め、カメラ基礎行列やオプティカルフローなどの変数間の関係を非線形最小二乗法で整合性が良くなるように解析的にまとめて算出できる。
カメラ移動量の算出に用いる特徴点のうち、撮像装置が属する世界座標系に対して静止物体ではない被写体から算出される特徴点は処理から除いても良い。公知の手法であるカメラ移動量推定は被写体が静止物体として各種パラメータを算出するため、被写体が移動物体である場合には誤差要因となる。
従って、移動物体から算出された特徴点を除くことで各種パラメータ算出精度を向上できる。移動物体の判定は、画像認識技術を用いた被写体の分類判定や、取得した距離情報の時系列の変化量と撮像装置の移動量との相対値を比較することにより判定する。
ステップS323では第2の距離情報変換処理を行う。即ち、このようにして取得した第1の画像信号S11の特徴点502の画像上の各座標におけるカメラからの距離を、数2を用いて像側のデフォーカス量に換算し、第2の距離情報Idist2を取得する。以上のように、第2の取得手段は、複数枚の画像から対象の特徴点のオプティカルフローを算出することによって前記第2の距離情報を取得する。
<補正情報の算出と補正の原理>
補正情報生成手段330は第1の距離情報Idist1と第2の距離情報Idist2から像側変化量に相当する補正値Icを生成し取得する。第1の距離情報Idist1と第2の距離情報Idist2から像側変化量に相当する補正値Icを生成する方法について以下に説明する。
第1の距離情報Idist1は第1の取得手段で算出した視差量をもとに導出されるが、視差量は図2(B)、(C)、(D)で示したように、結像光学系による結像面と撮像素子の位置関係に基づく第1の光束と第2の光束の重心間隔に相当する。従って、温湿度など周囲の環境変化により結像光学系の結像面や撮像素子の形状が変化するとその影響を受けて変化前とは異なる値となる。即ち、第1の取得手段で算出した第1の距離情報Idist1は光学系の経時変化の影響を受けやすい。
一方、第2の距離情報Idist2は温湿度などの周囲の環境変化が生じる時間間隔に比べるとはるかに短い時間間隔で取得した画像群を対応付けたオプティカルフローから算出している。従って、その距離情報の算出時に用いた第1の距離情報も同様に短い時間間隔の相対変化をカメラ移動量として利用しているため、温湿度などの周囲の環境変化に起因した経時的な誤差量を含有していない。即ち、第2の取得手段で算出した第2の距離情報Idist2の光学系の経時変化の影響は、第1の距離情報Idist1に比べて非常に小さい。
しかしながら、第2の距離情報Idist2は特徴点を算出した座標に依存する情報であるため、画角に対しては疎な距離情報である。
よって、第2の距離情報Idist2を用いて周囲の環境変化に起因した像側変化量に相当する補正値Icを算出する必要がある。それにより、第1の距離情報Idist1を補正して補正距離情報IdistCを算出することで、経時的な誤差量を軽減し、画角に対して密な距離情報を取得することができる。そして、密な距離情報を取得できれば、物体の細かい形状を計測することが可能となる。
図6(A)は、ステップS330において補正情報生成手段330が行う補正情報生成処理の動作を表すフローチャートである。距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図6(A)の各処理を行う。
ステップS331において、第1の取得手段310で取得した第1の距離情報Idist1と第2の取得手段320で取得した第2の距離情報Idist2とを用いて像側変化量を算出する像側変化量算出処理を行う。
図6(B)は第1の取得手段310で取得した第1の距離情報Idist1であるデフォーカス量D1の、想定像面に対するデフォーカス量を示す図である。図6(C)は第2の取得手段320で取得した第2の距離情報Idist2であるデフォーカス量D2の、想定像面に対するデフォーカス量を示す図である。図6(C)は特徴点502に対応した画素で距離情報が取得されるため、特徴点502の画像上の各座標に対応した疎なデータ群である。図6(D)は、図6(B)、(C)中のI-I’に沿った像側デフォーカス量を示す図である。
図6(D)の不連続な線分p1は第1の距離情報Idist1であるデフォーカス量D1を示し、図6(D)の点データp2は第2の距離情報Idist2であるデフォーカス量D2を示す。第1の距離情報Idist1には前述のように、撮像装置100の経時的な変化による誤差が含まれている。一方、第2の距離情報Idist2は撮像装置100の経時的な変化による影響をほとんど受けない。従って、両者の差分値を求めれば、その差分値は経時的な変化の影響を受けた像側変化量に相当する。
図6(E)はフィッティングにより算出された像側変化量を破線で示す図である。図6(D)における第1の距離情報Idist1であるデフォーカス量D1であるp1から、第2の距離情報Idist2であるデフォーカス量D2であるp2を差し引いた像側変化量を示す。図6に示す例では、実際にp1-p2の差分データ602が取得できるのは図5(C)の特徴点502の座標に対応した図6(E)に示すデータ取得座標601上の3点である。
これに対し、経時的な変化の影響を受けた像側変化量は各画素での合焦位置の変化であり、つまり像面湾曲量の変化に相当する。像面湾曲量自体は連続かつ滑らかな形状なので、画角間、つまり画素間の像側変化量は連続で滑らかにつながる。従って、各データ取得座標601上で取得された各差分データ602を用いて多項式近似によりフィッティングすることで画角間を補間できる。
このように多項式近似から求めた像側変化量603を図6(E)に破線で示している。説明のため、線分I-I’に沿った1次元で多項式近似による像側変化量を表現したが、実際の像側変化量はxy平面上の2次元データである。よって、画角に対しては離散的である取得された差分データを用いて、xy平面での多項式近似による面フィッティングを行い、像側変化量を推定する。算出した像側変化量である近似面データを補正値Icとする。
このように、夫々の取得手段で取得される距離値やデフォーカス量は、撮影される被写体の距離によって離散的な値をとる場合がある。しかし、夫々の手法で取得した距離情報を像側デフォーカス量に変換し差分値を得ることによって、連続的な値として取り扱うことができ、各種近似によってその値や形状を推定し取得することができる。
差分データを用いて多項式近似による面フィッティングを行い、像側変化量を推定するとき、結像光学系や撮像素子などの設計値から推測される像側変化量をもとに差分データの外れ値を除去することも好適である。即ち、装置の設計値と環境の温度や湿度の変化からシミュレーションにより、事前に像側変化量の予測を行うことができる。
この予測値を補正用の初期値としてルックアップテーブル等として情報格納手段に蓄えておき、取得した差分データと比較して、閾値判定より外れ値を除去することによりフィッティング精度が向上する。即ち、前記初期値は環境温度に基づく像側変化量を含み、補正情報生成手段は、結像光学系又は撮像素子に関する補正用の初期値をルックアップテーブルから取得して、補正値を算出するようにしても良い。
図3(B)のステップS340において、生成した補正値Icを用いて第1の距離情報Idist1を補正し、補正距離情報IdistCを生成する(補正工程)。具体的には第1の取得手段がステップS314の距離変換処理で生成したデフォーカス量ΔLを数2におけるB(結像光学系120の主点から像面までの距離)に変換する際に、以下の数5で補正したデフォーカス量ΔL’を用いる。
(数5)
ΔL’=ΔL-Ic
この補正したデフォーカス量ΔL’を用いて算出した結像光学系120の主点から像面までの距離Bを用いて数2に基づき被写体までの距離を算出することで、補正距離情報IdistCを算出する。
上記のように、本実施例によれば、経時的な誤差の影響を低減した距離値を取得することが可能な距離計測装置を実現できる。
尚、上記のような補正処理は距離算出を行う際に毎回行う必要はない。環境による経時変化が生じる時間間隔は本装置が距離算出を行う時間間隔と比較してはるかに長い間隔であるため、ここで算出した補正値Icを次フレーム以降も暫く使い続けることができる。補正情報の更新タイミングの判定は後述する。
尚、経時的な変化は、その発生原理により像面変化量として発生するため、本発明の実施例のように、距離情報の補正を物側の被写体距離ではなく像側のデフォーカス量で補正することが望ましい。
又、本実施例では、補正情報生成手段は、像側デフォーカス量として第1の距離情報と第2の距離情報を比較(差分演算)している。従って、光学系の縦倍率の影響を受けず、被写体の距離が近距離でも遠距離でも変わらず同等なスケールで全画角を一括で近似による補正情報の算出を行うことができる。その結果、近似に用いるデータ点数を多く確保することができ、補正情報の算出を高精度に行うことができる効果がある。
結像光学系120の特性が温湿度変化や振動の影響で経時的に変化する場合には、像側変化量だけではなく、焦点距離やBL値も変化し測距誤差の要因となり得る。しかし、焦点距離やBL値が変化した場合でも、数1や数2から明らかなように、その変化量はBの変化量に押し込まれるため、本実施例にかかる補正処理で補正可能である。
尚、上記実施例では、第2の取得手段でオプティカルフロー算出に用いる画像のセットとして異なる2つの時刻で撮影した2画像のセットを用いたが、何セットの画像セットを用いても良い。セット数を増やすことによって、オプティカルフローを算出する画像の組み合わせ数が増え、カメラ移動量ならびに第2距離情報の算出精度を向上できる。
又、時刻t1と時刻t2の画像群の取得は、人がカメラを持ち、歩いて移動することで取得しても良い。
各種演算処理はカメラ等の撮像装置内部に設けなくても良い。例えばネットワークを介して外部のサーバーや端末にデータを送り、そのサーバーや端末に実装されているCPUやGPU、ICを用いて実行される構成であっても良い。
(実施例2)
次に、図7を参照しながら本発明の実施例2について図面を参照しながら説明する。
<距離計測システムの構成>
図7(A)は、本発明の実施例2に係る距離計測システムの構成を概略的に示すブロック図である。
図7(A)において、実施例2の距離計測システム700は、撮像装置710、距離計測装置720、第2の距離計測装置730を備える。
第2の距離計測装置730は、照射したレーザ光の戻り光を受光することで被写体までの距離を表す第2の距離情報を取得する。
<第2の距離計測装置の構成>
図7(B)は実施例2の第2の距離計測装置730の構成例を示す図である。第2の距離計測装置730は、投射光学系731、レーザ732、投射制御部733から構成される投光系と、受光光学系734、検出器735、測距演算部736、出力部737から構成される受光系により構成される。
レーザ732は、パルス状のレーザ光を出射する半導体レーザダイオードを含む。レーザ732からの光は、スキャン系を有する投射光学系731により集光・照射される。尚、レーザ光は、主に半導体レーザが用いられるが、特に限定は無い。又、レーザ光は指向性、収束性の良好な電磁波の一種であり、特に波長の限定は無い。安全性を考慮すると、赤外線波長帯のレーザ光を使用するのが好ましい。
レーザ732は、投射制御部733によりレーザ光の出射を制御されている。投射制御部733ではレーザ732を発光させるための例えばパルス信号を作成され、その駆動信号は測距演算部736にも入力される。投射光学系731内のスキャン光学系は、所定の周期で、レーザ732から出射されたレーザ光を水平方向に繰り返し走査する。
物体にあたって反射されたレーザ光は受光光学系734を介して検出器735に入射される。検出器735はフォトダイオード等を含み、反射光における光強度に応じた電圧値の電気信号を出力する。
検出器735より出力された電気信号は、測距演算部736に入力され、投射制御部733からレーザ732に出力される駆動信号が出力されてから受光信号が発生されるまでの時間を測定する。即ち、レーザ光を出射した時刻と、反射光を受光した時刻の時間差を測定し、被写体までの距離を演算する。
演算された被写体までの距離は、第2の距離情報として出力部737を介して出力される。尚、投射光学系におけるスキャン光学系は、ポリゴンミラーやガルバノミラーなどを用いても良い。本実施例では、例えば垂直方向に複数のポリゴンミラーを積層し、上下方向に並んで配置された複数のレーザ光を水平に走査する構造のレーザスキャナを用いる。以上のように構成し動作させることで、照射した電磁波が反射した物体までの距離を取得することができる。
第2の距離計測装置730は、射出したレーザ光が被写体にて反射されて検出器にて検出するまでの光の到達時間に基づき被写体距離を計測している。その為、温湿度変化や振動等により投射光学系731や受光光学系734の光学的な特性が変化しても、光の飛行時間に与える影響は小さい。つまり、第2の距離計測装置730は、距離計測装置720と比較して、温湿度変化や振動に起因した距離計測結果の経時的な変化(誤差)の影響が小さい。
第2の距離計測装置730で取得される第2の距離情報の画角及び座標は、事前の校正(キャリブレーション)により、撮像装置710で取得される画像の画角及び座標と対応付けがなされる。
<距離計測装置の説明>
本実施例の距離計測装置720について説明する。図8(A)は、本実施例の距離計測装置720の概要構成を表す機能ブロック図である。図3(A)と同じ符番のブロックは同じ機能を有する。
距離計測装置720においては、第2の取得手段320が第2の距離計測装置730で取得された第2の距離情報Idist2を取得する。即ち、第2の距離情報は、電磁波を照射し、反射された前記電磁波の到達時間に基づき測定されたものである。補正情報生成手段330にて第1の距離情報Idist1と第2の距離情報Idist2から補正値Icを取得する。更に、補正手段340にて補正値Icを用いて第1の距離情報Idist1の補正を行うことで補正距離情報IdistCを生成し、出力している。
図8(B)は第2の距離計測装置730で取得される第2の距離情報Idist2を説明する図である。説明のため、第2の距離計測装置730で取得した第2の距離情報を得た座標801をひし形で表し、第2の距離計測装置730で距離情報を取得した際と同時刻に撮像装置710で取得した撮影画像800に重畳している。座標801の各点において、照射したレーザ光の飛行時間に基づいて第2の距離情報Idist2が取得される。
補正情報生成手段330において、同時刻の第1の距離情報Idist1と第2の距離情報Idist2を用いて先述のステップS330における補正情報生成処理と同等な処理を行い、補正値Icを生成する。更に、先述のステップS340における補正処理と同等な処理を行い、第1の距離情報Idist1を補正した補正距離情報IdistCを算出する。
実施例2では、第2の取得手段が、レーザ光を用いたアクティブ測距方式の第2の距離計測装置730で取得された第2の距離情報Idist2を用いている。従って、距離計測のために取得する画像は第1の距離情報Idist1を生成する画像群のみでよく、メモリ容量を削減することができる。
尚、本実施例に記載の、第2の距離計測装置を介して取得される第2の距離情報は、LiDAR(Light detection and ranging)やToF(Time of Fright)によって計測されたものであるが、それに限定されない。レーザ光ではなく電磁波を用いたミリ波レーダや、同様なアクティブ測距装置で測定されるものであっても良い。
第2の距離情報の信頼度はレーザ光が反射され戻ってきた際の受光強度を基に算出することができ、信頼度が高い測距の座標のみを補正情報生成処理に用いても良い。
(実施例3)
<補正処理実施の可否の判定>
実施例3においては、補正処理フローの開始前に実施判定を行う。即ち、補正処理フローを実行したときに良好な補正量を得ることができるか否かを、補正処理フローの実行前に撮影シーン等に基づき判定する。これにより、良好な補正量を得られないシーンに対してはフローの実行を事前に回避でき、演算量の削減、画像データセット格納のメモリ削減、発熱量削減等の効果が得られる。又、補正が必要ではないと判断される場合も補正処理フローを実行せず、補正していない第1の距離情報を出力する。
図9(A)は実施例3の補正処理の実施判定を伴うフローチャートであり、図9(B)は図9(A)のステップS900についてのフローチャートである。距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図9(A)、(B)の各処理を行う。
ステップS900にて補正処置フローを実施すると判定した場合、実施例1に記載の補正処理を実行し、補正距離情報を出力する。ステップS900にて補正処置を実施しないと判定した場合、前述のステップS310の第1の取得処理を実行し、得られた第1の距離情報を補正せずに出力する。
図9(B)にてステップS900の実施判定の詳細を説明する。
ステップS910の環境変化判定にて本実施例に係る撮像装置(又は距離計測装置)の周囲での環境変化の有無を基に判定する。具体的には、周囲環境の温度情報や湿度情報を、センサを用いて所定周期で取得し、その値、又はその変化量が、予め設定された閾値を越えた場合に、実施(Yes)と判定し、越えていない場合は実施しない(No)と判定する。
又、ジャイロなど振動検知センサの出力をもとに瞬間的に所定の閾値を越える振動の付加があったか否かをもとに、振動があった場合は実施(Yes)と判定し、振動が無かった場合は実施しない(No)と判定しても良い。或いは、振動の累積値を保存し、累積値が所定のレベルを上回ったと判定した場合にYesとし、そうでない場合はNoと判定しても良い。このように、ステップS910において判定される周囲の環境は、天候、季節、温度、湿度、振動の少なくとも1つを含む。
ステップS920にて、良好な補正量が取得できるシーンか否かを判定する。即ち第2の距離情報の適否を判定する。第2の取得手段が実施例1に記載のSfM法の場合、撮像装置で取得した現在の周囲環境を撮影した画像から、先述のステップS321のオプティカルフロー算出処理と同様に特徴点を算出し、算出した特徴点を基に判定スコアを取得する。具体的には、画角内の特徴点の数N、画角内の特徴点の分布D、算出した特徴点の信頼度C、をもとに判定スコアSを以下の数6を用いて算出する。
(数6)
S = α*N+β*D+γ*C
α、β、γは係数であり、適宜設定する。
画角内の特徴点の分布Dは、特徴点を取得した座標の座標値のヒストグラムをもとにその標準偏差σを用いてD=δ*σとして表現する。特徴点の信頼度Cは特徴点を算出する際に用いた手法に応じた特徴量の強さをもとに算出し、その各特徴点の特徴量の強さの総和を特徴点の信頼度Cとする。このように求めた判定スコアSが適宜設定される閾値を越えている場合、適切な第2の距離情報が得られると判定し、ステップS920のシーン判定で実施(Yes)と判定する。
或いは、距離想定装置が移動装置に搭載されている場合、移動装置の移動速度が所定値以下か否かをGPSデータや例えば車軸等の回転速度等から判別しても良い。そして、移動速度が所定値以下の場合には、SfM法によるオプティカルフローが十分得られないので、その場合には、ステップS321のオプティカルフロー算出処理を用いた第2の取得処理を実行しないように制御しても良い。或いは、オプティカルフローの大きさが所定の閾値以下か否かを判定し、所定の閾値の場合には、ステップS321のオプティカルフロー算出処理を用いた第2の取得処理を実行しないようにしても良い。
第2の取得手段が実施例2に記載のレーザ光等の電磁波によるアクティブ測距装置の場合、画角内の測定点の数Nは反射光強度が測定でき距離情報が取得できた点数、画角内の測定点の分布Dは前述と同様の方法で評価することができる。又、算出した測定点の信頼度Cは各点の反射光強度の大きさを数値化したものの総和として、数6を用いて同様に判定スコアSを求め、閾値により実施判定を行っても良い。このように、ステップS920におけるシーン判定、或いは第2の距離情報の適否の判定は、前記第2の取得処理で用いる測定点の数、分布、信頼性、移動速度、オプティカルフローの大きさのいずれか1つに基づき行えば良い。
ステップS910の環境変化判定、ステップS920のシーン判定、どちらかで実施しない(No)と判定された場合、ステップS930でインターバル判定を実施する。ステップS930のインターバル判定では、前回の補正からの経過時間を計測し、補正実施の時間間隔が大きく空きすぎないようにすることが目的である。インターバル閾値thを適宜設定し、前回の補正からの経過時間tiがthを越えた場合、ステップS930のインターバル判定では補正を実施する(Yes)と判定する。
インターバル閾値thの設定は周囲の環境に応じて設定される。周囲の環境とは、季節や天候、路面などの走行条件等である。経時的な変化の起こる可能性が高い環境条件(例えば高温、高湿度等)のもとでは、インターバル閾値thの値を小さいものとし、頻度高く補正処理を実施するようにしても良い。又、インターバル判定でYesとなった場合に、必ず補正を実施するのではなく、ステップS910やS920の閾値を所定の割合だけ下げることによって補正が実行される可能性を高めても良い。
補正処理の実施タイミング判定は距離計測装置や移動装置の起動に合わせて判定タイミングを設定する。装置の起動直後は撮像素子や基板など各種電気部品が発熱を始め、装置内部の温度が急激に上昇を始める。そこで、装置の暖気運転が完了すると見込める時間をあらかじめ設定して、その時間が経過後に1回は補正処理を行い、次から補正処理の実施判定を行うようにしても良い。
補正処理の実施タイミング判定は、装置の移動状況に応じて行うことも好適である。車載カメラを想定した場合、悪路走行時は車体のピッチ変動が大きく、第2の取得手段で用いるカメラ姿勢の算出に大きく誤差が生じる可能性が高い。このように、装置の移動状況(シーン)に応じて、補正値の算出に誤差が大きく重畳されるような状況下では補正処理を実施しない、と判定するようにしても良い。
補正処理の実施判定を行い、短い間隔で実施の判定が出続ける場合にはアラート(警告)を出すように設定しても良い。経時的な変化を生じさせる要因となる、環境の温度や湿度は装置の動作に比べると比較的長い時定数を持つ。又、経時的な変化を生じさせるような振動などによる衝撃が、頻繁に起こるケースはまれである。
従って、短い間隔で実施の判定が出続ける場合には経時的な変化以外に故障など、他の要因によるトラブルの可能性が高い。よって、アラートを出すことによって修理やメンテナンスの実行を促すような設定とすることが望ましい。
<領域分割して像側変化量を推定>
(実施例4)
実施例4に係る補正処理では、異なる手法のデフォーカス量との差分データから像側変化量を推定する際に、画角(画面)を領域分割して像側変化量を推定し、それらを統合することで補正量を算出する。
装置構成の経時変化に伴う像側変化量は、先述のように連続かつ滑らかな形状ではあるが、光学系などの設計値や組み立て誤差などの影響により、像側変化量の形状はxy平面に対して非対称な場合や、局所的な凹凸を含む場合がある。このような像側変化量に対し多項式近似で面推定を行う際、高次の項を用いても形状を表現しきれない場合がある。
このような場合、実際の像側変化量と近似式による推定面との差分が残存誤差となる。この残存誤差が補正値Icに含まれ、補正結果である補正距離情報IdistCにも残存誤差が含まれることになる。従って、実施例4では、像側変化量を近似式による推定面で精度良く表現できるようにするために、画面内を複数の領域を分割して、領域毎に補正値の近似演算を行う。そして、複数の前記領域の近似演算の結果を合成することによって測距誤差の低減を図る。
図10(A)は実施例4の領域分割を伴う補正値処理を実施する全体フローを示すフローチャート、図10(B)はデフォーカス量を算出する領域を分割した状態を示す図、図10(C)はステップS1030の詳細を示すフローチャートである。
距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図10(A)、(C)の各処理を行う。
実施例4の図10(A)のフローチャートは、図3(B)に示す距離計測装置110の動作フローのうち、ステップS330の補正情報生成処理を、ステップS1030の領域分割を伴う補正情報生成処理に置き換えたものである。
図10(B)の例では、デフォーカス量を算出するための画面の領域を例えばx方向に3分割している。即ち、座標x1を境界に領域1001と領域1002、更に座標x2を境界に領域1003に分割している。分割領域数は任意の値に設定すればよく、分割方向も水平垂直問わず垂直方向の分割や水平垂直両方向または水平垂直の軸に依らない分割による任意の形状でよく、各領域の大きさが異なっていても良い。
ステップS310における第1の取得処理とステップS320における第2の取得処理によって、第1の距離情報Idist1と第2の距離情報Idist2を夫々取得した後、ステップS1030に進む。ステップS1030では、各領域において前述のステップS330の補正情報生成処理と同様な処理を行う。
ステップS1030における、領域分割を伴う補正情報生成処理の詳細を、図10(C)を用いて説明する。
ステップS1031で領域分割し、設定した各領域に対応する第1の距離情報Idist1と第2の距離情報Idist2をステップS331へ渡して像側変化量算出処理をささせる。前述と同様に、各領域でステップS331の像側変化量算出処理とステップS332の補正情報算出処理を行い領域ごとの補正値Icを算出する(補正情報生成工程)。
ステップS1032の統合処理で、領域ごとの補正値Icの境界部分を滑らかにつなぎ、画角全体に対する補正値Icを算出する。具体的には、図10(B)に示すよう境界の座標x1に対しつなぎ区間wを設定する。つなぎ区間wに含まれる領域1001で算出した補正値Ic1と領域1002で算出した補正値Ic2とに対し、平均化処理、Ic12=(Ic1+Ic2)÷2を実施する。境界の座標x2に対しても同様な処理を行い、つなぎ区間wの補正値は平均化処理後の補正値Icを、それ以外の領域ではその領域で算出した補正値Icを用い、最終的に全画素に対応した暫定補正値Ictmpを作成する。
暫定補正値Ictmpは単純につなぎ合わせただけで、滑らかではないので、公知の手法である拡縮処理と補間処理を組み合わせて平滑化する。このようにして、領域ごとに補正値を算出し統合することで、全画角に対応した補正値Icを算出する。
領域分割して像側変化量の推定を行うことにより、実際の像側変化量に局所的な凹凸や非対称な形状が存在しても、分割後の各領域内では低次な近似が可能なので、多項式近似や各種関数で表現することができる。結果として、統合後の補正値Icは実際の像側変化量に近い形状となり残存誤差を低減することができる。
尚、図10(C)に示すステップS1030において、ステップS1032の統合処理まで実行して算出した補正値Icを再度、ステップS1031の処理へフィードバックしても良い。そして、算出した補正値IcをIdist1とIdist2のデフォーカス量の差分値の代わりに初期値とするループ処理を行うようにしても良い。
その際、ループをまわすごとに領域分割数Nを増やしていき、像側変化量の大域的な形状から局所的な形状を推定していくことで、面推定の近似が局所最小解におちいることや発散すること防ぐことができる。次に、フィードバックループ処理について説明する。
<補正値をフィードバックして補正処理をループ>
実施例4に係る補正処理において、算出した補正情報をフィードバックし、再度補正処理又は補正値算出処理を行うことで精度向上を図る処理について説明する。
図11(A)は算出した補正値をフィードバックして補正をループ処理する全体のフローチャート、図11(B)は図11(A)の一部のフローチャートである。距離計測装置110内の中央演算処理装置(CPU)がメモリに記憶されたコンピュータプログラムを実行することによって図10(A)、(B)の各処理を行う。
ステップS1101の補正情報有無判定にてフィードバックされた補正値Icの有無を判定する。初回の補正処理の実施時など、フィードバックされた補正値Icが存在しない場合には、補正値Icの初期データ無し(もしくは値0のダミーファイル)として図10(A)のステップS310~S340等の処理を実施する。
ステップS1101の補正情報有無判定にて、フィードバックされた補正値Icが有ると判定された場合、フィードバックされた補正値Icを用いる。そして、ステップS310の第1の取得手段にて数5により補正したデフォーカス量ΔL’を用いて第1の距離情報Idist1を算出する。そして、ステップS320の処理を実施し、ステップS330の補正情報で算出された新たな補正値を補正値Icとして更新し、次にステップS340の処理にて、更新された補正値Icを用い補正した距離情報を算出する。ステップS1102の更新判定では、補正値Icの更新が不十分か判定する。
補正値Icの更新が不十分(Yes)と判定された場合、現在の補正値Icをフィードバックし、再度、ステップS1101の処理から補正処理全体フローを実施する。ステップS1102の更新判定で補正値Icの更新が十分(No)と判定された場合、現在の補正された距離情報を出力する。
ステップS1102の更新判定では、予め設定した更新回数に達していない場合にはYesとし、達している場合にはNoと判定するようにしても良い。
即ち、装置の設計値や、周囲の温度変化、湿度変化から、事前のシミュレーション検討などで像側変化量の予測をある程度は行うことはできる。従って、その予測に対し、何回のフィードバックループで実際の像側変化量へ補正値が収束するかも予測できるため、その更新回数の閾値を設定しておくことようにしても良い。
又、ステップS340の補正処理で出力される補正距離情報IdistCを基に、ステップS1102で更新判定を実施するようにしても良い。又、取得画像に対し認識処理を行い、同一被写体と分類された領域が同一の距離値になっているか、道路面と認識された領域が面で表現できる距離の分布となっているか、などの判定を行うようにしても良い。更に、補正距離情報IdistCと第2の距離情報を比較し、その差分値を閾値判定するようにしても良い。
或いは、ステップS1102の更新判定において、算出された補正値Icをもとに更新判定を行うようにしても良い。算出された補正値Icと面フィッティングの元データとなったIdist1とIdist2の像側デフォーカス量の差分値を比較し、両者の相関性を閾値判定するようにしても良い。
尚、図11(A)のステップS330の補正情報生成処理を、図11(B)のフローチャートに示すような、ステップS1130の補正情報生成処理に置き換えても良い。ステップS1130は、算出した補正値をフィードバックして補正値算出をループ処理するステップである。
図11(B)において、ステップS1131の補正情報有無判定は図11(A)のステップS1101の処理と同様である。フィードバックされた補正値Icが無い場合は、図10(A)のステップS310~S340等の処理を行い、フィードバックされた補正値Icが有る場合、フィードバックされた補正値Icを用いて図11(B)のステップS331、S332の処理を実施する。ステップS1132の更新判定において、補正値Icの更新が不十分か判定する。その場合、具体的には、フィッティング時の多項式関数の係数の更新量をもとに判定するようにしても良い。
ステップS1132で補正値Icの更新が不十分(Yes)と判定された場合、現在の補正値Icをフィードバックし、再度、S1131の処理から補正値算出処理を実施する。ステップS1132の更新判定で補正値Icの更新が十分(No)と判定された場合、現在の補正された補正値Icを出力する。
(実施例5)
<車載装置と車両制御>
(基本構成、全体構成)
図12(A)は実施例5の移動装置の全体構成を示した模式図であり、図12(B)は実施例5のブロック図である。移動装置は自動車に限定されず、電車や飛行機や船舶、小型モビリティやAGV(Automatic Guided Vehicle)などの各種ロボット、ドローンなどでも良い。
図12において、車両1100は、撮像装置1110、ミリ波レーダ装置1120と、LiDAR装置1130(LiDAR:Light Detection and Ranging)と、車両情報計測器1140を有する。更に、経路生成ECU1150(ECU:Electronic Control Unit)と、車両制御ECU1160とを備える。経路生成ECU1150と車両制御ECU1160の別形態として、コンピュータとしての中央演算処理装置(CPU)と演算処理プログラムを格納するメモリ等から構成しても良い。
撮像装置1110は実施例1~4に記載されたような同様の動作を行う第1の取得手段310、第2の取得手段320、補正情報生成手段330、補正手段340等を有する。更に、経路生成ECU1150や車両制御ECU1160等の制御手段は、補正手段によって補正された第1の距離情報に基づき、警告または移動装置としての車両1100の移動動作(方向、移動速度等)の制御を行う制御工程を有する。
撮像装置1110は、車両1100の走行道路を含む周囲環境を撮影し、撮影した画像を表す画像情報と、画素毎に被写体までの距離を表す情報を有する距離画像情報を生成して経路生成ECU1150に出力する。撮像装置1110は、図12に示すように車両1100のフロントガラスの上端付近に配置され、車両1100の前方に向かって所定の角度範囲(以降、撮影画角)の領域を撮影する。
被写体までの距離を表す情報は、撮像装置1110から撮影画角内の被写体までの距離に変換可能な情報であれば良く、所定の参照テーブル、又は所定の変換係数と変換式を用いて変換可能な情報であれば良い。例えば、距離値を所定の整数値に割り当てて経路生成ECU1150に出力しても良い。又、被写体までの距離に変換可能な、光学的に共役な距離値(撮像素子から共役点までの距離(いわゆる、デフォーカス量)や、光学系から共役点までの距離(像側主点から共役点までの距離))に変換可能な情報を経路生成ECU1150に出力しても良い。
車両情報計測器1140として、車両1100は、走行速度計測器1141、舵角計測器1142、角速度計測器1143を備えている。走行速度計測器1141は、車両1100の走行速度を検出する計測器である。舵角計測器1142は、車両1100の操舵角を検出する計測器である。角速度計測器1143は、車両1100の旋回方向の角速度を検出する計測器である。
経路生成ECU1150は、論理回路を用いて構成されている。経路生成ECU1150は、車両1100が備える車両情報計測器からの計測信号、及び撮像装置1110からの画像情報と距離画像情報と、レーダ装置1120からの距離情報と、LiDAR装置1130からの距離情報とを入力する。そしてそれらの情報に基づき、少なくとも車両1100の目標走行軌跡と目標走行速度のいずれか一方に関する目標経路情報を生成し、車両制御ECU1160に逐次出力する。
又、車両1100が、運転者1101に対して画像の表示又は音声による通知や警告を行うHMI1170(HMI:Human Machine Interface)を備える場合には、経路生成ECU1150が生成した目標経路情報を、HMI1170を介して運転者1101に通知や警告をしても良い。
撮像装置1110に対し、本実施例にかかる距離補正を適用することにより、出力される距離情報の精度が向上し、経路生成ECU1150から出力される目標経路情報の精度が向上し、より安全な車両の運転制御が達成される。
本実施例に係る第2の取得手段は、撮像装置1110から得られた画像に基づくSfM法でも、レーダ装置1120でも、LiDAR装置1130を用いても、車両情報計測器1140や撮像装置1110を用いたSfMを用いても良い。
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。前述のように以上の実施例では経時誤差の例について説明したが、誤差は製造誤差等であっても良い。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して距離計測装置や移動装置等に供給するようにしても良い。そしてその距離計測装置や移動装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしても良い。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
100 撮像装置
101 撮像素子
170 情報格納手段
310 第1の取得手段
320 第2の取得手段
330 補正情報生成手段
340 補正手段

Claims (24)

  1. 結像光学系を介して、誤差を含む第1の距離情報を取得する第1の取得手段と、
    前記誤差が前記第1の距離情報より少ない第2の距離情報を取得する第2の取得手段と、
    前記第2の距離情報に基づき、前記第1の距離情報の前記誤差の補正をするための補正値を算出する補正情報生成手段と、
    前記補正値を用いて前記第1の距離情報の前記補正を行う補正手段と、を有することを特徴とする距離計測装置。
  2. 前記補正情報生成手段は、前記第1の距離情報と前記第2の距離情報を像側デフォーカス量として比較することにより前記補正値を算出することを特徴とする請求項1に記載の距離計測装置。
  3. 前記第1の取得手段は、撮像素子から出力される視差を有する複数の信号に基づき前記第1の距離情報を取得することを特徴とする請求項1又は2に記載の距離計測装置。
  4. 前記第1の取得手段は、単眼式光学系の異なる瞳領域を通過した光束から出力される視差を有する複数の信号に基づき前記第1の距離情報を取得することを特徴とする請求項1~3の何れか1項に記載の距離計測装置。
  5. 前記第1の取得手段は、1つの撮像素子から出力される視差を有する複数の信号に基づき前記第1の距離情報を取得することを特徴とする請求項4に記載の距離計測装置。
  6. 前記第2の取得手段は、複数枚の画像から対象の特徴点のオプティカルフローを算出することによって前記第2の距離情報を取得することを特徴とする請求項1に記載の距離計測装置。
  7. 前記第2の取得手段は、SfMによって前記第2の距離情報を取得することを特徴とする請求項6に記載の距離計測装置。
  8. 前記第2の距離情報は、電磁波を照射し、反射された前記電磁波の到達時間に基づき測定されることを特徴とする請求項1に記載の距離計測装置。
  9. 前記第2の距離情報は、LiDAR、ToF、又はミリ波レーダを用いて測定されることを特徴とする請求項1に記載の距離計測装置。
  10. 前記誤差は、像面湾曲量の経時的な誤差を含むことを特徴とする請求項1に記載の距離計測装置。
  11. 前記補正手段は、周囲の環境、所定の経過時間、前記第2の距離情報の適否の少なくとも1つを判別して、前記第2の距離情報に基づく前記第1の距離情報の前記誤差の前記補正を行うか否かを制御することを特徴とする請求項1に記載の距離計測装置。
  12. 前記周囲の環境は、天候、季節、温度、湿度、振動の少なくとも1つを含むことを特徴とする請求項11に記載の距離計測装置。
  13. 前記第2の距離情報の適否は、前記第2の取得手段で用いる測定点の数、分布、信頼性、移動速度、オプティカルフローの大きさのいずれか1つに基づき判断することを特徴とする請求項11に記載の距離計測装置。
  14. 前記補正情報生成手段は、前記第1の距離情報と前記第2の距離情報の差分に基づいて前記補正値を算出することを特徴とする請求項1に記載の距離計測装置。
  15. 前記補正情報生成手段は、画面内の複数の領域について、領域毎に前記補正値の近似演算を行い、複数の前記領域の前記近似演算の結果を合成することを特徴とする請求項14に記載の距離計測装置。
  16. 前記補正情報生成手段は、前記補正値をフィードバックしてループ処理することを特徴とする請求項14に記載の距離計測装置。
  17. 前記補正情報生成手段は、前記結像光学系又は前記撮像素子に関する補正用の初期値を用いて、前記補正値を算出することを特徴とする請求項3に記載の距離計測装置。
  18. 前記補正情報生成手段は、前記補正のための前記初期値をルックアップテーブルから取得することを特徴とする請求項17に記載の距離計測装置。
  19. 前記初期値は環境温度に基づく像側変化量を含むことを特徴とする請求項17に記載の距離計測装置。
  20. 前記第2の取得手段は、前記撮像素子からの複数の画面の画像信号に基づき前記第2の距離情報を取得することを特徴とする請求項3に記載の距離計測装置。
  21. 請求項1~20のいずれか1項に記載の距離計測装置を搭載した移動装置であって、
    前記補正手段によって補正された前記第1の距離情報に基づき、警告または前記移動装置の移動動作の制御を行う制御手段を有することを特徴とする移動装置。
  22. 結像光学系を介して、誤差を含む第1の距離情報を取得する第1の取得工程と、
    前記誤差が前記第1の距離情報より少ない第2の距離情報を取得する第2の取得工程と、
    前記第2の距離情報に基づき、前記第1の距離情報の前記誤差の補正をするための補正値を算出する補正情報生成工程と、
    前記補正値を用いて前記第1の距離情報の補正を行う補正工程と、を備えることを特徴とする距離計測方法。
  23. 結像光学系を介して、誤差を含む第1の距離情報を取得する第1の取得工程と、
    前記誤差が前記第1の距離情報より少ない第2の距離情報を取得する第2の取得工程と、
    前記第2の距離情報に基づき、前記第1の距離情報の前記誤差の補正をするための補正値を算出する補正情報生成工程と、
    前記補正値を用いて前記第1の距離情報の前記補正を行う補正工程と、
    前記補正工程によって補正された前記第1の距離情報に基づき、警告または前記移動装置の移動動作の制御を行う制御工程と、を有することを特徴とする移動装置の制御方法。
  24. 請求項1~20のいずれか1項に記載の距離計測装置又は請求項21に記載の移動装置の各手段をコンピュータにより制御するためのコンピュータプログラム。


JP2021057085A 2021-03-30 2021-03-30 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム Pending JP2022154179A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021057085A JP2022154179A (ja) 2021-03-30 2021-03-30 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム
US17/705,062 US20220321871A1 (en) 2021-03-30 2022-03-25 Distance measurement device, moving device, distance measurement method, control method for moving device, and storage medium
EP22164940.3A EP4067813A1 (en) 2021-03-30 2022-03-29 Distance measurement device, moving device, distance measurement method, control method for moving device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021057085A JP2022154179A (ja) 2021-03-30 2021-03-30 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2022154179A true JP2022154179A (ja) 2022-10-13
JP2022154179A5 JP2022154179A5 (ja) 2024-04-04

Family

ID=81344302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021057085A Pending JP2022154179A (ja) 2021-03-30 2021-03-30 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US20220321871A1 (ja)
EP (1) EP4067813A1 (ja)
JP (1) JP2022154179A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4510930B2 (ja) 2008-07-23 2010-07-28 パナソニック株式会社 撮像装置及び半導体回路素子
WO2016042721A1 (en) * 2014-09-17 2016-03-24 Canon Kabushiki Kaisha Positional shift amount calculation apparatus and imaging apparatus
US20160260250A1 (en) * 2015-03-05 2016-09-08 Dejan Jovanovic Method and system for 3d capture based on structure from motion with pose detection tool
US20190349571A1 (en) * 2018-05-11 2019-11-14 Ford Global Technologies, Llc Distortion correction for vehicle surround view camera projections
JP7099559B2 (ja) 2021-01-14 2022-07-12 日本電気株式会社 免税処理装置、免税処理方法およびプログラム

Also Published As

Publication number Publication date
US20220321871A1 (en) 2022-10-06
EP4067813A1 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
JP7057097B2 (ja) 距離計測装置、距離計測システム、撮像装置、移動体、距離計測装置の制御方法およびプログラム
US9672602B2 (en) Projection image correcting apparatus, method for correcting image to be projected, and program
US10262242B2 (en) Image scanning system and image scanning method
JP2022001882A (ja) 測距装置及び移動体
CN108692719B (zh) 物体检测装置
CN108885099B (zh) 能够获取图像并进行高精度测距的测距设备和移动物体
JP2020003236A (ja) 測距装置、移動体、測距方法、測距システム
KR20200071960A (ko) 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치
JP7170609B2 (ja) 画像処理装置、測距装置、方法及びプログラム
JP2018155709A (ja) 位置姿勢推定装置および位置姿勢推定方法、運転支援装置
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
CN114600000A (zh) 感测设备及信息处理装置
JP3633469B2 (ja) 車間距離設定装置
CN112602117A (zh) 图像处理装置和三维测量系统
US20230274444A1 (en) Measuring device, moving device, measuring method, and storage medium
US10921119B2 (en) Three dimensional image measurement system
JP2022154179A (ja) 距離計測装置、移動装置、距離計測方法、移動装置の制御方法、及びコンピュータプログラム
WO2021245972A1 (ja) 演算装置、視差算出方法
US20230003894A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
JP2007233487A (ja) 歩行者検出方法、装置、およびプログラム
JP7327911B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN114599999A (zh) 移动量估计装置、移动量估计方法、移动量估计程序以及移动量估计系统
WO2020016994A1 (ja) 画像歪み検査装置、画像歪み検査方法及びプログラム
JP6515547B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240327