JP7291505B2 - 車外環境検出装置 - Google Patents

車外環境検出装置 Download PDF

Info

Publication number
JP7291505B2
JP7291505B2 JP2019050980A JP2019050980A JP7291505B2 JP 7291505 B2 JP7291505 B2 JP 7291505B2 JP 2019050980 A JP2019050980 A JP 2019050980A JP 2019050980 A JP2019050980 A JP 2019050980A JP 7291505 B2 JP7291505 B2 JP 7291505B2
Authority
JP
Japan
Prior art keywords
image
vehicle
preceding vehicle
distance
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019050980A
Other languages
English (en)
Other versions
JP2020154523A (ja
Inventor
純一 浅子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019050980A priority Critical patent/JP7291505B2/ja
Priority to US16/732,977 priority patent/US11460582B2/en
Publication of JP2020154523A publication Critical patent/JP2020154523A/ja
Application granted granted Critical
Publication of JP7291505B2 publication Critical patent/JP7291505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、自車両の周辺の車両を検出する車外環境検出装置に関する。
自動車等の車両には、自車両の周辺の車両を検出し、その検出結果に応じて、例えば自車両の走行を制御するものがある。例えば、特許文献1には、ステレオカメラを用いて自車両の周辺の車両を検出し、その車両の車両幅に基づいて、自車両の走行速度とその車両の走行速度との間の相対速度を算出する技術が開示されている。
特開2008-123462号公報
自車両の周辺の車両を検出する処理においては、検出精度が高いことが望まれており、さらなる検出精度の向上が期待されている。
車両の検出精度を高めることができる車外環境検出装置を提供することが望ましい。
本開示の一実施の形態に係る車外環境検出装置は、距離画像生成部と、車両検出部と、探索処理部と、車両幅算出部と、予測部とを備えている。距離画像生成部は、それぞれが左画像および右画像を有し、互いに異なるタイミングで順に撮像された第1のステレオ画像、第2のステレオ画像、および第3のステレオ画像を含む複数のステレオ画像に基づいて第1の距離画像、第2の距離画像、および第3の距離画像を含む複数の距離画像をそれぞれ生成するように構成される。車両検出部は、複数の距離画像のそれぞれに基づいて対象車両を検出するように構成される。探索処理部は、複数のステレオ画像のそれぞれに含まれる左画像および右画像のそれぞれに基づいて対象車両を探索するとともに、その探索結果に基づいて左画像および右画像のうちの一方を選択画像として選択するように構成される。車両幅算出部は、複数の距離画像のそれぞれでの対象車両の画像幅を第1の車両画像幅として算出するとともに、複数のステレオ画像のそれぞれにおける選択画像での対象車両の画像幅を第2の車両画像幅として算出するように構成される。予測部は、第1の距離画像に基づいて算出された第1の車両画像幅、および第2のステレオ画像における選択画像に基づいて算出された第2の車両画像幅に基づいて、第3のステレオ画像に含まれる左画像および右画像における対象車両の位置を予測するように構成される。

本開示の一実施の形態に係る車外環境検出装置によれば、車両の検出精度を高めることができる。
本開示の一実施の形態に係る車外環境検出装置の一構成例を表すブロック図である。 図1に示した左カメラが生成する左画像の一例を表す画像図である。 図1に示した右カメラが生成する右画像の一例を表す画像図である。 図1に示した先行車両検出部の一動作例を模式的に表す画像図である。 図1に示した探索処理部の一動作例を模式的に表す画像図である。 図1に示した処理部20の一動作例を表す説明図である。 図5に示した基準位置決定処理の一例を表すフローチャートである。 図1に示した左カメラが生成する左画像の他の例を表す画像図である。 図1に示した右カメラが生成する右画像の他の例を表す画像図である。 図1に示した先行車両検出部の他の動作例を模式的に表す画像図である。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。
<実施の形態>
[構成例]
図1は、一実施の形態に係る車外環境検出装置(車外環境検出装置1)の一構成例を表すものである。車外環境検出装置1は、ステレオカメラ11と、処理部20とを備えている。車外環境検出装置1は、自動車等の車両10に搭載される。
ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する一組の画像(左画像PLおよび右画像PR)を生成するように構成される。ステレオカメラ11は、左カメラ11Lと、右カメラ11Rとを有する。左カメラ11Lおよび右カメラ11Rは、この例では、車両10のルームミラーの近傍において、車両10の幅方向に所定距離だけ離間して配置される。左カメラ11Lおよび右カメラ11Rは、互いに同期して撮像動作を行う。左カメラ11Lは左画像PLを生成し、右カメラ11Rは右画像PRを生成する。左画像PLおよび右画像PRは、ステレオ画像PICを構成する。ステレオカメラ11は、所定のフレームレート(例えば60[fps])で撮像動作を行うことにより、一連のステレオ画像PICを生成するようになっている。
図2Aは、左画像PLの一例を表すものであり、図2Bは、右画像PRの一例を表すものである。この例では、車両10が走行している道路における車両10の前方に、他車両(先行車両90)が走行している。左カメラ11Lがこの先行車両90を撮像することにより左画像PLを生成し、右カメラ11Rがこの先行車両90を撮像することにより右画像PRを生成する。その結果、左画像PLおよび右画像PRは互いに視差を有する。ステレオカメラ11は、このような左画像PLおよび右画像PRを含むステレオ画像PICを生成するようになっている。
処理部20(図1)は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、先行車両90の走行情報を検出するように構成される。先行車両90の走行情報は、例えば、車両10を基準とした先行車両90までの相対距離や、車両10の走行速度と先行車両90の走行速度との間の相対速度などの情報を含む。車両10では、例えば、処理部20が検出した先行車両90の走行情報に基づいて、追従走行制御やステアリングのアシスト制御などの走行制御を行うようになっている。処理部20は、例えば、プログラムを実行するCPU(Central Processing Unit)、処理データを一時的に記憶するRAM(Random Access Memory)、プログラムを記憶するROM(Read Only Memory)などにより構成される。処理部20は、距離画像生成部21と、先行車両検出部22と、探索処理部24と、車両幅算出部25と、基準位置決定部26と、走行情報検出部27とを有している。
距離画像生成部21は、ステレオ画像PICに含まれる左画像PLおよび右画像PRに基づいて、ステレオマッチング処理やフィルタリング処理などを含む所定の画像処理を行うことにより、距離画像PZを生成するように構成される。距離画像PZにおける各画素の画素値は、3次元の実空間における、各画素に対応する点までの距離を示すデプス値である。距離画像生成部21は、生成した距離画像PZを、先行車両検出部22に供給するようになっている。
先行車両検出部22は、距離画像PZに基づいて先行車両90を検出するように構成される。距離画像PZにおいて、先行車両90に対応する画像領域におけるデプス値は、それ以外の画像領域におけるデプス値よりも小さい。先行車両検出部22は、距離画像PZに含まれるこのようなデプス値を利用して、先行車両90を検出するようになっている。
図3は、先行車両検出部22による検出結果の一例を模式的に表すものである。先行車両検出部22は、距離画像PZに基づいて先行車両90を検出する。そして、先行車両検出部22は、領域R1で示したように、距離画像PZにおける先行車両90の位置を特定するようになっている。
探索処理部24は、左画像PLおよび右画像PRのそれぞれに基づいて、機械学習の技術を用いて、先行車両90を探索するように構成される。
図4は、探索処理部24における処理の一例を模式的に表すものである。この図4では、探索処理部24は、左画像PLに基づいて、先行車両90を探索している。探索処理部24には、基準位置決定部26から、探索処理を行う際の探索基準位置POSについての情報が供給される。探索基準位置POSは、左画像PLおよび右画像PRにおける、先行車両90が検出されるであろう予測位置である。探索処理部24は、この探索基準位置POSを基準として、所定の大きさの処理対象領域R2を少しずつずらしながら順次設定することにより、先行車両90を探索する。そして、探索処理部24は、機械学習の技術を用いて、処理対象領域R2において先行車両90が存在するかどうかを確認する。このようにして、探索処理部24は、左画像PLおよび右画像PRのそれぞれにおける先行車両90の位置を特定するようになっている。
そして、探索処理部24は、先行車両90を探索した結果に基づいて、機械学習の技術を用いて、先行車両90の車両としての確からしさを評価することにより、左画像PLおよび右画像PRのうちの一方の画像を画像Pとして選択する機能をも有している。具体的には、探索処理部24は、機械学習の技術を用いて、左画像PLにおける特定された先行車両90に対応する画像、および右画像PRにおける特定された先行車両90に対応する画像のそれぞれに基づいて、車両としての確からしさを評価することによりスコアをそれぞれ生成する。そして、探索処理部24は、左画像PLおよび右画像PRのうちの、スコアが高い画像を画像Pとして選択する。そして、探索処理部24は、画像Pについての探索結果を走行情報検出部27に供給するようになっている。
車両幅算出部25(図1)は、先行車両検出部22による検出結果に基づいて、距離画像PZにおける先行車両90の画像幅(図3に示した車両画像幅W1)を算出するとともに、探索処理部24による探索結果に基づいて、探索処理部24により選択された画像Pにおける先行車両90の画像幅(図4に示した車両画像幅W2)を算出するように構成される。
基準位置決定部26は、先行車両検出部22による検出結果、探索処理部24による探索結果、および車両画像幅W1,W2に基づいて、次のフレームFに係る探索処理において使用される探索基準位置POSを決定するように構成される。
走行情報検出部27は、先行車両検出部22による検出結果および探索処理部24による探索結果に基づいて、先行車両90の走行情報を検出するように構成される。
具体的には、例えば、距離画像PZの画像精度が高い場合には、走行情報検出部27は、先行車両検出部22による検出結果に基づいて、先行車両90の走行情報を検出する。その際、走行情報検出部27は、距離画像PZに含まれる、先行車両90に対応する画像領域におけるデプス値を利用して、先行車両90の走行情報を検出する。
また、例えば、距離画像PZの画像精度が低い場合には、走行情報検出部27は、探索処理部24による探索結果に基づいて、先行車両90の走行情報を検出する。すなわち、例えば、雨粒などにより、左画像PLまたは右画像PRの一部が不鮮明になった場合には、距離画像PZの画像精度が低くなり得る。よって、距離画像PZの画像精度が低い場合には、走行情報検出部27は、探索処理部24による画像Pに基づく探索結果に基づいて、先行車両90の走行情報を検出する。その際、走行情報検出部27は、画像Pにおける先行車両90の画像幅を算出し、その画像幅の大きさに基づいて、車両10の走行速度と先行車両90の走行速度との間の相対速度V、および先行車両90までの相対距離Zを算出することにより、先行車両90の走行情報を検出する。すなわち、例えば、車両10と先行車両90との間の距離が短い場合には、画像Pにおける先行車両90の画像幅は大きくなり、車両10と先行車両90との間の距離が長い場合には、画像Pにおける先行車両90の画像幅は小さくなるので、走行情報検出部27は、このような画像Pにおける先行車両90の画像サイズ(スケーリング)を利用して、先行車両90の走行情報を検出することができる。
この構成により、車外環境検出装置1では、先行車両検出部22が、一連のステレオ画像PICに基づいて生成された一連の距離画像PZに基づいて、継続的に先行車両90を検出するとともに、探索処理部24が、一連の左画像PLおよび一連の右画像PRに基づいて、継続的に先行車両90を探索する。探索処理部24は、現在のフレームFの一つ前のフレームFにおいて基準位置決定部26により決定された探索基準位置POSに基づいて、先行車両90を探索する。そして、走行情報検出部27は、先行車両検出部22による検出結果および探索処理部24による探索結果に基づいて、先行車両90の走行情報を検出する。その際、車外環境検出装置1では、後述するように、例えば、雨粒などにより、左画像PLまたは右画像PRの一部が不鮮明になり、距離画像PZの画像精度が低くなった場合に、左画像PLおよび右画像PRのうちの、先行車両90の車両としての確からしさが高い画像(画像P)に基づいて、先行車両90の走行情報を検出する。これにより、車外環境検出装置1では、先行車両90の検出精度を高めることができるようになっている。
ここで、先行車両検出部22は、本開示における「車両検出部」の一具体例に対応する。先行車両90は、本開示における「対象車両」の一具体例に対応する。車両画像幅W1は、本開示における「第1の車両画像幅」の一具体例に対応する。車両画像幅W2は、本開示における「第2の車両画像幅」の一具体例に対応する。基準位置決定部26は、本開示における「予測部」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の車外環境検出装置1の動作および作用について説明する。
(全体動作概要)
まず、図1を参照して、車外環境検出装置1の全体動作概要を説明する。ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する左画像PLおよび右画像PRを含むステレオ画像PICを生成する。距離画像生成部21は、ステレオ画像PICに含まれる左画像PLおよび右画像PRに基づいて、距離画像PZを生成する。先行車両検出部22は、距離画像PZに基づいて先行車両90を検出する。探索処理部24は、左画像PLおよび右画像PRのそれぞれに基づいて、探索基準位置POSを基準として、機械学習の技術を用いて、先行車両90を探索する。そして、探索処理部24は、先行車両90を探索した結果に基づいて、機械学習の技術を用いて、先行車両90の車両としての確からしさを評価することにより、左画像PLおよび右画像PRのうちの一方の画像を画像Pとして選択する。車両幅算出部25は、先行車両検出部22による検出結果に基づいて、距離画像PZにおける先行車両90の画像幅(車両画像幅W1)を算出するとともに、探索処理部24による探索結果に基づいて、探索処理部24により選択された画像Pにおける先行車両90の画像幅(車両画像幅W2)を算出する。基準位置決定部26は、先行車両検出部22による検出結果、探索処理部24による探索結果、および車両画像幅W1,W2に基づいて、次のフレームFに係る探索処理において使用される探索基準位置POSを決定する。走行情報検出部27は、先行車両検出部22による検出結果および探索処理部24による探索結果に基づいて、先行車両90の走行情報を検出する。
(詳細動作)
図5は、車外環境検出装置1の一動作例を表すものである。距離画像生成部21は距離画像生成処理121を行い、先行車両検出部22は先行車両検出処理122を行い、探索処理部24は探索処理124を行い、車両幅算出部25は車両幅算出処理125を行い、基準位置決定部26は基準位置決定処理126を行う。
ステレオカメラ11は、所定のフレームレート(例えば60[fps])で撮像動作を行うことにより、一連のステレオ画像PICを生成する。この図5には、フレームF(n-1)に対応するステレオ画像PIC、そのフレームF(n-1)の次のフレームF(n)に対応するステレオ画像PIC、およびそのフレームF(n)の次のフレームF(n+1)に対応するステレオ画像PICを図示している。以下に、図5において太線で示した処理に着目して、動作を説明する。
例えば、距離画像生成部21は、フレームF(n)の一つ前のフレームF(n-1)に対応するステレオ画像PICに基づいて距離画像生成処理121(n-1)を行うことにより距離画像PZを生成する。先行車両検出部22は、この距離画像PZに基づいて先行車両検出処理122(n-1)を行うことにより、先行車両90を検出する。
探索処理部24は、フレームF(n)に対応するステレオ画像PICに含まれる左画像PLおよび右画像PRのそれぞれに基づいて、探索基準位置POSを基準として探索処理124(n)を行うことにより、先行車両90を探索する。この探索基準位置POSは、フレームF(n)の一つ前のフレームF(n-1)に係る基準位置決定処理126(n-1)において生成される。これにより、探索処理部24は、左画像PLおよび右画像PRのそれぞれにおける先行車両90の位置を特定する。そして、探索処理部24は、左画像PLにおける特定された先行車両90に対応する画像、および右画像PRにおける特定された先行車両90に対応する画像のそれぞれに基づいて、車両としての確からしさを評価することにより、左画像PLおよび右画像PRのうちの一方の画像を画像Pとして選択する。
車両幅算出部25は、車両幅算出処理125(n)を行うことにより、車両画像幅W1,W2を算出する。具体的には、車両幅算出部25は、先行車両検出部22による先行車両検出処理122(n-1)の結果に基づいて、距離画像PZにおける先行車両90の車両画像幅W1を算出するとともに、探索処理部24による探索処理124(n)の結果に基づいて、探索処理部24により選択された画像Pにおける先行車両90の車両画像幅W2を算出する。基準位置決定部26は、車両画像幅W1,W2に基づいて、基準位置決定処理126(n)を行うことにより、探索基準位置POSを決定する。この探索基準位置POSは、フレームF(n)の次のフレームF(n+1)に係る探索処理124(n+1)において用いられる。
そして、図示していないが、走行情報検出部27は、先行車両検出処理122(n)の結果、および探索処理124(n)の結果に基づいて、先行車両90の走行情報を検出する。
車外環境検出装置1は、このような動作を継続して行うことにより、先行車両90の走行情報を継続して検出する。
次に、基準位置決定部26による基準位置決定処理126について、詳細に説明する。
図6は、図5に示した、現在のフレームF(n)に係る基準位置決定処理126(n)の一例を表すものである。
まず、基準位置決定部26は、現在のフレームF(n)において、探索処理124(n)が成功しているかどうかを確認する(ステップS101)。具体的には、基準位置決定部26は、左画像PLおよび右画像PRのうち、探索処理124(n)により選択された画像Pについての探索処理が成功しているかどうかを確認する。探索処理部24は、探索基準位置POSを基準として、図4に示したように、処理対象領域R2を少しずつずらしながら順次設定することにより、先行車両90を探索する。この探索処理は、例えば1フレーム分の時間内に終了する必要がある。この時間は、例えば、フレームレートが60[fps]である場合には、16.7[msec](=1/60)であるので、探索処理部24は、広い範囲にわたり先行車両90を探索することが難しい。よって、例えば、画像Pにおける探索基準位置POSが先行車両90の位置から大きくずれている場合や、画像Pが不鮮明である場合には、探索処理が失敗することもあり得る。探索処理124(n)が失敗している場合(ステップS101において“N”)には、ステップS105に進む。
ステップS101において、探索処理124(n)が成功している場合(ステップS101において“Y”)には、基準位置決定部26は、車両幅算出処理125(n)により算出された、一つ前のフレームF(n-1)における距離画像PZに基づく車両画像幅W1、および現在のフレームF(n)における探索処理部24により選択された画像Pに基づく車両画像幅W2に基づいて、車両10の走行速度と先行車両90の走行速度との間の相対速度Vを算出する(ステップS102)。具体的には、基準位置決定部26は、例えば、先行車両90の画像サイズ(スケーリング)を利用して、車両画像幅W1により、フレームF(n-1)における相対距離D1を求めるとともに、車両画像幅W2により、フレームF(n)における相対距離D2を求める。2つのフレームF(n-1),F(n)に係る撮像タイミングは、例えば、フレームレートが60[fps]である場合には、16.7[msec](=1/60)だけずれている。よって、基準位置決定部26は、これらの相対距離D1,D2の差とフレームレートとに基づいて、相対速度Vを算出することができる。
次に、基準位置決定部26は、現在のフレームF(n)における画像Pに基づく車両画像幅W2に基づいて、相対速度Vのとり得る値の最大値である最大相対速度Vmaxを算出する(ステップS103)。基準位置決定部26は、予め準備された、車両画像幅W2と最大相対速度Vmaxとの関係を示す数式やルックアップテーブルを用いて、車両画像幅W2に基づいて、最大相対速度Vmaxを算出することができる。
次に、基準位置決定部26は、相対速度Vの絶対値が最大相対速度Vmaxを超えているかどうか(|V|>Vmax)を確認する(ステップS104)。基準位置決定部26は、相対速度Vの絶対値が最大相対速度Vmaxを超えているかどうかを確認することにより、距離画像PZに基づく処理の精度が低いかどうかを確認することができる。すなわち、例えば、雨粒などにより、左画像PLまたは右画像PRの一部が不鮮明になった場合には、距離画像PZの画像精度が低下し、距離画像PZに基づく処理の精度が低くなるおそれがある。この場合には、距離画像PZにより算出された車両画像幅W1は、所望の値から大きくずれ得る。一方、このような場合でも、画像Pにより算出された車両画像幅W2は、所望の値から大きくずれにくい。なぜならば、探索処理部24により、左画像PLおよび右画像PRのうち、車両としての確からしさが高い画像が画像Pとして選択され、車両幅算出部25により、この画像Pに基づいて車両画像幅W2が算出されるからである。よって、基準位置決定部26は、これらの車両画像幅W1,W2に基づいて算出した相対速度Vを評価することにより、距離画像PZに基づく処理の精度が低いかどうかを確認することができる。具体的には、基準位置決定部26は、相対速度Vの絶対値が最大相対速度Vmaxを超えている場合には、距離画像PZに基づく処理の精度が低いと判断する。また、基準位置決定部26は、相対速度Vの絶対値が最大相対速度Vmaxを超えていない場合には、距離画像PZに基づく処理の精度は高いと判断する。
ステップS101において、探索処理124(n)が失敗している場合(ステップS101において“N”)、またはステップS104において、相対速度Vの絶対値が最大相対速度Vmaxを超えていない場合(ステップS104において“N”)には、基準位置決定部26は、先行車両検出処理122(n)により検出された、距離画像PZにおける先行車両90の位置に基づいて、探索基準位置POSを決定する(ステップS105)。
すなわち、探索処理124(n)が失敗している場合(ステップS101において“N”)には、探索処理124(n)により先行車両90は検出されておらず、次のフレームF(n+1)に係る探索処理124(n+1)において用いる探索基準位置POSを決定することができないので、基準位置決定部26は、先行車両検出処理122(n)により検出された、距離画像PZにおける先行車両90の位置に基づいて、探索基準位置POSを決定する。また、相対速度Vの絶対値が最大相対速度Vmaxを超えていない場合(ステップS104において“N”)には、距離画像PZに基づく処理の精度は高いので、基準位置決定部26は、この距離画像PZにおける先行車両90の位置に基づいて、探索基準位置POSを決定する。
また、ステップS104において、相対速度Vの絶対値が最大相対速度Vmaxを超えている場合(ステップS104において“Y”)には、基準位置決定部26は、探索処理124(n)により検出された、画像Pにおける先行車両90の位置に基づいて、探索基準位置POSを決定する(ステップS106)。すなわち、相対速度Vの絶対値が最大相対速度Vmaxを超えている場合(ステップS104において“Y”)には、距離画像PZに基づく処理の精度は低いので、基準位置決定部26は、先行車両検出処理122(n)により検出された、距離画像PZにおける先行車両90の位置に基づいてではなく、探索処理124(n)により検出された、画像Pにおける先行車両90の位置に基づいて、探索基準位置POSを決定する。
以上で、このフローは終了する。探索処理部24は、このようにして決定された探索基準位置POSに基づいて、次のフレームF(n+1)に係る探索処理124(n+1)を行う。
ここで、フレームF(n-1)に係るステレオ画像PICおよび距離画像PZは、本開示における「第1のステレオ画像」および「第1の距離画像」の一具体例にそれぞれ対応する。フレームF(n)に係るステレオ画像PICおよび距離画像PZは、本開示における「第2のステレオ画像」および「第2の距離画像」の一具体例にそれぞれ対応する。フレームF(n+1)に係るステレオ画像PICおよび距離画像PZは、本開示における「第3のステレオ画像」および「第3の距離画像」の一具体例にそれぞれ対応する。最大相対速度Vmaxは、本開示における「しきい速度」の一具体例に対応する。ステップS105に示した処理は、「第1の予測処理」の一具体例に対応する。ステップS106に示した処理は、「第2の予測処理」の一具体例に対応する。
このように、車外環境検出装置1では、距離画像PZに基づいて先行車両90を検出するとともに、画像Pに基づいて先行車両90を検出するようにしたので、先行車両90の検出精度を高めることができる。すなわち、仮に、例えば、雨粒などにより、左画像PLまたは右画像PRの一部が不鮮明になった場合には、距離画像PZの画像精度が低くなり、その結果、距離画像PZに基づく先行車両90の検出精度が低くなるおそれがある。車外環境検出装置1では、距離画像PZに基づいて先行車両90を検出するとともに、画像Pに基づいて先行車両90を検出するようにしたので、このように、左画像PLまたは右画像PRの一部が不鮮明になった場合でも、左画像PLおよび右画像PRのうちの鮮明な画像である画像Pに基づいて先行車両90を検出することができるので、先行車両90の検出精度を高めることができる。
また、車外環境検出装置1では、図6に示したように、車両画像幅W1,W2に基づいて、探索処理124における基準位置を示す探索基準位置POSを決定することにより、左画像PLおよび右画像PRにおける先行車両90の位置を予測するようにした。これにより、車外環境検出装置1では、先行車両90の検出精度を高めることができる。
すなわち、仮に、基準位置決定部が、常に、先行車両検出処理122により検出された、距離画像PZにおける先行車両90の位置に基づいて探索基準位置POSを決定する場合には、以下に説明するように、例えば、雨粒などにより、左画像PLまたは右画像PRの一部が不鮮明になった場合に、探索基準位置POSが所望の位置からずれるおそれがある。
図7Aは、左画像PLの一例を表すものであり、図7Bは、右画像PRの一例を表すものである。図8は、先行車両検出部22による検出結果の一例を模式的に表すものである。
この例では、図7Bに示したように、雨粒により、右画像PRにおける領域R3に対応する部分が不鮮明になっている。これにより、右画像PRでは、先行車両90の右半分が不鮮明になっている。距離画像生成部21は、このような左画像PLおよび右画像PRに基づいて距離画像PZを生成し、先行車両検出部22は、この距離画像PZに基づいて先行車両90を検出しようとする。この例では、右画像PRにおいて、先行車両90の右半分が不鮮明であるので、距離画像PZは、先行車両90の右半分に対応する画像領域において、不正確なデプス値を有する。一方、距離画像PZは、先行車両90の左半分に対応する画像領域では、所望のデプス値を有している。その結果、この例では、先行車両検出部22は、図8において領域R4に示したように、先行車両90から左にずれた位置に先行車両90が存在すると誤判断するおそれがある。よって、基準位置決定部が、この検出結果に基づいて探索基準位置POSを決定し、探索処理部24が、この探索基準位置POSを基準として先行車両90を探索した場合には、探索処理が失敗するおそれがある。
一方、車外環境検出装置1では、図6に示したように、車両画像幅W1,W2に基づいて、先行車両検出処理122により検出された、距離画像PZにおける先行車両90の位置に基づいて探索基準位置POSを決定し、あるいは探索処理124により検出された、画像Pにおける先行車両90の位置に基づいて探索基準位置POSを決定するようにした。これにより、例えば、図7Bに示したように、雨粒により、右画像PRの一部が不鮮明になった場合には、距離画像PZは、先行車両90の左半分に対応する画像領域において、所望のデプス値を有するので、例えば、車両画像幅W1が所望の幅とは異なる幅になる。これにより、車両画像幅W1と車両画像幅W2の差が大きく変動し得る。このような場合には、例えば、相対速度Vの絶対値が最大相対速度Vmaxを超えるので(ステップS104において“Y”)、基準位置決定部26は、画像Pにおける先行車両90の位置に基づいて探索基準位置POSを決定する。この画像Pは、左画像PLおよび右画像PRのうちの、車両としての確からしさが高い画像であり、この例では、一部が不鮮明な右画像PRではなく、鮮明な左画像PLである。よって、基準位置決定部26は、左画像PLに基づいて、精度良く探索基準位置POSを決定することができる。そして、探索処理部24が、この探索基準位置POSを基準として先行車両90を探索するので、探索処理が失敗するおそれを低減することができる。その結果、車外環境検出装置1では、先行車両90の検出精度を高めることができる。
また、車外環境検出装置1では、例えば、左画像PLおよび右画像PRの両方が鮮明である場合には、距離画像PZにおける先行車両90の位置に基づいて探索基準位置POSを決定する。これにより、車外環境検出装置1では、ステレオ画像PICに基づく距離画像PZを用いて精度良く得られた先行車両90の位置に基づいて、画像Pにおける先行車両の位置を予測するので、先行車両90の検出精度を高めることができる。
このように、車外環境検出装置1では、車両画像幅W1,W2に基づいて、先行車両検出処理122の結果または探索処理の結果に基づいて探索基準位置POSを決定するようにしたので、状況に応じて、より正確な結果が得られるように、探索基準位置POSを決定することができるので、先行車両90の検出精度を高めることができる。
[効果]
以上のように本実施の形態では、車両画像幅W1,W2に基づいて、左画像および右画像における先行車両の位置を予測するようにしたので、例えば、左画像または右画像の一部が不鮮明である場合でも、適切に探索基準位置を決定することができるので、先行車両の検出精度を高めることができる。
本実施の形態では、車両画像幅W1,W2に基づいて、先行車両検出処理により検出された、距離画像PZにおける先行車両の位置に基づいて探索基準位置を決定し、あるいは探索処理により検出された、画像Pにおける先行車両の位置に基づいて探索基準位置を決定することにより、左画像および右画像における先行車両の位置を予測するようにした。これにより、例えば、右画像の一部が不鮮明である場合には、探索処理により検出された、画像Pにおける先行車両の位置に基づいて探索基準位置を決定することができるので、先行車両の検出精度を高めることができる。
本実施の形態では、車両画像幅W1,W2に基づいて、先行車両検出処理の結果または探索処理の結果に基づいて探索基準位置を決定するようにしたので、状況に応じて、より正確な結果が得られるように探索基準位置を決定することができるので、先行車両の検出精度を高めることができる。
以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
例えば、上記実施の形態では、図6のステップS102~S104に示したように、車両画像幅W1,W2に基づいて相対速度Vを算出し、相対速度Vの絶対値が最大相対速度Vmaxを超えているかどうかを確認することにより、距離画像PZに基づく処理の精度が低いかどうかを確認し、その確認結果に基づいて探索基準位置POSを決定したが、これに限定されるものではない。これに代えて、車両画像幅W1,W2に基づいて、距離画像PZに基づく処理の精度が低いかどうかを確認可能な、様々な手法を用いることができる。例えば、基準位置決定部26は、車両画像幅W1および車両画像幅W2の差分を算出し、この差分に基づいて、距離画像PZに基づく処理の精度が低いかどうかを確認するようにしてもよい。具体的には、基準位置決定部26は、例えば、差分の絶対値が所定のしきい値を超えた場合に、距離画像PZに基づく処理の精度が低いと判断し、探索処理124により検出された、画像Pにおける先行車両90の位置に基づいて探索基準位置POSを決定することができる。
例えば、上記実施の形態では、車両10の前方を走行する先行車両90を処理対象としたが、これに限定されるものではない。これに代えて、例えば、車両10の後方を走行する車両を処理対象としてもよい。この場合には、ステレオカメラ11は、車両10の後方を撮像するように構成される。
なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
1…車外環境検出装置、10…車両、11…ステレオカメラ、11L…左カメラ、11R…右カメラ、20…処理部、21…距離画像生成部、22…先行車両検出部、24…探索処理部、25…車両幅算出部、26…基準位置決定部、27…走行情報検出部、90…先行車両、121…距離画像生成処理、122…先行車両検出処理、124…探索処理、125…車両幅算出処理、126…基準位置決定処理、F…フレーム、P…画像、PIC…ステレオ画像、PL…左画像、POS…探索基準位置、PR…右画像、PZ…距離画像、R1,R3,R4…領域、R2…処理対象領域、W1,W2…車両画像幅。

Claims (8)

  1. それぞれが左画像および右画像を有し、互いに異なるタイミングで順に撮像された第1のステレオ画像、第2のステレオ画像、および第3のステレオ画像を含む複数のステレオ画像に基づいて第1の距離画像、第2の距離画像、および第3の距離画像を含む複数の距離画像をそれぞれ生成する距離画像生成部と、
    前記複数の距離画像のそれぞれに基づいて対象車両を検出する車両検出部と、
    前記複数のステレオ画像のそれぞれに含まれる前記左画像および前記右画像のそれぞれに基づいて前記対象車両を探索するとともに、その探索結果に基づいて前記左画像および前記右画像のうちの一方を選択画像として選択する探索処理部と、
    前記複数の距離画像のそれぞれでの前記対象車両の画像幅を第1の車両画像幅として算出するとともに、前記複数のステレオ画像のそれぞれにおける前記選択画像での前記対象車両の画像幅を第2の車両画像幅として算出する車両幅算出部と、
    前記第1の距離画像に基づいて算出された前記第1の車両画像幅、および前記第2のステレオ画像における前記選択画像に基づいて算出された前記第2の車両画像幅に基づいて、前記第3のステレオ画像に含まれる前記左画像および前記右画像における前記対象車両の位置を予測する予測部と
    を備えた車外環境検出装置。
  2. 前記探索処理部は、前記第3のステレオ画像に含まれる前記左画像および前記右画像に基づいて、前記予測部により予測された位置を基準として、前記対象車両を探索する
    請求項1に記載の車外環境検出装置。
  3. 前記予測部は、前記第1の距離画像に基づいて算出された前記第1の車両画像幅、および前記第2のステレオ画像における前記選択画像に基づいて算出された前記第2の車両画像幅に基づいて、第1の予測処理または第2の予測処理を選択的に行い、
    前記第1の予測処理は、前記第1の距離画像に基づく前記車両検出部による検出結果に基づいて、前記対象車両の位置を予測する処理を含み、
    前記第2の予測処理は、前記第2のステレオ画像における前記選択画像に基づく前記探索処理部による探索結果に基づいて、前記対象車両の位置を予測する処理を含む
    請求項1または請求項2に記載の車外環境検出装置。
  4. 前記予測部は、前記第1の距離画像に基づいて算出された前記第1の車両画像幅、および前記第2のステレオ画像における前記選択画像に基づいて算出された前記第2の車両画像幅に基づいて、前記車外環境検出装置が搭載された自車両の走行速度および前記対象車両の走行速度の間の相対速度を算出し、前記相対速度に基づいて、前記第1の予測処理または前記第2の予測処理を選択的に行う
    請求項3に記載の車外環境検出装置。
  5. 前記予測部は、前記第2のステレオ画像における前記選択画像に基づいて算出された前記第2の車両画像幅に基づいてしきい速度を算出し、前記相対速度と前記しきい速度とを比較し、その比較結果に基づいて、前記第1の予測処理または前記第2の予測処理を選択的に行う
    請求項4に記載の車外環境検出装置。
  6. 前記予測部は、前記相対速度の絶対値が前記しきい速度より遅い場合には、前記第1の予測処理を行う
    請求項5に記載の車外環境検出装置。
  7. 前記予測部は、前記相対速度の絶対値が前記しきい速度より速い場合には、前記第2の予測処理を行う
    請求項5または請求項6に記載の車外環境検出装置。
  8. 前記探索処理部は、前記左画像において探索された前記対象車両に対応する画像、および前記右画像において探索された前記対象車両に対応する画像のそれぞれに基づいて、車両としての確からしさを評価することにより、前記左画像および前記右画像のうちの一方を前記選択画像として選択する
    請求項1から請求項7のいずれか一項に記載の車外環境検出装置。
JP2019050980A 2019-03-19 2019-03-19 車外環境検出装置 Active JP7291505B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019050980A JP7291505B2 (ja) 2019-03-19 2019-03-19 車外環境検出装置
US16/732,977 US11460582B2 (en) 2019-03-19 2020-01-02 Vehicle exterior environment monoscopic and stereoscopic based detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050980A JP7291505B2 (ja) 2019-03-19 2019-03-19 車外環境検出装置

Publications (2)

Publication Number Publication Date
JP2020154523A JP2020154523A (ja) 2020-09-24
JP7291505B2 true JP7291505B2 (ja) 2023-06-15

Family

ID=72515710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050980A Active JP7291505B2 (ja) 2019-03-19 2019-03-19 車外環境検出装置

Country Status (2)

Country Link
US (1) US11460582B2 (ja)
JP (1) JP7291505B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123462A (ja) 2006-11-16 2008-05-29 Hitachi Ltd 物体検知装置
WO2015122212A1 (ja) 2014-02-17 2015-08-20 日立オートモティブシステムズ株式会社 車載用認識装置
WO2017159082A1 (ja) 2016-03-14 2017-09-21 株式会社リコー 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP2018096798A (ja) 2016-12-12 2018-06-21 株式会社Soken 物標検出装置
JP2021508387A (ja) 2018-11-15 2021-03-04 ▲衆▼安信息技▲術▼服▲務▼有限公司Zhongan Information Technology Service Co., Ltd. 先行車との距離の検出方法及びシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061075A (ja) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡方法および侵入者監視システム
US9052386B2 (en) * 2002-02-06 2015-06-09 Nice Systems, Ltd Method and apparatus for video frame sequence-based object tracking
JP4961234B2 (ja) * 2007-03-23 2012-06-27 株式会社日立製作所 物体追跡装置
WO2013121357A1 (en) * 2012-02-15 2013-08-22 Mobileye Technologies Limited Time to collision using a camera
EP3193134B1 (en) * 2014-09-11 2022-10-12 Hitachi Astemo, Ltd. Image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123462A (ja) 2006-11-16 2008-05-29 Hitachi Ltd 物体検知装置
WO2015122212A1 (ja) 2014-02-17 2015-08-20 日立オートモティブシステムズ株式会社 車載用認識装置
WO2017159082A1 (ja) 2016-03-14 2017-09-21 株式会社リコー 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP2018096798A (ja) 2016-12-12 2018-06-21 株式会社Soken 物標検出装置
JP2021508387A (ja) 2018-11-15 2021-03-04 ▲衆▼安信息技▲術▼服▲務▼有限公司Zhongan Information Technology Service Co., Ltd. 先行車との距離の検出方法及びシステム

Also Published As

Publication number Publication date
JP2020154523A (ja) 2020-09-24
US20200301018A1 (en) 2020-09-24
US11460582B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
CN110232836B (zh) 物体识别装置以及车辆行驶控制系统
JP4763250B2 (ja) 物体検出装置
EP2422320B1 (en) Object detection device
JP6427908B2 (ja) 地図情報生成システム、方法およびプログラム
JP4962569B2 (ja) 移動物体検出装置
EP3070675B1 (en) Image processor for correcting deviation of a coordinate in a photographed image at appropriate timing
JP6302519B2 (ja) 車両の運転支援装置
JP6405778B2 (ja) 対象追跡方法及び対象追跡装置
US8160300B2 (en) Pedestrian detecting apparatus
US20170163960A1 (en) Disparity image generating device, disparity image generating method, and image
US11753002B2 (en) Vehicular control system
JP7445501B2 (ja) 画像処理装置および画像処理方法
JP5107154B2 (ja) 運動推定装置
JP3956817B2 (ja) 変位データ抽出方法及び物体検出装置
JP2009276906A (ja) 走行情報提供装置
JP5931691B2 (ja) 白線検出装置および白線検出方法
JP7291505B2 (ja) 車外環境検出装置
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP6746510B2 (ja) 駐車支援装置
US11222218B2 (en) Vehicle exterior environment detection apparatus
JP2007317128A (ja) 移動距離検出装置及び移動距離検出方法
WO2020036039A1 (ja) ステレオカメラ装置
JP6990222B2 (ja) 車外環境検出装置
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230605

R150 Certificate of patent or registration of utility model

Ref document number: 7291505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150