JP7344032B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7344032B2
JP7344032B2 JP2019133867A JP2019133867A JP7344032B2 JP 7344032 B2 JP7344032 B2 JP 7344032B2 JP 2019133867 A JP2019133867 A JP 2019133867A JP 2019133867 A JP2019133867 A JP 2019133867A JP 7344032 B2 JP7344032 B2 JP 7344032B2
Authority
JP
Japan
Prior art keywords
image
straight line
distance values
representative distance
approximate straight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019133867A
Other languages
English (en)
Other versions
JP2021018605A (ja
Inventor
秀治 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019133867A priority Critical patent/JP7344032B2/ja
Priority to US16/844,664 priority patent/US11295465B2/en
Priority to CN202010392738.2A priority patent/CN112241979A/zh
Publication of JP2021018605A publication Critical patent/JP2021018605A/ja
Application granted granted Critical
Publication of JP7344032B2 publication Critical patent/JP7344032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は、画像処理を行う画像処理装置に関する。
画像処理装置には、フレーム画像において画像領域を設定し、この画像領域における画像に基づいて、様々な処理を行うものがある。例えば、特許文献1には、物体の表面上の位置を表す3次元点の集合である3次元点群をクラスタリング処理により分割して点群クラスタを生成し、この点群クラスタに基づいて特徴量を抽出する特徴抽出装置が開示されている。
特開2019-3527号公報
画像処理装置では、フレーム画像において画像領域を適切に設定することが望まれている。
適切に画像領域を設定することができる画像処理装置を提供することが望ましい。
本開示の一実施の形態に係る画像処理装置は、代表距離算出部と、結合処理部とを備えている。代表距離算出部は、ステレオ画像に基づいて生成された、各画素での距離値を含む距離画像に基づいて、距離画像における複数の画素列に対応づけられ、それぞれが、対応する画素列における距離値の代表値である複数の代表距離値を生成するように構成される。結合処理部は、ステレオ画像に含まれる、他車両を含む1または複数の物体の画像に基づいて設定された第1の画像領域および第2の画像領域を結合する結合処理を行うことが可能に構成される。この結合処理部は、第1の画像領域および第2の画像領域が仮結合された領域である仮結合領域が、他車両のコーナー部の画像を含むかどうかを判定する判定処理を行い、仮結合領域がコーナー部の画像を含む場合に、結合処理を回避する。結合処理部は、第1の画像領域において、複数の代表距離値のうちの、第1の画像領域が属する複数の画素列に対応する第1の複数の代表距離値に基づいて第1の近似直線を生成するとともに、第1の複数の代表距離値の第1の近似直線からの第1のばらつき度合いを算出し、第2の画像領域において、複数の代表距離値のうちの、第2の画像領域が属する複数の画素列に対応する第2の複数の代表距離値に基づいて第2の近似直線を生成するとともに、第2の複数の代表距離値の第2の近似直線からの第2のばらつき度合いを算出し、第1のばらつき度合いおよび第2のばらつき度合いに基づいて判定処理を行う。
本開示の一実施の形態に係る画像処理装置によれば、第1の画像領域が属する複数の画素列に対応する第1の複数の代表距離値に基づいて第1の近似直線を生成するとともに、第1の複数の代表距離値の第1の近似直線からの第1のばらつき度合いを算出し、第2の画像領域が属する複数の画素列に対応する第2の複数の代表距離値に基づいて第2の近似直線を生成するとともに、第2の複数の代表距離値の第2の近似直線からの第2のばらつき度合いを算出し、第1のばらつき度合いおよび第2のばらつき度合いに基づいて判定処理を行うようにしたので、適切に画像領域を設定することができる。
本開示の一実施の形態に係る画像処理装置の一構成例を表すブロック図である。 距離画像の一例を表す説明図である。 代表距離値の一例を表す説明図である。 図1に示した処理部の一動作例を表す画像図である。 図1に示した処理部の一動作例を表すフローチャートである。 図1に示した処理部の一動作例を表す他の画像図である。 図1に示した分割処理部における分割処理の一例を表すフローチャートである。 図1に示した分割処理部の一動作例を表す説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した分割処理部の一動作例を表す他の説明図である。 図1に示した結合処理部における結合処理の一例を表すフローチャートである。 図1に示した結合処理部の一動作例を表す説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した処理部の一動作例を表す他の画像図である。 図1に示した処理部の一動作例を表す他の画像図である。 図1に示した結合処理部における他の結合処理の一例を表すフローチャートである。 図1に示した結合処理部における他の結合処理の一例を表す他のフローチャートである。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。 図1に示した結合処理部の一動作例を表す他の説明図である。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。
<実施の形態>
[構成例]
図1は、一実施の形態に係る画像処理装置(画像処理装置1)の一構成例を表すものである。画像処理装置1は、ステレオカメラ11と、処理部20とを有している。画像処理装置1は、自動車等の車両10に搭載される。
ステレオカメラ11は、車両10の前方を撮像することにより、互いに視差を有する一組の画像(左画像PLおよび右画像PR)を生成するように構成される。ステレオカメラ11は、左カメラ11Lと、右カメラ11Rとを有する。左カメラ11Lおよび右カメラ11Rのそれぞれは、レンズとイメージセンサとを含んでいる。左カメラ11Lおよび右カメラ11Rは、この例では、車両10の車両内において、車両10のフロントガラスの上部近傍に、車両10の幅方向に所定距離だけ離間して配置される。左カメラ11Lおよび右カメラ11Rは、互いに同期して撮像動作を行う。左カメラ11Lは左画像PLを生成し、右カメラ11Rは右画像PRを生成する。左画像PLおよび右画像PRは、ステレオ画像PICを構成する。左画像PLおよび右画像PRは互いに視差を有する。ステレオカメラ11は、所定のフレームレート(例えば60[fps])で撮像動作を行うことにより、一連のステレオ画像PICを生成するようになっている。
処理部20は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、左画像PLおよび右画像PRに含まれる、車両10の前方の車両などの様々な物体に、画像領域Rを設定することにより、物体を認識するように構成される。車両10では、例えば、処理部20が認識した物体についての情報に基づいて、例えば、車両10の走行制御を行い、あるいは、認識した物体についての情報をコンソールモニタに表示することができるようになっている。処理部20は、例えば、プログラムを実行するCPU(Central Processing Unit)、処理データを一時的に記憶するRAM(Random Access Memory)、プログラムを記憶するROM(Read Only Memory)などにより構成される。処理部20は、距離画像生成部21と、代表距離算出部22と、画像領域設定部23と、グルーピング処理部24と、分割処理部25と、結合処理部26とを有している。
距離画像生成部21は、左画像PLおよび右画像PRに基づいて、ステレオマッチング処理やフィルタリング処理などを含む所定の画像処理を行うことにより、距離画像PZを生成するように構成される。
図2は、距離画像PZの一例を表すものである。左画像PLおよび右画像PRと同様に、距離画像PZにおける横軸は、車両10の車幅方向における座標xに対応し、縦軸は、車両10の車高方向における座標yに対応する。距離画像PZの各画素Pにおける画素値は、3次元の実空間における、各画素に対応する点までの距離値(測定距離値Zmeas)に対応している。言い換えれば、各画素Pにおける画素値は、車両10の車長方向における座標zに対応している。
代表距離算出部22は、距離画像PZに基づいて、距離画像PZの画素列ごとに代表距離値Zpeakを算出するように構成される。具体的には、代表距離算出部22は、距離画像PZにおける複数の画素列を順次選択し、選択された画素列に属する複数の測定距離値Zmeasに基づいて、ヒストグラムHを生成する。そして、代表距離算出部22は、そのヒストグラムHに基づいて、選択された画素列における代表距離値Zpeakを算出する。
図3は、図2に示した距離画像PZにおけるj番目の画素列に属する複数の測定距離値Zmeasに基づいて生成されたヒストグラムHjの一例を表すものである。横軸は座標zの値を示し、縦軸は頻度を示す。代表距離算出部22は、頻度が一番高い座標zの値を代表距離値Zpeakとして得る。代表距離算出部22は、全ての画素列に対して、このようなヒストグラムHをそれぞれ生成することにより、代表距離値Zpeakをそれぞれ算出するようになっている。
画像領域設定部23は、距離画像PZに基づいて複数の画像領域Rを設定するように構成される。具体的には、画像領域設定部23は、距離画像PZにおいて、測定距離値Zmeasが連続する複数の画素Pが1つの画像領域Rに属するように、画像領域Rを設定する。
図4は、画像領域Rの一例を表すものである。この例では、ステレオ画像PICにおける左画像PLは、自車両である車両10の前方における2台の車両9A,9Bの画像を含んでいる。なお、この例では左画像PLを用いて説明するが、右画像PRおよび距離画像PZについても同様である。
車両9Aは、車両10の前方を道路に沿って走行しており、この左画像PLは、車両9Aの背面の画像を含んでいる。車両9Aの背面において、距離画像PZにおける測定距離値Zmeasは連続するので、画像領域設定部23は、車両9Aの背面に画像領域R(画像領域RA)を設定している。
車両9Bは、横から車両10の前に入り込んできている。この車両9Bは、道路の延伸方向からずれた方向を向いているので、左画像PLは、車両9Bの側面101の画像、車両9Bの背面102の画像、および車両9Bの側面101と背面102との間のコーナー部103の画像を含んでいる。この例では、車両9Aの側面101、背面102、およびコーナー部103において、距離画像PZにおける測定距離値Zmeasは連続するので、画像領域設定部23は、車両9Bの側面101、背面102、およびコーナー部103に1つの画像領域R(画像領域R1)を設定している。
グルーピング処理部24は、現在のステレオ画像PICに基づく処理において、過去のステレオ画像PICに基づく処理を参考にして、複数の画像領域Rを結合することにより1つの画像領域Rを設定するように構成される。具体的には、例えば、現在のステレオ画像PICにおいて、ある1つの車両に対して複数の画像領域Rが設定されており、1つ前のステレオ画像PICに基づく処理において、その車両に対して1つの画像領域Rが設定されていた場合に、グルーピング処理部24は、それらの複数の画像領域Rを結合することにより1つの画像領域Rを設定するようになっている。
分割処理部25は、画像領域Rにおける複数の代表距離値Zpeakに基づいて、所定の条件を満たした場合に、その画像領域Rを2つの画像領域Rに分割する領域分割処理Aを行うように構成される。領域分割処理Aは、分割処理A1を含んでいる。分割処理部25は、この分割処理A1において、例えば、ある画像領域R(画像領域R1)が属する複数の画素列に対応する複数の代表距離値Zpeakに基づいて、その画像領域R1が車両のコーナー部の画像を含むかどうかを判定する。そして、分割処理部25は、その画像領域R1がそのコーナー部の画像を含む場合に、その画像領域R1をそのコーナー部に基づいて2つの画像領域R(画像領域R2,R3)に分割する。すなわち、分割処理部25は、図4の例では、画像領域R1が車両9Bのコーナー部103を含むと判定することにより、その画像領域R1を、車両9Bの側面101の画像を含む画像領域R2と、車両9Bの背面102の画像を含む画像領域R3とに分割するようになっている。
結合処理部26は、2つの画像領域Rのそれぞれにおける複数の代表距離値Zpeakに基づいて、所定の条件を満たした場合に、それらの2つの画像領域Rを結合する領域結合処理Bを行うように構成される。
領域結合処理Bは、結合処理B1を含んでいる。結合処理部26は、この結合処理B1において、ある画像領域R(画像領域R4)に含まれる画像に対応する3次元の実空間での部分と、他のある画像領域R(画像領域R5)に含まれる画像に対応する3次元の実空間での部分とが互いに近い場合に、その2つの画像領域R4,R5を結合することにより1つの画像領域R(画像領域R6)を設定する。また、結合処理部26は、例えば、2つの画像領域R4,R5が仮結合された領域が車両のコーナー部の画像を含むかどうかを判定する。そして、結合処理部26は、その領域がそのコーナー部の画像を含む場合に、これらの2つの画像領域R4,R5を結合しないようになっている。
また、領域結合処理Bは、結合処理B2を含んでいる。結合処理部26は、この結合処理B2において、ある画像領域R(画像領域R7)に含まれる画像に対応する3次元の実空間での部分と、他のある画像領域R(画像領域R8)に含まれる画像に対応する3次元の実空間での部分とが互いに少し離れている場合でも、所定の条件を満たした場合に、その2つの画像領域R7,R8を結合することにより1つの画像領域R(画像領域R9)を設定する。例えば、結合処理部26は、互いに離間する2つの画像領域R7,R8の両方が、ある1つの車両の側面における互いに異なる部分の画像を含むかどうかを判定する。そして、結合処理部26は、2つの画像領域R7,R8の両方が、その車両の側面における互いに異なる部分の画像を含む場合に、2つの画像領域R7,R8を結合することにより画像領域R9を設定する。具体的には、後述するように、例えば、画像領域R7がバスのように車長が長い車両の側面における前部の画像を含み、画像領域R8がその車両の側面における後部の画像を含む場合があり得る。すなわち、例えば、バスの側面は、パターンマッチングを行いにくいので、距離画像生成部21は、精度が高い距離画像PZを生成しにくい。この場合には、バスの側面の前部および側面の後部に、別々の画像領域R7,R8がそれぞれ設定されることがあり得る。このような場合には、結合処理部26は、その2つの画像領域R7,R8を結合することにより1つの画像領域R9を設定することができるようになっている。
このようにして、処理部20は、車両10の前方の車両を認識する。そして、処理部20は、その認識結果についての情報を出力するようになっている。
この構成により、画像処理装置1では、分割処理部25は、分割処理A1において、ある画像領域R(画像領域R1)が、車両のコーナー部の画像を含む場合に、その画像領域R1を、車両の側面の画像を含む画像領域R(画像領域R2)と、車両の背面の画像を含む画像領域R(画像領域R3)とに分割する。結合処理部26は、結合処理B1において、これらの画像領域R2および画像領域R3が仮結合された領域が車両のコーナー部の画像を含むので、これらの画像領域R2および画像領域R3を結合しない。これにより、画像処理装置1では、車両の側面とその車両の背面に、別々の画像領域R2,R3をそれぞれ設定することができるので、その車両を側面と背面とに分けて認識することができる。
また、画像処理装置1では、結合処理部26は、結合処理B2において、ある画像領域R(画像領域R7)がバスの側面における前部の画像を含み、他のある画像領域R(画像領域R8)がバスの側面における後部の画像を含む場合に、その2つの画像領域R7,R8を結合することにより1つの画像領域R(画像領域R9)を設定する。これにより、画像処理装置1では、1つの車両の側面に1つの画像領域R9を設定することができるので、その車両の側面をまとまった1つのものとして認識することができるようになっている。
ここで、代表距離算出部22は、本開示における「代表距離算出部」の一具体例に対応する。測定距離値Zmeasは、本開示における「距離値」の一具体例に対応する。代表距離値Zpeakは、本開示における「代表距離値」の一具体例に対応する。画像領域設定部23は、本開示における「画像領域設定部」の一具体例に対応する。結合処理部26は、本開示における「結合処理部」の一具体例に対応する。結合処理B1は、本開示における「結合処理」の一具体例に対応する。画像領域R4および画像領域R5は、本開示における「第1の画像領域」および「第2の画像領域」の一具体例に対応する。分割処理部25は、本開示における「分割処理部」の一具体例に対応する。分割処理A1は、本開示における「分割処理」の一具体例に対応する。画像領域R1は、本開示における「第3の画像領域」の一具体例に対応する。
[動作および作用]
続いて、本実施の形態の画像処理装置1の動作および作用について説明する。
(全体動作概要)
まず、図1を参照して、画像処理装置1の全体動作概要を説明する。ステレオカメラ11は、車両10の前方を撮像することにより、左画像PLおよび右画像PRを含むステレオ画像PICを生成する。処理部20は、ステレオカメラ11から供給されたステレオ画像PICに基づいて、左画像PLおよび右画像PRに含まれる、車両10の前方の車両などの様々な物体のそれぞれに、画像領域Rを設定することにより、物体を認識する。
(詳細動作)
図5は、処理部20の一動作例を表すものである。処理部20は、ステレオカメラ11からステレオ画像PICが供給される度に、そのステレオ画像PICに基づいて、距離画像PZを生成し、この距離画像PZに基づいて複数の画像領域Rを設定する。そして、処理部20は、1つの画像領域Rを分割し、あるいは2つの画像領域Rを結合することにより、1または複数の画像領域Rを設定する。以下に、この処理について詳細に説明する。
まず、距離画像生成部21は、ステレオ画像PICに含まれる左画像PLおよび右画像PRに基づいて、ステレオマッチング処理やフィルタリング処理などを含む所定の画像処理を行うことにより、距離画像PZを生成する(ステップS101)。
次に、代表距離算出部22は、距離画像PZに基づいて、距離画像PZの画素列ごとに代表距離値Zpeakを算出する(ステップS102)。具体的には、代表距離算出部22は、距離画像PZにおける複数の画素列を順次選択し、選択された画素列に属する複数の測定距離値Zmeasに基づいて、ヒストグラムH(図3)を生成する。そして、代表距離算出部22は、そのヒストグラムHにおいて、頻度が一番高い座標zの値を代表距離値Zpeakとして得る。代表距離算出部22は、全ての画素列に対して、ヒストグラムHをそれぞれ生成することにより、画素列ごとに代表距離値Zpeakをそれぞれ算出する。
次に、画像領域設定部23は、距離画像PZに基づいて複数の画像領域Rを設定する(ステップS103)。具体的には、画像領域設定部23は、距離画像PZにおいて、測定距離値Zmeasが連続する複数の画素Pが1つの画像領域Rに属するように、画像領域Rを設定する。
次に、グルーピング処理部24は、現在のステレオ画像PICに基づく処理において、過去のステレオ画像PICに基づく処理を参考にして、複数の画像領域Rを結合することにより1つの画像領域Rを設定する(ステップS104)。具体的には、例えば、現在のステレオ画像PICにおいて、ある1つの車両に対して複数の画像領域Rが設定されており、1つ前のステレオ画像PICに基づく処理において、その車両に対して1つの画像領域Rが設定されていた場合に、グルーピング処理部24は、それらの複数の画像領域Rを結合することにより1つの画像領域Rを設定する。
次に、分割処理部25は、画像領域Rに係る複数の代表距離値Zpeakに基づいて、所定の条件を満たした場合に、その画像領域Rを2つの画像領域Rに分割する領域分割処理Aを行う(ステップS105)。この領域分割処理Aに含まれる分割処理A1については、詳細に後述する。
次に、結合処理部26は、2つの画像領域Rのそれぞれに係る複数の代表距離値Zpeakに基づいて、所定の条件を満たした場合に、それらの2つの画像領域Rを結合する領域結合処理Bを行う(ステップS106)。この領域結合処理Bに含まれる結合処理B1,B2については、詳細に後述する。
以上で、このフローは終了する。
(分割処理A1)
次に、図5のステップS105に示した領域分割処理Aに含まれる、分割処理A1について詳細に説明する。
分割処理部25は、この分割処理A1において、例えば、ある画像領域R(画像領域R1)が属する複数の画素列に対応する複数の代表距離値Zpeakに基づいて、その画像領域R1が車両のコーナー部の画像を含むかどうかを判定する。そして、分割処理部25は、その画像領域R1がそのコーナー部の画像を含む場合に、その画像領域R1をそのコーナー部に基づいて2つの画像領域R(画像領域R2,R3)に分割する。
図6は、図4に示した画像領域R1がこの分割処理A1により分割されることにより設定された画像領域R2,R3の一例を表すものである。図4に示したように、画像領域R1は、車両9Bの側面101の画像と、車両9Bの背面102の画像と、車両9Bのコーナー部103の画像とを含んでいる。分割処理部25は、その画像領域R1がそのコーナー部の画像を含むと判定する。そして、分割処理部25は、このコーナー部103に基づいて、図6に示したように、画像領域R1を、車両9Bの側面101の画像を含む画像領域R2と、車両9Bの背面102の画像を含む画像領域R3とに分割する。これにより、処理部20は、車両9Bを側面と背面とに分けて認識することができる。
図7は、分割処理A1の一例を表すものである。
まず、分割処理部25は、複数の画像領域Rのうち、処理対象となる画像領域R(画像領域R1)を選択する(ステップS111)。
次に、分割処理部25は、画像領域R1における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出し、これらの複数の代表距離値Zpeakの、その近似直線Lからの分散値Vを算出する(ステップS112)。
図8は、ステップS112における処理の一例を表すものである。横軸は座標xを示し、縦軸は座標zを示す。この図8では、このようなx-z座標面において、画像領域R1が属する複数の画素列に対応する複数の代表距離値Zpeakを示す複数の座標点がプロットされている。分割処理部25は、これらの複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L0を算出する。そして、分割処理部25は、これらの複数の代表距離値Zpeakの、近似直線L0からの分散値V0を算出する。
次に、分割処理部25は、この画像領域R1において仮分割位置POSを設定して、画像領域R1に対して仮分割を行い(ステップS113)、仮分割された各領域において、その領域における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出し、これらの複数の代表距離値Zpeakの、その近似直線Lからの分散値Vを算出する(ステップS114)。所定回数Nだけ仮分割を行っていない場合(ステップS115において“N”)には、ステップS113に戻る。そして、所定回数Nだけ仮分割を行うまで、ステップS113~S115の処理を繰り返す。
図9A~9Eは、ステップS113~S115における処理の一例を表すものである。この例では、所定回数Nは“5”であり、分割処理部25は、画像領域R1において5つの仮分割位置POS(仮分割位置POS1~POS5)を設定している。
例えば、図9Aに示したように、分割処理部25は、仮分割位置POS1において仮分割を行う。そして、分割処理部25は、この仮分割位置POS1の左の領域における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L11を算出し、これらの複数の代表距離値Zpeakの、近似直線L11からの分散値V11を算出する。また、分割処理部25は、この仮分割位置POS1の右の領域における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L12を算出し、これらの複数の代表距離値Zpeakの、近似直線L12からの分散値V12を算出する。
同様に、分割処理部25は、仮分割位置POS2(図9B)において仮分割を行うことにより、近似直線L21,L22および分散値V21,V22を算出し、仮分割位置POS2(図9C)において仮分割を行うことにより、近似直線L31,L32および分散値V31,V32を算出し、仮分割位置POS4(図9D)において仮分割を行うことにより、近似直線L41,L42および分散値V41,V42を算出し、仮分割位置POS5(図9E)において仮分割を行うことにより、近似直線L51,L52および分散値V51,V52を算出する。
次に、分割処理部25は、近似直線Lからのばらつき度合いが最も小さい仮分割位置POSを選択する(ステップS116)。近似直線Lからのばらつき度合いは、例えば、以下の式を用いて評価することができる。
Figure 0007344032000001
ここで、σ1は、仮分割位置POS1において仮分割を行った場合における近似直線L11,L12からのばらつき度合いである。このばらつき度合いσ1は、仮分割位置POS1の左の領域における分散値V11の平方根と、仮分割位置POS1の右の領域における分散値V12の和である。言い換えれば、このばらつき度合いσ1は、仮分割位置POS1の左の領域における標準偏差と、仮分割位置POS1の右の領域における標準偏差の和である。同様に、σ2は、仮分割位置POS2において仮分割を行った場合における近似直線L21,L22からのばらつき度合いであり、σ3は、仮分割位置POS3において仮分割を行った場合における近似直線L31,L32からのばらつき度合いであり、σ4は、仮分割位置POS4において仮分割を行った場合における近似直線L41,L42からのばらつき度合いであり、σ5は、仮分割位置POS5において仮分割を行った場合における近似直線L51,L52からのばらつき度合いである。分割処理部25は、このばらつき度合いσ1~σ5のうちの最も小さいばらつき度合いσが得られた仮分割位置POSを選択する。図9A~9Eの例では、分割処理部25は、仮分割位置POS4を選択する。
次に、分割処理部25は、ステップS116において選択した仮分割位置POSに基づいて、車両のコーナー部の位置(コーナー位置CP)を推定する(ステップS117)。
図10は、ステップS117における処理の一例を表すものである。この例では、分割処理部25は、選択された仮分割位置POS4の左の領域における近似直線L41を、仮分割位置POS4の右の領域に向かって延長させるとともに、選択された仮分割位置POS4の右の領域における近似直線L42を、仮分割位置POS4の左の領域に向かって延長させる。延長された近似直線L41と、延長された近似直線L42とが互いに交差する位置は、コーナー位置CPに対応する。すなわち、横軸は、自車両である車両10の車幅方向における座標xを示し、縦軸は、車両10の車長方向における座標zを示すので、このx-z平面において、近似直線L41は、図4に示した車両9Bの側面101に対応し、近似直線L42は、この車両9Bの背面102に対応する。よって、延長された近似直線L41と、延長された近似直線L42とが互いに交差する位置は、車両9Bのコーナー部103の位置に対応する。このようにして、分割処理部25は、コーナー位置CPを推定する。
次に、分割処理部25は、ステップS117において推定したコーナー位置CPに基づいて画像領域R1を分割する際の、所定の分割条件を満たすかどうかを判定する(ステップS118)。所定の分割条件は、例えば、以下の5つの条件を含むことができ、分割処理部25は、例えば、これらの5つの条件を満たした場合に、所定の分割条件を満たすと判定する。
第1の条件は、ステップS117において推定されたコーナー位置CPのx座標が画像領域R1に位置していることである。すなわち、この第1の条件を満たすことは、画像領域R1がコーナー部の画像を含んでいる可能性が高いことを示しているので、この第1の条件は分割条件になり得る。
第2の条件は、コーナー位置CPのx座標で画像領域R1を分割した場合における、近似直線Lからの分散値Vが、ステップS112において算出した分散値V0よりも小さいことである。すなわち、この第2の条件を満たすことは、分割により2つの画像領域R(画像領域R2,R3)がより適切に設定されることを示しているので、この第2の条件は分割条件になり得る。
第3の条件は、ステップS117において使用された2つの近似直線Lのなす角θ(図10)が、90度を含む所定の角度範囲の範囲内であることである。すなわち、これらの2つの近似直線Lは、車両の側面および背面に対応するので、2つの近似直線Lのなす角θは、約90度になることが期待される。この第3の条件を満たすことは、画像領域R1がコーナー部の画像を含んでいる可能性が高いことを示しているので、この第3の条件は分割条件になり得る。
第4の条件は、画像領域R1における、コーナー位置CPのx座標よりも左の領域の幅が所定の幅以上であることと、コーナー位置CPのx座標よりも右の領域の幅が所定の幅以上であることである。すなわち、この第4の条件を満たすことは、分割により設定される2つの画像領域R(画像領域R2,R3)の大きさがある程度の大きさになることを示しているので、この第4の条件は分割条件になり得る。
第5の条件は、ステップS112において算出した分散値V0が所定の値以上であることである。すなわち、この第5の条件を満たすことは、1本の近似直線L0を用いて近似することが適切でないことを示しており、言い換えれば、画像領域R1がコーナー部の画像を含んでいる可能性が高いことを示している。よって、この第5の条件は分割条件になり得る。
分割処理部25は、このような複数の条件を全て満たす場合には、所定の分割条件を満たすと判定する。言い換えれば、分割処理部25は、画像領域R1がコーナー部の画像を含んでいると判定する。
ステップS118において、所定の分割条件を満たさない場合(ステップS118において“N”)には、このフローは終了する。また、所定の分割条件を満たす場合(ステップS118において“Y”)には、分割処理部25は、ステップS117において推定されたコーナー位置CPのx座標を分割位置POSCとして設定し、この分割位置POSCで、画像領域R1を2つの画像領域R2,R3に分割する(ステップS119)。
以上で、この分割処理A1は終了する。分割処理部25は、複数の画像領域Rのうち、処理対象となる画像領域R1を順次選択し、選択された画像領域R1に対してこのような分割処理A1を行う。
画像処理装置1では、図4に示したように、画像領域R1が、車両のコーナー部の画像を含む場合には、所定の分割条件を満たすので(ステップS118において“Y”)、分割処理部25は、その画像領域R1を、車両の側面の画像を含む画像領域R2と、車両の背面の画像を含む画像領域R3とに分割する。これにより、画像処理装置1では、車両の側面とその車両の背面に、別々の画像領域R2,R3をそれぞれ設定することができるので、その車両を側面と背面とに分けて認識することができる。
(結合処理B1)
次に、図5のステップS106に示した領域結合処理Bに含まれる、結合処理B1について詳細に説明する。
結合処理部26は、この結合処理B1において、ある画像領域R(画像領域R4)に含まれる画像に対応する3次元の実空間での部分と、他のある画像領域R(画像領域R5)に含まれる画像に対応する3次元の実空間での部分とが互いに近い場合に、その2つの画像領域R4,R5を結合することにより1つの画像領域R(画像領域R6)を設定する。また、結合処理部26は、例えば、2つの画像領域R4,R5が仮結合された領域が車両のコーナー部の画像を含むかどうかを判定する。そして、結合処理部26は、その領域がそのコーナー部の画像を含む場合に、これらの2つの画像領域R4,R5の結合を回避する。
図11は、結合処理B1の一例を表すものである。
まず、結合処理部26は、複数の画像領域Rのうち、処理対象となる2つの画像領域R(画像領域R4,R5)を選択する(ステップS121)。具体的には、結合処理部26は、複数の画像領域Rのうち、画像領域Rに含まれる画像に対応する3次元の実空間での距離が互いに所定の距離よりも近い2つの画像領域R4,R5を選択する。
次に、結合処理部26は、画像領域R4,R5に対して仮結合を行い、仮結合された領域における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出する(ステップS122)。
図12は、ステップS122における処理の一例を表すものである。この図12では、x-z座標面において、画像領域R4,R5が属する複数の画素列に対応する複数の代表距離値Zpeakを示す座標点がプロットされている。結合処理部26は、これらの複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L100を算出する。
次に、結合処理部26は、画像領域R4,R5のそれぞれにおいて、複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出し、複数の代表距離値Zpeakの、その近似直線Lからの分散値Vを算出する(ステップS123)。
図13は、ステップS123における処理の一例を表すものである。結合処理部26は、画像領域R4における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L101を算出し、これらの複数の代表距離値Zpeakの、近似直線L101からの分散値V101を算出する。同様に、結合処理部26は、画像領域R5における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線L102を算出し、これらの複数の代表距離値Zpeakの、近似直線L102からの分散値V102を算出する。
次に、結合処理部26は、画像領域R4,R5のそれぞれにおいて、ステップS122において算出した近似直線Lの傾きおよび切片を用いて直線Mを算出し、複数の代表距離値Zpeakの、その直線からの分散値Vを算出する(ステップS124)。
図14は、ステップS124における処理の一例を表すものである。結合処理部26は、画像領域R4において、ステップS122において算出した近似直線Lの傾きおよび切片を用いて直線M111を算出し、複数の代表距離値Zpeakの、この直線M111からの分散値V111を算出する。この分散値V111は、画像領域R4における複数の代表距離値Zpeakの、近似直線L100からの分散値Vである。同様に、結合処理部26は、画像領域R5において、ステップS122において算出した近似直線Lの傾きおよび切片を用いて直線M112を算出し、複数の代表距離値Zpeakの、この直線M112からの分散値V112を算出する。この分散値V112は、画像領域R5における複数の代表距離値Zpeakの、近似直線L100からの分散値Vである。
次に、結合処理部26は、仮結合された領域において、複数の代表距離値Zpeakの、ステップS122において算出した近似直線Lからの分散値Vを算出する(ステップS125)。
図15は、ステップS125における処理の一例を表すものである。結合処理部26は、仮結合された領域において、複数の代表距離値Zpeakの、ステップS122において算出した近似直線L100からの分散値V100を算出する。
次に、結合処理部26は、仮結合を行うことによる分散値Vの変化率を算出する(ステップS126)。分散値Vの変化率は、例えば、以下のような3つの変化率を含むことができる。
第1の変化率は、仮結合されることによる、全体領域における分散値Vの変化率である。具体的には、この第1の変化率は、例えば、画像領域R4における分散値V101および画像領域R5における分散値V102(図13)の和から、仮結合された領域における分散値V100(図15)への変化率である。
第2の変化率は、仮結合されることによる、画像領域R4における分散値Vの変化率である。具体的には、第2の変化率は、例えば、画像領域R4における、近似直線L101からの分散値V101(図13)から、画像領域R4における、直線M111からの分散値V111(図14)への変化率である。
第3の変化率は、仮結合されることによる、画像領域R5における分散値Vの変化率である。具体的には、第3の変化率は、例えば、画像領域R5における、近似直線L102からの分散値V101(図13)から、画像領域R5における、直線M112からの分散値V112(図14)への変化率である。
次に、結合処理部26は、画像領域R4,R5を結合する際の、所定の結合条件を満たすかどうかを判定する(ステップS127)。所定の結合条件は、例えば、以下の3つの条件を含むことができ、結合処理部26は、例えば、これらの3つの条件を満たした場合に、所定の結合条件を満たすと判定する。第1の条件は、第1の変化率が所定の第1のしきい値より小さいことである。第2の条件は、第2の変化率が所定の第2のしきい値より小さいことである。第3の条件は、第3の変化率が所定の第3のしきい値よりも小さいことである。結合処理部26は、このような複数の条件を全て満たすかどうかを判定することにより、所定の結合条件を満たすかどうかを判定する。
ステップS127において、所定の結合条件を満たさない場合(ステップS127において“N”)には、このフローは終了する。また、所定の結合条件を満たす場合(ステップS127において“Y”)には、結合処理部26は、画像領域R4および画像領域R5を結合することにより画像領域R6を設定する(ステップS128)。
以上で、この結合処理B1は終了する。結合処理部26は、処理対象となる2つの画像領域R4,R5を順次選択し、選択された2つの画像領域R4,R5に対してこのような結合処理B1を行う。
画像処理装置1では、例えば、図7に示した分割処理A1で説明したように、画像領域R1が、車両のコーナー部の画像を含む場合には、その画像領域R1は、車両の側面の画像を含む画像領域R2と、車両の背面の画像を含む画像領域R3とに分割される。この場合には、結合処理B1において、これらの画像領域R2および画像領域R3を結合すると分散値Vが大きくなり、所定の結合条件を満たさないので(ステップS127において“N”)、結合処理部26は、これらの画像領域R2および画像領域R3を結合しない。この所定の結合条件は、仮結合された領域が車両のコーナー部の画像を含まない条件である。すなわち、この画像領域R2,R3の例では、この所定の結合条件を満たさないので、仮結合された領域が車両のコーナー部の画像を含むと判定する。よって、結合処理部26は、画像領域R2および画像領域R3を結合しない。これにより、画像処理装置1では、分割処理A1で分割することにより設定された画像領域R2,R3が、この結合処理B1において結合されることを防ぐことができる。
(結合処理B2)
次に、図5のステップS106に示した領域結合処理Bに含まれる、結合処理B2について詳細に説明する。
結合処理部26は、この結合処理B2において、互いに離間する2つの画像領域R(画像領域R7,R8)の両方が、ある1つの車両の側面における互いに異なる部分の画像を含むかどうかを判定する。そして、2つの画像領域R7,R8の両方が、その車両の側面における互いに異なる部分の画像を含む場合には、結合処理部26は、2つの画像領域R7,R8を結合することにより画像領域R9を設定する。
図16Aは、画像領域R7,R8の一例を表すものである。図16Bは、この結合処理B2によりこれらの画像領域R7,R8が結合されることにより設定された画像領域R9の一例を表すものである。この例では、ステレオ画像PICにおける左画像PLは、自車両である車両10の前方における車両9Cの画像を含んでいる。なお、この例では左画像PLを用いて説明するが、右画像PRおよび距離画像PZについても同様である。
車両9Cは、車長が長い車両であり、この例ではバスである。この車両9Cは、横から車両10の前に入り込んできている。この車両9Cは、道路の延伸方向からずれた方向を向いているので、左画像PLは、車両9Cの側面の画像を含んでいる。画像領域設定部23は、車両9Cの側面に1つの画像領域Rを設定するのが望ましい。しかしながら、例えば、バスの側面は、パターンマッチングを行いにくいので、距離画像生成部21は、精度が高い距離画像PZを生成しにくい。具体的には、距離画像生成部21は、例えば、バスの側面の中央付近において、座標zの値を算出しにくい。これにより、代表距離算出部22が、距離画像PZにおける、バスの側面の中央付近に対応するある画素列でのヒストグラムHを生成する際、データの数が不十分になり得る。この場合には、代表距離算出部22は、代表距離値Zpeakを算出できない。よって、バスの側面の中央付近に対応する画素列では、代表距離値Zpeakが欠損する。その結果、画像領域設定部23は、図16Aに示したように、1つの車両9Cの側面に対して2つの画像領域R7,R8を設定し得る。
結合処理部26は、この結合処理B2において、2つの画像領域R7,R8の両方が、ある1つの車両の側面における互いに異なる部分の画像を含むと判定する。そして、結合処理部26は、図16Bに示したように、これらの画像領域R7,R8を結合することにより、画像領域R9を設定する。これにより、処理部20は、車両9Cの側面をまとまった1つのものとして認識することができる。
図17A,17Bは、結合処理B2の一例を表すものである。この結合処理B2におけるステップS132~S137は、図11に示した結合処理B1におけるステップS122~S127と同様である。
まず、結合処理部26は、複数の画像領域Rのうち、処理対象となる2つの画像領域R(画像領域R7,R8)を選択する(ステップS131)。結合処理部26は、画像の左端から中央に向かって、2つの画像領域Rを順次選択し、画像の右端から中央に向かって、2つの画像領域Rを順次選択する。その後に、結合処理部26は、再度、画像の左端から中央に向かって、2つの画像領域Rを順次選択し、画像の右端から中央に向かって、2つの画像領域Rを順次選択する。
次に、結合処理部26は、画像領域R7,R8に対して仮結合を行い、仮結合された領域における複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出する(ステップS132)。
図18は、ステップS132における処理の一例を表すものである。この図18では、x-z座標面において、画像領域R7,R8が属する複数の画素列に対応する複数の代表距離値Zpeakを示す座標点がプロットされている。結合処理部26は、これらの複数の座標点に基づいて、最小二乗法により近似直線L200を算出する。
次に、結合処理部26は、画像領域R7,R8のそれぞれにおいて、複数の代表距離値Zpeakに基づいて、最小二乗法により近似直線Lを算出し、複数の代表距離値Zpeakの、その近似直線Lからの分散値Vを算出する(ステップS133)。
次に、結合処理部26は、画像領域R7,R8のそれぞれにおいて、ステップS132において算出した近似直線Lの傾きおよび切片を用いて直線Mを算出し、複数の代表距離値Zpeakの、その直線からの分散値Vを算出する(ステップS134)。
次に、結合処理部26は、仮結合された領域において、複数の代表距離値Zpeakの、ステップS132において算出した近似直線Lからの分散値Vを算出する(ステップS135)。
次に、結合処理部26は、仮結合を行うことによる分散値Vの変化率を算出する(ステップS136)。
次に、結合処理部26は、画像領域R4,R5を結合する際の、所定の結合条件を満たすかどうかを判定する(ステップS137)。ステップS137において、所定の結合条件を満たさない場合(ステップS137において“N”)には、このフローは終了する。
ステップS137において、所定の結合条件を満たす場合(ステップS137において“Y”)には、結合処理部26は、画像領域R7における代表距離値Zpeakを示す座標点と、画像領域R8における代表距離値Zpeakを示す座標点との間の領域間距離DAを算出する(ステップS138)。具体的には、結合処理部26は、図18に示したように、x-z座標面において、画像領域R7における代表距離値Zpeakを示す座標点のうちの画像領域R8に最も近い座標点と、画像領域R8における代表距離値Zpeakを示す座標点のうちの画像領域R7に最も近い座標点との間の、近似直線L200に沿った距離を、領域間距離DAとして算出する。
次に、結合処理部26は、領域間距離DAが所定のしきい値Dth以内であるかどうかを確認する(ステップS139)。領域間距離DAが所定のしきい値Dth以内である場合(ステップS139において“Y”)には、ステップS146に進む。
ステップS139において、領域間距離DAが所定のしきい値Dth以内ではない場合(ステップS139において“N”)には、結合処理部26は、距離画像PZにおける各画素Pでの測定距離値Zmeasのうちの、画像領域R7および画像領域R8の間の各画素Pでの測定距離値Zmeasを示す座標点Qを、x-z座標面にプロットする(ステップS140)。
図19は、ステップS140における処理の一例を表すものである。この例では、画像領域R7および画像領域R8の間の各画素Pでの測定距離値Zmeasに基づいて、5つの座標点Qをプロットしている。なお、この例では、説明の便宜上、5つの座標点Qをプロットしたが、実際には、より多くの座標点Qがプロットされ得る。これらの座標点Qは、距離画像生成部21が生成した測定距離値Zmeasを示すので、この図19に示したように、近似直線L200から少し離れることがあり得る。
次に、結合処理部26は、x-z座標面において、ステップS140においてプロットした座標点Qを、近似直線L200上に移動させる(ステップS141)。
図20は、ステップS141における処理の一例を表すものである。この例では、結合処理部26は、ステップS140においてプロットされた座標点Qを、近似直線L200と直交する方向において、近似直線L200に向かって移動させる。その結果、移動後の座標点Qは、近似直線L200の直線上に配置される。
次に、結合処理部26は、近似直線L200上の複数の座標点Qの密度を算出し、これらの複数の座標点Qのうちの、密度が低い領域における座標点Qを削除する(ステップS142)。
図21は、ステップS142における処理の一例を表すものである。この例では、ステップS141において近似直線L200上に移動した5つの座標点Qのうち、中央の座標点Qは、密度が低い領域にあるので、結合処理部26はこの座標点Qを削除している。
次に、結合処理部26は、複数の座標点Qのうち、近似直線L200上の複数の座標点Qを、画像領域R7に対応するグループG7、または画像領域R8に対応するグループG8に区分する(ステップS143)。
次に、結合処理部26は、グループG7における座標点QおよびグループG8における座標点Qの間の、近似直線L200に沿ったグループ間距離DBを算出する(ステップS144)。具体的には、結合処理部26は、図21に示したように、x-z面において、グループG7における座標点QのうちのグループG8に近い座標点Qと、グループG8における座標点QのうちのグループG7に近い座標点Qの間の、近似直線L200に沿った距離を、グループ間距離DBとして算出する。
次に、結合処理部26は、グループ間距離DBが所定のしきい値Dth以内であるかどうかを確認する(ステップS145)。グループ間距離DBが所定のしきい値Dth以内ではない場合(ステップS145において“N”)には、このフローは終了する。
そして、結合処理部26は、画像領域R7および画像領域R8を結合することにより画像領域R9を設定する(ステップS146)。
以上で、この結合処理B2は終了する。結合処理部26は、処理対象となる2つの画像領域R7,R8を順次選択し、選択された2つの画像領域R7,R8に対してこのような結合処理B2を行う。
画像処理装置1では、図16Aに示したように、互いに離間する2つの画像領域R7,R8の両方が、ある1つの車両の側面における互いに異なる部分の画像を含む場合には、これらの画像領域R7,R8を結合しても、分散値Vをある程度小さい値に抑えることができるので、所定の結合条件を満たす(ステップS137において“Y”)。この場合において、例えば、画像領域R7における画像が示す車両の側面の部分と、画像領域R8における画像が示す車両の側面の部分とが互いに近い場合には、領域間距離DAが所定のしきい値Dth以内(ステップS139において“Y”)になるので、結合処理部26は、2つの画像領域R7,R8を結合することにより画像領域R9を設定する。一方、画像領域R7における画像が示す車両の側面の部分と、画像領域R8における画像が示す車両の側面の部分とがやや離れている場合には、領域間距離DAが所定のしきい値Dthよりも長くなり得る(ステップS139において“N”)。この場合でも、画像領域R7および画像領域R8の間の各画素Pでの測定距離値Zmeasを用いて、グループ間距離DBを算出し、このグループ間距離DBが所定のしきい値Dth以内である場合(ステップS145において“Y”)に、2つの画像領域R7,R8を結合することにより画像領域R9を設定する。これにより、画像処理装置1では、1つの車両の側面に1つの画像領域R9を設定することができるので、その車両の側面をまとまった1つのものとして認識することができる。
ここで、近似直線L101は、本開示における「第1の近似直線」の一具体例に対応する。近似直線L102は、本開示における「第2の近似直線」の一具体例に対応する。近似直線L100は、本開示における「第3の近似直線」の一具体例に対応する。近似直線L41は、本開示における「第4の近似直線」の一具体例に対応する。近似直線L42は、本開示における「第5の近似直線」の一具体例に対応する。近似直線L0は、本開示における「第6の近似直線」の一具体例に対応する。分散値V101は、本開示における「第1のばらつき度合い」の一具体例に対応する。分散値V102は、本開示における「第2のばらつき度合い」の一具体例に対応する。分散値V100は、本開示における「第3のばらつき度合い」の一具体例に対応する。分散値V111は、本開示における「第4のばらつき度合い」の一具体例に対応する。分散値V112は、本開示における「第5のばらつき度合い」の一具体例に対応する。分散値V0は、本開示における「第6のばらつき度合い」の一具体例に対応する。分散値V41は、本開示における「第7のばらつき度合い」の一具体例に対応する。分散値V42は、本開示における「第8のばらつき度合い」の一具体例に対応する。仮分割位置POS4は、本開示における「仮分割位置」の一具体例に対応する。仮分割位置POS1~POS5は、本開示における「複数の仮分割位置」の一具体例に対応する。分割位置POSCは、本開示における「分割位置」の一具体例に対応する。
以上のように、画像処理装置1では、分割処理部25が、画像領域R1が属する複数の画素列に対応する複数の代表距離値Zpeakに基づいて、画像領域R1が他車両のコーナー部の画像を含むかどうかを判定し、この画像領域R1がコーナー部の画像を含む場合に、そのコーナー部に基づいて分割処理を行うことにより2つの画像領域R2,R3を設定するようにした。これにより、画像処理装置1では、他車両の側面とその他車両の背面に、別々の画像領域R2,R3をそれぞれ設定することができるので、その他車両を側面と背面とに分けて認識することができる。このように、画像処理装置1では、適切に画像領域Rを設定することができる。
特に、画像処理装置1では、分割処理部25は、図10に示したように、画像領域R1において仮分割位置POS(この例では仮分割位置POS4)を設定し、複数の代表距離値Zpeakを、この仮分割位置POSの左のグループとこの仮分割位置POSの右のグループに区分するようにした。そして、分割処理部25は、この仮分割位置POSの左のグループに区分された複数の代表距離値Zpeakに基づいて近似直線L(この例では近似直線L41)を生成し、この仮分割位置POSの右のグループに区分された複数の代表距離値Zpeakに基づいて近似直線L(この例では近似直線L42)を生成し、これらの近似直線Lに基づいて分割位置POSCを設定するようにした。これにより、画像処理装置1では、分割位置POSCを精度よく設定することができる。
また、画像処理装置1では、結合処理部26は、画像領域R4,R5が仮結合された領域(仮結合領域)が、他車両のコーナー部の画像を含むかどうかを判定し、この仮結合領域がコーナー部の画像を含む場合に、2つの画像領域R4,R5を結合しないようにした。これにより、画像処理装置1では、例えば、画像領域R4が他車両の側面の画像を含み、画像領域R5が他車両の背面の画像を含む場合には、これらの2つの画像領域R4,R5を結合しないので、その他車両を側面と背面とに分けて認識することができる。このように、画像処理装置1では、適切に画像領域Rを設定することができる。
特に、画像処理装置1では、図13に示したように、結合処理部26は、画像領域R4が属する複数の画素列に対応する複数の代表距離値Zpeakに基づいて近似直線L101を生成するとともに、これらの複数の代表距離値の近似直線L101からの分散値V101を算出するようにした。同様に、結合処理部26は、画像領域R5が属する複数の画素列に対応する複数の代表距離値Zpeakに基づいて近似直線L102を生成するとともに、これらの複数の代表距離値の近似直線L102からの分散値V102を算出するようにした。そして、結合処理部26は、これらの分散値Vに基づいて、仮結合領域が、他車両のコーナー部の画像を含むかどうかを判定するようにした。これにより、画像処理装置1では、仮結合により分散値Vが大きくなる場合に、他車両のコーナー部の画像を含むと判定することができ、これらの2つの画像領域R4,R5を結合しないようにすることができる。
また、画像処理装置1では、結合処理部26は、画像領域R7,R8の両方が他車両の側面の画像を含むかどうかを判定し、画像領域R7,R8の両方が他車両の側面の画像を含む場合には、2つの画像領域R7,R8を結合するようにした。これにより、画像処理装置1では、例えば、画像領域R7が他車両の側面の前部の画像を含み、画像領域R8がその他車両の側面の後部の画像を含む場合には、これらの2つの画像領域R7,R8を結合させることができるので、その他車両の側面をまとまった1つのものとして認識することができる。このように、画像処理装置1では、適切に画像領域Rを設定することができる。
特に、画像処理装置1では、結合処理部26は、図21に示したように、画像領域R7が属する複数の画素列に対応する代表距離値Zpeakと、画像領域R8が属する複数の画素列に対応する複数の代表距離値Zpeakと、画像領域R7,R8の間の各画素Pでの測定距離値Zmeasとに基づいて、画像領域R7,R8の両方が他車両の側面の画像を含むかどうかを判定するようにした。これにより、画像処理装置1では、例えばバスの側面の中央付近に対応する画素列において、代表距離値Zpeakが欠損している場合でも、測定距離値Zmeasを用いることにより、画像領域R7,R8の両方が、同じ1つの他車両の側面の画像を含むことを判定しやすくすることができ、これらの2つの画像領域R7,R8を結合させやすくすることができる。
このように、画像処理装置1では、適切に画像領域を設定することができる。これにより、車両10では、この認識結果に基づいて、例えば、自車両である車両10の走行制御をより精度良く行うことができ、あるいは、認識した物体についてのより正確な情報をコンソールモニタに表示することができる。
[効果]
以上のように本実施の形態では、画像領域R1が属する複数の画素列に対応する複数の代表距離値に基づいて、画像領域R1が他車両のコーナー部の画像を含むかどうかを判定し、この画像領域R1がコーナー部の画像を含む場合に、そのコーナー部に基づいて分割処理を行うことにより2つの画像領域R2,R3を設定するようにした。これにより、他車両の側面とその他車両の背面に、別々の画像領域R2,R3をそれぞれ設定することができるので、適切に画像領域を設定することができる。
本実施の形態では、画像領域R4,R5が仮結合された領域である仮結合領域が、他車両のコーナー部の画像を含むかどうかを判定し、この仮結合領域がコーナー部の画像を含む場合に、2つの画像領域R4,R5を結合しないようにした。これにより、例えば、画像領域R4が他車両の側面の画像を含み、画像領域R5が他車両の背面の画像を含む場合には、これらの2つの画像領域R4,R5を結合しないので、適切に画像領域を設定することができる。
本実施の形態では、画像領域R7,R8の両方が他車両の側面の画像を含むかどうかを判定し、画像領域R7,R8の両方が他車両の側面の画像を含む場合には、2つの画像領域R7,R8を結合するようにした。これにより、例えば、画像領域R7が他車両の側面の前部の画像を含み、画像領域R8がその他車両の側面の後部の画像を含む場合には、これらの2つの画像領域R7,R8を結合させることができるので、適切に画像領域を設定することができる。
以上、実施の形態を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
例えば、上記実施の形態では、ステレオカメラ11が車両10の前方を撮像するようにしたが、これに限定されるものではなく、例えば、車両10の側方や後方を撮像してもよい。
なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
1…画像処理装置、10…車両、11…ステレオカメラ、11L…左カメラ、11R…右カメラ、20…処理部、21…距離画像生成部、22…代表距離算出部、23…画像領域設定部、24…グルーピング処理部、25…分割処理部、26…結合処理部、A…領域分割処理、A1…分割処理、B…領域結合処理、B1,B2…結合処理、CP…コーナー位置、DA…領域間距離、DB…グループ間距離、H…ヒストグラム、L…近似直線、M…直線、P…画素、PIC…ステレオ画像、POS…仮分割位置、POSC…分割位置、PL…左画像、PR…右画像、PZ…距離画像、R,R1~R9…画像領域、V…分散値、Zmeas…測定距離値、Zpeak…代表距離値。

Claims (10)

  1. ステレオ画像に基づいて生成された、各画素での距離値を含む距離画像に基づいて、前記距離画像における複数の画素列に対応づけられ、それぞれが、対応する画素列における前記距離値の代表値である複数の代表距離値を生成する代表距離算出部と、
    前記ステレオ画像に含まれる、他車両を含む1または複数の物体の画像に基づいて設定された第1の画像領域および第2の画像領域を結合する結合処理を行うことが可能であり、前記第1の画像領域および前記第2の画像領域が仮結合された領域である仮結合領域が、前記他車両のコーナー部の画像を含むかどうかを判定する判定処理を行い、前記仮結合領域が前記コーナー部の画像を含む場合に、前記結合処理を回避する結合処理部と
    を備え、
    前記結合処理部は、
    前記第1の画像領域において、前記複数の代表距離値のうちの、前記第1の画像領域が属する複数の画素列に対応する第1の複数の代表距離値に基づいて第1の近似直線を生成するとともに、前記第1の複数の代表距離値の前記第1の近似直線からの第1のばらつき度合いを算出し、
    前記第2の画像領域において、前記複数の代表距離値のうちの、前記第2の画像領域が属する複数の画素列に対応する第2の複数の代表距離値に基づいて第2の近似直線を生成するとともに、前記第2の複数の代表距離値の前記第2の近似直線からの第2のばらつき度合いを算出し、
    前記第1のばらつき度合いおよび前記第2のばらつき度合いに基づいて前記判定処理を行う
    画像処理装置。
  2. 前記第1の画像領域における画像は、前記他車両の側面を示し、
    前記第2の画像領域における画像は、前記他車両の背面を示す
    請求項1に記載の画像処理装置。
  3. 前記結合処理部は、前記判定処理において、
    前記仮結合領域において、前記第1の複数の代表距離値および前記第2の複数の代表距離値に基づいて第3の近似直線を生成するとともに、前記第1の複数の代表距離値および前記第2の複数の代表距離値の前記第3の近似直線からの第3のばらつき度合いを算出し、
    前記第1のばらつき度合い、前記第2のばらつき度合い、および前記第3のばらつき度合いに基づいて、前記仮結合領域が前記コーナー部の画像を含むと判定する
    請求項1または請求項2に記載の画像処理装置。
  4. 前記結合処理部は、前記判定処理において、
    前記仮結合領域において、前記第1の複数の代表距離値および前記第2の複数の代表距離値に基づいて第3の近似直線を生成し、
    前記第1の画像領域において、前記第1の複数の代表距離値の前記第3の近似直線からの第4のばらつき度合いを算出し、
    前記第2の画像領域において、前記第2の複数の代表距離値の前記第3の近似直線からの第5のばらつき度合いを算出し、
    前記第1のばらつき度合い、前記第2のばらつき度合い、前記第4のばらつき度合い、および前記第5のばらつき度合いに基づいて、前記仮結合領域が前記コーナー部の画像を含むと判定する
    請求項1または請求項2に記載の画像処理装置。
  5. 前記1または複数の物体の画像に基づいて第3の画像領域を設定する画像領域設定部と、
    前記第3の画像領域を前記第1の画像領域および前記第2の画像領域に分割する分割処理を行うことが可能であり、前記第3の画像領域が属する複数の画素列に対応する第3の複数の代表距離値に基づいて、前記第3の画像領域が前記他車両の前記コーナー部の画像を含むかどうかを判定する初期判定処理を行い、前記第3の画像領域が前記コーナー部の画像を含む場合に、前記コーナー部に基づいて前記分割処理を行う分割処理部をさらに備えた
    請求項1から請求項4のいずれか一項に記載の画像処理装置。
  6. 前記分割処理部は、前記初期判定処理において、
    前記第3の画像領域において仮分割位置を設定し、
    前記第3の複数の代表距離値を、前記仮分割位置に基づいて第1のグループおよび第2のグループに区分し、
    前記第3の複数の代表距離値のうちの、前記第1のグループに区分された前記第3の複数の代表距離値に基づいて第4の近似直線を生成し、
    前記第3の複数の代表距離値のうちの、前記第2のグループに区分された前記第3の複数の代表距離値に基づいて第5の近似直線を生成し、
    前記第4の近似直線および前記第5の近似直線に基づいて、前記第3の画像領域における分割位置を設定する
    請求項5に記載の画像処理装置。
  7. 前記分割処理部は、所定の条件を満たした場合に、前記第3の画像領域が前記コーナー部の画像を含むと判定し、
    前記所定の条件は、前記第3の画像領域における前記分割位置についての第1の条件を満たすことを含む
    請求項6に記載の画像処理装置。
  8. 前記分割処理部は、所定の条件を満たした場合に、前記第3の画像領域が前記コーナー部の画像を含むと判定し、
    前記所定の条件は、前記第4の近似直線および前記第5の近似直線がなす角度についての第2の条件を満たすことを含む
    請求項6または請求項7に記載の画像処理装置。
  9. 前記分割処理部は、前記初期判定処理において、
    前記第3の複数の代表距離値に基づいて第6の近似直線を生成するとともに、前記第3の複数の代表距離値の前記第6の近似直線からの第6のばらつき度合いを算出し、
    前記第3の複数の代表距離値のうちの、前記第1のグループに区分された前記第3の複数の代表距離値の前記第4の近似直線からの第7のばらつき度合いを算出し、
    前記第3の複数の代表距離値のうちの、前記第2のグループに区分された前記第3の複数の代表距離値の前記第5の近似直線からの第8のばらつき度合いを算出し、
    所定の条件を満たした場合に、前記第3の画像領域が前記コーナー部の画像を含むと判定し、
    前記所定の条件は、前記第6のばらつき度合い、前記第7のばらつき度合い、および前記第8のばらつき度合いについての第3の条件を満たすことを含む
    請求項6から請求項8のいずれか一項に記載の画像処理装置。
  10. 前記分割処理部は、前記初期判定処理において、
    前記第3の画像領域において複数の仮分割位置を設定し、
    前記複数の仮分割位置のそれぞれに基づいて、前記第3の複数の代表距離値を、前記第1のグループおよび前記第2のグループに区分し、
    前記複数の仮分割位置のそれぞれについて、前記第3の複数の代表距離値のうちの、前記第1のグループに区分された前記第3の複数の代表距離値に基づいて前記第4の近似直線を生成し、前記第1のグループに区分された前記第3の複数の代表距離値の前記第4の近似直線からの第7のばらつき度合いを算出し、
    前記複数の仮分割位置のそれぞれについて、前記第3の複数の代表距離値のうちの、前記第2のグループに区分された前記第3の複数の代表距離値に基づいて前記第5の近似直線を生成し、前記第2のグループに区分された前記第3の複数の代表距離値の前記第5の近似直線からの第8のばらつき度合いを算出し、
    前記複数の仮分割位置のそれぞれにおける、前記第7のばらつき度合いおよび前記第8のばらつき度合いに基づいて、前記複数の仮分割位置の1つを前記仮分割位置として選択する
    請求項6に記載の画像処理装置。
JP2019133867A 2019-07-19 2019-07-19 画像処理装置 Active JP7344032B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019133867A JP7344032B2 (ja) 2019-07-19 2019-07-19 画像処理装置
US16/844,664 US11295465B2 (en) 2019-07-19 2020-04-09 Image processing apparatus
CN202010392738.2A CN112241979A (zh) 2019-07-19 2020-05-11 图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133867A JP7344032B2 (ja) 2019-07-19 2019-07-19 画像処理装置

Publications (2)

Publication Number Publication Date
JP2021018605A JP2021018605A (ja) 2021-02-15
JP7344032B2 true JP7344032B2 (ja) 2023-09-13

Family

ID=74170474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133867A Active JP7344032B2 (ja) 2019-07-19 2019-07-19 画像処理装置

Country Status (3)

Country Link
US (1) US11295465B2 (ja)
JP (1) JP7344032B2 (ja)
CN (1) CN112241979A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112127A1 (ja) * 2021-12-14 2023-06-22 日立Astemo株式会社 画像認識装置、および、画像認識方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271964A (ja) 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd 道路形状認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3349060B2 (ja) * 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
KR102153030B1 (ko) * 2013-11-05 2020-09-07 현대모비스 주식회사 주차 지원 장치 및 방법
JPWO2017056484A1 (ja) * 2015-09-28 2018-04-19 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法
US10628960B2 (en) * 2016-11-24 2020-04-21 Ricoh Company, Ltd. Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP6621445B2 (ja) 2017-06-19 2019-12-18 日本電信電話株式会社 特徴抽出装置、物体検出装置、方法、及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271964A (ja) 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd 道路形状認識装置

Also Published As

Publication number Publication date
US20210019902A1 (en) 2021-01-21
CN112241979A (zh) 2021-01-19
JP2021018605A (ja) 2021-02-15
US11295465B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP5944781B2 (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
EP2757524B1 (en) Depth sensing method and system for autonomous vehicles
JP6131704B2 (ja) 連続型道路分割体の検知方法及び連続型道路分割体の検知装置
CN108647638A (zh) 一种车辆位置检测方法及装置
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
KR102569437B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법
CN109074653B (zh) 用于检测机动车辆的道路旁边的物体的方法、计算设备、驾驶员辅助系统以及机动车辆
JP2009075938A (ja) 道路形状推定装置
CN109791607B (zh) 借助单应矩阵从摄像机的一系列图像中探测和验证对象
CN111612728A (zh) 一种基于双目rgb图像的3d点云稠密化方法和装置
CN111046719A (zh) 用于转换图像的设备和方法
CN112927309A (zh) 一种车载相机标定方法、装置、车载相机及存储介质
CN110809766B (zh) 高级驾驶员辅助系统和方法
JP7344032B2 (ja) 画像処理装置
JP7344031B2 (ja) 画像処理装置
JP5655038B2 (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
CN112601064B (zh) 图像处理装置
JP7246165B2 (ja) 路面検出装置
WO2020036039A1 (ja) ステレオカメラ装置
CN113834463A (zh) 基于绝对尺寸的智能车侧方行人/车单目深度测距方法
JP7216526B2 (ja) 車外環境認識装置および車外環境認識方法
GÜNGÖR et al. Stereo-image-based ground-line prediction and obstacle detection
KR102424664B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230901

R150 Certificate of patent or registration of utility model

Ref document number: 7344032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150