JP7466695B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7466695B2
JP7466695B2 JP2022569744A JP2022569744A JP7466695B2 JP 7466695 B2 JP7466695 B2 JP 7466695B2 JP 2022569744 A JP2022569744 A JP 2022569744A JP 2022569744 A JP2022569744 A JP 2022569744A JP 7466695 B2 JP7466695 B2 JP 7466695B2
Authority
JP
Japan
Prior art keywords
image
camera
deterioration state
area
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022569744A
Other languages
English (en)
Other versions
JPWO2022130780A1 (ja
Inventor
亮輔 鴇
達夫 最首
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2022130780A1 publication Critical patent/JPWO2022130780A1/ja
Application granted granted Critical
Publication of JP7466695B2 publication Critical patent/JP7466695B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、車載カメラにおける識別処理を行う画像処理装置に関する。
運転支援制御技術の進歩により、ACC(Adaptive Cruise Control)やAEBS(Autonomous Emergency Braking System)などが普及してきている。運転支援制御技術の普及に伴い、それらの動作精度の向上やある程度の悪環境においても制御を継続できるロバスト性能の向上が必要となっている。
従来、雨滴や逆光などの撮像環境の悪化による認識性能(識別性能)の低下は運転支援制御の安定動作に影響を与えることから、運転支援制御を中断するという処理が行われていた。
これに対して、特許文献1に所載の従来技術では、撮像環境の悪化の度合いを3段階で判定し、悪化度合いが小さい場合には認識処理を行い、運転支援制御を継続しようと試みている。
特開2009-241636号公報
上記従来技術では、画像の悪化度合いを求める際にステレオ処理の結果を使用しているが、認識処理については片方のカメラで固定して処理を行っている。そのため、認識性能が片側のカメラ画像の悪化状況に大きく依存することになり、ロバスト性が低くなるということが課題となる。
本発明は、上記事情に鑑みてなされたもので、その目的とするところは、識別性能を向上させることができ、ロバスト性を高めることのできる画像処理装置を提供することにある。
上記課題を解決する本発明の画像処理装置は、第1カメラおよび第2カメラからの各画像に基づいて、当該画像に含まれる物体を検出する物体検出部と、前記検出された物体の種別を、前記第1カメラからの画像または前記第2カメラからの画像のいずれか一方を用いて特定する物体識別部と、前記第1カメラからの画像および前記第2カメラからの画像のそれぞれの劣化状態を判定する劣化状態判定部と、を有し、前記物体識別部は、前記劣化状態に基づいて、前記第1カメラからの画像または前記第2カメラからの画像のいずれを用いるかを決定することを特徴とする。
本発明によれば、識別処理に適した画像を判定し、画像を切り替えて識別処理を行うことで、識別性能を向上させることができる。
上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。
本発明の実施形態にかかわる画像処理装置を含む車載ステレオカメラ装置の概略構成を示すブロック図。 本発明の実施形態の基礎となるステレオカメラ処理の内容を説明するフロー図。 本発明の実施形態にかかわる画像処理装置の演算処理部の機能ブロック構成を示すブロック図。 物体検出処理の結果を示す図。 左右カメラ劣化状態判定処理を行うための領域分割結果を示す図。 左右カメラ劣化状態判定処理のフロー図。 識別領域設定処理の内容を説明する図。 左右カメラ切替処理の一例のフロー図。 左右カメラ切替処理の他例のフロー図。 識別処理の各処理段階の図。
本発明の実施形態について図面を用いて以下に説明する。なお、各図において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。
図1は、本実施形態にかかわる画像処理装置を含む車載ステレオカメラ装置の全体構成を概略的に示すブロック図である。本実施形態の車載ステレオカメラ装置100は、車両に搭載され、例えば車両前方等の車両周辺の撮影対象領域の画像情報に基づいて車外環境を認識する装置である。車載ステレオカメラ装置100は、例えば、道路の白線、歩行者、車両、その他の立体物、信号機、標識、点灯ランプなどの認識を行い、当該車載ステレオカメラ装置100を搭載した車両(自車両)のブレーキ、ステアリング調整などの調整を行う。
車載ステレオカメラ装置100は、画像情報を取得する左右に(横並びに)配置された2つの(一対の)カメラ101、102(左カメラ101、右カメラ102)と、カメラ101、102の撮像素子からの各画像を処理する画像処理装置110とを備える。画像処理装置110は、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のメモリ等を備えるコンピュータとして構成されている。画像処理装置110の各機能は、ROMに記憶されたプログラムをプロセッサが実行することによって実現される。RAMは、プロセッサが実行するプログラムによる演算の中間データ等を含むデータを格納する。画像処理装置110は、カメラ101、102の撮像を制御して、撮像した画像を取り込むための画像入力インタフェース103を持つ。この画像入力インタフェース103を通して取り込まれた画像は、内部バス109を通してデータが送られ、画像処理部104や、演算処理部105で処理され、処理途中の結果や最終結果となる画像データなどが記憶部106に記憶される。
画像処理部104は、カメラ101の撮像素子から得られる第1の画像(左画像や左カメラ画像ともいう)と、カメラ102の撮像素子から得られる第2の画像(右画像や右カメラ画像ともいう)とを比較して、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、これを記憶部106に記憶する。更に、第1および第2の画像の間で、相互に対応する箇所を計算して、視差情報を計算し、先程と同様に、これを記憶部106に記憶する。
演算処理部105は、記憶部106に蓄えられた画像および視差情報(画像上の各点に対する距離情報)を使い、車両周辺の環境を知覚するために必要な、各種物体の認識を行う。各種物体とは、人、車、その他の障害物、信号機、標識、車のテールランプやヘッドライトなどである。これら認識結果や中間的な計算結果の一部が、先程と同様に記憶部106に記録される。撮像した画像に対して各種物体認識を行った後に、これら認識結果を用いて車両の制御方針を計算する。
計算の結果として得られた車両の制御方針や、物体認識結果の一部は、CANインタフェース107を通して、車載ネットワークCAN111に伝えられ、これにより車両の制動が行われる。また、これらの動作について、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないかどうかなどを、制御処理部108が監視しており、異常動作を防ぐ仕掛けとなっている。
上記の画像処理部104は、内部バス109を介して制御処理部108、記憶部106、演算処理部105、および撮像素子との間の入出力部である画像入力インタフェース103と外部の車載ネットワークCAN111との入出力部であるCANインタフェース107に接続されている。制御処理部108、画像処理部104、記憶部106、演算処理部105、および入出力部103、107は、単一または複数のコンピュータユニットにより構成されている。記憶部106は、例えば画像処理部104によって得られた画像情報や、演算処理部105によって走査された結果作られた画像情報等を記憶するメモリ等により構成されている。外部の車載ネットワークCAN111との入出力部107は、車載ステレオカメラ装置100から出力された情報を、車載ネットワークCAN111を介して自車両の制御システムに出力する。
図2に、車載ステレオカメラ装置100内の処理フロー(すなわち、本実施形態の基礎となるステレオカメラ処理の内容)を示す。
まず、S201、S202では、左右のカメラ101、102により画像が撮像され、各々で撮像した画像データ121、122のそれぞれについて、撮像素子が持つ固有の癖を吸収するための補正などの画像処理S203を行う。その処理結果は画像バッファ126に蓄えられる。画像バッファ126は、図1の記憶部106に設けられる。更に、補正された2つの画像を使って、画像同士の照合を行い、これにより左右カメラで得た画像(左右画像)の視差情報を得る。左右画像の視差により、対象物体上のある着目点が、左右カメラの画像上の何処と何処に対応するかが明らかとなり、三角測量の原理によって、対象物体までの距離が得られることになる。これを行うのが視差処理S204である。画像処理S203および視差処理S204は、図1の画像処理部104で行われ、最終的に得られた画像および視差情報は記憶部106に蓄えられる。
上記によって得られた視差画像を用いて、3次元空間上の物体(立体物)を検出する物体検出処理S205を行う(詳細は後で説明)。更に、上記の記憶された画像および視差情報を用いて、各種認識処理S206を行う(詳細は後で説明)。認識対象の物体としては、人、車、その他の立体物、標識、信号機、テールランプなどがあり、認識処理の詳細は対象の特性とシステム上かけられる処理時間などの制約によって決定されている。更に、物体認識の結果と、自車両の状態(速度、舵角など)とを勘案して、車両制御処理S207によって、例えば、乗員に警告を発し、自車両のブレーキングや舵角調整などの制動を行う、あるいは、それによって対象物体の回避制御を行う制御方針を決め、その結果を自車制御情報等としてCANインタフェース107を通して出力する(S208)。物体検出処理S205、各種認識処理S206、および車両制御処理S207は、図1の演算処理部105で行われ、車載ネットワークCAN111への出力処理は、CANインタフェース107にて行われる。これらの各処理各手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。
前記視差処理S204により左右画像の各画素の視差または距離が得られ、物体検出処理S205で3次元空間上の物体(立体物)としてグルーピングされ、その画像上の位置と領域を基に各種認識処理S206が実施される。この時、各種認識処理S206が安定して物体の認識を行うためには、画像上の物体領域と認識したい対象の映りが一致している必要がある。しかし、ステレオカメラにおいては外環境の明るさやカメラ間の撮像性能のばらつき、ガラス面の異物などによって発生するオクルージョンなどによって、認識したい画像上の物体領域を完全に一致させることができない場合がある。これは、ミリ波などのレーダーと、カメラなどの画像センサを組み合わせた場合でも同様である。
図3に、本実施形態にかかわる画像処理装置の演算処理部の機能ブロック構成を示す。以下ではステレオカメラを前提に構成を述べる。画像処理装置110の演算処理部105は、物体検出部301、劣化状態判定部302、物体識別部303を備える。本実施形態では、前記物体検出処理S205は物体検出部301によって実施され、前記各種認識処理S206は劣化状態判定部302および物体識別部303によって実施される。
(物体検出部)
物体検出部301は、前記物体検出処理S205にて行われる物体(立体物)の検出処理を行い、左右カメラで得た画像に含まれる物体の存在する領域(物体領域)を算出する。
図4は、カメラ画像上での物体検出処理S205の結果を示している。物体検出処理S205の結果である物体領域401は、3次元空間上に存在する歩行者、車両、樹木や街灯などの路面上高さを持った物体ごとに得られ、画像上の領域として投影される。物体領域401は、図4のように矩形であっても、視差や距離から得られる不定形の領域であっても構わない。後段の処理において計算機での扱いを容易にするため、一般的には矩形として扱われる。本例では以下、物体領域401は矩形として扱い、物体領域401の一例として車両を用いて各処理の詳細を述べる。
(劣化状態判定部)
劣化状態判定部302は、左右のカメラ画像について左右カメラの映り具合を比較し、どちらのカメラの画像が認識処理(識別処理)に使用するために適しているか、その劣化状態を算出する。
詳しくは、左右カメラ劣化状態判定処理S210にて、認識処理に用いるカメラ画角内を複数の領域に分割(区分)し、対応する左右カメラ画像の分割した領域ごとに劣化程度を算出・比較し、劣化状態を判定し、その結果を分割した領域ごとに付与する。本実施形態では、図5に示すように画面を等分割ではない25個の矩形領域に分割した例(501)を述べるが、実際に処理を行う際には必要に応じて矩形以外の任意の形および分割数にしてもよく、もしくは分割せずに画面全体を一つの領域として扱ってもよい。分割方法については、例えば自車進行路にあたる画面中心付近では領域を細かく(小さく)分割し、画面端付近では領域を大きく区切るなどすることが考えられる。また、領域の分割状態は固定ではなく、走行状況によって適宜変更することも考えられる。例えば、外環境が晴れているならば、画像劣化は起こりにくいものとして分割数を減らし、雨が降ってきた場合には、劣化部分を細かく特定するために分割数を実機処理時間の許す範囲で増加させることが考えられる。
左右カメラ劣化状態判定処理S210の劣化状態の判定方法として、左右画像でそれぞれのエッジ抽出結果を比較する手法を本例で述べる。ステレオカメラでは右カメラ102と左カメラ101で共通部分を撮影している。そのため、撮影環境が良好な場合には、エッジ抽出の結果は左右画像において同程度になるはずである。図6に、左右エッジ抽出数を比較する場合の左右カメラ劣化状態判定の処理フローを示す。左右エッジ抽出及び比較処理は、分割した領域数分(領域分割数分)の繰り返し処理を行う。左右画像で分割した領域(画像)のエッジ抽出を行い(S601、S602)、左右カメラ画像のエッジ抽出数から右画像(詳しくは右分割領域画像)または左画像(詳しくは左分割領域画像)が劣化しているかを判定し(S603、S604、S605)、右画像のみが劣化している(エッジ抽出数が少ない)場合、分割した領域に右画像劣化という情報を付与する(S606)。同様に左画像のみが劣化している(エッジ抽出数が少ない)場合、分割した領域に左画像劣化の情報を付与する(S607)。また、右画像および左画像の両画像が劣化している(エッジ抽出数が少ない)場合、または、両画像がどちらも劣化していない(エッジ抽出数が多い)場合、分割した領域に左右画像同等という情報を付与する(S608)。言い換えれば、エッジ抽出具合を左右画像(左右分割領域画像)で比較し(S603、S604、S605)、右カメラ画像のエッジ抽出数が左カメラ画像のエッジ抽出数より少ない、詳しくは、右カメラ画像のエッジ抽出数が左カメラ画像のエッジ抽出数より所定閾値以上少ない場合、右カメラの画像が劣化していると判定し、分割した領域に右画像劣化という情報を付与する(S606)。同様に左カメラの画像が劣化している場合には、分割した領域に左画像劣化の情報を付与する(S607)。左右カメラ画像の劣化具合が同程度、詳しくは、右カメラ画像のエッジ抽出数と左カメラ画像のエッジ抽出数との差が所定閾値未満であれば、分割した領域に左右画像同等という情報を付与する(S608)。左右画像同等については、左右カメラ画像がどちらも劣化していない場合にもこれが付与される。
上記以外にも左右カメラ画像の劣化具合の判定には、輝度分布の変化を見ることで、どちらに雨滴が付いているかという判定も可能である。雨滴が付いている場合、水滴の反射により画像はぼやけるため、輝度値が画像全体で大きくなる、といった具合に他の手法を用いてもよい。
(物体識別部)
物体識別部303は、物体検出部301の結果と劣化状態判定部302の結果を入力として、物体検出部301で検出された物体(立体物)に対する識別処理を行い、物体(立体物)の種別を特定する。
詳しくは、識別領域設定処理S211では、物体検出部301(の物体検出処理S205)によって算出された物体領域を基に識別処理を実施する領域を設定する。図5の車両の物体領域として検出された結果(502)のように、識別する対象の全体を含むように画像上で検出できている場合は、そのまま識別処理にかける領域として使用することができる。しかし、図7の物体検出結果(703)のように、雨滴等が対象に重なってしまい、対象全体を画像上で検出できない場合がある。この状態で、識別領域を設定して識別処理を行っても識別性能が上がらないこととなる。そこで、識別領域設定処理S211では、検出領域が識別対象となる車両の全体を含まないことがあることを想定し、識別対象が車両であるという前提を利用して、識別領域(これ自体を物体領域と呼ぶ場合もある)を設定する。すなわち、検出された物体領域のサイズが車両サイズを満たしていない場合は、車両サイズとなるように物体領域を拡張するように識別領域(702)を設定する。
左右カメラ切替処理S212では、識別領域設定処理S211で算出された識別領域と劣化状態判定部302(の左右カメラ劣化状態判定処理S210)によって算出された劣化状態を比較することで、物体(立体物)毎に右カメラ102(からの画像)で識別するか左カメラ101(からの画像)で識別するかを判定(換言すれば、物体の種別を特定する識別処理に、右カメラ102からの画像または左カメラ101からの画像のいずれを用いるかを決定)する。
図8は、具体的な左右カメラ切替判定の処理フローを示している。まず、重複領域判定S801によって、識別領域設定処理S211によって設定された識別領域と劣化状態判定領域(=左右カメラ画像の複数の分割領域)の重複箇所を求める。そして、識別処理用画像切替判定S802を実行する。重複箇所の領域が保持している左右カメラ画像の劣化状態から、重複箇所の領域において、右カメラ画像が劣化している領域の数(右劣化領域数)と左カメラ画像が劣化している領域の数(左劣化領域数)および左右カメラ画像の劣化状態が同程度の領域の数(左右同等領域数)の和を比較し(S803)、左右の切り替えを判定する。右劣化領域数が左劣化領域数および左右同等領域数の和以上の場合、左画像切替を実行し(S804)、右劣化領域数が左劣化領域数および左右同等領域数の和未満の場合、左右画像切替を実行しない(つまり、後段の物体識別処理にてデフォルトとなっている右画像を使用する)(S805)。
また、図9は、具体的な左右カメラ切替判定の別の処理フローを示している。ここでは、識別領域設定処理S211によって設定された識別領域と各劣化状態判定領域(=左右カメラ画像の複数の分割領域)との重複する面積(領域)を求め(S901)、重複する面積の識別領域に対する割合(識別領域重複割合)を算出する(S902)。
そして、識別処理用画像切替判定S903を実行する。算出された割合(=劣化状態に対する重み)と劣化状態判定領域の結果を(分割領域ごとで)掛け合わせ、識別領域全体について右カメラ画像が劣化している領域と左カメラ画像が劣化している領域とで個別に加算するなどすることで、物体毎の識別領域について左右切替優先度(左切替優先度、右切替優先度)を算出する(S904)。左切替優先度(右カメラ画像の劣化度合いに対応)と右切替優先度(左カメラ画像の劣化度合いに対応)を比較し(S905)、左右の切り替えを判定する。左切替優先度が右切替優先度以上の場合、左画像切替を実行し(S906)、左切替優先度が右切替優先度未満の場合、左右画像切替を実行しない(つまり、後段の物体識別処理にてデフォルトとなっている右画像を使用する)(S907)。
重複割合と掛けあわせる値は、劣化状態判定部302(の左右カメラ劣化状態判定処理S210)によって算出された値(エッジ抽出数など)を用いることができる。また、右カメラ画像が劣化している場合は正の所定値、左カメラ画像が劣化している場合は負の所定値のようにして、演算を簡素化してもよい。
例えば、右カメラ画像が劣化している場合は正の値、左カメラ画像が劣化している場合は負の値となるような数値を算出するようにし、重複割合を(劣化状態に対する)重みとして掛け合わせ、物体毎の識別領域について左右切替優先度を算出・比較することで、右カメラ画像が劣化していると判定された領域数が左カメラ画像が劣化していると判定された領域数よりも少ない場合でも(図8に示した例参照)、右カメラ画像が劣化していると判定された領域の識別領域に対する重複割合が大きい場合には、左カメラ画像への切り替えの優先度が高くなる(つまり、左カメラ101からの画像を用いる)、といった具合である。また、劣化状態判定のために区分した各領域に対して、画像中心になるほど大きく、画像上下端に向かうほど小さくなるような係数を劣化状態に対する重みとして掛け合わせることもできる。これにより、重複領域の割合だけでなく、画像中心に存在する対象、つまり運転支援制御等において識別処理や追跡処理の重要度が高くなる対象について、左右切り替えの優先度を高く算出するようになり、識別処理S214において識別性能をより向上できるような左右カメラ切替を実現することが可能となる。
左カメラ座標系変換処理S213では、前記左右カメラ切替判定で左カメラに切り替える(左カメラ101からの画像を用いる)ことが決定した場合に、右カメラ座標系で設定されている識別領域の座標値を左カメラの対応する座標値へと変換を行う。右カメラと左カメラの座標系の関係は、左右カメラの焦点距離、画像原点からなる内部パラメータ、および位置姿勢からなる外部パラメータの関係から算出可能である。また、並行ステレオの場合、視差値を用いた並進移動によっても座標変換は可能である。これにより、右カメラ座標系にあった識別領域の座標を左カメラの座標系に変換(座標変換)し、右カメラ画像で設定された領域と対応する左カメラ画像の領域を設定する。なお、本実施形態は、右カメラを基準にしているので、上述した処理内容となっているが、左カメラを基準にした場合には逆の処理(すなわち、左カメラ座標系を基準とした右カメラ座標系変換処理)を行うことになる。
図10は、図7の物体検出結果(703)において、本実施形態を適用した場合の処理結果となる。右カメラ102によって撮像された右カメラ画像(1001)と左カメラ101によって撮像された左カメラ画像(1002)から検出された物体検出結果(703)は、車両の領域を正しく検出できていない。左右カメラ劣化状態判定処理S210により算出した領域(分割領域)ごとの左右劣化状態が1003であり、斜線領域が右カメラ画像が劣化した領域を示している。図10に示す例では物体検出結果(703)に対して識別領域設定処理S211により領域(702)が設定され、設定された領域(702)に対して右カメラ画像が劣化した領域(割合)が大きいため、左右カメラ切替処理S212により、左画像切替と判定される。そして、識別領域設定処理S211により設定された領域(702)を左カメラ座標系変換処理S213によって座標変換した領域(1004)の画像が識別処理S214によって識別される。
識別処理S214では、前記識別領域設定処理S211によって設定された領域の画像もしくは、前記左カメラ座標系変換処理S213によって座標変換された左カメラの識別領域の画像(図10の1004参照)を入力として、換言すれば、右カメラ102からの識別領域の画像または左カメラ101からの識別領域の画像のいずれか一方を用いて、検出された物体(立体物)の種別を識別する識別処理を実施する。識別処理には、例えば以下のような技術が挙げられる。あらかじめ用意した認識対象らしさを有するテンプレートと識別領域を比較するテンプレートマッチング。輝度画像やHOGやHaar-Likeといった特徴量と、サポートベクターマシンやAda-Boost、CNNなどのDeepLearningといった機械学習手法を合わせた識別器を利用する手法。また、エッジ形状などを人為的に決めた閾値判定で認識しても良い。また、これらの識別を行う場合には、右カメラの画像で学習した識別モデルと左カメラで学習を行った識別モデルといったように、識別処理の入力元に合わせた識別モデルを用意したり、各カメラに合わせ込んだ閾値を用意してもよい。
以上で説明したように、本実施形態の画像処理装置110は、第1カメラおよび第2カメラからの各画像に基づいて、当該画像に含まれる物体を検出する物体検出部301と、前記検出された物体の種別を、前記第1カメラからの画像または前記第2カメラからの画像のいずれか一方を用いて特定(識別)する物体識別部303と、前記第1カメラからの画像および前記第2カメラからの画像のそれぞれの劣化状態を判定する劣化状態判定部302と、を有し、前記物体識別部303は、前記劣化状態に基づいて、前記第1カメラからの画像または前記第2カメラからの画像のいずれを用いるかを決定する。
すなわち、左右画像の劣化状態を算出し、識別処理を行う上でより有用な画像を適宜選択する(切り替える)ことで対象への識別処理を継続する。
また、前記劣化状態判定部302は、前記第1カメラからの画像または前記第2カメラからの画像を複数の領域に区分し、当該複数の領域のそれぞれにおいて(領域ごとに)前記劣化状態を判定する。
また、前記物体識別部303は、前記複数の領域のそれぞれにおける前記劣化状態および前記検出された物体と前記複数の領域(のそれぞれ)との重なり具合に基づいて、前記第1カメラからの画像または前記第2カメラからの画像のいずれを用いるかを決定する。
また、前記物体識別部303は、前記第1カメラからの画像と前記第2カメラからの画像の間の座標変換を行い、座標変換後の画像において前記物体の種別を識別する処理を行う。
本実施形態によれば、識別処理に適した画像を判定し、画像を切り替えて識別処理を行うことで、識別性能を向上させることができる。
なお、上記した実施形態では、2つのカメラから構成される車載ステレオカメラ装置100を例示して説明したが、カメラは3台以上であってもよいことは勿論である。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 車載ステレオカメラ装置
101 左カメラ
102 右カメラ
103 画像入力インタフェース
104 画像処理部
105 演算処理部
106 記憶部
107 CANインタフェース
108 制御処理部
109 内部バス
110 画像処理装置
111 車載ネットワークCAN
301 物体検出部
302 劣化状態判定部
303 物体識別部
401 物体領域

Claims (5)

  1. 第1カメラおよび第2カメラからの各画像に基づいて、当該画像に含まれる物体を検出する物体検出部と、
    前記検出された物体の種別を、前記第1カメラからの画像または前記第2カメラからの画像のいずれか一方を用いて特定する物体識別部と、
    前記第1カメラからの画像および前記第2カメラからの画像を複数の領域に区分し、当該複数の領域のそれぞれにおいて前記第1カメラからの画像および前記第2カメラからの画像のそれぞれの劣化状態を判定する劣化状態判定部と、を有し、
    前記物体識別部は、劣化状態判定のために区分した前記複数の領域のそれぞれに対して、前記検出された物体と前記複数の領域とが重なった領域の、前記検出された物体の領域に対する割合を算出し、当該割合を前記複数の領域のそれぞれにおける前記劣化状態に対する重みとして掛け合わせ、前記検出された物体の領域について前記第1カメラからの画像および前記第2カメラからの画像の劣化度合いを算出して比較し、前記検出された物体毎に、前記第1カメラからの画像または前記第2カメラからの画像のいずれを用いるかを決定することを特徴とする画像処理装置。
  2. 請求項に記載の画像処理装置において、
    前記劣化状態判定部は、前記第1カメラおよび前記第2カメラを搭載した自車の進行路または外環境に応じて、前記複数の領域のそれぞれの大きさもしくは前記複数の領域の区分数を変更することを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置において、
    前記劣化状態判定部は、前記第1カメラからの画像および前記第2カメラからの画像のエッジ抽出数または輝度分布の変化に基づいて、前記第1カメラからの画像および前記第2カメラからの画像のそれぞれの劣化状態を判定することを特徴とする画像処理装置。
  4. 請求項に記載の画像処理装置において、
    前記物体識別部は、劣化状態判定のために区分した前記複数の領域のそれぞれに対して、画像中心になるほど大きく、画像端に向かうほど小さくなるような係数を前記劣化状態に対する重みとして掛け合わせることを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置において、
    前記物体識別部は、前記第1カメラからの画像と前記第2カメラからの画像の間の座標変換を行い、座標変換後の画像において前記物体の種別を識別する処理を行うことを特徴とする画像処理装置。
JP2022569744A 2020-12-14 2021-10-21 画像処理装置 Active JP7466695B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020207093 2020-12-14
JP2020207093 2020-12-14
PCT/JP2021/039003 WO2022130780A1 (ja) 2020-12-14 2021-10-21 画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2022130780A1 JPWO2022130780A1 (ja) 2022-06-23
JP7466695B2 true JP7466695B2 (ja) 2024-04-12

Family

ID=82059020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022569744A Active JP7466695B2 (ja) 2020-12-14 2021-10-21 画像処理装置

Country Status (3)

Country Link
JP (1) JP7466695B2 (ja)
DE (1) DE112021005102T5 (ja)
WO (1) WO2022130780A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092752A (ja) 2015-11-12 2017-05-25 トヨタ自動車株式会社 撮像システム
JP2018060422A (ja) 2016-10-06 2018-04-12 株式会社Soken 物体検出装置
WO2019181591A1 (ja) 2018-03-22 2019-09-26 日立オートモティブシステムズ株式会社 車載ステレオカメラ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172422B2 (ja) 2008-03-28 2013-03-27 富士重工業株式会社 運転支援システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017092752A (ja) 2015-11-12 2017-05-25 トヨタ自動車株式会社 撮像システム
JP2018060422A (ja) 2016-10-06 2018-04-12 株式会社Soken 物体検出装置
WO2019181591A1 (ja) 2018-03-22 2019-09-26 日立オートモティブシステムズ株式会社 車載ステレオカメラ

Also Published As

Publication number Publication date
DE112021005102T5 (de) 2023-08-17
WO2022130780A1 (ja) 2022-06-23
JPWO2022130780A1 (ja) 2022-06-23

Similar Documents

Publication Publication Date Title
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
US11288833B2 (en) Distance estimation apparatus and operating method thereof
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
CN110490217B (zh) 用于改进对象检测和对象分类的方法和系统
US10885351B2 (en) Image processing apparatus to estimate a plurality of road surfaces
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP6564218B2 (ja) 車外環境認識装置
JP7356319B2 (ja) 車外環境認識装置
US10354148B2 (en) Object detection apparatus, vehicle provided with object detection apparatus, and non-transitory recording medium
JP7466695B2 (ja) 画像処理装置
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
US11816902B2 (en) Vehicle external environment recognition apparatus
JP2020126304A (ja) 車外物体検出装置
JP2023039777A (ja) 障害物検出装置、障害物検出方法および障害物検出プログラム
JP7379523B2 (ja) 画像認識装置
JP7277666B2 (ja) 処理装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
WO2023112127A1 (ja) 画像認識装置、および、画像認識方法
US20230410318A1 (en) Vehicle and method of controlling the same
JP2018088237A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
WO2024062540A1 (ja) 画像処理装置
US20220309760A1 (en) Method and a Device for Assigning a Bounding Box to an Object
JP7087499B2 (ja) 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
US11010625B2 (en) Vehicle exterior environment recognition apparatus and method of recognizing exterior environment outside vehicle
KR102371589B1 (ko) 전방 차량 검출 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7466695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150