JP6316976B2 - 車載画像認識装置 - Google Patents

車載画像認識装置 Download PDF

Info

Publication number
JP6316976B2
JP6316976B2 JP2016551626A JP2016551626A JP6316976B2 JP 6316976 B2 JP6316976 B2 JP 6316976B2 JP 2016551626 A JP2016551626 A JP 2016551626A JP 2016551626 A JP2016551626 A JP 2016551626A JP 6316976 B2 JP6316976 B2 JP 6316976B2
Authority
JP
Japan
Prior art keywords
image
monocular
image processing
captured
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016551626A
Other languages
English (en)
Other versions
JPWO2016051981A1 (ja
Inventor
永崎 健
健 永崎
春樹 的野
春樹 的野
善之 武藤
善之 武藤
宏治 土井
宏治 土井
雄飛 椎名
雄飛 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of JPWO2016051981A1 publication Critical patent/JPWO2016051981A1/ja
Application granted granted Critical
Publication of JP6316976B2 publication Critical patent/JP6316976B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、車載画像認識装置に関する。
特許文献1には、領域ごとに各物体の検出に適した画質を有する処理画像を生成することで、複数の物体を検出する処理の負荷を軽減することを目的とした車載画像処理装置の技術が示されている。特許文献1の車載画像処理装置は、レーダ装置で検出した自車前方の物体の位置に基づいて障害物領域及び路面領域を設定する領域設定部と、カメラで撮像した前方画像のダイナミックレンジ及び解像度を領域ごとに調整することで処理画像を生成する画像生成部とを備えている。
特開2009−17157号公報
しかしながら、前述した特許文献1の手法では、カメラのほか、物体の位置を検出するためのレーダ装置も用いるため、装置全体が複雑になり、カメラ単体では対応できない。また、画像生成部で障害物領域及び路面領域ごとの処理画像を生成する際に、カメラで撮像した画像の全面が用いられるため、画像処理に時間がかかり、画像処理の効率化を図ることが困難であった。
本発明の目的は、上記の課題を鑑みてなされたものであり、その目的とするところは、画像処理の効率化を図ることができる車載画像認識装置を提供することである。
上記課題を解決するため本発明の車載画像認識装置は、複数のアプリケーションを実行するために左右一対のカメラで撮像した撮像画像を用いて車外環境を認識する車載画像認識装置であって、前記複数のアプリケーションの中から実行されるアプリケーションの種類に基づいて前記左右一対のカメラで撮像した各撮像画像内にステレオ視用画像領域をそれぞれ設定すると共に一方のカメラで撮像した撮像画像内に単眼視用画像領域を設定し、前記左右一対のカメラで撮像した各撮像画像を左右方向の画像走査ラインに沿ってスキャンして前記ステレオ視用画像領域内をスキャンしたステレオ視用画像データと前記単眼視用画像領域内をスキャンした単眼視用画像データとに分配する分配部と、前記ステレオ視用画像データを用いてステレオ視画像処理を行うステレオ視画像処理部と、前記単眼視用画像データを用いて単眼視画像処理を行う単眼視画像処理部と、前記ステレオ視画像処理部の画像処理結果と、前記単眼視画像処理部の画像処理結果を用いて前記アプリケーションの種類に応じた物体の認識を行う物体認識部と、前記ステレオ視用画像データを蓄積するステレオ視用画像バッファと、前記単眼視用画像データを蓄積する単眼視用画像バッファと、を有し、前記ステレオ視画像処理部は、前記ステレオ視用画像バッファへの前記ステレオ視用画像データの蓄積を完了してから前記ステレオ視画像処理を実行し、前記単眼視画像処理部は、前記単眼視用画像バッファに前記単眼視用画像データを蓄積しながら前記単眼視画像処理を実行することを特徴としている。
また、本発明の車載画像認識装置は、複数のアプリケーションを実行するために左右一対のカメラで撮像した撮像画像を用いて車外環境を認識する車載画像認識装置であって、前記複数のアプリケーションの中から実行されるアプリケーションの種類に基づいて前記左右一対のカメラで撮像した各撮像画像内にステレオ視用画像領域をそれぞれ設定すると共に一方のカメラで撮像した撮像画像内に単眼視用画像領域を設定し、前記左右一対のカメラで撮像した各撮像画像を左右方向の画像走査ラインに沿ってスキャンして前記ステレオ視用画像領域内をスキャンしたステレオ視用画像データと前記単眼視用画像領域内をスキャンした単眼視用画像データとに分配する分配部と、前記ステレオ視用画像データを用いてステレオ視画像処理を行うステレオ視画像処理部と、前記単眼視用画像データを用いて単眼視画像処理を行う単眼視画像処理部と、前記ステレオ視画像処理部の画像処理結果と、前記単眼視画像処理部の画像処理結果を用いて前記アプリケーションの種類に応じた物体の認識を行う物体認識部と、を有し、前記分配部は、対象物の接近を検知した場合に前記単眼視用画像領域の設定をやめることを特徴としている。
本発明によれば、先行車認識や白線認識や標識認識などの画像認識アプリケーションの性能を損なうことなく、かつ様々な画像認識アプリケーションを、可能な限り処理周期を保ちつつ、中央演算装置(CPU)や画像特性などのリソース配分を可能とする。特に、標識認識や車両テールランプ検知などの画像処理を主体とするアプリケーションと、人や車の検知といった立体物処理が主体となるアプリケーションとの並立を可能とする効果がある。また、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の車載画像認識装置の概略構成を示すブロック図。 本発明の基礎となるステレオカメラ処理の内容を説明するフロー図。 各種処理のタイミングチャート。 本実施形態にかかる車載画像認識装置の処理手順を示すフロー図。 分配処理の事例を示すイメージ図。 本発明による処理のタイミングチャート。 一般的な撮像素子で撮像した画像の一例を示す図。 エッジを抽出する対象画像と、その上のピクセルをpijで表した図。 縦方向のエッジ強度を計算するためのフィルタの一例を示す図。 横方向のエッジ強度を計算するためのフィルタの一例を示す図。
次に、本発明の実施形態について図を用いて以下に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態にかかわる車載画像認識装置の全体構成を示すブロック図である。本実施形態にかかる車載画像認識装置100は、車両前方の画像に基づいて複数のアプリケーションを実行することにより、車外環境を認識して車両の運転支援を行う装置である。この車載画像認識装置100は、ステレオカメラ101、画像入力インタフェース102、画像処理部104、演算処理部105、記憶部106、制御処理部108および分配部109を備えている。そして、画像入力インタフェース102、画像処理部104、演算処理部105、記憶部106、制御処理部108および分配部109は、バス103によって互いに接続されている。
ステレオカメラ101は、互いに車幅方向に所定の間隔をあけて取り付けられた左カメラ101Lと右カメラ101Rとを有しており、車両前方の様子を撮像する。左カメラ101Lおよび右カメラ101Rは、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子から構成されている。画像入力インタフェース102は、ステレオカメラ101の撮像を制御するとともに、撮像した画像を取り込むものである。そして、画像入力インタフェース102を通して取り込まれた画像データは、バス103を経由して画像処理部104に出力され、そこで処理される。そして、処理途中の結果や最終結果となる画像データなどは、バス103を経由して出力され、記憶部106に記憶される。
画像処理部104は、左カメラ101Lの撮像素子から得られる左の画像と、右カメラ101Rの撮像素子から得られる右の画像とを比較して、それぞれの画像に対して撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、さらにその結果を記憶部106に出力して記憶させる。また、画像処理部104は、左の画像および右の画像の間で相互に対応する箇所を計算して、視差情報の計算を行い、更にその結果を記憶部106に出力して記憶させる。
演算処理部105は、記憶部106に記憶された画像および視差情報(例えば、画像上の各点に対する距離情報)を使い、車両周辺の各種物体の認識を行う。各種物体とは、人、車、その他の障害物、信号機、標識、車のテールランプやヘッドライトなどである。また、演算処理部105は、認識の結果又は計算途中の結果の一部を、バス103を経由して出力され記憶部106に記憶される。更に、演算処理部105は、各種物体の認識結果を用いて車両の制御方針を決定する。
計算の結果として得られた車両の制御方針や、物体認識結果の一部は、CANインタフェース107を通して、車載ネットワークCAN110に伝えられ、これにより車両の制動が行われる。また、これらの動作について、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないかどうかなどを、制御処理部108が監視しており、異常動作を防ぐようになっている。
記憶部106は、車載画像認識装置100の動作に関する各情報を格納するものであり、例えば画像処理部104によって得られた画像情報や、演算処理部105によって走査された結果や作成された画像情報等を記憶する。制御処理部108は、車載画像認識装置100全体の制御を行い、例えば画像処理部104に画像処理するための制御信号を出力して画像処理部104の動作をコントロールし、あるいは演算処理部105に制御信号を出力して画像処理部104に演算処理をさせる。画像処理部104、演算処理部105、記憶部106、制御処理部108、画像入力インタフェース102、CANインタフェース107は、単一または複数のコンピュータユニットにより構成されている。
分配部109は、各アプリケーションの実行に必要な画像の要求に基づいて、ステレオカメラ101のいずれか一方のカメラによって撮像された画像を複数行分の走査ラインで取り込む単眼視用画像データと、ステレオカメラ101の両方のカメラ101L、101Rによって撮像された画像を所定の領域で取り込むステレオ視用画像データとに分配する。例えば、標識認識アプリケーションの場合は、標識の存在が分かればよいため、単眼視用画像データが要求される。一方、車両・歩行者認識アプリケーションの場合は、距離や位置などの詳細な情報が必要であるため、ステレオ視用画像データが要求される。なお、アプリケーション例としては、上述の車両・歩行者認識および標識認識のほか、例えば配光制御、レーン逸脱警報、割り込み車両警報、追い越し車両警報、レーン維持走行支援なども挙げられる。
車載画像認識装置100は、CAN(Controller Area Network)インタフェース107をさらに備える。CANインタフェース107は、バス103を介して入力インタフェース102、画像処理部104、演算処理部105、記憶部106、制御処理部108および分配部109と接続されている。演算処理部105の計算結果として得られた車両の制御方針や物体認識結果の一部は、CANインタフェース107および車載ネットワークCAN110を介して自車両の制御システムに出力され、これにより車両の制御が行われる。また、これらの動作について、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないか否かなどを制御処理部108が監視しており、異常動作を防ぐようになっている。
次に、既存の典型的なステレオ視画像処理の手順について図2及び図3を用いて説明する。
図2は、既存の典型的なステレオ視画像処理の内容を説明するフロー図、図3は、各種処理のタイミングチャートである。
車載ステレオカメラ装置200は、左カメラ201と右カメラ202により画像を撮像し、各々で撮像した画像データ203、204のそれぞれについて画像処理A205を行う。画像処理A205では、左カメラ201の撮像素子と右カメラ202の撮像素子とがそれぞれ持つ固有の癖を吸収するために画像を補正する処理が行われる。画像処理A205における処理結果は、補正画像として画像バッファ206に蓄えられる。画像バッファ206は、図1の記憶部106に設けられる。
次に、ステレオ視画像処理である視差処理207が行われる。視差処理207では、補正された2つの画像を使って、画像同士の照合を行い、これにより左右カメラで得た画像の視差情報を得る。左右画像の視差により、対象物体上のある着目点が、左右カメラの画像上の何処と何処に対応するかが明らかとなり、三角測量の原理によって、対象物までの距離が得られることになる。画像処理A205および視差処理207は、図1の画像処理部104で行われ、最終的に得られた補正画像、および視差情報は、記憶部106に蓄えられる。
次に、上記の補正画像、および視差情報を用いて、各種物体認識209が行われる。認識対象の物体としては、人、車、その他の立体物、標識、信号機、テールランプなどがある。認識の際は必要に応じて認識辞書210を利用する。
そして、物体認識の結果と、自車両の状態(速度、舵角など)とを勘案して、車両制御処理211が行われる。車両制御処理211により、例えば、乗員に警告を発し、自車両のブレーキングや舵角調整などの制動を行う、あるいは、それによって対象物の回避制御を行う方針を決め、その結果を、CANインタフェース212を通して出力する。
各種物体認識209および車両制御処理211は、図1の演算処理部105で行われ、CANへの出力は、CANインタフェース107にて行われる。これらの各処理手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。
図3のタイミングチャートでは大きく2系統の流れを、画像処理301と、演算処理302として示している。画像処理301の流れが、図1の画像処理部104における処理タイミングであり、演算処理302の流れが、図1の演算処理部105における処理タイミングを示している。
まず、画像処理301において右画像入力303が行われる。これは、図2における右カメラ202による画像撮像を行い、その後で画像処理A205を経て、画像バッファ206に右画像の画像データを蓄えるまでの処理に相当する。次に、左画像入力304が行われる。これは、図2における左カメラ201による画像撮像を行い、画像処理A205を経て、画像バッファ206に左画像の画像データを蓄えるまでの処理に該当する。
次に、視差処理305を行う。これは、図2において、画像バッファ206から左右の2つの画像を読み出し、両画像間の照合を取ることで視差を計算し、計算して得られた視差情報を記憶部106に蓄えるまでの視差処理207に相当する。この時点で、画像と視差情報が記憶部106に揃ったことになる。次に、演算処理部105に移行し、各種物体認識307と車両制御処理308が行われ、その結果がCANに出力される。
図3のタイミングチャートを見て分かるように、既存の典型的な車載ステレオカメラ装置200では、各種認識アプリケーションが、各種物体認識307のタイミングで動作する。これは処理構成をシンプルにできる反面、幾つかの課題が残る。1つは、各種物体認識307において、それぞれ必要とされる情報や、画像の品質が異なることである。
例えば視差処理を経て得られる画像は、自車前方の車両や歩行者を立体物として良く捉えられるよう、前方の物体に適合した画像処理を行う必要があるが、一方で、信号機や標識などの周辺にある物体を認識するには相応しくない画像となってしまう事態が生じる。
また、各種認識アプリケーションの全てが視差情報を必要とする訳では無い。典型例の1つが標識や遠距離における車両のテールランプ検知といったアプリケーションである。これらのアプリケーションでは、視差情報よりも、まず初めに画像情報を使った処理が主体となるため、この特性を活用することで、アプリケーションの計算処理を効率化することが見込まれる。
次に、本発明の車載画像認識装置の処理手順について図4及び図5を参照して説明する。
図4は、本実施形態にかかる車載画像認識装置の処理手順を示すフロー図、図5は、分配処理の事例を示したイメージ図であり、右の撮像画像内にステレオ視用画像領域と単眼視用画像領域が設定された状態を示す。
車載画像認識装置400は、図4に示すように、左カメラ401と右カメラ402により撮像された撮像画像の画像データ403、404のそれぞれについて、左カメラ401と右カメラ402の各撮像素子が持つ固有の癖を吸収するための画像処理A405を行う。画像処理A405では、ノイズ補間や歪み補正などが行われる。
そして、分配部109により、画像バッファα407と画像バッファβ408に画像処理A405後の画像データを分配する分配処理406が行われる。分配処理406では、画像処理A405後の画像データを双方の画像バッファ407、408に蓄えるか、または片方だけに蓄えるか、及び蓄えた画像データに対する画像処理の指示などが行われる。具体的には、左右一対のカメラ401、402で撮像した各撮像画像501を左右方向の画像走査ラインに沿ってスキャンし、各撮像画像501の予め設定されたステレオ視用画像領域502内をスキャンしたステレオ視用画像データと、右の撮像画像501の予め設定された単眼視用画像領域503内をスキャンした単眼視用画像データとに分配する処理が行われる。
ステレオ視用画像領域502は、例えばステレオ視画像処理により車両や人を検出するための領域であり、複数のアプリケーションの中から実行されるアプリケーションの種類に基づいて各撮像画像501内にそれぞれ設定される。単眼視用画像領域503は、例えば単眼視画像処理により道路面上の標識や自車両前方の先行車両のテールランプを検出するための領域であり、一方のカメラである右カメラ402で撮像した撮像画像501内にのみ設定される。本実施形態では、単眼視用画像領域503は、右カメラ402で撮像した撮像画像501内にのみ設定される場合について説明したが、左カメラ401で撮像した撮像画像501内にのみ設定してもよい。
画像バッファα407と画像バッファβ408に蓄えられたステレオ視用画像データと単眼視用画像データは、画像処理部104によって画像処理B409と画像処理C410に用いられる。画像バッファα407は、ステレオ視用画像データを蓄積する画像バッファであり、その後の画像処理B409は、従来の視差処理(ステレオ視画像処理)207に相当する。視差処理では左右の画像間の相関を見る必要があるため、画像バッファα407は、左右の画像の視差対象とするエリアに相当するステレオ視用画像領域502のステレオ視用画像データをそれぞれ蓄積する。画像処理B409では、画像バッファα407に蓄積された左右のステレオ視用画像領域502のステレオ視用画像データを用いた視差処理が行われる(ステレオ視画像処理部)。
一方、画像バッファβ408は、画像バッファβ408へのデータ転送や、その後の画像処理C410の計算量を抑えるため、横方向の画像ラインとして、1ラインから、フィルタ処理に必要となる数ライン分の画像データを蓄積する、小容量のライン画像バッファである。画像処理C410では、画像バッファβ408に蓄積される単眼視用画像データを用いた単眼視画像処理が行われる(単眼視画像処理部)。
画像処理B409は、比較的容量の大きい画像データが必要であり、相互の画像データの照合を行うため、画像転送と処理に時間が掛かる。この画像処理B409により、車両や人の検出に適した画像処理が行われた画像と、視差データが得られる。
一方、画像処理C410は、ラインバッファに蓄えられた、数行分のライン画像データに対して、コントラスト変換やぼかし処理などの限定した単眼視画像処理を行う。例えばぼかし処理のフィルタサイズを3×3とすれば、3ライン分の画像が画像バッファβ408に蓄えられていれば良い。この画像処理C410により、標識やテールランプの検出に適した画像処理が行われた画像と、エッジデータなどが得られる。
画像処理C410は、分配処理406によって画像バッファβ408に1ライン分のライン画像データが送られるたびに実行可能なため、画像のエリア内全面をバッファリングするための待ち時間が無く、パイプライン的な逐次の画像処理ができることが特長となる。但し、小領域の画像処理を何度も繰り返すことは処理時間的に厳しいので、適用する画像処理を想定した処理合成が必要である。処理合成については後述する。
この2つの画像処理結果を受けて、各種物体認識411が行われる。どの物体認識がどの画像を使うかは事前に決定することが可能であり、例えば車両や人の検知などは立体物としての情報が重要なので、画像処理B409の結果を使って認識処理を行う。一方、標識の検知やテールランプの検知などは、立体物の情報ではなく画像のみの情報で処理ができるため、画像処理C410の結果を使って認識処理を行う。各種物体認識411の際には、認識辞書412を用いる。このとき、認識辞書412に、分配処理に応じたフラグを持たせることで、認識精度の向上が可能となる。最後に、各種物体認識411の結果を使用して車両制御処理413による制御処理を行い、車両の制御方針を決定し、その結果を、CANインタフェース414を通して出力する。
更に、各種物体認識411と車両制御処理413は、次回、次々回の撮像サイクルにおける分配処理を予約するための指示を分配計画416に送る。例えば、ステレオ視画像処理において、道路面上の立体構造物を検知し、高速道路の電光掲示板が出現すると予想した場合に、次のフレームでは、画面上方において標識認識を行うため、画像バッファβ408にライン画像の画像データを分配し、それに連携する画像処理C410を起動するような指示を、分配計画416に送る。
分配計画416は、各種物体認識411と車両制御処理413からの情報に基づいて分配部109による分配計画データを作成する(分配計画部)。分配計画416では、各アプリケーションから、次のサイクル、次々のサイクルなど将来的な撮像時における、各バッファへの画像の分配状況と、分配時の画像処理が記憶される。更に過去の履歴を用いることで、分配処理406による分配計画データを作成し、画像処理時のヒストグラム補正や意図的なランダム性を考慮した画像処理の指示を可能とする。例えば、標識認識においてはコントラスト補正が重要であるが、最適なコントラスト補正のパラメータを求めることは容易ではない。そこで、ある一定範囲においてコントラスト補正パラメータをランダムに補正し、これに応じて標識検知や標識認識結果の履歴を参照することで、標識が映っている期間内において精度を高める調整を可能とする。また、コントラスト補正パラメータと標識検知の精度が一定のモデル関数で結び付けられるという前提によって、当該関数の導関数値からパラメータを補正することも可能となる。
図5に示す撮像画像は、右カメラ402で撮像した撮像画像501のイメージ図であり、例えば図5(a)では、標識の出現位置が自車両前方の上側のため、標識用画像領域として単眼視用画像領域503が撮像画像501の上方に設定されている。一方、ステレオ視をするための車両や人の検知エリアは、車両の前方中央付近に集中するため、標識用画像領域とは別に、車両/人用画像領域としてステレオ視用画像領域502が撮像画像501の略中央に設定されている。本実施形態ではステレオ視用画像領域502と単眼視用画像領域503はそれぞれ矩形を有しており、重複して配置されている。標識用画像領域と車両/人用画像領域は、重複していてもよく、また、重複していなくてもよい。
図5(a)〜(d)に示す各撮像画像501は、例えば左側から右側に向かって水平方向に上位のラインから順番にスキャンされてゆく。そして、図5(a)に示す例では、画像走査ライン1については、標識用のみにスキャンデータを転送すれば良いため、画像バッファβ408のみに分配されて記憶される。
一方、画像走査ライン2については、単眼視用画像領域503とステレオ視用画像領域502とが重複しているため、画像バッファα407と画像バッファβ408のそれぞれにスキャンデータが転送される。すなわち、画像走査ライン2のスキャンデータは、画像バッファα407と画像バッファβ408のそれぞれに分配されて記憶される。そして、画像走査ライン3については、ステレオ視用のみにスキャンデータを転送すればよく、画像バッファα407のみに分配されて記憶される。
検知エリアの配置は、動的に変わり得る。例えば図5(b)に示す例では、ステレオ視用画像領域502が図5(a)よりも上側にシフトしている。例えば、このような状況は前方に急な坂道があるなど、撮像画像501内の上方をステレオ視で注視する必要が生じたときに発生し得る。この場合は、先程と異なり、画像走査ライン1において画像バッファα407と画像バッファβ408にスキャンデータを転送する必要がある。そして、画像走査ライン3については、双方のバッファに転送する必要が無くなる。
また、図5(c)に示すように、近距離に背の低い立体物があるケースにおいて、それが子供などの可能性がある場合、単眼系の人検知やオプティカルフローなどの画像処理アプリケーションで使用する単眼視用画像領域503を撮像画像501の下側に設けて、画像走査ライン3を設定することも可能である。
また、図5(d)に示すように、車両制御の情報に応じて、ステレオ視用画像領域502を、あたかも人が寄り目や流し目を行って対象物を注視するように左右にシフトすることも可能である。画像処理B409の計算量が多くなる場合は、同様な処理を単眼アプリケーションで行うことができる。すなわち、分配処理406により、バッファの分類と処理すべき画像処理の指定を可能とすることで、ステレオカメラにおけるアプリケーションの適用範囲を柔軟に構築でき、更にタイミング調整により処理時間の削減を図ることができる。
分配処理406では、例えば子供などの対象物が予め設定された位置よりも自車に接近したことを検知した場合に、単眼視用画像領域503の設定をやめて、ステレオ視用画像領域502のステレオ視用画像データのみを用いた画像処理B409のみを行ってもよい。
図6は、本発明による処理のタイミングチャートである。
図6のタイミングチャートでは大きく2系統の流れを画像処理601と演算処理602として示している。画像処理601の流れが、図1の画像処理部104における処理タイミングであり、演算処理602の流れが、図1の演算処理部105における処理タイミングを示している。
まず、画像処理601において右画像入力603が行われる。これは、図4における右カメラ402による画像撮像を行い、その後で画像処理A405を経て、画像バッファα407に右画像のステレオ視用画像領域502のステレオ視用画像データと、画像バッファβ408に右画像の単眼視用画像領域503の単眼視用画像データを蓄える処理に相当する。
次に、左画像入力604が行われる。これは、図4における左カメラ401による撮像を行い、その後で画像処理A405を経て、画像バッファα407に左画像のステレオ視用画像領域502のステレオ視用画像データを蓄えるまでの処理に該当する。
まず、右画像入力603が行われる。画像処理C410では、右画像の入力において全ての画像データが揃うのを待つ必要は無く、途中の段階から分配処理406によってデータ転送606が行われ、画像バッファβ408に一部データが蓄積され、更に画像処理609が行われる。ここで言う画像処理609とは、図4における画像処理C410に該当する。
この段階では視差処理のための画像処理を行う必要はなく、想定するアプリケーションに適した画像処理を行うことができる。例えば、視差処理では自車前方中央の立体物をなるべく検知しやすくなるように、コントラスト調整を行うが、周辺で暗く映っているオブジェクトの認識が行い難くなる。そこで、標識などの認識が想定される標識用画像領域に対しては、例えば、ぼかし処理を緩める、暗い対象物を明るくするようなコントラスの調整処理、標識の色味を強調する色彩処理、あるいは最適なコントラストを探すため、最初はランダムにコントラストの値を設定し、検知結果に応じて最適なコントラストを決定するといった、時系列の記憶を使った処理を行う。
画像処理601、すなわち画像処理部104においては、左画像入力604と視差処理605が行われるが、この間に標識認識や車両テールランプ検知など、非立体系(平面系)の各種物体認識を行うことができる。また、視差処理605の後には、認識対象の画像領域全面(ステレオ視用画像領域全面)の画像データと、視差データが得られるため、これを視差処理605の終了のタイミング608で演算処理部105に転送して、演算処理602において立体系の各種物体認識611を行うことができる。
また、非立体系の認識処理結果を受けて、この段階で視差情報を使うことも可能である。例えば、車両のテールランプ検知は、画像処理を元に、平面系の各種物体認識610のタイミングで行えるが、検知したテールランプまでの距離測定は、立体系の各種物体認識611の段階で行える。これにより、効率的な処理分配が可能となり、画像処理部104から演算処理部105におけるタイミングの隙間に認識アプリケーションを駆動することができ、全体としての処理効率化が可能となる。
更に、これら各種物体認識610と611の結果を受けて車両制御処理612で制御処理を行う。車両制御処理612では、外界状況と自車制動状況に応じて、アプリケーション駆動とそのための画像処理を設定することで、認識精度の向上が可能となる。例えばハンドルを右に切るが、左側に注視したい物体がある、あるいは小さい立体物が目の前に現れ、それが次にエリア下の方に隠れそうな場合などにおいて、次のエリア設定をどうするかが判断される。また、外界の暗さに応じたコントラスト補正をどうするかが設定される。また、車両前方の道路面上に立体物がある場合、今後は数フレームに渡って、電光掲示板の出現が想定されるエリアに対する認識に備えるため、単眼認識のエリア(単眼視用画像領域)を上位に設定することが行われる。
図7は一般的な撮像素子で撮像した画像の一例であり、例えば右画像入力603により得られて画像処理609を経た画像がこれに相当する。
例えば、標識認識に適した画像バッファの処理については、赤色など特徴的な標識を認識する際に、赤を強調する処理を入れる、またはメモリ削減のため奇数の横ライン1,3・・・のみを転送するといった処理を分配部109に指示することで、アプリケーションに適した柔軟な画像処理の構成が可能となる。但し、小領域の画像処理を何度も繰り返すことは処理時間的に厳しいので、適用する画像処理を想定した処理合成が必要となる。以下に、画像バッファβ408に一部データを蓄積して画像処理609を行う際の、処理合成の概要を述べる。
画像バッファの処理については、画像の横ラインを幾つかまとめた処理を行うことが基本となる。例えば、縦3画素と横3画素(3×3)を単位としたぼかし処理やエッジ抽出などのフィルタ処理は、3行分の横ラインの画像データが、画像バッファに記録された段階で処理が可能となる。画像バッファ処理におけるフィルタ演算処理としては、コントラスト変換、画像ぼかし、画像先鋭化、ハフ投票、などがある。但し、これらの画像処理演算を複数回繰り返すことは難しいため、演算結果を統合した処理合成を行う。
標識の検知で重要となるハフ投票を例に、処理合成を述べる。ハフ投票とは、画像から抽出したエッジの角度を元に、当該角度の方向に円や矩形の中心が存在することを推定する処理である。ここでは3×3フィルタによるエッジ抽出からハフ投票における処理合成過程を述べる。エッジを抽出する対象画像と、その上のピクセルを図8のようにpijで表すとする。このとき、p22を着目点として、縦方向のエッジ強度は、図9に示すフィルタとの畳み込みで計算できる。また、横方向のエッジ強度は、同様に図10に示すフィルタとの畳み込みで表される。このとき、着目点p22に対するエッジの角度として、横方向エッジ強度/縦方向エッジ強度、という推定が可能である。
また、エッジの強度として、エッジベクトルの二乗ノルムを使うとする。このとき、エッジ抽出からハフ投票に至るプロセスは、画素p22を中心とする3×3の画素範囲に対して、
1)エッジ強度=(p11+p12+p13−p31−p32−p33)
^2+(p11+p21+p31−p13−p23
−p33)^2
2)エッジ(横)=p11+p12+p13−p31−p32−p33/
エッジ強度
3)エッジ(縦)=p11+p21+p31−p13−p23−p33/
エッジ強度
4)エッジ角度 =(p11+p12+p13−p31−p32−
p33)/(p11+p21+p31−p13−
p23−p33)
という計算で求めることができる。
したがって、エッジ角度に基づくハフ投票を行う場合、走査範囲の3×3内において、上記の計算手順により求めた{p22、エッジ(横)/エッジ(縦)、エッジ強度}を、ハフ投票空間に記録すれば良い。
これにより、横エッジを計算する、縦エッジを計算する、エッジ角度を計算する、という3段階に渡るフィルタ処理を1回の計算プロセスに落とし込むことができる。同様に画像に対するぼかしや先鋭化を加えたうえで、エッジ検出およびハフ投票を行う場合についても、画像処理の一連の過程から必要な計算ポイントをまとめることができる。
処理合成は、このように、いくつかの段階からなる画像のフィルタ演算から、計算過程で使われる全ての要素(画素、pij)を抽出し、最終的な結果として得られる計算式を導くという厳密な導出と、近似式による導出がある。
近似式による導出は、次のようなプロセスになる。まず、使われる要素(pij)からモデル式を想定する。上記のエッジ抽出とハフ投票のケースで言えば、高々2次の多項式が分母と分子にある形となる。すなわち、
5)モデル式=Σ{ak・pij・pnm}/Σ{bk・pij
・pnm}
がモデル式となる。
次に、このモデル式の係数ak、bkを求めれば、ある走査範囲内(例えば3×3内)の画素群{pij}に対して、求める計算量の近似値が導けることになる。ここで、係数ak、bkをどう求めるかが課題となるが、これは学習用の画像の任意の箇所の画素集合{pij}に対して、厳密解で求めた値と、それを近似解で求めた値とを比較し、その誤差がなるべく小さくなるようにak、bk値を調整すれば良い。この近似式による処理合成は、モデル式の次数や関数形を制限することで、処理量を削減できるというメリットがある。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100 車載画像認識装置
101L 左カメラ
101R 右カメラ
104 画像処理部
105 演算処理部
106 記憶部
108 制御処理部
109 分配部
409 画像処理B(ステレオ視画像処理部)
410 画像処理C(単眼視画像処理部)

Claims (3)

  1. 複数のアプリケーションを実行するために左右一対のカメラで撮像した撮像画像を用いて車外環境を認識する車載画像認識装置であって、
    前記複数のアプリケーションの中から実行されるアプリケーションの種類に基づいて前記左右一対のカメラで撮像した各撮像画像内にステレオ視用画像領域をそれぞれ設定すると共に一方のカメラで撮像した撮像画像内に単眼視用画像領域を設定し、前記左右一対のカメラで撮像した各撮像画像を左右方向の画像走査ラインに沿ってスキャンして前記ステレオ視用画像領域内をスキャンしたステレオ視用画像データと前記単眼視用画像領域内をスキャンした単眼視用画像データとに分配する分配部と、
    前記ステレオ視用画像データを用いてステレオ視画像処理を行うステレオ視画像処理部と、
    前記単眼視用画像データを用いて単眼視画像処理を行う単眼視画像処理部と、
    前記ステレオ視画像処理部の画像処理結果と、前記単眼視画像処理部の画像処理結果を用いて前記アプリケーションの種類に応じた物体の認識を行う物体認識部と、
    前記ステレオ視用画像データを蓄積するステレオ視用画像バッファと、
    前記単眼視用画像データを蓄積する単眼視用画像バッファと、
    を有し、
    前記ステレオ視画像処理部は、前記ステレオ視用画像バッファへの前記ステレオ視用画像データの蓄積を完了してから前記ステレオ視画像処理を実行し、
    前記単眼視画像処理部は、前記単眼視用画像バッファに前記単眼視用画像データを蓄積しながら前記単眼視画像処理を実行することを特徴とする車載画像認識装置。
  2. 前記物体認識部による物体認識の結果を使用して車両の制御方針を決定する車両制御処理部と、
    前記物体認識部と前記車両制御処理部からの情報に基づいて前記分配部による分配計画データを作成する分配計画部と、を有することを特徴とする請求項1に記載の車載画像認識装置。
  3. 複数のアプリケーションを実行するために左右一対のカメラで撮像した撮像画像を用いて車外環境を認識する車載画像認識装置であって、
    前記複数のアプリケーションの中から実行されるアプリケーションの種類に基づいて前記左右一対のカメラで撮像した各撮像画像内にステレオ視用画像領域をそれぞれ設定すると共に一方のカメラで撮像した撮像画像内に単眼視用画像領域を設定し、前記左右一対のカメラで撮像した各撮像画像を左右方向の画像走査ラインに沿ってスキャンして前記ステレオ視用画像領域内をスキャンしたステレオ視用画像データと前記単眼視用画像領域内をスキャンした単眼視用画像データとに分配する分配部と
    前記ステレオ視用画像データを用いてステレオ視画像処理を行うステレオ視画像処理部と、
    前記単眼視用画像データを用いて単眼視画像処理を行う単眼視画像処理部と、
    前記ステレオ視画像処理部の画像処理結果と、前記単眼視画像処理部の画像処理結果を用いて前記アプリケーションの種類に応じた物体の認識を行う物体認識部と、
    を有し、前記分配部は、対象物の接近を検知した場合に前記単眼視用画像領域の設定をやめることを特徴とする車載画像認識装置。
JP2016551626A 2014-09-30 2015-08-19 車載画像認識装置 Active JP6316976B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014201369 2014-09-30
JP2014201369 2014-09-30
PCT/JP2015/073174 WO2016051981A1 (ja) 2014-09-30 2015-08-19 車載画像認識装置

Publications (2)

Publication Number Publication Date
JPWO2016051981A1 JPWO2016051981A1 (ja) 2017-04-27
JP6316976B2 true JP6316976B2 (ja) 2018-04-25

Family

ID=55630027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551626A Active JP6316976B2 (ja) 2014-09-30 2015-08-19 車載画像認識装置

Country Status (4)

Country Link
US (1) US10148938B2 (ja)
EP (1) EP3203725B1 (ja)
JP (1) JP6316976B2 (ja)
WO (1) WO2016051981A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102217267B1 (ko) 2014-11-20 2021-02-17 주식회사 엘지화학 정공수송물질
US9954174B2 (en) 2015-05-06 2018-04-24 E I Du Pont De Nemours And Company Hole transport materials
EP4064679A1 (en) * 2016-09-16 2022-09-28 Sony Semiconductor Solutions Corporation Imaging device and electronic device
JP7033649B2 (ja) * 2018-03-22 2022-03-10 日立Astemo株式会社 車載ステレオカメラ
US10932336B2 (en) 2018-09-10 2021-02-23 Lumileds Llc High speed image refresh system
US11091087B2 (en) 2018-09-10 2021-08-17 Lumileds Llc Adaptive headlamp system for vehicles
US11011100B2 (en) 2018-09-10 2021-05-18 Lumileds Llc Dynamic pixel diagnostics for a high refresh rate LED array
US11164287B2 (en) 2018-09-10 2021-11-02 Lumileds Llc Large LED array with reduced data management
TWI826530B (zh) 2018-10-19 2023-12-21 荷蘭商露明控股公司 驅動發射器陣列之方法及發射器陣列裝置
JP7400222B2 (ja) * 2019-06-14 2023-12-19 マツダ株式会社 外部環境認識装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833930B2 (ja) * 2001-11-20 2006-10-18 富士重工業株式会社 ステレオカメラの調整装置
US7162074B2 (en) 2001-11-20 2007-01-09 Fuji Jukogyo Kabushiki Kaisha Adjusting apparatus for stereoscopic camera
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
JP5115792B2 (ja) 2007-07-04 2013-01-09 オムロン株式会社 画像処理装置および方法、並びに、プログラム
JP2011134207A (ja) * 2009-12-25 2011-07-07 Konica Minolta Holdings Inc 運転記録装置および地図作成システム
JP6197291B2 (ja) * 2012-03-21 2017-09-20 株式会社リコー 複眼カメラ装置、及びそれを備えた車両

Also Published As

Publication number Publication date
WO2016051981A1 (ja) 2016-04-07
US10148938B2 (en) 2018-12-04
EP3203725A1 (en) 2017-08-09
JPWO2016051981A1 (ja) 2017-04-27
EP3203725A4 (en) 2018-05-30
EP3203725B1 (en) 2022-01-26
US20170244954A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6316976B2 (ja) 車載画像認識装置
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
EP2642429B1 (en) Multi-lens camera system and range-finding method executed by the multi-lens camera system
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
US10679388B2 (en) Image processing apparatus, device control system, imaging apparatus, and recording medium
WO2017134982A1 (ja) 撮像装置
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
EP2770478A2 (en) Image processing unit, imaging device, and vehicle control system and program
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2013250907A (ja) 視差算出装置、視差算出方法及び視差算出用プログラム
US9390336B2 (en) Image processing device, image processing method
JP2017219427A (ja) 物体距離検出装置
JP5027710B2 (ja) 車両用環境認識装置および先行車追従制御システム
US11377027B2 (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, mobile body, and image processing method
JP7427594B2 (ja) 画像処理装置
JP7261006B2 (ja) 車外環境認識装置
JP2020201876A (ja) 情報処理装置及び運転支援システム
JP5950193B2 (ja) 視差値演算装置及びこれを備えた視差値演算システム、移動面領域認識システム、視差値演算方法、並びに、視差値演算用プログラム
JP2013161187A (ja) 物体認識装置
KR101982091B1 (ko) 서라운드 뷰 모니터링 시스템
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US9965692B2 (en) System and method for detecting vehicle
JP5878808B2 (ja) 車外環境認識装置および車外環境認識方法
JP5981857B2 (ja) 車外環境認識装置および車外環境認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250