JP2017027220A - 車載環境認識装置 - Google Patents

車載環境認識装置 Download PDF

Info

Publication number
JP2017027220A
JP2017027220A JP2015143192A JP2015143192A JP2017027220A JP 2017027220 A JP2017027220 A JP 2017027220A JP 2015143192 A JP2015143192 A JP 2015143192A JP 2015143192 A JP2015143192 A JP 2015143192A JP 2017027220 A JP2017027220 A JP 2017027220A
Authority
JP
Japan
Prior art keywords
image
irradiation
outside
camera
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015143192A
Other languages
English (en)
Other versions
JP6537385B2 (ja
Inventor
雅幸 竹村
Masayuki Takemura
雅幸 竹村
永崎 健
Takeshi Nagasaki
健 永崎
フェリペ ゴメズカバレロ
Gomezcaballero Felipe
フェリペ ゴメズカバレロ
健 志磨
Takeshi Shima
健 志磨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2015143192A priority Critical patent/JP6537385B2/ja
Priority to CN201680023488.7A priority patent/CN107852465B/zh
Priority to EP16827587.3A priority patent/EP3328069B1/en
Priority to PCT/JP2016/069579 priority patent/WO2017014023A1/ja
Priority to US15/574,374 priority patent/US10509973B2/en
Publication of JP2017027220A publication Critical patent/JP2017027220A/ja
Application granted granted Critical
Publication of JP6537385B2 publication Critical patent/JP6537385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Abstract

【課題】車載カメラによる自車両のヘッドライト照射範囲内とヘッドライト照射範囲外の認識性能を向上することができる車載環境認識装置を得ること。
【解決手段】本発明の車載環境認識装置は、車両に設置されたカメラを利用してヘッドライト照射範囲よりも広角な範囲を撮像する撮像部100と、ヘッドライト照射範囲内とヘッドライト照射範囲外に適切な露光条件を別々に設定する照射内外露光調整部と、取得した画像に基づいて画像認識を行う認識部500を有する。したがって、ヘッドライト照射範囲内外の境界領域や範囲外においても高い認識性能を維持することが可能となり、夜間においても広角なセンシングにも利用可能となる。
【選択図】図1

Description

本発明は、車載カメラを利用して自車両の周囲に存在する障害物や車線などを認識する車載周囲環境認識装置に関する。
車両に設置されたカメラにより自車両の周囲環境を認識するアプリケーションの製品化が増加傾向にある。その中でも、認識した物体を利用し、未然に事故を防止する予防安全技術や、自律走行を目指した車両制御技術への応用が期待されている。車両制御に利用される認識技術は、高い信頼性が必要とされる。
例えば、夜間や逆光などカメラ視野角内に、明るい領域と暗い領域が共存する光源環境においては、カメラのダイナミックレンジが不足し、白飛びもしくは黒つぶれし、画像で対象物を認識できない要因となりうる。特許文献1には、対向車両などのヘッドライトにより生じる白飛び領域を観測し、白飛び領域には明るい領域であることを考慮した認識にとって適切な露光量に設定し、対向車などの検知を実施することを目的とした技術が示されている。
特開2013-168738号公報
一般的な車両前方の障害物を検知するようなカメラは、視野角が30度から50度程度であり、撮像範囲と自車両のヘッドライト照射範囲との間に大きな差異はない。しかしながら、広角なカメラを自車両の前方監視に利用した場合、昼間は広角なセンシングを可能とするが、夜間は広角な画像を撮像可能でありながらヘッドライト照射範囲外は暗くなり、センシングに利用することが困難であった。視野角が40度程度の車載フロントカメラと同様に、ヘッドライト照射範囲内の画像領域に適切な露光条件を設定した場合、ヘッドライト照射範囲外の画像領域はダイナミックレンジの不足から黒つぶれし、そのままでは障害物などを検知することが困難である、という課題があった。すなわち、広角カメラの視野角よりもヘッドライト照射範囲が狭いため、夜間に広視野角な認識が困難であるという課題が存在する。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、車載カメラによる自車両のヘッドライト照射範囲内とヘッドライト照射範囲外の認識性能を向上することができる車載環境認識装置を提供することにある。
上記課題を解決する本発明の車載環境認識装置は、車載カメラを用いて自車両の前方を撮像する撮像部と、該撮像部で撮像された撮像画像を用いて周囲環境の認識を行う認識部と、を備える車載環境認識装置であって、前記車載カメラは、自車両のヘッドライト照射範囲を含みかつ該ヘッドライト照射範囲よりも水平方向に広い範囲を撮像可能であり、前記撮像部は、ヘッドライト照射範囲内を撮像した照射領域内の画像とヘッドライト照射範囲外を撮像した照射領域外の画像とで明るさの調整量を変更して前記撮像画像を撮像することを特徴とする。
本発明によれば、車載カメラによる自車両のヘッドライト照射範囲内とヘッドライト照射範囲外の認識性能を向上することができる。特に、ヘッドライト照射範囲外の画像領域を対象とした露光調整を考慮することで、ヘッドライト照射範囲外においてもセンシングの認識性能低下を抑制する。また、ヘッドライト照射範囲内とヘッドライト照射範囲外との境界領域における認識性能の低下も抑制する。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
車載環境認識装置の構成図。 照射領域設定部の構成を示す図。 照射内外露光調整部の構成を示す図。 認識部の構成を示す図。 カメラの視野角とヘッドライト照射範囲の一例を模式的に示す図。 照射領域内外の露光枠の設定例を示す図。 照射領域内外の利用画像を説明する図。 照射領域推定部による照射領域の推定方法を説明する図。 広角カメラで撮像した画像を用いたステレオマッチングを説明する図。 ステレオ用左右領域設定部の構成を説明する図。 ステレオ用左右領域設定部の他の構成を説明する図。 単一シャッタータイミングの処理フローを示す図。 2重露光のタイミングチャートを示す図。 2重露光における処理フローを示す図。 2重露光の他のタイミングチャートを示す図。
次に、本発明の実施例について図面を用いて以下に説明する。
図1は、車載環境認識装置の構成図である。本実施例における車載環境認識装置は、車両に搭載された車載カメラを利用して自車両の周囲環境を撮像して障害物や車線などの周囲環境を認識するものであり、例えば障害物と衝突する危険性が高いと判断した場合に、警報もしくは緊急ブレーキ等の車両制御を実行させることができる。車載環境認識装置は、例えばカメラ装置などのハードウエアとソフトウエアの組み合わせにより構成されており、その内部機能として、図1に示すように、撮像部100、照射領域設定部200、照射領域内観測部300、照射領域外観測部350、照射内外露光調整部400、認識部500、警報制御部600を有する。
撮像部100は、車載カメラを用いて自車両の前方を撮像する。車載カメラは、自車両のヘッドライトが照射可能なヘッドライト照射範囲よりも画角の広い広角カメラを使用している。
図5は、カメラの視野角とヘッドライト照射範囲の一例を模式的に示す図である。例えば自車両Voの前方の障害物を検知するような従来の一般的な車載カメラは、遠方狭角監視用であり、画角(視野角)52は30度〜50度程度で、自車両Voのヘッドライト照射範囲と類似しており、大きな差異がない。一方、本実施例で用いている車載カメラは、近傍広角監視用の画角が120度程度のいわゆる広角カメラであり、自車両Voのヘッドライト照射範囲よりも画角51が大きく、昼間は広角なセンシングを可能とする。本実施例は、車載カメラが魚眼カメラを含めた自車両のヘッドライト照射範囲よりも画角の広いカメラである場合、夜間など周囲が暗い環境の認識性能向上のために効果が期待される。本実施例の車載カメラは、広角カメラであればよく、単眼カメラとステレオカメラのいずれでも良い。
図1の説明に戻り、照射領域設定部200では、撮像画像内で自車両のヘッドライト照射範囲が占める照射領域を設定する処理が行われる。照射領域設定部200は、ヘッドライトの露光制御に応じてハイビームやロービームなどのヘッドライト照射範囲をあらかじめ情報として記憶しておき、CAN通信による自車両のヘッドライト点灯状況から照射領域を設定しても良い。また、画像認識により照射領域を推定してもよい。
照射領域設定部200は、照射領域内に画像上の輝度を観測する照射領域内輝度観測領域(露光枠)を設定し、ヘッドライト照射範囲の外側となる照射領域外に画像上の輝度を観測する照射領域外輝度観測領域(露光枠)を設定する。照射領域内観測部300は、照射領域設定部200で設定された照射領域内輝度観測領域において画像上の輝度平均を算出する。同様に、照射領域外観測部350は、照射領域設定部200で設定された設定された照射領域外輝度観測領域において画像上の輝度平均を算出する。
照射内外露光調整部400では、上記、照射領域内観測部300と照射領域外観測部350によって観測された画像上の輝度変化を利用して露光制御を実施する。照射内外露光調整部400は、照射領域内観測部300の結果から、ヘッドライトで照射されたヘッドライト照射範囲内の明るい領域を画像処理するのに適切な画像を取得可能な露光条件の設定を行う。そして、照射領域内の平均輝度が特定の輝度範囲内に入るように、かつ1frm間で激しく輝度変化が起こらないように、フィードバック制御しながら、撮像画像の露光条件を変更する。
また、照射内外露光調整部400は、照射領域外観測部350の結果から、ヘッドライト照射範囲外の暗い領域を画像処理するのに適切な画像を取得可能な露光条件の設定を行う。そして、照射領域外の平均輝度が特定の輝度範囲内に入るように、かつ1frm間で激しく輝度変化が起こらないように、フィードバック制御しながら、撮像画像の露光条件を変更する。露光条件の変更では、明るさの調整量(ゲインもしくは露光時間)が変更される。
そして、これらを元に明るい領域用の画像と、暗い領域用の画像を取得する。暗い領域用の画像の取得では、画像が黒つぶれしないように、シャッター時間を長くするもしくは暗い状態のゲインを高く持ち上げる、もしくは高速カメラの積分画像を利用するなどにより、照度の低い領域が認識しやすいような画像を取得する。
認識部500は、配光パターンの情報を元に、図7に示すようにヘッドライト照射範囲内とヘッドライト照射範囲外が既知であるので、ヘッドライト照射範囲内の対象物の認識にはヘッドライト配光パターン内部の明るい領域用の画像(明領域画像Pb)を利用し、ヘッドライト照射範囲外の対象物の認識にはヘッドライト配光パターン外部の暗い領域用の画像(暗領域画像Pd)を利用して、認識処理を実施する。画像上の明るさに応じて適切な画像を選択して画像認識を実施することで、照射領域外においても適切な認識を実施できる。例えば、歩行者検知や車両検知においても、照射領域外と照射領域内との境界領域においても、認識にとって適切な画像を用意することによって夜間であってもカメラの広角な位置に存在する障害物や車線などを検知することが可能である。
警報制御部600では、認識部500において認識した結果を利用して、自車両への影響を予測して,例えば車線逸脱防止や衝突防止などの警報もしくは車両制御を実施する。
次に、図1に示す照射領域設定部200の具体的な構成例について説明する。図2は、照射領域設定部の構成例を説明する図である。照射領域設定部200は、図2に示すように、配光パターン設定部210、自車両姿勢計測部220、画像上露光枠設定部230、光源環境認識部240、ステレオ用左右領域設定部250を有する。
配光パターン設定部210は、自車両の配光パターンを設定する。まず、周囲環境の明るさは、CAN通信により把握可能なヘッドライトのON,OFF状況と、カメラにより取得可能な周囲環境の明るさにより走行環境の明るさの判定を実施する。そして、昼間なのか夜間なのか、夜間であっても街灯により明るい状況であるか、周囲に光源がないような暗い状況なのかを判断する。これにより、自車両の走行環境の明るさを把握する。自車両のヘッドライトの照射状況は、CAN通信からON,OFFだけでなくHigh,Lowの切り替えも把握可能である。ただし、ヘッドライトの細かい照射角度などは、自車両の傾きや走行路の傾きにより変化する。
そこで次に、自車両姿勢計測部220で、自車両と外環境との姿勢の変化をリアルタイムに計測する。自車両の走行中にレーンWLや先行車両のテールランプの画像情報や、自車両の車載カメラがステレオカメラの場合には周囲環境から得られる路面の視差画像や立体物の鉛直上向きに伸びるエッジ部分などの情報を利用して、自車両と外環境の姿勢を推定する。推定された姿勢情報を利用してヘッドライト照射範囲の補正情報として利用しても良い。しかし、車両にもよるが手動で細かな角度を調整可能なある場合もある。このような場合も想定し、CANによりヘッドライトのON、OFF、High,Low程度の情報しか得られないような状況においても、画像上の露光枠の設定を利用することで大まかなヘッドライト照射範囲を推定しても良い。
画像上露光枠設定部230は、上記の配光パターン設定部210において得られた配光情報と、車体の姿勢を自車両姿勢計測部220において推定し、これらの情報を利用して推定された配光情報から、図6に示すように、照射領域内と照射領域外に分割し、露光条件を設定するための画像の輝度情報を取得する露光枠Fc、Fl、Frとして設定する。図6は、照射領域内外の露光枠の設定例を示す図である。図6には、ヘッドライトが照射された車両前方を撮像した画像と、露光枠Fc、Fl、Frが示されている。
露光枠Fcで取得される画像は、自車両のヘッドライトが主光源となる。したがって、図1の照射領域内観測部300において、その露光枠Fcの輝度平均を算出し、これを輝度情報として照射内外露光調整部400に渡しても良い。夜間は自車両のヘッドライトが主光源となることが明らかであるので、輝度情報を利用した露光条件の設定も緩やかに変化するような設計として照射内外露光調整部400において露光条件を調整する。
露光枠Fcの側方に位置する左右の露光枠Fl、Frは、照射範囲外用の輝度観測領域における平均輝度を算出しても良いし、それぞれ別々に輝度平均を算出することで、左右で異なる周囲環境から外部の光源環境の異なりに左右別に対応できるようにしても良い。これらの平均輝度は、照射領域外観測部350において算出する。露光枠Fl、Frにおける平均輝度を利用して周囲環境の光源環境の変化にも応じて照射範囲内と比較して暗い領域の画像が認識に利用しやすいように露光条件の設定に利用する。
自車両のヘッドライト配光パターンが未知の場合や、ヘッドライトが切れている状況、もしくはヘッドライトを取り替えたために車両購入時の配光パターンと異なるような場合には、配光パターン設定部210の情報を利用しても、適切に露光枠を設定できない可能性がある。このように配光パターンが未知の場合、もしくは配光情報を持っていたとしても推定した配光パターンと実車から見える配光パターンが大きく異なる場合に備えて、自車両の配光パターンを大まかに推定し、露光枠を設定する機能を画像上露光枠設定部230に備えても良い。
図8は、照射領域推定部による照射領域の推定方法を説明する図である。図8に示すように、照射領域を推定するために、矩形の輝度を観測する局所露光枠Fsを撮像素子上に複数個並べて配置する。配置された局所露光枠Fsにおいて輝度を観測するとともに、自車両の姿勢推定結果を利用することで、路面と空の境界位置Hoを大まかに利用する。これら局所露光枠Fsの各輝度値は、時系列にその変化を解析することで、変化のすくない明るい領域、特にカーブ中などにおいても変化しないような明るい領域は自車両のヘッドライトにより照らされたヘッドライト照射範囲内の領域(照射領域内)であると判断する。そして、外環境の光源により輝度が変化するもしくは輝度が常に暗い領域は、ヘッドライト照射範囲外の領域(照射領域外)であると判断する。これにより、ヘッドライト照射範囲内と範囲外の領域を大まかに設定しても良い。
光源環境認識部240では、外環境が昼か夜かの判定や、トンネル、逆光、対向車ヘッドライトなどの光源位置の算出などを行う。ナビからの位置情報と時刻などを利用してもよいし、カメラの露光情報、ゲインやシャッター値から昼夜の判定は可能である。撮像画像を利用すると、逆光や、対向車のヘッドライトなどの高輝度領域を点光源として抽出することは可能である。まずは昼の明るい環境下においては、安全のためにヘッドライトが点灯状態であったとしても路面上の明るさなどは太陽光が主な光源となりヘッドライトによる明るさの変化は大きく影響しない。
夜間や昼であっても比較的暗いトンネル内などのような場合に、ヘッドライトが点灯すると、照射領域内と照射領域外において明るさが変化するため、この照射領域内と照射領域外において異なる適切な露光調整をすることが認識性能に大きく影響する。本実施例では、広角の車載フロントカメラを想定しているが、これがステレオカメラであっても同様に効果をもたらすことができる。ステレオ用左右領域設定部250では、車載カメラがステレオカメラであった場合の特徴を示す。ステレオカメラでない場合には、この機能自体は必ずしも必要とならない。
ステレオカメラが備える2台のカメラを利用してステレオマッチングを行う際に、左右カメラのマッチングを行う範囲においては同一露光条件であることが望ましい。従来の視野角が40度程度の侠角のステレオカメラでは、カメラ視野角内がヘッドライト照射範囲とほぼ等しいため、左右カメラの露光条件を同一にするだけで、ステレオカメラのマッチング時に露光条件が異なる画像同士でのマッチングなどを考慮する必要がなかった。
しかしながら、広角のステレオカメラを利用してステレオマッチングを行う場合には、照射領域内と照射領域外において、図6に示すような異なる露光枠をそれぞれ設定し、照射領域内と照射領域外で異なる露光条件の画像を取得して画像処理する。これにより、照射領域内では、明るい環境に適切な画像(例えば、シャッタースピードが速いもしくはゲインの低い比較的昼に近い露光条件での画像)を取得し、照射領域外では、暗い環境に適切な画像(例えば、シャッタースピードが遅く、ゲインの高い露光条件での画像)を取得する。そして、これらの画像を画像認識に利用することで、照射領域内と照射領域外において、高い認識性能を維持する車載カメラを得る。
しかし、これを左右のカメラでそのまま実施すると、例えば右カメラをベースとして右カメラの局所矩形領域を基準画像として、左カメラの画像内を水平方向にサーチしながらステレオマッチングする場合、異なる露光条件の画像で左右画像のマッチングがなされてしまい、マッチングの精度が低下する。また、単に左右カメラの画像上同一座標で露光条件を変化させた場合には、その境界領域においては適切なマッチングができず、境界をすぎて異なる露光条件同士の画像を利用したマッチングを利用する際には、マッチング精度が低下する。
図9は、広角カメラで撮像した画像を用いたステレオマッチングを説明する図である。本実施例では、同一露光条件の画像を利用してステレオマッチングを実施する。例えば図9に示すように、右カメラで撮像した右画像(1)を基準画像であると定めた場合には、右画像(1)を基準として露光枠Fc、Fr、Flを設定し、照射領域内画像R_BAと照射領域外画像R_DAを取得する。
照射領域内の画像のステレオマッチングを考慮した場合に、遠方の物体は左右カメラでほぼ同一の場所に撮像されるが、近傍の物体であるほどステレオカメラの左右設置位置の差が影響し、右カメラでは少し左側に左カメラでは少し右といった具合に大きな視差が発生する。したがって、例えば基準画像である右画像(1)の露光領域をベースとして、探索画像である左画像(1)、(2)は、マッチング探索分だけ大きい領域を設定する。左右で同じ高さ領域は同一ゲインとする。
図9の例では至近距離の歩行者P1の首あたりに設置された局所矩形領域901が同一の露光条件の画像でステレオマッチングできるように、左画像(1)において右画像(1)の照射領域内画像R_BAと比較して検出対象となる視差分dだけ横方向に広い照射領域内画像L_BAを予め準備しておく。照射領域外においても同様であり、右画像(1)の照射領域外画像R_DAに対して、マッチング対象となる左画像(2)の照射領域外画像L_DAは、有効視差分dだけ横方向に広い範囲の照射範囲外画像L_DAを予め準備しておく。このように、左右のカメラにおいて検出対象となる近距離で発生しうる有効視差分を考慮した露光条件の画像をあらかじめ準備することで、露光条件を変更する境界領域においても適切にステレオマッチング可能とする。
右カメラは、露光条件の境界が重なりのない右画像(1)を取得するのに対し、左カメラは、ステレオマッチングを考慮して境界領域において範囲が重複する2つ以上の露光条件の左画像(1)、(2)を取得する。そして、ステレオマッチングには、左右同一露光条件の画像が選択される。すなわち、照射領域内のステレオマッチングには、右画像(1)の照射領域内画像R_BAと左画像(1)の照射領域内画像L_BAを用い、照射領域外のステレオマッチングには、右画像(1)の照射範囲外画像R_DAと左画像(2)の照射範囲外画像L_DAを用いる。
図1に示す、照射領域内観測部300は、図6に示すような露光枠Fc内の画像の輝度平均を算出するなど、照射領域内の輝度観測を実施する。また、照射領域が既知でない場合には、図8のような、細かく分割された局所露光枠Fsにそれぞれ照射領域内か照射領域外かの属性を持たせて照射領域内の属性を持った局所露光枠群Fs_bを利用して、これらの平均輝度を算出しても良い。
照射領域外観測部350は、照射領域内観測部300と同様に、図6に示すよう露光枠Fl、Fr内の画像の輝度平均を算出するなど、照射領域外の輝度観測を実施する。照射範囲外の露光枠Fl、Frは、左右に分かれて存在するが互いに平均して利用することができる。また、対向車や隣接車線走行車などのヘッドライトを考慮した露光調整を行いたい場合には、左右別に露光観測を実施し、露光調整も左右別で実施した方が、より周囲の光源環境に合わせた露光調整が可能となる。また、照射領域が既知でない場合には、図8のような、細かく分割された局所露光枠Fsにそれぞれ照射範囲内か照射範囲外かの属性を持たせて照射領域外の属性を持った局所露光枠群Fs_dを利用して、これらの平均輝度を算出しても良い。これも同様に自車両ヘッドライトのあたる照射範囲内の領域を中心に左右別に局所露光枠群を左右に分割して活用しても良い。
次に、照射内外露光調整部400について詳細な構成について説明する。
図3は、照射内外露光調整部の構成について説明する図である。照射領域設定部200で設定した露光枠の輝度を、照射領域内観測部300と照射領域外観測部350で観測することにより、撮像画像の状態を観測できる。この輝度情報を利用して、露光枠Fc内の平均輝度が高い場合は、ある一定値以上を超えないように、白とびしないように露光調整を実施し、反対に露光枠Fl、Fr内の平均輝度が低い場合には、黒つぶれしないように、露光調整を実施する。
ここでは、露光調整を実施するにあたり複数の実現方法があるため、何種類かの実現方法をそれぞれ示す。実際の露光調整は、これらのうちどれかを利用した方法であってもよいし、複数を同時に利用したものであっても、切り替えて利用するものであっても良い。
シャッタースピード変更部410では、照射領域内観測部300もしくは照射領域外観測部350にて観測された露光枠Fc、Fl、Frの各平均輝度に基づいて、平均輝度がある閾値を超えそうな場合には、シャッタースピードを速めることにより平均輝度が低下するように調整し、取得した画像中の観測領域が白飛びしないようにシャッタースピードの調整を行う。反対に、平均輝度が低い場合には、シャッタースピードを長くすることで、撮像画像が明るくなるようにフィードバック制御しても良い。
夜間は、自車両のヘッドライトが主光源となるため、ヘッドライト照射範囲内の露光条件が大きく変化しないことを想定し、緩やかなフィードバック制御として、1frm間における露光条件の変化度合いを小さく設定する。そして、夜間のヘッドライト照射範囲外の露光条件は、対向車のヘッドライトによる素早い光源環境の変化なども想定されるため、露光条件の変化度合いは照射範囲内の場合よりも大きい。夜間のヘッドライト照射範囲外では、シャッタースピードを限界まで長くしてもそれ以上明るい画像を取得できないような場合には、ゲイン調整と併用して明るい画像を撮像しても良い。また、ヘッドライト照射範囲外とヘッドライト照射範囲内用の画像を領域別に同時に撮影しても良いし、連続した異なるシャッタータイミングで最初は照射範囲内用の画像を撮影するための画像を、次は照射範囲外用の画像を撮影するための画像を取得しても良い。
ゲイン変更部420は、シャッタースピードとは異なり、撮像後にソフト的にゲイン変更することも可能であり、画像上の領域に応じて比較的自由にゲインテーブルを変更しやすい。ここでは、照射範囲内と照射範囲外において異なるゲインテーブルを利用して画像を取得する。ステレオカメラの場合には、ステレオマッチングで探索する領域が同一の露光条件であることが重要となるが、単眼カメラの場合にはそのような制約条件を受けないため、自由にゲイン変更が可能である。このため、図8の照射領域内外の局所領域露光枠Fsの各局所領域ごとの平均輝度を利用して、ゲイン補正前の画像の輝度が昼間のように同一照明環境下で取得された画像のようにゲイン補正を実施する。これにより、夜間のヘッドライト照射範囲外であっても、昼間と同様な性能で障害物検知できるように明るい画像を取得し、障害物検知等の認識処理を実施する。
ステレオカメラの場合には、画像上の位置に応じて変化するゲインテーブルを利用すると、ステレオマッチングする探索範囲で同一の露光条件を保つことが難しくなる。露光条件と同様にステレオカメラの1つの設定条件としては、図10に示すように、ヘッドライト照射範囲内の高輝度露光領域とヘッドライト照射範囲外の高輝度露光領域において異なるゲインテーブルを使用して画像の輝度を補正する。
ステレオカメラの基準画像となる右カメラを基準に左カメラのステレオマッチングの探索範囲である視差分の画像幅を広くした左カメラの画像を準備する。これにより、ステレオマッチングは同一露光条件が保障された画像を取得可能となり照射範囲内外においてより正確な視差画像を取得することが可能である。
ステレオカメラの場合に、照射範囲内外用の左右画像を2組取得し、それぞれ視差画像を取得し、取得した照射範囲内外用の視差画像2枚のうちどちらを利用すべきかを、図7に示すように照射範囲内外の露光パターンなどから画像上の場所に応じて適応的に選択することで、より正確な視差画像を利用しても良い。
積分画像生成部430では、複数枚数の画像を積分することにより、ノイズを削減し、よりノイズの少ない画像を取得することが可能であり、特に夜間のヘッドライト照射範囲外の画像取得のために適した手法の一つである。ただし、ある程度の高速シャッターでの撮像を可能とするカメラでなければ、積分時間が長すぎて移動体がぶれて撮影されてしまう欠点がある。このため、60frm以上などのある程度多くの画像を一定時間に撮像可能なカメラでなければ、障害物の認識に向いていない。
ここでは、広角かつ高速撮像可能なカメラである場合に、シャッター時間やゲイン以外に、高速撮像した画像を積分することで、より暗い領域のダイナミックレンジを保持して画像認識に利用する。複数枚数の画像を平均するとノイズが少なくなるとともに、本来のあるはずの輝度差を明確に取得できる。このため、暗くて見えにくいような領域の画像であっても、積分や平均をとることで認識に利用できるような画像を取得することができる。反対に、明るい領域に対してはもともと高速シャッターで撮像しているために、そのまま利用しても良いし、シャッターを更に絞り込んで撮像しても、ゲインを調整しても良い。
マッチング用露光調整部440では、ステレオマッチングすることを前提に、左右のカメラ画像のステレオマッチングによる探索範囲では、同一露光条件の画像が保障できるような露光調整と画像の保持を行う。単純な例を、図9、図10を利用して説明する。
図10は、ステレオ用左右領域設定部について説明する図である。ステレオマッチングでは、ステレオカメラが有する左右のカメラのうちいずれか一方のカメラの画像をベースとして照射領域内と照射領域外を設定し、一方のカメラの画像の局所矩形領域を基準画像として他方のカメラの画像の局所矩形領域との相関性を計算しながら水平探索を実施する。本実施例のように右画像を基準画像とする場合、右カメラの局所領域と類似する左カメラの局所領域を探索する。この場合に、右カメラにおいて撮像された被写体の一部は、近距離であればより画像上で映る位置の差分が生じる。これが左右カメラでの視差となり、その視差が大きいほど、近距離であることを示し、遠距離であるほど視差が小さく左右カメラの画像上のほぼ同一位置で同一物体が撮像される。
三角測量の原理に基づいて、視差が大きいほど、近距離であることを示し、視差が小さいほど遠距離に存在する物体であることを示す。このような場合に、左右カメラの幾何キャリブレーションが済んだステレオカメラでは、右の基準画像の局所領域を、左カメラの垂直方向が同一高さの同一位置から右側へ同じような景色が写る位置を画像上でマッチングさせながら探す。これにより同じような局所領域を探索し、見つかった位置をその領域が保持する視差として利用する。このような場合には、左右カメラの視差探索する範囲部分は、基準画像より探索範囲分だけ広げた画像を準備することが必須条件となる。本実施例では、左右カメラでマッチング用の画像領域の大きさを変更する。
例えば、図10に示すように、高輝度露光領域の場合には、探索画像である左画像(1)は、基準画像である右画像(1)よりも探索方向に探索範囲分dだけ大きくなるように取得される。同様に、低輝度露光領域の場合には、探索画像である左画像(2)は、基準画像である右画像(2)よりも探索方向に探索範囲分dだけ大きくなるように取得される。
図11は、画像高さ別のステレオ用左右領域設定部について説明する図である。ステレオ用左右領域設定部250は、図11に示すように、縦方向にもゲインやシャッター条件を変化させる構成としても良い。ステレオマッチングでは、左右方向にマッチング処理を実施するために、縦方向に露光条件(ゲインやシャッター、高速カメラでの積分など)が変化することは横方向に探索するマッチングの性能低下要因とはならない。むしろ、図11に示すように、より細かい条件で領域に応じて変化する適切な露光条件への設定を行うことができる。
図11に示す例の場合には、照射領域内といっても自車両から離れた照射領域内画像R_BA1,L_BA1は、やはりヘッドライトにより照らされる光の強度が低下するため、自車両近傍の照射領域内画像R_BA4,L_BA4やR_BA3,L_BA3と比較すると暗くなる。このため、その画像上の輝度に合わせた適切な露光条件で画像を取得することで、より適切な画像を利用したステレオマッチングを実施し、障害物や車線を見つけることが可能となる。
また、ヘッドライト照射範囲外においても同様に、自車両周辺の光源環境の影響により領域別に明るさが異なるような場合においても、照射領域外画像R_DA1, R_DA2, R_DA3, R_DA4などのように、領域別に異なる露光条件を適用した画像認識を実施することで、より障害物を認識するための視差画像を生成するために適切な画像を生成する。
また、これらの画像の基準画像を画像認識にそのまま利用すると、例えば車線WLを認識するレーン認識などのように部分的であってもより正確に見えたほうが良い場合に、適切な手法となる。また、障害物検知や歩行者、車両検知であって、このように領域別に異なる露光条件の画像から生成されたエッジなどを利用して画像認識することで、周囲の明暗に影響を受けることなく認識性能を維持することができる。
ただし、ここでは照射領域の境界で生じるような輝度差などでエッジが生じないようにしていることを前提とした処理である。また、滑らかに輝度変化することを利用したような画像認識手法である場合には、このような手法は領域別に輝度差を発生させるために不適切となる場合もあり、この場合には、ステレオ視以外のパターンマッチング用として、画像中の輝度変化が滑らかに起こるようなゲインテーブルを画像上の位置に応じて変化させるような手法で、パターンマッチング用の画像を準備しても良い。
次に、図4を用いて認識部500の構成について詳細に説明する。図4は、認識部の構成を示す図である。視差画像合成部510は、車載カメラが単眼カメラであれば不要な存在であるが、ステレオカメラにおいては必須の構成要素となる。まず、図9に示すように、基準画像の画像位置で一種類の露光条件の画像でのマッチングでのみ視差が求められている場合には、単純にその視差画像を利用する。
境界領域もしくは、画像全体において2つもしくは3つ以上の露光条件の左右ペア画像が存在する場合には、どの露光条件で作られた視差画像を利用するかということ、すなわち、図7に示すような配光パターンもしくは、図8に示したような照射領域推定部により推定された照射領域を利用して、どちらの露光条件から視差画像を生成したほうが、より適切な視差情報を取得できるかを判断する。
また、どちらの露光条件の方がより適切な視差画像を生成可能かどうかの判定方法のひとつに配光パターンや照射領域推定部の結果のみだけでなく、実際の画像のエッジ情報を利用しても良い。ステレオマッチングする際に、露光条件が不適切な画像であるほど、エッジ情報が不足している場合が多い。ただし、そもそも路面のようにエッジ情報が乏しい環境も想定できるために、配光パターンもしくは照射領域推定結果とこれらステレオマッチングの際に計測した局所領域内のエッジ強度情報から、どちらの視差情報を利用するかを判定しても良い。
このように、左右のステレオマッチングする領域同士は同一露光条件にすると、適切な視差情報を取得することが可能となる。更に、同一視野角内(同一箇所)の視差情報を得る場合に、複数の露光条件で画像を取得しているときは、どちらの露光条件の画像を優先して利用したステレオマッチングの方が、正確な視差を算出することができるかを、配光パターンもしくは照射領域推定パターンもしくはエッジ情報の中から1つ以上を利用することにより選択する。このように、より適切な視差情報を選択することで、ロバストな障害物の検知と、より正確な距離情報を取得することができる。
立体物候補抽出部520では、視差画像合成部510で生成された視差画像を基に、立体物の候補抽出を実施する。まずここでは車載カメラがステレオカメラであった場合の例を示す。視差画像から自車両姿勢計測部220により計算された路面領域の視差情報を削除する。自車両に設置されたカメラの位置と姿勢から、画面上に路面が映っていれば取得できる視差値に距離に応じて変化する誤差成分を考慮して路面および路面より鉛直下に存在する視差情報を削除する。
この路面以下の視差情報を削除した画像を利用して、画像上で幅4pix程度で縦方向に視差値別の有効視差頻度ヒストグラムを算出し、これをX方向に並べて縦方向に視差値(距離値)と横方向に画像上の横位置を示すvdisparity画像を生成する。路面上に立体物が存在する場合には、縦方向のエッジから視差画像においても縦方向に立体物までの視差が並んでいる。このためvdisparity画像上では、立体物が存在する視差値(距離値)かつ立体物が存在する画像横方向に高い頻度の山が現れることとなる。このようなvdisparity画像上での山を探索することで、立体物の候補を抽出する。次に、毎フレーム抽出する立体物の候補を時系列に観測して、安定的に立体物候補がトラッキングできることを確認した上で、最終的な立体物候補とする。
立体物候補抽出部520では、立体物の候補抽出を実施する。まずここでは車載カメラが単眼カメラであった場合の例を示す。単眼カメラでは、自車両姿勢計測部220の情報も利用して立体物の鉛直上向きに伸びるエッジ情報を探索することで立体物候補を探索する。ただし、単眼カメラでは、立体物かどうかわからないので、パターンマッチングを実施する候補を探索する。この際に、自車両の姿勢状態からカメラ幾何を利用して、抽出した候補物体の大きさの大まかな値で、候補物体を絞り込む。更に時系列に、ある程度トラッキングできることを持って、パターンマッチングの処理対象とする最終的な立体物の候補とする。
フロー抽出部530は、単眼カメラで利用されことが多いが、これは単眼カメラであっても、ステレオカメラの片目を利用しても良い。フロー抽出部530は、時系列に変化する画像上での物体の動きを捉え、自車両の挙動から推定される背景の動きをキャンセルした上で、画像上の動きを観測することで、移動体を抽出することが可能である。
自車両の動きから生じる路面など背景の動きを推定し、自車両姿勢計測部220にて推定されたカメラの姿勢を利用して画像上の背景の動きを推定する。画像上における背景の動きを推定し、画像上で同一方向、同一大きさの動きがあるフロー集合体を捉えてこれを移動体の候補物体として抽出する。また、抽出した移動体のフローの平均を求めることで、移動体の画像上の移動量を抽出することができる。この移動体の移動速度を画像上の移動量から算出しても良い。また、これを時系列に続けることで安定してトラッキングできた物体のみを移動体の最終候補として抽出する。
次に、これら立体物候補抽出部520から抽出された立体物候補もしくは、フロー抽出部530から抽出された移動体候補もしくはこれら両方から抽出された候補物体に対して、何の種類の立体物か特定すべく、パターン認識部540においてパターンマッチングを実施する。パターン認識部540は、車両や人などのパターンマッチングを実施し、車両の場合には、それが自車両の先行車両でありなおかつどの程度の速度、もしくは速度差で移動中であるかなどを推定する。人の場合にも同様に、位置と移動速度を推定し、これらと自車両が衝突するか判定を実施する。また、パターンマッチングにより人、もしくは車両でなかったとしても、その他の立体物である場合、特にステレオカメラにおいては、車や歩行者以外の立体物であっても、立体物であることには間違いないため、警報や制御の対象としては利用する。
最後に、警報制御部600では、上記の認識部500で観測された歩行者、車両、または、その他の立体障害物に対して、その位置と移動速度などを推定し、自車両の進行経路に存在し、衝突の可能性が高いかどうかを判定する。そして、更にドライバーがブレーキを踏んで止まれないような位置と距離にいる場合、もしくはその直前である場合には、自車両の自動ブレーキを実施する。一方、上記の車両制御を実施するには、まだ、距離が長い場合、もしくは、自車両と障害物の位置関係から自車両に衝突する可能性は低いが極めて近距離1m程度の横位置の関係で横をすり抜けるような場合には、警報を鳴らす。
図12は、単一シャッタータイミングの処理フローを示す図である。まず、最初に、ここでは単一のシャッタータイミングで撮像し、領域別に異なる露光条件の画像を取得する場合の単一シャッタータイミング処理フローを示す。CMOSの構成などでハード的に領域別に異なる露光条件での撮像が可能な場合、もしくは、撮像部ではヘッドライト照射範囲内外を考慮した中間的な画像を撮像し、後処理にてソフト的な補正ゲインなどを領域別にかけることで、異なる露光条件の画像を取得する場合の処理フローについて示す。
まず、露光条件を設定する(ステップS01)。起動時のみは、デフォルト値、もしくは、前回終了時、電源OFF時の露光条件をそのまま利用しても良い。通常は、前フレームの処理にて取得した画像の観測値を基に領域別に露光条件(シャッタースピードもしくはゲイン)のフィードバックを実施し、撮像領域別に異なる露光条件を設定する。もしくは画像全体を照射範囲内外を考慮した中間的なシャッター速度とゲインの露光条件を設定視も良い。
そして、画像を撮像する(ステップS02)。画像の撮像は、設定されている露光条件において行われる。そして、撮像領域別に異なる露光条件で画像を取得する。ここでは、中間的なシャッター速度とゲインの露光条件で撮像して、後処理としてソフト処理でゲイン変更により領域別に異なるゲインをかけることで、領域別に異なる露光条件の画像を取得しても良い。
そして、輝度観測領域を設定する(ステップS03)。輝度観測領域は、画像上において配光パターンもしくは推定した照射領域を利用して照射領域内と照射領域外に、それぞれ設定される。次に、照射領域内と照射領域外の輝度観測領域から平均輝度を観測する(ステップS04)。上記ステップS04の処理にて算出された平均輝度を利用して、露光条件のフィードバック制御を各領域別に実施する(ステップS05)。
次に、撮像した画像を基に、障害物などの認識候補を抽出する(ステップS06)。認識候補の抽出は、立体物候補抽出部520もしくはフロー抽出部530で行われる。そして、パターン認識を行う(ステップS07)。パターン認識では、抽出された候補物体に関してパターンマッチングを実施し、候補物体が人か車かなど種別を設定する。
そして、認識された人、もしくは車、その他の障害物に対して移動速度や位置を推定し(ステップS08)、衝突予測判定を行う(ステップS09)。衝突予測判定では、自車挙動を推定し自車推定経路上もしくはその付近に、認識された人、もしくは車、その他の障害物が存在するかどうかを位置から判定し、更に、移動速度を考慮して衝突の危険性があるかも判定する。
更に、ドライバーがブレーキを踏んだ際に止まれる距離範囲よりも遠くにいる物体は、ドライバーが自分でブレーキを踏む可能性があり、自動的に制御がかかるとわずらわしいことや自動ブレーキに頼りすぎになることを懸念して、制御をかけない。ドライバーが障害物を認識してブレーキを踏むタイミングとしては遅すぎると判断した場合に警報、更に遅く衝突可能性が高いと判断した場合のみ自動ブレーキの実行を判定する。そして、ステップS09で判定された結果をもとに、警報や制御を実施する(ステップS10)。
図13には、2重露光を利用した場合の照射領域内外の撮像タイミングと認識処理タイミングの時系列的な処理の流れを、タイムチャートで表現した処理例を2つ示す。
A)交互処理例:2重露光処理は、偶数フレームでは照射領域外の露光条件で撮像し、奇数フレームでは照射領域内の露光条件で撮像するなど、異なるタイミングで異なる露光条件の撮像を行う場合の1つの実施例である。領域別に異なる露光条件を設定することが困難である場合には、毎フレームごとに露光条件を入れ替えて撮像する。これにより、照射領域内の明るい領域に適した露光条件での画像と、照射領域外の暗い領域に適した露光条件での画像を図13のタイムチャートに示すように交互に撮像する。そして、交互に行われる撮像の後で、照射領域外撮像時に、その前の撮像タイミングで撮像された照射領域内の撮像画像を利用して照射領域内の画像認識処理を実施する。反対に、照射領域内撮像時に、その前の撮像タイミングで撮像された照射領域外の撮像画像を利用して画像認識処理を実施する。
B)統一処理例:2重露光で撮像した画像を利用した認識処理の統一処理の方法では、交互に行われる撮像で1組の撮像(照射領域内用の撮像と照射領域外の撮像)が終了した後に初めて認識処理が実行される。特に、照射領域内と照射領域外の画像から1つの統合した視差画像を生成するような処理が行われる場合には、両方の画像がそろってからでなければ画像認識処理が開始しづらいために、このような処理手順をとる場合もありうる。A)交互処理の方が、撮像してから認識されるまでの遅延時間が少ない。B)統一処理は遅延時間が多いが、照射領域内外の画像両方を利用できる利点がある。
図14に2重露光の処理フローを示す。図13のB)統一処理の場合には、ある一定期間に1組の画像を撮像し、その期間を1つの処理サイクルと考えると、処理フローは単一シャッタータイミングとほぼ同等の考え方となるため今回は省略する。S01からS05の部分が実際には異なるタイミングで2回処理し、二つの画像がそろってからS06の認識候補抽出処理を開始する。
図13のA)交互処理の場合の処理フローについて図14を用いて説明する。詳細内容は図12と共通である部分が多いため、異なる部分だけを主に説明し、他は簡易的に説明する。図14のステップS01〜S08は、照射領域内を考慮した画像認識処理フローを示す。ステップS01で照射領域内露光条件を設定する。ステップS02で画像を撮像し、ステップS03で照射領域内の輝度観測領域を設定する。そして、ステップS04で輝度観測領域内の平均輝度を観測し、ステップS05で観測された平均輝度を利用して露光条件の設定のフィードバック制御を実施する。ステップS06では、撮像された画像を利用した認識候補を抽出し、ステップS07において候補物体のパターンマッチングによりその種別特定を実施する。ステップS08で障害物となりうる人や車両などの位置と移動速度を算出し、ヘッドライト照射範囲内の障害物を検知する。
図14のステップS01’〜S08’は、照射領域外を考慮した画像認識処理フローを示す。ステップS01’で照射領域外露光条件を設定する。ステップS02’で画像を撮像し、ステップS03’で照射領域外の輝度観測領域を設定する。そして、ステップS04’で照射領域外の輝度観測領域の平均輝度を観測し、ステップS05’で観測された平均輝度を利用して露光条件の設定のフィードバック制御を実施する。ステップS06’では、撮像された画像を利用した認識候補を抽出し、ステップS07’において候補物体のパターンマッチングによりその種別特定を実施する。ステップS08’で障害物となりうる人や車両などの位置と移動速度を算出し、ヘッドライト照射範囲外の障害物を検知する。
ステップS09では、これら2つの処理フローからヘッドライト照射範囲内と照射範囲外の障害物を検知する。これらの障害物の位置、速度と自車挙動から衝突の可能性を判定する。ステップS10では、ステップS09で判定された結果をもとに、警報や制御を実施する。
図15に示す方法は、A)交互処理例と同様に照射領域内用と照射領域外用の2パターンを交互に撮影するが、ただし、これを全画面撮像する例を示している。撮像自体は使用するCMOSなどの制約条件から全画面撮像を実施するものの、ここから画像認識に利用する画像を、これまで同様に、照射領域外と照射領域内で分割して利用する方法である。
図15では、照射内露光で撮影された画像を利用した視差画像生成のための領域R_BAとL_BAを図15の下段に示している。これら2つの領域を利用して照射領域内の視差画像生成を実施する。
反対に、照射領域外については、シャッタータイミングが1つ遅れた場合のシャッターを利用し、暗い領域を撮像するように調整された露光条件の画像を全画面撮像し、この中から照射領域外のR_DAとL_DAの2つの領域を利用して、照射領域外用の視差画像を生成する。このようにある一定周期内の異なるタイミングで撮像された、異なる露光条件の撮像画像を照射領域内と照射領域外にとって適切な画像を用意する。
それぞれの露光条件にとってより適切な画像を用いて外環境を認識することで、ヘッドライトによって照らされた明るい領域と、ヘッドライトによって照らすことのできない暗い領域のそれぞれに、より適切な認識を実施する。特に、従来考慮されてこなかった広角部分の暗い領域の撮影をより適切に実施し、不検知、誤検知を抑制する。
図15では、右カメラの明るい領域と暗い領域の境界は、重なりなく分割している。それぞれの露光条件において視差画像を生成した後に、視差画像を合成してから全画面での認識処理を実施してもよい。もしくは、照射領域内と照射領域外との間に視差画像のマッチング用のマージンだけでなく、2領域の境界にいる障害物分の大きさのマージンを設けるような方法でもよい。
視差画像上でマッチングする方法の方が処理時間が少なく、効率がよい。ただし、照射領域内と照射領域外にマージンを設けて画像認識する手法の方が処理時間はかかるものの、両方で認識する処理を実施するため、不検知を抑制することができる。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100 撮像部
200 照射領域設定部
210 配光パターン設定部
220 自車両姿勢計測部
230 画像上露光枠設定部
240 光源環境認識部
250 ステレオ用左右領域設定部
300 照射領域内観測部
350 照射領域外観測部
400 照射内外露光調整部
410 シャッタースピード変更部
420 ゲイン変更部
430 積分画像生成部
440 マッチング用露光調整部
500 認識部
510 視差画像合成部
520 立体物候補抽出部
530 フロー抽出部
540 パターン認識部
600 警報制御部

Claims (9)

  1. 車載カメラを用いて自車両の前方を撮像する撮像部と、
    該撮像部で撮像された撮像画像を用いて周囲環境の認識を行う認識部と、を備える車載環境認識装置であって、
    前記車載カメラは、自車両のヘッドライト照射範囲を含みかつ該ヘッドライト照射範囲よりも水平方向に広い範囲を撮像可能であり、
    前記撮像部は、ヘッドライト照射範囲内を撮像した照射領域内の画像とヘッドライト照射範囲外を撮像した照射領域外の画像とで明るさの調整量を変更して前記撮像画像を撮像することを特徴とする車載環境認識装置。
  2. 前記撮像部は、前記撮像画像の前記照射領域内と前記照射領域外に露光枠をそれぞれ設定し、各露光枠内の輝度情報を取得し、前記照射領域内と照射領域外の前記明るさの調整量である露光条件を設定することを特徴とする請求項1に記載の車載環境認識装置。
  3. 前記車載カメラはステレオカメラであり、
    前記撮像部は、
    前記ステレオカメラが有する左右のカメラのうちいずれか一方のカメラの画像をベースとして前記照射領域内と前記照射領域外を設定し、
    前記一方のカメラの画像の局所矩形領域を基準画像として他方のカメラの画像の局所矩形領域との相関性を計算しながら水平探索のステレオマッチングを実施するときに、
    一方のカメラの局所矩形領域と、他方のカメラの水平探索された局所矩形領域とが同一露光条件であることが保障されていることを特徴とする請求項1に記載の車載環境認識装置。
  4. 1つのカメラの連続するシャッタータイミングにおいて、露光条件を設定して前記照射領域内の画像と前記照射領域外の画像をそれぞれ取得し、前記照射領域内の画像はヘッドライト配光パターン内部の画像を利用し、前記照射領域外の画像はヘッドライト配光パターン外部の画像を利用することを特徴とする請求項1に記載の車載環境認識装置。
  5. 前記左右のカメラで前記照射領域内と前記照射領域外にそれぞれ2つ以上の露光条件の画像を取得し、
    同一露光条件の画像を利用して視差画像を生成し、
    前記撮像画像の同一箇所において、異なる露光条件の画像から取得された視差情報を保持し、
    ヘッドライト配光パターンとヘッドライト照射範囲の少なくとも一方に基づいて、前記撮像画像においてどちらの視差情報を優先して利用するかを判定することを特徴とする請求項3に記載の車載環境認識装置。
  6. 前記照射領域内と前記照射領域外に2つ以上の露光条件の画像を、ある一定期間内に異なるシャッタータイミングで別々に撮像することを特徴とする請求項1に記載の車載環境認識装置。
  7. 前記照射領域内と前記照射領域外に2つ以上の露光条件を適用し、領域別に撮像することを特徴とする請求項1に記載の車載環境認識装置。
  8. 前記撮像画像に対してゲインテーブルを利用して前記照射領域内の画像と前記照射領域外の画像を取得することを特徴とする請求項1に記載の車載環境認識装置。
  9. 連続して撮像した複数の画像を利用して、前記照射領域外では、前記画像を積分してノイズを削減することを特徴とする請求項1に記載の車載環境認識装置。
JP2015143192A 2015-07-17 2015-07-17 車載環境認識装置 Active JP6537385B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015143192A JP6537385B2 (ja) 2015-07-17 2015-07-17 車載環境認識装置
CN201680023488.7A CN107852465B (zh) 2015-07-17 2016-07-01 车载环境识别装置
EP16827587.3A EP3328069B1 (en) 2015-07-17 2016-07-01 Onboard environment recognition device
PCT/JP2016/069579 WO2017014023A1 (ja) 2015-07-17 2016-07-01 車載環境認識装置
US15/574,374 US10509973B2 (en) 2015-07-17 2016-07-01 Onboard environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015143192A JP6537385B2 (ja) 2015-07-17 2015-07-17 車載環境認識装置

Publications (2)

Publication Number Publication Date
JP2017027220A true JP2017027220A (ja) 2017-02-02
JP6537385B2 JP6537385B2 (ja) 2019-07-03

Family

ID=57833894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015143192A Active JP6537385B2 (ja) 2015-07-17 2015-07-17 車載環境認識装置

Country Status (5)

Country Link
US (1) US10509973B2 (ja)
EP (1) EP3328069B1 (ja)
JP (1) JP6537385B2 (ja)
CN (1) CN107852465B (ja)
WO (1) WO2017014023A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221204A1 (ja) * 2017-05-31 2018-12-06 日本電産株式会社 アレーアンテナを備える移動体、および、配車システム
JP2018194346A (ja) * 2017-05-15 2018-12-06 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2019017061A (ja) * 2017-06-01 2019-01-31 アクシス アーベー 近赤外感受性ビデオカメラによって取得された画像における画像品質を改善する方法およびそのようなカメラ
JP2019021060A (ja) * 2017-07-18 2019-02-07 日産自動車株式会社 物体検出方法及び物体検出装置
WO2019155718A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 認識装置と認識方法およびプログラム
JP2020178193A (ja) * 2019-04-16 2020-10-29 株式会社小野測器 状態計測装置
WO2020235462A1 (ja) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 物体認識装置
CN113561908A (zh) * 2021-07-27 2021-10-29 奇瑞新能源汽车股份有限公司 车载人脸识别设备的控制方法及装置
US11394889B2 (en) 2018-10-26 2022-07-19 Panasonic Intellectual Property Management Co., Ltd. Image recognition apparatus and image recognition method
WO2023053477A1 (ja) * 2021-09-29 2023-04-06 日立Astemo株式会社 画像処理装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3095073A1 (en) * 2014-01-17 2016-11-23 KPIT Technologies Ltd. Vehicle detection system and method thereof
US11328403B2 (en) * 2020-01-22 2022-05-10 Gary B. Levin Apparatus and method for onboard stereoscopic inspection of vehicle tires
JP6305456B2 (ja) * 2016-03-31 2018-04-04 株式会社Subaru 表示装置
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
JP6866655B2 (ja) * 2017-01-31 2021-04-28 株式会社Jvcケンウッド 熱画像処理装置、赤外線撮像装置、熱画像処理方法、及び熱画像処理プログラム
JP6789877B2 (ja) * 2017-04-28 2020-11-25 キヤノン株式会社 情報処理装置、画像処理システム、制御システム及び情報処理方法
JP6997551B2 (ja) * 2017-07-28 2022-01-17 日立Astemo株式会社 車載環境認識装置
US10434930B2 (en) * 2017-11-17 2019-10-08 Sl Corporation Lamp for vehicle
US10696226B2 (en) * 2017-12-27 2020-06-30 Toyota Research Institute, Inc. Vehicles and methods for displaying objects located beyond a headlight illumination line
JP7115253B2 (ja) * 2018-11-28 2022-08-09 トヨタ自動車株式会社 車載カメラシステム
JP7281897B2 (ja) * 2018-12-12 2023-05-26 キヤノン株式会社 撮像装置及びその制御方法並びにプログラム
US10742892B1 (en) * 2019-02-18 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for capturing and blending multiple images for high-quality flash photography using mobile electronic device
KR20210026248A (ko) * 2019-08-29 2021-03-10 현대자동차주식회사 차량 사고 통보 장치, 그를 포함한 시스템 및 그 방법
US11430094B2 (en) 2020-07-20 2022-08-30 Samsung Electronics Co., Ltd. Guided multi-exposure image fusion

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099908A (ja) * 2000-06-26 2002-04-05 Hitachi Ltd 接近車両検知及び車線位置検知を行う画像処理装置
JP2005033709A (ja) * 2003-07-11 2005-02-03 Nissan Motor Co Ltd 車両用周辺監視装置
JP2005286656A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、車両、および運転支援方法
JP2007166443A (ja) * 2005-12-16 2007-06-28 Hitachi Ltd 撮像装置
JP2008158674A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 道路区画線認識装置
JP2013047934A (ja) * 2011-07-28 2013-03-07 Clarion Co Ltd 車載用環境認識装置
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4402400B2 (ja) * 2003-08-28 2010-01-20 オリンパス株式会社 物体認識装置
US8098256B2 (en) * 2005-09-29 2012-01-17 Apple Inc. Video acquisition with integrated GPU processing
US7548689B2 (en) * 2007-04-13 2009-06-16 Hewlett-Packard Development Company, L.P. Image processing method
KR101424717B1 (ko) * 2007-09-13 2014-08-01 삼성전자주식회사 노출 시간 설정 장치 및 방법
KR101097017B1 (ko) * 2007-11-19 2011-12-20 후지쯔 가부시끼가이샤 촬상 장치, 촬상 방법 및 컴퓨터 판독가능한 기록 매체
CN101941438B (zh) * 2010-09-17 2013-03-20 上海交通大学 安全车距智能检控装置与方法
JP5414714B2 (ja) * 2011-03-04 2014-02-12 日立オートモティブシステムズ株式会社 車戴カメラ及び車載カメラシステム
JP5860663B2 (ja) 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
JP5857712B2 (ja) * 2011-12-15 2016-02-10 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP2013168738A (ja) 2012-02-14 2013-08-29 Toyota Motor Corp 露光制御装置
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099908A (ja) * 2000-06-26 2002-04-05 Hitachi Ltd 接近車両検知及び車線位置検知を行う画像処理装置
JP2005033709A (ja) * 2003-07-11 2005-02-03 Nissan Motor Co Ltd 車両用周辺監視装置
JP2005286656A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 撮像装置、車両、および運転支援方法
JP2007166443A (ja) * 2005-12-16 2007-06-28 Hitachi Ltd 撮像装置
JP2008158674A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 道路区画線認識装置
JP2013047934A (ja) * 2011-07-28 2013-03-07 Clarion Co Ltd 車載用環境認識装置
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194346A (ja) * 2017-05-15 2018-12-06 日本電気株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2018221204A1 (ja) * 2017-05-31 2018-12-06 日本電産株式会社 アレーアンテナを備える移動体、および、配車システム
JP2019017061A (ja) * 2017-06-01 2019-01-31 アクシス アーベー 近赤外感受性ビデオカメラによって取得された画像における画像品質を改善する方法およびそのようなカメラ
JP7031157B2 (ja) 2017-07-18 2022-03-08 日産自動車株式会社 物体検出方法及び物体検出装置
JP2019021060A (ja) * 2017-07-18 2019-02-07 日産自動車株式会社 物体検出方法及び物体検出装置
WO2019155718A1 (ja) * 2018-02-09 2019-08-15 ソニー株式会社 認識装置と認識方法およびプログラム
CN111684455A (zh) * 2018-02-09 2020-09-18 索尼公司 识别装置、识别方法和程序
JP7173056B2 (ja) 2018-02-09 2022-11-16 ソニーグループ株式会社 認識装置と認識方法およびプログラム
US11438517B2 (en) 2018-02-09 2022-09-06 Sony Corporation Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
JPWO2019155718A1 (ja) * 2018-02-09 2021-01-28 ソニー株式会社 認識装置と認識方法およびプログラム
US11394889B2 (en) 2018-10-26 2022-07-19 Panasonic Intellectual Property Management Co., Ltd. Image recognition apparatus and image recognition method
JP2020178193A (ja) * 2019-04-16 2020-10-29 株式会社小野測器 状態計測装置
JP7174667B2 (ja) 2019-04-16 2022-11-17 株式会社小野測器 状態計測装置
JP2020191010A (ja) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 物体認識装置
WO2020235462A1 (ja) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 物体認識装置
JP7289723B2 (ja) 2019-05-23 2023-06-12 日立Astemo株式会社 物体認識装置
CN113561908A (zh) * 2021-07-27 2021-10-29 奇瑞新能源汽车股份有限公司 车载人脸识别设备的控制方法及装置
WO2023053477A1 (ja) * 2021-09-29 2023-04-06 日立Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
CN107852465B (zh) 2020-09-15
WO2017014023A1 (ja) 2017-01-26
CN107852465A (zh) 2018-03-27
EP3328069A4 (en) 2019-03-20
EP3328069A1 (en) 2018-05-30
JP6537385B2 (ja) 2019-07-03
US10509973B2 (en) 2019-12-17
US20180137375A1 (en) 2018-05-17
EP3328069B1 (en) 2022-03-16

Similar Documents

Publication Publication Date Title
WO2017014023A1 (ja) 車載環境認識装置
JP6795027B2 (ja) 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
CA2680646C (en) Moving object noise elimination processing device and moving object noise elimination processing program
JP5207146B2 (ja) 遠距離灯の自動制御方法
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
JP6786279B2 (ja) 画像処理装置
O'malley et al. Vision-based detection and tracking of vehicles to the rear with perspective correction in low-light conditions
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
KR20150024860A (ko) 적응 피사계 심도를 이용한 게이트된 영상
JP5772714B2 (ja) 灯火検出装置及び車両制御システム
JP2000030197A (ja) 温体検出装置
US20220366700A1 (en) Object recognition device
US9524645B2 (en) Filtering device and environment recognition system
US11176397B2 (en) Object recognition device
WO2011016257A1 (ja) 車両用距離算出装置
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2009037284A (ja) 移動物認識装置
JP2013101432A (ja) 障害物検出装置及びプログラム
JP2017027578A (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、検出方法、およびプログラム
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP5310162B2 (ja) 車両灯火判定装置
JPWO2020129517A1 (ja) 画像処理装置
JP6459745B2 (ja) 自己位置算出装置及び自己位置算出方法
JP5907405B2 (ja) 画像解析装置及びこれを用いた物体検出装置
JP7180521B2 (ja) 物標検出装置、物標検出方法、及び運転支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190604

R150 Certificate of patent or registration of utility model

Ref document number: 6537385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350