JP2019117438A - 画像認識システム - Google Patents

画像認識システム Download PDF

Info

Publication number
JP2019117438A
JP2019117438A JP2017249727A JP2017249727A JP2019117438A JP 2019117438 A JP2019117438 A JP 2019117438A JP 2017249727 A JP2017249727 A JP 2017249727A JP 2017249727 A JP2017249727 A JP 2017249727A JP 2019117438 A JP2019117438 A JP 2019117438A
Authority
JP
Japan
Prior art keywords
image
processing unit
exposure condition
vehicle
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017249727A
Other languages
English (en)
Inventor
大輔 橋本
Daisuke Hashimoto
大輔 橋本
佳 孫
Ka Son
佳 孫
聡 武安
Satoshi Takeyasu
聡 武安
理志 岡本
Satoshi Okamoto
理志 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017249727A priority Critical patent/JP2019117438A/ja
Publication of JP2019117438A publication Critical patent/JP2019117438A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両周辺に存在する物体を好適に画像認識する。【解決手段】画像認識システムは、車両周辺を第1の露光条件で撮像した第1の画像から、画像認識すべき対象物(500)の位置に関する情報を算出する第1処理手段(310)と、対象物の位置に関する情報に基づいて、車両周辺を第1の露光条件とは異なる第2の露光条件で撮像した第2の画像から、対象物を含む部分画像を抽出する第2処理手段(330)と、部分画像を用いて、対象物が示す情報を画像認識する第3処理手段(340)とを備える。【選択図】図1

Description

本発明は、車両周辺に存在する物体を画像認識する画像認識システムの技術分野に関する。
この種のシステムとして、画像の一部を抽出して認識処理を実行するものが知られている。例えば特許文献1では、画像認識に用いる画像から部分画像を抽出して、部分画像の属性判定結果から最終的な認識結果を導き出す技術が開示されている。
その他の関連技術として、特許文献2では、画像認識の際に、輝度、明度、彩度又は色相の頻度を示す放射強度のヒストグラムをニューラルネットワークに入力して計算を実行する技術が開示されている。特許文献3では、画像認識の際に、フリッカー現象を抑制するために異なる露光条件で認識した画像を合成するという技術が開示されている。
特開2011−022991号公報 特開平07−271956号公報 特開2016−143903号公報
信号機や電光標識を画像認識する場合、単一の露光条件で画像を撮像すると、フリッカー現象等によって、信号機や電光標識が消灯しているかのように撮像されてしまうおそれがある。フリッカー現象は、例えば露光条件を長くすることで抑制することができるとされているが、その場合ブラー現象が発生して画像認識が適切に行えなくなってしまうという技術的問題点が生ずる。また、電光標識は信号機よりも暗いため、信号機に最適な露光条件を選択すると、電光標識が暗くて撮像できなくなってしまい、電光標識に最適な露光条件を選択すると、信号機が色飽和して白くなり色識別ができなくなるという技術的問題点も生ずる。
なお、単純に異なる条件で撮像した複数の画像を利用して画像認識を実行しようとすると、画像認識処理における計算量や計算時間が増加してしまうという技術的問題点が生ずる。
本発明は、上記問題点に鑑みてなされたものであり、車両周辺に存在する物体を好適に画像認識することが可能な画像認識システムを提供することを課題とする。
本発明に係る画像認識システムの一態様では、車両周辺を第1の露光条件で撮像した第1の画像から、画像認識すべき対象物の位置に関する情報を算出する第1処理手段と、前記対象物の位置に関する情報に基づいて、車両周辺を前記第1の露光条件とは異なる第2の露光条件で撮像した第2の画像から、前記対象物を含む部分画像を抽出する第2処理手段と、前記部分画像を用いて、前記対象物が示す情報を画像認識する第3処理手段とを備える。
実施形態に係る画像認識システムの構成を示すブロック図である。 実施形態に係る画像認識システムの動作の流れを示すフローチャートである。 第1画像フレームにおける検出領域の一例を示す図である。 検出領域から推定される移動後領域の推定方法を示す図である。 第2画像フレームにおける移動後領域の一例を示す図である。 信号機の抽出画像の一例を示す図である。 電光標識の抽出画像の一例を示す図である。 複数の電光標識の抽出画像の一例を示す図である。
本発明の画像認識システムに係る実施形態を図面に基づいて説明する。
<システム構成>
まず、実施形態に係る画像認識システムの構成について、図1を参照して説明する。図1は、実施形態に係る画像認識システムの構成を示すブロック図である。
図1に示すように、本実施形態に係る画像認識システムは、車両に搭載されており、車両周辺に存在する対象物(例えば、信号機や電光標識等)を画像認識する処理を実行可能に構成されている。画像認識システムは、自車状態検出部100と、カメラ200と、ECU(Electric Control Unit)300とを備えて構成されている。
自車状態検出部100は、例えば車両の位置、方向、及び速度等に関する情報を検出可能なセンサ群として構成されている。自車状態検出部100の検出結果は、ECU100における第1処理部320に出力される構成となっている。
カメラ200は、車両周辺(特に、車両の前方)を撮像可能なカメラである。また、本実施形態に係るカメラ200は特に、相異なる複数の露光条件で撮像を行うことが可能に構成されている。具体的には、カメラ200は、第1の露光条件で第1画像フレームを撮像すると共に、第2の露光条件で第2画像フレームを撮像可能である。第2の露光条件は、単一の露光条件であってもよいし、2以上の複数の露光条件で撮像した複数の第2画像フレームであってもよい。第2画像フレームが複数の場合には、後述する第4処理部330が、どの露光条件を最終的な第2の露光条件として使用すべきかを判断する。第4処理部330は最終的に選択された第2の露光条件に対応する第2画像フレームを第2処理部330に出力する。カメラ200の撮像画像は、ECU100における第1ニューラルネットワーク310、第3ニューラルネットワーク360及び第4処理部370に出力される構成となっている。
ECU300は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)等の演算回路を有する制御ユニットとして構成されている。ECU300は、その機能を実現するための処理ブロックとして、第1ニューラルネットワーク310、第1処理部320、第2処理部330、第2ニューラルネットワーク340、第3処理部350、第3ニューラルネットワーク360、及び第4処理部370を備えている。
第1ニューラルネットワーク210は、カメラ200の撮像画像を入力として処理し、撮像画像に含まれる信号機及び電光標識の位置座標及び種類を出力する。なお、第1ニューラルネットワーク210には、カメラ200で撮像された第1画像フレーム(即ち、第1の露光条件で撮像された画像)が入力される。第1ニューラルネットワーク210は、後述する付記における「第1処理手段」の一具体例であり、第1画像フレームは、後述する付記における「第1の画像」の一具体例である。信号機及び電光標識は、後述する付記における「対象物」の一具体例である。第1ニューラルネットワーク210の処理結果は、大処理部320に出力される構成となっている。
第1処理部320は、自車状態検出部100から入力される自車状態(例えば、車両の位置、方向、速度等)及び、第1ニューラルネットワーク310から入力される信号機及び電光標識の位置座標に基づいて、第1画像フレームにおいて検出された信号機や電光標識の第2画像フレームにおける位置座標を推定する。言い換えれば、第1処理部320は、相異なるタイミングで撮像される第1画像フレーム及び第2画像フレームについて、第1画像フレームにおいて検出された信号機や電光標識が、第2画像フレームのどの部分に位置することになるのかを推定する。なお、具体的な位置推定処理の内容については、既存の技術を適宜採用することができるため、詳細な説明を省略する。第1処理部320の推定結果は、第2処理部330に出力される構成となっている。
第3ニューラルネットワーク360は、カメラ200で撮像された前記第1画像フレーム(即ち、第1の露光条件で撮像された画像)が入力され、第1画像フレームのシーン情報をクラス分類する。シーン情報とは、たとえば昼・夜間・夕方などの時間帯状態、順光・逆光などの光学的状態、晴天・雨天・降雪・積雪などの天候状態、通常道路・工事現場・トンネル・未舗装道路などの道路状態、などが含まれる。第3ニューラルネットワーク360は、第1画像フレームがそれぞれの条件のうち、どの条件に該当するかについてを確信度(Confidence)を出力パラメータとして出力する。第2画像フレームの露光条件が複数存在する場合、第4処理部370は、自車状態検出部100から入力される自車状態(例えば、時刻、GPS座標等)及び、第3ニューラルネットワーク360から入力されるクラス分類の確信度情報に基づいて、第2処理部330に入力されるべき最終的な第2画像フレームの露光条件を、複数の露光条件の候補の中から選択し、選択した最終的な第2の露光条件に対応する第2画像フレームを第2処理部330に出力する。第2画像フレームの露光条件が単一である場合には、第4処理部370は前記第2画像フレームをそのまま第2処理部330に出力してもよいし、あるいは、カメラ200から出力された第2画像フレームがそのまま第2処理部330に入力されてもよい。別の実施形態として、第4処理部370は、自車状態検出部100から入力される自車状態(例えば、時刻、GPS座標等)及び、第3ニューラルネットワーク360から入力されるクラス分類の確信度情報に基づいて、カメラ200で第2画像フレームを撮影するときの露光条件を選択し、選択した露光条件情報をカメラ200に送信し、カメラ200が前記露光条件情報に基づき第2画像フレームを撮影し第2処理部に入力してもよい。
第2処理部330は、第1処理部320の推定結果(即ち、第2画像フレームにおける信号機や電光標識の位置情報)、第4処理部370、カメラ200から入力される第2画像フレームに基づいて、第2画像フレームから抽出すべき領域(具体的には、信号機や電光標識を含む領域)を算出し、抽出すべき領域に相当する部分を抽出画像として抽出する。なお、信号機や電光標識が複数検出されている場合には、複数の抽出画像が抽出されてもよい。第2処理部330は、後述する付記における「第2処理手段」の一具体例であり、第2画像フレームは、後述する付記における「第2の画像」の一具体例である。また、抽出画像は、後述する付記における「部分画像」の一具体例である。第2処理部220の抽出結果は、第2ニューラルネットワーク340に出力される構成となっている。
第2ニューラルネットワーク340は、第2処理部330の抽出結果(即ち、信号機や電光標識を含む抽出画像)を入力とし、抽出画像に含まれる信号機の色、形状、座標、又は電光標識の内容、座標等の情報を出力する。第2ニューラルネットワーク340は、後述する付記における「第3処理手段」の一具体例である。第2ニューラルネットワーク340の処理結果は、第3処理部350に出力される構成となっている。
第3処理部350は、第2ニューラルネットワークの出力に基づいて、車両制御(例えば、自動運転や運転支援)に係る拘束条件を判定する。具体的には、第3処理部350は、車両が直進可能であるか否か、停止すべきであるか否か、右折又は左折可能であるか否か、最高速度や最高速度はどのくらいか等の条件を判定する。第3処理部の判定結果は、車両制御を実行する装置に出力され、その結果、判定結果に基づいた車両制御が実行されることになる。
<動作説明>
次に、本実施形態に係る画像認識システムの動作の流れについて、図2を参照して説明する。図2は、実施形態に係る画像認識システムの動作の流れを示すフローチャートである。なお、図2中の各処理は、ECU300で実行されるものである。
図2に示すように、本実施形態に係る画像認識システムの動作時には、まず第1ニューラルネットワーク310が、カメラ200が撮像した第1画像フレームを取得する(ステップS11)。第1画像フレームは、画像中に含まれる信号機や電光標識の存在を検出するのに最適化された第1の露光条件で撮像された画像データである。
続いて、第1ニューラルネットワーク310は、第1画像フレームにおける画像認識すべき対象物(即ち、信号機や電光標識等)を含む領域(ROI:Region Of Interest)を検出する(ステップS12)。以下では、第1フレームにおけるROIの検出について、図3を参照して具体的に説明する。図3は、第1フレームにおける検出領域の一例を示す図である。
図3に示すように、カメラ200で撮像された第1画像フレームに信号機500が含まれているものとする。この場合、第1ニューラルネットワーク310は、対象物である信号機500を含む領域を検出領域(ROI)として検出する。検出領域は、対象物の外形を包含する矩形領域として検出されるが、ある程度のマージンを含んだ領域として検出されてもよい。また、現実的にあり得ない位置に検出されたROI(例えば、道路位置から大きく外れている、空に浮かんでいる、自車両のレーンには関係ない位置に存在する等)については、除外するような処理を行ってもよい。
図2に戻り、ROIの検出処理後には、第1処理部320がROIを実際に検出したか否かを判定する(ステップS13)。言い換えれば、第1画像フレームに画像認識すべき対象物が含まれていたか否かを判定する。なお、ROIが検出されなかった場合(ステップS13:NO)、以降の処理は省略され、一連の処理が終了する。この場合、所定期間後にステップS11から処理が再開されてもよい。
ROIが検出された場合(ステップS13:YES)、第4処理部370は、第3ニューラルネットワーク360から入力されるクラス分類の確信度情報に基づいて、第2処理部330に入力されるべき最終的な第2画像フレームの露光条件を、複数の露光条件の候補の中から選択し、選択した最終的な第2の露光条件に対応する第2画像フレームを第2処理部330に出力する(ステップS999)。第2画像フレームの露光条件が単一である場合には、ステップS999は省略されてもよい。
続いて、第1処理部320は、自車状態検出部100から自車状態を取得する(ステップS14)。そして、第1処理部320は、取得した自車状態と、第1ニューラルネットワーク310の出力である検出領域に関する情報とに基づいて、検出領域の第2画像フレームにおける位置に相当する移動後領域を推定する(ステップS15)。以下では、移動後領域の推定方法について、図4を参照して具体的に説明する。図4は、検出領域から推定される移動後領域の推定方法を示す図である。
図4に示すように、移動後領域は、検出領域を車両の移動ベクトルに基づいて動かした領域として推定される。具体的には、第1画像フレームを撮像したタイミングで車両前方に存在していた信号機500が、第2画像フレームを撮像するタイミングでどのような位置に移動しているかを推定すればよい。なお、検出領域と移動後領域の大きさは互いに異なっていてもよい。
再び図2に戻り、移動後領域が推定されると、第2処理部330が第2画像フレームを第4処理部370又はカメラ200から取得する(ステップS16)。第2画像フレームは、第1画像フレームを撮像した際の第1の露光条件とは異なる第2の露光条件で撮像されている。第2の露光条件は、自車が現在おかれているシーンにおいて対象物が示す情報を画像認識するために第4処理部370によって最適化された露光条件である。
第2処理部330は、取得した第2画像フレームから、移動後領域に相当する部分を抽出する(ステップS17)。言い換えれば、第2処理部330は、第2画像フレームから移動後領域を切り出す処理を実行する。ここで、第2画像フレームにおける移動後領域の抽出について、図5から図8を参照して具体的に説明する。図5は、第2画像フレームにおける移動後領域の一例を示す図である。図6は、信号機の抽出画像の一例を示す図である。図7は、電光標識の抽出画像の一例を示す図である。図8は、複数の電光標識の抽出画像の一例を示す図である。
図5に示すように、第2画像フレームにおける移動後領域は、第1処理部320が実行する推定処理によって、信号機500の外形を包含する領域として推定されている。図に示す例では、第1画像フレーム内に存在していた信号機500は、車両の走行によって、第2画像フレーム内では、わずかに車両に近い位置(即ち、手前側)に位置する状態となっている。
図6に示すように、第2画像フレームの移動後領域は、抽出画像として抽出される。抽出画像は、主に信号機500を含む画像として抽出されるため、元の第2画像フレームと比べると、データ量が小さい一方で、信号機500に関する情報は殆ど欠落することなく保持している。
図7に示すように、第2画像フレーム内に電光標識600が存在していた場合には、電光標識600の外形を包含する領域が抽出画像として抽出される。
図8に示すように、第2画像フレーム内に複数の電光標識700及び750が存在していた場合には、複数の抽出画像が抽出される。具体的には、電光標識700及び750の両方を含む抽出画像A、電光標識700のみを含む抽出画像B、及び電光標識750のみを含む抽出画像Cがそれぞれ抽出される。別の実施形態の態様として、第2画像フレーム内に複数の電光標識700及び750が存在していた場合には、第2処理部は抽出画像Aのみを抽出し、第2ニューラルネットワーク340が、抽出画像Aをもとに電光標識700の位置矩形および電光標識750の位置矩形それぞれを検出してもよい。
再び図2に戻り、抽出画像が抽出されると、第2ニューラルネットワーク340が抽出画像を用いて、対象物が示す情報を画像認識する(ステップS18)。具体的には、第2ニューラルネットワーク340は、信号機の灯色、形状、座標や、電光標識の内容、座標等を画像認識結果として出力する。
続いて、第2ニューラルネットワーク340の画像認識結果を用いて、第3処理部350が、車両制御の拘束条件を判定する。例えば、第3処理部350は、車両前方に存在する信号機の灯色が赤であった場合、車両を停止させるべきであると判定する。また、第3処理部は、車両前方に存在する電光標識が制限時速40kmを示すものである場合、車速を40kmに制限すべきであると判定する。第3処理部350が、車両の制御装置(図示せず)に判定結果を出力することで、ECU300が実行する一連の処理は終了する。
車両の制御装置は、第3処理部350の判定結果に基づいて、車両の走行を自動的に又は半自動的に制御する。よって、本実施形態に係る画像認識システムが搭載された車両は、信号機の灯色や電光標識の内容に沿った走行を実現することが可能である。
<技術的効果>
次に、本実施形態に係る画像認識しシステムによって得られる技術的効果について説明する。
図1から図8を参照して説明したように、本実施形態に係る画像認識システムによれば、カメラ200で撮像した画像をそのまま画像認識に利用するのではなく、対象物を含む領域が抽出され、抽出した抽出画像を利用して画像認識が実行される。抽出画像は、元の画像と比較すると、データ量が小さい一方で、対象物に関する情報の欠落は殆どない。このため、画像認識に要する計算量や計算時間を増加させることなく、好適に画像認識を実行することができる。
本実施形態に係る画像認識システムでは更に、抽出する領域を決定するために用いる第1画像フレームと、実際に画像認識に用いられる第2画像フレームとが相異なる露光条件で撮像される。具体的には、第1画像フレームは、対象物の存在を検出するために最適化された第1の露光条件で撮像される。一方、第2画像フレームは、画像認識をするために最適化された第2の露光条件で撮像される。従って、抽出領域の検出及び抽出画像の画像認識を最適な条件下で実行することができる。
本実施形態に係る画像認識システムでは更に、第2の露出条件として1乃至複数の露出条件によって1乃至複数の第2画像フレームが撮影され、第2の露出条件及び第2画像フレームが複数の場合には、第1画像フレームのシーン判定結果に基づいて第2画像フレームから1つの画像フレームが選択される。従って、第2画像フレームに基づく画像認識のために最適な露光条件を選択をすることができる。
なお、相異なる露光条件で撮像した複数の画像を利用することで、システムの処理負荷は多少増大するものの、すでに説明したように、本実施形態に係る画像認識システムでは、抽出画像を用いて画像認識が実行されるため、元の画像をそのまま画像認識する場合と比較すると、極めて低い処理負荷で画像認識を実行することが可能である。
<付記>
以上説明した実施形態から導き出される発明の各種態様を以下に説明する。
(付記1)
付記1に記載の画像認識システムは、車両周辺を第1の露光条件で撮像した第1の画像から、画像認識すべき対象物の位置に関する情報を算出する第1処理手段と、前記対象物の位置に関する情報に基づいて、車両周辺を前記第1の露光条件とは異なる第2の露光条件で撮像した第2の画像から、前記対象物を含む部分画像を抽出する第2処理手段と、前記部分画像を用いて、前記対象物が示す情報を画像認識する第3処理手段とを備える。
付記1に記載の画像認識システムによれば、第1の露光条件で撮像した第1の画像を用いて、画像認識すべき対象物(例えば、信号機や電光標識等)の位置に関する情報が算出され、その位置に関する情報を用いて、第2の露光条件で撮像した第2の画像から対象物を含む部分画像が抽出される(言い換えれば、対象物を含む部分が切り出される)。なお、第1の画像の撮像時刻と第2の画像の撮像時刻とが異なる場合は、第1の画像における対象物の位置に関する情報に基づいて、第2の画像における対象物の位置に関する情報が推定されればよい。
その後、抽出された部分画像を用いて、対象物が示す情報(例えば、信号機の灯色や電光標識の内容等)が画像認識される。ここで特に、画像認識に用いる画像は部分画像(言い換えれば、元の撮像画像よりも小さい画像)であるため、元の撮像画像を用いる場合と比較すると、画像認識における処理負荷を小さくすることができる。また、第1の画像と第2の画像とは相異なる露光条件で撮像されているため、第1の画像における対象物の市に関する情報の算出、及び第2画像(部分画像)における対象物が示す情報の画像認識を、それぞれ最適な条件下で実行することができる。従って、システムの処理負荷の増大を防止しつつ、好適に対象物の画像認識を行うことができる。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う画像認識システムもまた本発明の技術的範囲に含まれるものである。
100 自車状態検出部
200 カメラ
300 ECU
310 第1ニューラルネットワーク
320 第1処理部
330 第2処理部
340 第2ニューラルネットワーク
350 第3処理部
360 第3ニューラルネットワーク
370 第4処理部
500 信号機
600,700,750 電光標識

Claims (1)

  1. 車両周辺を第1の露光条件で撮像した第1の画像から、画像認識すべき対象物の位置に関する情報を算出する第1処理手段と、
    前記対象物の位置に関する情報に基づいて、車両周辺を前記第1の露光条件とは異なる第2の露光条件で撮像した第2の画像から、前記対象物を含む部分画像を抽出する第2処理手段と、
    前記部分画像を用いて、前記対象物が示す情報を画像認識する第3処理手段と
    を備えることを特徴とする画像認識システム。
JP2017249727A 2017-12-26 2017-12-26 画像認識システム Pending JP2019117438A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249727A JP2019117438A (ja) 2017-12-26 2017-12-26 画像認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249727A JP2019117438A (ja) 2017-12-26 2017-12-26 画像認識システム

Publications (1)

Publication Number Publication Date
JP2019117438A true JP2019117438A (ja) 2019-07-18

Family

ID=67305327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249727A Pending JP2019117438A (ja) 2017-12-26 2017-12-26 画像認識システム

Country Status (1)

Country Link
JP (1) JP2019117438A (ja)

Similar Documents

Publication Publication Date Title
JP7106664B2 (ja) 知的運転制御方法および装置、電子機器、プログラムならびに媒体
US10380434B2 (en) Vehicle detection system and method
US8036427B2 (en) Vehicle and road sign recognition device
CN109409186B (zh) 用于对象检测和通知的驾驶员辅助系统和方法
CN102963294B (zh) 一种夜间行驶车辆远光灯开启状态的判别方法
JP2007257449A (ja) 道路区画線検出装置
JP2006031365A (ja) 車線認識画像処理装置
JP2007234019A (ja) 車両画像領域特定装置およびその方法
JP2018063680A (ja) 交通信号認識方法および交通信号認識装置
JPH06107096A (ja) 車両用前方監視方法
JP2009212810A (ja) 車両撮像装置
JP2007179386A (ja) 白線認識方法及び白線認識装置
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
WO2019013252A1 (ja) 車両周囲認識装置
CN111046741A (zh) 车道线识别的方法和装置
WO2019085929A1 (zh) 图像处理方法及其装置、安全驾驶方法
JP5353531B2 (ja) 車両灯火認識装置及びプログラム
JP2018106239A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2010136207A (ja) 歩行者検出表示システム
JP2012023572A (ja) ホワイトバランス係数算出装置及びプログラム
JP2008040736A (ja) 車両検出装置、および車両検出方法
Tang et al. Robust vehicle surveillance in night traffic videos using an azimuthally blur technique
JP2004086417A (ja) 横断歩道等における歩行者検出方法及び同装置
KR20140103441A (ko) 시선 유도 반사체를 이용한 차선 인식 방법 및 시스템
JP2010271969A (ja) 車線検出装置