JP2012226513A - 検知装置、及び検知方法 - Google Patents

検知装置、及び検知方法 Download PDF

Info

Publication number
JP2012226513A
JP2012226513A JP2011092843A JP2011092843A JP2012226513A JP 2012226513 A JP2012226513 A JP 2012226513A JP 2011092843 A JP2011092843 A JP 2011092843A JP 2011092843 A JP2011092843 A JP 2011092843A JP 2012226513 A JP2012226513 A JP 2012226513A
Authority
JP
Japan
Prior art keywords
exposure time
unit
image data
detection
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011092843A
Other languages
English (en)
Inventor
Keiichi Hasegawa
敬一 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Elesys Corp
Original Assignee
Nidec Elesys Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Elesys Corp filed Critical Nidec Elesys Corp
Priority to JP2011092843A priority Critical patent/JP2012226513A/ja
Priority to CN2012101134540A priority patent/CN102745134A/zh
Priority to US13/450,111 priority patent/US20120300074A1/en
Publication of JP2012226513A publication Critical patent/JP2012226513A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】夜間においても、走行路区分線の検知、及びヘッドライト検知を適切に行うことができる検知装置、及び検知方法を提供することを目的としている。
【解決手段】撮像装置10の露光時間を予め定められているタイミングで切り替える制御部22と、異なる露光時間で撮像された画像データを取得する画像取得部24と、前記画像取得部が取得した異なる露光時間の各画像データから各々対象物を検知する対象物検知部(25、26)と、を備える。
【選択図】図1

Description

本発明は、走行する車両に搭載された検知装置、及び検知方法に関する。
車両の走行路区分線(道路上の白線)の検知装置は、車両に搭載されている撮像装置で撮像された画像から所定の特徴点を抽出し、抽出した特徴点に基づいて走行路区分線に相当する線分を抽出する。また、検知装置は、予め記憶されている走行路区分線のモデルと、抽出した走行路区分線に相当する線分とを比較して、モデルとマッチングしている線分を選択する。そして、検知装置は、選択した線分に対応する特徴点を近似して走行路区分線を算出して対象物を検知している(例えば、特許文献1参照)。
このような検知装置では、昼間に撮像して対象物を検知する場合、撮像された画像がサチレーションしないように撮像装置の露光時間を短くして撮像している。また、夜間に撮像して対象物を検知する場合、走行路区分線である被対称物を明瞭に撮像するために、露光時間をできるだけ長くして撮像している。
特開平8−315125号公報
しかしながら、特許文献1の従来技術では、夜間に撮像して対象物を検知する場合、露光時間を長くしているため、ヘッドライトを点灯した対向車の認識において、ヘッドライトの光源の光量が強すぎて、撮像された画像サチレーションしてしまう。この撮像された画像のサチレーションを防ぐために、仮に露光時間を短くした場合、走行路区分線等の対象物の撮像された画像は、十分な輝度が得られず不鮮明な画像データしか得られない。このため、走行路区分線等の対象物を適切に認識できなくなる。
本発明は、上記の問題点に鑑みてなされたものであって、夜間においても、走行路区分線の検知、及びヘッドライト検知を適切に行うことができる検知装置、及び検知方法を提供することを目的としている。
(1)上記課題を解決するために、本発明に係る検知装置は、撮像装置の露光時間を予め定められているタイミングで切り替える制御部と、異なる露光時間で撮像された画像データを取得する画像取得部と、前記画像取得部が取得した異なる露光時間の各画像データから各々対象物を検知する対象物検知部と、を備えることを特徴としている。
(2)また、本発明に係る検知装置において、前記制御部は、前記撮像装置の増幅感度を予め定められているタイミングで切り替え、前記画像取得部は、異なる露光時間且つ異なる増幅感度で撮像された画像データを取得し、前記対象物検知部は、前記画像取得部が取得した異なる露光時間且つ異なる増幅感度の各画像データから各々対象物を検知するようにしてもよい。
(3)また、本発明に係る検知装置において、異なる露光時間で撮像された画像データから前記対象物の候補領域の画像データを抽出する領域抽出部と、前記領域抽出部が抽出した前記対象物の候補領域の画像データにおける絶対輝度を算出する絶対輝度算出部と、前記絶対輝度算出部が算出した前記対象物の候補領域の画像データにおける絶対輝度に基づき、前記露光時間と前記増幅感度の少なくとも1つを補正する補正部と、を備え、前記制御部は、前記撮像装置の露光時間または増幅感度を、前記補正部により補正された露光時間または増幅感度に切り替えるようにしてもよい。
(4)また、本発明に係る検知装置において、前記異なる2つの露光時間は、第1の露光時間と、前記第1の露光時間より短い第2の露光時間とであるようにしてもよい。
(5)また、本発明に係る検知装置において、前記第1の露光時間は、少なくとも発光する対象物の検知に用いられる露光時間であり、前記第2の露光時間は、少なくとも反射する対象物の検知に用いられる露光時間であるようにしてもよい。
(6)また、本発明に係る検知装置において、前記発光する対象物は、少なくともヘッドライトであり、前記発光しない対象物は、少なくとも前記車両の走行路面上の走行路区分線、車両、及び人のいずれか1つを含む物体であるようにしてもよい。
(7)上記課題を解決するために、本発明は、検知装置における検知方法であって、制御部が、撮像装置の露光時間を予め定められているタイミングで切り替える制御工程と、画像取得部が、異なる露光時間で撮像された画像データを取得する画像取得工程と、対象物検知部が、前記画像取得工程で取得した異なる露光時間の各画像データから各々対象物を検知する対象物検知部と、を含むことを特徴としている。
本発明によれば、異なる露光時間により撮像された画像データから対象物を検知するようにしたので、夜間においても、輝度の低い走行路区間線を検知できるとともに、サチュレーションを生じることなく、ヘッドライト検知を適切に行うことができる。
本発明に係る認識装置の構成の一例を示すブロック図である。 同実施形態に係る撮像対象と露光時間の関係を説明する図である。 同実施形態に係る検知装置において、相対的に長い露光時間Aで撮影したフレーム画像の一例を示す模式図である。 同実施形態に係る検知装置において、相対的に短い露光時間Bで撮影したフレーム画像の一例を示す模式図である。 同実施形態に係る検知装置の動作を説明するためのフローチャートである。 従来の検知装置で用いられているアイリスを説明するための概念図である。 第2実施形態に係る検知装置の構成の一例を示すブロック図である。 同実施形態に係る撮像対象と露光時間及びゲインの関係を説明する図である。 同実施形態に係る検知装置の動作を説明するためのフローチャートである。
以下、図面を用いて、本発明の実施形態について説明する。なお、本発明は係る実施形態に限定されず、その技術思想の範囲内で種々の変更が可能である。また、以下の図面においては、各構成をわかりやすくするために、実際の構造と各構造における縮尺等が異なっている。
まず、本発明の検知装置の動作の概略について説明する。本発明の検知装置は、1台の撮像装置で露光時間A、Bの2つを交互に切り替えて撮影することで、夜間、路面の走行路区分線を明るく撮像し(露光時間A;露光時間長い)、同じカメラで対向車も撮影(露光時間B;露光時間短い)する。このように2つの露光時間で撮像された画像データを用いて、路上の対象物を検知する。
夜間、車両の前方に取り付けられているヘッドライトにより、前方が照らし出され、撮像装置により撮影された画像データには、走行路区分線以外にも、街灯などが照らし出されている。このような状況を撮影した画像データから、走行路区分線を抽出するには、ある程度の輝度差が必要である。特に、夜間は、輝度差が少なくなってしまうので、露光時間を長くする必要がある。また、雨の時には、全体が光ってしまい、走行路区分線との輝度差が得にくい。また、走行路区分線が引かれてから時間が経過したものは、やはり輝度差が得にくい。この場合にも、露光時間を長くする必要がある。
一方、ヘッドライトの輝度は、夜間の走行路区分線が見える程度の輝度に設定されている。他方、撮像装置がCMOSカメラの場合、ダイナミックレンジは、12ビット、66dB(デジベル)程度しかないので、一番明るいところと、一番暗いところを撮影できる輝度の範囲が限られている。このため、昼は、明るい輝度が測れる範囲で使用し、夜は暗いところも測れるような範囲で使用している。
[第1実施形態]
次に、本実施形態に係る認識装置の構成について、図1を用いて説明する。図1は、本実施形態に係る認識装置の構成の一例を示すブロック図である。
図1に示すように、認識装置1は、撮像装置10、検知装置20により構成されている。
まず、撮像装置10の構成について説明する。撮像装置10は、露光時間切換部11、撮像部13を備えている。
露光時間切換部11は、検知装置20が出力する露光時間を示す情報に基づき、撮像部13の露光時間を切り替える。
撮像部13は、例えば、CMOS(Complementary Metal Oxide Semiconductor;相補型金属酸化膜半導体)カメラである。撮像部13は、露光時間切換部11により切り替えられた露光時間で撮像し、撮像した画像データを検知装置20に出力する。
次に、検知装置20の構成について説明する。検知装置20は、タイミング信号生成部21、制御部22、記憶部23、画像取得部24、画像処理部25、検知部26を備えている。
タイミング信号生成部21は、予め定められている周期のタイミング信号を生成し、生成したタイミング信号を制御部22と画像取得部24に出力する。なお、予め定められている周期とは、例えば1秒である。
制御部22は、記憶部23に記憶されている2つの露光時間Aと露光時間Bを読み出す。制御部22は、タイミング信号生成部21が出力するタイミング信号のタイミングで、露光時間Aを示す情報と露光時間Bを示す情報を、交互に撮像装置10に出力する。
記憶部23には、露光時間Aを示す情報、露光時間Bを示す情報が予め記憶されている。露光時間Aは、相対的に長く設定されており、夜間の対象物(走行路区分線、車両、人などを含む)検知において、走行路区分線等を撮影する際に用いられる。一方、露光時間Bは、露光時間Aに比べ短く設定されており、サチュレーションを回避して、強い光源であるヘッドライトを撮影する際に用いられる。
画像取得部24は、タイミング生成信号生成部21が出力するタイミング信号のタイミングで撮像装置10が出力する画像データを取得し、取得した画像データをデジタルデータに変換する。画像取得部24は、変換した画像データを画像処理部25に出力する。なお、撮像装置10が出力する画像データがデジタル信号の場合、画像取得部24は、取得した画像データを、変換せずにそのまま画像処理部25に出力する。
画像処理部25は、画像取得部24が出力する画像データに対して、予め定められた画像処理を行う。予め定められた画像処理とは、反射する対象物(走行路区分線、車両、人など)を検知する場合、参考文献1(特開平8−315125号公報)と同様の処理を行う。すなわち、画像処理部25は、例えば、画像データに対して、まずエッジ点を検出してエッジ画像データを検出し、次にエッジ画像データに対しハフ変換を行って直線成分を検出する。次に、画像処理部25は、検出した直線成分の中から連続している線分を走行路区分線の候補として検出する。また、ヘッドライトを検知する場合、画像処理部25は、例えば、画像データに対して、まずエッジ点を検出してエッジ画像データを検出し、次にエッジ画像データに対しハフ変換を行って円形成分を検出する。次に、画像処理部25は、検出した円形成分をヘッドライトの候補として検出する。
画像処理部25は、このように検出した対象物の候補領域を示す情報を検知部26に出力する。
検知部26は、画像処理部25が出力する対象物の候補領域を示す情報に基づき、発光する対象物、及び反射する対象物を検知する。検知部26は、検知した結果を、図示しないダッシュボードに取り付けられている表示部や、図示しない車両の走行制御部等に出力する。図示しない車両の走行制御部は、検知装置20が出力する検知結果を示す情報に基づき、車両の走行等を制御する。
なお、本実施形態において対象物検知部は、画像処理部25と検知部26とで構成されている。
次に、撮像対象と露光時間について、図2〜図4を用いて説明する。図2は、本実施形態に係る撮像対象と露光時間の関係を説明する図である。図3は、本実施形態に係る検知装置において、相対的に長い露光時間Aで撮影したフレーム画像の一例を示す模式図である。また、図4は、本実施形態に係る検知装置において、相対的に短い露光時間Bで撮影したフレーム画像の一例を示す模式図である。
図2に示すように、撮像装置10は、検知装置20の制御により、時刻t1〜t2の期間、露光時間Aで第1フレーム目の画像データを撮像する。この場合、長い露光時間である露光時間Aで撮像しているため、撮像装置10は、路面を検知するための画像を撮像していることになる。
次に、撮像装置10は、検知装置20の制御により、時刻t2〜t3の期間、短い露光時間である露光時間Bで第2フレーム目の画像データを撮像する。この場合、短い露光時間Bで撮像しているため、撮像装置10は、ヘッドライトなどのライトを検知するための画像を撮像していることになる。以後、撮像装置10は、露光時間Aと露光時間Bを交互に繰り返して、撮像を行う。なお、撮像装置10により撮像された画像データは、白黒の画像データであるとして説明するが、画像データはカラー画像データであってもよい。
図2の第1フレーム、第3フレーム、第5フレーム、・・・において、長い露光時間Aで撮影した場合、図3に示すように、画像データ300には、検出対象である走行路区分線310、315および320や、街灯330〜355が輝度が高いため、白く撮像される。
これに対して、図2の第2フレーム、第4フレーム、第6フレーム、・・・において、短い露光時間Bで撮影した場合、図4に示すように、画像データ400には、検出対象であるヘッドライト470〜485を示す円形領域が輝度が高いため、白く撮像される。すなわち、画像データ400は、露光時間Bで撮像されたため、サチュレーションを生じることなく、対向車のヘッドライトが撮影されている。
次に、本実施形態の動作について、図5を用いて説明する。図5は、本実施形態の検知装置の動作を説明するためのフローチャートである。
(ステップS1)検知装置20の制御部22は、まず、露出時間A、Bのいずれを用いるかを振り分けるための変数iを「1」とする。なお、以下で説明するステップS2以降の処理は、1フレーム毎に実行される。ステップS1終了後、ステップS2に進む。
(ステップS2)制御部22は、タイミング信号生成部21が出力するタイミング信号を取得する。ステップS2終了後、ステップS3に進む。
(ステップS3)制御部22は、変数iが1か否かを判別する。変数iが1であると判別された場合(ステップS3;Yes)、ステップS4に進む。変数iが1ではないと判別された場合(ステップS3;No)、ステップS5に進む。
(ステップS4)変数iが1であると判別された場合(ステップS3;Yes)、制御部22は、記憶部23から読み出した露光時間のうち露光時間Aを撮像装置10に出力する。ステップS4終了後、ステップS6に進む。
(ステップS5)変数iが1ではないと判別された場合(ステップS3;No)、制御部22は、記憶部23から読み出した露光時間のうち露光時間Bを撮像装置10に出力する。ステップS5終了後、ステップS6に進む。
(ステップS6)撮像装置10の露光時間切換部11は、検知装置20が出力する露光時間AまたはBを示す情報を取得し、取得した露光時間を示す情報を撮像部13に出力する。
次に、撮像部13は、露光時間切換部11が出力する露光時間を示す情報に基づき、撮像を行う。撮像部13は、撮像した画像データを検知装置20に出力する。ステップS6終了後、ステップS7に進む。
(ステップS7)検知装置20の画像取得部24は、タイミング信号生成部21が出力するタイミング信号のタイミングに応じて、画像装置10が出力する画像データを取得し、取得した画像データを画像処理部25に出力する。ステップS6終了後、ステップS7に進む。
(ステップS8)制御部22は、変数iが1か否かを判別する。変数iが1であると判別された場合(ステップS8;Yes)、ステップS9に進む。変数iが1ではないと判別された場合(ステップS8;No)、ステップS11に進む。
(ステップS9)変数iが1であると判別された場合(ステップS8;Yes)、画像処理部25は、走行路区分線・物体検知のための画像処理を行う。画像処理部25は、画像データに対して、まずエッジ点を検出してエッジ画像データを検出し、次にエッジ画像データに対しハフ変換を行って直線成分を検出する。次に、画像処理部25は、検出した直線成分の中から連続している線分を走行路区分線の候補として検出する。画像処理部25は、このように検出した対象物の候補領域を示す情報を検知部26に出力する。ステップS9終了後、ステップS10に進む。
(ステップS10)制御部は、変数iを「2」とする。ステップS10終了後、ステップS13に進む。
(ステップS11)変数iが1ではないと判別された場合(ステップS8;No)、画像処理部25は、ヘッドライト検知のための画像処理を行う。画像処理部25は、画像データに対して、まずエッジ点を検出してエッジ画像データを検出し、次にエッジ画像データに対しハフ変換を行って円形成分を検出する。次に、画像処理部25は、検出した円形成分をヘッドライトの候補として検出する。画像処理部25は、このように検出した対象物の候補領域を示す情報を検知部26に出力する。ステップS11終了後、ステップS12に進む。
(ステップS12)制御部22は、変数iを「1」とする。ステップS12終了後、ステップS13に進む。
(ステップS13)検知部26は、画像処理部25が出力する対象物の候補領域を示す情報に基づき、ヘッドライトなどの発光する対象物、及び走行路区分線などの反射する対象物を検知する。検知部26は、検知した結果を、図示しないダッシュボードに取り付けられている表示部や、図示しない車両の走行制御部等に出力する。
撮像装置10と検知装置20は、タイミング信号生成部21が出力するタイミング信号のタイミングに応じて、フレーム毎に、ステップS2〜S13を繰り返す。
以降、撮像装置10と検知装置20は、フレーム毎に2つの露光時間を交互に切り替えて撮像し、撮像された画像データから発光する対象物、または、反射する対象物を検知する。この結果、相対的に長い露光時間Aで撮影したフレームからは、走行路区分線を検知することができ、相対的に短い露光時間Bで撮影したフレームからは、対向車のヘッドライトを検知することができる。
なお、撮影された画像から所定の特徴点を抽出し、該特徴点に基づいて走行路区分線を抽出する方法については、前述した参考文献1、参考文献2(特開2009−271908号公報)、参考文献3(特開2010−44445号公報)など公知の手法で行ってもよい。
上述した本発明の実施形態によれば、白線を撮影するために、相対的に長い露光時間Aで撮影し、次いで、ヘッドライトを撮影するために、相対的に短い露光時間Bで撮影するというように、交互に切り替えるようにしたので、夜間における走行路区分線の検知、及び対向車のヘッドライト(対向ランプや、バックライト)の検知を適切に行うことができる。
また、相対的に短い露光時間Bで撮影することにより、夜間でも、走行路区分線と対向車のヘッドライト(対向ランプや、バックライト)が検知できるだけでなく、市街地などを走行しているとき、街灯や、商店の光、信号機の光など、本来、検出したくない光源を撮影してしまうことを防ぐことができる。
また、昼間でも、相対的に長い露光時間A、及び相対的に短い露光時間Bを用いるようにすれば、雨天の場合や、引かれてから時間が経過している走行路区分線のように輝度差が少ない状況でも、走行路区分線を適切に検出することができる。
[第2実施形態]
第1実施形態では、撮像装置10の露光時間を切り替えて撮像する例を説明したが、第2実施形態では、露光時間に加えて増幅感度も切り替える例について説明する。
図6は、従来の検知装置で用いられているアイリス(IRIS;Intelligent coopeRative Intersection Safty sytem)を説明するための概念図である。なお、アイリスとは、SAFESPOT統合プロジェクトの内、赤信号警告、左折支援、右折時歩行者保護、緊急車両支援を行うインフラベースの交差点安全システムである。また、SAFESPOTはEuropean Commission Information Society Technologiesによって共同資金を供給された統合プロジェクトであり、8種類のサブプロジェクトで構成されている。
図6に示すように、アイリスは、撮像装置で撮影した領域の中で道路面領域100を画像判定して範囲を抽出する。そして、抽出した範囲の中の走行路区分線に相当する領域210と220を横切る領域である計算ライン110〜160の絶対輝度を算出して、その値が一定になるようにシャッター速度である露光時間と増幅感度(ゲイン)を変えてフィードバック制御していた。なお、ゲインとは、撮像装置がCMOSカメラにおいて、例えば、CMOSカメラの電荷を増幅して撮影感度を上げる際の増幅率である。
次に、本実施形態に係る認識装置の構成について、図7を用いて説明する。図7は、本実施形態に係る認識装置の構成の一例を示すブロック図である。
図7に示すように、認識装置1aは、撮像装置10a、検知装置20aにより構成されている。
撮像装置10aは、露光時間切換部11、ゲイン切換部12、撮像部13aを備えている。検知装置20aは、タイミング信号生成部21、制御部22a、記憶部23a、画像取得部24a、画像処理部25a、検知部26、領域抽出部27、絶対輝度算出部28、ゲイン・露光時間補正部29を備えている。なお、第1実施形態における認識装置1と同じ機能を有する機能部については同じ符号を用いて説明を省略する。
まず、撮像装置10aの構成について説明する。
ゲイン切換部12は、検知装置20aが出力するゲインを示す情報に基づき、撮像部13aの露光時間を切り替える。
撮像部13aは、露光時間切換部11により切り替えられた露光時間且つゲイン切換部12により切り替えられたゲインで撮像し、撮像した画像データを検知装置20aに出力する。
次に、検知装置20の構成について説明する。
制御部22aは、記憶部23aに記憶されている2つの露光時間と2つのゲイン値を読み出す。制御部22は、タイミング信号生成部21が出力するタイミング信号のタイミングで、露光時間Aを示す情報とゲインCを示す情報、または、露光時間Bを示す情報とゲインDを示す情報を、交互に撮像装置10aに出力する。
記憶部23aには、露光時間Aを示す情報、露光時間Bを示す情報、ゲインCを示す情報、ゲインDを示す情報が予め記憶されている。ゲインCは、撮像装置10aの撮像時に、露光時間Aとともに用いられるゲインである。また、ゲインDは、撮像装置10aの撮像時に、露光時間Bとともに用いられるゲインである。
画像取得部24aは、タイミング生成信号生成部21が出力するタイミング信号のタイミングで撮像装置10aが出力する画像データを取得し、取得した画像データをデジタルデータに変換する。画像取得部24aは、変換した画像データを画像処理部25aと領域抽出部27に出力する。なお、撮像装置10aが出力する画像データがデジタル信号の場合、画像取得部24aは、取得した画像データを、変換せずにそのまま画像処理部25aと領域抽出部27に出力する。
画像処理部25aは、画像取得部24aが出力する画像データに対して、予め定められた画像処理を行う。画像処理部25aは、予め定められた画像処理により検出した対象物の候補領域を示す情報を検知部26と領域抽出部27に出力する。
領域抽出部27は、画像取得部24aが出力する画像データから、画像処理部25aが出力する対象物の候補領域を示す情報に基づき、検出する対象物候補の画像領域を抽出し、抽出した画像領域の画像データを絶対輝度算出部28に出力する。
絶対輝度算出部28は、画像領域の画像データの絶対輝度値(実際の輝度)を算出し、算出した絶対輝度値を示す情報をゲイン・露光時間補正部29に出力する。
ゲイン・露光時間補正部29(補正部)は、絶対輝度算出部28が出力する絶対輝度値を示す情報に基づき、撮像に用いられたゲイン及び露光時間を補正し、補正したゲイン及び露光時間を記憶部23aに記憶させる。
次に、撮像対象と露光時間について、図8を用いて説明する。図8は、本実施形態に係る撮像対象と露光時間及びゲインの関係を説明する図である。
図8に示すように、撮像装置10aは、検知装置20aの制御により、時刻t1〜t2の期間、露光時間A且つゲインCで第1フレーム目の画像データを撮像する。この場合、長い露光時間である露光時間Aで撮像しているため、撮像装置10aは、路面を検知するための画像を撮像していることになる。
次に、撮像装置10aは、検知装置20aの制御により、時刻t2〜t3の期間、短い露光時間である露光時間B且つゲインDで第2フレーム目の画像データを撮像する。この場合、短い露光時間Bで撮像しているため、撮像装置10aは、ヘッドライトなどを検知するための画像を撮像していることになる。
撮像装置10aは、検知装置20aの制御により、時刻t3〜t4の期間、露光時間A’且つゲインC’で第3フレーム目の画像データを撮像する。なお、露光時間A’とは、後述するように、撮像された画像データに基づき、露光時間Aが補正された露光時間である。また、ゲインC’とは、撮像された画像データに基づき、ゲインCが補正されたゲインである。
次に、撮像装置10aは、検知装置20aの制御により、時刻t4〜t5の期間、短い露光時間である露光時間B’且つゲインD’で第4フレーム目の画像データを撮像する。なお、露光時間B’とは、後述するように、撮像された画像データに基づき、露光時間Bが補正された露光時間である。また、ゲインD’とは、撮像された画像データに基づき、ゲインDが補正されたゲインである。
以後、撮像装置10aは、補正された露光時間A且つゲインCと、補正された露光時間B且つゲインDを交互に切り替えて、撮像を行う。
次に、本実施形態の動作について、図9を用いて説明する。
図9は、本実施形態の検知装置の動作を説明するためのフローチャートである。
(ステップS101)検知装置20aの制御部22aは、まず、露出時間A、B、ゲインC、Dを用いるかを振り分けるための変数iを「1」とする。なお、以下で説明するステップS102以降の処理は、1フレーム毎に実行される。ステップS101終了後、ステップS102に進む。
(ステップS102)制御部22aは、タイミング信号生成部21が出力するタイミング信号を取得する。ステップS102終了後、ステップS103に進む。
(ステップS103)制御部22aは、変数iが1か否かを判別する。変数iが1であると判別された場合(ステップS103;Yes)、ステップS104に進む。変数iが1ではないと判別された場合(ステップS103;No)、ステップS106に進む。
(ステップS104)変数iが1であると判別された場合(ステップS103;Yes)、制御部22aは、記憶部23aから読み出したゲイン値のうちゲインCを撮像装置10aに出力する。ステップS104終了後、ステップS105に進む。
(ステップS105)制御部22aは、記憶部23aから読み出した露光時間のうち露光時間Aを撮像装置10aに出力する。ステップS105終了後、ステップS108に進む。
(ステップS106)変数iが1ではないと判別された場合(ステップS103;No)、制御部22aは、記憶部23aから読み出したゲイン値のうちゲインDを撮像装置10aに出力する。ステップS106終了後、ステップS107に進む。
(ステップS107)制御部22aは、記憶部23aから読み出した露光時間のうち露光時間Bを撮像装置10aに出力する。ステップS107終了後、ステップS108に進む。
(ステップS108)撮像装置10aのゲイン切換部12は、検知装置20aが出力するゲインCまたはDを示す情報を取得し、取得したゲイン値を示す情報を撮像部13aに出力する。
次に、露光時間切換部11は、検知装置20aが出力する露光時間AまたはBを示す情報を取得し、取得した露光時間を示す情報を撮像部13aに出力する。
次に、撮像部13aは、露光時間切換部11が出力する露光時間を示す情報と、ゲイン切換部12が出力するゲイン値を示す情報とに基づき、撮像を行う。撮像部13aは、撮像した画像データを検知装置20aに出力する。ステップS108終了後、ステップS109に進む。
(ステップS109)検知装置20aの画像取得部24aは、タイミング信号生成部21が出力するタイミング信号のタイミングに応じて、画像装置10aが出力する画像データを取得し、取得した画像データを画像処理部25aに出力する。ステップS109終了後、ステップS110に進む。
(ステップS110)制御部22aは、変数iが1か否かを判別する。変数iが1であると判別された場合(ステップS110;Yes)、ステップS111に進む。変数iが1ではないと判別された場合(ステップS110;No)、ステップS117に進む。
(ステップS111)変数iが1であると判別された場合(ステップS110;Yes)、画像処理部25aは、走行路区分線・物体検知のための画像処理を行う。画像処理部25aは、対象物の候補領域を示す情報を検知部26に出力する。ステップS111終了後、ステップS112に進む。
(ステップS112)領域抽出部27は、画像取得部24aが出力する画像データと、画像処理部25aが出力する対象物の候補領域を示す情報とに基づき、取得した画像データから対象物の候補領域の画像データを抽出する。取得した画像データから抽出される領域は、図3の領域310〜355のように走行路区分線、街灯の形状等を示す領域である。領域抽出部27は、抽出した画像領域の画像データを絶対輝度算出部28に出力する。ステップS112終了後、ステップS113に進む。
(ステップS113)絶対輝度算出部28は、領域抽出部27が出力する画像領域の画像データにおける絶対輝度を算出し、算出した絶対輝度を示す情報をゲイン・露光時間補正部29に出力する。ステップS113終了後、ステップS114に進む。
(ステップS114)ゲイン・露光時間補正部29は、絶対輝度算出部28が出力する絶対輝度を示す情報に基づき、走行路区分線や物体などの対象物の検出を行うために撮像に使用するゲイン値を補正する。ゲイン・露光時間補正部29は、ステップS104で設定したゲインCを補正し、補正したゲインC’を記憶部23aに記憶させる。ステップS114終了後、ステップS115に進む。
(ステップS115)ゲイン・露光時間補正部29は、絶対輝度算出部28が出力する絶対輝度を示す情報に基づき、走行路区分線や物体など対象物の検出行うために撮像に使用する露光時間を補正する。ゲイン・露光時間補正部29は、ステップS105で設定した露光時間Aを補正し、補正した露光時間A’を記憶部23aに記憶させる。ステップS115終了後、ステップS116に進む。
(ステップS116)制御部22aは、変数iを「2」とする。ステップS116終了後、ステップS123に進む。
(ステップS117)変数iが1ではないと判別された場合(ステップS110;No)、画像処理部25aは、ヘッドライト検知のための画像処理を行う。画像処理部25aは、対象物の候補領域を示す情報を検知部26に出力する。ステップS117終了後、ステップS118に進む。
(ステップS118)領域抽出部27は、画像取得部24aが出力する画像データと、画像処理部25aが出力する対象物の候補領域を示す情報とに基づき、取得した画像データから候補領域の画像データを抽出する。取得した画像データから抽出される領域は、図4の領域470〜485のようにヘッドライトの形状を示す領域である。領域抽出部27は、抽出した画像領域の画像データを絶対輝度算出部28に出力する。ステップS118終了後、ステップS119に進む。
(ステップS119)絶対輝度算出部28は、領域抽出部27が出力する画像領域の画像データにおける絶対輝度を算出し、算出した絶対輝度を示す情報をゲイン・露光時間補正部29に出力する。ステップS119終了後、ステップS120に進む。
(ステップS120)ゲイン・露光時間補正部29は、絶対輝度算出部28が出力する絶対輝度を示す情報に基づき、ヘッドライトなど対象物の検出行うために撮像に使用するゲイン値を補正する。ゲイン・露光時間補正部29は、ステップS106で設定したゲインDを補正し、補正したゲインD’を記憶部23aに記憶させる。ステップS120終了後、ステップS121に進む。
(ステップS121)ゲイン・露光時間補正部29は、絶対輝度算出部28が出力する絶対輝度を示す情報に基づき、ヘッドライトなど対象物の検出行うために撮像に使用する露光時間を補正する。ゲイン・露光時間補正部29は、ステップS107で設定した露光時間Bを補正し、補正した露光時間B’を記憶部23aに記憶させる。ステップS121終了後、ステップS122に進む。
(ステップS122)制御部22aは、変数iを「1」とする。ステップS122終了後、ステップS123に進む。
(ステップS123)検知部26は、画像処理部25aが出力する対象物の候補領域を示す情報に基づき、発光する対象物、及び反射する対象物を検知する。検知部26は、検知した結果を、図示しないダッシュボードに取り付けられている表示部や、図示しない車両の走行制御部等に出力する。
撮像装置10aと検知装置20aは、タイミング信号生成部21が出力するタイミング信号のタイミングに応じて、フレーム毎に、ステップS102〜S123を繰り返す。
以降、撮像装置10aと検知装置20aは、フレーム毎に2つの露光時間と2つのゲインとを交互に切り替えて撮像し、撮像された画像データにおいて検知したい対象物の含まれる領域を抽出する。そして、抽出した領域の絶対輝度に基づき、設定した露光時間とゲインを補正するようにした。この結果、適切な露光時間とゲインで撮像された画像データから検出したい対象物を検知するので、日中、夜間、雨天であっても、精度良く対象物の検知を行うことができる。
なお、本実施形態では、ステップS114、S115、S120、及びS121において、ゲインと露光時間をセットで補正する例を説明したが、ステップS113またはS119で算出した絶対輝度に応じて、ゲインのみ、または、露光時間のみを補正するようにしてもよい。
この場合、検知装置20aは、例えば、図8において時刻t1〜t2で撮像された第1フレームの画像データに基づき、露光時間Aのみを補正し、時刻t3〜t4で撮像された第3フレームの画像データに基づき、ステップS113で再度、絶対輝度を算出する。ステップS113で算出された絶対輝度に基づき、検知装置20aのゲイン・露光時間補正部29は、露光時間Aの補正のみで、検出したい対象物の絶対輝度が適正であるか否かを判別する。露光時間が適正であると判別された場合、ゲイン・露光時間補正部29は、補正された露光時間A’のみ記憶部23aに記憶させる。一方、絶対輝度が適正でないと判別された場合、ゲイン・露光時間補正部29は、算出された絶対輝度に基づきゲインCも補正する。
あるいは、検知装置20aは、例えば、図8において時刻t1〜t2で撮像された第1フレームの画像データに基づき、ゲインCのみを補正し、時刻t3〜t4で撮像された第3フレームの画像データに基づき、ステップS113で再度、絶対輝度を算出する。ステップS113で算出された絶対輝度に基づき、検知装置20aのゲイン・露光時間補正部29は、ゲインCの補正のみで、検出したい対象物の輝度が適正であるか否かを判別する。露光時間A且つゲインCが適正であると判別された場合、ゲイン・露光時間補正部29は、補正されたゲインC’のみ記憶部23aに記憶させる。一方、輝度が適正でないと判別された場合、ゲイン・露光時間補正部29は、算出された絶対輝度に基づき露光時間Aも補正する。このように、ゲインを補正し、ゲインの補正のみでは検出したい対象物に対して適正な輝度を得られない場合に露光時間を補正することの効果は、予め定められている露光時間のシャッタースピードの変化を少なくできることにある。撮像装置10aが撮像する場合、例えば図8において、第1フレーム、第3フレーム、第5フレーム毎に露光時間を変えた場合、撮像された画像データの対象物(バックライトや走行路区分線など)が流れる現象委が発生する場合がある。流れ現象が生じた場合、対象物の検知精度が低下する場合もある。このため、露光時間の補正を減らすことで、このような画像データ内の対象物の流れ現象を軽減する効果がある。
また、このような画像データ内の流れ現象を軽減するために、例えば、画像処理部25aは、検出したい対象物の領域を検出した後、検出した領域の対象物の候補に流れ現象が生じているか否かを、パターンマッチングなどの公知の画像認識の手法を用いて判別するようにしてもよい。そして、流れ現象が発生していると判別された場合、予め定められている露光時間に設定しなおし、ステップS114またはS120ゲインを補正するようにしてもよい。
なお、本実施形態では、図2及び図8に示したように、長い露光時間Aによる撮像と、短い露光時間Bによる撮像を交互に行う例を説明したが、撮像装置10または10aのフレームレート等に応じて、例えば、露光時間Aで2フレーム分撮像した後に露光時間Bで2フレーム分撮像するようにしてもよい。また、検知したい対象に応じて、例えば、例えば、露光時間Aで2フレーム分撮像した後に露光時間Bで1フレーム分撮像するようにしてもよい。また、露光時間Aを撮像する期間Δt1(=t1〜t2)と、露光時間Bで撮像する期間Δt2(=t2〜t3)は、同じ期間でもよく、あるいは、露光時間に応じて、期間Δt2を期間Δt1より短くするようにしてもよい。
また、本実施形態では、2つの異なる露光時間AとBを交互に切り替えて撮像された画像データから、対象物を検知する例を説明したが、検知したい対象に応じて露光時間は2つに限られず3つ以上であってもよい。この場合、第1露光時間、第2露光時間、第3露光時間を順次切り替えて撮像し、撮像された各画像データから対象物を検知するようにしてもよい。また、第1露光時間、第2露光時間、第3露光時間は、第1露光時間が第2露光時間と第3露光時間より長く、第2露光時間が第3露光時間より長くてもよい。あるいは、第1露光時間、第2露光時間、第3露光時間は、第1露光時間が第2露光時間と第3露光時間より長く、第3露光時間が第2露光時間より長くてもよい。同様に、ゲイン値も2つに限られず、3つ以上であってもよい。
また、本実施形態では、撮像装置10aのゲイン値を切り替える例を説明したが、画像処理部25aが行う画像処理の際に画像データの感度を制御部22aの制御により切り替えるようにしてもよい。
なお、実施形態の図1または図7における検知装置20または20aの各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリ、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1、1a・・・認識装置、10、10a・・・撮像装置、11・・・露光時間切換部、
12・・・ゲイン切換部、13、13a・・・撮像部、20、20a・・・検知装置、
21・・・タイミング信号生成部、22、22a・・・制御部、
23、23a・・・記憶部、24、24a・・・画像取得部、
25、25a・・・画像処理部、26・・・検知部、27・・・領域抽出部、
28・・・絶対輝度算出部、29・・・ゲイン・露光時間補正部、
A、B・・・露光時間、C、D・・・ゲイン

Claims (7)

  1. 撮像装置の露光時間を予め定められているタイミングで切り替える制御部と、
    異なる露光時間で撮像された画像データを取得する画像取得部と、
    前記画像取得部が取得した異なる露光時間の各画像データから各々対象物を検知する対象物検知部と、
    を備えることを特徴とする検知装置。
  2. 前記制御部は、
    前記撮像装置の増幅感度を予め定められているタイミングで切り替え、
    前記画像取得部は、
    異なる露光時間且つ異なる増幅感度で撮像された画像データを取得し、
    前記対象物検知部は、
    前記画像取得部が取得した異なる露光時間且つ異なる増幅感度の各画像データから各々対象物を検知する
    ことを特徴とする請求項1に記載の検知装置。
  3. 異なる露光時間で撮像された画像データから前記対象物の候補領域の画像データを抽出する領域抽出部と、
    前記領域抽出部が抽出した前記対象物の候補領域の画像データにおける絶対輝度を算出する絶対輝度算出部と、
    前記絶対輝度算出部が算出した前記対象物の候補領域の画像データにおける絶対輝度に基づき、前記露光時間と前記増幅感度の少なくとも1つを補正する補正部と、
    を備え、
    前記制御部は、
    前記撮像装置の露光時間または増幅感度を、前記補正部により補正された露光時間または増幅感度に切り替える
    ことを特徴とする請求項2に記載の検知装置。
  4. 前記異なる2つの露光時間は、
    第1の露光時間と、前記第1の露光時間より短い第2の露光時間とである
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の検知装置。
  5. 前記第1の露光時間は、
    少なくとも発光する対象物の検知に用いられる露光時間であり、
    前記第2の露光時間は、
    少なくとも反射する対象物の検知に用いられる露光時間である
    ことを特徴とする請求項4に記載の検知装置。
  6. 前記発光する対象物は、
    少なくともヘッドライトであり、
    前記発光しない対象物は、
    少なくとも前記車両の走行路面上の走行路区分線、車両、及び人のいずれか1つを含む物体である
    ことを特徴とする請求項5に記載の検知装置。
  7. 検知装置における検知方法であって、
    制御部が、撮像装置の露光時間を予め定められているタイミングで切り替える制御工程と、
    画像取得部が、異なる露光時間で撮像された画像データを取得する画像取得工程と、
    対象物検知部が、前記画像取得工程で取得した異なる露光時間の各画像データから各々対象物を検知する対象物検知部と、
    を含むことを特徴とする検知方法。
JP2011092843A 2011-04-19 2011-04-19 検知装置、及び検知方法 Pending JP2012226513A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011092843A JP2012226513A (ja) 2011-04-19 2011-04-19 検知装置、及び検知方法
CN2012101134540A CN102745134A (zh) 2011-04-19 2012-04-17 检测装置以及检测方法
US13/450,111 US20120300074A1 (en) 2011-04-19 2012-04-18 Detection apparatus and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011092843A JP2012226513A (ja) 2011-04-19 2011-04-19 検知装置、及び検知方法

Publications (1)

Publication Number Publication Date
JP2012226513A true JP2012226513A (ja) 2012-11-15

Family

ID=47025758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011092843A Pending JP2012226513A (ja) 2011-04-19 2011-04-19 検知装置、及び検知方法

Country Status (3)

Country Link
US (1) US20120300074A1 (ja)
JP (1) JP2012226513A (ja)
CN (1) CN102745134A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468228B2 (ja) 2020-07-30 2024-04-16 株式会社タダノ クレーン

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011084762A1 (de) * 2011-10-19 2013-04-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung einer Position eines Objektes in einem Umfeld eines Fahrzeugs
JP5680573B2 (ja) * 2012-01-18 2015-03-04 富士重工業株式会社 車両の走行環境認識装置
US9307207B2 (en) * 2013-01-07 2016-04-05 GM Global Technology Operations LLC Glaring reduction for dynamic rearview mirror
KR101723401B1 (ko) * 2013-08-12 2017-04-18 주식회사 만도 야간 카메라 영상 저장 장치 및 그 영상 저장 방법
KR101511853B1 (ko) * 2013-10-14 2015-04-13 영남대학교 산학협력단 단일 다중 노출 카메라를 이용한 야간 전방 차량 검출 및 위치 측정 시스템 및 방법
CN104144325A (zh) * 2014-07-08 2014-11-12 北京汉王智通科技有限公司 一种监控方法及监控设备
US9621811B2 (en) * 2015-05-27 2017-04-11 Ford Global Technologies, Llc Non-functioning headlight warning
JP6644509B2 (ja) * 2015-10-01 2020-02-12 アルパイン株式会社 車両検知警報装置および車両検知警報方法
US9898676B2 (en) * 2016-01-13 2018-02-20 I-Shou University Method for determining the level of degradation of a road marking
JP6814967B2 (ja) * 2016-06-17 2021-01-20 パナソニックIpマネジメント株式会社 撮像装置
US9866718B1 (en) * 2016-09-06 2018-01-09 Kabushiki Kaisha Toshiba Light source unit, image processing apparatus, image processing system and image processing method
JP6708154B2 (ja) * 2017-03-28 2020-06-10 カシオ計算機株式会社 対象物検出装置、対象物検出方法、及びプログラム
CN108182400B (zh) * 2017-12-27 2021-12-21 成都理工大学 数码管动态显示识别方法及系统
JP2020198470A (ja) * 2019-05-30 2020-12-10 ソニーセミコンダクタソリューションズ株式会社 画像認識装置および画像認識方法
DE102020100122A1 (de) 2020-01-07 2021-07-08 HELLA GmbH & Co. KGaA Vorrichtung und Verfahren zur Funktionsüberwachung von Lichtquellen
CN112364732A (zh) * 2020-10-29 2021-02-12 浙江大华技术股份有限公司 图像处理方法及装置、存储介质和电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11201741A (ja) * 1998-01-07 1999-07-30 Omron Corp 画像処理方法およびその装置
JP2000217100A (ja) * 1999-01-25 2000-08-04 Matsushita Electric Ind Co Ltd 車載カメラシステム
US20020145674A1 (en) * 2001-04-09 2002-10-10 Satoru Nakamura Imaging apparatus and signal processing method for the same
JP2008158674A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 道路区画線認識装置
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8120652B2 (en) * 1997-04-02 2012-02-21 Gentex Corporation System for controlling vehicle equipment
JPH11258654A (ja) * 1998-03-12 1999-09-24 Fuji Heavy Ind Ltd カメラのシャッタ速度制御装置
JP4738778B2 (ja) * 2003-10-15 2011-08-03 富士通テン株式会社 画像処理装置、運転支援装置および運転支援システム
JP2005191954A (ja) * 2003-12-25 2005-07-14 Niles Co Ltd 撮像システム
JP4797441B2 (ja) * 2005-05-20 2011-10-19 トヨタ自動車株式会社 車両用画像処理装置
CN100574376C (zh) * 2006-03-27 2009-12-23 精工爱普生株式会社 摄像装置、摄像系统以及摄像方法
JP4984915B2 (ja) * 2006-03-27 2012-07-25 セイコーエプソン株式会社 撮像装置、撮像システム及び撮像方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11201741A (ja) * 1998-01-07 1999-07-30 Omron Corp 画像処理方法およびその装置
JP2000217100A (ja) * 1999-01-25 2000-08-04 Matsushita Electric Ind Co Ltd 車載カメラシステム
US20020145674A1 (en) * 2001-04-09 2002-10-10 Satoru Nakamura Imaging apparatus and signal processing method for the same
JP2008158674A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 道路区画線認識装置
JP2010272067A (ja) * 2009-05-25 2010-12-02 Hitachi Automotive Systems Ltd 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7468228B2 (ja) 2020-07-30 2024-04-16 株式会社タダノ クレーン

Also Published As

Publication number Publication date
CN102745134A (zh) 2012-10-24
US20120300074A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP2012226513A (ja) 検知装置、及び検知方法
US9639764B2 (en) Image recognition system for vehicle for traffic sign board recognition
US9981594B2 (en) Camera based headlight control system
JP6269838B2 (ja) 自己位置算出装置及び自己位置算出方法
US7936904B2 (en) Image recognition device for vehicle and vehicle head lamp controller and method of controlling head lamps
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
JP5772714B2 (ja) 灯火検出装置及び車両制御システム
JP2004104646A (ja) 車載用画像処理装置
JP6236039B2 (ja) 車外環境認識装置
JP2009298344A (ja) 車両灯火判定装置及びプログラム
JP6533050B2 (ja) 車載カメラシステム
US20230017893A1 (en) Imaging system
JP2009029227A (ja) 照明制御装置および方法、並びに、プログラム
JP5353531B2 (ja) 車両灯火認識装置及びプログラム
JP6759460B2 (ja) 画像処理装置
JP2016004503A (ja) 車外環境認識装置
JP2004086417A (ja) 横断歩道等における歩行者検出方法及び同装置
JP6868932B2 (ja) 物体認識装置
JP2014146164A (ja) 物体検出装置
JP6259335B2 (ja) 車外環境認識装置
JP2006252363A (ja) 車両周囲物体検出装置、および車両周囲物体検出方法
JP2010086266A (ja) 車両用画像処理装置
CN112565618B (zh) 曝光控制装置
JP5310162B2 (ja) 車両灯火判定装置
JP2014232026A (ja) 付着物検出装置、移動体機器制御システム及び移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150609