JP2014102743A - 報知制御方法、報知制御装置および報知制御プログラム - Google Patents

報知制御方法、報知制御装置および報知制御プログラム Download PDF

Info

Publication number
JP2014102743A
JP2014102743A JP2012255338A JP2012255338A JP2014102743A JP 2014102743 A JP2014102743 A JP 2014102743A JP 2012255338 A JP2012255338 A JP 2012255338A JP 2012255338 A JP2012255338 A JP 2012255338A JP 2014102743 A JP2014102743 A JP 2014102743A
Authority
JP
Japan
Prior art keywords
notification
notification control
image
vehicle
visibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012255338A
Other languages
English (en)
Other versions
JP6107079B2 (ja
Inventor
Kimitaka Murashita
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012255338A priority Critical patent/JP6107079B2/ja
Priority to US14/027,806 priority patent/US9524644B2/en
Publication of JP2014102743A publication Critical patent/JP2014102743A/ja
Application granted granted Critical
Publication of JP6107079B2 publication Critical patent/JP6107079B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラが撮影した画像が表示される場合において、検知された物体の報知を、ドライバーにとって適切に制御する。
【解決手段】 コンピュータが、撮像装置が撮像した画像の画像データを取得し、前記画像データに含まれる輝度情報に基づく視認性の判定結果に応じて、センサの出力に基づく物体の検知結果に関する報知を制御する処理を実行することを特徴とする報知制御方法。
【選択図】図3

Description

本明細書に開示する技術は、利用者に対する報知を制御する技術に関する。
車両に取り付けられたカメラや車両近傍に存在する物体を検知するセンサを利用して、ドライバーによる車両の運転を、安全面で支援する技術がある。
一例として、車両後方の画像をディスプレイに表示する技術がある。バックカメラやリアカメラと呼ばれるカメラは、車両後方を撮像可能な位置に取り付けられる。そして、カメラは車両後方を撮像するとともに、撮像された画像は表示装置に表示される。ドライバーは、画像を確認しながら、運転や駐車などの操作をおこなう。カメラは広角カメラが採用されることが多いため、ドライバーは、バックミラーを利用した目視と比較して、より広い範囲を確認することができる。
また、車両に搭載された可視光カメラと遠赤外線カメラとの撮像結果を用いて車両前方の歩行者を認識する歩行者認識装置がある(例えば、特許文献1)。歩行者認識装置は、遠赤外線カメラの撮像結果に基づく歩行者認識率が高く、かつ、可視光カメラによる歩行者特定認識率が低い歩行者を車両乗員に告知する。
さらに、障害物との距離を測ることが可能なセンサを車両に設置し、障害物との距離を検知して音や表示ランプで知らせる技術がある。例えば、クリアランスソナー(登録商標)は、バンパーのコーナー部に設置された超音波センサの出力に基づき、障害物の存在をドライバーへ知らせる。
特開2006−338594号公報
撮影環境によっては、本来ドライバーが注意を払わなければならない物体が画像に写っていない、もしくは、ドライバーにとって極めて視認性が低い場合がある。例えば、車両が暗い道を走行している最中に撮影された画像や、霧の中を走行中に撮影された画像には、歩行者やガードレール、縁石などの物体が写らない場合などである。カメラに一般的に搭載されているオートゲインコントロール機能を利用したとしても、露光時間の調節だけでは、物体を撮影することが困難な場合も多い。
そこで、例えば、先に述べた歩行者認識装置のように、可視光カメラとともに遠赤外線カメラを併用することもできるが、歩行者以外のガードレールや縁石など、遠赤外線を発生しない物体を検知することはできない。
以上を踏まえると、カメラにより撮影された画像の表示と、センサにより検知された障害物の報知を併用することが考えられる。例えば、ドライバーは表示装置に表示された画像を確認するとともに、別途、障害物の報知に対しても対応する。
しかし、センサによる報知は、画像の表示とは独立におこなわれるため、物体の報知がドライバーにわずらわしさを与える場合がある。そこで、本発明は、ドライバーの目視支援のために画像が表示される場合において、検知された物体の報知を、ドライバーにとって適切に制御することを目的とする。
上記課題を解決する為に、本実施例に開示の報知制御方法は、コンピュータが、撮像装置が撮像した画像の画像データを取得し、前記画像データに含まれる輝度情報に基づく視認性の判定結果に応じて、センサの出力に基づく物体の検知結果に関する報知を制御する処理を実行することを特徴とする。
本発明の一観点によれば、ドライバーの目視支援のために画像が表示される場合において、検知された物体の報知を、ドライバーにとって適切に制御することが可能になる。
図1は、撮像装置の撮像範囲と、物体を検知するセンサのセンシング範囲との関係についての一例を示す図である。 図2は、報知制御装置の機能ブロック図である。 図3は、第一の実施例に係る報知制御方法のフローチャートである。 図4Aおよび図4Bは、輝度ヒストグラムおよびダイナミックレンジDを説明するための図である。 図5Aおよび図5Bは、第一の実施例の効果を説明するための図(その1)である。 図6Aおよび図6Bは、第一の実施例の効果を説明するための図(その2)である。 図7は、報知方法として、表示装置への表示を採用した場合の、表示装置に表示される画像のイメージ図である。 図8は、第二の実施例に係る報知制御方法のフローチャートである。 図9は、第三の実施例における報知制御方法のフローチャートである。 図10A乃至図10Cは、第三の実施例の効果を説明するための図である。 図11は、第四の実施例に係る報知制御装置の機能ブロック図である。 図12は、第四の実施例における報知制御方法のフローチャートである。 図13は、第五の実施例における報知制御方法のフローチャートである。 図14は、報知制御装置10または報知制御装置20として機能するコンピュータ1000のハードウェア構成の一例を示す図である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。
図1は、撮像装置の撮像範囲と、物体を検知するセンサのセンシング範囲との関係についての一例を示す図である。
車両1は、車載カメラ2および測距センサ3を備える。車載カメラ2は、撮像装置の一例である。また、測距センサ3は、物体を検知するセンサの一例である。
例えば、車載カメラ2は、車両1の後方を撮像可能な位置に取り付けられる。これは、駐車時などの運転支援を目的とするためであるが、車載カメラ2は、他の方向を撮像可能な位置に取り付けられてもかまわない。さらに、撮像装置は、車載カメラ2以外に、携帯電話やスマートフォンのカメラであっても良い。この場合、携帯電話等のカメラが撮像した画像は、後述の報知制御装置10へ送信される。
車載カメラ2は、たとえば、NTSC(National Television System Committee)規格を準拠したNTSCカメラである。他に、車載カメラ2として、他の規格を準拠したカメラなどを採用してもよい。
また、測距センサ3は車両1の後方にある物体を検知可能な位置に取り付けられている。本実施例においては、測距センサ3は、ミリ波レーダである。他に、測距センサ3として、レーザレーダー、超音波センサなどが採用される。
図1の例では、車載カメラ2の撮像範囲100が、測距センサ3のセンシング範囲110に包含される例を示している。なお、センシング範囲110と撮像範囲100は、互いに一部重複した範囲である。図1の例のほかにも、センシング範囲110が撮像範囲100に含まれるとしてもよい。また、センシング範囲110は、複数のセンサによるセンシング範囲をあわせた範囲であってもよい。
以下、撮像範囲100とセンシング範囲110の重複する範囲を監視領域とする。つまり、図1の例では、撮像範囲100が監視領域となる。
本実施例においては、車載カメラ2から取得した画像データの輝度情報と、測距センサ3の出力に基づく物体の検知結果を利用して、ドライバーに対する報知が制御される。輝度情報は、画像の各画素の輝度値を含む情報であり、画像データに含まれる。なお、画像データは、カメラが撮像した監視領域を含む撮像範囲100の画像の情報である。例えば、NTSC信号の輝度信号が、輝度情報として利用される。
測距センサ3の出力は、測距データを含む情報である。測距データは、センシング範囲110に存在する物体から測距センサ3までの距離の情報である。測距センサ3からの出力は、センシング範囲110全体における測距データであってもよいし、センシング範囲110のうち監視領域のみの測距データであってもよい。また、以下、物体から測距センサ3までの距離を、物体から車両までの距離として説明する。
次に、図2を用いて、報知制御装置の機能構成を説明する。図2は、報知制御装置の機能ブロック図である。報知制御装置10は、画像データ取得部11、測距データ取得部12、判定部13、検知部14、制御部15、記憶部16を有する。
画像データ取得部11は、車載カメラ2から画像データを取得する。なお、車載カメラ2は、撮像した画像の画像データを、表示装置を有するカーナビゲーションシステム4に対しても出力する。つまり、ドライバーは、直接またはミラーを用いた目視以外にも、表示装置に表示された画像を用いて、障害物などの物体を確認することができる。
測距データ取得部12は、測距センサ3から測距データを取得する。判定部13は、画像データに含まれる輝度情報に基づく判定結果を制御部15へ出力する。なお、輝度情報から、画像の視認性が類推可能であるため、判定結果は、視認性の高低を示す情報である。
例えば、判定部13は、輝度ヒストグラムの分布を判定する。判定部13は、輝度情報に基づいて、輝度ヒストグラムを生成する。そして、判定部13は、輝度ヒストグラムにおけるダイナミックレンジDを算出する。さらに、判定部13は、ダイナミックレンジDが閾値Tdよりも大きいか否かを判定する。ダイナミックレンジDと視認性との関係については、後述する。
なお、閾値Tdは、人間にとって視認性が悪いと感じる画像の輝度ヒストグラムおよび、視認性が良いと感じる画像の輝度ヒストグラムを解析することで、予め設定される。例えば、輝度が0から255の値をとる場合に、閾値Tdは100などに設定される。詳細は後述する。
また、視認性の良し悪しを類推するための判定方法として、輝度情報を利用する他の方法を採用することも可能である。例えば、物体の反射率成分と照明光成分との割合から判定する手法や、空間周波数分布から判定する手法、エッジ、背景と前景との色、およびテクスチャ特徴のコントラストから判定する手法がある。これらの手法は、「豊田 雄志ほか、車載カメラ映像の視認性向上処理技術、雑誌FUJITSU、VOL.59 NO.4、2008年」、「特開2006−221467号公報」、「道満 恵介ほか、複数の画像特徴の統合による道路標識の視認性推定手法、社団法人電子情報通信学会 信学技報」に、各々開示されている。
検知部14は、物体の存在を検知するとともに、検知結果を制御部15へ出力する。例えば、監視領域に関する測距データを測距データ取得部12が取得した場合は、検知部14は、測距データに、計測された物体までの距離が含まれている場合に、物体が存在することを検知する。なお、測距データは、物体が存在しない場合には、物体が存在しないことを示す特定の値、または空となる。
また、センシング範囲110全体の測距データを取得した場合は、検知部14は、監視領域における物体の検知と、監視領域外における物体の検知とを各々行っても良い。測距センサは、センシング範囲を所定の方向に走査する。したがって、どの位置(左右方向の角度および上下方向の角度)に対する測距データであるかは、何番目に測距センサから出力されたデータであるかに基づき特定することができる。
例えば、車載カメラ2の取り付け位置や画角、測距センサ3の取り付け位置や走査角度に基づき、監視領域が決定される。そして、監視領域に応じて、何番目の測距データから何番目の測距データが監視領域に対応する測距データであるかが、事前に設定される。
制御部15は、輝度情報に基づく判定結果および検知結果に基づいて、物体に関する報知を制御する。例えば、ダイナミックレンジDが閾値Td以下であるという判定結果であって、かつ物体を検知したことを示す検知結果である場合、制御部15は、第一の報知制御を実行する。なお、ダイナミックレンジDが閾値Td以下である場合は、対象の画像は視認性が低い画像であることが推定できる。第一の報知制御は、報知を実行する装置に対して、報知を実行するように制御するものである。
一方、ダイナミックレンジDが閾値Tdよりも大きいという判定結果であって、かつ物体を検知したことを示す検知結果である場合、制御部15は、第二の報知制御を実行する。なお、ダイナミックレンジDが閾値Tdよりも大きい場合は、対象の画像は視認性が高い画像であることが推定できる。第二の報知制御は、報知を実行する装置に対して、第一の報知制御で実行される報知とは異なる報知を実行するように制御することや、報知の実行を行わないように制御することである。
ここで、報知の実行を行わないように制御する方法として、例えば、制御部15は、報知の実行命令を生成しない方法や、生成された報知の実効命令を、報知を実行する装置に対して出力しない方法がある。
例えば、報知の方法として、物体の存在を音で知らせる方法が採用された場合に、第一の報知制御は、当該報知を実行させる制御である。一方、第二の報知制御は、当該報知を実行しない制御である。なお、当該報知は、制御部15からの命令に基づき、例えば、カーナビゲーションシステム4の音声出力ユニットにより実行される。
また、報知の方法として、表示装置に物体の存在を知らせる表示を行う方法が採用された場合に、第一の報知制御は、当該報知を実行させる制御である。一方、第二の報知制御は、当該報知を実行しない制御である。なお、当該報知は、制御部15からの命令に基づき、例えば、カーナビゲーションシステム4の表示装置により実行される。
例えば、前記表示の一例として、表示装置にアラームメッセージを表示する方法や、表示装置に表示された車載カメラ2による撮影画像に重畳して、測距センサ3が検知した物体を示すアイコンを表示する方法がある。
さらに、報知の方法として、音で知らせる方法と、物体の存在を知らせる表示を行う方法を併用してもよい。この場合は、第一の報知制御として、制御部15は、2つの方法を実行する制御を実行してもよい。一方、制御部15は、第二の報知制御として、音で知らせる方法のみを実行させる制御を実行する。第二の報知制御では、表示装置に表示された画像に注目を促すメッセージを出力することなどが考えられる。
また、報知の方法として、車内に設けられた警告灯を点灯する方法が採用された場合に、第一の報知制御は、当該報知を実行させる制御である。一方、第二の報知制御は、当該報知を実行しない制御である。この場合は、報知制御装置10は、報知用装置である警告灯とも通信可能な構成であり、警告灯に対して点灯の命令を発信する。
ドライバーは、運転操作中、カーナビゲーションシステム4の表示装置以外に、サイドミラーやバックミラーを見ている可能性がある。カメラ2が撮像した画像の視認性が低い場合には、ミラーを通しての目視の視認性も低いことが想定される。よって、制御部15は、サイドミラーやバックミラーに取り付けられた警告灯を点灯させるよう制御することで、ドライバーは、物体の存在を把握することができる。
記憶部16は、各種情報を記憶する。例えば、各種処理に必要な閾値に関する情報を記憶する。
次に、本実施例における報知制御方法について説明する。図3は、第一の実施例に係る報知制御方法のフローチャートである。まず、測距データ取得部12は、測距センサ3から測距データを取得する(Op.1)。
検知部14は、測距データに基づき、監視領域に物体が存在するかを検知する(Op.2)。また、監視領域に物体が存在しても、車両と物体との距離が一定以上長い場合は、検知部14は、物体が存在しないとみなしてもよい。
検知部14が、監視領域内の物体を検知しない場合は(Op.2No)、報知制御装置10は、処理を終了する。なお、センシング範囲のうち、監視領域外に物体を検知した場合は、他の方法により物体の報知をおこなっても良い。
一方、検知部14が、監視領域内に物体を検知した場合は(Op.2Yes)、画像データ取得部11は、車載カメラ2から画像データを取得する(Op.3)。判定部13は、画像データに含まれる輝度情報に基づいて、輝度ヒストグラムを生成する(Op.4)。そして、判定部13は、ダイナミックレンジDを算出する(Op.5)。
図4Aおよび図4Bは、輝度ヒストグラムおよびダイナミックレンジDを説明するための図である。図4Aは、ある時点で車載カメラが撮影した画像を示す図である。図4Bは、図4Aの画像に対応する輝度ヒストグラムを示す図である。
本実施例では、図4Bに示すように、輝度ヒストグラムにおける最も高い頻度A1を100%としたとき、予め設定したa%に相当する頻度B1以上となる輝度値の幅をダイナミックレンジD1とする。これは、ノイズなどの影響を軽減するためである。例えば、aは、5である。また、頻度B1以上となる輝度値の分布が複数存在する場合は、合算した値をダイナミックレンジDとしてもよい。
次に、判定部13は、ダイナミックレンジDが閾値Td以下であるかを判定する(Op.6)。ダイナミックレンジDが閾値Td以下である場合は(Op.6Yes)、制御部15は、第一の報知制御を実行する(Op.7)。一方、ダイナミックレンジDが閾値Tdよりも大きい場合は(Op.6No)、制御部15は、第二の報知制御を実行する(Op.8)。図4Bの例では、ダイナミックレンジD1は閾値Tdよりも大きいため、Op.8が実行される。
以上のように、報知制御装置10は、検知部14による検知結果と、判定部13による輝度情報に基づく判定結果とに応じて、報知を制御することができる。
ここで図4Aおよび図4B,さらに、図5Aおよび図5Bと、図6Aおよび図6Bを用いて、第一の実施例の効果について、説明する。図5Aおよび図5Bと、図6Aおよび図6Bは、第一の実施例の効果を説明するための図である。
図4Aは、明るい環境下で撮像された画像の例である。つまり、ドライバーは、この画像から、物体や道路、空などを視認することができる。そして、図4Aの画像を構成する各画素は、物体や、道路、空、影などに対応するため、さまざまな輝度値を持つ。したがって、図4Bのように、輝度ヒストグラムは、広い分布を持つ形状となる。つまり、視認性が高いであろうと推定できる画像は、ダイナミックレンジD1は、比較的大きい値となる。一般的に、道路や空などの風景、車両や人などの物体が存在する場合、明るい環境下であれば、ダイナミックレンジDは150以上となることが多い。
このように、図4Aの画像であれば、ドライバーは、表示装置に表示された画像から、物体を認識することができるため、本実施例は、後述の視認性が低い画像と比べて、物体の存在を知らせるための報知の必要性は低いと判断する。
図5Aは、暗い環境下で撮像された画像の例である。街頭が無い場所などの暗い場所を撮像した画像は、全体として暗く、人や車などの物体を認識しにくい。図5Aの例では、女性や、トラックなどが、実際の画像では、暗闇のなかで視認できない、または視認しにくい状態である。
図5Bは、図5Aの画像の輝度ヒストグラムである。全体として暗い画像の輝度ヒストグラムは、全体的に低輝度に分布が偏った形状を示す。
輝度ヒストグラムにおける最も高い頻度A2を100%としたとき、予め設定したa%に相当する頻度B2以上となる輝度値の幅、すなわち、ダイナミックレンジD2は、図4Bに示すダイナミックレンジD1と比較して小さな値となる。このとき、設定された閾値TdよりもダイナミックレンジD2は小さな値となる。なお、暗い画像においては、例えば、ダイナミックレンジD2は50程度であることが多い。
図5Aと同様の画像が、カーナビゲーションシステム4の表示装置に表示されるが、表示装置に表示された画像からは、運転手は物体の存在を確認することが困難となる。したがって、本実施例は、図5Aの画像であれば、物体の存在を知らせるために、報知が必要と判断する。
また、図6Aは、霧がかかった環境下で撮像された画像の例である。霧がかかった場所を撮像した画像は、全体として白く、人や車などの物体を認識しにくい。図6Aの例では、全体的に白が買っているため、女性やトラックは視認できない、または視認しにくい状態である。
図6Bは、図6Aの画像の輝度ヒストグラムである。全体として白い画像の輝度ヒストグラムは、全体的に高輝度に分布が偏った形状を示す。
輝度ヒストグラムにおける最も高い頻度A3を100%としたとき、予め設定したa%に相当する頻度B3以上となる輝度値の幅、すなわち、ダイナミックレンジD3は、図4Bに示すダイナミックレンジD1と比較して小さな値となる。このとき、設定された閾値TdよりもダイナミックレンジD3は小さな値となる。なお、霧の影響で全体的に白くなった画像においては、例えば、ダイナミックレンジD3は30程度であることが多い。
図6Aと同様の画像が、カーナビゲーションシステム4の表示装置に表示されるが、表示装置に表示された画像からは、運転手は物体の存在を確認することが困難となる。したがって、本実施例は、図6Aの画像であれば、物体の存在を知らせるために、報知が必要と判断する。
以上の様に、ダイナミックレンジDに基づき、画像の視認性を類推することができる。そして、報知制御装置10は、ドライバーが表示装置に表示された画像から物体を確認できない可能性がある場合に、第一の報知制御を実行することができる。例えば、報知制御装置10は、音や表示画像で、ドライバーへ注意喚起を行うことができる。
一方、ダイナミックレンジDが閾値Tdよりも広い場合は、視認性が高いと類推されるため、ドライバーは、表示装置に表示された画像から物体を確認することが可能である。よって、報知制御装置10は、不必要な報知を抑制することで、ドライバーへの煩わしさを軽減することができる。
ここで、閾値Tdを設定する際には、例えば、図4Aのような画像と、図5Aおよび図6Aのような画像を切り分けることができる値に設定されることが望ましい。つまり、図4Bのようなダイナミックレンジと、図5Bおよび図6Bのようなダイナミックレンジとの間の値を閾値Tdとして設定する。複数の画像に対して統計処理を行うことで、閾値Tdは決定されるが、本実施例においては、Tdは100に設定される。
図7は、報知方法として、表示装置への表示を採用した場合の、表示装置に表示される画像のイメージ図である。図7は、図5Aの画像に対して報知制御処理を行った結果、制御部15は第一の報知制御を実行した場合に、カーナビゲーションシステム4の表示装置に表示される画像のイメージ図である。
制御部15は、車載カメラ2のディストーションデータと、測距センサ3のセンシング範囲および走査順序に基づき、何番目の測距データが、画像のどの画素(X,Y)に対応するかを特定する。つまり、制御部15は、検知された物体の範囲に対応する画像上の領域を、特定可能である。
そして、制御部15は、特定した領域に、物体の存在領域および形状を示す像や、物体の存在領域を示すアイコンを表示するよう、カーナビゲーションシステム4へ指示する。具体的には、制御部15は、画像上の対応領域の範囲に関する情報と、表示命令をカーナビゲーションシステム4へ出力する。表示装置に表示された画像においては、対応する領域について、他の領域とは異なる態様で、表示が実行される。図7の例では、対応領域を、背景とは異なる態様で、重畳的に表示する。
本実施例では、センサの分解能は、画像の解像度と同程度またはそれ以上であるとする。この場合、図7のように、物体の画像上の対応領域は、実際の物体の形状を形成することとなり、物体の存在領域および形状を示す像が、画像上に描画される。なお、センサの分解能が、画像の解像度よりも低い場合であれば、画像上には、少なくとも、物体の存在領域にアイコンが描画される。
なお、報知制御装置10が一連の処理を実行している間に、車載カメラ2からカーナビゲーションシステム4へ、新たな時間に撮像された画像の画像データが送信される場合がある。この場合、最新の画像に対して、過去の画像への報知制御方法にて特定された対応領域に、アイコンが表示されても良い。数フレーム間の短い時間の中で、急激に環境が変化する可能性は低いため、処理対象とは異なる画像にアイコンが表示されたとしても、ドライバーにとっては、必要な注意喚起が行われる。
ここから、第二の実施例について、説明する。図8は、第二の実施例に係る報知制御方法のフローチャートである。図3に示す第一の実施例における報知制御方法は、物体を検知した場合に、画像の視認性を判定する処理を実行する。一方、図8に示す第二の実施例に係る報知制御方法においては、画像の視認性を判定した後に、物体の検知を行う。なお、第二の実施例に係る報知制御方法を実行する報知制御装置は、図2に示す報知制御装置10と同様の構成である。
画像データ取得部11は、車載カメラ2から画像データを取得する(Op.10)。判定部13は、画像データに含まれる輝度情報に基づいて、輝度ヒストグラムを生成する(Op.11)。そして、判定部13は、ダイナミックレンジDを算出する(Op.12)。
次に、判定部13は、ダイナミックレンジDが閾値Td以下であるかを判定する(Op.13)。ダイナミックレンジDが閾値Td以下である場合は(Op.13Yes)、判定部13は、処理対象の画像は、視認性が悪いと判定する(Op.14)。一方、ダイナミックレンジDが閾値Tdよりも大きい場合は(Op.13No)、判定部13は、処理対象の画像は、視認性が良いと判定する(Op.15)。
次に、測距データ取得部12は、測距センサから測距データを取得する(Op.16)。検知部14は、測距データに基づき、監視領域に物体が存在するかを検知する(Op.17)。検知部14が、監視領域内の物体を検知しない場合は(Op.17No)、報知制御装置10は、処理を終了する。一方、検知部14が、監視領域内に物体を検知した場合は(Op.17Yes)、制御部15は、視認性の判定結果は、視認性が悪いことを示しているかを判定する(Op.18)。
判定結果が視認性が悪いことを示している場合は(Op.18Yes)、制御部15は、第一の報知制御を実行する(Op.19)。一方、判定結果が視認性が良いことを示している場合は(Op.18No)、制御部15は、第二の報知制御を実行する(Op.20)。
以上のように、第二の実施例においては、視認性を先に判定することができる。第一の実施例は、第二の実施例と比較して、処理全体の計算量が小さいが、第二の実施例の報知制御方法が実行されても良い。
次に、第三の実施例における報知制御方法を説明する。図9は、第三の実施例における報知制御方法のフローチャートである。第三の実施例では、画像を複数の領域に分割する。そして、第三の実施例では、各々の領域に関する輝度情報および物体検知結果に基づき、報知を制御する。なお、第三の実施例に係る報知制御方法を実行する報知制御装置は、図2に示す報知制御装置10である。
図9における、Op.1、Op.2、Op.3、Op.7、Op.8は、図3におけるOp.1、Op.2、Op.3、Op.7、Op.8と同様である。
測距データ取得部12は、測距センサから測距データを取得する(Op.1)。検知部14は、測距データに基づき、監視領域に物体が存在するかを検知する(Op.2)。検知部14が、監視領域内の物体を検知しない場合は(Op.2No)、報知制御装置10は、処理を終了する。
一方、検知部14が、監視領域内に物体を検知した場合は(Op.2Yes)、検知部14は、物体の存在範囲情報を、判定部13へ出力する。例えば、検知部14は、測距センサ3の出力順序、ディスションデータなどに基づき、物体の存在範囲に対応する画像上の存在範囲情報を特定する。
次に、画像データ取得部11は、車載カメラ2から画像データを取得する(Op.3)。判定部13は、取得した画像データを複数の領域に分割する(Op.30)。例えば、縦4×横10の領域に分割する。そして、判定部13は、物体の存在範囲情報を用いて、複数の領域のうち、物体の存在範囲を含む領域を1以上取得する(Op.31)。
次に、判定部13は、画像データに含まれる輝度情報に基づいて、Op.31にて取得した領域各々の輝度ヒストグラムを生成する(Op.32)。そして、判定部13は、各輝度ヒストグラムについて、ダイナミックレンジDを算出する(Op.33)。
次に、判定部13は、ダイナミックレンジDが閾値Td以下である領域があるかを判定する(Op.34)。ダイナミックレンジDが閾値Td以下である領域がある場合は(Op.34Yes)、制御部15は、第一の報知制御を実行する(Op.7)。一方、ダイナミックレンジDが閾値Td以下である領域がない場合は(Op.34No)、制御部15は、第二の報知制御を実行する(Op.8)。
図10A乃至図10Cは、第三の実施例の効果を説明するための図である。図10Aは、他車両のライトが物体に当たって、物体に対する視認性が高くなっている領域と、他の車両のライトによりフレア、ゴースト、スミアなどの現象により視認性が低い領域とが混在している画像のイメージ図である。なお、図10Aの格子は、分割された各領域を示す。
図10Bは、領域200の輝度ヒストグラムを示す図である。領域200のように、物体が存在し、かつライトが当たっている領域については、輝度ヒストグラムは、高輝度から低輝度まで広い範囲に分布する。したがって、物体にライトが当たっている領域、すなわち視認性が高い領域については、ダイナミックレンジD4は大きな値となる。つまり、ダイナミックレンジD4は、閾値Tdよりも大きな値となる。
一方、図10Cは、領域210の輝度ヒストグラムを示す図である。領域210のように、いわゆる白とびが発生している領域については、輝度ヒストグラムでは、高輝度に分布が集中する。したがって、強すぎる光の影響で白とびが発生している領域、すなわち視認性が低い領域については、ダイナミックレンジD5は小さな値となる。ダイナミックレンジD5は、閾値Td以下の値となる。
物体が存在したとしても、物体の存在領域が、視認性の高い領域である場合は、不必要に報知をおこなうことは、ドライバーにとって煩わしい。一方、物体の存在する領域が、視認性の低い領域である場合は、ドライバーは、物体が画像から確認することが困難であるため、物体の存在を報知することが必要である。
よって、物体の存在範囲と、存在範囲に対応する画像上の視認性に応じて、報知を制御することが、ドライバーにとっては必要である。図10Aの場合は、物体の存在範囲であって、かつ視認性の低い領域210が含まれるため、報知制御装置10は、画像から確認することが難しい物体の存在を報知することができる。
以上のように、第三の実施例における報知制御装置10は、視認性が高い領域と、視認性が低い領域とが混在する画像に対しても、適切な報知制御を行うことができる。なお、第三の実施例についても、第二の実施例同様、物体の検知に先駆けて、視認性を判定する処理を実行しても良い。
次に、第四の実施例について説明する。第四の実施例においては、報知制御装置は、検知結果および輝度情報に加え、車速に基づき、報知を制御する。
図11は、第四の実施例に係る報知制御装置の機能ブロック図である。報知制御装置20は、画像データ取得部11、測距データ取得部12、判定部13、検知部14、制御部15、記憶部16に加え、車速取得部21を有する。なお、画像データ取得部11、測距データ取得部12、判定部13、検知部14については、図2に示す報知制御装置10と同様の機能を有する処理部である。
車速取得部21は、パルスセンサ5から車速に関する車速データを取得する。パルスセンサ5は、車輪が1回転するたびに、いくつかのパルスを出力する。車速取得部21は、パルスセンサ5からの単位時間当たりのパルス出力回数に基づき、車速を取得する。なお、車速取得部21は、車内のCAN(Controlled Area Network)上に流れている車速データを取得してもよい。
制御部15は、物体の検知結果および画像の輝度情報に加え、車速に基づき、報知を制御する。例えば、物体を検知した場合であって、かつ画像の視認性が良いことが類推される場合には、車速に応じて異なる報知制御を実行する。
例えば、車速がある速度以上の場合は、ドライバーは表示装置を見ていない可能性が高いことが、運転動作の解析結果から知られている。したがって、表示装置に表示された画像の視認性が良いことが類推されるような場合であっても、ドライバーは画像を確認していない可能性があるため、制御部15は、報知を実行する装置を通して、例えば、画像への注意喚起を指示する。
図12は、第四の実施例における報知制御方法のフローチャートである。図12における、Op.1、Op.2、Op.3、Op.4、Op.5、Op.6、Op.7、Op.8は、図3におけるOp.1、Op.2、Op.3、Op.4、Op.5、Op.6、Op.7、Op.8と同様である。
まず、測距データ取得部12は、測距センサから測距データを取得する(Op.1)。検知部14は、測距データに基づき、監視領域に物体が存在するかを検知する(Op.2)。
検知部14が、監視領域内の物体を検知しない場合は(Op.2No)、報知制御装置10は、処理を終了する。一方、検知部14が、監視領域内に物体を検知した場合は(Op.2Yes)、画像データ取得部11は、車載カメラ2から画像データを取得する(Op.3)。
判定部13は、画像データに含まれる輝度情報に基づいて、輝度ヒストグラムを生成する(Op.4)。そして、判定部13は、ダイナミックレンジDを算出する(Op.5)。次に、車速取得部21は、車速Vを取得する(Op.40)。なお、取得した車速Vは、制御部15へ出力される。
次に、判定部13は、ダイナミックレンジDが閾値Td以下であるかを判定する(Op.6)。ダイナミックレンジDが閾値Td以下である場合は(Op.6Yes)、制御部15は、第一の報知制御を実行する(Op.7)。
一方、ダイナミックレンジDが閾値Tdよりも大きい場合は(Op.6No)、制御部15は、車速Vが、閾値Tv以上であるかを判定する(Op.41)。なお、閾値Tvは、適用されるシーンに応じて、予め設定される。例えば、本実施例を、車両を駐車する際に適用する場合は、通常、車両は低速で運転していることが予測される。そこで、低速の中でも、表示装置へ視線を配ることができる速度の予測値を閾値Tvとして設定する。例えば、閾値Tvは4(km/h)とする。
車速Vが閾値Tv以上である場合には(Op.41Yes)、制御部15は、第三の報知制御を実行する(Op.42)。例えば、制御部15は、第三の報知制御として、表示装置を見るよう指示する音声を出力するよう、カーナビゲーションシステム4へ指示する。または、制御部15は、第三の報知制御として、速度を落とすよう指示する音声を出力するよう、カーナビゲーションシステム4へ指示する。一方、車速Vが閾値Tvよりも小さい場合には(Op.41No)、制御部15は、第二の報知制御を実行する(Op.8)。
以上のように、物体が検知された場合、画像の視認性だけでなく、車速からドライバーの視線を類推し、報知制御装置20は、適切な報知を制御する。例えば、報知制御装置20は、視認性が良い画像が表示装置に表示されていても、ドライバーがその画像を見ていないことが類推されるような場合は、表示された画像への注意を喚起することができる。
次に、第五の実施例について説明する。第五の実施例においては、報知制御装置は、検知結果および輝度情報に加え、物体と自車両との衝突時間に基づき、報知を制御する。なお、第五の実施例に係る報知制御装置は、図2に示す報知制御装置10と同様の機能的構成を備える。
検知部14は、物体を検知した場合に、検知した物体と自車両との距離変化に基づき、物体と自車両とが衝突するまでにかかる到達予測時間(以後、衝突時間と称する)を算出する。なお、算出された衝突時間は、制御部15へ出力される。制御部15は、検知結果および輝度情報に加え、物体と自車両との衝突時間に基づき、報知を制御する。
図13は、第五の実施例における報知制御方法のフローチャートである。図13における、Op.1、Op.2、Op.3、Op.4、Op.5、Op.6は、図3におけるOp.1、Op.2、Op.3、Op.4、Op.5、Op.6と同様である。
まず、測距データ取得部12は、測距センサから測距データを取得する(Op.1)。検知部14は、測距データに基づき、監視領域に物体が存在するかを検知する(Op.2)。
検知部14が、監視領域内の物体を検知しない場合は(Op.2No)、報知制御装置10は、処理を終了する。一方、検知部14が、監視領域内に物体を検知した場合は(Op.2Yes)、画像データ取得部11は、車載カメラ2から画像データを取得する(Op.3)。
判定部13は、画像データに含まれる輝度情報に基づいて、輝度ヒストグラムを生成する(Op.4)。そして、判定部13は、ダイナミックレンジDを算出する(Op.5)。次に、検知部14は、衝突時間Tを算出する(Op.50)。記憶部16は、一時刻まえの測距データを、一時的に記憶する。そして、検知部14は、新たに取得した測距データと一時刻前の測距データとに基づく距離の変化から、衝突時刻Tを算出する。
次に、判定部13は、ダイナミックレンジDが閾値Td以下であるかを判定する(Op.6)。ダイナミックレンジDが閾値Td以下である場合は(Op.6Yes)、制御部15は、衝突時間Tが閾値Tt1以下であるか判定する(Op.51)。
衝突時間Tが閾値Tt1以下である場合(Op.51Yes)、制御部15は、報知制御を実行する(Op.53)。第五の実施例における報知制御は、他の実施例における第一の報知制御と同等であればよい。例えば、制御部15は、音により注意喚起を、カーナビゲーションシステム4の音声出力ユニットへ指示する。一方、衝突時間Tが閾値Tt1よりも大きい場合(Op.51No)、制御部15は、処理を終了する。
一方、ダイナミックレンジDが閾値Tdよりも大きい場合は(Op.6No)、制御部15は、衝突時間Tが閾値Tt2以下であるか判定する(Op.52)。衝突時間Tが閾値Tt2以下である場合(Op.52Yes)、制御部15は、報知制御を実行する(Op.53)。一方、衝突時間Tが閾値Tt2よりも大きい場合(Op.52No)、制御部15は、処理を終了する。
つまり、視認性が悪いことが推測される場合に、衝突時間Tが閾値Tt1以下になったときに、制御部15は、報知を実行させる。また、視認性が良いことが推測される場合であっても、衝突時間Tが閾値Tt2以下になった場合は、物体との距離が近いため、制御部15は、報知を実行させる。
以上のように、視認性の良し悪しに応じて、報知のタイミングを制御することができる。ここで、閾値Tt1は閾値Tt2よりも大きな値であることが望ましい。画像から物体を視認することが難しい場合、すなわち、より早くドライバーの注意を喚起する必要がある場合には、より早いタイミングで報知がおこなわれる。
図14は、報知制御装置10または報知制御装置20として機能するコンピュータ1000のハードウェア構成の一例を示す図である。コンピュータ1000は、車載カメラ2、測距センサ3、カーナビゲーションシステム4、パルスセンサ5と接続される。さらに、報知方法によっては、カーナビゲーションシステム4以外の報知用装置6をさらに接続されてもよい。報知用装置6は、例えば、警告灯である。
コンピュータ1000はCPU(Central Processing Unit)101、ROM(Read Only Memory)102,RAM(Random Access Memory)103,HDD(Hard Disk Drive)104、通信装置105を有する。なお、コンピュータ1000は、さらに、入力装置、表示装置、媒体読取装置を有していてもよい。各部はバス106を介して相互に接続されている。そしてCPU101による管理下で相互にデータの送受を行うことができる。
報知制御方法が記述されたプログラムが、コンピュータ1000が読み取り可能な記録媒体に記録される。コンピュータ1000が読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。
光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc − Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto − Optical disk)などがある。このプログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。
そして、例えば媒体読取装置が、報知制御プログラムを記録した記録媒体から、該プログラムを読み出す。CPU101は、読み出されたプログラムをHDD104に格納する。また、各種プログラムはCPU101とアクセス可能なROM102やRAM103に格納されていても良い。
CPU101は、コンピュータ1000の全体の動作制御を司る中央処理装置である。そして、CPU101が、各種プログラムをHDD104から読み出して実行することで、CPU101は、画像データ取得部11、測距データ取得部12、判定部13、検知部14、制御部15、車速取得部21として機能する。つまり、コンピュータ1000は、報知制御装置10または報知制御装置20として機能する。
さらにHDD104は、CPU101の管理下で記憶部16として機能する。プログラム同様、記憶部16の情報はCPU101とアクセス可能なROM102やRAM103に格納されても良い。また、RAM103は、処理の過程で一時的に生成された情報を記憶する。通信装置105は、インタフェースを介して接続される他のデバイスと情報の授受を行う。つまり、通信装置105が、画像データ取得部11、測距データ取得部12、車速取得部21として機能してもよい。
(変形例1)第四の実施例と第五の実施例とを組み合わせた場合には、報知制御装置20は、衝突時間Tと車速Vとに基づき、報知のタイミングを制御しても良い。
例えば、車速Vが閾値Tv以下である場合は、視認性が悪い場合は、衝突時間がTt1となったタイミングで、他の装置に報知を実行させる。一方、車速Vが閾値Tv以下である場合は、視認性が良い場合は、衝突時間がTt2となったタイミングで、他の装置に報知を実行させる。
さらに、車速Vが閾値Tvよりも大きい場合は、閾値Tt3に基づき、衝突時間Tが閾値Tt3となったタイミングで、報知を実行する他の装置を制御する。
例えば、閾値Tt2<閾値Tt3<閾値Tt1となるように、各々の閾値は設定される。報知制御装置20は、車速が閾値Tvよりも大きければ、停車時の制動距離が長くなるため、画像の視認性の良し悪しにかかわらず、閾値Tt2よりも早いタイミングで報知を行う。一方、車速が閾値Tv以下の場合は、第五の実施例同様、視認性の良し悪しに応じて、適切なタイミングで報知を行う。
(変形例2)報知制御装置10または報知制御装置20に、さらに物体認識技術を搭載しても良い。この場合は、検知した物体が、人であるのか、車であるのかなどを、切り分けて判断することができる。よって、報知制御装置10または報知制御装置20は、検知した物体の種類に応じて、報知の制御方法を切り分けても良い。
(変形例3)輝度ヒストグラムを用いて視認性を判定する場合は、報知制御装置20は、さらに、輝度ヒストグラムの分布する輝度値に基づき、画像が関連するシーンを特定してもよい。そして、報知制御装置20は、シーンに応じた報知を制御してもよい。
例えば、図5Aおよび図5Bの場合のように、輝度ヒストグラムのダイナミックレンジDが閾値Tdよりも小さい場合であって、かつ分布が低輝度に偏っている場合は、暗い環境下での画像であるとして、暗い環境に適した報知を制御する。一方、図6Aおよび図6Bの場合のように、輝度ヒストグラムのダイナミックレンジDが閾値Tdよりも小さい場合であって、かつ分布が高輝度に偏っている場合は、霧の環境下での画像であるとして、霧の環境に適した報知を制御する。
(変形例4)第五の実施例において、報知制御装置10は、衝突時間の変わりに、物体と自車両との距離に基づき、報知を制御してもよい。つまり、報知制御装置10は、距離が閾値以下になった場合に、各種制御を実行する。
(変形例5)第一乃至第三の実施例については、車両の運転を支援する報知以外にも適用可能である。例えば、監視システムなどにおいては、監視用カメラで撮像された画像の視認性に応じて、不審物検知用のセンサの報知方法を制御してもよい。
10,20 報知制御装置
11 画像データ取得部
12 測距データ取得部
13 判定部
14 検知部
15 制御部
16 記憶部
21 車速取得部
2 車載カメラ
3 測距センサ
4 カーナビゲーションシステム
5 パルスセンサ
6 報知用装置
101 CPU
102 ROM
103 RAM
104 HDD
105 通信装置
106 バス
1000 コンピュータ

Claims (9)

  1. コンピュータが、
    撮像装置が撮像した画像の画像データを取得し、
    前記画像データに含まれる輝度情報に基づく視認性の判定結果に応じて、センサの出力に基づく物体の検知結果に関する報知を制御する処理を実行することを特徴とする報知制御方法。
  2. 前記コンピュータは、さらに、
    前記輝度情報に基づいて、輝度ヒストグラムを生成し、
    前記輝度ヒストグラムにおけるダイナミックレンジを算出し、
    前記報知を制御する処理において、前記ダイナミックレンジに基づいて、前記視認性を判定することを特徴とする請求項1記載の報知制御方法。
  3. 前記報知を制御する処理において、前記ダイナミックレンジが閾値以下である場合に、前記報知を実行する装置に対して、該報知を実行させるとともに、前記ダイナミックレンジが閾値より大きい場合は、前記装置に対して、該報知の実行制御をおこなわないことを特徴とする請求項2記載の報知制御方法。
  4. 前記コンピュータは、さらに、
    前記画像データを複数の領域に分割し、該複数の領域各々についての前記視認性を判定することを特徴とする請求項1乃至請求項3のいずれか一項に記載の報知制御方法。
  5. 前記複数の領域のうち、前記物体を検知した範囲に相当する領域を特定し、
    特定した該領域の前記輝度情報に基づいて、前記視認性を判定することを特徴とする請求項4記載の報知制御方法。
  6. 前記カメラは車両に搭載された車載カメラであって、
    前記コンピュータは、
    前記車両の速度を取得し、
    前記報知を制御する処理において、前記車両の速度に基づき、該報知を制御することを特徴とする請求項1ないし請求項5のいずれか一項に記載の報知制御方法。
  7. 前記カメラは車両に搭載された車載カメラであって、
    前記コンピュータは、
    前記物体と前記車両との距離または物体への到達予測時間に基づき、前記報知をおこなうタイミングを制御することを特徴とする請求項1ないし請求項5のいずれか一項に記載の報知制御方法。
  8. 撮像装置が撮像した画像の画像データを取得する画像データ取得部と、
    前記画像データに含まれる輝度情報に基づく視認性の判定結果に応じて、センサの出力に基づく物体の検知結果に関する報知を制御する制御部とを有することを特徴とする報知制御装置。
  9. コンピュータに、
    撮像装置が撮像した画像の画像データを取得し、
    前記画像データに含まれる輝度情報に基づく視認性の判定結果に応じて、センサの出力に基づく物体の検知結果に関する報知を制御する処理を実行させることを特徴とする報知制御プログラム。
JP2012255338A 2012-11-21 2012-11-21 報知制御方法、報知制御装置および報知制御プログラム Expired - Fee Related JP6107079B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012255338A JP6107079B2 (ja) 2012-11-21 2012-11-21 報知制御方法、報知制御装置および報知制御プログラム
US14/027,806 US9524644B2 (en) 2012-11-21 2013-09-16 Notification control method and notification control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012255338A JP6107079B2 (ja) 2012-11-21 2012-11-21 報知制御方法、報知制御装置および報知制御プログラム

Publications (2)

Publication Number Publication Date
JP2014102743A true JP2014102743A (ja) 2014-06-05
JP6107079B2 JP6107079B2 (ja) 2017-04-05

Family

ID=50727568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012255338A Expired - Fee Related JP6107079B2 (ja) 2012-11-21 2012-11-21 報知制御方法、報知制御装置および報知制御プログラム

Country Status (2)

Country Link
US (1) US9524644B2 (ja)
JP (1) JP6107079B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526350B1 (ja) * 2018-03-29 2019-06-05 三菱電機株式会社 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
JP2020021110A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 警報システム、警報制御装置及び警報方法
WO2023187914A1 (ja) * 2022-03-28 2023-10-05 本田技研工業株式会社 遠隔操作方法及び映像提示方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6277933B2 (ja) * 2014-10-10 2018-02-14 株式会社デンソー 表示制御装置、表示システム
JP6252576B2 (ja) * 2015-09-30 2017-12-27 トヨタ自動車株式会社 車両の運転支援装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09326032A (ja) * 1996-06-06 1997-12-16 Fuji Heavy Ind Ltd 車両周辺立体物認識装置
JP2002170200A (ja) * 2000-12-01 2002-06-14 Nissan Diesel Motor Co Ltd 車両追突警報システム
JP2005135037A (ja) * 2003-10-29 2005-05-26 Toyota Central Res & Dev Lab Inc 車両用情報提示装置
JP2009146029A (ja) * 2007-12-12 2009-07-02 Honda Motor Co Ltd 車両の走行安全装置
WO2010074012A1 (ja) * 2008-12-22 2010-07-01 ローム株式会社 画像補正処理回路、半導体装置、画像補正処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3145740B2 (ja) 1991-08-29 2001-03-12 マツダ株式会社 移動車の走行状態判断装置
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
WO2004058540A2 (en) * 2002-12-20 2004-07-15 Donnelly Corporation Accessory system for vehicle
JP4872245B2 (ja) 2005-06-06 2012-02-08 トヨタ自動車株式会社 歩行者認識装置
JP5136871B2 (ja) 2005-11-22 2013-02-06 株式会社エクォス・リサーチ 運転支援装置
JP4341691B2 (ja) * 2007-04-24 2009-10-07 ソニー株式会社 撮像装置、撮像方法、露光制御方法、プログラム
CN102067191A (zh) * 2008-06-30 2011-05-18 罗姆股份有限公司 车辆的行驶信息记录装置
US20110285519A1 (en) * 2010-05-21 2011-11-24 Kurt Scheuermann Static Officer Proximity Alert System
US8493500B2 (en) * 2010-10-27 2013-07-23 Apple Inc. Auto exposure blowout prevention
US9681062B2 (en) * 2011-09-26 2017-06-13 Magna Electronics Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
JP4889822B1 (ja) 2011-10-18 2012-03-07 三菱電機株式会社 車外への音発生装置
US8902313B2 (en) * 2011-11-02 2014-12-02 Robert Bosch Gmbh Automatic image equalization for surround-view video camera systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09326032A (ja) * 1996-06-06 1997-12-16 Fuji Heavy Ind Ltd 車両周辺立体物認識装置
JP2002170200A (ja) * 2000-12-01 2002-06-14 Nissan Diesel Motor Co Ltd 車両追突警報システム
JP2005135037A (ja) * 2003-10-29 2005-05-26 Toyota Central Res & Dev Lab Inc 車両用情報提示装置
JP2009146029A (ja) * 2007-12-12 2009-07-02 Honda Motor Co Ltd 車両の走行安全装置
WO2010074012A1 (ja) * 2008-12-22 2010-07-01 ローム株式会社 画像補正処理回路、半導体装置、画像補正処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526350B1 (ja) * 2018-03-29 2019-06-05 三菱電機株式会社 車両照明制御装置、車両照明制御方法及び車両照明制御プログラム
JP2020021110A (ja) * 2018-07-30 2020-02-06 株式会社トヨタシステムズ 警報システム、警報制御装置及び警報方法
WO2023187914A1 (ja) * 2022-03-28 2023-10-05 本田技研工業株式会社 遠隔操作方法及び映像提示方法

Also Published As

Publication number Publication date
US20140139672A1 (en) 2014-05-22
JP6107079B2 (ja) 2017-04-05
US9524644B2 (en) 2016-12-20

Similar Documents

Publication Publication Date Title
KR101083885B1 (ko) 지능형 운전 보조 시스템들
JP4608631B2 (ja) 車両用画像処理装置、運転支援装置
JP6107079B2 (ja) 報知制御方法、報知制御装置および報知制御プログラム
CN109153359B (zh) 一种汽车盲区的监测方法及系统
JP5809751B2 (ja) 対象物認識装置
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
US20020186201A1 (en) Vehicle tracking and identification of emergency/law enforcement vehicles
JPWO2011108218A1 (ja) 車両の周辺監視装置
WO2016147584A1 (ja) 車両監視装置、車両監視方法、及び、車両監視プログラム
CN106926794B (zh) 车辆监控系统及其方法
JP2010044561A (ja) 乗物搭載用監視装置
KR101239718B1 (ko) 차량 주변 물체 검출 시스템 및 방법
JP2005222424A (ja) 移動体周辺監視装置、移動体周辺監視方法、制御プログラムおよび可読記録媒体
JP2014056295A (ja) 車両周辺監視装置
JP2020052639A (ja) 車両監視装置及び車両監視システム
JP2009037542A (ja) 隣接車両検出装置および隣接車両検出方法
JP2011258121A (ja) 障害物認識装置
JPH0843082A (ja) 車輌間隔検出装置
JP2009126493A (ja) 障害物検出装置
JP2007069777A (ja) 障害物検出システム
WO2022160232A1 (zh) 一种检测方法、装置和车辆
JP2019028482A (ja) 車載器および運転支援装置
JP5040985B2 (ja) 注意喚起システム
KR102497614B1 (ko) 적응형 범용 감시 시스템 및 그 구동방법
EP4304191A2 (en) Camera system, method for controlling the same, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170220

R150 Certificate of patent or registration of utility model

Ref document number: 6107079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees