JP2014073737A - 車両用撮影装置 - Google Patents
車両用撮影装置 Download PDFInfo
- Publication number
- JP2014073737A JP2014073737A JP2012221646A JP2012221646A JP2014073737A JP 2014073737 A JP2014073737 A JP 2014073737A JP 2012221646 A JP2012221646 A JP 2012221646A JP 2012221646 A JP2012221646 A JP 2012221646A JP 2014073737 A JP2014073737 A JP 2014073737A
- Authority
- JP
- Japan
- Prior art keywords
- image
- wiper
- vehicle
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ワイパに関連するノイズ要素の量が多い画像の利用を抑制する。
【解決手段】システムは、ウインドシールド4aを通して外部の光景を撮影するカメラ5dを有する。カメラ5dの撮影範囲VRは、ワイパ4bの払拭範囲と重複している。ワイパ4bが非作動であるときに撮影された画像は、利用可能な画像として識別される。ワイパ4bが作動しているとき、ワイパ4bが写っている画像は、利用不可能な画像として識別される。ワイパ4bが撮影範囲VRを通過した後、撮影範囲VRに付着する雨滴LDの数は徐々に増加する。ワイパ4bが撮影範囲VRを通過した後の経過時間が計測される。経過時間が所定の時間閾値を上回らない場合、画像は利用可能な画像として識別される。経過時間が所定の時間閾値を上回る場合、画像は利用不可能な画像として識別される。利用可能な画像は、運転を支援するための処理において利用される。
【選択図】図4
【解決手段】システムは、ウインドシールド4aを通して外部の光景を撮影するカメラ5dを有する。カメラ5dの撮影範囲VRは、ワイパ4bの払拭範囲と重複している。ワイパ4bが非作動であるときに撮影された画像は、利用可能な画像として識別される。ワイパ4bが作動しているとき、ワイパ4bが写っている画像は、利用不可能な画像として識別される。ワイパ4bが撮影範囲VRを通過した後、撮影範囲VRに付着する雨滴LDの数は徐々に増加する。ワイパ4bが撮影範囲VRを通過した後の経過時間が計測される。経過時間が所定の時間閾値を上回らない場合、画像は利用可能な画像として識別される。経過時間が所定の時間閾値を上回る場合、画像は利用不可能な画像として識別される。利用可能な画像は、運転を支援するための処理において利用される。
【選択図】図4
Description
本発明は、車両のウインドシールドを通して外部の光景を撮影した画像を提供する車両用撮影装置に関する。
特許文献1は、カメラによって車両の前方の光景を撮影し、得られた画像を利用して、運転を支援する装置を開示する。
車両の外部の光景を撮影する場合、カメラを保護するために車両のウインドシールドを通して撮影することが好ましい。ところが、雨が降っている場合、または雪が降っている場合には、ウインドシールドの外面に付着する雨滴または雪片がカメラの視界を部分的にさえぎることがある。このような場合に得られる画像は外部の光景を正確に反映していない。このため、雨または雪の中で得られた画像は、運転支援に利用できない場合がある。
別の観点では、道路走行車両、船舶などの車両においては、ウインドシールドに雨滴を拭き取るためのワイパが設けられている。このワイパも、カメラの視界を部分的にさえぎることがある。ワイパ自身が写り込んだ画像は、運転支援に利用できない場合がある。
さらに、ワイパは、所定の間隔で雨滴または雪片を拭き取るから、カメラの視界を遮る雨滴または雪片の量が周期的に変化する。この場合、画像の中に含まれる雨滴または雪片の量が周期的に変動する。このような変動は、運転支援に利用できる画像と、運転支援に利用できない画像とを生み出す。
このような観点から、車両用画像撮影装置にはさらなる改良が求められている。
開示された発明の目的のひとつは、画像に写るノイズ要素の量が多い画像の利用を抑制することができる車両用撮影装置を提供することである。
開示された発明の目的の他のひとつは、ワイパに関連するノイズ要素の量が多い画像の利用を抑制することができる車両用撮影装置を提供することである。
開示された発明のひとつは上記目的を達成するために以下の技術的手段を採用する。なお、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、開示された発明の技術的範囲を限定するものではない。
開示された発明のひとつは、車両のウインドシールドを通して撮影された画像を画像利用部(124、130)に提供する車両用撮影装置において、ウインドシールドの外面を払拭するワイパ(4b)の状態を取得する取得部(123b、180、280)と、ワイパの状態に基づいて、画像が、画像利用部によって利用可能な画像であるか、利用不可能な画像であるかを識別する識別部(123c、123d)とを備えることを特徴とする。
この構成によると、画像は、ウインドシールドを通して撮影される。画像は、画像利用部によって利用される。ウインドシールドの外面は、ワイパによって払拭される。ワイパは、ウインドシールドの外面に付着した雨滴または雪片を払拭する。ワイパが作動しているとき、ワイパそれ自身が画像に写り込むことにより、または、ワイパが払拭する前の雨滴または雪片が画像に写り込むことにより、画像の品質は低下する。この結果、ワイパの状態に関連して、利用に適さない画像が発生することがある。識別部は、ワイパの状態に基づいて、画像利用部によって利用可能な画像であるか、利用不可能な画像であるかを識別する。この結果、品質が低下した画像の利用が抑制される。
以下に、図面を参照しながら開示された発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。また、後続の実施形態においては、先行する実施形態で説明した事項に対応する部分に百以上の位だけが異なる参照符号を付することにより対応関係を示し、重複する説明を省略する場合がある。各実施形態で具体的に組合せが可能であることを明示している部分同士の組合せばかりではなく、特に組合せに支障が生じなければ、明示してなくとも実施形態同士を部分的に組み合せることも可能である。
(第1実施形態)
図1に図示されるように、発明を開示する第1実施形態は、車両用ナビゲーションシステム1である。車両用ナビゲーションシステム1は、配信センタ2と、複数の車両3とによって構築されている。配信センタ2には、センタ装置(CNTRD)3が設けられている。車両4には、車両装置(ONVHD)5が設けられている。センタ装置3と車両装置5との間にはデータ通信のための通信システム6が設けられている。センタ装置3と複数の車両装置5とは、通信システム6を介してデータ通信可能に接続されている。通信システム6は、無線電話回線、インターネットなどのネットワークを含むことができる。センタ装置3と車両装置5とは、車両用ナビゲーションシステム1を構成する。
図1に図示されるように、発明を開示する第1実施形態は、車両用ナビゲーションシステム1である。車両用ナビゲーションシステム1は、配信センタ2と、複数の車両3とによって構築されている。配信センタ2には、センタ装置(CNTRD)3が設けられている。車両4には、車両装置(ONVHD)5が設けられている。センタ装置3と車両装置5との間にはデータ通信のための通信システム6が設けられている。センタ装置3と複数の車両装置5とは、通信システム6を介してデータ通信可能に接続されている。通信システム6は、無線電話回線、インターネットなどのネットワークを含むことができる。センタ装置3と車両装置5とは、車両用ナビゲーションシステム1を構成する。
センタ装置3は、複数の車両装置5に向けて案内のための画像を配信する。配信される画像は、静止画、または動画である。複数の車両装置5は、配信された画像を受信する。それぞれの車両装置5は、車両4に搭載されたナビゲーション装置によって提供することができる。ナビゲーション装置は、配信された画像を表示することにより、運転者に画像を提供し、運転者の運転を支援する。複数の車両装置5は、それらが搭載された車両4において撮影された画像をセンタ装置3に送信する。センタ装置3は、複数の車両装置5から送信された画像を収集し、加工することによって、配信用の画像を作成する。車両用ナビゲーションシステム1は、複数の車両装置5から収集された画像を加工し、加工された画像を配信する。
図2に図示されるように、センタ装置3は、センタ処理装置(CTCPU)3a、およびメモリ装置(MMR)3bを備える。メモリ装置3bは、データを格納する記憶装置である。センタ処理装置3aとメモリ装置3bとは、マイクロコンピュータを構成する。センタ装置3は、通信システム6との接続を提供するための通信機(COMM)3cを備える。
図3に図示されるように、車両装置5は、車両処理装置(VHCPU)5a、およびメモリ装置(MMR)5bを備える。メモリ装置5bは、データを格納する記憶装置である。車両処理装置5aとメモリ装置5bとは、マイクロコンピュータを構成する。車両装置5は、通信システム6との接続を提供するための通信機(COMM)5cを備える。車両装置5は、車両4の周囲の画像を撮影するためのカメラ(VHCAM)5dを備える。カメラ5dは、車両の前方の画像を撮影する。カメラ5dは、静止画、または動画を撮影可能である。カメラ5dは、車両4の前方の光景を撮影することにより原画像を供給する。車両装置5は、車両用撮影装置を提供する。車両用撮影装置は、車両4のウインドシールドを通して撮影された画像を後述の画像利用部に提供する。車両装置5は、表示器(DSP)5eを備える。
車両装置5は、複数の検出器5fを備える。複数の検出器5fは、ナビゲーション装置として必要なセンサを含む。例えば、複数の検出器5fは、車両4の現在位置を検出するための衛星測位装置を含むことができる。複数の検出器5fは、車両4の挙動を検出するためのセンサを含む。例えば、複数の検出器5fは、車両4の走行速度を検出する速度センサ、およびブレーキ装置の操作を検出するブレーキセンサを含むことができる。複数の検出器5fは、運転者の挙動を検出するためのセンサを含む。例えば、運転者の顔を撮影する室内カメラ、運転者の声を検出するマイク、および運転者の心拍を検出する心拍センサを含むことができる。
車両装置5は、車両4に搭載されたナビゲーション装置である。車両装置5は、表示器5eに地図を表示するとともに、地図上に車両4の位置を表示する。さらに、車両装置5は、車両4の利用者からの要求に応答して、現在地点から目的地点までの経路案内を実行する。車両装置5は、現在地点から目的地点までの経路を設定する手段を備える。車両装置5は、表示器5eに表示された地図上に、設定された経路を表示するとともに、運転者が車両を経路に沿って走行させるように、表示または音声によって支援を提供する。
センタ装置3と車両装置5とは、電子制御装置(ECU:Electronic Control Unit)である。ECUは、処理装置と、プログラムを記憶する記憶媒体としてのメモリ装置とを有する。ECUは、コンピュータによって読み取り可能な記憶媒体を備えるマイクロコンピュータによって提供される。記憶媒体は、コンピュータによって読み取り可能なプログラムを非一時的に格納している。記憶媒体は、半導体メモリまたは磁気ディスクによって提供されうる。プログラムは、ECUによって実行されることによって、ECUをこの明細書に記載される装置として機能させ、この明細書に記載される制御方法を実行するようにECUを機能させる。ECUが提供する手段は、所定の機能を達成する機能的ブロック、またはモジュールとも呼ぶことができる。
図4は、車両4の前方のウインドシールド4aを前方から見た平面図である。図中には、ウインドシールド4aと、ワイパ4bと、ワイパモータ4cと、カメラ5dとが図示されている。矢印は、図示の状態におけるワイパ4bの移動方向ARを示している。破線で囲まれ、ハッチングが付された範囲は、ワイパ4bの払拭範囲WPを示している。図中には、多数の雨滴LDを簡単化した丸印が図示されている。これら丸印は、ワイパ4bが作動しているときの雨滴LDの付着状態の一例を図示している。雪片も雨滴LDと同様に付着することがある。
ウインドシールド4aは透明なガラスなど透明な板である。ワイパ4bは、ワイパモータ4cによって駆動される。ワイパ4bは、ウインドシールド4aの外面を払拭する。
カメラ5dは、車両4の室内に配置されている。カメラ5dは、ウインドシールド4aの背後に配置されている。カメラ5dは、ウインドシールド4aを通して車両4の外側の光景を撮影する。カメラ5dは、車両4の進行方向の前方の光景を撮影する。カメラ5dの撮影範囲VRと、払拭範囲WPとは、少なくとも部分的に重複している。図示の例では、カメラ5dの撮影範囲VRのほぼ全域が払拭範囲WPと重複している。
ウインドシールド4aの外面上には、雨滴LDが付着する。ワイパ4bは、払拭範囲WPを所定の周期で払拭する。このため、払拭範囲WP内に付着した雨滴LDは、払拭範囲WPの外側より少ない。ワイパ4bは、払拭範囲WP内を往復する。ワイパ4bは、移動方向ARで示されるような払拭ストロークを繰り返す。ワイパ4bの移動方向ARの前方に付着した雨滴LDの数は、ワイパ4bの移動方向の後方に付着した雨滴LDの数より多い。ワイパ4bの移動方向の後方においては、ワイパ4bが通過した直後の範囲には雨滴LDが少ない。ワイパ4bの後方においては、ワイパ4bから離れるほど、付着している雨滴LDの数が徐々に増える。言い換えると、雨滴LDの数は、ワイパ4bが通過した直後に最も少ない。雨滴LDの数は、ワイパ4bが通過した後、時間の経過につれて徐々に増加してゆく。
カメラ5dの視界にも雨滴LDが付着する。雨滴LDは、カメラ5dにより撮影された画像の中にも写る。しかも、雨滴LDはカメラ5dに近接しており、カメラ5dの焦点よりはるかに手前に位置している。このため、雨滴LDの範囲内では、画像の鮮明さが損なわれる。雨滴LDの範囲内では、前方の光景が認識できない。
ワイパ4bは、カメラ5dの撮影範囲VRの中を通過することがある。このため、ワイパ4bの一部が画像の中に写ることがある。ワイパ4bは画像の中に大きな影として映る。
図5−図8は、カメラ5dにより撮影された画像の例を示す。これらの図には、カメラ5dにより撮影された画像が、図示のために簡単化されて図示されている。これらの画像RV0、RV1、RV2、RV3は、同じ交差点を同じ位置から撮影した画像である。画像RV0−RV3には、交差点の光景が写っている。
図5に図示される画像RV0は雨が降っていないときの画像である。画像には、道路標識RS、光景の一部であるオーバーパスOP、移動体である他の車両VH、および歩行者PDが写っている。
図6−図8に図示される画像RV1、RV2、RV3は、雨が降っているときの画像である。図中には、雨滴LDが丸印に簡単化されて図示されている。雨滴LDは光を不規則に屈折させ、反射する。このため、雨滴LDの範囲内では、前方の光景が鮮明に見えない。
図6に図示される画像RV1には、ワイパ4bが写っている。ワイパ4bは、画像の中に平行な2辺で区画された黒い範囲として写る。図示されたワイパ4bは、画像RV1の中を左から右へ移動している。画像RV1の中にワイパ4bが含まれていることは、ワイパ4bの作動を示す信号に基づいて、または画像RV1の中からワイパ4bに対応する黒い領域を認識することによって判定することができる。
図7に図示される画像RV2は、ワイパ4bが通過した直後の画像である。画像RV2には、少数の雨滴LDだけが写っている。画像RV2には、道路標識RS、オーバーパスOP、他の車両VH、および歩行者PDなどの形状を鮮明に認識することができる。
図8に図示される画像RV3は、ワイパ4bが通過した後、長時間を経過した後の画像、またはワイパ4bが通過する直前の画像である。画像RV3には、多数の雨滴LDが写っている。雨滴LDは、画像の中の事物を覆い隠している。このため、画像RV3から道路標識RS、オーバーパスOP、他の車両VH、および歩行者PDなどの形状を鮮明に認識することは困難である。特に、画像認識プログラムによって画像RV3の中から所定の形状を認識することは困難である。また、運転者が画像RV3の全体、または一部を見ても、写っている事物を正確に、かつ迅速に認識することは困難である。
図9は、車両用ナビゲーションシステム1が提供するリアルビューナビゲーションに関連するリアルビュー処理120を示すフローチャートである。リアルビューナビゲーションにおいては、先行車両によって撮影された画像が、後続車両に提供される。しかも、先行車両によって撮影された画像から、他の車両、さらに望ましくは歩行者などの移動体が消去されたクリーン画像が後続車両に配信される。クリーン画像を作成するために、複数の先行車両から原画像が収集される。また、リアルビューナビゲーションにおいては、その車両の前方の光景を示す画像から、運転を支援するために有用な情報を含む範囲が切り出され、車内の表示器5eに表示される。
リアルビュー処理120には、センタ装置3によって実行されるセンタ装置処理121と、車両装置5によって実行される車両装置処理122とが含まれている。それぞれのステップは、その機能を提供する処理手段または処理部として見ることができる。
ステップ123では、車両4の前方の光景を示す画像が撮影される。ステップ123には、カメラ5dによって撮影される複数の画像から利用可能な画像のみを選択する選択処理を含むことができる。例えば、ウインドシールド4aに付着した雨滴を除去するためのワイパ4bが写った画像を廃棄する選択処理を含むことができる。
ステップ123は、画像に写るノイズ要素の量、すなわちノイズ量NSを設定することにより実行することができる。ステップ123は、画像に写るノイズ量NSを設定する設定処理を含むことができる。ここで、ノイズ量NSは、その画像が運転の支援に貢献できる度合い、または可能性を尺度として設定することができる。ノイズ量NSは、光景を正確に反映していない領域が、画像に占める割合に相当する場合がある。画像に写るノイズ要素は、運転者などの人が画像に写った事物を認識し理解することを妨げる。ノイズ量NSが多いほど、事物の認識、理解は困難となる。人による認識の可能性に代えて、画像処理プログラムによって画像の中に他の車両の存在、歩行者の存在、道路標識の存在などを自動的に認識する場合も、上記と同様である。
ノイズ要素の一例は、ウインドシールドに付着した雨滴または雪片である。ノイズ要素の一例は、ワイパ4bそのものである。ワイパ4bそれ自身はもちろん、雨滴または雪片は、ワイパ4bの状態に関連して現れたり消滅したりするノイズ要素である。ワイパ4bの状態の一例は、ワイパ4bの作動(ON)、または非作動(OFF)である。ワイパ4bの状態の一例は、ワイパ4bが画像の中に写っているか否かである。ワイパ4bの状態の一例は、ワイパ4bが撮影範囲VRを通過した後の経過時間、言い換えると、ワイパ4bが撮影範囲VRを払拭してからの経過時間である。この経過時間は、ワイパ4bが作動している期間中における画像の中に含まれる雨滴または雪片の数を示す。
ステップ123は、ワイパ4bが非作動であるときに所定の閾値Nthを上回らないようにノイズ量NSを設定する非作動設定部を提供することができる。ステップ123は、画像にワイパ4bが含まれる場合に所定の閾値Nthを上回るようにノイズ量NSを設定するワイパノイズ設定部を提供することができる。ステップ123は、画像に含まれる雨滴または雪片の量が増えるほどノイズ量NSを増加させる比例設定部を提供することができる。ステップ123は、ノイズ量NSが、後続の画像利用部における画像の利用に適することを示す閾値Nthを上回る場合に、その画像を利用不可能な画像と識別し、その利用を禁止するための識別部を提供することができる。
ステップ123aでは、カメラ5dによって前方の光景が撮影され、光景を示す画像が入力され、メモリ装置5bに記憶される。この画像は、車両4からカメラ5dによって撮影された生の画像である。画像は、少なくとも1つの静止画像を含む。画像は、複数の静止画像、または動画とすることができる。
ステップ123bは、ウインドシールド4aの外面を払拭するワイパ4bの状態を取得する取得部を提供する。ステップ123bは、画像に写るノイズ要素の量が所定の閾値を上回らないことを示すワイパの第1状態と、画像に写るノイズ要素の量が閾値を上回ることを示すワイパの第2状態とを取得する。第1状態の一例は、ワイパ4bの非作動である。第2状態の一例は、ワイパ4bの作動である。第1状態の一例は、ワイパ4bが画像に写っていないことである。第2状態の一例は、ワイパ4bが画像に写っていることである。第1状態の一例は、ワイパ4bが撮影範囲VRを通過した後の経過時間が所定の時間閾値を上回らないことである。第2状態の一例は、ワイパ4bが撮影範囲VRを通過した後の経過時間が所定の時間閾値を上回ることである。
ステップ123bでは、上記画像に含まれるノイズ量NSが評価され、その画像のノイズ量NSが設定される。ノイズ量NSは、ワイパ4bの状態に基づいて与えられる。ステップ123bは、ワイパ4bの状態に基づいて、画像に写るノイズ要素の量NSを設定する設定部を提供する。
この構成によると、ワイパの状態は、ノイズ要素の量として設定される。識別部は、ノイズ要素の量が少ない画像を利用可能な画像として識別し、ノイズ要素の量が多い画像を利用不可能な画像として識別する。
ステップ123cでは、ノイズ量NSが所定の閾値Nthを上回るか否かが判定される。ノイズ量NSが閾値Nthを上回らない場合、その画像は、後続の画像利用部124、130に提供される。ノイズ量NSが、閾値Nthを上回る場合、ステップ123dに進む。ステップ123dでは、その画像の利用が禁止される。
閾値Nthは、その画像が運転の支援に利用可能か利用不可能かを識別するための閾値である。閾値Nthは、その画像が後続の画像利用部124、130における画像の利用に適するか否かを判定する閾値でもある。閾値Nthは、複数の画像利用部124、130に適合して、異なる値をとることができる。例えば、第1の画像利用部124に適合した画像を示す第1閾値Nth1と、第2の画像利用部130に適合した画像を示す第2閾値Nth2とを設けることができる。ひとつの画像に設定されたノイズ量NSが第1閾値Nth1を上回る場合、第1画像利用部124への利用は禁止されるが、その画像に設定されたノイズ量NSが第2閾値Nth2を上回らない場合、第2画像利用部130への利用は許可される。
ステップ123c、123dは、ワイパ4bの状態に基づいて、画像が、画像利用部によって利用可能な画像であるか、利用不可能な画像であるかを識別する識別部を提供する。ステップ123cは、第1状態が取得されるときに撮影された画像を利用可能な画像として識別し、第2状態が取得されるときに撮影された画像を利用不可能な画像として識別する。ステップ123cは、ノイズ要素の量NSが所定の閾値Nthを上回らないときに撮影された画像を利用可能な画像として識別し、ノイズ要素の量NSが所定の閾値Nthを上回るときに撮影された画像を利用不可能な画像として識別する。
ステップ124では、車両4の前方に出現した道路標識を表示器5eに表示する処理が実行される。この処理では、カメラ5dによって撮影された画像から、道路標識が認識される。例えば、前方の交差点の行き先を表示する標識が認識される。さらに、この処理では、原画像から、道路標識に対応する部分画像が切り出され、切り出された画像が表示器5eに拡大表示される。これにより、運転者による道路標識の認識を支援することができる。
ステップ130では、難解地点において撮影された画像に基づいてクリーン画像を作成し、そのクリーン画像を運転支援のために提供するクリーン画像提供処理が実行される。
ステップ131では、車両4が難解地点を走行したことが判定される。難解地点は、運転者が道路構造または進路を理解することが困難な道路上の地点である。難解地点は、難解な交差点、すなわち分岐点を含むことができる。難解地点は、分岐数が多い分岐点、または分岐角度が特殊な分岐点を含むことができる。このような交差点は、難解交差点とも呼ばれる。また、車両4の目的地となりうる地点の入口、駐車場の入口など、道路を走行する間に見出すことが困難な地点も、難解地点に含むことができる。判定は、自動的に実行することができる。さらに、運転者が難解地点であると判断した場合に操作されるスイッチを設け、このスイッチからの入力操作に応答して難解地点を判定してもよい。
通常とは異なる異常な事象が検出された場合に、車両4が難解地点にあると判定することができる。例えば、交差点の場合、運転者が進行方向の選定を迷ったことを検出することにより、難解交差点であるか否かを判定することができる。運転者が進行方向の選定を迷ったことは、車両4または運転者の挙動によって判定することができる。車両4の挙動には、運転者が車両4に加えた運転操作、車両4の状態、車両4の加速度、および減速度を含むことができる。
難解地点は、運転者が車両4に加えた運転操作、または車両4の挙動に基づいて判定することができる場合がある。難解地点を示す車両挙動の一例は、交差点など候補地点を示す候補範囲内における急減速、すなわち急ブレーキ操作である。他の一例は、候補範囲内における徐行状態である。他の一例は、候補範囲内における停止である。さらに他の一例は、候補範囲内における蛇行操舵である。さらに、減速と蛇行操舵といった複数の車両挙動の組み合わせによって難解地点を判定してもよい。
難解地点を判定するために、観測された車両の挙動と、予め設定された基準挙動とが比較される。観測された車両挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの車両にあらわれる挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。
難解地点は、運転者の挙動に基づいて判定することができる場合がある。例えば、運転者の体の動き、声、心拍などの挙動に基づいて、運転者が難解な地点を走行したか否かを判定することができる。具体的には、顔にあらわれる表情、目の動き、頭の動きを利用できる。また、運転者が経路を間違えたときに出す声を利用できる。より具体的には、「あっつ!」、「しまった!」、「間違えた!」、「あれ?」といった声を利用できる。また、心拍数の急激な変化を利用することができる。
難解地点を判定するために、観測された運転者の挙動と、予め設定された基準挙動とが比較される。観測された運転者挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの運転者が示す挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。
難解地点は、車両4が経路案内のための予定された設定経路から離脱したことに基づいて判定することができる場合がある。車両装置5によって経路案内を実行しているときに、車両4が交差点において経路から離脱した場合、その交差点は難解交差点である可能性がある。
ステップ131は、運転者が道路構造または進路を理解することが困難な道路上の難解地点を判定する判定部を提供する。判定部は、車両の挙動、および/または運転者の挙動と基準との比較に基づいて難解地点を判定する。難解地点が自動的に判定されるから、運転支援用の画像を自動的に提供できる。
ステップ134では、難解地点を撮影した画像が原画像として車両装置5からセンタ装置3へ送信される。この原画像は、車両4からカメラ5dによって撮影された生の画像である。原画像は、難解地点に到達する直前にカメラ5dによって撮影された少なくとも1つの静止画像を含む。そのような画像には、難解地点がその道路構造を見ることができるように映っている可能性が高い。原画像は、難解地点に到達する前の所定区間、または難解地点を含む所定区間において撮影された複数の静止画像、または動画とすることができる。原画像は、難解地点を含む所定走行距離または所定走行期間に撮影された複数の静止画像、または動画から選択的に取り出すことができる。ステップ134は、原画像を車両装置5からセンタ装置3へ送信する送信部を提供する。送信される原画像は、ひとつまたは複数である。ステップ134では、ひとつの難解地点の画像、または複数の難解地点の画像を送信することができる。
ステップ141では、センタ装置3は、複数の車両装置5から送信された原画像を受信する。受信された原画像はメモリ装置3bに蓄積される。ステップ141は、所定の地点、すなわち難解地点において撮影された原画像を取得する取得部を提供する。
ステップ144では、原画像に基づいてクリーン画像が作成される。ステップ144では、他の車両および歩行者などの移動体が写っていない難解地点のクリーン画像が作成される。クリーン画像の作成は、ひとつの地点に関して蓄積された複数の原画像から、移動体が写っていない原画像を選択する処理により実行できる場合がある。また、クリーン画像の作成は、原画像から他の車両および歩行者などの移動体を消去することにより実行される場合がある。
クリーン画像の作成は、オペレータが原画像を加工し、修正することによって実施することができる。このようなマニュアル処理においては、対象地点に関して蓄積された複数の原画像に基づいてクリーン画像を作成する作業が実行される。また、クリーン画像の作成は、複数の原画像に基づいてひとつまたは複数のクリーン画像を自動的に生成する画像処理プログラムによって実施することができる。
クリーン画像の生成工程には、基礎画像の選定、基礎画像における移動体の認識、移動体を消去するための背景画像を提供できる他の原画像の選定、および基礎画像の他の原画像との合成といった複数の工程が含まれる。マニュアル処理においても、画像処理プログラムによる自動化処理においても、画像はメモリ装置3bに一時的に記憶される。
基礎画像の選定は、複数の原画像から、難解地点をわかりやすく示す原画像を選定することによって実行できる。例えば、撮影位置が、難解地点、例えば難解交差点の基準点から所定の範囲にある原画像を、基礎画像として選定することができる。また、難解交差点に接続している道路の幅員に基づいて設定される所定の条件を満たす原画像を、基礎画像として選定することができる。基礎画像における移動体の認識は、車両または歩行者を示す予め設定された基準形状に基づいて実行することができる。
他の原画像の選定は、基礎画像と類似の原画像を選定することによって実行できる。例えば、撮影位置が基礎画像の撮影位置から所定範囲内である原画像を、他の原画像として選定することができる。また、画像内における特徴的な物、例えば道路標識の位置、形状に注目し、それらが基礎画像と同じように映っている原画像を、他の原画像として選定することができる。具体的には、停止線、または横断歩道を利用することができる。また、交差点内の範囲を認識する画像処理を利用してもよい。
基礎画像と他の画像(部分)との合成においては、撮影位置に基づく補正、日時に基づく影の補正といった補正処理が実行される。撮影位置に基づく補正には、原画像の撮影時における走行車線の違いに基づく左右方向の補正を含むことができる。撮影位置に基づく補正には、カメラ5dの高さの差に基づく高さ方向の補正を含むことができる。基礎画像に移動体を消すように、他の原画像の部分を基礎画像に合成することにより、少なくともひとつの移動体が消去されたクリーン画像が生成される。
ステップ144は、ひとつの原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像を作成する作成部を提供する。クリーン画像は、難解地点における運転を支援するための画像として作成される。作成部は、複数の原画像に基づいてクリーン画像を作成する。この作成部は、それぞれの原画像に付属の撮影条件に基づいて複数の原画像を合成する。作成部は、ひとつの原画像における移動体が写っている範囲に、他の原画像における部分画像を合成することにより移動体が消去されたクリーン画像を作成する。よって、移動体を消去しても、実際の光景に近い画像が提供される。
ステップ145では、クリーン画像がセンタ装置3から車両装置5へ配信される。センタ装置3に設けられたステップ145は、クリーン画像を車両装置5に配信する配信部を提供する。クリーン画像の配信は、複数の車両4に向けて実行することができる。また、クリーン画像の配信は、車両4からの要求に応答して実行することができる。また、クリーン画像の配置は、ひとつの難解地点に到達しようとしている車両4に対して実行されてもよい。
ステップ136では、車両装置5によって、クリーン画像が受信される。ステップ136は、配信部から配信されたクリーン画像を受信しメモリ装置5bに記憶する車両受信部を提供する。
ステップ137では、車両装置5によってクリーン画像が運転者に提供される。ここでは、クリーン画像が表示器5eに表示される。車両装置5は、経路案内のためにクリーン画像を利用する。例えば、車両装置5は、車両4が難解地点に到達する前に、クリーン画像を表示器5eに表示する。
このとき、経路案内が実行されている場合には、クリーン画像の上に案内記号を重ねて表示することができる。案内記号は、経路を示す矢印、または、分岐路において選択可能な複数の分岐方向を示す多頭矢印である。クリーン画像と案内記号とを含む画像は案内画像と呼ぶことができる。案内記号は、車両装置5においてクリーン画像上に合成することができる。案内記号は、センタ装置3においてクリーン画像上に合成してもよい。クリーン画像および案内画像は、運転支援用の画像である。
ステップ131、134、141、144、145、および136−137は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する提供部を提供している。この実施形態では、少なくとも作成部144と配信部145と車両受信部136と表示部137とにより提供部が提供されている。ステップ137は、難解地点を走行するときにメモリ装置5bに記憶されたクリーン画像を表示器5eに表示する表示部を提供する。ステップ131−137、および141−145を含むステップ130は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する画像配信処理を提供している。この実施形態では、ステップ124が提供する標識表示処理またはステップ130が提供する画像配信処理は、ステップ123によって撮影された画像を利用する利用部を提供する。
図10は、ワイパ4bの状態に基づいて、ひとつの画像についてノイズ量NSを設定するための設定処理180を示す。設定処理180は、ステップ123bを提供する。ステップ181では、ワイパ4bの状態が作動(ON)であるか、非作動(OFF)であるかが判定される。ワイパ4bのON/OFFは、運転者が操作するワイパスイッチの状態、またはワイパモータ4cの作動状態を示す信号に基づいて判定することができる。また、画像の中に所定の周期でワイパ4bに相当する影が映るか否かに基づいて、ワイパ4bのON/OFFを判定してもよい。ワイパ4bが非作動である場合、ステップ182へ進む。ワイパ4bが作動中である場合、ステップ183へ進む。
ステップ182では、画像のノイズ量NSが最低値0に設定される。ワイパ4bが非作動である場合、雨が降っていないと判定できるからである。ワイパ4bが非作動であっても、雨を検出するセンサを設け、雨が降っている場合には、ステップ183へ進んでもよい。
ステップ183では、画像の中にワイパ4bが写っているか否かが判定される。画像の中にワイパ4bがない場合、ステップ184へ進む。画像の中にワイパ4bがある場合、ステップ186へ進む。
ステップ184では、カメラ5dの撮影範囲VRをワイパ4bが通過した後の経過時間TWPを計測する。ワイパ4bがカメラ5dの撮影範囲VRを通過したことは、画像からワイパ4bに相当する影が消えたこと、またはワイパ4bの作動位置に基づいて判定することができる。経過時間TWPは、ワイパ4bの速度に対応する周期をもつ鋸歯状波によって与えることができる。
ステップ185では、経過時間TWPを変数とする所定の関数fw(TWP)に基づいてノイズ量NSが設定される。関数fw(TWP)は経過時間TWPに比例してノイズ量NSを設定する。関数fw(TWP)は、図示されるように、経過時間TWPが大きくなるほど、ノイズ量NSを増加させる特性を有する。
関数fw(TWP)は、ノイズ量NSを最低値0と最高値1.0との間で設定する。関数fw(TWP)は、ノイズ量NSが、最低値0より高い所定値NL以上となるように設定する。このステップでは、ワイパ4bが作動しているから、雨または雪が降っていると考えられる。このような場合、ウインドシールド4aの外面には、水膜または薄氷が付着している可能性があるから、ノイズ量NSは最低値0より高い所定値NL以上に設定される。
関数fw(TWP)が設定するノイズ量NSは、経過時間TWPが所定の時間閾値Tthを上回ると、ノイズ量NSが所定の閾値Nthを上回るように設定される。経過時間TWPが時間閾値Tthを上回ると、雨滴LDまたは雪片の量が過剰となって画像は利用不可能な画像となるからである。
関数fw(TWP)は、経過時間TWPが所定の上限値TMを上回るとノイズ量NSを最高値1.0に設定する。経過時間TWPが上限値TMを上回ると、大量の雨滴LDによって画像が利用不可能なほどに不鮮明となるからである。
関数fw(TWP)は、ワイパ4bの速度が速いほど、ノイズ量NSの増加が早くなる特性を有することができる。関数fw(TWP)は、ワイパ4bの作動モード、例えば高速モードまたは低速モード、に応じて切換えられる複数の特性をもつことができる。運転者は、雨量が多いほどワイパ4bの速度を高く調節する。よって、ワイパ4bの速度が速いほど、雨滴LDの増加速度も速くなる。例えば、ワイパ4bが低速モードのとき、関数fw(TWP)は、実線の特性を与えられる。ワイパ4bが高速モードのとき、関数fw(TWP)は、一点鎖線の特性を与えられる。
ステップ186では、画像のノイズ量NSが最高値1.0に設定される。画像の中にワイパ4bが写っている場合、その画像は利用不可能と考えられるからである。
ステップ181、182は、ワイパ4bの状態を取得するために、ワイパ4bの作動または非作動を判定する作動判定部を提供する。ステップ123cが提供する識別部は、ワイパ4bの非作動が判定されているときに撮影された画像を利用可能な画像として識別する。ワイパ4bが非作動であるときは、ワイパ4bが画像に写り込むことがない。しかも、ウインドシールド4aに雨滴LDまたは雪片が付着している可能性は低い。よって、ワイパ4bが非作動であるときに撮影された画像は利用可能な画像と識別することができる。
ステップ184、185は、ワイパ4bの状態を取得するために、ワイパ4bが撮影範囲VRを通過した後の経過時間TWPが所定の時間閾値Tthを上回るか否かを判定する時間判定部を提供する。ステップ123cが提供する識別部は、経過時間TWPが時間閾値Tthを上回らないときに撮影された画像を利用可能な画像として識別し、経過時間TWPが時間閾値Tthを上回るときに撮影された画像を利用不可能な画像として識別する。この構成によると、ワイパ4bが通過した後に増加する雨滴または雪片の量に応じて、利用可能な画像と利用不可能な画像とが識別される。
ステップ183、186は、ワイパ4bの状態を取得するために、画像にワイパ4bが写っているか否かを判定する画像判定部を提供する。ステップ123cが提供する識別部は、ワイパ4bが写っている画像を利用不可能な画像として識別する。
この実施形態によると、雨または雪が降っていないとき、鮮明な画像が得られる。このとき、運転者はワイパ4bを作動させないから、画像のノイズ量NSは最低値0とされる。このとき、ノイズ量NSは閾値Nthを上回らない。よって、画像は、利用可能な画像として識別され、画像利用部124、130に提供され利用される。画像利用部124、130においては、鮮明な画像に基づいて、運転を支援するための処理が提供される。
雨または雪が降ると、運転者がワイパ4bを作動させる。ワイパ4bが作動すると、そのワイパ4bが画像に写ることがある。画像にワイパ4bが写っている場合、その画像のノイズ量NSが最高値1.0に設定される。このため、ワイパ4bが写った画像は、利用不可能な画像として識別され、画像利用部124、130に提供されない。よって、ワイパ4bに起因する不確かな処理が回避される。
さらに、ワイパ4bが作動している間中、画像の中に写る雨滴LDまたは雪片の数は、鋸歯状波のように周期的に変動する。よって、ワイパ4bがカメラ5dの撮影範囲VRを通過した直後は、利用可能な鮮明な画像が得られる。しかし、ワイパ4bがカメラ5dの撮影範囲VRを通過した後、所定の時間閾値を経過すると、雨滴LDまたは雪片が撮影範囲VRの多くの範囲を覆い、利用不可能な画像が得られる。ワイパ4bが通過した後の経過時間TWPが長くなるほど、ノイズ量NSが高く設定されるから、雨滴LDまたは雪片の付着数に応じたノイズ量NSが設定される。
ノイズ量NSが閾値Nthを上回らない場合、その画像は利用可能な画像として識別され、画像利用部124、130に提供される。画像利用部124、130においては、閾値Nthを上回らない比較的鮮明な画像に基づいて、運転を支援するための処理が提供される。
一方、ノイズ量NSが閾値Nthを上回る場合、その画像は利用不可能な画像として識別され、画像利用部124、130に提供されない。よって、雨滴LDまたは雪片に起因する不確かな処理が回避される。
(第2実施形態)
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上述の実施形態では、ワイパ4bが作動しているとき、ワイパ4bが通過した直後の画像の利用を許容した。これに代えて、ワイパ4bが作動している期間中は、すべての画像の利用を禁止してもよい。
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上述の実施形態では、ワイパ4bが作動しているとき、ワイパ4bが通過した直後の画像の利用を許容した。これに代えて、ワイパ4bが作動している期間中は、すべての画像の利用を禁止してもよい。
図11はこの実施形態の設定処理280を示す。この実施形態では、ステップ181においてワイパ4bが作動していると判定される場合、ステップ186へ進む。ワイパ4bが作動している期間中は、ワイパ4b、雨滴LD、または雪片に起因して画像が劣化している可能性がある。ステップ181からステップ186へ直接的に分岐することで、劣化している可能性がある画像が画像利用部124、130提供されない。よって、劣化している可能性がある画像の利用が回避される。
設定処理280は、取得部を提供する。この取得部は、ワイパ4bの状態を取得するために、ワイパ4bの作動または非作動を判定する作動判定部を備える。ステップ123cが提供する識別部は、ワイパ4bの非作動が判定されているときに撮影された画像を利用可能な画像として識別し、ワイパ4bの作動が判定されているときに撮影された画像を利用不可能な画像として識別する。
(他の実施形態)
以上、開示された発明の好ましい実施形態について説明したが、開示された複数の発明は上述した実施形態に何ら制限されることなく、種々変形して実施することが可能である。上記実施形態の構造は、あくまで例示であって、開示された複数の発明の技術的範囲はこれらの記載の範囲に限定されるものではない。開示された複数の発明は、実施形態において示された組み合わせに限定されることなく、それぞれ独立して実施可能である。開示された複数の発明のいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものである。
以上、開示された発明の好ましい実施形態について説明したが、開示された複数の発明は上述した実施形態に何ら制限されることなく、種々変形して実施することが可能である。上記実施形態の構造は、あくまで例示であって、開示された複数の発明の技術的範囲はこれらの記載の範囲に限定されるものではない。開示された複数の発明は、実施形態において示された組み合わせに限定されることなく、それぞれ独立して実施可能である。開示された複数の発明のいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものである。
例えば、制御装置が提供する手段と機能は、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供することができる。例えば、制御装置をアナログ回路によって構成してもよい。
上述の実施形態では、ステップ124を車両装置5だけにおいて実行する構成を説明した。これに代えて、ステップ124の一部をセンタ装置2において実行してもよい。例えば、標識の画像をセンタ装置3のメモリ装置3bに収集し、収集された画像から、最新かつ高品質な標識の画像を車両装置5に配信して表示してもよい。
上述の実施形態では、ステップ130に含まれる複数のステップを、センタ装置3と車両装置5とで分散的に実行する構成を説明した。これに代えて、上述の実施形態と異なる処理の分担を採用してもよい。例えば、ステップ131の一部または全部をセンタ装置3において実行してもよい。また、ステップ141、144、145の一部または全部を車両装置5において実行してもよい。
1 車両用ナビゲーションシステム、
2 配信センタ、3 センタ装置、
3a センタ処理装置、3b メモリ装置、3c 通信機、
4 車両、5 車両装置、6 通信システム、
5a 車両処理装置、5b メモリ装置、5c 通信機、
5d カメラ、5e 表示器、5f 検出器。
2 配信センタ、3 センタ装置、
3a センタ処理装置、3b メモリ装置、3c 通信機、
4 車両、5 車両装置、6 通信システム、
5a 車両処理装置、5b メモリ装置、5c 通信機、
5d カメラ、5e 表示器、5f 検出器。
Claims (7)
- 車両のウインドシールドを通して撮影された画像を画像利用部(124、130)に提供する車両用撮影装置において、
前記ウインドシールドの外面を払拭するワイパ(4b)の状態を取得する取得部(123b、180、280)と、
前記ワイパの状態に基づいて、前記画像が、前記画像利用部によって利用可能な画像であるか、利用不可能な画像であるかを識別する識別部(123c、123d)とを備えることを特徴とする車両用撮影装置。 - 前記取得部(123b、180、280)は、
前記画像に写るノイズ要素の量が所定の閾値を上回らないことを示す前記ワイパの第1状態と、前記画像に写るノイズ要素の量が前記閾値を上回ることを示す前記ワイパの第2状態とを取得し、
前記識別部(123c)は、
前記第1状態が取得されるときに撮影された前記画像を前記利用可能な画像として識別し、
前記第2状態が取得されるときに撮影された前記画像を前記利用不可能な画像として識別することを特徴とする請求項1に記載の車両用撮影装置。 - 前記取得部は、前記ワイパの状態を取得するために、
前記ワイパ(4b)の作動または非作動を判定する作動判定部(181、182)を備え、
前記識別部は、
前記ワイパの非作動が判定されているときに撮影された前記画像を前記利用可能な画像として識別することを特徴とする請求項1または請求項2に記載の車両用撮影装置。 - 前記取得部は、前記ワイパの状態を取得するために、
前記ワイパが撮影範囲(VR)を通過した後の経過時間(TWP)が所定の時間閾値(Tth)を上回るか否かを判定する時間判定部(184、185)を備え、
前記識別部は、
前記経過時間が前記時間閾値を上回らないときに撮影された前記画像を前記利用可能な画像として識別し、
前記経過時間が前記時間閾値を上回るときに撮影された前記画像を前記利用不可能な画像として識別することを特徴とする請求項1から請求項3のいずれかに記載の車両用撮影装置。 - 前記取得部は、前記ワイパの状態を取得するために、
前記画像に前記ワイパ(4b)が写っているか否かを判定する画像判定部(183、186)を備え、
前記識別部は、
前記ワイパが写っている前記画像を前記利用不可能な画像として識別することを特徴とする請求項1から請求項4のいずれかに記載の車両用撮影装置。 - 前記ワイパの作動が判定されているときに撮影された前記画像を前記利用不可能な画像として識別することを特徴とする請求項3に記載の車両用撮影装置。
- 前記取得部(123b、180、280)は、
前記ワイパの状態に基づいて、前記画像に写るノイズ要素の量(NS)を設定する設定部を提供しており、
前記識別部(123c)は、
前記ノイズ要素の量(NS)が所定の閾値(Nth)を上回らないときに撮影された前記画像を前記利用可能な画像として識別し、
前記ノイズ要素の量(NS)が所定の閾値(Nth)を上回るときに撮影された前記画像を前記利用不可能な画像として識別することを特徴とする請求項1から請求項6のいずれかに記載の車両用撮影装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221646A JP2014073737A (ja) | 2012-10-03 | 2012-10-03 | 車両用撮影装置 |
DE112013004876.0T DE112013004876T5 (de) | 2012-10-03 | 2013-10-03 | Fahrzeugnavigationssystem und Bildaufnahmeeinrichtung für ein Fahrzeug |
PCT/JP2013/005903 WO2014054289A1 (ja) | 2012-10-03 | 2013-10-03 | 車両用ナビゲーションシステムおよび車両用撮影装置 |
US14/428,121 US20150228194A1 (en) | 2012-10-03 | 2013-10-03 | Vehicle navigation system, and image capture device for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221646A JP2014073737A (ja) | 2012-10-03 | 2012-10-03 | 車両用撮影装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014073737A true JP2014073737A (ja) | 2014-04-24 |
JP2014073737A5 JP2014073737A5 (ja) | 2015-01-08 |
Family
ID=50748259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012221646A Pending JP2014073737A (ja) | 2012-10-03 | 2012-10-03 | 車両用撮影装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014073737A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168987A (ja) * | 2015-03-16 | 2016-09-23 | 日産自動車株式会社 | 車両用撮影装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06290256A (ja) * | 1993-03-31 | 1994-10-18 | Mitsubishi Electric Corp | 画像追尾装置 |
JPH09286279A (ja) * | 1996-04-18 | 1997-11-04 | Motohiro Okada | 車載用撮影装置の制御方法 |
JP2005214883A (ja) * | 2004-01-30 | 2005-08-11 | Denso Corp | カーナビゲーション装置 |
-
2012
- 2012-10-03 JP JP2012221646A patent/JP2014073737A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06290256A (ja) * | 1993-03-31 | 1994-10-18 | Mitsubishi Electric Corp | 画像追尾装置 |
JPH09286279A (ja) * | 1996-04-18 | 1997-11-04 | Motohiro Okada | 車載用撮影装置の制御方法 |
JP2005214883A (ja) * | 2004-01-30 | 2005-08-11 | Denso Corp | カーナビゲーション装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016168987A (ja) * | 2015-03-16 | 2016-09-23 | 日産自動車株式会社 | 車両用撮影装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014054289A1 (ja) | 車両用ナビゲーションシステムおよび車両用撮影装置 | |
US10882398B2 (en) | System and method for correlating user attention direction and outside view | |
JP5022609B2 (ja) | 撮像環境認識装置 | |
JP4668838B2 (ja) | 雨滴検出装置およびワイパー制御装置 | |
JP4556742B2 (ja) | 車両直下画像表示制御装置および車両直下画像表示制御プログラム | |
US20170174129A1 (en) | Vehicular visual information system and method | |
JP6453192B2 (ja) | 画像認識処理装置、及びプログラム | |
JP5910450B2 (ja) | 車両用ナビゲーションシステム | |
EP3396938B1 (en) | Imaging device and method for determining foreign matter | |
WO2014054288A1 (ja) | 車両用ナビゲーションシステム | |
JP2022184919A (ja) | 表示制御装置、表示制御方法 | |
JP2016222181A (ja) | 車両用撮像装置 | |
JP2014073737A (ja) | 車両用撮影装置 | |
US20150035982A1 (en) | Image capturing device for a vehicle | |
RU2706757C1 (ru) | Способ и блок управления для заднего обзора | |
US11643085B2 (en) | Drive assist apparatus and data collection system | |
JP2020085564A (ja) | 判定装置、車両制御装置、判定方法、判定プログラム | |
JP2014074627A (ja) | 車両用ナビゲーションシステム | |
JP7092081B2 (ja) | 走行環境評価システム | |
JP2006276964A (ja) | 車両用表示装置 | |
JP5910449B2 (ja) | 車両用ナビゲーションシステム | |
JP6997006B2 (ja) | 車載装置、サーバ、情報システム | |
US20220067887A1 (en) | System, method and device for heads up display for a vehicle | |
JP6086088B2 (ja) | ワイパー制御装置 | |
WO2020170835A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160315 |