JP2009184648A - 運転支援装置、運転支援方法及びプログラム - Google Patents
運転支援装置、運転支援方法及びプログラム Download PDFInfo
- Publication number
- JP2009184648A JP2009184648A JP2008029824A JP2008029824A JP2009184648A JP 2009184648 A JP2009184648 A JP 2009184648A JP 2008029824 A JP2008029824 A JP 2008029824A JP 2008029824 A JP2008029824 A JP 2008029824A JP 2009184648 A JP2009184648 A JP 2009184648A
- Authority
- JP
- Japan
- Prior art keywords
- blind spot
- image data
- driver
- spot area
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/202—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Instructional Devices (AREA)
Abstract
【課題】フロントピラーによる進行方向前方の死角領域の視界を補完することが可能となる運転支援装置、運転支援方法及びプログラムを提供する。
【解決手段】CPU41は、地図情報DB25に格納された地図情報から自車両2の前方の道路の形状に関する道路形状情報を取得する。また、CPU41は、運転者8の右側フロントピラー3によって生じる死角領域を算出する。そして、CPU41は、この算出した死角領域の少なくとも一部が、進行方向前方の道路に重なったと判定した場合には、カメラ4によって撮影された当該死角領域に対応する撮影画像をピラーディスプレイ7に表示する。その後、CPU41は、この算出した死角領域が、進行方向前方の道路に5秒以内に重ならないと判定した場合には、ピラーディスプレイ7の映像表示を停止する。
【選択図】図5
【解決手段】CPU41は、地図情報DB25に格納された地図情報から自車両2の前方の道路の形状に関する道路形状情報を取得する。また、CPU41は、運転者8の右側フロントピラー3によって生じる死角領域を算出する。そして、CPU41は、この算出した死角領域の少なくとも一部が、進行方向前方の道路に重なったと判定した場合には、カメラ4によって撮影された当該死角領域に対応する撮影画像をピラーディスプレイ7に表示する。その後、CPU41は、この算出した死角領域が、進行方向前方の道路に5秒以内に重ならないと判定した場合には、ピラーディスプレイ7の映像表示を停止する。
【選択図】図5
Description
本発明は、運転者の車両による死角方向の視界を補完する運転支援装置、運転支援方法及びプログラムに関するものである。
従来より、運転者の車両による死角方向の視界を補完する技術に関し種々提案されている。
例えば、地図情報、車速センサ及び方向センサから自車両が低速で信号機の無い交差点に近づいた場合には、自車両の進行方向に対して死角となる道路方向の画像をディスプレイに表示させるように構成された運転支援装置がある(例えば、特許文献1参照。)。
特開2000−238594号公報(段落(0059)〜(0062)、図21〜図24)
例えば、地図情報、車速センサ及び方向センサから自車両が低速で信号機の無い交差点に近づいた場合には、自車両の進行方向に対して死角となる道路方向の画像をディスプレイに表示させるように構成された運転支援装置がある(例えば、特許文献1参照。)。
しかしながら、前記した特許文献1に記載された運転支援装置では、自車両が交差点へ進入するタイミングに合わせて交差点画像を表示することができるが、進行方向前方の道路が交差点以外の場合、例えば、左カーブや右カーブ等の場合には、フロントピラーによる進行方向前方の死角領域の視界を補完することができないという問題がある。
そこで、本発明は、上述した問題点を解決するためになされたものであり、フロントピラーによる進行方向前方の死角領域の視界を補完することが可能となる運転支援装置、運転支援方法及びプログラムを提供することを目的とする。
前記目的を達成するため請求項1に係る運転支援装置は、自車両(2)の外部を撮影する撮影手段(4)から画像データを取得する画像データ取得手段(13)と、前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出手段(13)と、前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得手段(13)と、前記道路形状情報に基づいて前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定手段(13)と、前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データを出力するように制御し、前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御手段(13)と、を備えたことを特徴とする。
また、請求項2に係る運転支援装置は、請求項1に記載の運転支援装置(1)において、前記画像データ出力制御手段は、前記画像データを出力するように制御した後、前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に所定時間以上重ならない場合に、前記画像データを出力しないように制御することを特徴とする。
また、請求項3に係る運転支援装置は、請求項1又は請求項2に記載の運転支援装置(1)において、前記道路形状情報に基づいて前記自車両の進行方向前方の道路の形状が、所定距離以内で連続するカーブであるか否かを判定する連続カーブ判定手段(13)を備え、前記画像データ出力制御手段(13)は、前記道路形状情報に基づいて前記自車両の進行方向前方の道路の形状が、所定距離以内で連続するカーブであると判定された場合には、前記画像データを出力後、最後のカーブを通過するまで、前記画像データを連続して出力するように制御することを特徴とする。
また、請求項4に係る運転支援方法は、自車両の外部を撮影する撮影手段から画像データを取得する画像データ取得工程と、前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出工程と、前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得工程と、前記道路形状情報取得工程で取得した前記道路形状情報に基づいて前記算出工程で算出した前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定工程と、前記死角領域判定工程で前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データ取得工程で取得した画像データを出力するように制御し、前記死角領域判定工程で前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御工程と、を備えたことを特徴とする。
更に、請求項5に係るプログラムは、コンピュータに、自車両の外部を撮影する撮影手段から画像データを取得する画像データ取得工程と、前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出工程と、前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得工程と、前記道路形状情報取得工程で取得した前記道路形状情報に基づいて前記算出工程で算出した前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定工程と、前記死角領域判定工程で前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データ取得工程で取得した画像データを出力するように制御し、前記死角領域判定工程で前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御工程と、を実行させるためのプログラムである。
前記構成を有する請求項1に係る運転支援装置では、算出された自車両のフロントピラーによって生じる運転者の死角領域の少なくとも一部が、進行方向前方の道路に重なった場合には、運転者の死角領域に対応する画像データが出力されるため、該画像データを表示することが可能となる。これにより、運転者は、フロントピラーにより死角領域となった進行方向前方の道路状態を容易に把握することが可能となる。
また、運転者の死角領域が進行方向前方の道路に重なっていない場合には、運転者の死角領域に対応する画像データが出力されないため、該画像データは表示されない。これにより、運転者は、不必要な映像表示に注意を払うことを防止できる。
また、請求項2に係る運転支援装置では、運転者の死角領域に対応する画像データを表示後、運転者の死角領域が進行方向前方の道路に所定時間以上重ならない場合に、画像データの表示を停止する。これにより、運転者の死角領域に対応する画像表示の頻繁なON・OFF切り換えを防止して、運転者の煩わしさを無くすることが可能となる。
また、請求項3に係る運転支援装置では、自車両の進行方向前方の道路の形状が、所定距離以内で連続するカーブである場合には、最後のカーブを通過するまで、フロントピラーによって生じる運転者の死角領域に対応する画像データを連続して表示することが可能となる。これにより、運転者の死角領域に対応する画像表示の頻繁なON・OFF切り換えを防止して、運転者の煩わしさを無くすることが可能となる。
また、請求項4に係る運転支援方法と請求項5に係るプログラムにおいても、上記請求項1に係る運転支援装置と同様の効果を奏することができる。
以下、本発明に係る運転支援装置、運転支援方法及びプログラムをナビゲーション装置について具体化した一実施例に基づき図面を参照しつつ詳細に説明する。
[車両の概略構成]
先ず、本実施例に係るナビゲーション装置が搭載される車両の概略構成について図1乃至図3に基づいて説明する。図1は本実施例に係るナビゲーション装置1が搭載される車両2の外観図である。図2はカメラの設置態様を示した図である。図3は右側フロントピラーに設けられたピラーディスプレイの一例を示す図である。
先ず、本実施例に係るナビゲーション装置が搭載される車両の概略構成について図1乃至図3に基づいて説明する。図1は本実施例に係るナビゲーション装置1が搭載される車両2の外観図である。図2はカメラの設置態様を示した図である。図3は右側フロントピラーに設けられたピラーディスプレイの一例を示す図である。
図1乃至図3に示すように、車両2の室内のセンターコンソール又はパネル面には、ナビゲーション装置1が設置されている。また、車両2の右側フロントピラー3の外側には、カラー画像を撮像するCCDカメラ等により構成されたカメラ4が取り付けられている。また、図2に示すように、このカメラ4は、光軸方向Lを水平より所定角度下方に向けて設置される。また、カメラ4の光軸方向Lは車両2の右前方に向けられ、光軸方向Lを中心とした所定範囲内をカメラ4により周辺環境を撮影可能な撮影領域5とする。
また、図3に示すように、右側フロントピラー3の内側面には、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等から構成されたピラーディスプレイ7が取り付けられている。そして、カメラ4は走行時及び停車時に車両2の右前方を撮影し、その撮影された撮影画像はRAM42(図4参照)に一旦記憶される。その後に、後述のように右側フロントピラー3によって生じる死角領域に相当する範囲の画像が撮影画像から抽出され、ピラーディスプレイ7に表示される。尚、本実施例では、光軸方向Lは運転者8からの右側フロントピラー3の視認方向、即ち、運転者8から右側フロントピラー3により生じる死角領域の方向と同一方向となるように設定される。
また、車両2のフロントウィンドウW1の車室内から見て運転者8の前側の上端縁部には、運転者8の視点位置を検出するための左ドライバカメラ9A及び右ドライバカメラ9Bとがほぼ水平に配置されている。また、本実施例では、各ドライバカメラ9A、9Bによって撮影された画像データは、後述のように視点検出ECU(ElectronicControl Unit)51(図4参照)に入力され、運転者8の視点位置が検出されてナビゲーション装置1に出力される。そして、後述のようにナビゲーション装置1は、視点検出ECU51の検出結果に基づいて、右側フロントピラー3による運転者8の死角領域を算出する。
[ナビゲーション装置の概略構成]
次に、本実施例に係る車両2の制御系に係る構成について特にナビゲーション装置1を中心にして図4に基づき説明する。図4は車両2に搭載されるナビゲーション装置1を中心とした制御系を模式的に示すブロック図である。
次に、本実施例に係る車両2の制御系に係る構成について特にナビゲーション装置1を中心にして図4に基づき説明する。図4は車両2に搭載されるナビゲーション装置1を中心とした制御系を模式的に示すブロック図である。
図4に示すように、車両2の制御系は、ナビゲーション装置1と、このナビゲーション装置1に対して電気的に接続されたカメラ4、ピラーディスプレイ7、視点検出ECU51を基本にして構成され、各制御装置に対して所定の周辺機器が接続されている。
このナビゲーション装置1は、自車の現在位置(以下、「自車位置」という。)を検出する現在地検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーション制御部13と、操作者からの操作を受け付ける操作部14と、操作者に対して地図等の情報を表示する液晶ディスプレイ(LCD)15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、道路交通情報センタ(VICS:登録商標)等の情報センタとの間で相互に通信を行う通信装置17等から構成されている。また、ナビゲーション制御部13には、自車の走行速度を検出する車速センサ21が接続されている。
以下に、ナビゲーション装置1を構成する各構成要素について説明する。
図4に示すように、現在地検出部11は、GPS31、方位センサ32、距離センサ33、高度計(図示せず)等からなり、自車位置、自車方位等を検出することが可能となっている。
図4に示すように、現在地検出部11は、GPS31、方位センサ32、距離センサ33、高度計(図示せず)等からなり、自車位置、自車方位等を検出することが可能となっている。
また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記憶された地図情報データベース(地図情報DB)25、カメラパラメータデータベース(カメラパラメータDB)26及び所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。
また、地図情報DB25には、経路案内及び地図表示に必要な各種情報から構成されており、例えば、各新設道路を特定するための新設道路情報、地図を表示するための地図表示データ、各交差点に関する交差点データ、ノード点に関するノードデータ、道路(リンク)に関するリンクデータ、経路を探索するための探索データ、施設の一種である店舗等のPOI(Pointof Interest)に関する店舗データ、地点を検索するための検索データ等から構成されている。また、地図情報DB25の内容は、不図示の情報配信センタから通信装置17を介して配信された更新情報をダウンロードすることによって更新される。
また、カメラパラメータDB26は、カメラ4に関する各種パラメータが記憶されている。例えば、本実施例ではカメラパラメータDB26に記憶される情報として、カメラ4の車両2に対する設置位置、設置角度、撮影範囲、カメラ撮像平面(図6参照)等が記憶される。そして、ナビゲーション装置1のCPU41は、カメラパラメータDB26に記憶された各種パラメータを用いてカメラ4で撮影した撮影画像から、右側フロントピラー3により生じる死角領域に相当する画像を抽出する。
また、図4に示すように、ナビゲーション装置1を構成するナビゲーション制御部13は、ナビゲーション装置1の全体の制御を行う演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うに当たってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の走行状況に従って進行方向前方の道路の映像をピラーディスプレイ7に表示する画像表示処理プログラム(図5参照)が記憶されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置や、時間を計測するタイマ45等を備えている。
また、本実施例においては、前記ROM43に各種のプログラムが記憶され、前記データ記録部12に各種のデータが記憶されるようになっているが、プログラム、データ等を同じ外部記憶装置、メモリーカード等からプログラム、データ等を読み出して前記フラッシュメモリ44に書き込むこともできる。更に、メモリーカード等を交換することによって前記プログラム、データ等を更新することができる。
更に、前記ナビゲーション制御部13には、操作部14、液晶ディスプレイ15、スピーカ16、通信装置17の各周辺装置(アクチュエータ)が電気的に接続されている。
操作部14は、走行開始時の現在地を修正し、案内開始地点としての出発地及び案内終了地点としての目的地を入力する際や施設に関する情報の検索を行う際等に操作され、各種のキー等の複数の操作スイッチから構成される。そして、ナビゲーション制御部13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14としては、キーボード、マウス等や、液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。
また、液晶ディスプレイ15には、操作案内、操作メニュー、キーの案内、現在地から目的地までの誘導経路、誘導経路に沿った案内情報、交通情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。
また、液晶ディスプレイ15には、操作案内、操作メニュー、キーの案内、現在地から目的地までの誘導経路、誘導経路に沿った案内情報、交通情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。
また、スピーカ16は、ナビゲーション制御部13からの指示に基づいて、誘導経路に沿った走行案内や、交差点や横断歩道での停止又は安全確認を警告する音声案内等を出力する。ここで、案内される音声ガイダンスとしては、例えば、「200m先、○○交差点を右方向です。」等である。
そして、通信装置17は、情報配信センタと通信を行う携帯電話網等による通信手段であり、情報配信センタとの間で最もバージョンの新しい更新地図情報等の送受信を行う。また、通信装置17は情報配信センタに加えて、道路交通情報センタ(VICS(登録商標))等から送信された渋滞情報やサービスエリアの混雑状況等の各情報から成る交通情報を受信する。
また、視点検出ECU51は、ナビゲーション制御部13から送信された制御情報を受信するデータ受信部51Aを備えると共に、この受信した制御情報に基づき各ドライバカメラ9A、9Bを制御すると共に運転者8の顔の向き、目の位置、視点位置等を検出する視点位置検出部51Bを備えている。そして、視点検出ECU51は、ナビゲーション制御部13から受信した制御信号に基づいて、運転者8の頭部位置、顔の向き、目の位置、視点位置等のデータを出力する。
[画像表示処理]
次に、上記のように構成されたナビゲーション装置1のCPU41が実行する処理であって、走行状況に従って進行方向前方の道路の映像をピラーディスプレイ7に表示する画像表示処理について図5乃至図7に基づいて説明する。
図5は走行状況に従って進行方向前方の道路の映像をピラーディスプレイ7に表示する画像表示処理を示すフローチャートである。図6は車両2が走行する場合の死角領域の変化を示した図である。図7は車両2が右カーブを走行する場合のピラーディスプレイ7のON・OFFを示す説明図である。
尚、図5にフローチャートで示されるプログラムはナビゲーション装置1のナビゲーション制御部13が備えているROM43に記憶されており、CPU41によって所定時間毎に(例えば、約0.1秒毎である。)実行される。
次に、上記のように構成されたナビゲーション装置1のCPU41が実行する処理であって、走行状況に従って進行方向前方の道路の映像をピラーディスプレイ7に表示する画像表示処理について図5乃至図7に基づいて説明する。
図5は走行状況に従って進行方向前方の道路の映像をピラーディスプレイ7に表示する画像表示処理を示すフローチャートである。図6は車両2が走行する場合の死角領域の変化を示した図である。図7は車両2が右カーブを走行する場合のピラーディスプレイ7のON・OFFを示す説明図である。
尚、図5にフローチャートで示されるプログラムはナビゲーション装置1のナビゲーション制御部13が備えているROM43に記憶されており、CPU41によって所定時間毎に(例えば、約0.1秒毎である。)実行される。
図5に示すように、先ず、ステップ(以下、Sと略記する)11において、CPU41は、現在地検出部11により自車位置及び自車の向きを表す自車方位を検出して、自車位置を表す座標データ(例えば、緯度と経度のデータである。)と自車方位をRAM42に記憶する。また、CPU41は、地図情報DB25に格納される地図情報から自車両2の前方(例えば、自車位置から約200m〜300m前方までである。)の道路の形状に関する道路形状情報、例えば、ノードデータやリンクデータを取得してRAM42に記憶する。
ここで、ノードデータとしては、実際の道路の分岐点(交差点、T字路等も含む)、各道路に曲率半径等に応じて所定の距離ごとに設定されたノード点の座標(位置)、ノードが交差点に対応するノードであるか等を表すノード属性、ノードに接続するリンクの識別番号であるリンクIDのリストである接続リンク番号リスト、ノードにリンクを介して隣接するノードのノード番号のリストである隣接ノード番号リスト、各ノード点の標高等に関するデータである。
また、リンクデータとしては、道路を構成する各道路リンク(以下、「リンク」という。)に関してリンクの属する道路の幅員、勾(こう)配、カント、バンク、路面の状態、道路の車線数、車線数の減少する箇所、幅員の狭くなる箇所、踏切り等を表すデータが、コーナに関して、曲率半径、交差点、T字路、コーナの入口及び出口等を表すデータが、道路属性に関して、降坂路、登坂路等を表すデータが、道路種別に関して、国道、県道、細街路等の一般道のほか、高速自動車国道、都市高速道路、一般有料道路、有料橋等の有料道路を表すデータである。
そして、S12において、CPU41は、視点検出ECU51から運転者8の頭部位置、顔の向き、目の位置、視点位置等のデータを取得して、RAM42に記憶する。
続いて、S13において、CPU41は、車速センサ21の検出結果に基づいて自車両2の車速を取得する。そして、CPU41は、自車位置、自車方位や車速等の自車両2の走行状況を用いて、所定時間経過後の自車位置を予測し、更に、予測された位置にある自車両2の死角領域を算出する。尚、所定時間はカメラ4により周辺環境を撮影してから撮影画像をピラーディスプレイ7に表示するまでに必要な時間であり、その値はカメラ4やCPU41の性能によって決定される。例えば本実施例では約0.1秒とする。
続いて、S13において、CPU41は、車速センサ21の検出結果に基づいて自車両2の車速を取得する。そして、CPU41は、自車位置、自車方位や車速等の自車両2の走行状況を用いて、所定時間経過後の自車位置を予測し、更に、予測された位置にある自車両2の死角領域を算出する。尚、所定時間はカメラ4により周辺環境を撮影してから撮影画像をピラーディスプレイ7に表示するまでに必要な時間であり、その値はカメラ4やCPU41の性能によって決定される。例えば本実施例では約0.1秒とする。
ここで、上記S13で実行される所定時間経過後(即ち、撮影画像を表示する時点)の自車両2の死角領域の算出処理について図6を用いて詳細に説明する。
図6に示すように、先ず、CPU41は、上記S12で取得した運転者8の頭部位置、顔の向き、目の位置、視点位置等のデータと、予測した所定時間経過後の自車位置とに基づいて、所定時間経過後の自車位置を予測する。更に、予測された自車位置に基づいて、所定時間経過後の運転者8の頭部位置と視点位置を予測する。
そして、CPU41は、所定時間経過後における運転者8の頭部位置と視点位置の予測結果と、運転者8の頭部位置に対する右側フロントピラー3の位置と形状とに基づいて、所定時間経過後における運転者8の右側フロントピラー3により生じる死角範囲を算出する。
図6に示すように、先ず、CPU41は、上記S12で取得した運転者8の頭部位置、顔の向き、目の位置、視点位置等のデータと、予測した所定時間経過後の自車位置とに基づいて、所定時間経過後の自車位置を予測する。更に、予測された自車位置に基づいて、所定時間経過後の運転者8の頭部位置と視点位置を予測する。
そして、CPU41は、所定時間経過後における運転者8の頭部位置と視点位置の予測結果と、運転者8の頭部位置に対する右側フロントピラー3の位置と形状とに基づいて、所定時間経過後における運転者8の右側フロントピラー3により生じる死角範囲を算出する。
そして、所定時間経過後の運転者8の右側フロントピラー3により生じる死角範囲に基づいて、所定時間経過後の仮想平面Xを設定する。ここで、仮想平面Xは、カメラ4からの視界と運転者8からの視界の歪みを補正するための平面であり、運転者8の視点を原点とし、運転者の視角に合わせて設定した仮想面である。尚、仮想平面Xは、運転者8の予測頭部位置と右側フロントピラー3の中心を結ぶ線Hに垂直であって、且つ車両2から所定距離(例えば、約30mである。)の位置に設定される。
続いて、CPU41は、所定時間経過後の運転者8の死角範囲と仮想平面Xとの重複領域P1〜P2を算出し、この重複領域P1〜P2の各端点P1、P2の位置座標(例えば、経度と緯度である。)をRAM42に記憶する。そして、運転者8の頭部位置と各端点P1、P2を結ぶ三角形の領域をピラーディスプレイ7に表示する死角領域61としてRAM42に記憶する。
その後、S14において、CPU41は、上記S11で取得した自車両2の進行方向前方の道路の形状に関する道路形状情報を読み出し、上記S13で算出した所定時間経過後の運転者8の死角領域の少なくとも一部が、進行方向前方の道路に重なるか否かを判定する判定処理を実行する。
そして、所定時間経過後の運転者8の死角領域の少なくとも一部が、進行方向前方の道路に重なったと判定された場合には(S14:YES)、CPU41は、S15の処理に移行する。例えば、図7に示すように、自車両2の進行方向前方の道路70の道路形状が右カーブであった場合に、運転者8の死角領域71の端点P1が右カーブに重なっていない状態から、所定時間経過後の運転者8の死角領域72の端点P1が右カーブに重なった場合には(S14:YES)、CPU41は、S15の処理に移行する。
続いて、図5に示すように、S15において、CPU41は、カメラ4によって撮影された運転者8の右側フロントピラー3によって生じる死角領域の撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示を開始後、当該処理を終了する。
ここで、カメラ4によって撮影された運転者8の右側フロントピラー3によって生じる死角領域の撮影画像データのピラーディスプレイ7への表示処理について図6に基づいて説明する。
図6に示すように、CPU41は、上記S13の処理において取得した仮想平面Xに対応するカメラ撮影平面Yを取得する。尚、カメラ撮影平面Yは予めカメラ4の設計値(解像度や車体に対する設置角度等)等から決定されており、カメラパラメータDB26に記憶されている。そして、カメラ4はピントをカメラ撮影平面Yに合わせて撮影する。
図6に示すように、CPU41は、上記S13の処理において取得した仮想平面Xに対応するカメラ撮影平面Yを取得する。尚、カメラ撮影平面Yは予めカメラ4の設計値(解像度や車体に対する設置角度等)等から決定されており、カメラパラメータDB26に記憶されている。そして、カメラ4はピントをカメラ撮影平面Yに合わせて撮影する。
続いて、CPU41は、運転者8の死角範囲と仮想平面Xとの重複領域P1〜P2をカメラ4の視界と一致させた視界領域(即ち、カメラから見た所定時間経過後の運転者の死角領域)を算出し、算出した視界領域とカメラ撮影平面Yとの重複する領域Q1〜Q2を、所定時間後(撮像画像を表示する時点)の車両2の死角領域に相当する画像範囲62として特定する。そして、CPU41は、画像範囲62の画像をカメラ4のカメラ撮影平面Yにピントを合わせて撮影した撮影画像から抽出する。
そして、CPU41は、この抽出した画像範囲62の画像を仮想平面Xに投影変換する。尚、この投影変換は、カメラ撮影平面Yの内、画像範囲62にある画像の各画素を、仮想平面Xの各画素に座標変換する処理であり、公知の座標変換を用いて行われる。更に、CPU41は、仮想平面Xに投影変換した画像を、ROM43に記憶された右側フロントピラー3の形状に合わせて変換し、ピラーディスプレイ7に出力するための画像データとする。その後、CPU41は、この画像データをピラーディスプレイ7に出力することにより、右側フロントピラー3の内側に設けられたピラーディスプレイ7に、該右側フロントピラー3によって遮られた進行方向前方の道路の映像が表示される。
一方、図5に示すように、所定時間経過後の運転者8の死角領域が、進行方向前方の道路に重なっていないと判定された場合には(S14:NO)、CPU41は、S16の処理に移行する。例えば、図7に示すように、自車両2の進行方向前方の道路70の道路形状が右カーブであった場合に、運転者8の死角領域73が右カーブに重なっていた状態から、所定時間経過後の運転者8の死角領域74の端点P1が右カーブに重なっていない場合には(S14:NO)、CPU41は、S16の処理に移行する。
S16において、CPU41は、死角領域の撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の映像を表示しているか否かを判定する判定処理を実行する。
そして、ピラーディスプレイ7に運転者8の右側フロントピラー3によって遮られた進行方向前方の映像を表示していない場合には(S16:NO)、CPU41は、当該処理を終了する。
そして、ピラーディスプレイ7に運転者8の右側フロントピラー3によって遮られた進行方向前方の映像を表示していない場合には(S16:NO)、CPU41は、当該処理を終了する。
一方、ピラーディスプレイ7に運転者8の右側フロントピラー3によって遮られた進行方向前方の映像を表示している場合には(S16:YES)、CPU41は、S17の処理に移行する。S17において、CPU41は、現在位置から約5秒後までに、運転者8の死角領域が、再度道路に重なるか否かを判定する判定処理を実行する。尚、5秒以内に限らず、ピラーディスプレイ7の映像表示の頻繁なON・OFF切り換えを防止する適切な時間であればよい。
具体的には、CPU41は、上記S11で取得した自車両2の進行方向前方の道路の形状に関する道路形状情報を再度読み出す。また、CPU41は、自車位置、自車方位や車速等の自車両2の走行状況を用いて、現在位置から約0.1秒毎の自車位置を予測し、更に、この約0.1秒毎の予測された位置における運転者8の右側フロントピラー3による各死角領域を算出する。尚、CPU41は、現在位置から約5秒後までの自車両2の0.1秒毎に予測された各位置における運転者8の各死角領域を算出する。
続いて、CPU41は、現在位置から約5秒後まで算出した運転者8の各死角領域について、いずれかの死角領域の少なくとも一部が、進行方向前方の道路に重なるか否かを判定する判定処理を実行する。
そして、現在位置から約5秒後まで算出した運転者8の各死角領域について、いずれかの死角領域の少なくとも一部が、進行方向前方の道路に重なった場合には(S17:YES)、CPU41は、再度S15以降の処理を実行後、当該処理を終了する。
そして、現在位置から約5秒後まで算出した運転者8の各死角領域について、いずれかの死角領域の少なくとも一部が、進行方向前方の道路に重なった場合には(S17:YES)、CPU41は、再度S15以降の処理を実行後、当該処理を終了する。
一方、現在位置から約5秒後まで算出した運転者8の各死角領域について、いずれの死角領域も進行方向前方の道路に重ならない場合には(S17:NO)、CPU41は、S18の処理に移行する。S18において、CPU41は、ピラーディスプレイ7へのカメラ4によって撮影された運転者8の右側フロントピラー3によって生じる死角領域の撮影画像データの出力を停止して、ピラーディスプレイ7による映像表示を停止した後、当該処理を終了する。
[上記実施例の効果]
以上詳細に説明した通り、本実施例に係るナビゲーション装置1では、CPU41は、地図情報DB25に格納された地図情報から自車両2の前方の道路の形状に関する道路形状情報を取得する。また、CPU41は、所定時間経過後の運転者8の右側フロントピラー3によって生じる死角領域を算出する。そして、CPU41は、この算出した死角領域の少なくとも一部が、進行方向前方の道路に重なったと判定した場合には、カメラ4によって撮影された当該死角領域に対応する撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示を開始する(S11〜S14:YES〜S15)。
以上詳細に説明した通り、本実施例に係るナビゲーション装置1では、CPU41は、地図情報DB25に格納された地図情報から自車両2の前方の道路の形状に関する道路形状情報を取得する。また、CPU41は、所定時間経過後の運転者8の右側フロントピラー3によって生じる死角領域を算出する。そして、CPU41は、この算出した死角領域の少なくとも一部が、進行方向前方の道路に重なったと判定した場合には、カメラ4によって撮影された当該死角領域に対応する撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示を開始する(S11〜S14:YES〜S15)。
従って、運転者8はピラーディスプレイ7に表示された映像を見ることによって、進行方向前方の道路を右側フロントピラー3によって遮られることなく連続して注視することが可能となり、安全運転に役立てることができる。
また、運転者8の死角領域が道路に重ならなくなっても、この死角領域が約5秒以内に再度、道路に重なる場合には、CPU41は、死角領域に対応する撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示を継続する(S14:NO〜S17:YES〜S15)。
従って、例えば、S字カーブ等のように、右カーブと左カーブが連続する道路形状の場合には、図7に示すように、運転者8の死角領域74の端点P1が右カーブ70に重ならなくなってから約5秒後までに、左カーブを通過後、再度、次の右カーブになって、運転者8の死角領域が道路に重なる場合等には、ピラーディスプレイ7には、運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示が継続される。
これにより、ピラーディスプレイ7の映像表示の頻繁なON・OFF切り換えを防止して、運転者8の煩わしさを無くすることが可能となる。
これにより、ピラーディスプレイ7の映像表示の頻繁なON・OFF切り換えを防止して、運転者8の煩わしさを無くすることが可能となる。
一方、運転者8の死角領域が道路に重ならなくなってから約5秒以内に、再度道路に重ならない場合には、CPU41は、ピラーディスプレイ7による運転者8の右側フロントピラー3によって遮られた進行方向前方の映像表示を停止する(S17:NO〜S18)。
これにより、運転者8の死角領域が進行方向前方の道路に重なっていない場合には、ピラーディスプレイ7の映像表示が停止されるため、運転者8は不必要な死角領域の映像表示に注意を払うことを防止できる。
これにより、運転者8の死角領域が進行方向前方の道路に重なっていない場合には、ピラーディスプレイ7の映像表示が停止されるため、運転者8は不必要な死角領域の映像表示に注意を払うことを防止できる。
尚、本発明は前記実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。例えば、以下のようにしてもよい。
(A)上記S11で取得した自車両2の前方(例えば、自車位置から約300m前方までである。)の道路の形状が、S字状等の連続するカーブである場合には、CPU41は、先ず、上記S15の処理で、カメラ4によって撮影された運転者8の右側フロントピラー3によって生じる死角領域の撮影画像データをピラーディスプレイ7に出力して、該運転者8の右側フロントピラー3によって遮られた進行方向前方の道路の映像表示を開始する。その後、CPU41は、自車両2が最後のカーブを通過するまで、カメラ4によって撮影された運転者8の右側フロントピラー3によって生じる死角領域の撮影画像データをピラーディスプレイ7に連続して出力して、該運転者8の右側フロントピラー3によって遮られた死角領域の映像を連続表示する。そして、CPU41は、自車両2が最後のカーブを通過した場合には、上記S16の処理を実行するようにしてもよい。これにより、ピラーディスプレイ7の映像表示の頻繁なON・OFF切り換えを防止して、運転者8の煩わしさを無くすることが可能となる。
(B)また、例えば、自車両2の左側フロントピラーにもカメラ4を設けると共に、この左側フロントピラーの内側にピラーディスプレイ7を設けるようにしてもよい。そして、CPU41は、左右の各フロントピラーによって生じた死角領域が、進行方向前方の道路に重なった場合には、該各フロントピラーによって遮られる進行方向前方の道路の映像を各ピラーディスプレイ7に表示するようにしてもよい。これにより、運転者8は、左右の各フロントピラーによって遮られる進行方向前方の道路を、各フロントピラーに遮られることなく注視することが可能となる。
(C)また、例えば、上記S13において、CPU41は、現在時点での自車位置及び自車方位から自車両2の現在時点における死角領域を算出するようにしてもよい。そして、上記S15において、CPU41は、上記S13で設定した所定時間経過後の仮想平面Xに替えて、現在時点での仮想平面X2を設定する、つまり、運転者8の現在の頭部位置と右側フロントピラー3の中心を結ぶ線Hに垂直であって、且つ車両2から所定距離(例えば、約30mである。)の位置に仮想平面X2を設定するようにしてもよい。そして、CPU41は、仮想平面X2に対応するカメラ4の現在の撮影画像データを取得して、この仮想平面X2に投影変換する。更に、CPU41は、この仮想平面X2に投影変換した画像をピラーディスプレイ7に表示するための画像データして出力するようにしてもよい。これにより、運転者8の死角領域の画像をピラーディスプレイ7にリアルタイムで表示することができる。
1 ナビゲーション装置
2 車両(自車両)
3 右側フロントピラー
4 カメラ
7 ピラーディスプレイ
8 運転者
11 現在地検出部
12 データ記録部
13 ナビゲーション制御部
25 地図情報DB
26 カメラパラメータDB
41 CPU
42 RAM
43 ROM
51 視点検出ECU
2 車両(自車両)
3 右側フロントピラー
4 カメラ
7 ピラーディスプレイ
8 運転者
11 現在地検出部
12 データ記録部
13 ナビゲーション制御部
25 地図情報DB
26 カメラパラメータDB
41 CPU
42 RAM
43 ROM
51 視点検出ECU
Claims (5)
- 自車両の外部を撮影する撮影手段から画像データを取得する画像データ取得手段と、
前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出手段と、
前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得手段と、
前記道路形状情報に基づいて前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定手段と、
前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データを出力するように制御し、前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御手段と、
を備えたことを特徴とする運転支援装置。 - 前記画像データ出力制御手段は、前記画像データを出力するように制御した後、前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に所定時間以上重ならない場合に、前記画像データを出力しないように制御することを特徴とする請求項1に記載の運転支援装置。
- 前記道路形状情報に基づいて前記自車両の進行方向前方の道路の形状が、所定距離以内で連続するカーブであるか否かを判定する連続カーブ判定手段を備え、
前記画像データ出力制御手段は、前記道路形状情報に基づいて前記自車両の進行方向前方の道路の形状が、所定距離以内で連続するカーブであると判定された場合には、前記画像データを出力後、最後のカーブを通過するまで、前記画像データを連続して出力するように制御することを特徴とする請求項1又は請求項2に記載の運転支援装置。 - 自車両の外部を撮影する撮影手段から画像データを取得する画像データ取得工程と、
前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出工程と、
前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得工程と、
前記道路形状情報取得工程で取得した前記道路形状情報に基づいて前記算出工程で算出した前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定工程と、
前記死角領域判定工程で前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データ取得工程で取得した画像データを出力するように制御し、前記死角領域判定工程で前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御工程と、
を備えたことを特徴とする運転支援方法。 - コンピュータに、
自車両の外部を撮影する撮影手段から画像データを取得する画像データ取得工程と、
前記自車両のフロントピラーによって生じる運転者の死角領域を算出する算出工程と、
前記自車両の進行方向前方の道路の形状に関する道路形状情報を取得する道路形状情報取得工程と、
前記道路形状情報取得工程で取得した前記道路形状情報に基づいて前記算出工程で算出した前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なるか否かを判定する死角領域判定工程と、
前記死角領域判定工程で前記運転者の死角領域の少なくとも一部が前記進行方向前方の道路に重なったと判定された場合には、前記画像データ取得工程で取得した画像データを出力するように制御し、前記死角領域判定工程で前記運転者の死角領域が前記進行方向前方の道路に重なっていないと判定された場合には、前記画像データを出力しないように制御する画像データ出力制御工程と、
を実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008029824A JP2009184648A (ja) | 2008-02-11 | 2008-02-11 | 運転支援装置、運転支援方法及びプログラム |
EP08022167A EP2088571A2 (en) | 2008-02-11 | 2008-12-19 | Driving support device, driving support method and program |
US12/341,015 US20090201173A1 (en) | 2008-02-11 | 2008-12-22 | Driving support apparatus, a driving support method and program |
CNA2009100030241A CN101509778A (zh) | 2008-02-11 | 2009-01-08 | 驾驶支援装置、驾驶支援方法及程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008029824A JP2009184648A (ja) | 2008-02-11 | 2008-02-11 | 運転支援装置、運転支援方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009184648A true JP2009184648A (ja) | 2009-08-20 |
Family
ID=40591945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008029824A Pending JP2009184648A (ja) | 2008-02-11 | 2008-02-11 | 運転支援装置、運転支援方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20090201173A1 (ja) |
EP (1) | EP2088571A2 (ja) |
JP (1) | JP2009184648A (ja) |
CN (1) | CN101509778A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010184534A (ja) * | 2009-02-10 | 2010-08-26 | Toyota Motor Corp | 死角表示装置 |
CN103358996A (zh) * | 2013-08-13 | 2013-10-23 | 吉林大学 | 汽车a柱透视化车载显示装置 |
JP2014534697A (ja) * | 2011-10-14 | 2014-12-18 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | 車両用のバーチャルディスプレイシステム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8733938B2 (en) | 2012-03-07 | 2014-05-27 | GM Global Technology Operations LLC | Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same |
US10013881B2 (en) | 2016-01-08 | 2018-07-03 | Ford Global Technologies | System and method for virtual transformation of standard or non-connected vehicles |
US10262539B2 (en) * | 2016-12-15 | 2019-04-16 | Ford Global Technologies, Llc | Inter-vehicle warnings |
JP6794918B2 (ja) * | 2017-04-28 | 2020-12-02 | トヨタ自動車株式会社 | 画像送信プログラム、及び、画像送信装置 |
JP7147527B2 (ja) * | 2018-12-10 | 2022-10-05 | トヨタ自動車株式会社 | 支援装置、支援方法およびプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000238594A (ja) | 1998-12-25 | 2000-09-05 | Aisin Aw Co Ltd | 運転支援装置 |
-
2008
- 2008-02-11 JP JP2008029824A patent/JP2009184648A/ja active Pending
- 2008-12-19 EP EP08022167A patent/EP2088571A2/en not_active Withdrawn
- 2008-12-22 US US12/341,015 patent/US20090201173A1/en not_active Abandoned
-
2009
- 2009-01-08 CN CNA2009100030241A patent/CN101509778A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010184534A (ja) * | 2009-02-10 | 2010-08-26 | Toyota Motor Corp | 死角表示装置 |
JP2014534697A (ja) * | 2011-10-14 | 2014-12-18 | コンチネンタル オートモーティブ システムズ インコーポレイテッドContinental Automotive Systems, Inc. | 車両用のバーチャルディスプレイシステム |
CN103358996A (zh) * | 2013-08-13 | 2013-10-23 | 吉林大学 | 汽车a柱透视化车载显示装置 |
Also Published As
Publication number | Publication date |
---|---|
US20090201173A1 (en) | 2009-08-13 |
EP2088571A2 (en) | 2009-08-12 |
CN101509778A (zh) | 2009-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6375754B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP6221873B2 (ja) | 自動運転支援装置、自動運転支援方法及びプログラム | |
JP6217412B2 (ja) | 自動運転支援装置、自動運転支援方法及びプログラム | |
JP6241341B2 (ja) | 自動運転支援装置、自動運転支援方法及びプログラム | |
JP6252235B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP6390276B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP6197691B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP4915739B2 (ja) | 運転支援装置 | |
JP6217432B2 (ja) | 運転支援装置、運転支援方法及びプログラム | |
JP6269104B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP6520066B2 (ja) | 自動運転支援装置、自動運転支援方法及びプログラム | |
JP6365134B2 (ja) | 走行支援システム、走行支援方法及びコンピュータプログラム | |
JP6161553B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP2009184648A (ja) | 運転支援装置、運転支援方法及びプログラム | |
JP2007323342A (ja) | 描画システム | |
JP6303676B2 (ja) | 自動運転支援装置、自動運転支援方法及びプログラム | |
JP6361403B2 (ja) | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム | |
JP2008123443A (ja) | 運転支援装置 | |
JP4561722B2 (ja) | 運転支援装置 | |
JP6221805B2 (ja) | 運転支援装置、運転支援方法及びプログラム | |
JP2009129290A (ja) | 信号機検出装置、信号機検出方法及びプログラム | |
JP6160509B2 (ja) | 運転支援装置、運転支援方法及びプログラム | |
JP2012032366A (ja) | カーナビゲーションシステム | |
JP5644634B2 (ja) | 車両情報取得装置、車両情報取得方法及びプログラム | |
JP2008045882A (ja) | ナビゲーション装置 |