JP4497133B2 - 運転支援方法及び運転支援装置 - Google Patents

運転支援方法及び運転支援装置 Download PDF

Info

Publication number
JP4497133B2
JP4497133B2 JP2006192033A JP2006192033A JP4497133B2 JP 4497133 B2 JP4497133 B2 JP 4497133B2 JP 2006192033 A JP2006192033 A JP 2006192033A JP 2006192033 A JP2006192033 A JP 2006192033A JP 4497133 B2 JP4497133 B2 JP 4497133B2
Authority
JP
Japan
Prior art keywords
pillar
driver
vehicle
imaging
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006192033A
Other languages
English (en)
Other versions
JP2008022267A (ja
Inventor
智氣 窪田
実 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2006192033A priority Critical patent/JP4497133B2/ja
Priority to US11/822,077 priority patent/US8094190B2/en
Priority to DE602007006380T priority patent/DE602007006380D1/de
Priority to EP07013028A priority patent/EP1878618B1/en
Priority to CN200710127092XA priority patent/CN101106703B/zh
Publication of JP2008022267A publication Critical patent/JP2008022267A/ja
Application granted granted Critical
Publication of JP4497133B2 publication Critical patent/JP4497133B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転支援方法及び運転支援装置に関する。
従来より、安全運転を支援する装置として、ドライバーの死角となる領域を車載カメラによって撮影し、ディスプレイ等に表示する車載システムが開発されている。その一つとして、車両のフロントピラーによって生じる死角領域を車載カメラで撮影し、撮影画像をフロントピラーの内側に表示するシステムが提案されている。フロントピラーは、フロントウィンドウやルーフを支える左右の支柱であって、運転席に着座したドライバーからみて斜め前方に位置し、ドライバーの視界を一部遮ってしまうものの、安全性のために所定の太さを確保しなければならない部材である。
上記したシステムは、車体に取り付けられたカメラと、カメラから出力された映像信号を画像処理する画像プロセッサと、フロントピラー内側に設けられ画像処理された映像を表示するディスプレイや、フロントピラー内側に画像を投影するプロジェクタ等を備えている。これによれば、あたかもフロントピラーを透過して外部の背景を視認できるような状態になるので、交差点等において、車両の前側方の道路形状や、前側方にある障害物を確認することができるが、ドライバーの動きに応じた映像の表示、実際に見える風景と映像との連続性等が課題になっている。
特許文献1には、左右のドアミラーに一つずつ取り付けられたカメラによって車両周辺を撮影し、撮影映像をピラーの内側に投影する装置が記載されている。この装置では、眼球の座標を検出し、その位置によって、カメラが撮影した画像データを補正する。
特開2005−184225号公報
しかし、上記した装置では、一つのカメラで撮影した画像データを用いているため、眼球の座標に合わせて座標変換しても、表示できる画像には限界がある。即ち、例えば、車両右側の運転席に着座したドライバーが前屈みになって、フロントウィンドウから車両の前方右側をのぞき込んだ場合に見える障害物が、ドライバーがシートに背を付けた姿勢(以下、基準姿勢という)で前側方を見たときには見えないこともある。また、同じ障害物を見た場合でも、前屈みになって前方右側を見た場合、障害物は立体であるため、基準姿勢をとった場合には見えない側面が見えることがある。上記した装置の画像処理では、2次元の座標変換しかできないため、カメラで撮影されていない障害物、又は撮影されていない障害物の側面までは表示することができない。このため、ドライバーが基準姿勢以外の姿勢をとったとき、フロントピラーに表示される背景画像と、フロントウィンドウ、ドアウィンドウを介して見える背景との連続性が著しく損なわれる虞がある。
本発明は、上記問題点に鑑みてなされたものであり、その目的は、ドライバーの姿勢に合わせた映像をピラーに表示することができる運転支援方法及び運転支援装置を提供することにある。
上記問題点を解決するために、請求項1に記載の発明は、車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援方法であって、前記車両の運転席に着座したドライバーの位置を検出し、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動するとともに、前記起動した撮影手段から取得した映像信号に基づき前記ピラーの内側に映像を表示することを要旨とする。
請求項2に記載の発明は、車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援装置において、前記車両の運転席に着座したドライバーの位置を検出する検出手段と、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動する起動手段と、前記起動した撮影手段から映像信号を取得する映像信号取得手段と、前記起動した撮影手段から取得した前記映像信号に基づき、前記車両のピラーの内側に、前記ピラーによって生じる死角領域に相当する映像を表示する出力制御手段とを備えたことを要旨とする。
請求項3に記載の発明は、請求項2に記載の運転支援装置において、前記起動手段は、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に基づき、前記ドライバーの視界に近い範囲を撮影する撮影手段を選択し、前記選択した撮影手段を起動することを要旨とする。
請求項4に記載の発明は、車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援装置において、前記車両の運転席に着座したドライバーの位置を検出する検出手段と、前記検出手段によるドライバーの位置に基づき、前記ピラーによって生じる死角の角度を算出する角度演算手段と、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの死角の角度に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動する起動手段と、前記起動した撮影手段から映像信号を取得する映像信号取得手段と、前記起動した撮影手段から取得した前記映像信号に基づき、前記車両のピラーの内側に、前記ピラーによって生じる死角領域に相当する映像を表示する出力制御手段とを備えたことを要旨とする。
請求項に記載の発明は、請求項に記載の運転支援装置において、前記起動手段は、前記ピラーによって生じる死角の車幅方向の水平軸からの最大角度が所定角度未満である場合に、前記車両の前側方を中心に撮影する第1撮影手段を選択して起動し、前記最大角度が所定角度以上である場合に、前記車両の前方を中心に撮影する第2撮影手段を選択して起動することを要旨とする。
請求項に記載の発明は、請求項2〜のいずれか1項に記載の運転支援装置において、前記検出手段は、前記ドライバーの位置として前記ドライバーの頭部の座標を検出することを要旨とする。
請求項に記載の発明は、請求項2〜のいずれか1項に記載の運転支援装置において、前記起動した撮影手段から取得した映像信号に対し、前記ドライバーの位置に応じた画像処理を行う画像処理手段を備えたことを要旨とする。
請求項8に記載の発明は、請求項2〜7のいずれか1項に記載の運転支援装置において、前記車両が交差点に接近したか否かを判断する判断手段を備え、前記出力制御手段は、前記判断手段が前記車両が交差点に接近したと判断すると、前記起動した撮影手段から取得した映像信号に基づき前記ピラーの内側に映像を表示することを要旨とする。
請求項1に記載の発明によれば、ドライバーの位置を検出し、その位置に応じて、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の撮影手段の中から、選択した撮影手段を起動する。そして、起動した撮影手段によって撮影された映像を、ピラー内側に表示する。このため、ドライバーが姿勢を変えても、そのときのドライバーの位置に合わせた撮影手段を起動できるので、ピラーに表示される映像を、フロントウィンドウ等を介して見る実際の風景との連続性が高い映像にすることができる。
請求項2に記載の発明によれば、運転支援装置は、ドライバーの位置を検出し、その位置に応じて、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の撮影手段の中から、選択した撮影手段を起動する。そして、起動した撮影手段によって撮影された映像を、ピラー内側に表示する。このため、ドライバーが姿勢を変えても、ドライバーの位置に合わせた撮影手段を起動できるので、ピラーに表示される映像を、フロントウィンドウ等を介して見える実際の風景との連続性が高い映像にすることができる。
請求項3に記載の発明によれば、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の撮影手段のうち、ドライバーの位置に基づき、ドライバーの視界に近い範囲を撮影する。このため、ドライバーが姿勢を変えても、ドライバーの視界に合わせた撮影手段を起動できるので、ピラーに表示される映像を、フロントウィンドウ等を介して見える実際の風景との連続性が高い映像にすることができる。
請求項4に記載の発明によれば、運転支援装置は、ドライバーの位置を検出し、その位置に応じて、ピラーによって生じる死角の角度を算出する。そして、死角の角度に応じて、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する撮影手段を選択し、選択した撮影手段を起動する。また、起動した撮影手段によって撮影された映像を、ピラー内側に表示する。このため、ドライバーが姿勢を変えても、フロントウィンドウ等から見える実際の背景との連続性が高い画像をピラーに表示できる。
請求項に記載の発明によれば、死角の水平軸からの最大角度が所定角度未満である場
合に、前側方を中心に撮影する第1撮影手段を選択して起動し、死角の角度の最大値が所定角度以上である場合に、前方を中心に撮影する前記第2撮影手段を選択して起動する。即ち、死角の向きがほぼ前側方である場合に、前側方を撮影する第1撮影手段を選択する。死角の向きが前方に近い場合に、前方を撮影する第2撮影手段を選択する。このため、ドライバーが姿勢を変えても、フロントウィンドウ等から見える実際の背景との連続性が高い映像をピラーに表示できる。
請求項に記載の発明によれば、検出手段は、ドライバーの位置として、ドライバーの頭部の座標を検出するので、ドライバーの姿勢を比較的正確に特定することができる。
請求項に記載の発明によれば、ドライバーの位置に応じた撮影手段を選択して起動するだけでなく撮影手段から取得した映像信号に対し、ドライバーの位置に応じて画像処理を行うので、実際の風景と連続性の高い画像をピラーに表示できる。
請求項8に記載の発明によれば、車両が交差点に接近したと判断すると、起動した撮影手段から取得した映像信号に基づきピラーの内側に映像を表示する。このため、交差点付近等で、他車両や歩行者などの有無を確認することができる。
以下、本発明を具体化した一実施形態を図1〜図17に従って説明する。図1は、自動車に実装された運転支援システム1の構成を説明するブロック図である。
運転支援システム1は、車両C(図2参照)に搭載され、図1に示すように、運転支援装置としての運転支援ユニット2、表示手段としてのディスプレイ3、プロジェクタ4、スピーカ5、撮像手段としての第1カメラ6及び第2カメラ7、第1〜3位置検出センサ8a〜8cを備えている。
運転支援ユニット2は、検出手段、起動手段、角度演算手段及び判断手段としての制御部10、不揮発性のメインメモリ11、ROM12、GPS受信部13を備えている。制御部10は、CPU、MPU又はASIC等であって、ROM12に格納された運転支援プログラムに従って、各処理の主制御を行う。メインメモリ11は、制御部10の演算結果を一時記憶する。
制御部10は、GPS衛星からGPS受信部13が受信した、緯度・経度等の座標を示す位置検出信号を入力して、電波航法により自車両の絶対位置を算出する。また、制御部10は、運転支援ユニット2の車両側I/F部14を介して、自車に設けられた車速センサ30及びジャイロ31から車速パルス、角速度をそれぞれ入力する。そして、制御部10は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。
また、運転支援ユニット2は、地理データ記憶部15を備えている。地理データ記憶部15は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地理データ記憶部15には、目的地までの経路を探索するための地図データとしての各経路ネットワークデータ(以下、経路データ16という)と、ディスプレイ3に地図画面3aを出力するための各地図描画データ17とが記憶されている。
経路データ16は、全国を区画したメッシュ内の道路に関するデータである。経路データ16は、各メッシュの識別子であるメッシュID、メッシュ内の各リンクの識別子を示すリンクID、リンクコスト等のデータを有している。制御部10は、この経路データ1
6を用いて、目的地までの推奨経路を探索したり、車両Cが交差点等の案内地点に接近しているか否かを判断する。
また、地図描画データ17は、道路形状、背景等を描画するためのデータであって、全国の地図を分割したメッシュ毎に格納されている。制御部10は、地図描画データ17の道路形状に基づいて、車両Cの前方に、所定の曲率以上のカーブがあるか否かを判断する。
図1に示すように、運転支援ユニット2は、地図描画プロセッサ18を備えている。地図描画プロセッサ18は、自車位置周辺の地図を描画するための地図描画データ17を地理データ記憶部15から読出す。そして、地図出力用のデータを生成し、図示しないVRAMに一時記憶する。さらに、地図出力用データに基づく映像信号をディスプレイ3に出力し、図1に示すような地図画面3aを表示する。また、地図描画プロセッサ18は、この地図画面3aに、自車位置を示す自車位置指標3bを重畳する。
また、運転支援ユニット2は、音声プロセッサ24を備えている。音声プロセッサ24は、図示しない音声ファイルを有し、例えば目的地までの経路を案内する音声をスピーカ5から出力する。さらに、運転支援ユニット2は、外部入力I/F部25を備えている。外部入力I/F部25は、ディスプレイ3に隣接された操作スイッチ26、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づいた入力信号を入力し、制御部10に出力する。
また、運転支援ユニット2は、映像信号取得手段としての映像データ入力部22と、この映像データ入力部22から画像データGを入力する出力制御手段及び画像処理手段としての画像プロセッサ20を備えている。映像データ入力部22は、制御部10の制御に基づいて、車両Cに設けられた第1カメラ6又は第2カメラ7を駆動して、第1カメラ6又は第2カメラ7によって撮影された映像信号Mを入力する。
第1カメラ6は、カラー画像を撮像するカメラであって、レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)等を備えている。図2に示すように、この第1カメラ6は、車両Cの右側のフロントピラーP(以下、単にピラーPという)の外側下端部に、光軸を車両Cの前方右側に向けて取り付けられている。本実施形態では、運転席は車両Cの右側に配置されているため、第1カメラ6は、運転席側に配置される。この第1カメラ6は、車両Cの前方右側と、車両Cの右側の一部を含む側方領域Z1を撮像する。
第2カメラ7は、第1カメラ6と同様の構成であって、図3に示すように、ピラーPの外側上端部に設けられている。即ち、第1カメラ6及び第2カメラ7は、斜めに傾斜したピラーPの両端に取り付けられ、それらの位置は、車両Cのシャフトに略平行な長さ方向(図中X方向)、車幅方向(図中Y方向)及び鉛直方向(図中Z方向)において異なっている。第2カメラ7は、第1カメラ6よりも長さ方向(X方向)において後方の位置で、車両Cの前方を中心とした前方領域Z2を撮像する。従って、第1カメラ6は、第2カメラ7よりも車両Cの前方右側を中心とした画角であるため、第2カメラ7に比べ、車両Cの前方右側にある障害物がその撮影範囲に入りやすい。
第1カメラ6又は第2カメラ7の撮影による映像信号Mは、映像データ入力部22によってデジタル化されて画像データGとなり、画像プロセッサ20に出力される。画像プロセッサ20は、画像データGを画像処理して、画像処理した画像データGをプロジェクタ4に出力する。
プロジェクタ4は、図4に示すように、ルーフRの内側であって、ドライバーDが着座するフロントシートFの鉛直方向上方付近に、車両Cの右側のピラーP(図5参照)の内面に映像を投影可能に取り付けられている。図5に示すように、ピラーPの内側面Paには、ピラーPの形状に合わせて切断されたスクリーンSCが貼着されている。プロジェクタ4の焦点は、このスクリーンSCに合わせて調整されている。尚、ピラーPの内側面Paがプロジェクタ4から出力された投影光を受光して鮮明な画像を表示できる材質及び形状からなる場合には、スクリーンSCは省略してもよい。
また、図1に示すように運転支援ユニット2のROM12には、マスクパターン40及びピラー形状41が製造工程時に予め記憶されている。図6に示すように、マスクパターン40は、画像データGにマスクをかけるためのデータであって、ピラーPの内面形状に沿った画像表示部40aと、マスク40bとから構成されている。画像プロセッサ20は、画像表示部40aの領域は、第1カメラ6又は第2カメラ7により撮影された画像データGから画素値をとり、マスク40bの領域は、プロジェクタ4の非表示用の画素値にして、出力用データODを生成する。出力用データODを生成すると、画像プロセッサ20は、その出力用データODをプロジェクタ4に出力する。その結果、ピラーPのスクリーンSCにのみ画像が投影され、そのスクリーンSCの周囲のフロントウィンドウW1又はドアウィンドウW2には、マスク40bにより画像が投影されないようになっている。
ピラー形状41は、ピラーの外形をパターン又は座標で示したデータであって、車両Cによって異なるデータである。制御部10は、このピラー形状41に基づき、ピラーPの外形を示す、長さ方向、車幅方向及び鉛直方向の3次元の座標(X,Y,Z)を取得することができる。また、ピラーPの幅や長さも、3次元の座標を用いたデータとして取得することができる。
また、図1に示すように、運転支援ユニット2は、検出手段を構成するセンサI/F部23を備えている。センサI/F部23は、第1〜3位置検出センサ8a〜8cから、検出信号を入力する。第1〜3位置検出センサ8a〜8cは、超音波センサであって、図7に示すように、車室内であって、フロントシートFに着座したドライバーDの周囲に取り付けられている。第1位置検出センサ8aは、ルームミラーRM近傍に取り付けられ、ドライバーDの頭部D1とほぼ同じ高さか、若干高い位置に位置している。
図8に示すように、第2位置検出センサ8bは、ドアウィンドウW2(図5参照)の上端付近に、ドライバーDの斜め前方右側に位置するように取り付けられている。また、本実施形態では、第2位置検出センサ8bは、第1位置検出センサ8aの長さ方向(X方向)の位置がほぼ同じになっている。
図7に示すように、第3位置検出センサ8cは、フロントシートFのヘッド部FHに埋設されている。第3位置検出センサ8cは、第1及び第2位置検出センサ8a,8bよりも鉛直方向(Z方向)下方に位置している。また、図8に示すように、第3位置検出センサ8cは、車幅方向(Y方向)において第1及び第2位置検出センサ8a,8bの間に位置し、第1及び第2位置検出センサ8a,8bよりも長さ方向(図8中X方向)において、後方に位置している。
各位置検出センサ8a〜8cの図示しないセンサヘッドから発信された超音波は、ドライバーDの頭部D1に反射する。各位置検出センサ8a〜8cは、超音波を発信してから反射波を受信するまでの時間を計測し、その計測時間に基づいて、頭部D1までの各相対距離L1〜L3をそれぞれ算出する。算出された相対距離L1〜L3は、センサI/F部23を介して制御部10に出力される。尚、各位置検出センサ8a〜8cからの信号に基づいて、センサI/F部23が頭部D1までの相対距離L1〜L3を算出するようにして
もよい。
図1に示すように、不揮発性のメインメモリ11には、頭部D1の中心座標Dcを算出するための頭部座標テーブル11aが記憶されている。頭部座標テーブル11aは、第1〜3位置検出センサ8a〜8cからドライバーDの頭部D1までの相対距離L1〜L3と、頭部D1の中心座標Dcの標準値とを紐付けている。即ち、運転席に着座した状態で、標準的な体型のドライバーDの頭部D1が移動し得る範囲と、第1〜3位置検出センサ8a〜8cの検出範囲とを合わせて、頭部移動範囲Z3(図8参照)を予め設定しておく。この頭部移動範囲Z3内では、第1〜3位置検出センサ8a〜8cにより検出される相対距離L1〜L3と、頭部D1の中心座標Dcとの組み合わせはパターン化されているので、各相対距離L1〜L3を用いて、頭部座標テーブル11aを参照することにより、頭部D1の中心座標Dcが得られる。尚、頭部座標テーブル11aとして、ドライバーの体型に応じた複数のテーブルを記憶してもよいし、ドライバーDの座高、目の位置等の体型に関するデータを予め運転支援ユニット2に登録し、その登録データにより制御部10が頭部座標テーブル11aを生成してもよい。
次に、制御部10は、算出した中心座標Dcに基づき、ピラーPによって遮られる死角θ1,θ2を算出する。図9及び図10を用いて詳述すると、頭部D1の中心座標DcとピラーPとの水平方向における接線T1,T2(図9参照)と、鉛直方向における接線T3,T4(図10参照)を算出し、接線T1,T2がなす角度及び接線T3,T4がなす角度を算出する。
水平方向における接線T1,T2を算出するとき、図10に示すように、制御部10は、ROM12に記憶されたピラー形状41に基づき、ピラーPの長手方向の側端のうち、頭部D1の中心座標Dcと同じ高さの接点P1,P2を求める。そして、図9に示すように、それらの接点P1,P2と、中心座標Dcとを接続して、接線T1,T2を求める。尚、接線T1,T2を求めるための接点P1,P2は、中心座標Dcと同じ高さでなくてもよく、例えば、ピラーPの長手方向の中点でもよい。
また、制御部10は、接線T1,T2によって形成される水平方向の死角θ1を算出する。さらに、制御部10は、図9に示すように、車幅方向(Y方向)の水平軸としての水平線Hyを0度として、この水平線Hyからの接線T1の角度θa(以下、最小角度θaという)、水平線Hyからの接線T2の角度θb(以下、最大角度θbという)を算出する。
一方、鉛直方向における接線T3,T4を算出する際は、制御部10は、ピラー形状41に基づき、図10に示すように、頭部D1の中心座標Dcと、ピラーPの下端点P3、上端点P4とを結ぶ接線T3,T4を算出する。そして、各接線T3,T4がなす角度を、鉛直方向の死角θ2とする。また、中心座標DcからのX方向の水平線Hxを0度として、水平線Hxから接線T3までの角度θc(以下、最小角度θcという)、水平線Hxからの接線T4の角度θd(以下、最大角度θdという)を算出する。
制御部10は、死角θ1,θ2、最大角度θb,θd、最小角度θa,θcを算出すると、まず、水平方向の最大角度θbが所定角度A(例えば45度)未満であるか否か、及び鉛直方向の最大角度θdが所定角度B(例えば15度)以上であるか否かを判断する。尚、所定角度A,Bの大きさは、車両Cの構造に応じて適宜設定されるため、上記した角度に限定されない。
最大角度θb<所定角度A、且つ最大角度θd≧所定角度Bである場合には、ドライバーDの視界(視野範囲)は、車両Cの前方右側に向き、比較的遠方まで見えるため、第1
カメラ6によって撮影を行う。それ以外の場合には、ドライバーDは、前方右側をみても車両Cの近傍しか見えない姿勢をとっているため、前方を中心に撮影する第2カメラ7によって撮影する。
例えば、図9に示すように、頭部D1が頭部移動範囲Z3のうち前方右側にある場合には、水平方向の最大角度θbは、45度以上となる。また、図10に示すように、頭部D1が頭部移動範囲Z3のうち前方右側にある場合、鉛直方向の最大角度θdは15度以上になる。このように、鉛直方向の最大角度θdは所定角度B以上となるが、水平方向の最大角度θbは所定角度A以上となるので、制御部10は、前方右側にある頭部D1の位置に近い第2カメラ7によって撮影を行う。
第2カメラ7は、撮影を行うと映像データ入力部22を介して画像プロセッサ20に画像データGを出力する。画像プロセッサ20は、上記したように画像処理を行い、マスクパターン40を用いて出力用データODを生成する。そして生成した出力用データODをプロジェクタ4に出力する。従って、頭部D1が頭部移動範囲Z3の前方右側にあるときにフロントウィンドウW1からみえる風景と連続した画像をピラーPのスクリーンSCに表示できる。
同様に、例えば図11及び図12に示すように、頭部D1の中心座標Dcが頭部移動範囲Z3の右後方にあるとき、水平方向の最大角度θbは所定角度A(45度)以上となり、鉛直方向の最大角度θ、所定角度B(15度)未満となる。即ち、ドライバーDは、前方を見た状態であるので、その視界が、第2カメラ7の画角に近くなる。従って、この場合にも、頭部D1の位置に近い第2カメラ7を起動する。
また、図13に示すように、頭部D1の中心座標Dcが頭部移動範囲Z3のうち左前方にあるとき、水平方向の最大角度θbは所定角度A(45度)未満になり、且つ鉛直方向
の最大角度θdは所定角度(15度)以上になる。このような場合、ドライバーDの頭部D1は、長さ方向(X方向)においてフロントウィンドウW1に近づき、鉛直方向(Z方向)において比較的低い位置にあるとともに、車幅方向(Y方向)においてピラーPから比較的離れた状態になっている。即ちドライバーDは、ピラーPをよけて、フロントウィンドウW1から前方右側を覗き込んだような状態であるため、前方右側の障害物等が視認しやすく、フロントシートFに背を付けた姿勢では見えない障害物や、障害物の一部が見えることがある。従って、制御部10は、前方右側及び右側方を中心に撮影する第1カメラ6を駆動する。
第1カメラ6は、撮影を行うと映像データ入力部22を介して、画像プロセッサ20に画像データGを出力する。画像プロセッサ20は、上記したように、画像データGを座標変換した後、出力用データODを生成し、生成した出力用データODをプロジェクタ4に出力する。このため、ドライバーが前屈みになって、前方右側の他車両や障害物等をみている場合、この姿勢で見ることができる前方右側の他車両や障害物をスクリーンSCに投影することができる。
さらに、図14に示すように、頭部D1の中心座標Dcが頭部移動範囲Z3の左後方にあるとき、水平方向の最大角度θbは所定角度A以上になり、鉛直方向の最大角度θdは、所定角度未満になる。このような場合、ドライバーDは前方を中心にみている状態であるため、第2カメラ7を起動する。
次に、本実施形態の処理手順について、図15に従って説明する。運転支援ユニット2の制御部10は、ピラーPの内側に背景画像を投影する投影モードの開始を待つ(ステップS1)。例えば、タッチパネル操作、操作スイッチ26が操作され、制御部10が外部
入力I/F部25を介して、モード開始要求を受信した場合に、投影モードを開始すると判断する。或いは、初期状態で投影モードが起動する場合には、イグニッションモジュール(図示略)からのオン信号に基づき、投影モードを開始すると判断してもよい。
投影モードを開始すると判断すると(ステップS1においてYES)、制御部10は、経路データ16又は地図描画データ17の道路データに基づき、交差点又はカーブに接近したか否かを判断する(ステップS2)。具体的には、制御部10は、車両Cの現在位置が、T字路を含む交差点又は所定の曲率以上のカーブから所定距離範囲(例えば200m)内に進入したと判断すると、交差点又はカーブに接近したと判断する。
交差点又はカーブに接近したと判断すると(ステップS2においてYES)、制御部10は、各位置検出センサ8a〜8cを用いて、ドライバーDの頭部位置を検出する(ステップS3)。このとき、制御部10は、センサI/F部23を介して、各位置検出センサ8a〜8cから、頭部D1までの相対距離L1〜L3を取得する。そして各相対距離L1〜L3と頭部座標テーブル11aとを参照して、頭部D1の中心座標Dcを特定する。
続いて、制御部10は、中心座標Dcを用いて、上記したように水平方向の接線T1,T2と鉛直方向の接線T3,T4を算出し、水平方向の死角θ1、鉛直方向の死角θ2を算出する。
各死角θ1,θ2を算出すると、制御部10は、水平方向の死角θ1の最大角度θbが所定角度A未満、且つ鉛直方向の死角θ2の最大角度θdが所定角度B以上であるか否かを判断する(ステップS4)。
最大角度θbが所定角度A以上、又は最大角度θdが所定角度B未満であると判断した場合(ステップS4においてNO)、ドライバーDは前方を向いた状態か、車両Cの前方右側のうち車両近傍をみている状態であるので、制御部10は、そのときのドライバーDの視界に近い画角の第2カメラ7を起動して、前方領域Z2を撮影する(ステップS6)。第2カメラ7は、映像信号Mを映像データ入力部22に出力し、映像データ入力部22は、映像信号MをA/D変換して、画像データGを画像プロセッサ20に出力する。
また、画像プロセッサ20は、映像データ入力部22から入力した画像データGを、頭部D1の中心座標Dcに合わせて画像処理する(ステップS7)。即ち、中心座標Dcに合わせて撮影するカメラ6,7を変更するだけでなく、そのときの中心座標Dcに合わせた座標変換等の公知の画像処理をすることにより、より実際の背景に近い画像にする。このとき、画像プロセッサ20は、ROM12からマスクパターン40を読み込み、マスクパターン40の画像表示部40aには、画像データGの画素値を読み込み、その他の領域はプロジェクタ4の非表示用の画素値を読み込み、出力用データODを生成する。
出力用データODを生成すると、画像プロセッサ20は出力用データODをプロジェクタ4に出力し、プロジェクタ4は、その出力用データODをD/A変換して、ピラーPのスクリーンSCに背景画像を投影する(ステップS8)。その結果、図16に示すように、スクリーンSCに映像としての背景画像IMが表示される。図16に示す背景画像IMは、前方を中心に撮影する第2カメラ7によって撮影されているため、前方を見ているドライバーDが、フロントウィンドウW1及びドアウィンドウW2を介して見える実際の風景と、背景画像IMとの連続性を良好にすることができる。
背景画像IMをスクリーンSCに表示すると、制御部10は、車両Cが交差点又はカーブから離れたか否かを判断する(ステップS9)。車両Cが交差点又はカーブに接近中であるか又は進入していると判断した場合には(ステップS9においてNO)、ステップS
3に戻り、制御部10は、各位置検出センサ8a〜8cを制御して、頭部D1の中心座標Dcを算出する。
そして、車両Cが交差点に到達すると、ドライバーDが前屈みになり、車両Cの進行方向と直交する方向の道路をのぞき込み、他車両や歩行者等の有無を確認し、右折する場合には、直交する道路の形状等を確認する。この場合、ドライバーDの頭部D1は、ピラーから左側に離れ、前方に移動する。その結果、死角θ1の最大角度θbが所定角度A(45度)未満となり,死角θ2の最大角度θdが所定角度B(15度)以上になる(ステップS4においてYES)。このとき制御部10は、そのときのドライバーDの視界に近い範囲である側方領域Z1を撮影する第1カメラ6により撮影を行う(ステップS5)。第1カメラ6は、映像信号Mを映像データ入力部22に出力し、映像データ入力部22は、映像信号MをA/D変換して、画像データGを画像プロセッサ20に出力する。
また、画像プロセッサ20は、映像データ入力部22から入力した画像データGを、頭部D1の中心座標Dcに合わせて画像処理して(ステップS7)、出力用データODを生成する。出力用データODを生成すると、画像プロセッサ20は出力用データODをプロジェクタ4に出力し、プロジェクタ4は、その出力用データODをD/A変換して、ピラーPのスクリーンSCに背景画像を投影する(ステップS8)。その結果、図17に示すように、スクリーンSCに背景画像IMが表示される。背景画像IMには、ドライバーDがフロントシートFに背を付けた状態では見えない道路形状や障害物等が表示されている。また、フロントウィンドウW1及びドアウィンドウW2を介して見える実際の風景と、背景画像IMとの連続性が良好になっている。
そして、車両Cが交差点又はカーブから離れたと判断すると(ステップS9においてYES)、制御部10は、投影モードが終了であるか否かを判断する(ステップS10)。例えば、制御部10は、タッチパネル操作又は操作スイッチ26が操作されたり、又はイグニッションモジュールのオフ信号を入力すると、投影モードが終了したと判断して(ステップS10においてYES)、処理を終了する。投影モードを終了しないと判断すると(ステップS10においてNO)、ステップS2に戻り、車両Cが交差点又はカーブに接近するまで待機する。そして、車両Cが交差点又はカーブに接近すると(ステップS2においてYES)、上記した処理を繰り返す。
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、運転支援ユニット2の制御部10は、第1〜3位置検出センサ8a〜8cに基づき、ドライバーDの頭部D1の中心座標Dcを算出するようにした。また、その頭部D1の位置でのピラーPによる死角θ1,θ2を算出し、各死角θ1の最大角度θbが所定角度A(45度)未満、且つ死角θ2の最大角度θdが所定角度B(15度)以上の場合には、車両Cの側方を撮影する第1カメラ6を起動するようにした。また、これ以外の場合には、車両Cの側方を撮影する第2カメラ7を起動するようにした。そして、第1又は第2カメラ6,7によって撮影した画像データGを、中心座標Dcに合わせて画像処理し、生成した出力用データODをプロジェクタ4に出力するようにした。プロジェクタ4は、ピラーPの内側面のスクリーンSCに、その出力用データODを投影するようにした。このため、ドライバーDが前屈みになって前方右側を見たときにも、フロントシートFに背を付けた姿勢のときにも、各姿勢に応じた画角から撮影された背景画像IMが表示されるので、実際の風景との連続性が良好な背景画像IMを表示することができ、ひいては安全運転も支援することができる。
(2)上記実施形態では、運転支援ユニット2の制御部10は、ドライバーDの頭部D1の中心座標Dcを検出するようにした。そして、その中心座標Dcに基づき死角θ1,θ2を算出するので、死角θ1,θ2と、最大角度θb及び最小角度θcとを比較的正確
に算出することができる。
(3)上記実施形態では、ドライバーDの姿勢に応じて第1カメラ6又は第2カメラ7を選択するだけでなく、画像プロセッサ20により、各カメラ6,7から入力した画像データGに対し座標変換を行うようにした。このため、フロントウィンドウW1及びドアウィンドウW2からみえる実際の風景と背景画像IMとの連続性をより良好にすることができる。
(4)上記実施形態では、制御部10は、頭部D1の中心座標Dcに基づき、死角θ1の最大角度θbと死角θ2の最大角度θdとを算出するようにした。そして、最大角度θb、最大角度θdの大きさにより、カメラ6,7を選択するようにした。このため、ドライバーDの死角の向きに基づきカメラ6,7を選択するので、ドライバーDの姿勢に合った、連続性の高い背景画像IMを的確に表示することができる。
尚、本実施形態は以下のように変更してもよい。
・上記実施形態では、制御部10は、経路データ16に基づいて車両Cが交差点に接近したか否かを判断し、地図描画データ17に基づいて車両Cが所定の曲率以上のカーブに接近したか否かを判断するようにしたが、地図描画データ17又は他のデータに基づいて交差点の有無を判断してもよい。また、経路データ16又は他のデータに基づいて、所定の曲率以上のカーブの有無を判断してもよい。
・上記実施形態では、位置検出センサ8a〜8cをルームミラーRM近傍、ドアウィンドウW2の上端付近、フロントシートFのヘッド部FHに設けたが、その他の位置に設けてもよい。また、頭部D1の位置を検出するセンサを3つにしたが、2つ又は4つ以上でもよい。さらに、位置検出センサ8a〜8cを超音波センサとしたが、赤外線センサ等、その他のセンサでもよい。
・上記実施形態では、超音波センサからなる位置検出センサ8a〜8cによって、ドライバーDの頭部D1を検出するようにしたが、運転席近傍にあるカメラによって、運転席周辺を撮影し、特徴点検出や、パターンマッチング処理等の画像処理により、ドライバーの頭部を検出するようにしてもよい。
・上記実施形態では、相対距離L1〜L3と頭部座標テーブル11aとを参照して、頭部D1の中心座標Dcを算出するようにしたが、制御部10により、テーブルを用いずに、相対距離L1〜L3に基づき算出してもよい。
・上記実施形態では、頭部D1の中心座標Dcと、上記した水平方向の最大角度θb、鉛直方向の最大角度θdとを関連付けたテーブルを、メインメモリ11等に格納するようにしてもよい。そして、中心座標Dcが算出された際に、そのテーブルに基づいて最大角度θb及び最大角度θdを算出するようにしてもよい。
・上記実施形態では、映像データ入力部22が画像データGを生成するようにしたが、各カメラ6,7内でA/D変換して画像データGを生成するようにしてもよい。
・上記実施形態では、水平方向の死角θ1の最大角度θdが所定角度A未満、且つ鉛直方向の死角θ2の最大角度θdが所定角度B以上である場合に、第1カメラ6によって撮影するようにした。これ以外に、水平方向の死角θ1の最大角度θbが所定角度A未満であるか否かのみを判断するようにし、最大角度θbが所定角度A未満であるときに、第1カメラ6によって撮影するようにしてもよい。又は、鉛直方向の死角θ2の最大角度θdが所定角度B以上であるか否かのみを判断し、最大角度θdが所定角度B以上である場合に、第1カメラ6によって撮影するようにしてもよい。
・上記実施形態では、死角θ1,θ2の大きさによって、第1及び第2カメラ6,7のいずれかを選択するようにしてもよい。
・上記実施形態では、頭部D1の中心座標Dcから、ドライバーDの死角θ1,θ2を算出するようにしたが、中心座標Dcが頭部移動範囲Z3内のうち、どの範囲に含まれるかによって、第1カメラ6又は第2カメラ7を選択するようにしてもよい。例えば、ドライバーDが前屈みになっているときには、頭部D1が頭部移動範囲Z3内のうち前方左側にあると判断することにより、第1カメラ6を起動するようにしてもよい。また、頭部D1が頭部移動範囲Z3内のうち前方右側又は後方にあると判断したとき、第2カメラ7を起動するようにしてもよい。このようにすると、運転支援ユニット2の処理が軽減され、車両Cの移動に伴って変化する実際の風景と連続する背景画像IMを比較的容易に表示できる。
・上記実施形態では、車両Cに2つの各カメラ6,7を設けるようにしたが、3つ以上のカメラを設置してもよい。この場合でも、上記したように、ドライバーDの死角θ1,θ2又は頭部D1の中心座標Dcに基づき、各カメラの中から撮影を行うカメラを選択することにより、ドライバーの姿勢に応じた背景画像IMを表示できる。
・上記実施形態では、運転席側のピラーP(本実施形態では右側のフロントピラー)に背景画像IMを表示するようにしたが、運転席と反対側のピラーに背景画像を表示するようにしてもよい。この場合にも、頭部D1の座標と、ピラーによって遮られる死角の角度を算出し、その角度に応じて、起動するカメラを変更する。
・上記実施形態では、プロジェクタ4により、ピラーPの内側に背景画像IMを投影するようにしたが、ピラーPの内側に薄型のディスプレイを設け、画像プロセッサ20からそのディスプレイに出力用データODを出力しても良い。
本実施形態の運転支援システムのブロック図。 第1カメラの撮像範囲の説明図。 第2カメラの撮像範囲の説明図。 プロジェクタ及びピラーの位置を説明する説明図。 ピラーを内側からみた側面図。 マスクパターンの説明図。 側面からみたセンサの説明図。 上方からみたセンサの説明図。 頭部が前方右側にあるときの水平方向の死角の説明図。 頭部が前方右側にあるときの鉛直方向の死角の説明図。 頭部が後方右側にあるときの水平方向の死角の説明図。 頭部が後方右側にあるときの鉛直方向の死角の説明図。 頭部が前方左側にあるときの水平方向の死角の説明図。 頭部が後方左側にあるときの水平方向の死角の説明図。 本実施形態の処理手順の説明図。 ピラーに投影される背景画像の説明図。 ピラーに投影される背景画像の説明図。
符号の説明
1…運転支援システム、2…運転支援装置としての運転支援ユニット、3…ディスプレイ、6…撮影手段としての第1カメラ、7…撮影手段としての第2カメラ、10…検出手段、起動手段、角度演算手段及び判断手段としての制御部、20…出力制御手段及び画像処理手段としての画像プロセッサ、22…映像信号取得手段としての映像データ入力部、23…検出手段を構成するセンサI/F部、C…車両、D…ドライバー、D1…頭部、Hy…水平軸としての水平線、IM…映像としての背景画像、M…映像信号、P…ピラー、θ1,θ2…死角、θb,θd…最大角度。

Claims (8)

  1. 車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援方法であって、
    前記車両の運転席に着座したドライバーの位置を検出し、一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動するとともに、前記起動した撮影手段から取得した映像信号に基づき前記ピラーの内側に映像を表示することを特徴とする運転支援方法。
  2. 車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援装置において、
    前記車両の運転席に着座したドライバーの位置を検出する検出手段と、
    一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動する起動手段と、
    前記起動した撮影手段から映像信号を取得する映像信号取得手段と、
    前記起動した撮影手段から取得した前記映像信号に基づき、前記車両のピラーの内側に、前記ピラーによって生じる死角領域に相当する映像を表示する出力制御手段と
    を備えたことを特徴とする運転支援装置。
  3. 請求項2に記載の運転支援装置において、
    前記起動手段は、
    一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの位置に基づき、前記ドライバーの視界に近い範囲を撮影する撮影手段を選択し、前記選択した撮影手段を起動することを特徴とする運転支援装置。
  4. 車両に取り付けられた撮影手段を用いて、前記車両のピラーによって生じる死角領域を撮影し、前記撮影手段によって撮影された映像を前記ピラーの内側に表示する運転支援装置において、 前記車両の運転席に着座したドライバーの位置を検出する検出手段と、
    前記検出手段によるドライバーの位置に基づき、前記ピラーによって生じる死角の角度を算出する角度演算手段と、
    一つのピラーによって生じる死角領域についてそれぞれ異なる範囲を撮影する複数の前記撮影手段のうち、前記ドライバーの死角の角度に応じて撮影を行う撮影手段を選択し、前記選択した撮影手段を起動する起動手段と、
    前記起動した撮影手段から映像信号を取得する映像信号取得手段と、
    前記起動した撮影手段から取得した前記映像信号に基づき、前記車両のピラーの内側に、前記ピラーによって生じる死角領域に相当する映像を表示する出力制御手段と
    を備えたことを特徴とする運転支援装置。
  5. 請求項4に記載の運転支援装置において、
    前記起動手段は、前記ピラーによって生じる死角の車幅方向の水平軸からの最大角度が所定角度未満である場合に、前記車両の前側方を中心に撮影する第1撮影手段を選択して起動し、前記最大角度が所定角度以上である場合に、前記車両の前方を中心に撮影する第2撮影手段を選択して起動することを特徴とする運転支援装置。
  6. 請求項2〜5のいずれか1項に記載の運転支援装置において、
    前記検出手段は、前記ドライバーの位置として前記ドライバーの頭部の座標を検出することを特徴とする運転支援装置。
  7. 請求項2〜6のいずれか1項に記載の運転支援装置において、
    前記起動した撮影手段から取得した映像信号に対し、前記ドライバーの位置に応じた画像処理を行う画像処理手段を備えたことを特徴とする運転支援装置。
  8. 請求項2〜7のいずれか1項に記載の運転支援装置において、
    前記車両が交差点に接近したか否かを判断する判断手段を備え、
    前記出力制御手段は、前記判断手段が前記車両が交差点に接近したと判断すると、前記起動した撮影手段から取得した映像信号に基づき前記ピラーの内側に映像を表示することを特徴とする運転支援装置。
JP2006192033A 2006-07-12 2006-07-12 運転支援方法及び運転支援装置 Expired - Fee Related JP4497133B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006192033A JP4497133B2 (ja) 2006-07-12 2006-07-12 運転支援方法及び運転支援装置
US11/822,077 US8094190B2 (en) 2006-07-12 2007-07-02 Driving support method and apparatus
DE602007006380T DE602007006380D1 (de) 2006-07-12 2007-07-03 Verfahren und Vorrichtung zur Fahrunterstützung
EP07013028A EP1878618B1 (en) 2006-07-12 2007-07-03 Driving support method and apparatus
CN200710127092XA CN101106703B (zh) 2006-07-12 2007-07-04 驾驶支援方法以及驾驶支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006192033A JP4497133B2 (ja) 2006-07-12 2006-07-12 運転支援方法及び運転支援装置

Publications (2)

Publication Number Publication Date
JP2008022267A JP2008022267A (ja) 2008-01-31
JP4497133B2 true JP4497133B2 (ja) 2010-07-07

Family

ID=38621968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006192033A Expired - Fee Related JP4497133B2 (ja) 2006-07-12 2006-07-12 運転支援方法及び運転支援装置

Country Status (5)

Country Link
US (1) US8094190B2 (ja)
EP (1) EP1878618B1 (ja)
JP (1) JP4497133B2 (ja)
CN (1) CN101106703B (ja)
DE (1) DE602007006380D1 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4497133B2 (ja) * 2006-07-12 2010-07-07 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
US8645001B2 (en) * 2007-09-04 2014-02-04 International Business Machines Corporation Method and system for blind spot identification and warning utilizing visual indicators
JP4412380B2 (ja) * 2007-10-02 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及びコンピュータプログラム
US8489284B2 (en) * 2008-08-21 2013-07-16 International Business Machines Corporation Automated dynamic vehicle blind spot determination
EP2168815B1 (en) 2008-09-24 2014-06-04 Robert Bosch GmbH Method and device for detecting possibly colliding objects in a blind spot area
JP5263520B2 (ja) * 2008-11-14 2013-08-14 アイシン・エィ・ダブリュ株式会社 表示制御システム、表示制御方法、及び表示制御プログラム
JP5263519B2 (ja) * 2008-11-14 2013-08-14 アイシン・エィ・ダブリュ株式会社 表示制御システム、表示制御方法、及び表示制御プログラム
JP2010179850A (ja) * 2009-02-06 2010-08-19 Toyota Motor Corp 車両用表示装置
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
CN104081763B (zh) * 2012-01-17 2018-09-14 日本先锋公司 图像处理装置、图像处理服务器、图像处理方法、图像处理程序以及记录介质
US8733938B2 (en) 2012-03-07 2014-05-27 GM Global Technology Operations LLC Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same
DE102012203795A1 (de) * 2012-03-12 2013-09-12 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Einstellen und/oder Nachjustieren eines Spiegels in einem Kraftfahrzeug
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
WO2014162417A1 (ja) * 2013-04-01 2014-10-09 パイオニア株式会社 ヘッドアップディスプレイ
US20150009100A1 (en) * 2013-07-02 2015-01-08 Denso Corporation Projection type image display device
WO2015013311A1 (en) * 2013-07-22 2015-01-29 Johnson Controls Technology Company Vehicle imaging system
WO2015019122A1 (en) * 2013-08-07 2015-02-12 Audi Ag Visualization system,vehicle and method for operating a visualization system
DE102013216994A1 (de) * 2013-08-27 2015-03-05 Robert Bosch Gmbh Geschwindigkeitsassistent für ein Kraftfahrzeug
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
JP5920380B2 (ja) * 2014-02-26 2016-05-18 トヨタ自動車株式会社 画像投影装置及び運転支援装置
US9756319B2 (en) * 2014-02-27 2017-09-05 Harman International Industries, Incorporated Virtual see-through instrument cluster with live video
JP6065296B2 (ja) * 2014-05-20 2017-01-25 パナソニックIpマネジメント株式会社 画像表示システム、および画像表示システムに用いられるディスプレイ
JP6372388B2 (ja) * 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
CN105235596A (zh) * 2014-07-11 2016-01-13 上海通用汽车有限公司 用于消除车辆a柱障碍视角的系统、方法和车辆
US20160264049A1 (en) * 2015-03-12 2016-09-15 Razmik Karabed Dynamically adjusting surveillance devices
DE102015204745A1 (de) * 2015-03-17 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität
DE102015204743A1 (de) * 2015-03-17 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität
CN107848460A (zh) * 2015-08-10 2018-03-27 宝马股份公司 用于车辆的系统、方法和设备以及计算机可读介质
KR101895485B1 (ko) * 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
US9902322B2 (en) 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts
US20170161950A1 (en) * 2015-12-08 2017-06-08 GM Global Technology Operations LLC Augmented reality system and image processing of obscured objects
CN107776488A (zh) * 2016-08-24 2018-03-09 京东方科技集团股份有限公司 汽车用辅助显示系统、显示方法以及汽车
US9947227B1 (en) * 2016-10-13 2018-04-17 Conti Temic Microelectronic Gmbh Method of warning a driver of blind angles and a device for implementing the method
US10552690B2 (en) * 2016-11-04 2020-02-04 X Development Llc Intuitive occluded object indicator
US10558264B1 (en) 2016-12-21 2020-02-11 X Development Llc Multi-view display with viewer detection
DE102017114450B4 (de) * 2017-06-29 2020-10-08 Grammer Aktiengesellschaft Vorrichtung und Verfahren zum Abbilden von Bereichen
DE102018201631A1 (de) * 2018-02-02 2019-08-08 Continental Engineering Services Gmbh Verfahren und system zum erzeugen einer virtuellen darstellung zur erweiterung des sichtfelds in einem fahrzeug
CN111788088A (zh) * 2018-02-27 2020-10-16 三菱电机株式会社 车辆用显示控制装置和显示控制方法
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US10650548B1 (en) * 2019-01-30 2020-05-12 StradVision, Inc. Method and device for localization of autonomous vehicle for route planning by using attention-driven landmark detection
US10796434B1 (en) * 2019-01-31 2020-10-06 Stradvision, Inc Method and device for detecting parking area using semantic segmentation in automatic parking system
US11113824B2 (en) * 2019-04-30 2021-09-07 Aptiv Technologies Limited Heading angle estimation for object tracking
JP2021012257A (ja) * 2019-07-04 2021-02-04 内田 龍男 スクリーン
CN111976598A (zh) * 2020-08-31 2020-11-24 北京经纬恒润科技有限公司 车辆盲区监测方法及系统
JP2023109259A (ja) 2022-01-27 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法
US11952007B1 (en) * 2022-10-03 2024-04-09 GM Global Technology Operations LLC Methods and systems for detecting blind spots
EP4421772A1 (en) 2023-02-27 2024-08-28 Continental Automotive Technologies GmbH Method for calling the attention of a driver

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05139210A (ja) * 1991-11-25 1993-06-08 Nippon Steel Corp 車両用後方視界表示装置
JPH09309372A (ja) * 1996-05-24 1997-12-02 Nissan Motor Co Ltd 搭乗姿勢検出装置及び情報選択装置
JPH11115546A (ja) * 1997-10-17 1999-04-27 Harness Syst Tech Res Ltd 車両用表示装置
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JP2004064131A (ja) * 2002-07-24 2004-02-26 Honda Motor Co Ltd 車両用表示装置
JP2005184225A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2005284485A (ja) * 2004-03-29 2005-10-13 Honda Motor Co Ltd 車両用死角視認装置
JP2006135797A (ja) * 2004-11-08 2006-05-25 Matsushita Electric Ind Co Ltd 車両用周囲状況表示装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907870A (en) * 1987-04-10 1990-03-13 Milton Brucker Device to manipulate side view mirrors for motor vehicles
US6885968B2 (en) * 2000-05-08 2005-04-26 Automotive Technologies International, Inc. Vehicular exterior identification and monitoring system-agricultural product distribution
US7209221B2 (en) * 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US6175300B1 (en) * 1998-09-03 2001-01-16 Byron K. Kendrick Blind spot viewing system
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
EP1285814B1 (de) 2001-08-21 2005-08-10 Ford Global Technologies, LLC Überwachungseinrichtung für Fahrzeuge
KR20040003216A (ko) 2002-07-02 2004-01-13 기아자동차주식회사 차량의 전방필러에 의한 운전사각 모니터장치
US7125130B2 (en) 2003-09-23 2006-10-24 Xiaoda Xiao Interior blind spot mirror
JP4280648B2 (ja) 2004-01-16 2009-06-17 株式会社ホンダロック 車両の視界補助装置
US7057500B1 (en) * 2004-04-23 2006-06-06 Belloso Gregorio M Rear view monitoring system for motor vehicles
US20060167606A1 (en) * 2005-01-27 2006-07-27 Khaled Malhas Electronically controlled mirror system for vehicle blind spot exposure
JP4497133B2 (ja) * 2006-07-12 2010-07-07 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
US7602276B2 (en) * 2007-01-17 2009-10-13 Visteon Global Technologies, Inc. Variable blind spot warning system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JPH05139210A (ja) * 1991-11-25 1993-06-08 Nippon Steel Corp 車両用後方視界表示装置
JPH09309372A (ja) * 1996-05-24 1997-12-02 Nissan Motor Co Ltd 搭乗姿勢検出装置及び情報選択装置
JPH11115546A (ja) * 1997-10-17 1999-04-27 Harness Syst Tech Res Ltd 車両用表示装置
JP2004064131A (ja) * 2002-07-24 2004-02-26 Honda Motor Co Ltd 車両用表示装置
JP2005184225A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP2005284485A (ja) * 2004-03-29 2005-10-13 Honda Motor Co Ltd 車両用死角視認装置
JP2006135797A (ja) * 2004-11-08 2006-05-25 Matsushita Electric Ind Co Ltd 車両用周囲状況表示装置

Also Published As

Publication number Publication date
CN101106703B (zh) 2011-06-22
EP1878618A2 (en) 2008-01-16
JP2008022267A (ja) 2008-01-31
EP1878618A3 (en) 2008-12-31
US20080012938A1 (en) 2008-01-17
EP1878618B1 (en) 2010-05-12
US8094190B2 (en) 2012-01-10
DE602007006380D1 (de) 2010-06-24
CN101106703A (zh) 2008-01-16

Similar Documents

Publication Publication Date Title
JP4497133B2 (ja) 運転支援方法及び運転支援装置
JP4862774B2 (ja) 運転支援方法及び運転支援装置
JP4412365B2 (ja) 運転支援方法及び運転支援装置
US8035575B2 (en) Driving support method and driving support apparatus
EP1961613B1 (en) Driving support method and driving support device
RU2734643C1 (ru) Способ помощи при парковке для устройства помощи при парковке и устройство помощи при парковке
JP4784572B2 (ja) 運転支援方法及び運転支援装置
JP2008099201A (ja) 運転支援方法及び運転支援装置
WO2012091476A2 (ko) 사각 지대 표시 장치 및 방법
US20050030378A1 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
US20070147664A1 (en) Driving assist method and driving assist apparatus
JP7163748B2 (ja) 車両用表示制御装置
JP4796676B2 (ja) 車両上方視点画像表示装置
JP7151073B2 (ja) 表示装置及びコンピュータプログラム
JP2012040883A (ja) 車両周囲画像生成装置
JP2008018760A (ja) 運転支援装置
JP2022048455A (ja) 車両用表示装置
KR101295618B1 (ko) 사각 지대 표시 장치 및 방법
JP4862775B2 (ja) 運転支援方法及び運転支援装置
JP2009005054A (ja) 運転支援装置、運転支援方法及びプログラム
JP2005178623A (ja) 車両用表示装置
JP6984341B2 (ja) 重畳画像表示装置及びコンピュータプログラム
JP2022048454A (ja) 車両用表示装置
JP2022048456A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4497133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150423

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees