JP2008236711A - Driving support method and driving support device - Google Patents
Driving support method and driving support device Download PDFInfo
- Publication number
- JP2008236711A JP2008236711A JP2007205671A JP2007205671A JP2008236711A JP 2008236711 A JP2008236711 A JP 2008236711A JP 2007205671 A JP2007205671 A JP 2007205671A JP 2007205671 A JP2007205671 A JP 2007205671A JP 2008236711 A JP2008236711 A JP 2008236711A
- Authority
- JP
- Japan
- Prior art keywords
- pillar
- virtual plane
- image
- vehicle
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/202—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
Description
本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving support method and a driving support device.
従来より、安全運転を支援する装置として、ドライバーの死角となる領域を車載カメラによって撮影し、ディスプレイ等に表示する車載システムが開発されている。その一つとして、車両のフロントピラーによって生じる死角領域を車載カメラで撮影し、撮影画像をフロントピラーの内側に表示するシステムが提案されている。フロントピラーは、フロントウィンドウやルーフを支える左右の支柱であって、運転席に着座したドライバーからみて斜め前方に位置し、ドライバーの視界を一部遮ってしまうものの、安全性のために所定の太さを確保しなければならない部材である。 2. Description of the Related Art Conventionally, as an apparatus that supports safe driving, an in-vehicle system that captures an area that is a blind spot of a driver with an in-vehicle camera and displays it on a display or the like has been developed. As one of such systems, a system has been proposed in which a blind spot area caused by a front pillar of a vehicle is photographed with an in-vehicle camera and a photographed image is displayed inside the front pillar. The front pillar is a left and right column that supports the front window and roof.It is located diagonally forward when viewed from the driver seated in the driver's seat and partially blocks the driver's field of view. This is a member that must be secured.
図12に示すように、上記したシステムは、車体に取り付けられ、撮影領域106を撮影可能なカメラ100と、カメラ100から出力された映像信号を画像処理する画像プロセッサと、フロントピラー101内側に画像を投影するプロジェクタ(いずれも図示略)等を備えている。これによれば、ドライバー位置102から見て、あたかもフロントピラー101を透過して外部の背景を視認できるような状態になるので、交差点等において、車両の前側方の道路形状や、前側方にある障害物を確認することができる。
As shown in FIG. 12, the system described above is attached to the vehicle body and can capture the
カメラ100によって撮影された映像信号をピラー101に投影する際、カメラ100の視角とドライバーの視角とが一致しないため、ピラー101に投影された画像が、ドライバーがウィンドウを介して視認している背景に対して傾いたりずれたりする問題がある。これに対し、特許文献1では、カメラで撮影された画像を、ドライバーの視角に合わせるために設定された仮想平面(仮想スクリーン面)に投影変換している。
しかし、カメラ100の焦点位置を決定する場合、例えば図12に示すように、焦点位置を示す撮影面104を、仮想平面103の手前であって、仮想平面103に近い位置に設定しても、撮影面104と仮想平面103とが離間している限り、仮想平面103に投影されない領域107,108が生じてしまう。また、図13に示すように、撮影面104を、仮想平面103よりもドライバー位置102から離れた位置に設定すると、撮影面104と仮想平面103との間の領域109,110がピラーに投影されず、無駄が生じる。
However, when determining the focal position of the
本発明は、上記問題点に鑑みてなされたものであり、その目的は、ドライバーが違和感を感じない画像をピラーに投影することができる運転支援方法及び運転支援装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving support method and a driving support device that can project an image on which a driver does not feel uncomfortable on a pillar.
上記問題点を解決するために、請求項1に記載の発明は、車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、該死角領域に相当する画像を前記ピラーの内側に表示する運転支援方法において、前記撮影装置から入力した画像データを投影する仮想平面を設定するとともに、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定し、前記撮影面に焦点を合わせた前記画像データを取得して該画像データを前記仮想平面に座標変
換し、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域に相当する画像を表示することを要旨とする。
In order to solve the above-mentioned problem, the invention according to claim 1 shoots a blind spot area caused by a pillar of the vehicle using an imaging device attached to the vehicle, and displays an image corresponding to the blind spot area. In the driving support method for displaying inside the pillar, the virtual plane for projecting the image data input from the imaging apparatus is set, and the imaging plane of the imaging apparatus is divided by a blind spot area generated by the pillar Is set to a position that passes through the end point of the image, the image data focused on the imaging surface is acquired, the image data is coordinate-converted to the virtual plane, and based on the image data coordinate-converted to the virtual plane, The gist is to display an image corresponding to a blind spot region caused by the pillar inside the pillar.
請求項2に記載の発明は、車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、前記撮影装置によって撮影された画像を前記ピラーの内側に表示する運転支援装置において、前記撮影装置から入力した画像データを投影する仮想平面を設定する仮想平面設定手段と、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定する撮影面設定手段と、前記撮影面に焦点を合わせた前記画像データを取得して、該画像データを前記仮想平面に座標変換する画像処理手段と、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域の画像を表示する出力制御手段とを備えたことを要旨とする。 According to a second aspect of the present invention, driving assistance for photographing a blind spot area caused by a pillar of the vehicle by using a photographing device attached to the vehicle and displaying an image photographed by the photographing device inside the pillar. In the apparatus, a virtual plane setting unit that sets a virtual plane on which image data input from the imaging apparatus is projected, and an imaging plane of the imaging apparatus passes through an end point of the virtual plane defined by a blind spot area generated by the pillar. An imaging plane setting means for setting the position, an image processing means for acquiring the image data focused on the imaging plane, and coordinate-converting the image data to the virtual plane, and coordinate-converted to the virtual plane An output control means for displaying an image of a blind spot area generated by the pillar on the inner side of the pillar based on the image data. That.
請求項3に記載の発明は、請求項2に記載の運転支援装置において、前記撮影面設定手段は、前記撮影装置の撮影面を、前記仮想平面よりも前記車両に近い位置に設定することを要旨とする。 According to a third aspect of the present invention, in the driving support device according to the second aspect, the photographing surface setting means sets the photographing surface of the photographing device closer to the vehicle than the virtual plane. The gist.
請求項4に記載の発明は、請求項2又は3に記載の運転支援装置において、前記仮想平面設定手段は、車両周辺の路面上にある描画基準物の位置を取得し、該描画基準物の位置を通る位置に前記仮想平面を設定し、前記撮影面設定手段は、前記撮影装置の光軸の方位と、前記車両のドライバーの頭部位置及び前記描画基準物の位置を結ぶ直線の方位とに基づき、前記撮影面が交差する前記仮想平面の端点を選択することを要旨とする。 According to a fourth aspect of the present invention, in the driving support apparatus according to the second or third aspect, the virtual plane setting means acquires a position of a drawing reference object on a road surface around the vehicle, and the drawing reference object The virtual plane is set at a position passing through a position, and the imaging plane setting means includes an orientation of an optical axis of the imaging apparatus, and an orientation of a straight line connecting the head position of the driver of the vehicle and the position of the drawing reference object. Based on the above, the gist is to select the end point of the virtual plane where the imaging planes intersect.
請求項1に記載の発明によれば、撮影装置の撮影面を、仮想平面の端点を通る位置に設定する。このため、ピラーに投影されない非表示領域や、撮影された画像の余剰領域を縮小し、連続性が高く、明瞭で自然な画像をピラーに表示できる。 According to the first aspect of the present invention, the photographing surface of the photographing device is set to a position passing through the end point of the virtual plane. For this reason, a non-display area that is not projected onto the pillar and a surplus area of the captured image can be reduced, and a clear, natural image with high continuity can be displayed on the pillar.
請求項2に記載の発明によれば、運転支援装置は、撮影装置の撮影面を、仮想平面の端点を通る位置に設定する。このため、ピラーに投影されない非表示領域や、撮影された画像の余剰領域を縮小し、連続性が高く、明瞭で自然な画像をピラーに表示できる。
According to the invention described in
請求項3に記載の発明によれば、撮影装置の撮影面は、仮想平面よりも車両に近い位置に設定されるので、余剰領域にピントが合わず、連続性が高く、明瞭で自然な画像を表示することができる。 According to the third aspect of the present invention, since the photographing surface of the photographing device is set at a position closer to the vehicle than the virtual plane, the surplus area is not in focus, has high continuity, and is a clear and natural image. Can be displayed.
請求項4に記載の発明によれば、撮影装置の光軸の方位と、ドライバーの頭部位置及び描画基準物を結ぶ直線の方位に応じて、撮影面が通る端点が変更される。このため、撮影面を仮想平面の手前に常に設定することができる。 According to the fourth aspect of the present invention, the end point through which the imaging surface passes is changed according to the orientation of the optical axis of the imaging device and the orientation of the straight line connecting the head position of the driver and the drawing reference object. For this reason, the imaging plane can always be set in front of the virtual plane.
以下、本発明を具体化した一実施形態を図1〜図11に従って説明する。図1は、自動車に実装された運転支援システム1の構成を説明するブロック図である。
運転支援システム1は車両C(図3参照)に搭載され、図1に示すように、運転支援装置としての運転支援ユニット2、ディスプレイ3、投影装置としてのプロジェクタ4、スピーカ5、撮像装置としてのカメラ6、第1〜第3位置検出センサ8a〜8cを備えている。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a
The
運転支援ユニット2は、制御部10、不揮発性のメインメモリ11、ROM12、GPS受信部13を備えている。制御部10は、CPU、MPU又はASIC等であって、R
OM12に格納された運転支援プログラムに従って、各処理の主制御を行う。メインメモリ11は、制御部10の演算結果を一時記憶する。
The
The main control of each process is performed according to the driving support program stored in the OM 12. The main memory 11 temporarily stores the calculation result of the
制御部10は、GPS衛星からGPS受信部13が受信した、衛星軌道情報及び時刻情報を取得して、電波航法により自車両の絶対位置を算出する。また、制御部10は、運転支援ユニット2の車両側I/F部14を介して、車両Cに設けられた車速センサ30及びジャイロ31から車速パルス、角速度をそれぞれ入力する。そして、制御部10は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。
The
また、運転支援ユニット2は、地理データ記憶部15を備えている。地理データ記憶部15は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地理データ記憶部15には、目的地までの経路を探索するための地図データとしての各経路ネットワークデータ(以下、経路データ16という)と、ディスプレイ3に地図画面3aを出力するための地図データとしての各地図描画データ17とが記憶されている。
The
経路データ16は、全国を区画したメッシュ内の道路に関するデータである。経路データ16は、各メッシュの識別子、交差点及び道路の端点を示すノードに関するノードデータ、各ノードを接続する各リンクの識別子、リンクコスト等のデータを有している。制御部10は、この経路データ16を用いて、目的地までの推奨経路を探索したり、車両Cが交差点等の案内地点に接近しているか否かを判断する。
The route data 16 is data relating to roads in the mesh dividing the whole country. The route data 16 includes data such as identifiers of each mesh, node data related to nodes indicating intersections and road endpoints, identifiers of links connecting the nodes, and link costs. The
また、地図描画データ17は、道路形状、背景等を描画するためのデータであって、全国の地図を分割したメッシュ毎に格納されている。この地図描画データ17には、中央線、路側帯を区画する白線、ゼブラゾーン、横断歩道等の道路標示と、信号機等の路面設置物とに関するデータが格納されている。具体的には道路標示の種類、道路標示の位置座標、路面設置物の種類、路面設置物の位置座標等が、各地点の交差点やカーブと関連付けられて記憶されている。 The map drawing data 17 is data for drawing a road shape, a background, and the like, and is stored for each mesh obtained by dividing a map of the whole country. The map drawing data 17 stores data on road markings such as a center line, a white line that divides a roadside zone, a zebra zone, and a pedestrian crossing, and road surface installations such as traffic lights. Specifically, the types of road markings, the position coordinates of road markings, the types of road surface installation objects, the position coordinates of road surface installation objects, and the like are stored in association with the intersections and curves of each point.
図1に示すように、運転支援ユニット2は、地図描画プロセッサ18を備えている。地図描画プロセッサ18は、自車位置周辺の地図を描画するための地図描画データ17を地理データ記憶部15から読出して、地図出力用のデータを生成し、地図出力用データに基づく地図画面3aをディスプレイ3に表示する。また、地図描画プロセッサ18は、この地図画面3aに、自車位置を示す自車位置指標3bを重畳する。
As shown in FIG. 1, the
また、運転支援ユニット2は、音声プロセッサ24を備えている。音声プロセッサ24は、図示しない音声ファイルを有し、例えば目的地までの経路を案内する音声をスピーカ5から出力する。さらに、運転支援ユニット2は、外部入力I/F部25を備えている。外部入力I/F部25は、ディスプレイ3に隣接された操作スイッチ26、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づいた入力信号を入力し、制御部10に出力する。
In addition, the
また、運転支援ユニット2は、検出手段を構成するセンサI/F部23を備えている。センサI/F部23は、第1〜第3位置検出センサ8a〜8cから、検出信号を入力する。第1〜第3位置検出センサ8a〜8cは、超音波センサから構成され、図2に示すように、車室内であって、フロントシートFに着座したドライバーDの周囲に取り付けられている。第1位置検出センサ8aは、ルームミラー(図示略)近傍に取り付けられ、ドライバーDの頭部D1とほぼ同じ高さか、若干高い位置に位置している。
The driving
第2位置検出センサ8bは、ドアウィンドウW2(図3参照)の上端付近に、ドライバ
ーDの斜め前方右側に位置するように取り付けられている。第3位置検出センサ8cは、フロントシートFの左側であって、ルーフRの内側に取り付けられている。各位置検出センサ8a〜8cの図示しないセンサヘッドから発信された超音波は、ドライバーDの頭部D1に反射する。各位置検出センサ8a〜8cは、超音波を発信してから反射波を受信するまでの時間を計測し、その計測時間に基づいて、頭部D1までの各相対距離をそれぞれ算出する。算出された各相対距離は、センサI/F部23を介して制御部10に出力される。尚、各位置検出センサ8a〜8cからの信号に基づいて、センサI/F部23が頭部D1までの相対距離を算出するようにしてもよい。
The second
制御部10は、運転席に着座した状態で、標準的な体型のドライバーDの頭部D1が移動し得る頭部移動範囲と、第1〜第3位置検出センサ8a〜8cが検出した各相対距離とに基づき、頭部位置としての頭部中心位置Dcを三角測量等を用いて、公知の方法で取得する。
The
また、図1に示すように、運転支援ユニット2は、映像データ入力部22と、仮想平面設定手段、撮影面設定手段、画像処理手段及び出力制御手段としての画像プロセッサ20とを備えている。映像データ入力部22は、制御部10の制御に基づいて、車両Cに設けられたカメラ6を駆動して、カメラ6によって撮影された画像データIMを入力する。
As shown in FIG. 1, the driving
カメラ6は、カラー画像を撮像するカメラであって、レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)、自動焦点機構等を備えている。図3に示すように、このカメラ6は、車両CのフロントピラーP(以下、単にピラーPという)の外側に、光軸を車両Cの前方に向けて取り付けられている。本実施形態では、車両右側に配置された運転席に合わせ、カメラ6は、運転席側の右側のピラーPに取り付けられる。このカメラ6は、車両Cの前方右側と、車両Cの右側の一部を含む撮影領域Z1の背景を撮像する。
The
運転支援ユニット2の画像プロセッサ20は、映像データ入力部22を介して、カメラ6から画像データIMを取得する。また、画像プロセッサ20は、取得した画像データIMのうち、ピラーPによって遮られた領域をトリミングするとともに、画像の歪みを解消するための画像処理を行う。
The
詳述すると、制御部10が、経路データ16に基づいて車両Cが交差点やカーブに接近したと判断すると、画像プロセッサ20は、交差点やカーブでドライバーDが注視しやすい視認対象物の座標を取得する。本実施形態では、画像プロセッサ20は、地図描画データ17に基づいて、描画基準物としての横断歩道Zの座標を取得する。例えば、図4に示すように、地図描画データ17に基づき、車両前側方に標示された横断歩道Zの基準点Pcの座標を取得する。基準点Pcは、予め地図描画データ17に記憶されているか、若しくは地図描画データ17に記憶された横断歩道Z全体の座標から画像プロセッサ20が設定する。
More specifically, when the
基準点Pcの座標を取得すると、基準点Pcの座標と、第1〜第3位置検出センサ8a〜8cが検出したドライバーDの頭部中心位置Dcとに基づいて、仮想平面VPの位置を決定する。仮想平面VPは、カメラ6によって撮影された画像を投影する平面である。また、この仮想平面VP上にある物体は、カメラ6によって撮影された画像データIMを仮想平面VP上に座標変換した際に、ずれたり傾いたりすることなく表示される性質がある。図5に示すように、画像プロセッサ20は、この仮想平面VPを、基準点Pcを含み、頭部中心位置Dcと基準点Pcとを結んだ中心線Laに対して垂直になる位置に設定する。また、画像プロセッサ20は、仮想平面VPを、ドライバーDの頭部中心位置DcとピラーPの各端点P1,P2を通る接線L1,L2で区画された死角領域Aの内側に設ける
。
When the coordinates of the reference point Pc are acquired, the position of the virtual plane VP is determined based on the coordinates of the reference point Pc and the head center position Dc of the driver D detected by the first to third position detection sensors 8a to 8c. To do. The virtual plane VP is a plane on which an image taken by the
図4に示すように、車両Cが、仮想平面VPを設定した初期位置FPから、図中2点鎖線で示す位置に移動し、頭部中心位置Dcと横断歩道Zの基準点Pcとの相対距離ΔLが変化しても、画像プロセッサ20は、基準点Pcを通り、且つ中心線Laに対して垂直となる位置に仮想平面VPを設定する。即ち、仮想平面VPは、車両Cの前進に伴って移動させずに、常に基準点Pcを通る位置に設定する。図4に示すように、車両が旋回している場合、頭部中心位置Dcと基準点Pcとを結ぶ中心線Laの傾きが変わるので、その変化に伴い、仮想平面VPもその角度のみを変更する。
As shown in FIG. 4, the vehicle C moves from the initial position FP where the virtual plane VP is set to a position indicated by a two-dot chain line in the figure, and the relative position between the head center position Dc and the reference point Pc of the pedestrian crossing Z. Even if the distance ΔL changes, the
また、画像プロセッサ20は、仮想平面VPの位置に応じて撮影面CPを決定する。撮影面CPは、カメラ6の焦点位置を示し、カメラ6の光軸AXに対して垂直な平面で表される。図5に示すように、画像プロセッサ20は、この撮影面CPを、仮想平面VPよりも、車両Cに近い位置であって、且つ死角領域Aによって区画された仮想平面VPの左端点VP1又は右端点VP2において交差する位置(所定位置)に設定する。ここでは、ドライバーDの頭部中心位置Dcを基準とし、撮影面CPを頭部中心位置Dcに近い位置に設定する。尚、各端点VP1,VP2は、頭部中心位置DcとピラーPの端点P1,P2とをそれぞれ結ぶ接線L1,L2と、仮想平面VPとの交点である。
Further, the
撮影面CPの設定方法について詳述すると、まず、画像プロセッサ20は、カメラ6の光軸AXの方位と、頭部中心位置Dcと基準点Pcとを結んだ中心線Laの方位とを比較する。即ち、光軸AXと水平方向(Y矢印方向)とがなす角度θcと、中心線Laと水平方向(Y矢印方向)とがなす角度θdとを算出する。そして、光軸AXの角度θcの大きさと中心線Laの角度θdの大きさとを比較する。尚、X矢印方向は、車両Cの長手方向と平行な方向、Y矢印方向は、X矢印方向に対して直交する方向であって、車幅方向である。
To describe the setting method of the imaging plane CP in detail, first, the
図5に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合(θc>θd)、上記条件を満たす位置に撮影面CPを設定するには、撮影面CPは右端点VP2を通る位置に設定しなければならない。即ち左端点VP1を通る位置に撮影面CPを設定すると、仮想平面VPよりも、頭部中心位置Dcから遠い位置に設定されてしまう。このため、画像プロセッサ20は、撮影面CPを、仮想平面VPの右端点VP2を通る位置に設定する。
As shown in FIG. 5, when the angle θc of the optical axis AX is larger than the angle θd of the center line La (θc> θd), in order to set the photographing surface CP at a position satisfying the above condition, the photographing surface CP is The position must pass through the right end point VP2. That is, when the imaging plane CP is set at a position passing through the left end point VP1, the position is set farther from the head center position Dc than the virtual plane VP. Therefore, the
また、図6に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合(θc<θd)、画像プロセッサ20は、撮影面CPを、仮想平面VPの左端点VP1を通る位置に設定する。
Also, as shown in FIG. 6, when the angle θc of the optical axis AX is larger than the angle θd of the center line La (θc <θd), the
光軸AXの角度θcと中心線Laの角度θdとが等しい場合、即ち光軸AXと中心線Laとが重なる場合には、撮影面CPと仮想平面VPとを重ねることができるので、撮影面CPは仮想平面VPの位置に設定する。 When the angle θc of the optical axis AX and the angle θd of the center line La are equal, that is, when the optical axis AX and the center line La overlap, the imaging plane CP and the virtual plane VP can be overlapped, so that the imaging plane CP is set at the position of the virtual plane VP.
撮影面CPを設定すると、画像プロセッサ20は、映像データ入力部22を介して、撮影面CP上にカメラ6の焦点を合わせて撮影し、画像データIMを取得する。
画像データIMを取得すると、画像データIMのうち、仮想平面VPに投影する投影部分CP1をトリミングして、ピラー死角データBDを生成する。即ち、図5に示すように、画像プロセッサ20は、画像データIMのうち、カメラ位置6aと各端点VP1,VP2とを結んだ各直線L3,L4の間の投影部分CP1をトリミングする。投影部分CP1をトリミングしたデータは、ピラー死角データBDとなる。
When the imaging plane CP is set, the
When the image data IM is acquired, the projection part CP1 projected onto the virtual plane VP in the image data IM is trimmed to generate pillar blind spot data BD. That is, as shown in FIG. 5, the
ピラー死角データBDを取得すると、画像プロセッサ20は、ピラー死角データBDを、仮想平面VPに投影変換する。この投影変換は、投影部分CP1の各画素を、仮想平面VP上の各画素に座標変換する処理である。
When the pillar blind spot data BD is acquired, the
また、画像プロセッサ20は、仮想平面VPに投影変換された画像を、ピラーPの内側面Paを含むピラー面上に投影変換する。ピラー面は、ROM12に記憶されたピラー形状41(図1参照)の3次元座標に基づき設定することができる。尚、ピラー形状41は、ピラーPの外形をパターン又は座標で示したデータであって、車種によって異なるデータである。画像プロセッサ20は、このピラー形状41に基づき、ピラーPの外形を示す長さ方向、車幅方向及び鉛直方向の3次元の座標を取得することができる。また、ピラーPの幅や長さも、3次元の座標を用いたデータとして取得することができる。
Further, the
続いて、ピラー面に投影され、ピラーPの位置及び形状に沿った上記画像をプロジェクタ4により投影するために、該画像をプロジェクタ4の位置に合わせて座標変換する。即ち、プロジェクタ4から出力された光が、ピラーPの内側面Paに入射する角度によって、内側面Paに表示される画像は、歪んだり、拡大又は縮小される。従って、例えば、投影変換した上記画像の各画素の座標と、プロジェクタ4に対して出力する画像の各画素の座標とを予め関連付けたマップ等をメインメモリ11等に予め格納しておき、該マップに基づき、投影変換した画像を、プロジェクタ4への出力画像としてさらに座標変換する。そして、座標変換した画像を、プロジェクタ4に対して出力するための投影データPDを生成する。
Subsequently, in order to project the image projected onto the pillar surface and conforming to the position and shape of the pillar P by the
また、画像プロセッサ20は、投影データPDに対し、ROM12に記憶されたマスクパターン40(図1及び図7参照)に基づき、プロジェクタ4に出力するための映像信号を生成する。図7に示すように、マスクパターン40は、投影データPDにマスクをかけるためのデータであって、ピラーPの内面形状に沿った画像表示領域40aと、マスク40bとから構成されている。画像プロセッサ20は、画像表示領域40aの領域には、投影データPDを読み込み、マスク40bの領域は、プロジェクタ4の非表示にするための出力用データODを生成する。出力用データODを生成すると、画像プロセッサ20は、その出力用データODをプロジェクタ4に出力する。
Further, the
プロジェクタ4は、図8に示すように、ルーフRの内側であって、ドライバーDが着座するフロントシートFの鉛直方向上方付近に、車両Cの右側のピラーPの内面に画像を投影可能に取り付けられている。図9に示すように、ピラーPの内側面Paには、ピラーPの形状に合わせて切断されたスクリーンSCが貼着されている。プロジェクタ4の焦点は、このスクリーンSCに合わせて調整されている。尚、ピラーPの内側面Paがプロジェクタ4から出力された投影光を受光して鮮明な画像を表示できる材質及び形状からなる場合には、スクリーンSCは省略してもよい。
As shown in FIG. 8, the
図10に示すように、プロジェクタ4は、ピラーPのスクリーンSCに対して投影光Lを出射し、スクリーンSCに画像を投影する。また、そのスクリーンSCの周囲のフロントウィンドウW1又はドアウィンドウW2には、マスク40bにより画像が投影されないようになっている。
As shown in FIG. 10, the
次に、本実施形態の処理手順について、図11に従って説明する。まず運転支援ユニット2の制御部10は、ピラーPの内側に背景画像を投影する投影モードの開始を待機する(ステップS1)。例えば、タッチパネル、操作スイッチ26が操作され、制御部10が外部入力I/F部25を介して、モード開始要求を受信した場合に、投影モードを開始すると判断する。或いは、イグニッションモジュール(図示略)からのオン信号に基づき、投影モードを開始すると判断してもよい。
Next, the processing procedure of this embodiment will be described with reference to FIG. First, the
投影モードを開始すると判断すると(ステップS1においてYES)、制御部10は、経路データ16に基づき、車両Cが交差点又はカーブに接近するのを待機する(ステップS2)。具体的には、制御部10は、車両Cの現在位置が、T字路を含む交差点又は所定の曲率以上のカーブから所定距離範囲(例えば200m)内に進入したと判断すると、交差点又はカーブに接近したと判断する。
If it is determined that the projection mode is to be started (YES in step S1), the
交差点又はカーブに接近したと判断すると(ステップS2においてYES)、制御部10は、各位置検出センサ8a〜8cを用いて、ドライバーDの頭部位置を検出する(ステップS3)。このとき、制御部10は、センサI/F部23を介して、各位置検出センサ8a〜8cから、頭部D1までの各相対距離を取得する。そして、各相対距離を用いて、三角測量の原理とに基づき、頭部中心位置Dcを特定する。
When it is determined that the vehicle has approached the intersection or curve (YES in step S2), the
頭部中心位置Dcを算出すると、画像プロセッサ20は、上記したように、仮想平面VPを設定する(ステップS4)。車両Cが交差点J(図4参照)に接近しているときは、横断歩道Zの基準点Pcを地図描画データ17に基づき取得して、その基準点Pcを通る位置に仮想平面VPを設定する。横断歩道Zが無い場合には、車両前方の停止線等の道路標示でもよい。車両Cがカーブに接近しているときは、道路に標示された中央線のうち、曲率が大きい位置に基準点Pcを取るようにしてもよい。
When the head center position Dc is calculated, the
さらに、画像プロセッサ20は、撮影面CPを設定する(ステップS5)。このとき、上記したように、画像プロセッサ20は、カメラ6の光軸AXの角度θcと、頭部中心位置Dcと基準点Pcとを結んだ中心線Laの角度θdとを比較する。そして、図5に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合には、上記したように、撮影面CPを、仮想平面VPの手前であって、仮想平面VPの右端点VP2を通る位置に設定する。このとき、図5に示すように、左端点VP1と撮影面CPとが離間していることにより、ピラーPによって遮られている死角領域AにおいてピラーPに投影することができない非表示領域B1が生じる。この非表示領域B1は、実際には僅かな領域であるが、ピラーPに画像を表示した際に、ピラーPに表示された画像と、ウィンドウW1,W2を介して見える実際の背景との連続性が若干損なわれる。一方、右端点VP2は、撮影面CPと接しているので、非表示領域B1が生じず、両端に非表示領域B1が存在する場合に比べ画像の連続性が良好となる。
Further, the
さらに、撮影面CPを仮想平面VPよりも、ドライバーDの頭部中心位置Dcに近い位置に設定しているので、焦点を合わせて撮影した画像のうち、ピラーPに投影されない余剰領域が生じない。 Furthermore, since the photographing plane CP is set closer to the head center position Dc of the driver D than the virtual plane VP, there is no surplus area that is not projected on the pillar P in the image photographed in focus. .
また、図6に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも小さい場合には、撮影面CPを、仮想平面VPの左端点VP1を通る位置に設定する。このとき、左端点VP1と撮影面CPが接しているので、左端点VP1では非表示領域B1が生じない。 As shown in FIG. 6, when the angle θc of the optical axis AX is smaller than the angle θd of the center line La, the imaging plane CP is set to a position passing through the left end point VP1 of the virtual plane VP. At this time, since the left end point VP1 and the imaging plane CP are in contact, the non-display area B1 does not occur at the left end point VP1.
撮影面CPを設定すると、画像プロセッサ20の設定した撮影面CPに基づき、カメラ6は、焦点を撮影面CPに合わせて撮影を行い、画像データIMを取得する(ステップS6)。
When the imaging plane CP is set, the
画像プロセッサ20は、画像データIMを取得すると、上記したように、画像データIMのうち、仮想平面VPに投影する投影部分CP1を抽出し、(ステップS7)、ピラー死角データBDを生成する。
When acquiring the image data IM, the
ピラー死角データBDを生成すると、画像プロセッサ20は、ピラー死角データBDに対し投影用画像処理を行う(ステップS8)。具体的には、上記したように、ピラー死角データBDを、ステップS4で設定した仮想平面VPに投影変換する。また、仮想平面VPに投影変換された画像を、上記ピラー形状41に基づき、ピラーPの3次元形状に合わせて変換する。また、ピラーPの3次元形状に合わせて変換された画像を、プロジェクタ4の位置に基づき、座標変換して投影データPDを生成する。また、投影データPD及びマスクパターン40に基づき、ピラーP以外の領域をマスクした出力用データODを生成する。
When the pillar blind spot data BD is generated, the
出力用データODを生成すると、画像プロセッサ20は、その出力用データODをプロジェクタ4に出力する。プロジェクタ4は、図10に示すように、ピラーPの内側面Paに設けられたスクリーンSCに、ピラーPによって遮られた領域の画像を投影する(ステップS9)。スクリーンSCに表示された投影画像は、予め横断歩道Z等の道路標示に合わせた仮想平面VPに投影変換されているので、その道路標示は、フロントウィンドウW1及びドアウィンドウW2を介して視認される背景と、ずれたり傾いたりすることなく表示される。また、撮影面CPが、仮想平面VPのいずれかの端点VP1,VP2に接していることにより、仮想平面VP及び撮影面CPのずれによって生じる非表示領域B1や余剰領域が縮小され、ウィンドウW1,W2を介して見える背景との連続性が向上する。
When the output data OD is generated, the
画像プロセッサ20によりピラーPに画像を投影すると、制御部10は、車両Cが、交差点J又はカーブから離れたか否かを判断する(ステップS10)。車両Cが、交差点J又はカーブ内又はその付近にあると判断すると(ステップS10においてNO)、ステップS3に戻り、頭部位置検出(ステップS3)から画像投影(ステップS9)までを繰り返す。即ち、車両Cが交差点J又はカーブを離れるまで、ピラーPによって遮られた画像がピラーPに投影される。
When the
車両Cが交差点J又はカーブから離れたと判断すると(ステップS10においてYES)、制御部10は、投影モードを終了するか否かを判断する(ステップS11)。終了トリガは、タッチパネルや操作スイッチ26の操作によるモード終了要求、又はイグニッションモジュールのオフ信号である。これらの信号を入力すると、投影モード終了であると判断して(ステップS11においてYES)、処理を終了する。
If it is determined that vehicle C has left the intersection J or the curve (YES in step S10),
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、画像プロセッサ20は、車両Cが交差点又はカーブに接近した際に、仮想平面VPを、例えば道路標示といった対象物の基準点Pcを通る位置に設定するようにした。また、カメラ6の撮影面CPを、仮想平面VPの手前であって、仮想平面VPの端点VP1,VP2を通る位置に設定するようにした。このため、ピラーPによって遮られる死角領域Aであるにも関わらず、ピラーPに投影することができない非表示領域B1や、焦点が合わせた画像のうちピラーPに投影することができない余剰領域を縮小することができる。このため、各ウィンドウW1,W2を介して見える実際の背景と連続性の高い、自然で違和感のない画像をピラーPに表示することができる。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, when the vehicle C approaches an intersection or curve, the
(2)上記実施形態では、カメラ6の光軸AXが水平方向となす角度θcと、死角領域Aの死角方向が水平方向となす角度θdとを比較し、角度θcが角度θdよりも大きいときに、撮影面CPを右端点VP2を通る位置に設定するようにした。また、角度θcが角度θdよりも小さい場合には、撮影面CPを左端点VP1を通る位置に設定するようにした。このため、撮影面CPを常に仮想平面VPの手前に設定することができるので、撮影面CPを、仮想平面VPよりも頭部中心位置Dcから離れた位置に設定した場合に生じる上記余剰領域を縮小することができる。
(2) In the above embodiment, the angle θc formed by the horizontal axis of the optical axis AX of the
尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、地図描画データ17に基づき道路標示の基準点Pcを設定するようにしたが、カメラ6から取得した画像データIMに対して白線認識処理を行って、道路標示の白線(又は黄線)を検出するようにしてもよい。そして、検出した白線の端や中央に、基準点Pcを設定するようにしてもよい。
In addition, you may change the said embodiment as follows.
In the above embodiment, the road marking reference point Pc is set based on the map drawing data 17. However, the white line recognition processing is performed on the image data IM acquired from the
・上記実施形態では、仮想平面VPを横断歩道Z等の道路標示に合わせるようにしたが、仮想平面VPの位置を合わせる対象物は適宜変更してもよい。例えば、信号機等の路面設置物に仮想平面VPを合わせるようにしてもよい。また例えば、車両Cに車両前方の障害物までの相対距離を計測する、障害物検出手段としてのレーダ等を搭載し、歩行者、自転車等の対象障害物が検出された場合に、仮想平面VPを障害物に合わせるようにしてもよい。尚、障害物が、例えば歩行者、自転車であるか否かの判定は、特徴検出等の公知の画像処理を用いる。 In the above embodiment, the virtual plane VP is adjusted to the road marking such as the pedestrian crossing Z, but the object to match the position of the virtual plane VP may be changed as appropriate. For example, the virtual plane VP may be matched with a road surface installation such as a traffic light. Further, for example, when a vehicle C is equipped with a radar or the like as an obstacle detection means for measuring a relative distance to an obstacle ahead of the vehicle, and a target obstacle such as a pedestrian or a bicycle is detected, the virtual plane VP You may make it match with an obstacle. For example, a known image process such as feature detection is used to determine whether the obstacle is a pedestrian or a bicycle.
・横断歩道等の路面標示の位置を示すデータは、例えば、路車間通信又は車車間通信、又はそれらのデータを配信するサーバから取得するようにしてもよい。また、歩行者等の障害物の位置を示すデータも、他車両等の外部装置から受信するようにしてもよい。 -The data which show the position of road markings, such as a pedestrian crossing, may be acquired from the server which distributes road-to-vehicle communication or vehicle-to-vehicle communication, or those data, for example. Data indicating the position of an obstacle such as a pedestrian may also be received from an external device such as another vehicle.
・上記実施形態では、音声案内を用いない場合には、音声プロセッサ24を省略しても良い。
・上記実施形態では、プロジェクタ4によってピラーPの内側面Paに画像を投影するようにしたが、ピラーPの内側に薄型の表示手段としてのディスプレイを設け、画像プロセッサ20からそのディスプレイに出力用データODを出力しても良い。
In the above embodiment, the
In the above embodiment, the
・上記実施形態では、カメラ6はフロントピラーPの外側に設け、フロントピラーPによって遮られる領域を撮影するようにしたが、車両後方や側方等、その他のピラーに設けるようにしてもよい。例えば、カメラ6を車両後方のリヤピラー外側に取り付け、そのカメラ6によってリヤピラーにより遮られる領域を撮影するようにしてもよい。この場合、プロジェクタ4を、リヤピラー内面に画像を投影可能な位置に設け、画像プロセッサ20は、カメラ6によって撮影された画像データに基づき、リヤピラーによって遮られた死角領域の画像をリヤピラー内面に投影する。これにより、例えば車両Cが駐車枠に向かって後退する場合に、ドライバーDがリヤピラーによって遮られた駐車枠を投影画像にて確認することができるので、駐車操作を行いやすくすることができる。また、複数のピラーPの外側に1つずつカメラ6を設けるとともに、プロジェクタ4をカメラ6の位置に応じて複数台設けるようにしてもよい。さらに、一つのピラーPに複数のカメラ6を設けるようにしてもよい。
In the above embodiment, the
・上記実施形態では、プロジェクタ4を車両CのルーフRの内側に設けるようにしたが、プロジェクタ4の位置はピラーPの内面に画像を投影できる位置であればよく、例えばダッシュボードの上方(略中央)等、その他の位置に設けるようにしてもよい。
In the above embodiment, the
1…運転支援システム、2…運転支援装置としての運転支援ユニット、6…撮影装置としてのカメラ、20…仮想平面設定手段、撮影面設定手段、画像処理手段及び出力制御手段としての画像プロセッサ、109…余剰領域、A…死角領域、AX…光軸、B1…非表示領域、C…車両、CP…撮影面、D…ドライバー、IM…画像データ、La…直線としての中心線、P…ピラー、VP…仮想平面、VP1,VP2…端点。
DESCRIPTION OF
Claims (4)
前記撮影装置から入力した画像データを投影する仮想平面を設定するとともに、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定し、
前記撮影面に焦点を合わせた前記画像データを取得して該画像データを前記仮想平面に座標変換し、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域に相当する画像を表示することを特徴とする運転支援方法。 In a driving support method for photographing a blind spot area caused by a pillar of the vehicle using an imaging device attached to the vehicle and displaying an image corresponding to the blind spot area on the inside of the pillar.
While setting a virtual plane to project the image data input from the imaging device, the imaging surface of the imaging device is set to a position that passes through the end points of the virtual plane defined by the blind spot area generated by the pillar,
The image data focused on the imaging surface is acquired, the image data is coordinate-converted to the virtual plane, and the pillar is arranged inside the pillar based on the image data coordinate-converted to the virtual plane. A driving support method characterized by displaying an image corresponding to a blind spot area that occurs.
前記撮影装置から入力した画像データを投影する仮想平面を設定する仮想平面設定手段と、
前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定する撮影面設定手段と、
前記撮影面に焦点を合わせた前記画像データを取得して、該画像データを前記仮想平面に座標変換する画像処理手段と、
前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域の画像を表示する出力制御手段と
を備えたことを特徴とする運転支援装置。 In a driving support device that uses a photographing device attached to a vehicle to photograph a blind spot area caused by a pillar of the vehicle and displays an image photographed by the photographing device on the inside of the pillar.
Virtual plane setting means for setting a virtual plane for projecting image data input from the imaging device;
A photographing surface setting means for setting a photographing surface of the photographing device to a position passing through an end point of the virtual plane defined by a blind spot region generated by the pillar;
Image processing means for acquiring the image data focused on the imaging surface, and coordinate-converting the image data into the virtual plane;
A driving support apparatus, comprising: output control means for displaying an image of a blind spot area generated by the pillar on the inner side of the pillar based on the image data coordinate-converted into the virtual plane.
前記撮影面設定手段は、前記撮影装置の撮影面を、前記仮想平面よりも前記車両に近い位置に設定することを特徴とする運転支援装置。 In the driving assistance device according to claim 2,
The driving support device, wherein the shooting plane setting means sets a shooting plane of the shooting device at a position closer to the vehicle than the virtual plane.
前記仮想平面設定手段は、車両周辺の路面上にある描画基準物の位置を取得し、該描画基準物の位置を通る位置に前記仮想平面を設定し、
前記撮影面設定手段は、前記撮影装置の光軸の方位と、前記車両のドライバーの頭部位置及び前記描画基準物の位置を結ぶ直線の方位とに基づき、前記撮影面が交差する前記仮想平面の端点を選択することを特徴とする運転支援装置。 In the driving assistance device according to claim 2 or 3,
The virtual plane setting means acquires the position of a drawing reference object on a road surface around the vehicle, sets the virtual plane at a position passing through the position of the drawing reference object,
The imaging plane setting means includes the virtual plane on which the imaging planes intersect based on the direction of the optical axis of the imaging apparatus and the direction of a straight line connecting the head position of the driver of the vehicle and the position of the drawing reference object. A driving support device characterized by selecting an end point.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205671A JP4784572B2 (en) | 2007-02-23 | 2007-08-07 | Driving support method and driving support device |
CN2008100062801A CN101252679B (en) | 2007-02-23 | 2008-02-04 | Driving support method and driving support device |
US12/068,685 US9126533B2 (en) | 2007-02-23 | 2008-02-11 | Driving support method and driving support device |
EP20080003040 EP1961613B1 (en) | 2007-02-23 | 2008-02-19 | Driving support method and driving support device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007044403 | 2007-02-23 | ||
JP2007044403 | 2007-02-23 | ||
JP2007205671A JP4784572B2 (en) | 2007-02-23 | 2007-08-07 | Driving support method and driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008236711A true JP2008236711A (en) | 2008-10-02 |
JP4784572B2 JP4784572B2 (en) | 2011-10-05 |
Family
ID=39908890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007205671A Expired - Fee Related JP4784572B2 (en) | 2007-02-23 | 2007-08-07 | Driving support method and driving support device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4784572B2 (en) |
CN (1) | CN101252679B (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015015928A1 (en) * | 2013-07-30 | 2015-02-05 | Toyota Jidosha Kabushiki Kaisha | Driving assist device |
JP2017087844A (en) * | 2015-11-05 | 2017-05-25 | 矢崎総業株式会社 | Projection device |
US10322673B2 (en) | 2014-01-24 | 2019-06-18 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
JP2019125920A (en) * | 2018-01-17 | 2019-07-25 | 株式会社ジャパンディスプレイ | Monitor display system and display method |
CN113978367A (en) * | 2021-11-16 | 2022-01-28 | 武汉华星光电技术有限公司 | Vehicle-mounted display device, vehicle-mounted display system and vehicle |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8791996B2 (en) * | 2010-03-31 | 2014-07-29 | Aisin Aw Co., Ltd. | Image processing system and position measurement system |
CN104081763B (en) * | 2012-01-17 | 2018-09-14 | 日本先锋公司 | Image processing apparatus, image processing server, image processing method, image processing program and recording medium |
GB201219742D0 (en) * | 2012-11-02 | 2012-12-12 | Tom Tom Int Bv | Methods and systems for generating a horizon for use in an advanced driver assistance system (adas) |
SG11201806626QA (en) * | 2016-03-02 | 2018-09-27 | Mitsubishi Electric Corp | Autonomous travel assistance device, roadside device, and autonomous travel assistance system |
CN110610543B (en) * | 2018-06-14 | 2023-05-12 | 阿里巴巴(中国)有限公司 | Method and device for building three-dimensional pavement and intersection |
CN109859529B (en) * | 2019-04-16 | 2023-01-10 | 河北工业大学 | Driving optimization system and method for safely passing through highway exit |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2754297Y (en) * | 2004-12-29 | 2006-01-25 | 杨文政 | Video signal device for investigating automobile parastyle dead angle |
-
2007
- 2007-08-07 JP JP2007205671A patent/JP4784572B2/en not_active Expired - Fee Related
-
2008
- 2008-02-04 CN CN2008100062801A patent/CN101252679B/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015015928A1 (en) * | 2013-07-30 | 2015-02-05 | Toyota Jidosha Kabushiki Kaisha | Driving assist device |
CN105209299A (en) * | 2013-07-30 | 2015-12-30 | 丰田自动车株式会社 | Driving assist device |
US10322673B2 (en) | 2014-01-24 | 2019-06-18 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
JP2017087844A (en) * | 2015-11-05 | 2017-05-25 | 矢崎総業株式会社 | Projection device |
JP2019125920A (en) * | 2018-01-17 | 2019-07-25 | 株式会社ジャパンディスプレイ | Monitor display system and display method |
JP7160301B2 (en) | 2018-01-17 | 2022-10-25 | 株式会社ジャパンディスプレイ | MONITOR DISPLAY SYSTEM AND ITS DISPLAY METHOD |
CN113978367A (en) * | 2021-11-16 | 2022-01-28 | 武汉华星光电技术有限公司 | Vehicle-mounted display device, vehicle-mounted display system and vehicle |
CN113978367B (en) * | 2021-11-16 | 2023-06-02 | 武汉华星光电技术有限公司 | Vehicle-mounted display device, vehicle-mounted display system and vehicle |
Also Published As
Publication number | Publication date |
---|---|
CN101252679B (en) | 2012-05-23 |
JP4784572B2 (en) | 2011-10-05 |
CN101252679A (en) | 2008-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4862774B2 (en) | Driving support method and driving support device | |
JP4784572B2 (en) | Driving support method and driving support device | |
EP1961613B1 (en) | Driving support method and driving support device | |
EP1974998B1 (en) | Driving support method and driving support apparatus | |
JP4412365B2 (en) | Driving support method and driving support device | |
JP4497133B2 (en) | Driving support method and driving support device | |
US11511627B2 (en) | Display device and computer program | |
WO2019097763A1 (en) | Superposed-image display device and computer program | |
US20090086019A1 (en) | Driving support device, driving support method and computer program | |
US11525694B2 (en) | Superimposed-image display device and computer program | |
JP6945933B2 (en) | Display system | |
JP7151073B2 (en) | Display device and computer program | |
JP7163748B2 (en) | Vehicle display control device | |
JP6626069B2 (en) | Display device for vehicles | |
JP2008099201A (en) | Method and device for supporting driving | |
JP2010185761A (en) | Navigation system, road map display method | |
JP2020112542A (en) | Display system, display controller, and display control program | |
JP2016078726A (en) | Virtual image display | |
JP5156307B2 (en) | In-vehicle camera system | |
JP4862775B2 (en) | Driving support method and driving support device | |
JP2009005054A (en) | Driving support device, driving support method, and program | |
JP2007230314A (en) | Video presenting device and video presenting method | |
JP2007233430A (en) | Driving support method and driving support device | |
WO2020149109A1 (en) | Display system, display control device, and display control program | |
JP6984341B2 (en) | Superimposed image display device and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110614 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110627 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4784572 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140722 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |