JP2007233430A - Driving support method and driving support device - Google Patents
Driving support method and driving support device Download PDFInfo
- Publication number
- JP2007233430A JP2007233430A JP2006050528A JP2006050528A JP2007233430A JP 2007233430 A JP2007233430 A JP 2007233430A JP 2006050528 A JP2006050528 A JP 2006050528A JP 2006050528 A JP2006050528 A JP 2006050528A JP 2007233430 A JP2007233430 A JP 2007233430A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- stationary object
- intersection
- blind spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving support method and a driving support device.
従来より、ブラインドコーナー、例えば交差点でのスムーズな運転操作を支援するための運転支援装置が種々提案されている(例えば特許文献1)。この特許文献1の運転支援装置は、車両の前側の両コーナー部に車両の側方を撮像する撮像カメラを備え、例えば交差点に進入するとき、その撮像カメラにて側方の障害物を検出したとき運転者に警告(報知)するものであった。
しかしながら、上記運転支援装置では、カメラが撮像した画像に映った道路上の物体を全て障害物と判定し、運転者に対して警告をしていた。つまり、交差点を通過するに際しては、走行に影響を与えない静止物が道路上に存在していても運転者に警告していた。従って、警告が不要な場合でも警告がなされることから、無用な緊張感を伴う運転操作を頻繁に強いられることになり、非常に煩わしいものとなっていた。 However, in the driving support apparatus, all objects on the road reflected in the image captured by the camera are determined as obstacles, and the driver is warned. That is, when passing through an intersection, the driver is warned even if a stationary object that does not affect traveling is present on the road. Therefore, even when the warning is unnecessary, the warning is given, and thus the driving operation with unnecessary tension is frequently forced, which is very troublesome.
本発明は、上記問題点に鑑みてなされたものであり、その目的は、撮像手段を用いて側方の障害物を検出しながら走行する際、運転者に煩わしさを与えることのない的確な情報を出力して運転に集中させることができる運転支援方法及び運転支援装置を提供することにある。 The present invention has been made in view of the above-described problems, and its purpose is to provide an accurate operation that does not bother the driver when traveling while detecting side obstacles using the imaging means. An object of the present invention is to provide a driving support method and a driving support device that can output information and concentrate on driving.
請求項1の発明は、自車両の前端側方又は後端側方の側方画像を撮像する撮像手段を備え、前記撮像手段が撮像した側方画像の画像データに基づいて障害物を検出し、その障害物の情報を出力する運転支援方法であって、前記画像データに基づいて自車両の前端側方又は後端側方の道路上の静止物を画像認識し、その画像認識した静止物の位置を求め、その静止物の位置が自車両に対して死角を生成する位置か、死角を生成しない位置にあるかを判定し、静止物が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力するようにした。
請求項2の発明は、自車両の前端側方又は後端側方の側方画像を撮像する撮像手段と、
前記撮像手段を起動させる起動手段と、前記撮像手段が撮像した側方画像の画像データに基づいて、前記自車両の前端側方又は後端側方の静止物を画像認識にて求める静止物認識手段と、前記静止物認識手段が求めた静止物の位置を求める位置算出手段と、前記静止物の位置が、死角を生成する位置かあるか、死角を生成しない位置にあるかを判定する判定手段と、前記静止物の位置が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力手段から出力する情報出力制御手段とを設けた運転支援装置。
The invention according to
The invention of claim 2 is an image pickup means for picking up a side image of the front end side or the rear end side of the host vehicle,
Stationary object recognition that obtains a stationary object at the front end side or the rear end side of the host vehicle by image recognition based on image data of a side image captured by the imaging unit and an activation unit that activates the imaging unit. And a position calculating means for determining the position of the stationary object obtained by the stationary object recognizing means, and a determination for determining whether the position of the stationary object is a position that generates a blind spot or a position that does not generate a blind spot And an information output control means for outputting from the output means information indicating that the stationary object generates a blind spot when the position of the stationary object is at a position that generates a blind spot.
請求項3の発明は、請求項2に記載の運転支援装置において、前記起動手段は、車速センサからの検出信号に基づいて、自車両の車速を検出し、その車速が予め定めた車速以下になったとき、前記撮像手段を起動させる。 According to a third aspect of the present invention, in the driving support device according to the second aspect, the activation means detects a vehicle speed of the host vehicle based on a detection signal from a vehicle speed sensor, and the vehicle speed is less than a predetermined vehicle speed. When this happens, the imaging means is activated.
請求項4の発明は、請求項2又は3に記載の運転支援装置において、前記起動手段は、自車位置と道路地図情報とに基づいて、自車両の交差点への進入を検出し、自車両が交差点に進入するとき、前記撮像手段を起動させる。 According to a fourth aspect of the present invention, in the driving support device according to the second or third aspect, the activation means detects the approach of the own vehicle to the intersection based on the own vehicle position and the road map information, and the own vehicle When the vehicle enters the intersection, the imaging means is activated.
請求項1に記載の発明によれば、静止物があってもその静止物が死角を生成しない位置にある場合は情報が出力されない。従って、運転者に煩わしさを与えることはない的確な情報を出力して運転に集中させることができる。 According to the first aspect of the present invention, even if there is a stationary object, no information is output if the stationary object is in a position that does not generate a blind spot. Accordingly, accurate information that does not bother the driver can be output and concentrated on driving.
請求項2の発明によれば、静止物があってもその静止物が死角を生成しない位置にある場合は情報が出力されない。従って、運転者に煩わしさを与えることはない的確な情報を出力して運転に集中させることができる。 According to the second aspect of the present invention, even if there is a stationary object, no information is output if the stationary object is in a position that does not generate a blind spot. Accordingly, accurate information that does not bother the driver can be output and concentrated on driving.
請求項3の発明によれば、特別な検出装置を設けることなく、既存の車速センサを使って自車両が予め定めた車速以下になったときに、撮像手段を起動させることができる。そのため、必要な場合のみ撮像手段を起動させることができる。 According to the third aspect of the present invention, the imaging means can be activated when the host vehicle falls below a predetermined vehicle speed using an existing vehicle speed sensor without providing a special detection device. Therefore, the imaging means can be activated only when necessary.
請求項4の発明によれば、交差点へ自車両が進入するとき、撮像手段を起動させることができる。そのため、必要な場合のみ撮像手段を起動させることができる。
According to the invention of
以下、本発明の運転支援装置を具体化した実施形態を図1〜図7に従って説明する。図1は、自動車(車両)に搭載された運転支援装置の構成を説明するブロック図である。
図1に示す運転支援装置1は、主制御を行う起動手段、情報出力制御手段としてのCPU2、CPU2の演算結果等を一時記憶するRAM3、経路案内プログラム、ブラインドコーナー支援プログラム等、各種の運転支援プログラムを記憶するROM4を備えている。
DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a driving support device of the present invention is embodied will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a driving support apparatus mounted on an automobile (vehicle).
The
CPU2は、運転支援装置1に備えたGPS受信部5と接続され、そのGPS受信部5から入力した位置検出信号に基づいて、絶対座標を算出する。さらに、CPU2は、車両側入力I/F部6を介して、自車両C(図4参照)に設けられた車速センサ6a及びジャイロ6bから、車速パルス信号及び方位検出信号を入力して、自律航法により基準位置からの相対座標を演算する。そして、GPS受信部5に基づく絶対座標と合わせて、自車位置を特定する。尚、車両用のXY座標系は、路面上の自車両Cの位置を示すための座標系(路面座標)である。CPU2は、その時々の自車位置の路面座標値をRAM3の所定の記憶領域に更新記憶する。また、CPU2は、車両側入力I/F部6を介して、自車両Cに設けられたステアリングセンサ6cから、操舵角信号を入力して、その時の操舵角を演算するようになっている。
The CPU 2 is connected to the
また、運転支援装置1は、地理データ記憶部7を備えて、その地理データ記憶部7には道路地図情報としての経路データ8及び地図データ9が記憶されている。経路データ8は、全国を各区域に区画したリージョン毎のデータであって、図2に示すように、ヘッダ8a、ノードデータ8b、リンクデータ8c、リンクコスト8d、座標データ8eを有している。ヘッダ8aは、各経路データ8を管理するためのデータを有している。ノードデータ8bは、ブラインドコーナーとしてのT字交差点、十字交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等を有している。リンクデータ8cは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等を有している。リンクコスト8dは、各リンクレコードに対して付与されたリンクID、リンク長、平均旅行時間等から構成されたデータ群である。座標データ8eは、各ノードの絶対座標を示す。
The
一方、地図データ9は、全国の地図を分割したエリア毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図3に示すように、各地図データ9は、ヘッダ9
a、道路データ9b、背景データ9cを有している。ヘッダ9aは、その地図データ9の階層、エリア等を示し、管理目的のデータである。道路データ9bは、道路の形状・種類を示すデータであって、道路属性データ9d、リンク形状データ9e、接続データ9fを有している。道路属性データ9dは、道路名称、道路の方向、道路幅、車線数を有している。接続データ9fは、各リンクと各ノードの接続状態を表わすデータである。
On the other hand, the
a, road data 9b, and background data 9c. The header 9a indicates the hierarchy, area, etc. of the
リンク形状データ9eは、座標データ9g、形状補間データ9hを有している。座標データ9gはリンク及びノードの座標を示している。形状補間データ9hは、リンクの途中に設定され、道路のカーブ形状を示すために設定された形状補間点に関するデータであり、形状補間点の座標、リンクの方位等のデータである。また、背景データ9cは、道路、市街地、河川等を描画する描画データである。
The
CPU2は、画像プロセッサ10を介してタッチパネルであるディスプレイ11と接続されている。ディスプレイ11は、そのディスプレイ11に隣接した位置に設けられた操作スイッチ12の入力操作により、外部入出力I/F部13を介して、目的地を示すデータを受信する。この目的地のデータを受信すると、CPU2は、経路データ8を用いて、目的地と現在の自車位置とを接続する推奨経路を探索する。
The CPU 2 is connected to the display 11 that is a touch panel via the
また、ディスプレイ11に隣接した位置には、ブラインドコーナー支援設定スイッチ12aが設けられ、この支援設定スイッチ12aを操作することにより、CPU2は、「ブラインドコーナー支援モード」となる。「ブラインドコーナー支援モード」は、本実施形態では、交差点に進入する際に、駐停車している他車両の有無及び駐停車している他車両が死角を生成する位置にある障害物となるか画像認識し、その結果を出力するモードである。
Further, a blind corner
また、CPU2は、前記車両側入力I/F部6を介して、自車両Cに設けられたイグニッションスイッチ6dからのオンを入力すると、画像プロセッサ10を制御して、自車両Cの自車位置周辺の地図データ9を読出す。そして、CPU2は、画像プロセッサ10を介してその地図データ9に基づく地図画面30(道路案内画像P2)をディスプレイ11に出力する。このとき、画像プロセッサ10は、地図画面30に、その地図内での道路(探索して選択した目的地までの案内経路R)上に自車位置を示す指標31を重畳して表示する。
Further, when the CPU 2 inputs ON from an ignition switch 6d provided in the host vehicle C via the vehicle side input I /
CPU2は、運転支援装置1に備えた音声プロセッサ14と接続され、その音声プロセッサ14には出力手段を構成するスピーカ15に接続されている。出力手段を構成する音声プロセッサ14は、CPU2の制御により、スピーカ15を駆動して、その時々に経路案内のための音声案内をする。また、音声プロセッサ14は、「ブラインドコーナー支援モード」時において、「ブラインドコーナー支援モード」を実行している旨の音声案内を行うとともに、交差点に進入する際、「駐停車の車両の死角に注意してください」という注意を促す情報としての警告を、音声案内する。
The CPU 2 is connected to a
また、CPU2は、運転支援装置1に備えた画像データ入力部16と接続され、その画像データ入力部16には撮像手段としての側方カメラCAが接続されている。CPU2は、「ブラインドコーナー支援モード」時において、画像データ入力部16を介して、所定のタイミングで側方カメラCAを起動させる。側方カメラCAは、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。
The CPU 2 is connected to an image
側方カメラCAは、図4(a)(b)に示すように、自車両Cの前端部のグリル中央位置に取付けられ、自車両Cの前端部から左右方向それぞれに向いた光軸を有し、前端部左方に広がる左側撮像領域Z1及び前端部右方に広がる右側撮像領域Z2を撮像する。 As shown in FIGS. 4 (a) and 4 (b), the side camera CA is mounted at the center of the grille at the front end of the host vehicle C, and has an optical axis directed from the front end of the host vehicle C to the left and right directions. Then, the left imaging area Z1 extending to the left of the front end and the right imaging area Z2 extending to the right of the front end are imaged.
CPU2は、画像データ入力部16を制御して、側方カメラCAが撮像した左側撮像領域Z1及び右側撮像領域Z2の側方画像P1の画像データを側方画像データG1として取得すると、画像プロセッサ10の図示しないVRAMに一時記憶する。
When the CPU 2 controls the image
静止物認識手段、位置算出手段、判定手段としての画像プロセッサ10は、VRAMに一時記憶した側方画像データG1を補正処理し、補正した側方画像データG1に基づいて、図5に示すように、運転席に設けられたディスプレイ11に側方画像P1を表示することができるようになっている。
画像プロセッサ10は、ディスプレイ11に側方画像P1を表示するほかに、側方画像P1に基づいて、現在走行している道路R1と交差点100で交差する道路R2上に静止物(障害物)としての駐停車している他車両Cxがあるかどうかを画像認識する。
The
In addition to displaying the side image P1 on the display 11, the
側方画像P1中に他車両Cxがあるかどうかの判断は、側方画像P1中の映った像の水平エッジと垂直エッジを検出し、その水平エッジ及び垂直エッジ検出に基づいて像が車両かどうか判断する。そして、他車両Cxが映っている判断したとき、画像プロセッサ10は、その他車両Cxが駐停車しているかどうか判断する。他車両Cxが駐停車しているかどうかの判断は、本実施形態では、時間をおいて取得した側方画像P1に基づいて前記と同様に他車両Cxを判定し、その他車両Cxの位置と、先の判定した他車両Cxの位置との差を求め、その差に基づいて駐停車している他車両Cxかどうか判定する。
Whether the other vehicle Cx is present in the side image P1 is determined by detecting the horizontal edge and the vertical edge of the image displayed in the side image P1, and determining whether the image is a vehicle based on the detection of the horizontal edge and the vertical edge. Judge whether. When it is determined that the other vehicle Cx is reflected, the
また、画像プロセッサ10は、駐停車している他車両Cxがあると判定したとき、その静止物としての他車両Cxが交差点の近傍位置であって死角を生成する位置にある障害物としての他車両Cxかどうか判断する。近傍位置にあるかどうか判断は、交差点100からどのくらい離れた距離(離間距離)にあるか演算する。本実施形態では、画像プロセッサ10は、側方画像データG1を用いて、交差点100の路上に描かれた停止線、横断歩道、信号機又は交差点のコーナーを画像認識して交差点100の起点位置を決めるとともに、他車両Cxの大きさを画像認識で求め、前記起点位置に対する他車両Cxの大きさから交差点からの距離(離間距離)を演算する。そして、画像プロセッサ10は、演算した離間距離が予め定めた基準距離Dk以内ならば交差点100の近傍にあると判断する。予め定めた基準距離Dkは、交差点に進入したとき、駐停車している他車両Cxが死角となって駐停車している他車両Cxの背後から交差点に向かって進入してくる他の車両が予測できない距離であって、予め試験、実験等で求めた値である。
さらに、画像プロセッサ10は、交差点100の近傍に駐停車している他車両Cxがある場合、駐停車している他車両Cxからさらに、自車両Cに対して遠方へと延びる車線(道路)が交差点100から見通せるかどうか、即ち、見通せる車線(道路)があるかどうか画像認識する。詳述すると、画像認識した他車両Cxに対して、交差点100からその他車両Cxからさらに先まで延びる車線の画像認識を行う。本実施形態では、画像プロセッサ10は、側方画像データG1を用いて、道路R2上に描かれた走行車線、道路に沿って設けられたガードレールを画像認識し、車線(道路)があるかどうか判定する。
When the
Further, when there is another vehicle Cx parked in the vicinity of the
そして、画像プロセッサ10は、側方カメラCAで撮像した左側撮像領域Z1及び右側撮像領域Z2の側方画像P1の側方画像データG1に基づいて、画像認識した結果を、RAM3に記憶する。
Then, the
そして、CPU2は、画像プロセッサ10が作成しRAM3に記憶した認識結果に基づいて、側方画像P1の表示の有無、及び、音声による警告の有無を判定する。
例えば、図6(a)に示すように、現在走行している道路R1と交差点100で交差する道路R2の左側及び右側に、駐停車している他車両Cxがないとする。この場合には、CPU2は、死角となるものはなく、交差点100に向かって進入してくる他の車両を予
測できると判定し、側方画像P1の表示を行うとともに、音声による警告を行わない。
Then, the CPU 2 determines whether or not the side image P1 is displayed and whether or not there is an audio warning based on the recognition result created by the
For example, as shown in FIG. 6A, it is assumed that there is no other vehicle Cx parked at the left and right sides of the road R2 that intersects the currently traveling road R1 at the
図6(b)(c)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側に、交差点100から予め定めた基準距離路Dk以上離れた位置に駐停車している他車両Cxがあるとする。この場合には、CPU2は、この遠く離れた所に駐停車している他車両Cxが死角を生成する位置にいない、即ち、駐停車している他車両Cxの背後から交差点100に向かって進入してくる他の車両は容易に予測できると判定し、側方画像P1の表示を行うとともに、音声による警告を行わない。
As shown in FIGS. 6B and 6C, the vehicle is parked on the left side when viewed from the own vehicle C of the road R2 that intersects the currently traveling road R1 at a position separated from the
図6(d)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側の自車両Cから近い側の車線に、交差点100から予め定めた基準距路Dk以内に駐停車している他車両Cxがあって、その他車両Cxからさら先に延びる車線が交差点100から見通せないとする。この場合には、CPU2は、この駐停車している他車両Cxが死角を生成する位置にあり、交差点100に向かって進入してくる他の車両を予測できないと判定し、側方画像P1の表示を中止して、音声による警告を行う。
As shown in FIG. 6 (d), a predetermined reference distance Dk from the
図6(e)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側の自車両Cから遠い側の車線に、交差点100から予め定めた基準距路Dk以内に駐停車している他車両Cxがあって、その他車両Cxからさらに先に延びる車線が交差点100から見通せるとする。この場合には、CPU2は、交差点100に向かって進入してくる他の車両を予測できるが、この駐停車している他車両Cxが死角を生成する位置にあると判定し音声による警告を行う。つまり、死角に成り難いが警告とともに側方画像P1の表示を行う。
As shown in FIG. 6 (e), a predetermined reference distance Dk from the
次に、本実施形態の運転支援装置1のブラインドコーナー支援処理を、図7に示す運転支援装置1の処理手順を示すフローチャートに従って説明する。
今、イグニッションスイッチ6dをオンさせた後、運転者によるブラインドコーナー支援設定スイッチ12aの選択操作に基づいて、CPU2は「ブラインドコーナー支援モード」となり、図7のフローチャートに示すブラインドコーナー支援プログラムを実行する。
Next, the blind corner assistance processing of the driving
Now, after turning on the ignition switch 6d, the CPU 2 enters the “blind corner support mode” based on the selection operation of the blind corner
まず、CPU2は、GPS受信部5、車速センサ6a及びジャイロ6bからの各信号に基づいて自車両Cの自車位置及び車速を求める(ステップS1)。なお、本実施形態では、ブラインドコーナー支援プログラムとともに、目的地までの案内経路が複数探索されその中の選択された1つの案内経路Rを案内表示する経路案内プログラムも実行されているものとする。従って、CPU2は、ディスプレイ11に道路地図を表示するとともに、目的地までの案内経路Rが表示される。そして、CPU2は算出した自車位置に基づいて自車位置を示す指標31を合わせた道路案内画像P2をディスプレイ11に表示する。
First, the CPU 2 obtains the host vehicle position and the vehicle speed of the host vehicle C based on the signals from the
続いて、CPU2は、求めた車速に基づいて予め定めた基準車速Vk以下かどうかチェックする(ステップS2)。ここで、基準車速Vkとは、徐行して交差点100に進入する場合の車速であって、本実施形態では、時速4キロメートルとしている。従って、車速が基準車速Vk以下になったとき、交差点100に進入する車速となったと判断するようにしている。従って、車速が基準車速Vkを超えている場合(ステップS2でNO)、CPU2はステップS12に移り、ブラインドコーナー支援モードが終了かどうかチェックする。
Subsequently, the CPU 2 checks whether or not the vehicle speed is equal to or lower than a predetermined reference vehicle speed Vk based on the obtained vehicle speed (step S2). Here, the reference vehicle speed Vk is a vehicle speed when slowly approaching the
CPU2は、ブラインドコーナー支援モードが終了かどうかの判断を、イグニッションスイッチ6d又はブラインドコーナー支援設定スイッチ12aがオフされたかどうかで判断する。そして、ブラインドコーナー支援モードが終了しない場合には(ステップS12
でNO)、CPU2はステップS1に戻り新たな自車位置及び車速の演算を行う。すなわち、車速が基準車速Vk以下になるまでは、自車位置及び車速を更新しながら走行する。従って、CPU2は、案内経路とともに自車位置を示す指標31を表示した道路案内画像P2をディスプレイ11に表示しながら運転者に経路案内をする。
The CPU 2 determines whether or not the blind corner support mode is ended based on whether or not the ignition switch 6d or the blind corner
NO), the CPU 2 returns to step S1 and calculates a new host vehicle position and vehicle speed. That is, the vehicle travels while updating its own vehicle position and vehicle speed until the vehicle speed becomes the reference vehicle speed Vk or less. Therefore, the CPU 2 provides route guidance to the driver while displaying the road guidance image P2 displaying the
やがて、自車両Cの車速が基準車速Vk以下になったと判断すると(ステップS2でYES)、CPU2は、交差点100に進入するために車速が落ちたと判断し、画像データ入力部16を制御して、側方カメラCAを起動し、左側撮像領域Z1及び右側撮像領域Z2の画像データを側方画像データG1として取得する(ステップS3)。さらに、CPU2は、画像プロセッサ10を制御して、取得した側方画像データG1をVRAMに一時記憶するとともに、側方画像データG1に基づく側方画像P1を道路案内画像P2に代えてディスプレイ11に切換表示する(ステップS4)。従って、運転者は、交差点100に進入する度に、ディスプレイ11に表示される現在走行している道路R1と交差する道路R2の左右両側方の画像(側方画像P1)を見ることができる。
Eventually, if it is determined that the vehicle speed of the host vehicle C has become equal to or lower than the reference vehicle speed Vk (YES in step S2), the CPU 2 determines that the vehicle speed has decreased due to entering the
続いて、画像プロセッサ10は、VRAMに一時記憶した側方画像データG1を用いて画像認識して、現在走行している道路R1と交差する道路R2上の他車両Cxの有無、交差点100の近傍位置かどうか、他車両Cxからさらに先までのびる車線が見通せるかどうかを求め、その画像認識結果をRAM3に記憶する(ステップS5)。
Subsequently, the
そして、CPU2は、RAM3に記憶した画像認識結果から、側方画像P1中に他車両Cxがあるかどうかチェックする(ステップS6)。そして、図6(a)に示すように、道路R2上に他車両Cxが無い場合には(ステップS6でNO)、CPU2は、そのまま、側方画像データG1に基づく側方画像P1の表示を継続し(ステップS9)、ステップS12に移る。 Then, the CPU 2 checks whether there is another vehicle Cx in the side image P1 from the image recognition result stored in the RAM 3 (step S6). As shown in FIG. 6A, when there is no other vehicle Cx on the road R2 (NO in step S6), the CPU 2 displays the side image P1 based on the side image data G1 as it is. Continue (step S9) and move to step S12.
一方、道路R2上に他車両Cxがある場合には(ステップS6でYES)、CPU2は、道路R2上の他車両Cxが予め定めた基準距離Dk以内(交差点100の近傍)にあるかどうかをRAM3に記憶した画像認識結果からチェックする(ステップS7)。そして、図6(b)(c)に示すように、道路R2上の他車両Cxが予め定めた基準距離Dkを超える位置にある場合には(ステップS7でNO)、CPU2は、そのまま、側方画像データG1に基づく側方画像P1の表示を継続し(ステップS9)、ステップS12に移る。 On the other hand, when there is another vehicle Cx on the road R2 (YES in step S6), the CPU 2 determines whether the other vehicle Cx on the road R2 is within a predetermined reference distance Dk (near the intersection 100). A check is made from the image recognition result stored in the RAM 3 (step S7). Then, as shown in FIGS. 6B and 6C, when the other vehicle Cx on the road R2 is at a position exceeding the predetermined reference distance Dk (NO in step S7), the CPU 2 keeps the side as it is. The display of the side image P1 based on the side image data G1 is continued (step S9), and the process proceeds to step S12.
反対に、図6(d)(e)に示すように、道路R2上の他車両Cxが予め定めた基準距離Dk以内(交差点100の近傍)にある場合(ステップS7でYES)、CPU2は他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうかRAM3に記憶した画像認識結果からチェックする(ステップS8)。そして、図6(d)に示すように、他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せない場合(ステップS8でYES)、CPU2は、画像プロセッサ10及び音声プロセッサ14を制御して、側方画像P1の表示を中止するとともに、スピーカ15から「駐停車の車両の死角に注意してください」という警告を運転者に報知した後(ステップS10)、ステップS12に移る。
反対に、図6(e)に示すように、他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せる場合(ステップS8でNO)、CPU2は、画像プロセッサ10及び音声プロセッサ14を制御して、側方画像P1を継続表示するとともに、スピーカ15から「駐停車の車両の死角に注意してください」という警告をあわせて運転者に報知した後(ステップS11)、ステップS12に移る。
On the other hand, as shown in FIGS. 6D and 6E, when the other vehicle Cx on the road R2 is within a predetermined reference distance Dk (near the intersection 100) (YES in step S7), the CPU 2 It is checked from the image recognition result stored in the RAM 3 whether a lane (road) extending further beyond the vehicle Cx can be seen from the intersection 100 (step S8). Then, as shown in FIG. 6D, when a lane (road) extending further from the other vehicle Cx cannot be seen from the intersection 100 (YES in step S8), the CPU 2 controls the
On the other hand, as shown in FIG. 6E, when a lane (road) extending further from the other vehicle Cx can be seen from the intersection 100 (NO in step S8), the CPU 2 controls the
CPU2は、ステップS12に移ると、ブラインドコーナー支援モードが終了かどうか
を判断する。そして、ブラインドコーナー支援モードが終了しない場合には(ステップS10でNO)、CPU2はステップS1に戻り前記と同様な処理を行う。すなわち、運転支援装置1は、交差点100へ進入するときには側方画像P1がディスプレイ11に表示される。また、運転支援装置1は、交差点100の近傍に他車両Cx(死角を生成する位置にある他車両Cx)が駐停車していると、その駐停車している他車両Cxが死角を生成する位置にあるとしてスピーカ15で警告メッセージを報知するようになっている。
When proceeding to step S12, the CPU 2 determines whether or not the blind corner support mode is finished. If the blind corner support mode does not end (NO in step S10), the CPU 2 returns to step S1 and performs the same processing as described above. That is, when the driving
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、自車両Cが交差点100に進入する時、側方カメラCAが撮像した側方画像P1で、現在走行している道路R1と交差する道路R2上に駐停車している他車両Cxを求めるとともに、駐停車している他車両Cxが交差点100の近傍位置かどうかを求めた。そして、他車両Cxが交差点100の近傍位置にある場合に、「駐停車の車両の死角に注意してください」という警告をスピーカ15を介して運転者に報知するようにした。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, when the host vehicle C enters the
従って、交差点100に進入する場合には、現在走行している道路R1と交差する道路R2上に駐停車している他車両Cxがあっても、交差点100の近傍になく死角を生成しない位置にある他車両Cxの場合には警告を運転者に報知しないので、運転者にとって煩わしい警告がなくなる。
Accordingly, when entering the
(2)本実施形態では、他車両Cxが交差点100の近傍にある場合であって、その他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せない場合には、側方画像P1の表示を中止して運転者に警告のみした。従って、運転者は、他車両Cxの背後から交差点100に進入するおそれのある他の車両を想定した運転に集中することができる。
(3)本実施形態では、他車両Cxが交差点100の近傍にある場合であって、その他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せる場合には、側方画像P1の表示を継続するとともに運転者に警告をした。従って、運転者は、警告を聞きながら他車両Cxの背後から交差点100に進入する他の車両を側方画像P1で視認することができる。
(2) In this embodiment, when the other vehicle Cx is in the vicinity of the
(3) In this embodiment, when the other vehicle Cx is in the vicinity of the
尚、上記各実施形態は以下のように変更してもよい。
・上記実施形態は、交差点100の進入は、車速が基準車速Vkより小さくなったとき、交差点100に進入すると見なし、側方カメラCAを起動させた。これを、自車位置の情報と地理データ記憶部7に記憶した経路データ8及び地図データ9に基づいて交差点100に進入を検出して側方カメラCAを起動させるようにしてもよい。また、自車両Cに別途フロントカメラを起動させておき、常時、自車両Cの前方を撮像する。そして、その時々に撮像した画像から、交差点100特有の設置物を画像認識により検出して側方カメラCAを起動させるようにしてもよい。
In addition, you may change each said embodiment as follows.
In the above embodiment, the approach of the
さらに、運転席に、側方カメラCAを起動させるための、専用の起動スイッチを設け、運転者が適宜操作して側方カメラCAを起動させ、死角を生成する位置にある他車両Cxを画像認識させるようにしてもよい。
・上記実施形態は、駐停車している他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうかの判断は、側方画像データG1を用いて画像認識で行った。これを、地図データ9の道路属性データ9dから、道路の幅又は車線数を割出し、道路の幅又は車線数に基づいて他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうか判断するようにしてもよい。
Furthermore, a dedicated activation switch for activating the side camera CA is provided in the driver's seat, and the driver operates the side camera CA appropriately to activate the other camera Cx at a position where a blind spot is generated. You may make it recognize.
In the embodiment described above, whether or not the lane (road) extending further from the other vehicle Cx parked and stopped can be seen from the
・上記実施形態では、撮像手段を自車両Cの前端部のグリル中央位置に取付けた側方カ
メラCAで実施した。これを、前部バンパーの左右コーナー部に、それぞれ側方を撮像するカメラを用いて実施してもよい。要は、前端部左方に広がる左側撮像領域Z1及び前端部右方に広がる右側撮像領域Z2が撮像できるカメラであればどんな構成でもよい。
In the above embodiment, the imaging means is implemented by the side camera CA attached to the center of the grill at the front end of the host vehicle C. You may implement this using the camera which images each side in the left-right corner part of a front bumper. In short, any configuration may be used as long as the camera can capture the left imaging area Z1 extending to the left of the front end and the right imaging area Z2 extending to the right of the front end.
・上記実施形態では、探索し選択した目的地までの案内経路Rに沿って走行している場合について前方の交差点100を検出したが、案内経路Rを設定していないで走行している場合も勿論、実施可能である。
In the above embodiment, the
・上記実施形態では、交差点100に具体化したが、T字路に進入するとき、空き地から道路に出るときでもよく、要は撮像手段の側方カメラCAが、側方の画像を撮像し、その撮像した側方画像P1から死角を生成する位置にある他車両Cxを知りたい箇所であればどの地点でもよい。
In the above embodiment, the embodiment is embodied in the
・上記実施形態では、自車両Cの前端部の左右側方の側方画像P1を取得し死角を生成する位置にある他車両Cxを画像認識するようにした。これを、自車両Cの後端部の左右側方の側方画像を取得し、側方画像中の死角を生成する位置にある他車両Cxを画像認識するようにして実施してもよい。この場合、自車両Cを後進させて、例えば交差点100、T字路、空き地から道路に出るときにも、同様に、死角を生成する位置にある他車両Cxを画像認識し知ることができる。
In the above embodiment, the left and right side images P1 of the front end of the host vehicle C are acquired, and the other vehicle Cx at the position where the blind spot is generated is image-recognized. This may be performed by acquiring the left and right side images of the rear end of the host vehicle C and recognizing the other vehicle Cx at the position where the blind spot in the side image is generated. In this case, when the host vehicle C is moved backward and exits the road from the
・上記実施形態では、他車両Cxを静止物として画像認識を行うようにしたが、車両以外の例えば道路工事用の設置物等も静止物として画像認識を行うようにしてもよい。 In the above embodiment, the image recognition is performed using the other vehicle Cx as a stationary object. However, for example, an installation object for road construction other than the vehicle may be recognized as a stationary object.
1…運転支援装置、2…CPU、3…RAM、4…ROM、5…GPS受信部、6…車両側入力I/F部、6a…車速センサ、6b…ジャイロ、6c…ステアリングセンサ、6d…イグニッションスイッチ、7…地理データ記憶部、10…画像プロセッサ、11…ディスプレイ、12a…ブラインドコーナー支援設定スイッチ、14…音声プロセッサ、15…スピーカ、31…指標、100…交差点、C…自車両、Cx…他車両、CA…撮像手段としての側方カメラ、R…案内経路、R1,R2…道路、P1…側方画像、P2…道路案内画像、Z1…左側撮像領域、Z2…右側撮像領域。
DESCRIPTION OF
Claims (4)
前記画像データに基づいて自車両の前端側方又は後端側方の道路上の静止物を画像認識し、その画像認識した静止物の位置を求め、その静止物の位置が自車両に対して死角を生成する位置か、死角を生成しない位置にあるかを判定し、静止物が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力するようにしたことを特徴とする運転支援方法。 An image pickup means for picking up a side image of the front end side or the rear end side of the own vehicle is detected, an obstacle is detected based on image data of the side image picked up by the image pickup means, and information on the obstacle is obtained. A driving support method for outputting,
Based on the image data, an image of a stationary object on the road on the front end side or the rear end side of the host vehicle is recognized, the position of the image recognized stationary object is obtained, and the position of the stationary object is relative to the host vehicle. Judgment is made whether it is a position that generates a blind spot or a position that does not generate a blind spot, and when a stationary object is in a position that generates a blind spot, information that the stationary object generates a blind spot is output. A characteristic driving support method.
前記撮像手段を起動させる起動手段と、
前記撮像手段が撮像した側方画像の画像データに基づいて、前記自車両の前端側方又は後端側方の静止物を画像認識にて求める静止物認識手段と、
前記静止物認識手段が求めた静止物の位置を求める位置算出手段と、
前記静止物の位置が、死角を生成する位置かあるか、死角を生成しない位置にあるかを判定する判定手段と、
前記静止物の位置が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力手段から出力する情報出力制御手段と
を設けたことを特徴とする運転支援装置。 Imaging means for capturing a side image of the front end side or the rear end side of the host vehicle;
Starting means for starting the imaging means;
Based on image data of a side image captured by the imaging unit, a stationary object recognition unit that obtains a stationary object on the front end side or the rear end side of the host vehicle by image recognition;
Position calculating means for determining the position of the stationary object determined by the stationary object recognition means;
Determining means for determining whether the position of the stationary object is a position that generates a blind spot or a position that does not generate a blind spot;
An information output control means for outputting from the output means information indicating that the stationary object generates a blind spot when the position of the stationary object is at a position that generates a blind spot.
前記起動手段は、車速センサからの検出信号に基づいて、自車両の車速を検出し、その車速が予め定めた車速以下になったとき、前記撮像手段を起動させることを特徴とする運転支援装置。 In the driving assistance device according to claim 2,
The activation means detects the vehicle speed of the host vehicle based on a detection signal from a vehicle speed sensor, and activates the imaging means when the vehicle speed falls below a predetermined vehicle speed. .
前記起動手段は、自車位置と道路地図情報とに基づいて、自車両の交差点への進入を検出し、自車両が交差点に進入するとき、前記撮像手段を起動させることを特徴とする運転支援装置。 In the driving assistance device according to claim 2 or 3,
The activation means detects the approach of the own vehicle to the intersection based on the own vehicle position and the road map information, and activates the imaging means when the own vehicle enters the intersection. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050528A JP2007233430A (en) | 2006-02-27 | 2006-02-27 | Driving support method and driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006050528A JP2007233430A (en) | 2006-02-27 | 2006-02-27 | Driving support method and driving support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007233430A true JP2007233430A (en) | 2007-09-13 |
Family
ID=38554007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006050528A Pending JP2007233430A (en) | 2006-02-27 | 2006-02-27 | Driving support method and driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007233430A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009139281A1 (en) * | 2008-05-14 | 2009-11-19 | アイシン精機株式会社 | Periphery monitoring device |
JP2009282929A (en) * | 2008-05-26 | 2009-12-03 | Fujitsu Ten Ltd | Vehicle periphery monitoring device and method |
JP2020112927A (en) * | 2019-01-09 | 2020-07-27 | 株式会社デンソー | Operation support device |
CN114905503A (en) * | 2021-02-09 | 2022-08-16 | 丰田自动车株式会社 | Robot control system, robot control method, and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002354466A (en) * | 2001-05-23 | 2002-12-06 | Nissan Motor Co Ltd | Surrounding monitoring device for vehicle |
JP2004173071A (en) * | 2002-11-21 | 2004-06-17 | Auto Network Gijutsu Kenkyusho:Kk | Vehicle periphery monitoring device |
JP2004252550A (en) * | 2003-02-18 | 2004-09-09 | Toyota Central Res & Dev Lab Inc | Driving support device |
JP2005199892A (en) * | 2004-01-16 | 2005-07-28 | Denso Corp | Periphery monitoring device for vehicle |
JP2005309812A (en) * | 2004-04-22 | 2005-11-04 | Denso Corp | Vehicle periphery display controller |
-
2006
- 2006-02-27 JP JP2006050528A patent/JP2007233430A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002354466A (en) * | 2001-05-23 | 2002-12-06 | Nissan Motor Co Ltd | Surrounding monitoring device for vehicle |
JP2004173071A (en) * | 2002-11-21 | 2004-06-17 | Auto Network Gijutsu Kenkyusho:Kk | Vehicle periphery monitoring device |
JP2004252550A (en) * | 2003-02-18 | 2004-09-09 | Toyota Central Res & Dev Lab Inc | Driving support device |
JP2005199892A (en) * | 2004-01-16 | 2005-07-28 | Denso Corp | Periphery monitoring device for vehicle |
JP2005309812A (en) * | 2004-04-22 | 2005-11-04 | Denso Corp | Vehicle periphery display controller |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009139281A1 (en) * | 2008-05-14 | 2009-11-19 | アイシン精機株式会社 | Periphery monitoring device |
JP2009278349A (en) * | 2008-05-14 | 2009-11-26 | Aisin Seiki Co Ltd | Perimeter monitoring device |
JP4716139B2 (en) * | 2008-05-14 | 2011-07-06 | アイシン精機株式会社 | Perimeter monitoring device |
KR101229159B1 (en) | 2008-05-14 | 2013-02-01 | 아이신세이끼가부시끼가이샤 | Periphery monitoring device |
JP2009282929A (en) * | 2008-05-26 | 2009-12-03 | Fujitsu Ten Ltd | Vehicle periphery monitoring device and method |
JP2020112927A (en) * | 2019-01-09 | 2020-07-27 | 株式会社デンソー | Operation support device |
CN114905503A (en) * | 2021-02-09 | 2022-08-16 | 丰田自动车株式会社 | Robot control system, robot control method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700623B2 (en) | Driving support device and computer program | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
US11511627B2 (en) | Display device and computer program | |
JP4432801B2 (en) | Driving assistance device | |
JP5136500B2 (en) | Driving support device, driving support method, and driving support program | |
EP1961613A2 (en) | Driving support method and driving support device | |
JP2007226666A (en) | Driving support method and driving support device | |
JP4784572B2 (en) | Driving support method and driving support device | |
JP6361403B2 (en) | Automatic driving support system, automatic driving support method, and computer program | |
US20230135641A1 (en) | Superimposed image display device | |
JP2008242987A (en) | Operation support method and operation support device | |
JP4787196B2 (en) | Car navigation system | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP2007140992A (en) | Method and device for supporting driving at intersection | |
JP4848991B2 (en) | Driving support method and driving support device | |
JP4968369B2 (en) | In-vehicle device and vehicle recognition method | |
JP2007233430A (en) | Driving support method and driving support device | |
JP2023012793A (en) | Superimposed image display device | |
JP4687381B2 (en) | Vehicle recognition method and in-vehicle device | |
JP2009067292A (en) | In-vehicle camera system | |
JP6811497B1 (en) | Self-driving car | |
JP2007122395A (en) | Method and device for determining change of direction | |
JP6582798B2 (en) | Driving support system, driving support method, and computer program | |
JP2010238147A (en) | System, method and program for supporting driving | |
JP6984341B2 (en) | Superimposed image display device and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101005 |