JP2007233430A - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP2007233430A
JP2007233430A JP2006050528A JP2006050528A JP2007233430A JP 2007233430 A JP2007233430 A JP 2007233430A JP 2006050528 A JP2006050528 A JP 2006050528A JP 2006050528 A JP2006050528 A JP 2006050528A JP 2007233430 A JP2007233430 A JP 2007233430A
Authority
JP
Japan
Prior art keywords
vehicle
image
stationary object
intersection
blind spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006050528A
Other languages
Japanese (ja)
Inventor
Hideto Miyazaki
秀人 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2006050528A priority Critical patent/JP2007233430A/en
Publication of JP2007233430A publication Critical patent/JP2007233430A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support method and a driving support device, capable of letting a driver concentrate on driving by outputting accurate information which never troubles the driver in traveling while detecting a lateral obstacle by use of an imaging means. <P>SOLUTION: When a vehicle advances into an intersection, a CPU 2 activates a side camera CA, and an image processor 10 determines whether the other vehicle parked or stopped near the intersection is located in a dead angle-generating position or not by image recognition by use of side image data G1 taken by the side camera CA. The CPU 2 controls a voice processor 14, when the processor 10 determines that the parked or stopped other vehicle is in the dead angle-generating position, and warns the driver that the other vehicle parked or stopped near the intersection is in the dead angle-generating position through a loudspeaker 15. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、運転支援方法及び運転支援装置に関する。   The present invention relates to a driving support method and a driving support device.

従来より、ブラインドコーナー、例えば交差点でのスムーズな運転操作を支援するための運転支援装置が種々提案されている(例えば特許文献1)。この特許文献1の運転支援装置は、車両の前側の両コーナー部に車両の側方を撮像する撮像カメラを備え、例えば交差点に進入するとき、その撮像カメラにて側方の障害物を検出したとき運転者に警告(報知)するものであった。
特開平11−306499号公報
Conventionally, various driving support devices for supporting smooth driving operation at a blind corner, for example, at an intersection, have been proposed (for example, Patent Document 1). The driving support device of Patent Document 1 includes an imaging camera that images the side of the vehicle at both front corners of the vehicle. For example, when entering an intersection, a side obstacle is detected by the imaging camera. At times, the driver was warned (notified).
JP-A-11-306499

しかしながら、上記運転支援装置では、カメラが撮像した画像に映った道路上の物体を全て障害物と判定し、運転者に対して警告をしていた。つまり、交差点を通過するに際しては、走行に影響を与えない静止物が道路上に存在していても運転者に警告していた。従って、警告が不要な場合でも警告がなされることから、無用な緊張感を伴う運転操作を頻繁に強いられることになり、非常に煩わしいものとなっていた。   However, in the driving support apparatus, all objects on the road reflected in the image captured by the camera are determined as obstacles, and the driver is warned. That is, when passing through an intersection, the driver is warned even if a stationary object that does not affect traveling is present on the road. Therefore, even when the warning is unnecessary, the warning is given, and thus the driving operation with unnecessary tension is frequently forced, which is very troublesome.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、撮像手段を用いて側方の障害物を検出しながら走行する際、運転者に煩わしさを与えることのない的確な情報を出力して運転に集中させることができる運転支援方法及び運転支援装置を提供することにある。   The present invention has been made in view of the above-described problems, and its purpose is to provide an accurate operation that does not bother the driver when traveling while detecting side obstacles using the imaging means. An object of the present invention is to provide a driving support method and a driving support device that can output information and concentrate on driving.

請求項1の発明は、自車両の前端側方又は後端側方の側方画像を撮像する撮像手段を備え、前記撮像手段が撮像した側方画像の画像データに基づいて障害物を検出し、その障害物の情報を出力する運転支援方法であって、前記画像データに基づいて自車両の前端側方又は後端側方の道路上の静止物を画像認識し、その画像認識した静止物の位置を求め、その静止物の位置が自車両に対して死角を生成する位置か、死角を生成しない位置にあるかを判定し、静止物が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力するようにした。
請求項2の発明は、自車両の前端側方又は後端側方の側方画像を撮像する撮像手段と、
前記撮像手段を起動させる起動手段と、前記撮像手段が撮像した側方画像の画像データに基づいて、前記自車両の前端側方又は後端側方の静止物を画像認識にて求める静止物認識手段と、前記静止物認識手段が求めた静止物の位置を求める位置算出手段と、前記静止物の位置が、死角を生成する位置かあるか、死角を生成しない位置にあるかを判定する判定手段と、前記静止物の位置が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力手段から出力する情報出力制御手段とを設けた運転支援装置。
The invention according to claim 1 includes an imaging unit that captures a lateral image of the front end side or the rear end side of the host vehicle, and detects an obstacle based on image data of the side image captured by the imaging unit. A driving support method for outputting information on the obstacle, which recognizes a stationary object on a road on the front end side or the rear end side of the host vehicle based on the image data, and recognizes the image recognized stationary object. The position of the stationary object is determined to determine whether the position of the stationary object is a position that generates a blind spot or a position that does not generate a blind spot, and when the stationary object is a position that generates a blind spot, the stationary object Added information to generate blind spots.
The invention of claim 2 is an image pickup means for picking up a side image of the front end side or the rear end side of the host vehicle,
Stationary object recognition that obtains a stationary object at the front end side or the rear end side of the host vehicle by image recognition based on image data of a side image captured by the imaging unit and an activation unit that activates the imaging unit. And a position calculating means for determining the position of the stationary object obtained by the stationary object recognizing means, and a determination for determining whether the position of the stationary object is a position that generates a blind spot or a position that does not generate a blind spot And an information output control means for outputting from the output means information indicating that the stationary object generates a blind spot when the position of the stationary object is at a position that generates a blind spot.

請求項3の発明は、請求項2に記載の運転支援装置において、前記起動手段は、車速センサからの検出信号に基づいて、自車両の車速を検出し、その車速が予め定めた車速以下になったとき、前記撮像手段を起動させる。   According to a third aspect of the present invention, in the driving support device according to the second aspect, the activation means detects a vehicle speed of the host vehicle based on a detection signal from a vehicle speed sensor, and the vehicle speed is less than a predetermined vehicle speed. When this happens, the imaging means is activated.

請求項4の発明は、請求項2又は3に記載の運転支援装置において、前記起動手段は、自車位置と道路地図情報とに基づいて、自車両の交差点への進入を検出し、自車両が交差点に進入するとき、前記撮像手段を起動させる。   According to a fourth aspect of the present invention, in the driving support device according to the second or third aspect, the activation means detects the approach of the own vehicle to the intersection based on the own vehicle position and the road map information, and the own vehicle When the vehicle enters the intersection, the imaging means is activated.

請求項1に記載の発明によれば、静止物があってもその静止物が死角を生成しない位置にある場合は情報が出力されない。従って、運転者に煩わしさを与えることはない的確な情報を出力して運転に集中させることができる。   According to the first aspect of the present invention, even if there is a stationary object, no information is output if the stationary object is in a position that does not generate a blind spot. Accordingly, accurate information that does not bother the driver can be output and concentrated on driving.

請求項2の発明によれば、静止物があってもその静止物が死角を生成しない位置にある場合は情報が出力されない。従って、運転者に煩わしさを与えることはない的確な情報を出力して運転に集中させることができる。   According to the second aspect of the present invention, even if there is a stationary object, no information is output if the stationary object is in a position that does not generate a blind spot. Accordingly, accurate information that does not bother the driver can be output and concentrated on driving.

請求項3の発明によれば、特別な検出装置を設けることなく、既存の車速センサを使って自車両が予め定めた車速以下になったときに、撮像手段を起動させることができる。そのため、必要な場合のみ撮像手段を起動させることができる。   According to the third aspect of the present invention, the imaging means can be activated when the host vehicle falls below a predetermined vehicle speed using an existing vehicle speed sensor without providing a special detection device. Therefore, the imaging means can be activated only when necessary.

請求項4の発明によれば、交差点へ自車両が進入するとき、撮像手段を起動させることができる。そのため、必要な場合のみ撮像手段を起動させることができる。   According to the invention of claim 4, when the own vehicle enters the intersection, the imaging means can be activated. Therefore, the imaging means can be activated only when necessary.

以下、本発明の運転支援装置を具体化した実施形態を図1〜図7に従って説明する。図1は、自動車(車両)に搭載された運転支援装置の構成を説明するブロック図である。
図1に示す運転支援装置1は、主制御を行う起動手段、情報出力制御手段としてのCPU2、CPU2の演算結果等を一時記憶するRAM3、経路案内プログラム、ブラインドコーナー支援プログラム等、各種の運転支援プログラムを記憶するROM4を備えている。
DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment in which a driving support device of the present invention is embodied will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a driving support apparatus mounted on an automobile (vehicle).
The driving support apparatus 1 shown in FIG. 1 has various driving assistances such as a starting means for performing main control, a CPU 2 as information output control means, a RAM 3 for temporarily storing calculation results of the CPU 2, a route guidance program, a blind corner assistance program, and the like. A ROM 4 for storing the program is provided.

CPU2は、運転支援装置1に備えたGPS受信部5と接続され、そのGPS受信部5から入力した位置検出信号に基づいて、絶対座標を算出する。さらに、CPU2は、車両側入力I/F部6を介して、自車両C(図4参照)に設けられた車速センサ6a及びジャイロ6bから、車速パルス信号及び方位検出信号を入力して、自律航法により基準位置からの相対座標を演算する。そして、GPS受信部5に基づく絶対座標と合わせて、自車位置を特定する。尚、車両用のXY座標系は、路面上の自車両Cの位置を示すための座標系(路面座標)である。CPU2は、その時々の自車位置の路面座標値をRAM3の所定の記憶領域に更新記憶する。また、CPU2は、車両側入力I/F部6を介して、自車両Cに設けられたステアリングセンサ6cから、操舵角信号を入力して、その時の操舵角を演算するようになっている。   The CPU 2 is connected to the GPS receiver 5 provided in the driving support device 1 and calculates absolute coordinates based on the position detection signal input from the GPS receiver 5. Further, the CPU 2 inputs the vehicle speed pulse signal and the direction detection signal from the vehicle speed sensor 6a and the gyro 6b provided in the host vehicle C (see FIG. 4) via the vehicle side input I / F unit 6 to autonomously The relative coordinates from the reference position are calculated by navigation. Then, the vehicle position is specified together with the absolute coordinates based on the GPS receiver 5. The XY coordinate system for vehicles is a coordinate system (road surface coordinates) for indicating the position of the host vehicle C on the road surface. The CPU 2 updates and stores the road surface coordinate value of the vehicle position at that time in a predetermined storage area of the RAM 3. Further, the CPU 2 inputs a steering angle signal from a steering sensor 6c provided in the host vehicle C via the vehicle side input I / F unit 6, and calculates a steering angle at that time.

また、運転支援装置1は、地理データ記憶部7を備えて、その地理データ記憶部7には道路地図情報としての経路データ8及び地図データ9が記憶されている。経路データ8は、全国を各区域に区画したリージョン毎のデータであって、図2に示すように、ヘッダ8a、ノードデータ8b、リンクデータ8c、リンクコスト8d、座標データ8eを有している。ヘッダ8aは、各経路データ8を管理するためのデータを有している。ノードデータ8bは、ブラインドコーナーとしてのT字交差点、十字交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等を有している。リンクデータ8cは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等を有している。リンクコスト8dは、各リンクレコードに対して付与されたリンクID、リンク長、平均旅行時間等から構成されたデータ群である。座標データ8eは、各ノードの絶対座標を示す。   The driving support apparatus 1 includes a geographic data storage unit 7 in which route data 8 and map data 9 are stored as road map information. The route data 8 is data for each region that divides the whole country into areas, and as shown in FIG. 2, has a header 8a, node data 8b, link data 8c, link cost 8d, and coordinate data 8e. . The header 8 a has data for managing each route data 8. The node data 8b includes identification data of each node indicating a T-shaped intersection as a blind corner, a cross intersection, a road end point, and the like, identification data of adjacent nodes, and the like. The link data 8c constitutes a link string, and includes link records indicating connection nodes, data indicating traffic restrictions, and the like. The link cost 8d is a data group composed of a link ID, a link length, an average travel time, and the like given to each link record. The coordinate data 8e indicates the absolute coordinates of each node.

一方、地図データ9は、全国の地図を分割したエリア毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図3に示すように、各地図データ9は、ヘッダ9
a、道路データ9b、背景データ9cを有している。ヘッダ9aは、その地図データ9の階層、エリア等を示し、管理目的のデータである。道路データ9bは、道路の形状・種類を示すデータであって、道路属性データ9d、リンク形状データ9e、接続データ9fを有している。道路属性データ9dは、道路名称、道路の方向、道路幅、車線数を有している。接続データ9fは、各リンクと各ノードの接続状態を表わすデータである。
On the other hand, the map data 9 is stored for each area obtained by dividing the map of the whole country, and is divided for each layer from a wide area map to a narrow area map. As shown in FIG. 3, each map data 9 includes a header 9
a, road data 9b, and background data 9c. The header 9a indicates the hierarchy, area, etc. of the map data 9, and is management purpose data. The road data 9b is data indicating the shape and type of the road, and includes road attribute data 9d, link shape data 9e, and connection data 9f. The road attribute data 9d includes a road name, a road direction, a road width, and the number of lanes. The connection data 9f is data representing the connection state between each link and each node.

リンク形状データ9eは、座標データ9g、形状補間データ9hを有している。座標データ9gはリンク及びノードの座標を示している。形状補間データ9hは、リンクの途中に設定され、道路のカーブ形状を示すために設定された形状補間点に関するデータであり、形状補間点の座標、リンクの方位等のデータである。また、背景データ9cは、道路、市街地、河川等を描画する描画データである。   The link shape data 9e has coordinate data 9g and shape interpolation data 9h. Coordinate data 9g indicates the coordinates of links and nodes. The shape interpolation data 9h is data related to a shape interpolation point set in the middle of the link and set to indicate the curve shape of the road, and is data such as the coordinates of the shape interpolation point and the direction of the link. The background data 9c is drawing data for drawing roads, urban areas, rivers, and the like.

CPU2は、画像プロセッサ10を介してタッチパネルであるディスプレイ11と接続されている。ディスプレイ11は、そのディスプレイ11に隣接した位置に設けられた操作スイッチ12の入力操作により、外部入出力I/F部13を介して、目的地を示すデータを受信する。この目的地のデータを受信すると、CPU2は、経路データ8を用いて、目的地と現在の自車位置とを接続する推奨経路を探索する。   The CPU 2 is connected to the display 11 that is a touch panel via the image processor 10. The display 11 receives data indicating the destination via the external input / output I / F unit 13 by an input operation of the operation switch 12 provided at a position adjacent to the display 11. When this destination data is received, the CPU 2 uses the route data 8 to search for a recommended route that connects the destination and the current vehicle position.

また、ディスプレイ11に隣接した位置には、ブラインドコーナー支援設定スイッチ12aが設けられ、この支援設定スイッチ12aを操作することにより、CPU2は、「ブラインドコーナー支援モード」となる。「ブラインドコーナー支援モード」は、本実施形態では、交差点に進入する際に、駐停車している他車両の有無及び駐停車している他車両が死角を生成する位置にある障害物となるか画像認識し、その結果を出力するモードである。   Further, a blind corner support setting switch 12a is provided at a position adjacent to the display 11. By operating this support setting switch 12a, the CPU 2 enters the “blind corner support mode”. In this embodiment, the “blind corner support mode” is the presence or absence of other vehicles parked and stopped when entering the intersection, and whether or not the other vehicles parked and parked are obstacles that generate blind spots. This mode recognizes images and outputs the results.

また、CPU2は、前記車両側入力I/F部6を介して、自車両Cに設けられたイグニッションスイッチ6dからのオンを入力すると、画像プロセッサ10を制御して、自車両Cの自車位置周辺の地図データ9を読出す。そして、CPU2は、画像プロセッサ10を介してその地図データ9に基づく地図画面30(道路案内画像P2)をディスプレイ11に出力する。このとき、画像プロセッサ10は、地図画面30に、その地図内での道路(探索して選択した目的地までの案内経路R)上に自車位置を示す指標31を重畳して表示する。   Further, when the CPU 2 inputs ON from an ignition switch 6d provided in the host vehicle C via the vehicle side input I / F unit 6, the CPU 2 controls the image processor 10 to control the host vehicle position of the host vehicle C. The surrounding map data 9 is read out. Then, the CPU 2 outputs a map screen 30 (road guidance image P2) based on the map data 9 to the display 11 via the image processor 10. At this time, the image processor 10 superimposes and displays an index 31 indicating the position of the vehicle on a road in the map (guide route R to the destination selected by searching) on the map screen 30.

CPU2は、運転支援装置1に備えた音声プロセッサ14と接続され、その音声プロセッサ14には出力手段を構成するスピーカ15に接続されている。出力手段を構成する音声プロセッサ14は、CPU2の制御により、スピーカ15を駆動して、その時々に経路案内のための音声案内をする。また、音声プロセッサ14は、「ブラインドコーナー支援モード」時において、「ブラインドコーナー支援モード」を実行している旨の音声案内を行うとともに、交差点に進入する際、「駐停車の車両の死角に注意してください」という注意を促す情報としての警告を、音声案内する。   The CPU 2 is connected to a sound processor 14 provided in the driving support apparatus 1, and the sound processor 14 is connected to a speaker 15 that constitutes output means. The voice processor 14 constituting the output means drives the speaker 15 under the control of the CPU 2 and performs voice guidance for route guidance at any time. In addition, the voice processor 14 provides voice guidance indicating that the “blind corner support mode” is being executed in the “blind corner support mode”, and “notice the blind spot of a parked vehicle when entering the intersection”. Please give a warning as information to call attention.

また、CPU2は、運転支援装置1に備えた画像データ入力部16と接続され、その画像データ入力部16には撮像手段としての側方カメラCAが接続されている。CPU2は、「ブラインドコーナー支援モード」時において、画像データ入力部16を介して、所定のタイミングで側方カメラCAを起動させる。側方カメラCAは、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。   The CPU 2 is connected to an image data input unit 16 provided in the driving support apparatus 1, and a side camera CA as an imaging unit is connected to the image data input unit 16. The CPU 2 activates the side camera CA at a predetermined timing via the image data input unit 16 in the “blind corner support mode”. The side camera CA includes an optical mechanism including a wide-angle lens, a mirror, and the like, and a CCD image pickup device (none of which is shown).

側方カメラCAは、図4(a)(b)に示すように、自車両Cの前端部のグリル中央位置に取付けられ、自車両Cの前端部から左右方向それぞれに向いた光軸を有し、前端部左方に広がる左側撮像領域Z1及び前端部右方に広がる右側撮像領域Z2を撮像する。   As shown in FIGS. 4 (a) and 4 (b), the side camera CA is mounted at the center of the grille at the front end of the host vehicle C, and has an optical axis directed from the front end of the host vehicle C to the left and right directions. Then, the left imaging area Z1 extending to the left of the front end and the right imaging area Z2 extending to the right of the front end are imaged.

CPU2は、画像データ入力部16を制御して、側方カメラCAが撮像した左側撮像領域Z1及び右側撮像領域Z2の側方画像P1の画像データを側方画像データG1として取得すると、画像プロセッサ10の図示しないVRAMに一時記憶する。   When the CPU 2 controls the image data input unit 16 to acquire the image data of the side image P1 of the left imaging area Z1 and the right imaging area Z2 captured by the side camera CA as the side image data G1, the image processor 10 Are temporarily stored in a VRAM (not shown).

静止物認識手段、位置算出手段、判定手段としての画像プロセッサ10は、VRAMに一時記憶した側方画像データG1を補正処理し、補正した側方画像データG1に基づいて、図5に示すように、運転席に設けられたディスプレイ11に側方画像P1を表示することができるようになっている。
画像プロセッサ10は、ディスプレイ11に側方画像P1を表示するほかに、側方画像P1に基づいて、現在走行している道路R1と交差点100で交差する道路R2上に静止物(障害物)としての駐停車している他車両Cxがあるかどうかを画像認識する。
The image processor 10 as a stationary object recognizing unit, a position calculating unit, and a determining unit corrects the side image data G1 temporarily stored in the VRAM, and based on the corrected side image data G1, as shown in FIG. The side image P1 can be displayed on the display 11 provided in the driver's seat.
In addition to displaying the side image P1 on the display 11, the image processor 10 as a stationary object (obstacle) on the road R2 intersecting the currently traveling road R1 at the intersection 100 based on the side image P1. Whether there is another vehicle Cx parked or stopped is recognized as an image.

側方画像P1中に他車両Cxがあるかどうかの判断は、側方画像P1中の映った像の水平エッジと垂直エッジを検出し、その水平エッジ及び垂直エッジ検出に基づいて像が車両かどうか判断する。そして、他車両Cxが映っている判断したとき、画像プロセッサ10は、その他車両Cxが駐停車しているかどうか判断する。他車両Cxが駐停車しているかどうかの判断は、本実施形態では、時間をおいて取得した側方画像P1に基づいて前記と同様に他車両Cxを判定し、その他車両Cxの位置と、先の判定した他車両Cxの位置との差を求め、その差に基づいて駐停車している他車両Cxかどうか判定する。   Whether the other vehicle Cx is present in the side image P1 is determined by detecting the horizontal edge and the vertical edge of the image displayed in the side image P1, and determining whether the image is a vehicle based on the detection of the horizontal edge and the vertical edge. Judge whether. When it is determined that the other vehicle Cx is reflected, the image processor 10 determines whether the other vehicle Cx is parked or stopped. In this embodiment, it is determined whether the other vehicle Cx is parked or stopped by determining the other vehicle Cx based on the side image P1 acquired after a time, the position of the other vehicle Cx, A difference from the previously determined position of the other vehicle Cx is obtained, and based on the difference, it is determined whether the other vehicle Cx is parked or stopped.

また、画像プロセッサ10は、駐停車している他車両Cxがあると判定したとき、その静止物としての他車両Cxが交差点の近傍位置であって死角を生成する位置にある障害物としての他車両Cxかどうか判断する。近傍位置にあるかどうか判断は、交差点100からどのくらい離れた距離(離間距離)にあるか演算する。本実施形態では、画像プロセッサ10は、側方画像データG1を用いて、交差点100の路上に描かれた停止線、横断歩道、信号機又は交差点のコーナーを画像認識して交差点100の起点位置を決めるとともに、他車両Cxの大きさを画像認識で求め、前記起点位置に対する他車両Cxの大きさから交差点からの距離(離間距離)を演算する。そして、画像プロセッサ10は、演算した離間距離が予め定めた基準距離Dk以内ならば交差点100の近傍にあると判断する。予め定めた基準距離Dkは、交差点に進入したとき、駐停車している他車両Cxが死角となって駐停車している他車両Cxの背後から交差点に向かって進入してくる他の車両が予測できない距離であって、予め試験、実験等で求めた値である。
さらに、画像プロセッサ10は、交差点100の近傍に駐停車している他車両Cxがある場合、駐停車している他車両Cxからさらに、自車両Cに対して遠方へと延びる車線(道路)が交差点100から見通せるかどうか、即ち、見通せる車線(道路)があるかどうか画像認識する。詳述すると、画像認識した他車両Cxに対して、交差点100からその他車両Cxからさらに先まで延びる車線の画像認識を行う。本実施形態では、画像プロセッサ10は、側方画像データG1を用いて、道路R2上に描かれた走行車線、道路に沿って設けられたガードレールを画像認識し、車線(道路)があるかどうか判定する。
When the image processor 10 determines that there is another vehicle Cx parked and stopped, the other vehicle Cx as the stationary object is another obstacle as a position in the vicinity of the intersection and generating a blind spot. It is determined whether the vehicle Cx. To determine whether or not the vehicle is in the vicinity position, the distance (separation distance) from the intersection 100 is calculated. In the present embodiment, the image processor 10 recognizes a stop line, a pedestrian crossing, a traffic light, or a corner of an intersection drawn on the road of the intersection 100 by using the side image data G1, and determines the starting position of the intersection 100. At the same time, the size of the other vehicle Cx is obtained by image recognition, and the distance (separation distance) from the intersection is calculated from the size of the other vehicle Cx with respect to the starting position. Then, the image processor 10 determines that the calculated separation distance is in the vicinity of the intersection 100 if it is within a predetermined reference distance Dk. When the predetermined reference distance Dk is entered into the intersection, other vehicles Cx parked and stopped are blind spots and other vehicles entering the intersection from behind the parked other vehicles Cx It is a distance that cannot be predicted, and is a value obtained in advance through tests, experiments, and the like.
Further, when there is another vehicle Cx parked in the vicinity of the intersection 100, the image processor 10 further includes a lane (road) that extends further away from the other vehicle Cx parked. An image is recognized whether it can be seen from the intersection 100, that is, whether there is a lane (road) that can be seen. More specifically, image recognition of the lane extending from the intersection 100 to the further beyond the other vehicle Cx is performed on the image-recognized other vehicle Cx. In the present embodiment, the image processor 10 recognizes the image of the traveling lane drawn on the road R2 and the guard rail provided along the road using the side image data G1, and determines whether there is a lane (road). judge.

そして、画像プロセッサ10は、側方カメラCAで撮像した左側撮像領域Z1及び右側撮像領域Z2の側方画像P1の側方画像データG1に基づいて、画像認識した結果を、RAM3に記憶する。   Then, the image processor 10 stores the result of image recognition in the RAM 3 based on the side image data G1 of the side image P1 of the left imaging area Z1 and the right imaging area Z2 captured by the side camera CA.

そして、CPU2は、画像プロセッサ10が作成しRAM3に記憶した認識結果に基づいて、側方画像P1の表示の有無、及び、音声による警告の有無を判定する。
例えば、図6(a)に示すように、現在走行している道路R1と交差点100で交差する道路R2の左側及び右側に、駐停車している他車両Cxがないとする。この場合には、CPU2は、死角となるものはなく、交差点100に向かって進入してくる他の車両を予
測できると判定し、側方画像P1の表示を行うとともに、音声による警告を行わない。
Then, the CPU 2 determines whether or not the side image P1 is displayed and whether or not there is an audio warning based on the recognition result created by the image processor 10 and stored in the RAM 3.
For example, as shown in FIG. 6A, it is assumed that there is no other vehicle Cx parked at the left and right sides of the road R2 that intersects the currently traveling road R1 at the intersection 100. In this case, the CPU 2 determines that there is no blind spot and can predict other vehicles entering the intersection 100, displays the side image P1, and does not give a voice warning. .

図6(b)(c)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側に、交差点100から予め定めた基準距離路Dk以上離れた位置に駐停車している他車両Cxがあるとする。この場合には、CPU2は、この遠く離れた所に駐停車している他車両Cxが死角を生成する位置にいない、即ち、駐停車している他車両Cxの背後から交差点100に向かって進入してくる他の車両は容易に予測できると判定し、側方画像P1の表示を行うとともに、音声による警告を行わない。   As shown in FIGS. 6B and 6C, the vehicle is parked on the left side when viewed from the own vehicle C of the road R2 that intersects the currently traveling road R1 at a position separated from the intersection 100 by a predetermined reference distance path Dk or more. Assume that there is another vehicle Cx that is stopped. In this case, the CPU 2 is not in a position where the other vehicle Cx parked or distant at this far place generates a blind spot, that is, enters the intersection 100 from behind the parked other vehicle Cx. It is determined that other vehicles coming can be easily predicted, and the side image P1 is displayed and a warning by voice is not performed.

図6(d)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側の自車両Cから近い側の車線に、交差点100から予め定めた基準距路Dk以内に駐停車している他車両Cxがあって、その他車両Cxからさら先に延びる車線が交差点100から見通せないとする。この場合には、CPU2は、この駐停車している他車両Cxが死角を生成する位置にあり、交差点100に向かって進入してくる他の車両を予測できないと判定し、側方画像P1の表示を中止して、音声による警告を行う。   As shown in FIG. 6 (d), a predetermined reference distance Dk from the intersection 100 to the lane closer to the left vehicle C as seen from the vehicle C on the road R2 intersecting the currently traveling road R1. It is assumed that there is another vehicle Cx parked within the vehicle, and a lane extending further from the other vehicle Cx cannot be seen from the intersection 100. In this case, the CPU 2 determines that the parked other vehicle Cx is in a position where a blind spot is generated and cannot predict another vehicle entering toward the intersection 100, and the side image P1 Cancel the display and give an audio warning.

図6(e)に示すように、現在走行している道路R1と交差する道路R2の自車両Cからみて左側の自車両Cから遠い側の車線に、交差点100から予め定めた基準距路Dk以内に駐停車している他車両Cxがあって、その他車両Cxからさらに先に延びる車線が交差点100から見通せるとする。この場合には、CPU2は、交差点100に向かって進入してくる他の車両を予測できるが、この駐停車している他車両Cxが死角を生成する位置にあると判定し音声による警告を行う。つまり、死角に成り難いが警告とともに側方画像P1の表示を行う。   As shown in FIG. 6 (e), a predetermined reference distance Dk from the intersection 100 to a lane far from the host vehicle C on the left side as viewed from the host vehicle C of the road R2 intersecting the currently traveling road R1. It is assumed that there is another vehicle Cx parked within the vehicle, and a lane extending further from the other vehicle Cx can be seen from the intersection 100. In this case, the CPU 2 can predict another vehicle entering the intersection 100, but determines that the other vehicle Cx parked and stopped is at a position where a blind spot is generated and issues a warning by voice. . In other words, the side image P1 is displayed together with the warning although it is difficult to become a blind spot.

次に、本実施形態の運転支援装置1のブラインドコーナー支援処理を、図7に示す運転支援装置1の処理手順を示すフローチャートに従って説明する。
今、イグニッションスイッチ6dをオンさせた後、運転者によるブラインドコーナー支援設定スイッチ12aの選択操作に基づいて、CPU2は「ブラインドコーナー支援モード」となり、図7のフローチャートに示すブラインドコーナー支援プログラムを実行する。
Next, the blind corner assistance processing of the driving assistance device 1 of the present embodiment will be described according to the flowchart showing the processing procedure of the driving assistance device 1 shown in FIG.
Now, after turning on the ignition switch 6d, the CPU 2 enters the “blind corner support mode” based on the selection operation of the blind corner support setting switch 12a by the driver, and executes the blind corner support program shown in the flowchart of FIG. .

まず、CPU2は、GPS受信部5、車速センサ6a及びジャイロ6bからの各信号に基づいて自車両Cの自車位置及び車速を求める(ステップS1)。なお、本実施形態では、ブラインドコーナー支援プログラムとともに、目的地までの案内経路が複数探索されその中の選択された1つの案内経路Rを案内表示する経路案内プログラムも実行されているものとする。従って、CPU2は、ディスプレイ11に道路地図を表示するとともに、目的地までの案内経路Rが表示される。そして、CPU2は算出した自車位置に基づいて自車位置を示す指標31を合わせた道路案内画像P2をディスプレイ11に表示する。   First, the CPU 2 obtains the host vehicle position and the vehicle speed of the host vehicle C based on the signals from the GPS receiver 5, the vehicle speed sensor 6a, and the gyro 6b (step S1). In the present embodiment, it is assumed that, along with the blind corner support program, a route guidance program that searches for a plurality of guidance routes to the destination and guides and displays one of the selected guidance routes R is also executed. Accordingly, the CPU 2 displays a road map on the display 11 and a guide route R to the destination. Then, the CPU 2 displays on the display 11 a road guidance image P2 in which an index 31 indicating the own vehicle position is combined based on the calculated own vehicle position.

続いて、CPU2は、求めた車速に基づいて予め定めた基準車速Vk以下かどうかチェックする(ステップS2)。ここで、基準車速Vkとは、徐行して交差点100に進入する場合の車速であって、本実施形態では、時速4キロメートルとしている。従って、車速が基準車速Vk以下になったとき、交差点100に進入する車速となったと判断するようにしている。従って、車速が基準車速Vkを超えている場合(ステップS2でNO)、CPU2はステップS12に移り、ブラインドコーナー支援モードが終了かどうかチェックする。   Subsequently, the CPU 2 checks whether or not the vehicle speed is equal to or lower than a predetermined reference vehicle speed Vk based on the obtained vehicle speed (step S2). Here, the reference vehicle speed Vk is a vehicle speed when slowly approaching the intersection 100, and in the present embodiment, the reference vehicle speed Vk is 4 km / h. Therefore, when the vehicle speed becomes equal to or lower than the reference vehicle speed Vk, it is determined that the vehicle speed has entered the intersection 100. Therefore, if the vehicle speed exceeds the reference vehicle speed Vk (NO in step S2), the CPU 2 moves to step S12 and checks whether the blind corner support mode is finished.

CPU2は、ブラインドコーナー支援モードが終了かどうかの判断を、イグニッションスイッチ6d又はブラインドコーナー支援設定スイッチ12aがオフされたかどうかで判断する。そして、ブラインドコーナー支援モードが終了しない場合には(ステップS12
でNO)、CPU2はステップS1に戻り新たな自車位置及び車速の演算を行う。すなわち、車速が基準車速Vk以下になるまでは、自車位置及び車速を更新しながら走行する。従って、CPU2は、案内経路とともに自車位置を示す指標31を表示した道路案内画像P2をディスプレイ11に表示しながら運転者に経路案内をする。
The CPU 2 determines whether or not the blind corner support mode is ended based on whether or not the ignition switch 6d or the blind corner support setting switch 12a is turned off. If the blind corner support mode does not end (step S12)
NO), the CPU 2 returns to step S1 and calculates a new host vehicle position and vehicle speed. That is, the vehicle travels while updating its own vehicle position and vehicle speed until the vehicle speed becomes the reference vehicle speed Vk or less. Therefore, the CPU 2 provides route guidance to the driver while displaying the road guidance image P2 displaying the indicator 31 indicating the vehicle position along with the guidance route on the display 11.

やがて、自車両Cの車速が基準車速Vk以下になったと判断すると(ステップS2でYES)、CPU2は、交差点100に進入するために車速が落ちたと判断し、画像データ入力部16を制御して、側方カメラCAを起動し、左側撮像領域Z1及び右側撮像領域Z2の画像データを側方画像データG1として取得する(ステップS3)。さらに、CPU2は、画像プロセッサ10を制御して、取得した側方画像データG1をVRAMに一時記憶するとともに、側方画像データG1に基づく側方画像P1を道路案内画像P2に代えてディスプレイ11に切換表示する(ステップS4)。従って、運転者は、交差点100に進入する度に、ディスプレイ11に表示される現在走行している道路R1と交差する道路R2の左右両側方の画像(側方画像P1)を見ることができる。   Eventually, if it is determined that the vehicle speed of the host vehicle C has become equal to or lower than the reference vehicle speed Vk (YES in step S2), the CPU 2 determines that the vehicle speed has decreased due to entering the intersection 100, and controls the image data input unit 16 Then, the side camera CA is activated, and the image data of the left imaging area Z1 and the right imaging area Z2 is acquired as the side image data G1 (step S3). Further, the CPU 2 controls the image processor 10 to temporarily store the acquired side image data G1 in the VRAM, and replaces the side image P1 based on the side image data G1 on the display 11 instead of the road guide image P2. The display is switched (step S4). Therefore, every time the driver enters the intersection 100, the driver can see images on the left and right sides (side images P1) of the road R2 that intersects the currently traveling road R1 displayed on the display 11.

続いて、画像プロセッサ10は、VRAMに一時記憶した側方画像データG1を用いて画像認識して、現在走行している道路R1と交差する道路R2上の他車両Cxの有無、交差点100の近傍位置かどうか、他車両Cxからさらに先までのびる車線が見通せるかどうかを求め、その画像認識結果をRAM3に記憶する(ステップS5)。   Subsequently, the image processor 10 recognizes an image by using the side image data G1 temporarily stored in the VRAM, the presence / absence of another vehicle Cx on the road R2 that intersects the currently traveling road R1, and the vicinity of the intersection 100 Whether it is a position or whether a lane extending further from the other vehicle Cx can be seen is obtained, and the image recognition result is stored in the RAM 3 (step S5).

そして、CPU2は、RAM3に記憶した画像認識結果から、側方画像P1中に他車両Cxがあるかどうかチェックする(ステップS6)。そして、図6(a)に示すように、道路R2上に他車両Cxが無い場合には(ステップS6でNO)、CPU2は、そのまま、側方画像データG1に基づく側方画像P1の表示を継続し(ステップS9)、ステップS12に移る。   Then, the CPU 2 checks whether there is another vehicle Cx in the side image P1 from the image recognition result stored in the RAM 3 (step S6). As shown in FIG. 6A, when there is no other vehicle Cx on the road R2 (NO in step S6), the CPU 2 displays the side image P1 based on the side image data G1 as it is. Continue (step S9) and move to step S12.

一方、道路R2上に他車両Cxがある場合には(ステップS6でYES)、CPU2は、道路R2上の他車両Cxが予め定めた基準距離Dk以内(交差点100の近傍)にあるかどうかをRAM3に記憶した画像認識結果からチェックする(ステップS7)。そして、図6(b)(c)に示すように、道路R2上の他車両Cxが予め定めた基準距離Dkを超える位置にある場合には(ステップS7でNO)、CPU2は、そのまま、側方画像データG1に基づく側方画像P1の表示を継続し(ステップS9)、ステップS12に移る。   On the other hand, when there is another vehicle Cx on the road R2 (YES in step S6), the CPU 2 determines whether the other vehicle Cx on the road R2 is within a predetermined reference distance Dk (near the intersection 100). A check is made from the image recognition result stored in the RAM 3 (step S7). Then, as shown in FIGS. 6B and 6C, when the other vehicle Cx on the road R2 is at a position exceeding the predetermined reference distance Dk (NO in step S7), the CPU 2 keeps the side as it is. The display of the side image P1 based on the side image data G1 is continued (step S9), and the process proceeds to step S12.

反対に、図6(d)(e)に示すように、道路R2上の他車両Cxが予め定めた基準距離Dk以内(交差点100の近傍)にある場合(ステップS7でYES)、CPU2は他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうかRAM3に記憶した画像認識結果からチェックする(ステップS8)。そして、図6(d)に示すように、他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せない場合(ステップS8でYES)、CPU2は、画像プロセッサ10及び音声プロセッサ14を制御して、側方画像P1の表示を中止するとともに、スピーカ15から「駐停車の車両の死角に注意してください」という警告を運転者に報知した後(ステップS10)、ステップS12に移る。
反対に、図6(e)に示すように、他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せる場合(ステップS8でNO)、CPU2は、画像プロセッサ10及び音声プロセッサ14を制御して、側方画像P1を継続表示するとともに、スピーカ15から「駐停車の車両の死角に注意してください」という警告をあわせて運転者に報知した後(ステップS11)、ステップS12に移る。
On the other hand, as shown in FIGS. 6D and 6E, when the other vehicle Cx on the road R2 is within a predetermined reference distance Dk (near the intersection 100) (YES in step S7), the CPU 2 It is checked from the image recognition result stored in the RAM 3 whether a lane (road) extending further beyond the vehicle Cx can be seen from the intersection 100 (step S8). Then, as shown in FIG. 6D, when a lane (road) extending further from the other vehicle Cx cannot be seen from the intersection 100 (YES in step S8), the CPU 2 controls the image processor 10 and the audio processor 14. Then, the display of the side image P1 is stopped, and a warning “Please pay attention to the blind spot of the parked vehicle” is notified from the speaker 15 to the driver (step S10), and then the process proceeds to step S12.
On the other hand, as shown in FIG. 6E, when a lane (road) extending further from the other vehicle Cx can be seen from the intersection 100 (NO in step S8), the CPU 2 controls the image processor 10 and the audio processor 14. Then, the side image P1 is continuously displayed, and a warning “Please pay attention to the blind spot of the parked vehicle” is notified from the speaker 15 to the driver (step S11), and then the process proceeds to step S12.

CPU2は、ステップS12に移ると、ブラインドコーナー支援モードが終了かどうか
を判断する。そして、ブラインドコーナー支援モードが終了しない場合には(ステップS10でNO)、CPU2はステップS1に戻り前記と同様な処理を行う。すなわち、運転支援装置1は、交差点100へ進入するときには側方画像P1がディスプレイ11に表示される。また、運転支援装置1は、交差点100の近傍に他車両Cx(死角を生成する位置にある他車両Cx)が駐停車していると、その駐停車している他車両Cxが死角を生成する位置にあるとしてスピーカ15で警告メッセージを報知するようになっている。
When proceeding to step S12, the CPU 2 determines whether or not the blind corner support mode is finished. If the blind corner support mode does not end (NO in step S10), the CPU 2 returns to step S1 and performs the same processing as described above. That is, when the driving assistance device 1 enters the intersection 100, the side image P1 is displayed on the display 11. In addition, when another vehicle Cx (another vehicle Cx at a position where a blind spot is generated) is parked near the intersection 100, the driving support device 1 generates a blind spot when the other vehicle Cx parked is stopped. A warning message is notified by the speaker 15 as being in the position.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、自車両Cが交差点100に進入する時、側方カメラCAが撮像した側方画像P1で、現在走行している道路R1と交差する道路R2上に駐停車している他車両Cxを求めるとともに、駐停車している他車両Cxが交差点100の近傍位置かどうかを求めた。そして、他車両Cxが交差点100の近傍位置にある場合に、「駐停車の車両の死角に注意してください」という警告をスピーカ15を介して運転者に報知するようにした。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, when the host vehicle C enters the intersection 100, the vehicle is parked on the road R2 that intersects the currently traveling road R1 in the side image P1 captured by the side camera CA. The other vehicle Cx that was parked and the other vehicle Cx that was parked or stopped were found to be near the intersection 100. When the other vehicle Cx is in the vicinity of the intersection 100, a warning “Please be careful about the blind spot of the parked vehicle” is notified to the driver via the speaker 15.

従って、交差点100に進入する場合には、現在走行している道路R1と交差する道路R2上に駐停車している他車両Cxがあっても、交差点100の近傍になく死角を生成しない位置にある他車両Cxの場合には警告を運転者に報知しないので、運転者にとって煩わしい警告がなくなる。   Accordingly, when entering the intersection 100, even if there is another vehicle Cx parked on the road R2 that intersects the currently traveling road R1, it is not in the vicinity of the intersection 100 and does not generate a blind spot. In the case of a certain other vehicle Cx, since the warning is not notified to the driver, there is no troublesome warning for the driver.

(2)本実施形態では、他車両Cxが交差点100の近傍にある場合であって、その他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せない場合には、側方画像P1の表示を中止して運転者に警告のみした。従って、運転者は、他車両Cxの背後から交差点100に進入するおそれのある他の車両を想定した運転に集中することができる。
(3)本実施形態では、他車両Cxが交差点100の近傍にある場合であって、その他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せる場合には、側方画像P1の表示を継続するとともに運転者に警告をした。従って、運転者は、警告を聞きながら他車両Cxの背後から交差点100に進入する他の車両を側方画像P1で視認することができる。
(2) In this embodiment, when the other vehicle Cx is in the vicinity of the intersection 100 and the lane (road) extending further beyond the other vehicle Cx cannot be seen from the intersection 100, the side image P1 The display was stopped and only the driver was warned. Accordingly, the driver can concentrate on driving assuming another vehicle that may enter the intersection 100 from behind the other vehicle Cx.
(3) In this embodiment, when the other vehicle Cx is in the vicinity of the intersection 100 and a lane (road) extending further beyond the other vehicle Cx can be seen from the intersection 100, the side image P1 is displayed. And the driver was warned. Therefore, the driver can visually recognize another vehicle entering the intersection 100 from behind the other vehicle Cx in the side image P1 while listening to the warning.

尚、上記各実施形態は以下のように変更してもよい。
・上記実施形態は、交差点100の進入は、車速が基準車速Vkより小さくなったとき、交差点100に進入すると見なし、側方カメラCAを起動させた。これを、自車位置の情報と地理データ記憶部7に記憶した経路データ8及び地図データ9に基づいて交差点100に進入を検出して側方カメラCAを起動させるようにしてもよい。また、自車両Cに別途フロントカメラを起動させておき、常時、自車両Cの前方を撮像する。そして、その時々に撮像した画像から、交差点100特有の設置物を画像認識により検出して側方カメラCAを起動させるようにしてもよい。
In addition, you may change each said embodiment as follows.
In the above embodiment, the approach of the intersection 100 is considered to enter the intersection 100 when the vehicle speed becomes lower than the reference vehicle speed Vk, and the side camera CA is activated. Alternatively, the side camera CA may be activated by detecting an approach to the intersection 100 based on the vehicle position information and the route data 8 and map data 9 stored in the geographic data storage unit 7. In addition, a front camera is separately activated in the host vehicle C, and the front of the host vehicle C is always imaged. And the installation object peculiar to the intersection 100 may be detected from the image captured at that time by image recognition to activate the side camera CA.

さらに、運転席に、側方カメラCAを起動させるための、専用の起動スイッチを設け、運転者が適宜操作して側方カメラCAを起動させ、死角を生成する位置にある他車両Cxを画像認識させるようにしてもよい。
・上記実施形態は、駐停車している他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうかの判断は、側方画像データG1を用いて画像認識で行った。これを、地図データ9の道路属性データ9dから、道路の幅又は車線数を割出し、道路の幅又は車線数に基づいて他車両Cxからさらに先まで延びる車線(道路)が交差点100から見通せるかどうか判断するようにしてもよい。
Furthermore, a dedicated activation switch for activating the side camera CA is provided in the driver's seat, and the driver operates the side camera CA appropriately to activate the other camera Cx at a position where a blind spot is generated. You may make it recognize.
In the embodiment described above, whether or not the lane (road) extending further from the other vehicle Cx parked and stopped can be seen from the intersection 100 is determined by image recognition using the side image data G1. Whether the road width or the number of lanes is calculated from the road attribute data 9d of the map data 9 and whether the lane (road) extending further from the other vehicle Cx based on the road width or the number of lanes can be seen from the intersection 100. You may make it judge whether.

・上記実施形態では、撮像手段を自車両Cの前端部のグリル中央位置に取付けた側方カ
メラCAで実施した。これを、前部バンパーの左右コーナー部に、それぞれ側方を撮像するカメラを用いて実施してもよい。要は、前端部左方に広がる左側撮像領域Z1及び前端部右方に広がる右側撮像領域Z2が撮像できるカメラであればどんな構成でもよい。
In the above embodiment, the imaging means is implemented by the side camera CA attached to the center of the grill at the front end of the host vehicle C. You may implement this using the camera which images each side in the left-right corner part of a front bumper. In short, any configuration may be used as long as the camera can capture the left imaging area Z1 extending to the left of the front end and the right imaging area Z2 extending to the right of the front end.

・上記実施形態では、探索し選択した目的地までの案内経路Rに沿って走行している場合について前方の交差点100を検出したが、案内経路Rを設定していないで走行している場合も勿論、実施可能である。   In the above embodiment, the front intersection 100 is detected when traveling along the guide route R to the destination selected by searching, but there may be cases where the vehicle is traveling without setting the guide route R. Of course, implementation is possible.

・上記実施形態では、交差点100に具体化したが、T字路に進入するとき、空き地から道路に出るときでもよく、要は撮像手段の側方カメラCAが、側方の画像を撮像し、その撮像した側方画像P1から死角を生成する位置にある他車両Cxを知りたい箇所であればどの地点でもよい。   In the above embodiment, the embodiment is embodied in the intersection 100. However, when entering the T-junction, it may be when entering the road from the vacant land. In short, the side camera CA of the imaging means captures the side image, Any point may be used as long as it is a place where it is desired to know the other vehicle Cx at the position where the blind spot is generated from the captured side image P1.

・上記実施形態では、自車両Cの前端部の左右側方の側方画像P1を取得し死角を生成する位置にある他車両Cxを画像認識するようにした。これを、自車両Cの後端部の左右側方の側方画像を取得し、側方画像中の死角を生成する位置にある他車両Cxを画像認識するようにして実施してもよい。この場合、自車両Cを後進させて、例えば交差点100、T字路、空き地から道路に出るときにも、同様に、死角を生成する位置にある他車両Cxを画像認識し知ることができる。   In the above embodiment, the left and right side images P1 of the front end of the host vehicle C are acquired, and the other vehicle Cx at the position where the blind spot is generated is image-recognized. This may be performed by acquiring the left and right side images of the rear end of the host vehicle C and recognizing the other vehicle Cx at the position where the blind spot in the side image is generated. In this case, when the host vehicle C is moved backward and exits the road from the intersection 100, T-junction, or vacant land, for example, the other vehicle Cx at the position where the blind spot is generated can be recognized and recognized.

・上記実施形態では、他車両Cxを静止物として画像認識を行うようにしたが、車両以外の例えば道路工事用の設置物等も静止物として画像認識を行うようにしてもよい。   In the above embodiment, the image recognition is performed using the other vehicle Cx as a stationary object. However, for example, an installation object for road construction other than the vehicle may be recognized as a stationary object.

本実施形態の運転支援装置の構成を説明するブロック図。The block diagram explaining the structure of the driving assistance device of this embodiment. 経路データのデータ構成を説明するための説明図。Explanatory drawing for demonstrating the data structure of path | route data. 地図データのデータ構成を説明するための説明図。Explanatory drawing for demonstrating the data structure of map data. (a)側方カメラの撮像範囲を説明するため上面図、(b)側方カメラの撮像範囲を説明するため正面図。(A) Top view for explaining the imaging range of the side camera, (b) Front view for explaining the imaging range of the side camera. 側方画像を説明するための説明図。Explanatory drawing for demonstrating a side image. (a)駐停車の車両ない交差点を示す説明図、(b)交差点から遠く離れた位置にある駐停車の車両を示す説明図、(c)交差点から遠く離れた位置にある駐停車の車両を示す説明図、(d)交差点の近傍位置にある駐停車の車両を示す説明図、(e)道路の広い交差点の近傍位置にある駐停車の車両を示す説明図。(A) An explanatory diagram showing an intersection where there is no parked vehicle, (b) an explanatory diagram showing a parked vehicle located far from the intersection, and (c) a parked vehicle located far from the intersection. Explanatory drawing which shows, (d) Explanatory drawing which shows the parked and stopped vehicle in the vicinity of an intersection, (e) Explanatory drawing which shows the parked and stopped vehicle in the vicinity of the wide intersection of a road. ブラインドコーナー支援動作を説明するためのフローチャート。The flowchart for demonstrating a blind corner assistance operation | movement.

符号の説明Explanation of symbols

1…運転支援装置、2…CPU、3…RAM、4…ROM、5…GPS受信部、6…車両側入力I/F部、6a…車速センサ、6b…ジャイロ、6c…ステアリングセンサ、6d…イグニッションスイッチ、7…地理データ記憶部、10…画像プロセッサ、11…ディスプレイ、12a…ブラインドコーナー支援設定スイッチ、14…音声プロセッサ、15…スピーカ、31…指標、100…交差点、C…自車両、Cx…他車両、CA…撮像手段としての側方カメラ、R…案内経路、R1,R2…道路、P1…側方画像、P2…道路案内画像、Z1…左側撮像領域、Z2…右側撮像領域。   DESCRIPTION OF SYMBOLS 1 ... Driving assistance device, 2 ... CPU, 3 ... RAM, 4 ... ROM, 5 ... GPS receiving part, 6 ... Vehicle side input I / F part, 6a ... Vehicle speed sensor, 6b ... Gyro, 6c ... Steering sensor, 6d ... Ignition switch, 7 ... Geographic data storage unit, 10 ... Image processor, 11 ... Display, 12a ... Blind corner support setting switch, 14 ... Audio processor, 15 ... Speaker, 31 ... Indicator, 100 ... Intersection, C ... Own vehicle, Cx ... Other vehicles, CA ... Side camera as imaging means, R ... Guidance route, R1, R2 ... Road, P1 ... Side image, P2 ... Road guidance image, Z1 ... Left side imaging area, Z2 ... Right side imaging area.

Claims (4)

自車両の前端側方又は後端側方の側方画像を撮像する撮像手段を備え、前記撮像手段が撮像した側方画像の画像データに基づいて障害物を検出し、その障害物の情報を出力する運転支援方法であって、
前記画像データに基づいて自車両の前端側方又は後端側方の道路上の静止物を画像認識し、その画像認識した静止物の位置を求め、その静止物の位置が自車両に対して死角を生成する位置か、死角を生成しない位置にあるかを判定し、静止物が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力するようにしたことを特徴とする運転支援方法。
An image pickup means for picking up a side image of the front end side or the rear end side of the own vehicle is detected, an obstacle is detected based on image data of the side image picked up by the image pickup means, and information on the obstacle is obtained. A driving support method for outputting,
Based on the image data, an image of a stationary object on the road on the front end side or the rear end side of the host vehicle is recognized, the position of the image recognized stationary object is obtained, and the position of the stationary object is relative to the host vehicle. Judgment is made whether it is a position that generates a blind spot or a position that does not generate a blind spot, and when a stationary object is in a position that generates a blind spot, information that the stationary object generates a blind spot is output. A characteristic driving support method.
自車両の前端側方又は後端側方の側方画像を撮像する撮像手段と、
前記撮像手段を起動させる起動手段と、
前記撮像手段が撮像した側方画像の画像データに基づいて、前記自車両の前端側方又は後端側方の静止物を画像認識にて求める静止物認識手段と、
前記静止物認識手段が求めた静止物の位置を求める位置算出手段と、
前記静止物の位置が、死角を生成する位置かあるか、死角を生成しない位置にあるかを判定する判定手段と、
前記静止物の位置が死角を生成する位置にあるとき、その静止物が死角を生成する旨の情報を出力手段から出力する情報出力制御手段と
を設けたことを特徴とする運転支援装置。
Imaging means for capturing a side image of the front end side or the rear end side of the host vehicle;
Starting means for starting the imaging means;
Based on image data of a side image captured by the imaging unit, a stationary object recognition unit that obtains a stationary object on the front end side or the rear end side of the host vehicle by image recognition;
Position calculating means for determining the position of the stationary object determined by the stationary object recognition means;
Determining means for determining whether the position of the stationary object is a position that generates a blind spot or a position that does not generate a blind spot;
An information output control means for outputting from the output means information indicating that the stationary object generates a blind spot when the position of the stationary object is at a position that generates a blind spot.
請求項2に記載の運転支援装置において、
前記起動手段は、車速センサからの検出信号に基づいて、自車両の車速を検出し、その車速が予め定めた車速以下になったとき、前記撮像手段を起動させることを特徴とする運転支援装置。
In the driving assistance device according to claim 2,
The activation means detects the vehicle speed of the host vehicle based on a detection signal from a vehicle speed sensor, and activates the imaging means when the vehicle speed falls below a predetermined vehicle speed. .
請求項2又は3に記載の運転支援装置において、
前記起動手段は、自車位置と道路地図情報とに基づいて、自車両の交差点への進入を検出し、自車両が交差点に進入するとき、前記撮像手段を起動させることを特徴とする運転支援装置。
In the driving assistance device according to claim 2 or 3,
The activation means detects the approach of the own vehicle to the intersection based on the own vehicle position and the road map information, and activates the imaging means when the own vehicle enters the intersection. apparatus.
JP2006050528A 2006-02-27 2006-02-27 Driving support method and driving support device Pending JP2007233430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006050528A JP2007233430A (en) 2006-02-27 2006-02-27 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006050528A JP2007233430A (en) 2006-02-27 2006-02-27 Driving support method and driving support device

Publications (1)

Publication Number Publication Date
JP2007233430A true JP2007233430A (en) 2007-09-13

Family

ID=38554007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006050528A Pending JP2007233430A (en) 2006-02-27 2006-02-27 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP2007233430A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139281A1 (en) * 2008-05-14 2009-11-19 アイシン精機株式会社 Periphery monitoring device
JP2009282929A (en) * 2008-05-26 2009-12-03 Fujitsu Ten Ltd Vehicle periphery monitoring device and method
JP2020112927A (en) * 2019-01-09 2020-07-27 株式会社デンソー Operation support device
CN114905503A (en) * 2021-02-09 2022-08-16 丰田自动车株式会社 Robot control system, robot control method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354466A (en) * 2001-05-23 2002-12-06 Nissan Motor Co Ltd Surrounding monitoring device for vehicle
JP2004173071A (en) * 2002-11-21 2004-06-17 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring device
JP2004252550A (en) * 2003-02-18 2004-09-09 Toyota Central Res & Dev Lab Inc Driving support device
JP2005199892A (en) * 2004-01-16 2005-07-28 Denso Corp Periphery monitoring device for vehicle
JP2005309812A (en) * 2004-04-22 2005-11-04 Denso Corp Vehicle periphery display controller

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354466A (en) * 2001-05-23 2002-12-06 Nissan Motor Co Ltd Surrounding monitoring device for vehicle
JP2004173071A (en) * 2002-11-21 2004-06-17 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery monitoring device
JP2004252550A (en) * 2003-02-18 2004-09-09 Toyota Central Res & Dev Lab Inc Driving support device
JP2005199892A (en) * 2004-01-16 2005-07-28 Denso Corp Periphery monitoring device for vehicle
JP2005309812A (en) * 2004-04-22 2005-11-04 Denso Corp Vehicle periphery display controller

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139281A1 (en) * 2008-05-14 2009-11-19 アイシン精機株式会社 Periphery monitoring device
JP2009278349A (en) * 2008-05-14 2009-11-26 Aisin Seiki Co Ltd Perimeter monitoring device
JP4716139B2 (en) * 2008-05-14 2011-07-06 アイシン精機株式会社 Perimeter monitoring device
KR101229159B1 (en) 2008-05-14 2013-02-01 아이신세이끼가부시끼가이샤 Periphery monitoring device
JP2009282929A (en) * 2008-05-26 2009-12-03 Fujitsu Ten Ltd Vehicle periphery monitoring device and method
JP2020112927A (en) * 2019-01-09 2020-07-27 株式会社デンソー Operation support device
CN114905503A (en) * 2021-02-09 2022-08-16 丰田自动车株式会社 Robot control system, robot control method, and storage medium

Similar Documents

Publication Publication Date Title
JP6700623B2 (en) Driving support device and computer program
US11535155B2 (en) Superimposed-image display device and computer program
US11511627B2 (en) Display device and computer program
JP4432801B2 (en) Driving assistance device
JP5136500B2 (en) Driving support device, driving support method, and driving support program
EP1961613A2 (en) Driving support method and driving support device
JP2007226666A (en) Driving support method and driving support device
JP4784572B2 (en) Driving support method and driving support device
JP6361403B2 (en) Automatic driving support system, automatic driving support method, and computer program
JP2008242987A (en) Operation support method and operation support device
US20230135641A1 (en) Superimposed image display device
JP2009211624A (en) Driving support device, driving support method, and computer program
JP4787196B2 (en) Car navigation system
JP4848991B2 (en) Driving support method and driving support device
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP2007233430A (en) Driving support method and driving support device
JP2023012793A (en) Superimposed image display device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2007140992A (en) Method and device for supporting driving at intersection
JP2009067292A (en) In-vehicle camera system
JP2007122395A (en) Method and device for determining change of direction
JP6811497B1 (en) Self-driving car
JP6582798B2 (en) Driving support system, driving support method, and computer program
JP2010238147A (en) System, method and program for supporting driving
JP6984341B2 (en) Superimposed image display device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005