JP2010262665A - On-vehicle device and vehicle recognition method - Google Patents

On-vehicle device and vehicle recognition method Download PDF

Info

Publication number
JP2010262665A
JP2010262665A JP2010144985A JP2010144985A JP2010262665A JP 2010262665 A JP2010262665 A JP 2010262665A JP 2010144985 A JP2010144985 A JP 2010144985A JP 2010144985 A JP2010144985 A JP 2010144985A JP 2010262665 A JP2010262665 A JP 2010262665A
Authority
JP
Japan
Prior art keywords
vehicle
image data
road surface
data
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010144985A
Other languages
Japanese (ja)
Other versions
JP4968369B2 (en
Inventor
Hidefumi Okabe
英文 岡部
Kazuhide Adachi
和英 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2010144985A priority Critical patent/JP4968369B2/en
Publication of JP2010262665A publication Critical patent/JP2010262665A/en
Application granted granted Critical
Publication of JP4968369B2 publication Critical patent/JP4968369B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle recognition method and an on-vehicle device capable of alleviating processing for acquiring information regarding vehicles in the surroundings. <P>SOLUTION: A CPU 2 of a driving support device 1 acquires periphery imaging data from a periphery monitoring camera 20 provided in a vehicle. In addition, an image processor 10 sets an adjacent lane area in the periphery imaging data, and sets a recognition partial frame in the adjacent lane area. Furthermore, the image processor 10 compares luminance data in the recognition partial frame with luminance data in a sample frame of backward imaging data picked up by a rear monitoring camera 21 to detect an object on the road surface. Then, edge detection is performed to the recognition partial frame which has been determined that there is the detected object therein and its periphery to recognize another vehicle. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車載装置及び車両認識方法に関する。     The present invention relates to an in-vehicle device and a vehicle recognition method.

近年、渋滞等の交通問題を解決し、自動車の円滑な走行を図るために、高度道路交通システム(Intelligent Transport Systems)の開発が進められている。このシステムでは、例えば、車々間通信や路車間通信、又は自動車が具備する各種装置等により、所定距離内の各自動車の情報を収集し、各自動車に対して周辺道路状況に応じた操作支援を行う。   2. Description of the Related Art In recent years, in order to solve traffic problems such as traffic jams and to make automobiles run smoothly, development of intelligent transport systems (Intelligent Transport Systems) has been promoted. In this system, for example, information on each vehicle within a predetermined distance is collected by inter-vehicle communication, road-to-vehicle communication, or various devices provided in the vehicle, and operation support corresponding to the surrounding road conditions is provided to each vehicle. .

自車両周辺の車両に関する情報(周辺車両データ)を取得する方法として、例えば、車々間通信又は路車間通信によって取得する方法(例えば特許文献1参照)、車両に取付けられたカメラを用いる方法が提案されている。このうち、カメラによる画像データに基づき、周辺車両データを取得する方法は、車々間通信可能な他車両の存在、路車間通信可能な環境等の条件によらない点で有利である。   As a method of acquiring information (vehicle data around the vehicle) around the host vehicle, for example, a method of acquiring by vehicle-to-vehicle communication or road-to-vehicle communication (for example, see Patent Document 1), and a method of using a camera attached to the vehicle are proposed. ing. Among these, the method of acquiring the surrounding vehicle data based on the image data from the camera is advantageous in that it does not depend on conditions such as the presence of other vehicles capable of vehicle-to-vehicle communication and the environment capable of road-to-vehicle communication.

特開2005−84790号公報。JP-A-2005-84790.

ところが、カメラによって撮像された画像データを用いて周辺車両データを取得する場合には、画像処理を行うため処理量が多くなる問題がある。このため、周辺車両データを取得する処理の軽減化が要求されている。   However, when surrounding vehicle data is acquired using image data captured by a camera, there is a problem that the amount of processing increases because image processing is performed. For this reason, reduction of the process which acquires surrounding vehicle data is requested | required.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、周辺の車両に関する情報を取得する処理を軽減することができる車載装置及び車両認識方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an in-vehicle device and a vehicle recognition method capable of reducing processing for acquiring information related to surrounding vehicles.

上記問題点を解決するために、請求項1に記載の発明は、自車両に搭載され、搭載された自車両の周辺の他車両を認識する車載装置において、前記自車両に設けられた第1撮像装置から、自車両周辺の周辺画像データを取得する周辺画像データ取得手段と、前記自車両に設けられた第2撮像装置から、路面のみを撮像した路面画像データを取得する路面画像データ取得手段と、前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体を検出する簡易認識手段と、前記周辺画像データ内において路面上に物体が検出された際に、その物体が他車両であるかどうかを認識する車両認識手段とを備えたことを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 is a vehicle-mounted device that is mounted on a host vehicle and recognizes other vehicles around the mounted host vehicle. Peripheral image data acquisition means for acquiring peripheral image data around the own vehicle from the imaging device, and road surface image data acquisition means for acquiring road surface image data obtained by imaging only the road surface from the second imaging device provided in the own vehicle. Simple recognition means for detecting an object on the road surface in the peripheral image data based on the difference between the luminance value of the peripheral image data and the luminance value of the road surface image data, and on the road surface in the peripheral image data Vehicle recognition means for recognizing whether or not the object is another vehicle when the object is detected.

請求項2に記載の発明は、請求項1に記載の車載装置において、前記自車両側の領域の画像データを、前記路面画像データとして取得し、前記簡易認識手段は、前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体を検出することを特徴とする。   According to a second aspect of the present invention, in the in-vehicle device according to the first aspect, the image data of the area on the own vehicle side is acquired as the road surface image data, and the simple recognition means is a luminance of the peripheral image data. An object on the road surface in the peripheral image data is detected based on a difference between the value and a luminance value of the road surface image data.

請求項3に記載の発明は、請求項2に記載の車載装置において、前記第2撮像装置は、前記自車両の後端に設けられるとともに、前記路面画像データ取得手段は、前記自車両の後方の画像データを前記路面画像データとして取得することを特徴とする。   According to a third aspect of the present invention, in the in-vehicle device according to the second aspect, the second imaging device is provided at a rear end of the host vehicle, and the road surface image data acquisition means is provided behind the host vehicle. Is obtained as the road surface image data.

請求項4に記載の発明は、請求項1〜請求項3のいずれか一項に記載の車載装置において、前記車両認識手段は、エッジ検出を行うことにより他車両を認識することを特徴とする。   According to a fourth aspect of the present invention, in the in-vehicle device according to any one of the first to third aspects, the vehicle recognition means recognizes another vehicle by performing edge detection. .

請求項5に記載の発明は、請求項1〜請求項4のいずれか一項に記載の車載装置において、前記車両認識手段は、認識した他車両に関する周辺車両データを生成するとともに、前記周辺車両データに基づき、運転支援に関する案内を行う案内手段をさらに備えることを特徴とする。   According to a fifth aspect of the present invention, in the in-vehicle device according to any one of the first to fourth aspects, the vehicle recognizing unit generates the peripheral vehicle data related to the recognized other vehicle, and the peripheral vehicle. It is further characterized by further comprising guidance means for providing guidance regarding driving support based on the data.

請求項6に記載の発明は、請求項1〜請求項5のいずれか1項に記載の車載装置において、前記第1撮像装置は、前記自車両の側部に設けられるとともに前記自車両の側方及び側後方の画像データを前記周辺画像データとして取得することを特徴とする。   A sixth aspect of the present invention is the in-vehicle device according to any one of the first to fifth aspects, wherein the first imaging device is provided on a side portion of the own vehicle and is on a side of the own vehicle. The image data on the rear side and the rear side is acquired as the peripheral image data.

請求項7に記載の発明は、自車両の周辺の他車両を認識する車両認識方法において、自車両の周辺の他車両を認識する車両認識方法において、前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した周辺画像データと路面のみを撮像した路面画像データとを取得し、前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体の有無を判断し、前記周辺画像データ内において路面上に物体が検出された際に、その物体が他車両であるかどうかを認識することを特徴とする。   The invention according to claim 7 is a vehicle recognition method for recognizing other vehicles in the vicinity of the own vehicle, in the vehicle recognition method for recognizing other vehicles in the vicinity of the own vehicle, from an imaging device provided in the own vehicle, The peripheral image data obtained by imaging the periphery of the host vehicle and the road surface image data obtained by imaging only the road surface are acquired, and the peripheral image data is obtained based on the difference between the luminance value of the peripheral image data and the luminance value of the road surface image data. The presence or absence of an object on the road surface is determined, and when an object is detected on the road surface in the peripheral image data, it is recognized whether the object is another vehicle.

各請求項に記載の発明によれば、車両に限らず路面上の物体を検出する簡易認識処理を行い、路面上の物体を認識したときのみ、車両の認識を行うので、他車両の認識処理を軽減するとともに処理時間を短縮化できる。   According to the invention described in each claim, simple recognition processing for detecting an object on a road surface is performed, not limited to a vehicle, and vehicle recognition is performed only when an object on a road surface is recognized. Can reduce the processing time.

本実施形態の運転支援装置のブロック図。The block diagram of the driving assistance device of this embodiment. 経路データのデータ構成の説明図。Explanatory drawing of the data structure of route data. (a)〜(c)は地図データのデータ構成の説明図。(A)-(c) is explanatory drawing of the data structure of map data. (a)は周辺監視カメラ、(b)は後方監視カメラの撮像範囲の説明図。(A) is a periphery surveillance camera, (b) is explanatory drawing of the imaging range of a back surveillance camera. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 周辺監視カメラの撮像時の説明図。Explanatory drawing at the time of imaging of a periphery monitoring camera. (a)は隣接車線領域、(b)は認識部分枠の配置、(c)は認識部分枠の説明図。(A) is an adjacent lane area | region, (b) is arrangement | positioning of a recognition partial frame, (c) is explanatory drawing of a recognition partial frame. 後方監視カメラの後方撮像データの説明図。Explanatory drawing of the back imaging data of a back monitoring camera. (a)は詳細認識枠、(b)はエッジ検出の説明図。(A) is a detailed recognition frame, (b) is an explanatory diagram of edge detection. 車線変更時の車線変更案内の説明図。Explanatory drawing of the lane change guidance at the time of lane change. 車線変更時の警告の説明図。Explanatory drawing of the warning at the time of lane change.

以下、本発明の駐車支援方法及び車載装置の一実施形態を図1〜図14に従って説明する。
図1に示す運転支援装置1は、主制御を行う画像データ取得手段及び案内手段としてのCPU2、各種変数を記憶するRAM3、運転支援プログラムを記憶するROM4を備えている。
Hereinafter, an embodiment of a parking assistance method and an in-vehicle device according to the present invention will be described with reference to FIGS.
The driving support apparatus 1 shown in FIG. 1 includes an image data acquisition unit that performs main control and a CPU 2 as a guiding unit, a RAM 3 that stores various variables, and a ROM 4 that stores a driving support program.

CPU2は、GPS受信部6から入力した位置検出信号に基づいて、車両Cの絶対座標を算出する。さらに、CPU2は、車両側入力I/F部5を介して、車両Cに設けられた車速センサ22及びジャイロ23から、車速パルス及び方位検出信号を入力して、自律航法により基準位置からの相対座標を演算する。そして、GPS受信部6に基づく絶対座標と合わせて、自車位置を特定する。   The CPU 2 calculates the absolute coordinates of the vehicle C based on the position detection signal input from the GPS receiver 6. Further, the CPU 2 inputs a vehicle speed pulse and a direction detection signal from the vehicle speed sensor 22 and the gyro 23 provided on the vehicle C via the vehicle side input I / F unit 5, and relative to the reference position by autonomous navigation. Calculate coordinates. Then, the vehicle position is specified together with the absolute coordinates based on the GPS receiver 6.

また、運転支援装置1は、経路データ8及び地図データ9を記憶した地理データ記憶部7を備えている。経路データ8は、全国を各区域に区画したリージョン毎のデータであって、図2に示すように、ヘッダ8a、ノードデータ8b、リンクデータ8c、リンクコスト8d、座標データ8eを有している。ヘッダ8aは、各経路データ8を管理するためのデータを有している。ノードデータ8bは、交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等を有している。リンクデータ8cは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等を有している。リンクコスト8dは、各リンクレコードに対して付与されたリンクID、リンク長、平均旅行時間等から構成されるデータ群である。座標データ8eは、各ノードの絶対座標を示す。   Further, the driving support device 1 includes a geographic data storage unit 7 that stores route data 8 and map data 9. The route data 8 is data for each region that divides the whole country into regions, and as shown in FIG. 2, has a header 8a, node data 8b, link data 8c, link cost 8d, and coordinate data 8e. . The header 8 a has data for managing each route data 8. The node data 8b includes identification data of each node indicating an intersection, a road end point, and the like, identification data of adjacent nodes, and the like. The link data 8c constitutes a link string, and includes link records indicating connection nodes, data indicating traffic restrictions, and the like. The link cost 8d is a data group composed of a link ID, a link length, an average travel time, and the like given to each link record. The coordinate data 8e indicates the absolute coordinates of each node.

CPU2は、タッチパネルであるディスプレイ11、ディスプレイ11に隣設された操作スイッチ12の入力操作により、外部入力I/F部13(図1参照)を介して、目的地を示すデータを入力する。この目的地のデータを入力すると、CPU2は、経路データ8を用いて、目的地と現在の自車位置とを接続する推奨経路を探索する。   The CPU 2 inputs data indicating the destination via the external input I / F unit 13 (see FIG. 1) by an input operation of the display 11 which is a touch panel and the operation switch 12 provided adjacent to the display 11. When this destination data is input, the CPU 2 uses the route data 8 to search for a recommended route that connects the destination and the current vehicle position.

地図データ9は、全国の地図を分割したエリア毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図3(a)に示すように、各地図データ9は、ヘッダ9a、道路データ9b、背景データ9cを有している。ヘッダ9aは、その地図データ9の階層、エリア等を示し、管理目的のデータである。背景データ9cは、道路、市街地、河川等を描画する描画データである。道路データ9bは、道路の形状・種類を示すデータであって、図3(b)に示すように、道路属性データ9d、リンク形状データ9e、接続データ9fを有している。道路属性データ9dは、道路名称、道路の方向、道路幅、車線数を有している。接続データ9fは、各リンクと各ノードの接続状態を表わすデータである。リンク形状データ9eは、道路の形状を示すためのデータであって、図3(c)に示すように、座標データ9g、形状補間データ9hを有している。座標データ9gは、リンク及びノードの座標を示している。形状補間データ9hは、リンクの途中に設定され、道路のカーブ形状を示すために設定された形状補間点に関するデータであり、形状補間点の座標、リンクの方位等のデータである。   The map data 9 is stored for each area obtained by dividing the map of the whole country, and is divided for each layer from a wide area map to a narrow area map. As shown in FIG. 3A, each map data 9 has a header 9a, road data 9b, and background data 9c. The header 9a indicates the hierarchy, area, etc. of the map data 9, and is management purpose data. The background data 9c is drawing data for drawing roads, urban areas, rivers, and the like. The road data 9b is data indicating the shape and type of the road, and has road attribute data 9d, link shape data 9e, and connection data 9f as shown in FIG. 3B. The road attribute data 9d includes a road name, a road direction, a road width, and the number of lanes. The connection data 9f is data representing the connection state between each link and each node. The link shape data 9e is data for indicating the shape of the road. As shown in FIG. 3C, the link shape data 9e has coordinate data 9g and shape interpolation data 9h. The coordinate data 9g indicates the coordinates of links and nodes. The shape interpolation data 9h is data related to a shape interpolation point set in the middle of the link and set to indicate the curve shape of the road, and is data such as the coordinates of the shape interpolation point and the direction of the link.

CPU2は、車両Cに設けられたイグニッションスイッチ24から、車両側入力I/F部5を介して、図示しないイグニッションシステムの起動を示す開始トリガを入力すると、エリア設定手段、簡易認識手段及び車両認識手段としての画像プロセッサ10(図1参照)を制御して、車両Cの現在位置周辺の地図データ9を読出す。そして、図1に示すように、その地図データ9に基づく地図画面30をディスプレイ11に出力する。このとき、画像プロセッサ10は、地図画面30に、その地図内での自車位置を示す指標31を重畳する。   When the CPU 2 inputs a start trigger indicating the start of an ignition system (not shown) from the ignition switch 24 provided in the vehicle C via the vehicle-side input I / F unit 5, the area setting means, the simple recognition means, and the vehicle recognition The image processor 10 (see FIG. 1) as a means is controlled to read the map data 9 around the current position of the vehicle C. Then, as shown in FIG. 1, a map screen 30 based on the map data 9 is output to the display 11. At this time, the image processor 10 superimposes an index 31 indicating the position of the vehicle in the map on the map screen 30.

また、CPU2は、所定のタッチパネル操作、所定の操作スイッチ12の入力操作が行われると、撮像装置としての周辺監視カメラ20を起動する。周辺監視カメラ20は、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。周辺監視カメラ20は、本実施形態では、図4(a)に示すように、車両Cの右側方のサイドミラー26に取付けられ、車両Cの右側方及び右側後方を撮像領域Z1としている。CPU2は、周辺監視カメラ20を制御して、撮像領域Z1を撮像した画像データとしての周辺撮像データG1を取得すると、画像プロセッサ10の図示しないVRAMに一時記憶する。   In addition, when a predetermined touch panel operation and a predetermined operation switch 12 input operation are performed, the CPU 2 activates the periphery monitoring camera 20 as an imaging device. The peripheral monitoring camera 20 includes an optical mechanism including a wide-angle lens, a mirror, and the like, and a CCD image sensor (none of which is shown). In the present embodiment, as shown in FIG. 4A, the periphery monitoring camera 20 is attached to the right side mirror 26 of the vehicle C, and the right side and the right rear side of the vehicle C are set as the imaging region Z1. When the CPU 2 controls the peripheral monitoring camera 20 and acquires peripheral imaging data G1 as image data obtained by imaging the imaging region Z1, the CPU 2 temporarily stores it in a VRAM (not shown) of the image processor 10.

さらに、CPU2は、所定のタイミングで、車両Cに設けられた撮像装置としての後方監視カメラ21を起動する。後方監視カメラ21は、周辺監視カメラ20と同様に、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。この後方監視カメラ21は、図4(b)に示すように、車両Cの後端であって、リヤバンパー27の上方に取付けられている。後方監視カメラ21は、例えば左右140度の後方視野を有し、車両Cのリヤバンパー27の一部を含む、後方路面の約数メートルを後方撮像領域Z2としている。CPU2は、後方監視カメラ21を制御して、後方撮像領域Z2を撮像した画像データとしての後方撮像データG2を取得すると、上記した画像プロセッサ10のVRAMに一時記憶する。   Further, the CPU 2 activates the rear monitoring camera 21 as an imaging device provided in the vehicle C at a predetermined timing. Similar to the peripheral monitoring camera 20, the rear monitoring camera 21 includes an optical mechanism including a wide-angle lens, a mirror, and the like, and a CCD imaging device (none of which are shown). As shown in FIG. 4B, the rear monitoring camera 21 is attached to the rear end of the vehicle C and above the rear bumper 27. The rear monitoring camera 21 has a rear visual field of 140 degrees to the left and right, for example, and includes a few meters on the rear road surface including a part of the rear bumper 27 of the vehicle C as a rear imaging area Z2. When the CPU 2 controls the rear monitoring camera 21 to obtain the rear imaging data G2 as image data obtained by imaging the rear imaging area Z2, the CPU 2 temporarily stores it in the VRAM of the image processor 10 described above.

画像プロセッサ10は、地図データ9を出力して地図画面30を描画する他、車線変更を行う場合に、VRAMに一時記憶された周辺撮像データG1、後方撮像データG2を用いて画像処理を行い、車両Cの右側方及び後方の他車両を認識する。また、他車両が認識された場合には、周辺撮像データG1を用いて、認識した他車両の位置・速度を検出し、検出した位置及び速度を周辺車両データ17としてRAM3に記憶する。また、他車両が認識されなかった場合にも、検出なしを示す周辺車両データ17をRAM3に記憶する。   The image processor 10 outputs the map data 9 and draws the map screen 30. In addition, when changing the lane, the image processor 10 performs image processing using the peripheral imaging data G1 and the rear imaging data G2 temporarily stored in the VRAM. Recognize other vehicles on the right side and behind the vehicle C. When the other vehicle is recognized, the position / speed of the recognized other vehicle is detected using the peripheral imaging data G 1, and the detected position and speed are stored in the RAM 3 as the peripheral vehicle data 17. Even when no other vehicle is recognized, the surrounding vehicle data 17 indicating no detection is stored in the RAM 3.

CPU2は、RAM3に記憶された周辺車両データ17に基づき、車両Cが車線変更可能であるか否かを判断し、車線変更可能である場合には、車線変更のための案内方法を決定する。そして、図1に示す音声プロセッサ14を制御して、案内音又は案内音声をスピーカ15から出力する。CPU2が、車線変更不可能であると判断した場合には、同じく音声プロセッサ14を制御して、警告音又は警告音声をスピーカ15から出力する。   The CPU 2 determines whether or not the vehicle C can change the lane based on the surrounding vehicle data 17 stored in the RAM 3, and determines the guidance method for changing the lane if the lane can be changed. Then, the voice processor 14 shown in FIG. 1 is controlled to output a guidance sound or guidance voice from the speaker 15. When the CPU 2 determines that the lane cannot be changed, the CPU 2 similarly controls the sound processor 14 to output a warning sound or a warning sound from the speaker 15.

次に、本実施形態の処理手順について、図5〜8に従って説明する。運転者は、車線変更を行う際に、タッチパネル操作、又は操作スイッチ12の入力操作を行う。運転支援装置1のCPU2は、外部入力I/F部13から所定の信号を入力すると、ROM4に格納された運転支援プログラムに従って、周辺監視カメラ20及び後方監視カメラ21を使用して、周辺車両データ17の取得処理を行う(ステップS1−1)。   Next, the processing procedure of this embodiment is demonstrated according to FIGS. The driver performs touch panel operation or input operation of the operation switch 12 when changing the lane. When a predetermined signal is input from the external input I / F unit 13, the CPU 2 of the driving support device 1 uses the surrounding monitoring camera 20 and the rear monitoring camera 21 in accordance with the driving support program stored in the ROM 4, and the surrounding vehicle data. 17 acquisition processing is performed (step S1-1).

この周辺車両データを取得する処理について、図6〜図8に従って説明する。まず、図6に示すように、運転支援装置1のCPU2は、周辺監視カメラ20を制御して、周辺撮像データG1を取得する(ステップS2−1)。このとき、周辺監視カメラ20は、例えば図9に示すように、車両Cが現在走行している車線101と並行な隣接車線102の路面と、隣接車線102を走行する他車両100を撮像する。さらに、CPU2は、画像プロセッサ10を制御して、周辺撮像データG1を用いて、路面上の物体の簡易認識処理を行う(ステップS2−2)。   The process of acquiring the surrounding vehicle data will be described with reference to FIGS. First, as shown in FIG. 6, the CPU 2 of the driving support device 1 controls the periphery monitoring camera 20 to acquire the surrounding imaging data G1 (step S2-1). At this time, for example, as shown in FIG. 9, the periphery monitoring camera 20 images the road surface of the adjacent lane 102 parallel to the lane 101 in which the vehicle C is currently traveling, and the other vehicle 100 traveling in the adjacent lane 102. Further, the CPU 2 controls the image processor 10 to perform a simple object recognition process on the road surface using the peripheral imaging data G1 (step S2-2).

簡易認識では、画像プロセッサ10は、図7に示すように、周辺撮像データG1内の隣接車線の位置を演算する(ステップS3−1)。このとき、画像プロセッサ10は、CPU2が演算した車両Cの現在位置に基づき、現在位置周辺の地図データ9を地理データ記憶部7内で検索する。そして、検出した地図データ9のうち、道路データ9bと車両Cの走行する車線とに基づき、車両Cが走行する車線101の側方(本実施形態では右側)に追越し車線等の隣接車線102があるか否かを判断する。そして、隣接車線102を検出すると、取得した周辺撮像データG1内で隣接車線102が占有する領域を推測する。このとき、画像プロセッサ10は、道路データ9bの道路属性データ9dに基づき、隣接車線102の幅員、車線数を取得する。さらに、リンク形状データ9eに基づき、隣接車線102の形状、座標を取得し、車両Cの現在位置から後方の隣接車線102の道路形状を演算する。そして、演算した道路形状を現在の周辺監視カメラ20の視点に変換し、図10(a)の画像41aに示すように、周辺撮像データG1のうち、隣接車線102が占有する隣接車線領域40を算出する。   In the simple recognition, the image processor 10 calculates the position of the adjacent lane in the peripheral imaging data G1, as shown in FIG. 7 (step S3-1). At this time, the image processor 10 searches the geographic data storage unit 7 for the map data 9 around the current position based on the current position of the vehicle C calculated by the CPU 2. Based on the road data 9b and the lane in which the vehicle C travels in the detected map data 9, an adjacent lane 102 such as an overtaking lane is located on the side of the lane 101 in which the vehicle C travels (on the right side in the present embodiment). Judge whether there is. When the adjacent lane 102 is detected, an area occupied by the adjacent lane 102 in the acquired peripheral imaging data G1 is estimated. At this time, the image processor 10 acquires the width of the adjacent lane 102 and the number of lanes based on the road attribute data 9d of the road data 9b. Further, the shape and coordinates of the adjacent lane 102 are acquired based on the link shape data 9e, and the road shape of the adjacent lane 102 behind the vehicle C is calculated from the current position of the vehicle C. Then, the calculated road shape is converted into the current viewpoint of the surrounding monitoring camera 20, and the adjacent lane area 40 occupied by the adjacent lane 102 in the surrounding imaging data G1, as shown in the image 41a of FIG. calculate.

次に、画像プロセッサ10は、認識部分枠を設定する(ステップS3−2)。このとき、画像プロセッサ10は、図10(b)に示すように、ステップS3−1で設定された隣接車線領域40内で、認識対象領域としての認識部分枠42を隣接車線102の進行方向に沿って並べる。認識部分枠42は、図10(c)に示すように、路面上で、横幅2m、進行方向の長さ(奥行き幅)5mの矩形状に設定された枠に相当する。また、路面上の枠は、路面上に進行方向において5mの間隔を介して配置され、認識部分枠42はその枠を画面座標系に変換した領域である。認識部分枠42は、画面上では、略台形状をなし、隣接車線102の集束部に向って縞状に並列されている。   Next, the image processor 10 sets a recognition partial frame (step S3-2). At this time, as shown in FIG. 10B, the image processor 10 moves the recognition partial frame 42 as the recognition target area in the traveling direction of the adjacent lane 102 in the adjacent lane area 40 set in step S3-1. Arrange along. As shown in FIG. 10C, the recognition partial frame 42 corresponds to a frame set in a rectangular shape having a lateral width of 2 m and a traveling direction length (depth width) of 5 m on the road surface. Further, the frame on the road surface is arranged on the road surface with an interval of 5 m in the traveling direction, and the recognition partial frame 42 is an area obtained by converting the frame into the screen coordinate system. The recognition partial frames 42 have a substantially trapezoidal shape on the screen, and are arranged in stripes toward the converging portion of the adjacent lane 102.

各認識部分枠42を設定すると、画像プロセッサ10は、各認識部分枠42内の輝度データをそれぞれ算出する(ステップS3−3)。画像プロセッサ10は、認識部分枠42内の各画素座標の輝度値を平均して、各認識部分枠42ごとに輝度データを算出する。この輝度データの演算処理は、輝度値を平均化するのみの処理であるので、比較的処理量が少ない。   When each recognition partial frame 42 is set, the image processor 10 calculates luminance data in each recognition partial frame 42 (step S3-3). The image processor 10 averages the luminance value of each pixel coordinate in the recognition partial frame 42 and calculates luminance data for each recognition partial frame 42. Since the luminance data calculation process is a process that only averages the luminance values, the amount of processing is relatively small.

次に、画像プロセッサ10は、サンプル枠内の輝度データを算出する(ステップS3−4)。具体的には、画像プロセッサ10は、CPU2に所定の信号を出力し、後方監視カメラ21を制御して、後方撮像データG2を取得する。このとき、取得された後方撮像データG2は、車両Cが走行する車線101等を撮像したデータであって、例えば図11に示す画像45に相当する撮像データである。画像45には、車両Cのリヤバンパー25を撮像した車両後端画像46が含まれている。そして、この後方撮像データG2のうち、車両Cの後端から比較的近い路面に相当する領域に、サンプル枠47を設定する。さらに、画像プロセッサ10は、後方撮像データG2のうち、サンプル枠47内の平均輝度を演算して、サンプル枠47の輝度データを算出する。   Next, the image processor 10 calculates luminance data in the sample frame (step S3-4). Specifically, the image processor 10 outputs a predetermined signal to the CPU 2, controls the rear monitoring camera 21, and acquires the rear imaging data G2. At this time, the acquired rear imaging data G2 is data obtained by imaging the lane 101 in which the vehicle C travels, and is imaging data corresponding to, for example, the image 45 shown in FIG. The image 45 includes a vehicle rear end image 46 obtained by imaging the rear bumper 25 of the vehicle C. Then, a sample frame 47 is set in an area corresponding to the road surface relatively close to the rear end of the vehicle C in the rear imaging data G2. Furthermore, the image processor 10 calculates the average luminance in the sample frame 47 in the rear imaging data G2, and calculates the luminance data of the sample frame 47.

さらに、画像プロセッサ10は、各認識部分枠42内の輝度を平均した各輝度データと、サンプル枠47内の輝度を平均した輝度データとをそれぞれ比較し、輝度値差が予め定めた閾値以上である認識部分枠42があるか否かを判断する(ステップS3−5)。上記したように、他車両画像48を含む認識部分枠42の輝度は大きくなるので、閾値は、予め他車両100を撮像した画像と、予め路面のみを撮像した画像との輝度をそれぞれ平均化し、それらの各平均値の差とほぼ一致する値に設定すればよい。サンプル枠47の輝度データとの輝度値差が閾値以上の認識部分枠42があると判断すると(ステップS3−5においてYES)、その認識部分枠42内で検出物ありと判断し、RAM3に格納された検出フラグをオンにする。検出フラグをオンにすると(ステップS3−6)、ステップS2−3に進む。   Further, the image processor 10 compares each luminance data obtained by averaging the luminance in each recognition partial frame 42 with luminance data obtained by averaging the luminance in the sample frame 47, and the luminance value difference is equal to or greater than a predetermined threshold value. It is determined whether or not there is a recognition partial frame 42 (step S3-5). As described above, since the luminance of the recognition partial frame 42 including the other vehicle image 48 increases, the threshold value averages the luminance of the image obtained by imaging the other vehicle 100 in advance and the image obtained by imaging only the road surface in advance. What is necessary is just to set to the value which substantially corresponds with the difference of each of those average values. If it is determined that there is a recognition partial frame 42 whose luminance value difference from the luminance data of the sample frame 47 is greater than or equal to the threshold value (YES in step S3-5), it is determined that there is a detection object in the recognition partial frame 42 and stored in the RAM 3. Turn on the detected flag. When the detection flag is turned on (step S3-6), the process proceeds to step S2-3.

サンプル枠47の輝度データとの輝度値差が閾値以上の認識部分枠42がないと判断すると(ステップS3−5においてNO)、その認識部分枠42内で検出物なしと判断し、RAM3に格納された検出フラグをオフにする。検出フラグをオフにすると(ステップS3−7)、ステップS2−3に進む。図6に示すステップS2−3では、CPU2は、RAM3に格納された検出フラグに基づき、検出物が検出されたか否かを判断する。そして、検出フラグがオンにされ、検出物があると判断した場合には(ステップS2−3においてYES)、検出物の詳細認識処理(S2−4)に進む。検出フラグがオフにされ、検出物がないと判断した場合には(ステップS2−3においてNO)、検出物がないことを示す周辺車両データ17をRAM3に記憶し、ステップS1−2に戻る。   If it is determined that there is no recognition partial frame 42 whose luminance value difference with the luminance data of the sample frame 47 is equal to or greater than the threshold value (NO in step S3-5), it is determined that there is no detected object in the recognition partial frame 42 and is stored in the RAM 3. Off the detected flag. When the detection flag is turned off (step S3-7), the process proceeds to step S2-3. In step S <b> 2-3 shown in FIG. 6, the CPU 2 determines whether or not a detected object has been detected based on the detection flag stored in the RAM 3. If the detection flag is turned on and it is determined that there is a detection object (YES in step S2-3), the process proceeds to a detailed recognition process (S2-4) of the detection object. When the detection flag is turned off and it is determined that there is no detection object (NO in step S2-3), the surrounding vehicle data 17 indicating that there is no detection object is stored in the RAM 3, and the process returns to step S1-2.

ステップS2−3で検出物ありと判断した場合には、図8に示すステップS4−1に進む。ステップS4−1では、画像プロセッサ10は、詳細認識枠を設定する。このとき、画像プロセッサ10は、図12(a)に示すように、検出物ありと判断された認識部分枠42を中心に、認識部分枠42よりも大きい詳細認識枠50を設定する。   If it is determined in step S2-3 that there is an object to be detected, the process proceeds to step S4-1 shown in FIG. In step S4-1, the image processor 10 sets a detailed recognition frame. At this time, as illustrated in FIG. 12A, the image processor 10 sets a detailed recognition frame 50 that is larger than the recognition partial frame 42 around the recognition partial frame 42 that is determined to have a detected object.

詳細認識枠50を設定すると、画像プロセッサ10は、周辺撮像データG1のうち、詳細認識枠50内の他車両認識を行う(ステップS4−2)。本実施形態では、画像プロセッサ10は、詳細認識枠50内の画像データに対し、水平エッジを検出するエッジ検出処理を行う。このエッジ検出処理では、注目画素と隣接画素との差分をとって微分値を算出し、さらにノイズ除去処理等も行うため、認識部分枠42及びサンプル枠47内の平均輝度値を演算するよりも、処理量が多い。このため、予め路面上の物体が検出された認識部分枠42を中心とした詳細認識枠50のみに対し、エッジ検出を行うことで、処理量を軽減することができる。   When the detailed recognition frame 50 is set, the image processor 10 performs other vehicle recognition within the detailed recognition frame 50 in the peripheral imaging data G1 (step S4-2). In the present embodiment, the image processor 10 performs an edge detection process for detecting a horizontal edge on the image data in the detail recognition frame 50. In this edge detection process, the differential value is calculated by taking the difference between the target pixel and the adjacent pixel, and further the noise removal process and the like are performed. Therefore, rather than calculating the average luminance value in the recognition partial frame 42 and the sample frame 47. The amount of processing is large. For this reason, the amount of processing can be reduced by performing edge detection only on the detailed recognition frame 50 centering on the recognition partial frame 42 in which an object on the road surface is detected in advance.

他車両100を撮像した周辺撮像データG1に対し水平エッジ検出を行うと、例えば、図12(b)に示すように、車両Cのバンパー、フロントガラスの端部、ルーフ等に相当する水平エッジEGが検出される。画像プロセッサ10は、検出されたエッジの中で、上下方向に並んだ、ほぼ同じ幅の複数の水平エッジEGを探索し、他車両100が検出されたか否かを判断する(ステップS4−3)。該当する水平エッジEG群が検出されると、そのエッジ群を、他車両100に相当すると判断する(ステップS4−3においてYES)。水平エッジEGの中に、他車両100に相当する水平エッジEGが無い場合(ステップS4−3においてNO)、他車両100なしを示す周辺車両データ17をRAM3に記憶する(ステップS4−6)。   When the horizontal edge detection is performed on the peripheral imaging data G1 obtained by imaging the other vehicle 100, for example, as shown in FIG. 12B, the horizontal edge EG corresponding to the bumper of the vehicle C, the edge of the windshield, the roof, and the like. Is detected. The image processor 10 searches for a plurality of horizontal edges EG having substantially the same width arranged in the vertical direction among the detected edges, and determines whether or not the other vehicle 100 has been detected (step S4-3). . When the corresponding horizontal edge EG group is detected, it is determined that the edge group corresponds to the other vehicle 100 (YES in step S4-3). If there is no horizontal edge EG corresponding to the other vehicle 100 in the horizontal edge EG (NO in step S4-3), the surrounding vehicle data 17 indicating no other vehicle 100 is stored in the RAM 3 (step S4-6).

他車両100が検出されると、画像プロセッサ10は、他車両100の位置及び速度を算出する(ステップS4−5)。まず、画像プロセッサ10は、他車両100に相当する水平エッジEGの画素座標に基づき、その画素座標を、路面上の座標系に座標変換し、車両Cと他車両100との相対距離を算出する。   When the other vehicle 100 is detected, the image processor 10 calculates the position and speed of the other vehicle 100 (step S4-5). First, the image processor 10 converts the pixel coordinates into a coordinate system on the road surface based on the pixel coordinates of the horizontal edge EG corresponding to the other vehicle 100, and calculates the relative distance between the vehicle C and the other vehicle 100. .

さらに、画像プロセッサ10は、CPU2を介して、周辺監視カメラ20を制御して、新たな周辺撮像データG1を取得する。そして、ステップS4−2で設定された詳細認識枠50内及びその周辺を再度エッジ検出して、既に検出した水平エッジEGとの類似度が高い水平エッジEGを検出する。そして、新たに撮像した周辺撮像データG1に基づく水平エッジEGの位置と、前に撮像した周辺撮像データG1に基づく水平エッジEGの位置との差分と、サンプリング間隔とに基づき、車両Cに対する他車両100の相対速度を算出する。そして、これらの他車両100の位置及び速度を、周辺車両データ17として、RAM3に一時格納する。   Furthermore, the image processor 10 controls the peripheral monitoring camera 20 via the CPU 2 to acquire new peripheral imaging data G1. Then, edge detection is performed again in and around the detailed recognition frame 50 set in step S4-2, and a horizontal edge EG having a high similarity to the already detected horizontal edge EG is detected. Based on the difference between the position of the horizontal edge EG based on the newly imaged peripheral image data G1 and the position of the horizontal edge EG based on the previously imaged peripheral image data G1, and the sampling interval, the other vehicle relative to the vehicle C A relative speed of 100 is calculated. Then, the position and speed of these other vehicles 100 are temporarily stored in the RAM 3 as the surrounding vehicle data 17.

このように周辺車両データ17が取得されると、図5に示すステップS1−2に戻り、CPU2が、車両Cに関する自車両データを取得する。この自車両データは、車両Cの現在位置、方位、舵角、車速を有している。そして、CPU2は、RAM3に格納された周辺車両データ17及び自車両データと、予め定めた条件とに基づき、運転支援としての警告を実行するか否かを判断する(ステップS1−3)。   When the surrounding vehicle data 17 is acquired in this way, the process returns to step S1-2 shown in FIG. 5, and the CPU 2 acquires own vehicle data related to the vehicle C. The own vehicle data includes the current position, direction, steering angle, and vehicle speed of the vehicle C. And CPU2 judges whether the warning as a driving assistance is performed based on the surrounding vehicle data 17 and the own vehicle data stored in RAM3, and the predetermined conditions (step S1-3).

例えば、車両Cと他車両100との相対距離が予め定めた距離以上であって、車両Cに対する他車両100の相対速度が過度に大きくない場合には、警告を実行しないと判断する(ステップS1−3においてNO)。警告を実行しない場合には、CPU2は、案内方法を決定する(ステップS1−4)。このとき、相対距離が充分に大きく、車両Cの速度と他車両100の速度とがほぼ同じであった場合には、CPU2は、音声プロセッサ14を制御して、図13に示すように、車線変更を促す音声60をスピーカ15から出力する(ステップS1−5)。また、相対距離が充分に大きいが、速度差が比較的大きい場合には、例えば「速度を上げて車線変更して下さい」等の音声を出力してもよい。   For example, when the relative distance between the vehicle C and the other vehicle 100 is equal to or greater than a predetermined distance and the relative speed of the other vehicle 100 with respect to the vehicle C is not excessively large, it is determined that the warning is not executed (step S1). -3 for NO). When the warning is not executed, the CPU 2 determines a guidance method (step S1-4). At this time, if the relative distance is sufficiently large and the speed of the vehicle C and the speed of the other vehicle 100 are substantially the same, the CPU 2 controls the voice processor 14 to lane as shown in FIG. A sound 60 prompting the change is output from the speaker 15 (step S1-5). When the relative distance is sufficiently large but the speed difference is relatively large, for example, a voice such as “Please increase the speed and change the lane” may be output.

例えば、車両Cと他車両100との相対距離が予め定めた距離よりも小さいと判断した場合には(ステップS1−3においてYES)、CPU2は、音声プロセッサ14を制御して、図14に示すように、車線変更を警告する警告音声61をスピーカ15を介して出力する(ステップS1−6)。   For example, if it is determined that the relative distance between the vehicle C and the other vehicle 100 is smaller than a predetermined distance (YES in step S1-3), the CPU 2 controls the audio processor 14 to show the result shown in FIG. As described above, the warning sound 61 for warning the lane change is output through the speaker 15 (step S1-6).

案内又は警告を出力すると、CPU2は、車線変更を完了したか否かを判断する(ステップS1−7)。本実施形態では、CPU2は、車両Cの現在位置と、経路データ8又は地図データ9とに基づいて、現在走行している車線を判断する。   When outputting the guidance or warning, the CPU 2 determines whether or not the lane change is completed (step S1-7). In the present embodiment, the CPU 2 determines the currently traveling lane based on the current position of the vehicle C and the route data 8 or the map data 9.

車線変更を完了していないと判断した場合には(ステップS1−7においてNO)、終了トリガの入力の有無を判断する(ステップS1−8)。本実施形態では、終了トリガは、所定のタッチパネル操作、所定の操作スイッチ12の入力操作により出力された信号である。車線変更を途中で中止するような場合には、CPU2は、終了トリガを入力し(ステップS1−8においてYES)、そのまま処理を終了する。終了トリガを入力しない場合には(ステップS1−8においてNO)、ステップS1−1に戻り上記した処理を繰り返す。また、ステップS1−7において車線変更を完了したと判断した場合には(ステップS1−7においてYES)、車線変更のための処理を終了する。   If it is determined that the lane change has not been completed (NO in step S1-7), it is determined whether or not an end trigger is input (step S1-8). In the present embodiment, the end trigger is a signal output by a predetermined touch panel operation or a predetermined operation switch 12 input operation. If the lane change is to be canceled halfway, the CPU 2 inputs an end trigger (YES in step S1-8) and ends the process as it is. If the end trigger is not input (NO in step S1-8), the process returns to step S1-1 and the above-described processing is repeated. If it is determined in step S1-7 that the lane change has been completed (YES in step S1-7), the process for changing the lane ends.

上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、運転支援装置1のCPU2は、車両Cに設けられた周辺監視カメラ20及び後方監視カメラ21から、周辺撮像データG1及び後方撮像データG2を取得するようにした。また、運転支援装置1の画像プロセッサ10は、地図データ9に基づいて、周辺撮像データG1のうち隣接車線領域40を設定するとともに、隣接車線領域40内に、複数の認識部分枠42を設定するようにした。さらに、画像プロセッサ10は、認識部分枠42内の輝度データを算出し、その輝度データを後方撮像データG2内のサンプル枠47内の輝度データと比較することにより、各認識部分枠42に相当する路面上の物体を簡易認識するようにした。そして、検出物が検出された認識部分枠42のみに対してエッジ検出を行って、他車両100の有無を判断するようにした。即ち、周辺撮像データG1の全領域に対して、処理量が大きい車両認識処理を行うのではなく、路面上の物体を認識したときのみ、その認識部分枠42に対してエッジ検出を行うようにしたので、他車両100の認識処理の処理量を軽減するとともに、処理時間を短縮化できる。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the CPU 2 of the driving support device 1 acquires the peripheral imaging data G1 and the rear imaging data G2 from the peripheral monitoring camera 20 and the rear monitoring camera 21 provided in the vehicle C. Further, the image processor 10 of the driving support device 1 sets the adjacent lane region 40 in the peripheral imaging data G1 based on the map data 9 and sets a plurality of recognition partial frames 42 in the adjacent lane region 40. I did it. Further, the image processor 10 calculates the luminance data in the recognition partial frame 42 and compares the luminance data with the luminance data in the sample frame 47 in the rear imaging data G2, thereby corresponding to each recognition partial frame 42. Simple recognition of objects on the road surface. Then, edge detection is performed only on the recognition partial frame 42 in which the detected object is detected, and the presence or absence of the other vehicle 100 is determined. That is, instead of performing vehicle recognition processing with a large processing amount on the entire area of the peripheral imaging data G1, edge detection is performed on the recognition partial frame 42 only when an object on the road surface is recognized. Therefore, the processing amount of the recognition process of the other vehicle 100 can be reduced and the processing time can be shortened.

(2)上記実施形態では、画像プロセッサ10は、隣接車線領域40内に、認識部分枠42を設定するようにした。このため、限られた領域に認識部分枠42を配置するので、周辺撮像データG1全域に認識部分枠42を配置する場合等に比べて、より処理量を軽減できる。   (2) In the above embodiment, the image processor 10 sets the recognition partial frame 42 in the adjacent lane region 40. For this reason, since the recognition partial frame 42 is arranged in a limited area, the processing amount can be further reduced as compared with the case where the recognition partial frame 42 is arranged in the entire peripheral imaging data G1.

(3)上記実施形態では、画像プロセッサ10は、認識部分枠42を、隣接車線102の進行方向に沿って複数並べるようにした。このため、隣接車線102内で、車両Cから遠い位置にある他車両100も、比較的近い位置にある他車両100も検出することができる。   (3) In the above embodiment, the image processor 10 arranges a plurality of recognition partial frames 42 along the traveling direction of the adjacent lane 102. For this reason, in the adjacent lane 102, the other vehicle 100 located far from the vehicle C and the other vehicle 100 located relatively close can be detected.

(4)上記実施形態では、画像プロセッサ10は、後方監視カメラ21が撮像した後方撮像データG2内のサンプル枠47内の平均輝度と、周辺監視カメラ20が撮像した周辺撮像データG1の認識部分枠42内の平均輝度とを比較することにより、路面上の物体の有無を簡易検出するようにした。このため、路面上の物体に対する認識処理をより簡単にすることができる。   (4) In the above embodiment, the image processor 10 recognizes the average luminance in the sample frame 47 in the rear imaging data G2 captured by the rear monitoring camera 21 and the recognition partial frame of the peripheral imaging data G1 captured by the peripheral monitoring camera 20. 42, the presence or absence of an object on the road surface is easily detected. For this reason, the recognition process with respect to the object on a road surface can be made easier.

(5)上記実施形態では、画像プロセッサ10は、路面上の物体が検出された認識部分枠42よりも大きい詳細認識枠50を設定し、その詳細認識枠50内に対しエッジ検出を行って、他車両100の有無を判断するようにした。このため、詳細認識枠50を若干大きめに設定することにより、まとまった複数本の水平エッジEGの検出率が高くなるので、確実に他車両100を検出することができる。   (5) In the above embodiment, the image processor 10 sets the detailed recognition frame 50 larger than the recognition partial frame 42 in which the object on the road surface is detected, performs edge detection in the detailed recognition frame 50, The presence / absence of the other vehicle 100 is determined. For this reason, by setting the detail recognition frame 50 to be slightly larger, the detection rate of a plurality of horizontal edges EG is increased, so that the other vehicle 100 can be reliably detected.

(6)上記実施形態では、画像プロセッサ10は、他車両100の位置及び速度を有する周辺車両データ17、又は隣接車線102内に他車両100が検出されないことを示す周辺車両データ17をRAM3に格納するようにした。そして、CPU2は、その周辺車両データ17に基づき、警告又は車線変更の案内を行うようにした。このため、他車両100の接近中の車線変更等を警告し、車線変更を円滑に行うための案内を行うことができる。   (6) In the above embodiment, the image processor 10 stores the surrounding vehicle data 17 having the position and speed of the other vehicle 100 or the surrounding vehicle data 17 indicating that the other vehicle 100 is not detected in the adjacent lane 102 in the RAM 3. I tried to do it. Then, the CPU 2 performs warning or lane change guidance based on the surrounding vehicle data 17. For this reason, it is possible to warn of a lane change while the other vehicle 100 is approaching, and to perform guidance for smoothly changing the lane.

尚、本実施形態は以下のように変更してもよい。
・ 画像プロセッサ10は、地図データ9に基づき隣接車線領域40を算出するようにしたが、これ以外の方法で隣接車線領域40を検出するようにしてもよい。例えば、画像プロセッサ10が、周辺撮像データG1に対し、白線のエッジ又は特徴点等を検出する白線認識処理を行うようにしてもよい。
In addition, you may change this embodiment as follows.
The image processor 10 calculates the adjacent lane area 40 based on the map data 9, but the adjacent lane area 40 may be detected by other methods. For example, the image processor 10 may perform white line recognition processing for detecting edges or feature points of white lines on the peripheral imaging data G1.

・ 上記実施形態では、CPU2は、車両Cの現在位置と、経路データ8又は地図データ9とに基づいて、現在走行している車線を判断して、車線変更が終了したか否かを判断するようにした。これ以外に、例えば、画像プロセッサ10が、周辺撮像データG1内の他車両100の画像位置に基づき、車両Cが車線101を走行しているか、隣接車線102を走行しているかを判断してもよい。   In the above-described embodiment, the CPU 2 determines the currently traveling lane based on the current position of the vehicle C and the route data 8 or the map data 9, and determines whether or not the lane change has been completed. I did it. In addition to this, for example, the image processor 10 may determine whether the vehicle C is traveling in the lane 101 or the adjacent lane 102 based on the image position of the other vehicle 100 in the peripheral imaging data G1. Good.

・ 上記実施形態では、路面上の物体の簡易認識を、認識部分枠42内の平均輝度値と、サンプル枠47内の平均輝度値との比較により行うようにしたが、これ以外の方法でもよい。例えば、認識部分枠42内のエッジ検出を行い、エッジの有無を判定し、エッジが有る場合に検出物ありと判断するようにしてもよい。   In the above embodiment, simple recognition of an object on the road surface is performed by comparing the average luminance value in the recognition partial frame 42 and the average luminance value in the sample frame 47, but other methods may be used. . For example, edge detection in the recognition partial frame 42 may be performed to determine the presence or absence of an edge, and when there is an edge, it may be determined that there is an object to be detected.

・ 上記実施形態では、隣接車線領域40内に認識部分枠42を並べたが、フレーム全域に、所定間隔で認識部分枠42を配置するようにしてもよい。このようにすると、隣接車線領域40の演算処理を省略できる。   In the above embodiment, the recognition partial frames 42 are arranged in the adjacent lane region 40. However, the recognition partial frames 42 may be arranged at predetermined intervals over the entire frame. In this way, the calculation process of the adjacent lane area 40 can be omitted.

・ 上記実施形態では、検出物ありと判断された認識部分枠42に対し、その認識部分枠42よりも大きい詳細認識枠50を設定するようにしたが、認識部分枠42の大きさに応じて、詳細認識枠50の設定を省略しても良い。そして、認識部分枠42内の水平エッジを検出するようにしても良い。   In the above embodiment, the detailed recognition frame 50 that is larger than the recognition partial frame 42 is set for the recognition partial frame 42 that is determined to have a detected object, but depending on the size of the recognition partial frame 42 The setting of the detailed recognition frame 50 may be omitted. Then, a horizontal edge in the recognition partial frame 42 may be detected.

・ 上記実施形態では、他車両100の認識に、水平エッジの検出処理を行うようにしたが、他車両100の画像の色、形状等の特徴量から車両であることを判断するパターン認識、画像を2値化したデータ等を用いたテンプレートマッチング等、その他の処理方法でもよい。   In the above embodiment, the horizontal edge detection process is performed for the recognition of the other vehicle 100. However, the pattern recognition and the image for determining the vehicle from the feature amount such as the color and shape of the image of the other vehicle 100 Other processing methods such as template matching using binarized data or the like may be used.

・ 上記実施形態では、画像プロセッサ10は、他車両100を認識した後、複数の周辺撮像データG1に基づき、他車両100の進行方向を判断するようにしてもよい。そして、他車両100の進行方向と、車両Cとの進行方向が同じである場合に、他車両100の位置及び速度を示す周辺車両データ17を生成するようにしても良い。このようにすると、互いに進行方向が異なる車線が隣接している場合、進行方向うが異なる他車両100を認識する誤判断を防止できる。また、車両Cの走行する車線101の右側方に、同じ進行方向の隣接車線102があるか否かの判断を省略できる。   In the above embodiment, the image processor 10 may determine the traveling direction of the other vehicle 100 based on the plurality of surrounding imaging data G1 after recognizing the other vehicle 100. And when the advancing direction of the other vehicle 100 and the advancing direction with the vehicle C are the same, you may make it produce | generate the surrounding vehicle data 17 which shows the position and speed of the other vehicle 100. FIG. In this way, when lanes having different traveling directions are adjacent to each other, it is possible to prevent erroneous determination of recognizing another vehicle 100 having a different traveling direction. Further, it is possible to omit the determination as to whether there is an adjacent lane 102 in the same traveling direction on the right side of the lane 101 in which the vehicle C travels.

・ 上記実施形態では、隣接車線領域40を認証対象領域としても良い。即ち、隣接車線領域40の平均輝度と、サンプル枠47内との平均輝度を比較して、路面上の物体の有無を検出するようにしても良い。そして、隣接車線領域40の平均輝度が高い場合には、隣接車線領域40内をエッジ検出するようにしても良い。又は、隣接車線領域40又は周辺撮像データG1のうち、車両Cに近い路面に相当する領域に対し、路面上の物体を検出する簡易認識を行うようにしても良い。そして、その領域内で路面上の物体が検出された際に、その領域に対してエッジ検出を行うようにしてもよい。このようにすると、車線変更の際に、車両Cとの車間距離が短い他車両100のみを検出することができる。   In the above embodiment, the adjacent lane area 40 may be the authentication target area. That is, the presence / absence of an object on the road surface may be detected by comparing the average luminance of the adjacent lane region 40 with the average luminance in the sample frame 47. And when the average brightness | luminance of the adjacent lane area | region 40 is high, you may make it detect the edge in the adjacent lane area | region 40. FIG. Or you may make it perform the simple recognition which detects the object on a road surface with respect to the area | region equivalent to the road surface close | similar to the vehicle C among the adjacent lane area | regions 40 or the surrounding imaging data G1. Then, when an object on the road surface is detected in the area, edge detection may be performed on the area. If it does in this way, at the time of lane change, only other vehicles 100 with short distance between vehicles C can be detected.

・ 上記実施形態では、車線変更の案内を行う場合に、音声プロセッサ14により音声を出力するようにしたが、画像プロセッサ10により、車線変更を促す表示、警告する表示を、ディスプレイ11又はインストルメントパネルの表示部に出力するようにしても良い。   In the above-described embodiment, when the lane change guidance is performed, the voice processor 14 outputs a sound. However, the image processor 10 displays the display 11 or the instrument panel so as to prompt the lane change or display a warning. You may make it output to the display part.

・ 上記実施形態では、周辺監視カメラ20をサイドミラー26に取付けるようにしたが、隣接車線102内の他車両100を撮像可能であれば、ルーフ等、その他の場所に取付けるようにしてもよい。また、2つの周辺監視カメラ20を、左右のサイドミラーに取付ける等、周辺監視カメラ20を複数設けてもよい。そして、車両Cが右側の車線から左側の車線に車線変更する際に、左側のサイドミラーに取付けた周辺撮像データに基づいて、周辺車両データ17を生成し、車線変更の案内を行うようにしてもよい。   In the above embodiment, the periphery monitoring camera 20 is attached to the side mirror 26. However, if the other vehicle 100 in the adjacent lane 102 can be imaged, it may be attached to another place such as a roof. Also, a plurality of peripheral monitoring cameras 20 may be provided, such as attaching two peripheral monitoring cameras 20 to the left and right side mirrors. Then, when the vehicle C changes the lane from the right lane to the left lane, the surrounding vehicle data 17 is generated based on the surrounding imaging data attached to the left side mirror, and the lane change guidance is performed. Also good.

・ 上記実施形態では、後方監視カメラ21を用いずに路面上の物体の簡易認識を行うようにしてもよい。この場合、周辺撮像データG1内で、車両Cに近い路面に相当する位置等にサンプル枠47を設定し、そのサンプル枠47内の平均輝度値を算出するようにしてもよい。   In the above embodiment, simple recognition of an object on the road surface may be performed without using the rear monitoring camera 21. In this case, the sample frame 47 may be set at a position corresponding to the road surface close to the vehicle C in the peripheral imaging data G1, and the average luminance value in the sample frame 47 may be calculated.

・ 上記実施形態では、車両Cの前端に取付けられたカメラを用いて、他車両認識を行うようにしてもよい。この場合には、そのカメラによる撮像データを用いて、同様に画像処理を行い、車両Cの前方を走行する他車両100との相対距離、相対速度を取得することができる。そして、その周辺車両データを、車線変更等に用いることができる。   In the above embodiment, the other vehicle may be recognized using a camera attached to the front end of the vehicle C. In this case, it is possible to acquire the relative distance and relative speed with respect to the other vehicle 100 traveling in front of the vehicle C by performing image processing in the same manner using image data obtained by the camera. And the surrounding vehicle data can be used for lane change or the like.

・ 上記実施形態では、他車両100の認識処理により生成された周辺車両データ17を、車線変更の運転支援に用いるようにしたが、合流支援等、その他の運転支援に用いるようにしてもよい。   In the above embodiment, the surrounding vehicle data 17 generated by the recognition process of the other vehicle 100 is used for driving support for lane change, but may be used for other driving support such as merging support.

1…車載装置としての運転支援装置、2…画像データ取得手段及び案内手段としてのCPU、10…エリア設定手段、簡易認識手段及び車両認識手段としての画像プロセッサ、17…周辺車両データ、20…撮像装置としての周辺監視カメラ、21…撮像装置としての後方監視カメラ、42…認識対象領域としての認識部分枠、50…詳細認識枠、100…他車両、101…車線、102…隣接車線、C…車両、G1…画像データとしての周辺撮像データ、G2…画像データとしての後方撮像データ。   DESCRIPTION OF SYMBOLS 1 ... Driving support device as in-vehicle device, 2 ... CPU as image data acquisition means and guide means, 10 ... Image processor as area setting means, simple recognition means and vehicle recognition means, 17 ... Surrounding vehicle data, 20 ... Imaging Peripheral monitoring camera as a device, 21 ... Rear monitoring camera as an imaging device, 42 ... Recognition partial frame as a recognition target area, 50 ... Detailed recognition frame, 100 ... Other vehicle, 101 ... Lane, 102 ... Adjacent lane, C ... Vehicle, G1 ... peripheral imaging data as image data, G2 ... rearward imaging data as image data.

Claims (7)

自車両に搭載され、搭載された自車両の周辺の他車両を認識する車載装置において、
前記自車両に設けられた第1撮像装置から、自車両周辺の周辺画像データを取得する周辺画像データ取得手段と、
前記自車両に設けられた第2撮像装置から、路面のみを撮像した路面画像データを取得する路面画像データ取得手段と、
前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体を検出する簡易認識手段と、
前記周辺画像データ内において路面上に物体が検出された際に、その物体が他車両であるかどうかを認識する車両認識手段と
を備えたことを特徴とする車載装置。
In the in-vehicle device that is mounted on the host vehicle and recognizes other vehicles around the mounted host vehicle,
Peripheral image data acquisition means for acquiring peripheral image data around the host vehicle from the first imaging device provided in the host vehicle;
Road surface image data acquisition means for acquiring road surface image data obtained by imaging only the road surface from the second imaging device provided in the host vehicle;
Simple recognition means for detecting an object on the road surface in the peripheral image data based on the difference between the luminance value of the peripheral image data and the luminance value of the road surface image data;
An in-vehicle device comprising vehicle recognition means for recognizing whether or not the object is another vehicle when the object is detected on the road surface in the peripheral image data.
請求項1に記載の車載装置において、
前記路面画像データ取得手段は、前記自車両側の領域の画像データを、前記路面画像データとして取得し、
前記簡易認識手段は、前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体を検出することを特徴とする車載装置。
The in-vehicle device according to claim 1,
The road surface image data acquisition means acquires image data of the area on the own vehicle side as the road surface image data,
The in-vehicle device, wherein the simple recognition means detects an object on a road surface in the peripheral image data based on a difference between a luminance value of the peripheral image data and a luminance value of the road surface image data.
請求項2に記載の車載装置において、
前記第2撮像装置は、前記自車両の後端に設けられるとともに、前記路面画像データ取得手段は、前記自車両の後方の画像データを前記路面画像データとして取得することを特徴とする車載装置。
The in-vehicle device according to claim 2,
The second image pickup device is provided at a rear end of the host vehicle, and the road surface image data acquisition unit acquires image data behind the host vehicle as the road surface image data.
請求項1〜請求項3のいずれか一項に記載の車載装置において、
前記車両認識手段は、エッジ検出を行うことにより他車両を認識することを特徴とする車載装置。
In the in-vehicle device according to any one of claims 1 to 3,
The on-vehicle apparatus characterized in that the vehicle recognition means recognizes another vehicle by performing edge detection.
請求項1〜請求項4のいずれか一項に記載の車載装置において、
前記車両認識手段は、認識した他車両に関する周辺車両データを生成するとともに、
前記周辺車両データに基づき、運転支援に関する案内を行う案内手段をさらに備えることを特徴とする車載装置。
In the in-vehicle device according to any one of claims 1 to 4,
The vehicle recognition means generates surrounding vehicle data related to the recognized other vehicle,
An in-vehicle device further comprising guidance means for providing guidance regarding driving assistance based on the surrounding vehicle data.
請求項1〜請求項5のいずれか1項に記載の車載装置において、
前記第1撮像装置は、前記自車両の側部に設けられるとともに前記自車両の側方及び側後方の画像データを前記周辺画像データとして取得することを特徴とする車載装置。
The in-vehicle device according to any one of claims 1 to 5,
The first imaging device is provided on a side portion of the host vehicle, and acquires image data of a side and a side rear of the host vehicle as the peripheral image data.
自車両の周辺の他車両を認識する車両認識方法において、
前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した周辺画像データと路面のみを撮像した路面画像データとを取得し、
前記周辺画像データの輝度値と前記路面画像データの輝度値との差に基づいて、前記周辺画像データ内における路面上の物体の有無を判断し、
前記周辺画像データ内において路面上に物体が検出された際に、その物体が他車両であるかどうかを認識することを特徴とする車両認識方法。
In a vehicle recognition method for recognizing other vehicles around the host vehicle,
From the imaging device provided in the host vehicle, obtain peripheral image data that images the periphery of the host vehicle and road surface image data that images only the road surface,
Based on the difference between the brightness value of the surrounding image data and the brightness value of the road surface image data, the presence or absence of an object on the road surface in the surrounding image data is determined,
A vehicle recognition method, wherein when an object is detected on the road surface in the peripheral image data, it is recognized whether the object is another vehicle.
JP2010144985A 2010-06-25 2010-06-25 In-vehicle device and vehicle recognition method Expired - Fee Related JP4968369B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010144985A JP4968369B2 (en) 2010-06-25 2010-06-25 In-vehicle device and vehicle recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010144985A JP4968369B2 (en) 2010-06-25 2010-06-25 In-vehicle device and vehicle recognition method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005308864A Division JP4687381B2 (en) 2005-10-24 2005-10-24 Vehicle recognition method and in-vehicle device

Publications (2)

Publication Number Publication Date
JP2010262665A true JP2010262665A (en) 2010-11-18
JP4968369B2 JP4968369B2 (en) 2012-07-04

Family

ID=43360621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144985A Expired - Fee Related JP4968369B2 (en) 2010-06-25 2010-06-25 In-vehicle device and vehicle recognition method

Country Status (1)

Country Link
JP (1) JP4968369B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6038422B1 (en) * 2016-01-26 2016-12-07 三菱電機株式会社 Vehicle determination device, vehicle determination method, and vehicle determination program
JP2020009386A (en) * 2018-07-12 2020-01-16 クラリオン株式会社 Periphery recognition deice and on-vehicle camera system
JP2020114699A (en) * 2019-01-17 2020-07-30 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
JP2021508387A (en) * 2018-11-15 2021-03-04 ▲衆▼安信息技▲術▼服▲務▼有限公司Zhongan Information Technology Service Co., Ltd. Distance detection method and system with the preceding vehicle
JP2023057677A (en) * 2021-10-12 2023-04-24 本田技研工業株式会社 Vehicle control device, vehicle control method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200997A (en) * 1993-12-29 1995-08-04 Nissan Motor Co Ltd Environment recognizing device for vehicle
JP2001114048A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd On-vehicle operation supporting information display device
JP2004251886A (en) * 2003-01-28 2004-09-09 Nissan Motor Co Ltd Device for detecting surrounding object
JP2005084790A (en) * 2003-09-05 2005-03-31 Alpine Electronics Inc On-vehicle device and other vehicle position computing method
JP2005148308A (en) * 2003-11-13 2005-06-09 Denso Corp Exposure controller for white line detection camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200997A (en) * 1993-12-29 1995-08-04 Nissan Motor Co Ltd Environment recognizing device for vehicle
JP2001114048A (en) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd On-vehicle operation supporting information display device
JP2004251886A (en) * 2003-01-28 2004-09-09 Nissan Motor Co Ltd Device for detecting surrounding object
JP2005084790A (en) * 2003-09-05 2005-03-31 Alpine Electronics Inc On-vehicle device and other vehicle position computing method
JP2005148308A (en) * 2003-11-13 2005-06-09 Denso Corp Exposure controller for white line detection camera

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108475471B (en) * 2016-01-26 2020-12-18 三菱电机株式会社 Vehicle determination device, vehicle determination method, and computer-readable recording medium
WO2017130285A1 (en) * 2016-01-26 2017-08-03 三菱電機株式会社 Vehicle determination apparatus, vehicle determination method, and vehicle determination program
CN108475471A (en) * 2016-01-26 2018-08-31 三菱电机株式会社 Vehicle decision maker, vehicle determination method and vehicle decision procedure
JP6038422B1 (en) * 2016-01-26 2016-12-07 三菱電機株式会社 Vehicle determination device, vehicle determination method, and vehicle determination program
DE112016005947B4 (en) * 2016-01-26 2021-06-24 Mitsubishi Electric Corporation Vehicle determination device, vehicle determination method, and vehicle determination program
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium
JP2020009386A (en) * 2018-07-12 2020-01-16 クラリオン株式会社 Periphery recognition deice and on-vehicle camera system
JP7117922B2 (en) 2018-07-12 2022-08-15 フォルシアクラリオン・エレクトロニクス株式会社 Perimeter recognition device and in-vehicle camera system
JP2021508387A (en) * 2018-11-15 2021-03-04 ▲衆▼安信息技▲術▼服▲務▼有限公司Zhongan Information Technology Service Co., Ltd. Distance detection method and system with the preceding vehicle
JP2020114699A (en) * 2019-01-17 2020-07-30 本田技研工業株式会社 Vehicle control system, vehicle control method, and program
US11396296B2 (en) 2019-01-17 2022-07-26 Honda Motor Co., Ltd. Control system of vehicle, control method of the same, and non-transitory computer-readable storage medium
JP2023057677A (en) * 2021-10-12 2023-04-24 本田技研工業株式会社 Vehicle control device, vehicle control method and program
JP7376547B2 (en) 2021-10-12 2023-11-08 本田技研工業株式会社 Vehicle control device, vehicle control method, and program

Also Published As

Publication number Publication date
JP4968369B2 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
JP6658905B2 (en) Travel support device and computer program
US11535155B2 (en) Superimposed-image display device and computer program
US11511627B2 (en) Display device and computer program
JP6926976B2 (en) Parking assistance device and computer program
US8504293B2 (en) Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium
US8275542B2 (en) Navigation device, navigation method, and navigation program
JP4645429B2 (en) Vehicle position calculation method and in-vehicle device
JP2011118482A (en) In-vehicle device and recognition support system
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2007226666A (en) Driving support method and driving support device
JP2010237792A (en) Driving assist device, driving assist method, and driving assist program
JP2009211624A (en) Driving support device, driving support method, and computer program
JP4968369B2 (en) In-vehicle device and vehicle recognition method
US20230135641A1 (en) Superimposed image display device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2009074888A (en) Inter-vehicle distance measuring device
JP2006236094A (en) Obstacle recognition system
JP2017062706A (en) Travel support system, travel support method, and computer program
JP2006344133A (en) Road division line detector
JP2007140992A (en) Method and device for supporting driving at intersection
JP2007233430A (en) Driving support method and driving support device
JP2007122395A (en) Method and device for determining change of direction
JP6582798B2 (en) Driving support system, driving support method, and computer program
JP2012073926A (en) Driving support device
JP2005104401A (en) Parking support device and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4968369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees