JP4613738B2 - Intersection recognition system and intersection recognition method - Google Patents

Intersection recognition system and intersection recognition method Download PDF

Info

Publication number
JP4613738B2
JP4613738B2 JP2005220745A JP2005220745A JP4613738B2 JP 4613738 B2 JP4613738 B2 JP 4613738B2 JP 2005220745 A JP2005220745 A JP 2005220745A JP 2005220745 A JP2005220745 A JP 2005220745A JP 4613738 B2 JP4613738 B2 JP 4613738B2
Authority
JP
Japan
Prior art keywords
vehicle
intersection
distance
data
processing means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005220745A
Other languages
Japanese (ja)
Other versions
JP2007034920A (en
Inventor
孝幸 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2005220745A priority Critical patent/JP4613738B2/en
Publication of JP2007034920A publication Critical patent/JP2007034920A/en
Application granted granted Critical
Publication of JP4613738B2 publication Critical patent/JP4613738B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、交差点認識システム及び交差点認識方法に関するものである。   The present invention relates to an intersection recognition system and an intersection recognition method.

従来、道路に沿って車両を走行させているときに、車両の前方にある停止線を認識し、該停止線の認識結果に従って、車両の交差点への進入を認識するようにした第1の交差点認識方法が提供されている(例えば、特許文献1参照。)。   Conventionally, when a vehicle is traveling along a road, a first intersection that recognizes a stop line in front of the vehicle and recognizes an approach to the intersection of the vehicle according to the recognition result of the stop line A recognition method is provided (see, for example, Patent Document 1).

また、車両の側方をカメラにより撮影し、撮影に伴って取得された画像に基づいて車両の走行方向に沿う走行路道路線を検出し、該走行路道路線が車両の走行方向の前方で途切れていて、途切れている位置から、走行路道路線と異なる方向に伸びる走行路交差線を検出した場合に、車両の交差点への進入を認識するようにした第2の交差点認識方法が提供とされている(例えば、特許文献2参照。)。
特開2003−85562号公報 特開2004−102827号公報
In addition, the side of the vehicle is photographed by a camera, and a travel road line along the traveling direction of the vehicle is detected based on an image acquired along with the photographing, and the traveling road road line is in front of the traveling direction of the vehicle. Provided is a second intersection recognition method for recognizing entry of a vehicle into an intersection when a road intersection line extending in a direction different from the road road line is detected from the interrupted position. (For example, see Patent Document 2).
JP 2003-85562 A JP 2004-102827 A

しかしながら、前記従来の第1、第2の交差点認識方法においては、第1の交差点認識方法の場合、停止線がある交差点については、車両の交差点への進入を認識することができるが、停止線のない交差点については、車両の交差点への進入を認識することができない。   However, in the first and second intersection recognition methods of the related art, in the case of the first intersection recognition method, for an intersection with a stop line, it is possible to recognize the approach of the vehicle to the intersection. For an intersection without a mark, it is impossible to recognize the approach of the vehicle to the intersection.

また、第2の交差点認識方法においては、走行路道路線及び走行路交差線をエッジで検出することができないことがあり、車両の交差点への進入を正確に認識することができない。   Further, in the second intersection recognition method, the roadway road line and the roadway intersection line may not be detected by the edge, and the approach of the vehicle to the intersection cannot be accurately recognized.

本発明は、前記従来の第1、第2の交差点認識方法の問題点を解決して、車両の交差点への進入を正確に認識することができる交差点認識システム及び交差点認識方法を提供することを目的とする。   The present invention solves the problems of the conventional first and second intersection recognition methods, and provides an intersection recognition system and an intersection recognition method capable of accurately recognizing the approach of a vehicle to an intersection. Objective.

そのために、本発明の交差点認識システムにおいては、車両の所定の箇所に取り付けられ、車両の前方を撮影する撮像装置と、照射媒体に対して照射して被照射物までの距離を測定するレーダ装置と、前記撮像装置から送られた複数のフレームの画像データに対して画像認識処理を行い、交差点を移動する交差車両を車両候補物として検出する画像認識処理手段と、各フレーム間における、前記検出された車両候補物の実際の移動量を算出するとともに、該実際の移動量及び各フレームの切替りの周期に基づいて車両候補物の移動速度を算出する移動変数算出処理手段と、前記移動速度をパラメータとして前記レーダ装置に与え、該レーダ装置によって測定された車両候補物までの距離を取得する距離取得処理手段とを有する。   Therefore, in the intersection recognition system of the present invention, an imaging device that is attached to a predetermined portion of the vehicle and images the front of the vehicle, and a radar device that irradiates the irradiation medium and measures the distance to the irradiated object Image recognition processing means for performing image recognition processing on the image data of a plurality of frames sent from the imaging device, detecting an intersection vehicle moving at the intersection as a vehicle candidate, and the detection between each frame A moving variable calculation processing means for calculating an actual moving amount of the vehicle candidate and calculating a moving speed of the vehicle candidate based on the actual moving amount and a switching period of each frame; Is provided as a parameter to the radar apparatus, and distance acquisition processing means for acquiring the distance to the vehicle candidate measured by the radar apparatus.

本発明によれば、画像データに対して画像認識処理を行い、交差点を移動する交差車両を車両候補物として検出し、検出された車両候補物の移動速度を算出し、該移動速度をパラメータとして前記レーダ装置に与え、該レーダ装置によって測定された車両候補物までの距離を取得するようになっているので、車両の交差点への進入を正確に認識することができる。   According to the present invention, image recognition processing is performed on image data, an intersecting vehicle moving at an intersection is detected as a vehicle candidate, a moving speed of the detected vehicle candidate is calculated, and the moving speed is used as a parameter. Since the distance to the vehicle candidate measured by the radar apparatus is given to the radar apparatus, the approach of the vehicle to the intersection can be recognized accurately.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の実施の形態における車両制御システムを示す図である。   FIG. 1 is a diagram showing a vehicle control system according to an embodiment of the present invention.

図において、10は制御部であり、該制御部10は、所定の変速比で変速を行うパワートレイン、例えば、自動変速機としての無段変速機(CVT)、有段変速機(オートマチックトランスミッション)、電動駆動装置等の制御を行ったり、他の各種の制御を行ったりする。そのために、前記制御部10は、制御部10の全体の制御を行う制御装置としての、かつ、演算装置としてのCPU21、該CPU21が各種の演算処理を行うに当たってワーキングメモリとして使用されるRAM22、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録されたROM23、各種のデータ、プログラム等を記録するために使用される図示されないフラッシュメモリ等を備える。   In the figure, reference numeral 10 denotes a control unit, and the control unit 10 is a power train that performs shifting at a predetermined gear ratio, for example, a continuously variable transmission (CVT) as an automatic transmission, a stepped transmission (automatic transmission). Control of an electric drive device etc. is performed, and other various controls are performed. Therefore, the control unit 10 is a control device that performs overall control of the control unit 10 and a CPU 21 as an arithmetic device, a RAM 22 that is used as a working memory when the CPU 21 performs various arithmetic processes, In addition to the program for the above, a ROM 23 in which various programs for searching for a route to the destination, route guidance, etc. are recorded, a flash memory (not shown) used for recording various data, programs, etc. Prepare.

そして、14は情報端末、例えば、車両に搭載された車載装置としてのナビゲーション装置、63はネットワーク、51は情報提供者としての情報センタであり、前記制御部10、ナビゲーション装置14、ネットワーク63、情報センタ51等によって車両制御システムが構成される。   Reference numeral 14 is an information terminal, for example, a navigation device as an in-vehicle device mounted on a vehicle, 63 is a network, 51 is an information center as an information provider, and the control unit 10, navigation device 14, network 63, information A vehicle control system is configured by the center 51 and the like.

前記ナビゲーション装置14は、現在地を検出する現在地検出部としてのGPS(グローバルポジショニングシステム)センサ15、地図データのほかに各種の情報が記録された情報記録部としてのデータ記録部16、入力された情報に基づいて、ナビゲーション処理等の各種の演算処理を行うナビゲーション処理部17、自車方位を検出する方位検出部としての方位センサ18、操作者である運転者が操作することによって所定の入力を行うための第1の入力部としての操作部34、図示されない画面に表示された画像によって各種の表示を行い、運転者に通知するための第1の出力部としての表示部35、音声によって所定の入力を行うための第2の入力部としての音声入力部36、音声によって各種の表示を行い、運転者に通知するための第2の出力部としての音声出力部37、及び通信端末として機能する送受信部としての通信部38を備え、前記ナビゲーション処理部17に、GPSセンサ15、データ記録部16、方位センサ18、操作部34、表示部35、音声入力部36、音声出力部37及び通信部38が接続される。   The navigation device 14 includes a GPS (Global Positioning System) sensor 15 as a current position detection unit for detecting a current position, a data recording unit 16 as an information recording unit in which various information is recorded in addition to map data, and input information. The navigation processing unit 17 that performs various arithmetic processing such as navigation processing, the direction sensor 18 as a direction detection unit that detects the vehicle direction, and a driver who is an operator performs predetermined input. The operation unit 34 as a first input unit for display, various displays by an image displayed on a screen (not shown), and a display unit 35 as a first output unit for notifying the driver Voice input unit 36 as a second input unit for performing input, various displays are performed by voice, and the driver is notified A voice output unit 37 as a second output unit, and a communication unit 38 as a transmission / reception unit functioning as a communication terminal. The navigation processing unit 17 includes a GPS sensor 15, a data recording unit 16, an orientation sensor 18, an operation The unit 34, the display unit 35, the audio input unit 36, the audio output unit 37, and the communication unit 38 are connected.

また、前記ナビゲーション処理部17には、前記制御部10、運転者によるアクセルペダルの操作をアクセル開度で検出するエンジン負荷検出部としてのアクセルセンサ42、運転者によるブレーキペダルの操作をブレーキ踏込量で検出する制動検出部としてのブレーキセンサ43、車速を検出する車速検出部としての車速センサ44、照射装置としての図示されないヘッドライトの配光を行うための配光装置46、車両の前端の所定の箇所に取り付けられ、車両の前方を監視する前方監視装置48、車両の所定の箇所に取り付けられ、車両の周辺を撮影する撮像装置49、ステアリングホイールに配設され、車両の舵(だ)角を検出する舵角検出部としてのステアリングセンサ50等が接続される。前記撮像装置49は、車両の前端に配設され、車両の前方を撮影するフロントカメラ等の撮像装置49F、車両の後端に配設され、車両の後方を撮影するバックカメラ等の撮像装置49B、及び車両の左右のサイドミラーに配設され、車両の側方を撮影するサイドカメラ等の撮像装置49L、49Rから成る。なお、アクセルセンサ42、ブレーキセンサ43、ステアリングセンサ50等は運転者による車両の操作情報を検出するための操作情報検出部を構成する。また、車速センサ44、ステアリングセンサ50は車両情報を検出するための車両情報検出部を構成する。   The navigation processing unit 17 includes the control unit 10, an accelerator sensor 42 as an engine load detection unit that detects an accelerator pedal operation by the driver based on an accelerator opening, and a brake pedal operation amount by the driver. A brake sensor 43 as a braking detection unit for detecting the vehicle speed, a vehicle speed sensor 44 as a vehicle speed detection unit for detecting the vehicle speed, a light distribution device 46 for performing light distribution of a headlight (not shown) as an irradiating device, a predetermined front end of the vehicle A front monitoring device 48 for monitoring the front of the vehicle, an imaging device 49 for photographing the periphery of the vehicle, a steering wheel, and a steering angle of the vehicle. A steering sensor 50 or the like serving as a rudder angle detector for detecting the steering angle is connected. The imaging device 49 is disposed at the front end of the vehicle and is an imaging device 49F such as a front camera for photographing the front of the vehicle, and the imaging device 49B such as a back camera is disposed at the rear end of the vehicle for photographing the rear of the vehicle. , And imaging devices 49L and 49R such as side cameras that are disposed on the left and right side mirrors of the vehicle and photograph the side of the vehicle. The accelerator sensor 42, the brake sensor 43, the steering sensor 50, and the like constitute an operation information detection unit for detecting vehicle operation information by the driver. Further, the vehicle speed sensor 44 and the steering sensor 50 constitute a vehicle information detection unit for detecting vehicle information.

前記GPSセンサ15は、人工衛星によって発生させられた電波を受信することによって地球上における現在地を検出し、併せて時刻を検出する。本実施の形態においては、現在地検出部としてGPSセンサ15が使用されるようになっているが、該GPSセンサ15に代えて、前記ステアリングセンサ50、図示されない距離センサ、高度計等を単独で、又は組み合わせて使用することもできる。また、前記方位センサ18としてジャイロセンサ、地磁気センサ等を使用することができる。   The GPS sensor 15 detects the current location on the earth by receiving radio waves generated by an artificial satellite, and also detects the time. In the present embodiment, the GPS sensor 15 is used as the current position detection unit. Instead of the GPS sensor 15, the steering sensor 50, a distance sensor (not shown), an altimeter, etc. are used alone or It can also be used in combination. Further, a gyro sensor, a geomagnetic sensor, or the like can be used as the direction sensor 18.

前記データ記録部16は、地図データファイルから成る地図データベースを備え、該地図データベースに地図データが記録される。該地図データには、交差点に関する交差点データ、ノードに関するノードデータ、道路リンクに関する道路データ、探索用に加工された探索データ、施設に関する施設データ等が含まれるほか、地物に関する地物データが含まれる。   The data recording unit 16 includes a map database including map data files, and map data is recorded in the map database. The map data includes intersection data related to intersections, node data related to nodes, road data related to road links, search data processed for searching, facility data related to facilities, and feature data related to features. .

前記地物は、運転者に各種の走行上の情報を提供したり、各種の走行上の案内を行ったりするために道路上に設置、又は形成された表示物であり、表示線、路上標識、横断歩道、マンホール、信号機等から成る。前記表示線には、車両を停止させるための停止線、各レーンを区分する車両通行帯境界線、駐車スペースを表す区画線等が含まれ、前記路上標識には、各レーンにおける進行方向を矢印によって表す通行区分標識、「止まれ」等のように一時停止箇所を予告する案内標識等が含まれる。そして、前記地物データには、各地物の位置を座標等で表す位置情報、各地物をイメージで表す画像情報等が含まれる。なお、前記一時停止箇所には、非優先道路から優先道路への進入箇所、踏切、赤信号が点滅する交差点等が含まれる。   The feature is a display object that is installed or formed on a road in order to provide various driving information to the driver or to perform various driving guidance. , Crosswalks, manholes, traffic lights, etc. The display line includes a stop line for stopping the vehicle, a vehicle lane boundary line that divides each lane, a partition line that indicates a parking space, and the road sign indicates an advancing direction in each lane. , A guidance sign for notifying a stop point such as “stop”, and the like. The feature data includes position information that represents the position of each feature by coordinates, image information that represents each feature by image, and the like. The temporary stop points include an entry point from a non-priority road to a priority road, a railroad crossing, an intersection where a red light flashes, and the like.

また、前記道路データとして、道路上の各レーンごとに付与されたレーン番号、レーンの位置情報等から成るレーンデータが含まれる。前記データ記録部16には、所定の情報を音声出力部37によって出力するためのデータも記録される。   The road data includes lane data including lane numbers assigned to each lane on the road, lane position information, and the like. Data for outputting predetermined information by the audio output unit 37 is also recorded in the data recording unit 16.

さらに、前記データ記録部16には、統計データファイルから成る統計データベース、走行履歴データファイルから成る走行履歴データベース等が形成され、前記統計データファイルに統計データが、前記走行履歴データファイルに走行履歴データが、いずれも実績データとして記録される。   Further, the data recording unit 16 includes a statistical database composed of statistical data files, a travel history database composed of travel history data files, and the like. Statistical data is stored in the statistical data file, and travel history data is stored in the travel history data file. However, both are recorded as performance data.

前記統計データは、過去に提供された交通情報の実績、すなわち、履歴を表す履歴情報であり、情報提供者としてのVICS(登録商標:Vehicle Information and Communication System)センタ等の図示されない道路交通情報センタ等によって過去に提供された交通情報、国土交通省によって提供された道路交通センサスによる交通量を表すデータである道路交通センサス情報、国土交通省によって提供された道路時刻表情報等を単独で、又は組み合わせて使用し、必要に応じて、加工し、統計処理を施すことによって作成される。なお、前記統計データに、渋滞状況を予測する渋滞予測情報等を加えることもできる。その場合、前記統計データを作成するに当たり、履歴情報に、日時、曜日、天候、各種イベント、季節、施設の情報(デパート、スーパーマーケット等の大型の施設の有無)等の詳細な条件が加えられる。   The statistical data is a history of traffic information provided in the past, that is, history information representing a history, and a road traffic information center (not shown) such as a VICS (registered trademark: Vehicle Information and Communication System) center as an information provider. Traffic information provided in the past, etc., road traffic census information that is data representing traffic volume by road traffic census provided by the Ministry of Land, Infrastructure, Transport and Tourism, road timetable information provided by the Ministry of Land, Infrastructure, Transport and Tourism alone, or It is created by using in combination, processing as needed, and applying statistical processing. It is possible to add traffic jam prediction information for predicting traffic jams to the statistical data. In that case, in creating the statistical data, detailed conditions such as date and time, day of the week, weather, various events, seasons, facility information (presence / absence of large facilities such as department stores and supermarkets) are added to the history information.

前記統計データのデータ項目には、各道路リンクについてのリンク番号、走行方向を表す方向フラグ、情報の種類を表す情報種別、所定のタイミングごとの渋滞度、前記各道路リンクを走行したときの、所定のタイミングごとの所要時間を表すリンク所要時間、該リンク所要時間の各曜日ごとの平均的なデータ(例えば、曜日平均データ)等から成る。   The data items of the statistical data include a link number for each road link, a direction flag indicating a traveling direction, an information type indicating a type of information, a congestion level at each predetermined timing, and when traveling on each road link. It consists of a link required time representing a required time for each predetermined timing, average data for each day of the link required time (for example, day average data), and the like.

また、走行履歴データは、情報センタ51によって複数の車両、すなわち、自車又は他車から収集され、各車両が走行した道路における車両の走行の実績、すなわち、走行実績を表す実績情報であり、走行データに基づいてプローブデータとして算出され、蓄積される。   Further, the travel history data is collected from a plurality of vehicles, that is, the own vehicle or other vehicles by the information center 51, and is a record of the travel of the vehicle on the road on which each vehicle travels, that is, the track record information representing the track record. It is calculated and accumulated as probe data based on the running data.

前記走行履歴データのデータ項目は、各道路リンクを走行したときの、所定のタイミングごとのリンク所要時間、各道路リンクを走行したときの、所定のタイミングごとの渋滞度等から成る。なお、前記統計データに、走行履歴データを加えることができる。また、本実施の形態において、渋滞度は、渋滞の度合いを表す渋滞指標として使用され、渋滞、混雑及び非渋滞の別で表される。   The data items of the travel history data include a link required time at each predetermined timing when traveling on each road link, a degree of congestion at each predetermined timing when traveling on each road link, and the like. Note that travel history data can be added to the statistical data. Further, in the present embodiment, the congestion level is used as a congestion index that represents the degree of congestion, and is represented separately for congestion, congestion, and non-congestion.

前記データ記録部16は、前記各種のデータを記録するために、ハードディスク、CD、DVD、光ディスク等の図示されないディスクを備えるほかに、各種のデータを読み出したり、書き込んだりするための読出・書込ヘッド等の図示されないヘッドを備える。前記データ記録部16にメモリカード等を使用することができる。   The data recording unit 16 includes a disk (not shown) such as a hard disk, a CD, a DVD, and an optical disk in order to record the various data, and also reads / writes for reading and writing various data. A head (not shown) such as a head is provided. A memory card or the like can be used for the data recording unit 16.

本実施の形態においては、前記データ記録部16に、前記地図データベース、統計データベース、走行履歴データベース等が配設されるようになっているが、情報センタ51において、前記地図データベース、統計データベース、走行履歴データベース等を配設することもできる。   In the present embodiment, the data recording unit 16 is provided with the map database, statistical database, travel history database, and the like. However, in the information center 51, the map database, statistical database, travel history, etc. A history database or the like can also be provided.

また、前記ナビゲーション処理部17は、ナビゲーション装置14の全体の制御を行う制御装置としての、かつ、演算装置としてのCPU31、該CPU31が各種の演算処理を行うに当たってワーキングメモリとして使用されるRAM32、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録されたROM33、各種のデータ、プログラム等を記録するために使用される図示されないフラッシュメモリを備える。   The navigation processing unit 17 is a control device that performs overall control of the navigation device 14 and a CPU 31 as an arithmetic device, a RAM 32 that is used as a working memory when the CPU 31 performs various arithmetic processes, In addition to the above program, a ROM 33 in which various programs for searching for a route to the destination, route guidance and the like are recorded, and a flash memory (not shown) used for recording various data, programs and the like are provided. .

本実施の形態においては、前記ROM33に各種のプログラムを記録し、前記データ記録部16に各種のデータを記録することができるが、プログラム、データ等をディスク等に記録することもできる。この場合、ディスク等から前記プログラム、データ等を読み出してフラッシュメモリに書き込むことができる。したがって、ディスク等を交換することによって前記プログラム、データ等を更新することができる。また、前記制御部10の制御用のプログラム、データ等もディスク等に記録することができる。さらに、通信部38を介して前記プログラム、データ等を受信し、ナビゲーション処理部17のフラッシュメモリに書き込むこともできる。   In the present embodiment, various programs can be recorded in the ROM 33 and various data can be recorded in the data recording unit 16, but the programs, data, and the like can also be recorded on a disk or the like. In this case, the program, data, etc. can be read from a disk or the like and written to the flash memory. Therefore, the program, data, etc. can be updated by exchanging the disk or the like. Further, the control program, data, and the like of the control unit 10 can be recorded on a disk or the like. Further, the program, data, and the like can be received via the communication unit 38 and written into the flash memory of the navigation processing unit 17.

前記操作部34は、運転者が操作することによって、走行開始時の現在地を修正したり、出発地及び目的地を入力したり、通過点を入力したり、通信部38を作動させたりするためのものであり、前記操作部34として、表示部35とは独立に配設されたキーボード、マウス等を使用することができる。また、前記操作部34として、前記表示部35に形成された画面に画像で表示された各種のキー、スイッチ、ボタン等の画像操作部をタッチ又はクリックすることによって、所定の入力操作を行うことができるようにしたタッチパネルを使用することができる。   The operation unit 34 is operated by the driver to correct the current location at the start of traveling, to input a departure point and a destination, to input a passing point, and to activate the communication unit 38. As the operation unit 34, a keyboard, a mouse, or the like disposed independently of the display unit 35 can be used. Further, as the operation unit 34, a predetermined input operation is performed by touching or clicking an image operation unit such as various keys, switches, and buttons displayed as images on the screen formed in the display unit 35. It is possible to use a touch panel that can be used.

前記表示部35としてディスプレイが使用される。そして、表示部35に形成された各種の画面に、車両の現在地を自車位置として、車両の方位を自車方位として表示したり、地図、探索経路、該探索経路に沿った案内情報、交通情報等を表示したり、探索経路における次の交差点までの距離、次の交差点における進行方向を表示したりすることができるだけでなく、前記画像操作部、操作部34、音声入力部36等の操作案内、操作メニュー、キーの案内を表示したり、FM多重放送の番組等を表示したりすることができる。   A display is used as the display unit 35. Then, on various screens formed on the display unit 35, the current position of the vehicle is displayed as the vehicle position, the vehicle direction is displayed as the vehicle direction, a map, a search route, guidance information along the search route, traffic In addition to displaying information and the like, displaying the distance to the next intersection on the searched route, and the traveling direction at the next intersection, the operation of the image operation unit, operation unit 34, voice input unit 36, etc. It is possible to display guidance, operation menus, key guidance, FM multiplex broadcast programs, and the like.

また、音声入力部36は、図示されないマイクロホン等によって構成され、音声によって必要な情報を入力することができる。さらに、音声出力部37は、図示されない音声合成装置及びスピーカを備え、音声出力部37から、前記探索経路、案内情報、交通情報等が、例えば、音声合成装置によって合成された音声で出力される。   The voice input unit 36 includes a microphone (not shown) and the like, and can input necessary information by voice. Further, the voice output unit 37 includes a voice synthesizer and a speaker (not shown), and the search route, guidance information, traffic information, and the like are output from the voice output unit 37, for example, as voice synthesized by the voice synthesizer. .

前記通信部38は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報を、道路に沿って配設された電波ビーコン装置、光ビーコン装置等を介して電波ビーコン、光ビーコン等として受信するためのビーコンレシーバ、FM放送局を介してFM多重放送として受信するためのFM受信機等を備える。なお、前記交通情報には、渋滞情報、規制情報、駐車場情報、交通事故情報、サービスエリアの混雑状況情報等が含まれ、一般情報には、ニュース、天気予報等が含まれる。また、前記ビーコンレシーバ及びFM受信機は、ユニット化されてVICSレシーバとして配設されるようになっているが、別々に配設することもできる。   The communication unit 38 transmits various information such as current traffic information and general information transmitted from the road traffic information center to radio wave beacons via radio wave beacon devices, optical beacon devices and the like arranged along the road. A beacon receiver for receiving as an optical beacon, an FM receiver for receiving as an FM multiplex broadcast via an FM broadcast station, and the like. The traffic information includes traffic jam information, regulation information, parking lot information, traffic accident information, service area congestion status information, and the like, and general information includes news, weather forecasts, and the like. Further, the beacon receiver and the FM receiver are unitized and arranged as a VICS receiver, but can be arranged separately.

前記交通情報は、情報の種別を表す情報種別、メッシュを特定するためのメッシュ番号、二つの地点(例えば、交差点)間を連結する道路リンクを特定し、かつ、上り/下りの別を表すリンク番号、該リンク番号に対応させて提供される情報の内容を表すリンク情報を含み、例えば、交通情報が渋滞情報である場合、前記リンク情報は、前記道路リンクの始点から渋滞の先頭までの距離を表す渋滞先頭データ、渋滞度、渋滞区間を前記渋滞の先頭から渋滞の末尾までの距離を表す渋滞長、道路リンクを走行するのに必要な時間を表すリンク所要時間等から成る。   The traffic information includes an information type that indicates the type of information, a mesh number for specifying a mesh, a road link that connects two points (for example, intersections), and a link that indicates whether it is up / down. Number, including link information representing the content of information provided corresponding to the link number. For example, when the traffic information is traffic jam information, the link information is a distance from the start point of the road link to the head of the traffic jam Congestion head data representing traffic congestion degree, congestion section, traffic jam length representing the distance from the beginning of the traffic jam to the end of the traffic jam, link required time representing the time required to travel on the road link, and the like.

そして、通信部38は、前記情報センタ51から、前記地図データ、統計データ、走行履歴データ等のデータのほか、交通情報、一般情報等の各種の情報をネットワーク63を介して受信することができる。   And the communication part 38 can receive various information, such as traffic information and general information other than data, such as the said map data, statistical data, and driving history data, from the said information center 51 via the network 63. .

そのために、前記情報センタ51は、サーバ53、該サーバ53に接続された通信部57、情報記録部としてのデータベース(DB)58等を備え、前記サーバ53は、サーバ53の全体の制御を行う制御装置としての、かつ、演算装置としてのCPU54、該CPU54が各種の演算処理を行うに当たってワーキングメモリとして使用されるRAM55、制御用のプログラムのほか、目的地までの経路の探索、経路案内等を行うための各種のプログラムが記録されたROM56等を備える。また、前記データベース58に、前記データ記録部16に記録された各種のデータと同様のデータ、例えば、前記地図データ、統計データ、走行履歴データ等が記録される。さらに、情報センタ51は、前記道路交通情報センタから送信された現況の交通情報、一般情報等の各種の情報、及び複数の車両(自車又は他車)から収集した走行履歴データをリアルタイムに提供することができる。   For this purpose, the information center 51 includes a server 53, a communication unit 57 connected to the server 53, a database (DB) 58 as an information recording unit, and the like. The server 53 controls the entire server 53. CPU 54 as a control device and an arithmetic device, RAM 55 used as a working memory when the CPU 54 performs various arithmetic processes, control programs, route search to the destination, route guidance, etc. A ROM 56 and the like in which various programs for performing are recorded. The database 58 records data similar to the various data recorded in the data recording unit 16, for example, the map data, statistical data, travel history data, and the like. Further, the information center 51 provides various information such as current traffic information and general information transmitted from the road traffic information center, and travel history data collected from a plurality of vehicles (own vehicle or other vehicles) in real time. can do.

また、前記配光装置46は、ヘッドライトの光軸の傾きを変更し、ロービーム及びアップビームの光を照射する。   Further, the light distribution device 46 changes the inclination of the optical axis of the headlight and irradiates light of a low beam and an up beam.

さらに、前記前方監視装置48は、ミリ波レーダ、レーザレーダ等のレーダ装置から成り、照射媒体としてのミリ波、レーザ等を前方の被照射物に対して照射し、該被照射物までの距離を測定したり、先行して走行している車両、すなわち、先行車両を監視したり、一時停止箇所、障害物等を監視したりする。また、前方監視装置48は、自車周辺情報として先行車両に対する相対的な車速を表す相対速度、一時停止箇所に対する接近速度、障害物に対する接近速度等を検出したり、車間距離、車間時間等を算出したりする。前記測定、監視、検出、算出等は、ミリ波レーダ、レーザレーダ等の照射範囲に含まれる先行車両、障害物等に対して一定の測定周期(例えば、100〔ms〕)ごとに行われる。   Further, the forward monitoring device 48 is composed of a radar device such as a millimeter wave radar or a laser radar, and irradiates the front irradiation object with a millimeter wave, a laser or the like as an irradiation medium, and a distance to the irradiation object. Is measured, the vehicle traveling ahead, that is, the preceding vehicle is monitored, the temporary stop point, the obstacle, and the like are monitored. In addition, the front monitoring device 48 detects the relative speed indicating the relative vehicle speed with respect to the preceding vehicle, the approach speed with respect to the temporary stop point, the approach speed with respect to the obstacle, etc. as the vehicle surrounding information, and the inter-vehicle distance, the inter-vehicle time, etc. Or calculate. The measurement, monitoring, detection, calculation, and the like are performed every predetermined measurement period (for example, 100 [ms]) with respect to a preceding vehicle, an obstacle, and the like included in an irradiation range such as millimeter wave radar and laser radar.

前記撮像装置49は、本実施の形態においては、カラーのCCD素子から成り、自車の周辺を監視するために、光軸を斜め下方に向けて取り付けられ、走行している道路のほかに、道路脇の建造物、構造物等を被撮影物として撮影し、撮影された被撮影物の画像のデータ、すなわち、画像データを発生させ、CPU21に送る。該CPU21は、前記画像データを読み込み、画像データに対して画像認識処理を行うことによって、画像中の前記各被撮影物を認識対象物として認識する。本実施の形態においては、撮像装置49としてCCD素子が使用されるようになっているが、CCD素子に代えてC−MOS素子等を使用することができる。   In the present embodiment, the imaging device 49 is composed of a color CCD element, and in order to monitor the periphery of the own vehicle, the optical axis is attached obliquely downward, and in addition to the road that is running, A building or a structure on the side of the road is photographed as an object to be photographed, image data of the photographed object, that is, image data is generated and sent to the CPU 21. The CPU 21 reads the image data and performs image recognition processing on the image data, thereby recognizing each object to be photographed in the image as a recognition object. In the present embodiment, a CCD element is used as the imaging device 49, but a C-MOS element or the like can be used instead of the CCD element.

なお、前記車両制御システム、制御部10、ナビゲーション処理部17、CPU21、31、54、サーバ53等は、単独で又は二つ以上組み合わせることによってコンピュータとして機能し、各種のプログラム、データ等に基づいて演算処理を行う。また、データ記録部16、RAM22、32、55、ROM23、33、56、データベース58、各フラッシュメモリ等によって記録媒体が構成される。そして、演算装置として、CPU21、31、54に代えてMPU等を使用することもできる。   The vehicle control system, the control unit 10, the navigation processing unit 17, the CPUs 21, 31, 54, the server 53, and the like function as a computer singly or in combination of two or more, and based on various programs, data, and the like. Perform arithmetic processing. The data recording unit 16, RAMs 22, 32, 55, ROMs 23, 33, 56, database 58, flash memories, etc. constitute a recording medium. An MPU or the like can be used instead of the CPUs 21, 31, and 54 as the arithmetic unit.

次に、前記構成の車両制御システムを交差点認識システムとして利用したときの基本動作について説明する。   Next, a basic operation when the vehicle control system having the above configuration is used as an intersection recognition system will be described.

まず、運転者によって操作部34が操作され、ナビゲーション装置14が起動されると、CPU31の図示されないナビ初期化処理手段は、ナビ初期化処理を行い、GPSセンサ15によって検出された自車の現在地、方位センサ18によって検出された自車方位を読み込むとともに、各種のデータを初期化する。次に、前記CPU31の図示されないマッチング処理手段は、マッチング処理を行い、読み込まれた現在地の軌跡、及び現在地の周辺の道路を構成する各道路リンクの形状、配列等に基づいて、現在地がいずれの道路リンク上に位置するかの判定を行うことによって、現在地を特定する。   First, when the operation unit 34 is operated by the driver and the navigation device 14 is activated, a navigation initialization processing unit (not shown) of the CPU 31 performs a navigation initialization process and detects the current location of the vehicle detected by the GPS sensor 15. The vehicle direction detected by the direction sensor 18 is read, and various data are initialized. Next, the matching processing means (not shown) of the CPU 31 performs matching processing, and based on the trajectory of the read current location and the shape, arrangement, etc. of each road link constituting the road around the current location, The current location is identified by determining whether it is located on the road link.

続いて、CPU31の図示されない基本情報取得処理手段は、基本情報取得処理を行い、前記地図データを、データ記録部16から読み出して取得するか、又は通信部38を介して情報センタ51等から受信して取得する。なお、地図データを情報センタ51等から取得する場合、前記基本情報取得処理手段は、受信した地図データをフラッシュメモリに記録する。   Subsequently, a basic information acquisition processing unit (not shown) of the CPU 31 performs a basic information acquisition process and acquires the map data by reading it from the data recording unit 16 or receiving it from the information center 51 or the like via the communication unit 38. And get. In addition, when acquiring map data from the information center 51 etc., the said basic information acquisition process means records the received map data in flash memory.

そして、前記CPU31の図示されない表示処理手段は、表示処理を行い、前記表示部35に各種の画面を形成する。例えば、表示処理手段の地図表示処理手段は、地図表示処理を行い、表示部35に地図画面を形成し、該地図画面に周囲の地図を表示するとともに、現在地を自車位置として、車両の方位を自車方位として表示する。   A display processing unit (not shown) of the CPU 31 performs display processing and forms various screens on the display unit 35. For example, the map display processing means of the display processing means performs a map display process, forms a map screen on the display unit 35, displays a surrounding map on the map screen, and sets the current position as the vehicle position and the direction of the vehicle. Is displayed as the vehicle direction.

したがって、運転者は、前記地図、自車位置及び自車方位に従って車両を走行させることができる。   Accordingly, the driver can drive the vehicle according to the map, the vehicle position, and the vehicle direction.

また、運転者が操作部34を操作して目的地を入力すると、CPU31の図示されない目的地設定処理手段は、目的地設定処理を行い、目的地を設定する。なお、必要に応じて出発地を入力し、設定することもできる。また、あらかじめ所定の地点を登録しておき、登録された地点を目的地として設定することができる。続いて、運転者が操作部34を操作して探索条件を入力すると、CPU31の図示されない探索条件設定処理手段は、探索条件設定処理を行い、探索条件を設定する。   Further, when the driver operates the operation unit 34 to input a destination, a destination setting processing unit (not shown) of the CPU 31 performs a destination setting process to set the destination. Note that the departure place can be input and set as necessary. Moreover, a predetermined point can be registered in advance, and the registered point can be set as a destination. Subsequently, when the driver operates the operation unit 34 to input a search condition, a search condition setting processing unit (not shown) of the CPU 31 performs a search condition setting process to set the search condition.

このようにして、目的地及び探索条件が設定されると、CPU31の図示されない経路探索処理手段は、経路探索処理を行い、前記現在地、目的地、探索条件等を読み込むともに、データ記録部16から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、現在地で表される出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。このとき、各道路リンクごとに付与されたリンクコストの合計が最も小さい経路が探索経路とされる。   When the destination and the search condition are set in this way, the route search processing unit (not shown) of the CPU 31 performs the route search process, reads the current location, the destination, the search condition, and the like from the data recording unit 16. Based on the current location, the destination, and the search data, a route from the departure point to the destination represented by the current location is searched based on the search condition, and route data representing the searched route is output. At this time, the route with the smallest total link cost assigned to each road link is set as the searched route.

また、道路に複数のレーンが形成されている場合で、かつ、走行レーンが検出されている場合、前記経路探索処理手段は、レーン単位の探索経路を探索する。その場合、前記経路データにはレーン番号等も含まれる。   When a plurality of lanes are formed on the road and a traveling lane is detected, the route search processing means searches for a search route for each lane. In this case, the route data includes a lane number and the like.

続いて、前記CPU31の図示されない案内処理手段は、案内処理を行い、経路案内を行う。そのために、前記案内処理手段の経路表示処理手段は、経路表示処理を行い、前記経路データを読み込み、該経路データに従って前記地図画面に探索経路を表示する。レーン単位の探索経路が探索されている場合は、所定の地点、例えば、案内交差点において、レーン単位の経路案内が行われ、交差点拡大図に走行レーンが表示される。また、必要に応じて、前記案内処理手段の音声出力処理手段は、音声出力処理を行い、音声出力部37から探索経路を音声で出力して経路案内を行う。   Subsequently, a guidance processing means (not shown) of the CPU 31 performs guidance processing and provides route guidance. For this purpose, the route display processing means of the guidance processing means performs route display processing, reads the route data, and displays the searched route on the map screen according to the route data. When a search route for each lane is searched, route guidance for each lane is performed at a predetermined point, for example, a guidance intersection, and a travel lane is displayed in the enlarged intersection view. If necessary, the voice output processing means of the guidance processing means performs voice output processing, and outputs a search route by voice from the voice output unit 37 to provide route guidance.

なお、前記情報センタ51において経路探索処理を行うことができる。その場合、CPU31は現在地、目的地、探索条件等を情報センタ51に送信する。該情報センタ51は、現在地、目的地、探索条件等を受信すると、CPU54の図示されない経路探索処理手段は、CPU31と同様の経路探索処理を行い、データベース58から探索データ等を読み出し、現在地、目的地及び探索データに基づいて、出発地から目的地までの経路を前記探索条件で探索し、探索経路を表す経路データを出力する。続いて、CPU54の図示されない送信処理手段は、送信処理を行い、前記経路データをナビゲーション装置14に送信する。したがって、ナビゲーション装置14において、前記基本情報取得処理手段が情報センタ51からの経路データを受信すると、前記案内処理手段は、前述されたような経路案内を行う。   The information center 51 can perform a route search process. In that case, the CPU 31 transmits the current location, the destination, search conditions, and the like to the information center 51. When the information center 51 receives the current location, destination, search conditions, etc., the route search processing means (not shown) of the CPU 54 performs route search processing similar to that of the CPU 31 and reads the search data from the database 58 to obtain the current location, destination. Based on the location and the search data, a route from the departure point to the destination is searched under the search conditions, and route data representing the searched route is output. Subsequently, a transmission processing unit (not shown) of the CPU 54 performs transmission processing and transmits the route data to the navigation device 14. Therefore, in the navigation device 14, when the basic information acquisition processing means receives the route data from the information center 51, the guidance processing means performs route guidance as described above.

そして、探索経路上に案内交差点が存在する場合、車両が案内交差点より所定の距離(例えば、X〔m〕)だけ手前の経路案内地点に到達すると、前記案内処理手段の交差点拡大図表示処理手段は、交差点拡大図表示処理を行い、地図画面の所定の領域に前述されたような交差点拡大図を形成し、交差点拡大図による経路案内を行い、該交差点拡大図に、案内交差点の周辺の地図、探索経路、案内交差点において目印になる施設等の陸標、レーン単位の経路案内が行われている場合には走行レーン等を表示する。また、必要に応じて、前記音声出力処理手段は、音声出力部37から、例えば、「この先X〔m〕で左方向です。」のような音声を出力し、経路案内を行う。   And when a guidance intersection exists on the searched route, when the vehicle reaches a route guidance point in front of the guidance intersection by a predetermined distance (for example, X [m]), the intersection enlarged map display processing means of the guidance processing means Performs an enlarged intersection map display process, forms an enlarged intersection map as described above in a predetermined area of the map screen, provides route guidance by the enlarged intersection map, and displays the map around the guided intersection in the enlarged intersection map. When the route guidance for the lane unit is being performed, the travel lane or the like is displayed. Further, if necessary, the voice output processing means outputs a voice such as “This is X [m] to the left” from the voice output unit 37 and performs route guidance.

ところで、本実施の形態においては、制御部10及び撮像装置49Fによって画像認識システムが構成されるとともに、制御部10及び前方監視装置48によって前方監視システムが構成されるようになっていて、前記画像認識システム及び前方監視システムによって交差点を認識することができるようになっている。   Incidentally, in the present embodiment, an image recognition system is configured by the control unit 10 and the imaging device 49F, and a forward monitoring system is configured by the control unit 10 and the forward monitoring device 48. The intersection can be recognized by the recognition system and the forward monitoring system.

そのために、制御部10において、CPU21の図示されない交差点認識処理手段は、交差点認識処理を行い、自車の前方の交差点を横方向に移動する他車(以下「交差車両」という。)を検出し、交差点を認識するとともに、自車から他車までの距離を算出するようにしている。   Therefore, in the control unit 10, an intersection recognition processing unit (not shown) of the CPU 21 performs an intersection recognition process to detect another vehicle (hereinafter referred to as an “intersection vehicle”) that moves in the lateral direction at the intersection in front of the host vehicle. In addition to recognizing the intersection, the distance from the own vehicle to the other vehicle is calculated.

図2は本発明の実施の形態における交差点認識処理手段の動作を示すメインフローチャート、図3は本実施の形態における画像認識処理のサブルーチンを示す図、図4は本発明の実施の形態における撮像装置の取付状態を示す図、図5は本発明の実施の形態における撮像領域を示す図、図6は本発明の実施の形態における撮像装置の取付状態の詳細を示す図、図7は本発明の実施の形態における検出結果補正処理を説明する第1の図、図8は本発明の実施の形態における検出結果補正処理を説明する第2の図である。   2 is a main flowchart showing the operation of the intersection recognition processing means in the embodiment of the present invention, FIG. 3 is a diagram showing a subroutine of image recognition processing in the present embodiment, and FIG. 4 is an image pickup apparatus in the embodiment of the present invention. FIG. 5 is a diagram showing an imaging region in the embodiment of the present invention, FIG. 6 is a diagram showing details of the mounting state of the imaging device in the embodiment of the present invention, and FIG. FIG. 8 is a first diagram illustrating detection result correction processing according to the embodiment, and FIG. 8 is a second diagram illustrating detection result correction processing according to the embodiment of the present invention.

ところで、前記前方監視装置48(図1)としてはミリ波レーダ、レーザレーダ等のレーダ装置を使用することができ、本実施の形態においては、ミリ波レーダを使用するようになっている。該ミリ波レーダにおいては、前方において自車の進行方向に対して前後方向に移動する移動物体が検出されると、ミリ波レーダの特性(ドップラー効果)によって、一度の検出で移動物体の速度を測定することができるとともに、測定された移動物体の速度に基づいて移動物体の測定周期ごとの移動距離を予測することができ、同一の移動物体として検出することができる。ところが、ミリ波レーダは、前方において自車の進行方向に対して横方向に移動する移動物体に対しては、ミリ波レーダの特性によって移動物体の速度を測定することができない。したがって、測定周期ごとの移動距離を予測することができず、同一の移動物体として検出することができない。   By the way, as the forward monitoring device 48 (FIG. 1), a radar device such as a millimeter wave radar or a laser radar can be used. In the present embodiment, a millimeter wave radar is used. In the millimeter wave radar, when a moving object moving in the front-rear direction with respect to the traveling direction of the host vehicle is detected in front, the speed of the moving object is detected by one detection due to the characteristics of the millimeter wave radar (Doppler effect). In addition to being able to measure, it is possible to predict the moving distance for each measurement period of the moving object based on the measured speed of the moving object, and to detect them as the same moving object. However, the millimeter wave radar cannot measure the speed of the moving object due to the characteristics of the millimeter wave radar with respect to the moving object moving in the lateral direction with respect to the traveling direction of the vehicle ahead. Therefore, the moving distance for each measurement cycle cannot be predicted and cannot be detected as the same moving object.

これに対して、撮像装置49Fによって撮影された画像データに従って画像認識を行うことにより、前方において横方向に移動する移動物体を容易に検出することができるが、撮像装置49Fは、単眼の構成になるので、撮像装置49Fから移動物体までの距離を画像認識で検出するのが困難であり、検出精度が低くなってしまう。   On the other hand, by performing image recognition according to the image data captured by the imaging device 49F, it is possible to easily detect a moving object moving in the lateral direction in the front, but the imaging device 49F has a monocular configuration. Therefore, it is difficult to detect the distance from the imaging device 49F to the moving object by image recognition, and the detection accuracy is lowered.

そこで、本実施の形態においては、撮像装置49Fからフレームごとに所定の周期で送られた画像データに対して画像認識処理を行うことによって、交差車両を車両候補物として検出し、自車から車両候補物までの概算の距離を算出し、続いて、ミリ波レーダによって、前記概算の距離に基づいて、自車から車両候補物までの距離を測定するようになっている。   Therefore, in the present embodiment, by performing image recognition processing on the image data sent from the imaging device 49F for each frame at a predetermined cycle, an intersecting vehicle is detected as a vehicle candidate, and the vehicle from the own vehicle to the vehicle is detected. An approximate distance to the candidate is calculated, and then the distance from the vehicle to the vehicle candidate is measured based on the approximate distance by a millimeter wave radar.

そのために、前記交差点認識処理手段の起動判定処理手段は、起動判定処理を行い、画像認識システムが起動しているかどうかを判断し、画像認識システムが起動している場合、前方監視システムが起動しているかどうかを判断する。そして、前方監視システムが起動している場合、交差点認識処理手段の画像認識処理手段は、画像認識処理を行う。   For this purpose, the activation determination processing means of the intersection recognition processing means performs activation determination processing to determine whether the image recognition system is activated. When the image recognition system is activated, the forward monitoring system is activated. Determine if you are. When the forward monitoring system is activated, the image recognition processing means of the intersection recognition processing means performs image recognition processing.

すなわち、該画像認識処理手段の昼夜判定処理手段は、昼夜判定処理を行い、配光装置46に送られるイルミ信号のオン・オフによって、昼であるか夜であるかどうかを判断し、昼である場合、前記画像認識処理手段の第1の認識処理手段としての昼用画像認識処理手段は、第1の認識処理としての昼用画像認識処理を行い、夜である場合、前記画像認識処理手段の第2の認識処理手段としての夜用画像認識処理手段は、第2の認識処理としての夜用画像認識処理を行う。   That is, the day / night determination processing means of the image recognition processing means performs day / night determination processing, determines whether it is daytime or nighttime by turning on / off the illumination signal sent to the light distribution device 46, and at daytime. In some cases, the daytime image recognition processing means as the first recognition processing means of the image recognition processing means performs daytime image recognition processing as the first recognition processing, and in the case of night, the image recognition processing means. The night image recognition processing means as the second recognition processing means performs night image recognition processing as the second recognition processing.

前記昼用画像認識処理手段は、以下の手順で車両候補物を検出する。   The daytime image recognition processing means detects a vehicle candidate in the following procedure.

すなわち、昼用画像認識処理手段は、まず、撮像装置49Fから送られた第1のフレームの画像データを受け、該画像データから成る画像領域に対してエッジ特徴を用いた特徴量マッチング等を行い、前記画像領域から同じ色の物体を抽出する。続いて、前記昼用画像認識処理手段は、さらに、ラベリング処理を行い、形状が車両に類似する特徴を持つ物体を抽出する。   That is, the daytime image recognition processing means first receives the image data of the first frame sent from the imaging device 49F, and performs feature amount matching using the edge feature on the image area composed of the image data. Then, an object of the same color is extracted from the image area. Subsequently, the daytime image recognition processing means further performs a labeling process to extract an object having a feature similar in shape to the vehicle.

そして、前記昼用画像認識処理手段は、抽出された物体に対して所定の形状パラメータを与えることによって、抽出された物体の形状と車両の形状との類似度を算出する。続いて、前記昼用画像認識処理手段は、類似度が閾(しきい)値より高い物体を車両候補物として抽出し、検出する。   Then, the daytime image recognition processing means calculates a similarity between the shape of the extracted object and the shape of the vehicle by giving a predetermined shape parameter to the extracted object. Subsequently, the daytime image recognition processing means extracts and detects an object having a similarity higher than a threshold value as a vehicle candidate.

なお、前記昼用画像認識処理のアルゴリズムでは、夜間において特徴量マッチングを行ったり、同じ色の物体を抽出したり、形状が車両に類似する特徴を持つ物体を抽出したりするのが困難であるが、夜間においては、ヘッドライト、テールランプ等の白色発光物、赤色発光物等を検出することができるので、前記夜用画像認識処理手段は、前記夜用画像認識処理のアルゴリズムを使用し、同じ色の物体を抽出したり、形状が車両に類似する特徴を持つ物体を抽出したりすることなく、車両候補物を抽出し、検出する。   In the daytime image recognition processing algorithm, it is difficult to perform feature amount matching at night, to extract an object of the same color, or to extract an object having a feature similar in shape to a vehicle. However, since it is possible to detect white illuminants such as headlights and tail lamps, red illuminants, etc. at night, the night image recognition processing means uses the same algorithm for the night image recognition processing. A vehicle candidate is extracted and detected without extracting a colored object or extracting an object having a feature similar in shape to the vehicle.

このようにして、車両候補物が検出されると、前記交差点認識処理手段の距離算出処理手段は、距離算出処理を行い、画像領域における自車から車両候補物までの距離を算出する。   When the vehicle candidate is detected in this way, the distance calculation processing means of the intersection recognition processing means performs a distance calculation process to calculate the distance from the own vehicle to the vehicle candidate in the image area.

図4〜6において、61は撮像素子としてのCCD素子、fは撮像装置49Fの焦点、Raは路面、hは該路面Raからの焦点fまでの距離で表される撮像装置49Fの高さ(厳密には焦点fの高さであるが、実質的に撮像装置49Fの高さを表す。)である。また、E1は焦点fから直下に向けて延びるライン、E2は撮影範囲の下縁を示すライン、E3は撮像装置49Fの光軸、E4は焦点fから車両候補物に向けて延びるライン、E5は焦点fから消失点に向けて延びるライン、E6は撮影範囲の上縁を示すラインである。   4 to 6, 61 is a CCD element as an imaging device, f is a focal point of the imaging device 49F, Ra is a road surface, h is a height of the imaging device 49F expressed by a distance from the road surface Ra to the focal point f ( Strictly speaking, it is the height of the focal point f, but substantially represents the height of the imaging device 49F. Further, E1 is a line extending directly from the focal point f, E2 is a line indicating the lower edge of the photographing range, E3 is an optical axis of the imaging device 49F, E4 is a line extending from the focal point f toward the vehicle candidate, and E5 is A line E6 extending from the focal point f toward the vanishing point is a line indicating the upper edge of the photographing range.

そして、P1はラインE1と路面Raとが交差する直下点、P2はラインE2と路面Raとが交差する下縁点、P3は光軸E3と路面Raとが交差する光軸点、P4はラインE4と路面Raとが交差する車両候補物点、L1は直下点P1から下縁点P2までの距離、L2は直下点P1から光軸点P3までの距離、Laは直下点P1から車両候補物点P4までの距離、Lbは下縁点P2から車両候補物点P4までの距離、Pcは画像領域上の中心から車両候補物までの画素の数、Pdは画像領域上の中心から上縁又は下縁までの画素の数である。なお、CCD素子61から焦点fまでの焦点距離Lfは、距離Laに対して無視することができるので、前記距離Laは、実質的に撮像装置49Fから車両候補物までの水平方向の距離を表す。   P1 is a point immediately below where the line E1 and the road surface Ra intersect, P2 is a lower edge point where the line E2 and the road surface Ra intersect, P3 is an optical axis point where the optical axis E3 and the road surface Ra intersect, and P4 is a line A vehicle candidate point at which E4 and the road surface Ra intersect, L1 is a distance from the direct point P1 to the lower edge point P2, L2 is a distance from the direct point P1 to the optical axis point P3, and La is a vehicle candidate from the direct point P1. The distance to the point P4, Lb is the distance from the lower edge point P2 to the vehicle candidate point P4, Pc is the number of pixels from the center on the image area to the vehicle candidate, and Pd is the upper edge from the center on the image area or This is the number of pixels up to the bottom edge. Since the focal length Lf from the CCD element 61 to the focal point f can be ignored with respect to the distance La, the distance La substantially represents the horizontal distance from the imaging device 49F to the vehicle candidate. .

また、θ1は撮像装置49Fの垂直方向の撮影範囲を角度で表す垂直画角、θ2は光軸E3からラインE2までの範囲を角度で表す半画角であり、該半画角θ2は、
θ2=θ1/2
である。そして、θ3は撮像装置49Fの俯角、θ4は光軸E3とラインE4との成す角度である。
In addition, θ1 is a vertical field angle that represents the photographing range in the vertical direction of the imaging device 49F as an angle, θ2 is a half field angle that represents a range from the optical axis E3 to the line E2, and the half field angle θ2 is
θ2 = θ1 / 2
It is. Θ3 is the depression angle of the imaging device 49F, and θ4 is the angle formed by the optical axis E3 and the line E4.

ところで、図4において、
tan(θ3−θ2)=L1/h
であるので、
tanθ2=(h・tanθ3−L1)/(h+L1・tanθ3) ……(1)
になる。また、
tan(θ3+θ4)=La/h
であるので、距離Laは、
La=h・(tanθ3+tanθ4)
/(1−tanθ3・tanθ4) ……(2)
になる。
By the way, in FIG.
tan (θ3-θ2) = L1 / h
So
tan θ2 = (h · tan θ3−L1) / (h + L1 · tan θ3) (1)
become. Also,
tan (θ3 + θ4) = La / h
Therefore, the distance La is
La = h · (tan θ3 + tan θ4)
/ (1-tan θ3 · tan θ4) (2)
become.

ここで、各画素がユニットサイズρを有するので、
tanθ2=Pd・ρ/Lf ……(3)
tanθ4=Pc・ρ/Lf
であり、
tanθ4=Pc・tanθ2/Pd ……(4)
になる。したがって、前記式(4)に式(1)のtanθ2を代入すると、
tanθ4=Pc・{(h・tanθ3−L1)
/(h+L1・tanθ3)}/Pd ……(5)
になる。
Here, since each pixel has a unit size ρ,
tan θ2 = Pd · ρ / Lf (3)
tan θ4 = Pc · ρ / Lf
And
tan θ4 = Pc · tan θ2 / Pd (4)
become. Therefore, substituting tan θ2 of equation (1) into equation (4),
tan θ4 = Pc · {(h · tan θ3−L1)
/ (H + L1 · tan θ3)} / Pd (5)
become.

したがって、式(2)に式(5)のtanθ4を代入すると、距離Laを、距離L1、数Pc、Pd、高さh及び俯角θ3で表すことができる。前記距離L1、高さh及び俯角θ3は撮像装置49Fの取付状態で決まり、数Pc、Pdは撮像装置49Fの仕様で規定されるので、前記距離Laを算出することができる。   Therefore, when tan θ4 in equation (5) is substituted into equation (2), distance La can be expressed by distance L1, number Pc, Pd, height h, and depression angle θ3. The distance L1, the height h, and the depression angle θ3 are determined by the mounting state of the imaging device 49F, and the numbers Pc and Pd are defined by the specification of the imaging device 49F, so that the distance La can be calculated.

なお、図5においては、撮像装置49Fによって撮影された画像データの画像領域における各直下点P1、下縁点P2、光軸点P3、車両候補物点P4、距離L1、L2、La、Lbが示される。前記光軸点P3及び車両候補物点P4を通る直線は、画像領域の下端からそれぞれ距離L2−L1、距離Lbを示す線である。   In FIG. 5, each direct point P1, lower edge point P2, optical axis point P3, vehicle candidate point P4, distances L1, L2, La, and Lb in the image area of the image data captured by the imaging device 49F are shown. Indicated. The straight lines passing through the optical axis point P3 and the vehicle candidate point P4 are lines indicating the distances L2-L1 and Lb from the lower end of the image area, respectively.

本実施の形態においては、前記式(4)に、式(1)のtanθ2を代入するようになっているが、式(3)のtanθ2を代入することができる。ところが、前記数Pc、Pd及びユニットサイズρは、撮像装置49Fの仕様によって規定されるので、撮像装置49Fの公差、撮像装置49Fへの陽の当たり具合等によって式(2)tanθ2の値が変動し、距離Laの算出精度が低くなってしまう。一方、式(1)のtanθ2は、距離L1、高さh及び俯角θ3で表されるので、tanθ2の値が変動することはなく、距離Laの算出精度を高くすることができる。   In the present embodiment, tan θ2 of equation (1) is substituted into equation (4), but tan θ2 of equation (3) can be substituted. However, since the numbers Pc and Pd and the unit size ρ are defined by the specification of the imaging device 49F, the value of the expression (2) tan θ2 varies depending on the tolerance of the imaging device 49F, the positive contact with the imaging device 49F, and the like. However, the calculation accuracy of the distance La is lowered. On the other hand, tan θ2 in Expression (1) is expressed by the distance L1, the height h, and the depression angle θ3, so that the value of tan θ2 does not fluctuate and the calculation accuracy of the distance La can be increased.

次に、前記画像認識処理手段は、撮像装置49Fから送られた第2のフレームの画像データを受け、該画像データから成る画像領域に対して同様の画像認識処理を行い、車両候補物を検出し、車両候補物が検出されると、前記距離算出処理手段は、図5に示される自車(撮像装置49F)から車両候補物までの距離Laを算出する。   Next, the image recognition processing means receives the image data of the second frame sent from the imaging device 49F, performs the same image recognition processing on the image area composed of the image data, and detects a vehicle candidate. When a vehicle candidate is detected, the distance calculation processing means calculates a distance La from the own vehicle (imaging device 49F) shown in FIG. 5 to the vehicle candidate.

そして、前記交差点認識処理手段の類似度判定処理手段は、類似度判定処理を行い、前記各車両候補物、本実施の形態においては、2回の画像認識処理で検出された二つの車両候補物が類似しているかどうかを判断する。そのために、前記類似度判定処理手段は、二つの車両候補物の類似度Qを算出し、該類似度Qが閾値Qth以上であるかどうかによって、各車両候補物が類似しているかどうかを判断する。   The similarity determination processing means of the intersection recognition processing means performs similarity determination processing, and each vehicle candidate, in the present embodiment, two vehicle candidates detected by two image recognition processes. To determine if they are similar. For this purpose, the similarity determination processing means calculates the similarity Q between two vehicle candidates, and determines whether each vehicle candidate is similar according to whether the similarity Q is equal to or greater than a threshold value Qth. To do.

類似度Qが閾値Qth以上であり、各車両候補物が類似している場合、前記交差点認識処理手段の車両情報取得処理手段は、車両情報取得処理を行い、補正用変数として、自車の車両情報のうちの車速及び舵角を読み込む。そして、前記交差点認識処理手段の交差車両情報算出処理手段は、交差車両情報算出処理を行い、前記車速、舵角及び各フレームの切替りの周期τに基づいて、自車から車両候補物までの距離Laを補正する。   When the similarity Q is equal to or greater than the threshold value Qth and the vehicle candidates are similar, the vehicle information acquisition processing means of the intersection recognition processing means performs vehicle information acquisition processing, and the vehicle of the host vehicle is used as a correction variable. The vehicle speed and rudder angle in the information are read. And the intersection vehicle information calculation processing means of the intersection recognition processing means performs intersection vehicle information calculation processing, and from the own vehicle to the vehicle candidate based on the vehicle speed, the steering angle and the switching period τ of each frame. The distance La is corrected.

ところで、図7及び8において、R1、R2は道路、C1は該道路R1、R2が交差する交差点、wh1は自車、wh2は交差車両である。そして、最初の撮影が行われ、前記第1のフレームの画像データが撮像装置49Fから送られてくる第1のタイミングで、自車wh1は地点p1を、交差車両wh2は地点p2を走行していて、次の撮影が行われ、前記第2のフレームの画像データが撮像装置49Fから送られてくる第2のタイミングで、自車wh1が地点p3に、交差車両wh2が地点p4に移動していたとする。   7 and 8, R1 and R2 are roads, C1 is an intersection where the roads R1 and R2 intersect, wh1 is the own vehicle, and wh2 is an intersection vehicle. Then, at the first timing when the first shooting is performed and the image data of the first frame is sent from the imaging device 49F, the own vehicle wh1 is traveling at the point p1, and the crossing vehicle wh2 is traveling at the point p2. Then, at the second timing when the next shooting is performed and the image data of the second frame is sent from the imaging device 49F, the own vehicle wh1 has moved to the point p3 and the crossing vehicle wh2 has moved to the point p4. Suppose.

その場合、第1、第2のタイミング間で自車wh1が移動する距離、すなわち、自車移動距離ΔL1は、第1、第2のタイミング間の時間で表される各フレームの切替りの周期をτとすると、該周期τ及び車速Vで表され、
ΔL1=V・τ
となり、車速V及び周期τの関数f(V,τ)で表される。
In this case, the distance that the own vehicle wh1 moves between the first and second timings, that is, the own vehicle moving distance ΔL1 is the switching period of each frame represented by the time between the first and second timings. Is represented by the period τ and the vehicle speed V,
ΔL1 = V · τ
And expressed by a function f (V, τ) of the vehicle speed V and the period τ.

また、第1のタイミングにおける自車wh1から交差車両wh2までの距離LaをLafとし、第2のタイミングにおける自車wh1から交差車両wh2までの距離LaをLasとすると、
Las=Laf−ΔL1
となる。
Further, when the distance La from the own vehicle wh1 to the crossing vehicle wh2 at the first timing is Laf, and the distance La from the own vehicle wh1 to the crossing vehicle wh2 at the second timing is Las,
Las = Laf−ΔL1
It becomes.

ところで、第1のタイミングから第2のタイミングまでの間に、自車wh1が移動して交差点C1に近づくと、図8に示されるように、画像領域内の画像は交差点C1に近くなった分だけ拡大され、任意の地点間の画像領域内における距離も同様に長くなる。   By the way, when the own vehicle wh1 moves and approaches the intersection C1 between the first timing and the second timing, as shown in FIG. 8, the image in the image area becomes closer to the intersection C1. The distance in the image area between any points is similarly increased.

したがって、第1のタイミングにおける交差車両wh2の位置から第2のタイミングにおける交差車両wh2の位置までの画像領域上の移動量をLEとし、実際の移動量をLAとすると、前記移動量LEは、距離Laf、Lasの比だけ移動量LAより長くなり、
LE=LA・Las/Laf
になる。
Therefore, when the movement amount on the image area from the position of the crossing vehicle wh2 at the first timing to the position of the crossing vehicle wh2 at the second timing is LE, and the actual movement amount is LA, the movement amount LE is It becomes longer than the movement amount LA by the ratio of the distances Laf and Las,
LE = LA ・ Las / Laf
become.

そこで、前記交差点認識処理手段の移動変数算出処理手段は、移動変数算出処理を行い、画像領域内の移動量LEを算出し、該移動量LEを距離Laf、Lasに基づいて補正し、交差車両wh2の第1の移動変数としての移動量LA
LA=LE・Laf/Las
を算出する。なお、舵角θを使用して移動量LAを算出することもできる。続いて、前記移動変数算出処理手段は、前記移動量LAを周期τで除算することによって、交差車両wh2の第2の移動変数としての移動速度Vwh2
Vwh2=LA/τ
を算出する。
Therefore, the movement variable calculation processing means of the intersection recognition processing means performs movement variable calculation processing, calculates the movement amount LE in the image area, corrects the movement amount LE based on the distances Laf, Las, Movement amount LA as the first movement variable of wh2
LA = LE · Laf / Las
Is calculated. Note that the movement amount LA can also be calculated using the steering angle θ. Subsequently, the movement variable calculation processing means divides the movement amount LA by the period τ to thereby move the movement speed Vwh2 as the second movement variable of the crossing vehicle wh2.
Vwh2 = LA / τ
Is calculated.

ところで、ミリ波レーダは、前述されたように、通常、自車wh1から前後方向に移動する移動物体までの距離を、ドップラー効果によって一度のスキャンでミリ波レーダ単体で検出し、移動速度を検出することができるが、横方向に移動する移動物体までの距離については検出することができない。そこで、本実施の形態においては、画像認識処理に基づいて算出された移動速度をミリ波レーダに与えると、横方向に移動する移動物体までの距離を予測することができ、周期τごとに同一の物体として検出することができる。したがって、ミリ波レーダによって横方向に移動する移動物体までの距離を検出することができるようになる。また、前記ミリ波レーダは車両の進行方向に対して照射されるので、ミリ波レーダによって測定した自車wh1から移動物体までの距離を交差点までの距離とすることができる。   By the way, as described above, the millimeter wave radar usually detects the distance from the own vehicle wh1 to the moving object moving in the front-rear direction by a single scan using the Doppler effect, and detects the moving speed. However, the distance to the moving object that moves in the lateral direction cannot be detected. Therefore, in the present embodiment, when the moving speed calculated based on the image recognition process is given to the millimeter wave radar, the distance to the moving object moving in the lateral direction can be predicted, and the same for each period τ. It can be detected as an object. Therefore, the distance to the moving object that moves in the lateral direction can be detected by the millimeter wave radar. Further, since the millimeter wave radar is irradiated in the traveling direction of the vehicle, the distance from the own vehicle wh1 measured by the millimeter wave radar to the moving object can be set as the distance to the intersection.

本実施の形態においては、前記交差点認識処理手段の距離取得処理手段は、距離取得処理を行い、前記移動速度Vwh2を、ミリ波レーダにおける交差車両wh2のパラメータとして算出し、該パラメータをミリ波レーダに与える。そして、該ミリ波レーダはパラメータを読み込み、該パラメータに基づいて、自車wh1から交差車両wh2までの距離Lrを測定する。したがって、前記距離取得処理手段は、測定された距離Lrを取得し、自車wh1から交差点C1までの距離Rとする。なお、前記パラメータとして、前記移動速度Vwh2のほかに、ミリ波の照射軸から交差車両wh2の前端及び後端までの広がり角をミリ波レーダに与えることができる。   In the present embodiment, the distance acquisition processing means of the intersection recognition processing means performs distance acquisition processing, calculates the moving speed Vwh2 as a parameter of the intersection vehicle wh2 in the millimeter wave radar, and uses the parameter as the millimeter wave radar. To give. Then, the millimeter wave radar reads the parameter, and based on the parameter, measures the distance Lr from the own vehicle wh1 to the crossing vehicle wh2. Therefore, the distance acquisition processing means acquires the measured distance Lr and sets it as the distance R from the own vehicle wh1 to the intersection C1. As the parameter, in addition to the moving speed Vwh2, a spread angle from the millimeter wave irradiation axis to the front end and the rear end of the crossing vehicle wh2 can be given to the millimeter wave radar.

このように、画像認識処理によって交差車両wh2の移動速度Vwh2を算出し、該移動速度Vwh2をパラメータとしてミリ波レーダに与えることによって、自車wh1から交差車両wh2までの距離Lrを測定することができる。その結果、自車wh1から交差点C1までの正確な距離Rを取得することができる。   Thus, the distance Lr from the own vehicle wh1 to the crossing vehicle wh2 can be measured by calculating the moving speed Vwh2 of the crossing vehicle wh2 by the image recognition processing and giving the moving speed Vwh2 to the millimeter wave radar as a parameter. it can. As a result, an accurate distance R from the own vehicle wh1 to the intersection C1 can be acquired.

したがって、交差点C1に停止線等がなくても、自車wh1の交差点C1への進入を正確に認識することができる。また、自車wh1の走行方向に沿う走行路道路線を検出したり、走行路道路線が途切れている位置から、走行路道路線と異なる方向に伸びる走行路交差線を検出したりする必要がないので、交差点C1を精度よく検出することができ、自車wh1の交差点C1への進入を一層正確に認識することができる。   Therefore, even if there is no stop line or the like at the intersection C1, it is possible to accurately recognize the approach of the host vehicle wh1 to the intersection C1. In addition, it is necessary to detect a traveling road line along the traveling direction of the own vehicle wh1, or to detect a traveling road intersection line extending in a direction different from the traveling road line from a position where the traveling road road line is interrupted. Therefore, the intersection C1 can be detected with high accuracy, and the approach of the host vehicle wh1 to the intersection C1 can be recognized more accurately.

さらに、自車wh1から交差点C1までの距離Rを正確に取得することができるので、ナビゲーション装置14におけるマッチング処理において、前記自車wh1から交差点C1までの距離Rに基づいて、現在地がいずれの道路リンク上に位置するかの判定を行うことができる。したがって、現在地を精度良く特定することができる。   Furthermore, since the distance R from the own vehicle wh1 to the intersection C1 can be accurately obtained, in the matching process in the navigation device 14, the current location is any road based on the distance R from the own vehicle wh1 to the intersection C1. It can be determined whether it is located on the link. Therefore, the current location can be specified with high accuracy.

次に、図2のフローチャートについて説明する。
ステップS1 画像認識システムが起動しているかどうかを判断する。画像認識システムが起動している場合はステップS2に進み、起動していない場合は処理を終了する。
ステップS2 前方監視システムが起動しているかどうかを判断する。前方監視システムが起動している場合はステップS3に進み、起動していない場合は処理を終了する。
ステップS3 画像認識処理を行う。
ステップS4 車両候補物が検出されたかどうかを判断する。車両候補物が検出された場合はステップS5に進み、検出されなかった場合は処理を終了する。
ステップS5 車両候補物までの距離を算出する。
ステップS6 画像認識処理を行う。
ステップS7 車両候補物が検出されたかどうかを判断する。車両候補物が検出された場合はステップS8に進み、検出されなかった場合は処理を終了する。
ステップS8 車両候補物までの距離Laを算出する。
ステップS9 類似度Qを算出する。
ステップS10 類似度Qが閾値Qth以上であるかどうかを判断する。類似度Qが閾値Qth以上である場合はステップS11に進み、閾値Qth以上でない場合は処理を終了する。
ステップS11 車両情報を取得する。
ステップS12 交差車両wh2の移動速度Vwh2を算出する。
ステップS13 交差車両wh2の移動速度Vwh2をパラメータとする。
ステップS14 ミリ波レーダによって距離Lrを測定する。
ステップS15 測定された距離Lrを交差点C1までの距離Rとし、処理を終了する。
Next, the flowchart of FIG. 2 will be described.
Step S1: It is determined whether the image recognition system is activated. If the image recognition system is activated, the process proceeds to step S2, and if not activated, the process ends.
Step S2: It is determined whether the forward monitoring system is activated. If the forward monitoring system is activated, the process proceeds to step S3, and if not activated, the process is terminated.
Step S3 Image recognition processing is performed.
Step S4: Determine whether a vehicle candidate is detected. If a vehicle candidate is detected, the process proceeds to step S5, and if not detected, the process ends.
Step S5: Calculate the distance to the vehicle candidate.
Step S6: Image recognition processing is performed.
Step S7: Determine whether a vehicle candidate has been detected. If a vehicle candidate is detected, the process proceeds to step S8, and if not detected, the process ends.
Step S8: A distance La to the vehicle candidate is calculated.
Step S9: The similarity Q is calculated.
Step S10: It is determined whether the similarity Q is equal to or greater than a threshold value Qth. If the similarity Q is equal to or greater than the threshold value Qth, the process proceeds to step S11, and if not, the process ends.
Step S11: Vehicle information is acquired.
Step S12 The moving speed Vwh2 of the intersecting vehicle wh2 is calculated.
Step S13: The moving speed Vwh2 of the crossing vehicle wh2 is used as a parameter.
Step S14: The distance Lr is measured by the millimeter wave radar.
Step S15: The measured distance Lr is set as the distance R to the intersection C1, and the process is terminated.

次に、図3のフローチャートについて説明する。
ステップS3−1 昼であるかどうかを判断する。昼である場合はステップS3−2に、昼でない場合はステップS3−3に進む。
ステップS3−2 昼用画像認識処理を行い、リターンする。
ステップS3−3 夜用画像認識処理を行い、リターンする。
Next, the flowchart of FIG. 3 will be described.
Step S3-1: It is determined whether it is noon. If it is noon, the process proceeds to step S3-2. If not, the process proceeds to step S3-3.
Step S3-2: Perform daytime image recognition processing and return.
Step S3-3 Perform night image recognition processing and return.

本実施の形態においては、移動速度Vwh2を算出するために第1、第2のフレームの画像データについて画像認識処理を行うようになっているが、他の実施の形態においては、三つ以上のフレームの画像データについて画像認識処理を行うことができる。   In the present embodiment, image recognition processing is performed on the image data of the first and second frames in order to calculate the moving speed Vwh2, but in other embodiments, three or more Image recognition processing can be performed on the frame image data.

また、本実施の形態においては、画像認識処理によって移動速度Vwh2を算出し、該移動速度Vwh2をミリ波レーダのパラメータとして使用することによって、自車wh1から交差車両wh2までの距離Lrを算出するようになっているが、画像認識処理によって、交差車両wh2が自車wh1のミリ波レーダの照射範囲に入ったことを認識し、その時点におけるミリ波レーダの自車wh1から交差車両wh2までの距離Lrを算出し、自車wh1から交差点C1までの距離Rを取得することもできる。   In the present embodiment, the moving speed Vwh2 is calculated by the image recognition process, and the moving speed Vwh2 is used as a parameter of the millimeter wave radar, thereby calculating the distance Lr from the own vehicle wh1 to the crossing vehicle wh2. However, it is recognized by the image recognition process that the crossing vehicle wh2 has entered the irradiation range of the millimeter wave radar of the own vehicle wh1, and from the own vehicle wh1 of the millimeter wave radar to the crossing vehicle wh2 at that time It is also possible to calculate the distance Lr and acquire the distance R from the own vehicle wh1 to the intersection C1.

なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。   In addition, this invention is not limited to the said embodiment, It can change variously based on the meaning of this invention, and does not exclude them from the scope of the present invention.

本発明の実施の形態における車両制御システムを示す図である。It is a figure which shows the vehicle control system in embodiment of this invention. 本発明の実施の形態における交差点認識処理手段の動作を示すメインフローチャートである。It is a main flowchart which shows operation | movement of the intersection recognition process means in embodiment of this invention. 本実施の形態における画像認識処理のサブルーチンを示す図である。It is a figure which shows the subroutine of the image recognition process in this Embodiment. 本発明の実施の形態における撮像装置の取付状態を示す図である。It is a figure which shows the attachment state of the imaging device in embodiment of this invention. 本発明の実施の形態における撮像領域を示す図である。It is a figure which shows the imaging area in embodiment of this invention. 本発明の実施の形態における撮像装置の取付状態の詳細を示す図である。It is a figure which shows the detail of the attachment state of the imaging device in embodiment of this invention. 本発明の実施の形態における検出結果補正処理を説明する第1の図である。It is a 1st figure explaining the detection result correction | amendment process in embodiment of this invention. 本発明の実施の形態における検出結果補正処理を説明する第2の図である。It is a 2nd figure explaining the detection result correction | amendment process in embodiment of this invention.

符号の説明Explanation of symbols

10 制御部
14 ナビゲーション装置
21 CPU
48 前方監視装置
49F 撮像装置
51 情報センタ
63 ネットワーク
C1 交差点
wh2 交差車両
10 Control Unit 14 Navigation Device 21 CPU
48 Forward monitoring device 49F Imaging device 51 Information center 63 Network C1 Intersection wh2 Crossing vehicle

Claims (3)

車両の所定の箇所に取り付けられ、車両の前方を撮影する撮像装置と、
照射媒体に対して照射して被照射物までの距離を測定するレーダ装置と、
前記撮像装置から送られた複数のフレームの画像データに対して画像認識処理を行い、交差点を移動する交差車両を車両候補物として検出する画像認識処理手段と、
各フレーム間における、前記検出された車両候補物の実際の移動量を算出するとともに、該実際の移動量及び各フレームの切替りの周期に基づいて車両候補物の移動速度を算出する移動変数算出処理手段と、
前記移動速度をパラメータとして前記レーダ装置に与え、該レーダ装置によって測定された車両候補物までの距離を取得する距離取得処理手段とを有することを特徴とする交差点認識システム。
An imaging device attached to a predetermined portion of the vehicle and photographing the front of the vehicle;
A radar device that irradiates the irradiation medium and measures the distance to the irradiated object;
Image recognition processing means for performing image recognition processing on the image data of a plurality of frames sent from the imaging device, and detecting an intersection vehicle moving at the intersection as a vehicle candidate;
A movement variable calculation that calculates the actual movement amount of the detected vehicle candidate between the frames and calculates the movement speed of the vehicle candidate based on the actual movement amount and the switching period of each frame. Processing means;
An intersection recognition system comprising: a distance acquisition processing unit that applies the moving speed as a parameter to the radar apparatus and acquires a distance to a vehicle candidate measured by the radar apparatus.
各フレームの画像データに基づいて、各フレームの画像データについて撮影が行われたときの車両から車両候補物までの距離を算出する距離算出処理手段を有するとともに、Based on the image data of each frame, and having a distance calculation processing means for calculating the distance from the vehicle to the vehicle candidate when shooting is performed on the image data of each frame,
前記移動変数算出処理手段は、前記各フレームの画像データに基づいて、各フレーム間の画像領域上の車両候補物の移動量を算出するとともに、該各フレーム間の画像領域上の車両候補物の移動量、及び各フレームの画像データについて撮影が行われたときの車両から車両候補物までの距離に基づいて、各フレーム間における前記車両候補物の実際の移動量を算出する請求項1に記載の交差点認識システム。The movement variable calculation processing means calculates the movement amount of the vehicle candidate on the image area between the frames based on the image data of each frame, and also calculates the vehicle candidate on the image area between the frames. The actual amount of movement of the vehicle candidate between frames is calculated based on the amount of movement and the distance from the vehicle to the vehicle candidate when the image data of each frame is captured. Intersection recognition system.
両の前方を車両の所定の箇所に取り付けられた撮像装置によって撮影し、
レーダ装置によって照射媒体に対して照射して被照射物までの距離を測定し、
撮像装置から送られた複数のフレームの画像データに対して画像認識処理を行い、交差点を移動する交差車両を車両候補物として検出し、
各フレーム間における、前記検出された車両候補物の実際の移動量を算出するとともに、該実際の移動量及び各フレームの切替りの周期に基づいて車両候補物の移動速度を算出し、
該移動速度をパラメータとして前記レーダ装置に与え、該レーダ装置によって測定された車両候補物までの距離を取得することを特徴とする交差点認識方法。
The front of the vehicles taken by an imaging device attached to a predetermined portion of the vehicle,
Irradiate the irradiation medium with a radar device and measure the distance to the irradiated object.
Image recognition processing is performed on the image data of a plurality of frames sent from the imaging device, and an intersection vehicle moving at the intersection is detected as a vehicle candidate.
Calculate the actual movement amount of the detected vehicle candidate between the frames, and calculate the moving speed of the vehicle candidate based on the actual movement amount and the switching period of each frame ,
An intersection recognition method comprising: providing the moving speed as a parameter to the radar apparatus, and acquiring a distance to a vehicle candidate measured by the radar apparatus.
JP2005220745A 2005-07-29 2005-07-29 Intersection recognition system and intersection recognition method Expired - Fee Related JP4613738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005220745A JP4613738B2 (en) 2005-07-29 2005-07-29 Intersection recognition system and intersection recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005220745A JP4613738B2 (en) 2005-07-29 2005-07-29 Intersection recognition system and intersection recognition method

Publications (2)

Publication Number Publication Date
JP2007034920A JP2007034920A (en) 2007-02-08
JP4613738B2 true JP4613738B2 (en) 2011-01-19

Family

ID=37794065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005220745A Expired - Fee Related JP4613738B2 (en) 2005-07-29 2005-07-29 Intersection recognition system and intersection recognition method

Country Status (1)

Country Link
JP (1) JP4613738B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2779024A1 (en) 2013-03-15 2014-09-17 Ricoh Company, Ltd. Intersection recognizing apparatus and computer-readable storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5142549B2 (en) * 2007-02-15 2013-02-13 株式会社日立製作所 Smoke removal system
JP5309831B2 (en) * 2008-09-19 2013-10-09 マツダ株式会社 Vehicle obstacle detection device
JP5424014B2 (en) * 2008-09-29 2014-02-26 株式会社デンソー Collision warning vehicle detection system
JP5960506B2 (en) 2012-05-25 2016-08-02 株式会社デンソー Intersection recognition device and road type recognition device
JP6350385B2 (en) * 2015-05-13 2018-07-04 トヨタ自動車株式会社 Driving assistance device
JP7217820B1 (en) 2022-01-24 2023-02-03 三菱電機株式会社 Movement amount identification device, movement amount identification method, and movement amount identification program
CN116176579B (en) * 2023-04-27 2023-06-27 安徽中科星驰自动驾驶技术有限公司 Automatic driving following distance measuring and calculating device and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04155211A (en) * 1990-10-18 1992-05-28 Fujitsu Ltd Range-finder
JPH06206507A (en) * 1993-01-08 1994-07-26 Toyota Motor Corp Inter-vehicle distance detector
JPH06230115A (en) * 1993-02-01 1994-08-19 Toyota Motor Corp Vehicular gap detector
JP2002358507A (en) * 2001-05-31 2002-12-13 Shinmaywa Engineerings Ltd System for recording picked-up image
JP2002367077A (en) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp Device and method for deciding traffic congestion
JP2004251822A (en) * 2003-02-21 2004-09-09 Alpine Electronics Inc Navigation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04155211A (en) * 1990-10-18 1992-05-28 Fujitsu Ltd Range-finder
JPH06206507A (en) * 1993-01-08 1994-07-26 Toyota Motor Corp Inter-vehicle distance detector
JPH06230115A (en) * 1993-02-01 1994-08-19 Toyota Motor Corp Vehicular gap detector
JP2002358507A (en) * 2001-05-31 2002-12-13 Shinmaywa Engineerings Ltd System for recording picked-up image
JP2002367077A (en) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp Device and method for deciding traffic congestion
JP2004251822A (en) * 2003-02-21 2004-09-09 Alpine Electronics Inc Navigation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2779024A1 (en) 2013-03-15 2014-09-17 Ricoh Company, Ltd. Intersection recognizing apparatus and computer-readable storage medium
US9715632B2 (en) 2013-03-15 2017-07-25 Ricoh Company, Limited Intersection recognizing apparatus and computer-readable storage medium

Also Published As

Publication number Publication date
JP2007034920A (en) 2007-02-08

Similar Documents

Publication Publication Date Title
JP4729905B2 (en) Vehicle notification device and program
JP4513740B2 (en) Route guidance system and route guidance method
JP4771365B2 (en) Route guidance system, route guidance method and program
US7429825B2 (en) Headlight beam control system and headlight beam control method
JP4501840B2 (en) Route guidance system and route guidance method
JP4852919B2 (en) Vehicle ride control system and vehicle ride control method
JP4470873B2 (en) Route guidance system and route guidance method
JP4613738B2 (en) Intersection recognition system and intersection recognition method
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP2007127419A (en) System and method for route guidance
JP2007155352A (en) Route guide system and method
JP2007147577A (en) Route guidance system and route guidance method
JP4591311B2 (en) Route guidance system and route guidance method
JP2007178358A (en) System and method for route guidance
JP2007274564A (en) Calibration apparatus and calibration method
JP2006277546A (en) Information providing system and information providing method
JP2006273230A (en) Vehicle controller and vehicle control method
JP4687244B2 (en) Image processing system and image processing method
JP4581674B2 (en) Route guidance system and route guidance method
JP4710604B2 (en) Route guidance system and route guidance method
JP4774807B2 (en) Image correction device, feature recognition device, and feature recognition method
JP4572822B2 (en) Route guidance system and route guidance method
JP4572823B2 (en) Route guidance system and route guidance method
JP2007271550A (en) Route guide system and route guide method
JP2007178359A (en) System and method for route guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

R150 Certificate of patent or registration of utility model

Ref document number: 4613738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141029

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees