JP2005339176A - Vehicle recognition device, navigation device and vehicle recognition method - Google Patents

Vehicle recognition device, navigation device and vehicle recognition method Download PDF

Info

Publication number
JP2005339176A
JP2005339176A JP2004156721A JP2004156721A JP2005339176A JP 2005339176 A JP2005339176 A JP 2005339176A JP 2004156721 A JP2004156721 A JP 2004156721A JP 2004156721 A JP2004156721 A JP 2004156721A JP 2005339176 A JP2005339176 A JP 2005339176A
Authority
JP
Japan
Prior art keywords
vehicle
area
recognition
road
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004156721A
Other languages
Japanese (ja)
Inventor
Yoji Igarashi
洋二 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2004156721A priority Critical patent/JP2005339176A/en
Publication of JP2005339176A publication Critical patent/JP2005339176A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a "vehicle recognition device, a navigation device and a vehicle recognition method" for sharply reducing data quantity to be processed at the time of recognizing the type of a vehicle. <P>SOLUTION: A vehicle recognition processing part 101a calculates a region where the other vehicle is projected based on the position of the other vehicle detected by a radar device 102 to an own vehicle (O) and the width of a road under traveling and the maximum value of height restriction. Also, a vehicle recognition processing part 101a segments the calculated region, and executes image recognition processing to the region for recognizing the type of the projected other vehicle. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両認識装置、ナビゲーション装置および車両認識方法に関する。   The present invention relates to a vehicle recognition device, a navigation device, and a vehicle recognition method.

従来の車両に搭載されたナビゲーション装置では、自己車両の走行位置や目的地までの誘導経路や周囲のランドマークなどの情報をドライバに提供するだけであった。しかしながら、近年では、自己車両周囲、特に前方や後方を走行する車両の種類など、より詳細な情報が求められ始めている。   Conventional navigation devices mounted on vehicles only provide the driver with information such as the traveling position of the host vehicle, the guidance route to the destination, and surrounding landmarks. However, in recent years, more detailed information such as the type of vehicle that travels around the host vehicle, particularly in front or behind, has begun to be demanded.

このような中、CCD(Charge-Coupled Devices)カメラなどの撮像デバイスが低価格化され、周辺車両やその他の道路状況を検出する目的のセンサとして車載されるようになってきた。   Under such circumstances, imaging devices such as CCD (Charge-Coupled Devices) cameras have been reduced in price and have come to be mounted on vehicles as sensors for detecting surrounding vehicles and other road conditions.

一般的に、撮像デバイスで得られた画像から物体を認識するための手法の多くは、正解データとして予め与えられた正解画像の特徴を抽出したものを用意し、検出対象画像の特徴と正解画像の特徴との相関を用いて検出を行う、いわゆるパターン認識の手法が採用されている。しかしながら、このような特徴点抽出処理を用いた画像認識処理は、膨大な量のデータを処理する必要があるため、処理コストが非常に大きくなる場合が多い。   In general, many of the methods for recognizing an object from an image obtained by an imaging device are prepared by extracting features of a correct image given in advance as correct data, and the features of the detection target image and the correct image A so-called pattern recognition method is used in which detection is performed using the correlation with the feature of the pattern. However, the image recognition processing using such feature point extraction processing needs to process an enormous amount of data, and thus the processing cost is often very high.

そこで従来技術では、車両認識における特徴点抽出の処理コストを下げるために、画像から車両が写っている領域を切り出し、その領域のみを処理対象とする手法が一般的に行われている。ただし、この手法が用いられるのは、定点カメラを用いた車両の検出など、元々対象とする画像のうち、処理対象領域が限定しやすい条件の場合が多い。これに対し、車載カメラによる周辺車両の認識を目的とした場合には、カメラの取付位置を常に一定にできるとは限らず、また、距離に応じて写る車両の大きさも様々であるため、単純に切り出し領域を限定することは難しい。   Therefore, in the prior art, in order to reduce the processing cost of feature point extraction in vehicle recognition, a method is generally used in which an area in which a vehicle is captured is cut out from an image and only that area is processed. However, this method is often used in conditions where it is easy to limit the processing target region in the originally targeted image, such as vehicle detection using a fixed point camera. On the other hand, for the purpose of recognizing surrounding vehicles by an in-vehicle camera, the camera mounting position is not always constant, and the size of the vehicle that appears in accordance with the distance varies. It is difficult to limit the cut-out area.

このような問題を解決するための技術として、たとえば以下に示す特許文献1には、車両にレーザレーダとステレオカメラとを設け、レーザレーダを用いて車両前方をスキャンすることで、先行する車両と自己車両との位置関係を検出し、この結果に基づいてステレオカメラで撮影した画像における処理領域を絞り込む技術が開示されている。
特開平7−125567号公報
As a technique for solving such a problem, for example, in Patent Document 1 shown below, a vehicle is provided with a laser radar and a stereo camera, and the front of the vehicle is scanned by using the laser radar. A technique for detecting a positional relationship with the own vehicle and narrowing down a processing area in an image taken by a stereo camera based on the result is disclosed.
JP-A-7-125567

しかしながら、上記特許文献1が開示するところの従来技術は、車両の種類を特定するためのものではない。このため、車両の全体が含まれるような処理領域を決定するようには構成されていない。   However, the prior art disclosed in Patent Document 1 is not for specifying the type of vehicle. For this reason, it is not configured to determine a processing region in which the entire vehicle is included.

そこで本発明は、上記の問題に鑑みてなされたものであり、車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能な車両認識装置、ナビゲーション装置および車両認識方法を提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and provides a vehicle recognition device, a navigation device, and a vehicle recognition method capable of significantly reducing the amount of data to be processed when recognizing the type of vehicle. The purpose is to provide.

かかる目的を達成するために、本発明は、車両を撮影した画像から当該車両が映し出された領域を切り出し、当該領域を認識処理することで当該車両の種類を認識する対象物認識装置であって、前記画像を撮影した撮影手段が設置された位置に対する前記車両の位置と道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を処理対象領域として切り出すように構成される。車両が映し出された領域を切り出し、この領域のみに画像処理を行うように構成することで、車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能となる。また、現実の世界での定数値を用い、且つこの定数に道路の道幅と車高の高さ制限とを適用することで、確実に車両を切り出し領域内に収めることができる。   In order to achieve such an object, the present invention is an object recognition device that recognizes a type of a vehicle by cutting out a region where the vehicle is projected from an image of the vehicle and recognizing the region. The area on which the vehicle is projected is cut out as a processing target area based on the position of the vehicle, the width of the road, and the maximum value of the vehicle height limit with respect to the position where the imaging means for capturing the image is installed. The By cutting out an area where the vehicle is projected and performing image processing only on this area, the amount of data to be processed when recognizing the type of vehicle can be greatly reduced. Further, by using a constant value in the real world and applying the road width and the vehicle height limit to the constant, the vehicle can be surely placed in the cutout region.

また、本発明の車両認識装置は、車両を検出するレーダ手段と、車両を撮影する撮影手段と、前記レーダ手段で検出された車両の前記撮影手段が設置された位置に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、前記領域切出し手段で切り出した領域を認識処理することで車両の種類を認識する車両認識手段とを有して構成される。車両が映し出された領域を切り出し、この領域のみに画像処理を行うように構成することで、車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能となる。また、現実の世界での定数値を用い、且つこの定数に道路の道幅と車高の高さ制限とを適用することで、確実に車両を切り出し領域内に収めることができる。   The vehicle recognition apparatus according to the present invention includes a radar unit for detecting a vehicle, a shooting unit for shooting the vehicle, a position of the vehicle detected by the radar unit with respect to a position where the shooting unit is installed, and a road on which the vehicle is running. Region extraction means for cutting out an area in which the vehicle is projected from the image obtained by the photographing means based on the width of the vehicle and the maximum vehicle height limit, and recognition processing of the area cut out by the area extraction means Vehicle recognition means for recognizing the type of vehicle. By cutting out an area where the vehicle is projected and performing image processing only on this area, the amount of data to be processed when recognizing the type of vehicle can be greatly reduced. Further, by using a constant value in the real world and applying the road width and the vehicle height limit to the constant, the vehicle can be surely placed in the cutout region.

また、上記車両認識装置は、前記車両が走行中の道路の道幅と当該道路に設定された車高制限の最大値とを所定の蓄積手段から読み出す条件読出し手段を有し、前記領域切出し手段は、前記条件読出し手段で読み出された道幅と車高制限の最大値とに基づいて前記切り出す領域を算出するように構成されても良い。道路に設定された条件に合わせて切り出し領域を変更することで、認識処理の対象とする画像領域を最小限としつつ、この切り出し領域内に確実に車両を含めることが可能となる。   In addition, the vehicle recognition device includes a condition reading unit that reads a road width of a road on which the vehicle is traveling and a maximum height limit set on the road from a predetermined storage unit, and the region extraction unit includes The area to be cut out may be calculated based on the road width read by the condition reading means and the maximum vehicle height limit. By changing the cutout area according to the conditions set for the road, it is possible to reliably include the vehicle in the cutout area while minimizing the image area to be recognized.

また、本発明のナビゲーション装置は、自己車両周囲の車両を検出するレーダ手段と、自己車両周囲を撮影する撮影手段と、前記レーダ手段で検出された車両の前記自己車両に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、前記領域切出し手段で切り出した領域を認識処理することで車両の種類を認識する車両認識手段とを有して構成される。車両が映し出された領域を切り出し、この領域のみに画像処理を行うように構成することで、自己車両周囲を走行する車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能となる。また、現実の世界での定数値を用い、且つこの定数に道路の道幅と車高の高さ制限とを適用することで、確実に車両を切り出し領域内に収めることができる。   In addition, the navigation device of the present invention includes a radar unit that detects vehicles around the own vehicle, an imaging unit that captures the surroundings of the own vehicle, a position of the vehicle detected by the radar unit with respect to the own vehicle, and a road that is running Region extraction means for cutting out an area in which the vehicle is projected from the image obtained by the photographing means based on the width of the vehicle and the maximum vehicle height limit, and recognition processing of the area cut out by the area extraction means Vehicle recognition means for recognizing the type of vehicle. By cutting out the area where the vehicle is projected and performing image processing only on this area, the amount of data to be processed when recognizing the type of vehicle traveling around the host vehicle can be greatly reduced. It becomes possible. Further, by using a constant value in the real world and applying the road width and the vehicle height limit to the constant, the vehicle can be surely placed in the cutout region.

また、前記ナビゲーション装置は、前記車両認識手段で認識された結果をドライバへ提示するナビゲーション手段を有しても良い。認識結果をナビゲーションに利用することで、ドライバに周囲の状況を的確に認識させることができる。   The navigation device may include navigation means for presenting a result recognized by the vehicle recognition means to a driver. By using the recognition result for navigation, the driver can recognize the surrounding situation accurately.

また、本発明の車両認識方法は、車両を検出する第1ステップと、撮影手段で車両を撮影する第2ステップと、前記第1ステップで検出された車両の前記撮影手段が設置された位置に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す第3ステップと、前記第3ステップで切り出した領域を認識処理することで車両の種類を認識する第4ステップとを有して構成される。車両が映し出された領域を切り出し、この領域のみに画像処理を行うように構成することで、車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能となる。また、現実の世界での定数値を用い、且つこの定数に道路の道幅と車高の高さ制限とを適用することで、確実に車両を切り出し領域内に収めることができる。   The vehicle recognition method according to the present invention includes a first step of detecting a vehicle, a second step of shooting the vehicle with a shooting unit, and a position of the vehicle detected in the first step where the shooting unit is installed. A third step of cutting out an area in which the vehicle is projected from the image obtained by the photographing means based on the position, the width of the road being traveled, and the maximum value of the vehicle height limit, and an area cut out in the third step And a fourth step of recognizing the type of vehicle by performing recognition processing. By cutting out an area where the vehicle is projected and performing image processing only on this area, the amount of data to be processed when recognizing the type of vehicle can be greatly reduced. Further, by using a constant value in the real world and applying the road width and the vehicle height limit to the constant, the vehicle can be surely placed in the cutout region.

本発明によれば、車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能な車両認識装置、ナビゲーション装置および車両認識方法を実現することができる。   ADVANTAGE OF THE INVENTION According to this invention, the vehicle recognition apparatus, navigation apparatus, and vehicle recognition method which can reduce significantly the data amount which should be processed at the time of recognizing the kind of vehicle are realizable.

以下、本発明を実施するための最良の形態を図面と共に詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

まず、本発明による実施例1について図面を用いて詳細に説明する。図1は、本実施例によるカーナビゲーション装置100の構成を示すブロック図である。図1に示すように、カーナビゲーション装置100は、CPU(Central Processing Unit)101と、レーダ装置102とCCD(Charge Coupled Devices)カメラ103とDVD(Digital Versatile Disk)ドライブ111とGPS(Global Positioning System)受信部112と自立航法センサ113と送受信部114と操作部115と表示部116とスピーカ117とを有する。これら各部は、バス118により通信可能に接続されている。   First, Embodiment 1 according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a car navigation apparatus 100 according to the present embodiment. As shown in FIG. 1, a car navigation apparatus 100 includes a CPU (Central Processing Unit) 101, a radar apparatus 102, a CCD (Charge Coupled Devices) camera 103, a DVD (Digital Versatile Disk) drive 111, and a GPS (Global Positioning System). The reception unit 112, the self-contained navigation sensor 113, the transmission / reception unit 114, the operation unit 115, the display unit 116, and the speaker 117 are included. These units are communicably connected via a bus 118.

上記の構成において、DVDドライブ111は、地図データやその他の案内データを格納したDVD(Digital Versatile Disk)−ROM等の記録媒体を読み込むため構成である。ただし、本発明では、このほかにもCD(Compact Disk)−ROM(Read Only Memory)ドライブやハードディスクドライブなどのような、地図データやその他の案内データを蓄積することが可能な蓄積手段を適用することができる。   In the above configuration, the DVD drive 111 is configured to read a recording medium such as a DVD (Digital Versatile Disk) -ROM storing map data and other guide data. However, in the present invention, other storage means capable of storing map data and other guidance data such as a CD (Compact Disk) -ROM (Read Only Memory) drive and a hard disk drive are applied. be able to.

GPS受信部112は、GPS衛星から送信されてくるGPS信号を受信して自己車両(O)の現在位置の緯度及び経度を検出するための構成である。検出された現在位置情報は、CPU101に入力され、ナビゲーションにおける所定の処理に使用される。   The GPS receiving unit 112 is configured to receive a GPS signal transmitted from a GPS satellite and detect the latitude and longitude of the current position of the host vehicle (O). The detected current position information is input to the CPU 101 and used for predetermined processing in navigation.

自立航法センサ113は、車両方位を検出するためのジャイロ等を含む角度センサ113aと、一定の走行距離毎にパルスを発生する距離センサ113bとを有して構成されており、車両の進行方向や速度を検出する。送受信部114は、各種サービスセンタ等と通信するための車載電話機等で構成される。   The self-contained navigation sensor 113 includes an angle sensor 113a including a gyro for detecting the vehicle direction, and a distance sensor 113b that generates a pulse for every predetermined travel distance. Detect speed. The transmission / reception unit 114 is configured by an in-vehicle telephone for communicating with various service centers.

操作部115は、ユーザがナビゲーション装置100に各種操作・設定を入力するための構成である。これは、リモートコントローラ装置やコントロールパネル等のように個別に構成されていても、後述の表示部116と一体にタッチパネル式の入力装置として構成されていても良い。更には、音声入力用のマイクロフォン等で構成されてもよい。   The operation unit 115 is configured to allow the user to input various operations / settings to the navigation device 100. This may be configured individually such as a remote controller device or a control panel, or may be configured as a touch panel type input device integrally with a display unit 116 described later. Furthermore, it may be constituted by a microphone for voice input.

表示部116は、例えば液晶表示方式のディスプレイ装置等で構成され、地図や誘導経路や車両の現在位置やその他ランドマーク等の各種情報をユーザへ表示するための構成である。尚、誘導経路とは、ユーザへ実際に提供する目的地までの経路であり、表示部116において地図画像と重畳される経路である。スピーカ117は、音声案内情報等をユーザへ出力するための構成である。尚、スピーカ117はその他、音響装置等から入力された音楽等も出力することができる。   The display unit 116 is configured by, for example, a liquid crystal display type display device or the like, and is configured to display various information such as a map, a guide route, a current position of a vehicle, and other landmarks to the user. The guidance route is a route to the destination that is actually provided to the user, and is a route that is superimposed on the map image on the display unit 116. The speaker 117 is configured to output voice guidance information and the like to the user. In addition, the speaker 117 can also output music input from an audio device or the like.

また、CPU101は、DVDドライブ111から読み出した各種プログラムを実行することで、ナビゲーション機能と共に、レーダ装置102およびCCDカメラ103から入力された情報に基づいて自己車両(O)の周囲に存在する車両を認識する機能(以下、これを車両認識機能という)を実現する。これら機能を実現するための構成を、本説明では車両認識装置110と呼び、以下に図面と共に詳細に説明する。   In addition, the CPU 101 executes various programs read from the DVD drive 111, and thus, the vehicle existing around the own vehicle (O) based on the information input from the radar device 102 and the CCD camera 103 together with the navigation function. A recognition function (hereinafter referred to as a vehicle recognition function) is realized. A configuration for realizing these functions is referred to as a vehicle recognition device 110 in this description, and will be described in detail below with reference to the drawings.

図2は、車両認識装置110の構成を示すブロック図である。図2に示すように、車両認識装置110は、レーダ装置102とCCDカメラ103とCPU101とを含んで構成される。CPU101はたとえばDVDドライブ111から所定のプログラムを読み出すことで、車両認識処理部101aおよびナビゲーション処理部101cを実現する。   FIG. 2 is a block diagram illustrating a configuration of the vehicle recognition device 110. As shown in FIG. 2, the vehicle recognition device 110 includes a radar device 102, a CCD camera 103, and a CPU 101. The CPU 101 implements the vehicle recognition processing unit 101a and the navigation processing unit 101c by reading a predetermined program from the DVD drive 111, for example.

レーダ装置102は、たとえばミリ波レーダなど、自己車両(O)周囲に存在する車両(以下、これを相手車両という)までの距離や相手車両の方向などを検出することができるレーダ装置であれば、如何なるものも適用することができる。このレーダ装置102は自己車両(O)周囲、特に前方および後方に取り付けられ、自己車両(O)周囲に存在する相手車両を検出可能に取り付けられることが好ましい。したがって、たとえばレーダ装置102に指向性がある場合、レーダ装置102のアンテナを回転可能とするか、少なくとも前方と後方とに1つのレーダ装置102が備えつけられる。   The radar apparatus 102 may be a radar apparatus that can detect the distance to the vehicle (hereinafter referred to as a partner vehicle) around the host vehicle (O), the direction of the partner vehicle, and the like, such as a millimeter wave radar. Anything can be applied. The radar apparatus 102 is preferably attached around the own vehicle (O), particularly in front and rear, and is attached so as to be able to detect a partner vehicle existing around the own vehicle (O). Therefore, for example, when the radar apparatus 102 has directivity, the antenna of the radar apparatus 102 can be rotated, or at least one radar apparatus 102 is provided at the front and rear.

CCDカメラ103は、レーダ装置102で検出可能とされた領域と略同一の領域を撮影可能に取り付けられることが好ましい。したがって、CCDカメラ103も撮影方向が回転可能に取り付けられるか、少なくとも前方と後方とに1つのCCDカメラ103が備えつけられる。なお、レーダ装置102で検出可能な領域の中心線とCCDカメラ103の光軸とは略一致するように調整される。これにより、相手車両が映し出された画像上の領域を検出結果から簡単に導き出すことが可能となる。   It is preferable that the CCD camera 103 is attached so as to be able to photograph a region that is substantially the same as the region that can be detected by the radar device 102. Therefore, the CCD camera 103 is also attached so that the photographing direction can be rotated, or at least one CCD camera 103 is provided at the front and rear. Note that the center line of the region detectable by the radar apparatus 102 and the optical axis of the CCD camera 103 are adjusted so as to substantially coincide. Thereby, it is possible to easily derive the region on the image on which the opponent vehicle is projected from the detection result.

レーダ装置102で取得された検出情報およびCCDカメラ103で取得された画像(これを以下、取得画像という)は、バス118を介してCPU101の車両認識処理部101aに入力される。なお、検出情報には、上述したように、自己車両(O)からの相手車両の距離と相手車両が存在する方向(以下、単に方向という)との情報が含まれる。   Detection information acquired by the radar apparatus 102 and an image acquired by the CCD camera 103 (hereinafter referred to as an acquired image) are input to the vehicle recognition processing unit 101 a of the CPU 101 via the bus 118. Note that, as described above, the detection information includes information on the distance of the opponent vehicle from the host vehicle (O) and the direction in which the opponent vehicle exists (hereinafter simply referred to as a direction).

車両認識処理部101aは、入力された検出情報および取得画像に基づいて、自己車両(O)から検出可能エリア内に存在する相手車両を認識する処理を実行する。この認識処理は、所定のサイクルで繰返し実行される。   The vehicle recognition processing unit 101a executes a process of recognizing the opponent vehicle existing in the detectable area from the own vehicle (O) based on the input detection information and the acquired image. This recognition process is repeatedly executed in a predetermined cycle.

次に、車両認識処理部101aの動作について図面と共に説明する。図3は、車両認識処理部101aの動作を示すフローチャートである。図3に示すように、車両認識処理部101aは検出情報および取得画像を入力する(ステップS101,S102)。ここで、検出情報に含まれる情報の一例を図4に、取得画像の一例を図5に示す。図4および上述した内容から読み取れるように、検出情報には、自己車両(O)から相手車両までの距離や方向などの情報が含まれる。また、図5から読み取れるように、取得画像には相手車両(C1)が撮影されている。なお、説明の簡略化のため、以下では、自己車両(O)の前方(図4における車線領域)を撮影した取得画像のみに着目して説明する。   Next, the operation of the vehicle recognition processing unit 101a will be described with reference to the drawings. FIG. 3 is a flowchart showing the operation of the vehicle recognition processing unit 101a. As shown in FIG. 3, the vehicle recognition processing unit 101a inputs detection information and an acquired image (steps S101 and S102). Here, an example of the information included in the detection information is shown in FIG. 4, and an example of the acquired image is shown in FIG. As can be read from FIG. 4 and the above-described content, the detection information includes information such as the distance and direction from the own vehicle (O) to the opponent vehicle. Further, as can be read from FIG. 5, the opponent vehicle (C1) is photographed in the acquired image. For the sake of simplification of description, the following description focuses on only an acquired image obtained by photographing the front of the host vehicle (O) (the lane region in FIG. 4).

以上のように検出情報と取得画像とが入力されると、車両認識処理部101aは、検出情報から相手車両までの距離Lを算出し(ステップS103)、また、相手車両の方向、すなわちレーダ検出位置の方向を特定する(ステップS104)。   When the detection information and the acquired image are input as described above, the vehicle recognition processing unit 101a calculates the distance L to the opponent vehicle from the detection information (step S103), and also detects the direction of the opponent vehicle, that is, radar detection. The direction of the position is specified (step S104).

次に車両認識処理部101aは、算出した距離Lと特定した方向とから、相手車両が映し出された取得画像上の領域(以下、切り出し領域という)を算出し(ステップS105)、この領域を切り出す(ステップS106)。   Next, the vehicle recognition processing unit 101a calculates a region (hereinafter referred to as a cutout region) on the acquired image in which the opponent vehicle is projected from the calculated distance L and the specified direction (step S105), and cuts out this region. (Step S106).

ここで、切り出し領域の算出方法について、より詳細に説明する。切り出し領域を算出するにあたり、本実施例では、切り出し領域の幅wと高さhとに、現実世界での固定値を用いる。すなわち、本実施例では、切り出し領域の幅wを現実世界の尺度に換算した場合にたとえば一般的な車線の幅である3m(メートル)程度となるような値から算出する。また、切り出し領域の高さhを現実世界の尺度に換算した場合たとえば一般的に制限されている最大車高である4m程度となるような値から算出する。このように、現実の世界での定数値を用いることで、本実施例では、確実に相手車両を切り出し領域内に収めることができる。なお、以下の説明では現実世界での幅をWとし、高さをHとする。   Here, the calculation method of the cutout region will be described in more detail. In calculating the cutout area, in this embodiment, fixed values in the real world are used for the width w and height h of the cutout area. That is, in this embodiment, when the width w of the cut-out area is converted into a scale in the real world, it is calculated from a value that is, for example, about 3 m (meters), which is a general lane width. Further, when the height h of the cut-out area is converted into a scale in the real world, for example, it is calculated from a value that is approximately 4 m, which is a generally limited maximum vehicle height. As described above, by using a constant value in the real world, in the present embodiment, the opponent vehicle can be surely placed in the cutout region. In the following description, the width in the real world is W and the height is H.

次に、切り出し領域の幅wと高さhとを算出するための式を示す。まず、幅wを算出する際の手順について説明する。ここで、図6に示すように、CCDカメラ103の光軸をx軸とし、相手車両の検出された方向がCCDカメラ103の光軸に対してφ1傾いているとすると、自己車両(O)から相手車両までの光軸に沿った距離Dは以下の式1となる。

Figure 2005339176
Next, an expression for calculating the width w and height h of the cutout region is shown. First, a procedure for calculating the width w will be described. Here, as shown in FIG. 6, if the optical axis of the CCD camera 103 is the x axis and the detected direction of the opponent vehicle is inclined by φ 1 with respect to the optical axis of the CCD camera 103, the own vehicle (O ) To the opponent vehicle along the optical axis is expressed by the following formula 1.
Figure 2005339176

また、CCDカメラ103の撮影領域の光軸からの広がりをθ1とすると、自己車両(O)から距離D前方において映し出された現実世界の横の長さEW、すなわち取得画像に映し出された風景の横全体の長さEWは以下の式2となる。

Figure 2005339176
Further, when the spread of the imaging area of the CCD camera 103 from the optical axis is θ 1 , the horizontal length E W of the real world projected in front of the distance D from the own vehicle (O), that is, the acquired image is displayed. The total length E W of the landscape is expressed by the following formula 2.
Figure 2005339176

したがって、定数である幅Wが取得画像の横幅EWにおいて占める割合Rwは、以下の式3となる。

Figure 2005339176
Therefore, the ratio R w that the constant width W occupies in the horizontal width E W of the acquired image is expressed by Equation 3 below.
Figure 2005339176

ここで、取得画像全体の横のビット数をBWとすると、切り出し領域の横のビット数bwは以下の式4となる。なお、端数が出た場合は切り捨て若しくは四捨五入する。

Figure 2005339176
Here, if the number of horizontal bits of the entire acquired image is B W , the horizontal number of bits b w of the cut-out area is expressed by Equation 4 below. In case of rounding, round down or round off.
Figure 2005339176

次に、切り出し領域の高さhを算出する際の手順について説明する。図7に示すように、CCDカメラ103の撮影領域の光軸からの広がりをθ2とすると、自己車両(O)から距離D前方において映し出された現実世界の縦の長さEH、すなわち取得画像に映し出された風景の縦全体の長さEHは以下の式5となる。

Figure 2005339176
Next, a procedure for calculating the height h of the cutout area will be described. As shown in FIG. 7, when the spread from the optical axis of the imaging area of the CCD camera 103 is θ 2 , the vertical length E H of the real world projected in front of the distance D from the own vehicle (O), that is, acquired. The overall length E H of the landscape projected in the image is expressed by the following formula 5.
Figure 2005339176

したがって、定数である領域の高さHが取得画像の高さEHにおいて占める割合RHは、以下の式6となる。

Figure 2005339176
Therefore, the ratio R H of the height H of the area is a constant occupied in height E H of the acquired image becomes Equation 6 below.
Figure 2005339176

ここで、取得画像全体の縦のビット数をBHとすると、切り出し領域の縦のビット数bhは以下の式7となる。なお、端数が出た場合は切り捨て若しくは四捨五入する。

Figure 2005339176
Here, if the vertical bit number of the entire acquired image is B H , the vertical bit number b h of the cutout region is expressed by the following Expression 7. In case of rounding, round down or round off.
Figure 2005339176

以上のように切り出し領域の横のビット数bwおよび縦のビット数bhを求めると、次に車両認識処理部101aは、図8に示すように、レーダ検出位置を基準としてこの大きさの領域を取得画像に割り当て、囲まれた領域を切り出す。 As described above, when the horizontal bit number b w and the vertical bit number b h of the cut-out area are obtained, the vehicle recognition processing unit 101a then determines the size of this size with reference to the radar detection position as shown in FIG. Assign an area to the acquired image and cut out the enclosed area.

なお、本実施例では、CCDカメラ103の光軸は水平方向に向いているとする。したがって、地面からレーダ検出位置までの現実世界での高さH2は固定された値となる。一方、レーダ検出位置の高さH2から最大車高Hまでの高さH1(=H−H2)も固定された値となる。したがって、切り出し領域におけるレーダ検出位置の左上画素を基準とした座標(x,y)は以下の式8のようになる。

Figure 2005339176
In this embodiment, it is assumed that the optical axis of the CCD camera 103 is oriented in the horizontal direction. Therefore, the height H 2 in the real world from the ground to the radar detection position is a fixed value. On the other hand, the height H 1 (= H−H 2 ) from the radar detection position height H 2 to the maximum vehicle height H is also a fixed value. Therefore, the coordinates (x, y) based on the upper left pixel of the radar detection position in the cutout region are expressed by the following Expression 8.
Figure 2005339176

図4に戻って説明する。以上のように相手車両が映し出された領域を切り出すと、次に車両認識処理部101aは、切り出し領域に対して、予め与えられた正解画像の特徴と、切り出した領域における特徴との相関を求めることで、映し出された車両の種類(セダンや軽自動車やワゴンやミニバンや1BOXなど)を特定する(ステップS107)。すなわち、パターン認識を実行して車種を特定する。その後、車両認識処理部101aは、認識結果をナビゲーション処理部101cへ出力する(ステップS108)。   Returning to FIG. When the area where the opponent vehicle is projected is cut out as described above, the vehicle recognition processing unit 101a then obtains the correlation between the feature of the correct image given in advance and the feature in the cut-out area for the cut-out area. As a result, the type of vehicle displayed (sedan, light vehicle, wagon, minivan, 1BOX, etc.) is specified (step S107). That is, the vehicle type is specified by performing pattern recognition. Thereafter, the vehicle recognition processing unit 101a outputs the recognition result to the navigation processing unit 101c (step S108).

以上のように認識結果が入力されると、ナビゲーション処理部101cは、入力された結果を必要または目的に応じてドライバへ通知する。また、同様の構成および動作を自己車両(O)後方に対しても行うことで、自己車両(O)後方に存在する相手車両を認識することも可能となる。   When the recognition result is input as described above, the navigation processing unit 101c notifies the driver of the input result according to necessity or purpose. Further, by performing the same configuration and operation on the rear side of the own vehicle (O), it is possible to recognize the opponent vehicle existing behind the own vehicle (O).

以上のように構成及び動作することで、本実施例によれば、車両周囲、特に前方または後方を走行する車両の種類を認識する際の処理すべきデータ量を大幅に削減することが可能となるため、認識結果を迅速に得ることが可能となる。   With the configuration and operation as described above, according to the present embodiment, it is possible to greatly reduce the amount of data to be processed when recognizing the type of vehicle traveling around the vehicle, particularly forward or backward. Therefore, the recognition result can be obtained quickly.

また、本発明では、以上の構成における切り出し領域の幅w及び高さhを算出する際に使用する現実世界の幅Wと高さHとを、道路ごとに設定しておいても良い。この値はナビゲーション装置100で使用する地図データに蓄積させ、道路ごとに道幅や車高の制限などの情報が付加される。したがって、自己車両(O)の走行経路に応じてこれらのデータを読み出し、演算に使用するように構成することで、道路状況(道路条件とも言う)に的確に応じた処理を実現することが可能となる。   In the present invention, the real world width W and height H used when calculating the width w and height h of the cutout region in the above configuration may be set for each road. This value is accumulated in the map data used in the navigation device 100, and information such as road width and vehicle height restrictions is added for each road. Therefore, it is possible to realize processing accurately corresponding to road conditions (also referred to as road conditions) by reading out these data according to the travel route of the host vehicle (O) and using it for calculation. It becomes.

さらに、以上の構成では、切り出し領域の幅wに現実世界での定数(幅W)を採用していたが、本発明ではこれに限らず、たとえば取得画像における車線(白線など)の間隔を画像処理により求め、これを切り出し領域の幅bwとしてもよい。この場合、幅bwを算出するための演算処理は省略される。 Further, in the above configuration, a constant in the real world (width W) is adopted as the width w of the cut-out area. However, the present invention is not limited to this, and for example, an interval between lanes (white lines, etc.) in the acquired image is displayed as an image. It may be obtained by processing, and this may be used as the width b w of the cutout region. In this case, the calculation process for calculating the width b w is omitted.

なお、上記実施例1は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、これらの実施例を種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施例が可能であることは上記記載から自明である。   In addition, the said Example 1 is only an example for implementing this invention, This invention is not limited to these, It is in the scope of the present invention to modify these Examples variously, and It is obvious from the above description that various other embodiments are possible within the scope of the present invention.

本発明の実施例1によるカーナビゲーション装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the car navigation apparatus 100 by Example 1 of this invention. 本発明の実施例1による車両認識装置110の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle recognition apparatus 110 by Example 1 of this invention. 車両認識処理部101aの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle recognition process part 101a. レーダ装置102で取得された検出情報に含まれる情報の概要の一例を示す図である。3 is a diagram illustrating an example of an outline of information included in detection information acquired by a radar apparatus 102. FIG. CCDカメラ103で取得された取得画像の一例を示す図である。It is a figure which shows an example of the acquired image acquired with CCD camera 103. FIG. 本発明の実施例1における切り出し領域の幅wを算出する際の概念を説明するための図である。It is a figure for demonstrating the concept at the time of calculating the width w of the cut-out area | region in Example 1 of this invention. 本発明の実施例1における切り出し領域の高さhを算出する際の概念を説明するための図である。It is a figure for demonstrating the concept at the time of calculating the height h of the cut-out area | region in Example 1 of this invention. 本発明の実施例1において算出された切り出し領域の具体例を示す図である。It is a figure which shows the specific example of the cut-out area | region calculated in Example 1 of this invention.

符号の説明Explanation of symbols

100 ナビゲーション装置
101 CPU
101a 車両認識処理部
101c ナビゲーション処理部
102 レーダ装置
103 CCDカメラ
111 DVDドライブ
112 GPS受信部
113 自立航法センサ
113a 角度センサ
113b 距離センサ
114 送受信部
115 操作部
116 表示部
117 スピーカ
118 バス
C1 相手車両
O 自己車両
100 navigation device 101 CPU
101a Vehicle recognition processing unit 101c Navigation processing unit 102 Radar device 103 CCD camera 111 DVD drive 112 GPS receiving unit 113 Autonomous navigation sensor 113a Angle sensor 113b Distance sensor 114 Transmission / reception unit 115 Operation unit 116 Display unit 117 Speaker 118 Bus C1 Counter vehicle O Self vehicle

Claims (6)

車両を撮影した画像から当該車両が映し出された領域を切り出し、当該領域を認識処理することで当該車両の種類を認識する対象物認識装置であって、
前記画像を撮影した撮影手段が設置された位置に対する前記車両の位置と道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を処理対象領域として切り出すことを特徴とする対象物認識装置。
An object recognition device that recognizes the type of the vehicle by cutting out an area in which the vehicle is projected from an image of the vehicle and recognizing the area,
A region in which the vehicle is projected is cut out as a processing target region based on the position of the vehicle, the width of the road, and the maximum value of the vehicle height limit with respect to the position where the photographing unit that photographed the image is installed. Object recognition device.
車両を検出するレーダ手段と、
車両を撮影する撮影手段と、
前記レーダ手段で検出された車両の前記撮影手段が設置された位置に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、
前記領域切出し手段で切り出した領域を認識処理することで車両の種類を認識する車両認識手段とを有することを特徴とする車両認識装置。
Radar means for detecting the vehicle;
Photographing means for photographing the vehicle;
Based on the position of the vehicle detected by the radar unit with respect to the position where the imaging unit is installed, the width of the road on which the vehicle is running, and the maximum height limit, the imaging unit obtains an area where the vehicle is projected. Area cutting out means for cutting out from the captured image;
Vehicle recognition apparatus comprising vehicle recognition means for recognizing a type of vehicle by performing recognition processing on the area cut out by the area cutout means.
前記車両が走行中の道路の道幅と当該道路に設定された車高制限の最大値とを所定の蓄積手段から読み出す条件読出し手段を有し、
前記領域切出し手段は、前記条件読出し手段で読み出された道幅と車高制限の最大値とに基づいて前記切り出す領域を算出することを特徴とする請求項2記載の車両認識装置。
Condition reading means for reading out the width of the road on which the vehicle is traveling and the maximum value of the vehicle height limit set on the road from a predetermined storage means,
3. The vehicle recognition apparatus according to claim 2, wherein the area extraction unit calculates the area to be extracted based on a road width read by the condition reading unit and a maximum vehicle height limit.
自己車両周囲の車両を検出するレーダ手段と、
自己車両周囲を撮影する撮影手段と、
前記レーダ手段で検出された車両の前記自己車両に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す領域切出し手段と、
前記領域切出し手段で切り出した領域を認識処理することで車両の種類を認識する車両認識手段とを有することを特徴とするナビゲーション装置。
Radar means for detecting vehicles around the own vehicle;
Photographing means for photographing the surroundings of the own vehicle;
Based on the position of the vehicle detected by the radar means relative to the own vehicle, the width of the road on which the vehicle is running, and the maximum value of the vehicle height limit, the region where the vehicle is displayed is cut out from the image obtained by the imaging means. Area extraction means;
A navigation apparatus comprising vehicle recognition means for recognizing the type of vehicle by performing recognition processing on the area cut out by the area cutout means.
前記車両認識手段で認識された結果をドライバへ提示するナビゲーション手段を有することを特徴とする請求項4記載のナビゲーション装置。   5. The navigation apparatus according to claim 4, further comprising navigation means for presenting a result recognized by the vehicle recognition means to a driver. 車両を検出する第1ステップと、
撮影手段で車両を撮影する第2ステップと、
前記第1ステップで検出された車両の前記撮影手段が設置された位置に対する位置と走行中の道路の幅と車高制限の最大値とに基づいて当該車両が映し出された領域を前記撮影手段で得られた画像から切り出す第3ステップと、
前記第3ステップで切り出した領域を認識処理することで車両の種類を認識する第4ステップとを有することを特徴とする車両認識方法。
A first step of detecting a vehicle;
A second step of photographing the vehicle with the photographing means;
Based on the position of the vehicle detected in the first step with respect to the position where the imaging means is installed, the width of the running road, and the maximum value of the vehicle height limit, an area where the vehicle is projected is displayed on the imaging means. A third step of cutting out from the obtained image;
A vehicle recognition method comprising: a fourth step of recognizing the type of vehicle by performing a recognition process on the region cut out in the third step.
JP2004156721A 2004-05-26 2004-05-26 Vehicle recognition device, navigation device and vehicle recognition method Withdrawn JP2005339176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004156721A JP2005339176A (en) 2004-05-26 2004-05-26 Vehicle recognition device, navigation device and vehicle recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004156721A JP2005339176A (en) 2004-05-26 2004-05-26 Vehicle recognition device, navigation device and vehicle recognition method

Publications (1)

Publication Number Publication Date
JP2005339176A true JP2005339176A (en) 2005-12-08

Family

ID=35492684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004156721A Withdrawn JP2005339176A (en) 2004-05-26 2004-05-26 Vehicle recognition device, navigation device and vehicle recognition method

Country Status (1)

Country Link
JP (1) JP2005339176A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100610210B1 (en) 2006-02-23 2006-08-09 (주)나인정보시스템 Method for detecting a parked vehicle
WO2008038333A1 (en) * 2006-09-25 2008-04-03 Pioneer Corporation Data recording device, data recording method, data recording program, and computer readable recording medium
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
CN105046964A (en) * 2014-04-24 2015-11-11 本田技研工业株式会社 Vehicle recognition device
US10453214B2 (en) 2015-01-22 2019-10-22 Mitsubishi Electric Corporation Image capturing device and method, program, and record medium to perform exposure control based on the brightness in an attention area corresponding to a detected object
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100610210B1 (en) 2006-02-23 2006-08-09 (주)나인정보시스템 Method for detecting a parked vehicle
WO2008038333A1 (en) * 2006-09-25 2008-04-03 Pioneer Corporation Data recording device, data recording method, data recording program, and computer readable recording medium
JPWO2008038333A1 (en) * 2006-09-25 2010-01-28 パイオニア株式会社 Data recording apparatus, data recording method, data recording program, and computer-readable recording medium
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
CN105046964A (en) * 2014-04-24 2015-11-11 本田技研工业株式会社 Vehicle recognition device
US10453214B2 (en) 2015-01-22 2019-10-22 Mitsubishi Electric Corporation Image capturing device and method, program, and record medium to perform exposure control based on the brightness in an attention area corresponding to a detected object
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium

Similar Documents

Publication Publication Date Title
EP3496033A1 (en) Travel assistance device and computer program
EP3650814B1 (en) Vision augmented navigation
JP4556742B2 (en) Vehicle direct image display control apparatus and vehicle direct image display control program
JP6270102B2 (en) Moving surface boundary line recognition apparatus, moving body device control system using the moving surface boundary line recognition method, and moving surface boundary line recognition program
JP4946238B2 (en) Vehicle periphery photographing transmission device and vehicle periphery photographing transmission program
WO2014115563A1 (en) Driving support device, driving support method, and recording medium storing driving support program
JP4577655B2 (en) Feature recognition device
CN111674389B (en) Parking support device and parking support method
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
JP2005214857A (en) Navigation system, and guide image preparation method
JP2014106739A (en) In-vehicle image processing device
JP2018073275A (en) Image recognition device
JP5628612B2 (en) In-vehicle information system, in-vehicle device, information terminal
JP5067847B2 (en) Lane recognition device and navigation device
JP2005339176A (en) Vehicle recognition device, navigation device and vehicle recognition method
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JPWO2017013792A1 (en) Display control device and navigation device
US20230316539A1 (en) Feature detection device, feature detection method, and computer program for detecting feature
JP2010262665A (en) On-vehicle device and vehicle recognition method
JP5041411B2 (en) Information display device
JP2020010123A (en) On-vehicle photographing apparatus, photographing system and photographing method
JP2009104330A (en) Hidden vehicle detection system, road side device, onboard device and hidden vehicle detection method
JP4492592B2 (en) Vehicle detection device, navigation device, vehicle detection program, and vehicle detection method
JP7095537B2 (en) Image processing equipment, programs, information processing systems, and control methods
JP5549468B2 (en) Feature position acquisition apparatus, method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807