JP4895126B2 - Image recognition device and navigation device - Google Patents

Image recognition device and navigation device Download PDF

Info

Publication number
JP4895126B2
JP4895126B2 JP2007226821A JP2007226821A JP4895126B2 JP 4895126 B2 JP4895126 B2 JP 4895126B2 JP 2007226821 A JP2007226821 A JP 2007226821A JP 2007226821 A JP2007226821 A JP 2007226821A JP 4895126 B2 JP4895126 B2 JP 4895126B2
Authority
JP
Japan
Prior art keywords
vehicle
information
image
image recognition
lamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007226821A
Other languages
Japanese (ja)
Other versions
JP2009058432A (en
Inventor
功一 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007226821A priority Critical patent/JP4895126B2/en
Publication of JP2009058432A publication Critical patent/JP2009058432A/en
Application granted granted Critical
Publication of JP4895126B2 publication Critical patent/JP4895126B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自車両の周辺に存在する他車両を画像認識する画像認識装置に関するとともに、この画像認識装置により認識される他車両に関する情報を使用して所定の動作を実行するナビゲーション装置に関する。   The present invention relates to an image recognition device that recognizes an image of another vehicle that exists in the vicinity of the host vehicle, and to a navigation device that executes a predetermined operation using information related to the other vehicle recognized by the image recognition device.

自車位置情報を取得して、自車位置周辺の案内、目的地までのルート案内を行うナビゲーション装置は良く知られており、今日、ナビゲーション装置が装備されていない車両のほうが少ないといった状況となっている。
さて、このようなナビゲーション装置の一つの機能として、前方を走行している車両の情報を画像認識手法により得て、この前方車両の走行・停止状態あるいは、その車両が大型車か否かを判別し、自車の走行状態を好適に制御しようとする技術が特許文献1に示されている。この特許文献1に開示の技術では、前方車両が大型車か否かの判別が行われるが、その情報を自車の走行の用に供する。
Navigation devices that acquire vehicle position information and provide guidance around the vehicle location and route guidance to the destination are well known, and today there are fewer vehicles that are not equipped with a navigation device. ing.
As one function of such a navigation device, information on the vehicle traveling ahead is obtained by an image recognition method, and it is determined whether the vehicle is in a running / stopped state or whether the vehicle is a large vehicle. Patent Document 1 discloses a technique for controlling the traveling state of the host vehicle appropriately. In the technique disclosed in Patent Document 1, it is determined whether or not the preceding vehicle is a large vehicle, and this information is used for traveling the vehicle.

特開2006−251888号公報JP 2006-251888 A

このような前方車両を画像認識により識別しようとする技術は、基本的に、前方車両の鮮明な画像が良好に得られていることを前提としている。従って、その画像認識には、通常、昼間に得られた画像を基準としている。しかしながら、上記のような走行制御が必要となる状況は昼間に限られることなく、鮮明な画像を得ることが難しい場合がある夜間(闇夜)においても、前方車両に関する何らかの情報を画像認識により得ることが望ましい。特に、前方車両がブレーキ操作を行い、前方車両が減速している状況にあっては、この状況が自車により的確に捉えられることが望ましい。   Such a technique for identifying a preceding vehicle by image recognition basically assumes that a clear image of the preceding vehicle is obtained satisfactorily. Therefore, the image recognition is usually based on an image obtained in the daytime. However, the situation where the above driving control is required is not limited to daytime, and it is difficult to obtain a clear image at night (dark night). Is desirable. In particular, in a situation where the preceding vehicle performs a braking operation and the preceding vehicle is decelerating, it is desirable that this situation be accurately captured by the own vehicle.

一方、例えば、高速道を走行中に、運転者或いはその同乗者が、前方を走行している走行車の車種に興味を持つことが多々ある。興味の持ちかたは様々であるが、「前方走行車の車種名が何か?」「そのメーカは?」「そのグレード及び価格は?」「自車はそろそろ買い替えの時期だが、あの前方車の情報が欲しいな」といったものである。このような状況にあって、従来は、運転者もしくは同乗者の知識により、その車種に関する情報がえられるに過ぎなかった。多くの場合は、車種名すら判明せず、その車種には興味が向けられるものの、それ以上の動きに繋がることは無かった。   On the other hand, for example, while driving on a highway, the driver or his / her passenger is often interested in the type of vehicle traveling ahead. There are various ways of interest, but “What is the model name of the vehicle ahead?” “What is the manufacturer?” “What is the grade and price?” “The vehicle is about to be replaced soon. I want it. " Under such circumstances, conventionally, only information on the vehicle type can be obtained based on the knowledge of the driver or the passenger. In many cases, even the name of the car model was not known, and although the car model attracted interest, it did not lead to further movement.

以上の状況から、本願の目的は、例えば、前方車両がブレーキ操作を行った場合、その前方車両を的確に画像認識手法により認識でき、さらに、前方車両の車種を的確に識別することができる技術を提供することにある。   From the above situation, the purpose of the present application is, for example, a technique in which when a preceding vehicle performs a brake operation, the preceding vehicle can be accurately recognized by an image recognition method, and further, the vehicle type of the preceding vehicle can be accurately identified. Is to provide.

上記目的を達成するための画像認識装置の本願第1の特徴構成は、
自車両の周辺の画像情報を取得する画像情報取得手段と、
前記画像情報取得手段により取得された画像情報から、自車両の周辺に存する他車両の画像を抽出する他車両画像抽出手段と、
前記他車両画像抽出手段により抽出された画像から当該他車両の車両ランプ内に備えられて点灯状態にある光源の配列を輝点の配列として画像認識するとともに、当該画像認識された車両ランプ内における光源の配列に基づいて他車両の車両情報を得る車両情報取得手段を備え、
前記車両情報取得手段により得られた車両情報を出力することにある。
The first characteristic configuration of the image recognition apparatus for achieving the above object is as follows:
Image information acquisition means for acquiring image information around the host vehicle;
From the image information acquired by the image information acquisition unit, and the other vehicle image extracting means for extracting an image of another vehicle that exists around the own vehicle,
The other from the vehicle image extracting unit image extracted by addition to image recognition sequence of the other vehicle in the vehicle lamp Ru lighting state near provided in the light source as an array of bright spots, the image recognized vehicle the lamp Vehicle information acquisition means for obtaining vehicle information of other vehicles based on the arrangement of light sources in
The vehicle information obtained by the vehicle information acquisition means is output.

この構成の画像認識装置では、画像情報取得手段により、自車両の周辺の画像情報が取得され、この画像情報取得手段により取得された画像情報から、他車両画像抽出手段により自車両の周辺に存する他車両の画像が抽出される。
そして、他車両画像抽出手段により抽出された画像から、車両情報取得手段により当該他車両の車両ランプ内に備えられる光源の配列を画像認識するとともに、当該画像認識された車両ランプ内における光源の配列に基づいて他車両の車両情報が得られ、その車両情報が出力される。
In the image recognition apparatus having this configuration, the image information acquisition unit acquires image information around the host vehicle, and the other vehicle image extraction unit uses the image information acquired by the image information acquisition unit to exist around the host vehicle. An image of the existing other vehicle is extracted.
Then, from the image extracted by the other vehicle image extraction means, the vehicle information acquisition means recognizes the arrangement of the light sources provided in the vehicle lamp of the other vehicle, and the light source arrangement in the vehicle lamp recognized by the image. Based on the above, vehicle information of other vehicles is obtained, and the vehicle information is output.

即ち、この画像認識装置では、他車両の認識を行うのに、車両ランプ内における光源の配列を利用する。例えば、夜間に前方を走行する車両がある場合、その前方車両においてブレーキ操作が行われると、車両ランプ内の光源が点灯する。近年、車両ランプに光源としてLED等が採用されつつあり、図5(a)(b)にIcで示す一点鎖線で示すように、これら光源は車種毎に独自の配列とされている。
そして、夜間において、前方車両輪郭と車両以外の周辺と境界、車両ランプの外形形状の境界等が明確に捉えられず、その画像認識の信頼性が低くなる状況にあっても、点灯状態にある光源は、鮮明な輝点として識別が容易であり、その配列まで容易に識別することが可能となる。
That is, in this image recognition apparatus, the arrangement of the light sources in the vehicle lamp is used to recognize other vehicles. For example, when there is a vehicle traveling ahead at night, the light source in the vehicle lamp is turned on when a braking operation is performed on the preceding vehicle. In recent years, LEDs and the like have been adopted as light sources for vehicle lamps, and these light sources are arranged in a unique arrangement for each vehicle type, as indicated by the alternate long and short dash line indicated by Ic in FIGS.
And at night, the front vehicle contour and the periphery and boundary other than the vehicle, the boundary of the outer shape of the vehicle lamp, etc. are not clearly captured, and the light recognition is still in a situation where the reliability of the image recognition is low. The light source can be easily identified as a clear luminescent spot, and even its arrangement can be easily identified.

そこで、このような車両ランプ内における光源の配列(画像上は、車両ランプ内における輝点の配列)に基づいて、車両の存在、車両と自車との距離、車両の車種等の車両情報を比較的容易に取得することができる。
このようにして得られた車両情報を、自車の走行制御或いは例えば前方車両の車種の紹介の用に供することができる。
Therefore, based on such an array of light sources in the vehicle lamp (on the image, an array of bright spots in the vehicle lamp), vehicle information such as the presence of the vehicle, the distance between the vehicle and the host vehicle, and the vehicle type of the vehicle is obtained. It can be obtained relatively easily.
The vehicle information obtained in this way can be used for traveling control of the own vehicle or for introduction of the vehicle type of the preceding vehicle, for example.

上記画像認識装置を実現するには、
自車両の周辺の画像情報を取得する画像情報取得工程と、
前記画像情報取得工程で取得された画像情報から、自車両の周辺に存する他車両の画像を抽出する他車両画像抽出工程と、
前記他車両画像抽出工程で抽出された画像から当該他車両の車両ランプ内に備えられて点灯状態にある光源の配列を輝点の配列として画像認識するとともに、当該画像認識された車両ランプ内における光源の配列に基づいて他車両の車両情報を得る車両情報取得工程と、
前記車両情報取得工程で得られた車両情報を出力する出力工程をコンピュータに格納されて実行する画像認識用プログラムをコンピュータに格納しておけばよい。
To realize the image recognition device,
An image information acquisition step of acquiring image information around the host vehicle;
From image information acquired by the image information acquisition step, and another vehicle image extraction step of extracting an image of another vehicle that exists around the own vehicle,
The other from a vehicle image extracting step with the extracted image while image recognition sequence of the other vehicle in the vehicle lamp Ru lighting state near provided in the light source as an array of bright spots, the image recognized vehicle the lamp Vehicle information acquisition step of obtaining vehicle information of other vehicles based on the arrangement of light sources in
What is necessary is just to store the image recognition program which stores and performs the output process which outputs the vehicle information obtained by the said vehicle information acquisition process in a computer.

上記画像認識装置において、前記車両情報取得手段が、前記他車両画像抽出手段により抽出された画像から当該他車両の車両ランプを画像認識するとともに、当該画像認識された車両ランプの形状に基づいて他車両の車両情報を得ることが好ましい。
この構成の画像認識装置は、取得される画像において、車両ランプ自体が識別できる場合は、車両ランプ内の光源の配列に加えて、車両ランプ自体の形状に基づいて、有用な車両情報を得ることができる。
In the image recognition apparatus, the vehicle information acquisition unit recognizes the vehicle lamp of the other vehicle from the image extracted by the other vehicle image extraction unit, and performs other based on the shape of the vehicle lamp recognized. It is preferable to obtain vehicle information of the vehicle.
When the vehicle lamp itself can be identified in the acquired image, the image recognition device having this configuration obtains useful vehicle information based on the shape of the vehicle lamp itself in addition to the arrangement of the light sources in the vehicle lamp. Can do.

このように車両ランプの形状をも利用する構成において、前記車両情報取得手段が、前記画像認識された車両ランプ内における光源の配列と車両ランプの形状との関係に基づいても他車両の車両情報を得ることが好ましい。
この構成の画像認識装置は、取得される画像において、車両ランプが識別できる場合、車両ランプ内の光源の配列と車両ランプ自体の形状との関係に基づいて、有用な車両情報を得ることができる。この種の関係としては、車両ランプの輪郭形状に対する、光源配列の位置、大きさ、輪郭内において占める範囲等を上げることができる。
In the configuration that also uses the shape of the vehicle lamp as described above, the vehicle information acquisition means can also acquire vehicle information of other vehicles based on the relationship between the arrangement of the light sources in the vehicle lamp recognized as the image and the shape of the vehicle lamp. It is preferable to obtain
The image recognition apparatus having this configuration can obtain useful vehicle information based on the relationship between the arrangement of the light sources in the vehicle lamp and the shape of the vehicle lamp itself when the vehicle lamp can be identified in the acquired image. . As this type of relationship, the position and size of the light source array with respect to the contour shape of the vehicle lamp, the range occupied in the contour, and the like can be increased.

また、車両情報取得手段が、前記他車両画像抽出手段により抽出された画像から当該他車両の輪郭を画像認識するとともに、当該画像認識された輪郭に基づいて他車両の車両情報を得ることも好ましい。
この構成の画像認識装置は、取得される画像において、車両の輪郭が識別できる場合、車両ランプ内の光源の配列に加えて、車両の輪郭自体の形状に基づいて、有用な車両情報を得ることができる。
It is also preferable that the vehicle information acquisition means recognizes the contour of the other vehicle from the image extracted by the other vehicle image extraction means and obtains the vehicle information of the other vehicle based on the recognized contour. .
When the contour of the vehicle can be identified in the acquired image, the image recognition device having this configuration obtains useful vehicle information based on the shape of the contour of the vehicle itself in addition to the arrangement of the light sources in the vehicle lamp. Can do.

このように車両の輪郭をも利用する構成において、車両情報取得手段が、前記画像認識された車両ランプ内における光源の配列と他車両の輪郭との関係に基づいても他車両の車両情報を得ることとするのが好ましい。
この構成の画像認識装置は、取得される画像において、車両の輪郭が識別できる場合は、車両ランプ内の光源の配列と車両の輪郭との関係に基づいて、有用な車両情報を得ることができる。この種の関係としては、車両の輪郭形状に対する、光源配列の位置、大きさ、輪郭内において占める範囲等を上げることができる。
Thus, in the configuration that also uses the contour of the vehicle, the vehicle information acquisition means obtains the vehicle information of the other vehicle based on the relationship between the arrangement of the light sources in the vehicle lamp recognized as the image and the contour of the other vehicle. It is preferable to do so.
The image recognition apparatus having this configuration can obtain useful vehicle information based on the relationship between the arrangement of the light sources in the vehicle lamp and the contour of the vehicle when the contour of the vehicle can be identified in the acquired image. . As this kind of relationship, the position and size of the light source array with respect to the contour shape of the vehicle, the range occupied in the contour, and the like can be increased.

以上の構成を採用する画像認識装置において、前記車両情報取得手段が、前記他車両の車種を識別する車種識別手段として構成され、前記車種識別手段の識別結果を出力する構成とされていることが好ましい。
先にも説明したように、車両ランプ内における光源の配列は、車種によって独特であるため、車両情報取得手段としての車種識別手段が、その配列を利用して他車両の車種を識別する。そして、このようにして得られた車種の識別結果を画像認識装置が出力することで、他車両の車種に関する情報を、その車種紹介等の用に供することができる。
当然、車両ランプ内における光源の配列に加えて、車両ランプに形状、車両の輪郭等の要素も車種の識別に使用することができるし、車両ランプ内における光源の配列と、車両ランプに形状、車両の輪郭とのいずれか一方、若しくはそれらの両方を使用することで、有効な車種の識別を行える。
In the image recognition apparatus adopting the above configuration, the vehicle information acquisition unit is configured as a vehicle type identification unit that identifies the vehicle type of the other vehicle, and is configured to output the identification result of the vehicle type identification unit. preferable.
As described above, since the arrangement of the light sources in the vehicle lamp is unique depending on the vehicle type, the vehicle type identification unit as the vehicle information acquisition unit identifies the vehicle type of the other vehicle using the arrangement. Then, the image recognition device outputs the identification result of the vehicle type obtained in this manner, so that the information related to the vehicle type of the other vehicle can be used for introduction of the vehicle type.
Naturally, in addition to the arrangement of the light sources in the vehicle lamp, elements such as the shape of the vehicle lamp, the outline of the vehicle can also be used for identifying the vehicle type, and the arrangement of the light sources in the vehicle lamp and the shape of the vehicle lamp, By using either one or both of the contours of the vehicle, it is possible to identify an effective vehicle type.

そして、以上説明してきた画像認識装置を備え、さらに、
自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、
前記自車位置情報取得手段により取得される自車位置情報に基づいて道路案内を行うナビゲーション装置を構成することで、道路案内を行えるナビゲーション装置において、車両情報を取得して、その情報を有効に利用するナビゲーション装置を構成できる。
このナビゲーション装置としては、画像認識装置から得られる車両情報を走行の参考となる情報を生成するもの、走行制御に使用するもの、或いは、車両情報が車種に関する情報である場合に、その車種の紹介を行うものとできる。
The image recognition apparatus described above is provided, and
Own vehicle position information acquisition means for acquiring own vehicle position information representing the current position of the own vehicle;
By configuring a navigation device that performs road guidance based on the vehicle position information acquired by the vehicle position information acquisition means, in the navigation device that can provide road guidance, vehicle information is acquired and the information is made effective. A navigation device to be used can be configured.
As this navigation device, the vehicle information obtained from the image recognition device generates information that can be used as a reference for traveling, the information that is used for traveling control, or the vehicle information is information on the vehicle type, the introduction of the vehicle type. Can do.

即ち、ナビゲーション装置に、前記画像認識装置により出力される識別された車種に関する車種紹介情報を紹介する紹介出力手段を備えることで、車種紹介の機能を果たすことができる。   That is, by providing the navigation device with introduction output means for introducing the vehicle type introduction information related to the identified vehicle type output by the image recognition device, the vehicle type introduction function can be achieved.

また、前記紹介出力手段が、車種に関して、当該車種の名称、コンセプト、トピック、グレード、価格、当該車種を紹介する通信ネットワーク上のアドレス情報、当該車種を販売するディーラーに関する情報から選択される一種以上を紹介可能に構成されていることが好ましい。このような構成としておくと、各情報をそれぞれ提供できる。
ここで、車種の名称、コンセプト、トピック、グレード、価格等は、例えば、走行中であっても案内して差し支えのない情報であり、寧ろ、実際に当該車種の車両をみている時点、時点で紹介するのが、好ましい情報である。
一方、車種を紹介する通信ネットワーク上のアドレス情報は、例えば、運転者が帰宅して、各家庭からインターネットにアクセスするのに好適な情報である。このように、アドレス情報を紹介することで、例えば、同一車種について、異なった色の車両を見たり、異なった方向の外観を確認したり、同種の車種との比較を行ったりすることができる。
さらに、当該車種を販売するディーラーに関する情報が紹介される場合は、走行中の場合は、最寄のディーラーに立寄って、当該車種の車を見たり、説明を受けたりすることも可能となる。
Further, the introduction output means is one or more selected from the name, concept, topic, grade, price, address information on the communication network that introduces the vehicle type, and information about the dealer that sells the vehicle type. It is preferable to be configured to be able to introduce. With such a configuration, each piece of information can be provided.
Here, the name, concept, topic, grade, price, etc. of the vehicle type are information that can be guided even when traveling, for example, at the time of actually looking at the vehicle of that vehicle type. It is preferable information to introduce.
On the other hand, the address information on the communication network introducing the vehicle type is information suitable for the driver to return home and access the Internet from each home. In this way, by introducing the address information, for example, it is possible to see vehicles of different colors, to confirm the appearance in different directions, or to compare with the same vehicle type for the same vehicle type. .
Further, when information on a dealer that sells the vehicle type is introduced, it is possible to stop by the nearest dealer and see the vehicle of the vehicle type or receive an explanation when traveling.

一方、先に説明した画像認識装置を備え、前記画像認識装置により取得される車両情報に基づいて、走行制御情報を生成して出力するようにナビゲーション装置を構成しておくと、画像認識処理により得られる車両ランプ内で識別される光源に関する情報を得て、適切な走行案内を行える。   On the other hand, if the navigation device is configured to include the image recognition device described above and generate and output the travel control information based on the vehicle information acquired by the image recognition device, Information on the light source identified in the obtained vehicle lamp is obtained, and appropriate travel guidance can be performed.

次に、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態に係るナビゲーション装置1の概略構成を示す機能ブロック図である。
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a functional block diagram showing a schematic configuration of a navigation device 1 according to the present embodiment.

図1に示すナビゲーション装置1の各機能部、具体的には、画像情報取得部12、自車位置情報取得部16、地物情報取得部17、画像認識部18、自車位置情報補正部19、ナビゲーション用演算部20、及び紹介演算部30は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。そして、これらの各機能部は、互いに情報の受け渡しを行うことができるように構成されている。
また、ナビゲーション装置1の各データベースDB1〜DB3、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウェア構成として備えている。
Each functional unit of the navigation device 1 shown in FIG. 1, specifically, an image information acquisition unit 12, a vehicle position information acquisition unit 16, a feature information acquisition unit 17, an image recognition unit 18, and a vehicle position information correction unit 19. The navigation calculation unit 20 and the introduction calculation unit 30 have hardware or software (program) or functional units for performing various processes on input data with a calculation processing device such as a CPU as a core member. Both are implemented and configured. Each of these functional units is configured to exchange information with each other.
Also, a recording medium capable of storing information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and its driving means, such as the databases DB1 to DB3 of the navigation device 1 Is provided as a hardware configuration.

以下、本実施形態に係るナビゲーション装置1の各部の構成について詳細に説明する。このナビゲーション装置1は、内部に本願に係る画像認識装置100を内包するため、当該画像認識装置100の主要構成を図1に一転鎖線で囲んで示した。
さらに、以下の説明では、本願にいう車両情報取得手段が、車両情報として車種を識別する構成について、主に説明する。
Hereinafter, the configuration of each part of the navigation device 1 according to the present embodiment will be described in detail. Since the navigation apparatus 1 includes the image recognition apparatus 100 according to the present application inside, the main configuration of the image recognition apparatus 100 is shown in FIG.
Further, in the following description, a configuration in which the vehicle information acquisition unit referred to in the present application identifies a vehicle type as vehicle information will be mainly described.

1.地図データベース
地図データベースDB1は、所定の区画毎に分けられた地図情報Mが記憶されたデータベースである。図2は、地図データベースDB1に記憶されている地図情報Mの構成の例を示す図である。この図に示すように、地図情報Mは、交差点に対応する多数のノードnと、各交差点間を結ぶ道路に対応するリンクkとの接続関係により道路ネットワークを表す道路情報Ra(図1参照)を有している。各ノードnは、緯度及び経度で表現された地図上の位置(座標)の情報を有している。各リンクkは、ノードnを介して接続されている。また、各リンクkは、その属性情報として、道路種別、地域種別、リンク長、道路幅、リンク形状を表現するための形状補間点等の情報を有している。ここで、道路種別情報は、例えば、自動車専用道路、市街道路、細街路、山岳路等のように、道路を複数の種別に区分した際の道路種別の情報である。また、地域種別情報は、例えば、関東地方や関西地方等の地方、都道府県や市区町村等の行政区画等のように、リンクkに対応する道路が設けられている地域を複数に区分した際の地域種別の情報である。これらのリンクkの属性情報が、道路属性情報Rb(図1参照)に相当する。なお、図2においては、一つの区画の道路情報Raのみを図示し、他の区画の道路情報Raは省略して示している。
1. Map database The map database DB1 is a database in which map information M divided into predetermined sections is stored. FIG. 2 is a diagram illustrating an example of the configuration of the map information M stored in the map database DB1. As shown in this figure, the map information M is road information Ra representing a road network by a connection relationship between a number of nodes n corresponding to intersections and links k corresponding to roads connecting the intersections (see FIG. 1). have. Each node n has information on the position (coordinates) on the map expressed by latitude and longitude. Each link k is connected via a node n. Each link k has information such as a road type, a region type, a link length, a road width, and a shape interpolation point for expressing a link shape as attribute information. Here, the road type information is information on the road type when the road is divided into a plurality of types, such as an automobile-only road, a city road, a narrow street, a mountain road, and the like. In addition, the region type information is divided into a plurality of regions where roads corresponding to the link k are provided, such as regions such as the Kanto region and the Kansai region, and administrative divisions such as prefectures and municipalities. Information on the type of the area. The attribute information of these links k corresponds to the road attribute information Rb (see FIG. 1). In FIG. 2, only the road information Ra of one section is illustrated, and the road information Ra of other sections is omitted.

2.地物データベース
地物データベースDB2は、道路上や道路周辺に設けられた各種の地物の情報、すなわち地物情報Fが記憶されたデータベースである。図1に示すように、本実施形態においては、地物データベースDB2には地物情報Fが記憶される。ここで、このような地物情報Fは、主には、道路情報Raを含む地図情報Mが整備されている全ての地域の中で、大都市周辺や幹線道路等の一部の地域について整備されている。本実施形態においては、この地物データベースDB2が、本発明における地物情報記憶手段に相当する。
2. Feature database The feature database DB2 is a database in which information on various features provided on or around the road, that is, feature information F is stored. As shown in FIG. 1, in the present embodiment, feature information F is stored in the feature database DB2. Here, such feature information F is mainly maintained for some areas such as large cities and main roads in all areas where map information M including road information Ra is maintained. Has been. In the present embodiment, this feature database DB2 corresponds to the feature information storage means in the present invention.

この地物データベースDB2に地物情報Fが記憶される地物には、道路の路面に設けられた道路標示(ペイント標示)が含まれている。図3は、地物データベースDB2に記憶されている道路標示の地物情報Fの例を示す図である。このような道路標示に係る地物としては、例えば、横断歩道、停止線、最高速度等を表す速度標示、ゼブラゾーン、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示(矢印標示、例えば、直進矢印、右折矢印等を含む)等が含まれる。なお、地物情報Fが記憶される地物としては、このような道路標示のほか、信号機、標識、陸橋、トンネル等の各種の地物も含めることができる。   Features for which feature information F is stored in the feature database DB2 include road markings (paint markings) provided on the road surface. FIG. 3 is a diagram illustrating an example of the feature information F of the road marking stored in the feature database DB2. Features such as road markings include, for example, pedestrian crossings, stop lines, speed markings representing maximum speed, zebra zones, lane markings that divide lanes along the road (solid lines, broken lines, double lines, etc.) Including various lane markings), traffic direction markings by direction of travel that specify the direction of travel of each lane (including arrow markings such as straight arrows, right turn arrows, etc.), and the like. In addition to such road markings, the features in which the feature information F is stored can include various features such as traffic lights, signs, overpasses, and tunnels.

また、地物情報Fは、その内容として各地物の位置情報と、それに関連付けられた地物属性情報とを有している。ここで、位置情報は、道路情報Raを構成するリンクk又はノードn等と関連付けられた各地物の代表点の地図上の位置(座標)、及び各地物の向きの情報を有している。本例では、代表点は、各地物の長さ方向及び幅方向の中央部付近に設定される。また、地物属性情報は、地物種別情報や、地物の形状、大きさ、色彩等の地物形態情報等を含んでいる。ここで、地物種別は、具体的には、「横断歩道」、「停止線」、「速度標示(30km/時)」等のような、基本的に同じ形態を有する地物の種別を表す情報である。   The feature information F includes position information of each feature and feature attribute information associated therewith as its contents. Here, the position information includes information on the position (coordinates) on the map of the representative point of each feature associated with the link k or the node n constituting the road information Ra, and the direction of each feature. In this example, the representative point is set near the center in the length direction and width direction of each feature. The feature attribute information includes feature type information, feature form information such as the shape, size, and color of the feature. Here, the feature type specifically indicates the type of feature having basically the same form such as “pedestrian crossing”, “stop line”, “speed indication (30 km / hour)”, and the like. Information.

3.車両データベース
車両データベースDB3は、道路上を走行する各種の車両の情報、すなわち車両情報Cが記憶されたデータベースである。この車両データベースDB3に格納される車両識別情報は、画像認識装置100において、認識対象となる車両の識別の用に供される。
図1に示すように、本実施形態においては、車両データベースDB3には、車両基本情報Ca、車両識別情報Cbの2種類の情報が、車種別に記憶される。同図には車種として、「A」及び「B」を示している。このデータベースDB3に記憶される情報は、図1に示されるように、更新用端末En、インターネットInを介して車両データ更新サーバCDSから適宜、最新の情報を取り込むことで最新の情報に更新できるようになっている。
3. Vehicle Database The vehicle database DB3 is a database in which information on various vehicles traveling on the road, that is, vehicle information C is stored. The vehicle identification information stored in the vehicle database DB3 is used for identifying a vehicle to be recognized in the image recognition apparatus 100.
As shown in FIG. 1, in this embodiment, two types of information, vehicle basic information Ca and vehicle identification information Cb, are stored in the vehicle database DB3 for each vehicle type. In the figure, “A” and “B” are shown as vehicle types. As shown in FIG. 1, the information stored in the database DB3 can be updated to the latest information by appropriately fetching the latest information from the vehicle data update server CDS via the update terminal En and the Internet In. It has become.

車両基本情報Caとは、その車種の名称等の車種情報、その車両を紹介している通信ネットワーク上のアドレス情報、その車種を販売しているディーラーの情報等である。   The vehicle basic information Ca is vehicle type information such as the name of the vehicle type, address information on a communication network that introduces the vehicle, information of a dealer that sells the vehicle type, and the like.

車両識別情報Cbとは、特定の車両を車種識別の対象とする場合に、車種の識別が可能な情報である。具体的には、この車両識別情報Cbは、車両輪郭情報Cb1,車両ランプ情報Cb2、車両ランプ輝点配列情報Cb3を含んで構成されている。
車両輪郭情報Cb1とは、各種の車両、それぞれの車両外形の輪郭形状に関する情報であり、主には、車両を後方から見た場合の輪郭形状に関する情報であるが、車両を前方から見た輪郭形状、さらには、右側方、左側方から見た輪郭形状であってもよい。図5に、細実線で異なった車種の輪郭形状(a)(b)を示した。この車両輪郭情報Cb1は、その輪郭形状、さらには輪郭形状の大きさから、車種を識別する上での一つの識別要素となる。
The vehicle identification information Cb is information capable of identifying a vehicle type when a specific vehicle is a vehicle type identification target. Specifically, the vehicle identification information Cb includes vehicle contour information Cb1, vehicle lamp information Cb2, and vehicle lamp bright spot array information Cb3.
The vehicle contour information Cb1 is information related to various vehicles and the contour shapes of the respective vehicle outer shapes, and is mainly information related to the contour shape when the vehicle is viewed from the rear. The shape may be a contour shape seen from the right side or the left side. FIG. 5 shows the contour shapes (a) and (b) of different vehicle types with thin solid lines. The vehicle contour information Cb1 is an identification element for identifying the vehicle type based on the contour shape and the size of the contour shape.

車両ランプ情報Cb2とは、各種の車両、それぞれのランプに関する情報であり、この情報も、主には、車両を後方から見た場合の見うるランプ全体の外形に関する情報であるが、車両を前方から見た場合のランプ全体の外形に関する情報、さらには、右側方、左側方から見た場合の情報であってもよい。後方から見た場合の例に関して説明すると、この情報には、左右の個々のランプの輪郭形状(輪郭自体及びその大きさを含む)の情報から成る他、左右一対のランプの位置関係を含み、さらには、先に説明した車両外形の輪郭形状に対する、ランプの位置、大きさ、及び輪郭内において占める範囲に関する情報も含まれる。図5に、太実線で異なった車種のランプ形状(a)(b)を示した。この車両ランプ情報Cb2は、そのランプ自体及び車両外形の輪郭形状とランプの位置等の情報から、車種を識別する上での一つの識別要素となる。   The vehicle lamp information Cb2 is information on various types of vehicles and their respective lamps, and this information is also mainly information on the outer shape of the entire lamp that can be seen when the vehicle is viewed from the rear. Information on the outer shape of the entire lamp when viewed from the right side, and information when viewed from the right side and the left side may also be used. In the case of viewing from the rear, this information includes information on the contour shapes of the left and right individual lamps (including the contour itself and its size), as well as the positional relationship between the pair of left and right lamps, Furthermore, the information regarding the position, the magnitude | size of the lamp | ramp with respect to the outline shape of the vehicle external shape demonstrated previously, and the range which occupies in the outline is also contained. FIG. 5 shows the lamp shapes (a) and (b) of different vehicle types with thick solid lines. The vehicle lamp information Cb2 is an identification element for identifying the vehicle type from information such as the lamp itself, the contour shape of the vehicle outer shape and the position of the lamp.

車両ランプ輝点配列情報Cb3とは、各種の車両、それぞれのランプ内に配列される輝点となるLED等の光源の配列に関する情報であり、この情報も、主には、車両を後方から見た場合の見うる輝点配列に関する情報であるが、車両を前方から見た場合の輝点配列に関する情報、さらには、右側方、左側方から見た場合の情報であってもよい。後方から見た場合の例に関して説明すると、この情報には、左右の個々のランプにおける輝点配列(全ての輝点を囲む外側境界形状を含む他、輝点を個別に認識し得る場合の輝点の配列も含む)の情報から成る他、先に説明した車両外形の輪郭形状、ランプの輪郭形状に対する、輝点配列部の位置、大きさ、輪郭内において占める範囲に関する情報も含んでいる。図5に、一点鎖線で異なった車種の輝点配列(a)(b)を示した。この車両ランプ輝点配列情報Cb3は、その輝点配列自体、あるいはランプ形状或いは車両外形の輪郭形状と輝点配列の位置等の情報から、車種を識別する上での一つの識別要素となる。   The vehicle lamp luminescent spot arrangement information Cb3 is information relating to the arrangement of various vehicles and light sources such as LEDs that are luminescent spots arranged in the respective lamps. This information is also mainly viewed from the rear. The information on the bright spot arrangement that can be seen when the vehicle is viewed may be information on the bright spot arrangement when the vehicle is viewed from the front, or information when the vehicle is viewed from the right side or the left side. The information when viewed from the back will be described. This information includes the bright spot arrangement in the left and right individual lamps (including the outer boundary shape surrounding all the bright spots, and the bright spots when the bright spots can be recognized individually). In addition, the information includes information on the position and size of the bright spot arrangement portion with respect to the outline shape of the vehicle outer shape and the outline shape of the lamp described above, and the range occupied in the outline. FIG. 5 shows the bright spot arrangements (a) and (b) of different vehicle types by a one-dot chain line. The vehicle lamp luminescent spot array information Cb3 serves as an identification element for identifying the vehicle type from the luminescent spot array itself or information such as the lamp shape or the contour shape of the vehicle outer shape and the position of the luminescent spot array.

なお、本実施形態においては、この車両データベースDB3が、車両情報記憶手段となる。   In the present embodiment, the vehicle database DB3 serves as vehicle information storage means.

4.自車位置情報取得部
自車位置情報取得部16は、自車両50の現在位置を示す自車位置情報Pを取得する自車位置情報取得手段として機能する。ここでは、自車位置情報取得部16は、GPS受信機13、方位センサ14、及び距離センサ15と接続されている。
ここで、GPS受信機13は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置情報取得部16へ出力される。自車位置情報取得部16では、GPS受信機13で受信されたGPS衛星からの信号を解析し、自車両50の現在位置(緯度及び経度)、進行方位、移動速度等の情報を取得することができる。
方位センサ14は、自車両50の進行方位又はその進行方位の変化を検出するセンサである。この方位センサ14は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。そして、方位センサ14は、その検出結果を自車位置情報取得部16へ出力する。
距離センサ15は、自車両50の車速や移動距離を検出するセンサである。この距離センサ15は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両50の加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。そして、距離センサ15は、その検出結果としての車速及び移動距離の情報を自車位置情報取得部16へ出力する。
4). Own vehicle position information acquisition unit The own vehicle position information acquisition unit 16 functions as own vehicle position information acquisition means for acquiring own vehicle position information P indicating the current position of the own vehicle 50. Here, the vehicle position information acquisition unit 16 is connected to the GPS receiver 13, the direction sensor 14, and the distance sensor 15.
Here, the GPS receiver 13 is a device that receives GPS signals from GPS (Global Positioning System) satellites. This GPS signal is normally received every second and is output to the vehicle position information acquisition unit 16. The own vehicle position information acquisition unit 16 analyzes signals from GPS satellites received by the GPS receiver 13 and acquires information such as the current position (latitude and longitude), traveling direction, and moving speed of the own vehicle 50. Can do.
The direction sensor 14 is a sensor that detects the traveling direction of the host vehicle 50 or a change in the traveling direction. The azimuth sensor 14 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like. Then, the direction sensor 14 outputs the detection result to the vehicle position information acquisition unit 16.
The distance sensor 15 is a sensor that detects the vehicle speed and the moving distance of the host vehicle 50. The distance sensor 15 is, for example, a vehicle speed pulse sensor that outputs a pulse signal each time a drive shaft or wheel of the vehicle rotates by a certain amount, a yaw / G sensor that detects acceleration of the host vehicle 50, and integration of the detected acceleration. Configured by a circuit or the like. Then, the distance sensor 15 outputs information on the vehicle speed and movement distance as the detection result to the vehicle position information acquisition unit 16.

そして、自車位置情報取得部16は、これらのGPS受信機13、方位センサ14及び距離センサ15からの出力に基づいて、公知の方法により自車位置を特定する演算を行う。また、自車位置情報取得部16は、地図データベースDB1から抽出された自車位置周辺の道路情報Raを取得し、それに基づいて公知のマップマッチングを行うことにより自車位置を道路情報Raに示される道路上に合わせる補正も行う。このようにして、自車位置情報取得部16は、緯度及び経度で表された自車両50の現在位置の情報、及び自車両50の進行方位の情報を含む自車位置情報Pを取得する。   And the own vehicle position information acquisition part 16 performs the calculation which pinpoints an own vehicle position by a well-known method based on the output from these GPS receiver 13, the direction sensor 14, and the distance sensor 15. FIG. In addition, the vehicle position information acquisition unit 16 acquires road information Ra around the vehicle position extracted from the map database DB1, and indicates the vehicle position in the road information Ra by performing known map matching based on the road information Ra. Also make corrections to fit on the road. In this way, the host vehicle position information acquisition unit 16 acquires host vehicle position information P including information on the current position of the host vehicle 50 represented by latitude and longitude and information on the traveling direction of the host vehicle 50.

5.地物情報取得部
地物情報取得部17は、自車位置情報取得部16で取得された自車位置情報P等に基づいて、地物データベースDB2から自車両50の周辺に存在する地物の地物情報Fを抽出して取得する。本実施形態においては、一例として、地物情報取得部17は、自車位置情報Pに基づいて、自車位置情報Pに示される自車両50の現在位置から、当該自車両50が走行中の道路を表すリンクkの終端までの間に存在する対象地物の地物情報Fを地物データベースDB2から抽出する。そして、この地物情報取得部17により取得された地物情報Fは、画像認識部18及び自車位置情報補正部19へ出力される。ここで、対象地物となる地物は、画像認識部5による画像認識処理の対象となる地物である。本実施形態においては、横断歩道、停止線、速度標示等のような、道路の路面に設けられた各種の道路標示の中から選択された地物種別の地物が対象地物となる。
5). Feature information acquisition unit The feature information acquisition unit 17 uses the vehicle location information P acquired by the vehicle location information acquisition unit 16 and the like to search for features existing around the vehicle 50 from the feature database DB2. The feature information F is extracted and acquired. In the present embodiment, as an example, the feature information acquisition unit 17 is based on the vehicle position information P, and the vehicle 50 is traveling from the current position of the vehicle 50 indicated by the vehicle position information P. The feature information F of the target feature existing before the end of the link k representing the road is extracted from the feature database DB2. Then, the feature information F acquired by the feature information acquisition unit 17 is output to the image recognition unit 18 and the vehicle position information correction unit 19. Here, the feature that is the target feature is a feature that is a target of image recognition processing by the image recognition unit 5. In the present embodiment, a feature of a feature type selected from various road markings provided on the road surface such as a pedestrian crossing, a stop line, and a speed marking is the target feature.

6.画像認識部
画像認識部18は、画像情報取得部12で取得された画像情報G1、G2に含まれる対象地物の画像認識処理を行う自車位置補正用画像認識手段18aとして機能するとともに、車種を識別する画像認識処理を行う車種識別用画像認識手段18bとして機能する。この車種識別用画像認識手段18bは、後述するように、本願に係る画像認識装置100の一機能部位を成す。
自車位置補正用画像認識処理
本実施形態においては、画像認識部18(具体的には自車位置補正用画像認識手段18a)は、自車位置情報Pの補正に用いるための位置補正用画像認識処理を行う。
画像認識部18は、地物情報取得部17により自車位置情報Pに基づいて地物データベースDB2から取得された地物情報Fを参照する。そして、自車両50の周辺に地物情報Fとして記憶された対象地物が存在すると判定された場合に位置補正用画像認識処理を行う。位置補正用画像認識処理では、画像認識部18は、自車位置情報Pに基づいて地物データベースDB2から取得した自車両50の周辺に存在する対象地物の地物情報Fに基づいて、バックカメラ11a(図4(a)参照)により撮像された画像情報G1に含まれる当該地物情報Fが示す対象地物の画像認識処理を行う。この際、画像認識部18は、当該地物情報Fが示す対象地物の認識要求を行う所定の認識領域E(図7参照)を設定し、この認識領域E内の画像情報G1に対して対象地物の画像認識処理を行う。この認識領域Eは、道路情報Raが示すリンクk上における、当該対象地物が存在すると推測される位置範囲として設定される。ここで、各画像情報G1に含まれる現実の道路の撮像領域は、自車両50への撮像装置11の取付位置、取付角度、及び画角等に基づいて予め演算された自車位置と撮像領域との位置関係を用いることで、自車位置情報Pに基づいて求めることができる。よって、画像認識部18は、このように求めた各画像情報G1の撮像領域の情報に基づいて、各対象地物について設定された認識領域Eに対応する画像情報G1を抽出し、画像認識処理を行う。この位置補正用画像認識処理による対象地物の画像認識結果は、自車位置情報補正部19による自車位置情報Pの補正に用いられる。
この処理にあっては、画像認識部18は、対象地物の画像認識に際しては、画像情報G1に対して二値化処理やエッジ検出処理等を行い、当該画像情報G1に含まれている地物(道路標示)の輪郭情報を抽出する。その後、画像認識部18は、抽出された地物の輪郭情報と、対象地物の形態の特徴量とのパターンマッチングを行うことにより、画像情報G1に含まれる対象地物の画像を抽出する。そして、画像認識部18は、位置補正用画像認識処理に際しては、設定された認識領域E内の画像情報G1の中から対象地物の画像を抽出できた場合に対象地物の画像認識に成功したと判定する。一方、画像認識部18は、認識領域E内の全ての画像情報G1について画像認識処理を行った結果、対象地物の画像を抽出できなかった場合には、対象地物の画像認識に失敗したと判定する。
6). Image Recognizing Unit The image recognizing unit 18 functions as a vehicle position correcting image recognizing unit 18a that performs image recognizing processing of target features included in the image information G1 and G2 acquired by the image information acquiring unit 12, and the vehicle type. It functions as vehicle type identification image recognition means 18b for performing image recognition processing for identifying the vehicle. As will be described later, the vehicle type identification image recognition means 18b constitutes one functional part of the image recognition apparatus 100 according to the present application.
Self-vehicle position correction image recognition processing In the present embodiment, the image recognition unit 18 (specifically, the self-vehicle position correction image recognition means 18a) is a position correction image for use in correcting the own vehicle position information P. Perform recognition processing.
The image recognition unit 18 refers to the feature information F acquired from the feature database DB2 by the feature information acquisition unit 17 based on the vehicle position information P. Then, when it is determined that the target feature stored as the feature information F exists around the host vehicle 50, the position correction image recognition processing is performed. In the image recognition process for position correction, the image recognition unit 18 performs the back operation based on the feature information F of the target feature existing around the host vehicle 50 acquired from the feature database DB2 based on the host vehicle position information P. Image recognition processing of the target feature indicated by the feature information F included in the image information G1 captured by the camera 11a (see FIG. 4A) is performed. At this time, the image recognition unit 18 sets a predetermined recognition area E (see FIG. 7) for requesting recognition of the target feature indicated by the feature information F, and the image information G1 in the recognition area E is set. Perform image recognition processing of the target feature. This recognition area E is set as a position range on which the target feature is estimated to exist on the link k indicated by the road information Ra. Here, the actual road imaging area included in each image information G1 is the vehicle position and imaging area calculated in advance based on the mounting position, mounting angle, field angle, and the like of the imaging device 11 to the host vehicle 50. Can be obtained based on the vehicle position information P. Therefore, the image recognition unit 18 extracts the image information G1 corresponding to the recognition area E set for each target feature based on the information of the imaging area of each image information G1 thus obtained, and performs image recognition processing. I do. The image recognition result of the target feature by the position correction image recognition process is used for correcting the vehicle position information P by the vehicle position information correction unit 19.
In this processing, the image recognition unit 18 performs binarization processing, edge detection processing, and the like on the image information G1 when recognizing the target feature, and the ground included in the image information G1. The contour information of the object (road marking) is extracted. Thereafter, the image recognition unit 18 extracts an image of the target feature included in the image information G1 by performing pattern matching between the extracted contour information of the feature and the feature quantity of the target feature. Then, the image recognition unit 18 succeeds in image recognition of the target feature when the image of the target feature can be extracted from the image information G1 in the set recognition area E during the position correction image recognition processing. It is determined that On the other hand, as a result of performing the image recognition process on all the image information G1 in the recognition area E, the image recognition unit 18 fails to recognize the image of the target feature when the image of the target feature cannot be extracted. Is determined.

車種識別用画像認識処理
本実施形態においては、画像認識部18(具体的には、車種識別用画像認識手段18b)は、車種識別に用いるための車種識別用画像認識処理を行う。
画像認識部18は、対象車両の画像認識に際しては、例えば、本願における画像情報取得手段として働くフロントカメラ11b(図4(b)参照)で取得された画像情報G2に対して二値化処理やエッジ検出処理さらには膨張・収縮処理等を行い、当該画像情報G2に含まれている特徴的な画像領域を抽出する。即ち、先に説明した車両輪郭情報Cb1、車両ランプ情報Cb2及び車両ランプ輝点配列情報Cb3に相当する画像領域が存在する場合は、各領域が閉領域となっていたり、極度に輝度が高い等の特徴を備えることとなるため、車両輪郭、車両ランプ、車両ランプ輝点配列別に、それぞれ対応する画像領域を抽出することができる(この画像処理段階では、抽出された画像領域が、それぞれ車両輪郭、車両ランプ、車両ランプ輝点配列に対応するとまでは特定されない)。
例えば、図5に示すように、車両の輪郭情報Cb1に対応する画像領域は、車両周りの画像領域に対して、特定の色で識別される閉領域となるため、このような条件に従って抽出される。このようにして抽出された画像領域が車両輪郭候補画像領域Iaとされる。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両輪郭候補画像領域Iaに対して、別途、車両データベースDB3に記憶されている車両輪郭情報Cb1を使用してパターンマッチングを行う。結果、適合するものが見出された場合に、前方を走行している車両の車種が、車両の輪郭において対応する車種であるとの車種識別情報を出力する。
Vehicle Type Identification Image Recognition Processing In this embodiment, the image recognition unit 18 (specifically, vehicle type identification image recognition means 18b) performs vehicle type identification image recognition processing for use in vehicle type identification.
When the image recognition unit 18 recognizes the image of the target vehicle, for example, the image recognition unit 18 performs binarization processing on the image information G2 acquired by the front camera 11b (see FIG. 4B) serving as image information acquisition means in the present application. Edge detection processing and further expansion / contraction processing are performed to extract a characteristic image area included in the image information G2. That is, when there are image areas corresponding to the vehicle outline information Cb1, the vehicle lamp information Cb2, and the vehicle lamp bright spot array information Cb3 described above, each area is a closed area, extremely high brightness, etc. Therefore, corresponding image areas can be extracted for each of the vehicle contour, the vehicle lamp, and the vehicle lamp luminescent spot array (at this image processing stage, the extracted image areas are respectively the vehicle contours). It is not specified until it corresponds to the vehicle lamp and the vehicle lamp bright spot array).
For example, as shown in FIG. 5, the image region corresponding to the vehicle contour information Cb1 is a closed region identified by a specific color with respect to the image region around the vehicle, and thus is extracted according to such a condition. The The image area extracted in this way is set as a vehicle contour candidate image area Ia. Then, after finishing the above extraction process, the image recognition unit 18 uses the vehicle contour information Cb1 stored separately in the vehicle database DB3 for the extracted vehicle contour candidate image area Ia to perform pattern matching. I do. As a result, when a suitable one is found, the vehicle type identification information that the vehicle type of the vehicle traveling ahead is the corresponding vehicle type in the outline of the vehicle is output.

車両ランプ情報Cb2に対応する画像領域は、ランプ周りの画像領域に対して、特定の色(赤系統の場合が多い)で識別され、さらに内部に輝点が現れることがある閉領域となるため、このような条件に従って抽出される。このようにして抽出された画像領域が、車両ランプ候補画像領域Ibとされる。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両ランプ候補画像領域Ibに対して、別途、車両データベースDB3に記憶されている車両ランプ情報Cb1及び車両輪郭情報Cb2を使用してパターンマッチングを行う。そして、適合するものが見出された場合に、前方を走行している車両の車種が、車両のランプ及び輪郭において対応する車種であるとの車種識別情報を出力する。   The image area corresponding to the vehicle lamp information Cb2 is a closed area where a specific color (often in the red system) is identified with respect to the image area around the lamp and a bright spot may appear inside. , Extracted according to such conditions. The image area extracted in this way is set as a vehicle lamp candidate image area Ib. Then, after finishing the above extraction process, the image recognition unit 18 separately uses the vehicle lamp information Cb1 and the vehicle contour information Cb2 stored in the vehicle database DB3 for the extracted vehicle lamp candidate image area Ib. Use for pattern matching. When a suitable vehicle is found, vehicle type identification information indicating that the vehicle type of the vehicle traveling ahead is the vehicle type corresponding to the lamp and contour of the vehicle is output.

さらに、車両ランプ輝点配列情報Cb3に関しては、ランプに対応するランプ画像領域と輝度差が大きくなる場合(前方車両でブレーキ操作を行なった場合に輝度差が大きく出る)がある領域であることから、ランプが点灯した状態の画像における閾値処理により輝点部分を分離して抽出される。このような条件に従って抽出される。このようにして抽出された画像領域が、車両ランプ輝点配列候補画像領域Icとされる。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両ランプ輝点配列候補画像領域Icに対して、別途、車両データベースDB3に記憶されている車両ランプ輝点配列情報Cb3、車両ランプ情報Cb2及び車両輪郭情報Cb1を使用してパターンマッチングを行う。そして、適合するものが見出された場合に、前方を走行している車両の車種が、車両の輝点配列、ランプ及び輪郭において対応する車種であるとする車種識別情報を出力する。従って、車種識別用画像認識手段18bは、本願における他車画像抽出手段として機能するとともに、車両情報取得手段の一種である車種識別手段として機能する。   Further, the vehicle lamp luminescent spot array information Cb3 is an area where the brightness difference from the lamp image area corresponding to the lamp is large (the brightness difference is large when the brake operation is performed in the preceding vehicle). The bright spot portion is separated and extracted by threshold processing in the image with the lamp turned on. It is extracted according to such conditions. The image area extracted in this way is the vehicle lamp bright spot array candidate image area Ic. Then, after finishing the above extraction process, the image recognition unit 18 separately supplies the vehicle lamp bright spot array information Cb3 stored in the vehicle database DB3 for the extracted vehicle lamp bright spot array candidate image area Ic. The pattern matching is performed using the vehicle lamp information Cb2 and the vehicle contour information Cb1. If a suitable vehicle is found, vehicle type identification information is output that the vehicle type of the vehicle traveling ahead is the vehicle type corresponding to the bright spot arrangement, lamp, and contour of the vehicle. Accordingly, the vehicle type identification image recognition unit 18b functions as a vehicle type extraction unit in the present application and also functions as a vehicle type identification unit which is a kind of vehicle information acquisition unit.

7.自車位置情報補正部
自車位置情報補正部19は、画像認識部18による対象地物の画像認識処理の結果と、当該対象地物についての地物情報Fに含まれる当該対象地物の位置情報とに基づいて自車位置情報Pを補正する。本実施形態では、自車位置情報補正部19は、画像認識部18における地物情報Fに基づく位置補正用画像認識処理による対象地物の画像認識結果と、当該地物情報Fに含まれる当該対象地物の位置情報とを用いて、自車両50の進行方向に沿って自車位置情報Pを補正する。具体的には、自車位置情報補正部19は、まず、画像認識部18による位置補正用画像認識処理の結果と、撮像装置11の取付位置、取付角度、及び画角等とに基づいて、対象地物の画像を含む画像情報G1の取得時における自車両50と対象地物との位置関係を演算する。次に、自車位置情報補正部19は、この自車両50と対象地物との位置関係の演算結果と、当該対象地物についての地物情報Fに含まれる当該対象地物の位置情報とに基づいて、自車両50の進行方向における対象地物の位置情報(地物情報F)を基準とする高精度な自車両50の位置情報を演算して取得する。そして、自車位置情報補正部19は、このようにして取得した高精度な自車両50の位置情報に基づいて、自車位置情報取得部16で取得した自車位置情報Pに含まれる、自車両50の進行方向の現在位置の情報を補正する。その結果、自車位置情報取得部16は、このような補正後の高精度な自車位置情報Pを取得することになる。
7). Self-vehicle position information correction unit The self-vehicle position information correction unit 19 is a result of image recognition processing of the target feature by the image recognition unit 18 and the position of the target feature included in the feature information F about the target feature. Based on the information, the vehicle position information P is corrected. In the present embodiment, the vehicle position information correction unit 19 includes the image recognition result of the target feature by the image recognition process for position correction based on the feature information F in the image recognition unit 18 and the feature information F included in the feature information F. The own vehicle position information P is corrected along the traveling direction of the own vehicle 50 using the position information of the target feature. Specifically, the own vehicle position information correction unit 19 first, based on the result of the position correction image recognition processing by the image recognition unit 18 and the mounting position, mounting angle, and angle of view of the imaging device 11, The positional relationship between the host vehicle 50 and the target feature at the time of acquiring the image information G1 including the image of the target feature is calculated. Next, the own vehicle position information correction unit 19 calculates the positional relationship between the own vehicle 50 and the target feature, and the position information of the target feature included in the feature information F about the target feature. Based on the above, the position information of the subject vehicle 50 in the traveling direction of the subject vehicle 50 (feature information F) is calculated and acquired with high accuracy. Then, the own vehicle position information correction unit 19 includes the own vehicle position information P acquired by the own vehicle position information acquisition unit 16 based on the highly accurate position information of the own vehicle 50 acquired in this way. Information on the current position in the traveling direction of the vehicle 50 is corrected. As a result, the host vehicle position information acquisition unit 16 acquires the corrected host vehicle position information P with high accuracy.

8.ナビゲーション用演算部
ナビゲーション用演算部20は、自車位置表示、出発地から目的地までの経路探索、目的地までの進路案内、目的地検索等のナビゲーション機能を実行するためにアプリケーションプログラム23に従って動作する演算処理手段である。例えば、ナビゲーション用演算部20は、自車位置情報Pに基づいて地図データベースDB1から自車両50周辺の地図情報Mを取得して表示入力装置21に地図の画像を表示するとともに、当該地図の画像上に、自車位置情報Pに基づいて自車位置マークを重ね合わせて表示する処理を行う。また、ナビゲーション用演算部20は、地図データベースDB1に記憶された地図情報Mに基づいて、所定の出発地から目的地までの経路探索を行う。更に、ナビゲーション用演算部20は、探索された出発地から目的地までの経路と自車位置情報Pとに基づいて、表示入力装置21及び音声出力装置22の一方又は双方を用いて、運転者に対する進路案内を行う。また、本実施形態においては、ナビゲーション用演算部20は、表示入力装置21及び音声出力装置22に接続されている。表示入力装置21は、液晶表示装置等の表示装置とタッチパネル等の入力装置が一体となったものである。音声出力装置は、スピーカ等を有して構成されている。本実施形態においては、ナビゲーション用演算部20、表示入力装置21、及び音声出力装置22が、本発明における案内情報出力手段24として機能する。これら表示入力装置21、音声出力装置22は、後述する車種紹介情報の出力用、さらに、紹介を許可するか否かの入力の用にも供される。従って、本願に係る画像認識装置100における入出力装置としての用を果たす。又、本願に係る画像認識装置100から、ナビゲーション装置1に備えられるナビゲーション用の機能部に、得られた車両情報を引き渡す処理も、画像認識装置100の出力処理に該当する。
8). Navigation Calculation Unit The navigation calculation unit 20 operates in accordance with the application program 23 in order to execute navigation functions such as display of the vehicle position, route search from the departure place to the destination, route guidance to the destination, and destination search. Arithmetic processing means. For example, the navigation calculation unit 20 acquires map information M around the host vehicle 50 from the map database DB1 based on the host vehicle position information P, displays a map image on the display input device 21, and displays the map image. On top of this, based on the vehicle position information P, a process of displaying the vehicle position mark in an overlapping manner is performed. The navigation calculation unit 20 searches for a route from a predetermined departure point to a destination based on the map information M stored in the map database DB1. Further, the navigation calculation unit 20 uses one or both of the display input device 21 and the voice output device 22 based on the searched route from the departure point to the destination and the own vehicle position information P, and the driver. Provides route guidance for. In the present embodiment, the navigation calculation unit 20 is connected to the display input device 21 and the audio output device 22. The display input device 21 is a combination of a display device such as a liquid crystal display device and an input device such as a touch panel. The audio output device includes a speaker and the like. In the present embodiment, the navigation calculation unit 20, the display input device 21, and the audio output device 22 function as the guidance information output means 24 in the present invention. The display input device 21 and the audio output device 22 are also used for outputting vehicle type introduction information, which will be described later, and for inputting whether or not introduction is permitted. Therefore, it serves as an input / output device in the image recognition apparatus 100 according to the present application. Further, the process of handing over the obtained vehicle information from the image recognition apparatus 100 according to the present application to the navigation function unit provided in the navigation apparatus 1 also corresponds to the output process of the image recognition apparatus 100.

9.紹介演算部
この紹介演算部30は、画像処理部18において対象車両について識別された車種に関し、その車種の紹介を行う紹介出力手段として機能する部位であり、車両データベースDB3に車種別に記憶格納されている少なくとも車両基本情報Caを紹介可能に構成されている。本願に係る画像識別装置100における紹介出力手段として機能する。
車両データベースDB3には、先にも説明したように、車種毎に、車種情報、当該車種を紹介する通信ネット上のアドレス情報、さらに、この車種を取り扱っているディーラー情報等が記憶・格納されている。
車種情報には、当該車種の名称、当該車種のコンセプト、トピック、グレード、価格等が含まれる。そして、車種の紹介に際しては、『前を走っている車は「A」です。この「A」に、スーパーチャージャーが登場しました。また、マイナーチェンジが施され、同時に特別仕様車が発売されています。一度、購入を検討されませんか?』等の紹介が行えるようにデータベースが構築されている。
9. Introduction calculation unit The introduction calculation unit 30 is a part that functions as an introduction output unit that introduces the vehicle type identified by the image processing unit 18 for the target vehicle, and is stored and stored in the vehicle database DB3 for each vehicle type. At least the vehicle basic information Ca can be introduced. It functions as an introduction output means in the image identification apparatus 100 according to the present application.
As described above, the vehicle database DB3 stores and stores vehicle type information, address information on a communication network introducing the vehicle type, dealer information handling the vehicle type, and the like for each vehicle type. Yes.
The vehicle type information includes the name of the vehicle type, the concept of the vehicle type, the topic, the grade, the price, and the like. And when introducing the car model, “The car running in front is“ A ”. A supercharger appeared in this "A". In addition, minor changes have been made, and at the same time special edition cars are on sale. Want to consider buying once? The database has been constructed so that it can be introduced.

図1に示すように、この紹介演算部30には、車種紹介部30aと、ディーラー紹介部30bとが備えられている。これら両紹介部30a,30bは、それぞれ、紹介許可取得手段31を備えており、別途、表示入力装置21或いは音声出力装置22を使用して、車種紹介部30a及びディーラー紹介部30bによる紹介を行えとの指令を受けた(ナビゲーション装置側からは、紹介を行っても良いとの許可を受けた)場合でのみ、対象車両の車種の紹介、ディーラーの紹介等を行うように構成されている。
この紹介許可取得手段31は、それぞれの紹介が必要となった時点で、ユーザが両紹介の可否を表示入力装置21或いは音声出力装置22を介して指定、又は装置側から質問してユーザの意向を確認することで、両紹介部30a,30bの動作を始めるように構成されている。従って、ユーザが紹介を不要と判断した場合は、本願の特徴である各紹介は行われない。
As shown in FIG. 1, the introduction calculation unit 30 includes a vehicle type introduction unit 30a and a dealer introduction unit 30b. These introduction sections 30a and 30b each have an introduction permission acquisition means 31, and can be introduced by the vehicle type introduction section 30a and the dealer introduction section 30b separately using the display input device 21 or the audio output device 22. The vehicle type of the target vehicle, the introduction of the dealer, and the like are configured only when the command is received (from the navigation device side, permission is given that the introduction may be performed).
The introduction permission acquisition means 31 is configured so that when each introduction is necessary, the user designates whether or not both introductions are permitted via the display input device 21 or the voice output device 22, or asks the user to inquire from the device side. By confirming the above, the operation of both the introduction units 30a and 30b is started. Therefore, when the user determines that the introduction is unnecessary, each introduction that is a feature of the present application is not performed.

車種紹介部30aは、先に説明したように紹介が許可されている状況で、画像認識部18により識別された車種について、車種名、用途、価格、売れ行き等を紹介する。この紹介は、例えば、『前を走っている車は、「A」です。この車は、ファミリー用に開発されたもので、その価格帯は300〜400万です。3世代が同居する家族のセカンドカーとして良く購入されています。』等の紹介を行う。
さらに、この車種紹介部30aは、ユーザからの入力指示に従って、認識車両を紹介している通信ネットワーク上のアドレスを紹介するようにも構成されている。従って、例えば、帰宅時に、表示入力装置21から、走行中に前方を走っていた車両のインターネットアドレスの紹介を受け、ユーザがその車種のホームページにアクセスすることで、当該車種のさらに詳細な情報を得ることができる。従って、例えば、異なった色の車について、その車の様々な方向からの外観を確認することができる。
The vehicle type introduction unit 30a introduces the vehicle type name, application, price, sales, and the like for the vehicle type identified by the image recognition unit 18 in the situation where the introduction is permitted as described above. The introduction is, for example, “The car running in front is“ A ”. This car was developed for the family and its price range is 3 to 4 million. It is often purchased as a second car for families with three generations. Etc.] is introduced.
Further, the vehicle type introduction unit 30a is also configured to introduce an address on the communication network that introduces the recognized vehicle in accordance with an input instruction from the user. Therefore, for example, when returning home, the display input device 21 receives an introduction of the Internet address of the vehicle that was running forward while traveling, and the user accesses the homepage of the vehicle type, so that more detailed information on the vehicle type can be obtained. Obtainable. Therefore, for example, the appearances of various colored vehicles from various directions can be confirmed.

この車種紹介部30aには独自の記憶部32が備えられており、この記憶部32にユーザに関連する情報であるユーザ情報Uが記憶される構成が採用されているとともに、自車からその走行状態情報Dを取得する走行状態情報取得部33が備えられており、これらユーザ情報U、走行状態情報Dに従った紹介を行う構成が採用されている。   The vehicle type introduction unit 30a is provided with a unique storage unit 32. The storage unit 32 stores user information U that is information related to the user. A driving state information acquisition unit 33 that acquires the state information D is provided, and a configuration for introducing according to the user information U and the driving state information D is adopted.

ユーザ情報Uとしては、例えば、ユーザが所有する又は乗車する車両の車種、その車両の走行距離、ユーザの家族構成等が含まれており、自車の車種と同種の車で、マイナーチェンジが最近加えられた場合に、『最近、乗車中の車で特別仕様車が販売されています。走行距離が8万kmに達しています。買い替えてはどうですか?』等に紹介を行えるようになっている。さらに、家族構成の関する情報については、『奥様にセカンドカーとして、前を走行している「B」はいかがですか?』といった紹介を行えるようになっている。   The user information U includes, for example, the model of the vehicle that the user owns or rides, the mileage of the vehicle, the family structure of the user, and the like. If you were asked, “Recently, specially-designed vehicles are on sale. The mileage has reached 80,000 km. How about buying a new one? 』Etc can be introduced. Furthermore, for information on the family structure, “How about“ B ”driving in front of you as your second car? Can be introduced.

走行状態情報Dとして、例えば、走行中の自車に関して、その走行速度、走行加速度、ブレーキのON・OFF、アクセルのON・OFF等が含まれている。そして、例えば、前方を走行中の車両の紹介を行う場合に、アクセルの踏み込みが行われておらす、走行速度、走行加速度が所定値以下の条件で、これまで説明してきた紹介を行うように構成されている。このような構成を採用する理由は、本願における紹介は、紹介を遅らせても何ら支障がないものであり、必然的でなく、ユーザに余裕のある時点で行うことで充分だからである。   The traveling state information D includes, for example, the traveling speed, traveling acceleration, brake ON / OFF, accelerator ON / OFF, etc. for the host vehicle that is traveling. And, for example, when introducing a vehicle that is traveling ahead, the introduction that has been described so far is performed under the condition that the accelerator is depressed and the traveling speed and traveling acceleration are below a predetermined value. It is configured. The reason for adopting such a configuration is that the introduction in the present application does not cause any trouble even if the introduction is delayed, and it is not inevitable, and it is sufficient to perform the introduction at a time when there is room for the user.

ディーラー紹介部30bは、画像処理部18により識別され車両について、その車種を取り扱っているディーラーを紹介する。
このディーラー紹介部30bは、先に説明したように紹介が許可されている状況で、画像認識部18により識別された車種について、その車種を取り扱っているディーラー名、最寄のディーラーの地点等を紹介する。この紹介は、例えば、『前を走っている車は、「X」によって販売されています。最寄のディーラーの所在地は、「○○○市×××町」です。』等の紹介を行う。
さらに、このディーラー紹介部30bでの処理では、ユーザに対する質問として、『最寄のディーラーに行ってみますか?』『最寄のディーラーに、貴方が「A」に興味を持たれたことを知らせていいですか?』等の質問を投げかける。そして、前者の質問に対して「YES」の場合は、そのディーラーへの案内ルートを探索して表示する。一方、後者の質問に対して「YES」の場合は、そのディーラーへ、ユーザが「A」に興味を持ったこと』を知らせる。このようにして、ユーザ、ディーラーで、迅速且つ有用な情報の伝達が可能となる。
The dealer introduction unit 30b introduces a dealer who handles the vehicle type identified by the image processing unit 18.
In the situation where introduction is permitted as described above, the dealer introduction unit 30b provides the name of the dealer handling the vehicle type, the location of the nearest dealer, etc., for the vehicle type identified by the image recognition unit 18. introduce. For example, “The car running in front is sold by“ X ”. The nearest dealer is “XX City XXX Town”. Etc.] is introduced.
Further, in the processing in the dealer introduction section 30b, as a question to the user, “Would you like to go to the nearest dealer? "Can you let the nearest dealer know that you were interested in" A "?" Ask questions such as. If the answer to the former question is “YES”, the guide route to the dealer is searched and displayed. On the other hand, if the answer to the latter question is “YES”, the dealer is informed that the user is interested in “A” ”. In this way, the user and the dealer can quickly and usefully transmit information.

10.ナビゲーション装置の動作処理
次に、本実施形態に係るナビゲーション装置1において実行される、自車位置情報補正処理、認識車両に対する車種識別処理さらには認識車両についての紹介処理に関して個別に説明する。
10. Operation Process of Navigation Device Next, the vehicle position information correction process, the vehicle type identification process for the recognized vehicle, and the introduction process for the recognized vehicle, which are executed in the navigation apparatus 1 according to the present embodiment, will be described individually.

10−1 自車位置情報補正処理
図6に示すように、ナビゲーション装置1では、まず、自車位置情報取得部16により自車位置情報Pを取得する(ステップ#01)。次に、画像情報取得部12により、撮像装置(具体的にはバックカメラ11a)により撮像した自車両50の周辺の画像情報G1を取得する(ステップ#02)。その後、地物情報取得部17により、自車位置情報Pに示される自車両50の現在位置(自車位置)から、当該自車両50が走行中の道路を表すリンクkの終端までの間に存在する対象地物の地物情報Fを地物データベースDB2から取得する(ステップ#03)。そして、画像認識部18により、ステップ#03において取得された各地物情報Fが示す各対象地物について、認識領域Eを設定して画像認識処理を行う(ステップ#04)。そして、ステップ#04により、認識領域E内で対象地物を画像認識した場合には(ステップ#05:Yes)、自車位置情報補正部19により、当該対象地物の画像認識結果と、当該対象地物についての地物情報Fに含まれる当該対象地物の位置情報とに基づいて、自車位置情報Pの補正を行う(ステップ#06)。一方、認識領域E内で対象地物を画像認識できなかった場合には(ステップ#05:No)、ナビゲーション装置1は、そのままナビゲーション装置1における自車位置補正処理を終了する。
10-1 Own Vehicle Position Information Correction Process As shown in FIG. 6, in the navigation apparatus 1, first, the own vehicle position information acquisition unit 16 acquires own vehicle position information P (step # 01). Next, the image information acquisition unit 12 acquires image information G1 around the host vehicle 50 captured by the imaging device (specifically, the back camera 11a) (step # 02). Thereafter, the feature information acquisition unit 17 performs a period from the current position (vehicle position) of the host vehicle 50 indicated in the host vehicle position information P to the end of the link k representing the road on which the host vehicle 50 is traveling. The feature information F of the existing target feature is acquired from the feature database DB2 (step # 03). Then, the image recognition unit 18 sets the recognition area E and performs image recognition processing for each target feature indicated by the feature information F acquired in step # 03 (step # 04). When the target feature is image-recognized in the recognition area E in step # 04 (step # 05: Yes), the vehicle position information correction unit 19 uses the image recognition result of the target feature and the The own vehicle position information P is corrected based on the position information of the target feature included in the feature information F about the target feature (step # 06). On the other hand, when the target feature cannot be recognized in the recognition area E (step # 05: No), the navigation device 1 ends the vehicle position correction process in the navigation device 1 as it is.

10−2 車種識別処理
図8に示すように、この処理にあっては、まず、画像情報取得部12により、撮像装置11bにより撮像した自車両50の前方に画像情報G2を取得する(ステップ#10)。
次に、画像認識部18は、取得された画像情報G2に対して二値化処理やエッジ検出処理さらには膨張・収縮処理等を行い、車両輪郭候補画像領域Iaを抽出する(ステップ#11)。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両輪郭候補画像領域Iaに対して、別途、車両データベースDB3に記憶されている車両輪郭情報Cb1を使用してパターンマッチングを行う(ステップ#12)。そして、適合するものが見出された場合に(ステップ#13:Yes)、前方を走行している車両の車種が、車両の輪郭において対応する車種であるとの車種識別情報(この情報は、車種情報の一つであり、図8において、「車種情報」と記載している)を出力する(ステップ#14)。
見出し得ない場合には(ステップ#13:No)、順次、以下の処理を行う。
10-2 Vehicle Type Identification Process As shown in FIG. 8, in this process, first, the image information acquisition unit 12 acquires image information G2 ahead of the host vehicle 50 imaged by the imaging device 11b (step #). 10).
Next, the image recognition unit 18 performs binarization processing, edge detection processing, expansion / contraction processing, and the like on the acquired image information G2, and extracts a vehicle contour candidate image region Ia (step # 11). . Then, after finishing the above extraction process, the image recognition unit 18 uses the vehicle contour information Cb1 stored separately in the vehicle database DB3 for the extracted vehicle contour candidate image area Ia to perform pattern matching. Is performed (step # 12). And when the suitable thing is found (step # 13: Yes), the vehicle type identification information (this information is that the vehicle type of the vehicle traveling ahead is the corresponding vehicle type in the outline of the vehicle. This is one of the vehicle type information, and is described as “vehicle type information” in FIG. 8 (step # 14).
If no headline can be obtained (step # 13: No), the following processing is sequentially performed.

引き続いて、画像認識部18は、前記車両輪郭候補画像領域Ia内において、車両ランプ候補画像領域Ibを抽出する(ステップ#15)。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両ランプ候補画像領域Ibに対して別途、車両データベースDB3に記憶されている車両ランプ情報Cb2を使用してパターンマッチングを行う(ステップ#16)。この時、車両輪郭候補画像領域Ia及び車両輪郭情報Cb1も使用される。そして、適合するものが見出された場合に(ステップ#17:Yes)、前方を走行している車両の車種が、車両ランプにおいて対応する車種であるとの車種識別情報を出力する(ステップ#14)。見出し得ない場合には(ステップ#17:No)、引き続いて、以下の処理を行う。   Subsequently, the image recognition unit 18 extracts a vehicle lamp candidate image region Ib in the vehicle contour candidate image region Ia (step # 15). Then, after completing the above extraction process, the image recognition unit 18 performs pattern matching on the extracted vehicle lamp candidate image area Ib using the vehicle lamp information Cb2 separately stored in the vehicle database DB3. Perform (Step # 16). At this time, the vehicle contour candidate image area Ia and the vehicle contour information Cb1 are also used. If a suitable vehicle is found (step # 17: Yes), vehicle type identification information is output that the vehicle type of the vehicle traveling ahead is the corresponding vehicle type in the vehicle lamp (step #). 14). If no headline can be obtained (step # 17: No), the following processing is subsequently performed.

さらに、画像認識部18は、前記車両ランプ候補画像領域Ib内において、車両ランプ輝点配列候補画像領域Icを抽出する(ステップ#18)。そして、上記の抽出処理を終えた後、画像認識部18は、抽出された車両ランプ輝点配列候補画像領域Icに対して別途、車両データベースDB3に記憶されている車両ランプ輝点配列情報Cb3を使用してパターンマッチングを行う(ステップ#19)。この時、車両ランプ候補画像領域Ib及び車両ランプ情報Cb2も使用される。そして、適合するものが見出された場合に(ステップ#20:Yes)、前方を走行している車両の車種が、車両ランプ内の輝点の配列において対応する車種であるとの車種識別情報を出力する(ステップ#14)。このようにしても車種が識別できない場合は、車種情報出力不可となる(ステップ#21)。
このようにして、車種識別処理を完了する。
Further, the image recognition unit 18 extracts a vehicle lamp bright spot array candidate image area Ic in the vehicle lamp candidate image area Ib (step # 18). Then, after finishing the above extraction process, the image recognition unit 18 separately uses the vehicle lamp luminescent spot array information Cb3 stored in the vehicle database DB3 for the extracted vehicle lamp luminescent spot array candidate image area Ic. Using this, pattern matching is performed (step # 19). At this time, the vehicle lamp candidate image area Ib and the vehicle lamp information Cb2 are also used. And when a suitable thing is found (step # 20: Yes), the vehicle type identification information that the vehicle type of the vehicle traveling ahead is the vehicle type corresponding to the array of bright spots in the vehicle lamp. Is output (step # 14). Even if the vehicle type cannot be identified in this way, vehicle type information cannot be output (step # 21).
In this way, the vehicle type identification process is completed.

10−3 紹介処理
図9に示すように、紹介演算部30は、表示入力装置21の操作により、認識車両に関して、紹介を行ってよいかどうかの許可を取るとともに(ステップ#30)。許可が得られた場合(ステップ#30:Yes)が、認識車両の車種について紹介を行う。一方、得られなかった場合(ステップ#30:No)は、紹介を行うことなく、処理を終える。
10-3 Introduction Process As shown in FIG. 9, the introduction calculation unit 30 obtains permission for introduction of the recognized vehicle by operating the display input device 21 (step # 30). When permission is obtained (step # 30: Yes), the vehicle type of the recognized vehicle is introduced. On the other hand, when it is not obtained (step # 30: No), the process is terminated without introducing.

さて、画像認識部18によりフロントカメラで撮像される画像情報G2から認識車両についてその車種が識別された状態で、紹介演算部30は、その車種情報を取得する(ステップ#31)。一方、この状態で、ナビゲーション装置1が備えられている自車50のユーザ情報を確認するとともに、走行状態情報を確認する(ステップ#32)。この確認により、識別された車種の車両基本情報とユーザ情報とに基づいて紹介内容が決定される(ステップ#33)。   Now, with the vehicle type identified for the recognized vehicle from the image information G2 captured by the front camera by the image recognition unit 18, the introduction calculation unit 30 acquires the vehicle type information (step # 31). On the other hand, in this state, the user information of the host vehicle 50 provided with the navigation device 1 is confirmed and the traveling state information is confirmed (step # 32). By this confirmation, the introduction content is determined based on the vehicle basic information and user information of the identified vehicle type (step # 33).

一方、走行状態は紹介可の状態にあるかどうかを判定し、紹介可の状態にあっては(ステップ#34:Yes)、認識車両について先に決定した車種情報を含む紹介内容が紹介される(ステップ#35)。紹介不可の状態にあっては(ステップ#34:No)、
走行状態が紹介可の状態になるまで待つ。
On the other hand, it is determined whether or not the running state is in a state where introduction is possible. If it is in a state where introduction is possible (step # 34: Yes), the introduction content including the vehicle type information determined in advance for the recognized vehicle is introduced. (Step # 35). If the referral is not possible (Step # 34: No),
Wait until the driving state is ready for introduction.

次に、表示入力装置21の操作により、認識車両に関して、ディーラーの紹介を行ってよいかどうかの許可を取る(ステップ#36)。許可が得られた場合は、識別車両に関して、そのディーラーの紹介を行う(ステップ#37)。そして、運転者に、最寄のディーラーに行くかどうかを質問し、その質問に対して、回答がYesであった場合(ステップ#38:Yes)に、ディーラーへのルート案内を実行する(ステップ#39)。回答がNoであった場合(ステップ#38:No)に、そのまま処理を終える。   Next, permission is given for whether or not the dealer can be introduced for the recognized vehicle by operating the display input device 21 (step # 36). If permission is obtained, the dealer is introduced for the identified vehicle (step # 37). Then, the driver is asked whether he / she wants to go to the nearest dealer. If the answer to the question is Yes (step # 38: Yes), route guidance to the dealer is executed (step # 39). If the answer is No (step # 38: No), the process is finished as it is.

さらに、ユーザがその識別車両を見たことに関して、その事実をディーラーに報知して良いかかどうかを質問し、その質問に対して、回答がYesであった場合(ステップ#40:Yes)に、ディーラーへの報知を実行する(ステップ#41)。回答がNoであった場合(ステップ#40:No)に、そのまま処理を終える。   Further, regarding whether or not the user saw the identified vehicle, a question is asked as to whether or not the fact may be notified to the dealer, and if the answer to the question is Yes (step # 40: Yes). The dealer is notified (step # 41). When the answer is No (step # 40: No), the process is finished as it is.

〔別実施の形態〕
(1) 上記の実施の形態にあっては、画像認識部18が車種識別用画像認識手段18bを備え、その機能として、他車画像抽出手段として機能するとともに、認識対象の車両の車種まで認識する車種識別手段として機能する場合について説明した。
ここで、本願にあっては、比較的画像認識が容易となる、車両ランプ内の光源の配列と車種との固有の関係から、他車両の車両情報として、その車種情報を得たのであるが、先にも説明したように、車両ランプ内における光源の配列(画像上は、車両ランプ内における輝点の配列)が比較的信頼性良く認識され、さらにその車種まで識別可能な状態となっている場合にあっては、車両の存在、車両と自車との距離、車両がどのように運動しているか等の車両情報が、実質的に捕らえられていることとなる。従って、このような車両情報をナビゲーション装置における案内情報の生成の用に供することとしてもよい。
[Another embodiment]
(1) In the above embodiment, the image recognition unit 18 includes the vehicle type identification image recognition unit 18b, and functions as the other vehicle image extraction unit and recognizes the vehicle type of the vehicle to be recognized. The case where the vehicle functions as the vehicle type identification means is described.
Here, in the present application, the vehicle type information is obtained as the vehicle information of the other vehicle from the inherent relationship between the arrangement of the light sources in the vehicle lamp and the vehicle type, which makes image recognition relatively easy. As described above, the arrangement of the light sources in the vehicle lamp (in the image, the arrangement of the bright spots in the vehicle lamp) is recognized with relatively high reliability, and the vehicle type can be identified. In the case where the vehicle is present, vehicle information such as the presence of the vehicle, the distance between the vehicle and the vehicle, and how the vehicle is moving is substantially captured. Therefore, such vehicle information may be used for generating guidance information in the navigation device.

(2)上記の実施の形態にあっては、車種の識別にあたって、車両の輪郭、車両ランプの形状、車両ランプ内の光源(輝点)の配列の順に識別処理を実行するものとしたが、当然、車両ランプ内の光源(輝点)の配列を単独で使用する、車両ランプ内の光源(輝点)の配列と、車両の輪郭若しくは車両ランプの形状との何れか一方、又は両方を識別要素としてもよい。さらに、組み合わせて識別要素とする場合は、2者若しくは3者の関係を使用できれば識別はさらに、その信頼性を高めることができる。また、識別処理における3者の順を先に説明した実施形態に対して逆にしてもよい
(3)上記の実施の形態にあっては、二つ備えられる撮像装置の一方を、識別対象とする車両画像の取り込み用に使用したが、撮像の対象は、前方に限られるものではなく、後方、さらには側方であってもよい。即ち、興味が持たれた車両の画像情報を取り込めればよい。
(2) In the above embodiment, in identifying the vehicle type, the identification process is executed in the order of the contour of the vehicle, the shape of the vehicle lamp, and the arrangement of the light sources (bright spots) in the vehicle lamp. Naturally, the arrangement of the light sources (bright spots) in the vehicle lamp is used alone, and the light source (bright spots) arrangement in the vehicle lamp and / or the vehicle contour or the shape of the vehicle lamp are identified. It may be an element. Further, in the case of using the combination of identification elements as an identification element, if the relationship between two or three parties can be used, the identification can further increase the reliability. In addition, the order of the three parties in the identification process may be reversed with respect to the embodiment described above. (3) In the above embodiment, one of the two imaging devices provided as an identification target. However, the object to be imaged is not limited to the front, but may be the rear or even the side. That is, it is only necessary to capture image information of the vehicle in which the user is interested.

夜間走行時にも前方車両がブレーキ操作を行った場合、その前方車両を的確に画像認識手法により認識でき、さらに、前方車両の車種を的確に識別することができる技術を提供することができた。   In the case where the front vehicle performs a brake operation even during night driving, it is possible to provide a technology that can accurately recognize the front vehicle by an image recognition method and further accurately identify the vehicle type of the front vehicle.

本発明の実施形態に係るナビゲーション装置の概略構成を示すブロック図The block diagram which shows schematic structure of the navigation apparatus which concerns on embodiment of this invention. 地図データベースに記憶されている地図情報の構成の例を示す図The figure which shows the example of a structure of the map information memorize | stored in the map database 地物データベースに記憶されている道路標示の地物情報の例を示す図The figure which shows the example of the feature information of the road marking memorize | stored in the feature database 自車両への撮像装置(バックカメラ及びフロントカメラ)の配列構成の一例を示す図The figure which shows an example of the arrangement structure of the imaging device (back camera and front camera) to the own vehicle 車両データベースに記憶されている車両情報の例を示す図The figure which shows the example of the vehicle information memorize | stored in the vehicle database 本発明の実施形態に係るナビゲーション装置の自車位置情報補正のフローチャートFlowchart of correction of own vehicle position information of navigation device according to embodiment of present invention 本発明の実施形態に係るナビゲーション装置の自車位置情報補正の説明図Explanatory drawing of the own vehicle position information correction | amendment of the navigation apparatus which concerns on embodiment of this invention 本発明の実施形態に係るナビゲーション装置の車種識別処理のフローチャートThe flowchart of the vehicle type identification process of the navigation apparatus which concerns on embodiment of this invention 本発明の実施形態に係るナビゲーション装置の紹介処理のフローチャートThe flowchart of the introduction process of the navigation device according to the embodiment of the present invention.

符号の説明Explanation of symbols

1:ナビゲーション装置
12:画像情報取得部(画像情報取得手段)
16:自車位置情報取得部(自車位置情報取得手段)
17:地物情報取得部
18:画像認識部(他車画像抽出手段:車両情報取得手段(車種識別手段))
19:自車位置情報補正部(自車位置情報補正手段)
23:アプリケーションプログラム
24:案内情報出力手段
30:紹介演算部(紹介出力手段)
50:自車両
DB1:地図データベース
DB2:地物データベース
DB3:車両データベース
E:認識領域
F:地物情報
G1:画像情報
G2:画像情報
k:リンク
n:ノード
1: Navigation device 12: Image information acquisition unit (image information acquisition means)
16: Own vehicle position information acquisition unit (own vehicle position information acquisition means)
17: Feature information acquisition unit 18: Image recognition unit (other vehicle image extraction means: vehicle information acquisition means (vehicle type identification means))
19: Own vehicle position information correction unit (own vehicle position information correction means)
23: Application program 24: Guidance information output means 30: Introduction calculation section (introduction output means)
50: Own vehicle DB1: Map database DB2: Feature database DB3: Vehicle database E: Recognition area F: Feature information G1: Image information G2: Image information k: Link n: Node

Claims (10)

自車両の周辺の画像情報を取得する画像情報取得手段と、
前記画像情報取得手段により取得された画像情報から、自車両の周辺に存する他車両の画像を抽出する他車両画像抽出手段と、
前記他車両画像抽出手段により抽出された画像から当該他車両の車両ランプ内に備えられて点灯状態にある光源の配列を輝点の配列として画像認識するとともに、当該画像認識された車両ランプ内における光源の配列に基づいて他車両の車両情報を得る車両情報取得手段を備え、
前記車両情報取得手段により得られた車両情報を出力する画像認識装置。
Image information acquisition means for acquiring image information around the host vehicle;
From the image information acquired by the image information acquisition unit, and the other vehicle image extracting means for extracting an image of another vehicle that exists around the own vehicle,
The other from the vehicle image extracting unit image extracted by addition to image recognition sequence of the other vehicle in the vehicle lamp Ru lighting state near provided in the light source as an array of bright spots, the image recognized vehicle the lamp Vehicle information acquisition means for obtaining vehicle information of other vehicles based on the arrangement of light sources in
An image recognition apparatus for outputting vehicle information obtained by the vehicle information acquisition means.
前記車両情報取得手段が、前記他車両画像抽出手段により抽出された画像から当該他車両の車両ランプを画像認識するとともに、当該画像認識された車両ランプの形状に基づいて他車両の車両情報を得る請求項1記載の画像認識装置。   The vehicle information acquisition means recognizes the vehicle lamp of the other vehicle from the image extracted by the other vehicle image extraction means, and obtains vehicle information of the other vehicle based on the shape of the vehicle lamp recognized as the image. The image recognition apparatus according to claim 1. 前記車両情報取得手段が、前記画像認識された車両ランプ内における光源の配列と車両ランプの形状との関係に基づいても他車両の車両情報を得る請求項2記載の画像認識装置。   The image recognition apparatus according to claim 2, wherein the vehicle information acquisition unit obtains vehicle information of another vehicle based on a relationship between an array of light sources in the vehicle lamp recognized as the image and a shape of the vehicle lamp. 前記車両情報取得手段が、前記他車両画像抽出手段により抽出された画像から当該他車両の輪郭を画像認識するとともに、当該画像認識された輪郭に基づいて他車両の車両情報を得る請求項1記載の画像認識装置。   2. The vehicle information acquisition unit recognizes the contour of the other vehicle from the image extracted by the other vehicle image extraction unit, and obtains vehicle information of the other vehicle based on the image-recognized contour. Image recognition device. 前記車両情報取得手段が、前記画像認識された車両ランプ内における光源の配列と他車両の輪郭との関係に基づいても他車両の車両情報を得る請求項4記載の画像認識装置。   The image recognition apparatus according to claim 4, wherein the vehicle information acquisition unit obtains vehicle information of another vehicle based on a relationship between an array of light sources in the vehicle lamp that has been image-recognized and a contour of the other vehicle. 前記車両情報取得手段が、前記他車両の車種を識別する車種識別手段として構成され、前記車種識別手段の識別結果を出力する請求項1〜5の何れか一項記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the vehicle information acquisition unit is configured as a vehicle type identification unit that identifies a vehicle type of the other vehicle, and outputs an identification result of the vehicle type identification unit. 請求項1〜6の何れか一項記載の画像認識装置を備え、
自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、
前記自車位置情報取得手段により取得される自車位置情報に基づいて道路案内を行うナビゲーション装置。
The image recognition apparatus according to any one of claims 1 to 6, comprising:
Own vehicle position information acquisition means for acquiring own vehicle position information representing the current position of the own vehicle;
A navigation device that provides road guidance based on the vehicle position information acquired by the vehicle position information acquisition means.
前記画像認識装置により出力される識別された車種に関する車種紹介情報を紹介する紹介出力手段を備えた請求項7記載のナビゲーション装置。   The navigation apparatus according to claim 7, further comprising an introduction output unit that introduces vehicle type introduction information related to the identified vehicle type output by the image recognition device. 前記紹介出力手段が、車種に関して、当該車種の名称、コンセプト、トピック、グレード、価格、当該車種を紹介する通信ネットワーク上のアドレス情報、当該車種を販売するディーラーに関する情報から選択される一種以上を紹介可能に構成されている請求項8記載のナビゲーション装置。   The introduction output means introduces one or more types selected from the name, concept, topic, grade, price, address information on the communication network that introduces the vehicle type, and information on the dealer that sells the vehicle type. The navigation device according to claim 8, which is configured to be possible. 自車両の周辺の画像情報を取得する画像情報取得工程と、
前記画像情報取得工程で取得された画像情報から、自車両の周辺に存する他車両の画像を抽出する他車両画像抽出工程と、
前記他車両画像抽出工程で抽出された画像から当該他車両の車両ランプ内に備えられて点灯状態にある光源の配列を輝点の配列として画像認識するとともに、当該画像認識された車両ランプ内における光源の配列に基づいて他車両の車両情報を得る車両情報取得工程と、
前記車両情報取得工程で得られた車両情報を出力する出力工程をコンピュータに格納されて実行する画像認識用プログラム。
An image information acquisition step of acquiring image information around the host vehicle;
From image information acquired by the image information acquisition step, and another vehicle image extraction step of extracting an image of another vehicle that exists around the own vehicle,
The other from a vehicle image extracting step with the extracted image while image recognition sequence of the other vehicle in the vehicle lamp Ru lighting state near provided in the light source as an array of bright spots, the image recognized vehicle the lamp Vehicle information acquisition step of obtaining vehicle information of other vehicles based on the arrangement of light sources in
An image recognition program for storing and executing an output step of outputting vehicle information obtained in the vehicle information acquisition step in a computer.
JP2007226821A 2007-08-31 2007-08-31 Image recognition device and navigation device Expired - Fee Related JP4895126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007226821A JP4895126B2 (en) 2007-08-31 2007-08-31 Image recognition device and navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007226821A JP4895126B2 (en) 2007-08-31 2007-08-31 Image recognition device and navigation device

Publications (2)

Publication Number Publication Date
JP2009058432A JP2009058432A (en) 2009-03-19
JP4895126B2 true JP4895126B2 (en) 2012-03-14

Family

ID=40554293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007226821A Expired - Fee Related JP4895126B2 (en) 2007-08-31 2007-08-31 Image recognition device and navigation device

Country Status (1)

Country Link
JP (1) JP4895126B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11390276B2 (en) 2017-05-15 2022-07-19 Canon Kabushiki Kaisha Control device, control method, and non-transitory storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580566A (en) * 2020-12-25 2021-03-30 广汽乘用车有限公司 Vehicle type identification method and electrophoresis process vehicle type matching method and system thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3959537B2 (en) * 1998-01-28 2007-08-15 三菱電機株式会社 Vehicle type identification device
JPH11353580A (en) * 1998-06-09 1999-12-24 Anritsu Corp Method and device for discriminating kind of vehicle at night
JP2006079600A (en) * 2001-02-15 2006-03-23 Hitachi Ltd Vehicle management method
JP2005209177A (en) * 2003-12-25 2005-08-04 Fujitsu Ltd Vehicle retrieval system and vehicle retrieval method
JP4249037B2 (en) * 2004-01-06 2009-04-02 アルパイン株式会社 Peripheral vehicle display device, navigation device, and vehicle display method
JP4326992B2 (en) * 2004-03-17 2009-09-09 アルパイン株式会社 Peripheral vehicle identification method and driving support system using the same
JP4259365B2 (en) * 2004-03-25 2009-04-30 トヨタ自動車株式会社 Image recognition apparatus and image recognition method
JP2006244331A (en) * 2005-03-07 2006-09-14 Nissan Motor Co Ltd Night-traveling supporting device and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11390276B2 (en) 2017-05-15 2022-07-19 Canon Kabushiki Kaisha Control device, control method, and non-transitory storage medium

Also Published As

Publication number Publication date
JP2009058432A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
US10527450B2 (en) Apparatus and method transitioning between driving states during navigation for highly automated vechicle
JP4886597B2 (en) Lane determination device, lane determination method, and navigation device using the same
JP4703605B2 (en) Feature extraction method, image recognition method and feature database creation method using the same
US20080243382A1 (en) Crossroad guide method in a navigation system
CN109426256A (en) The lane auxiliary system based on driver intention of automatic driving vehicle
US9726512B2 (en) Method for operating a navigation system, navigation system and motor vehicle
JP2008197905A (en) Unit and method for deciding lane
CN110196056B (en) Method and navigation device for generating a road map for automatic driving vehicle navigation and decision-making
JP2008249480A (en) Image recognition device and image recognition method
JP4953012B2 (en) Image recognition device, program for image recognition device, navigation device using the same, and program for navigation device
JPWO2007037281A1 (en) Peripheral search data creation system, peripheral search system, peripheral search data creation method, peripheral search method, and navigation device
JP2011145756A (en) Traveling support system and method
JP6386300B2 (en) Vehicle position specifying device and driving support device
JP2009099125A (en) Image recognition device, image recognition program, and point information collection device and navigation device using them
JP4936070B2 (en) Navigation device and navigation program
JP2006275721A (en) Route guide system and route guide method
JP2007127416A (en) System and method for route guidance
JP4895126B2 (en) Image recognition device and navigation device
JP2009015504A (en) Traffic restriction position detection device, traffic restriction position detection method and computer program
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP7207045B2 (en) Server device and information processing method
JP5071737B2 (en) Lane determination device, lane determination program, and navigation device using the same
JP3908423B2 (en) Navigation device
JP2009063562A (en) Information guidance system and program
JP2009058431A (en) Navigation apparatus and navigation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees