JP2011090681A - Image recognition device and method, and navigation apparatus - Google Patents

Image recognition device and method, and navigation apparatus Download PDF

Info

Publication number
JP2011090681A
JP2011090681A JP2010238452A JP2010238452A JP2011090681A JP 2011090681 A JP2011090681 A JP 2011090681A JP 2010238452 A JP2010238452 A JP 2010238452A JP 2010238452 A JP2010238452 A JP 2010238452A JP 2011090681 A JP2011090681 A JP 2011090681A
Authority
JP
Japan
Prior art keywords
recognition
image
point
image recognition
failure point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010238452A
Other languages
Japanese (ja)
Other versions
JP4912495B2 (en
Inventor
Takayuki Miyajima
孝幸 宮島
Masaki Nakamura
正樹 中村
Motohiro Nakamura
元裕 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2010238452A priority Critical patent/JP4912495B2/en
Publication of JP2011090681A publication Critical patent/JP2011090681A/en
Application granted granted Critical
Publication of JP4912495B2 publication Critical patent/JP4912495B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition device that can execute image processing with a rational processing load if a travel road includes a point where an event as an obstacle for the image processing is likely to occur relatively frequently. <P>SOLUTION: The image recognition device, which is configured to be mountable on a traveling body traveling on travel roads R and which includes an image recognition means for image-recognizing objects 3 to be recognized existing on the travel roads R from an imaged image i1 picked up by an imaging means according to predetermined recognition logic, includes a recognition processing changing means for changing the recognition processing by the image recognition means between recognition obstacle points O that are points where an obstacle making image recognition difficult is likely to occur and points N other than the recognition obstacle points. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、走行路上を走行する走行体に装備可能に構成され、
撮像手段により撮像された撮像画像から前記走行路に存する認識対象を所定の認識ロジックに従って画像認識する画像認識手段を備えた画像認識装置に関するとともに、その装置で使用する画像認識方法に関する。
The present invention is configured to be equipped with a traveling body traveling on a traveling road,
The present invention relates to an image recognition apparatus provided with an image recognition means for recognizing a recognition target existing on the travel path from a captured image picked up by an image pickup means in accordance with a predetermined recognition logic, and to an image recognition method used in the apparatus.

従来、ナビゲーション装置に搭載される画像認識装置として、様々な構成の画像認識装置が提案されている。この種の画像認識装置にあっては、例えば、走行路に沿ってひかれている白線レーンマークの認識が重要なテーマである。
特許文献1には、撮像画像に対する画像処理として、エッジ抽出処理、ペアリングによるレーンマーク候補の抽出処理、ハフ変換処理、レーンマーク近傍のエッジ点抽出処理を行うことが開示されている。
Conventionally, image recognition devices having various configurations have been proposed as image recognition devices mounted on navigation devices. In this type of image recognition device, for example, the recognition of a white line lane mark drawn along the traveling path is an important theme.
Japanese Patent Application Laid-Open No. 2004-133260 discloses performing an edge extraction process, a lane mark candidate extraction process by pairing, a Hough conversion process, and an edge point extraction process in the vicinity of a lane mark as image processing on a captured image.

この文献に開示の技術では、上記の手法で抽出されるエッジ点を画像座標系から俯瞰座標系に変換し、俯瞰座標系に変換されたエッジ点を最小2乗法を用いて3次曲線に近似し、白線レーンマークを3次多項式の関数として出力することにより、遠方の白線レーンマークをも曲線関数にて推定できるものとしている。結果、画像上の直線部分よりも遠方にある区画線(白線レーンマーク)を精度良く検出することができる。   In the technique disclosed in this document, the edge point extracted by the above method is converted from the image coordinate system to the overhead coordinate system, and the edge point converted to the overhead coordinate system is approximated to a cubic curve using the least square method. By outputting the white line lane mark as a function of a cubic polynomial, the far white line lane mark can be estimated by a curve function. As a result, it is possible to accurately detect a partition line (white line lane mark) farther than the straight line portion on the image.

この種の画像処理は、一般に走行路上に画像処理に対する障害物が無い状態で、その処理を良好に行うべく工夫される。   This type of image processing is generally devised to perform the processing satisfactorily in a state where there is no obstacle to the image processing on the traveling road.

特開平9−218937号公報(特許請求の範囲、図2)JP-A-9-218937 (Claims, FIG. 2)

しかしながら、走行路上に画像処理上の障害体がないことはまれである。
上記の白線レーンマークに例を取ると、画像処理の対象となる地点において不法駐車が頻繁に発生しており、実際上、白線レーンマークを車載カメラから撮像した場合に、切れ切れにしか撮像されない場合がある。一方、農道のように路側での駐車車両が少ない場合、さらには、高速道のように、駐車車両が殆ど存在しない場合もある。
However, it is rare that there are no obstacles in image processing on the road.
Taking the above white line lane mark as an example, illegal parking frequently occurs at points subject to image processing, and in fact, when the white line lane mark is imaged from the in-vehicle camera, it is captured only as a piece There is. On the other hand, when there are few parked vehicles on the roadside like farm roads, there are also cases where almost no parked vehicles exist like highways.

このように、画像認識装置は、様々な状況に関して適切な画像処理を行う必要が生じるが、従来、不法駐車が多く白線レーンマークが断裂線としてしか撮像できない状況の画像処理に関しては、実際上、画像処理不可として処理している。   As described above, the image recognition apparatus needs to perform appropriate image processing for various situations, but conventionally, regarding image processing in a situation where illegal parking is often performed and the white line lane mark can only be captured as a tear line, in practice, It is processed as image processing impossible.

画像処理手法上、例えば、多くの不法駐車が認められる地点の撮像画像に対して、白線レーンマークの抽出処理を行おうとすると、図8(イ)(ロ)(ハ)に示すように、先ず、車に関する画像部を抽出するとともに、この画像部を撮像画像から消去し、断裂線として現れている白線レーンマーク部位を順次抜き出し、その部位が白線レーンマークに関係する画像部位であると認識するとともに、その断裂部を接続して、一本の白線レーンマークとして認識する必要が生じる。   In the image processing method, for example, when an extraction process of a white line lane mark is performed on a captured image of a point where illegal parking is permitted, as shown in FIGS. 8 (A), (B), and (C), first, Extracting the image portion related to the car, deleting the image portion from the captured image, sequentially extracting the white line lane mark portion appearing as a tear line, and recognizing that the portion is an image portion related to the white line lane mark At the same time, it is necessary to connect the broken portion and recognize it as a single white line lane mark.

しかしながら、このような処理は、例えば、高速道における白線レーンマークの認識処理と比較すると、遥かに高負荷な処理であり、このような処理手法を常時採用することはできない。   However, such processing is far more expensive than, for example, white line lane mark recognition processing on a highway, and such a processing method cannot always be employed.

本発明の目的は、走行路中に画像処理に関して、その処理上障害となる事象が比較的頻繁に発生することがある地点が含まれている場合に、合理的な処理負荷で画像処理を実行することができる画像認識装置を得るとともに、その処理を行える画像処理方法を得ることにある。   An object of the present invention is to execute image processing with a reasonable processing load when a point where an event that causes processing problems occurs relatively frequently is included in the traveling road. An image recognition apparatus capable of performing the processing and an image processing method capable of performing the processing are obtained.

上記目的を達成するための、走行路上を走行する走行体に装備可能に構成され、
撮像手段により撮像された撮像画像から前記走行路に存する認識対象を所定の認識ロジックに従って画像認識する画像認識手段を備えた画像認識装置の特徴構成は、
前記画像認識を困難とする障害発生の可能性が高い地点である認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理が異ならせる認識処理変更手段を備えることにある。
In order to achieve the above-mentioned purpose, it is configured so that it can be equipped on a traveling body traveling on a traveling road,
The characteristic configuration of the image recognition apparatus provided with the image recognition means for recognizing the recognition target existing on the travel path from the captured image captured by the imaging means according to a predetermined recognition logic is as follows:
It is provided with a recognition process changing means for making the recognition process in the image recognition means different between a recognition failure point that is a point where the possibility of occurrence of a failure that makes image recognition difficult is high and a point other than the recognition failure point. .

この画像認識装置では、走行路上を走行する走行体に対して、
撮像手段により撮像された撮像画像から前記走行路に存する認識対象を所定の認識ロジックに従って画像認識する画像認識方法の特徴手段は、
前記画像認識を困難とする障害発生の可能性が高い地点である認識障害地点と前記認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理を異ならせて画像認識を行うものとされていることとなる。
In this image recognition device, for a traveling body traveling on a traveling road,
Characteristic means of the image recognition method for recognizing a recognition target existing on the travel path from a captured image captured by the imaging means according to a predetermined recognition logic,
Image recognition is performed by different recognition processing in the image recognition means at a recognition failure point that is a highly likely failure occurrence point that makes the image recognition difficult, a recognition failure point, and a point other than the recognition failure point. It is supposed to be done.

本願に係る画像認識手法では、認識障害地点とそれ以外の地点とで、認識処理を異ならせる。即ち、障害発生の可能性が高く画像認識が困難となる地点では、その地点に適した画像処理手法を採用し、それ以外の地点では、例えば、比較的容易な画像認識手法を採用するのである。この構成を、先に課題の例で示した場合に関して説明すると、不法駐車が比較的頻繁に発生している地点と、高速道路等の不法駐車がほとんどない地点とで、白線レーンマークの認識処理を異ならせることとなる。結果、その地点、地点の認識負荷に応じた対応が可能となり、結果的に合理的な処理負荷で、画像認識装置に要求される性能を満たすことができる。   In the image recognition method according to the present application, the recognition process is made different between the recognition failure point and the other points. In other words, an image processing method suitable for the point is adopted at a point where the possibility of failure is high and image recognition is difficult, and a relatively easy image recognition method is adopted at other points, for example. . This configuration will be described with respect to the case shown in the example of the problem earlier. White line lane mark recognition processing at a point where illegal parking occurs relatively frequently and a point where there is almost no illegal parking such as an expressway. Will be different. As a result, it is possible to cope with the point and the recognition load of the point, and as a result, the performance required for the image recognition apparatus can be satisfied with a reasonable processing load.

さて、認識障害地点とそれ以外の地点との識別に関しては、以下の手法に従って行うことができる。
即ち、画像認識装置に、前記走行路上の地点における前記画像認識手段による画像認識の困難性を判定する認識困難性判定手段を備え、
前記走行路上の地点における、前記認識困難性判定手段による認識困難性判定の統計的結果に基づいて、当該走行路上の地点が前記認識障害地点に該当するか否かを決定する認識障害地点決定手段を備える。
この装置にあっては、認識困難性判定手段が、走行路上の地点における画像認識の困難性を判定する。そして、認識障害地点決定手段が、この認識困難性判定手段による認識困難性判定の統計的結果に基づいて、当該地点が認識障害地点に該当するか否かを判定する。
Now, the recognition failure point and other points can be identified according to the following method.
That is, the image recognition apparatus includes a recognition difficulty determination unit that determines difficulty of image recognition by the image recognition unit at a point on the travel path.
A recognition failure point determination unit that determines whether or not a point on the travel route corresponds to the recognition failure point based on a statistical result of recognition difficulty determination by the recognition difficulty determination unit at a point on the travel route. Is provided.
In this apparatus, the recognition difficulty determination means determines the difficulty of image recognition at a point on the travel path. Then, the recognition failure point determination unit determines whether or not the point corresponds to a recognition failure point based on the statistical result of the recognition difficulty determination by the recognition difficulty determination unit.

即ち、走行路中の地点に関して、画像処理が困難と判定される状況が統計的に多い地点を認識障害地点とするのである。結果、この画像認識装置にあっては、画像処理に関する困難性を地点、地点で学習することとなり、障害事象が発生しやすく、比較的困難な画像処理が必要となる地点については、その地点で必要となる画像処理を実行することで、処理負荷の適正化を実現できる。   That is, regarding a point on the traveling road, a point where the situation where image processing is determined to be difficult is statistically high is set as a recognition failure point. As a result, in this image recognition apparatus, the difficulty related to image processing is learned at each point, and a point where a trouble event is likely to occur and relatively difficult image processing is required is determined at that point. By executing the necessary image processing, it is possible to realize an appropriate processing load.

この構成の画像認識装置にあっては、その画像処理方法としては、過去に走行路上を走行し画像認識を実行した結果から、その画像処理の困難性に基づいて認識障害地点と認識障害地点以外の地点とを識別することとなる。   In the image recognition apparatus having this configuration, the image processing method is based on the result of running on the road and executing image recognition in the past. Will be identified.

さて、これまで説明してきた画像認識装置において、
前記認識困難性判定手段が画像認識可能か否かの可否判定を行い、
前記認識困難性判定の統計的結果が、前記可否判定における可能若しくは不可に関する統計的確率結果であることが好ましい。
Now, in the image recognition apparatus described so far,
Whether or not the recognition difficulty determination means can recognize an image;
It is preferable that the statistical result of the recognition difficulty determination is a statistical probability result regarding possibility or impossibility in the determination of availability.

この構成にあっては、認識困難性判定手段は、認識ができたか否かの可否判定を実行し、地点、地点において、その判定の統計的確率を求める。即ち、走行体が特定の地点を通過する毎に、その地点における認識困難性判定結果を、最も簡易な可否状態で判定しておき、その統計を取っておく。そして、例えば、不可とされる統計的確率が高い地点を認識障害地点とするのである。
このようにすることで、認識困難性に関する経験情報を最も簡易且つ合理的な手法で実効的に、本願の目的を達成することができる。
In this configuration, the recognition difficulty determination unit determines whether or not the recognition is possible, and obtains a statistical probability of the determination at each point. That is, every time the traveling body passes a specific point, the recognition difficulty determination result at that point is determined in the simplest availability state, and the statistics are collected. Then, for example, a point with a high statistical probability of being disabled is set as a recognition failure point.
By doing in this way, the objective information of this application can be achieved effectively by the simplest and rational method of the experience information regarding recognition difficulty.

さらに、これまで説明してきた画像認識装置の装置構成として、
前記認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理を異ならせるに、同一の認識ロジックを採用し、その認識レベルとして、少なくとも第一認識レベルと、前記第一認識レベルより高い認識能を有する第二認識レベルと間で認識処理を異ならせることが好ましい。
Furthermore, as an apparatus configuration of the image recognition apparatus described so far,
In order to make the recognition process in the image recognition means different between the recognition failure point and a point other than the recognition failure point, the same recognition logic is adopted, and the recognition level is at least the first recognition level, the first recognition level, It is preferable to make the recognition process different from the second recognition level having a recognition ability higher than the recognition level.

認識処理における認識ロジックとしては共通のものを採用し、その認識能において異なる第一認識レベルと第二認識レベルとを用意しておくことで、認識処理を共通化された同一の認識ロジックに従うものとしながら、その認識レベルの変更操作だけで、本願の処理が可能となり、限定された認識ロジックを有効利用しながら、本願目的を達成することができる。   A common recognition logic is used in the recognition process, and the first recognition level and the second recognition level, which differ in recognition ability, are prepared, and the recognition process follows the same recognition logic. However, the processing of the present application can be performed only by changing the recognition level, and the object of the present application can be achieved while effectively using the limited recognition logic.

この場合、認識障害地点においては第二認識レベルでの認識処理を実行し、認識障害地点以外の地点においては第一認識レベルでの認識処理を実行することとなる。   In this case, recognition processing at the second recognition level is executed at the recognition failure point, and recognition processing at the first recognition level is executed at points other than the recognition failure point.

これまで説明してきた画像認識装置における、走行路に存する認識対象としては、走行路上のレーンマークが対象となる。この種のレーンマークとしては、白線レーンマーク、破線レーンマーク、センター線、二重線、ゼブラゾーン等がある。
さらに、発生する障害としては、走行路上に一時的に位置される障害体が対象となる。この種の障害体としては、路側に駐車中の車両、秋季もしくは冬季には街路樹からの落ち葉、予告看板等がある。
In the image recognition apparatus described so far, the lane mark on the road is the target of recognition on the road. Examples of this type of lane mark include a white line lane mark, a broken line lane mark, a center line, a double line, and a zebra zone.
Further, the obstacles that occur are the obstacles temporarily located on the road. Such obstacles include vehicles parked on the roadside, fallen leaves from roadside trees in the fall or winter, and notice signs.

さて、画像認識装置を構成するに、走行体の走行地点を決定する走行地点決定手段からの走行地点情報に基づいて、地図上での認識障害地点を決定する認識障害地点決定手段を備えることが好ましい。
このように構成しておくと、地図ベースで、認識障害地点及びそれ以外の地点を識別可能となり、地図上の任意地点に関する識別情報をえて、以降の画像処理に役立たせることができる。
Now, the image recognition apparatus is configured to include a recognition failure point determination unit that determines a recognition failure point on the map based on the travel point information from the travel point determination unit that determines the travel point of the traveling body. preferable.
With this configuration, it is possible to identify a recognition failure point and other points on a map basis, and to obtain identification information regarding an arbitrary point on the map, which can be used for subsequent image processing.

さて、これまで説明してきた画像認識装置は、これがナビゲーション装置に組み込まれて使用され、地図ベースでの認識障害地点とそれ以外の地点との情報を得て、ナビゲーション装置で必要となる走行路認識(例えば、走行路が直進路かカーブか、走行路が交差点、分岐点に到達しているか否か等)、走行状態認識(例えば、自車が走行路のレーンに沿って走行しているか否か、どの走行レーンを走行しているか等)の認識を良好なものとすることができる。   Now, the image recognition apparatus described so far is used by being incorporated in a navigation apparatus, and obtains information on a map-based recognition failure point and other points to recognize a travel path required by the navigation apparatus. (For example, whether the travel path is a straight path or a curve, whether the travel path has reached an intersection or a branch point, etc.), travel state recognition (for example, whether the vehicle is traveling along the lane of the travel path) Or which driving lane the vehicle is traveling on).

本願発明に係る認識障害地点の形成状況及び当該地点を走行する走行体に備えられる車載カメラの撮像画像を示す図The figure which shows the picked-up image of the vehicle-mounted camera with which the formation condition of the recognition failure point which concerns on this invention and the traveling body which drive | works the said point are equipped 認識障害地点データベースの内容を示す説明図Explanatory diagram showing the contents of the recognition failure point database 本願発明に係る画像認識装置を備えたナビゲーション装置の構成概略を示すブロック図The block diagram which shows the outline of a structure of the navigation apparatus provided with the image recognition apparatus which concerns on this invention. 認識障害地点登録の処理フローを示す図The figure which shows the processing flow of recognition failure point registration 画像認識処理の処理フローを示す図The figure which shows the processing flow of image recognition processing 認識障害が無い場合の入力画像を示す図The figure which shows the input image when there is no recognition obstacle 認識障害地点以外の地点における画像処理手順を示す図The figure which shows the image processing procedure in the point other than the recognition obstacle point 認識障害地点における画像処理手順を示す図The figure which shows the image processing procedure in the recognition obstacle point

本願に係る画像認識装置を、これを搭載したナビゲーション装置100を例に採って説明する。   An image recognition apparatus according to the present application will be described by taking a navigation apparatus 100 equipped with the image recognition apparatus as an example.

図1は、本願に係る画像認識装置101が好適に使用される道路網を示すとともに、本願が問題とする認識障害地点Oの状態を示したものである。図上、吹き出し内には、走行体である自車に装備される車載カメラ2から、自車の前方を撮像した撮像画像i1を示した。同図には、認識障害地点Oにあっては、不法駐車が比較的頻繁に発生し、白線レーンマーク3の画像認識が、比較的困難な状況にあることを示している。   FIG. 1 shows a road network in which the image recognition apparatus 101 according to the present application is preferably used, and shows a state of a recognition failure point O which is a problem of the present application. In the figure, in the balloon, a captured image i1 obtained by capturing the front of the host vehicle from the in-vehicle camera 2 mounted on the host vehicle as the traveling body is shown. In the figure, it is shown that illegal parking occurs relatively frequently at the recognition failure point O, and the image recognition of the white line lane mark 3 is relatively difficult.

本願にあっては、上記のような画像認識の障害となる障害の発生率が比較的高い地点(上記図1に示す認識障害地点Oは、その一例である)と、それ以外の地点Nとにおいて、認識処理を変更することで、画像認識負荷が低く、迅速な画像処理を実行するように、画像認識装置101が構成されている。   In the present application, the point where the occurrence rate of the obstacles that cause the image recognition as described above is relatively high (the recognition obstacle point O shown in FIG. 1 is an example thereof), and the other points N and The image recognition apparatus 101 is configured to execute a quick image process with a low image recognition load by changing the recognition process.

さらに、本願装置にあっては後述するように、画像認識装置101を継続的に使用しながら走行を行うことで、画像認識装置101内で自ら画像認識の可否を判定し、その画像認識が行えなかった地点を逐次記憶するとともに、その地点を通過する度毎に画像認識の可否を求め、その地点における画像認識の可否結果を統計的に処理することで、その地点における認識障害の発生の可能性を評価できるように構成している。   Further, as will be described later, the device of the present application determines whether or not image recognition is possible within the image recognition device 101 by running while continuously using the image recognition device 101, and the image recognition can be performed. It is possible to generate a recognition failure at each point by storing the points that did not exist one after another and determining whether image recognition is possible each time the point is passed and statistically processing the image recognition result at that point. It is configured so that sex can be evaluated.

また、その評価を継続的に行い、実際に認識障害地点Oとすべき地点の識別・登録を自動的に進め、最終的には、自車が走行した経験のある地点で少なくとも一回、画像認識不可が発生した地点毎に、本願にいう認識障害地点Oか否かを識別できる認識障害地点データベースDBoを生成する。この認識障害地点データベースDBoの構成例を図2に示した。   In addition, the evaluation is continuously performed, and the identification / registration of the point that should actually be recognized as the recognition failure point O is automatically advanced, and finally, at least once at the point where the vehicle has traveled. A recognition failure point database DBo that can identify whether or not it is a recognition failure point O as referred to in the present application is generated for each point where recognition is not possible. A configuration example of this recognition failure point database DBo is shown in FIG.

以下、図3に基づいて、本願に係る画像認識装置101を搭載したナビゲーション装置100の構成に関して説明する。
図3は、本願に係るナビゲーション装置100の構成の概略を示したブロック図である。
Hereinafter, the configuration of the navigation device 100 equipped with the image recognition device 101 according to the present application will be described with reference to FIG.
FIG. 3 is a block diagram showing an outline of the configuration of the navigation device 100 according to the present application.

同図に示すように、ナビゲーション装置100は、装置本体としての演算処理装置4に対して、その周辺機器としての現在位置検知装置5、情報記憶装置6、表示入力装置7、リモコン入力装置8、リモコン受信機9及びVICS受信機10を備えて構成される。   As shown in the figure, the navigation device 100 has a current position detection device 5, an information storage device 6, a display input device 7, a remote control input device 8 as peripheral devices for the arithmetic processing device 4 as the device body, A remote control receiver 9 and a VICS receiver 10 are provided.

前記現在位置検知装置5は、ここでは、GPS受信機5a、方位検知センサ5b、及び距離検知センサ5cを備えて構成される。
GPS受信機5aは、人工衛星からの信号を受信する装置であり、信号の発信時刻、GPS受信機5aの位置情報、GPS受信機5aの移動速度、GPS受信機5aの進行方向など様々な情報を得ることができる。
Here, the current position detection device 5 includes a GPS receiver 5a, an orientation detection sensor 5b, and a distance detection sensor 5c.
The GPS receiver 5a is a device that receives a signal from an artificial satellite and has various information such as a signal transmission time, position information of the GPS receiver 5a, a moving speed of the GPS receiver 5a, and a traveling direction of the GPS receiver 5a. Can be obtained.

方位検知センサ5bは、地磁気センサやジャイロセンサ、或いは、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成され、車両の進行方向を検知することができる。
距離検知センサ5cは、車輪の回転数を検知するセンサや車両の加速度を検知するセンサと検知された加速度を2回積分する回路との組み合わせ等により構成され、車両の移動距離を検知することができる。
これらの機器は、演算処理装置4内に備えられる走行地点決定手段4aとともに働いて、自車の現在位置を決定する。この現在位置は、例えば、自車の東経及び北緯情報として
決定される。
The azimuth detection sensor 5b includes a geomagnetic sensor, a gyro sensor, an optical rotation sensor attached to the rotating part of the steering wheel, a rotary resistance volume, an angle sensor attached to the wheel part, etc., and detects the traveling direction of the vehicle. can do.
The distance detection sensor 5c is configured by a combination of a sensor that detects the number of rotations of the wheel, a sensor that detects the acceleration of the vehicle, and a circuit that integrates the detected acceleration twice, and can detect the moving distance of the vehicle. it can.
These devices work together with the travel point determination means 4a provided in the arithmetic processing unit 4 to determine the current position of the own vehicle. This current position is determined, for example, as east longitude and north latitude information of the own vehicle.

VICS(Vehicle Information and Communication System:登録商標)受信機10は、道路上の所定の地点に設置された信号発信機から発信された信号を受信する装置であり、VICSの光ビーコン及び電波ビーコンや、FM放送に多重されたVICS信号を受信することができる装置としている。演算処理装置4は、このVICS受信機10が受信した信号から、渋滞情報、現在位置情報、駐車場情報等の各種交通情報を取得することができる。   A VICS (Vehicle Information and Communication System: registered trademark) receiver 10 is a device that receives a signal transmitted from a signal transmitter installed at a predetermined point on a road. The apparatus can receive a VICS signal multiplexed in FM broadcast. The arithmetic processing device 4 can acquire various traffic information such as traffic jam information, current position information, and parking lot information from the signal received by the VICS receiver 10.

情報記憶装置6は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有して構成される。そして、ここでは、情報記憶装置6には、本願に係る認識障害地点データベースDBo、地図データベースDBm等が格納されている。   The information storage device 6 includes a recording medium capable of storing information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and a drive means for the recording medium. Is done. Here, the information storage device 6 stores a recognition failure point database DBo, a map database DBm, and the like according to the present application.

前記認識障害地点データベースDBoは本願発明においてキーを成すデータベースであり、画像認識装置101を使用し続けることで、装置101内で自動生成されるデータベースである。このデータベースの目的は、本願にいう認識障害地点Oの特定にある。
図2に、このデータベースDBoの構成例を示した。同図に示すように、このデータベースDBoは、その横方向に、「登録地点ro」、その登録地点roの「位置(東経・北緯)」、その登録地点roの「認識不可率」、その登録地点roが本願にいう「認識障害地点か否かの判定結果」、その登録地点roにおいて適応すべき「認識ロジック」、その登録地点roにおいて適応すべき「認識レベル」を示す各欄を備えて構成されている。
縦方向にあっては、夫々の登録地点roに関する情報であることを示している。これら登録地点roは、走行路R上の地点であって、画像認識が一度でも画像認識が不可と判定された地点を降番順に登録したものである。
The recognition failure point database DBo is a database that forms a key in the present invention, and is a database that is automatically generated in the apparatus 101 by continuing to use the image recognition apparatus 101. The purpose of this database is to identify the recognition failure point O in the present application.
FIG. 2 shows a configuration example of the database DBo. As shown in the figure, this database DBo has “registration point ro”, “position (east longitude / north latitude)” of the registration point ro, “unrecognizable rate” of the registration point ro, registration thereof, in the horizontal direction. Each column includes “determination result of whether or not the point ro is a recognition failure point”, “recognition logic” to be applied at the registered point ro, and “recognition level” to be applied at the registered point ro. It is configured.
The vertical direction indicates that the information is related to each registration point ro. These registered points ro are points on the travel route R, and are registered in descending order of points where image recognition is determined to be impossible even once.

前記「位置(東経・北緯)」欄には、登録地点roの東経及び北緯が登録される。
前記「認識不可率」欄には、登録地点roの認識不可率が記録されるのであるが、この認識不可率とは、その登録地点roを複数回走行した時点において、〔画像認識が不可と判定された回数〕/〔その登録地点を走行した回数(画像認識を行った回数)〕である。この認識不可率は、本願における統計的確率結果の一種である。
In the “position (east longitude / north latitude)” column, the east longitude and north latitude of the registration point ro are registered.
In the “recognition impossible rate” column, the recognition failure rate of the registration point ro is recorded, and this recognition failure rate means that when the vehicle travels the registration point ro a plurality of times, the image recognition is impossible. Determined number of times] / [number of times of traveling at the registration point (number of times of image recognition)]. This unrecognizable rate is a kind of statistical probability result in the present application.

この例における説明では、画像認識の認識困難性を、認識可、認識不可の2状態での判定とし、認識不可側の確率を使用するものとしているが、認識可側の確率を使用するものとしてもよい。さらに、画像認識の認識困難性を、認識の確からしさといった連続的な確率値で得る構成を採用する場合は、その認識の確からしさを示す確率値の平均値等とすることもできる。   In the description in this example, the recognition difficulty of image recognition is determined in two states of recognizable and unrecognizable, and the probability on the unrecognizable side is used, but the probability on the recognizable side is used. Also good. Furthermore, when adopting a configuration in which recognition difficulty of image recognition is obtained with continuous probability values such as the probability of recognition, an average value of probability values indicating the certainty of recognition can be used.

前記「認識障害地点か否かの判定結果」欄には、登録地点roが本願にいう認識障害地点Oに該当するか否かの判定が記載されている。表示上、認識障害地点Oを○印で示し、それ以外の地点を無印とした。この認識障害地点Oは、先に説明した認識不可率が所定の値(例えば80%)以上である地点とされる。この認識障害地点Oでは、画像認識に対する障害が頻繁に発生しており、画像認識を通常の認識ロジックで行った場合、認識が困難になることを示している。   In the “determination result whether or not it is a recognition failure point” column, a determination is made as to whether or not the registration point ro corresponds to the recognition failure point O in the present application. On the display, the recognition failure point O is indicated by a circle, and the other points are not marked. This recognition failure point O is a point where the unrecognizable rate described above is a predetermined value (for example, 80%) or more. At this recognition failure point O, there are frequent failures to image recognition, which indicates that recognition is difficult when image recognition is performed with normal recognition logic.

さて、本願では画像認識に関して、不法駐車が多い地点(認識障害地点O)と、それがない地点(認識障害地点以外の地点)とに関して説明すると、認識障害地点Oでは、車体画像候補の抽出及びその削除を伴った処理を行うとともに、白線レーンマーク3の抽出をハフ変換を利用して行うのに認識レベルの高い判定を実行するのに対して、それ以外の地点では、車体画像候補の抽出及びその削除を伴った処理を行うことなく、白線レーンマー
ク3の抽出をハフ変換を利用して行うのに認識レベルの低い通常の判定を実行する。
Now, in the present application, with respect to image recognition, a point where there are many illegal parkings (recognition failure point O) and a point where there is no illegal parking (a point other than the recognition failure point) will be described. In addition to performing the process accompanied by the deletion, the white line lane mark 3 is extracted using the Hough transform, while a determination with a high recognition level is performed. In addition, the normal determination with a low recognition level is performed to extract the white line lane mark 3 by using the Hough transform without performing the process accompanied by the deletion.

そこで、前記「認識ロジック」及び「認識レベル」欄には、登録地点roで適応すべき認識ロジック及びその中で採用する認識レベルの別が登録されている。
即ち、認識障害地点Oに関しては、車体画像候補の抽出・除去処理を追加するとともに、白線レーンマーク3が破断線となることから、認識レベルを、そのレベルが高い第二認識レベルとする。
一方、認識障害地点以外の地点では、車体画像候補の削除処理を行うことなく、認識レベルについては、認識レベルが低い通常の第一認識レベルとする。
Therefore, in the “recognition logic” and “recognition level” columns, the recognition logic to be applied at the registration point ro and the recognition level employed therein are registered.
That is, regarding the recognition failure point O, extraction / removal processing of the body image candidate is added, and the white line lane mark 3 becomes a broken line, so that the recognition level is set to a second recognition level having a high level.
On the other hand, at points other than the recognition failure point, the body level image candidate deletion process is not performed, and the recognition level is set to the normal first recognition level with a low recognition level.

地図データベースDBmは、表示入力装置7の後述する表示部7aに表示するための地図情報を記憶しているデータベースである。地図情報は、道路レイヤ、施設等の背景情報を有する背景レイヤ、市町村名など文字を表示するための文字レイヤ等を有して構成されている。   The map database DBm is a database that stores map information to be displayed on a display unit 7a described later of the display input device 7. The map information includes a road layer, a background layer having background information such as facilities, a character layer for displaying characters such as a city name, and the like.

車載カメラ2は、自車の前方の情景を撮像できるように構成されており、この車載カメラ2からの撮像画像が後述する画像認識処理部4Bに送られて画像認識の対象とされる。   The in-vehicle camera 2 is configured to be able to image a scene in front of the host vehicle, and a captured image from the in-vehicle camera 2 is sent to an image recognition processing unit 4B to be described later and subjected to image recognition.

演算処理装置4は、例えば、各種の演算処理及びナビゲーション装置100の各部の動作制御を行うCPUと、このCPUが演算処理を行う際のワーキングメモリとして使用されるRAMと、CPUを動作させるための各種の動作プログラムや制御プログラム等のソフトウェアが格納されたROM等を備える構成とすることができる。   The arithmetic processing unit 4 includes, for example, a CPU that controls various arithmetic processes and operation of each unit of the navigation device 100, a RAM that is used as a working memory when the CPU performs arithmetic processing, and a CPU for operating the CPU. It can be configured to include a ROM or the like in which software such as various operation programs and control programs is stored.

演算処理装置4は所定の目的を達成するためのソフトウェアが格納されており、ハードウェアとともに働いて一定の目的を達成するように構成されている。即ち、ソフトウェアとハードウェアとは、共働することで所定の目的を実現する処理手段を構成する。   The arithmetic processing unit 4 stores software for achieving a predetermined purpose, and is configured to work with hardware to achieve a certain purpose. That is, the software and hardware constitute a processing unit that realizes a predetermined purpose by working together.

図3に示すように、演算処理装置4は、その主な機能ブロックとして、走行地点決定部4A、画像認識処理部4B及び認識障害地点決定部4Cを備えて構成されている。これら各部位4A,4B,4Cに加えて、ナビゲーション装置本来の役割である案内ルートの探索等を実行する案内ルート探索部4Dも備えられている。   As shown in FIG. 3, the arithmetic processing unit 4 includes a travel point determination unit 4A, an image recognition processing unit 4B, and a recognition failure point determination unit 4C as its main functional blocks. In addition to these parts 4A, 4B, and 4C, a guide route search unit 4D that executes a search for a guide route, which is the original role of the navigation device, is also provided.

前記走行地点決定部4Aは、走行地点決定手段4aとしての役割を果たす部位であり、先に説明した現在位置検知装置5に備えられる各機器(GPS受信機5a、方位検知センサ5b、距離検知センサ5c)からの情報及びVICS受信機10からの情報に基づいて、装置100、101の位置を決定する。
ここで、装置100、101の位置は東経及び北緯値として決定され、先に示した登録地点roの位置の特定に使用される。即ち、別途、実行される画像認識において、その画像認識が不可の判断された場合に、その画像認識を行った地点の特定に使用される。
The travel point determination unit 4A is a part that plays a role as the travel point determination means 4a, and includes each device (GPS receiver 5a, direction detection sensor 5b, distance detection sensor) provided in the current position detection device 5 described above. Based on the information from 5c) and the information from the VICS receiver 10, the positions of the devices 100, 101 are determined.
Here, the positions of the devices 100 and 101 are determined as east longitude and north latitude values, and are used to specify the position of the registration point ro described above. In other words, when it is determined that the image recognition is impossible in the image recognition that is performed separately, it is used for specifying the point where the image recognition is performed.

前記画像認識処理部4Bは、撮像手段である車載カメラ2から撮像画像を画像処理する部位である。この部位は、基本的には前記撮像手段2により撮像された撮像画像から走行路Rに存する認識対象を所定の認識ロジックに従って画像認識する画像認識手段4b1が備えられており、例えば、認識対象が走行路R上に備えられる白線レーンマーク3である場合、この白線レーンマーク3情報を、例えば、図8(ハ)(ニ)に示すような出力画像に乗せて出力する。
先に、図1を使用して説明した撮像画像i1は、走行路R上に画像認識にとって障害となる障害体(この例の場合は駐車している車11)がある例を示しているが、この障害体11がない場合は、図6に示すような撮像画像が取りこまれ、白線レーンマーク3の画像認識を実行した後、この白線レーンマーク3を強調した画像が、出力画像となる。
この出力画像の他、白線レーンマーク3が認識・特定されることで、自車の白線レーンマーク3から離間距離、白線レーンマーク3に対する方向等も判明する。
The image recognition processing unit 4B is a part that performs image processing on a captured image from the vehicle-mounted camera 2 that is an imaging unit. This part is basically provided with image recognition means 4b1 for recognizing a recognition target existing on the road R from a captured image taken by the imaging means 2 in accordance with a predetermined recognition logic. In the case of the white line lane mark 3 provided on the travel path R, the white line lane mark 3 information is output on an output image as shown in FIGS.
The captured image i1 described above with reference to FIG. 1 shows an example in which there is an obstacle (a car 11 parked in this example) that is an obstacle to image recognition on the travel path R. When the obstacle 11 is not present, a captured image as shown in FIG. 6 is captured, and after the image recognition of the white line lane mark 3 is executed, an image in which the white line lane mark 3 is emphasized becomes an output image. .
In addition to the output image, the white line lane mark 3 is recognized and identified, so that the distance from the white line lane mark 3 of the vehicle, the direction with respect to the white line lane mark 3 and the like are also found.

先にも示したように、この画像認識手段4b1における処理は、認識障害地点Oと、認識障害地点以外の地点とに関して、異なった処理を実行できるように構成されており、認識障害地点Oでは、車体画像候補の抽出及びその削除を伴った処理を行うとともに、白線レーンマーク3の抽出をハフ変換を利用して行うのに認識レベルの高い判定を実行する。一方、それ以外の地点では、車体画像候補の抽出及びその削除を伴った処理を行うことなく、白線レーンマーク3の抽出をハフ変換を利用して行うのに認識レベルの低い通常の判定を実行する。   As described above, the processing in the image recognition unit 4b1 is configured such that different processing can be performed on the recognition failure point O and a point other than the recognition failure point. In addition to performing a process involving extraction and deletion of body image candidates, a determination with a high recognition level is performed in order to extract the white line lane mark 3 using the Hough transform. On the other hand, at other points, the normal recognition with a low recognition level is performed to extract the white line lane mark 3 using the Hough transform without performing the process accompanied by the extraction and deletion of the body image candidate. To do.

画像認識処理部4Bに備えられる認識処理変更手段4b2は、画像認識手段4b1に於ける認識処理の変更を指令する手段であり、具体的には、現在画像認識対象となっている地点が、先に説明した認識障害地点データベースDBoに登録されている登録地点roか否かを判定し、その登録地点roであり、且つ、その地点が認識障害地点Oとされている場合に、認識障害地点Oとしての画像認識を画像認識手段4b1に実行させ、認識障害地点Oとされない地点では、通常の画像認識を実行させる。即ち、本願にあっては、画像認識を困難とする障害発生の可能性が高い地点である認識障害地点Oと認識障害地点以外の地点とで、画像認識手段4b1における認識処理を異ならせてある。   The recognition process changing means 4b2 provided in the image recognition processing unit 4B is a means for instructing the change of the recognition process in the image recognition means 4b1, and specifically, the point that is the current image recognition target is the first one. It is determined whether or not the registration point ro is registered in the recognition failure point database DBo described in the above, and if the registration point ro is the recognition failure point O, the recognition failure point O is determined. The image recognition means 4b1 is caused to execute image recognition, and normal image recognition is executed at a point that is not regarded as the recognition failure point O. That is, in the present application, the recognition processing in the image recognition unit 4b1 is different between the recognition failure point O, which is a point where the possibility of occurrence of a failure that makes image recognition difficult, is high and a point other than the recognition failure point. .

前記画像認識処理部4Bには、前記2つの手段4b1、4b2の他に、走行路R上の地点における画像認識手段4b1による画像認識の困難性を判定する認識困難性判定手段4b3が備えられる。   In addition to the two means 4b1 and 4b2, the image recognition processing unit 4B is provided with a recognition difficulty determination means 4b3 for determining the difficulty of image recognition by the image recognition means 4b1 at a point on the road R.

ここで、前記認識困難性判定手段4b3は認識可能か否かの可否判定を行う手段であり、認識対象が、これまで説明してきた白線レーンマーク3である場合、撮像画像上で、エッジ点抽出処理、ペアリング抽出処理を行い、ハフ変換処理を行った場合の投票処理上での投票値の程度、さらには、認識処理後のエッジ点の直線としての集束程度、あるいはエッジ点の強調と、予め各画像認識に対して設定されている閾値とを比較することで、認識の可否を判定する。例えば、撮像画像が図1に示すものである場合、ハフ変換後の白線レーンマーク3に対応する撮像線のハフ変換後の投票値は低くなり、図6に示すものである場合は高くなるため、その中間に閾値を設定することで、通常の画像認識手法を採る場合における、画像認識の可否を判定することができる。   Here, the recognition difficulty determination means 4b3 is a means for determining whether or not recognition is possible. When the recognition target is the white line lane mark 3 described so far, edge point extraction is performed on the captured image. Processing, pairing extraction processing, the degree of the voting value on the voting processing when the Hough transformation processing is performed, further, the degree of convergence as a straight line of the edge point after the recognition processing, or the enhancement of the edge point, Whether or not recognition is possible is determined by comparing a threshold set in advance for each image recognition. For example, when the captured image is the one shown in FIG. 1, the vote value after the Hough conversion of the imaging line corresponding to the white line lane mark 3 after the Hough conversion is low, and is high in the case of the one shown in FIG. By setting a threshold value in the middle, it is possible to determine whether image recognition is possible when a normal image recognition method is employed.

本願に係る画像認識装置101にあっては、全ての地点が認識障害地点以外の地点であるとの仮定のもとに装置の使用を始め、順次、画像認識が困難であった地点が見出された場合に、その地点を登録地点roとするとともに、さらに、この登録地点での画像認識を繰り返し実行した場合に、その登録地点roでの認識不可率がある値以上に維持されて始めて、その登録地点が認識障害地点Oとされる。   In the image recognition apparatus 101 according to the present application, the use of the apparatus is started on the assumption that all points are points other than the recognition failure point, and points where image recognition has been difficult are found sequentially. In this case, when the point is set as the registered point ro and, further, when the image recognition at the registered point is repeatedly performed, the recognition failure rate at the registered point ro is maintained to be higher than a certain value, The registered point is set as a recognition failure point O.

ここで、認識障害地点Oに関しては、処理ロジック上、充分に認識能の高い画像認識手法を採用するため、この認識困難性判定手段4b3にあっては、認識可としての判定を下すものとする。即ち、この例における認識困難性判定手段4b3における判定は、通常の処理ロジックに従った場合の認識可否の判定とする。   Here, with respect to the recognition failure point O, an image recognition method having sufficiently high recognition ability is adopted in terms of processing logic, so that the recognition difficulty determination unit 4b3 determines that recognition is possible. . That is, the determination in the recognition difficulty determination unit 4b3 in this example is a determination of whether or not recognition is possible according to normal processing logic.

上記走行地点決定手段4aにより決定された走行地点情報と前記認識困難性判定情報とは、認識障害地点決定部4Cに送られ、認識障害地点決定手段4cによる処理を受ける。即ち、この手段4cでは、同一の地点(登録地点ro)に関して、その認識不可率が求められる。そして、この認識不可率が所定の閾値より高い状態に維持されている場合に、この登録地点roを認識障害地点Oとする。後日、さらに同一の地点roを走行して、その
地点roにおける認識不可率が低下してきた場合は、この登録地点roに関して、認識障害地点Oとの登録を抹消する。
以上のようにして、認識障害地点データベースDBoに登録されている各登録地点roについて、その地点が認識障害地点Oか否かの判断を、統計的且つ現状に合致する状態で行うこととする。
前記案内ルート探索部4Dにあっては、従来公知の手法に従って、目的地までの案内ルートが探索される。これまで説明してきた画像認識装置101からの白線レーンマークに関する情報は、例えば、現時点における自車の走行レーン位置の特定に使用され、このようにして求められる、地図上での自車位置及び走行レーン位置から、適切な案内ルートを探索することとなる。
The travel point information determined by the travel point determination unit 4a and the recognition difficulty determination information are sent to the recognition failure point determination unit 4C and subjected to processing by the recognition failure point determination unit 4c. That is, in this means 4c, the unrecognizable rate is obtained for the same point (registered point ro). Then, when the unrecognizable rate is maintained in a state higher than a predetermined threshold, the registration point ro is set as a recognition failure point O. At a later date, when the vehicle travels the same point ro and the recognition failure rate at the point ro decreases, the registration with the recognition failure point O is deleted for the registration point ro.
As described above, for each registered point ro registered in the recognition failure point database DBo, it is determined whether the point is a recognition failure point O in a state that is statistically consistent with the current state.
In the guide route search unit 4D, a guide route to the destination is searched according to a conventionally known method. The information related to the white line lane mark from the image recognition apparatus 101 described so far is used, for example, for specifying the current driving lane position of the own vehicle. An appropriate guide route is searched from the lane position.

以下、図4に基づいて、本願に係る画像認識装置101における処理フローを説明する。
この処理フローは、認識障害地点O及びそれ以外の地点を画像認識対象とする場合の処理フロー(前段側の処理フロー部F1)と、画像認識を逐次繰返すとともに、特定の地点で認識不可が発生した場合は、その地点に関して必要とされる処理(認識障害地点Oに該当するか否かの処理)を実行するフロー部位(後段側の処理フロー部F2)から成立する。
Hereinafter, based on FIG. 4, the processing flow in the image recognition apparatus 101 according to the present application will be described.
This processing flow repeats the image recognition and the processing flow in the case where the recognition failure point O and other points are subject to image recognition (the processing flow unit F1 on the front stage side), and the recognition failure at a specific point occurs. In this case, the process is established from a flow part (a process flow unit F2 on the rear stage side) that executes a process required for the point (a process for determining whether or not the point corresponds to the recognition failure point O).

この処理フローを実行する場合、先ず、認識処理変更手段4b2により現在の走行地点が認識障害地点Oに該当するか否かが判定される(#41)とともに、その判定結果に基づいて画像認識の認識ロジックが変更される。認識障害地点Oに該当する場合は(#41:yes)、認識ロジックを最適化すべく、これまで説明したように、例えば、図5(ロ)に示すように、エッジ抽出(#51)、車体画像候補の抽出・除去(#51−2)、ペアリング処理(#52)、ハフ変換(#53)、レーンマーク近傍のエッジ抽出(#54)を行うこととする。即ち、車体画像候補の抽出・除去処理を伴うとともに、ハフ変換処理においては、認識レベルが高い第二認識レベルの処理を実行する(#42、#43)。   When executing this processing flow, first, it is determined whether or not the current travel point corresponds to the recognition failure point O by the recognition process changing means 4b2 (# 41), and image recognition is performed based on the determination result. Recognition logic is changed. If it corresponds to the recognition failure point O (# 41: yes), as described above, for example, as shown in FIG. 5 (b), the edge extraction (# 51), the vehicle body is optimized to optimize the recognition logic. Image candidate extraction / removal (# 51-2), pairing processing (# 52), Hough transform (# 53), and edge extraction near the lane mark (# 54) are performed. That is, the vehicle body image candidate extraction / removal process is performed, and in the Hough conversion process, a process of the second recognition level having a high recognition level is executed (# 42, # 43).

一方、認識障害地点以外の地点に該当する場合は(#41:no)、通常の認識ロジックに基づいた処理を実行する(#44)。即ち、これまで説明したように、例えば、
図5(イ)に示すように、エッジ抽出(#51)、ペアリング処理(#52)、ハフ変換(#53)、レーンマーク近傍のエッジ抽出(#54)を行うこととする。即ち、車体画像候補の抽出・除去処理を伴わず、ハフ変換処理においては、認識レベルが低い第一認識レベルの処理を実行する(#44)。
On the other hand, when it corresponds to a point other than the recognition failure point (# 41: no), processing based on normal recognition logic is executed (# 44). That is, as explained so far, for example,
As shown in FIG. 5A, edge extraction (# 51), pairing processing (# 52), Hough transform (# 53), and edge extraction (# 54) near the lane mark are performed. That is, the first recognition level process with a low recognition level is executed in the Hough conversion process without the extraction / removal process of the body image candidate (# 44).

このようにして、現在地点において画像認識処理を終了した後、認識困難性判定手段4b3により、現地点における画像認識の可否判定を実行する。先に説明したように、認識対象の特徴量が所定の閾値に対して低い値となっている場合(例えば、ハフ変換における投票数が所定の投票閾値より低い場合)、画像認識が不可であったと判定する(#45)。   In this way, after the image recognition process is completed at the current point, the recognition difficulty determination unit 4b3 determines whether image recognition is possible at the local point. As described above, when the feature quantity to be recognized is lower than the predetermined threshold (for example, when the number of votes in the Hough transform is lower than the predetermined vote threshold), image recognition is impossible. (# 45).

この判定において、画像認識が可であった場合(#45:yes)は、後段側の処理フロー部F2を省略して、新たな認識処理を必要な場合実行する。
一方、この判定において、画像認識が不可であった場合(#45:no)は、後段側の処理フロー部F2に移り、本願にいう認識障害地点Oとするか否かの判定を実行する。
In this determination, if image recognition is possible (# 45: yes), the subsequent processing flow unit F2 is omitted and a new recognition process is executed if necessary.
On the other hand, in this determination, when the image recognition is impossible (# 45: no), the process moves to the processing flow unit F2 on the rear stage side to determine whether or not the recognition failure point O is referred to in the present application.

先ず、現在処理の対象となっている地点の登録処理を実行する(#46)。この登録は、画像認識装置101において、その地点が初めて画像認識が不可であると判定された場合のみ実行され、登録地点roとして認識障害地点データベースDBoに予め登録されている場合は、重複して登録されることはない。   First, registration processing for a point that is currently the target of processing is executed (# 46). This registration is executed only when it is determined in the image recognition apparatus 101 that the image recognition is impossible for the first time, and if it is registered in advance in the recognition failure point database DBo as the registration point ro, it is duplicated. It will never be registered.

次に、認識障害地点決定手段4cにより、その地点における認識不可率(統計的確率の一例)が算出され(#47)、その値が所定の閾値を超えれるが否かが判定される(#48)。そして、その認識不可率が閾値より低い場合(#48:no)は,認識障害地点Oとしての登録の必要は無いとして、新たな画像認識に戻る。
一方、その認識不可率が閾値より高く維持された場合(#48:yes)は、その地点を認識障害地点Oとしての登録する(#49)。
Next, the recognition failure point determination unit 4c calculates a recognition failure rate (an example of statistical probability) at the point (# 47), and determines whether the value exceeds a predetermined threshold (#). 48). If the recognition failure rate is lower than the threshold (# 48: no), it is determined that there is no need to register as a recognition failure point O, and the process returns to new image recognition.
On the other hand, when the unrecognized rate is maintained higher than the threshold (# 48: yes), the point is registered as a recognition failure point O (# 49).

画像認識装置101における処理フローは、別途、終了指令が入力され、これが終了判定で認識された状態で、その処理を終了することとなる(#410)。   The processing flow in the image recognition apparatus 101 ends the process in a state where an end command is separately input and is recognized by the end determination (# 410).

この処理を走行体1の走行に伴って順次繰り返すことにより、例えば、不法駐車が多く発生し、画像認識の障害となる障害事情が常時発生している地点に関しては、認識障害地点Oとして登録され、高速道内の走行地点に関して、通常の処理で充分な認識障害地点以外の地点とされる。   By sequentially repeating this process as the traveling body 1 travels, for example, points where illegal parking frequently occurs and obstacle situations that cause obstacles in image recognition always occur are registered as recognition obstacle points O. The traveling points in the expressway are assumed to be points other than the recognition failure point, which is sufficient by normal processing.

以上が、走行路Rに認識障害地点Oを含む場合の本願画像認識装置101が実行する処理フローであるが、図4における認識障害地点Oにおける認識処理と、認識障害地点以外の地点における認識処理に関して、図面に基づいて説明する。説明に際しては、理解を容易とするため、図6に示す不法駐車がなく画像認識の障害が低い例と、図1に示す障害が多い例を採って説明する。   The above is the processing flow executed by the image recognition apparatus 101 of the present application when the travel path R includes the recognition failure point O. The recognition processing at the recognition failure point O in FIG. 4 and the recognition processing at points other than the recognition failure point are shown in FIG. Will be described with reference to the drawings. In the description, for the sake of easy understanding, an example in which there is no illegal parking shown in FIG. 6 and there are low obstacles in image recognition and an example in which there are many obstacles shown in FIG. 1 will be described.

イ 画像認識上の障害が少ない場合の画像認識
この場合、車載カメラ2により撮像される撮像画像は、図6に示すものとなる。
この撮像画像を対象として、エッジ点抽出処理を実行する。この処理を受けた画像が図7(イ)に示す画像である(#51)。そして、図7(ロ)に示すようにペアリング処理を行って、孤立点を除去した後(#52)、この画像に対してハフ変換を施す(#53)。ハフ変換後に得られるθ−ρ平面にあっては、撮像画像上における白線レーンマーク3の4本の境界線に対応する座標の投票数が高くなる。即ち、認識レベルの低い第一認識レベルの処理で十分である。従って、再度撮像側に戻り、図7(ハ)(ニ)に示すように、4本の白線レーンマーク3のエッジに対応する画素点のみを残すことができる(#54)。同図中、ハフ変換により抽出されるエッジ線を、L1,L2として示し、そのアップエッジをL1u,L2uと、そのダウンエッジをL1d,L2dとして示している。
この例の場合、白線レーンマーク3のエッジeは、撮像画像全面で連続したエッジ線として撮像されるため、ハフ変換における投票数も高く、さらに、その画像上の離散状態も低くなる。結果、本願にいう認識困難性は低く、認識は容易である。
Image recognition when there are few obstacles in image recognition In this case, a captured image captured by the in-vehicle camera 2 is as shown in FIG.
Edge point extraction processing is executed for this captured image. The image subjected to this processing is the image shown in FIG. 7A (# 51). Then, pairing processing is performed as shown in FIG. 7B to remove isolated points (# 52), and then Hough transform is performed on the image (# 53). In the θ-ρ plane obtained after the Hough transform, the number of votes of coordinates corresponding to the four boundary lines of the white line lane mark 3 on the captured image is high. That is, the process of the first recognition level having a low recognition level is sufficient. Therefore, returning to the imaging side again, as shown in FIGS. 7C and 7D, only pixel points corresponding to the edges of the four white line lane marks 3 can be left (# 54). In the figure, edge lines extracted by the Hough transform are shown as L1 and L2, their up edges are shown as L1u and L2u, and their down edges are shown as L1d and L2d.
In the case of this example, the edge e of the white line lane mark 3 is imaged as a continuous edge line on the entire captured image, so the number of votes in the Hough transform is high and the discrete state on the image is also low. As a result, the recognition difficulty referred to in the present application is low and recognition is easy.

ロ 画像認識上の障害が多い場合の画像認識
この場合、車載カメラ2により撮像される撮像画像は、図1に示すものとなる。この撮像画像を対象として、エッジ点抽出処理を実行する(#51)。この処理を受けた画像が図8(イ)に示す画像である。本願の場合、この地点が認識障害地点Oであると判明した状態で画像認識を進めるため、予め、高度な画像認識を採用する。
Image recognition when there are many obstacles in image recognition In this case, a captured image captured by the vehicle-mounted camera 2 is as shown in FIG. Edge point extraction processing is executed for this captured image (# 51). The image subjected to this processing is the image shown in FIG. In the case of the present application, advanced image recognition is adopted in advance in order to advance image recognition in a state where this point is determined to be a recognition failure point O.

即ち、図8(イ)で示される画像において、駐車している車11の画像である可能性が高い画像部位i11を探索する。この例では、一定の閉領域を形成するエッジ点の集合を抽出するとともに、その閉領域の形状、その領域内の色あるいは濃淡情報から車11の画像であると見なせる画像部位を抽出する。さらに、これら画像部位を撮像画像から消去する(#51−2)。その後、ペアリング処理を施し独立点を除去する(#52)。このようにして得られる画像が、図8(ロ)に示す画像である。この図からも判明するように、白線レーンマーク3に関連するエッジeは、画像上、切れ切れの破断線として現れる。
この画像に対してもハフ変換を施す(#53)。変換後のθ−ρ平面にあっては、撮像画像上における白線レーンマーク3の4本の境界線に対応する座標の投票数が、先に説明した障害が無い場合より低くなる。そこで、先に説明した場合より認識レベルの高い第二認識レベルでの認識を実行する。ハフ変換後の投票数としては、低めの閾値を使用して直線候補を抽出する。その後、再度撮像側に戻り、図8(ハ)(ニ)に示すように、4本の白線レーンマークのエッジ3に対応する画素点のみを残すことができる(#54)。
That is, in the image shown in FIG. 8A, an image part i11 that is highly likely to be an image of the parked car 11 is searched. In this example, a set of edge points that form a certain closed region is extracted, and an image portion that can be regarded as an image of the car 11 is extracted from the shape of the closed region, the color in the region, or the shade information. Further, these image parts are deleted from the captured image (# 51-2). Thereafter, a pairing process is performed to remove independent points (# 52). The image obtained in this way is the image shown in FIG. As can be seen from this figure, the edge e related to the white line lane mark 3 appears on the image as a broken broken line.
The Hough transform is also applied to this image (# 53). In the converted θ-ρ plane, the number of votes of coordinates corresponding to the four boundary lines of the white line lane mark 3 on the captured image is lower than that in the case where there is no obstacle described above. Therefore, recognition at the second recognition level having a higher recognition level than that described above is executed. A straight line candidate is extracted using a lower threshold as the number of votes after the Hough transform. Thereafter, returning to the imaging side again, as shown in FIGS. 8C and 8D, only the pixel points corresponding to the edge 3 of the four white line lane marks can be left (# 54).

〔別実施の形態〕
(1) 上記の実施の形態にあっては、認識処理の変更形態として、通常処理を行う形態と高度な認識処理との2形態間で、その変更を行うものとしたが、変更形態としては、3以上の多形態での変更としてもよい。
(2) 上記の実施の形態にあっては、認識障害地点のおける認識処理において、車両画像候補の抽出・除去と、ハフ変換における第二認識レベルによる認識処理を実行したが、認識障害地点における処理としては、それらの一方のみを行うものとしてもよく、さらに、高い認識能を発揮できる画像認識処理としては、テンプレートマッチング、組合わせハブ変換等の処理を採用してもよい。
(3) 認識困難性の判定においては、これまで説明してきた判定手法の他、ヒストグラム分布、周波数判定等の判定手法を採用してもよい。
(4) 上記の画像認識装置に関しては、装置をナビゲーション装置に使用する例を示したが、ミリ波レーダー等にも使用できる。
(5) また、その認識対象は、白線レーンマークの他、横断歩道、一時停止線等もその認識対象とできる。
[Another embodiment]
(1) In the above embodiment, the change process of the recognition process is performed between the two forms of the normal process and the advanced recognition process. It is good also as a change in three or more polymorphisms.
(2) In the above embodiment, in the recognition process at the recognition failure point, the vehicle image candidate extraction / removal and the recognition process based on the second recognition level in the Hough transform are performed. As processing, only one of them may be performed, and as image recognition processing capable of exhibiting high recognition ability, processing such as template matching and combination hub conversion may be employed.
(3) In the determination of the recognition difficulty, a determination method such as a histogram distribution or a frequency determination may be adopted in addition to the determination methods described so far.
(4) Regarding the above image recognition device, an example in which the device is used for a navigation device has been shown, but it can also be used for a millimeter wave radar or the like.
(5) In addition to the white line lane mark, the recognition target can be a pedestrian crossing, a temporary stop line, or the like.

走行路中に画像処理に関して、その処理上障害となる事象が比較的頻繁に発生することがある地点が含まれている場合に、合理的な処理負荷で画像処理を実行することができる画像認識装置を得ることができた。   Image recognition that enables image processing to be executed with a reasonable processing load when there are points where image processing problems occur relatively frequently on the road. Could get the device.

2 車載カメラ
3 白線レーンマーク
4 演算処理装置
4A 走行地点決定部
4a 走行地点決定手段
4B 画像認識処理部
4b1 画像認識手段
4b2 認識処理変更手段
4b3 認識困難性判定手段
4C 認識障害地点決定部
4c 認識障害地点決定手段
4D 案内ルート探索部
5 現在位置検知装置
6 情報記憶装置
7 表示入力装置
8 リモコン入力装置
10 VICS受信機
DBo 障害事情データベース
DBm 地図データベース
N 認識障害地点以外の地点
O 認識障害地点
R 走行路
ro 登録地点
2 In-vehicle camera 3 White line lane mark 4 Arithmetic processing unit 4A Traveling point determination unit 4a Traveling point determination unit 4B Image recognition processing unit 4b1 Image recognition unit 4b2 Recognition processing change unit 4b3 Recognition difficulty determination unit 4C Recognition failure point determination unit 4c Recognition failure Point determination means 4D Guide route search unit 5 Current position detection device 6 Information storage device 7 Display input device 8 Remote control input device 10 VICS receiver DBo Failure situation database DBm Map database N Point other than recognition failure point O Recognition failure point R Runway ro Registration point

Claims (11)

走行路上を走行する走行体に装備可能に構成され、
撮像手段により撮像された撮像画像から前記走行路に存する認識対象を所定の認識ロジックに従って画像認識する画像認識手段を備えた画像認識装置であって、
前記画像認識を困難とする障害発生の可能性が高い地点である認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理を異ならせる認識処理変更手段を備える画像認識装置。
It is configured so that it can be equipped with a traveling body traveling on the traveling road,
An image recognition apparatus comprising image recognition means for recognizing a recognition target existing on the travel path from a captured image captured by an imaging means according to a predetermined recognition logic,
An image recognition apparatus comprising: a recognition process changing unit that makes a recognition process in the image recognition unit different between a recognition failure point that is a point at which a failure occurrence that makes image recognition difficult is highly likely and a point other than the recognition failure point .
前記走行路上の地点における前記画像認識手段による画像認識の困難性を判定する認識困難性判定手段を備え、
前記走行路上の地点における、前記認識困難性判定手段による認識困難性判定の統計的結果に基づいて、当該走行路上の地点が前記認識障害地点に該当するか否かを決定する認識障害地点決定手段を備える請求項1記載の画像認識装置。
Recognizing difficulty determining means for determining difficulty of image recognition by the image recognizing means at a point on the traveling road,
A recognition failure point determination unit that determines whether or not a point on the travel route corresponds to the recognition failure point based on a statistical result of recognition difficulty determination by the recognition difficulty determination unit at a point on the travel route. An image recognition apparatus according to claim 1.
前記認識困難性判定手段が画像認識可能か否かの可否判定を行い、
前記認識困難性判定の統計的結果が、前記可否判定における可能若しくは不可に関する統計的確率結果である請求項2記載の画像認識装置。
Whether or not the recognition difficulty determination means can recognize an image;
The image recognition apparatus according to claim 2, wherein the statistical result of the recognition difficulty determination is a statistical probability result related to possible or impossible in the determination of availability.
前記認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理を異ならせるに、同一の認識ロジックを採用し、その認識レベルとして、少なくとも第一認識レベルと、前記第一認識レベルより高い認識能を有する第二認識レベルと間で認識処理を異ならせる請求項1〜3のいずれか1項記載の画像認識装置。 In order to make the recognition process in the image recognition means different between the recognition failure point and a point other than the recognition failure point, the same recognition logic is adopted, and the recognition level is at least the first recognition level, the first recognition level, The image recognition apparatus according to any one of claims 1 to 3, wherein the recognition process is made different between a second recognition level having a recognition ability higher than the recognition level. 前記認識障害地点においては前記第二認識レベルでの認識処理を実行し、前記認識障害地点以外の地点においては前記第一認識レベルでの認識処理を実行する請求項4記載の画像認識装置。 The image recognition apparatus according to claim 4, wherein recognition processing at the second recognition level is executed at the recognition failure point, and recognition processing at the first recognition level is executed at a point other than the recognition failure point. 前記走行路に存する認識対象が、走行路上のレーンマークである請求項1〜5のいずれか1項記載の画像認識装置。 The image recognition apparatus according to claim 1, wherein the recognition target existing on the travel path is a lane mark on the travel path. 前記発生する障害が、前記走行路上に一時的に位置される障害体である請求項1〜6のいずれか1項記載の画像認識装置。 The image recognition apparatus according to claim 1, wherein the generated obstacle is an obstacle temporarily positioned on the travel path. 前記走行体の走行地点を決定する走行地点決定手段からの走行地点情報に基づいて、地図上での前記認識障害地点を決定する認識障害地点決定手段を備えた請求項1〜7のいずれか1項記載の画像認識装置。 8. The apparatus according to claim 1, further comprising a recognition failure point determination unit that determines the recognition failure point on a map based on travel point information from a travel point determination unit that determines a travel point of the traveling body. The image recognition apparatus according to item. 請求項8記載の画像認識装置を備えるとともに、前記画像認識装置より得られる前記走行路に存する前記認識対象の認識情報に基づいて働くナビゲーション装置。 A navigation device that includes the image recognition device according to claim 8 and that operates based on recognition information of the recognition target existing on the travel path obtained from the image recognition device. 走行路上を走行する走行体に対して、
撮像手段により撮像された撮像画像から前記走行路に存する認識対象を所定の認識ロジックに従って画像認識する画像認識方法であって、
前記画像認識を困難とする障害発生の可能性が高い地点である認識障害地点と前記認識障害地点と前記認識障害地点以外の地点とで、前記画像認識手段における認識処理を異ならせて画像認識を行う画像認識方法。
For the traveling body traveling on the traveling road,
An image recognition method for recognizing a recognition target existing on the travel path from a captured image captured by an imaging unit according to a predetermined recognition logic,
Image recognition is performed by different recognition processing in the image recognition means at a recognition failure point that is a highly likely failure occurrence point that makes the image recognition difficult, a recognition failure point, and a point other than the recognition failure point. The image recognition method to perform.
過去に前記走行路上を走行し前記画像認識を実行した結果から、前記認識障害地点と記認識障害地点以外の地点とを識別する請求項10記載の画像認識方法。 The image recognition method according to claim 10, wherein the recognition failure point and a point other than the recognition failure point are identified from a result of running on the road in the past and executing the image recognition.
JP2010238452A 2010-10-25 2010-10-25 Image recognition apparatus and method, and navigation apparatus Expired - Fee Related JP4912495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010238452A JP4912495B2 (en) 2010-10-25 2010-10-25 Image recognition apparatus and method, and navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238452A JP4912495B2 (en) 2010-10-25 2010-10-25 Image recognition apparatus and method, and navigation apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004377091A Division JP4648697B2 (en) 2004-12-27 2004-12-27 Image recognition apparatus and method, and navigation apparatus

Publications (2)

Publication Number Publication Date
JP2011090681A true JP2011090681A (en) 2011-05-06
JP4912495B2 JP4912495B2 (en) 2012-04-11

Family

ID=44108829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238452A Expired - Fee Related JP4912495B2 (en) 2010-10-25 2010-10-25 Image recognition apparatus and method, and navigation apparatus

Country Status (1)

Country Link
JP (1) JP4912495B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107067733A (en) * 2017-04-05 2017-08-18 北京易华录信息技术股份有限公司 A kind of vehicle line ball traveling identifying system and method based on vehicle electron identifying
US10799671B2 (en) 2011-06-30 2020-10-13 Covidien Lp Distal access aspiration guide catheter

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200865A1 (en) * 2017-01-19 2018-07-19 Robert Bosch Gmbh Method for the lane-specific positioning of a vehicle
CN110619750B (en) * 2019-08-15 2020-09-11 重庆特斯联智慧科技股份有限公司 Intelligent aerial photography identification method and system for illegal parking vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271978A (en) * 1994-03-29 1995-10-20 Toshiba Corp Image processor
JPH09218937A (en) * 1996-02-08 1997-08-19 Nippon Soken Inc Compartment line detector
JP2000047579A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Map data base updating device
JP2000348142A (en) * 1999-06-08 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> Character recognizing device, method therefor and recording medium for recording program executing the method
JP2002243469A (en) * 2001-02-19 2002-08-28 Alpine Electronics Inc Navigation device and map database updating system
JP2003178067A (en) * 2001-12-10 2003-06-27 Mitsubishi Electric Corp Portable terminal-type image processing system, portable terminal, and server
JP4648697B2 (en) * 2004-12-27 2011-03-09 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and method, and navigation apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271978A (en) * 1994-03-29 1995-10-20 Toshiba Corp Image processor
JPH09218937A (en) * 1996-02-08 1997-08-19 Nippon Soken Inc Compartment line detector
JP2000047579A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Map data base updating device
JP2000348142A (en) * 1999-06-08 2000-12-15 Nippon Telegr & Teleph Corp <Ntt> Character recognizing device, method therefor and recording medium for recording program executing the method
JP2002243469A (en) * 2001-02-19 2002-08-28 Alpine Electronics Inc Navigation device and map database updating system
JP2003178067A (en) * 2001-12-10 2003-06-27 Mitsubishi Electric Corp Portable terminal-type image processing system, portable terminal, and server
JP4648697B2 (en) * 2004-12-27 2011-03-09 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and method, and navigation apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10799671B2 (en) 2011-06-30 2020-10-13 Covidien Lp Distal access aspiration guide catheter
CN107067733A (en) * 2017-04-05 2017-08-18 北京易华录信息技术股份有限公司 A kind of vehicle line ball traveling identifying system and method based on vehicle electron identifying

Also Published As

Publication number Publication date
JP4912495B2 (en) 2012-04-11

Similar Documents

Publication Publication Date Title
CN112902975B (en) Autonomous vehicle navigation method, readable device, server, vehicle and system
US20220397402A1 (en) Systems and methods for determining road safety
US10166934B2 (en) Capturing driving risk based on vehicle state and automatic detection of a state of a location
JP4557288B2 (en) Image recognition device, image recognition method, position specifying device using the same, vehicle control device, and navigation device
US8600655B2 (en) Road marking recognition system
JP6451844B2 (en) Vehicle position determination device and vehicle position determination method
JP5198835B2 (en) Method and system for presenting video images
JP4831434B2 (en) Feature information collection device, feature information collection program, own vehicle position recognition device, and navigation device
CN115031743A (en) System and method for correlating collected information relative to public road segments
CN115004257A (en) System and method for vehicle navigation involving traffic lights and traffic signs
JP4614098B2 (en) Peripheral situation recognition device and method
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP2011013039A (en) Lane determination device and navigation system
JP2023153776A (en) Accident determination device
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP5522475B2 (en) Navigation device
US20190265267A1 (en) System, method, and computer-readable storage medium for determining road type
CN116670610A (en) System and method for common speed mapping and navigation
JP4912495B2 (en) Image recognition apparatus and method, and navigation apparatus
JP2010210477A (en) Navigation device
JP2023504604A (en) System and method for selectively decelerating a vehicle
WO2020045426A1 (en) Onboard device
JP4648697B2 (en) Image recognition apparatus and method, and navigation apparatus
JP4692831B2 (en) Peripheral situation recognition device and method
JP2004295596A (en) Traveling support information display device of vehicle

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4912495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees