JP2009099125A - Image recognition device, image recognition program, and point information collection device and navigation device using them - Google Patents

Image recognition device, image recognition program, and point information collection device and navigation device using them Download PDF

Info

Publication number
JP2009099125A
JP2009099125A JP2008171659A JP2008171659A JP2009099125A JP 2009099125 A JP2009099125 A JP 2009099125A JP 2008171659 A JP2008171659 A JP 2008171659A JP 2008171659 A JP2008171659 A JP 2008171659A JP 2009099125 A JP2009099125 A JP 2009099125A
Authority
JP
Japan
Prior art keywords
information
image recognition
stop
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008171659A
Other languages
Japanese (ja)
Other versions
JP5141969B2 (en
Inventor
Koichi Nakao
功一 中尾
Masaki Nakamura
正樹 中村
Satoshi Aisaka
総 逢坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2008171659A priority Critical patent/JP5141969B2/en
Publication of JP2009099125A publication Critical patent/JP2009099125A/en
Application granted granted Critical
Publication of JP5141969B2 publication Critical patent/JP5141969B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition device capable of extracting stop lines at which drivers are obligated to stop, and recognizing them, and capable of increasing the recognition precision. <P>SOLUTION: The present invention includes: a means for acquiring information on a location of one's own vehicle for acquiring information on a location of the own vehicle that shows the present location of the own vehicle; an image information acquisition means for acquiring image information on the periphery of the own vehicle; an image recognition means for performing image recognition processing for an object feature included in the image information, a combination of a stop line provided on the surface of a road and a predetermined character string placed adjacent to the stop line being the object feature; and a point information generation means for generating information on a point at which drives are obligated to stop showing the point at which drivers are obligated to stop, based on the information on the location of the own vehicle, and the result of the image recognition for the object feature when the image recognition for the object feature is successful. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両に搭載した撮像装置等により取得した車両周辺の画像情報に含まれる対象地物の画像認識処理を行う画像認識装置及び画像認識プログラム、並びにそれを用いた地点情報収集装置及びナビゲーション装置に関する。   The present invention relates to an image recognition device and an image recognition program for performing image recognition processing of a target feature included in image information around a vehicle acquired by an imaging device or the like mounted on the vehicle, and a point information collection device and navigation using the same. Relates to the device.

従来から、車両に搭載した撮像装置等により取得した車両周辺の画像情報の中から、道路の路面に設けられた停止線を対象地物として画像認識処理を行う画像認識装置が知られている(例えば、特許文献1参照)。特許文献1に記載された画像認識装置は、走行路前方の車幅方向に長い設定領域の輝度を検出する領域輝度検出手段と、上記設定領域の時系列的な輝度変化を比較する輝度変化比較手段と、上記設定領域の時系列的な輝度変化に基づき停止線が存在するか否か判定する停止線判定手段と、を備えたものである。具体的には、CCDカメラから入力された元画像の下側寄りに、複数の設定領域を車幅方向に連設し、これらの複数の設定領域の何れかの平均輝度が低い状態から高くなり、その後低くなった場合に停止線が存在すると判定する。   2. Description of the Related Art Conventionally, an image recognition device that performs image recognition processing using a stop line provided on a road surface as a target feature from image information around a vehicle acquired by an imaging device or the like mounted on the vehicle is known ( For example, see Patent Document 1). The image recognition apparatus described in Patent Document 1 is a luminance change comparison that compares a luminance of a setting area that detects a luminance of a setting area that is long in the vehicle width direction in front of a traveling road with a time-series luminance change of the setting area. And stop line determination means for determining whether or not a stop line exists based on a time-series luminance change in the setting area. Specifically, a plurality of setting areas are arranged in the vehicle width direction on the lower side of the original image input from the CCD camera, and the average luminance of any of these plurality of setting areas increases from a low state. Then, when it becomes low after that, it is determined that a stop line exists.

特開2003−85562号公報JP 2003-85562 A

さて、対象地物である停止線にはいわゆる一時停止義務のある停止線と、単なる停止線とが存在する。そして一時停止義務のある停止線では必ず停止する必要がある。したがって、走行上非常に重要な一時停止義務のある停止線の位置を予め高い精度で認識できることが好ましい。   Now, the stop line which is the target feature includes a stop line having a so-called temporary stop obligation and a simple stop line. And it is necessary to stop at the stop line with the obligation to stop temporarily. Therefore, it is preferable that the position of the stop line, which is very important for traveling and has a duty to stop, can be recognized with high accuracy in advance.

しかしながら、上記の技術は、車幅方向に連設した複数の設定領域の何れかの平均輝度が低い状態から高くなりその後再度低くなった場合に、少なくとも停止線が存在すると判定するものではあるが、必ず停止する必要のある地点であるか否かを判別するものではない。
また、路面上に、車幅方向に長い形状を有する停止線以外のペイント表示が存在する場合には、そのような他のペイント表示をも停止線として認識してしまう不具合が生じ得る。例えば、横断歩道やT字路での交差する道路のセンターライン等も、車幅方向に長いペイント表示であるので、停止線と誤認識する可能性が高いという問題がある。
However, the above technique determines that at least a stop line exists when the average brightness of any of the plurality of setting regions arranged in the vehicle width direction increases from a low state and then decreases again. However, it is not determined whether or not it is a point that must be stopped.
In addition, when there is a paint display other than a stop line having a shape that is long in the vehicle width direction on the road surface, there may be a problem that such other paint display is recognized as a stop line. For example, a center line of a crosswalk or a road intersecting at a T-shaped road is a paint display that is long in the vehicle width direction, and thus there is a high possibility that it is erroneously recognized as a stop line.

本発明は、上記課題に鑑みてなされたものであり、その目的は、一時停止義務のある停止線のみを抽出して認識することが可能で、かつ、その認識精度を高めることが可能な画像認識装置及び画像認識プログラム、並びにそれを用いた地点情報収集装置及びナビゲーション装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to extract and recognize only a stop line that is obligated to pause, and to improve the recognition accuracy. It is an object of the present invention to provide a recognition device, an image recognition program, and a point information collection device and a navigation device using the same.

上記目的を達成するための本発明に係る画像認識装置の特徴構成は、自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、自車両の周辺の画像情報を取得する画像情報取得手段と、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、前記画像情報に含まれる前記対象地物の画像認識処理を行う画像認識手段と、前記対象地物の画像認識に成功した場合に、自車位置情報及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報を生成する地点情報生成手段と、を備える点にある。   In order to achieve the above object, the image recognition apparatus according to the present invention is characterized by a vehicle position information acquisition means for acquiring vehicle position information representing the current position of the vehicle, and image information around the vehicle. The target feature included in the image information is a combination of image information acquisition means, a stop line provided on the road surface, and a predetermined character string provided adjacent to the stop line. An image recognition means for performing the image recognition processing, and when the image recognition of the target feature is successful, based on the vehicle position information and the image recognition result of the target feature, a stop indicating a point where the suspension is obligated And point information generating means for generating duty point information.

一般に、一時停止義務のある地点には、停止線が設けられるとともにその手前には「とまれ」等の文字列が路面上にペイント表示されている。一方、一時停止義務のない地点に設けられる停止線は単独の停止線となっている。そこで本願では上記の構成を採用し、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定するため、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列との組み合せを画像認識するため、車幅方向に長いペイント表示のうち文字列に隣接していないものは対象地物から外れることになり、停止線を単独で画像認識する場合に比べて認識精度を向上させることが可能となる。   In general, a stop line is provided at a point where there is a duty to pause, and a character string such as “Tare” is painted on the road surface in front of it. On the other hand, a stop line provided at a point where there is no obligation to temporarily stop is a single stop line. Therefore, in the present application, when the above configuration is adopted and image recognition of a combination of a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line is successful, the stop line Since it is determined that the position is a point having a duty to pause, it is possible to extract and recognize only a stop line having a duty to pause. In addition, in order to recognize the combination of the stop line and the predetermined character string, the paint display that is not adjacent to the character string out of the long paint display in the vehicle width direction will be removed from the target feature. The recognition accuracy can be improved compared to the case of image recognition.

ここで、前記画像認識手段は、前記所定の文字列を画像認識した後、前記停止線を画像認識した場合に、前記対象地物の画像認識に成功したと判定すると好適である。   Here, it is preferable that the image recognition unit determines that the target feature has been successfully recognized when the stop line is image-recognized after the predetermined character string is image-recognized.

この構成によれば、撮像装置を自車両の進行方向に対して前向き、後ろ向きのいずれの向きに設けた場合であっても、前進しながら画像認識処理を行うことが可能となる。またその場合、所定の文字列、停止線の順に画像認識した場合にのみ対象地物の画像認識に成功したと判定するので、誤認識を抑制することが可能となる。   According to this configuration, it is possible to perform the image recognition process while moving forward even when the imaging apparatus is provided in either the forward direction or the backward direction with respect to the traveling direction of the host vehicle. In that case, since it is determined that the image recognition of the target feature has succeeded only when the image recognition is performed in the order of the predetermined character string and the stop line, erroneous recognition can be suppressed.

ここで、前記画像認識手段は、前記停止線を画像認識した後、前記所定の文字列を画像認識した場合に、前記対象地物の画像認識に成功したと判定すると好適である。   Here, it is preferable that the image recognition unit determines that the image of the target feature has been successfully recognized when the predetermined character string is image-recognized after the stop line is image-recognized.

この構成によれば、自車両の進行方向とは逆方向に進行する車両を対象とする停止線と所定の文字列との組み合わせも対象地物として画像認識処理を行うことが可能となる。よって、停止義務地点情報を効率良く生成することが可能となる。またその場合、停止線、所定の文字列の順に画像認識した場合にのみ対象地物の画像認識に成功したと判定するので、誤認識を抑制することが可能となる。   According to this configuration, a combination of a stop line and a predetermined character string for a vehicle traveling in a direction opposite to the traveling direction of the host vehicle can be subjected to image recognition processing as a target feature. Therefore, it becomes possible to efficiently generate the stop duty point information. In that case, since it is determined that the image recognition of the target feature has succeeded only when the image recognition is performed in the order of the stop line and the predetermined character string, it is possible to suppress erroneous recognition.

ここで、前記画像認識手段は、前記対象地物に含まれる前記所定の文字列の画像認識処理として、ひらがな、カタカナ、漢字、及びこれらの組み合せのいずれかで表された「とまれ」の文字列の中の少なくとも一部の文字の画像認識を行う構成とすると好適である。   Here, as the image recognition processing of the predetermined character string included in the target feature, the image recognition means is a character string of “Tare” represented by any one of hiragana, katakana, kanji, and a combination thereof. It is preferable that the image recognition of at least some of the characters is performed.

文字のペイント表示は、例えば停止線や中央線等のペイント表示に比べて複雑な形状を有しているので、文字列の画像認識に際しては、その中の一部の文字の画像認識を行うだけで十分に判定可能である。したがって、「とまれ」全体に対して画像認識処理を行う場合はもちろんのこと、その一部のみに対して画像認識処理を行う場合であっても、上記の効果を得ることが可能となる。さらに、画像認識する文字数を減らした場合には、画像認識の処理負担を軽減することが可能となる。   The character paint display, for example, has a more complicated shape than the paint display such as the stop line and the center line. Therefore, when recognizing the image of the character string, only image recognition of a part of the characters is performed. Can be determined sufficiently. Therefore, the above-described effects can be obtained not only when the image recognition process is performed on the entire “to rare” but also when the image recognition process is performed only on a part of the image recognition process. Furthermore, when the number of characters for image recognition is reduced, the processing burden for image recognition can be reduced.

ここで、前記画像認識手段は、前記対象地物に含まれる前記所定の文字列の画像認識処理として、文字の内容を特定しない3文字分の文字的特徴を備えた地物の画像認識を行うと好適である。   Here, the image recognition means performs image recognition of features having character characteristics for three characters that do not specify the content of characters as image recognition processing of the predetermined character string included in the target feature. It is preferable.

この構成によれば、対象地物に含まれる所定の文字列として、文字の内容を特定しない、文字的特徴を備えた3文字分の文字列が設定されるので、文字列「とまれ」の一部がかすれて消えかけていたりした場合であっても、画像認識処理を行うことが可能となる。また、文字の内容を特定しないため、画像認識処理を簡略化できるとともに、文字内容によらない汎用的な認識処理を実行することができる。よって、画像認識の処理負担を軽減することが可能となる。   According to this configuration, as the predetermined character string included in the target feature, a character string for three characters having character characteristics that does not specify the character content is set. Even when the part is faint and disappearing, the image recognition process can be performed. Moreover, since the content of the character is not specified, the image recognition process can be simplified, and a general-purpose recognition process independent of the character content can be executed. Therefore, it is possible to reduce the processing burden of image recognition.

ここで、前記停止義務地点情報は、画像認識に成功した前記対象地物に含まれる前記停止線の位置情報及び少なくとも一時停止義務があることを表す属性情報を有する構成とすると好適である。   Here, it is preferable that the stop duty point information is configured to include position information of the stop line included in the target feature that has been successfully image-recognized and attribute information indicating that there is at least a temporary stop duty.

この構成によれば、新たに生成した停止線の位置情報と、一時停止義務があることを表す属性情報とを出力して、例えば、車両の運転者に対して一時停止を促す注意喚起や、車両制御等の各種の用途に利用させることが可能となる。   According to this configuration, the position information of the newly generated stop line and the attribute information indicating that there is a suspension obligation are output, for example, alerting the driver of the vehicle to suspend, It can be used for various purposes such as vehicle control.

ここで、前記停止線の位置情報は、前記停止線の代表点が有する地図上の座標情報であると好適である。   Here, it is preferable that the position information of the stop line is coordinate information on a map of a representative point of the stop line.

この構成によれば、一時停止義務がある地点の位置を、絶対的な座標情報として正確に取得することができる。   According to this configuration, it is possible to accurately acquire the position of the point where the suspension is required as absolute coordinate information.

また、交差点に対応するノード及び各交差点を結ぶ道路に対応するリンクにより道路の接続関係を表す道路ネットワーク情報を含む地図情報を記憶した地図情報記憶手段を備え、前記停止義務地点情報は、画像認識に成功した前記対象地物が存在するリンクにおけるリンク端に一時停止義務があることを表す属性情報を有すると好適である。   Further, the information processing apparatus includes map information storage means for storing map information including road network information representing road connection relations by nodes corresponding to intersections and links corresponding to roads connecting the intersections, and the stop duty point information includes image recognition. It is preferable to have attribute information indicating that there is a suspension obligation at the link end in the link where the target feature that has succeeded successfully.

この構成によれば、地図情報記憶手段に記憶されるリンクに関する情報を利用して、停止義務地点情報を生成するための処理負荷を軽減することができる。また、少ないデータ量で、例えば停止義務地点の案内の用に十分に供することが可能となる。   According to this configuration, it is possible to reduce the processing load for generating the stop duty point information using the information related to the link stored in the map information storage unit. In addition, it is possible to sufficiently provide a small amount of data, for example, for guidance of a stop duty point.

本発明に係る地点情報収集装置の特徴構成は、上記記載の画像認識装置と、前記地点情報生成手段により生成された前記停止義務地点情報を記憶する地点情報記憶手段と、を備える点にある。   A characteristic configuration of the spot information collecting apparatus according to the present invention is that the spot information collecting apparatus includes the above-described image recognition apparatus and spot information storage means for storing the stop duty spot information generated by the spot information generating means.

この構成によれば、上記の画像認識装置において画像認識結果に基づき生成された停止義務地点情報を記憶できるので、一時停止義務がある地点に関する情報を収集して記憶可能な地点情報収集装置を提供することができる。   According to this configuration, since it is possible to store the stop duty point information generated based on the image recognition result in the above image recognition device, a point information collection device capable of collecting and storing information related to the point where the suspension is required is provided. can do.

また、本発明に係る地点情報収集装置のもう一つの特徴構成は、上記記載の画像認識装置と、前記地点情報生成手段により生成された前記停止義務地点情報を記憶する地点情報記憶手段と、同じ対象地物が複数回画像認識されることにより生成され、前記地点情報記憶手段に記憶された、同じ地点についての複数の前記停止義務地点情報に基づいて、前記一時停止義務がある地点の推測位置を判定する推測位置判定手段と、前記推測位置判定手段により判定された前記推測位置を、前記一時停止義務がある地点の位置とする統計的停止義務地点情報を生成する統計的地点情報生成手段と、前記統計的地点情報生成手段により生成された前記統計的停止義務地点情報を記憶する統計的地点情報記憶手段と、を備える点にある。   Further, another characteristic configuration of the spot information collecting apparatus according to the present invention is the same as the image recognition apparatus described above and the spot information storage means for storing the stop duty spot information generated by the spot information generating means. The estimated position of the point having the duty to pause based on a plurality of the duty points to be stopped for the same point, which is generated by image recognition of the target feature a plurality of times and stored in the point information storage unit An estimated position determination means for determining the statistical position information generating means for generating statistical stop duty point information that uses the estimated position determined by the estimated position determination means as a position of the point where the temporary stop duty exists. And statistical point information storage means for storing the statistical stop obligation point information generated by the statistical point information generation means.

この構成によれば、同じ対象地物が複数回画像認識されることにより地点情報記憶手段に記憶された、同一地点についての複数の停止義務地点情報に基づいて、当該一時停止義務がある地点の推測位置が判定される。したがって、それぞれの停止義務地点情報が示す一時停止義務がある地点の認識位置に誤差が含まれる場合であっても、複数の停止義務地点情報を用いて推測位置を判定することにより当該誤差を平均化し、一時停止義務がある地点の推測位置を実際の位置にできるだけ近づけることが可能となる。そして、推測位置を用いて統計的停止義務地点情報を生成し、これを記憶することができる。したがって、高精度な情報を収集することが可能となる。   According to this configuration, based on a plurality of stop duty point information for the same point stored in the point information storage unit by image recognition of the same target feature multiple times, An estimated position is determined. Therefore, even if there is an error in the recognition position of the point with the suspension obligation indicated by each stop duty point information, the error is averaged by determining the estimated position using multiple stop duty point information. It becomes possible to make the estimated position of the point having the obligation to pause as close as possible to the actual position. And statistical stop duty point information can be produced | generated using an estimated position, and this can be memorize | stored. Therefore, highly accurate information can be collected.

ここで、前記推測位置判定手段は、同じ地点についての複数の前記停止義務地点情報が表す前記一時停止義務がある地点の位置の分布に基づいて、当該分布の代表値を前記推測位置として判定すると好適である。   Here, the estimated position determination means determines a representative value of the distribution as the estimated position based on a distribution of positions of the points having the temporary stop obligation represented by the plurality of stop duty point information for the same point. Is preferred.

この構成によれば、同じ一時停止義務のある地点についての複数の停止義務地点情報を用いた統計的処理により、適切に当該地点の推測位置を判定することができる。   According to this structure, the estimated position of the said point can be appropriately determined by the statistical process using the several stop obligation point information about the point with the same temporary stop obligation.

ここで、上記の停止義務地点情報を生成する画像認識装置において、前記対象地物の画像認識に成功した場合に、当該画像認識に成功した前記対象地物に含まれる前記所定の文字列の位置情報及び属性情報を有する文字列情報を生成する文字列情報生成手段を更に備える構成とすると好適である。   Here, in the image recognition apparatus that generates the above-described stop duty point information, when image recognition of the target feature is successful, the position of the predetermined character string included in the target feature that has succeeded in the image recognition It is preferable to further include character string information generating means for generating character string information having information and attribute information.

この構成によれば、新たに生成した所定の文字列の位置情報及び属性情報を出力して、他の用途に利用させることが可能となる。   According to this configuration, it is possible to output position information and attribute information of a newly generated predetermined character string and use it for other purposes.

本発明に係る地点情報収集装置の更にもう一つの特徴構成は、上記の停止義務地点情報及び文字列情報を生成する画像認識装置と、前記文字列情報生成手段により生成された前記文字列情報を、前記停止義務地点情報と関連付けて記憶する文字列情報記憶手段と、を備える点にある。   Still another characteristic configuration of the point information collecting apparatus according to the present invention is that the character recognition information generated by the character recognition information generation unit and the image recognition device that generates the stop duty point information and the character string information are included. And character string information storage means for storing the information in association with the stop duty point information.

この構成によれば、一時停止義務のある地点について充実した情報を収集可能な地点情報収集装置を提供することができる。   According to this configuration, it is possible to provide a point information collection device that can collect abundant information about a point for which a suspension is required.

本発明に係るナビゲーション装置の特徴構成は、上記記載の地点情報収集装置と、前記自車位置情報と前記停止義務地点情報とに基づいて、前記一時停止義務がある地点についての案内を行う案内手段と、を備える点にある。   The characteristic configuration of the navigation device according to the present invention is the guidance means for guiding the point where the suspension is required based on the point information collection device described above and the own vehicle position information and the stop obligation point information. And in the point provided.

この構成によれば、ナビゲーション装置は、上記の地点情報収集装置を用いて収集された停止義務地点情報を参照して案内をするので、もともとデータベースに格納されていなかった地点についても、一時停止義務がある旨の案内を行うことが可能となる。   According to this configuration, since the navigation apparatus guides with reference to the stop duty point information collected using the above-described point information collection device, even for points that were not originally stored in the database, It is possible to provide guidance to the effect.

本発明に係る画像認識プログラムの特徴構成は、自車両の現在位置を表す自車位置情報を取得する自車位置情報取得ステップと、自車両の周辺の画像情報を取得する画像情報取得ステップと、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、前記画像情報に含まれる前記対象地物の画像認識処理を行う画像認識ステップと、前記対象地物の画像認識に成功した場合に、当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報を生成する地点情報生成ステップと、をコンピュータに実行させる点にある。   The characteristic configuration of the image recognition program according to the present invention includes a host vehicle position information acquisition step for acquiring host vehicle position information representing the current position of the host vehicle, an image information acquisition step for acquiring image information around the host vehicle, An image for performing image recognition processing of the target feature included in the image information with a combination of a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line as a target feature A recognition step, and when the image recognition of the target feature is successful, based on the image recognition result of the target feature, a point information generation step of generating stop obligation point information representing a point where there is a suspension obligation; Is to make the computer execute.

この構成によれば、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定するため、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列との組み合せを画像認識するため、車幅方向に長いペイント表示のうち文字列に隣接していないものは対象地物から外れることになり、停止線を単独で画像認識する場合に比べて認識精度を向上させることが可能となる。   According to this configuration, when the image recognition of a combination of a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line is successful, the position of the stop line is temporarily stopped. Since it is determined that the point is obligatory, it is possible to extract and recognize only the stop line having a temporary stop obligation. In addition, in order to recognize the combination of the stop line and the predetermined character string, the paint display that is not adjacent to the character string out of the long paint display in the vehicle width direction will be removed from the target feature. The recognition accuracy can be improved compared to the case of image recognition.

〔第一の実施形態〕
次に、本発明の第一の実施形態について図面を参照して説明する。
図1は、本実施形態に係る画像認識装置3を含む地点情報収集装置2を適用したナビゲーション装置1の概略構成を示すブロック図である。この画像認識装置3は、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定して、画像認識に成功した対象地物に含まれる停止線の位置情報及び属性情報を停止義務地点情報sとして生成する。そして、地点情報収集装置2は、画像認識装置3が生成した停止義務地点情報sを記憶していく。また、ナビゲーション装置1は、目的地までの経路案内等の通常の処理を行うとともに、地点情報収集装置2が収集した一時停止義務のある地点に係る情報を参照して、その案内を行う。
[First embodiment]
Next, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a navigation device 1 to which a point information collection device 2 including an image recognition device 3 according to this embodiment is applied. When the image recognition device 3 succeeds in image recognition of a combination of a stop line provided on the road surface of a road and a predetermined character string provided adjacent to the stop line, the position of the stop line is temporarily changed. The position information and the attribute information of the stop line included in the target feature for which image recognition has been successfully performed are determined as the stop duty point information s. Then, the point information collection device 2 stores the stop duty point information s generated by the image recognition device 3. In addition, the navigation device 1 performs normal processing such as route guidance to the destination, and performs guidance by referring to the information related to the point with the duty of temporary suspension collected by the point information collection device 2.

図1に示す地点情報収集装置2の各機能部、具体的には、画像情報取得部5、画像認識部6、自車位置情報取得部4、地点情報生成部9、推測位置判定部10、統計的地点情報生成部11及びナビゲーション用演算部12は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。そして、これらの各機能部は、互いに情報の受け渡しを行うことができるように構成されている。また、地図データベースDB1及び地物データベースDB2は、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウェア構成として備えており、学習データベースDB3及び停止義務地点データベースDB4は、例えば、ハードディスクドライブ、DVD−RAMを備えたDVDドライブ等のように、書換えが可能な記録媒体とその駆動手段とを有する装置をハードウェア構成として備えている。以下、本実施形態に係るナビゲーション装置1の各部の構成について詳細に説明する。   Each functional unit of the spot information collection device 2 shown in FIG. 1, specifically, an image information acquisition unit 5, an image recognition unit 6, an own vehicle position information acquisition unit 4, a spot information generation unit 9, an estimated position determination unit 10, The statistical point information generation unit 11 and the navigation calculation unit 12 have a functional unit for performing various processes on input data using a calculation processing device such as a CPU as a core member, or hardware or software (program). Or it is mounted and comprised by both. Each of these functional units is configured to exchange information with each other. Further, the map database DB1 and the feature database DB2 are, for example, a recording medium capable of storing information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, and a driving means thereof The learning database DB3 and the stop obligation point database DB4 are, for example, a rewritable recording medium such as a hard disk drive, a DVD drive equipped with a DVD-RAM, and the like. A device having a driving means is provided as a hardware configuration. Hereinafter, the configuration of each part of the navigation device 1 according to the present embodiment will be described in detail.

1−1.地図データベース
地図データベースDB1は、所定の区画毎に分けられた地図情報Mが記憶されたデータベースである。図2は、地図データベースDB1に記憶されている地図情報Mの構成の例を示す図である。この図に示すように、地図情報Mは、交差点に対応する多数のノードnと、各交差点間を結ぶ道路に対応するリンクkとの接続関係により道路ネットワークを表す道路情報Raを有している。各ノードnは、緯度及び経度で表現された地図上の位置(座標)の情報を有している。各リンクkは、ノードnを介して接続されており、その属性情報として、道路種別、地域種別、リンク長、道路幅、リンク形状を表現するための形状補間点等の情報を有している。なお、図2においては、一つの区画の道路情報Raのみを図示し、他の区画の道路情報Raは省略して示している。
1-1. Map database The map database DB1 is a database in which map information M divided into predetermined sections is stored. FIG. 2 is a diagram illustrating an example of the configuration of the map information M stored in the map database DB1. As shown in this figure, the map information M has road information Ra representing a road network by connection relations between a large number of nodes n corresponding to intersections and links k corresponding to roads connecting the intersections. . Each node n has information on the position (coordinates) on the map expressed by latitude and longitude. Each link k is connected via the node n, and has attribute information such as road type, area type, link length, road width, and shape interpolation point for expressing the link shape. . In FIG. 2, only the road information Ra of one section is illustrated, and the road information Ra of other sections is omitted.

1−2.地物データベース
地物データベースDB2は、道路の路面に設けられた地物の情報、すなわち地物情報Fを記憶するデータベースである。図3は、地物データベースDB2に記憶されている道路標示の地物情報Fの例を示す図である。本実施形態において地物データベースDB2に地物情報Fが記憶される地物は、少なくとも、道路の路面に設けられた停止線と、当該停止線に隣接して設けられた所定の文字列とを含んでいる。地物データベースDB2は、その他にも、例えば、横断歩道、停止線、最高速度等を表す速度標示、ゼブラゾーン、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示(矢印標示、例えば、直進矢印、右折矢印等を含む)等に係る地物情報Fを含んでいても良い。なお、地物情報Fが記憶される地物としては、このような道路標示のほか、信号機、標識、陸橋、トンネル等の各種の地物も含めることができる。また、地物情報Fは、その内容として各地物の位置情報と、それに関連付けられた地物属性情報とを有している。ここで、位置情報は、道路情報Raを構成するリンクk又はノードn等と関連付けられた各地物の代表点の地図上の位置(座標)、及び各地物の向きの情報を有している。また、地物属性情報は、各地物の地物種別を表す種別情報、或いは、地物の形状、大きさ、色彩等の地物形態情報等を含んでいる。ここで、地物種別は、具体的には、「横断歩道」、「停止線」、「速度標示(30km/時)」等のような、基本的に同じ形態を有する地物の種別を表す情報である。また、詳しくは説明しないが、地物情報Fは、画像認識部6による道路上の実際の地物の画像認識処理と合わせて、自車位置情報Pの補正や車両制御等に用いることができる。
1-2. Feature database The feature database DB2 is a database for storing feature information provided on the road surface of the road, that is, feature information F. FIG. 3 is a diagram illustrating an example of the feature information F of the road marking stored in the feature database DB2. In this embodiment, the feature information F stored in the feature database DB2 includes at least a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line. Contains. In addition, the feature database DB2, for example, a pedestrian crossing, a stop line, a speed sign indicating a maximum speed, a zebra zone, a lane line that divides a lane along the road (a variety of sections such as a solid line, a broken line, and a double line) ), And feature information F related to a traveling direction marking (including an arrow marking, for example, a straight arrow, a right turn arrow, etc.) specifying the traveling direction of each lane. In addition to such road markings, the features in which the feature information F is stored can include various features such as traffic lights, signs, overpasses, and tunnels. The feature information F includes position information of each feature and feature attribute information associated therewith as its contents. Here, the position information includes information on the position (coordinates) on the map of the representative point of each feature associated with the link k or the node n constituting the road information Ra, and the direction of each feature. The feature attribute information includes type information indicating the type of each feature, or feature form information such as the shape, size, and color of the feature. Here, the feature type specifically indicates the type of feature having basically the same form such as “pedestrian crossing”, “stop line”, “speed indication (30 km / hour)”, and the like. Information. Although not described in detail, the feature information F can be used for correction of the vehicle position information P, vehicle control, and the like, together with image recognition processing of actual features on the road by the image recognition unit 6. .

1−3.学習データベース
学習データベースDB3は、後述する地点情報生成部9により生成された停止義務地点情報sを記憶するデータベースである。この学習データベースDB3には、画像認識部6による画像認識に成功した一時停止義務のある複数の地点のそれぞれについて、一又は二以上の停止義務地点情報sが記憶される。この学習データベースDB3に記憶される停止義務地点情報sについては、後述する。本実施形態においては、この学習データベースDB3が、本発明における地点情報記憶手段に相当する。
1-3. Learning Database The learning database DB3 is a database that stores the stop mandatory point information s generated by the point information generation unit 9 described later. In this learning database DB3, one or more stop obligation point information s is stored for each of a plurality of points having a stop obligation that has been successfully recognized by the image recognition unit 6. The stop obligation point information s stored in the learning database DB3 will be described later. In the present embodiment, this learning database DB3 corresponds to the point information storage means in the present invention.

1−4.停止義務地点データベース
停止義務地点データベースDB4は、後述する統計的地点情報生成部11により生成された統計的停止義務地点情報Sを記憶するデータベースである。この停止義務地点データベースDB4には、画像認識部6による画像認識に成功した一時停止義務のある複数の地点のそれぞれについて生成された統計的停止義務地点情報Sが記憶されている。この停止義務地点データベースDB4に記憶される統計的停止義務地点情報Sについては、後述する。本実施形態においては、この停止義務地点データベースDB4が、本発明における統計的地点情報記憶手段に相当する。
1-4. Stop Obligation Point Database The stop duty point database DB4 is a database that stores statistical stop duty point information S generated by a statistical point information generation unit 11 described later. In the stop obligation point database DB4, statistical stop obligation point information S generated for each of a plurality of points having a stop obligation that has been successfully recognized by the image recognition unit 6 is stored. The statistical stop duty point information S stored in the stop duty point database DB4 will be described later. In this embodiment, this stop obligation point database DB4 corresponds to the statistical point information storage means in the present invention.

1−5.自車位置情報取得部
自車位置情報取得部4は、自車両の現在位置を示す自車位置情報Pを取得する自車位置情報取得手段として機能する。ここでは、自車位置情報取得部4は、GPS受信機15、方位センサ16、及び距離センサ17と接続されている。ここで、GPS受信機15は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置情報取得部4へ出力される。自車位置情報取得部4では、GPS受信機15で受信されたGPS衛星からの信号を解析し、自車両の現在位置(緯度及び経度)、進行方位、移動速度等の情報を取得することができる。方位センサ16は、自車両の進行方位又はその進行方位の変化を検出するセンサである。この方位センサ16は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。そして、方位センサ16は、その検出結果を自車位置情報取得部4へ出力する。距離センサ17は、自車両の車速や移動距離を検出するセンサである。この距離センサ17は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両の加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。そして、距離センサ17は、その検出結果としての車速及び移動距離の情報を自車位置情報取得部4へ出力する。
1-5. Own vehicle position information acquisition unit The own vehicle position information acquisition unit 4 functions as own vehicle position information acquisition means for acquiring own vehicle position information P indicating the current position of the own vehicle. Here, the vehicle position information acquisition unit 4 is connected to the GPS receiver 15, the direction sensor 16, and the distance sensor 17. Here, the GPS receiver 15 is a device that receives a GPS signal from a GPS (Global Positioning System) satellite. This GPS signal is normally received every second and output to the vehicle position information acquisition unit 4. The own vehicle position information acquisition unit 4 can analyze signals from GPS satellites received by the GPS receiver 15 and acquire information such as the current position (latitude and longitude), traveling direction, and moving speed of the own vehicle. it can. The direction sensor 16 is a sensor that detects a traveling direction of the host vehicle or a change in the traveling direction. The azimuth sensor 16 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, and an angle sensor attached to the wheel part. Then, the direction sensor 16 outputs the detection result to the vehicle position information acquisition unit 4. The distance sensor 17 is a sensor that detects a vehicle speed and a moving distance of the host vehicle. The distance sensor 17 integrates, for example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft or wheel of the vehicle rotates by a certain amount, a yaw / G sensor that detects the acceleration of the host vehicle, and the detected acceleration. It is composed of a circuit or the like. Then, the distance sensor 17 outputs information on the vehicle speed and movement distance as the detection result to the vehicle position information acquisition unit 4.

そして、自車位置情報取得部4は、これらのGPS受信機15、方位センサ16及び距離センサ17からの出力に基づいて、公知の方法により自車位置を特定する演算を行う。また、自車位置情報取得部4は、地図データベースDB1から自車位置周辺の地図情報Mを取得し、それに基づいて公知のマップマッチングを行うことにより自車位置を地図情報Mに示される道路上に合わせる補正も行う。このようにして、自車位置情報取得部4は、緯度及び経度で表された自車両の現在位置の情報、及び自車両の進行方位の情報を含む自車位置情報Pを取得する。自車位置情報取得部4で得られた自車位置情報Pは、地点情報生成部9に出力される。   And the own vehicle position information acquisition part 4 performs the calculation which pinpoints an own vehicle position by a well-known method based on the output from these GPS receiver 15, the direction sensor 16, and the distance sensor 17. FIG. In addition, the vehicle position information acquisition unit 4 acquires map information M around the vehicle position from the map database DB1 and performs known map matching based on the map information M on the road indicated by the map information M. Correction to match is also performed. In this way, the host vehicle position information acquisition unit 4 acquires host vehicle position information P including information on the current position of the host vehicle represented by latitude and longitude and information on the traveling direction of the host vehicle. The vehicle position information P obtained by the vehicle position information acquisition unit 4 is output to the point information generation unit 9.

1−6.画像情報取得部
画像情報取得部5は、撮像装置18により撮像した自車両の周辺の画像情報Gを取得する画像情報取得手段として機能する。ここで、撮像装置18は、撮像素子を備えた車載カメラ等であって、少なくとも自車両の周辺の道路の路面を撮像可能な位置に設けられている。このような撮像装置18としては、例えば、図4に示すような自車両の後方の路面を撮像するバックカメラを用いると好適である。以下では、このようなバックカメラを用いて自車両の周辺の画像情報Gを取得する例について説明する。画像情報取得部5は、撮像装置18により撮像した画像情報Gをフレームメモリ(不図示)等を介して所定の時間間隔で取り込む。この際の画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部5は、撮像装置18により撮像した複数フレームの画像情報Gを連続的に取得することができる。ここで取得された画像情報Gは、画像認識部6へ出力される。
1-6. Image Information Acquisition Unit The image information acquisition unit 5 functions as an image information acquisition unit that acquires image information G around the host vehicle captured by the imaging device 18. Here, the imaging device 18 is an in-vehicle camera or the like provided with an imaging element, and is provided at a position where at least a road surface of a road around the host vehicle can be imaged. As such an imaging device 18, for example, a back camera that images the road surface behind the host vehicle as shown in FIG. 4 is preferably used. Below, the example which acquires the image information G around the own vehicle using such a back camera is demonstrated. The image information acquisition unit 5 captures image information G captured by the imaging device 18 at predetermined time intervals via a frame memory (not shown) or the like. The time interval for capturing the image information G at this time can be set to, for example, about 10 to 50 ms. Thereby, the image information acquisition unit 5 can continuously acquire the image information G of a plurality of frames captured by the imaging device 18. The image information G acquired here is output to the image recognition unit 6.

1−7.画像認識部
画像認識部6は、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、画像情報Gに含まれる対象地物の画像認識処理を行う画像認識手段として機能する。画像認識部6は、道路上に設けられた対象地物、すなわち停止線及び所定の文字列についての画像認識処理を行う形状認識部7と、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定部8とを備える。本明細書においては、特に区別して使用しない限り、画像認識部6とは、形状認識部7と隣接判定部8とを合わせたものを意味するものとする。
1-7. Image recognition unit The image recognition unit 6 uses a combination of a stop line provided on a road surface of a road and a predetermined character string provided adjacent to the stop line as a target feature, and includes a target site included in the image information G. It functions as an image recognition means for performing image recognition processing of an object. The image recognition unit 6 includes a shape recognition unit 7 that performs image recognition processing on target features provided on the road, that is, a stop line and a predetermined character string, a stop line recognized by the shape recognition unit 7, and a predetermined line. And an adjacency determination unit 8 that determines whether or not the character string is adjacent. In the present specification, unless specifically distinguished and used, the image recognition unit 6 means a combination of the shape recognition unit 7 and the adjacent determination unit 8.

1−7−1.形状認識部
形状認識部7は、道路の路面に設けられた停止線及び所定の文字列を対象地物とし、画像情報Gに含まれる対象地物の形状について画像認識処理を行う形状認識手段として機能する。対象地物の画像認識に際しては、形状認識部7はまず所定の文字列を画像認識し、その後停止線を画像認識する。
ここで形状認識部7は、対象地物に含まれる所定の文字列の画像認識処理として、ひらがな、カタカナ、漢字、及びこれらの組み合せのいずれかで表された「とまれ」の文字列の中の少なくとも一部の文字の画像認識を行う。本実施形態では、「とまれ」の文字列のうち、文字「ま」及び「れ」についての画像認識を行う例について説明する。ここで、対象地物に含まれる文字列「とまれ」のうち、文字「ま」及び「れ」を画像認識の対象とするのは、これらが文字的特徴を備えているために、文字列「とまれ」を画像認識の対象とするのと同視できるからである。すなわち、これらは道路状に設けられた各種の地物の中でも比較的エッジが多く、また複雑な形状を有しており、文字らしい特徴を元来備えているので、これらの画像認識に成功すれば、対象地物に含まれる所定の文字列の画像認識に成功したとみなすことができるからである。文字「ま」及び「れ」の画像認識に際しては、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と対象地物である文字「ま」及び「れ」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「ま」及び「れ」の画像を抽出する。その結果、画像情報Gの中から文字「ま」及び「れ」の画像を抽出できた場合には、形状認識部7は隣接判定部8に対してその結果を出力するとともに、次いで停止線の形状についての画像認識を行う。停止線の画像認識に際しても、上記と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と対象地物である停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる停止線の画像を抽出する。そして、後述するように、自車両の移動距離が所定距離Dを超えるまでの間に画像情報Gの中から停止線の画像を抽出できた場合に、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定される。隣接判定部8が行う処理については後述する。
1-7-1. Shape Recognizing Unit The shape recognizing unit 7 is a shape recognizing unit that performs image recognition processing on the shape of the target feature included in the image information G using the stop line and the predetermined character string provided on the road surface of the road as the target feature. Function. When recognizing the target feature, the shape recognizing unit 7 first recognizes a predetermined character string and then recognizes the stop line.
Here, the shape recognizing unit 7 performs image recognition processing of a predetermined character string included in the target feature in a character string of “to rare” represented by any one of hiragana, katakana, kanji, and a combination thereof. Image recognition of at least some characters is performed. In the present embodiment, an example will be described in which image recognition is performed on the characters “MA” and “RE” among the character strings “TOREMA”. Here, among the character strings “to rare” included in the target feature, the characters “ma” and “re” are targeted for image recognition because they have character characteristics. This is because “to rare” can be regarded as the object of image recognition. In other words, they have relatively many edges among the various features provided on the road, have complex shapes, and originally have character-like features. This is because it can be considered that the image recognition of the predetermined character string included in the target feature has succeeded. When recognizing the characters “MA” and “RE”, the image information G is subjected to binarization processing, edge detection processing, etc., and contour information of the feature (road marking) included in the image information G To extract. The shape recognizing unit 7 performs pattern matching between the extracted contour information of the feature and the feature quantities of the characters “ma” and “re” as the target feature, thereby performing the character “ma” included in the image information G. "And" re "images are extracted. As a result, when the images of the characters “MA” and “RE” can be extracted from the image information G, the shape recognition unit 7 outputs the result to the adjacency determination unit 8 and then displays the stop line. Perform image recognition on the shape. When recognizing a stop line, as in the case described above, binarization processing and edge detection processing are performed on the image information G, and the contour information of the feature (road marking) contained in the image information G is obtained. Extract. The shape recognizing unit 7 extracts a stop line image included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the form of the stop line that is the target feature. As will be described later, when an image of the stop line can be extracted from the image information G until the moving distance of the host vehicle exceeds the predetermined distance D, it is provided on the target feature, that is, the road surface of the road. It is determined that the image recognition of the combination of the stop line and a predetermined character string provided adjacent to the stop line is successful. Processing performed by the adjacency determination unit 8 will be described later.

図5は、本実施形態に係る地点情報収集装置2が有する画像認識部6のうち、形状認識部7が行う画像認識処理の一例を説明するための説明図である。図5に示す交差点付近には、4つの停止線f1〜f4が存在している。このうち、一時停止義務のある停止線は、その手前の路面上に「とまれ」の文字標示が存在するf2及びf4である。いま、自車両が図中を矢印方向に進んでいるとすると、自車両に搭載されたバックカメラは、図6のような画像情報Gを取得する。すなわち、バックカメラにより取得された画像情報Gには、図6(a)に示すように、まず、文字列「とまれ」のうち文字「れ」が含まれるはずである。形状認識部7は画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と文字「れ」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「れ」の画像を抽出する。次に、図6(b)に示すように、画像情報Gには文字列「とまれ」のうち文字「ま」が含まれてくるはずである。形状認識部7は、文字「れ」の画像認識処理と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と文字「ま」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「ま」の画像を抽出する。なお、文字「ま」の画像認識に成功した時点で、形状認識部7はその結果を隣接判定部8へ出力する。次に、図6(c)に示すように、画像情報Gには文字列「とまれ」のうち文字「と」が含まれてくるはずである。本実施形態においては、文字列「とまれ」のうち、文字「ま」及び「れ」を対象地物としているため、形状認識部7は文字「と」については画像認識処理を行わない。最後に、図6(d)に示すように、画像情報Gには停止線が含まれてくるはずである。形状認識部7は、文字「れ」及び「ま」の画像認識処理と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる停止線の画像を抽出する。   FIG. 5 is an explanatory diagram for explaining an example of an image recognition process performed by the shape recognition unit 7 among the image recognition units 6 included in the spot information collection device 2 according to the present embodiment. Near the intersection shown in FIG. 5, there are four stop lines f1 to f4. Among these, the stop lines that are obligated to temporarily stop are f2 and f4 in which the character sign “Tare” is present on the road surface in front of it. Now, assuming that the host vehicle is moving in the direction of the arrow in the figure, the back camera mounted on the host vehicle acquires image information G as shown in FIG. That is, as shown in FIG. 6A, the image information G acquired by the back camera should first include the character “Re” in the character string “Tare”. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G, and extracts contour information of the feature (road marking) included in the image information G. The shape recognition unit 7 extracts an image of the character “re” included in the image information G by performing pattern matching between the extracted feature outline information and the feature amount of the character “re”. Next, as shown in FIG. 6B, the image information G should include the character “ma” in the character string “rare”. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G in the same manner as the image recognition processing of the character “re”, and the features (road markings) included in the image information G ) Contour information is extracted. The shape recognition unit 7 extracts an image of the character “MA” included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the character “MA”. Note that, when the image recognition of the character “MA” is successful, the shape recognition unit 7 outputs the result to the adjacency determination unit 8. Next, as shown in FIG. 6C, the image information G should include the character “TO” in the character string “TORAARE”. In this embodiment, since the characters “ma” and “re” are the target features in the character string “to rare”, the shape recognition unit 7 does not perform image recognition processing on the characters “to”. Finally, as shown in FIG. 6D, the image information G should contain a stop line. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G in the same manner as the image recognition processing of the characters “re” and “ma”, and includes the ground included in the image information G. The contour information of the object (road marking) is extracted. The shape recognition unit 7 extracts a stop line image included in the image information G by performing pattern matching between the extracted feature outline information and the feature amount of the stop line form.

1−7−2.隣接判定部
隣接判定部8は、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定手段として機能する。隣接判定部8は、停止線と文字列「とまれ」との間の距離が所定距離D以内であるか否かを判定することにより、これらが隣接しているか否かを判定する。ここで所定距離Dは、実際の路面上に設けられた対象地物を構成する停止線と文字列「とまれ」との間の距離を予め調べておき、その結果に基づいて予め設定される。例えば、一時停止義務のある、複数の地点における停止線と文字列「とまれ」との間の距離のうち、最大距離よりもやや大きい距離を所定距離Dとして設定することができる。
図7には、停止線と文字列「とまれ」との間の距離が隣接するか否かを判定するための一例を示している。本例において、隣接判定部8は、形状認識部7が画像情報Gの中から文字「ま」の画像認識に成功した際の出力を受けたときに、文字「ま」を画像認識した位置からの自車両の移動距離の計測を開始する。隣接判定部8は距離センサ17と接続されており、自車両の移動距離が所定距離Dを超えるまでの間、形状認識部7は停止線の画像認識処理を実行し続ける。所定距離Dを超えるまでに形状認識部7が停止線の画像認識に成功した場合に、画像認識部6は、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定する。一方、形状認識部7が停止線の画像認識に成功する前に自車両の移動距離が所定距離Dを超えてしまった場合には、停止線と所定の文字列とが隣接していないことになるため、対象地物の画像認識に成功したとは判定されない。
このように、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定することで、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列と間の距離が一定の大きさ以上の場合には対象地物の画像認識に成功したとは判定されないため、停止線と何らかの文字列が一定の距離をおいて続けて画像認識された場合等に生じ得る一時停止義務のある地点の誤認識を、抑制することができる。
画像認識部6が対象地物の画像認識に成功したと判定した場合、その結果を地点情報生成部9に出力する。
1-7-2. Adjacency determination unit The adjacency determination unit 8 functions as an adjacency determination unit that determines whether or not the stop line image-recognized by the shape recognition unit 7 is adjacent to a predetermined character string. The adjacency determination unit 8 determines whether or not these are adjacent by determining whether or not the distance between the stop line and the character string “to rare” is within a predetermined distance D. Here, the predetermined distance D is set in advance based on a result obtained by checking in advance the distance between the stop line constituting the target feature provided on the actual road surface and the character string “Torare”. For example, a distance that is slightly larger than the maximum distance among the distances between the stop line and the character string “Torare” at a plurality of points that are obliged to be temporarily stopped can be set as the predetermined distance D.
FIG. 7 shows an example for determining whether or not the distance between the stop line and the character string “To rare” is adjacent. In this example, when the shape recognition unit 7 receives an output when the shape recognition unit 7 succeeds in image recognition of the character “ma” from the image information G, the adjacency determination unit 8 starts from the position where the character “ma” is image-recognized. The measurement of the movement distance of the vehicle is started. The adjacency determination unit 8 is connected to the distance sensor 17, and the shape recognition unit 7 continues to execute the stop line image recognition process until the moving distance of the host vehicle exceeds the predetermined distance D. When the shape recognition unit 7 has succeeded in image recognition of the stop line before exceeding the predetermined distance D, the image recognition unit 6 is adjacent to the target feature, that is, the stop line provided on the road surface of the road, and the stop line. It is determined that the image recognition of the combination with the predetermined character string provided is successful. On the other hand, if the moving distance of the host vehicle exceeds the predetermined distance D before the shape recognition unit 7 successfully recognizes the stop line image, the stop line and the predetermined character string are not adjacent to each other. Therefore, it is not determined that the image recognition of the target feature has succeeded.
As described above, when the image recognition of the combination of the stop line provided on the road surface and the predetermined character string provided adjacent to the stop line is successful, the position of the stop line is obliged to pause. By determining that the point is a certain point, it is possible to extract and recognize only the stop line having the obligation of temporary stop. In addition, if the distance between the stop line and the predetermined character string is greater than a certain size, it is not determined that the image of the target feature has been successfully recognized. Therefore, the stop line and some character string have a certain distance. Thus, it is possible to suppress erroneous recognition of a point having a duty of suspension that may occur when image recognition is continued.
When the image recognition unit 6 determines that the image recognition of the target feature has succeeded, the result is output to the point information generation unit 9.

1−8.地点情報生成部
地点情報生成部9は、画像認識部6による画像認識処理において対象地物の画像認識に成功した場合に、自車位置情報P及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報sを生成する地点情報生成手段として機能する。停止義務地点情報sは、各地点を他の地点と識別するための識別情報(地点ID)、一時停止義務のある地点の位置情報及び少なくとも一時停止義務があることを表す属性情報を有している。本実施形態においては、画像認識に成功した対象地物に含まれる停止線の位置を、一時停止義務のある地点の位置としている。
停止線の位置は、自車位置情報P及び当該停止線の画像認識結果に基づいて決定される。ここで、画像情報Gに含まれる現実の停止線の位置は、自車両への撮像装置18の取付位置、取付角度、及び画角等に基づいて予め演算された自車位置と撮像領域との位置関係を用いることで、自車位置情報Pに基づいて正確に求めることができる。こうして決定された位置情報は、停止線の代表点が有する地図上の位置(座標)情報である。本実施形態において、代表点は、各停止線の長さ方向及び幅方向の中央部に設定される。また、停止線が有する属性情報としては、少なくとも「一時停止義務有り」の情報を有している。これ以外にも、例えば「停止線」、「手前に文字列有り」等の情報を含んでいても良い。
地点情報生成部9において生成した停止義務地点情報sは、学習データベースDB3に出力されて学習データベースDB3に記憶される。自車両が同じ道路を複数回走行することにより、同じ対象地物が複数回画像認識された場合には、同じ地点についての複数の停止義務地点情報sが生成され、学習データベースDB3に記憶される。
1-8. Point information generating unit When the point recognition generating unit 9 succeeds in image recognition of the target feature in the image recognition processing by the image recognition unit 6, based on the vehicle position information P and the image recognition result of the target feature, It functions as a point information generation means for generating stop obligation point information s representing a point with a temporary stop obligation. The obligatory stop point information s has identification information (point ID) for identifying each point from other points, position information of the point with the obligation to pause, and attribute information indicating that there is at least a pause obligation Yes. In the present embodiment, the position of the stop line included in the target feature that has been successfully image-recognized is set as the position of the point where the temporary stop is required.
The position of the stop line is determined based on the vehicle position information P and the image recognition result of the stop line. Here, the actual position of the stop line included in the image information G is the position of the vehicle and the imaging area calculated in advance based on the mounting position, mounting angle, and angle of view of the imaging device 18 to the host vehicle. By using the positional relationship, the vehicle position information P can be obtained accurately. The position information thus determined is position (coordinate) information on the map of the representative point of the stop line. In the present embodiment, the representative point is set at the center in the length direction and the width direction of each stop line. Further, the attribute information that the stop line has includes at least “temporary stop obligation” information. In addition to this, information such as “stop line”, “character string in front” may be included.
The stop mandatory point information s generated by the point information generation unit 9 is output to the learning database DB3 and stored in the learning database DB3. When the same target feature is image-recognized a plurality of times by the host vehicle traveling a plurality of times on the same road, a plurality of stop obligation point information s for the same point is generated and stored in the learning database DB3. .

1−9.推測位置判定部
推測位置判定部10は、同じ対象地物が複数回画像認識されることにより生成され、学習データベースDB3に記憶された、同じ地点についての複数の停止義務地点情報sに基づいて、一時停止義務がある地点の推測位置を判定する推測位置判定手段として機能する。ここで、推測位置判定部10は、同じ地点についての複数の停止義務地点情報sが表す一時停止義務がある地点の位置の分布に基づいて、当該分布の代表値を一時停止義務がある地点の推測位置として判定する。このように、分布の代表値を一時停止義務がある地点の推測位置として判定することにより、同じ一時停止義務のある地点についての複数の停止義務地点情報sを用いた統計的処理により、適切に一時停止義務のある地点の推測位置を判定することができる。本実施形態においては、分布の代表値として平均値を用いる。すなわち、推測位置判定部10は、学習データベースDB3に記憶された同一の一時停止義務がある地点についての複数の停止義務地点情報sに基づいて、演算によりその平均値を算出し、当該平均値により求められる位置を当該一時停止義務がある地点の推測位置として判定する。一例として、図5の例における停止線f4の推測位置を判定する場合の判定方法について説明する。停止線f4についての停止義務地点情報sとしての複数の学習値は、図8に模式的に示すように学習データベースDB3に格納されている。推測位置判定部10はこれらの学習値に基づいて平均値を算出してその結果を停止線f4の推測位置と判定し、統計的地点情報生成部11に出力する。
1-9. Estimated position determination unit The estimated position determination unit 10 is generated by image recognition of the same target feature a plurality of times, and is stored in the learning database DB3, based on a plurality of stop obligation point information s about the same point, It functions as an estimated position determination means for determining an estimated position at a point where there is a duty to pause. Here, the estimated position determination unit 10 determines the representative value of the distribution of the points having the suspension obligation based on the distribution of the positions of the points having the suspension obligation represented by the plurality of suspension obligation point information s for the same point. It is determined as an estimated position. In this way, by determining the representative value of the distribution as the estimated position of the point having the suspension obligation, the statistical processing using the plurality of suspension point information s about the same suspension point is appropriately performed. It is possible to determine the estimated position of the point having the obligation to pause. In this embodiment, an average value is used as a representative value of the distribution. That is, the estimated position determination unit 10 calculates an average value by calculation based on a plurality of stop duty point information s for points having the same temporary stop duty stored in the learning database DB3, and calculates the average value by the average value. The required position is determined as the estimated position of the point having the obligation to pause. As an example, a determination method for determining the estimated position of the stop line f4 in the example of FIG. 5 will be described. A plurality of learning values as stop obligation point information s for the stop line f4 are stored in the learning database DB3 as schematically shown in FIG. The estimated position determination unit 10 calculates an average value based on these learning values, determines the result as the estimated position of the stop line f4, and outputs it to the statistical point information generation unit 11.

1−10.統計的地点情報生成部
統計的地点情報生成部11は、推測位置判定部10により判定された推測位置を、一時停止義務がある地点の位置とする統計的停止義務地点情報Sを生成する統計的地点情報生成手段として機能する。統計的停止義務地点情報Sは、一時停止義務のある地点の位置情報及び少なくとも一時停止義務があることを表す属性情報を有している。ここで、一時停止義務のある地点の位置は推測位置判定部10により判定された推測位置であり、「一時停止義務有り」等の属性情報は停止義務地点情報sが有するものと同じである。
統計的地点情報生成部11において生成した統計的停止義務地点情報Sは、停止義務地点データベースDB4に出力されて停止義務地点データベースDB4に記憶される。図9には、統計的停止義務地点情報Sが停止義務地点データベースDB4に格納されている様子を模式的に示している。このようにして、対象地物の画像認識に成功する毎に停止義務地点情報sが学習データベースDB3に格納され、それに応じて新たな統計的停止義務地点情報Sが停止義務地点データベースDB4に格納されることにより、停止義務地点データベースDB4が有する統計的停止義務地点情報Sは順次更新される。本実施形態では、分布の代表値として平均値を用いることにより、少なくとも一度対象地物の画像認識に成功するだけで統計的地点情報Sが生成され、かつ、同じ対象地物についての画像認識の回数が増えるにしたがってその精度を高めていくことを可能としている。
1-10. Statistical point information generation unit The statistical point information generation unit 11 generates statistical stop duty point information S using the estimated position determined by the estimated position determination unit 10 as the position of a point where there is a temporary stop obligation. It functions as point information generation means. The statistical stop duty point information S includes position information of a point with a temporary stop duty and attribute information indicating that there is at least a temporary stop duty. Here, the position of the point having the duty to pause is the estimated position determined by the estimated position determination unit 10, and the attribute information such as “has a duty to temporarily stop” is the same as that included in the point of obligation to stop stop s.
The statistical stop duty point information S generated in the statistical point information generation unit 11 is output to the stop duty point database DB4 and stored in the stop duty point database DB4. FIG. 9 schematically shows how the statistical stop duty point information S is stored in the stop duty point database DB4. In this way, each time the image recognition of the target feature is successful, the stop duty point information s is stored in the learning database DB3, and accordingly, the new statistical stop point information S is stored in the stop duty point database DB4. Thus, the statistical stop duty point information S possessed by the stop duty point database DB4 is sequentially updated. In the present embodiment, by using the average value as the representative value of the distribution, the statistical point information S is generated only by succeeding in the image recognition of the target feature at least once, and the image recognition of the same target feature is performed. The accuracy can be increased as the number of times increases.

1−11.ナビゲーション用演算部
ナビゲーション用演算部12は、自車位置表示、出発地から目的地までの経路計算、目的地までの進路案内、目的地検索等のナビゲーション機能を実行するためにアプリケーションプログラムに従って動作する演算処理手段である。例えば、ナビゲーション用演算部12は、地図データベースDB1から自車両周辺の地図情報Mを取得して表示装置19に地図の画像を表示するとともに、当該地図の画像上に、自車位置情報に基づいて自位置マークを重ね合わせて表示する処理を行う。また、ナビゲーション用演算部12は、公知の方法により計算された出発地から目的地までの経路と自車位置情報とに基づいて、表示装置19及び音声出力装置20の一方又は双方を用いて進路案内を行う。このとき、ナビゲーション用演算部12は、停止義務地点データベースDB4に格納された統計的停止義務地点情報Sを参照して、一時停止義務がある地点についての案内を行う。したがって、本実施形態においてナビゲーション用演算部12は、自車位置情報と統計的停止義務地点情報Sとに基づいて、一時停止義務がある地点についての案内を行う案内手段として機能する。なお、ナビゲーション用演算部12は、この他にも、リモートコントローラや表示装置19と一体的に設けられたタッチパネルなどのユーザインタフェース等、ナビゲーション装置1として必要な公知の各種構成に接続されている。
1-11. Navigation Calculation Unit The navigation calculation unit 12 operates according to an application program to execute navigation functions such as display of the vehicle position, calculation of a route from the departure point to the destination, route guidance to the destination, and destination search. Arithmetic processing means. For example, the navigation calculation unit 12 acquires the map information M around the host vehicle from the map database DB1 and displays a map image on the display device 19, and on the map image, based on the host vehicle position information. A process for displaying the self-position mark in a superimposed manner is performed. Further, the navigation calculation unit 12 uses one or both of the display device 19 and the audio output device 20 based on the route from the departure point to the destination and the vehicle position information calculated by a known method. Give guidance. At this time, the navigation computing unit 12 refers to the statistical stop duty point information S stored in the stop duty point database DB4 and provides guidance for the point where the stop duty is required. Therefore, in the present embodiment, the navigation calculation unit 12 functions as a guidance unit that provides guidance for a point where there is a temporary stop obligation based on the vehicle position information and the statistical stop duty point information S. In addition, the navigation calculation unit 12 is connected to various known configurations necessary for the navigation device 1 such as a remote controller and a user interface such as a touch panel provided integrally with the display device 19.

1−12.地点情報収集処理の手順
次に、本実施形態に係るナビゲーション装置1に適用される、画像認識装置3を含む地点情報収集装置2において実行される地点情報収集処理の手順について説明する。図10は、本実施形態に係る画像認識処理を含む地点情報収集処理の手順を示すフローチャートである。以下に説明する地点情報収集処理の手順は、上記の地点情報収集装置2の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方の組み合せにより実行される。地点情報収集装置2の各機能部がプログラムにより構成される場合には、地点情報収集装置2が有する演算処理装置は、上記の各機能部を構成する画像認識プログラム及びこれを含む地点情報収集プログラムを実行するコンピュータとして動作する。
1-12. Procedure of spot information collection processing Next, a procedure of spot information collection processing executed in the spot information collection device 2 including the image recognition device 3 applied to the navigation device 1 according to the present embodiment will be described. FIG. 10 is a flowchart showing a procedure of spot information collection processing including image recognition processing according to the present embodiment. The procedure of the spot information collection process described below is executed by hardware or software (program) or a combination of both constituting each functional unit of the spot information collection apparatus 2 described above. When each function part of the point information collection device 2 is configured by a program, the arithmetic processing device included in the point information collection device 2 includes an image recognition program that constitutes each of the above function units and a point information collection program including the image recognition program. It operates as a computer that executes

まず、形状認識部7は、文字列「まれ」についての画像認識処理を行う(ステップ#01)。形状認識部7は、撮像装置18により取得された画像情報Gに含まれている地物から抽出した輪郭情報と文字列「まれ」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに文字列「まれ」の画像が含まれるか否かを判断する(ステップ#02)。画像情報Gに文字列「まれ」の画像が含まれないと判定された場合には(ステップ#02:No)、再度ステップ#01に戻って、形状認識部7は、文字列「まれ」についての画像認識処理を行う。一方、画像情報Gに文字列「まれ」の画像が含まれると判定された場合には(ステップ#02:Yes)、隣接判定部8は距離計測を開始する(ステップ#03)。次に形状認識部7は、停止線についての画像認識処理を行う(ステップ#04)。形状認識部7は、画像情報Gに含まれている地物から抽出した輪郭情報と停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに停止線の画像が含まれるか否かを判断する(ステップ#05)。画像情報Gに停止線の画像が含まれないと判定された場合には(ステップ#05:No)、隣接判定部8は、計測した距離が予め設定された所定距離D以下であるか否かを判定する(ステップ#06)。計測した距離が予め設定された所定距離Dより大きいと判定された場合には(ステップ#06:No)、処理は終了する。一方、計測した距離が予め設定された所定距離D以下であると判定された場合には(ステップ#06:Yes)、再度ステップ#04に戻って、形状認識部7は、停止線についての画像認識処理を行う。そして、画像情報Gに停止線の画像が含まれると判定された場合に(ステップ#05:Yes)、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた文字列「まれ」との組み合せの画像認識に成功したと判定される。次に、地点情報生成部9は、自車位置情報P及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報sを生成する(ステップ#07)。
このような画像認識処理によれば、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定するため、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列との組み合せを画像認識するため、停止線を単独で画像認識する場合に比べて認識精度を向上させることが可能となる。
First, the shape recognition unit 7 performs image recognition processing for the character string “rare” (step # 01). The shape recognizing unit 7 performs pattern matching between the contour information extracted from the features included in the image information G acquired by the imaging device 18 and the feature amount in the form of the character string “rare”, thereby obtaining image information. It is determined whether or not an image of the character string “rare” is included in G (step # 02). When it is determined that the image of the character string “rare” is not included in the image information G (step # 02: No), the shape recognition unit 7 returns to step # 01 again, and the shape recognizing unit 7 determines the character string “rare”. The image recognition process is performed. On the other hand, when it is determined that the image information G includes an image of the character string “rare” (step # 02: Yes), the adjacency determination unit 8 starts distance measurement (step # 03). Next, the shape recognition unit 7 performs image recognition processing for the stop line (step # 04). Whether the image recognition G includes the image of the stop line by performing pattern matching between the contour information extracted from the feature included in the image information G and the feature amount in the form of the stop line. It is determined whether or not (step # 05). When it is determined that the image information G does not include a stop line image (step # 05: No), the adjacency determination unit 8 determines whether or not the measured distance is equal to or less than a predetermined distance D set in advance. Is determined (step # 06). If it is determined that the measured distance is greater than the predetermined distance D set in advance (step # 06: No), the process ends. On the other hand, when it is determined that the measured distance is equal to or less than the predetermined distance D set in advance (step # 06: Yes), the process returns to step # 04 again, and the shape recognition unit 7 displays the image about the stop line. Perform recognition processing. If it is determined that the image information G includes a stop line image (step # 05: Yes), the target feature, that is, the stop line provided on the road surface, and the stop line are provided adjacent to the target line. It is determined that the image recognition of the combination with the received character string “rare” has succeeded. Next, the point information generation unit 9 generates stop obligation point information s representing a point where there is a temporary stop obligation based on the vehicle position information P and the image recognition result of the target feature (step # 07).
According to such image recognition processing, when image recognition of a combination of a stop line provided on the road surface of a road and a predetermined character string provided adjacent to the stop line is successful, the stop line Since it is determined that the position is a point having a duty to pause, it is possible to extract and recognize only a stop line having a duty to pause. In addition, since the combination of the stop line and the predetermined character string is recognized as an image, the recognition accuracy can be improved as compared with the case where the stop line is recognized alone.

生成した停止義務地点情報sは、学習データベースDB3に出力されて学習データベースDB3に記憶される(ステップ#08)。次に推測位置判定部10は、学習データベースDB3に記憶された、同じ地点についての一又は二以上の停止義務地点情報sに基づいて、一時停止義務がある地点の推測位置を判定する(ステップ#09)。次に統計的地点情報生成部11は、推測位置判定手段により判定された推測位置を一時停止義務がある地点の位置とする位置情報を含む、統計的停止義務地点情報Sを生成する(ステップ#10)。最後に、統計的地点情報生成部11において生成した統計的停止義務地点情報Sは、停止義務地点データベースDB4に出力されて停止義務地点データベースDB4に記憶される(ステップ#11)。
このような地点情報収集処理によれば、それぞれの停止義務地点情報sが示す一時停止義務がある地点の認識位置に誤差が含まれる場合であっても、それぞれ同じ地点についての一又は二以上の停止義務地点情報sを用いた統計的処理により、適切に一時停止義務がある地点の推測位置を判定してこれを記憶することができる。したがって、高精度な情報を収集することが可能となる。
The generated stop duty point information s is output to the learning database DB3 and stored in the learning database DB3 (step # 08). Next, the estimated position determination unit 10 determines the estimated position of the point where there is a suspension obligation based on one or more stop obligation point information s for the same point stored in the learning database DB3 (step #). 09). Next, the statistical point information generating unit 11 generates the statistical stop obligation point information S including position information that uses the estimated position determined by the estimated position determination unit as the position of the point where there is a temporary stop obligation (step #). 10). Finally, the statistical stop duty point information S generated in the statistical point information generation unit 11 is output to the stop duty point database DB4 and stored in the stop duty point database DB4 (step # 11).
According to such point information collection processing, even if there is an error in the recognition position of the point having the suspension obligation indicated by the respective suspension obligation point information s, one or more of the same point each By the statistical processing using the stop duty point information s, it is possible to determine and store the estimated position of the point where the stop duty is appropriately placed. Therefore, highly accurate information can be collected.

〔第二の実施形態〕
次に、本発明の第二の実施形態について説明する。
図11は、本実施形態に係る画像認識装置3を含む地点情報収集装置2を適用したナビゲーション装置1の概略構成を示すブロック図である。基本的には第一の実施形態の場合とほぼ同様であるが、画像認識部6により画像認識を行う対象地物のうち所定の文字列が、その内容が特定されていないものである点で、第一の実施形態と相違する。また、本実施形態に係るナビゲーション装置1は、対象地物に含まれる所定の文字列についての文字列情報lを生成する文字列情報生成部13と、同じ所定の文字列についての複数の文字列情報lに基づいて統計的文字列情報Lを生成する統計的文字列情報生成部14とを備えている。また、それらを記憶する学習データベース及び停止義務地点データベースを備えている。以下では、本実施形態に係るナビゲーション装置1について、上記第一の実施形態との相違点を中心に説明する。なお、本実施形態に係る画像認識プログラム及び地点情報収集プログラムについては、処理内容は第一の実施形態と一部相違するが、その処理順序は第一の実施形態と同様であるので、ここでは説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
FIG. 11 is a block diagram illustrating a schematic configuration of the navigation device 1 to which the spot information collection device 2 including the image recognition device 3 according to the present embodiment is applied. Basically, it is almost the same as in the case of the first embodiment, except that a predetermined character string is not specified for the target feature whose image is recognized by the image recognition unit 6. This is different from the first embodiment. Further, the navigation device 1 according to the present embodiment includes a character string information generation unit 13 that generates character string information l for a predetermined character string included in the target feature, and a plurality of character strings for the same predetermined character string. And a statistical character string information generation unit 14 that generates statistical character string information L based on the information l. In addition, a learning database for storing them and a stop obligation point database are provided. Hereinafter, the navigation device 1 according to the present embodiment will be described focusing on differences from the first embodiment. Note that the processing contents of the image recognition program and the spot information collection program according to this embodiment are partially different from those of the first embodiment, but the processing order is the same as that of the first embodiment, so here Description is omitted.

2−1.学習データベース
学習データベースDB3は、地点情報生成部9により生成された停止義務地点情報s及び文字列情報生成部13により生成された文字列情報lを記憶するデータベースである。この学習データベースDB3には、画像認識部6による画像認識に成功した一時停止義務のある複数の地点のそれぞれについての一又は二以上の停止義務地点情報sと、それらに隣接する所定の文字列についての一又は二以上の文字列情報lが記憶される。停止義務地点情報sと文字列情報lとは、互いに関連付けて記憶される。この学習データベースDB3に記憶される停止義務地点情報s及び文字列情報lについては、後述する。本実施形態においては、この学習データベースDB3が、本発明における地点情報記憶手段及び文字列情報記憶手段を兼ねた構成となっている。
2-1. Learning Database The learning database DB3 is a database that stores the stop duty point information s generated by the point information generation unit 9 and the character string information l generated by the character string information generation unit 13. In this learning database DB3, one or two or more stop obligation point information s for each of a plurality of points having a stop obligation that has been successfully recognized by the image recognition unit 6 and a predetermined character string adjacent thereto One or more character string information 1 is stored. The stop obligation point information s and the character string information l are stored in association with each other. The stop obligation point information s and the character string information l stored in the learning database DB3 will be described later. In the present embodiment, the learning database DB3 is configured to serve as the point information storage means and the character string information storage means in the present invention.

2−2.停止義務地点データベース
停止義務地点データベースDB4は、統計的地点情報生成部11により生成された統計的停止義務地点情報S及び統計的文字列情報生成部14により生成された統計的文字列情報Lを記憶するデータベースである。この停止義務地点データベースDB4には、画像認識部6による画像認識に成功した一時停止義務のある複数の地点のそれぞれについて生成された統計的停止義務地点情報Sと、それらに隣接する所定の文字列についての統計的文字列情報Lとが記憶される。統計的停止義務地点情報Sと統計的文字列情報Lとは、互いに関連付けて記憶される。この停止義務地点データベースDB4に記憶される統計的停止義務地点情報S及び統計的文字列情報Lについては、後述する。本実施形態においては、この停止義務地点データベースDB4が、本発明における統計的地点情報記憶手段及び統計的文字列情報記憶手段を兼ねた構成となっている。
2-2. Stop Obligation Point Database The stop duty point database DB4 stores the statistical stop duty point information S generated by the statistical point information generation unit 11 and the statistical character string information L generated by the statistical character string information generation unit 14. Database. In this stop duty point database DB4, statistical stop duty point information S generated for each of a plurality of points having a temporary stop duty that has been successfully recognized by the image recognition unit 6, and a predetermined character string adjacent thereto Statistical character string information L for is stored. The statistical stop duty point information S and the statistical character string information L are stored in association with each other. The statistical stop duty point information S and the statistical character string information L stored in the stop duty point database DB4 will be described later. In the present embodiment, the stop obligation point database DB4 is configured to serve also as the statistical point information storage means and the statistical character string information storage means in the present invention.

2−3.画像認識部
画像認識部6は、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、画像情報Gに含まれる対象地物の画像認識処理を行う画像認識手段として機能する。画像認識部6は、道路上に設けられた対象地物の形状についての画像認識処理を行う形状認識部7と、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定部8とを備える。
2-3. Image recognition unit The image recognition unit 6 uses a combination of a stop line provided on a road surface of a road and a predetermined character string provided adjacent to the stop line as a target feature, and includes a target site included in the image information G. It functions as an image recognition means for performing image recognition processing of an object. The image recognizing unit 6 includes a shape recognizing unit 7 that performs image recognizing processing on the shape of the target feature provided on the road, and the stop line recognized by the shape recognizing unit 7 and a predetermined character string are adjacent to each other. And an adjacency determination unit 8 that determines whether or not

2−3−1.形状認識部
形状認識部7は、道路の路面に設けられた停止線及び所定の文字列を対象地物とし、画像情報Gに含まれる対象地物の形状について画像認識処理を行う形状認識手段として機能する。対象地物の画像認識に際しては、形状認識部7はまず所定の文字列を画像認識し、その後停止線を画像認識する。
本実施形態においては、形状認識部7は、対象地物に含まれる所定の文字列の画像認識処理として、文字の内容を特定しない3文字分の文字的特徴を備えた地物(以下、本明細書において「不特定文字列」という。)の画像認識を行う。ここで文字的特徴を備えた地物とは、比較的エッジが多く、複雑な形状を有する地物である。このような特徴を有する地物の画像認識に際しては、まず、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と対象地物の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる対象地物の画像を抽出する。本実施形態においては、対象地物に含まれる所定の文字列として不特定文字列が設定されているので、抽出した地物の輪郭情報と文字全般の形態が有する特徴量とのパターンマッチングが行われる。その結果、画像情報Gの中から不特定文字列の画像を抽出できた場合には、形状認識部7は隣接判定部8に対してその結果を出力するとともに、次いで停止線の形状についての画像認識を行う。そして、自車両の移動距離が所定距離Dを超えるまでの間に画像情報Gの中から停止線の画像を抽出できた場合に、対象地物の画像認識に成功したと判定される。このように、本実施形態においては、画像認識部6は、対象地物に含まれる所定の文字列の画像認識処理として、文字の内容を特定しない3文字分の文字的特徴を備えた地物の画像認識を行うため、文字列「とまれ」の一部がかすれて消えかけていたりした場合であっても、画像認識処理を行うことが可能となる。また、文字の内容を特定しないため、画像認識処理を簡略化できるとともに、文字内容によらない汎用的な認識処理を実行することができる。よって、画像認識の処理負担を軽減することが可能となる。
2-3-1. Shape Recognizing Unit The shape recognizing unit 7 is a shape recognizing unit that performs image recognition processing on the shape of the target feature included in the image information G using the stop line and the predetermined character string provided on the road surface of the road as the target feature. Function. When recognizing the target feature, the shape recognizing unit 7 first recognizes a predetermined character string and then recognizes the stop line.
In the present embodiment, the shape recognizing unit 7 performs image recognition processing of a predetermined character string included in the target feature as a feature (hereinafter referred to as a book) having character characteristics for three characters that do not specify the character content. Image recognition of “unspecified character string” in the specification is performed. Here, the feature having the character feature is a feature having a relatively large number of edges and a complicated shape. When recognizing features having such characteristics, first, binarization processing, edge detection processing, and the like are performed on the image information G, and the features (road markings) included in the image information G are detected. Extract contour information. The shape recognition unit 7 extracts an image of the target feature included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the target feature. In the present embodiment, since an unspecified character string is set as the predetermined character string included in the target feature, pattern matching is performed between the extracted contour information of the feature and the feature amount of the general character form. Is called. As a result, when the image of the unspecified character string can be extracted from the image information G, the shape recognition unit 7 outputs the result to the adjacency determination unit 8 and then the image of the stop line shape. Recognize. Then, when the stop line image can be extracted from the image information G until the moving distance of the host vehicle exceeds the predetermined distance D, it is determined that the image recognition of the target feature has succeeded. As described above, in the present embodiment, the image recognition unit 6 performs the feature including character characteristics for three characters that do not specify the character content as the image recognition processing of the predetermined character string included in the target feature. Therefore, the image recognition process can be performed even when a part of the character string “Tarema” is fading and disappearing. Moreover, since the content of the character is not specified, the image recognition process can be simplified, and a general-purpose recognition process independent of the character content can be executed. Therefore, it is possible to reduce the processing burden of image recognition.

2−3−2.隣接判定部
隣接判定部8は、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定手段として機能する。隣接判定部8は、停止線と不特定文字列との間の距離が所定距離D以内であるか否かを判定することにより、これらが隣接しているか否かを判定する。
隣接判定部8は、形状認識部7が画像情報Gの中から不特定文字列の画像を抽出した際の出力を受けたときに、不特定文字列を画像認識した位置からの距離計測を開始する。隣接判定部8は距離センサ17と接続されており、自車両の移動距離が所定距離Dを超えるまでの間、形状認識部7は停止線の画像認識処理を実行し続ける。所定距離Dを超えるまでに形状認識部7が停止線の画像認識に成功した場合に、画像認識部6は、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定し、その結果を地点情報生成部9に出力する。
2-3-2. Adjacency determination unit The adjacency determination unit 8 functions as an adjacency determination unit that determines whether or not the stop line image-recognized by the shape recognition unit 7 is adjacent to a predetermined character string. The adjacency determination unit 8 determines whether or not these are adjacent by determining whether or not the distance between the stop line and the unspecified character string is within a predetermined distance D.
When the shape recognition unit 7 receives an output when the image of the unspecified character string is extracted from the image information G, the adjacency determination unit 8 starts measuring the distance from the position where the unspecified character string is image-recognized. To do. The adjacency determination unit 8 is connected to the distance sensor 17, and the shape recognition unit 7 continues to execute the stop line image recognition process until the moving distance of the host vehicle exceeds the predetermined distance D. When the shape recognition unit 7 has succeeded in image recognition of the stop line before exceeding the predetermined distance D, the image recognition unit 6 is adjacent to the target feature, that is, the stop line provided on the road surface of the road, and the stop line. It is determined that the image recognition of the combination with the predetermined character string provided is successful, and the result is output to the point information generation unit 9.

2−4.地点情報生成部
地点情報生成部9は、画像認識部6による画像認識処理において対象地物の画像認識に成功した場合に、自車位置情報P及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報sを生成する地点情報生成手段として機能する。停止義務地点情報sは、各地点を他の地点と識別するための識別情報(地点ID)、位置情報及び少なくとも一時停止義務があることを表す属性情報を有している。
停止線の位置は、自車位置情報P及び当該停止線の画像認識結果に基づいて決定される。ここで、画像情報Gに含まれる現実の停止線の位置は、自車両への撮像装置18の取付位置、取付角度、及び画角等に基づいて予め演算された自車位置と撮像領域との位置関係を用いることで、自車位置情報Pに基づいて正確に求めることができる。こうして決定された位置情報は、道路情報Raを構成するリンクk又はノードn等と関連付けられた代表点の地図上の位置(座標)情報である。本実施形態において、代表点は、各停止線の長さ方向及び幅方向の中央部に設定される。また、停止線が有する属性情報としては、少なくとも「一時停止義務有り」の情報を有している。これ以外にも、例えば、「停止線」、「手前に文字列有り」等の情報を含んでいても良い。
地点情報生成部9において生成した停止義務地点情報sは、学習データベースDB3に出力されて学習データベースDB3に記憶される。
2-4. Point information generating unit When the point recognition generating unit 9 succeeds in image recognition of the target feature in the image recognition processing by the image recognition unit 6, based on the vehicle position information P and the image recognition result of the target feature, It functions as a point information generation means for generating stop obligation point information s representing a point with a temporary stop obligation. The stop obligation point information s includes identification information (point ID) for identifying each point from other points, position information, and attribute information indicating that there is at least a temporary stop obligation.
The position of the stop line is determined based on the vehicle position information P and the image recognition result of the stop line. Here, the actual position of the stop line included in the image information G is the position of the vehicle and the imaging area calculated in advance based on the mounting position, mounting angle, and angle of view of the imaging device 18 to the host vehicle. By using the positional relationship, the vehicle position information P can be obtained accurately. The position information thus determined is position (coordinate) information on the map of representative points associated with the link k or the node n constituting the road information Ra. In the present embodiment, the representative point is set at the center in the length direction and the width direction of each stop line. Further, the attribute information that the stop line has includes at least “temporary stop obligation” information. In addition to this, for example, information such as “stop line” and “character string in front” may be included.
The stop mandatory point information s generated by the point information generation unit 9 is output to the learning database DB3 and stored in the learning database DB3.

2−5.文字列情報生成部
文字列情報生成部13は、対象地物の画像認識に成功した場合に、当該画像認識に成功した対象地物に含まれる所定の文字列の位置情報及び属性情報を有する文字列情報lを生成する文字列情報生成手段として機能する。文字列情報lは、位置情報及び属性情報の他にも、各文字列を他の文字列と識別するための識別情報(文字列ID)を有する。
文字列の代表点の位置は、停止線の位置と同様、自車両への撮像装置18の取付位置、取付角度、及び画角等に基づいて予め演算された自車位置と撮像領域との位置関係を用いることで、自車位置情報Pに基づいて正確に求められる。なお、代表点は、文字列全体についての長さ方向及び幅方向の中央部に設定される。文字列が有する属性情報としては、少なくとも「文字列」の情報を有しており、これ以外にも、例えば、「とまれ」、「この先に一時停止義務地点有り」等の情報を含んでいても良い。
2-5. Character string information generation unit When the image recognition of the target feature is successful, the character string information generation unit 13 is a character having position information and attribute information of a predetermined character string included in the target feature that has been successfully recognized. It functions as character string information generating means for generating the column information l. The character string information 1 includes identification information (character string ID) for identifying each character string from other character strings in addition to the position information and the attribute information.
The position of the representative point of the character string is the position of the vehicle position calculated in advance based on the mounting position, mounting angle, angle of view, and the like of the imaging device 18 to the host vehicle, as is the position of the stop line. By using the relationship, the vehicle position information P can be obtained accurately. The representative point is set at the center in the length direction and width direction of the entire character string. As the attribute information that the character string has, at least “character string” information is included. In addition, for example, information such as “Tarema”, “There is a duty point for temporary suspension” may be included. good.

文字列情報生成部13により生成した文字列情報lは、学習データベースDB3に出力されて学習データベースDB3に記憶される。このとき、文字列情報lは、地点情報生成部9により生成して学習データベースDB3に記憶されている停止義務地点情報sと関連付けて記憶される。図12には、同一の関連付け情報を持った文字列情報lと停止義務地点情報sとが、学習データベースDB3に格納されている様子を模式的に示している。このように、本実施形態においては、停止義務地点情報sに加えて文字列情報lが生成され、さらにこれらは関連付けられて記憶されているので、一時停止義務のある地点について充実した情報を収集可能な地点情報収集装置を提供することができる。   The character string information 1 generated by the character string information generating unit 13 is output to the learning database DB3 and stored in the learning database DB3. At this time, the character string information 1 is stored in association with the stop duty point information s generated by the point information generation unit 9 and stored in the learning database DB3. FIG. 12 schematically shows a state in which the character string information 1 and the stop duty point information s having the same association information are stored in the learning database DB3. As described above, in this embodiment, the character string information l is generated in addition to the stop duty point information s, and these are stored in association with each other. A possible point information collecting device can be provided.

2−6.統計的文字列情報生成部
統計的文字列情報生成部14は、統計的地点情報生成部11が行う処理と同様の処理を行うことにより、一時停止義務がある地点の停止線に隣接して設けられた所定の文字列についての統計的文字列情報Lを生成する統計的文字列情報生成手段として機能する。統計的文字列情報Lは、画像認識に成功した対象地物に含まれる所定の文字列の位置情報及び少なくとも何らかの文字列があることを表す属性情報を有している。ここで、所定の文字列の位置は推測位置判定手段により判定された推測位置であり、「文字列有り」等の属性情報は文字列情報lが有するものと同じである。
2-6. Statistical character string information generation unit The statistical character string information generation unit 14 is provided adjacent to a stop line at a point where there is a duty to pause by performing the same processing as the processing performed by the statistical point information generation unit 11. It functions as a statistical character string information generating means for generating statistical character string information L for a given character string. The statistical character string information L includes position information of a predetermined character string included in the target feature that has been successfully image-recognized and attribute information indicating that there is at least some character string. Here, the position of the predetermined character string is the estimated position determined by the estimated position determining means, and the attribute information such as “character string exists” is the same as the character string information l has.

統計的文字列情報生成部14において生成した統計的文字列情報Lは、停止義務地点データベースDB4に出力されて停止義務地点データベースDB4に記憶される。このとき、統計的文字列情報Lは、統計的地点情報生成部11により生成して停止義務地点データベースDB4に記憶されている統計的停止義務地点情報Sと関連付けて記憶される。このようにして、対象地物の画像認識に成功する毎に停止義務地点情報s及び文字列情報lが学習データベースDB3に格納され、それに応じて新たな統計的停止義務地点情報S及び統計的文字列情報Lが停止義務地点データベースDB4に格納されることにより、停止義務地点データベースDB4が有する統計的停止義務地点情報S及び統計的文字列情報Lは順次更新される。本実施形態においては、これらの統計的停止義務地点情報S及び統計的文字列情報Lは地物情報Fとして扱われる。したがって、地物データベースDB2に記憶されたその他の道路標示の地物情報Fと同様に、これらの情報を自車位置情報Pの補正や車両制御等のために利用することができる。   The statistical character string information L generated in the statistical character string information generation unit 14 is output to the stop duty point database DB4 and stored in the stop duty point database DB4. At this time, the statistical character string information L is stored in association with the statistical stop duty point information S generated by the statistical point information generation unit 11 and stored in the stop duty point database DB4. In this way, each time the image recognition of the target feature is successfully performed, the stop mandatory point information s and the character string information l are stored in the learning database DB3, and accordingly new statistical stop mandatory point information S and statistical characters are stored. By storing the column information L in the stop duty point database DB4, the statistical stop duty point information S and the statistical character string information L included in the stop duty point database DB4 are sequentially updated. In the present embodiment, the statistical stop duty point information S and the statistical character string information L are treated as the feature information F. Therefore, like the feature information F of other road markings stored in the feature database DB2, these pieces of information can be used for correction of the vehicle position information P, vehicle control, and the like.

〔第三の実施形態〕
次に、本発明の第三の実施形態について説明する。
図13は、本実施形態に係る画像認識装置3を含む地点情報収集装置2を適用したナビゲーション装置1の概略構成を示すブロック図である。基本的には第一の実施形態の場合とほぼ同様であるが、画像認識部6により画像認識を行う対象地物の順序が、必ずしも所定の文字列、停止線の順である必要がなく、停止線、所定の文字列の順である場合にも対応している点で第一の実施形態と相違する。また、本実施形態に係るナビゲーション装置1は、地点情報生成部9が生成する停止義務地点情報sの具体的内容が第一の実施形態と相違する。なおこれに伴い、本実施形態に係るナビゲーション装置1は推測位置判定部10、統計的地点情報生成部11及び学習データベースDB3を備えていない。以下では、本実施形態に係るナビゲーション装置1について、上記第一の実施形態との相違点を中心に説明する。
[Third embodiment]
Next, a third embodiment of the present invention will be described.
FIG. 13 is a block diagram illustrating a schematic configuration of the navigation device 1 to which the point information collection device 2 including the image recognition device 3 according to the present embodiment is applied. Basically, it is almost the same as in the case of the first embodiment, but the order of the target features to be image-recognized by the image recognition unit 6 is not necessarily in the order of a predetermined character string and stop line. The second embodiment is different from the first embodiment in that it corresponds to the case of the order of the stop line and the predetermined character string. Moreover, the navigation apparatus 1 which concerns on this embodiment differs from the 1st embodiment in the specific content of the stop duty point information s which the point information generation part 9 produces | generates. In addition, the navigation apparatus 1 which concerns on this embodiment is not provided with the estimated position determination part 10, the statistical point information generation part 11, and learning database DB3 in connection with this. Hereinafter, the navigation device 1 according to the present embodiment will be described focusing on differences from the first embodiment.

3−1.停止義務地点データベース
停止義務地点データベースDB4は、地点情報生成部9により生成された停止義務地点情報sを記憶するデータベースである。この停止義務地点データベースDB4には、画像認識部6による画像認識に成功した一時停止義務のある複数の地点のそれぞれについて生成された停止義務地点情報sが記憶されている。この停止義務地点データベースDB4に記憶される停止義務地点情報sについては、後述する。本実施形態においては、この停止義務地点データベースDB4が、本発明における地点情報記憶手段に相当する。
3-1. Stop Obligation Point Database The stop duty point database DB4 is a database that stores the stop duty point information s generated by the point information generation unit 9. This stop duty point database DB4 stores stop duty point information s generated for each of a plurality of points with a temporary stop duty that have been successfully recognized by the image recognition unit 6. The stop duty point information s stored in the stop duty point database DB4 will be described later. In the present embodiment, this stop obligation point database DB4 corresponds to the point information storage means in the present invention.

3−2.画像認識部
画像認識部6は、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、画像情報Gに含まれる対象地物の画像認識処理を行う画像認識手段として機能する。画像認識部6は、道路上に設けられた対象地物、すなわち停止線及び所定の文字列についての画像認識処理を行う形状認識部7と、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定部8とを備える。本明細書においては、特に区別して使用しない限り、画像認識部6とは、形状認識部7と隣接判定部8とを合わせたものを意味するものとする。
3-2. Image recognition unit The image recognition unit 6 uses a combination of a stop line provided on a road surface of a road and a predetermined character string provided adjacent to the stop line as a target feature, and includes a target site included in the image information G. It functions as an image recognition means for performing image recognition processing of an object. The image recognition unit 6 includes a shape recognition unit 7 that performs image recognition processing on target features provided on the road, that is, a stop line and a predetermined character string, a stop line recognized by the shape recognition unit 7, and a predetermined line. And an adjacency determination unit 8 that determines whether or not the character string is adjacent. In the present specification, unless specifically distinguished and used, the image recognition unit 6 means a combination of the shape recognition unit 7 and the adjacent determination unit 8.

3−2−1.形状認識部
形状認識部7は、道路の路面に設けられた停止線及び所定の文字列を対象地物とし、画像情報Gに含まれる対象地物の形状について画像認識処理を行う形状認識手段として機能する。対象地物の画像認識に際しては、形状認識部7はまず停止線及び所定の文字列のいずれか一方を画像認識し、その後、停止線及び所定の文字列の他方を画像認識する。すなわち、本実施形態に係る形状認識部7は、まず所定の文字列を画像認識し、その後停止線を画像認識することもできるし、それとは逆に、まず停止線を画像認識し、その後所定の文字列を画像認識することもできるように構成されている。したがって、本実施形態においては、形状認識部7は、所定の文字列の画像認識を行なう際に、逆方向文字だけでなく順方向文字についても画像認識することができるように構成されている。ここで、順方向文字とは、通常通りの向きの文字を表し、逆方向文字とは、上下が逆転された向きの文字を表す。文字列、停止線の順に画像認識を行なう態様については、第一の実施形態で既に詳細に説明したので、ここでは、停止線、文字列の順に画像認識を行なう態様に主に重点を置いて説明する。
3-2-1. Shape Recognizing Unit The shape recognizing unit 7 is a shape recognizing unit that performs image recognition processing on the shape of the target feature included in the image information G using the stop line and the predetermined character string provided on the road surface of the road as the target feature. Function. When recognizing the target feature, the shape recognition unit 7 first recognizes one of the stop line and the predetermined character string, and then recognizes the other of the stop line and the predetermined character string. That is, the shape recognizing unit 7 according to the present embodiment can first recognize a predetermined character string as an image, and then recognize a stop line as an image. Conversely, the shape recognizer 7 first recognizes a stop line as an image, and then recognizes a predetermined line. The character string can be recognized as an image. Therefore, in the present embodiment, the shape recognition unit 7 is configured to be able to recognize not only backward characters but also forward characters when performing image recognition of a predetermined character string. Here, the forward direction character represents a character in a normal direction, and the reverse direction character represents a character in an upside down direction. Since the mode for performing image recognition in the order of the character string and the stop line has already been described in detail in the first embodiment, the emphasis is mainly on the mode for performing image recognition in the order of the stop line and the character string. explain.

まず、形状認識部7は、停止線の形状についての画像認識を行う。停止線の画像認識に際しては、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と対象地物である停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる停止線の画像を抽出する。その結果、画像情報Gの中から停止線の画像を抽出できた場合には、形状認識部7は隣接判定部8に対してその結果を出力するとともに、次いで対象地物に含まれる所定の文字列の画像認識を行なう。ここでは、第一の実施形態と同様、「とまれ」の文字列のうち、文字「ま」及び「れ」についての画像認識を行う例について説明する。文字「ま」及び「れ」の画像認識に際しても、上記と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と対象地物である文字「ま」及び「れ」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「ま」及び「れ」の画像を抽出する。そして、自車両の移動距離が所定距離Dを超えるまでの間に画像情報Gの中から文字「ま」及び「れ」の画像を抽出できた場合に、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定される。   First, the shape recognition unit 7 performs image recognition on the shape of the stop line. When the stop line image is recognized, binarization processing, edge detection processing, and the like are performed on the image information G, and contour information of the feature (road marking) included in the image information G is extracted. The shape recognizing unit 7 extracts a stop line image included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the form of the stop line that is the target feature. As a result, when the image of the stop line can be extracted from the image information G, the shape recognizing unit 7 outputs the result to the adjacent determining unit 8, and then the predetermined character included in the target feature Recognize row images. Here, as in the first embodiment, an example will be described in which image recognition is performed for the characters “MA” and “RE” in the character string “TOREMA”. In the image recognition of the characters “MA” and “RE”, binarization processing and edge detection processing are performed on the image information G in the same manner as described above, and the features (roads) included in the image information G are processed. The outline information of the sign is extracted. The shape recognizing unit 7 performs pattern matching between the extracted contour information of the feature and the feature quantities of the characters “ma” and “re” as the target feature, thereby performing the character “ma” included in the image information G. "And" re "images are extracted. Then, when images of the characters “MA” and “RE” can be extracted from the image information G until the moving distance of the host vehicle exceeds the predetermined distance D, it is provided on the target feature, that is, the road surface of the road. It is determined that the image recognition of the combination of the stop line and the predetermined character string provided adjacent to the stop line has been successful.

図14は、本実施形態に係る地点情報収集装置2が有する画像認識部6のうち、形状認識部7が行う画像認識処理の一例を説明するための説明図である。図14に示す交差点付近には、4つの停止線f1〜f4が存在している。このうち、一時停止義務のある停止線は、その手前の路面上に「とまれ」の文字標示が存在するf2及びf4である。ここで、f2及びf4が存在する道路は、道路幅が比較的狭くなっている。そのため、自車両が図中を矢印方向に進み、交差点において道路幅の広い道路から道路幅の狭い道路へと右折する場合を考えると、自車両に搭載されたバックカメラは、図15のような画像情報Gを取得することになる。すなわち、バックカメラにより取得された画像情報Gには、図15(a)に示すように、まず、停止線が含まれるはずである。形状認識部7は画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる停止線の画像を抽出する。なお、停止線の画像認識に成功した時点で、形状認識部7はその結果を隣接判定部8へ出力する。次に、図15(b)に示すように、画像情報Gには文字列「とまれ」のうち文字「と」が含まれてくるはずである。本実施形態においては、文字列「とまれ」のうち、文字「ま」及び「れ」を対象地物としているため、形状認識部7は文字「と」については画像認識処理を行わない。次に、図15(c)に示すように、画像情報Gには文字列「とまれ」のうち文字「ま」が含まれてくるはずである。形状認識部7は、停止線の画像認識処理と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と文字「ま」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「ま」の画像を抽出する。最後に、図15(d)に示すように、画像情報Gには文字列「とまれ」のうち文字「れ」が含まれてくるはずである。形状認識部7は、停止線及び文字「ま」の画像認識処理と同様に、画像情報Gに対して二値化処理やエッジ検出処理等を行い、当該画像情報Gに含まれている地物(道路標示)の輪郭情報を抽出する。形状認識部7は、抽出した地物の輪郭情報と停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに含まれる文字「れ」の画像を抽出する。そして、自車両の移動距離が所定距離Dを超えるまでの間に画像情報Gの中から文字「ま」及び「れ」の画像を抽出できた場合に、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定される。
なお、本例では、道路幅が比較的狭い道路において対象地物の画像認識を行う場合を例として説明したが、撮像装置18としてのバックカメラの画角を広く設定すること等により、画像情報取得部5により取得される画像情報Gに対向車線における停止線及び所定の文字列が含まれるのであれば、道路幅の広い道路においても対象地物の画像認識を行うことは十分に可能である。
FIG. 14 is an explanatory diagram for explaining an example of image recognition processing performed by the shape recognition unit 7 among the image recognition units 6 included in the spot information collection device 2 according to the present embodiment. Four stop lines f1 to f4 exist in the vicinity of the intersection shown in FIG. Among these, the stop lines that are obligated to temporarily stop are f2 and f4 in which the character sign “Tare” is present on the road surface in front of it. Here, the road where f2 and f4 exist has a relatively narrow road width. Therefore, considering the case where the vehicle travels in the direction of the arrow in the figure and turns right at the intersection from a wide road to a narrow road, the back camera mounted on the own vehicle is as shown in FIG. Image information G is acquired. That is, the image information G acquired by the back camera should first include a stop line as shown in FIG. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G, and extracts contour information of the feature (road marking) included in the image information G. The shape recognition unit 7 extracts a stop line image included in the image information G by performing pattern matching between the extracted feature outline information and the feature amount of the stop line form. Note that when the image recognition of the stop line is successful, the shape recognition unit 7 outputs the result to the adjacency determination unit 8. Next, as shown in FIG. 15 (b), the image information G should include the character “TO” in the character string “TOREARE”. In this embodiment, since the characters “ma” and “re” are the target features in the character string “to rare”, the shape recognition unit 7 does not perform image recognition processing on the characters “to”. Next, as shown in FIG. 15C, the image information G should include the character “ma” in the character string “rare”. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G in the same manner as the stop line image recognition processing, and the features (road markings) included in the image information G are displayed. Extract contour information. The shape recognition unit 7 extracts an image of the character “MA” included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the character “MA”. Finally, as shown in FIG. 15D, the image information G should include the character “re” in the character string “to rare”. The shape recognition unit 7 performs binarization processing, edge detection processing, and the like on the image information G in the same manner as the image recognition processing of the stop line and the character “MA”, and the features included in the image information G The contour information of (road marking) is extracted. The shape recognition unit 7 extracts an image of the character “re” included in the image information G by performing pattern matching between the extracted contour information of the feature and the feature amount of the stop line form. Then, when images of the characters “MA” and “RE” can be extracted from the image information G until the moving distance of the host vehicle exceeds the predetermined distance D, it is provided on the target feature, that is, the road surface of the road. It is determined that the image recognition of the combination of the stop line and the predetermined character string provided adjacent to the stop line has been successful.
In this example, the case where image recognition of a target feature is performed on a road having a relatively narrow road width has been described as an example. However, image information can be obtained by setting a wide angle of view of the back camera as the imaging device 18 or the like. If the image information G acquired by the acquisition unit 5 includes a stop line and a predetermined character string in the oncoming lane, it is sufficiently possible to perform image recognition of the target feature even on a wide road. .

本実施形態においては、形状認識部7は、画像認識に成功した所定の文字列が順方向文字或いは逆方向文字のどちらであったかについての判定も行なう。この判定結果は、地点情報生成部9に出力される。   In the present embodiment, the shape recognition unit 7 also determines whether the predetermined character string that has been successfully image-recognized is a forward character or a backward character. This determination result is output to the spot information generation unit 9.

3−2−2.隣接判定部
隣接判定部8は、形状認識部7により画像認識された停止線と所定の文字列とが隣接しているか否かを判定する隣接判定手段として機能する。隣接判定部8は、停止線と文字列「とまれ」との間の距離が所定距離D以内であるか否かを判定することにより、これらが隣接しているか否かを判定する。ここで所定距離Dは、実際の路面上に設けられた対象地物を構成する停止線と文字列「とまれ」との間の距離を予め調べておき、その結果に基づいて予め設定される。例えば、一時停止義務のある、複数の地点における停止線と文字列「とまれ」との間の距離のうち、最大距離よりもやや大きい距離を所定距離Dとして設定することができる。
本実施形態においては、隣接判定部8は、形状認識部7が画像情報Gの中から停止線の画像認識に成功した際の出力を受けたときに、停止線を画像認識した位置からの自車両の移動距離の計測を開始する。隣接判定部8は距離センサ17と接続されており、自車両の移動距離が所定距離Dを超えるまでの間、形状認識部7は文字「ま」及び「れ」の画像認識処理を実行し続ける。所定距離Dを超えるまでに形状認識部7が文字「ま」及び「れ」の画像認識に成功した場合に、画像認識部6は、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定する。一方、形状認識部7が文字「ま」及び「れ」の画像認識に成功する前に自車両の移動距離が所定距離Dを超えてしまった場合には、停止線と所定の文字列とが隣接していないことになるため、対象地物の画像認識に成功したとは判定されない。
3-2-2. Adjacency determination unit The adjacency determination unit 8 functions as an adjacency determination unit that determines whether or not the stop line image-recognized by the shape recognition unit 7 is adjacent to a predetermined character string. The adjacency determination unit 8 determines whether or not these are adjacent by determining whether or not the distance between the stop line and the character string “to rare” is within a predetermined distance D. Here, the predetermined distance D is set in advance based on a result obtained by checking in advance the distance between the stop line constituting the target feature provided on the actual road surface and the character string “Torare”. For example, a distance that is slightly larger than the maximum distance among the distances between the stop line and the character string “Torare” at a plurality of points that are obliged to be temporarily stopped can be set as the predetermined distance D.
In the present embodiment, when the shape recognition unit 7 receives an output when the shape recognition unit 7 succeeds in the image recognition of the stop line from the image information G, the adjacency determination unit 8 starts from the position where the stop line is image-recognized. Start measuring the distance traveled by the vehicle. The adjacency determination unit 8 is connected to the distance sensor 17, and the shape recognition unit 7 continues to perform image recognition processing of the characters “MA” and “RE” until the moving distance of the host vehicle exceeds the predetermined distance D. . When the shape recognition unit 7 has succeeded in image recognition of the characters “MA” and “RE” before the predetermined distance D is exceeded, the image recognition unit 6 detects the target feature, that is, the stop line provided on the road surface of the road. Then, it is determined that the image recognition of the combination with a predetermined character string provided adjacent to the stop line is successful. On the other hand, if the movement distance of the host vehicle exceeds the predetermined distance D before the shape recognition unit 7 succeeds in image recognition of the characters “MA” and “RE”, a stop line and a predetermined character string are displayed. Since it is not adjacent, it is not determined that the image recognition of the target feature has succeeded.

このように、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定することで、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列と間の距離が一定の大きさ以上の場合には対象地物の画像認識に成功したとは判定されないため、停止線と何らかの文字列が一定の距離をおいて続けて画像認識された場合等に生じ得る一時停止義務のある地点の誤認識を、抑制することができる。さらに、本実施形態においては、形状認識部7は、まず文字列を画像認識し、その後停止線を画像認識した場合のみならず、それとは逆に、まず停止線を画像認識し、その後文字列を画像認識した場合にも、対象地物の画像認識に成功したと判定するように構成されているので、自車両の進行方向とは逆方向に進行する車両を対象とする停止線と所定の文字列との組み合わせも対象地物として画像認識処理を行うことが可能となる。よって、停止義務地点情報sを効率良く生成することが可能となる。
画像認識部6が対象地物の画像認識に成功したと判定した場合、その結果を地点情報生成部9に出力する。
As described above, when the image recognition of the combination of the stop line provided on the road surface and the predetermined character string provided adjacent to the stop line is successful, the position of the stop line is obliged to pause. By determining that the point is a certain point, it is possible to extract and recognize only the stop line having the obligation of temporary stop. In addition, if the distance between the stop line and the predetermined character string is greater than a certain size, it is not determined that the image of the target feature has been successfully recognized. Therefore, the stop line and some character string have a certain distance. Thus, it is possible to suppress erroneous recognition of a point having a duty of suspension that may occur when image recognition is continued. Further, in the present embodiment, the shape recognition unit 7 first recognizes a character string and then recognizes a stop line, but conversely, first, recognizes a stop line and recognizes the character string. Even when the image is recognized, since it is determined that the image recognition of the target feature has been successful, the stop line for the vehicle traveling in the direction opposite to the traveling direction of the host vehicle and the predetermined line A combination with a character string can also be subjected to image recognition processing as a target feature. Therefore, it is possible to efficiently generate the stop duty point information s.
When the image recognition unit 6 determines that the image recognition of the target feature has succeeded, the result is output to the point information generation unit 9.

3−3.地点情報生成部
地点情報生成部9は、画像認識部6による画像認識処理において対象地物の画像認識に成功した場合に、自車位置情報P及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報sを生成する地点情報生成手段として機能する。本実施形態においては、停止義務地点情報sは、各地点を他の地点と識別するための識別情報(地点ID)及び画像認識に成功した対象地物が存在するリンクkにおけるいずれか一方のリンク端に一時停止義務があることを表す属性情報を有している。
前述のように、地図データベースDB1は、所定の区画毎に分けられた地図情報Mが記憶されたデータベースである。地図情報Mは、交差点に対応する多数のノードnと、各交差点間を結ぶ道路に対応するリンクkに関する情報を有している。本実施形態においては、この地図データベースDB1が、本発明における「地図情報記憶手段」として機能している。ノードnとリンクkとの接続関係により、道路ネットワークを表す道路情報Raが構成される。
3-3. Point information generating unit When the point recognition generating unit 9 succeeds in image recognition of the target feature in the image recognition processing by the image recognition unit 6, based on the vehicle position information P and the image recognition result of the target feature, It functions as a point information generation means for generating stop obligation point information s representing a point with a temporary stop obligation. In the present embodiment, the stop mandatory point information s is either one of links in the identification information (point ID) for identifying each point from other points and the link k where the target feature that has succeeded in image recognition exists. It has attribute information indicating that there is a suspension obligation at the end.
As described above, the map database DB1 is a database in which the map information M divided for each predetermined section is stored. The map information M includes information on a number of nodes n corresponding to intersections and links k corresponding to roads connecting the intersections. In the present embodiment, this map database DB1 functions as “map information storage means” in the present invention. Road information Ra representing a road network is configured by the connection relationship between the node n and the link k.

停止義務地点情報sが有する停止義務位置に関する情報は、自車位置情報P、地図情報M及び対象地物の画像認識結果に基づいて決定される。すなわち、地点情報生成部9は、画像認識部6が対象地物の画像認識に成功したと判定したとき、自車位置情報P及び地図情報Mを参照して、当該対象地物が存在するリンクkを特定する。具体的には、画像認識部6が対象地物の画像認識に成功したと判定した時点における自車両が走行中の道路に対応するリンクkを、当該対象地物が存在するリンクkとして特定する。そして、地点情報生成部9は、当該対象地物が存在するリンクkにおけるリンク端に、一時停止義務があることを表す属性情報を停止義務地点情報sとして生成する。リンクkはその両端にリンク端を2個有するが、地点情報生成部9は、これらのうちの一方側のリンク端に一時停止義務があることを表す停止義務地点情報sを生成する。   The information regarding the stop duty position that the stop duty point information s has is determined based on the vehicle position information P, the map information M, and the image recognition result of the target feature. That is, when it is determined that the image recognition unit 6 has succeeded in image recognition of the target feature, the point information generation unit 9 refers to the vehicle position information P and the map information M, and the link where the target feature exists. k is specified. Specifically, the link k corresponding to the road on which the host vehicle is traveling at the time when the image recognition unit 6 determines that the image recognition of the target feature has succeeded is specified as the link k where the target feature exists. . And the point information production | generation part 9 produces | generates the attribute information showing that there exists a temporary stop obligation at the link end in the link k in which the said target feature exists as stop stop point information s. The link k has two link ends at both ends thereof, but the point information generation unit 9 generates stop obligation point information s indicating that one of these link ends has a temporary stop obligation.

ここで、図14に示した例に対応するノードnとリンクkの連結関係を示した図16を参照して、本実施形態における停止義務地点情報sの生成について説明する。なお、破線部分は図14には示されていない交差点及び道路に対応するノードn及びリンクkである。図14において自車両が図中を矢印方向に進み、交差点において右折すると、停止線f4を含む対象地物が画像認識される。この停止線f4を含む対象地物が存在する道路に対応するリンクkは、図16におけるリンクk4となる。また、地点情報生成部9は、本実施形態においては、形状認識部7からの入力を受け、所定の文字列を画像認識した際の文字の向きに関する情報に基づいて、一時停止義務がある側のリンク端を決定する。具体的には、図14及び図15に示した例の場合、形状認識部7は所定の文字列を順方向文字として画像認識するので、地点情報生成部9は自車両の進行方向に対して後方側(ノードn1側)のリンク端に一時停止義務があると決定して、そのような停止義務地点情報sを生成する。一方、第一の実施形態において図5及び図6に示したような例の場合には、形状認識部7は所定の文字列を逆方向文字として画像認識するので、地点情報生成部9は自車両の進行方向に対して前方側のリンク端に一時停止義務があると決定して、そのような停止義務地点情報sを生成する。   Here, with reference to FIG. 16 showing the connection relationship between the node n and the link k corresponding to the example shown in FIG. 14, generation of the stop duty point information s in the present embodiment will be described. The broken line portions are nodes n and links k corresponding to intersections and roads not shown in FIG. In FIG. 14, when the own vehicle proceeds in the direction of the arrow in the drawing and turns right at the intersection, the target feature including the stop line f4 is image-recognized. The link k corresponding to the road on which the target feature including the stop line f4 exists is the link k4 in FIG. In addition, in this embodiment, the point information generation unit 9 receives an input from the shape recognition unit 7 and has a duty to pause based on information on the direction of characters when a predetermined character string is image-recognized. Determine the end of the link. Specifically, in the case of the example shown in FIGS. 14 and 15, the shape recognition unit 7 recognizes an image of a predetermined character string as a forward direction character, so that the point information generation unit 9 corresponds to the traveling direction of the host vehicle. It is determined that there is a temporary stop obligation at the link end on the rear side (node n1 side), and such stop duty point information s is generated. On the other hand, in the case of the example shown in FIGS. 5 and 6 in the first embodiment, the shape recognition unit 7 recognizes an image of a predetermined character string as a backward character, so It is determined that there is a temporary stop obligation at the link end on the front side with respect to the traveling direction of the vehicle, and such stop duty point information s is generated.

このようにして生成される停止義務地点情報sは、特に図示はしないが、画像認識に成功した対象地物が存在するリンクkにおけるリンク端に一時停止義務があることを表す属性情報を有するとともに、同一の関連付け情報により地図データベースDB1が有する地図情報Mのうちの対応するリンクkに関する情報に関連付けられて記憶される。このように、地図データベースDB1に記憶されたリンクkに関する情報を利用して停止義務地点情報sを生成することで、停止義務地点情報sの生成のための処理負荷を軽減することができる。また、停止義務地点情報sが地図データベースDB1が有するリンクkの情報に関連付けられて記憶されることにより、各リンクkが、その属性情報としてリンク端における一時停止義務の有無に関する情報を有していると同視できるようになるので、少ないデータ量で、ナビゲーション用演算部12による停止義務地点の案内の用に十分に供することが可能となる。その結果、ナビゲーション用演算部12の処理負荷を軽減することも可能となる。   The stop duty point information s generated in this way has attribute information indicating that there is a duty to pause at the link end in the link k where the target feature having succeeded in image recognition exists, although not particularly illustrated. The same association information is stored in association with the information about the corresponding link k in the map information M of the map database DB1. Thus, the processing load for generation | occurrence | production of the stop duty point information s can be reduced by producing | generating the stop duty point information s using the information regarding the link k memorize | stored in map database DB1. In addition, the stop obligation point information s is stored in association with the information of the link k included in the map database DB1, so that each link k has information on whether or not there is a temporary stop obligation at the link end as its attribute information. Therefore, it is possible to provide enough for the guidance of the stop duty point by the navigation calculation unit 12 with a small amount of data. As a result, it is possible to reduce the processing load on the navigation calculation unit 12.

3−4.地点情報収集処理の手順
次に、本実施形態に係るナビゲーション装置1に適用される、画像認識装置3を含む地点情報収集装置2において実行される地点情報収集処理の手順について説明する。図17は、本実施形態に係る画像認識処理を含む地点情報収集処理の手順を示すフローチャートである。以下に説明する地点情報収集処理の手順は、上記の地点情報収集装置2の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方の組み合せにより実行される。地点情報収集装置2の各機能部がプログラムにより構成される場合には、地点情報収集装置2が有する演算処理装置は、上記の各機能部を構成する画像認識プログラム及びこれを含む地点情報収集プログラムを実行するコンピュータとして動作する。
3-4. Procedure of spot information collection processing Next, a procedure of spot information collection processing executed in the spot information collection device 2 including the image recognition device 3 applied to the navigation device 1 according to the present embodiment will be described. FIG. 17 is a flowchart illustrating a procedure of spot information collection processing including image recognition processing according to the present embodiment. The procedure of the spot information collection process described below is executed by hardware or software (program) or a combination of both constituting each functional unit of the spot information collection apparatus 2 described above. When each function part of the point information collection device 2 is configured by a program, the arithmetic processing device included in the point information collection device 2 includes an image recognition program that constitutes each of the above function units and a point information collection program including the image recognition program. It operates as a computer that executes

まず、形状認識部7は、停止線及び文字列「まれ」のうちのいずれか一方についての画像認識処理を行う(ステップ#21)。形状認識部7は、撮像装置18により取得された画像情報Gに含まれている地物から抽出した輪郭情報と停止線又は文字列「まれ」の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに停止線及び文字列「まれ」のうちのいずれか一方の画像が含まれるか否かを判断する(ステップ#22)。画像情報Gに停止線及び文字列「まれ」のいずれの画像も含まれないと判定された場合には(ステップ#02:No)、再度ステップ#21に戻って、形状認識部7は、停止線及び文字列「まれ」のうちのいずれか一方についての画像認識処理を行う。一方、画像情報Gに停止線及び文字列「まれ」のうちのいずれか一方の画像が含まれると判定された場合には(ステップ#22:Yes)、隣接判定部8は距離計測を開始する(ステップ#23)。次に形状認識部7は、停止線及び文字列「まれ」のうちの他方についての画像認識処理を行う(ステップ#24)。形状認識部7は、画像情報Gに含まれている地物から抽出した輪郭情報と停止線の形態の特徴量とのパターンマッチングを行うことにより、画像情報Gに停止線及び文字列「まれ」のうちの他方の画像が含まれるか否かを判断する(ステップ#25)。画像情報Gに当該他方の画像が含まれないと判定された場合には(ステップ#25:No)、隣接判定部8は、計測した距離が予め設定された所定距離D以下であるか否かを判定する(ステップ#26)。計測した距離が予め設定された所定距離Dより大きいと判定された場合には(ステップ#26:No)、処理は終了する。一方、計測した距離が予め設定された所定距離D以下であると判定された場合には(ステップ#26:Yes)、再度ステップ#24に戻って、形状認識部7は、停止線及び文字列「まれ」のうちの他方についての画像認識処理を行う。そして、画像情報Gに停止線及び文字列「まれ」のうちの他方の画像が含まれると判定された場合に(ステップ#25:Yes)、対象地物、すなわち道路の路面に設けられた停止線と、停止線に隣接して設けられた文字列「まれ」との組み合せの画像認識に成功したと判定される。次に、地点情報生成部9は、ステップ#22又はステップ#25で画像認識された結果に基づいて、文字列「まれ」が順方向であるか逆方向であるかを判定する(ステップ#27)。そして、自車位置情報P及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報sを生成する(ステップ#28)。その際、文字列「まれ」の向きの判定結果に基づいて、一時停止義務がある側のリンク端を決定する。生成した停止義務地点情報sは、停止義務地点データベースDB4に出力されて停止義務地点データベースDB4に記憶される(ステップ#29)。   First, the shape recognition unit 7 performs image recognition processing for either one of the stop line and the character string “rare” (step # 21). The shape recognition unit 7 performs pattern matching between the contour information extracted from the feature included in the image information G acquired by the imaging device 18 and the feature amount in the form of the stop line or the character string “rare”. Then, it is determined whether or not any one of the stop line and the character string “rare” is included in the image information G (step # 22). When it is determined that neither the stop line nor the character string “rare” is included in the image information G (step # 02: No), the process returns to step # 21 again, and the shape recognition unit 7 stops. Image recognition processing is performed for either one of the line and the character string “rare”. On the other hand, when it is determined that the image information G includes any one of the stop line and the character string “rare” (step # 22: Yes), the adjacent determination unit 8 starts distance measurement. (Step # 23). Next, the shape recognition unit 7 performs image recognition processing on the other of the stop line and the character string “rare” (step # 24). The shape recognition unit 7 performs pattern matching between the contour information extracted from the features included in the image information G and the feature quantity of the form of the stop line, so that the stop line and the character string “rare” are included in the image information G. It is determined whether or not the other image is included (step # 25). When it is determined that the other image is not included in the image information G (step # 25: No), the adjacency determination unit 8 determines whether or not the measured distance is equal to or less than a predetermined distance D set in advance. Is determined (step # 26). If it is determined that the measured distance is greater than the preset predetermined distance D (step # 26: No), the process ends. On the other hand, when it is determined that the measured distance is equal to or less than the predetermined distance D set in advance (step # 26: Yes), the shape recognition unit 7 returns to step # 24 again, and the shape recognition unit 7 determines the stop line and the character string. The image recognition process for the other of the “rare” is performed. When it is determined that the image information G includes the other image of the stop line and the character string “rare” (step # 25: Yes), the target feature, that is, the stop provided on the road surface of the road It is determined that the image recognition of the combination of the line and the character string “rare” provided adjacent to the stop line is successful. Next, the point information generation unit 9 determines whether the character string “rare” is in the forward direction or the reverse direction based on the result of image recognition in step # 22 or step # 25 (step # 27). ). Then, based on the vehicle position information P and the image recognition result of the target feature, stop mandatory point information s representing a point where there is a temporary stop obligation is generated (step # 28). At that time, based on the determination result of the direction of the character string “rare”, the link end on the side having the obligation to pause is determined. The generated stop duty point information s is output to the stop duty point database DB4 and stored in the stop duty point database DB4 (step # 29).

このような画像認識処理によれば、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功した場合に、当該停止線の位置が一時停止義務のある地点であると判定するため、一時停止義務のある停止線のみを抽出して認識することが可能となる。また、停止線と所定の文字列との組み合せを画像認識するため、停止線を単独で画像認識する場合に比べて認識精度を向上させることが可能となる。さらに、上述の通り、自車両の進行方向とは逆方向に進行する車両を対象とする停止線と所定の文字列との組み合わせも対象地物として画像認識処理を行うことができるので、停止義務地点情報sを効率良く生成することが可能となる。   According to such image recognition processing, when image recognition of a combination of a stop line provided on the road surface of a road and a predetermined character string provided adjacent to the stop line is successful, the stop line Since it is determined that the position is a point having a duty to pause, it is possible to extract and recognize only a stop line having a duty to pause. In addition, since the combination of the stop line and the predetermined character string is recognized as an image, the recognition accuracy can be improved as compared with the case where the stop line is recognized alone. Furthermore, as described above, the combination of a stop line for a vehicle traveling in the direction opposite to the traveling direction of the host vehicle and a predetermined character string can also be subjected to image recognition processing as a target feature. The point information s can be generated efficiently.

〔その他の実施形態〕
(1)上記の各実施形態においては、所定の文字列を画像認識した後に停止線を画像認識した場合に、対象地物の画像認識に成功したと判定する例、及び、停止線を画像認識した後に所定の文字列を画像認識した場合に、対象地物の画像認識に成功したと判定する例について説明した。しかし、本発明に係る画像認識装置3においては、停止線と所定の文字列を構成する各文字を画像認識する順序は任意に設定可能である。すなわち、対象地物が停止線と文字「ま」及び「れ」である場合において、一度に取得された画像情報Gに停止線と文字「ま」及び「れ」の全てが含まれている場合には、例えば文字「ま」、停止線、文字「れ」の順に画像認識しても対象地物の画像認識に成功したと判定する構成とすることができる。
[Other Embodiments]
(1) In each of the above embodiments, when the stop line is image-recognized after image recognition of a predetermined character string, it is determined that the target feature has been successfully image-recognized, and the stop line is image-recognized. An example has been described in which it is determined that image recognition of a target feature has been successful when a predetermined character string is image-recognized. However, in the image recognition apparatus 3 according to the present invention, the order of image recognition of the characters constituting the stop line and the predetermined character string can be arbitrarily set. That is, when the target feature is a stop line and the characters “MA” and “RE”, the image information G acquired at once includes all of the stop line and the characters “MA” and “RE”. For example, even if image recognition is performed in the order of the character “MA”, the stop line, and the character “RE”, it can be determined that the image recognition of the target feature has been successful.

(2)上記の第一の実施形態においては、対象地物に含まれる所定の文字列の画像認識処理として、文字「ま」及び「れ」の画像認識を行う例について説明した。しかし、本発明に係る画像認識装置3が画像認識する所定の文字列は、「とまれ」、「止まれ」、「トマレ」、「止マレ」のいずれか、又はこれらの文字列の中の少なくとも一部の文字の画像認識を行うものであれば良い。 (2) In the first embodiment described above, an example in which image recognition of characters “MA” and “RE” is performed as image recognition processing of a predetermined character string included in the target feature has been described. However, the predetermined character string recognized by the image recognition apparatus 3 according to the present invention is any one of “Tarema”, “Stop”, “Tomare”, “Stopmare”, or at least one of these character strings. What is necessary is just to perform the image recognition of the character of a part.

(3)上記の第二の実施形態においては、対象地物に含まれる所定の文字列の画像認識処理として、文字の内容を特定しない3文字分の文字的特徴を備えた地物の画像認識を行う例について説明した。しかし、本発明に係る画像認識装置3は、3文字未満又は4文字以上の文字的特徴を備えた地物の画像認識を行う構成としても良い。 (3) In the second embodiment described above, as image recognition processing of a predetermined character string included in the target feature, image recognition of the feature having character characteristics for three characters that do not specify the character content An example of performing is described. However, the image recognition apparatus 3 according to the present invention may be configured to perform image recognition of a feature having a character characteristic of less than 3 characters or more than 4 characters.

(4)上記の各実施形態においては、画像情報取得部5、画像認識部6、自車位置情報取得部4、地点情報生成部9、学習データベースDB3、推測位置判定部10、統計的地点情報生成部11及び停止義務地点データベースDB4を設け、同じ地点についての複数の停止義務地点情報sを用いた統計的処理により、より正確な当該対象地点の推測位置を記憶していく地点情報収集装置2の例について説明した。しかし、本発明に係る地点情報収集装置2は、推測位置判定部10、統計的地点情報生成部11及び学習データベースDB3を省略し、一回目の画像認識の際に得られた停止義務地点情報sを停止義務地点データベースDB4に直接記録する構成としても良い。このようにすれば、対象地物の位置特定の精度次第では、装置全体を簡略化することが可能となる。なお、その場合、停止義務地点データベースDB4が本発明における地点情報記憶手段として機能することになる。 (4) In each of the above embodiments, the image information acquisition unit 5, the image recognition unit 6, the vehicle position information acquisition unit 4, the point information generation unit 9, the learning database DB3, the estimated position determination unit 10, and the statistical point information The point information collection device 2 that stores the more accurate estimated position of the target point by statistical processing using the plurality of stop point information s for the same point by providing the generation unit 11 and the stop point point database DB4 The example of was described. However, the point information collection device 2 according to the present invention omits the estimated position determination unit 10, the statistical point information generation unit 11, and the learning database DB3, and requires the stop mandatory point information s obtained at the time of the first image recognition. May be directly recorded in the stop obligation point database DB4. In this way, the entire apparatus can be simplified depending on the accuracy of specifying the position of the target feature. In that case, the stop obligation point database DB4 functions as the point information storage means in the present invention.

(5)上記の各実施形態においては、自車両の後方の路面を撮像するバックカメラを用いて自車両の周辺の画像情報Gを取得する例について説明した。しかし、本発明に係る画像認識装置3は、自車両の前方の路面を撮像するフロントカメラを用いて自車両の周辺の画像情報Gを取得する構成としてあっても良い。一般的にフロントカメラは、自車両前方の比較的広範囲の画像情報Gを取得するように設けられることが多いので、その場合画像認識部6は、形状認識部7が停止線及び所定の文字列の両方を一つの画像情報Gの中から画像認識するだけで、道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せの画像認識に成功したと判定可能となる。よって、停止線と所定の文字列とが隣接しているか否かを判定する隣接判定部8を省略することも可能となる。 (5) In each of the embodiments described above, the example in which the image information G around the host vehicle is acquired using the back camera that captures the road surface behind the host vehicle has been described. However, the image recognition apparatus 3 according to the present invention may be configured to acquire image information G around the host vehicle using a front camera that images the road surface ahead of the host vehicle. In general, the front camera is often provided so as to acquire a relatively wide range of image information G in front of the host vehicle. In this case, the image recognition unit 6 includes a stop line and a predetermined character string. Only by recognizing both of them from one image information G, the image recognition of the combination of the stop line provided on the road surface of the road and a predetermined character string provided adjacent to the stop line was successful. Can be determined. Therefore, the adjacency determination unit 8 that determines whether or not the stop line and the predetermined character string are adjacent to each other can be omitted.

(6)上記の各実施形態においては、隣接判定部8が停止線と所定の文字列とが隣接していることを判定するための所定距離Dとして、一時停止義務のある複数地点における停止線と文字列「とまれ」との間の距離のうち、最大距離よりもやや大きい距離を設定する例を示した。しかし、一時停止義務のない地点における文字列のペイント表示(例えば「けん引」、「バス優先」等)と、その後現れる停止線とが関連性を持たないことが判定できるだけの距離であれば、どのような距離を設定しても良い。 (6) In each of the above-described embodiments, the adjoining determination unit 8 uses a stop line at a plurality of points where there is a pause obligation as the predetermined distance D for determining that the stop line and the predetermined character string are adjacent to each other. An example in which a distance slightly larger than the maximum distance among the distances between the character string and the character string “to rare” is set. However, if it is a distance that can be determined that the paint display of the character string (for example, “towing”, “bus priority”, etc.) at a point where there is no obligation to pause and the stop line that appears after that is not relevant, Such a distance may be set.

(7)上記の各実施形態においては、隣接判定部8が、停止線と所定の文字列とが隣接しているか否かを判定するための処理方法として、所定の文字列を画像認識した位置からの自車両の移動距離を距離センサ17を利用して計測し、予め設定された所定距離Dと比較する例を示した。しかしながら、例えば、停止線及び所定の文字列の位置(座標)を画像認識時におけるGPS信号を解析してそれぞれ取得し、これらの座標間距離を予め設定された所定距離Dと比較することにより隣接判定を行うように構成しても良い。 (7) In each of the embodiments described above, the position where the adjacency determination unit 8 recognizes an image of the predetermined character string as a processing method for determining whether the stop line and the predetermined character string are adjacent to each other. An example is shown in which the distance traveled by the host vehicle is measured using the distance sensor 17 and compared with a predetermined distance D set in advance. However, for example, the stop line and the position (coordinates) of a predetermined character string are obtained by analyzing GPS signals at the time of image recognition, and the distance between these coordinates is compared with a predetermined distance D set in advance. You may comprise so that determination may be performed.

(8)上記の各実施形態においては、推測位置判定部10は、同じ地点についての複数の停止義務地点情報sが表す一時停止義務がある地点の位置の分布の代表値として、平均値を用いる例を示した。しかし、当該代表値として最頻値や中央値を用いても良い。例えば、最頻値を用いる場合には、統計的停止義務地点情報Sが有する位置情報の精度が高くなるため、本発明に係る地点情報収集装置2によれば、信頼性の高い停止義務地点データベースDB4を作成することが可能となる。 (8) In each of the above-described embodiments, the estimated position determination unit 10 uses an average value as a representative value of the distribution of the positions of the points having the temporary stop obligations represented by the plurality of stop duty point information s for the same points. An example is shown. However, a mode value or a median value may be used as the representative value. For example, when the mode value is used, the accuracy of the position information included in the statistical stop duty point information S is high. Therefore, according to the point information collection device 2 according to the present invention, a highly reliable stop duty point database. DB4 can be created.

(9)上記の第二の実施形態においては、文字列情報lが有する位置情報については、自車両への撮像装置18の取付位置、取付角度、及び画角等に基づいて予め演算された自車位置と撮像領域との位置関係を用いて自車位置情報Pに基づいて求める例を示した。しかし、停止義務地点情報sが有する停止線の位置情報に基づき、停止線の位置を基準として一定方向に一定距離だけ離れた位置を、当該所定の文字列の位置を表す位置情報として決定しても良い。この場合、地点情報生成部9の演算処理の負担を軽減しつつ、充実した地点情報収集が可能となる。 (9) In the second embodiment, the position information included in the character string information 1 is calculated in advance based on the mounting position, mounting angle, angle of view, etc. of the imaging device 18 to the host vehicle. The example which calculated | required based on the own vehicle position information P using the positional relationship of a vehicle position and an imaging region was shown. However, based on the stop line position information included in the stop stop point information s, a position that is separated by a certain distance in a certain direction with the position of the stop line as a reference is determined as position information representing the position of the predetermined character string. Also good. In this case, it is possible to fully collect point information while reducing the burden of calculation processing of the point information generation unit 9.

(10)上記の第二の実施形態においては、停止義務地点情報s及び文字列情報lが、いずれも学習データベースDB3に記憶される例を示した。しかし、これらはそれぞれ別のデータベースに記憶されていても良い。同様に、統計的停止義務地点情報S及び統計的文字列情報Lも、それぞれ別のデータベースに記憶されていても良い。 (10) In the second embodiment, the example in which both the stop duty point information s and the character string information 1 are stored in the learning database DB3 is shown. However, these may be stored in different databases. Similarly, the statistical stop obligation point information S and the statistical character string information L may be stored in separate databases.

(11)上記の第三の実施形態においては、地点情報生成部9は、形状認識部7からの入力を受け、所定の文字列を画像認識した際の文字の向きに関する情報に基づいて、一時停止義務がある側のリンク端を決定する例について説明した。しかし、例えば、形状認識部7が画像認識した所定の文字列と停止線との位置関係に基づいて、一時停止義務がある側のリンク端を決定するように構成しても良い。例えば、地点情報生成部9は、所定の文字列よりも停止線側のリンク端に一時停止義務があることを表す停止義務地点情報sを生成するように構成することができる。 (11) In the third embodiment, the point information generation unit 9 receives an input from the shape recognition unit 7 and temporarily receives information on the direction of characters when a predetermined character string is image-recognized. The example of determining the link end on the side having the obligation to stop has been described. However, for example, the link end on the side having the obligation to pause may be determined based on the positional relationship between the predetermined character string recognized by the shape recognition unit 7 and the stop line. For example, the point information generation unit 9 can be configured to generate stop obligation point information s indicating that there is a temporary stop obligation at the link end closer to the stop line than a predetermined character string.

(12)上記の各実施形態における各機能部を適宜組み合わせて、画像認識装置3、地点情報収集装置2及びナビゲーション装置1を構成することもできる。例えば、第一の実施形態に係る画像認識装置3等において、第3の実施形態のように形状認識部7が停止線、文字列の順に画像認識を行なうこともできるように構成してあっても良い。 (12) The image recognition device 3, the spot information collection device 2, and the navigation device 1 can be configured by appropriately combining the functional units in the above embodiments. For example, in the image recognition device 3 and the like according to the first embodiment, the shape recognition unit 7 can be configured to perform image recognition in the order of stop lines and character strings as in the third embodiment. Also good.

(13)上記の各実施形態においては、画像認識装置3、地点情報収集装置2及びナビゲーション装置1の全ての構成が車両に積載されている例を念頭において説明した。しかし、本発明に係る画像認識装置3、地点情報収集装置2及びナビゲーション装置1は、その一部が通信ネットワークを介して車外に設けられた構成としてあっても良い。例えば、各機能部、各データベースの一部又は全部を、外部サーバーに設けた構成として、通信ネットワークを介在させて画像認識処理、地点情報収集処理及びナビゲーション演算処理を行うようにすることもできる。 (13) In each of the above embodiments, the example in which all the configurations of the image recognition device 3, the spot information collection device 2, and the navigation device 1 are loaded on the vehicle has been described. However, the image recognition device 3, the point information collection device 2, and the navigation device 1 according to the present invention may be configured such that some of them are provided outside the vehicle via a communication network. For example, a part or all of each functional unit and each database may be provided in an external server, and image recognition processing, point information collection processing, and navigation calculation processing may be performed via a communication network.

本発明は、車両に搭載した撮像装置等により取得した車両周辺の画像情報に含まれる対象地物の画像認識処理を行う画像認識装置に好適に利用することが可能である。また、その画像認識装置を用いた地点情報収集装置及びナビゲーション装置に好適に利用することが可能である。   INDUSTRIAL APPLICABILITY The present invention can be suitably used for an image recognition device that performs image recognition processing of a target feature included in image information around a vehicle acquired by an imaging device or the like mounted on the vehicle. Further, it can be suitably used for a spot information collecting device and a navigation device using the image recognition device.

本発明の第一の実施形態に係るナビゲーション装置の概略構成を示すブロック図The block diagram which shows schematic structure of the navigation apparatus which concerns on 1st embodiment of this invention. 地図データベースに記憶されている地図情報の構成の例を示す図The figure which shows the example of a structure of the map information memorize | stored in the map database 地物データベースに記憶されている道路標示の地物情報の例を示す図The figure which shows the example of the feature information of the road marking memorize | stored in the feature database 自車両への撮像装置の配置構成の一例を示す図The figure which shows an example of the arrangement configuration of the imaging device to the own vehicle 本発明の画像認識手段による対象地物の説明図Explanatory drawing of the target feature by the image recognition means of the present invention 一時停止義務地点を通過する際に画像情報取得部が取得する自車両周辺の画像情報を示す図The figure which shows the image information of the surroundings of the own vehicle which an image information acquisition part acquires when passing a temporary stop obligation point 停止線と所定の文字列との間の距離を計測する方法の一例を示す図The figure which shows an example of the method of measuring the distance between a stop line and a predetermined character string 本発明の第一の実施形態に係るナビゲーション装置の学習データベースに格納された停止義務地点情報を示す模式図The schematic diagram which shows the stop duty point information stored in the learning database of the navigation apparatus which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係るナビゲーション装置の停止義務地点データベースに格納された統計的停止義務地点情報を示す模式図The schematic diagram which shows the statistical stop duty point information stored in the stop duty point database of the navigation apparatus which concerns on 1st embodiment of this invention. 本発明の第一の実施形態に係るナビゲーション装置の、画像認識プログラムを含む地点情報収集プログラムの処理順序を示すフローチャートThe flowchart which shows the process order of the point information collection program containing the image recognition program of the navigation apparatus which concerns on 1st embodiment of this invention. 本発明の第二の実施形態に係るナビゲーション装置の概略構成を示すブロック図The block diagram which shows schematic structure of the navigation apparatus which concerns on 2nd embodiment of this invention. 本発明の第二の実施形態に係るナビゲーション装置の学習データベースに格納された停止義務地点情報及び文字列情報を示す模式図The schematic diagram which shows the stop duty point information and character string information which were stored in the learning database of the navigation apparatus which concerns on 2nd embodiment of this invention. 本発明の第三の実施形態に係るナビゲーション装置の概略構成を示すブロック図The block diagram which shows schematic structure of the navigation apparatus which concerns on 3rd embodiment of this invention. 本発明の画像認識手段による対象地物の説明図Explanatory drawing of the target feature by the image recognition means of the present invention 一時停止義務地点を通過する際に画像情報取得部が取得する自車両周辺の画像情報を示す図The figure which shows the image information of the surroundings of the own vehicle which an image information acquisition part acquires when passing a temporary stop obligation point 本発明の第三の実施形態に係る停止義務地点情報の生成を説明するための説明図Explanatory drawing for demonstrating the production | generation of the stop duty point information which concerns on 3rd embodiment of this invention. 本発明の第三の実施形態に係るナビゲーション装置の、画像認識プログラムを含む地点情報収集プログラムの処理順序を示すフローチャートThe flowchart which shows the processing order of the point information collection program containing the image recognition program of the navigation apparatus which concerns on 3rd embodiment of this invention.

符号の説明Explanation of symbols

1 ナビゲーション装置
2 地点情報収集装置
3 画像認識装置
4 自車位置情報取得部
5 画像情報取得部
6 画像認識部
7 形状認識部
8 隣接判定部
9 地点情報生成部
10 推測位置判定部
11 統計的地点情報生成部
12 ナビゲーション用演算部
13 文字列情報生成部
14 統計的文字列情報生成部
DB1 地図データベース
DB3 学習データベース
DB4 停止義務地点データベース
s 停止義務地点情報
S 統計的停止義務地点情報
l 文字列情報
L 統計的文字列情報
G 画像情報
P 自車位置情報
M 地図情報
n ノード
k リンク
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2 Point information collection apparatus 3 Image recognition apparatus 4 Own vehicle position information acquisition part 5 Image information acquisition part 6 Image recognition part 7 Shape recognition part 8 Adjacent determination part 9 Point information generation part 10 Estimated position determination part 11 Statistical point Information generator 12 Navigation calculator 13 Character string information generator 14 Statistical character string information generator DB1 Map database DB3 Learning database DB4 Stop obligation point database s Stop obligation point information S Statistical stop obligation point information l Character string information L Statistical character string information G Image information P Own vehicle position information M Map information n Node k Link

Claims (16)

自車両の現在位置を表す自車位置情報を取得する自車位置情報取得手段と、
自車両の周辺の画像情報を取得する画像情報取得手段と、
道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、前記画像情報に含まれる前記対象地物の画像認識処理を行う画像認識手段と、
前記対象地物の画像認識に成功した場合に、自車位置情報及び当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報を生成する地点情報生成手段と、
を備える画像認識装置。
Own vehicle position information acquisition means for acquiring own vehicle position information representing the current position of the own vehicle;
Image information acquisition means for acquiring image information around the host vehicle;
An image for performing image recognition processing of the target feature included in the image information with a combination of a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line as a target feature Recognition means;
A point information generating means for generating stop duty point information representing a point where there is a duty to temporarily stop based on the vehicle position information and the image recognition result of the target feature when image recognition of the target feature is successful; ,
An image recognition apparatus comprising:
前記画像認識手段は、前記所定の文字列を画像認識した後、前記停止線を画像認識した場合に、前記対象地物の画像認識に成功したと判定する請求項1に記載の画像認識装置。   The image recognition device according to claim 1, wherein the image recognition unit determines that the image recognition of the target feature has succeeded when the stop line is image recognized after image recognition of the predetermined character string. 前記画像認識手段は、前記停止線を画像認識した後、前記所定の文字列を画像認識した場合に、前記対象地物の画像認識に成功したと判定する請求項1又は2に記載の画像認識装置。   3. The image recognition according to claim 1, wherein the image recognition unit determines that the image recognition of the target feature is successful when the predetermined character string is image recognized after image recognition of the stop line. apparatus. 前記画像認識手段は、前記対象地物に含まれる前記所定の文字列の画像認識処理として、ひらがな、カタカナ、漢字、及びこれらの組み合せのいずれかで表された「とまれ」の文字列の中の少なくとも一部の文字の画像認識を行う請求項1から3のいずれか一項に記載の画像認識装置。   The image recognition means, as an image recognition process of the predetermined character string included in the target feature, in a character string of “to rare” represented by any one of hiragana, katakana, kanji, and combinations thereof The image recognition apparatus according to claim 1, wherein image recognition of at least some characters is performed. 前記画像認識手段は、前記対象地物に含まれる前記所定の文字列の画像認識処理として、文字の内容を特定しない3文字分の文字的特徴を備えた地物の画像認識を行う請求項1から3のいずれか一項に記載の画像認識装置。   The image recognition means performs image recognition of a feature having character characteristics for three characters that do not specify character content as image recognition processing of the predetermined character string included in the target feature. 4. The image recognition device according to claim 1. 前記停止義務地点情報は、画像認識に成功した前記対象地物に含まれる前記停止線の位置情報及び少なくとも一時停止義務があることを表す属性情報を有する請求項1から5のいずれか一項に記載の画像認識装置。   The said stop duty point information has the attribute information which shows the positional information on the said stop line contained in the said target feature which succeeded in image recognition, and having at least a temporary stop duty. The image recognition apparatus described. 前記停止線の位置情報は、前記停止線の代表点が有する地図上の座標情報である請求項6に記載の画像認識装置。   The image recognition apparatus according to claim 6, wherein the position information of the stop line is coordinate information on a map of a representative point of the stop line. 交差点に対応するノード及び各交差点を結ぶ道路に対応するリンクにより道路の接続関係を表す道路ネットワーク情報を含む地図情報を記憶した地図情報記憶手段を備え、
前記停止義務地点情報は、画像認識に成功した前記対象地物が存在するリンクにおけるいずれか一方のリンク端に一時停止義務があることを表す属性情報を有する請求項1から5のいずれか一項に記載の画像認識装置。
Comprising map information storage means for storing map information including road network information representing connection relations of roads by nodes corresponding to intersections and links corresponding to roads connecting the intersections;
The said stop duty point information has attribute information showing that there exists a temporary stop duty in any one link end in the link in which the said target feature which succeeded in image recognition exists. The image recognition apparatus described in 1.
請求項1から8のいずれか一項に記載の画像認識装置と、前記地点情報生成手段により生成された前記停止義務地点情報を記憶する地点情報記憶手段と、を備える地点情報収集装置。   A point information collection device comprising: the image recognition device according to claim 1; and a point information storage unit that stores the stop duty point information generated by the point information generation unit. 請求項1から7のいずれか一項に記載の画像認識装置と、
前記地点情報生成手段により生成された前記停止義務地点情報を記憶する地点情報記憶手段と、
同じ対象地物が複数回画像認識されることにより生成され、前記地点情報記憶手段に記憶された、同じ地点についての複数の前記停止義務地点情報に基づいて、前記一時停止義務がある地点の推測位置を判定する推測位置判定手段と、
前記推測位置判定手段により判定された前記推測位置を、前記一時停止義務がある地点の位置とする統計的停止義務地点情報を生成する統計的地点情報生成手段と、
前記統計的地点情報生成手段により生成された前記統計的停止義務地点情報を記憶する統計的地点情報記憶手段と、を備える地点情報収集装置。
An image recognition device according to any one of claims 1 to 7,
Point information storage means for storing the stop duty point information generated by the point information generation means;
Estimating a point having the duty to stop temporarily based on a plurality of points of duty to stop for the same point, which are generated by image recognition of the same target feature multiple times and stored in the point information storage means Estimated position determining means for determining a position;
Statistical point information generating means for generating statistical stop duty point information that uses the estimated position determined by the estimated position determination means as a position of the point where the temporary stop duty is present;
And a statistical point information storage unit that stores the statistical stop obligation point information generated by the statistical point information generation unit.
前記推測位置判定手段は、同じ地点についての複数の前記停止義務地点情報が表す前記一時停止義務がある地点の位置の分布に基づいて、当該分布の代表値を前記推測位置として判定する請求項10に記載の地点情報収集装置。   The said estimated position determination means determines the representative value of the said distribution as said estimated position based on the distribution of the position of the point with the said temporary stop obligation which the said several said stop mandatory point information about the same point represents. The point information collection device described in 1. 前記対象地物の画像認識に成功した場合に、当該画像認識に成功した前記対象地物に含まれる前記所定の文字列の位置情報及び属性情報を有する文字列情報を生成する文字列情報生成手段を更に備える請求項1から7のいずれか一項に記載の画像認識装置。   Character string information generating means for generating character string information having position information and attribute information of the predetermined character string included in the target feature that has been successfully recognized when the image recognition of the target feature is successful The image recognition apparatus according to any one of claims 1 to 7, further comprising: 請求項12に記載の画像認識装置と、前記文字列情報生成手段により生成された前記文字列情報を、前記停止義務地点情報と関連付けて記憶する文字列情報記憶手段と、を備える地点情報収集装置。   A point information collection device comprising: the image recognition device according to claim 12; and character string information storage means for storing the character string information generated by the character string information generation means in association with the stop duty point information. . 請求項9又は13に記載の地点情報収集装置と、前記自車位置情報と前記停止義務地点情報とに基づいて、前記一時停止義務がある地点についての案内を行う案内手段と、を備えるナビゲーション装置。   A navigation apparatus comprising: the spot information collecting apparatus according to claim 9 or 13; and guidance means for guiding a spot having the duty to stop temporarily based on the own vehicle position information and the stop duty spot information. . 請求項10又は11に記載の地点情報収集装置と、前記自車位置情報と前記統計的停止義務地点情報とに基づいて、前記一時停止義務がある地点についての案内を行う案内手段と、を備えるナビゲーション装置。   12. A spot information collection device according to claim 10 or 11, and a guidance means for guiding a spot having a duty to stop temporarily based on the own vehicle position information and the statistical stop duty spot information. Navigation device. 自車両の現在位置を表す自車位置情報を取得する自車位置情報取得ステップと、
自車両の周辺の画像情報を取得する画像情報取得ステップと、
道路の路面に設けられた停止線と、停止線に隣接して設けられた所定の文字列との組み合せを対象地物とし、前記画像情報に含まれる前記対象地物の画像認識処理を行う画像認識ステップと、
前記対象地物の画像認識に成功した場合に、当該対象地物の画像認識結果に基づいて、一時停止義務がある地点を表す停止義務地点情報を生成する地点情報生成ステップと、
をコンピュータに実行させる画像認識プログラム。
Own vehicle position information acquisition step for acquiring own vehicle position information indicating the current position of the own vehicle;
An image information acquisition step of acquiring image information around the host vehicle;
An image for performing image recognition processing of the target feature included in the image information with a combination of a stop line provided on the road surface and a predetermined character string provided adjacent to the stop line as a target feature A recognition step;
A point information generating step for generating, when the image recognition of the target feature is successful, based on the image recognition result of the target feature, stop obligation point information indicating a point where there is a duty to temporarily stop;
Recognition program that causes a computer to execute
JP2008171659A 2007-09-27 2008-06-30 Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same Expired - Fee Related JP5141969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008171659A JP5141969B2 (en) 2007-09-27 2008-06-30 Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007252412 2007-09-27
JP2007252412 2007-09-27
JP2008171659A JP5141969B2 (en) 2007-09-27 2008-06-30 Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same

Publications (2)

Publication Number Publication Date
JP2009099125A true JP2009099125A (en) 2009-05-07
JP5141969B2 JP5141969B2 (en) 2013-02-13

Family

ID=40702031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008171659A Expired - Fee Related JP5141969B2 (en) 2007-09-27 2008-06-30 Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same

Country Status (1)

Country Link
JP (1) JP5141969B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012224247A (en) * 2011-04-20 2012-11-15 Nissan Motor Co Ltd Driving support device and driving support method
CN103207995A (en) * 2013-05-13 2013-07-17 苏州福丰科技有限公司 PCA (Principal Component Analysis)-based 3D (three dimensional) face identification method
CN103235943A (en) * 2013-05-13 2013-08-07 苏州福丰科技有限公司 Principal component analysis-based (PCA-based) three-dimensional (3D) face recognition system
JP2014115931A (en) * 2012-12-12 2014-06-26 Mitsubishi Electric Corp Driving support device, driving support control device and driving support control method
JP2017117340A (en) * 2015-12-25 2017-06-29 日本放送協会 Character attribute estimation device and character attribute estimation program
WO2020045345A1 (en) * 2018-08-31 2020-03-05 株式会社デンソー Sign recognition system and sign recognition method
CN112389447A (en) * 2019-08-13 2021-02-23 丰田自动车株式会社 Driving behavior determination device, driving behavior determination method, and non-transitory storage medium
CN112639905A (en) * 2018-08-31 2021-04-09 株式会社电装 Marker recognition system and marker recognition method
JP2021096265A (en) * 2016-07-29 2021-06-24 パイオニア株式会社 Measurement device, method for measurement, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763567A (en) * 1993-08-31 1995-03-10 Sumitomo Electric Ind Ltd Route guide device
JP2005182308A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JP2006127358A (en) * 2004-11-01 2006-05-18 Nissan Motor Co Ltd Vehicle road sign detection system
JP2006172262A (en) * 2004-12-17 2006-06-29 Nissan Motor Co Ltd Road sign detector for vehicle
JP2006277547A (en) * 2005-03-30 2006-10-12 Toyota Motor Corp Driving assist apparatus vehicle
JP2007003568A (en) * 2005-06-21 2007-01-11 Nissan Motor Co Ltd Map information generating device
JP2007041916A (en) * 2005-08-04 2007-02-15 Nissan Motor Co Ltd Stop line detection system for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763567A (en) * 1993-08-31 1995-03-10 Sumitomo Electric Ind Ltd Route guide device
JP2005182308A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle driving support device
JP2006127358A (en) * 2004-11-01 2006-05-18 Nissan Motor Co Ltd Vehicle road sign detection system
JP2006172262A (en) * 2004-12-17 2006-06-29 Nissan Motor Co Ltd Road sign detector for vehicle
JP2006277547A (en) * 2005-03-30 2006-10-12 Toyota Motor Corp Driving assist apparatus vehicle
JP2007003568A (en) * 2005-06-21 2007-01-11 Nissan Motor Co Ltd Map information generating device
JP2007041916A (en) * 2005-08-04 2007-02-15 Nissan Motor Co Ltd Stop line detection system for vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012224247A (en) * 2011-04-20 2012-11-15 Nissan Motor Co Ltd Driving support device and driving support method
JP2014115931A (en) * 2012-12-12 2014-06-26 Mitsubishi Electric Corp Driving support device, driving support control device and driving support control method
CN103207995A (en) * 2013-05-13 2013-07-17 苏州福丰科技有限公司 PCA (Principal Component Analysis)-based 3D (three dimensional) face identification method
CN103235943A (en) * 2013-05-13 2013-08-07 苏州福丰科技有限公司 Principal component analysis-based (PCA-based) three-dimensional (3D) face recognition system
JP2017117340A (en) * 2015-12-25 2017-06-29 日本放送協会 Character attribute estimation device and character attribute estimation program
JP2021096265A (en) * 2016-07-29 2021-06-24 パイオニア株式会社 Measurement device, method for measurement, and program
WO2020045345A1 (en) * 2018-08-31 2020-03-05 株式会社デンソー Sign recognition system and sign recognition method
CN112639905A (en) * 2018-08-31 2021-04-09 株式会社电装 Marker recognition system and marker recognition method
CN112389447A (en) * 2019-08-13 2021-02-23 丰田自动车株式会社 Driving behavior determination device, driving behavior determination method, and non-transitory storage medium
CN112389447B (en) * 2019-08-13 2024-05-14 丰田自动车株式会社 Driving behavior determination device, determination method, and non-transitory storage medium

Also Published As

Publication number Publication date
JP5141969B2 (en) 2013-02-13

Similar Documents

Publication Publication Date Title
JP5141969B2 (en) Image recognition apparatus, image recognition program, and point information collection apparatus and navigation apparatus using the same
JP4703605B2 (en) Feature extraction method, image recognition method and feature database creation method using the same
JP4886597B2 (en) Lane determination device, lane determination method, and navigation device using the same
EP2113746B1 (en) Feature information collecting device and feature information collecting program, and vehicle position recognizing device and navigation device
JP4366664B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP4569837B2 (en) Feature information collecting apparatus and feature information collecting method
JP4950858B2 (en) Image recognition apparatus and image recognition program
JP4984152B2 (en) Image recognition system, server device, and image recognition device
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
JP4953012B2 (en) Image recognition device, program for image recognition device, navigation device using the same, and program for navigation device
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2008164384A (en) Device and method for recognizing position of local substance
JP2008298699A (en) Own vehicle position recognition device and own vehicle position recognition method
JP4731380B2 (en) Self-vehicle position recognition device and self-vehicle position recognition method
JP4831433B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP5099460B2 (en) Feature information collecting apparatus and feature information collecting method
JP5071737B2 (en) Lane determination device, lane determination program, and navigation device using the same
JP4817019B2 (en) Own vehicle position recognition device and own vehicle position recognition program
JP5013214B2 (en) Lane determination device, lane determination program, and navigation device using the same
JP2009058430A (en) Navigation apparatus and program
JP4497424B2 (en) Feature recognition device, feature recognition method, lane determination device and lane determination method using the same
JP5010844B2 (en) Feature information output device, image recognition device, and own vehicle position recognition device
JP5088592B2 (en) Own vehicle position recognition device and own vehicle position recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5141969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees