JP2007140828A - Sign recognition method - Google Patents

Sign recognition method Download PDF

Info

Publication number
JP2007140828A
JP2007140828A JP2005332758A JP2005332758A JP2007140828A JP 2007140828 A JP2007140828 A JP 2007140828A JP 2005332758 A JP2005332758 A JP 2005332758A JP 2005332758 A JP2005332758 A JP 2005332758A JP 2007140828 A JP2007140828 A JP 2007140828A
Authority
JP
Japan
Prior art keywords
image
traffic sign
tracking
discrimination
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005332758A
Other languages
Japanese (ja)
Inventor
Hitoshi Yamauchi
仁 山内
Atsuhiro Kojima
篤博 小島
Takao Miyamoto
貴朗 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Okayama Prefectural Government
Original Assignee
Okayama Prefectural Government
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Okayama Prefectural Government filed Critical Okayama Prefectural Government
Priority to JP2005332758A priority Critical patent/JP2007140828A/en
Publication of JP2007140828A publication Critical patent/JP2007140828A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traffic sign recognition method recognizing a traffic sign at as early as possible, and accurately recognizing even a traffic sign appearing and disappearing by a roadside tree or the like. <P>SOLUTION: In this traffic sign recognition method recognizing the traffic sign included in sequentially arranged respective static images S obtained by photographing a front part in a travel direction of a vehicle by a camera 11, the first tracking image T including only the traffic sign is extracted from the first static image S, the tracking image T is temporarily stored as a distinction image D, the second and succeeding tracking image T is extracted from the second and succeeding static image S, a new distinction image D obtained by composing the tracking image T and the previously temporarily stored distinction image D, is temporarily stored, and the traffic sign present ahead of the travel direction of the vehicle is recognized on the basis of characteristic information CI extracted from the distinction image D. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、乗り物の進行方向前方をカメラにより撮影した動画像Vから、この乗り物の進行方向前方にある交通標識を精度よく認識する標識認識方法に関する。   The present invention relates to a sign recognition method for accurately recognizing a traffic sign ahead of a vehicle in the traveling direction from a moving image V obtained by photographing the front of the vehicle in the traveling direction with a camera.

本発明が対象とする乗り物は主に自動車(二輪車及び四輪車を含む。以下、同じ。)又は列車であるが、進行方向の交通標識を認識する必要のある陸上又は水上の乗り物は、およそ本発明を適用できる。   The vehicles targeted by the present invention are mainly automobiles (including two-wheeled vehicles and four-wheeled vehicles; the same applies hereinafter) or trains, but vehicles on land or water that need to recognize traffic signs in the direction of travel are roughly The present invention can be applied.

特許文献1は、自動車の進行方向前方をカメラにより撮影した動画像Vから、この自動車の進行方向前方にある道路標示や交通標識等の交通標識を抽出し、認識する道路標示等認識装置を開示している。この特許文献1は、交通標識を認識する際の処理負担を軽減し、自動車の進行に伴って交通標識の一部しか撮影できなくなる場合でも交通標識を認識することを課題としている。具体的な道路標示等認識装置は、動画像Vから静止画像S(1フレーム画像)を抽出する画像処理基本部、静止画像Sから所定画像を抽出する画像処理部、抽出した所定画像を合成して複合データを得る画像データ識別部、前記複合データとデータベースの特定画像データとを比較し、前記両データの一致の可否を出力する画像認識部から構成されている(特許文献1請求項1ほか参照)。   Patent Document 1 discloses a road marking recognition device that extracts and recognizes traffic signs such as road markings and traffic signs ahead of the direction of travel of a vehicle from a moving image V obtained by capturing the forward direction of the vehicle with a camera. is doing. This Patent Document 1 has a problem of reducing the processing burden when recognizing a traffic sign and recognizing the traffic sign even when only a part of the traffic sign can be photographed as the automobile advances. A specific recognition device for road marking, etc., combines an image processing basic unit that extracts a still image S (one frame image) from a moving image V, an image processing unit that extracts a predetermined image from the still image S, and the extracted predetermined image. An image data identification unit that obtains composite data, and an image recognition unit that compares the composite data with specific image data in a database and outputs whether the two data match or not (Patent Document 1, claim 1 and others). reference).

処理負担の軽減は、画像処理部により静止画像Sを分割した所定画像を処理することにより、解決している。交通標識の認識に必要な所定画像を処理すれば、静止画像S全体を処理するより当然に処理負担が軽減される(特許文献1段落[0091]参照)。また、交通標識の一部しか撮影できなくなる場合でも交通標識を認識する点は、画像データ識別部により抽出した所定画像を合成した複合データとデータベースとを突き合わせることにより、解決している。すなわち、先に取得した所定画像を部品として、新たに取得した所定画像の足りない部分に前記部品を足し合わせることで、認識に用いる完全な複合データを得る(特許文献1段落[0093]又は[0094]参照)。これから、特許文献1の特徴は、動画像Vから抽出する静止画像Sを分割して処理する点にあると言える。   The reduction of the processing load is solved by processing a predetermined image obtained by dividing the still image S by the image processing unit. If a predetermined image necessary for traffic sign recognition is processed, the processing load is naturally reduced as compared to processing the entire still image S (see paragraph [0091] in Patent Document 1). Further, even when only a part of the traffic sign can be captured, the point of recognizing the traffic sign is solved by matching the composite data obtained by synthesizing the predetermined image extracted by the image data identification unit with the database. That is, by using the predetermined image acquired earlier as a component and adding the component to a missing part of the newly acquired predetermined image, complete composite data used for recognition is obtained (Patent Document 1, paragraph [0093] or [ 0094]). From this, it can be said that the feature of Patent Document 1 is that the still image S extracted from the moving image V is divided and processed.

特開2003-123197号公報JP 2003-123197 A

特許文献1のように、交通標識を認識する目的は、運転手に対して進行方向前方の規制情報を知らせる点にある。これから、できるだけ早い時点で交通標識を認識する、すなわち自動車からより遠方の地点で交通標識を認識することが望ましく、また街路樹等で見え隠れする交通標識も正確に認識できることが望ましいと考えられる。   As in Patent Document 1, the purpose of recognizing traffic signs is to inform the driver of restriction information ahead in the direction of travel. From this, it is desirable to recognize traffic signs at the earliest possible time, that is, to recognize traffic signs at a point farther from the car, and to be able to accurately recognize traffic signs that are visible and hidden by street trees and the like.

まず、できるだけ早い時点で交通標識を認識する点について見ると、特許文献1が開示する内容だけでは明らかでない。特許文献1は、静止画像Sから抽出した所定画像を合成して複合データを取得する点を開示しているが、前記複合データは所定データを部品としてあくまで交通標識全体を再現した画像でしかなく、複合データの解像度(画像に含まれる画素数、以下同じ)は静止画像Sの解像度に依存すると見られる。これから、特許文献1が解像度の高いカメラを用いていれば、複合データの解像度も上がり、比較的早い時点で交通標識を認識できると思われるが、これはカメラに係るコストを高くする問題がある。また、仮に解像度の高いカメラを用いても、必ずしも所定画像、ひいては複合データの解像度を高めるとは限らず、特許文献1によれば、早い時点で交通標識を認識しにくいと考えられる。   First, when it sees about the point which recognizes a traffic sign as early as possible, it is not clear only by the content which patent document 1 discloses. Patent Document 1 discloses that composite data is obtained by synthesizing predetermined images extracted from still images S. However, the composite data is only an image that reproduces the entire traffic sign using predetermined data as a component. The resolution of the composite data (the number of pixels included in the image, hereinafter the same) appears to depend on the resolution of the still image S. From this, if Patent Document 1 uses a camera with a high resolution, it seems that the resolution of the composite data is also increased and the traffic sign can be recognized at a relatively early point. However, this has a problem of increasing the cost of the camera. . Further, even if a high-resolution camera is used, the resolution of the predetermined image and thus the composite data is not necessarily increased. According to Patent Document 1, it is considered difficult to recognize traffic signs at an early point.

また、街路樹等で見え隠れする交通標識も正確に認識する点について、特許文献1は特に触れていないが、静止画像Sを分割して抽出された所定画像を組み合せて複合データを形成することから、街路樹等を含む所定画像を除外することで、比較的認識が容易な複合データを形成し、交通標識をより正確に認識できると考えられる。しかし、交通標識が常に街路樹等で見え隠れする場合、街路樹等を含む所定画像しか得られず、どうしても複合データの部品として認識を可能にする程度の所定画像を用意することができない。この結果、複合データによる交通標識の認識は低下せざるを得ないと考えられる。   Further, although Patent Document 1 does not touch on the point of accurately recognizing traffic signs that are visible and hidden by roadside trees and the like, composite data is formed by combining predetermined images extracted by dividing still images S. By excluding predetermined images including roadside trees, it is considered that composite data that is relatively easy to recognize can be formed and traffic signs can be recognized more accurately. However, when a traffic sign is always visible and hidden by a roadside tree or the like, only a predetermined image including the roadside tree or the like can be obtained, and a predetermined image that can be recognized as a component of composite data cannot be prepared. As a result, it is considered that the recognition of traffic signs by composite data must be reduced.

このように、できるだけ早い時点で交通標識を認識したり、また街路樹等で見え隠れする交通標識を正確に認識するには、仮に高い解像度のカメラを用いたとしても、なお特許文献1の認識方法では不十分である。そこで、たとえカメラの解像度が低くても、できるだけ早い時点で交通標識を認識したり、街路樹等で見え隠れする交通標識も正確に認識するための認識方法を開発するため、検討した。   Thus, in order to recognize a traffic sign at the earliest possible time or to accurately recognize a traffic sign that is visible and hidden by a roadside tree, the recognition method of Patent Document 1 is still used even if a high-resolution camera is used. Is not enough. Therefore, even if the resolution of the camera is low, we studied to develop a recognition method for recognizing traffic signs at the earliest possible time and for accurately recognizing traffic signs that are visible and hidden by street trees.

検討の結果開発したものが、乗り物の進行方向前方をカメラにより撮影した時系列に並ぶ各静止画像Sに含まれる交通標識を認識する標識認識方法において、最初の静止画像Sから交通標識のみを含む最初の追跡画像Tを抽出し、この最初の追跡画像Tを判別画像Dとして一時記憶し、2番目以降の静止画像Sから2番目以降の追跡画像Tを抽出し、この2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとを合成した新たな判別画像Dを一時記憶し、前記新たな判別画像Dから抽出した特徴情報CIに基づいて乗り物の進行方向前方にある交通標識を認識する交通標識認識方法である。本発明に用いる静止画像Sは、乗り物の進行方向前方をカメラにより撮影した動画像Vからフレーム単位で抽出された静止画像Sでもよい。このように、本発明は、乗り物の進行方向前方の静止画像Sを取得できれば、静止画カメラ又は動画カメラのいずれでもよい。   What has been developed as a result of the study is a sign recognition method for recognizing traffic signs included in still images S arranged in time series in which the front of the vehicle in the traveling direction is captured by a camera, and includes only traffic signs from the first still image S The first tracking image T is extracted, the first tracking image T is temporarily stored as the discrimination image D, the second and subsequent tracking images T are extracted from the second and subsequent still images S, and the second and subsequent tracking images are extracted. A new discriminating image D obtained by combining T and the discriminating image D temporarily stored earlier is temporarily stored, and a traffic sign ahead of the traveling direction of the vehicle based on the feature information CI extracted from the new discriminating image D Is a traffic sign recognition method. The still image S used in the present invention may be a still image S extracted in units of frames from a moving image V taken by a camera in front of the vehicle in the traveling direction. As described above, the present invention may be either a still image camera or a moving image camera as long as the still image S in the forward direction of the vehicle can be acquired.

本発明は、静止画像Sから抽出された追跡画像T毎に交通標識を認識するのではなく、繰り返して抽出される追跡画像Tと一時記憶されている判別画像Dとを合成して生成される新たな判別画像Dを用いて交通標識を認識する。この新たな判別画像Dは、合成する追跡画像Tに合わせて解像度を上げていく。この新たな判別画像Dの交通標識の輪郭や色彩等が有する特徴情報CIは、各追跡画像Tの特徴情報CIを蓄積したものになっている。このため、同じ解像度の追跡画像Tから得られる特徴情報CIの量より、判別画像Dから得られる特徴情報CIの量が多くなる結果、新たな判別画像Dを用いれば、交通標識の認識を高めることができる。これは、追跡画像Tから直接交通標識を認識することができない早い段階(例えば自動車と交通標識とが遠く離れた段階)で、判別画像Dを用いて交通標識を認識できることを意味し、交通標識の早期認識を実現する効果をもたらす。   In the present invention, a traffic sign is not recognized for each tracking image T extracted from the still image S, but is generated by combining the tracking image T repeatedly extracted and the discrimination image D temporarily stored. A traffic sign is recognized using the new discrimination image D. The resolution of the new discrimination image D is increased in accordance with the tracking image T to be synthesized. The feature information CI included in the contour and color of the traffic sign of the new discrimination image D is obtained by accumulating the feature information CI of each tracking image T. For this reason, the amount of feature information CI obtained from the discrimination image D is larger than the amount of feature information CI obtained from the tracking image T of the same resolution. As a result, the use of a new discrimination image D increases the recognition of traffic signs. be able to. This means that the traffic sign can be recognized using the discrimination image D at an early stage where the traffic sign cannot be directly recognized from the tracking image T (for example, a stage where the car and the traffic sign are far apart). This brings about the effect of realizing early recognition.

ある画像の特徴情報CIの量は、その画像の解像度に比例する。しかし、後述する拡大された判別画像D'は、見掛け上の画素を増加させるが、解像度を高めておらず、したがって特徴情報CIの量も増加していない。なぜなら、増加した画素は元の画素により補完されたものに過ぎず、この増加した画素が新たな特徴情報CIを生み出すわけではないからである。これから、追跡画像Tと判別画像Dとの合成は、判別画像Dが当初より有する特徴情報CIに追跡画像Tの特徴情報CIを追加するばかりでなく、増加した画素に対して追跡画像Tの特徴情報CIを新たに付与し、合成後の判別画像Dの特徴情報CIの量を増加させる処理となる。   The amount of feature information CI of an image is proportional to the resolution of the image. However, an enlarged discrimination image D ′ described later increases the number of apparent pixels, but does not increase the resolution, and thus does not increase the amount of feature information CI. This is because the increased pixels are only complemented by the original pixels, and the increased pixels do not produce new feature information CI. From this, the synthesis of the tracking image T and the discrimination image D not only adds the feature information CI of the tracking image T to the feature information CI that the discrimination image D originally has but also the features of the tracking image T with respect to the increased pixels. Information CI is newly added to increase the amount of feature information CI of the combined discrimination image D.

静止画像Sは、特定時点における自動車の進行方向前方の全景画像であり、認識対象となる交通標識のほか、風景を含んでいる。この静止画像Sの撮影間隔や動画像Vからの抽出間隔は任意でよく、等間隔又は不等間隔を問わない。この撮影間隔又は抽出間隔は、追跡画像Tの抽出、判別画像Dの生成やこの判別画像Dによる交通標識の認識に要する処理時間の合計より長いことが好ましい。逆に前記処理時間が十分に短ければ、例えば自動車の進行速度に反比例した時間間隔、すなわち自動車が高速移動していれば撮影間隔又は抽出間隔を短くし、逆に自動車が低速移動していれば撮影間隔又は抽出間隔を長くすることが考えられる。   The still image S is a panoramic image in front of the direction of travel of the car at a specific point in time, and includes scenery in addition to traffic signs to be recognized. The shooting interval of the still image S and the extraction interval from the moving image V may be arbitrary and may be equal intervals or unequal intervals. This photographing interval or extraction interval is preferably longer than the total processing time required for extracting the tracking image T, generating the discrimination image D, and recognizing the traffic sign from the discrimination image D. Conversely, if the processing time is sufficiently short, for example, the time interval inversely proportional to the traveling speed of the automobile, that is, if the automobile is moving at high speed, the shooting interval or extraction interval is shortened, and conversely if the automobile is moving at low speed. It is conceivable to increase the shooting interval or the extraction interval.

追跡画像Tは、静止画像S内で選定した交通標識を含む大きさ又は形状の画像であり、処理負担を軽減する目的から、交通標識の外形に倣った形状か、交通標識を最大外形とする長方形又は正方形の画像が好ましい。この追跡画像Tは、静止画像S毎に静止画像S全体から交通標識を探索し、抽出してもよいが、この場合、追跡画像Tの抽出処理の負担が大きいばかりでなく、各静止画像Sから抽出される追跡画像Tの同一性を保証しにくい。これから、最初の静止画像Sから抽出された追跡画像Tに基づいて、2番目以降の静止画像Sの探索範囲を限定し、前記限定された探索範囲から2番目以降の追跡画像Tを抽出するとよい。これから、本発明は、各静止画像Sから同一の交通標識を抽出する意味で、「追跡」画像Tと呼んでいる。この追跡画像Tを抽出する方法は、従来公知の各種方法を用いることができる。   The tracking image T is an image having a size or shape including the traffic sign selected in the still image S. For the purpose of reducing the processing burden, the tracking image T has a shape that follows the outer shape of the traffic sign or the traffic sign has the maximum outer shape. A rectangular or square image is preferred. The tracking image T may be searched for and extracted from the entire still image S for each still image S. In this case, not only is the burden of extracting the tracking image T heavy, but each still image S is also extracted. It is difficult to guarantee the identity of the tracking image T extracted from the. From this, it is preferable to limit the search range of the second and subsequent still images S based on the tracking image T extracted from the first still image S, and extract the second and subsequent tracking images T from the limited search range. . Henceforth, the present invention is called “tracking” image T in the sense of extracting the same traffic sign from each still image S. As a method for extracting the tracking image T, various conventionally known methods can be used.

特徴情報CIは、例えば交通標識を識別するに足りる幾何学的特徴を表す情報である。例えば、我が国の規制標識は、白地に赤色の図形が基本であり、必要により青色の図形が追加されることから、判別画像Dを白色、赤色及び青色でそれぞれ2値化すると、白地の形状、赤色の図形の形状、そして青色の図形の形状のみからなる3種の特定色抽出画像が生成できる。そして、各特定色抽出画像の輪郭ベクトルを特徴情報CIとして抽出し、データベースに蓄積させた交通標識毎の前記輪郭ベクトルからなる特徴情報CIと比較すれば、判別画像Dに含まれる交通標識を判別できる。このように、特徴情報CIは、データベースとの突き合わせにより交通標識を判別できればよく、この特徴情報CIを生成する方法は、従来公知の各種方法を用いることができる。   The feature information CI is information representing a geometric feature sufficient to identify a traffic sign, for example. For example, Japan's regulatory sign is basically a red figure on a white background, and a blue figure is added if necessary, so if the discrimination image D is binarized with white, red and blue, respectively, the shape of the white background, Three types of specific color extraction images consisting only of the shape of a red graphic and the shape of a blue graphic can be generated. Then, if the contour vector of each specific color extraction image is extracted as feature information CI and compared with the feature information CI consisting of the contour vector for each traffic sign stored in the database, the traffic sign included in the discrimination image D is discriminated. it can. As described above, the feature information CI only needs to be able to determine a traffic sign by matching with a database, and various known methods can be used as a method of generating the feature information CI.

本発明は、過去の追跡画像Tの特徴情報CIを蓄積した判別画像Dを生成する点に特徴を有する。しかし、2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとは、当然に大きさが異なるほか、解像度も異なることから、単純に重ね合わせても特徴情報CIをかえって弱めてしまう虞がある。そこで、新たな判別画像Dは、2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとのサイズ比Rを算出し、前記一時記憶されている判別画像Dを前記サイズ比Rにより拡大された判別画像D'を生成し、追跡画像Tを重みW、前記拡大された判別画像D'を重み(1−W)の割合で合成して得ることとした。   The present invention is characterized in that a discrimination image D in which the feature information CI of the past tracking image T is accumulated is generated. However, the second and subsequent tracking images T and the discriminating image D temporarily stored earlier naturally have different sizes and resolutions. Therefore, even if they are simply superimposed, the characteristic information CI is weakened instead. There is a risk of it. Therefore, the new discrimination image D calculates the size ratio R between the second and subsequent tracking images T and the discrimination image D temporarily stored previously, and the temporarily stored discrimination image D is calculated as the size ratio R. The discriminating image D ′ enlarged by the above is generated, and the tracking image T is combined with the weight W, and the enlarged discriminating image D ′ is combined with the weight (1-W).

2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとは、同じ交通標識を含みながら、自動車が進行方向前方に向けて進んでいくため、大きさ及び解像度が異なっている。これから、まず追跡画像T及び判別画像Dを合成するには、一方を他方の大きさに合わせる必要がある。この場合、追跡画像Tを前記サイズ比Rにより縮小して判別画像Dに合成することも考えられるが、追跡画像Tの縮小はこの追跡画像Tが有する特徴情報CIを不要に損ねることになる。また、既述したように、追跡画像T及び判別画像Dの合成は、拡大された判別画像D'の増加した画素に、追跡画像Tの特徴情報CIを新たに付与する意味を有する。これから、前記サイズ比Rにより拡大された判別画像D'を追跡画像Tに合成することが合理的であることが理解される。   The second and subsequent tracking images T and the discrimination image D temporarily stored in advance have different sizes and resolutions because the vehicle travels forward in the traveling direction while including the same traffic sign. From this, in order to synthesize the tracking image T and the discrimination image D, it is necessary to match one to the other size. In this case, the tracking image T may be reduced by the size ratio R and combined with the discrimination image D. However, the reduction of the tracking image T unnecessarily impairs the feature information CI included in the tracking image T. Further, as described above, the synthesis of the tracking image T and the discrimination image D has a meaning of newly adding the feature information CI of the tracking image T to the increased pixels of the enlarged discrimination image D ′. From this, it is understood that it is reasonable to combine the discrimination image D ′ enlarged by the size ratio R with the tracking image T.

自動車が進行方向に水平かつ直線に進行している基本的な場合、2番目以降の追跡画像Tと一時記憶されている判別画像Dとは、同一の交通標識を含む画像であり、また判別画像Dは過去の追跡画像Tから生成されることから、高さ及び幅がほぼ同じ比率の相似した関係にあると考えることができる。この場合、両者のサイズ比Rは各画像の高さ、幅又は各画像の特定寸法r(後述参照)を単純に比較して算出できる。ここで、「特定寸法r」は、追跡画像T又は判別画像Dに含まれる交通標識の特定寸法r、例えば円形標識の推定される半径や方形標識又は菱形標識の推定される一辺の長さを意味する。しかし、追跡画像T又は判別画像Dが交通標識の輪郭に倣って抽出される場合、この追跡画像Tの半径を特定寸法rとし、また追跡画像Tが交通標識の外形を最大として抽出される場合はこの追跡画像Tの一辺の長さを特定寸法rとしてもよい。   In a basic case where the vehicle is traveling horizontally and straight in the direction of travel, the second and subsequent tracking images T and the temporarily stored discrimination image D are images including the same traffic sign, and the discrimination image Since D is generated from the past tracking image T, it can be considered that the height and width are in a similar relationship with the same ratio. In this case, the size ratio R of both can be calculated by simply comparing the height and width of each image or the specific dimension r (see later) of each image. Here, the “specific dimension r” is a specific dimension r of a traffic sign included in the tracking image T or the discrimination image D, for example, an estimated radius of a circular sign or an estimated length of one side of a square sign or a rhombus sign. means. However, when the tracking image T or the discrimination image D is extracted following the outline of the traffic sign, the radius of the tracking image T is set to the specific dimension r, and the tracking image T is extracted with the outline of the traffic sign being maximized. The length of one side of the tracking image T may be the specific dimension r.

また、道路が曲がっていたり、自動車が交差点を曲がっている等、自動車が進行方向に曲がる又は上下に進行している場合、交通標識に対する自動車の角度によって高さ及び幅の比率が変化することから、例えば追跡画像Tを正面から見たとして補正された追跡画像Tを得て、前記補正された追跡画像Tと一時記憶されている判別画像Dの高さ、幅又は各画像の特定寸法rを比較してサイズ比Rを算出するとよい。いずれの場合でも、画像の高さ、幅又は特定寸法rの比較を容易にするため、各画像を2値化してもよい。比較対照を高さ、幅又は特定寸法rのいずれにするか、また前記2値化等の中間処理を用いるか否かは、本発明を適用するハードウェア又はソフトウェアの能力により決定すればよい。   Also, when the car is turning in the direction of travel or moving up and down, such as when the road is curved or the car is turning at an intersection, the ratio of height and width changes depending on the angle of the car with respect to the traffic sign For example, a corrected tracking image T is obtained when the tracking image T is viewed from the front, and the height and width of the corrected tracking image T and the temporarily stored discrimination image D or the specific dimension r of each image are obtained. The size ratio R may be calculated by comparison. In any case, each image may be binarized in order to facilitate comparison of the height, width, or specific dimension r of the image. Whether the comparison control is height, width, or specific dimension r, and whether or not to use intermediate processing such as binarization may be determined by the capability of hardware or software to which the present invention is applied.

次に、追跡画像T及び判別画像Dは解像度が異なることから、本発明は、追跡画像Tを重みW、拡大された判別画像D'を重み(1−W)の割合で合成、すなわち加重平均した。ここで、解像度の高い追跡画像Tの特徴情報CIをよりよく利用するため、重みWを0.5以上とし、合成して得られる新たな判別画像Dにおける追跡画像Tの影響を強くすることが考えられる。しかし、あまり重みWを大きくすると、合成された判別画像Dは追跡画像Tそのものと変わらなくなるほか、追跡画像Tを重ね合わせた判別画像Dに蓄積された特徴情報CIを相対的に低く評価してしまう。そこで、重みWは、0.5より小さい範囲で、追跡画像T中の特定寸法rについて単調増加する値とし、特定寸法rの大小に応じて追跡画像Tを評価しながら、重みWの追跡画像Tに比べて、重み(1−W)の拡大された判別画像D'を相対的に高く評価し、前記拡大された判別画像D'の特徴情報CIを交通標識の認識に有効利用できるようにした。具体的には、拡大された判別画像D'に対する追跡画像Tの相対的価値は0.5より低く、重みWは0.01〜0.40、好ましくは0.05〜0.35に設定するとよい。   Next, since the tracking image T and the discrimination image D have different resolutions, the present invention combines the tracking image T with a weight W and the enlarged discrimination image D ′ with a weight (1-W) ratio, that is, a weighted average. did. Here, in order to make better use of the feature information CI of the high-resolution tracking image T, it is conceivable that the weight W is set to 0.5 or more, and the influence of the tracking image T on the new discriminating image D obtained by synthesis is increased. . However, if the weight W is increased too much, the synthesized discriminant image D is not different from the tracking image T itself, and the feature information CI accumulated in the discriminating image D on which the tracking image T is superimposed is evaluated relatively low. End up. Therefore, the weight W is a value that monotonously increases with respect to the specific dimension r in the tracking image T in a range smaller than 0.5, and the tracking image T is evaluated according to the size of the specific dimension r while the tracking image T having the weight W is evaluated. In comparison, the enlarged discrimination image D ′ with the weight (1-W) is evaluated relatively high, and the feature information CI of the enlarged discrimination image D ′ can be effectively used for traffic sign recognition. Specifically, the relative value of the tracking image T with respect to the enlarged discrimination image D ′ is lower than 0.5, and the weight W is set to 0.01 to 0.40, preferably 0.05 to 0.35.

重みWは、追跡画像T中の特定寸法rを変数とする関数W(r)であり、
dW(r)/dr>0、d2W(r)/dr2<0
であるとよい。関数W(r)は、特定寸法rの増加につれて増加するものの、その増加量が減少するものであればよく、具体的には対数関数log(r)やべき乗関数rt(0<t<1)を例示できる。特定寸法rは、上述した通り、例えば円形標識の推定される半径や方形標識又は菱形標識の推定される一辺の長さである。
The weight W is a function W (r) having a specific dimension r in the tracking image T as a variable,
dW (r) / dr> 0, d 2 W (r) / dr 2 <0
It is good to be. Although the function W (r) increases as the specific dimension r increases, it is sufficient that the increase amount decreases. Specifically, the logarithmic function log (r) and the power function r t (0 <t <1 ). As described above, the specific dimension r is, for example, an estimated radius of a circular sign or an estimated length of one side of a square sign or a rhombus sign.

好ましい関数W(r)は、下記数1で表される。
1:増幅率
2:特定寸法rに対する閾値
3:重みWに対する閾値
ここで、重みWを上述した0.05〜0.35の範囲に収めるとした場合、A1は0.05〜0.40、A2は4.0〜8.0、A3は0.01〜0.30の範囲で設定することが好適である。
A preferable function W (r) is expressed by the following formula 1.
A 1 : Amplification factor A 2 : Threshold value for specific dimension r A 3 : Threshold value for weight W Where A 1 is 0.05 to 0.40 and A 2 is 4.0 when the weight W is within the range of 0.05 to 0.35 described above. to 8.0, a 3 is preferably set in a range of from 0.01 to 0.30.

交通標識がかなり遠方にある場合の追跡画像Tに含まれる特徴情報CIは少なく、むしろ不要な情報(ノイズ)が多く、拡大された判別画像D'に合成することが好ましくなくなる。特定寸法に対する閾値A2は、特定寸法rに基づいて、不要な情報が多いと考えられる小さな追跡画像Tを、拡大された判別画像D'との合成から除外するための閾値である。この結果、log(r−A2)が小さくなりすぎる虞があるため、増幅率A1により前記log(r−A2)の値を増加させ、更に重みWに対する閾値A3を減算することにより前記増幅率A1による過剰な増分を調整する。ここで、重みWは1未満の正の値でなければならないため、特定寸法rが閾値A2より小さかったり、重みWに対する閾値A3の減算によりW(r)が負の値になれば、追跡画像Tと拡大された判別画像D'との合成をすることなく、前記追跡画像Tを新たな判別画像Dとして一時記憶させるとよい。 The characteristic information CI included in the tracking image T when the traffic sign is quite far away is small, rather there is a lot of unnecessary information (noise), and it is not preferable to combine it with the enlarged discrimination image D ′. The threshold A 2 for the specific dimension is a threshold for excluding the small tracking image T that is considered to have a lot of unnecessary information from the combination with the enlarged discrimination image D ′ based on the specific dimension r. As a result, log (r−A 2 ) may become too small. Therefore, by increasing the value of log (r−A 2 ) by the amplification factor A 1 and further subtracting the threshold value A 3 for the weight W. The excess increment by the amplification factor A 1 is adjusted. Here, since the weight W must be a positive value less than 1, if the specific dimension r is smaller than the threshold A 2 or if W (r) becomes a negative value by subtraction of the threshold A 3 from the weight W, The tracking image T may be temporarily stored as a new discrimination image D without combining the tracking image T with the enlarged discrimination image D ′.

本発明は、まず交通標識を早い時点で認識できる効果を有する。これらは、過去に抽出された追跡画像Tの特徴情報CIを蓄積した判別画像Dに基づいて交通標識を認識することによる効果である。前記判別画像Dは、過去に抽出された追跡画像Tの特徴情報CIを蓄積しているため、同じ解像度の追跡画像Tに比べてこの判別画像Dを用いた交通標識の認識精度は高く、例えば追跡画像Tから交通標識を認識できない場合でも、その追跡画像Tを合成して得られる新たな判別画像Dによれば、交通標識を認識できることになる。これは、早い時点での交通標識の高精度な認識という効果に繋がる。   The present invention has an effect that a traffic sign can be recognized at an early point in time. These are the effects obtained by recognizing the traffic sign based on the discrimination image D in which the feature information CI of the tracking image T extracted in the past is accumulated. Since the discrimination image D stores the characteristic information CI of the tracking image T extracted in the past, the recognition accuracy of the traffic sign using the discrimination image D is higher than that of the tracking image T of the same resolution. Even if the traffic sign cannot be recognized from the tracking image T, the new determination image D obtained by synthesizing the tracking image T can recognize the traffic sign. This leads to the effect of highly accurate recognition of traffic signs at an early point.

また、過去に抽出された追跡画像Tの特徴情報CIを蓄積した判別画像Dに基づいて交通標識を認識することにより、例えば街路樹等に見え隠れする交通標識でも認識可能にする効果が得られる。従来同種の交通標識認識方法は、取得した静止画像S又はこの静止画像Sから抽出した追跡画像Tのみを用いて交通標識を認識していたため、静止画像S又は追跡画像T中の交通標識に街路樹等の障害物が重なっていると交通標識が認識できないことも少なくなかった。しかし、本発明が交通標識に用いる判別画像Dは、過去に抽出された追跡画像Tを合成していく判別画像Dを用いて交通標識を認識するため、個々の追跡画像Tそれぞれが含む障害物の影響を低減できるほか、障害物の影響がない部分での特徴情報CIを高め、交通標識の認識を可能にしている。   Further, by recognizing the traffic sign based on the discrimination image D in which the characteristic information CI of the tracking image T extracted in the past is accumulated, an effect of making it possible to recognize even a traffic sign that appears and hides in a roadside tree or the like can be obtained. Conventionally, the same kind of traffic sign recognition method recognizes a traffic sign using only the acquired still image S or the tracking image T extracted from the still image S. Often, traffic signs could not be recognized when obstacles such as trees overlapped. However, since the discrimination image D used in the present invention for the traffic sign recognizes the traffic sign using the discrimination image D obtained by synthesizing the tracking images T extracted in the past, the obstacle included in each tracking image T In addition to being able to reduce the effects of traffic, the feature information CI is increased in areas where there are no obstacles, enabling traffic signs to be recognized.

このほか、本発明は抽出された追跡画像Tの利用態様を提案するものであり、従来公知の各種交通標識認識方法と併用できる。すなわち、本発明における静止画像Sの取得方法、追跡画像Tの抽出方法及び判別画像Dを用いた認識方法は、従来公知の各種方法を用いることができる。これは、本発明の汎用性を意味する。こうして、本発明は従来公知の各種交通標識認識方法に適用されることにより、実用的な交通標識認識方法を確立する効果を有する。   In addition, the present invention proposes a mode of using the extracted tracking image T, and can be used in combination with various conventionally known traffic sign recognition methods. That is, conventionally known various methods can be used as the method for acquiring the still image S, the method for extracting the tracking image T, and the recognition method using the discrimination image D in the present invention. This means the versatility of the present invention. Thus, the present invention has an effect of establishing a practical traffic sign recognition method by being applied to various conventionally known traffic sign recognition methods.

以下、本発明の実施形態について図を参照しながら説明する。図1は本発明を適用した交通標識認識システムの概略構成を表すブロック図、図2は本例の交通標識認識システムを搭載した自動車5を表した使用状態参考図、図3は交通標識認識システムにおける処理手順を表したフローチャート、図4は静止画Sの一例を表す参考図、図5は静止画Sから抽出した追跡画像Tを表す参考図、図6は追跡画像Tに対して判別画像Dを拡大する処理を模式的に表した参考図、図7は追跡画像Tと拡大された判別画像D'とを合成する処理を模式的に表した参考図、図8は参考画像(a)の特定色抽出画像から抽出される輪郭ベクトル画像(b)(c)と輪郭ベクトルを連続的にトレースした輪郭トレース画像(d)を表す参考図である。本例は、自動車5の進行方向前方をカメラにより撮影した動画像Vから、この自動車5の進行方向前方にある交通標識6を認識する交通標識認識システムを構成した例である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a traffic sign recognition system to which the present invention is applied, FIG. 2 is a usage state reference diagram showing an automobile 5 equipped with the traffic sign recognition system of this example, and FIG. 3 is a traffic sign recognition system. 4 is a reference diagram showing an example of the still image S, FIG. 5 is a reference diagram showing the tracking image T extracted from the still image S, and FIG. 6 is a discrimination image D with respect to the tracking image T. FIG. 7 is a reference diagram schematically showing the process of synthesizing the tracking image T and the enlarged discrimination image D ′, and FIG. 8 is a reference image (a). It is a reference figure showing the contour trace image (d) which traced the contour vector image (b) (c) extracted from a specific color extraction image, and a contour vector continuously. In this example, a traffic sign recognition system for recognizing a traffic sign 6 ahead of the automobile 5 in the traveling direction from a moving image V obtained by photographing the front of the automobile 5 in the traveling direction with a camera.

交通標識認識システムは、例えば図1に見られるように、カメラ11、車載コンピュータ2、ハードディスク3及びディスプレイ4により構成される。カメラ11は、動画像Vを撮影する動画カメラであり、例えば図2に見られるように、自動車5の屋根に搭載して、この自動車5の進行方向前方の風景を常時撮影する。ハードディスク3は、大量のデータを永続的に記憶させる外部記憶装置であり、交通標識6の特徴情報CIから構成されるデータベースや、ディスプレイ4に表示させる地図データを記憶させている。磁気的外部記憶装置であるハードディスク3に代えて、光学的外部記憶装置であるDVD-ROM等の外部記憶装置を用いてもよいし、例えば無線接続のインターネットを介して、自動車外のサーバからデータを逐次入手してもよい。   For example, as shown in FIG. 1, the traffic sign recognition system includes a camera 11, an in-vehicle computer 2, a hard disk 3, and a display 4. The camera 11 is a moving image camera that captures the moving image V. For example, as shown in FIG. 2, the camera 11 is mounted on the roof of the automobile 5 and constantly photographs a landscape in front of the traveling direction of the automobile 5. The hard disk 3 is an external storage device that permanently stores a large amount of data, and stores a database composed of feature information CI of the traffic sign 6 and map data to be displayed on the display 4. Instead of the hard disk 3 that is a magnetic external storage device, an external storage device such as a DVD-ROM that is an optical external storage device may be used. For example, data is transmitted from a server outside the automobile via a wireless connection Internet. May be obtained sequentially.

車載コンピュータ2は、CPU等からなる処理部26とメモリ25とから構成される。処理部26は、本発明に基づく処理手順を実現する処理プログラムを実行することにより、機能的な静止画像抽出手段21、追跡画像抽出手段22、画像合成手段23及び標識認識手段24に分けることができる。処理プログラムは、例えばハードディスク3に記憶させ、交通標識認識システムの起動により車載コンピュータ2の処理部26に読み出して実行させる。処理プログラムの実行によりソフト的に構成される前記各手段は、仕様変更に対応しやすい汎用性を備えるが、処理時間の短縮や装置構成の小型化を図る場合、前記各手段をハード的に構成してもよい。   The in-vehicle computer 2 includes a processing unit 26 including a CPU and a memory 25. The processing unit 26 can be divided into functional still image extraction means 21, tracking image extraction means 22, image synthesis means 23, and sign recognition means 24 by executing a processing program that implements the processing procedure based on the present invention. it can. The processing program is stored in the hard disk 3, for example, and is read out and executed by the processing unit 26 of the in-vehicle computer 2 by the activation of the traffic sign recognition system. Each means configured as software by executing a processing program has versatility that is easy to cope with specification changes. However, when shortening the processing time and downsizing the apparatus configuration, each means is configured as hardware. May be.

静止画像抽出手段21は、カメラ11から動画像Vを取り込み、この動画像Vからフレーム単位の静止画像Sを抽出する。追跡画像抽出手段22は、静止画像抽出手段21から静止画像Sを取り込み、この静止画像Sから交通標識6を含む追跡画像Tを抽出する。カメラ11に代えて、例えば静止画カメラ等のカメラ12(図1参照)を用いて直接静止画像Sを追跡画像抽出手段22に取り込んでもよい。この追跡画像Tが最初の静止画像Sから抽出された最初の追跡画像Tであれば、メモリ25に一時記憶させる。画像合成手段23は、2番目以降の静止画像Sから抽出された2番目以降の追跡画像Tを追跡画像抽出手段22から抽出し、この追跡画像Tと先に一時記憶されている判別画像Dとを合成して新たな判別画像Dを生成し、この判別画像Dをメモリ25に一時記憶させる。標識認識手段24は、画像合成手段23から生成された新たな判別画像Dを取り込み、従来公知の各種方法により判別画像Dから特徴情報CIを抽出し、この特徴情報CIをハードディスク3に記憶させたデータベースの特徴情報CIと突き合わせて交通標識6を認識する。そしてディスプレイ4は、標識認識手段24により認識された交通標識6の画像データをハードディスク3のデータベースから取り出し、例えば地図データに合成して表示させる。   The still image extracting means 21 takes in the moving image V from the camera 11 and extracts a still image S in frame units from the moving image V. The tracking image extraction unit 22 takes in the still image S from the still image extraction unit 21 and extracts the tracking image T including the traffic sign 6 from the still image S. Instead of the camera 11, the still image S may be directly taken into the tracking image extraction unit 22 using a camera 12 (see FIG. 1) such as a still image camera. If this tracking image T is the first tracking image T extracted from the first still image S, it is temporarily stored in the memory 25. The image synthesizing unit 23 extracts the second and subsequent tracking images T extracted from the second and subsequent still images S from the tracking image extracting unit 22, and the tracking image T and the discrimination image D temporarily stored in advance. Are generated to generate a new discrimination image D, and this discrimination image D is temporarily stored in the memory 25. The sign recognition unit 24 takes in the new discrimination image D generated from the image synthesis unit 23, extracts the feature information CI from the discrimination image D by various conventionally known methods, and stores the feature information CI in the hard disk 3. The traffic sign 6 is recognized against the feature information CI of the database. Then, the display 4 takes out the image data of the traffic sign 6 recognized by the sign recognition means 24 from the database of the hard disk 3 and synthesizes it with, for example, map data and displays it.

本例の交通標識認識システムは、例えば図3に見られる処理手順に従って、動画像V中の交通標識6を認識する。便宜上、動画像V中に1つの交通標識6が現われた場合について説明する。複数の交通標識6が現われた場合(図4及び図5参照)は、以下の処理手順が並列的に実行される。まず、処理手順の最初にカウンタnがリセットされ、カメラ11(図1参照。以下、同じ)が取り込んだ動画像Vから静止画像抽出手段21が最初の静止画像S1を抽出し、この静止画像S1から追跡画像抽出手段22が最初の追跡画像T1を抽出する。ここで、最初の追跡画像T1が抽出されなければ、この処理手順を終了し、改めてカウンタnをリセットして次の処理手順を開始する。 The traffic sign recognition system of this example recognizes the traffic sign 6 in the moving image V according to the processing procedure seen in FIG. For convenience, a case where one traffic sign 6 appears in the moving image V will be described. When a plurality of traffic signs 6 appear (see FIGS. 4 and 5), the following processing procedures are executed in parallel. First, at the beginning of the processing procedure, the counter n is reset, and the still image extracting means 21 extracts the first still image S 1 from the moving image V captured by the camera 11 (see FIG. 1, the same applies hereinafter). tracking image extracting means 22 from S 1 is to extract the first tracking image T 1. Here, if the first tracking image T 1 is not extracted, this processing procedure is terminated, the counter n is reset again, and the next processing procedure is started.

追跡画像Tの抽出は、従来公知の各種方法を用いることができるが、各静止画像Sから交通標識のみを含む画像を抽出する方法と、全静止画像Sにわたって同一の交通標識を含む前記画像を抽出する方法とが必要となる。まず、各静止画像Sから特定の交通標識のみを含む画像を抽出する方法として、領域限定を用いた抽出手法(「特定色判別と領域限定を用いた円形交通標識の抽出(松浦大祐,山内仁,高橋浩光)」,電子情報通信学会論文誌D-II,Vol.J85-D-II,No.6,1075〜1083頁,June 2002.)を例示できる。この領域限定を用いた抽出手法は、1)RGB減算法を用いた特定色抽出手順、2)交通標識が存在しうる画像領域を特定し、後段の形状判別手順の対象領域を削減する探索領域限定手順、そして3)円形、菱形等、交通標識に用いられている形状判別手順から構成されている。   For the extraction of the tracking image T, various conventionally known methods can be used. However, a method of extracting an image including only a traffic sign from each still image S and the image including the same traffic sign over all the still images S are extracted. And a method of extraction. First, as a method for extracting an image including only a specific traffic sign from each still image S, an extraction method using area limitation (“Extraction of circular traffic signs using specific color discrimination and area limitation (Daisuke Matsuura, Hitoshi Yamauchi , Hiromitsu Takahashi) ”, Journal of the Institute of Electronics, Information and Communication Engineers, D-II, Vol. J85-D-II, No. 6, pp. 1075-1083, June 2002). The extraction method using this area limitation is 1) a specific color extraction procedure using the RGB subtraction method, and 2) a search area that specifies an image area where a traffic sign can exist and reduces the target area of the subsequent shape determination procedure. It consists of a limited procedure and 3) a shape discriminating procedure used for traffic signs, such as a circle and a diamond.

特定色抽出手順に用いるRGB減算法は、輝度成分への寄与率が高い緑色成分を赤色成分から減算して赤色成分又は黄色成分を、また同じく前記緑色成分を青色成分から減算して青色成分を抽出する手法である。ここで、赤色成分及び黄色成分は、元の赤色成分から緑色成分を減算した値の大小で区別され、前記値が大きい場合が赤色成分、逆に前記値が小さい場合が黄色成分として区別される。このRGB減算法は、一般的に用いられるHSL変換等に比べて、演算量が小さく、高速に特定色を抽出できるほか、緑色成分を減算することで例えば空等が白色に撮影されている場合でも、前記白色を除去できる利点がある。   The RGB subtraction method used for the specific color extraction procedure subtracts the green component having a high contribution rate to the luminance component from the red component to subtract the red component or the yellow component, and similarly subtracts the green component from the blue component to obtain the blue component. It is a technique to extract. Here, the red component and the yellow component are distinguished by the magnitude of the value obtained by subtracting the green component from the original red component, and the red component is distinguished when the value is large, and the yellow component is distinguished when the value is small. . This RGB subtraction method has a small amount of computation compared to generally used HSL conversion, etc., and can extract specific colors at high speed, and when the sky component is photographed in white by subtracting the green component, for example However, there is an advantage that the white color can be removed.

上記RGB減算法によって抽出された赤色成分、緑色成分、青色成分及び黄色成分の各特定色抽出画像は階調を有する濃淡画像であるため、閾値処理を施してそれぞれ2値化画像とし、例えば図4に見られるように、続く軽減及び形状判別手順で利用する。ここで、特定色抽出画像には1〜2画素程度の孤立画素から構成される微小なノイズが含まれていることがある。こうしたノイズは、注目画素を中心とした3×3画素内に含まれる有効画素数の閾値処理により、注目画素を除去又は追加する簡便なフィルタ処理をして、処理時間の大幅な増加を抑えながら、除去するとよい。   Since the specific color extracted images of the red component, the green component, the blue component, and the yellow component extracted by the above RGB subtraction method are grayscale images having gradations, each of them is subjected to threshold processing to form a binarized image. As can be seen in FIG. 4, it is used in subsequent mitigation and shape discrimination procedures. Here, the specific color extraction image may contain minute noise composed of isolated pixels of about 1 to 2 pixels. Such noise is controlled by a simple filter process that removes or adds the target pixel by threshold processing of the number of effective pixels included in the 3 × 3 pixel centered on the target pixel, while suppressing a significant increase in processing time. It is good to remove.

軽減は、交通標識が特定形状の組み合せで表されることを利用する。交通標識を含む領域では、交通標識を表す特定形状が水平ライン又は垂直ライン上に一定値以上の有効画素数を有する。これから、有効画素数が前記一定値に満たない水平ライン又は垂直ラインを、交通標識を探す領域=探索領域から除外できる。また、前記探索領域の幅又は高さが、抽出しようとしている交通標識の大きさより小さければ、その探索領域内に交通標識は存在しえないため、前記探索領域を除外できる。こうした探索領域からの除外を特定色抽出画像のすべてに実施すれば、交通標識を探索する範囲が限定される。ここで、1回の探索領域からの除外では、特定色抽出画像内に存在する他の交通標識や同系色物体の影響により、必ずしも抽出しようとしている交通標識のみを残すことができない。このため、探索領域からの除外は2回以上実施し、余分な領域を除去するとよい。   Mitigation uses the fact that traffic signs are represented by combinations of specific shapes. In a region including a traffic sign, a specific shape representing the traffic sign has an effective pixel number equal to or greater than a certain value on a horizontal line or a vertical line. From this, a horizontal line or a vertical line whose number of effective pixels is less than the predetermined value can be excluded from the area for searching for traffic signs = search area. Further, if the width or height of the search area is smaller than the size of the traffic sign to be extracted, no traffic sign can exist in the search area, and therefore the search area can be excluded. If such exclusion from the search area is performed on all of the specific color extraction images, the range for searching for traffic signs is limited. Here, with one exclusion from the search area, it is not always possible to leave only the traffic sign to be extracted due to the influence of other traffic signs and similar color objects existing in the specific color extraction image. For this reason, the exclusion from the search area may be performed twice or more, and the excess area may be removed.

形状判別手順は、上記軽減で限定された探索領域に対して、交通標識の外形である円形図形又は多角形図形を判別する。例えば円形図形の交通標識の場合、前記探索領域のエッジ探索による中心座標の仮決定と、前記中心座標を中心とする円形図形の半径の円周上の画素数の閾値処理により、円形図形の存在を判定する。また、菱形図形をはじめとする多角形図形の交通標識の場合、円形図形と同様に中心座標を仮決定し、前記中心座標から上下方向又は左右方向へ走査してエッジ探索して中心位置を決定した後、得られたエッジ間の距離を基にした外郭部分の外周及び内周を走査して有効画素数を計数し、更に閾値処理によって多角形図形の存在を判定する。ここで、交通標識と同形状の看板等を選別するため、限定された探索領域内における各特定色の面積比率を算出し、交通標識ならばあり得ない比率が算出された場合、その探索領域を除外する。   The shape discrimination procedure discriminates a circular figure or a polygon figure which is the outer shape of the traffic sign for the search area limited by the reduction. For example, in the case of a traffic sign of a circular figure, the presence of a circular figure is obtained by provisional determination of center coordinates by edge search of the search area and threshold processing of the number of pixels on the circumference of the radius of the circular figure centered on the center coordinates. Determine. In the case of traffic signs with polygonal figures such as rhombus figures, central coordinates are provisionally determined in the same way as with circular figures, and the center position is determined by scanning from the center coordinates in the vertical or horizontal direction to search for edges. After that, the outer periphery and inner periphery of the outer portion based on the distance between the obtained edges are scanned to count the number of effective pixels, and the presence of a polygonal figure is determined by threshold processing. Here, in order to select a signboard having the same shape as the traffic sign, the area ratio of each specific color in the limited search area is calculated, and when the ratio that cannot be a traffic sign is calculated, the search area Is excluded.

このように、特定色抽出手順、探索領域限定手順、そして形状判別手順からなる領域限定を用いた抽出手法により、例えば図5に見られるように、各静止画像Snから交通標識のみを含む画像を追跡画像Tnとして抽出できる。しかし、全静止画像Snについて毎回同様の手順を経て追跡画像Tnを抽出するのは、処理時間がかかりすぎるし、各静止画像Snから抽出した追跡画像Tnが同一の交通標識を含む画像か否かを別途判断しなければならない。そこで、全静止画像Snにわたって同一の交通標識を含む前記画像を抽出する方法として、CONDENSATION(「CONDENSATION - Conditional Density Propagation for Visual Tracking(Michael Isard, and Andrew Blake)」" International Journal of Computer Vision,Vol. 29, No. 1, 5〜28頁, 1998.)を用い、最初に抽出された追跡画像T1を利用して、2番目以降の追跡画像Tn(nは2以上の整数、以下同じ)を効率的に抽出するとよい。 Thus, the specific color extraction procedure, the search area limited procedures and by detection using area limiting consisting shape determination procedure, as seen in FIG. 5, for example, an image comprising only traffic signs from the still image S n, Can be extracted as the tracking image T n . However, to extract the tracking image T n via each same procedure for all the still image S n, to the processing time is too long, tracking image T n includes the same traffic signs extracted from the still image S n Whether it is an image or not must be determined separately. Therefore, as a method for extracting the image including the same traffic sign over the entire still image S n, CONDENSATION ( "CONDENSATION - Conditional Density Propagation for Visual Tracking (Michael Isard, and Andrew Blake) ""International Journal of Computer Vision, Vol 29, No. 1, pp. 5-28, 1998.), using the first extracted tracking image T 1 , the second and subsequent tracking images T n (n is an integer of 2 or more, and so on) ) Should be extracted efficiently.

CONDENSATIONは、ある画像から抽出する特定領域が複数のパラメータによって表現可能であるとき、直前に抽出された画像におけるパラメータ値を中心とした多次元の正規分布を想定し、その分布に従った複数のパラメータ候補群から最も評価値の高いものをその時点におけるパラメータ値として決定する手法である。ここで、CONDENSATIONを利用するには、パラメータ候補群の評価を適切にする必要がある。これから、静止画像Sから追跡画像Tを抽出する本発明の場合、初期抽出段階で判明する円形、菱形等の標識の形状及び特定色をパラメータ値として設定する。   CONDENSATION assumes a multidimensional normal distribution centered on the parameter value in the image extracted immediately before when a specific area extracted from an image can be expressed by multiple parameters. This is a method of determining the parameter value having the highest evaluation value from the parameter candidate group as the parameter value at that time. Here, in order to use CONDENSATION, it is necessary to appropriately evaluate the parameter candidate group. From this, in the case of the present invention in which the tracking image T is extracted from the still image S, the shape of the marker such as a circle and a rhombus and a specific color determined at the initial extraction stage are set as parameter values.

例えば赤色を主体とする円形標識であれば、CONDENSATIONによって推定するパラメータは、標識の形状である円を表現するのに必要な座標(x、y)及び半径(特定寸法)rを用いることができる。この場合、CONDENSATIONによって生成されたパラメータ値の番号をkとしたとき、それぞれのパラメータ値を(xk、yk、rk)と表すことができる。生成されたパラメータ値の評価値Ekは、対象標識の外周部分が赤色円形であることから、PR(x、y)を中心座標(x、y)における赤色の画素値、nを円周の分割数、cをエッジ強度を補正する重みとして、下記数2により求めることができる。 For example, in the case of a circular sign mainly made of red, the parameters (X, y) and radius (specific dimensions) r necessary for expressing a circle that is the shape of the sign can be used as parameters estimated by CONDENSATION. . In this case, each parameter value can be expressed as (xk, yk, rk), where k is the number of the parameter value generated by CONDENSATION. The evaluation value Ek of the generated parameter value is such that P R (x, y) is the red pixel value at the center coordinates (x, y) and n is the circumference since the outer periphery of the target sign is a red circle. The number of divisions, c, can be calculated by the following formula 2 as a weight for correcting the edge strength.

上記数2より算出される評価値Ekが大きな値となったとき、前記評価値Ekを算出する基礎となったパラメータ値で表される探索領域が、赤色円形の最外周部である可能性が高いと推定される。これから、各静止画像S毎に最も評価値Ekの高い探索領域を抽出すれば、最初に抽出した追跡画像T1と同じ交通標識を含む2番目以降の追跡画像Tnを得ることができる。 When the evaluation value Ek calculated from Equation 2 is a large value, there is a possibility that the search area represented by the parameter value that is the basis for calculating the evaluation value Ek is the outermost peripheral portion of the red circle. Estimated to be high. From this, if the search area having the highest evaluation value Ek is extracted for each still image S, the second and subsequent tracking images T n including the same traffic signs as the first extracted tracking image T 1 can be obtained.

このようにして最初の静止画像S1から抽出された最初の追跡画像T1は、新たな判別画像Dとしてメモリ25に一時記憶される。本例では、処理手順の共通化の観点から前記判別画像Dから標識認識手段24が特徴情報CIを生成し、ハードディスク3のデータベースの特徴データと前記特徴情報CIとを突き合わせて、交通標識の認識を試みる。本発明は、過去の追跡画像Tを重ね合わせた判別画像Dを用いて認識精度を向上させるので、前記判別画像Dから特徴情報CIを抽出することなく、次の処理手順に移ってもよい。判別画像Dから特徴情報CIを抽出する方法については、後述する。 The first tracking image T 1 extracted from the first still image S 1 in this way is temporarily stored in the memory 25 as a new discrimination image D. In this example, the sign recognition means 24 generates feature information CI from the discrimination image D from the viewpoint of standardization of the processing procedure, and the feature data in the database of the hard disk 3 is matched with the feature information CI to recognize traffic signs. Try. In the present invention, since the recognition accuracy is improved using the discrimination image D obtained by superimposing the past tracking images T, the next processing procedure may be performed without extracting the feature information CI from the discrimination image D. A method for extracting the feature information CI from the discrimination image D will be described later.

こうして最初の追跡画像T1から判別画像Dが得られると、カウンタnを1だけ増分して処理手順の最初に戻り、カメラ11が取り込んだ動画像Vから静止画像抽出手段21が2番目の静止画像S2を抽出し、この静止画像S2から追跡画像抽出手段22が2番目の追跡画像T2を抽出する。そして、画像合成手段23により、先に一時記憶されている判別画像Dと前記2番目の追跡画像T2とを合成して新たな判別画像Dを取得し、更に標識認識手段24により、前記新たな判別画像Dから抽出される特徴情報CIに基づいて、追跡画像T2が含む交通標識を判別する。 When the discrimination image D is obtained from the first tracking image T 1 in this way, the counter n is incremented by 1 and the processing procedure returns to the beginning, and the still image extracting means 21 from the moving image V captured by the camera 11 is the second still image. The image S 2 is extracted, and the tracking image extraction means 22 extracts the second tracking image T 2 from the still image S 2 . Then, the image synthesizing unit 23 synthesizes the previously stored discrimination image D and the second tracking image T 2 to obtain a new discrimination image D, and the sign recognition unit 24 further obtains the new discrimination image D. based on the characteristic information CI extracted from Do discrimination image D, and determine the traffic sign including the tracking image T 2.

画像合成手段23は、一時記憶されている判別画像Dと2番目の追跡画像T2とを合成するため、まず判別画像Dを追跡画像T2に合わせて拡大する。本例では、例えば図6に見られるように、追跡画像Tを抽出する際、CONDENSATIONに用いた特定寸法(円形標識における半径)rを比較してサイズ比Rを算出し、このサイズ比Rの比率に従って一時記憶されている判別画像D'の高さ及び幅を拡大し、拡大された判別画像D'を得る。これにより、拡大された判別画像D'の解像度は、見掛け上、追跡画像Tと同じになるが、既述したように前記拡大された判別画像D'は特徴情報CIを有しない画素を含んでいる。この画素に対して、追跡画像Tの特徴情報CIを付与する処理が本発明の合成であり、この合成は、図7に見られるように、追跡画像Tを重みWで、拡大された判別画像D'を重み(1−W)で合成する加重平均である。前記重みWの範囲及び算出は既述したところにより、追跡画像T及び拡大された判別画像D'の合成は、各画像の画素単位、好ましくは各画像を変換して得られる特徴色画像の画素単位で合成する。 In order to synthesize the temporarily stored discrimination image D and the second tracking image T 2 , the image synthesis means 23 first enlarges the discrimination image D according to the tracking image T 2 . In this example, as shown in FIG. 6, for example, when the tracking image T is extracted, the specific ratio (radius in the circular label) r used for CONDENSATION is compared to calculate the size ratio R. According to the ratio, the height and width of the temporarily stored discrimination image D ′ are enlarged to obtain an enlarged discrimination image D ′. Thereby, the resolution of the enlarged discrimination image D ′ is apparently the same as that of the tracking image T. However, as described above, the enlarged discrimination image D ′ includes pixels that do not have the feature information CI. Yes. The process of assigning the feature information CI of the tracking image T to this pixel is the composition of the present invention, and this composition is performed by enlarging the discrimination image with the weight W as shown in FIG. It is a weighted average obtained by combining D ′ with a weight (1−W). Since the range and calculation of the weight W have already been described, the synthesis of the tracking image T and the enlarged discrimination image D ′ is performed in units of pixels of each image, preferably pixels of a characteristic color image obtained by converting each image. Synthesize in units.

追跡画像T及び拡大された判別画像D'の合成を、模式的に説明する。説明の便宜上、追跡画像Tが交通標識の特徴情報CIを70%の精度で表す画素a(図7中、追跡画像Tの実線部分)と、交通標識の特徴情報CIを30%の精度で表す画素b(図7中、追跡画像Tの破線部分)とから構成されると仮定する。また、最初の追跡画像Tをそのまま一時記憶させた判別画像Dの拡大された判別画像D'は、かなりの確率で追跡画像Tより特徴情報CIが少ないと考えられるので、交通標識の特徴情報CIを50%の精度で表す画素c(図7中、追跡画像Tの実線部分)と、交通標識の特徴情報CIを20%の精度で表す画素d(図7中、追跡画像Tの破線部分)とから構成されると仮定する。そして、特定寸法rから算出される重みWが0.10であるとする。   A synthesis of the tracking image T and the enlarged discrimination image D ′ will be schematically described. For the convenience of explanation, the tracking image T represents the traffic sign feature information CI with a precision of 70% (a solid line portion of the tracking image T in FIG. 7) and the traffic sign feature information CI with a precision of 30%. It is assumed that it is composed of a pixel b (a broken line portion of the tracking image T in FIG. 7). Further, the enlarged discrimination image D ′ of the discrimination image D in which the first tracking image T is temporarily stored as it is is considered to have less feature information CI than the tracking image T with a considerable probability. The pixel c (in FIG. 7, the solid line part of the tracking image T) and the pixel d (in FIG. 7, the broken line part of the tracking image T) expressing the traffic sign feature information CI with the accuracy of 20% It is assumed that The weight W calculated from the specific dimension r is assumed to be 0.10.

この場合、追跡画像Tの画素aと拡大された判別画像D'の画素cとが合成される部分は70%×0.10+50%×0.90=52%(図7中、判別画像Dの太線部分)、画素bと画素cとが合成される部分は30%×0.10+50%×0.90=48%(図7中、判別画像Dの実線部分)、画素aと画素dとが合成される部分は70%×0.10+20%×0.90=25%(図7中、判別画像Dの実線部分)、そして画素bと画素dとが合成される部分は30%×0.10+20%×0.90=21%(図7中、判別画像Dの実線部分)の精度で特徴情報CIを表す新たな判別画像Dが得られることになる。追跡画像Tの影響により、例えば画素bと画素cとが合成される部分等、部分的に特徴情報CIが若干弱められるように見えるが、得られる新たな判別画像Dは全体としてより多くの特徴情報CIを有するほか、全体として特徴情報CIが平均化していることが分かる。   In this case, the portion where the pixel a of the tracking image T and the pixel c of the enlarged discrimination image D ′ are combined is 70% × 0.10 + 50% × 0.90 = 52% (the bold line portion of the discrimination image D in FIG. 7). The portion where the pixel b and the pixel c are combined is 30% × 0.10 + 50% × 0.90 = 48% (the solid line portion of the discrimination image D in FIG. 7), and the portion where the pixel a and the pixel d are combined is 70. % × 0.10 + 20% × 0.90 = 25% (the solid line portion of the discrimination image D in FIG. 7), and the portion where the pixel b and the pixel d are combined is 30% × 0.10 + 20% × 0.90 = 21% (FIG. 7 Among these, a new discrimination image D representing the feature information CI with the accuracy of the solid line portion of the discrimination image D is obtained. Due to the influence of the tracking image T, for example, the feature information CI seems to be slightly weakened partially, such as a portion where the pixel b and the pixel c are combined, but the obtained new discrimination image D has more features as a whole. In addition to the information CI, it can be seen that the characteristic information CI is averaged as a whole.

ここで、交通標識に接近した場合を考える。この場合、上記例示と同様に、追跡画像Tが交通標識の特徴情報CIを80%の精度で表す画素a(図7中、追跡画像Tの実線部分)と、交通標識の特徴情報CIを40%の精度で表す画素b(図7中、追跡画像Tの破線部分)とから構成されると仮定する。また、判別画像Dには過去の追跡画像Tが有していた特徴情報CIが蓄積されることから、拡大された判別画像D'は交通標識の特徴情報CIを80%の精度で表す画素c(図7中、追跡画像Tの実線部分)と、交通標識の特徴情報CIを60%の精度で表す画素d(図7中、追跡画像Tの破線部分)とから構成されると仮定する。そして、特定寸法rから算出される重みWが0.30であるとする。   Now consider the case of approaching a traffic sign. In this case, in the same manner as in the above example, the tracking image T represents the pixel a (the solid line portion of the tracking image T in FIG. 7) representing the traffic sign feature information CI with 80% accuracy, and the traffic sign feature information CI is 40. It is assumed that the pixel b is represented by a pixel b represented by% accuracy (a broken line portion of the tracking image T in FIG. 7). In addition, since the feature information CI that the past tracking image T has is accumulated in the discrimination image D, the enlarged discrimination image D ′ is a pixel c that represents the feature information CI of the traffic sign with an accuracy of 80%. (A solid line portion of the tracking image T in FIG. 7) and a pixel d (the broken line portion of the tracking image T in FIG. 7) that represents the traffic sign feature information CI with 60% accuracy. The weight W calculated from the specific dimension r is assumed to be 0.30.

この場合、追跡画像Tの画素aと拡大された判別画像D'の画素cとが合成される部分は80%×0.30+80%×0.70=80%(図7中、判別画像Dの太線部分)、画素bと画素cとが合成される部分は40%×0.30+80%×0.70=68%(図7中、判別画像Dの実線部分)、画素aと画素dとが合成される部分は80%×0.30+60%×0.70=66%(図7中、判別画像Dの実線部分)、そして画素bと画素dとが合成される部分は40%×0.30+60%×0.70=54%(図7中、判別画像Dの実線部分)の精度で特徴情報CIを表す新たな判別画像Dが得られることになる。この新たな判別画像Dも、全体としてより多くの特徴情報CIを有するほか、全体として特徴情報CIが平均化していることが分かる。   In this case, the portion where the pixel a of the tracking image T and the pixel c of the enlarged discrimination image D ′ are combined is 80% × 0.30 + 80% × 0.70 = 80% (the bold line portion of the discrimination image D in FIG. 7). The portion where the pixel b and the pixel c are combined is 40% × 0.30 + 80% × 0.70 = 68% (the solid line portion of the discrimination image D in FIG. 7), and the portion where the pixel a and the pixel d are combined is 80 % × 0.30 + 60% × 0.70 = 66% (the solid line portion of the discrimination image D in FIG. 7), and the portion where the pixel b and the pixel d are combined is 40% × 0.30 + 60% × 0.70 = 54% (FIG. 7 Among these, a new discrimination image D representing the feature information CI with the accuracy of the solid line portion of the discrimination image D is obtained. This new discrimination image D also has more feature information CI as a whole, and it can be seen that the feature information CI is averaged as a whole.

こうして合成された新たな判別画像Dを基礎に交通標識を判別する手法は、従来公知の各種手法を用いることができ、例えば多くの画像認識に見られるテンプレート・マッチングを利用してもよい。前記テンプレート・マッチングは、新たな判別画像Dをテンプレート画像に合わせて拡大又は縮小する必要が生じるが、本発明と異なり、拡大又は縮小された新たな判別画像Dに合成する追跡画像Tに相当する画像がないことから、拡大又は縮小された新たな判別画像Dはかえって特徴情報CIを希薄化させるだけで、結果として交通標識の認識精度を低下させかねない。仮に、拡大又は縮小された新たな判別画像Dの画質を高めるため、高度な補間処理を利用すると、処理時間が増大してしまう別の問題が生じる。   Various known methods can be used as a method for discriminating traffic signs based on the new discrimination image D synthesized in this way. For example, template matching found in many image recognitions may be used. The template matching needs to enlarge or reduce a new discrimination image D according to the template image. Unlike the present invention, the template matching corresponds to the tracking image T to be combined with the enlarged or reduced new discrimination image D. Since there is no image, the new discriminating image D that has been enlarged or reduced merely dilutes the feature information CI, and as a result, the recognition accuracy of the traffic sign may be lowered. If advanced interpolation processing is used in order to improve the image quality of the new discriminated image D that has been enlarged or reduced, another problem of increasing the processing time arises.

これから、本例では、合成された新たな判別画像Dを改めて拡大又は縮小することなく、前記判別画像D中の交通標識の輪郭を抽出し、抽出した輪郭を追跡して得られる輪郭ベクトルを特徴情報CIとして、予めデータベースに記憶させた交通標識の輪郭ベクトルからなる特徴情報CIとを突き合わせて、追跡画像Tが含む交通標識を判別する手法(「輪郭ベクトルの追跡による道路標識の認識(山内仁,高橋浩光)」、 映像情報メディア学会論文誌,Vol. 57,No. 7,847〜853頁,July 2003.)を用いている。   Thus, in this example, the outline of a traffic sign in the discrimination image D is extracted without enlarging or reducing the synthesized new discrimination image D, and the contour vector obtained by tracking the extracted contour is characterized. A method for discriminating a traffic sign included in the tracking image T by matching feature information CI including a contour vector of a traffic sign stored in the database in advance as information CI (“Recognition of a road sign by tracking a contour vector (Jin Yamauchi , Hiromitsu Takahashi) ”, Journal of the Institute of Image Information and Television Engineers, Vol. 57, No. 7, pp. 847-853, July 2003.).

画像中の特定形状の輪郭抽出には、一般にソーベル・フィルタやラプラシアン・フィルタ等が用いられる。しかし、これらのフィルタを用いた輪郭抽出では、特定形状の輪郭点が得られるだけであり、その輪郭の内外いずれに画素値の大きな領域、すなわち特定色があるのか判別できず、交通標識の認識には不適である。そこで、前記ソーベル・フィルタを改良し、画素値の大きな領域に対して一定の位置関係を示すベクトルを抽出する手法(以下、説明の便宜上、ベクトル抽出手法と呼ぶ)を用いることとした。特定形状の輪郭は、前記ベクトルを連結していくことで抽出できるため、前記ベクトルを「輪郭ベクトル」と呼ぶことができる。   In general, a Sobel filter, a Laplacian filter, or the like is used to extract a contour of a specific shape in an image. However, the contour extraction using these filters only obtains contour points of a specific shape, and it is impossible to determine whether there is a region with a large pixel value, that is, a specific color, inside or outside the contour. Not suitable for. In view of this, the Sobel filter was improved and a method of extracting a vector indicating a certain positional relationship with respect to a region having a large pixel value (hereinafter referred to as a vector extraction method for convenience of explanation) was used. Since the contour of a specific shape can be extracted by connecting the vectors, the vector can be referred to as a “contour vector”.

このベクトル抽出手法における輪郭ベクトル(xi,j、yi,j)は、座標(i、j)の画素において、下記数3及び数4により導かれる。
ここで、 (ui,j、vi,j)は座標(i、j)における画素値である。
The contour vector (x i, j , y i, j ) in this vector extraction method is derived by the following equations 3 and 4 at the pixel at the coordinates (i, j).
Here, (ui, j, vi, j) is a pixel value at coordinates (i, j).

輪郭ベクトルは、ベクトルの方向に直交する右側に画素値の大きい領域を有する。これから、算出された複数の輪郭ベクトルを右周りに連結して初期位置に到達する輪郭が抽出できれば、その輪郭の内部に画素値の大きい領域があると判別でき、逆に算出された複数の輪郭ベクトルを左周りに連結して初期位置に到達する輪郭が抽出できれば、その輪郭の外部に画素値の大きい領域があると判別できる。これを交通標識に当て嵌めて考えれば、輪郭ベクトルを連結した輪郭の内部に赤色等の特定色があるか、逆に輪郭の外部に特定色があるかが分かることになり、交通標識の認識を容易にすることが理解される。   The contour vector has a region with a large pixel value on the right side orthogonal to the vector direction. From this, if it is possible to extract a contour that reaches the initial position by connecting a plurality of calculated contour vectors clockwise, it can be determined that there is a region with a large pixel value inside the contour, and conversely, a plurality of calculated contours If the contour reaching the initial position can be extracted by connecting the vectors to the left, it can be determined that there is a region with a large pixel value outside the contour. If this is applied to traffic signs, it will be understood whether there is a specific color such as red inside the contour connected with the contour vector, or conversely, there is a specific color outside the contour. Will be understood to facilitate.

実際には、特定形状の輪郭に沿った画素のみを捉えて輪郭ベクトルを算出することはできないので、判別画像Dの全画素について輪郭ベクトルを算出し、得られた全輪郭ベクトルの方向及び長さを相互に比較して連結する輪郭ベクトルを選択し、特定形状の輪郭のみを抽出する。この場合、輪郭を形成する輪郭ベクトルの追跡は、輪郭ベクトルの大きい画素を始点にするとよい。ここで、輪郭ベクトルの追跡は画素単位になることから、個々の画素における輪郭ベクトルの方向は隣接する画素の方向、すなわち8方向に正規化する。こうして、前記始点から正規化した方向の画素に移動する操作を、再び始点に到達する、判別画像Dの外部へ出る、又は輪郭ベクトルの長さが0となるまで繰り返し、輪郭ベクトルの連結されたベクトル列を得る。   Actually, since it is impossible to calculate a contour vector by capturing only pixels along a contour of a specific shape, a contour vector is calculated for all pixels of the discrimination image D, and the direction and length of the obtained total contour vector. Are compared with each other to select a contour vector to be connected, and only a contour having a specific shape is extracted. In this case, the tracking of the contour vector forming the contour is preferably started from a pixel having a large contour vector. Here, since the tracking of the contour vector is performed in units of pixels, the direction of the contour vector in each pixel is normalized to the direction of adjacent pixels, that is, eight directions. In this way, the operation of moving from the start point to the pixel in the normalized direction is repeated until the start point is reached again, the outside of the discrimination image D is reached, or the length of the contour vector becomes 0, and the contour vectors are connected. Get a vector sequence.

本発明では、特定色のみで構成される交通標識を認識対象としていることから、判別画像Dを赤色や青色等のみからなる特定色画像に変換し、この特定色画像毎に輪郭ベクトルの追跡を実施するとよい。例えば、図8に見られるように、追い越し禁止の交通標識の参考画像(図8(а))を例にすれば、赤色抽出画像の輪郭ベクトル画像は図8(b)、青色抽出画像の輪郭ベクトル画像は図8(c)として表され、それぞれの輪郭ベクトルを連結的にトレースして得られる輪郭トレース画像を図8(d)のように得ることができる。ここで、赤色抽出画像及び青色抽出画像の各輪郭ベクトルは、ベクトルの方向を濃淡で表現している。   In the present invention, since a traffic sign composed only of a specific color is a recognition target, the discrimination image D is converted into a specific color image composed only of red, blue, etc., and the contour vector is tracked for each specific color image. It is good to carry out. For example, as shown in FIG. 8, taking the reference image (FIG. 8 ()) of the traffic sign prohibiting overtaking as an example, the contour vector image of the red extracted image is FIG. The vector image is represented as FIG. 8C, and a contour trace image obtained by connecting and tracing the respective contour vectors can be obtained as shown in FIG. 8D. Here, each contour vector of the red extracted image and the blue extracted image expresses the direction of the vector with shading.

交通標識は、単純な特定形状を異なる種類で共通して用いられており、輪郭ベクトルだけでは、より具体的な交通標識の種類を判別できない可能性が高い。これから、交通標識の認識にあたっては、輪郭ベクトルの追跡により得られるベクトル列が、判別画像D中のどの位置に存在するかが分かればよい。この場合、円形標識のように、大きさの異なる赤色の特定形状が同心円状にある場合、各特定形状を区別する必要があるため、ベクトル列としての平均位置ではなく、各輪郭ベクトルの方向毎に平均位置を取得しておくとよい。   Traffic signs are commonly used for different types of simple specific shapes, and there is a high possibility that a more specific type of traffic sign cannot be determined only by contour vectors. From this, when recognizing a traffic sign, it is only necessary to know in which position in the discrimination image D the vector sequence obtained by tracking the contour vector exists. In this case, when the red specific shapes having different sizes are concentrically like a circular sign, it is necessary to distinguish each specific shape. Therefore, it is not the average position as the vector sequence, but the direction of each contour vector. It is good to get the average position.

輪郭を表すベクトル列は、同じ方向に連続して進行するコードの連接と考えた場合、例えばベクトル列の中で1回又は2回程度別方向を向く輪郭ベクトルはノイズ又は正規化に伴うブレと見ることができる。このノイズ又はブレを除去するには、輪郭を表すベクトル列を、正規化した輪郭ベクトルの方向と、前記輪郭ベクトルの連続長とを一組とした「ランレングス符号」とみなし、ラン長のみを少数回減少させるとよい。こうしてノイズ除去等を終えたベクトル列が、判別画像Dの特徴情報CIとなり、交通標識の判別は前記ベクトル列を利用する。   When a vector sequence representing a contour is considered to be a concatenation of codes that proceed continuously in the same direction, for example, a contour vector that faces another direction once or twice in a vector sequence is a noise or a blur caused by normalization. Can see. In order to remove this noise or blur, the vector sequence representing the contour is regarded as a “run-length code” that is a set of the normalized contour vector direction and the continuous length of the contour vector, and only the run length is considered. Decrease it a few times. The vector sequence that has been subjected to noise removal and the like thus becomes the feature information CI of the discrimination image D, and the vector sequence is used for discrimination of traffic signs.

判別画像Dから抽出した特徴情報CIを比較する交通標識の特徴情報CIは、作成した交通標識の基準画像から輪郭ベクトル列を予め生成しておき、外部記憶に記憶させて、データベースを構築しておく。交通標識の認識は、判別画像Dから抽出した特徴情報CIを前記データベースに記憶させた輪郭ベクトル列との照合による。具体的な照合は、ベクトル列の平均位置と方向の一致判定である。ベクトル列の一致判定は、部分文字列の検索と同様の手法による。ここで、依然として判別画像Dが小さい場合、交通標識の細部が潰れて輪郭が短絡したり、障害物等による部分隠蔽のために発生した不要な輪郭等が含まれていると予想されるため、抽出されたベクトル列を小単位に分割し、分割した単位毎に一致判定するとよい。ここで、抽出された輪郭ベクトルの始点が基準画像の輪郭ベクトルの始点と一致することは期待できないため、基準画像側の輪郭ベクトルを円環状に検索する。こうして、特徴情報CIとして判別画像Dから抽出されたベクトル方向列長と、基準画像のベクトル方向列長の一定割合以上が一致している場合、前記基準画像の交通標識であると判定し、判別画像Dについての認識を完了する。   The feature information CI of the traffic sign that compares the feature information CI extracted from the discrimination image D is generated in advance from the created reference image of the traffic sign, and stored in an external storage, and a database is constructed. deep. The recognition of the traffic sign is performed by collating the feature information CI extracted from the discrimination image D with the contour vector sequence stored in the database. Specific collation is determination of coincidence between the average position and direction of the vector sequence. The coincidence determination of the vector string is performed by the same method as the search for the partial character string. Here, when the discrimination image D is still small, it is expected that the details of the traffic sign are crushed and the contour is short-circuited, or an unnecessary contour generated due to partial concealment by an obstacle or the like is included, The extracted vector sequence may be divided into small units, and matching may be determined for each divided unit. Here, since the start point of the extracted contour vector cannot be expected to match the start point of the contour vector of the reference image, the contour vector on the reference image side is searched in an annular shape. In this way, when the vector direction sequence length extracted from the discrimination image D as the feature information CI and a certain ratio or more of the vector direction sequence length of the reference image coincide with each other, it is determined that the traffic sign is the reference image. Recognition for image D is completed.

新たな判別画像Dに基づく交通標識の認識は繰り返し実行されるので、例えば認識結果が一定数以上同一で連続することから、交通標識を正しく認識できていると判断することができる。この場合、もはや判別画像Dについての認識は不要として、追跡画像Tの抽出、追跡画像T及び判別画像Dの合成や判別画像Dに基づく認識等の処理を省略するようにしてもよい。また、途中から追跡画像Tが抽出されなくなれば、それまで認識の対象としていた交通標識を通過したものと判断し、一時記憶されている判別画像Dを消去して前記同様処理手順を終了し、改めて次の処理手順を開始するとよい。   Since the recognition of the traffic sign based on the new discriminating image D is repeatedly performed, for example, since the recognition results are the same and continue for a certain number of times, it can be determined that the traffic sign can be correctly recognized. In this case, it is no longer necessary to recognize the discrimination image D, and processing such as extraction of the tracking image T, synthesis of the tracking image T and the discrimination image D, and recognition based on the discrimination image D may be omitted. Further, if the tracking image T is not extracted from the middle, it is determined that the traffic sign that has been the object of recognition has passed, the determination image D that has been temporarily stored is erased, and the same processing procedure is terminated. The next processing procedure may be started again.

本発明の有効性を確認するため、検証試験を実施した。カメラは、産業用イメージセンサ(SONY製DFW-VL500)を自動車に搭載し、この自動車を時速40km/hで直進させながら、晴天昼間に15fpsの動画像Vを取り込んだ。静止画像抽出手段、追跡画像抽出手段、画像合成手段及び画像認識手段は市販のノートパソコン(IBM製ThinkPad(登録商標)T42p)で処理プログラムを実行して構成し、前記ノートパソコンのメモリをメモリ、内蔵ハードディスクをハードディスク、そしてノートパソコンのディスプレイをディスプレイとして利用した。検証試験では、認識対象となる交通標識は、「駐車禁止」を示す規制標識(赤色円形標識)とした。また、追跡画像Tの抽出には上述したCONDENSATIONを、そして判別画像Dに含まれる交通標識の認識に際する特定色判定には「輪郭ベクトルによる道路標識認識に向けた特定色判定(山内仁,高橋浩光)」(電子情報通信学会技術研究報告,IE200488, 11〜16頁、Nov.2004.)を用いている。   In order to confirm the effectiveness of the present invention, a verification test was conducted. The camera was equipped with an industrial image sensor (SONY DFW-VL500) in a car, and the moving image V of 15fps was captured in the daytime while the car was moving straight at 40km / h. The still image extraction means, the tracking image extraction means, the image composition means, and the image recognition means are configured by executing a processing program on a commercially available notebook computer (IBM ThinkPad (registered trademark) T42p), and the memory of the notebook computer is stored in the memory. The internal hard disk was used as the hard disk, and the notebook computer display was used as the display. In the verification test, the traffic sign to be recognized was a restriction sign (red circular sign) indicating “parking prohibited”. In addition, the above-described CONDENSATION is used for extracting the tracking image T, and “specific color determination for road sign recognition using contour vectors (Jin Yamauchi, Hiromitsu Takahashi) ”(Technical Report of IEICE, IE200488, 11-16, Nov. 2004.).

図9は「駐車禁止」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図である。追跡画像Tと拡大された判別画像D'との重ね合わせに際して用いる重みW(数1参照)は、予備実験により、A1=0.15、A2=6.0、そしてA3=0.025とした。静止画像Sは、連続する動画像Vから適当間隔で抽出している。すなわち、追跡画像Tは動画像Vから適当間隔で抽出される。図9では10フレーム間隔の追跡画像T及び判別画像Dのみを示している。また、図9中、各追跡画像T及び判別画像Dの並ぶ左端には、CONDENSATIONにより得られた特定寸法rの大きさ(ピクセル数)を記載している。更に、各追跡画像T及び判別画像Dの下段には、認識された交通標識の名称と、各追跡画像T及び判別画像Dの各前後10フレームにおいて交通標識を正しく認識できた割合の数値とを、それぞれ認識結果として記載している。 FIG. 9 is a reference diagram showing the tracking image T, the discrimination image D, and the recognition result of each image in the verification test of the restriction sign indicating “parking prohibited”. The weights W (see Equation 1) used for superimposing the tracking image T and the enlarged discrimination image D ′ were set to A 1 = 0.15, A 2 = 6.0, and A 3 = 0.025 by preliminary experiments. The still image S is extracted from the continuous moving image V at an appropriate interval. That is, the tracking image T is extracted from the moving image V at an appropriate interval. FIG. 9 shows only the tracking image T and the discrimination image D at intervals of 10 frames. In FIG. 9, the size (number of pixels) of the specific dimension r obtained by CONDENSATION is described at the left end where the tracking images T and the discrimination images D are arranged. Furthermore, in the lower part of each tracking image T and discrimination image D, the name of the recognized traffic sign and the numerical value of the rate at which the traffic sign was correctly recognized in each of the 10 frames before and after each tracking image T and discrimination image D are shown. These are shown as recognition results.

同一時点(特定寸法rが同じ時点)の追跡画像T及び判別画像Dを視覚的に比較すると、追跡画像Tは解像度の低い静止画像Sの特徴情報CIをそのまま有しているのみのため、個々の画素が強調された形となっているのに対して、判別画像Dは個々の画素が相互に干渉し、滑らかな画像となっていることが分かる。これは、判別画像Dの全体に特徴情報CIが平均化されて蓄積されていることを視覚的に示しているものと考えられる。   When the tracking image T and the discrimination image D at the same point in time (the specific dimension r is the same) are visually compared, the tracking image T has only the feature information CI of the still image S with a low resolution. It can be seen that the discrimination image D is a smooth image because the individual pixels interfere with each other. This is considered to visually indicate that the characteristic information CI is averaged and accumulated in the entire discrimination image D.

また、追跡画像T及び判別画像Dの認識結果を比較すると、追跡画像Tに基づく認識では、特定寸法rが9.94、13.72及び16.08の場合に正しく交通標識を認識しているものの、特定寸法rが11.30及び11.91の場合に誤っており、交通標識を安定して認識していると言い難い。これに対して、判別画像Dに基づく認識では、特定寸法rが9.94以降のいずれの段階でも、すなわちこの検証試験における最初から、すべて正しく認識できており、また安定して認識できている。これから、本発明の交通標識認識方法は、ロバスト性の高い認識方法であることが確認できる。   Further, comparing the recognition results of the tracking image T and the discrimination image D, the recognition based on the tracking image T correctly recognizes the traffic sign when the specific dimension r is 9.94, 13.72, and 16.08, but the specific dimension r is In case of 11.30 and 11.91, it is wrong and it is hard to say that the traffic sign is recognized stably. On the other hand, in the recognition based on the discrimination image D, all of the specific dimensions r are recognized correctly at any stage after 9.94, that is, from the beginning in this verification test, and can be recognized stably. From this, it can be confirmed that the traffic sign recognition method of the present invention is a highly robust recognition method.

更に、追跡画像T及び判別画像Dの認識率を比較すると、追跡画像Tの認識では、特定寸法rが9.94の段階で一度高い値を示しながら、一旦認識率の低下が見られ、安定した正しい認識結果が得られるのは特定寸法rが13.72になった以降である。これに対して、判別画像Dの認識では、いずれの段階においても8割以上の認識率を安定的に示している。これから、本発明の交通標識認識方法は、信頼性の高い認識方法であることが確認できる。   Furthermore, when the recognition rates of the tracking image T and the discrimination image D are compared, in the recognition of the tracking image T, the specific rate r once shows a high value at the stage of 9.94, but the recognition rate is once decreased, and the correct and stable. The recognition result is obtained after the specific dimension r becomes 13.72. On the other hand, the recognition of the discrimination image D stably shows a recognition rate of 80% or more at any stage. From this, it can be confirmed that the traffic sign recognition method of the present invention is a highly reliable recognition method.

次に、上記検証試験で認識対象とした「駐車禁止」を示す規制標識に代えて、数字表記を含む「40km/h制限」を示す規制標識を認識対象として、同様な検証試験を実施した。図10は「40km/h制限」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図である。図10中、追跡画像T及び判別画像Dは動画像Vの20フレーム間隔である。この検証試験では、上記検証試験(実施例1)に比べて、光線条件が比較的悪い状況下で実施した。このため、追跡画像Tの認識は、認識率が大きく変化しており、安定的とは言い難い。それに対して、判別画像Dの認識では、前記光線条件の影響もあり、上記検証試験には及ばないものの、特定寸法rが11.78以降に比較的高い認識率を示している。これから、本発明の交通標識認識方法は、ロバスト性が高く、また信頼性の高い認識方法であることが確認できる。   Next, a similar verification test was carried out using a regulatory sign indicating “40 km / h limit” including a numerical notation as a recognition target instead of the regulatory sign indicating “parking prohibited” as a recognition target in the verification test. FIG. 10 is a reference diagram showing a tracking image T and a discrimination image D and a recognition result of each image in a verification test of a restriction sign indicating “40 km / h restriction”. In FIG. 10, the tracking image T and the discrimination image D are intervals of 20 frames of the moving image V. In this verification test, the light conditions were relatively poor as compared to the verification test (Example 1). For this reason, the recognition of the tracking image T has a large change in the recognition rate, and is not stable. On the other hand, the recognition of the discriminating image D has a relatively high recognition rate after the specific dimension r of 11.78 or later although it does not reach the verification test due to the influence of the light beam condition. From this, it can be confirmed that the traffic sign recognition method of the present invention is a robust and highly reliable recognition method.

最後に、交通標識が街路樹や他の交通標識等によって見え隠れしている場合における検証試験を実施した。図11は街路樹や他の交通標識等によって見え隠れしている「追い越し禁止」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図であり、図12はこの検証試験における特定寸法r及び認識率の相関図である。この検証試験は、自動車の進行方向が 左側に曲がり、道路左側の歩道上に設置されている「追越禁止」の交通標識が手前側の街路樹の幹や他の交通標識によって見え隠れする場合の追跡画像T及び判別画像Dを比較している。この検証試験では, 追跡画像T及び判別画像Dの合成に際する重みW(数1参照)におけるA1=0.20、A2=6.00、そしてA3=0.10としている。図11から明らかなように、追跡画像Tのみの場合は認識できない又は誤認識しているが、判別画像Dでは正しく「追越禁止」を認識していることが確認できる。また,判別画像Dについては認識率も高く,本発明が障害物によって見え隠れする交通標識の認識について、非常に有効であることが分かる。 Finally, a verification test was conducted when the traffic signs were obscured by roadside trees or other traffic signs. FIG. 11 is a reference diagram showing a recognition result of the tracking image T and the discrimination image D and each image in the verification test of the regulation sign indicating “prohibition of overtaking” hidden and hidden by street trees and other traffic signs. Is a correlation diagram of a specific dimension r and a recognition rate in this verification test. This verification test is performed when the direction of travel of the car turns to the left and the traffic sign forbidden on the sidewalk on the left side of the road is obscured by the roadside tree trunk or other traffic signs. The tracking image T and the discrimination image D are compared. In this verification test, A 1 = 0.20, A 2 = 6.00, and A 3 = 0.10 in the weight W (see Equation 1 ) in the synthesis of the tracking image T and the discrimination image D are set. As is clear from FIG. 11, the tracking image T alone cannot be recognized or is erroneously recognized, but it can be confirmed that the discrimination image D correctly recognizes “prohibition of overtaking”. In addition, the recognition image D has a high recognition rate, and it can be seen that the present invention is very effective for the recognition of traffic signs that are visible and hidden by obstacles.

この検証試験の結果を、特定寸法(半径)r及び認識率の相関によって示すと、図12に見られるように、追跡画像T及び判別画像Dのいずれとも特定寸法(半径)rが大きくなるほど認識率が向上する傾向は同じであるが、全般的に判別画像Dの認識率が高く、特に障害物によって交通標識が見え隠れした特定寸法(半径)r=14〜19ピクセルの範囲では特に判別画像Dの認識率が追跡画像Tの認識率に大きく差をつけている。このように、相関図からも、本発明が見え隠れする交通標識の認識に有効であることが確認される。以上の結果より,本発明は,交通標識を早期に正しくかつ安定して認識し,高い信頼性を有することに加え、見え隠れする交通標識でも誤認識が少ない交通標識認識方法を提供するものと言える。   When the result of this verification test is shown by the correlation between the specific dimension (radius) r and the recognition rate, the tracking image T and the discrimination image D are recognized as the specific dimension (radius) r increases as shown in FIG. Although the rate of improvement in the rate is the same, the recognition rate of the discrimination image D is generally high, and particularly in the range of a specific dimension (radius) r = 14 to 19 pixels where a traffic sign is obscured by an obstacle, the discrimination image D Is significantly different from the recognition rate of the tracking image T. As described above, it is confirmed from the correlation diagram that the present invention is effective in recognizing a traffic sign that appears and disappears. From the above results, it can be said that the present invention provides a traffic sign recognition method that recognizes traffic signs correctly and stably at an early stage, has high reliability, and has few misrecognitions even with visible and hidden traffic signs. .

本発明を適用した交通標識認識システムの概略構成を表すブロック図である。It is a block diagram showing the schematic structure of the traffic sign recognition system to which this invention is applied. 本例の交通標識認識システムを搭載した自動車を表した使用状態参考図である。It is a use condition reference figure showing the car carrying the traffic sign recognition system of this example. 交通標識認識システムにおける処理手順を表したフローチャートである。It is a flowchart showing the process sequence in a traffic sign recognition system. 静止画Sの一例を表す参考図である。3 is a reference diagram illustrating an example of a still image S. FIG. 静止画Sから抽出した追跡画像Tを表す参考図である。4 is a reference diagram illustrating a tracking image T extracted from a still image S. FIG. 追跡画像Tに対して判別画像Dを拡大する処理を模式的に表した参考図である。FIG. 6 is a reference diagram schematically illustrating processing for enlarging a discrimination image D with respect to a tracking image T. 追跡画像Tと拡大された判別画像D'とを合成する処理を模式的に表した参考図である。FIG. 6 is a reference diagram schematically illustrating a process of combining a tracking image T and an enlarged discrimination image D ′. 参考画像(a)の特定色抽出画像から抽出される輪郭ベクトル画像(b)(c)と輪郭ベクトルを連続的にトレースした輪郭トレース画像(d)を表す参考図である。It is a reference figure showing the outline trace image (d) which traced the outline vector image (b) (c) extracted from the specific color extraction image of the reference image (a), and the outline vector continuously. 「駐車禁止」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図である。It is a reference figure showing the recognition result of the tracking image T and the discrimination | determination image D, and each image in the verification test of the control sign which shows "parking prohibition". 「40km/h制限」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図である。It is a reference figure showing the recognition result of the tracking image T and the discrimination | determination image D, and each image in the verification test of the control sign which shows "40km / h restriction | limiting". 街路樹や他の交通標識等によって見え隠れしている「追い越し禁止」を示す規制標識の検証試験における追跡画像T及び判別画像Dと各画像の認識結果を表す参考図である。It is a reference figure showing the recognition result of the tracking image T and the discrimination | determination image D, and each image in the verification test of the control sign which shows the "prohibition overtaking" which is visible and hidden by a roadside tree, other traffic signs, etc. 検証試験における特定寸法r及び認識率の相関図である。It is a correlation diagram of the specific dimension r and recognition rate in a verification test.

符号の説明Explanation of symbols

11 カメラ(動画カメラ)
12 カメラ(静止画カメラ)
2 車載コンピュータ
21 静止画像抽出手段
22 追跡画像抽出手段
23 画像合成手段
24 標識認識手段
25 メモリ
26 処理部
3 ハードディスク
4 ディスプレイ
5 自動車
6 交通標識
11 Camera (video camera)
12 Camera (still image camera)
2 Onboard computer
21 Still image extraction means
22 Tracking image extraction means
23 Image composition means
24 Sign recognition means
25 memory
26 Processing Unit 3 Hard Disk 4 Display 5 Car 6 Traffic Sign

Claims (6)

乗り物の進行方向前方をカメラにより撮影した時系列に並ぶ静止画像Sに含まれる交通標識を認識する標識認識方法において、
最初の静止画像Sから交通標識のみを含む最初の追跡画像Tを抽出し、この最初の追跡画像Tを判別画像Dとして一時記憶し、2番目以降の静止画像Sから2番目以降の追跡画像Tを抽出し、この2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとを合成した新たな判別画像Dを一時記憶し、前記新たな判別画像Dから抽出した特徴情報CIに基づいて乗り物の進行方向前方にある交通標識を認識することを特徴とする交通標識認識方法。
In a sign recognition method for recognizing a traffic sign contained in a time-series still image S obtained by photographing a forward direction of a vehicle with a camera,
The first tracking image T including only the traffic sign is extracted from the first still image S, the first tracking image T is temporarily stored as the discrimination image D, and the second and subsequent tracking images T from the second and subsequent still images S are temporarily stored. And a new discriminant image D obtained by synthesizing the second and subsequent tracking images T and the discriminant image D previously stored temporarily is temporarily stored in the feature information CI extracted from the new discriminant image D. A traffic sign recognition method characterized by recognizing a traffic sign ahead of a vehicle in the traveling direction.
静止画像Sは、乗り物の進行方向前方をカメラにより撮影した動画像Vからフレーム単位で抽出される請求項1記載の交通標識認識方法。 The traffic sign recognition method according to claim 1, wherein the still image S is extracted in units of frames from a moving image V obtained by photographing a forward direction of the vehicle with a camera. 新たな判別画像Dは、2番目以降の追跡画像Tと先に一時記憶されている判別画像Dとのサイズ比Rを算出し、前記一時記憶されている判別画像Dを前記サイズ比Rにより拡大された判別画像D'を生成し、追跡画像Tを重みW、前記拡大された判別画像D'を重み(1−W)の割合で合成して得られる請求項1又は2記載の交通標識認識方法。 The new discriminant image D calculates the size ratio R between the second and subsequent tracking images T and the discriminant image D temporarily stored, and enlarges the temporarily stored discriminant image D by the size ratio R. 3. A traffic sign recognition according to claim 1 or 2, wherein said discriminant image D 'is generated, and tracking image T is synthesized with a weight W and said enlarged discriminant image D' is synthesized at a ratio of weight (1-W). Method. 重みWは、0.5より小さい範囲で、追跡画像T中の特定寸法rについて単調増加する値である請求項3記載の交通標識認識方法。 4. The traffic sign recognition method according to claim 3, wherein the weight W is a value that monotonously increases with respect to the specific dimension r in the tracking image T within a range smaller than 0.5. 重みWは、追跡画像T中の特定寸法rを変数とする関数W(r)であり、
dW(r)/dr>0、d2W(r)/dr2<0
である請求項3又は4いずれか記載の交通標識認識方法。
The weight W is a function W (r) having a specific dimension r in the tracking image T as a variable,
dW (r) / dr> 0, d 2 W (r) / dr 2 <0
The traffic sign recognition method according to any one of claims 3 and 4.
関数W(r)は、下記数1で表される請求項5記載の交通標識認識方法。
1:増幅率
2:特定寸法rに対する閾値
3:重みWに対する閾値
6. The traffic sign recognition method according to claim 5, wherein the function W (r) is expressed by the following equation (1).
A 1 : Amplification factor A 2 : Threshold for specific dimension r A 3 : Threshold for weight W
JP2005332758A 2005-11-17 2005-11-17 Sign recognition method Pending JP2007140828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005332758A JP2007140828A (en) 2005-11-17 2005-11-17 Sign recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005332758A JP2007140828A (en) 2005-11-17 2005-11-17 Sign recognition method

Publications (1)

Publication Number Publication Date
JP2007140828A true JP2007140828A (en) 2007-06-07

Family

ID=38203615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005332758A Pending JP2007140828A (en) 2005-11-17 2005-11-17 Sign recognition method

Country Status (1)

Country Link
JP (1) JP2007140828A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282278A (en) * 2009-06-02 2010-12-16 Mitsubishi Electric Corp Sign recognition device
JP2015055534A (en) * 2013-09-11 2015-03-23 株式会社リコー Information processing apparatus, control program thereof, and control method thereof
JP2015219693A (en) * 2014-05-16 2015-12-07 株式会社デンソー Image detection device and program
CN111433097A (en) * 2017-12-07 2020-07-17 三星电子株式会社 Vehicle and method for controlling the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282278A (en) * 2009-06-02 2010-12-16 Mitsubishi Electric Corp Sign recognition device
JP2015055534A (en) * 2013-09-11 2015-03-23 株式会社リコー Information processing apparatus, control program thereof, and control method thereof
JP2015219693A (en) * 2014-05-16 2015-12-07 株式会社デンソー Image detection device and program
CN111433097A (en) * 2017-12-07 2020-07-17 三星电子株式会社 Vehicle and method for controlling the same
CN111433097B (en) * 2017-12-07 2023-04-18 三星电子株式会社 Vehicle and method for controlling the same

Similar Documents

Publication Publication Date Title
CN110659539B (en) Information processing method and device and machine-readable storage medium
Wu et al. Lane-mark extraction for automobiles under complex conditions
JP4309920B2 (en) Car navigation system, road marking identification program, and road marking identification method
JP4437714B2 (en) Lane recognition image processing device
US9818301B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
Borkar et al. A layered approach to robust lane detection at night
JP4157620B2 (en) Moving object detection apparatus and method
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
KR101409340B1 (en) Method for traffic sign recognition and system thereof
WO2015096507A1 (en) Method for recognizing and locating building using constraint of mountain contour region
CN107886034B (en) Driving reminding method and device and vehicle
CN109635737A (en) Automobile navigation localization method is assisted based on pavement marker line visual identity
JP2002074368A (en) Moving object recognizing and tracking device
JP5188429B2 (en) Environment recognition device
KR101483742B1 (en) Lane Detection method for Advanced Vehicle
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
JPH07186833A (en) Surrounding state displaying device for vehicle
KR101406316B1 (en) Apparatus and method for detecting lane
JP2009301495A (en) Image processor and image processing method
FAN et al. Robust lane detection and tracking based on machine vision
JP2007140828A (en) Sign recognition method
CN111652033A (en) Lane line detection method based on OpenCV
Vajak et al. A rethinking of real-time computer vision-based lane detection
Coronado et al. Detection and classification of road signs for automatic inventory systems using computer vision
KR101620425B1 (en) System for lane recognition using environmental information and method thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071227