JP6676885B2 - Recognition device, recognition method and program - Google Patents

Recognition device, recognition method and program Download PDF

Info

Publication number
JP6676885B2
JP6676885B2 JP2015113972A JP2015113972A JP6676885B2 JP 6676885 B2 JP6676885 B2 JP 6676885B2 JP 2015113972 A JP2015113972 A JP 2015113972A JP 2015113972 A JP2015113972 A JP 2015113972A JP 6676885 B2 JP6676885 B2 JP 6676885B2
Authority
JP
Japan
Prior art keywords
recognition
signal
color
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015113972A
Other languages
Japanese (ja)
Other versions
JP2017004040A (en
Inventor
関 海克
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015113972A priority Critical patent/JP6676885B2/en
Publication of JP2017004040A publication Critical patent/JP2017004040A/en
Application granted granted Critical
Publication of JP6676885B2 publication Critical patent/JP6676885B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は認識装置、認識方法及びプログラムに関する。   The present invention relates to a recognition device, a recognition method, and a program.

車載カメラを利用して、運転者を支援したり、事故発生時の映像を記憶したりする技術が従来から知られている。例えば車載カメラを利用した運転者支援技術には、障害物の回避又は衝突時の衝撃を軽減する自動ブレーキ機能、及び、先行車両との車間距離の維持等を警告する警報機能等がある。   2. Description of the Related Art Techniques for assisting a driver or storing an image at the time of an accident using an in-vehicle camera are conventionally known. For example, a driver assisting technology using an in-vehicle camera has an automatic braking function for avoiding an obstacle or reducing an impact at the time of a collision, and an alarm function for warning a maintenance of an inter-vehicle distance with a preceding vehicle.

例えば特許文献1には、信号機の信号の色と、信号の形状と、を同じ被写体が撮影された2枚の画像から別々に認識することにより、精度良く画像から信号機の信号を認識する発明が開示されている。   For example, Patent Literature 1 discloses an invention that recognizes a signal of a traffic signal from an image with high accuracy by separately recognizing the color of the signal of the traffic signal and the shape of the signal from two images of the same subject. It has been disclosed.

しかしながら従来の技術では、高い精度で認識処理を行うと、認識処理に時間がかかる場合があり、当該認識処理の結果に基づく警告が間に合わなくなる恐れがあった。   However, in the related art, if the recognition process is performed with high accuracy, the recognition process may take a long time, and a warning based on the result of the recognition process may not be able to keep up.

本発明は、上記に鑑みてなされたものであって、信号機の信号を示す信号領域をより短い時間で正確に認識できる認識装置、認識方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a recognition device, a recognition method, and a program capable of accurately recognizing a signal region indicating a signal of a traffic light in a shorter time.

上述した課題を解決し、目的を達成するために、本発明は、車両の周囲を示す(R,G,B)色空間の画像を取得する取得部と、前記(R,G,B)色空間の画像を(Y,U,V)色空間の画像に変換し、第1段階の色認識処理として、前記(Y,U,V)色空間の画像に含まれる領域の色が、信号機の信号を示す色の範囲に含まれるか否かに基づいて、第1の認識対象領域を認識する処理を行う第1の色認識部と、第2段階の色認識処理として、前記信号機の信号を示す信号画素と、前記信号画素でない非信号画素と、から学習された認識辞書を使用して、前記第1の認識対象領域から第2の認識対象領域を認識する処理を行う第2の色認識部と、前記第2の認識対象領域から前記信号機の信号の形状を示す信号形状領域を認識する形状認識部と、を備える。 In order to solve the above-described problem and achieve the object, the present invention provides an acquisition unit that acquires an image in a (R, G, B) color space showing the periphery of a vehicle, and an image capturing unit that acquires the (R, G, B) color. The image of the space is converted into an image of the (Y, U, V) color space, and the color of the area included in the image of the (Y, U, V) color space is converted to a signal of the traffic light as a first-stage color recognition process . based on whether within the scope of color indicating a signal, a first color recognition section that performs processing for recognizing the first recognition target region, as color recognition process of the second stage, the signal of the traffic A second color recognition for performing a process of recognizing a second recognition target area from the first recognition target area using a recognition dictionary learned from the signal pixels shown and the non-signal pixels that are not the signal pixels; And a shape recognition unit configured to recognize a signal shape region indicating a shape of a signal of the traffic signal from the second recognition target region. It comprises a part, a.

本発明によれば、信号領域をより短い時間で正確に認識できるという効果を奏する。   ADVANTAGE OF THE INVENTION According to this invention, there exists an effect that a signal area can be correctly recognized in a shorter time.

図1は実施形態の認識装置が搭載された車両の例を示す図である。FIG. 1 is a diagram illustrating an example of a vehicle on which the recognition device of the embodiment is mounted. 図2は青信号領域を含む画像の例1を示す図である。FIG. 2 is a diagram illustrating an example 1 of an image including a blue light region. 図3は青信号領域を含む画像の例2を示す図である。FIG. 3 is a diagram showing Example 2 of an image including a blue light region. 図4は実施形態の認識装置の構成の例を示す図である。FIG. 4 is a diagram illustrating an example of the configuration of the recognition device according to the embodiment. 図5は赤信号画素の(U,V)分布の例を示す図である。FIG. 5 is a diagram illustrating an example of a (U, V) distribution of red signal pixels. 図6は青信号画素の(U,V)分布の例を示す図である。FIG. 6 is a diagram illustrating an example of the (U, V) distribution of the green signal pixel. 図7は黄信号画素の(U,V)分布の例を示す図である。FIG. 7 is a diagram illustrating an example of a (U, V) distribution of yellow signal pixels. 図8は実施形態の青信号画素の認識辞書の学習方法の例を示す図である。FIG. 8 is a diagram illustrating an example of a method for learning a recognition dictionary for green signal pixels according to the embodiment. 図9は実施形態の第1及び第2の認識対象領域の例を示す図である。FIG. 9 is a diagram illustrating an example of first and second recognition target areas according to the embodiment. 図10は実施形態の膨張領域の例を示す図である。FIG. 10 is a diagram illustrating an example of an expansion region according to the embodiment. 図11は実施形態のハフ変換により認識される円形の画素領域の例を示す図である。FIG. 11 is a diagram illustrating an example of a circular pixel region recognized by the Hough transform according to the embodiment. 図12は実施形態の矩形領域の例を示す図である。FIG. 12 is a diagram illustrating an example of a rectangular area according to the embodiment. 図13は実施形態の青信号領域の認識結果情報の例を示す図である。FIG. 13 is a diagram illustrating an example of the recognition result information of the green signal region according to the embodiment. 図14は実施形態の認識方法の例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a recognition method according to the embodiment. 図15は実施形態の取得部のハードウェア構成の例を示す図である。FIG. 15 is a diagram illustrating an example of a hardware configuration of an acquisition unit according to the embodiment.

以下に添付図面を参照して、認識装置、認識方法及びプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of a recognition device, a recognition method, and a program will be described in detail with reference to the accompanying drawings.

図1は実施形態の認識装置100が搭載された車両200の例を示す図である。実施形態の認識装置100は、車両200のフロントガラスのバックミラー付近に設置される。実施形態の認識装置100は、車両200の周囲が撮像された画像から、信号機300の信号を示す信号領域を認識する。ここで信号領域の例として、青信号を示す青信号領域について説明する。   FIG. 1 is a diagram illustrating an example of a vehicle 200 on which the recognition device 100 of the embodiment is mounted. The recognition device 100 according to the embodiment is installed near the rearview mirror of the windshield of the vehicle 200. The recognition device 100 according to the embodiment recognizes a signal region indicating a signal of the traffic signal 300 from an image in which the periphery of the vehicle 200 is captured. Here, as an example of the signal region, a blue signal region indicating a blue signal will be described.

図2は青信号領域101を含む画像の例1を示す図である。図2の例は、信号の配列が横型である信号機300aの青信号領域101を示す。例えば日本では、横型の信号機300aが一般的である。   FIG. 2 is a diagram illustrating an example 1 of an image including the blue signal region 101. The example of FIG. 2 shows the blue signal region 101 of the traffic signal 300a in which the signal arrangement is horizontal. For example, in Japan, a horizontal traffic light 300a is common.

図3は青信号領域401を含む画像の例2を示す図である。図3の例は、信号の配列が縦型である信号機300bの青信号領域401を示す。例えばアメリカでは、縦型の信号機300bが一般的である。なお日本でも、積雪量の多い地域では縦型の信号機300bが設置されている。以下、信号機300a及び信号機300bを区別しない場合、単に信号機300という。   FIG. 3 is a diagram illustrating an example 2 of an image including the blue signal area 401. The example of FIG. 3 shows the blue signal area 401 of the traffic signal 300b in which the signal arrangement is vertical. For example, in the United States, a vertical traffic light 300b is common. In Japan, a vertical traffic signal 300b is installed in an area with a large amount of snowfall. Hereinafter, when the traffic light 300a and the traffic light 300b are not distinguished, they are simply referred to as the traffic light 300.

次に実施形態の認識装置100の構成の例について説明する。   Next, an example of the configuration of the recognition device 100 according to the embodiment will be described.

図4は実施形態の認識装置100の構成の例を示す図である。実施形態の認識装置100は、取得部10及び信号処理部20を備える。信号処理部20は、インタフェース部21、第1の色認識部22、第2の色認識部23、形状認識部24及び出力部25を備える。   FIG. 4 is a diagram illustrating an example of a configuration of the recognition device 100 according to the embodiment. The recognition device 100 according to the embodiment includes an acquisition unit 10 and a signal processing unit 20. The signal processing unit 20 includes an interface unit 21, a first color recognition unit 22, a second color recognition unit 23, a shape recognition unit 24, and an output unit 25.

取得部10は車両の周囲の画像を取得する。本実施形態の取得部10はカメラである。取得部10は、車両200の周囲を撮像し、(R,G,B)色空間により表現されたカラーの画像を取得する。取得部10は当該画像をインタフェース部21に入力する。なお取得部10は、車両の周囲の画像を他の装置から取得してもよい。   The acquisition unit 10 acquires an image around the vehicle. The acquisition unit 10 of the present embodiment is a camera. The acquisition unit 10 captures an image of the periphery of the vehicle 200, and acquires a color image represented by the (R, G, B) color space. The acquisition unit 10 inputs the image to the interface unit 21. Note that the acquisition unit 10 may acquire an image around the vehicle from another device.

インタフェース部21は、取得部10から画像を受け付けると、当該画像を、第1の色認識部22が時系列の連続画像フレームとして受け付け可能なデータ形式に変換する。インタフェース部21は、データ形式が変換された画像を第1の色認識部22に入力する。   When receiving the image from the acquisition unit 10, the interface unit 21 converts the image into a data format that the first color recognition unit 22 can accept as a time-series continuous image frame. The interface unit 21 inputs the image whose data format has been converted to the first color recognition unit 22.

第1の色認識部22は、インタフェース部21から画像を受け付けると、当該画像に含まれる領域の色が、信号機300の信号を示す色の範囲に含まれるか否かを判定する閾値判定処理により、第1の認識対象領域を認識する。具体的には、まず第1の色認識部22は、(R,G,B)色空間の画像を、次式(1)を使用して、(Y,U,V)色空間の画像に変換する。   When the first color recognizing unit 22 receives an image from the interface unit 21, the first color recognizing unit 22 performs a threshold determination process of determining whether a color of an area included in the image is included in a color range indicating a signal of the traffic light 300. , The first recognition target area is recognized. Specifically, first, the first color recognizing unit 22 converts an image in the (R, G, B) color space into an image in the (Y, U, V) color space using the following equation (1). Convert.

次に第1の色認識部22は、赤信号画素を判定する閾値、青信号画素を判定する閾値、及び、黄信号画素を判定する閾値を使用した閾値判定処理により、第1の認識対象領域を認識する。ここで、赤信号画素は赤信号の色を示す画素である。また青信号画素は青信号の色を示す画素である。また黄信号画素は黄信号の色を示す画素である。   Next, the first color recognition unit 22 determines a first recognition target area by a threshold determination process using a threshold for determining a red signal pixel, a threshold for determining a blue signal pixel, and a threshold for determining a yellow signal pixel. recognize. Here, the red signal pixel is a pixel indicating the color of the red signal. The blue signal pixel is a pixel indicating the color of the blue signal. The yellow signal pixel is a pixel indicating the color of the yellow signal.

赤信号画素を判定する閾値は、Uの範囲を示す閾値(Ur−min及びUr−max)及びVの範囲を示す閾値(Vr−min及びVr−max)である。すなわち第1の色認識部22は、Ur−min≦U≦Ur−max、かつ、Vr−min≦V≦Vr−maxを満たす(Y,U,V)を、第1の認識対象領域として認識する。この閾値は、赤信号画素の(U,V)分布に基づいて決定される。   The threshold for determining the red light pixel is a threshold (Ur-min and Ur-max) indicating the range of U and a threshold (Vr-min and Vr-max) indicating the range of V. That is, the first color recognition unit 22 recognizes (Y, U, V) satisfying Ur-min ≦ U ≦ Ur-max and Vr-min ≦ V ≦ Vr-max as the first recognition target area. I do. This threshold is determined based on the (U, V) distribution of the red signal pixels.

図5は赤信号画素の(U,V)分布の例を示す図である。図5の例は、赤信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた赤信号画素の(U,V)分布を示す。なおUの範囲を示す閾値(Ur−min及びUr−max)及びVの範囲を示す閾値(Vr−min及びVr−max)の具体的な値は任意に決定してよい。しかしながら当該閾値により決定される色の範囲が広すぎると、赤信号の色でない画素を検出する可能性も高くなるので、赤信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 5 is a diagram illustrating an example of a (U, V) distribution of red signal pixels. The example of FIG. 5 shows a (U, V) distribution of red signal pixels obtained from pixel information in a (R, G, B) color space of a plurality of image samples in which a red signal is captured. The specific values of the thresholds (Ur-min and Ur-max) indicating the range of U and the thresholds (Vr-min and Vr-max) indicating the range of V may be arbitrarily determined. However, if the range of the color determined by the threshold is too wide, the possibility of detecting a pixel that is not the color of the red signal increases. Therefore, the threshold is set so as not to overlap the (U, V) value of the pixel that is not the red signal. Set.

青信号画素を判定する閾値は、Uの範囲を示す閾値(Ub−min及びUb−max)及びVの範囲を示す閾値(Vb−min及びVb−max)である。すなわち第1の色認識部22は、Ub−min≦U≦Ub−max、かつ、Vb−min≦V≦Vb−maxを満たす(Y,U,V)を、第1の認識対象領域として認識する。この閾値は、青信号画素の(U,V)分布に基づいて決定される。   The thresholds for determining the green pixel are a threshold (Ub-min and Ub-max) indicating the range of U and a threshold (Vb-min and Vb-max) indicating the range of V. That is, the first color recognition unit 22 recognizes (Y, U, V) satisfying Ub-min ≦ U ≦ Ub-max and Vb-min ≦ V ≦ Vb-max as the first recognition target area. I do. This threshold value is determined based on the (U, V) distribution of the green signal pixels.

図6は青信号画素の(U,V)分布の例を示す図である。図6の例は、青信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた青信号画素の(U,V)分布を示す。なおUの範囲を示す閾値(Ub−min及びUb−max)及びVの範囲を示す閾値(Vb−min及びVb−max)の具体的な値は任意に決定してよい。しかしながら当該閾値により決定される色の範囲が広すぎると、青信号の色でない画素を検出する可能性も高くなるので、青信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 6 is a diagram illustrating an example of the (U, V) distribution of the green signal pixel. The example of FIG. 6 illustrates a (U, V) distribution of blue signal pixels obtained from pixel information in the (R, G, B) color space of a plurality of image samples in which a blue signal is captured. The specific values of the thresholds (Ub-min and Ub-max) indicating the range of U and the thresholds (Vb-min and Vb-max) indicating the range of V may be arbitrarily determined. However, if the range of colors determined by the threshold is too wide, the possibility of detecting a non-blue color pixel increases, so the threshold is set so as not to overlap the (U, V) value of the non-blue color pixel. .

黄信号画素を判定する閾値は、Uの範囲を示す閾値(Uy−min及びUy−max)及びVの範囲を示す閾値(Vy−min及びVy−max)である。すなわち第1の色認識部22は、Uy−min≦U≦Uy−max、かつ、Vy−min≦V≦Vy−maxを満たす(Y,U,V)を、第1の認識対象領域として認識する。この閾値は、黄信号画素の(U,V)分布に基づいて決定される。   The thresholds for determining a yellow signal pixel are a threshold (Uy-min and Uy-max) indicating a range of U and a threshold (Vy-min and Vy-max) indicating a range of V. That is, the first color recognition unit 22 recognizes (Y, U, V) satisfying Uy-min ≦ U ≦ Uy-max and Vy-min ≦ V ≦ Vy-max as the first recognition target area. I do. This threshold is determined based on the (U, V) distribution of the yellow signal pixels.

図7は黄信号画素の(U,V)分布の例を示す図である。図7の例は、黄信号が撮影された複数の画像サンプルの(R,G,B)色空間の画素情報から得られた黄信号画素の(U,V)分布を示す。なおUの範囲を示す閾値(Uy−min及びUy−max)及びVの範囲を示す閾値(Vy−min及びVy−max)の具体的な値は任意に決定してよい。しかしながら当該閾値により決定される色の範囲が広すぎると、黄信号の色でない画素を検出する可能性も高くなるので、黄信号でない画素の(U,V)値と重ならないように当該閾値を設定する。   FIG. 7 is a diagram illustrating an example of a (U, V) distribution of yellow signal pixels. The example of FIG. 7 illustrates a (U, V) distribution of yellow signal pixels obtained from pixel information in the (R, G, B) color space of a plurality of image samples in which yellow signals are captured. The specific values of the thresholds (Uy-min and Uy-max) indicating the range of U and the thresholds (Vy-min and Vy-max) indicating the range of V may be arbitrarily determined. However, if the range of the color determined by the threshold is too wide, the possibility of detecting a non-yellow color pixel increases. Therefore, the threshold is set so as not to overlap the (U, V) value of the non-yellow color pixel. Set.

第1の色認識部22による第1の認識対象領域の認識処理は、上述の閾値判定処理により行われるため、高速に実行することができる。   Since the recognition processing of the first recognition target area by the first color recognition unit 22 is performed by the above-described threshold determination processing, it can be executed at high speed.

図4に戻り、第1の色認識部22は、第1の認識対象領域を認識すると、当該第1の認識対象領域を示す情報を第2の色認識部23に入力する。   Returning to FIG. 4, when the first color recognizing unit 22 recognizes the first recognition target area, the information indicating the first recognition target area is input to the second color recognition unit 23.

第2の色認識部23は、第1の色認識部22から第1の認識対象領域を示す情報を受け付けると、認識辞書を使用して、当該第1の認識対象領域から第2の認識対象領域を認識する。認識辞書は、信号機300の信号を示す信号画素と、信号画素でない非信号画素と、から学習された辞書である。ここで青信号画素を認識する認識辞書の学習方法の例について説明する。   When the second color recognizing unit 23 receives the information indicating the first recognition target area from the first color recognizing unit 22, the second color recognizing unit 23 uses the recognition dictionary to convert the first recognition target area into the second recognition target area. Recognize the area. The recognition dictionary is a dictionary learned from signal pixels indicating signals of the traffic light 300 and non-signal pixels that are not signal pixels. Here, an example of a learning method of a recognition dictionary for recognizing a green signal pixel will be described.

図8は実施形態の青信号画素の認識辞書の学習方法の例を示す図である。青信号画素の認識辞書は、例えばSVM(Support Vector Machine)等の機械学習法により学習される。SVMにより学習する場合、点線123と直線124との距離(マージン)と、直線124と点線125との距離と、が最大になるようにして直線124を決定する。   FIG. 8 is a diagram illustrating an example of a method for learning a recognition dictionary for green signal pixels according to the embodiment. The recognition dictionary of the green signal pixel is learned by a machine learning method such as SVM (Support Vector Machine). When learning by the SVM, the straight line 124 is determined so that the distance (margin) between the dotted line 123 and the straight line 124 and the distance between the straight line 124 and the dotted line 125 are maximized.

このように決定された直線124により青信号画素121と、非青信号画素122と、が類別される。具体的には、認識辞書として、次式(2)の評価関数fのパラメータa1,b1及びc1が算出される。   The blue signal pixel 121 and the non-blue signal pixel 122 are classified by the straight line 124 determined in this way. Specifically, parameters a1, b1 and c1 of the evaluation function f of the following equation (2) are calculated as a recognition dictionary.

f(U,V)=a1×U+b1×V+c1 ・・・(2)   f (U, V) = a1 × U + b1 × V + c1 (2)

第2の色認識部23は、(Y,U,V)色空間の第1の認識対象領域の各(U,V)について、f(U,V)が、閾値以上である場合、当該(U,V)を青信号画素として認識し、閾値未満である場合、当該(U,V)を非青信号画素であると認識する。第2の色認識部23は、評価関数fに基づいて認識された青信号画素の領域を、第2の認識対象領域として認識する。   When f (U, V) is equal to or larger than the threshold value for each (U, V) of the first recognition target area in the (Y, U, V) color space, (U, V) is recognized as a green signal pixel, and if it is less than the threshold, the (U, V) is recognized as a non-green signal pixel. The second color recognizing unit 23 recognizes the area of the blue signal pixel recognized based on the evaluation function f as a second recognition target area.

なお赤信号画素を第2の認識対象領域として認識する場合、及び、黄信号画素を第2の認識対象領域として認識する場合の説明は、上述の青信号画素を第2の認識対象領域として認識する場合の説明と同様なので省略する。   Note that in the description of the case where the red signal pixel is recognized as the second recognition target area and the case where the yellow signal pixel is recognized as the second recognition target area, the above-described blue signal pixel is recognized as the second recognition target area. The description is omitted because it is the same as the case described above.

なお認識辞書による認識処理は、(U,V)色空間の画像に限られない。しかしながら信号機300の信号は色の特徴が明確であるため、(U,V)色空間の画像の認識辞書を用いた認識処理がより好ましい。   Note that the recognition processing by the recognition dictionary is not limited to images in the (U, V) color space. However, since the signal of the traffic signal 300 has clear color characteristics, recognition processing using a recognition dictionary for images in the (U, V) color space is more preferable.

上述の第2の色認識部23による第2の認識対象領域の認識処理は、全画素を対象とせず、限られた範囲の第1の認識対象領域について行われるため、高速に実行することができる。また第2の色認識部23の処理を更に行うことにより、第1の色認識部22により得られた第1の認識対象領域に、天候、画像の撮影時間帯、及び、ノイズ等の影響による誤差が含まれている場合、当該誤差を低減することができる。これにより、より高精度に信号機300の信号の認識対象領域を認識することができる。   The above-described process of recognizing the second recognition target area by the second color recognizing unit 23 is performed not on all pixels but on the first recognition target area in a limited range. it can. Further, by further performing the processing of the second color recognition unit 23, the first recognition target area obtained by the first color recognition unit 22 is affected by the influence of the weather, the shooting time of the image, noise, and the like. When an error is included, the error can be reduced. Thereby, the recognition target area of the signal of the traffic signal 300 can be recognized with higher accuracy.

以下、図2の青信号領域101を認識する場合について、図9乃至図13を参照して具体的に説明する。なお赤信号領域及び黄信号領域を認識する場合についても同様である。   Hereinafter, the case of recognizing the blue signal region 101 in FIG. 2 will be specifically described with reference to FIGS. The same applies to the case where the red signal area and the yellow signal area are recognized.

図9は実施形態の第1及び第2の認識対象領域の例を示す図である。まず第1の色認識部22が、青信号画素を判定するUの範囲を示す閾値(Ub−min及びUb−max)及びVの範囲を示す閾値(Vb−min及びVb−max)を満たす領域(U,V)を、第1の認識対象領域102として認識する。次に第2の色認識部23が、(Y,U,V)色空間の第1の認識対象領域102の各(U,V)について、f(U,V)が、閾値以上である場合、当該(U,V)を第2の認識対象領域103として認識する。   FIG. 9 is a diagram illustrating an example of first and second recognition target areas according to the embodiment. First, the first color recognition unit 22 satisfies a threshold value (Ub-min and Ub-max) indicating a range of U for determining a green signal pixel and an area satisfying threshold values (Vb-min and Vb-max) indicating a range of V ( U, V) are recognized as the first recognition target area 102. Next, the second color recognition unit 23 determines that f (U, V) is equal to or larger than the threshold for each (U, V) of the first recognition target area 102 in the (Y, U, V) color space. , (U, V) is recognized as the second recognition target area 103.

図9の第2の認識対象領域103の大きさは、実際の青信号領域101(図2参照)の大きさよりも小さい。すなわち図9の例は、本来、青信号の領域として認識されるべき領域が、ノイズ画素の影響により青信号画素として認識されなかった場合を示す。ノイズ画素は、撮影時の周囲の状況に起因するノイズ画素、撮像素子の特性に起因するノイズ画素、及び、撮像素子表面に付着したゴミに起因するノイズ画素等である。撮影時の周囲の状態に起因するノイズ画素は、信号機300aが撮影された際に、例えば太陽光等の光により反射していた青信号の領域の画素である。撮像素子の特性に起因するノイズ画素は、例えばランダムノイズの影響を受けた画素である。   The size of the second recognition target area 103 in FIG. 9 is smaller than the size of the actual blue signal area 101 (see FIG. 2). That is, the example of FIG. 9 illustrates a case where an area that should be originally recognized as a blue signal area is not recognized as a green signal pixel due to the influence of a noise pixel. The noise pixel includes a noise pixel caused by a surrounding situation at the time of photographing, a noise pixel caused by characteristics of the image sensor, a noise pixel caused by dust attached to the surface of the image sensor, and the like. The noise pixel due to the surrounding state at the time of shooting is a pixel in a region of a blue signal reflected by light such as sunlight when the traffic light 300a is shot. The noise pixel due to the characteristics of the image sensor is, for example, a pixel affected by random noise.

図4に戻り、次に第2の色認識部23は、第2の認識対象領域103を示す情報を形状認識部24に入力する。   Referring back to FIG. 4, the second color recognizing unit 23 inputs information indicating the second recognition target area 103 to the shape recognizing unit 24.

形状認識部24は、第2の色認識部23から第2の認識対象領域103を示す情報を受け付けると、第2の認識対象領域103を膨張させる膨張処理を行う。具体的には、形状認識部24は第2の認識対象領域103の画素毎に、当該画素を複数の画素により被覆することにより、第2の認識対象領域103を膨張領域に膨張させる。形状認識部24は、例えばn×n(nは1以上の整数)のブロック画素により各画素を被覆する。例えばn=7の場合、第2の認識対象領域103の各画素を、当該画素の周囲の48個(7×7−1)の画素を更に含む膨張領域に膨張させる。   When receiving the information indicating the second recognition target region 103 from the second color recognition unit 23, the shape recognition unit 24 performs an expansion process for expanding the second recognition target region 103. Specifically, the shape recognition unit 24 expands the second recognition target area 103 into an expansion area by covering the pixel with a plurality of pixels for each pixel of the second recognition target area 103. The shape recognition unit 24 covers each pixel with, for example, n × n (n is an integer of 1 or more) block pixels. For example, when n = 7, each pixel of the second recognition target area 103 is expanded into an expansion area further including 48 (7 × 7-1) pixels around the pixel.

図10は実施形態の膨張領域104の例を示す図である。図10の例は、形状認識部24が、第2の色認識部23により認識された第2の認識対象領域103に、膨張処理を行ったことにより、本来の青信号の領域の大きさを示す青信号領域101を含む膨張領域104が得られた場合を示す。   FIG. 10 is a diagram illustrating an example of the expansion region 104 according to the embodiment. In the example of FIG. 10, the shape recognition unit 24 performs the expansion processing on the second recognition target region 103 recognized by the second color recognition unit 23, thereby indicating the size of the original blue signal region. This shows a case where an expanded area 104 including a green signal area 101 is obtained.

図4に戻り、次に形状認識部24は、青信号領域101の形状を示す青信号形状領域を認識する形状認識処理を行う。具体的には、形状認識部24は、第2の色認識部23により認識された第2の認識対象領域103をハフ(Hough)変換することにより、膨張領域104内で円形の画素領域を認識できるか否かを判定する。形状認識部24は、円形の画素領域を認識できる場合、当該円形の画素領域を青信号形状領域として認識する。この青信号形状領域が、信号機300aの青信号領域101として認識される。   Returning to FIG. 4, the shape recognizing unit 24 performs a shape recognizing process for recognizing a blue signal shape region indicating the shape of the green signal region 101. Specifically, the shape recognizing unit 24 recognizes a circular pixel region in the expanded region 104 by performing a Hough transform on the second recognition target region 103 recognized by the second color recognizing unit 23. Determine if you can. When a circular pixel area can be recognized, the shape recognizing unit 24 recognizes the circular pixel area as a green signal shape area. This green signal shape area is recognized as the green signal area 101 of the traffic light 300a.

図11は実施形態のハフ変換により認識される円形の画素領域の例を示す図である。図11の例は、第2の認識対象領域103(図9参照)がハフ変換されることにより、円形の画素領域として青信号領域101が認識された場合の例を示す。   FIG. 11 is a diagram illustrating an example of a circular pixel region recognized by the Hough transform according to the embodiment. The example in FIG. 11 illustrates an example in which the blue signal region 101 is recognized as a circular pixel region by subjecting the second recognition target region 103 (see FIG. 9) to Hough transform.

図4に戻り、形状認識部24は、青信号領域101を含む矩形領域を認識する。形状認識部24は、青信号領域101を含む矩形領域を示す認識結果情報を出力部25に入力する。出力部25は、形状認識部24から認識結果情報を受け付けると、当該認識結果情報を出力する。認識結果情報は、例えばドライバーによる信号無視及び急発進等の危険運転の検知等の処理に使用される。   Referring back to FIG. 4, the shape recognition unit 24 recognizes a rectangular area including the blue signal area 101. The shape recognition unit 24 inputs recognition result information indicating a rectangular region including the blue signal region 101 to the output unit 25. When receiving the recognition result information from the shape recognition unit 24, the output unit 25 outputs the recognition result information. The recognition result information is used for processing such as detection of dangerous driving such as ignoring signals and sudden start by the driver.

図12は実施形態の矩形領域105の例を示す図である。図12の例は、円形の画素領域として認識された青信号領域101を含む矩形領域105が認識された場合の例を示す。なお矩形領域105は青信号領域101に外接するように認識されてもよい。   FIG. 12 is a diagram illustrating an example of the rectangular area 105 according to the embodiment. The example of FIG. 12 illustrates an example in which a rectangular area 105 including a blue signal area 101 recognized as a circular pixel area is recognized. Note that the rectangular area 105 may be recognized so as to circumscribe the blue signal area 101.

図13は実施形態の青信号領域101の認識結果情報の例を示す図である。図13の例は、図2に示す画像に含まれる信号機300aの青信号領域101が、当該青信号領域101を含む矩形領域105を示す認識結果情報として認識された場合を示す。   FIG. 13 is a diagram illustrating an example of recognition result information of the green signal region 101 according to the embodiment. The example of FIG. 13 illustrates a case where the blue signal area 101 of the traffic light 300a included in the image illustrated in FIG. 2 is recognized as recognition result information indicating the rectangular area 105 including the blue signal area 101.

次に実施形態の認識方法について説明する。   Next, a recognition method according to the embodiment will be described.

図14は実施形態の認識方法の例を示すフローチャートである。なお信号機300の信号が青信号、黄信号及び赤信号の場合の説明は同様なので、実施形態の認識方法の説明では、信号が青信号である場合を例にして説明するが、認識対象の信号の色は任意でよい。   FIG. 14 is a flowchart illustrating an example of a recognition method according to the embodiment. Since the description of the case where the signal of the traffic light 300 is a blue signal, a yellow signal, and a red signal is the same, the description of the recognition method of the embodiment will be given by taking the case where the signal is a blue signal as an example. Is optional.

はじめに、第1の色認識部22が、(R,G,B)色空間により表現されたカラーの画像を、インタフェース部21から受け付ける(ステップS1)。次に、第1の色認識部22が、(R,G,B)色空間の画像を、上述の式(1)を使用して、(Y,U,V)色空間の画像に変換する(ステップS2)。   First, the first color recognition unit 22 receives a color image represented by the (R, G, B) color space from the interface unit 21 (Step S1). Next, the first color recognizing unit 22 converts the image in the (R, G, B) color space into an image in the (Y, U, V) color space by using the above equation (1). (Step S2).

次に、第1の色認識部22が、青信号画素を判定する閾値を使用した上述の閾値判定処理により、第1の認識対象領域102を認識する(ステップS3)。次に、第2の色認識部23が、上述の式(2)の評価関数fに基づいて認識された青信号画素の領域を、第2の認識対象領域103として認識する(ステップS4)。   Next, the first color recognition unit 22 recognizes the first recognition target area 102 by the above-described threshold determination processing using the threshold for determining the green signal pixel (step S3). Next, the second color recognizing unit 23 recognizes the area of the blue signal pixel recognized based on the evaluation function f of the above equation (2) as the second recognition target area 103 (Step S4).

次に、形状認識部24が、ステップS4で認識された第2の認識対象領域103を、膨張領域104に膨張させる(ステップS5)。   Next, the shape recognition unit 24 expands the second recognition target area 103 recognized in step S4 into an expansion area 104 (step S5).

次に、形状認識部24が、ステップS5の処理により得られた膨張領域104で、青信号形状領域を認識する(ステップS6)。具体的には、形状認識部24は、第2の認識対象領域103をハフ変換することにより、膨張領域104内で円形の画素領域を認識できるか否かを判定する。形状認識部24は、円形の画素領域を認識できる場合、当該円形の画素領域を青信号形状領域として認識する。この青信号形状領域が、信号機300の青信号領域101として認識される。   Next, the shape recognizing unit 24 recognizes a blue signal shape region in the expanded region 104 obtained by the process of step S5 (step S6). Specifically, the shape recognition unit 24 determines whether or not a circular pixel region can be recognized in the expanded region 104 by performing a Hough transform on the second recognition target region 103. When a circular pixel area can be recognized, the shape recognizing unit 24 recognizes the circular pixel area as a green signal shape area. This green signal shape area is recognized as the green signal area 101 of the traffic light 300.

次に、出力部25が、青信号領域101を含む矩形領域105を示す認識結果情報を出力する(ステップS7)。   Next, the output unit 25 outputs recognition result information indicating the rectangular area 105 including the blue signal area 101 (Step S7).

最後に実施形態の認識装置100のハードウェア構成の例について説明する。   Finally, an example of a hardware configuration of the recognition device 100 according to the embodiment will be described.

まず取得部10のハードウェア構成の例について説明する。   First, an example of a hardware configuration of the acquisition unit 10 will be described.

図15は実施形態の取得部10のハードウェア構成の例を示す図である。実施形態の取得部10は、撮影光学系201、メカシャッタ202、モータドライバ203、CCD(Charge Coupled Device)204、CDS(Correlated Double Sampling:相関2重サンプリング)回路205、A/D変換器206、タイミング信号発生器207、画像処理回路208、LCD(Liquid Crystal Display)209、CPU(Central Processing Unit)210、RAM(Random Access Memory)211、ROM(Read Only Memory)212、SDRAM(Synchronous Dynamic Random Access Memory)213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217を備える。   FIG. 15 is a diagram illustrating an example of a hardware configuration of the acquisition unit 10 according to the embodiment. The acquisition unit 10 of the embodiment includes a photographing optical system 201, a mechanical shutter 202, a motor driver 203, a charge coupled device (CCD) 204, a correlated double sampling (CDS) circuit 205, an A / D converter 206, and a timing. Signal generator 207, image processing circuit 208, LCD (Liquid Crystal Display) 209, CPU (Central Processing Unit) 210, RAM (Random Access Memory) 211, ROM (Read Only Memory) 212, SDRAM (Synchronous Dynamics) 213, compression / expansion circuit 214, memory 215 An operation unit 216 and an output I / F 217.

画像処理回路208、CPU210、RAM211、ROM212、SDRAM213、圧縮伸張回路214、メモリ215、操作部216及び出力I/F217はバス220を介して接続されている。   The image processing circuit 208, the CPU 210, the RAM 211, the ROM 212, the SDRAM 213, the compression / expansion circuit 214, the memory 215, the operation unit 216, and the output I / F 217 are connected via the bus 220.

撮影光学系201は被写体が反射した光を集光する。メカシャッタ202は所定の時間、開くことにより、撮影光学系201により集光された光をCCD204に入射させる。モータドライバ203は、CPU210からの制御信号に応じて、撮影光学系201及びメカシャッタ202を駆動する。   The imaging optical system 201 collects light reflected by the subject. By opening the mechanical shutter 202 for a predetermined time, the light collected by the photographing optical system 201 is made incident on the CCD 204. The motor driver 203 drives the photographing optical system 201 and the mechanical shutter 202 according to a control signal from the CPU 210.

CCD204は、メカシャッタ202を介して入射した光を被写体の像として結像し、当該被写体の像を示すアナログの画像情報をCDS回路205に入力する。CDS回路205は、CCD204からアナログの画像情報を受け付けると、当該画像情報のノイズ成分を除去し、ノイズ成分が除去されたアナログの画像情報をA/D変換器206に入力する。A/D変換器206は、CDS回路205からアナログの画像情報を受け付けると、当該アナログの画像情報をデジタルの画像情報に変換する。A/D変換器206はデジタルの画像情報を画像処理回路208に入力する。タイミング信号発生器207は、CPU210からの制御信号に応じて、CCD204、CDS回路205及びA/D変換器206にタイミング信号を送信することにより、CCD204、CDS回路205及びA/D変換器206が動作するタイミングを制御する。   The CCD 204 forms light incident through the mechanical shutter 202 as an image of a subject, and inputs analog image information indicating the image of the subject to the CDS circuit 205. Upon receiving the analog image information from the CCD 204, the CDS circuit 205 removes a noise component of the image information and inputs the analog image information from which the noise component has been removed to the A / D converter 206. Upon receiving the analog image information from the CDS circuit 205, the A / D converter 206 converts the analog image information into digital image information. The A / D converter 206 inputs digital image information to the image processing circuit 208. The timing signal generator 207 transmits a timing signal to the CCD 204, the CDS circuit 205, and the A / D converter 206 according to a control signal from the CPU 210, so that the CCD 204, the CDS circuit 205, and the A / D converter 206 Control the timing of operation.

画像処理回路208は、A/D変換器206からデジタルの画像情報を受け付けると、SDRAM213を使用して、当該デジタルの画像情報の画像処理を行う。画像処理は、例えばYUV(YCrCb)変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理及び色変換処理等である。YUV(YCrCb)変換処理は、上述の式(1)による変換処理である。すなわち上述の式(1)の変換処理は、画像処理回路208で行ってもよい。ホワイトバランス制御処理は、画像情報の色の濃さを調整する画像処理である。コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整する処理である。色変換処理は、画像情報の色合いを調整する画像処理である。   Upon receiving digital image information from the A / D converter 206, the image processing circuit 208 performs image processing on the digital image information using the SDRAM 213. The image processing includes, for example, YUV (YCrCb) conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, color conversion processing, and the like. The YUV (YCrCb) conversion process is a conversion process according to the above equation (1). That is, the conversion processing of the above equation (1) may be performed by the image processing circuit 208. The white balance control process is an image process for adjusting the color density of image information. The contrast correction processing is image processing for adjusting the contrast of image information. The edge enhancement process is a process for adjusting the sharpness of image information. The color conversion process is an image process for adjusting the hue of image information.

画像処理回路208は上述の画像処理が行われた画像情報をLCD209、又は、圧縮伸張回路214に入力する。LCD209は、画像処理回路208から受け付けた画像情報を表示する液晶ディスプレイである。   The image processing circuit 208 inputs the image information subjected to the above-described image processing to the LCD 209 or the compression / expansion circuit 214. The LCD 209 is a liquid crystal display that displays image information received from the image processing circuit 208.

CPU210はプログラムを実行することにより取得部10の動作を制御する。RAM211はCPU210がプログラムを実行するときのワーク領域、及び、各種情報の記憶等に使用される読取及び書込が可能な記憶領域である。ROM212はCPU210により実行されるプログラム等を記憶する読取専用の記憶領域である。   The CPU 210 controls the operation of the acquisition unit 10 by executing a program. The RAM 211 is a work area when the CPU 210 executes a program, and a readable and writable storage area used for storing various information. The ROM 212 is a read-only storage area that stores programs executed by the CPU 210 and the like.

SDRAM213は画像処理回路208が画像処理を行うときに、画像処理対象の画像情報を一時的に記憶する記憶領域である。   The SDRAM 213 is a storage area for temporarily storing image information to be subjected to image processing when the image processing circuit 208 performs image processing.

圧縮伸張回路214は、画像処理回路208から画像情報を受け付けると、当該画像情報を圧縮する。圧縮伸張回路214は圧縮された画像情報をメモリ215に記憶する。また圧縮伸張回路214は、メモリ215から画像情報を受け付けると、当該画像情報を伸張する。圧縮伸張回路214は伸張された画像情報をSDRAM213に一時的に記憶する。メモリ215は圧縮された画像情報を記憶する。   Upon receiving the image information from the image processing circuit 208, the compression / expansion circuit 214 compresses the image information. The compression / expansion circuit 214 stores the compressed image information in the memory 215. Upon receiving the image information from the memory 215, the compression / expansion circuit 214 expands the image information. The compression / expansion circuit 214 temporarily stores the expanded image information in the SDRAM 213. The memory 215 stores the compressed image information.

操作部216は取得部10のユーザからの操作を受け付ける。操作部216は、例えばLCD209に表示された画像情報をメモリ215に記憶する操作を受け付ける。出力I/F217は、取得部10から画像情報を信号処理部20に送信するためのインタフェースである。   The operation unit 216 receives an operation from the user of the acquisition unit 10. The operation unit 216 receives an operation of storing image information displayed on the LCD 209 in the memory 215, for example. The output I / F 217 is an interface for transmitting image information from the acquisition unit 10 to the signal processing unit 20.

なお上述の図4で説明した信号処理部20のインタフェース部21、第1の色認識部22、第2の色認識部23、形状認識部24及び出力部25は、信号処理ボード(信号処理回路)としてハードウェアにより実現しても、取得部10のCPU210、及び、他の装置のCPU等により実行されるソフトウェア(プログラム)により実現してもよい。またインタフェース部21、第1の色認識部22、第2の色認識部23、形状認識部24及び出力部25を、ハードウェアとソフトウェアとを組み合わせて実現してもよい。   The interface unit 21, the first color recognition unit 22, the second color recognition unit 23, the shape recognition unit 24, and the output unit 25 of the signal processing unit 20 described with reference to FIG. ) May be realized by hardware, or may be realized by software (program) executed by the CPU 210 of the acquisition unit 10 and the CPU of another device. The interface unit 21, the first color recognition unit 22, the second color recognition unit 23, the shape recognition unit 24, and the output unit 25 may be realized by combining hardware and software.

実施形態の認識装置100(CPU210)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。   The program executed by the recognition device 100 (CPU 210) of the embodiment is read in a computer such as a CD-ROM, a memory card, a CD-R, and a DVD (Digital Versatile Disk) as an installable or executable file. It is recorded on a possible storage medium and provided as a computer program product.

なお実施形態の認識装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また実施形態の認識装置100で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。   The program executed by the recognition device 100 of the embodiment may be stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. Further, the program executed by the recognition apparatus 100 of the embodiment may be provided via a network such as the Internet without downloading the program.

また実施形態の認識装置100のプログラムを、ROM212等に予め組み込んで提供するように構成してもよい。   Further, the program of the recognition device 100 of the embodiment may be provided by being incorporated in the ROM 212 or the like in advance.

なお実施形態の認識装置100で実行されるプログラムにより、インタフェース部21、第1の色認識部22、第2の色認識部23、形状認識部24及び出力部25等を実現する場合、インタフェース部21、第1の色認識部22、第2の色認識部23、形状認識部24及び出力部25等は、例えばCPU210がROM212又は上記記憶媒体等からプログラムを読み出して実行することによりRAM211に実現される。   When the interface unit 21, the first color recognition unit 22, the second color recognition unit 23, the shape recognition unit 24, the output unit 25, and the like are realized by a program executed by the recognition device 100 according to the embodiment, the interface unit 21, the first color recognizing unit 22, the second color recognizing unit 23, the shape recognizing unit 24, the output unit 25, and the like are realized in the RAM 211 by, for example, the CPU 210 reading a program from the ROM 212 or the storage medium and executing the program. Is done.

以上説明したように、実施形態の認識装置100では、第1の色認識部22が、画像に含まれる領域の色が、信号機300の信号を示す色の範囲に含まれるか否かに基づいて、第1の認識対象領域を認識する。次に第2の色認識部23が、信号機300の信号を示す信号画素と、信号画素でない非信号画素と、から学習された認識辞書を使用して、第1の認識対象領域から第2の認識対象領域を認識する。そして形状認識部24が、第2の認識対象領域から信号機300の信号の形状を示す信号形状領域を認識する。これにより実施形態の認識装置100によれば、信号機300の信号を示す信号領域をより短い時間で正確に認識することができる。   As described above, in the recognition device 100 according to the embodiment, the first color recognition unit 22 determines whether the color of the region included in the image is included in the color range indicating the signal of the traffic light 300 or not. , The first recognition target area is recognized. Next, the second color recognition unit 23 uses the recognition dictionary learned from the signal pixels indicating the signal of the traffic signal 300 and the non-signal pixels that are not the signal pixels, to perform the second recognition from the first recognition target area. Recognize the recognition target area. Then, the shape recognition unit 24 recognizes a signal shape region indicating the shape of the signal of the traffic signal 300 from the second recognition target region. Thus, according to the recognition device 100 of the embodiment, the signal region indicating the signal of the traffic light 300 can be accurately recognized in a shorter time.

なお実施形態の認識装置100において、信号機300全体の形状を認識しない理由は、遠くの信号機300が撮影された画像等では、当該信号機300全体の形状の認識が十分にできない場合が想定されるためである。そのため、実施形態の認識装置100では、比較的確実に形状認識が可能な信号機300の信号部分の円形状の認識を行っている。また、円形状の認識のみ、又は、第1の認識対象領域に円形状の認識を行うと、例えば看板に偶然含まれていた円模様が認識されてしまう等の不都合が生じる。そこで、実施形態の認識装置100では、第1の認識対象領域に対して更に第2の認識対象領域を認識する2段階の色認識処理を実行することにより、高精度な信号領域をより高速に認識できるようにしている。   Note that the reason why the recognition device 100 of the embodiment does not recognize the shape of the entire traffic light 300 is that it is assumed that the image of the distant traffic light 300 cannot sufficiently recognize the shape of the traffic light 300 as a whole. It is. Therefore, the recognition device 100 of the embodiment recognizes the circular shape of the signal portion of the traffic light 300 that can relatively reliably recognize the shape. In addition, if only the recognition of the circular shape is performed or the recognition of the circular shape is performed in the first recognition target area, inconvenience occurs, for example, a circular pattern accidentally included in the signboard is recognized. Therefore, in the recognition device 100 of the embodiment, a two-stage color recognition process for recognizing the second recognition target region is further performed on the first recognition target region, so that a high-accuracy signal region can be generated more quickly. Make it recognizable.

10 取得部
20 信号処理部
21 インタフェース部
22 第1の色認識部
23 第2の色認識部
24 形状認識部
25 出力部
100 認識装置
101 青信号領域
102 第1の認識対象領域
103 第2の認識対象領域
104 膨張領域
105 矩形領域
200 車両
201 撮影光学系
202 メカシャッタ
203 モータドライバ
204 CCD
205 CDS回路
206 A/D変換器
207 タイミング信号発生器
208 画像処理回路
209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 圧縮伸張回路
215 メモリ
216 操作部
217 出力I/F
220 バス
300 信号機
Reference Signs List 10 acquisition unit 20 signal processing unit 21 interface unit 22 first color recognition unit 23 second color recognition unit 24 shape recognition unit 25 output unit 100 recognition device 101 blue signal area 102 first recognition target area 103 second recognition target Area 104 expansion area 105 rectangular area 200 vehicle 201 shooting optical system 202 mechanical shutter 203 motor driver 204 CCD
205 CDS circuit 206 A / D converter 207 Timing signal generator 208 Image processing circuit 209 LCD
210 CPU
211 RAM
212 ROM
213 SDRAM
214 compression / expansion circuit 215 memory 216 operation unit 217 output I / F
220 bus 300 traffic light

特開2009−244946号公報JP 2009-244946 A

Claims (5)

車両の周囲を示す(R,G,B)色空間の画像を取得する取得部と、
前記(R,G,B)色空間の画像を(Y,U,V)色空間の画像に変換し、第1段階の色認識処理として、前記(Y,U,V)色空間の画像に含まれる領域の色が、信号機の信号を示す色の範囲に含まれるか否かに基づいて、第1の認識対象領域を認識する処理を行う第1の色認識部と、
第2段階の色認識処理として、前記信号機の信号を示す信号画素と、前記信号画素でない非信号画素と、から学習された認識辞書を使用して、前記第1の認識対象領域から第2の認識対象領域を認識する処理を行う第2の色認識部と、
前記第2の認識対象領域から前記信号機の信号の形状を示す信号形状領域を認識する形状認識部と、
を備える認識装置。
An acquisition unit configured to acquire an image in the (R, G, B) color space indicating the periphery of the vehicle;
The image in the (R, G, B) color space is converted into an image in the (Y, U, V) color space, and the image in the (Y, U, V) color space is converted as a first-stage color recognition process. A first color recognition unit that performs a process of recognizing a first recognition target region based on whether a color of the included region is included in a range of colors indicating a signal of a traffic signal;
As a second stage color recognition process, a second recognition process is performed from the first recognition target area using a recognition dictionary learned from signal pixels indicating the signal of the traffic light and non-signal pixels that are not the signal pixels. A second color recognition unit that performs a process of recognizing a recognition target area;
A shape recognition unit that recognizes a signal shape region indicating the shape of the signal of the traffic signal from the second recognition target region;
A recognition device comprising:
前記第2の色認識部は、前記認識辞書として算出された評価関数f(U,V)を使用して、前記第2の認識対象領域を認識する、
請求項に記載の認識装置。
The second color recognition unit recognizes the second recognition target area using an evaluation function f (U, V) calculated as the recognition dictionary.
The recognition device according to claim 1 .
前記形状認識部は、前記第2の認識対象領域を複数の画素により被覆することにより、前記第2の認識対象領域を膨張領域に膨張させ、前記膨張領域内で前記第2の認識対象領域をハフ変換することにより得られる領域を、前記信号形状領域として認識する、
請求項1又は2に記載の認識装置。
The shape recognition unit expands the second recognition target region into an expansion region by covering the second recognition target region with a plurality of pixels, and expands the second recognition target region in the expansion region. Recognize a region obtained by Hough transform as the signal shape region,
Recognition apparatus according to claim 1 or 2.
認識装置が、車両の周囲を示す(R,G,B)色空間の画像を取得するステップと、
認識装置が、前記(R,G,B)色空間の画像を(Y,U,V)色空間の画像に変換し、第1段階の色認識処理として、前記(Y,U,V)色空間の画像に含まれる領域の色が、信号機の信号を示す色の範囲に含まれるか否かに基づいて、第1の認識対象領域を認識する処理を行うステップと、
認識装置が、第2段階の色認識処理として、前記信号機の信号を示す信号画素と、前記信号画素でない非信号画素と、から学習された認識辞書を使用して、前記第1の認識対象領域から第2の認識対象領域を認識する処理を行うステップと、
認識装置が、前記第2の認識対象領域から前記信号機の信号の形状を示す信号形状領域を認識するステップと、
を含む認識方法。
A step in which the recognizing device acquires an image in an (R, G, B) color space showing the periphery of the vehicle;
A recognition device converts the image in the (R, G, B) color space into an image in the (Y, U, V) color space, and performs the (Y, U, V) color Performing a process of recognizing a first recognition target region based on whether a color of a region included in the image of the space is included in a color range indicating a signal of a traffic light;
The recognition device uses the recognition dictionary learned from the signal pixels indicating the signal of the traffic light and the non-signal pixels that are not the signal pixels as the second stage color recognition processing, and uses the recognition dictionary learned from the first recognition target area. Performing a process of recognizing a second recognition target region from
A recognition device for recognizing a signal shape region indicating a signal shape of the traffic signal from the second recognition target region;
Recognition method including.
車両の周囲を示す(R,G,B)色空間の画像を取得する取得部を備える認識装置を、
前記(R,G,B)色空間の画像を(Y,U,V)色空間の画像に変換し、第1段階の色認識処理として、前記(Y,U,V)色空間の画像に含まれる領域の色が、信号機の信号を示す色の範囲に含まれるか否かに基づいて、第1の認識対象領域を認識する処理を行う第1の色認識部と、
第2段階の色認識処理として、前記信号機の信号を示す信号画素と、前記信号画素でない非信号画素と、から学習された認識辞書を使用して、前記第1の認識対象領域から第2の認識対象領域を認識する処理を行う第2の色認識部と、
前記第2の認識対象領域から前記信号機の信号の形状を示す信号形状領域を認識する形状認識部、
として機能させるためのプログラム。
A recognition device including an acquisition unit that acquires an image in the (R, G, B) color space indicating the periphery of the vehicle,
The image in the (R, G, B) color space is converted into an image in the (Y, U, V) color space, and the image in the (Y, U, V) color space is converted as a first-stage color recognition process. A first color recognition unit that performs a process of recognizing a first recognition target region based on whether a color of the included region is included in a range of colors indicating a signal of a traffic signal;
As a second stage color recognition process, a second recognition process is performed from the first recognition target area using a recognition dictionary learned from signal pixels indicating the signal of the traffic light and non-signal pixels that are not the signal pixels. A second color recognition unit that performs a process of recognizing a recognition target area;
A shape recognition unit that recognizes a signal shape region indicating a shape of a signal of the traffic signal from the second recognition target region;
Program to function as
JP2015113972A 2015-06-04 2015-06-04 Recognition device, recognition method and program Expired - Fee Related JP6676885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015113972A JP6676885B2 (en) 2015-06-04 2015-06-04 Recognition device, recognition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015113972A JP6676885B2 (en) 2015-06-04 2015-06-04 Recognition device, recognition method and program

Publications (2)

Publication Number Publication Date
JP2017004040A JP2017004040A (en) 2017-01-05
JP6676885B2 true JP6676885B2 (en) 2020-04-08

Family

ID=57754715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015113972A Expired - Fee Related JP6676885B2 (en) 2015-06-04 2015-06-04 Recognition device, recognition method and program

Country Status (1)

Country Link
JP (1) JP6676885B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7147448B2 (en) 2018-10-10 2022-10-05 トヨタ自動車株式会社 map information system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254321A (en) * 2005-03-14 2006-09-21 Matsushita Electric Ind Co Ltd Person tracking apparatus and program
JP4999005B2 (en) * 2008-03-04 2012-08-15 Kddi株式会社 Content identification device
JP2011216051A (en) * 2010-04-02 2011-10-27 Institute Of National Colleges Of Technology Japan Program and device for discriminating traffic light
JP5747549B2 (en) * 2011-02-18 2015-07-15 株式会社豊田中央研究所 Signal detector and program

Also Published As

Publication number Publication date
JP2017004040A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6728634B2 (en) Detecting device, detecting method and program
JP6459443B2 (en) Detection device, detection system, detection method and program
JP2016161973A (en) Recognition apparatus, recognition method, and program
EP3203725B1 (en) Vehicle-mounted image recognition device
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
KR20200133863A (en) Advanced driver assist device, method of calibrationg the same and method of detecting object in the saem
JP5895448B2 (en) Vehicle recognition device, vehicle recognition method, and program
JP2010102572A (en) Periphery monitoring device for vehicle
KR20120098107A (en) System and method for assisting a driver
JP6544393B2 (en) Image recording apparatus, image recording method and image recording program
US20200154083A1 (en) Image processing device, image processing method, program, and imaging device
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP2014183322A (en) Intersection recognition device and computer-executable program
JP6939919B2 (en) Recognition device, recognition method and program
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
JP6676885B2 (en) Recognition device, recognition method and program
JP4457077B2 (en) Obstacle detection system and obstacle detection method
JP6825299B2 (en) Information processing equipment, information processing methods and programs
JP6874315B2 (en) Information processing equipment, information processing methods and programs
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
KR101625158B1 (en) Apparatus and Method for Processing photographed image of Blackbox in vehicle
JP6859659B2 (en) Information processing equipment, information processing methods and programs
JP2008040724A (en) Image processing device and image processing method
KR20150111611A (en) Apparatus and method for detecting vehicle candidate
KR101659276B1 (en) AVM system and method for detecting open state of door using AVM image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R151 Written notification of patent or utility model registration

Ref document number: 6676885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees