JP2018072884A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2018072884A
JP2018072884A JP2016207914A JP2016207914A JP2018072884A JP 2018072884 A JP2018072884 A JP 2018072884A JP 2016207914 A JP2016207914 A JP 2016207914A JP 2016207914 A JP2016207914 A JP 2016207914A JP 2018072884 A JP2018072884 A JP 2018072884A
Authority
JP
Japan
Prior art keywords
signal
region
unit
time zone
indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016207914A
Other languages
Japanese (ja)
Other versions
JP6825299B2 (en
Inventor
関 海克
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016207914A priority Critical patent/JP6825299B2/en
Publication of JP2018072884A publication Critical patent/JP2018072884A/en
Application granted granted Critical
Publication of JP6825299B2 publication Critical patent/JP6825299B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an information processing method and a program that can recognize a signal apparatus projected into an imaged image with a high degree of accuracy.SOLUTION: An information processing device according to the present invention comprises an acquisition unit, a signal area recognition unit and a determination unit. The acquisition unit acquires imaged images. The signal area recognition unit recognizes a signal area indicating a signal of a signal apparatus of the imaged images acquired by the acquisition unit. The determination unit determines whether or not the signal area is an area indicating an object signal on the basis of object signal identification information predetermined for identifying the object signal indicating a signal of the signal apparatus being a detection object and the signal area recognized by the signal area recognition unit.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

車載カメラなどの撮影装置で撮影された撮影画像を解析し、撮影画像に含まれる信号機の信号(典型的には点灯している信号)を検出することで、運転者を支援するシステムが知られている。また、信号機の信号を認識するために、信号機の信号色を検出する装置が知られている。   A system for assisting a driver by analyzing a photographed image taken by a photographing device such as an in-vehicle camera and detecting a signal of a traffic light (typically a lit signal) included in the photographed image is known. ing. There is also known an apparatus for detecting the signal color of a traffic light in order to recognize the signal of the traffic light.

例えば、特許文献1には、カメラのゲインを2回調整して2枚の撮影画像を取得し、これらの2枚の撮影画像を用いて信号色を検知する方法が開示されている。特許文献1では、1回目の撮影で取得した撮影画像を用いて、2回目の撮影用のゲインを調整する。   For example, Patent Document 1 discloses a method of adjusting two camera gains to acquire two captured images and detecting a signal color using these two captured images. In Patent Document 1, the gain for the second shooting is adjusted using the shot image acquired in the first shooting.

しかしながら従来の技術では、ゲインの異なる複数枚の撮影画像が必要であった。また、ゲイン調整の誤差により、検出精度が大幅に低下する場合があった。さらに、撮影画像のうち信号機が映り込んだ領域を検出する前の状態では、撮影画像における信号の位置が不明であることから、信号色を正確に検出可能なゲインの設定は困難であった。   However, in the conventional technique, a plurality of photographed images having different gains are required. In addition, detection accuracy may be significantly reduced due to an error in gain adjustment. Furthermore, in the state before detecting the area in which the traffic signal is reflected in the photographed image, the position of the signal in the photographed image is unknown, so it is difficult to set the gain that can accurately detect the signal color.

また、カメラゲインを最適に設定しても、信号機の信号と同じ色、同じ形状の物体が現れると、その物体を信号機の信号として誤認識する問題がある。例えば、赤い看板の一部が木に隠れ、見える部分の形状が、赤信号の色を示す円の形になった場合、その赤い看板を、赤信号を示す領域として認識してしまう。従来の技術では、誤認識を削除不可能である。   Even if the camera gain is set optimally, if an object having the same color and shape as the signal of the traffic light appears, there is a problem that the object is erroneously recognized as a signal of the traffic light. For example, when a part of a red signboard is hidden by a tree and the shape of a visible part becomes a circle indicating the color of a red signal, the red signboard is recognized as an area indicating a red signal. With the conventional technology, it is impossible to delete the erroneous recognition.

すなわち、従来の技術では、撮影画像に映り込んだ信号機の信号を高精度に認識することは困難であるという問題があった。   That is, the conventional technique has a problem that it is difficult to recognize the signal of the traffic signal reflected in the captured image with high accuracy.

本発明は、上記に鑑みてなされたものであって、撮影画像に映り込んだ信号機の信号を高精度に認識することが可能な情報処理装置、情報処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of accurately recognizing a signal of a traffic signal reflected in a captured image. To do.

上述した課題を解決し、目的を達成するために、本発明は、撮影画像を取得する取得部と、前記取得部により取得された前記撮影画像のうち、信号機の信号を示す信号領域を認識する信号領域認識部と、検出対象となる信号機の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、前記信号領域認識部により認識された前記信号領域と、に基づいて、前記信号領域が、前記対象信号を示す領域であるか否かを判断する判断部と、を備える情報処理装置である。   In order to solve the above-described problems and achieve the object, the present invention recognizes a signal area indicating a signal of a traffic light among an acquisition unit that acquires a captured image and the captured image acquired by the acquisition unit. Based on the signal region recognition unit, the target signal identification information predetermined for identifying the target signal indicating the signal of the traffic signal to be detected, and the signal region recognized by the signal region recognition unit, And a determination unit that determines whether or not the signal area is an area indicating the target signal.

本発明によれば、撮影画像に映り込んだ信号機の信号を高精度に認識することができる。   According to the present invention, it is possible to recognize a signal of a traffic signal reflected in a captured image with high accuracy.

図1は、情報処理装置の一例の説明図である。FIG. 1 is an explanatory diagram of an example of an information processing apparatus. 図2は、実施形態の情報処理装置が有する機能の一例を示す図である。FIG. 2 is a diagram illustrating an example of functions of the information processing apparatus according to the embodiment. 図3は、横方向に配置される信号機の青信号を示す信号領域を示す図である。FIG. 3 is a diagram showing a signal area indicating a green signal of a traffic light arranged in the horizontal direction. 図4は、横方向に配置される信号機の赤信号を示す信号領域を示す図である。FIG. 4 is a diagram showing a signal area indicating a red signal of a traffic light arranged in the horizontal direction. 図5は、信号領域認識部の認識結果の一例を示す図である。FIG. 5 is a diagram illustrating an example of a recognition result of the signal region recognition unit. 図6は、複数の信号機を認識した結果の例を示す図である。FIG. 6 is a diagram illustrating an example of a result of recognizing a plurality of traffic lights. 図7は、任意の1つの時間帯における2次元の特徴量ベクトルの分布の例を示す図である。FIG. 7 is a diagram illustrating an example of the distribution of a two-dimensional feature vector in any one time zone. 図8は、時間帯判別部の詳細な構成例を示す図である。FIG. 8 is a diagram illustrating a detailed configuration example of the time zone determination unit. 図9は、基準撮影画像における、平均輝度(Iav)と低輝度ブロック数(Nblk)によって示されるサンプル点の一例を示す図である。FIG. 9 is a diagram illustrating an example of sample points indicated by the average luminance (Iav) and the number of low luminance blocks (Nblk) in the reference photographed image. 図10は、画素値の(U、V)空間での閾値処理で抽出した赤信号の画素例を示す図である。FIG. 10 is a diagram illustrating a pixel example of a red signal extracted by threshold processing in a (U, V) space of pixel values. 図11は、信号画素領域を膨張処理した後の画像例を示す図である。FIG. 11 is a diagram illustrating an example of an image after the signal pixel region is expanded. 図12は、Hough変換により抽出した赤信号の円領域を示す図である。FIG. 12 is a diagram illustrating a circular region of a red signal extracted by the Hough transform. 図13は、信号領域決定部によって決定された信号領域を示す図である。FIG. 13 is a diagram illustrating signal regions determined by the signal region determination unit. 図14は、認識処理部の動作例を示すフローチャートである。FIG. 14 is a flowchart illustrating an operation example of the recognition processing unit. 図15は、撮影装置のハードウェア構成の一例を示す図である。FIG. 15 is a diagram illustrating an example of a hardware configuration of the photographing apparatus. 図16は、情報処理装置のハードウェア構成例を示すブロック図である。FIG. 16 is a block diagram illustrating a hardware configuration example of the information processing apparatus.

以下、添付図面を参照しながら、本発明に係る情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施の形態の情報処理装置10の一例の説明図である。情報処理装置10は、例えば、移動体に搭載されている。移動体は、自立走行または牽引などにより、実空間において位置移動の可能な物体である。移動体は、例えば、車両、飛行機、電車、台車、などである。本実施の形態では、移動体が車両20である場合を一例として説明する。すなわち、本実施の形態では、情報処理装置10を車両20に搭載した形態を一例として説明する。   FIG. 1 is an explanatory diagram of an example of the information processing apparatus 10 according to the present embodiment. The information processing apparatus 10 is mounted on a moving body, for example. A moving body is an object that can move in real space by self-running or towing. The moving body is, for example, a vehicle, an airplane, a train, a carriage, or the like. In the present embodiment, a case where the moving body is the vehicle 20 will be described as an example. That is, in the present embodiment, an example in which the information processing apparatus 10 is mounted on the vehicle 20 will be described.

車両20には、撮影装置12が搭載されている。撮影装置12は、車両20の周辺を撮影した撮影画像を得る。撮影装置12は、例えば、公知のビデオカメラや、デジタルカメラなどである。本実施の形態では、撮影装置12は、車両20の周辺を連続して撮影することで、複数の撮影画像(すなわち、複数のフレーム)を撮影する。なお、撮影装置12は、情報処理装置10と一体的に構成してもよいし、情報処理装置10と別体として構成してもよい。   A photographing device 12 is mounted on the vehicle 20. The photographing device 12 obtains a photographed image obtained by photographing the periphery of the vehicle 20. The imaging device 12 is, for example, a known video camera or digital camera. In the present embodiment, the imaging device 12 captures a plurality of captured images (that is, a plurality of frames) by continuously capturing the periphery of the vehicle 20. The imaging device 12 may be configured integrally with the information processing device 10 or may be configured separately from the information processing device 10.

また、撮影装置12は、車両20に搭載した形態に限定されない。撮影装置12は、信号機30を撮影可能な位置に設置されていればよく、地面に対して固定されていてもよい。なお、本実施の形態の情報処理装置10で検知した検知結果を、車両20の運転者の運転支援などに用いる場合には、撮影装置12は、車両20に搭載した形態であることが好ましい。   Moreover, the imaging device 12 is not limited to the form mounted on the vehicle 20. The imaging device 12 only needs to be installed at a position where the traffic light 30 can be imaged, and may be fixed to the ground. When the detection result detected by the information processing apparatus 10 according to the present embodiment is used for driving assistance of the driver of the vehicle 20, the photographing apparatus 12 is preferably mounted on the vehicle 20.

本実施形態では、撮影装置12は、オートゲインコントロール(AGC)機能を搭載している。このため、撮影装置12は、感度を自動調整し、撮影画像の全画面の明るさが最適となるように自動調整した撮影画像を得る。   In the present embodiment, the photographing apparatus 12 has an auto gain control (AGC) function. For this reason, the imaging device 12 automatically adjusts the sensitivity and obtains a captured image that is automatically adjusted so that the brightness of the entire screen of the captured image is optimal.

情報処理装置10は、撮影画像を解析する。そして、情報処理装置10は、撮影画像に含まれる信号機30を検出する。   The information processing apparatus 10 analyzes the captured image. Then, the information processing apparatus 10 detects the traffic light 30 included in the captured image.

次に、情報処理装置10が有する機能の一例を説明する。図2は、情報処理装置10が有する機能の一例を示すブロック図である。説明の便宜上、ここでは、本実施形態に関する機能を主に例示しているが、情報処理装置10が有する機能はこれらに限られるものではない。   Next, an example of functions that the information processing apparatus 10 has will be described. FIG. 2 is a block diagram illustrating an example of functions that the information processing apparatus 10 has. For convenience of explanation, functions related to the present embodiment are mainly exemplified here, but the functions of the information processing apparatus 10 are not limited to these.

情報処理装置10は、インタフェース部14と、認識処理部16と、記憶部18と、を備える。インタフェース部14および記憶部18は、認識処理部16に電気的に接続されている。   The information processing apparatus 10 includes an interface unit 14, a recognition processing unit 16, and a storage unit 18. The interface unit 14 and the storage unit 18 are electrically connected to the recognition processing unit 16.

インタフェース部14は、撮影装置12から撮影画像を受付ける。撮影装置12は、車両20の周辺を経時的に連続して撮影し、撮影によって得られた撮影画像(この例ではカラー画像)の各々を、撮影順に順次、インタフェース部14へ出力する。インタフェース部14は、撮影装置12から撮影画像を順次受け付け、受け付けた順に、認識処理部16へ順次出力する。   The interface unit 14 receives a photographed image from the photographing apparatus 12. The imaging device 12 continuously captures the periphery of the vehicle 20 over time, and outputs each of the captured images (color images in this example) obtained by capturing to the interface unit 14 sequentially in the order of shooting. The interface unit 14 sequentially receives captured images from the imaging device 12 and sequentially outputs them to the recognition processing unit 16 in the order of reception.

記憶部18は、各種データを記憶する。本実施の形態では、記憶部18は、時間帯認識辞書DB18Aと、対象信号識別辞書DB18Bを有し、時間帯認識辞書DB18Aは時間帯認識辞書を保持し、対象信号識別辞書DB18Bは対象信号識別辞書を保持する。これらの詳細については後述する。   The storage unit 18 stores various data. In the present embodiment, the storage unit 18 includes a time zone recognition dictionary DB 18A and a target signal identification dictionary DB 18B. The time zone recognition dictionary DB 18A holds a time zone recognition dictionary, and the target signal identification dictionary DB 18B is a target signal identification. Keep a dictionary. Details of these will be described later.

認識処理部16は、撮影画像を解析し、撮影画像に映り込んだ信号機の信号を認識(検出)する。図2に示すように、認識処理部16は、画像取得部101と、信号領域認識部102と、判断部103と、時間帯判別部104と、位置情報取得部105と、選択部106と、出力部107と、を含む。信号領域認識部102は、候補領域認識部111と、信号形状認識部112と、信号領域決定部113とを含む。   The recognition processing unit 16 analyzes the captured image and recognizes (detects) the signal of the traffic light reflected in the captured image. As shown in FIG. 2, the recognition processing unit 16 includes an image acquisition unit 101, a signal region recognition unit 102, a determination unit 103, a time zone determination unit 104, a position information acquisition unit 105, a selection unit 106, And an output unit 107. The signal region recognition unit 102 includes a candidate region recognition unit 111, a signal shape recognition unit 112, and a signal region determination unit 113.

画像取得部101、信号領域認識部102、判断部103、時間帯判別部104、位置情報取得部105、選択部106、出力部107の一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。   Some or all of the image acquisition unit 101, the signal region recognition unit 102, the determination unit 103, the time zone determination unit 104, the position information acquisition unit 105, the selection unit 106, and the output unit 107 are, for example, a CPU (Central Processing Unit) or the like. The processing apparatus may execute a program, that is, may be realized by software, may be realized by hardware such as an IC (Integrated Circuit), or may be realized by using software and hardware in combination. Good.

画像取得部101は、「取得部」の一例であり、撮影画像を取得する。この例では、画像取得部101は、インタフェース部14から順次に入力される撮影画像(動画像)を取得する。つまり、画像取得部101は、車両に搭載された撮影装置12によって撮影された撮影画像を取得する。   The image acquisition unit 101 is an example of an “acquisition unit”, and acquires a captured image. In this example, the image acquisition unit 101 acquires captured images (moving images) sequentially input from the interface unit 14. That is, the image acquisition unit 101 acquires a captured image captured by the imaging device 12 mounted on the vehicle.

信号領域認識部102は、画像取得部101により取得された撮影画像のうち、信号機の信号を示す信号領域を認識する。この例では、信号領域認識部102は、候補領域認識部111と、信号形状認識部112と、信号領域決定部113と、を含む。信号領域の具体的な認識方法については後述するが、信号領域決定部113は、候補領域認識部111の認識結果と、信号形状認識部112の認識結果とを受けて、信号領域を決定する。図3は、横方向に配置される信号機の青信号を示す信号領域を示す図であり、図4は、横方向に配置される信号機の赤信号を示す信号領域を示す図である。国や地域によって信号機の形は異なる。図3および図4は、日本における信号機の例を示す図である。   The signal area recognizing unit 102 recognizes a signal area indicating a signal from the traffic light among the captured images acquired by the image acquiring unit 101. In this example, the signal area recognition unit 102 includes a candidate area recognition unit 111, a signal shape recognition unit 112, and a signal region determination unit 113. Although a specific method for recognizing the signal region will be described later, the signal region determination unit 113 determines the signal region based on the recognition result of the candidate region recognition unit 111 and the recognition result of the signal shape recognition unit 112. FIG. 3 is a diagram showing a signal area indicating a blue signal of a traffic light arranged in the horizontal direction, and FIG. 4 is a diagram showing a signal area showing a red signal of the traffic light arranged in the horizontal direction. The shape of the traffic light varies depending on the country and region. 3 and 4 are diagrams showing examples of traffic lights in Japan.

図5は、信号領域認識部102の認識結果の一例を示す図である。画像の原点は撮影画像(入力画像)の左上の点Oとする。左右方向の横軸はxで、下向きの縦軸はyとする。ここでは、信号領域の認識結果は、点灯する信号を囲む矩形の領域で表される。信号領域の具体的な認識方法については後述する。また、ここでは、認識された矩形領域の左上の座標P(X,Y)が信号領域の認識結果として出力される。Yは、画面の一番上から、認識された矩形領域の左上の点Pまでの距離を示す。このYは、検出対象となる信号機の信号を判別するための一つの特徴量となる。Xは、画面の一番左から、認識された矩形領域の左上の点Pまでの距離を示す。このXも、検出対象となる信号機の信号を判別するための一つの特徴量となる。また、ここでは、認識された矩形領域の幅をW、高さをHとする。説明の便宜上、矩形領域はW=Hの正方形とする。   FIG. 5 is a diagram illustrating an example of a recognition result of the signal area recognition unit 102. The origin of the image is a point O at the upper left of the captured image (input image). The horizontal axis in the horizontal direction is x, and the vertical axis in the downward direction is y. Here, the recognition result of the signal area is represented by a rectangular area surrounding the signal to be lit. A specific method for recognizing the signal area will be described later. Here, the upper left coordinate P (X, Y) of the recognized rectangular area is output as the recognition result of the signal area. Y indicates the distance from the top of the screen to the upper left point P of the recognized rectangular area. This Y is one feature value for discriminating the signal of the traffic signal to be detected. X represents the distance from the leftmost part of the screen to the upper left point P of the recognized rectangular area. This X is also one feature amount for discriminating the signal of the traffic signal to be detected. Here, the width of the recognized rectangular area is W and the height is H. For convenience of explanation, the rectangular area is a square of W = H.

図6は、複数の信号機を認識した結果の例を示す図である。認識結果Aは、対象信号機の赤信号を示す信号領域である。認識結果Bは、遠方に存在する信号機の青信号を示す信号領域であり、対象信号(検出対象となる信号機の信号)の領域ではない。認識結果Cは、垂直方向の道路の青信号の信号を示す信号領域であり、対象信号の領域ではない。認識結果D〜Fは誤認識の結果を示す(対象信号の領域ではない)。信号機の認識結果は、赤信号、黄信号および青信号の各々を表す(Cr,Cy,Cg)の形で記述する。(Cr,Cy,Cg)のそれぞれの要素は1か0の値である。数値「1」は該当する色の信号が検知されたことを意味する。(1,0,0)は赤信号が検知されたことを表し、(0,1,0)は黄信号が検知されたことを表し、(0,0,1)は青信号が検知されたことを表す。   FIG. 6 is a diagram illustrating an example of a result of recognizing a plurality of traffic lights. The recognition result A is a signal area indicating a red signal of the target traffic light. The recognition result B is a signal region indicating a blue signal of a traffic light that exists far away, and is not a region of a target signal (signal of a traffic signal to be detected). The recognition result C is a signal area indicating a green signal of a road in the vertical direction, and is not a target signal area. Recognition results D to F indicate misrecognition results (not target signal areas). The recognition result of the traffic light is described in the form of (Cr, Cy, Cg) representing each of the red signal, the yellow signal, and the blue signal. Each element of (Cr, Cy, Cg) has a value of 1 or 0. The numerical value “1” means that the corresponding color signal is detected. (1, 0, 0) indicates that a red signal has been detected, (0, 1, 0) indicates that a yellow signal has been detected, and (0, 0, 1) indicates that a blue signal has been detected. Represents.

図2に戻って説明を続ける。判断部103は、検出対象となる信号機(対象信号機)の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、信号領域認識部102により認識された信号領域と、に基づいて、該信号領域が、対象信号を示す領域であるか否かを判断する。対象信号識別情報は、SVM(Support Vector Machine)を用いた機械学習方法を利用して予め作成される。より具体的には、対象信号識別情報は、撮影画像のうち対象信号の領域と、対象信号とは異なる信号の領域を示す誤認識領域との分離面を示す評価関数である。   Returning to FIG. 2, the description will be continued. The determination unit 103 is based on target signal identification information determined in advance for identifying a target signal indicating a signal of a signal device (target signal device) to be detected and a signal region recognized by the signal region recognition unit 102. Thus, it is determined whether or not the signal area is an area indicating the target signal. The target signal identification information is created in advance using a machine learning method using SVM (Support Vector Machine). More specifically, the target signal identification information is an evaluation function that indicates a separation plane between a target signal area and a misrecognition area indicating a signal area different from the target signal in the captured image.

信号領域認識部102による認識結果の特徴量(Cr,Cy,Cg,W,X,Y)を6次元の特徴量ベクトルとする。実際には6次元の特徴量ベクトル(ベクトルデータ)により対象信号を判別するが、説明の便宜上、2次元の特徴量ベクトルの例を説明する。信号領域認識部102による認識結果を表す2次元の特徴量ベクトルが、対象信号(以下では「赤信号」を例に挙げて説明するが、他の色の信号も同様に考えることができる)を示すか否かを識別するための対象信号識別情報を作成する場合、対象信号の検出に用いられる撮影画像とは別に、この検出処理より前に、対象地域の複数の時間帯ごとに、予め撮影装置12によって対象信号機を撮影した画像(信号画像と称する)を集める。そして、複数の時間帯ごとに、信号画像に映り込んだ赤信号の信号領域の幅Wと、画面上端からの距離Yとを含む特徴量ベクトル(2次元の特徴量ベクトル)を求める。図7は、任意の1つの時間帯における2次元の特徴量ベクトルの分布の例を示す図である。図7の例では、信号領域の幅(サイズ)Wが比較的に大きく、かつ、画面上端からの距離Yが比較的に小さい信号領域の特徴量ベクトルは、対象信号の領域を表す特徴量データであり、左上の白い矩形の集合である。一方、信号領域の幅Wが比較的に小さく、かつ、画面上端からの距離Yが比較的に大きい信号領域の特徴量ベクトルは、対象信号とは異なる信号(例えば遠方に存在する信号)の領域(誤認識領域)を表す特徴量データであり、右下の黒円の集合である。   The feature amount (Cr, Cy, Cg, W, X, Y) of the recognition result by the signal region recognition unit 102 is set as a six-dimensional feature amount vector. Actually, the target signal is discriminated based on a six-dimensional feature vector (vector data). For convenience of explanation, an example of a two-dimensional feature vector will be described. A two-dimensional feature vector representing a recognition result by the signal area recognition unit 102 is a target signal (hereinafter described by taking “red signal” as an example, but signals of other colors can be considered in the same manner). When creating target signal identification information for identifying whether or not to show, separately from the captured image used for detection of the target signal, before the detection process, the image is captured in advance for each of a plurality of time zones in the target area. An image (referred to as a signal image) obtained by photographing the target traffic signal with the device 12 is collected. Then, a feature quantity vector (two-dimensional feature quantity vector) including the width W of the signal area of the red signal reflected in the signal image and the distance Y from the upper end of the screen is obtained for each of a plurality of time zones. FIG. 7 is a diagram illustrating an example of the distribution of a two-dimensional feature vector in any one time zone. In the example of FIG. 7, the feature quantity vector of the signal area where the width (size) W of the signal area is relatively large and the distance Y from the upper end of the screen is relatively small is feature quantity data representing the area of the target signal. It is a set of white rectangles in the upper left. On the other hand, the feature quantity vector of the signal area in which the width W of the signal area is relatively small and the distance Y from the upper end of the screen is relatively large is an area of a signal different from the target signal (for example, a signal existing far away). This is feature amount data representing (misrecognition region), and is a set of black circles on the lower right.

ここでは、判断部103は、対象信号の領域の特徴量データ(正解データ)の集合と、誤認識領域の特徴量データの集合とを分離する分離面を、マージンdが最大となるように配置する。そして、判断部103は、この分離面(図7の例では直線L)を示す評価関数を、対象信号識別辞書18Bとして予め算出(学習により算出)しておくことができる。なお、この例では、評価関数を算出する主体は判断部103であるとして説明したが、これに限らず、評価関数を算出する主体は判断部103以外の他の機能であってもよい。   Here, the determination unit 103 arranges the separation plane that separates the set of feature amount data (correct data) in the target signal region and the set of feature amount data in the erroneous recognition region so that the margin d is maximized. To do. Then, the determination unit 103 can previously calculate (calculate by learning) an evaluation function indicating this separation plane (the straight line L in the example of FIG. 7) as the target signal identification dictionary 18B. In this example, it has been described that the subject that calculates the evaluation function is the determination unit 103, but the present invention is not limited thereto, and the subject that calculates the evaluation function may be a function other than the determination unit 103.

上記評価関数は、例えば以下の式(1)のような線形識別関数で表されるが、これに限らず、他の非線形識別関数であってもよい。以下の式(1)におけるA,B,Cは評価関数の係数である。ここでは、この評価関数が「対象信号識別情報」に対応する。

Figure 2018072884
The evaluation function is represented by a linear discriminant function such as the following formula (1), but is not limited to this, and may be another non-linear discriminant function. A, B, and C in the following formula (1) are coefficients of the evaluation function. Here, this evaluation function corresponds to “target signal identification information”.
Figure 2018072884

判断部103は、信号領域認識部102による認識結果を示す特徴量データ(信号領域認識部102により認識された信号領域に相当)を上記評価関数に代入して、評価関数f(W,Y)の値を算出する。そして、算出した評価関数f(W,Y)の値が予め定めた閾値以上であれば、判断部103は、信号領域認識部102による認識結果を示す特徴量データは、対象信号の領域を表すと判断する。一方、算出した評価関数f(W,Y)の値が閾値未満であれば、判断部103は、信号領域認識部102による認識結果を示す特徴量データは、対象信号の領域を表すものではないと判断する。   The determination unit 103 substitutes feature amount data (corresponding to the signal region recognized by the signal region recognition unit 102) indicating the recognition result by the signal region recognition unit 102 into the evaluation function, and evaluates the evaluation function f (W, Y). Is calculated. If the value of the calculated evaluation function f (W, Y) is equal to or greater than a predetermined threshold value, the determination unit 103 indicates that the feature amount data indicating the recognition result by the signal region recognition unit 102 represents the region of the target signal. Judge. On the other hand, if the value of the calculated evaluation function f (W, Y) is less than the threshold value, the determination unit 103 does not represent the feature amount data indicating the recognition result by the signal region recognition unit 102 as the region of the target signal. Judge.

以上においては、正解であるか否かを判断する対象となる認識結果を示す特徴量データは2次元の特徴量ベクトルである場合を例に挙げて説明したが、次元数は任意に変更可能である。例えば6次元の場合、正解データの集合と、誤認識領域の特徴量データの集合とを分離する分離面を示す評価関数f(Cr,Cy,Cg,W,X,Y)は、以下の式(2)で表される。

Figure 2018072884
In the above description, the case has been described in which the feature amount data indicating the recognition result that is the target of determining whether the answer is correct is a two-dimensional feature amount vector. However, the number of dimensions can be arbitrarily changed. is there. For example, in the case of 6 dimensions, an evaluation function f (Cr, Cy, Cg, W, X, Y) indicating a separation surface that separates a set of correct answer data and a set of feature amount data in a misrecognized region is expressed by the following equation: It is represented by (2).
Figure 2018072884

この場合、信号領域認識部102による認識結果を示す特徴量データ(Cr,Cy,Cg,W,X,Y)は6次元のベクトルデータであり、判断部103は、この特徴量データ(Cr,Cy,Cg,W,X,Y)を上記評価関数に代入して、評価関数f(Cr,Cy,Cg,W,X,Y)の値を算出する。そして、算出した評価関数f(Cr,Cy,Cg,W,X,Y)の値が予め定めた閾値以上であれば、判断部103は、信号領域認識部102による認識結果を示す特徴量データは、対象信号の領域を表すと判断する。一方、算出した評価関数f(Cr,Cy,Cg,W,X,Y)の値が閾値未満であれば、判断部103は、信号領域認識部102による認識結果を示す特徴量データは、対象信号の領域を表すものではないと判断する。   In this case, the feature amount data (Cr, Cy, Cg, W, X, Y) indicating the recognition result by the signal region recognition unit 102 is 6-dimensional vector data, and the determination unit 103 uses the feature amount data (Cr, Cy, Cg, W, X, Y) is substituted into the evaluation function, and the value of the evaluation function f (Cr, Cy, Cg, W, X, Y) is calculated. If the value of the calculated evaluation function f (Cr, Cy, Cg, W, X, Y) is equal to or greater than a predetermined threshold value, the determination unit 103 indicates feature amount data indicating a recognition result by the signal region recognition unit 102. Is determined to represent the region of the target signal. On the other hand, if the value of the calculated evaluation function f (Cr, Cy, Cg, W, X, Y) is less than the threshold value, the determination unit 103 uses the feature amount data indicating the recognition result by the signal region recognition unit 102 as the target It is determined that it does not represent a signal area.

ここでは、時間帯と、国または地域との組み合わせごとに、事前学習により評価関数を作成しておき、対象信号識別辞書DB18Bに格納しておく。判断部103は、後述の選択部106により選択された評価関数と、信号領域認識部102による認識結果を示す特徴量データと、に基づいて、信号領域認識部102による認識結果を示す特徴量データが、対象信号の領域を示すか否かを判断する。   Here, an evaluation function is created by prior learning for each combination of time zone and country or region, and stored in the target signal identification dictionary DB 18B. Based on the evaluation function selected by the selection unit 106 (to be described later) and the feature amount data indicating the recognition result by the signal region recognition unit 102, the determination unit 103 indicates feature amount data indicating the recognition result by the signal region recognition unit 102. Determines whether it indicates the region of the target signal.

出力部107は、対象信号を示す領域であると判断された特徴量データ(信号領域認識部102による認識結果を示す特徴量データ)に対応する信号領域を、認識結果として出力する。   The output unit 107 outputs, as a recognition result, a signal region corresponding to feature amount data (feature amount data indicating a recognition result by the signal region recognition unit 102) determined to be a region indicating the target signal.

時間帯判別部104は、画像取得部101により取得された撮影画像が撮影された時間帯を判別する。時間帯判別部104は、撮影画像を解析することによって、該撮影画像の撮影時間帯を判別する。   The time zone discriminating unit 104 discriminates the time zone when the captured image acquired by the image acquisition unit 101 was captured. The time zone discriminating unit 104 discriminates the shooting time zone of the captured image by analyzing the captured image.

撮影時間帯とは、1日(24時間)を撮影環境の互いに異なる複数の時間帯に分割したものである。撮影環境が異なる、とは、光強度が異なることを意味する。例えば、撮影時間帯は、昼、または、夜、である。なお、撮影時間帯は、昼、夜、夕方、であってもよい。また、撮影時間帯は、1日を撮影環境の異なる複数の時間帯に分割した、各時間帯であればよく、昼、夜、夕方、などに限定されない。また撮影時間帯は、2種類や3種類に限定されず、4種類以上であってもよい。また、撮影時間帯は、撮影画像の撮影環境(例えば、季節、国、地域、北半球・南半球)に応じて、適宜、設定すればよい。   The shooting time zone is obtained by dividing one day (24 hours) into a plurality of time zones having different shooting environments. Different shooting environments mean different light intensities. For example, the shooting time zone is daytime or night. The shooting time zone may be daytime, nighttime, evening. The shooting time zone may be any time zone obtained by dividing one day into a plurality of time zones having different shooting environments, and is not limited to daytime, night, evening, or the like. Also, the shooting time period is not limited to two or three types, and may be four or more types. The shooting time zone may be set as appropriate according to the shooting environment of the shot image (for example, the season, country, region, northern hemisphere / southern hemisphere).

本実施形態では、一例として、撮影時間帯が、昼または夜を示す場合を説明する。撮影時間帯が昼を示す、とは、撮影環境の光強度が閾値以上の時間帯である。撮影時間帯が夜である、とは、撮影環境の光強度が該閾値未満の時間帯である。この光強度の閾値には、予め任意の値を定めればよい。例えば、この光強度の閾値には、処理対象の撮影画像Pを撮影した撮影装置12のオートゲインコントロール機能によって、撮影画像Pに含まれる信号機30の信号30Aを示す領域の光量が飽和し始める(または飽和が解除される)光強度を定めればよい。   In the present embodiment, as an example, a case where the shooting time zone indicates day or night will be described. The shooting time zone indicates daytime is a time zone in which the light intensity of the shooting environment is equal to or greater than a threshold value. The shooting time zone is night is a time zone in which the light intensity of the shooting environment is less than the threshold value. An arbitrary value may be set in advance as the threshold value of the light intensity. For example, the light intensity threshold starts to saturate in the region indicating the signal 30 </ b> A of the traffic light 30 included in the captured image P by the auto gain control function of the imaging device 12 that captured the captured image P to be processed ( Alternatively, the light intensity may be determined.

時間帯判別部104は、画像取得部101により取得された撮影画像の輝度を用いて、撮影画像の撮影時間帯を判別する。詳細には、図8に示すように、時間帯判別部104は、第1の算出部116Hと、第2の算出部116Iと、第3の算出部116Jと、を含む。   The time zone discrimination unit 104 discriminates the shooting time zone of the shot image using the luminance of the shot image acquired by the image acquisition unit 101. Specifically, as shown in FIG. 8, the time zone determination unit 104 includes a first calculation unit 116H, a second calculation unit 116I, and a third calculation unit 116J.

第1の算出部116Hは、撮影画像の平均輝度を算出する。第1の算出部116Hは、撮影画像に含まれる画素の各々の輝度値の平均値を算出する。これにより、第1の算出部116Hは、撮影画像の平均輝度を算出する。撮影時間帯が昼の場合、撮影画像の平均輝度は高い。一方、撮影時間帯が夜の場合、撮影画像の平均輝度は、昼より低い。   The first calculation unit 116H calculates the average luminance of the captured image. The first calculation unit 116H calculates an average value of the luminance values of the pixels included in the captured image. Thereby, the first calculation unit 116H calculates the average luminance of the captured image. When the shooting time zone is daytime, the average brightness of the shot image is high. On the other hand, when the shooting time zone is night, the average brightness of the shot image is lower than that of the daytime.

第2の算出部116Iは、撮影画像を複数のブロックに分割する。例えば、第2の算出部116Iは、撮影画像をm×n個のブロックに分割する。なお、mおよびnは、1以上の整数であり、且つ、mおよびnの少なくとも一方は、2以上の整数である。   The second calculation unit 116I divides the captured image into a plurality of blocks. For example, the second calculation unit 116I divides the captured image into m × n blocks. Note that m and n are integers of 1 or more, and at least one of m and n is an integer of 2 or more.

そして、第2の算出部116Iは、ブロックの各々ごとに、平均輝度を算出する。例えば、第2の算出部116Iは、ブロックの各々ごとに、ブロックに含まれる画素の輝度値の平均値を算出する。これにより、第2の算出部116Iは、撮影画像Pに含まれるブロックの各々ごとに、平均輝度を算出する。   Then, the second calculation unit 116I calculates the average luminance for each of the blocks. For example, the second calculation unit 116I calculates the average value of the luminance values of the pixels included in the block for each block. Thereby, the second calculation unit 116I calculates the average luminance for each of the blocks included in the captured image P.

さらに、第2の算出部116Iは、撮影画像における平均輝度が閾値以下のブロックの数を、該撮影画像における低輝度ブロック数として算出する。低輝度ブロック数の算出に用いる平均輝度の閾値には、任意の値を予め定めればよい。   Furthermore, the second calculation unit 116I calculates the number of blocks whose average luminance in the captured image is equal to or less than the threshold as the number of low luminance blocks in the captured image. An arbitrary value may be set in advance as the threshold value of the average luminance used for calculating the number of low luminance blocks.

そして、時間帯判別部104は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、を含む特徴量に基づいて、撮影時間帯を判別する。   Then, the time zone determination unit 104 determines the shooting time zone based on the feature amount including the average luminance of the captured image and the number of low luminance blocks of the captured image.

具体的には、時間帯判別部104は、例えば、撮影画像の平均輝度と撮影画像の低輝度ブロック数を、時間帯判別時の特徴量として用いる。   Specifically, the time zone determination unit 104 uses, for example, the average luminance of the captured image and the number of low luminance blocks of the captured image as the feature amount at the time zone determination.

本実施形態では、時間帯判別部104は、予め、撮影時間帯の判別に用いる時間帯認識辞書18Aを作成する。すなわち、時間帯判別部104は、撮影画像の時間帯判別処理より以前に、予め、時間帯認識辞書18Aを作成する。   In the present embodiment, the time zone determination unit 104 creates a time zone recognition dictionary 18A that is used in advance to determine the shooting time zone. That is, the time zone discrimination unit 104 creates the time zone recognition dictionary 18A in advance before the time zone discrimination process for the captured image.

本実施形態では、時間帯判別部104は、SVM(Support Vector Machine)を用いた機械学習方法を用いて、時間帯認識辞書18Aを予め作成する。   In the present embodiment, the time zone determination unit 104 creates a time zone recognition dictionary 18A in advance using a machine learning method using SVM (Support Vector Machine).

詳細には、時間帯判別部104は、撮影時間帯ごとに予め撮影された複数の撮影画像を基準撮影画像として用いる。   Specifically, the time zone determination unit 104 uses a plurality of taken images taken in advance for each shooting time zone as the reference taken images.

基準撮影画像とは、信号機の信号を示す領域の検出に用いられる撮影画像とは別に、この検出処理より前に、撮影装置12によって予め撮影された撮影画像である。まず、時間帯判別部104は、基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群を、平均輝度と低輝度ブロック数によって定まる二次元空間に登録する。図9は、基準撮影画像における、平均輝度(Iav)と低輝度ブロック数(Nblk)によって示されるサンプル点の一例を示す図である。   The reference photographed image is a photographed image that has been photographed in advance by the photographing device 12 prior to this detection process, separately from the photographed image used for detecting the area indicating the signal of the traffic light. First, the time zone determination unit 104 registers a group of sample points indicated by the average luminance and the number of low luminance blocks in the reference photographed image in a two-dimensional space determined by the average luminance and the number of low luminance blocks. FIG. 9 is a diagram illustrating an example of sample points indicated by the average luminance (Iav) and the number of low luminance blocks (Nblk) in the reference photographed image.

図9中、サンプル点群40Bは、夜を示す撮影時間帯に撮影された基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群である。また、サンプル点群40Aは、昼を示す撮影時間帯に撮影された基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群である。   In FIG. 9, a sample point group 40B is a group of sample points indicated by the average luminance and the number of low luminance blocks in the reference photographed image taken in the photographing time zone indicating night. The sample point group 40A is a group of sample points indicated by the average luminance and the number of low luminance blocks in the reference photographed image taken in the photographing time zone indicating the daytime.

時間帯判別部104は、昼のサンプル点群40Aと夜のサンプル点群40Bとを分離する分離面(ここでは、直線La)を、昼のサンプル点群40Aと夜のサンプル点群40Bの各々の境界線(直線La1および直線La2)間の距離d(マージンと称される場合がある)が最大となるように配置する。そして、時間帯判別部104は、この分離面(図9では、直線La)を示す評価関数を算出する。下記式(3)は、この直線Laを示す評価関数を示す式である。   The time zone discriminating unit 104 uses a separation plane (in this case, a straight line La) to separate the day sample point group 40A and the night sample point group 40B from each of the day sample point group 40A and the night sample point group 40B. Are arranged such that a distance d (sometimes referred to as a margin) between the boundary lines (straight line La1 and straight line La2) is maximized. Then, the time zone determination unit 104 calculates an evaluation function indicating this separation plane (the straight line La in FIG. 9). The following expression (3) is an expression indicating an evaluation function indicating the straight line La.

Figure 2018072884
Figure 2018072884

上記式(3)中、f(Iav,Nblk)は、撮影画像の平均輝度と撮影画像の低輝度ブロック数を時間帯判別時の特徴量として用いた場合の、評価関数である。式(3)中、A、B、およびCは、該評価関数の係数である。ここでは、評価関数f(Iav,Nblk)または係数A、B、およびCが時間帯認識辞書18Aに対応している。   In the above equation (3), f (Iav, Nblk) is an evaluation function when the average luminance of the photographed image and the number of low-luminance blocks of the photographed image are used as the feature quantities at the time zone discrimination. In formula (3), A, B, and C are coefficients of the evaluation function. Here, the evaluation function f (Iav, Nblk) or the coefficients A, B, and C correspond to the time zone recognition dictionary 18A.

時間帯判別部104は、式(3)に示す評価関数を予め作成し、時間帯認識辞書18Aとして予め記憶部18に記憶する。   The time zone discriminating unit 104 creates an evaluation function shown in Expression (3) in advance and stores it in the storage unit 18 in advance as a time zone recognition dictionary 18A.

時間帯判別部104は、撮影画像の撮影時間帯の判別時には、記憶部18に記憶されている時間帯認識辞書18A(式(3)に示す評価関数)を用いて、該撮影画像の撮影時間帯を判別する。   The time zone discriminating unit 104 uses the time zone recognition dictionary 18A (evaluation function shown in Expression (3)) stored in the storage unit 18 to discriminate the shooting time of the shot image when discriminating the shooting time zone of the shot image. Determine the band.

詳細には、時間帯判別部104は、第1の算出部116Hおよび第2の算出部116Iによって算出した、撮影画像の平均輝度(Iav)と低輝度ブロック数(Nblk)を、式(3)に代入することで、評価関数f(Iav,Nblk)の値を算出する。   Specifically, the time zone determination unit 104 calculates the average luminance (Iav) and the number of low luminance blocks (Nblk) of the captured image, which are calculated by the first calculation unit 116H and the second calculation unit 116I, using Equation (3). By substituting into, the value of the evaluation function f (Iav, Nblk) is calculated.

そして、時間帯判別部104は、算出した評価関数f(Iav,Nblk)の値が、予め定めた閾値以上である場合、該撮影画像の撮影時間帯が昼を示すと判別する。一方、時間帯判別部104は、算出した評価関数f(Iav,Nblk)の値が、該閾値未満である場合、該撮影画像の撮影時間帯が夜を示すと判別する。この閾値は、判別対象の撮影時間帯の撮影環境の光強度に応じて、予め定めればよい。   Then, when the value of the calculated evaluation function f (Iav, Nblk) is equal to or greater than a predetermined threshold, the time zone determination unit 104 determines that the shooting time zone of the captured image indicates daytime. On the other hand, when the value of the calculated evaluation function f (Iav, Nblk) is less than the threshold, the time zone determination unit 104 determines that the shooting time zone of the captured image indicates night. This threshold value may be determined in advance according to the light intensity of the shooting environment in the shooting time zone to be determined.

なお、時間帯判別部104は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、該撮影画像におけるブロック毎の平均輝度の分散値と、を含む特徴量に基づいて、撮影時間帯を判別してもよい。   Note that the time zone determination unit 104 is based on the feature amount including the average luminance of the captured image, the number of low-luminance blocks of the captured image, and the variance value of the average luminance for each block in the captured image. The band may be determined.

この場合、時間帯判別部104の第3の算出部116Jが、撮影画像におけるブロック毎の平均輝度の分散値を算出する。第3の算出部116Jは、第2の算出部116Iが分割したブロック毎の、平均輝度の分散値を算出する。例えば、時間帯判別部104は、下記式(4)を用いて、分散値(σ)を算出する。   In this case, the third calculation unit 116J of the time zone determination unit 104 calculates a dispersion value of the average luminance for each block in the captured image. The third calculation unit 116J calculates a dispersion value of the average luminance for each block divided by the second calculation unit 116I. For example, the time zone determination unit 104 calculates the dispersion value (σ) using the following equation (4).

Figure 2018072884
Figure 2018072884

式(4)中、σは、撮影画像におけるブロック毎の平均輝度の分散値を示す。式(4)中、Nは、撮影画像に含まれるブロック数(すなわち、m×nの値)を示す。Iiは、i番目のブロックの平均輝度を示す。Iavは、撮影画像の全体の平均輝度を示す。   In Expression (4), σ represents a dispersion value of average luminance for each block in the captured image. In Expression (4), N indicates the number of blocks included in the captured image (that is, a value of m × n). Ii indicates the average luminance of the i-th block. Iav indicates the average brightness of the entire captured image.

この場合、時間帯判別部104は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、該撮影画像におけるブロック毎の平均輝度の分散値と、を特徴量として用いる時間帯認識辞書18Aを、予め作成すればよい。   In this case, the time zone determination unit 104 uses the average luminance of the captured image, the number of low luminance blocks of the captured image, and the variance value of the average luminance for each block in the captured image as the feature amount. What is necessary is just to produce 18A previously.

すなわち、時間帯判別部104は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、を特徴量として用いる場合と同様に、SVM(Support Vector Machine)を用いた機械学習方法を用いて、時間帯認識辞書18Aを予め作成すればよい。この場合、時間帯判別部104は、基準撮影画像における、平均輝度と低輝度ブロック数と分散値とによって示されるサンプル点の群を、平均輝度と低輝度ブロック数と分散値によって定まる三次元空間に登録すればよい。   That is, the time zone discriminating unit 104 uses a machine learning method using SVM (Support Vector Machine) as in the case of using the average luminance of the photographed image and the number of low-luminance blocks of the photographed image as feature quantities. Thus, the time zone recognition dictionary 18A may be created in advance. In this case, the time zone determination unit 104 determines a group of sample points indicated by the average luminance, the number of low luminance blocks, and the variance value in the reference photographed image as a three-dimensional space determined by the average luminance, the number of low luminance blocks, and the variance value. You can register for.

そして、時間帯判別部104は、上記と同様にして、昼のサンプル点群と夜のサンプル点群とを分離する分離面を、マージンが最大となるように配置する。そして、時間帯判別部104は、この分離面を示す評価関数を、時間帯認識辞書18Aとして算出すればよい。下記式(5)は、撮影画像Pの平均輝度、撮影画像Pの低輝度ブロック数、および分散値を、時間帯判別時の特徴量として用いる場合の、評価関数(時間帯認識辞書18A)である。   Then, in the same manner as described above, the time zone determination unit 104 arranges a separation plane that separates the day sample point group and the night sample point group so that the margin is maximized. Then, the time zone determination unit 104 may calculate an evaluation function indicating this separation plane as the time zone recognition dictionary 18A. The following equation (5) is an evaluation function (time zone recognition dictionary 18A) in the case where the average brightness of the shot image P, the number of low brightness blocks of the shot image P, and the variance value are used as feature quantities at the time zone discrimination. is there.

Figure 2018072884
Figure 2018072884

式(5)中、f(Iav,Nblk,σ)は、撮影画像の平均輝度と撮影画像の低輝度ブロック数と分散値とを時間帯判別時の特徴量として用いる場合の、評価関数(時間帯認識辞書18A)である。式(5)中、A、B、C、およびDは、該評価関数の係数である。   In Expression (5), f (Iav, Nblk, σ) is an evaluation function (time) when the average luminance of the captured image, the number of low-luminance blocks of the captured image, and the variance value are used as the feature quantities at the time zone determination. This is a band recognition dictionary 18A). In equation (5), A, B, C, and D are coefficients of the evaluation function.

このように、時間帯判別部104は、例えば、式(5)に示す評価関数を予め作成し、時間帯認識辞書18Aとして予め記憶部18に記憶してもよい。   Thus, for example, the time zone determination unit 104 may create the evaluation function shown in Expression (5) in advance and store the evaluation function in the storage unit 18 in advance as the time zone recognition dictionary 18A.

この場合、時間帯判別部104は、撮影画像の撮影時間帯の判別時には、記憶部18に記憶されている時間帯認識辞書18A(式(5)に示す評価関数)を用いて、該撮影画像Pの撮影時間帯を判別する。   In this case, the time zone determination unit 104 uses the time zone recognition dictionary 18A (the evaluation function shown in Equation (5)) stored in the storage unit 18 to determine the shooting time zone of the shot image. P shooting time zone is determined.

詳細には、時間帯判別部104は、第1の算出部116H、第2の算出部116I、および第3の算出部116Jの各々によって算出された、撮影画像の平均輝度(Iav)、低輝度ブロック数(Nblk)、および分散値(σ)を得る。そして、時間帯判別部104は、これらの平均輝度(Iav)、低輝度ブロック数(Nblk)、および分散値(σ)を、式(5)に代入することで、評価関数f(Iav,Nblk,σ)の値を算出する。   Specifically, the time zone determination unit 104 calculates the average luminance (Iav) and low luminance of the captured image calculated by each of the first calculation unit 116H, the second calculation unit 116I, and the third calculation unit 116J. The number of blocks (Nblk) and the variance value (σ) are obtained. Then, the time zone determination unit 104 substitutes the average luminance (Iav), the number of low-luminance blocks (Nblk), and the variance (σ) in the equation (5), thereby evaluating the evaluation function f (Iav, Nblk). , Σ) is calculated.

そして、時間帯判別部104は、算出した評価関数f(Iav,Nblk,σ)の値が、予め定めた閾値以上である場合、該撮影画像の撮影時間帯が昼を示すと判別する。一方、時間帯判別部104は、算出した評価関数f(Iav,Nblk,σ)の値が、該閾値未満である場合、該撮影画像の撮影時間帯が夜を示すと判別する。この閾値は、予め定めればよい。   Then, when the value of the calculated evaluation function f (Iav, Nblk, σ) is equal to or greater than a predetermined threshold, the time zone determination unit 104 determines that the shooting time zone of the captured image indicates daytime. On the other hand, when the value of the calculated evaluation function f (Iav, Nblk, σ) is less than the threshold, the time zone determination unit 104 determines that the shooting time zone of the captured image indicates night. This threshold may be determined in advance.

以上のようにして、時間帯判別部104は、画像取得部101により取得された撮影画像が撮影された時間帯を判別し、判別した撮影時間帯を選択部106へ出力する。   As described above, the time zone determination unit 104 determines the time zone in which the captured image acquired by the image acquisition unit 101 was captured, and outputs the determined shooting time zone to the selection unit 106.

図2に戻り、認識処理部16が有する機能の説明を続ける。位置情報取得部105は、自装置の位置情報を取得する。例えば位置情報取得部105は、GPS装置などの外部装置から位置情報を取得することができる。位置情報取得部105は、取得した位置情報を選択部106へ出力する。   Returning to FIG. 2, the description of the functions of the recognition processing unit 16 will be continued. The position information acquisition unit 105 acquires position information of the own device. For example, the position information acquisition unit 105 can acquire position information from an external device such as a GPS device. The position information acquisition unit 105 outputs the acquired position information to the selection unit 106.

選択部106は、時間帯判別部104により判別された時間帯に対応する対象信号識別情報を選択する。また、選択部106は、位置情報取得部105により取得された位置情報(国または地域を特定可能)に対応する対象信号識別情報を選択する。より具体的には、選択部106は、時間帯判別部104により判別された時間帯と、位置情報取得部105により取得された位置情報(国または地域を特定可能)との組み合わせに対応する対象信号識別情報を選択する。   The selection unit 106 selects target signal identification information corresponding to the time zone determined by the time zone determination unit 104. Further, the selection unit 106 selects target signal identification information corresponding to the position information (which can specify the country or region) acquired by the position information acquisition unit 105. More specifically, the selection unit 106 is a target corresponding to a combination of the time zone determined by the time zone determination unit 104 and the location information (country or region can be specified) acquired by the location information acquisition unit 105. Select signal identification information.

次に、信号領域認識部102による信号領域の認識方法について説明する。信号領域認識部102は、画像取得部101により取得された撮影画像のうち、信号機の信号色を示す信号画素を含む信号画素領域を抽出し、その抽出した信号画素領域を膨張した膨張領域に予め定めた形状の定型領域が含まれる場合、該定型領域を含む領域を信号領域として認識する。より具体的には、信号領域認識部102は、膨張領域に円形の定型領域が含まれる場合、該定型領域を含む領域を信号領域として認識する。   Next, a signal area recognition method by the signal area recognition unit 102 will be described. The signal area recognition unit 102 extracts a signal pixel area including a signal pixel indicating the signal color of the traffic light from the captured image acquired by the image acquisition unit 101, and expands the extracted signal pixel area into an expanded area in advance. When a fixed area having a predetermined shape is included, the area including the fixed area is recognized as a signal area. More specifically, when the expansion region includes a circular fixed region, the signal region recognition unit 102 recognizes a region including the fixed region as a signal region.

信号領域認識部102は、候補領域認識部111と、信号形状認識部112と、信号領域決定部113とを含む。候補領域認識部111は、画像取得部101により取得された撮影像画像のうち、信号機の信号色を示す信号画素を含む信号画素領域を候補領域として抽出(認識)する。信号形状認識部112は、候補領域認識部111により認識された候補領域を膨張した膨張領域に予め定めた形状の定型領域が含まれるか否かを認識する。信号領域決定部113は、候補領域認識部111による認識結果と、信号形状認識部112による認識結果とに基づいて、信号領域を決定する。以下、具体的な内容を説明する。   The signal region recognition unit 102 includes a candidate region recognition unit 111, a signal shape recognition unit 112, and a signal region determination unit 113. The candidate area recognition unit 111 extracts (recognizes) a signal pixel area including a signal pixel indicating the signal color of the traffic light as a candidate area from the captured image acquired by the image acquisition unit 101. The signal shape recognition unit 112 recognizes whether or not a fixed region having a predetermined shape is included in the expanded region obtained by expanding the candidate region recognized by the candidate region recognition unit 111. The signal region determination unit 113 determines a signal region based on the recognition result by the candidate region recognition unit 111 and the recognition result by the signal shape recognition unit 112. Specific contents will be described below.

画像取得部101により取得された撮影画像が(R,G,B)色空間の画像データである場合、候補領域認識部111は、画像取得部101により取得されたRGB色空間の撮影画像(入力画像)を、(Y,U,V)色空間の画像データに変更し、信号画素を抽出する。ここで、(R,G,B)の色空間と(Y,U,V)の色空間との変換は以下の式(6)により行われる。

Figure 2018072884
When the captured image acquired by the image acquisition unit 101 is image data in the (R, G, B) color space, the candidate area recognition unit 111 captures the captured image (input of the RGB color space acquired by the image acquisition unit 101) Image) is changed to image data in the (Y, U, V) color space, and signal pixels are extracted. Here, the conversion between the (R, G, B) color space and the (Y, U, V) color space is performed by the following equation (6).
Figure 2018072884

この例では、撮影装置12によって予め信号機の信号を撮影して得られる撮影画像(「信号画像サンプル」と称する)を集めた学習により、信号機の信号の色値の範囲を示す信号認識辞書を予め作成しておく。例えば赤信号を示す(U,V)値分布と、赤信号以外の(U,V)値分布とを分離する分離面を、両者の間のマージン(距離)が最大になるように配置する。そして、その分離面を示す評価関数を、赤信号を認識するための赤信号認識辞書として算出することができる。以下の式(7)は、評価関数を表す式である。式(7)において、f(U,V)は、赤信号認識辞書を示す評価関数であり、a,b,cは、この評価関数の係数である。青信号認識辞書および黄信号認識辞書も同様の方法で作成することができる。

Figure 2018072884
In this example, a signal recognition dictionary that indicates a range of color values of a signal of a traffic light is preliminarily obtained by learning by collecting captured images (referred to as “signal image samples”) obtained by capturing a signal of the traffic light in advance by the photographing device 12. Create it. For example, a separation plane that separates a (U, V) value distribution indicating a red signal from a (U, V) value distribution other than the red signal is arranged so that a margin (distance) between them is maximized. Then, the evaluation function indicating the separation plane can be calculated as a red signal recognition dictionary for recognizing the red signal. The following equation (7) is an equation representing an evaluation function. In Expression (7), f (U, V) is an evaluation function indicating a red signal recognition dictionary, and a, b, and c are coefficients of this evaluation function. The green signal recognition dictionary and the yellow signal recognition dictionary can be created in the same manner.
Figure 2018072884

候補領域認識部111は、(Y,U,V)色空間の撮影画像を構成する画素ごとに、該画素の(U,V)値を、各信号色(赤、黄および青の何れか)に対応する評価関数f(U,V)に代入して、該評価関数f(U,V)の値を求める。算出した評価関数f(U,V)の値が、予め定めた閾値以上であれば、その画素は、対応する信号色の信号画素であると判断する。例えば最小値の閾値と最大値の閾値とを設けて信号画素を抽出してもよい。赤、青、黄色のそれぞれのUの最小値および最大値、Vの最小値および最大値の閾値を設定してもよい。また、信号画素以外の画素の(U、V)値と重ならないように閾値を設定する。   The candidate area recognizing unit 111 sets the (U, V) value of each pixel to each signal color (any one of red, yellow, and blue) for each pixel constituting the captured image in the (Y, U, V) color space. Is substituted into the evaluation function f (U, V) corresponding to, and the value of the evaluation function f (U, V) is obtained. If the value of the calculated evaluation function f (U, V) is equal to or greater than a predetermined threshold value, it is determined that the pixel is a signal pixel having a corresponding signal color. For example, a signal pixel may be extracted by providing a minimum value threshold and a maximum value threshold. You may set the threshold value of the minimum value and maximum value of U of each of red, blue, and yellow, and the minimum value and maximum value of V. Further, the threshold value is set so as not to overlap with the (U, V) values of the pixels other than the signal pixel.

図10は、画素値の(U、V)空間での閾値処理で抽出した赤信号の画素例を示す図である。図10の画像中の信号画素(赤信号を示す画素)を含む信号画素領域では、飽和した画素、ノイズ画素が含まれるので、抽出した信号画素領域は、赤信号を示す実際の領域の一部しかない。そこで、候補領域認識部111は、抽出した信号画素に対して、膨張処理を行う。膨張処理は、1画素に対して、オリジナルの信号画像からN×Nの画素ブロックを加える。例えばN=7のとき、膨張対象の1画素に対して、オリジナルの信号画像から、7×7の画素ブロックを加える。図11は、図10の信号画素領域を膨張処理した後の画像例を示す図である。以下では、膨張処理した後の信号画素領域を「膨張領域」と称する。   FIG. 10 is a diagram illustrating a pixel example of a red signal extracted by threshold processing in a (U, V) space of pixel values. Since the signal pixel area including the signal pixel (the pixel indicating the red signal) in the image of FIG. 10 includes the saturated pixel and the noise pixel, the extracted signal pixel area is a part of the actual area indicating the red signal. There is only. Therefore, the candidate area recognition unit 111 performs an expansion process on the extracted signal pixels. In the dilation process, N × N pixel blocks are added from the original signal image to one pixel. For example, when N = 7, a 7 × 7 pixel block is added from the original signal image to one pixel to be expanded. FIG. 11 is a diagram illustrating an example of an image after the signal pixel area of FIG. 10 is expanded. Hereinafter, the signal pixel area after the expansion process is referred to as an “expansion area”.

信号形状認識部112は、膨張領域に対して、信号形状認識処理を行う。赤、青、黄信号に対して、円形抽出により、形状認識を行う。ここで、膨張領域に対して、円抽出により、形状認識を行う。円抽出処理はHough変換により円抽出を行うことができる。信号形状認識部112により円が抽出された場合、信号領域決定部113は、その抽出された円領域に外接する矩形を求める。そして、信号領域決定部113は、この矩形領域を信号領域として決定し、該信号領域に対応する特徴量(認識結果を示す特徴量データ)を算出する。図12に示す太線で描かれた円は、Hough変換により抽出した赤信号の円領域を示す。図13に示す矩形領域は、信号領域決定部113によって決定された信号領域を示す。図5に示す矩形領域は、図4の撮影画像から認識された候補領域(赤信号を示す信号領域)を示す図である。   The signal shape recognition unit 112 performs signal shape recognition processing on the expansion region. Shape recognition is performed by circular extraction for red, blue and yellow signals. Here, shape recognition is performed on the expansion region by extracting a circle. The circle extraction process can perform circle extraction by Hough conversion. When a circle is extracted by the signal shape recognition unit 112, the signal region determination unit 113 obtains a rectangle that circumscribes the extracted circle region. Then, the signal area determination unit 113 determines this rectangular area as a signal area, and calculates a feature amount (feature amount data indicating a recognition result) corresponding to the signal region. A circle drawn by a thick line in FIG. 12 indicates a red signal circle region extracted by the Hough transform. A rectangular area shown in FIG. 13 indicates a signal area determined by the signal area determination unit 113. The rectangular area shown in FIG. 5 is a diagram showing a candidate area (signal area indicating a red signal) recognized from the captured image of FIG.

図14は、本実施形態の認識処理部16の動作例を示すフローチャートである。各ステップの具体的な内容は上述したとおりであるので、詳細な説明は適宜に省略する。図14に示すように、まず画像取得部101は、撮影画像を取得する(ステップS1)。次に、信号領域認識部102は、ステップS1で取得された撮影画像のうち、信号機の信号を示す信号領域を認識する(ステップS2)。また、以上の処理と並行して、時間帯判別部104は、ステップS1により取得された撮影画像が撮影された時間帯を判別する(ステップS3)。   FIG. 14 is a flowchart illustrating an operation example of the recognition processing unit 16 of the present embodiment. Since the specific contents of each step are as described above, detailed description will be omitted as appropriate. As shown in FIG. 14, first, the image acquisition unit 101 acquires a captured image (step S1). Next, the signal area recognizing unit 102 recognizes a signal area indicating a signal of a traffic light among the captured images acquired in step S1 (step S2). In parallel with the above processing, the time zone determination unit 104 determines the time zone in which the captured image acquired in step S1 was captured (step S3).

次に、選択部106は、ステップS3で判別された時間帯と、位置情報取得部105により取得された位置情報により特定される国または地域との組み合わせに対応する評価関数を選択する(ステップS4)。次に、判断部103は、ステップS2で認識された信号領域(特徴量データ)と、ステップS4で選択された評価関数と、に基づいて、該信号領域が対象信号を示す領域であるか否かを判断する判断処理を行う(ステップS5)。出力部107は、ステップS5の判断処理により、対象信号を示す領域であると判断された信号領域を、認識結果として出力する(ステップS6)。   Next, the selection unit 106 selects an evaluation function corresponding to the combination of the time period determined in step S3 and the country or region specified by the position information acquired by the position information acquisition unit 105 (step S4). ). Next, based on the signal region (feature data) recognized in step S2 and the evaluation function selected in step S4, the determination unit 103 determines whether the signal region is a region indicating the target signal. Judgment processing for judging whether or not is performed (step S5). The output unit 107 outputs, as a recognition result, the signal area determined to be the area indicating the target signal by the determination process in step S5 (step S6).

以上に説明したように、本実施形態では、検出対象となる信号機の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、信号領域認識部102により認識された信号領域と、に基づいて、該信号領域が、対象信号を示す領域であるか否かを判断する。本実施形態によれば、撮影画像に映り込んだ信号機の信号を高精度に認識することができる。   As described above, in the present embodiment, target signal identification information predetermined for identifying a target signal indicating a signal of a traffic signal to be detected, a signal region recognized by the signal region recognition unit 102, and Based on, it is determined whether or not the signal region is a region indicating a target signal. According to the present embodiment, it is possible to recognize a signal of a traffic signal reflected in a captured image with high accuracy.

次に、撮影装置12のハードウェア構成の一例を説明する。図15は、撮影装置12のハードウェア構成の一例を示す図である。   Next, an example of the hardware configuration of the imaging device 12 will be described. FIG. 15 is a diagram illustrating an example of a hardware configuration of the imaging device 12.

撮影装置12は、撮影光学系2010、メカシャッタ2020、モータドライバ2030、CCD(Charge Coupled Device)2040、CDS(Correlated Double Sampling:相関2重サンプリング)回路2050、A/D変換器2060、タイミング信号発生器2070、画像処理回路2080、LCD(Liquid Crystal Display)2090、CPU(Central Processing Unit)2100、RAM(Random Access Memory)2110、ROM(Read Only Memory)2120、SDRAM(Synchronous Dynamic Random Access Memory)2130、圧縮伸張回路2140、メモリ2150、操作部2160、および、出力I/F2170を備える。   The photographing apparatus 12 includes a photographing optical system 2010, a mechanical shutter 2020, a motor driver 2030, a CCD (Charge Coupled Device) 2040, a CDS (Correlated Double Sampling) circuit 2050, an A / D converter 2060, and a timing signal generator. 2070, image processing circuit 2080, LCD (Liquid Crystal Display) 2090, CPU (Central Processing Memory) 2100, RAM (Random Access Memory) 2110, ROM (Read Only Memory 2c) Expansion circuit 2 40 comprises a memory 2150, an operation unit 2160, and an output I / F2170.

画像処理回路2080、CPU2100、RAM2110、ROM2120、SDRAM2130、圧縮伸張回路2140、メモリ2150、操作部2160、および、出力I/F2170は、バス2200を介して接続されている。   The image processing circuit 2080, CPU 2100, RAM 2110, ROM 2120, SDRAM 2130, compression / decompression circuit 2140, memory 2150, operation unit 2160, and output I / F 2170 are connected via a bus 2200.

撮影光学系2010は、被写体の反射光を集光する。メカシャッタ2020は、所定の時間、開くことにより、撮影光学系2010により集光された光をCCD2040に入射させる。モータドライバ2030は、撮影光学系2010およびメカシャッタ2020を駆動する。   The photographing optical system 2010 condenses the reflected light of the subject. The mechanical shutter 2020 is opened for a predetermined time so that the light condensed by the photographing optical system 2010 is incident on the CCD 2040. The motor driver 2030 drives the photographing optical system 2010 and the mechanical shutter 2020.

CCD2040は、メカシャッタ2020を介して入射した光を被写体の像として結像し、当該被写体の像を示すアナログの画像データをCDS回路2050に入力する。   The CCD 2040 forms the light incident through the mechanical shutter 2020 as a subject image, and inputs analog image data representing the subject image to the CDS circuit 2050.

CDS回路2050は、CCD2040からアナログの画像データを受け付けると、当該画像データのノイズ成分を除去する。また、CDS回路2050は、相関二重サンプリングやゲインコントロールなどのアナログ処理を行う。そして、CDS回路2050は、処理後のアナログの画像データを、A/D変換器2060へ出力する。   Upon receiving analog image data from the CCD 2040, the CDS circuit 2050 removes noise components from the image data. The CDS circuit 2050 performs analog processing such as correlated double sampling and gain control. Then, the CDS circuit 2050 outputs the processed analog image data to the A / D converter 2060.

A/D変換器2060は、CDS回路2050からアナログの画像データを受け付けると、当該アナログの画像データをデジタルの画像データに変換する。A/D変換器2060はデジタルの画像データを画像処理回路2080に入力する。タイミング信号発生器2070はCPU2100からの制御信号に応じて、CCD2040、CDS回路2050、およびA/D変換器2060にタイミング信号を送信することにより、CCD2040、CDS回路2050、およびA/D変換器2060の動作タイミングを制御する。   When receiving analog image data from the CDS circuit 2050, the A / D converter 2060 converts the analog image data into digital image data. The A / D converter 2060 inputs digital image data to the image processing circuit 2080. The timing signal generator 2070 transmits a timing signal to the CCD 2040, the CDS circuit 2050, and the A / D converter 2060 in accordance with a control signal from the CPU 2100, whereby the CCD 2040, the CDS circuit 2050, and the A / D converter 2060. Control the operation timing.

画像処理回路2080は、A/D変換器2060からデジタルの画像データを受け付けると、SDRAM2130を使用して、当該デジタルの画像データの画像処理を行う。画像処理は、例えばCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、および、色変換処理等である。   Upon receiving digital image data from the A / D converter 2060, the image processing circuit 2080 uses the SDRAM 2130 to perform image processing on the digital image data. The image processing includes, for example, CrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing.

画像処理回路2080は上述の画像処理が行われた画像データをLCD2090、または、圧縮伸張回路2140に出力する。LCD2090は画像処理回路2080から受け付けた画像データを表示する液晶ディスプレイである。   The image processing circuit 2080 outputs the image data subjected to the above-described image processing to the LCD 2090 or the compression / decompression circuit 2140. The LCD 2090 is a liquid crystal display that displays image data received from the image processing circuit 2080.

圧縮伸張回路2140は、画像処理回路2080から画像データを受け付けると、当該画像データを圧縮する。圧縮伸張回路2140は圧縮された画像データを、メモリ2150に記憶する。また、圧縮伸張回路2140はメモリ2150から画像データを受け付けると、当該画像データを伸張する。圧縮伸張回路2140は伸張された画像データをSDRAM2130に一時的に記憶する。メモリ2150は圧縮された画像データを記憶する。   When receiving the image data from the image processing circuit 2080, the compression / decompression circuit 2140 compresses the image data. The compression / decompression circuit 2140 stores the compressed image data in the memory 2150. When the compression / decompression circuit 2140 receives image data from the memory 2150, the compression / decompression circuit 2140 decompresses the image data. The compression / decompression circuit 2140 temporarily stores the decompressed image data in the SDRAM 2130. The memory 2150 stores the compressed image data.

出力I/F2170は、画像処理回路2080で処理された画像データを、撮影画像Pとして、情報処理装置10へ出力する。   The output I / F 2170 outputs the image data processed by the image processing circuit 2080 to the information processing apparatus 10 as a captured image P.

なお上述の図2で説明したインタフェース部14、および認識処理部16に含まれる機能部の少なくとも一部を、信号処理ボード(信号処理回路)として撮影装置12に実装してもよい。   Note that at least a part of the functional unit included in the interface unit 14 and the recognition processing unit 16 described in FIG. 2 may be mounted on the photographing apparatus 12 as a signal processing board (signal processing circuit).

次に、上記実施の形態の、情報処理装置10のハードウェア構成を説明する。図16は、上記実施形態の情報処理装置10のハードウェア構成例を示すブロック図である。   Next, the hardware configuration of the information processing apparatus 10 according to the above embodiment will be described. FIG. 16 is a block diagram illustrating a hardware configuration example of the information processing apparatus 10 according to the embodiment.

上記実施形態の情報処理装置10は、出力部80、I/F部82、入力部94、CPU86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、およびHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。   In the information processing apparatus 10 according to the above-described embodiment, the output unit 80, the I / F unit 82, the input unit 94, the CPU 86, the ROM (Read Only Memory) 88, the RAM (Random Access Memory) 90, the HDD 92, etc. It is connected to and has a hardware configuration using a normal computer.

CPU86は、上記実施形態の情報処理装置10で実行する処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した記憶部18に格納されるデータを記憶する。I/F部82は、他の装置との間でデータを送受信するためのインタフェースである。   The CPU 86 is an arithmetic device that controls processing executed by the information processing apparatus 10 according to the embodiment. The RAM 90 stores data necessary for various processes by the CPU 86. The ROM 88 stores a program for realizing various processes by the CPU 86 and the like. The HDD 92 stores data stored in the storage unit 18 described above. The I / F unit 82 is an interface for transmitting and receiving data to and from other devices.

上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。   A program for executing the various processes executed by the information processing apparatus 10 of the embodiment is provided by being incorporated in advance in the ROM 88 or the like.

なお、上記実施形態の情報処理装置10で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。   Note that the program executed by the information processing apparatus 10 of the above embodiment is a file in a format that can be installed or executed in these apparatuses, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital It may be configured to be recorded on a computer-readable recording medium such as Versatile Disk).

また、上記実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施形態の情報処理装置10における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。   The program executed by the information processing apparatus 10 of the above embodiment may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. In addition, a program for executing each of the above processes in the information processing apparatus 10 of the above embodiment may be configured to be provided or distributed via a network such as the Internet.

上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。   In the program for executing the various processes executed by the information processing apparatus 10 of the embodiment, the above-described units are generated on the main storage device.

なお、上記HDD92に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。   Various information stored in the HDD 92 may be stored in an external device. In this case, the external device and the CPU 86 may be connected via a network or the like.

10 情報処理装置
14 インタフェース部
16 認識処理部
18 記憶部
101 画像取得部
102 信号領域認識部
103 判断部
104 時間帯判別部
105 位置情報取得部
106 選択部
107 出力部
111 候補領域認識部
112 信号形状認識部
113 信号領域決定部
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 14 Interface part 16 Recognition processing part 18 Storage part 101 Image acquisition part 102 Signal area recognition part 103 Judgment part 104 Time zone discrimination part 105 Position information acquisition part 106 Selection part 107 Output part 111 Candidate area recognition part 112 Signal shape Recognizing unit 113 Signal region determining unit

特開2009−244946号公報JP 2009-244946 A

Claims (9)

撮影画像を取得する取得部と、
前記取得部により取得された前記撮影画像のうち、信号機の信号を示す信号領域を認識する信号領域認識部と、
検出対象となる信号機の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、前記信号領域認識部により認識された前記信号領域と、に基づいて、前記信号領域が、前記対象信号を示す領域であるか否かを判断する判断部と、を備える、
情報処理装置。
An acquisition unit for acquiring a captured image;
A signal area recognition unit for recognizing a signal area indicating a signal of a traffic light among the captured images acquired by the acquisition unit;
Based on the target signal identification information predetermined for identifying the target signal indicating the signal of the traffic signal to be detected, and the signal region recognized by the signal region recognition unit, the signal region is the A determination unit that determines whether or not the region indicates a target signal,
Information processing device.
前記対象信号識別情報は、SVM(Support Vector Machine)を用いた機械学習方法を利用して予め作成される、
請求項1に記載の情報処理装置。
The target signal identification information is created in advance using a machine learning method using SVM (Support Vector Machine).
The information processing apparatus according to claim 1.
前記対象信号識別情報は、前記撮影画像のうち対象信号の領域と、前記対象信号とは異なる信号の領域を示す誤認識領域との分離面を示す評価関数である、
請求項2に記載の情報処理装置。
The target signal identification information is an evaluation function indicating a separation surface between a target signal region of the captured image and a misrecognition region indicating a signal region different from the target signal.
The information processing apparatus according to claim 2.
前記対象信号識別情報は、複数の時間帯ごとに予め定められ、
前記撮影画像が撮影された時間帯を判別する時間帯判別部と、
前記時間帯判別部により判別された時間帯に対応する前記対象信号識別情報を選択する選択部と、をさらに備える、
請求項1乃至3のうちの何れか1項に記載の情報処理装置。
The target signal identification information is predetermined for each of a plurality of time zones,
A time zone discriminating unit for discriminating a time zone in which the captured image was shot;
A selection unit that selects the target signal identification information corresponding to the time zone determined by the time zone determination unit;
The information processing apparatus according to any one of claims 1 to 3.
前記対象信号識別情報は、国または地域ごとに予め定められ、
位置情報を取得する位置情報取得部と、
前記位置情報取得部により取得された位置情報に対応する前記対象信号識別情報を選択する選択部と、をさらに備える、
請求項1乃至4のうちの何れか1項に記載の情報処理装置。
The target signal identification information is predetermined for each country or region,
A location information acquisition unit for acquiring location information;
A selection unit that selects the target signal identification information corresponding to the position information acquired by the position information acquisition unit,
The information processing apparatus according to any one of claims 1 to 4.
前記信号領域認識部は、
前記撮影画像のうち、信号機の信号色を示す信号画素を含む信号画素領域を抽出し、その抽出した前記信号画素領域を膨張した膨張領域に予め定めた形状の定型領域が含まれる場合、該定型領域を含む領域を前記信号領域として認識する、
請求項1乃至5のうちの何れか1項に記載の情報処理装置。
The signal area recognition unit
When a signal pixel region including a signal pixel indicating a signal color of a traffic light is extracted from the photographed image, and a fixed region having a predetermined shape is included in an expanded region obtained by expanding the extracted signal pixel region, the fixed image Recognizing a region including a region as the signal region;
The information processing apparatus according to any one of claims 1 to 5.
前記信号域認識部は、前記膨張領域に円形の前記定型領域が含まれる場合、該定型領域を含む領域を前記信号領域として認識する、
請求項6に記載の情報処理装置。
When the circular region is included in the expansion region, the signal region recognition unit recognizes a region including the fixed region as the signal region.
The information processing apparatus according to claim 6.
撮影画像を取得する取得ステップと、
前記取得ステップにより取得された前記撮影画像のうち、信号機の信号を示す信号領域を認識する信号領域認識ステップと、
検出対象となる信号機の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、前記信号領域認識ステップにより認識された前記信号領域と、に基づいて、前記信号領域が、前記対象信号を示す領域であるか否かを判断する判断ステップと、を含む、
情報処理方法。
An acquisition step of acquiring a captured image;
A signal area recognition step for recognizing a signal area indicating a signal of a traffic light among the captured images acquired by the acquisition step;
Based on the target signal identification information predetermined for identifying the target signal indicating the signal of the traffic signal to be detected and the signal region recognized by the signal region recognition step, the signal region is A determination step of determining whether or not the region indicates a target signal,
Information processing method.
コンピュータに、
撮影画像を取得する取得ステップと、
前記取得ステップにより取得された前記撮影画像のうち、信号機の信号を示す信号領域を認識する信号領域認識ステップと、
検出対象となる信号機の信号を示す対象信号を識別するために予め定められた対象信号識別情報と、前記信号領域認識ステップにより認識された前記信号領域と、に基づいて、前記信号領域が、前記対象信号を示す領域であるか否かを判断する判断ステップと、を実行させるためのプログラム。
On the computer,
An acquisition step of acquiring a captured image;
A signal area recognition step for recognizing a signal area indicating a signal of a traffic light among the captured images acquired by the acquisition step;
Based on the target signal identification information predetermined for identifying the target signal indicating the signal of the traffic signal to be detected and the signal region recognized by the signal region recognition step, the signal region is A determination step of determining whether or not the region indicates a target signal.
JP2016207914A 2016-10-24 2016-10-24 Information processing equipment, information processing methods and programs Active JP6825299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016207914A JP6825299B2 (en) 2016-10-24 2016-10-24 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207914A JP6825299B2 (en) 2016-10-24 2016-10-24 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018072884A true JP2018072884A (en) 2018-05-10
JP6825299B2 JP6825299B2 (en) 2021-02-03

Family

ID=62115413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207914A Active JP6825299B2 (en) 2016-10-24 2016-10-24 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6825299B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020090251A1 (en) * 2018-10-30 2021-09-30 日本電気株式会社 Object recognition device, object recognition method and object recognition program
JP2021536069A (en) * 2019-05-28 2021-12-23 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd Signal indicator status detection method and device, operation control method and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072948A (en) * 2005-09-09 2007-03-22 Matsushita Electric Ind Co Ltd Traffic signal lighting state identification method and apparatus
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP2009042167A (en) * 2007-08-10 2009-02-26 Aisin Aw Co Ltd Image recognition device and program for image recognition device, as well as navigator and program for navigator therewith
JP2012173879A (en) * 2011-02-18 2012-09-10 Toyota Central R&D Labs Inc Traffic signal detection apparatus and program therefor
JP2015089789A (en) * 2013-11-07 2015-05-11 富士重工業株式会社 Vehicle control device
US20150294167A1 (en) * 2012-11-20 2015-10-15 Harman International Industries, Incorporated Method and system for detecting traffic lights
JP2016161973A (en) * 2015-02-26 2016-09-05 株式会社リコー Recognition apparatus, recognition method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072948A (en) * 2005-09-09 2007-03-22 Matsushita Electric Ind Co Ltd Traffic signal lighting state identification method and apparatus
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP2009042167A (en) * 2007-08-10 2009-02-26 Aisin Aw Co Ltd Image recognition device and program for image recognition device, as well as navigator and program for navigator therewith
JP2012173879A (en) * 2011-02-18 2012-09-10 Toyota Central R&D Labs Inc Traffic signal detection apparatus and program therefor
US20150294167A1 (en) * 2012-11-20 2015-10-15 Harman International Industries, Incorporated Method and system for detecting traffic lights
JP2015089789A (en) * 2013-11-07 2015-05-11 富士重工業株式会社 Vehicle control device
JP2016161973A (en) * 2015-02-26 2016-09-05 株式会社リコー Recognition apparatus, recognition method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
関 海克、外2名: ""車載カメラにおける信号機認識およびイベント検知"", 第22回 画像センシングシンポジウム SSII2016, JPN6020035959, 8 June 2016 (2016-06-08), JP, pages 1 - 7, ISSN: 0004351354 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020090251A1 (en) * 2018-10-30 2021-09-30 日本電気株式会社 Object recognition device, object recognition method and object recognition program
US11586856B2 (en) 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP2021536069A (en) * 2019-05-28 2021-12-23 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd Signal indicator status detection method and device, operation control method and device

Also Published As

Publication number Publication date
JP6825299B2 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
CN108364010B (en) License plate recognition method, device, equipment and computer readable storage medium
US20170228606A1 (en) Information processing apparatus, information processing method, and recording medium
US10943141B2 (en) Object detection device and object detection method
KR101409340B1 (en) Method for traffic sign recognition and system thereof
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
JP2010102572A (en) Periphery monitoring device for vehicle
JP2016161973A (en) Recognition apparatus, recognition method, and program
JP6825299B2 (en) Information processing equipment, information processing methods and programs
JP6375911B2 (en) Curve mirror detector
JP6874315B2 (en) Information processing equipment, information processing methods and programs
JP5338762B2 (en) White balance coefficient calculation device and program
JP6939919B2 (en) Recognition device, recognition method and program
JP4706693B2 (en) Vehicle color determination device, vehicle color determination system, and vehicle color determination method
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
JP5441669B2 (en) Image processing apparatus and control method thereof
JP2010136207A (en) System for detecting and displaying pedestrian
JP2014191685A (en) Image processing apparatus and image processing method
JP4457077B2 (en) Obstacle detection system and obstacle detection method
JP5056931B2 (en) Vehicle color determination device, vehicle color determination system, and vehicle color determination method
JP6859659B2 (en) Information processing equipment, information processing methods and programs
JPWO2011155152A1 (en) Vehicle periphery monitoring device
JP6733279B2 (en) Information processing apparatus, information processing method, and information processing program
JP2008040724A (en) Image processing device and image processing method
JP4937243B2 (en) Vehicle periphery monitoring device
US20230230344A1 (en) Signal color determination device and signal color determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R151 Written notification of patent or utility model registration

Ref document number: 6825299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151