JP6874315B2 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP6874315B2
JP6874315B2 JP2016193905A JP2016193905A JP6874315B2 JP 6874315 B2 JP6874315 B2 JP 6874315B2 JP 2016193905 A JP2016193905 A JP 2016193905A JP 2016193905 A JP2016193905 A JP 2016193905A JP 6874315 B2 JP6874315 B2 JP 6874315B2
Authority
JP
Japan
Prior art keywords
region
peripheral
signal
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016193905A
Other languages
Japanese (ja)
Other versions
JP2018055591A (en
Inventor
関 海克
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016193905A priority Critical patent/JP6874315B2/en
Publication of JP2018055591A publication Critical patent/JP2018055591A/en
Application granted granted Critical
Publication of JP6874315B2 publication Critical patent/JP6874315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method and a program.

車載カメラなどの撮影装置で撮影された撮影画像を解析し、撮影画像に含まれる信号機の信号(典型的には点灯している信号)を検出することで、運転者を支援するシステムが知られている。また、信号機の信号を認識するために、信号機の信号色を検出する装置が知られている。 A system that assists the driver by analyzing a captured image taken by a photographing device such as an in-vehicle camera and detecting a signal of a traffic light (typically a lit signal) included in the captured image is known. ing. Further, in order to recognize the signal of the traffic light, a device for detecting the signal color of the traffic light is known.

例えば、特許文献1には、カメラのゲインを2回調整して2枚の撮影画像を取得し、これらの2枚の撮影画像を用いて信号色を検知する方法が開示されている。特許文献1では、1回目の撮影で取得した撮影画像を用いて、2回目の撮影用のゲインを調整する。 For example, Patent Document 1 discloses a method in which the gain of a camera is adjusted twice to acquire two captured images, and the signal color is detected using these two captured images. In Patent Document 1, the gain for the second shooting is adjusted by using the shot image obtained in the first shooting.

しかしながら従来の技術では、ゲインの異なる複数枚の撮影画像が必要であった。また、ゲイン調整の誤差により、検出精度が大幅に低下する場合があった。さらに、撮影画像のうち信号機が映り込んだ領域を検出する前の状態では、撮影画像における信号の位置が不明であることから、信号色を正確に検出可能なゲインの設定は困難であった。 However, in the conventional technique, a plurality of captured images having different gains are required. In addition, the detection accuracy may be significantly reduced due to an error in gain adjustment. Further, in the state before detecting the region of the captured image in which the traffic light is reflected, the position of the signal in the captured image is unknown, so that it is difficult to set the gain that can accurately detect the signal color.

また、カメラゲインを最適に設定しても、信号機の信号と同じ色、同じ形状の物体が現れると、その物体を信号機の信号として誤認識する問題がある。例えば、赤い看板の一部が木に隠れ、見える部分の形状が、赤信号の色を示す円の形になった場合、その赤い看板を、赤信号を示す領域として認識してしまう。従来の技術では、誤認識を削除不可能である。 Further, even if the camera gain is optimally set, if an object having the same color and shape as the signal of the traffic light appears, there is a problem that the object is erroneously recognized as a signal of the traffic light. For example, if a part of the red signboard is hidden by a tree and the visible part is in the shape of a circle indicating the color of the red traffic light, the red signboard is recognized as an area indicating the red traffic light. With conventional technology, false recognition cannot be deleted.

すなわち、従来の技術では、撮影画像に映り込んだ信号機の信号を高精度に認識することは困難であるという問題があった。 That is, with the conventional technique, there is a problem that it is difficult to recognize the signal of the traffic light reflected in the captured image with high accuracy.

本発明は、上記に鑑みてなされたものであって、撮影画像に映り込んだ信号機の信号を高精度に認識することが可能な情報処理装置、情報処理方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information processing device, an information processing method, and a program capable of recognizing a signal of a traffic light reflected in a captured image with high accuracy. To do.

上述した課題を解決し、目的を達成するために、本発明は、撮影画像を取得する取得部と、前記取得部により取得された前記撮影画像のうち、信号機の信号の色と形状に対応する領域を示す候補領域を認識する候補領域認識部と、前記候補領域の周囲の特徴量を示す周囲特徴量データを算出する周囲特徴量データ算出部と、前記信号機の信号の周囲の領域を示す周囲領域を識別するために、国または地域ごとに予め定められた周囲領域識別情報と、前記周囲特徴量データ算出部により算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量データに対応する前記候補領域が前記信号機の信号を示す領域であるか否かを判断する判断部と、位置情報を取得する位置情報取得部と、前記位置情報取得部により取得された位置情報に対応する前記周囲領域識別情報を選択する選択部と、を備える情報処理装置である。 In order to solve the above-mentioned problems and achieve the object, the present invention corresponds to the color and shape of the signal of the signal among the acquisition unit that acquires the captured image and the captured image acquired by the acquisition unit. A candidate area recognition unit that recognizes a candidate area indicating an area, a peripheral feature amount data calculation unit that calculates ambient feature amount data indicating a feature amount around the candidate area, and a periphery indicating an area around the signal of the signal. In order to identify the area, the peripheral area identification information predetermined for each country or region and the peripheral feature amount data calculated by the peripheral feature amount data calculation unit are added to the surrounding feature amount data. Corresponds to the determination unit for determining whether or not the corresponding candidate area is the area indicating the signal of the signal, the position information acquisition unit for acquiring the position information, and the position information acquired by the position information acquisition unit. It is an information processing apparatus including a selection unit for selecting the surrounding area identification information.

本発明によれば、撮影画像に映り込んだ信号機の信号を高精度に認識することができる。 According to the present invention, the signal of the traffic light reflected in the captured image can be recognized with high accuracy.

図1は、情報処理装置の一例の説明図である。FIG. 1 is an explanatory diagram of an example of an information processing device. 図2は、実施形態の情報処理装置が有する機能の一例を示す図である。FIG. 2 is a diagram showing an example of a function of the information processing apparatus of the embodiment. 図3は、横方向に配置する信号機の青信号が点灯していて、青信号に対応する領域が候補領域として認識される場合の例を示す図である。FIG. 3 is a diagram showing an example in which the green light of the traffic light arranged in the horizontal direction is lit and the area corresponding to the green light is recognized as the candidate area. 図4は、横方向に配置する信号機の赤信号が点灯していて、赤信号に対応する領域が候補領域として認識される場合の例を示す図である。FIG. 4 is a diagram showing an example in which the red light of the traffic light arranged in the horizontal direction is lit and the area corresponding to the red light is recognized as the candidate area. 図5は、縦方向に配置する信号機の赤信号が点灯していて、赤信号に対応する領域が候補領域として認識される場合の例を示す図である。FIG. 5 is a diagram showing an example in which the red light of the traffic light arranged in the vertical direction is lit and the area corresponding to the red light is recognized as the candidate area. 図6は、縦方向に配置する信号機の青信号が点灯していて、青信号に対応する領域が候補領域として認識される場合の例を示す図である。FIG. 6 is a diagram showing an example in which the green light of the traffic light arranged in the vertical direction is lit and the area corresponding to the green light is recognized as the candidate area. 図7は、周囲特徴量データの算出方法の説明図である。FIG. 7 is an explanatory diagram of a method of calculating ambient feature amount data. 図8は、周囲特徴量データの算出方法の説明図である。FIG. 8 is an explanatory diagram of a method of calculating ambient feature amount data. 図9は、周囲特徴量データの算出方法の説明図である。FIG. 9 is an explanatory diagram of a method of calculating ambient feature amount data. 図10は、周囲特徴量データの算出方法の説明図である。FIG. 10 is an explanatory diagram of a method of calculating ambient feature amount data. 図11は、周囲特徴量データの別の算出方法の説明図である。FIG. 11 is an explanatory diagram of another calculation method of ambient feature amount data. 図12は、任意の1つの時間帯における画素平均値の分布の例を示す図である。FIG. 12 is a diagram showing an example of the distribution of pixel average values in any one time zone. 図13は、時間帯判別部が有する機能の一例を示す図である。FIG. 13 is a diagram showing an example of the function of the time zone determination unit. 図14は、基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の一例を示す図である。FIG. 14 is a diagram showing an example of sample points indicated by the average luminance and the number of low-luminance blocks in the reference captured image. 図15は、青信号の画素例を示す図である。FIG. 15 is a diagram showing a pixel example of a green signal. 図16は、図15の信号画素領域を膨張処理した後の画素例を示す図である。FIG. 16 is a diagram showing a pixel example after the signal pixel region of FIG. 15 has been expanded. 図17は、Hough変換により抽出した青信号の円領域を示す図である。FIG. 17 is a diagram showing a circular region of a green light extracted by the Hough transform. 図18は、候補領域認識部によって認識された候補領域を示す図である。FIG. 18 is a diagram showing a candidate region recognized by the candidate region recognition unit. 図19は、図3の撮影画像から認識された候補領域(青信号の候補を示す領域)を示す図である。FIG. 19 is a diagram showing a candidate region (a region showing a green light candidate) recognized from the captured image of FIG. 図20は、認識処理部の動作例を示すフローチャートである。FIG. 20 is a flowchart showing an operation example of the recognition processing unit. 図21は、撮影装置のハードウェア構成の一例を示す図である。FIG. 21 is a diagram showing an example of the hardware configuration of the photographing apparatus. 図22は、情報処理装置のハードウェア構成例を示す図である。FIG. 22 is a diagram showing a hardware configuration example of the information processing device.

以下、添付図面を参照しながら、本発明に係る情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。 Hereinafter, embodiments of the information processing apparatus, information processing method, and program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施の形態の情報処理装置10の一例の説明図である。情報処理装置10は、例えば、移動体に搭載されている。移動体は、自立走行または牽引などにより、実空間において位置移動の可能な物体である。移動体は、例えば、車両、飛行機、電車、台車、などである。本実施の形態では、移動体が車両20である場合を一例として説明する。すなわち、本実施の形態では、情報処理装置10を車両20に搭載した形態を一例として説明する。 FIG. 1 is an explanatory diagram of an example of the information processing device 10 of the present embodiment. The information processing device 10 is mounted on a mobile body, for example. A moving body is an object whose position can be moved in real space by self-driving or towing. The moving body is, for example, a vehicle, an airplane, a train, a bogie, or the like. In the present embodiment, the case where the moving body is the vehicle 20 will be described as an example. That is, in the present embodiment, a mode in which the information processing device 10 is mounted on the vehicle 20 will be described as an example.

車両20には、撮影装置12が搭載されている。撮影装置12は、車両20の周辺を撮影した撮影画像を得る。撮影装置12は、例えば、公知のビデオカメラや、デジタルカメラなどである。本実施の形態では、撮影装置12は、車両20の周辺を連続して撮影することで、複数の撮影画像(すなわち、複数のフレーム)を撮影する。なお、撮影装置12は、情報処理装置10と一体的に構成してもよいし、情報処理装置10と別体として構成してもよい。 The vehicle 20 is equipped with a photographing device 12. The photographing device 12 obtains a photographed image of the periphery of the vehicle 20. The photographing device 12 is, for example, a known video camera, a digital camera, or the like. In the present embodiment, the photographing device 12 continuously photographs the periphery of the vehicle 20 to capture a plurality of captured images (that is, a plurality of frames). The photographing device 12 may be integrally configured with the information processing device 10 or may be configured as a separate body from the information processing device 10.

また、撮影装置12は、車両20に搭載した形態に限定されない。撮影装置12は、信号機30を撮影可能な位置に設置されていればよく、地面に対して固定されていてもよい。なお、本実施の形態の情報処理装置10で検知した検知結果を、車両20の運転者の運転支援などに用いる場合には、撮影装置12は、車両20に搭載した形態であることが好ましい。 Further, the photographing device 12 is not limited to the form mounted on the vehicle 20. The photographing device 12 may be installed at a position where the traffic light 30 can be photographed, and may be fixed to the ground. When the detection result detected by the information processing device 10 of the present embodiment is used for driving support of the driver of the vehicle 20, the photographing device 12 is preferably mounted on the vehicle 20.

本実施形態では、撮影装置12は、オートゲインコントロール(AGC)機能を搭載している。このため、撮影装置12は、感度を自動調整し、撮影画像の全画面の明るさが最適となるように自動調整した撮影画像を得る。 In the present embodiment, the photographing device 12 is equipped with an automatic gain control (AGC) function. Therefore, the photographing device 12 automatically adjusts the sensitivity and obtains a photographed image automatically adjusted so that the brightness of the entire screen of the photographed image is optimized.

情報処理装置10は、撮影画像を解析する。そして、情報処理装置10は、撮影画像に含まれる信号機30を検出する。 The information processing device 10 analyzes the captured image. Then, the information processing device 10 detects the traffic light 30 included in the captured image.

次に、情報処理装置10が有する機能の一例を説明する。図2は、情報処理装置10が有する機能の一例を示すブロック図である。説明の便宜上、ここでは、本実施形態に関する機能を主に例示しているが、情報処理装置10が有する機能はこれらに限られるものではない。 Next, an example of the function of the information processing device 10 will be described. FIG. 2 is a block diagram showing an example of the functions of the information processing device 10. For convenience of explanation, the functions related to the present embodiment are mainly illustrated here, but the functions of the information processing apparatus 10 are not limited to these.

情報処理装置10は、インタフェース部14と、認識処理部16と、記憶部18と、を備える。インタフェース部14および記憶部18は、認識処理部16に電気的に接続されている。 The information processing device 10 includes an interface unit 14, a recognition processing unit 16, and a storage unit 18. The interface unit 14 and the storage unit 18 are electrically connected to the recognition processing unit 16.

インタフェース部14は、撮影装置12から撮影画像を受付ける。撮影装置12は、車両20の周辺を経時的に連続して撮影し、撮影によって得られた撮影画像(この例ではカラー画像)の各々を、撮影順に順次、インタフェース部14へ出力する。インタフェース部14は、撮影装置12から撮影画像を順次受け付け、受け付けた順に、認識処理部16へ順次出力する。 The interface unit 14 receives a photographed image from the photographing device 12. The photographing device 12 continuously photographs the periphery of the vehicle 20 over time, and outputs each of the captured images (color images in this example) obtained by the photographing to the interface unit 14 in the order of photographing. The interface unit 14 sequentially receives captured images from the photographing device 12, and sequentially outputs them to the recognition processing unit 16 in the order of acceptance.

記憶部18は、各種データを記憶する。本実施の形態では、記憶部18は、時間帯認識辞書DB18Aと、周囲領域識別辞書DB18Bを有し、時間帯認識辞書DB18Aは時間帯認識辞書を保持し、周囲領域識別辞書DB18Bは周囲領域識別辞書を保持する。これらの詳細については後述する。 The storage unit 18 stores various data. In the present embodiment, the storage unit 18 has a time zone recognition dictionary DB 18A and a peripheral area identification dictionary DB 18B, the time zone recognition dictionary DB 18A holds a time zone recognition dictionary, and the peripheral area identification dictionary DB 18B identifies the surrounding area. Keep a dictionary. Details of these will be described later.

認識処理部16は、撮影画像を解析し、撮影画像に映り込んだ信号機の信号を認識(検出)する。図2に示すように、認識処理部16は、画像取得部101と、候補領域認識部102と、周囲特徴量データ算出部103と、判断部104と、削除処理部105と、時間帯判別部106と、位置情報取得部107と、選択部108と、出力部109と、を含む。 The recognition processing unit 16 analyzes the captured image and recognizes (detects) the signal of the traffic light reflected in the captured image. As shown in FIG. 2, the recognition processing unit 16 includes an image acquisition unit 101, a candidate area recognition unit 102, a peripheral feature amount data calculation unit 103, a determination unit 104, a deletion processing unit 105, and a time zone determination unit. It includes 106, a position information acquisition unit 107, a selection unit 108, and an output unit 109.

画像取得部101、候補領域認識部102、周囲特徴量データ算出部103、判断部104、削除処理部105、時間帯判別部106、位置情報取得部107、選択部108、出力部109の一部またはすべては、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。 Image acquisition unit 101, candidate area recognition unit 102, surrounding feature amount data calculation unit 103, judgment unit 104, deletion processing unit 105, time zone determination unit 106, position information acquisition unit 107, selection unit 108, part of output unit 109 Alternatively, all of them may be realized by, for example, a processing device such as a CPU (Central Processing Unit) executing a program, that is, by software, or by hardware such as an IC (Integrated Circuit). , Software and hardware may be used together.

画像取得部101は、「取得部」の一例であり、撮影画像を取得する。この例では、画像取得部101は、インタフェース部14から順次に入力される撮影画像(動画像)を取得する。つまり、画像取得部101は、車両20に搭載された撮影装置12によって撮影された撮影画像を取得する。 The image acquisition unit 101 is an example of the “acquisition unit” and acquires a captured image. In this example, the image acquisition unit 101 acquires captured images (moving images) sequentially input from the interface unit 14. That is, the image acquisition unit 101 acquires a photographed image photographed by the photographing device 12 mounted on the vehicle 20.

候補領域認識部102は、画像取得部101により取得された撮影画像のうち、信号機の信号の色と形状に対応する領域を示す候補領域を認識する。候補領域認識部102は、点灯する信号(赤信号または青信号)の色と形状に対応する領域(この例では矩形の領域)を候補領域として認識する。 The candidate area recognition unit 102 recognizes a candidate area indicating an area corresponding to the color and shape of the signal of the traffic light among the captured images acquired by the image acquisition unit 101. The candidate area recognition unit 102 recognizes a region (rectangular region in this example) corresponding to the color and shape of the lit signal (red signal or green signal) as a candidate region.

図3は、横方向に配置する信号機の青信号が点灯していて、青信号に対応する領域301が候補領域として認識される場合の例を示す図である。図4は、横方向に配置する信号機の赤信号が点灯していて、赤信号に対応する領域401が候補領域として認識される場合の例を示す図である。日本などにおいては、信号機は、図3および図4に示すように横方向に配置されるのが一般的である。 FIG. 3 is a diagram showing an example in which the green light of the traffic light arranged in the horizontal direction is lit and the area 301 corresponding to the green light is recognized as a candidate area. FIG. 4 is a diagram showing an example in which the red light of the traffic light arranged in the horizontal direction is lit and the area 401 corresponding to the red light is recognized as a candidate area. In Japan and the like, traffic lights are generally arranged in the horizontal direction as shown in FIGS. 3 and 4.

図5は、縦方向に配置する信号機の赤信号が点灯していて、赤信号に対応する領域501が候補領域として認識される場合の例を示す図である。図6は、縦方向に配置する信号機の青信号が点灯していて、青信号に対応する領域601が候補領域として認識される場合の例を示す図である。アメリカや日本の東北地方などにおいては、信号機は、図5および図6に示すように縦方向に配置されるのが一般的である。候補領域の具体的な認識方法については後述する。 FIG. 5 is a diagram showing an example in which the red light of the traffic light arranged in the vertical direction is lit and the area 501 corresponding to the red light is recognized as a candidate area. FIG. 6 is a diagram showing an example in which the green light of the traffic light arranged in the vertical direction is lit and the area 601 corresponding to the green light is recognized as a candidate area. In the United States and the Tohoku region of Japan, traffic lights are generally arranged in the vertical direction as shown in FIGS. 5 and 6. The specific recognition method of the candidate area will be described later.

図2に戻って説明を続ける。周囲特徴量データ算出部103は、画像取得部101により取得された撮影画像のうち、候補領域認識部102により認識された候補領域の周囲の特徴量を示す周囲特徴量データを算出する。図7〜図10を用いて、周囲特徴量データの算出方法を説明する。領域801(a)〜801(f)の矩形領域は、候補領域の周囲の領域を表している。互いに区別しない場合は、単に「領域801」と称する場合がある。ここでは、図7〜図10の何れにおいても、候補領域は、信号機の信号を示す領域と一致し、領域801(a)〜801(f)は信号機の信号の周囲の領域を示す周囲領域と一致しているが、これに限らず、候補領域と、信号機の信号を示す領域とが一致しない場合は、候補領域の周囲の領域と、周囲領域とは一致しないことになる。 The explanation will be continued by returning to FIG. The peripheral feature amount data calculation unit 103 calculates the peripheral feature amount data indicating the peripheral feature amount of the candidate area recognized by the candidate area recognition unit 102 among the captured images acquired by the image acquisition unit 101. A method of calculating ambient feature data will be described with reference to FIGS. 7 to 10. The rectangular regions of regions 801 (a) to 801 (f) represent regions around the candidate regions. When they are not distinguished from each other, they may be simply referred to as "region 801". Here, in any of FIGS. 7 to 10, the candidate region corresponds to the region showing the signal of the traffic light, and the regions 801 (a) to 801 (f) are the peripheral region showing the region around the signal of the traffic light. Although they match, not limited to this, if the candidate area and the area indicating the signal of the traffic light do not match, the area around the candidate area and the surrounding area do not match.

領域801の矩形のサイズは、候補領域の矩形サイズと同じである。周囲特徴量データ算出部103は、各領域801内の画素の平均値Iを求める。より具体的には、領域801内の画素の輝度値(画素値)を合計し、矩形内の画素数(M×N)で除算することで、該領域801の画素の平均値I(以下の説明では「画素平均値I」と称する場合がある)を求めることができる。この例では、Mは矩形の横方向の画素数、Nは矩形の縦方向の画素数である。周囲特徴量データ算出部103は、各領域801(a)〜801(f)の画素平均値Iを求めて、周囲特徴量データを求める。ここで、周囲特徴量データはK(Kは領域801の数に対応)次元のベクトルデータとなり、P(I,I,I,…,I)のように表される。Iは各領域801内の画素平均値Iであり、Iは、領域801(a)の画素平均値Iを表し、Iは、領域801(b)の画素平均値Iを表す。他も同様である。図7〜図10の例では、周囲特徴量データPは6次元のベクトルデータとなる(P(I,I,I,…,I))。また、周囲特徴量データPを表すベクトルデータの次元数は任意である。例えば図11のように、801(a)〜801(n)の14個の領域801を設け、各領域801の画素平均値Iを求め、14次元のベクトルデータで周囲特徴量データPを表す形態であってもよい。 The size of the rectangle in the area 801 is the same as the size of the rectangle in the candidate area. Surrounding feature data calculating unit 103 calculates an average value I i of the pixels in each region 801. More specifically, by summing the brightness values (pixel values) of the pixels in the area 801 and dividing by the number of pixels (M × N) in the rectangle, the average value I (the following) of the pixels in the area 801 is obtained. In the description, it may be referred to as "pixel average value I"). In this example, M is the number of pixels in the horizontal direction of the rectangle, and N is the number of pixels in the vertical direction of the rectangle. The peripheral feature amount data calculation unit 103 obtains the pixel average value I of each region 801 (a) to 801 (f) to obtain the peripheral feature amount data. Here, the ambient feature data is K (K corresponds to the number of regions 801) dimensional vector data, and is expressed as P (I a , I b , I c , ..., I k). I k is the pixel average value I in each region 801. I a represents the pixel average value I of the region 801 (a), and I b represents the pixel average value I of the region 801 (b). The same is true for others. In the examples of FIGS. 7 to 10, the ambient feature data P is a six-dimensional vector data (P (I a , I b , I c , ..., If )). Further, the number of dimensions of the vector data representing the ambient feature data P is arbitrary. For example, as shown in FIG. 11, 14 regions 801 (a) to 801 (n) are provided, the pixel average value I of each region 801 is obtained, and the surrounding feature amount data P is represented by 14-dimensional vector data. It may be.

図2の説明を続ける。判断部104は、撮影画像のうち信号機の信号の周囲(一定範囲内の周囲)の領域を示す周囲領域を識別するために予め定められた周囲領域識別情報と、周囲特徴量データ算出部103により算出された周囲特徴量データと、に基づいて、周囲特徴量データに対応する候補領域が信号機の信号を示す領域であるか否かを判断する。この例では、周囲領域識別情報は、複数の時間帯ごとに予め定められる。また、周囲領域識別情報は、国または地域ごとに予め定められる。より具体的には、周囲領域識別情報は、時間帯と、国または地域との組み合わせごとに予め定められている。周囲領域識別情報は、SVM(Support Vector Machine)を用いた機械学習方法を利用して予め作成される。さらに言えば、周囲領域識別情報は、撮影画像のうち周囲領域と周囲領域以外の領域を示す誤認識領域との分離面を示す評価関数である。 The description of FIG. 2 will be continued. The determination unit 104 uses the peripheral area identification information predetermined for identifying the peripheral area indicating the area around the signal of the traffic light (surrounding within a certain range) in the captured image, and the peripheral feature amount data calculation unit 103. Based on the calculated ambient feature data, it is determined whether or not the candidate region corresponding to the ambient feature data is the region indicating the signal of the traffic light. In this example, the surrounding area identification information is predetermined for each of a plurality of time zones. In addition, the surrounding area identification information is predetermined for each country or region. More specifically, the surrounding area identification information is predetermined for each combination of the time zone and the country or region. The surrounding area identification information is created in advance by using a machine learning method using SVM (Support Vector Machine). Furthermore, the peripheral area identification information is an evaluation function indicating a separation surface between the peripheral area and the erroneous recognition area indicating an area other than the peripheral area in the captured image.

例えば図8に示すように信号機が横方向に配置される国または地域(以下の説明では「対象地域(国も含む概念)」と称する)において、2次元の周囲特徴量データPを用いて、対応する候補領域の判断を行う場合を想定する。つまり、この場合の周囲領域識別情報は、2次元の周囲特徴量データPが正解であるか否か(撮影画像における信号機の信号の一定範囲内の周囲の領域を示すか否か)を識別するための情報である。なお、ここでは説明の便宜上、2次元の周囲特徴量データPを例に挙げて説明するが、これに限らず、正解であるか否かを判断する対象となる周囲特徴量データPの次元数は任意である。 For example, in a country or region where traffic lights are arranged in the horizontal direction as shown in FIG. 8 (referred to as "target region (concept including country)" in the following description), two-dimensional ambient feature data P is used. It is assumed that the corresponding candidate area is judged. That is, the surrounding area identification information in this case identifies whether or not the two-dimensional peripheral feature amount data P is the correct answer (whether or not it indicates the surrounding area within a certain range of the signal of the traffic light in the captured image). Information for. Here, for convenience of explanation, the two-dimensional ambient feature data P will be described as an example, but the present invention is not limited to this, and the number of dimensions of the ambient feature data P to be determined whether or not the answer is correct is not limited to this. Is optional.

ここでは、周囲特徴量データ算出部103により算出された2次元のベクトルデータが、図8に示す信号機の赤信号を示す領域(この例では領域401)の右隣の領域(この例では領域801(a))および左隣の領域(この例では領域801(d))の各々を示すか否かを識別するための周囲領域識別情報を例に挙げて説明する。 Here, the two-dimensional vector data calculated by the ambient feature data calculation unit 103 is the area to the right of the area (area 401 in this example) showing the red signal of the traffic light shown in FIG. 8 (area 801 in this example). (A)) and the surrounding area identification information for discriminating whether or not to indicate each of the left adjacent area (in this example, the area 801 (d)) will be described as an example.

このような周囲領域識別情報を作成する場合、赤信号を示す領域の検出に用いられる撮影画像とは別に、この検出処理より前に、対象地域の複数の時間帯ごとに、予め撮影装置12によって赤信号の信号機を撮影した画像(赤信号画像と称する)を集める。そして、複数の時間帯ごとに、赤信号画像のうち、複数の赤色画素からなる矩形サイズ(候補領域の矩形サイズと同じ)の領域(赤色画素領域)の右隣の矩形サイズの領域の画素平均値Iおよび左隣の矩形サイズの領域の画素平均値Iを求める。図12は、任意の1つの時間帯における画素平均値(I,I)の分布の例を示す図である。赤色画素領域が、信号機の赤信号を示す領域である場合、該赤色画素領域の右隣の領域(例えば図8の領域801(a))は、比較的に高い画素平均値Iが得られる。一方、該赤色画素領域の左隣の領域(例えば図8の領域801(d))は点灯しない黄色領域であるので、比較的に低い画素平均値Iが得られる。つまり、この場合、正解データとなる、周囲領域(赤信号の周囲の領域)の特徴量データP(I,I)の集合は、図12の右下の黒丸の集合のように表され、周囲領域以外の誤認識領域の特徴量データP(I,I)の集合は、図12の左上の白丸の集合のように表される。 When creating such peripheral area identification information, separately from the captured image used for detecting the region showing a red light, the photographing device 12 is used in advance for each of a plurality of time zones in the target area prior to this detection process. Collect images (called red light images) of red light traffic lights. Then, for each of the plurality of time zones, among the red signal images, the pixel average of the rectangular size area to the right of the rectangular size (same as the rectangular size of the candidate area) area (red pixel area) composed of a plurality of red pixels. The value I a and the pixel average value I d of the rectangular size area to the left are obtained. FIG. 12 is a diagram showing an example of the distribution of pixel average values (I a , I d) in any one time zone. When the red pixel region is a region showing a red signal of a traffic light, a relatively high pixel average value Ia can be obtained in the region to the right of the red pixel region (for example, region 801 (a) in FIG. 8). .. On the other hand, since the region to the left of the red pixel region (for example, region 801 (d) in FIG. 8) is a non-lit yellow region, a relatively low pixel average value Id can be obtained. That is, in this case, the set of feature data P (I a , I d ) in the surrounding area (the area around the red light), which is the correct answer data, is represented as the set of black circles in the lower right of FIG. , The set of feature data P (I a , I d ) of the misrecognition area other than the surrounding area is represented by the set of white circles on the upper left of FIG.

ここでは、判断部104は、周囲領域の特徴量データ(正解データ)の集合と、誤認識領域の特徴量データの集合とを分離する分離面を、マージンdが最大となるように配置する。そして、判断部104は、この分離面(図12の例では直線L)を示す評価関数を、周囲領域識別辞書DB18Bとして予め算出(学習により算出)しておくことができる。なお、この例では、評価関数を算出する主体は判断部104であるとして説明したが、これに限らず、評価関数を予め算出する主体は判断部104以外の他の機能であってもよい。 Here, the determination unit 104 arranges a separation surface that separates the set of feature amount data (correct answer data) in the surrounding area and the set of feature amount data in the erroneous recognition area so that the margin d is maximized. Then, the determination unit 104 can pre-calculate (calculate by learning) the evaluation function indicating this separation surface (straight line L in the example of FIG. 12) as the surrounding area identification dictionary DB18B. In this example, the subject that calculates the evaluation function is the determination unit 104, but the present invention is not limited to this, and the subject that calculates the evaluation function in advance may be a function other than the determination unit 104.

上記評価関数は、例えば以下の式(1)のような線形識別関数で表される。以下の式(1)におけるA,B,Cは評価関数の係数である。ここでは、この評価関数が「周囲領域識別情報」に対応する。同様にして、黄信号の周囲の領域を示す周囲領域を識別するための評価関数や青信号の周囲の領域を示す周囲領域を識別するための評価関数を予め作成しておくことができる。

Figure 0006874315
The evaluation function is represented by a linear discriminant function such as the following equation (1). A, B, and C in the following equation (1) are the coefficients of the evaluation function. Here, this evaluation function corresponds to "surrounding area identification information". Similarly, an evaluation function for identifying the peripheral area indicating the area around the yellow light and an evaluation function for identifying the peripheral area indicating the area around the green light can be created in advance.
Figure 0006874315

判断部104は、周囲特徴量データ算出部103により算出された周囲特徴量データP(I,I)を上記評価関数に代入して、評価関数f(I,I)の値を算出する。そして、算出した評価関数f(I,I)の値が予め定めた閾値以上(例えば0)であれば、判断部104は、該周囲特徴量データP(I,I)に対応する候補領域は、赤信号を示す領域であると判断する。該周囲特徴量データP(I,I)は、撮影画像のうち赤信号の周囲の領域(周囲領域)の特徴量を示すデータであると判断できるためである。一方、算出した評価関数f(I,I)の値が閾値未満であれば、判断部104は、該周囲特徴量データP(I,I)に対応する候補領域は、赤信号を示す領域ではないと判断する。該周囲特徴量データP(I,I)は、撮影画像のうち誤認識領域の特徴量を示すデータであると判断できるためである。 The determination unit 104 substitutes the peripheral feature amount data P (I a , I d ) calculated by the peripheral feature amount data calculation unit 103 into the evaluation function, and sets the value of the evaluation function f (I a , I d). calculate. Then, if the value of the calculated evaluation function f (I a , I d ) is equal to or higher than a predetermined threshold value (for example, 0), the determination unit 104 corresponds to the peripheral feature amount data P (I a , I d ). It is determined that the candidate region to be used is a region showing a red light. This is because it can be determined that the peripheral feature amount data P (I a , Id ) is data indicating the feature amount of the area (surrounding area) around the red light in the captured image. On the other hand, if the value of the calculated evaluation function f (I a , I d ) is less than the threshold value, the determination unit 104 indicates that the candidate region corresponding to the surrounding feature amount data P (I a , I d) is a red signal. It is judged that it is not the area indicating. This is because it can be determined that the peripheral feature amount data P (I a , I d ) is data indicating the feature amount of the erroneous recognition region in the captured image.

以上においては、正解であるか否かを判断する対象となる周囲特徴量データPは2次元のベクトルデータである場合を例に挙げて説明したが、次元数は任意に変更可能である。次元数をKとした場合、正解データの集合と、誤認識領域の特徴量データの集合とを分離する分離面を示す評価関数f(I,I,…,I)は、以下の式(2)で表される。以下の式(2)における(w,w,…,w)は評価関数の係数である。

Figure 0006874315
In the above, the case where the ambient feature amount data P to be determined whether or not the answer is correct is two-dimensional vector data has been described as an example, but the number of dimensions can be arbitrarily changed. When the number of dimensions is K, the evaluation function f (I a , I b , ..., I k ) indicating the separation surface that separates the set of correct answer data and the set of feature data of the misrecognition region is as follows. It is represented by the equation (2). Following in formula (2) (w a, w b, ..., w k) is a coefficient of the evaluation function.
Figure 0006874315

この場合、周囲特徴量データ算出部103により算出される周囲特徴量データP(I,I,・・・,I)はK次元のベクトルデータであり、判断部104は、周囲特徴量データ算出部103により算出された周囲特徴量データP(I,I,・・・,I)を上記評価関数に代入して、評価関数f(I,I,・・・,I)の値を算出する。そして、算出した評価関数f(I,I,・・・,I)の値が予め定めた閾値以上であれば、判断部104は、該周囲特徴量データに対応する候補領域は、信号機の信号を示す領域であると判断する。一方、算出した評価関数(I,I,・・・,I)の値が閾値未満であれば、判断部104は、該周囲特徴量データに対応する候補領域は、信号機の信号を示す領域ではないと判断する。 In this case, the peripheral feature data P (I a , I b , ..., I k ) calculated by the peripheral feature data calculation unit 103 is K-dimensional vector data, and the determination unit 104 determines the peripheral feature amount. By substituting the ambient feature data P (I a , I b , ..., I k ) calculated by the data calculation unit 103 into the above evaluation function, the evaluation function f (I a , I b , ..., I k) is substituted. Calculate the value of I k). Then, if the value of the calculated evaluation function f (I a , I b , ..., I k ) is equal to or greater than a predetermined threshold value, the determination unit 104 determines that the candidate region corresponding to the surrounding feature amount data is a candidate region. It is judged to be the area showing the signal of the traffic light. On the other hand, if the value of the calculated evaluation function (I a , I b , ..., I k ) is less than the threshold value, the determination unit 104 determines that the candidate region corresponding to the surrounding feature amount data is the signal of the traffic light. Judge that it is not the area shown.

ここでは、時間帯と、国または地域との組み合わせごとに、事前学習により評価関数を作成しておき、周囲領域識別辞書DB18Bに格納しておく。なお、赤信号、黄信号および青信号ごとに、個別の評価関数を格納しておいてもよいし、検出対象の信号用の評価関数のみを格納しておいてもよい。例えば赤信号、黄信号および青信号の全てが検出対象であれば、国または地域との組み合わせごとに、赤信号用の評価関数、黄信号用の評価関数、および、青信号用の評価関数を予め作成しておき、周囲領域識別辞書DB18Bに格納しておく形態であってもよい。また、例えば赤信号のみが検出対象であれば、国または地域との組み合わせごとに赤信号用の評価関数を作成しておき、周囲領域識別辞書DB18Bに格納しておく形態であってもよい。要するに、信号機の信号の周囲の領域を示す周囲領域を識別するために予め定められた周囲領域識別情報は、時間帯と、国または地域との組み合わせごとに予め定められている形態であればよい。 Here, an evaluation function is created by pre-learning for each combination of the time zone and the country or region, and stored in the surrounding area identification dictionary DB18B. An individual evaluation function may be stored for each of the red signal, the yellow signal, and the green signal, or only the evaluation function for the signal to be detected may be stored. For example, if all of the red light, yellow light, and green light are to be detected, an evaluation function for red light, an evaluation function for yellow light, and an evaluation function for green light are created in advance for each combination with a country or region. However, it may be stored in the peripheral area identification dictionary DB 18B. Further, for example, if only the red light is the detection target, an evaluation function for the red light may be created for each combination with the country or region and stored in the surrounding area identification dictionary DB 18B. In short, the peripheral area identification information predetermined for identifying the surrounding area indicating the area around the signal of the traffic light may be in a form predetermined for each combination of the time zone and the country or region. ..

判断部104は、後述の選択部108により選択された評価関数と、周囲特徴量データ算出部103により算出された周囲特徴量データPと、に基づいて、周囲特徴量データPに対応する候補領域が信号機の信号を示す領域であるか否かを判断する。 The determination unit 104 is a candidate area corresponding to the ambient feature data P based on the evaluation function selected by the selection unit 108 described later and the ambient feature data P calculated by the ambient feature data calculation unit 103. It is determined whether or not is the area indicating the signal of the signal.

削除処理部105は、判断部104によって、周囲特徴量データ算出部103により算出された周囲特徴量データPに対応する候補領域は、信号機の信号を示す領域ではないと判断された場合、その候補領域を削除する(出力対象外とする)処理を行う。 When the deletion processing unit 105 determines by the determination unit 104 that the candidate area corresponding to the ambient feature amount data P calculated by the ambient feature amount data calculation unit 103 is not the area indicating the signal of the traffic light, the candidate area is the candidate. Performs the process of deleting the area (excluding the output target).

出力部109は、信号機の信号を示す領域であると判断された候補領域を、認識結果として出力する。 The output unit 109 outputs the candidate area determined to be the area indicating the signal of the traffic light as the recognition result.

時間帯判別部106は、画像取得部101により取得された撮影画像が撮影された時間帯を判別する。時間帯判別部16Bは、撮影画像を解析することによって、該撮影画像の撮影時間帯を判別する。 The time zone determination unit 106 determines the time zone in which the captured image acquired by the image acquisition unit 101 was captured. The time zone determination unit 16B determines the shooting time zone of the captured image by analyzing the captured image.

撮影時間帯とは、1日(24時間)を撮影環境の互いに異なる複数の時間帯に分割したものである。撮影環境が異なる、とは、光強度が異なることを意味する。例えば、撮影時間帯は、昼、または、夜、である。なお、撮影時間帯は、昼、夜、夕方、であってもよい。また、撮影時間帯は、1日を撮影環境の異なる複数の時間帯に分割した、各時間帯であればよく、昼、夜、夕方、などに限定されない。また撮影時間帯は、2種類や3種類に限定されず、4種類以上であってもよい。また、撮影時間帯は、撮影画像の撮影環境(例えば、季節、国、地域、北半球・南半球)に応じて、適宜、設定すればよい。 The shooting time zone is a day (24 hours) divided into a plurality of time zones different from each other in the shooting environment. Different shooting environments mean different light intensities. For example, the shooting time zone is daytime or nighttime. The shooting time zone may be daytime, nighttime, or evening. Further, the shooting time zone may be any time zone in which the day is divided into a plurality of time zones having different shooting environments, and is not limited to day, night, evening, and the like. The shooting time zone is not limited to two or three types, and may be four or more types. Further, the shooting time zone may be appropriately set according to the shooting environment of the shot image (for example, season, country, region, northern hemisphere / southern hemisphere).

本実施形態では、一例として、撮影時間帯が、昼または夜を示す場合を説明する。撮影時間帯が昼を示す、とは、撮影環境の光強度が閾値以上の時間帯である。撮影時間帯が夜である、とは、撮影環境の光強度が該閾値未満の時間帯である。この光強度の閾値には、予め任意の値を定めればよい。例えば、この光強度の閾値には、処理対象の撮影画像を撮影した撮影装置12のオートゲインコントロール機能によって、撮影画像に含まれる信号機30の信号30Aを示す領域の光量が飽和し始める(または飽和が解除される)光強度を定めればよい。 In the present embodiment, as an example, a case where the shooting time zone indicates daytime or nighttime will be described. The shooting time zone indicates daytime is a time zone in which the light intensity of the shooting environment is equal to or higher than the threshold value. The shooting time zone is night is a time zone in which the light intensity of the shooting environment is less than the threshold value. An arbitrary value may be set in advance for the threshold value of this light intensity. For example, at this light intensity threshold value, the amount of light in the region indicating the signal 30A of the signal device 30 included in the captured image begins to saturate (or is saturated) by the auto gain control function of the photographing device 12 that captured the captured image to be processed. Is released) The light intensity may be determined.

時間帯判別部106は、画像取得部101により取得された撮影画像の輝度を用いて、撮影画像の撮影時間帯を判別する。詳細には、図13に示すように、時間帯判別部106は、第1の算出部116Hと、第2の算出部116Iと、第3の算出部116Jと、を含む。 The time zone determination unit 106 determines the shooting time zone of the captured image by using the brightness of the captured image acquired by the image acquisition unit 101. Specifically, as shown in FIG. 13, the time zone determination unit 106 includes a first calculation unit 116H, a second calculation unit 116I, and a third calculation unit 116J.

第1の算出部116Hは、撮影画像の平均輝度を算出する。第1の算出部116Hは、撮影画像に含まれる画素の各々の輝度値の平均値を算出する。これにより、第1の算出部116Hは、撮影画像の平均輝度を算出する。撮影時間帯が昼の場合、撮影画像の平均輝度は高い。一方、撮影時間帯が夜の場合、撮影画像の平均輝度は、昼より低い。 The first calculation unit 116H calculates the average brightness of the captured image. The first calculation unit 116H calculates the average value of the brightness values of each of the pixels included in the captured image. As a result, the first calculation unit 116H calculates the average brightness of the captured image. When the shooting time is daytime, the average brightness of the shot image is high. On the other hand, when the shooting time zone is night, the average brightness of the shot image is lower than that of daytime.

第2の算出部116Iは、撮影画像を複数のブロックに分割する。例えば、第2の算出部116Iは、撮影画像をm×n個のブロックに分割する。なお、mおよびnは、1以上の整数であり、且つ、mおよびnの少なくとも一方は、2以上の整数である。 The second calculation unit 116I divides the captured image into a plurality of blocks. For example, the second calculation unit 116I divides the captured image into m × n blocks. Note that m and n are integers of 1 or more, and at least one of m and n is an integer of 2 or more.

そして、第2の算出部116Iは、ブロックの各々ごとに、平均輝度を算出する。例えば、第2の算出部116Iは、ブロックの各々ごとに、ブロックに含まれる画素の輝度値の平均値を算出する。これにより、第2の算出部116Iは、撮影画像に含まれるブロックの各々ごとに、平均輝度を算出する。 Then, the second calculation unit 116I calculates the average brightness for each of the blocks. For example, the second calculation unit 116I calculates the average value of the brightness values of the pixels included in the block for each block. As a result, the second calculation unit 116I calculates the average brightness for each of the blocks included in the captured image.

さらに、第2の算出部116Iは、撮影画像における平均輝度が閾値以下のブロックの数を、該撮影画像における低輝度ブロック数として算出する。低輝度ブロック数の算出に用いる平均輝度の閾値には、任意の値を予め定めればよい。 Further, the second calculation unit 116I calculates the number of blocks whose average brightness in the captured image is equal to or less than the threshold value as the number of low-luminance blocks in the captured image. An arbitrary value may be predetermined for the threshold value of the average luminance used for calculating the number of low-luminance blocks.

そして、時間帯判別部106は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、を含む特徴量に基づいて、撮影時間帯を判別する。 Then, the time zone determination unit 106 determines the shooting time zone based on the feature amount including the average brightness of the captured image and the number of low-luminance blocks of the captured image.

具体的には、時間帯判別部106は、例えば、撮影画像の平均輝度と撮影画像の低輝度ブロック数を、時間帯判別時の特徴量として用いる。 Specifically, the time zone determination unit 106 uses, for example, the average brightness of the captured image and the number of low-luminance blocks of the captured image as feature quantities at the time of time zone determination.

本実施形態では、時間帯判別部106は、予め、撮影時間帯の判別に用いる時間帯認識辞書DB18Aを作成する。すなわち、時間帯判別部106は、撮影画像の時間帯判別処理より以前に、予め、時間帯認識辞書DB18Aを作成する。 In the present embodiment, the time zone determination unit 106 creates in advance the time zone recognition dictionary DB 18A used for determining the shooting time zone. That is, the time zone determination unit 106 creates the time zone recognition dictionary DB 18A in advance before the time zone determination process of the captured image.

本実施形態では、時間帯判別部106は、SVM(Support Vector Machine)を用いた機械学習方法を用いて、時間帯認識辞書18Aを予め作成する。 In the present embodiment, the time zone determination unit 106 creates a time zone recognition dictionary 18A in advance by using a machine learning method using an SVM (Support Vector Machine).

詳細には、時間帯判別部106は、撮影時間帯ごとに予め撮影された複数の撮影画像を基準撮影画像として用いる。 Specifically, the time zone determination unit 106 uses a plurality of captured images captured in advance for each shooting time zone as reference captured images.

基準撮影画像とは、信号機の信号を示す領域の検出に用いられる撮影画像とは別に、この検出処理より前に、撮影装置12によって予め撮影された撮影画像である。まず、時間帯判別部106は、基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群を、平均輝度と低輝度ブロック数によって定まる二次元空間に登録する。図14は、基準撮影画像における、平均輝度(Iav)と低輝度ブロック数(Nblk)によって示されるサンプル点の一例を示す図である。 The reference captured image is a captured image previously captured by the imaging device 12 prior to the detection process, in addition to the captured image used for detecting the region showing the signal of the traffic light. First, the time zone determination unit 106 registers a group of sample points indicated by the average luminance and the number of low-luminance blocks in the reference captured image in a two-dimensional space determined by the average luminance and the number of low-luminance blocks. FIG. 14 is a diagram showing an example of sample points indicated by the average luminance (Iav) and the number of low luminance blocks (Nblk) in the reference captured image.

図14中、サンプル点群40Bは、夜を示す撮影時間帯に撮影された基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群である。また、サンプル点群40Aは、昼を示す撮影時間帯に撮影された基準撮影画像における、平均輝度と低輝度ブロック数によって示されるサンプル点の群である。 In FIG. 14, the sample point group 40B is a group of sample points indicated by the average brightness and the number of low-luminance blocks in the reference shooting image taken during the shooting time zone indicating night. Further, the sample point group 40A is a group of sample points indicated by the average brightness and the number of low-luminance blocks in the reference photographed image taken in the shooting time zone indicating daytime.

時間帯判別部106は、昼のサンプル点群40Aと夜のサンプル点群40Bとを分離する分離面(ここでは、直線La)を、昼のサンプル点群40Aと夜のサンプル点群40Bの各々の境界線(直線La1および直線La2)間の距離d(マージンと称される場合がある)が最大となるように配置する。そして、時間帯判別部106は、この分離面(図14では、直線La)を示す評価関数を算出する。下記式(3)は、この直線Laを示す評価関数を示す式である。 The time zone discriminating unit 106 provides a separation surface (here, a straight line La) that separates the daytime sample point group 40A and the nighttime sample point group 40B, and each of the daytime sample point group 40A and the nighttime sample point group 40B. The distance d (sometimes referred to as a margin) between the boundary lines (straight line La1 and straight line La2) is maximized. Then, the time zone determination unit 106 calculates an evaluation function indicating this separation surface (straight line La in FIG. 14). The following equation (3) is an equation showing an evaluation function showing this straight line La.

Figure 0006874315
Figure 0006874315

上記式(3)中、f(Iav,Nblk)は、撮影画像の平均輝度と撮影画像の低輝度ブロック数を時間帯判別時の特徴量として用いた場合の、評価関数である。式(3)中、A、B、およびCは、該評価関数の係数である。ここでは、評価関数f(Iav,Nblk)または係数A、B、およびCが時間帯認識辞書18Aに対応している。 In the above equation (3), f (Iav, Nblk) is an evaluation function when the average brightness of the photographed image and the number of low-luminance blocks of the photographed image are used as feature quantities at the time of time zone determination. In formula (3), A, B, and C are coefficients of the evaluation function. Here, the evaluation function f (Iav, Nblk) or the coefficients A, B, and C correspond to the time zone recognition dictionary 18A.

時間帯判別部106は、式(3)に示す評価関数を予め作成し、時間帯認識辞書18Aとして予め記憶部18に記憶する。 The time zone determination unit 106 creates an evaluation function represented by the equation (3) in advance and stores it in the storage unit 18 in advance as the time zone recognition dictionary 18A.

時間帯判別部106は、撮影画像の撮影時間帯の判別時には、記憶部18に記憶されている時間帯認識辞書18A(式(3)に示す評価関数)を用いて、該撮影画像の撮影時間帯を判別する。 When determining the shooting time zone of the captured image, the time zone determination unit 106 uses the time zone recognition dictionary 18A (evaluation function represented by the equation (3)) stored in the storage unit 18 to capture the captured image. Determine the band.

詳細には、時間帯判別部106は、第1の算出部116Hおよび第2の算出部116Iによって算出した、撮影画像の平均輝度(Iav)と低輝度ブロック数(Nblk)を、式(3)に代入することで、評価関数f(Iav,Nblk)の値を算出する。 Specifically, the time zone determination unit 106 calculates the average brightness (Iav) and the number of low-luminance blocks (Nblk) of the captured image calculated by the first calculation unit 116H and the second calculation unit 116I in the equation (3). By substituting into, the value of the evaluation function f (Iav, Nblk) is calculated.

そして、時間帯判別部106は、算出した評価関数f(Iav,Nblk)の値が、予め定めた閾値以上である場合、該撮影画像の撮影時間帯が昼を示すと判別する。一方、時間帯判別部106は、算出した評価関数f(Iav,Nblk)の値が、該閾値未満である場合、該撮影画像の撮影時間帯が夜を示すと判別する。この閾値は、判別対象の撮影時間帯の撮影環境の光強度に応じて、予め定めればよい。 Then, when the value of the calculated evaluation function f (Iav, Nblk) is equal to or greater than a predetermined threshold value, the time zone determination unit 106 determines that the imaging time zone of the captured image indicates daytime. On the other hand, when the value of the calculated evaluation function f (Iav, Nblk) is less than the threshold value, the time zone discriminating unit 106 determines that the shooting time zone of the captured image indicates night. This threshold value may be set in advance according to the light intensity of the shooting environment in the shooting time zone to be discriminated.

なお、時間帯判別部106は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、該撮影画像におけるブロック毎の平均輝度の分散値と、を含む特徴量に基づいて、撮影時間帯を判別してもよい。 The time zone determination unit 106 is based on a feature amount including the average brightness of the captured image, the number of low-luminance blocks of the captured image, and the dispersion value of the average brightness of each block in the captured image. The band may be discriminated.

この場合、時間帯判別部106の第3の算出部116Jが、撮影画像におけるブロック毎の平均輝度の分散値を算出する。第3の算出部116Jは、第2の算出部116Iが分割したブロック毎の、平均輝度の分散値を算出する。例えば、時間帯判別部106は、下記式(4)を用いて、分散値(σ)を算出する。 In this case, the third calculation unit 116J of the time zone determination unit 106 calculates the dispersion value of the average brightness for each block in the captured image. The third calculation unit 116J calculates the dispersion value of the average brightness for each block divided by the second calculation unit 116I. For example, the time zone determination unit 106 calculates the variance value (σ) using the following equation (4).

Figure 0006874315
Figure 0006874315

式(4)中、σは、撮影画像におけるブロック毎の平均輝度の分散値を示す。式(4)中、Nは、撮影画像に含まれるブロック数(すなわち、m×nの値)を示す。Iiは、i番目のブロックの平均輝度を示す。Iavは、撮影画像の全体の平均輝度を示す。 In equation (4), σ indicates the dispersion value of the average brightness for each block in the captured image. In the formula (4), N indicates the number of blocks (that is, the value of m × n) included in the captured image. Ii indicates the average brightness of the i-th block. Iav indicates the overall average brightness of the captured image.

この場合、時間帯判別部106は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、該撮影画像におけるブロック毎の平均輝度の分散値と、を特徴量として用いる時間帯認識辞書18Aを、予め作成すればよい。 In this case, the time zone determination unit 106 uses a time zone recognition dictionary that uses the average brightness of the captured image, the number of low-luminance blocks of the captured image, and the dispersion value of the average brightness of each block in the captured image as feature quantities. 18A may be created in advance.

すなわち、時間帯判別部106は、撮影画像の平均輝度と、該撮影画像の低輝度ブロック数と、を特徴量として用いる場合と同様に、SVM(Support Vector Machine)を用いた機械学習方法を用いて、時間帯認識辞書18Aを予め作成すればよい。この場合、時間帯判別部106は、基準撮影画像における、平均輝度と低輝度ブロック数と分散値とによって示されるサンプル点の群を、平均輝度と低輝度ブロック数と分散値によって定まる三次元空間に登録すればよい。 That is, the time zone determination unit 106 uses a machine learning method using an SVM (Support Vector Machine), as in the case where the average brightness of the captured image and the number of low-luminance blocks of the captured image are used as feature quantities. Therefore, the time zone recognition dictionary 18A may be created in advance. In this case, the time zone determination unit 106 defines a group of sample points indicated by the average brightness, the number of low-luminance blocks, and the variance value in the reference captured image in a three-dimensional space determined by the average brightness, the number of low-luminance blocks, and the variance value. You can register at.

そして、時間帯判別部106は、上記と同様にして、昼のサンプル点群と夜のサンプル点群とを分離する分離面を、マージンが最大となるように配置する。そして、時間帯判別部106は、この分離面を示す評価関数を、時間帯認識辞書18Aとして算出すればよい。下記式(5)は、撮影画像Pの平均輝度、撮影画像Pの低輝度ブロック数、および分散値を、時間帯判別時の特徴量として用いる場合の、評価関数(時間帯認識辞書18A)である。 Then, in the same manner as described above, the time zone determination unit 106 arranges the separation surface for separating the daytime sample point cloud and the nighttime sample point cloud so that the margin is maximized. Then, the time zone determination unit 106 may calculate the evaluation function indicating this separation surface as the time zone recognition dictionary 18A. The following equation (5) is an evaluation function (time zone recognition dictionary 18A) when the average brightness of the captured image P, the number of low-luminance blocks of the captured image P, and the variance value are used as feature quantities at the time of time zone discrimination. is there.

Figure 0006874315
Figure 0006874315

式(5)中、f(Iav,Nblk,σ)は、撮影画像の平均輝度と撮影画像の低輝度ブロック数と分散値とを時間帯判別時の特徴量として用いる場合の、評価関数(時間帯認識辞書18A)である。式(5)中、A、B、C、およびDは、該評価関数の係数である。 In equation (5), f (Iav, Nblk, σ) is an evaluation function (time) when the average brightness of the captured image, the number of low-luminance blocks of the captured image, and the variance value are used as feature quantities at the time of time zone discrimination. The band recognition dictionary 18A). In formula (5), A, B, C, and D are coefficients of the evaluation function.

このように、時間帯判別部106は、例えば、式(5)に示す評価関数を予め作成し、時間帯認識辞書18Aとして予め記憶部18に記憶してもよい。 As described above, the time zone determination unit 106 may, for example, create the evaluation function represented by the equation (5) in advance and store it in the storage unit 18 in advance as the time zone recognition dictionary 18A.

この場合、時間帯判別部106は、撮影画像の撮影時間帯の判別時には、記憶部18に記憶されている時間帯認識辞書18A(式(5)に示す評価関数)を用いて、該撮影画像の撮影時間帯を判別する。 In this case, the time zone determination unit 106 uses the time zone recognition dictionary 18A (evaluation function shown in the equation (5)) stored in the storage unit 18 to determine the shooting time zone of the captured image. Determine the shooting time zone of.

詳細には、時間帯判別部106は、第1の算出部116H、第2の算出部116I、および第3の算出部116Jの各々によって算出された、撮影画像の平均輝度(Iav)、低輝度ブロック数(Nblk)、および分散値(σ)を得る。そして、時間帯判別部106は、これらの平均輝度(Iav)、低輝度ブロック数(Nblk)、および分散値(σ)を、式(5)に代入することで、評価関数f(Iav,Nblk,σ)の値を算出する。 Specifically, the time zone determination unit 106 has an average brightness (Iav) and low brightness of the captured image calculated by each of the first calculation unit 116H, the second calculation unit 116I, and the third calculation unit 116J. The number of blocks (Nblk) and the variance value (σ) are obtained. Then, the time zone determination unit 106 substitutes the average luminance (Iav), the number of low-luminance blocks (Nblk), and the variance value (σ) into the equation (5), thereby substituting the evaluation function f (Iav, Nblk). , Σ) is calculated.

そして、時間帯判別部106は、算出した評価関数f(Iav,Nblk,σ)の値が、予め定めた閾値以上である場合、該撮影画像の撮影時間帯が昼を示すと判別する。一方、時間帯判別部106は、算出した評価関数f(Iav,Nblk,σ)の値が、該閾値未満である場合、該撮影画像の撮影時間帯が夜を示すと判別する。この閾値は、予め定めればよい。 Then, when the value of the calculated evaluation function f (Iav, Nblk, σ) is equal to or greater than a predetermined threshold value, the time zone discriminating unit 106 determines that the shooting time zone of the captured image indicates daytime. On the other hand, when the value of the calculated evaluation function f (Iav, Nblk, σ) is less than the threshold value, the time zone discriminating unit 106 determines that the shooting time zone of the captured image indicates night. This threshold value may be set in advance.

以上のようにして、時間帯判別部106は、画像取得部101により取得された撮影画像が撮影された時間帯を判別し、判別した撮影時間帯を選択部108へ出力する。 As described above, the time zone determination unit 106 determines the time zone in which the captured image acquired by the image acquisition unit 101 was captured, and outputs the determined shooting time zone to the selection unit 108.

図2に戻り、認識処理部16が有する機能の説明を続ける。位置情報取得部107は、自装置の位置情報を取得する。例えば位置情報取得部107は、GPS装置などの外部装置から位置情報を取得することができる。位置情報取得部107は、取得した位置情報を選択部108へ出力する。 Returning to FIG. 2, the description of the function of the recognition processing unit 16 will be continued. The position information acquisition unit 107 acquires the position information of the own device. For example, the position information acquisition unit 107 can acquire position information from an external device such as a GPS device. The position information acquisition unit 107 outputs the acquired position information to the selection unit 108.

選択部108は、時間帯判別部106により判別された時間帯に対応する周囲領域識別情報を選択する。また、選択部108は、位置情報取得部107により取得された位置情報(国または地域を特定可能)に対応する周囲領域識別情報を選択する。より具体的には、選択部108は、時間帯判別部106により判別された時間帯と、位置情報取得部107により取得された位置情報(国または地域を特定可能)との組み合わせに対応する周囲領域識別情報(この例では式(2)の評価関数)を選択する。 The selection unit 108 selects the surrounding area identification information corresponding to the time zone determined by the time zone determination unit 106. Further, the selection unit 108 selects the surrounding area identification information corresponding to the position information (country or region can be specified) acquired by the position information acquisition unit 107. More specifically, the selection unit 108 is the periphery corresponding to the combination of the time zone determined by the time zone determination unit 106 and the position information (country or region can be specified) acquired by the position information acquisition unit 107. The area identification information (in this example, the evaluation function of equation (2)) is selected.

次に、候補領域認識部102による候補領域の認識方法について説明する。候補領域認識部102は、画像取得部101により取得された撮影画像のうち、信号機の信号色を示す信号画素を含む信号画素領域を抽出し、その抽出した信号画素領域を膨張した膨張領域に予め定めた形状の定型領域が含まれる場合、該定型領域を含む領域を信号領域として認識する。より具体的には、候補領域認識部102は、膨張領域に円形の定型領域が含まれる場合、該定型領域を含む領域を候補領域として認識する。以下、具体的な内容を説明する。 Next, a method of recognizing the candidate area by the candidate area recognition unit 102 will be described. The candidate region recognition unit 102 extracts a signal pixel region including a signal pixel indicating the signal color of the traffic light from the captured image acquired by the image acquisition unit 101, and previously expands the extracted signal pixel region into an expanded expansion region. When a standard region having a predetermined shape is included, the region including the standard region is recognized as a signal region. More specifically, when the expansion region includes a circular standard region, the candidate region recognition unit 102 recognizes the region including the standard region as a candidate region. The specific contents will be described below.

画像取得部101により取得された撮影画像が(R,G,B)色空間の画像データである場合、候補領域認識部102は、画像取得部101により取得されたRGB色空間の撮影画像(入力画像)を、(Y,U,V)色空間の画像データに変更し、信号画素を抽出する。ここで、(R,G,B)の色空間と(Y,U,V)の色空間との変換は以下の式(6)により行われる。

Figure 0006874315
When the captured image acquired by the image acquisition unit 101 is image data in the (R, G, B) color space, the candidate area recognition unit 102 uses the captured image (input) in the RGB color space acquired by the image acquisition unit 101. Image) is changed to image data in the (Y, U, V) color space, and signal pixels are extracted. Here, the conversion between the color space of (R, G, B) and the color space of (Y, U, V) is performed by the following equation (6).
Figure 0006874315

この例では、撮影装置12によって予め信号機の信号を撮影して得られる撮影画像(「信号画像サンプル」と称する)を集めた学習により、信号機の信号の色値の範囲を示す信号認識辞書を予め作成しておく。例えば赤信号を示す(U,V)値分布と、赤信号以外の(U,V)値分布とを分離する分離面を、両者の間のマージン(距離)が最大になるように配置する。そして、その分離面を示す評価関数を、赤信号を認識するための赤信号認識辞書として算出することができる。以下の式(7)は、評価関数を表す式である。式(7)において、f(U,V)は、赤信号認識辞書を示す評価関数であり、a,b,cは、この評価関数の係数である。青信号認識辞書および黄信号認識辞書も同様の方法で作成することができる。

Figure 0006874315
In this example, a signal recognition dictionary indicating the range of color values of the signal of the traffic light is obtained in advance by learning by collecting captured images (referred to as "signal image samples") obtained by photographing the signal of the traffic light in advance by the photographing device 12. Create it. For example, a separation surface that separates the (U, V) value distribution indicating a red signal and the (U, V) value distribution other than the red signal is arranged so that the margin (distance) between the two is maximized. Then, the evaluation function indicating the separation surface can be calculated as a red signal recognition dictionary for recognizing the red signal. The following equation (7) is an equation representing the evaluation function. In equation (7), f (U, V) is an evaluation function indicating a red signal recognition dictionary, and a, b, and c are coefficients of this evaluation function. A green signal recognition dictionary and a yellow signal recognition dictionary can be created in the same manner.
Figure 0006874315

候補領域認識部102は、(Y,U,V)色空間の撮影画像を構成する画素ごとに、該画素の(U,V)値を、各信号色(赤、黄および青の何れか)に対応する評価関数f(U,V)に代入して、該評価関数f(U,V)の値を求める。算出した評価関数f(U,V)の値が、予め定めた閾値以上であれば、その画素は、対応する信号色の信号画素であると判断する。例えば最小値の閾値と最大値の閾値とを設けて信号画素を抽出してもよい。赤、青、黄色のそれぞれのUの最小値および最大値、Vの最小値および最大値の閾値を設定してもよい。また、信号画素以外の画素の(U,V)値と重ならないように閾値を設定する。 The candidate area recognition unit 102 sets the (U, V) value of each pixel constituting the captured image in the (Y, U, V) color space to each signal color (any of red, yellow, and blue). The value of the evaluation function f (U, V) is obtained by substituting it into the evaluation function f (U, V) corresponding to. If the value of the calculated evaluation function f (U, V) is equal to or greater than a predetermined threshold value, it is determined that the pixel is a signal pixel of the corresponding signal color. For example, a signal pixel may be extracted by setting a minimum value threshold value and a maximum value threshold value. Thresholds for the minimum and maximum values of U and the minimum and maximum values of V, respectively, of red, blue, and yellow may be set. Further, the threshold value is set so as not to overlap with the (U, V) values of pixels other than the signal pixel.

図15は、画素値の(U、V)空間での閾値処理で抽出した青信号の画素例を示す図である。図15の画像中の信号画素(青信号を示す画素)を含む信号画素領域では、飽和した画素、ノイズ画素が含まれるので、抽出した信号画素領域は、青信号を示す実際の領域の一部しかない。そこで、候補領域認識部102は、抽出した信号画素に対して、膨張処理を行う。膨張処理は、1画素に対して、オリジナルの信号画像からN×Nの画素ブロックを加える。例えばN=7のとき、膨張対象の1画素に対して、オリジナルの信号画像から、7×7の画素ブロックを加える。図16は、図15の信号画素領域を膨張処理した後の画素例を示す図である。以下では、膨張処理した後の信号画素領域を「膨張領域」と称する。 FIG. 15 is a diagram showing a pixel example of a green signal extracted by threshold processing in the (U, V) space of pixel values. Since the signal pixel region including the signal pixels (pixels showing the green signal) in the image of FIG. 15 includes saturated pixels and noise pixels, the extracted signal pixel region is only a part of the actual region showing the green signal. .. Therefore, the candidate area recognition unit 102 performs expansion processing on the extracted signal pixels. In the expansion process, an N × N pixel block is added to one pixel from the original signal image. For example, when N = 7, a 7 × 7 pixel block is added from the original signal image to one pixel to be expanded. FIG. 16 is a diagram showing a pixel example after the signal pixel region of FIG. 15 has been expanded. Hereinafter, the signal pixel region after the expansion processing is referred to as an “expansion region”.

候補領域認識部102は、膨張領域に対して、信号形状認識処理を行う。赤、青、黄信号に対して、円形抽出により、形状認識を行う。ここで、膨張領域に対して、円抽出により、形状認識を行う。円が検知された場合、信号が存在すると判断することができる。円抽出処理はHough変換により円抽出を行うことができる。そして、候補領域認識部102は、抽出した円領域に外接する矩形を求める。この矩形領域を候補領域(候補領域認識部102による認識結果)とする。図17に示す太線で描かれた円は、Hough変換により抽出した青信号の円領域を示す。図18に示す矩形領域は、候補領域認識部102によって認識された候補領域を示す。図19に示す矩形領域は、図3の撮影画像から認識された候補領域(青信号の候補を示す領域)を示す図である。 The candidate area recognition unit 102 performs signal shape recognition processing on the expansion area. Shape recognition is performed for red, blue, and yellow signals by circular extraction. Here, the shape of the expanded region is recognized by extracting a circle. When a circle is detected, it can be determined that a signal exists. The circle extraction process can perform circle extraction by Hough transform. Then, the candidate area recognition unit 102 obtains a rectangle circumscribing the extracted circular area. This rectangular area is used as a candidate area (recognition result by the candidate area recognition unit 102). The circle drawn by the thick line shown in FIG. 17 indicates the circular region of the green light extracted by the Hough transform. The rectangular area shown in FIG. 18 indicates a candidate area recognized by the candidate area recognition unit 102. The rectangular area shown in FIG. 19 is a diagram showing a candidate area (a region showing a green light candidate) recognized from the captured image of FIG.

上記図19の認識結果は、撮影画像のうち信号機の信号(この例では青信号)を示す領域を認識した結果である。信号機以外の対象物でも、同じ色、同じ形状のものであれば、誤認識になってしまう問題がある。例えば、木の後方に赤色の看板がある場合、看板の一部は木に隠される。見える看板の一部は赤色で、丸い形になる。信号機の赤信号と同じ色および形状(円形状)であれば、信号機の赤信号として誤認識されてしまう。他の色の信号色についても同様の問題が起こる。 The recognition result of FIG. 19 is the result of recognizing the region of the captured image showing the signal of the traffic light (green light in this example). Even for objects other than traffic lights, if they have the same color and shape, there is a problem of misrecognition. For example, if there is a red sign behind the tree, part of the sign will be hidden by the tree. Part of the visible signboard is red and has a round shape. If it has the same color and shape (circular shape) as the red light of the traffic light, it will be erroneously recognized as the red light of the traffic light. Similar problems occur with signal colors of other colors.

以上に説明した本実施形態では、信号機の信号の周囲の領域を示す周囲領域を識別するために予め定められた周囲領域識別情報(この例では評価関数)と、候補領域の周囲の特徴量を示す周囲特徴量データと、に基づいて、周囲特徴量データに対応する候補領域が信号機の信号を示す領域であるか否かを判断するので、周囲特徴量データが正解データに該当しない限り、該周囲特徴量データに対応する候補領域は信号機の信号を示す領域であるとは判定されない。すなわち、本実施形態によれば、撮影画像に映り込んだ信号機の信号を高精度に認識することができる。 In the present embodiment described above, the peripheral area identification information (evaluation function in this example) predetermined for identifying the peripheral area indicating the peripheral area indicating the peripheral area of the signal of the signal and the feature amount around the candidate area are used. Based on the ambient feature data to be shown, it is determined whether or not the candidate region corresponding to the ambient feature data is the region indicating the signal of the signal. Therefore, unless the ambient feature data corresponds to the correct answer data, the said The candidate area corresponding to the ambient feature amount data is not determined to be the area indicating the signal of the signal. That is, according to the present embodiment, the signal of the traffic light reflected in the captured image can be recognized with high accuracy.

図20は、本実施形態の認識処理部16の動作例を示すフローチャートである。各ステップの具体的な内容は上述したとおりであるので、詳細な説明は適宜に省略する。図20に示すように、まず画像取得部101は、撮影画像を取得する(ステップS1)。次に、候補領域認識部102は、ステップS1で取得された撮影画像のうち、信号機の信号の色と形状に対応する領域を示す候補領域を認識する(ステップS2)。次に、周囲特徴量データ算出部103は、ステップS1で取得された撮影画像のうち、ステップS2で認識された候補領域の周囲の特徴量を示す周囲特徴量データを算出する(ステップS3)。また、以上の処理と並行して、時間帯判別部106は、ステップS1により取得された撮影画像が撮影された時間帯を判別する(ステップS4)。 FIG. 20 is a flowchart showing an operation example of the recognition processing unit 16 of the present embodiment. Since the specific contents of each step are as described above, detailed description thereof will be omitted as appropriate. As shown in FIG. 20, first, the image acquisition unit 101 acquires a captured image (step S1). Next, the candidate area recognition unit 102 recognizes the candidate area indicating the area corresponding to the color and shape of the signal of the traffic light among the captured images acquired in step S1 (step S2). Next, the peripheral feature data calculation unit 103 calculates the peripheral feature data indicating the peripheral features of the candidate region recognized in step S2 among the captured images acquired in step S1 (step S3). Further, in parallel with the above processing, the time zone determination unit 106 determines the time zone in which the captured image acquired in step S1 was captured (step S4).

次に、選択部108は、ステップS4で判別された時間帯と、位置情報取得部107により取得された位置情報により特定される国または地域との組み合わせに対応する評価関数を選択する(ステップS5)。次に、判断部104は、ステップS3で算出された周囲特徴量データと、ステップS5で選択された評価関数と、に基づいて、該周囲特徴量データPに対応する候補領域(ステップS2で認識された候補領域)が信号機の信号を示す領域であるか否かを判断する判断処理を行う(ステップS6)。そして、削除処理部105は、ステップS6の判断処理により、信号機の信号を示す領域ではないと判断された候補領域を削除する処理を行う(ステップS7)。出力部109は、ステップS6の判断処理により、信号機の信号を示す領域であると判断された候補領域を、認識結果として出力する(ステップS8)。 Next, the selection unit 108 selects an evaluation function corresponding to the combination of the time zone determined in step S4 and the country or region specified by the position information acquired by the position information acquisition unit 107 (step S5). ). Next, the determination unit 104 recognizes the candidate area (recognized in step S2) corresponding to the peripheral feature amount data P based on the peripheral feature amount data calculated in step S3 and the evaluation function selected in step S5. Judgment processing is performed to determine whether or not the selected candidate region) is a region indicating a signal of a traffic light (step S6). Then, the deletion processing unit 105 performs a process of deleting the candidate area determined not to be the area indicating the signal of the traffic light by the determination process of step S6 (step S7). The output unit 109 outputs the candidate area determined to be the area indicating the signal of the traffic signal as the recognition result by the determination process in step S6 (step S8).

次に、撮影装置12のハードウェア構成の一例を説明する。図21は、撮影装置12のハードウェア構成の一例を示す図である。 Next, an example of the hardware configuration of the photographing device 12 will be described. FIG. 21 is a diagram showing an example of the hardware configuration of the photographing device 12.

撮影装置12は、撮影光学系2010、メカシャッタ2020、モータドライバ2030、CCD(Charge Coupled Device)2040、CDS(Correlated Double Sampling:相関二重サンプリング)回路2050、A/D変換器2060、タイミング信号発生器2070、画像処理回路2080、LCD(Liquid Crystal Display)2090、CPU(Central Processing Unit)2100、RAM(Random Access Memory)2110、ROM(Read Only Memory)2120、SDRAM(Synchronous Dynamic Random Access Memory)2130、圧縮伸張回路2140、メモリ2150、操作部2160、および、出力I/F2170を備える。 The photographing device 12 includes a photographing optical system 2010, a mechanical shutter 2020, a motor driver 2030, a CCD (Charge Coupled Device) 2040, a CDS (Correlated Double Sample) circuit 2050, an A / D converter 2060, and a timing signal generator. 2070, image processing circuit 2080, LCD (Liquid Crystal Device) 2090, CPU (Central Processing Unit) 2100, RAM (Random Access Memory) 2110, ROM (Read Only Memory) 2120, SRAM (Syndy) It includes an extension circuit 2140, a memory 2150, an operation unit 2160, and an output I / F 2170.

画像処理回路2080、CPU2100、RAM2110、ROM2120、SDRAM2130、圧縮伸張回路2140、メモリ2150、操作部2160、および、出力I/F2170は、バス2200を介して接続されている。 The image processing circuit 2080, CPU 2100, RAM 2110, ROM 2120, SDRAM 2130, compression / decompression circuit 2140, memory 2150, operation unit 2160, and output I / F 2170 are connected via a bus 2200.

撮影光学系2010は、被写体の反射光を集光する。メカシャッタ2020は、所定の時間、開くことにより、撮影光学系2010により集光された光をCCD2040に入射させる。モータドライバ2030は、撮影光学系2010およびメカシャッタ2020を駆動する。 The photographing optical system 2010 collects the reflected light of the subject. By opening the mechanical shutter 2020 for a predetermined time, the light focused by the photographing optical system 2010 is incident on the CCD 2040. The motor driver 2030 drives the photographing optical system 2010 and the mechanical shutter 2020.

CCD2040は、メカシャッタ2020を介して入射した光を被写体の像として結像し、当該被写体の像を示すアナログの画像データをCDS回路2050に入力する。 The CCD 2040 forms an image of the light incident through the mechanical shutter 2020 as an image of the subject, and inputs analog image data showing the image of the subject to the CDS circuit 2050.

CDS回路2050は、CCD2040からアナログの画像データを受け付けると、当該画像データのノイズ成分を除去する。また、CDS回路2050は、相関二重サンプリングやゲインコントロールなどのアナログ処理を行う。そして、CDS回路2050は、処理後のアナログの画像データを、A/D変換器2060へ出力する。 When the CDS circuit 2050 receives the analog image data from the CCD 2040, the CDS circuit 2050 removes the noise component of the image data. Further, the CDS circuit 2050 performs analog processing such as correlated double sampling and gain control. Then, the CDS circuit 2050 outputs the processed analog image data to the A / D converter 2060.

A/D変換器2060は、CDS回路2050からアナログの画像データを受け付けると、当該アナログの画像データをデジタルの画像データに変換する。A/D変換器2060はデジタルの画像データを画像処理回路2080に入力する。タイミング信号発生器2070はCPU2100からの制御信号に応じて、CCD2040、CDS回路2050、およびA/D変換器2060にタイミング信号を送信することにより、CCD2040、CDS回路2050、およびA/D変換器2060の動作タイミングを制御する。 When the A / D converter 2060 receives the analog image data from the CDS circuit 2050, the A / D converter 2060 converts the analog image data into digital image data. The A / D converter 2060 inputs digital image data to the image processing circuit 2080. The timing signal generator 2070 transmits a timing signal to the CCD 2040, the CDS circuit 2050, and the A / D converter 2060 in response to the control signal from the CPU 2100, thereby transmitting the timing signal to the CCD 2040, the CDS circuit 2050, and the A / D converter 2060. Controls the operation timing of.

画像処理回路2080は、A/D変換器2060からデジタルの画像データを受け付けると、SDRAM2130を使用して、当該デジタルの画像データの画像処理を行う。画像処理は、例えばCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、および、色変換処理等である。 When the image processing circuit 2080 receives the digital image data from the A / D converter 2060, the image processing circuit 2080 uses the SDRAM 2130 to perform image processing of the digital image data. The image processing includes, for example, CrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, color conversion processing, and the like.

画像処理回路2080は上述の画像処理が行われた画像データをLCD2090、または、圧縮伸張回路2140に出力する。LCD2090は画像処理回路2080から受け付けた画像データを表示する液晶ディスプレイである。 The image processing circuit 2080 outputs the image data subjected to the above-mentioned image processing to the LCD 2090 or the compression / decompression circuit 2140. The LCD 2090 is a liquid crystal display that displays image data received from the image processing circuit 2080.

圧縮伸張回路2140は、画像処理回路2080から画像データを受け付けると、当該画像データを圧縮する。圧縮伸張回路2140は圧縮された画像データを、メモリ2150に記憶する。また、圧縮伸張回路2140はメモリ2150から画像データを受け付けると、当該画像データを伸張する。圧縮伸張回路2140は伸張された画像データをSDRAM2130に一時的に記憶する。メモリ2150は圧縮された画像データを記憶する。 When the compression / decompression circuit 2140 receives the image data from the image processing circuit 2080, the compression / decompression circuit 2140 compresses the image data. The compression / decompression circuit 2140 stores the compressed image data in the memory 2150. Further, when the compression / decompression circuit 2140 receives the image data from the memory 2150, the compression / decompression circuit 2140 decompresses the image data. The compression / decompression circuit 2140 temporarily stores the decompressed image data in the SDRAM 2130. Memory 2150 stores compressed image data.

出力I/F2170は、画像処理回路2080で処理された画像データを、撮影画像として、情報処理装置10へ出力する。 The output I / F 2170 outputs the image data processed by the image processing circuit 2080 to the information processing device 10 as a captured image.

なお上述の図2で説明したインタフェース部14、および認識処理部16に含まれる機能部の少なくとも一部を、信号処理ボード(信号処理回路)として撮影装置12に実装してもよい。 At least a part of the functional unit included in the interface unit 14 and the recognition processing unit 16 described with reference to FIG. 2 may be mounted on the photographing device 12 as a signal processing board (signal processing circuit).

次に、上記実施の形態および変形例の、情報処理装置10のハードウェア構成を説明する。図22は、上記実施形態の情報処理装置10のハードウェア構成例を示すブロック図である。 Next, the hardware configuration of the information processing apparatus 10 according to the above-described embodiment and modification will be described. FIG. 22 is a block diagram showing a hardware configuration example of the information processing apparatus 10 of the above embodiment.

上記実施形態の情報処理装置10は、出力部80、I/F部82、入力部94、CPU86、ROM(Read Only Memory)88、RAM(Random Access Memory)90、およびHDD92等がバス96により相互に接続されており、通常のコンピュータを利用したハードウェア構成となっている。 In the information processing device 10 of the above embodiment, the output unit 80, the I / F unit 82, the input unit 94, the CPU 86, the ROM (Read Only Memory) 88, the RAM (Random Access Memory) 90, the HDD 92, and the like are mutually connected by the bus 96. It is connected to and has a hardware configuration using a normal computer.

CPU86は、上記実施形態の情報処理装置10で実行する処理を制御する演算装置である。RAM90は、CPU86による各種処理に必要なデータを記憶する。ROM88は、CPU86による各種処理を実現するプログラム等を記憶する。HDD92は、上述した記憶部18に格納されるデータを記憶する。I/F部82は、他の装置との間でデータを送受信するためのインタフェースである。 The CPU 86 is an arithmetic unit that controls the processing executed by the information processing device 10 of the above embodiment. The RAM 90 stores data required for various processes by the CPU 86. The ROM 88 stores a program or the like that realizes various processes by the CPU 86. The HDD 92 stores the data stored in the storage unit 18 described above. The I / F unit 82 is an interface for transmitting and receiving data to and from other devices.

上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、ROM88等に予め組み込んで提供される。 A program for executing the various processes executed by the information processing apparatus 10 of the above embodiment is provided by being incorporated in ROM 88 or the like in advance.

なお、上記実施形態の情報処理装置10で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。 The program executed by the information processing device 10 of the above embodiment is a file in a format that can be installed or executed in these devices, and is a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital). It may be configured to be recorded and provided on a computer-readable recording medium such as a Versail Disc).

また、上記実施形態の情報処理装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施形態の情報処理装置10における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the program executed by the information processing apparatus 10 of the above embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program for executing each of the above processes in the information processing apparatus 10 of the above embodiment may be configured to be provided or distributed via a network such as the Internet.

上記実施形態の情報処理装置10で実行される上記各種処理を実行するためのプログラムは、上述した各部が主記憶装置上に生成されるようになっている。 Each of the above-described parts of the program for executing the various processes executed by the information processing device 10 of the above-described embodiment is generated on the main storage device.

なお、上記HDD92に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置とCPU86と、を、ネットワーク等を介して接続した構成とすればよい。 The various information stored in the HDD 92 may be stored in an external device. In this case, the external device and the CPU 86 may be connected via a network or the like.

10 情報処理装置
14 インタフェース部
16 認識処理部
18 記憶部
101 画像取得部
102 候補領域認識部
103 周囲特徴量データ算出部
104 判断部
105 削除処理部
106 時間帯判別部
107 位置情報取得部
108 選択部
109 出力部
10 Information processing device 14 Interface unit 16 Recognition processing unit 18 Storage unit 101 Image acquisition unit 102 Candidate area recognition unit 103 Surrounding feature amount data calculation unit 104 Judgment unit 105 Deletion processing unit 106 Time zone determination unit 107 Position information acquisition unit 108 Selection unit 109 Output section

特開2009−244946号公報JP-A-2009-2449446

Claims (8)

撮影画像を取得する取得部と、
前記取得部により取得された前記撮影画像のうち、信号機の信号の色と形状に対応する領域を示す候補領域を認識する候補領域認識部と、
前記候補領域の周囲の特徴量を示す周囲特徴量データを算出する周囲特徴量データ算出部と、
前記信号機の信号の周囲の領域を示す周囲領域を識別するために、国または地域ごとに予め定められた周囲領域識別情報と、前記周囲特徴量データ算出部により算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量データに対応する前記候補領域が前記信号機の信号を示す領域であるか否かを判断する判断部と、
位置情報を取得する位置情報取得部と、
前記位置情報取得部により取得された位置情報に対応する前記周囲領域識別情報を選択する選択部と、を備える、
情報処理装置。
The acquisition unit that acquires the captured image and
Among the captured images acquired by the acquisition unit, a candidate area recognition unit that recognizes a candidate area indicating an area corresponding to the color and shape of the signal of the traffic light, and a candidate area recognition unit.
A peripheral feature data calculation unit that calculates peripheral feature data indicating the peripheral features of the candidate region, and a peripheral feature data calculation unit.
In order to identify the peripheral area indicating the peripheral area indicating the peripheral area of the signal of the traffic light, the peripheral area identification information predetermined for each country or region and the peripheral feature amount data calculated by the peripheral feature amount data calculation unit are used. Based on, a determination unit for determining whether or not the candidate region corresponding to the ambient feature amount data is a region indicating a signal of the traffic light, and a determination unit.
The location information acquisition unit that acquires location information and
A selection unit for selecting the surrounding area identification information corresponding to the position information acquired by the position information acquisition unit is provided.
Information processing device.
前記周囲領域識別情報は、複数の時間帯ごとに予め定められ、
前記撮影画像が撮影された時間帯を判別する時間帯判別部と、
前記時間帯判別部により判別された時間帯に対応する前記周囲領域識別情報を選択する選択部と、をさらに備える、
請求項1に記載の情報処理装置。
The surrounding area identification information is predetermined for each of a plurality of time zones.
A time zone determination unit that determines the time zone in which the captured image was taken, and
A selection unit for selecting the surrounding area identification information corresponding to the time zone determined by the time zone determination unit is further provided.
The information processing device according to claim 1.
前記判断部は、前記選択部により選択された前記周囲領域識別情報と、前記周囲特徴量データ算出部により算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量データに対応する前記候補領域が前記信号機の信号を示す領域であるか否かを判断する、
請求項1または2に記載の情報処理装置。
The determination unit corresponds to the peripheral feature amount data based on the peripheral area identification information selected by the selection unit and the peripheral feature amount data calculated by the peripheral feature amount data calculation unit. It is determined whether or not the candidate area is a region indicating the signal of the traffic light.
The information processing device according to claim 1 or 2.
撮影画像を取得する取得部と、
前記取得部により取得された前記撮影画像のうち、信号機の信号の色と形状に対応する領域を示す候補領域を認識する候補領域認識部と、
前記候補領域の周囲の特徴量を示す周囲特徴量データを算出する周囲特徴量データ算出部と、
前記信号機の信号の周囲の領域を示す周囲領域を識別するために予め定められた周囲領域識別情報と、前記周囲特徴量データ算出部により算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量データに対応する前記候補領域が前記信号機の信号を示す領域であるか否かを判断する判断部と、を備え
前記周囲領域識別情報は、機械学習方法を利用して予め作成され、
前記周囲領域と前記周囲領域以外の領域を示す誤認識領域との分離面を示す評価関数である、
情報処理装置。
The acquisition unit that acquires the captured image and
Among the captured images acquired by the acquisition unit, a candidate area recognition unit that recognizes a candidate area indicating an area corresponding to the color and shape of the signal of the traffic light, and a candidate area recognition unit.
A peripheral feature data calculation unit that calculates peripheral feature data indicating the peripheral features of the candidate region, and a peripheral feature data calculation unit.
Based on the peripheral area identification information predetermined for identifying the peripheral area indicating the peripheral area indicating the peripheral area of the signal of the signal, and the peripheral feature amount data calculated by the peripheral feature amount data calculation unit, the said The peripheral area identification information is prepared in advance by using a machine learning method, and includes a determination unit for determining whether or not the candidate area corresponding to the ambient feature amount data is an area indicating a signal of the signal.
It is an evaluation function indicating a separation surface between the peripheral region and the erroneous recognition region indicating an region other than the peripheral region.
Information processing device.
前記候補領域認識部は、
前記撮影画像のうち、前記信号機の信号色を示す信号画素を含む信号画素領域を抽出し、その抽出した前記信号画素領域を膨張した膨張領域に予め定めた形状の定型領域が含まれる場合、該定型領域を含む領域を前記候補領域として認識する、
請求項1乃至4のうちの何れか1項に記載の情報処理装置。
The candidate area recognition unit
Among the shooting Kagee image, if the extracting traffic signal pixel region including a signal pixel indicating the signal color, include standard regions of a predetermined shape to the expansion area expands the signal pixel regions thereof extracted, Recognizing the region including the standard region as the candidate region.
The information processing device according to any one of claims 1 to 4.
前記候補領域認識部は、前記膨張領域に円形の前記定型領域が含まれる場合、該定型領域を含む領域を前記候補領域として認識する、
請求項5に記載の情報処理装置。
When the expansion region includes the circular standard region, the candidate region recognition unit recognizes the region including the standard region as the candidate region.
The information processing device according to claim 5.
撮影画像を取得する取得ステップと、
前記撮影画像のうち、信号機の色と形状に対応する信号領域を示す候補領域を認識する候補領域認識ステップと、
前記候補領域の周囲の特徴量を示す周囲特徴量データを算出する周囲特徴量データ算出ステップと、
前記信号機の周囲の領域を示す周囲領域を識別するために、国または地域ごとに予め定められた周囲領域識別情報と、前記周囲特徴量データ算出ステップにより算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量に対応する前記信号領域が前記信号機の信号を示す領域であるか否かを判断する判断ステップと、
位置情報を取得する位置情報取得ステップと、
取得された前記位置情報に対応する前記周囲領域識別情報を選択する選択ステップと、を含む、
情報処理方法。
The acquisition step to acquire the captured image and
Among the shooting Kagee image, recognizing the candidate region recognition step the candidate region showing a signal region corresponding to the color and shape of traffic,
A peripheral feature data calculation step for calculating peripheral feature data indicating the peripheral features of the candidate region, and
In order to identify the peripheral area indicating the peripheral area of the traffic light, the peripheral area identification information predetermined for each country or region and the peripheral feature amount data calculated by the peripheral feature amount data calculation step are added to. Based on this, a determination step of determining whether or not the signal region corresponding to the ambient feature amount is a region indicating a signal of the traffic light, and a determination step.
The location information acquisition step to acquire the location information and
Including a selection step of selecting the surrounding area identification information corresponding to the acquired position information.
Information processing method.
コンピュータに、
撮影画像を取得する取得ステップと、
前記撮影画像のうち、信号機の色と形状に対応する信号領域を示す候補領域を認識する候補領域認識ステップと、
前記信号領域の周囲の特徴量を示す周囲特徴量データを算出する周囲特徴量データ算出ステップと、
前記信号機の信号の周囲の領域を示す周囲領域を識別するために、国または地域ごとに予め定められた周囲領域識別情報と、前記周囲特徴量データ算出ステップにより算出された前記周囲特徴量データと、に基づいて、前記周囲特徴量に対応する前記信号領域が前記信号機を示す領域であるか否かを判断する判断ステップと、
位置情報を取得する位置情報取得ステップと、
取得された前記位置情報に対応する前記周囲領域識別情報を選択する選択ステップと、
を実行させるためのプログラム。
On the computer
The acquisition step to acquire the captured image and
Among the shooting Kagee image, recognizing the candidate region recognition step the candidate region showing a signal region corresponding to the color and shape of traffic,
The peripheral feature data calculation step for calculating the peripheral feature data indicating the peripheral features of the signal region, and the peripheral feature data calculation step.
In order to identify the peripheral area indicating the peripheral area indicating the peripheral area of the signal of the traffic light, the peripheral area identification information predetermined for each country or region and the peripheral feature amount data calculated by the peripheral feature amount data calculation step. Based on, a determination step for determining whether or not the signal region corresponding to the ambient feature amount is a region indicating the traffic light, and
The location information acquisition step to acquire the location information and
A selection step for selecting the surrounding area identification information corresponding to the acquired position information, and
A program to execute.
JP2016193905A 2016-09-30 2016-09-30 Information processing equipment, information processing methods and programs Active JP6874315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016193905A JP6874315B2 (en) 2016-09-30 2016-09-30 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016193905A JP6874315B2 (en) 2016-09-30 2016-09-30 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018055591A JP2018055591A (en) 2018-04-05
JP6874315B2 true JP6874315B2 (en) 2021-05-19

Family

ID=61836843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016193905A Active JP6874315B2 (en) 2016-09-30 2016-09-30 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6874315B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210890B2 (en) 2018-03-29 2023-01-24 株式会社リコー Behavior recognition device, behavior recognition method, its program, and computer-readable recording medium recording the program
KR102178202B1 (en) * 2019-01-30 2020-11-12 (주)컨트롤웍스 Method and apparatus for detecting traffic light

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4953012B2 (en) * 2007-08-10 2012-06-13 アイシン・エィ・ダブリュ株式会社 Image recognition device, program for image recognition device, navigation device using the same, and program for navigation device
JP2013242686A (en) * 2012-05-21 2013-12-05 Nissan Motor Co Ltd Traffic signal detection device and traffic signal detection method
JP2016161973A (en) * 2015-02-26 2016-09-05 株式会社リコー Recognition apparatus, recognition method, and program

Also Published As

Publication number Publication date
JP2018055591A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US20170228606A1 (en) Information processing apparatus, information processing method, and recording medium
JP6639113B2 (en) Image recognition device, image recognition method, and program
US10163027B2 (en) Apparatus for and method of processing image based on object region
JP6230751B1 (en) Object detection apparatus and object detection method
KR101409340B1 (en) Method for traffic sign recognition and system thereof
CN109916415A (en) Road type determines method, apparatus, equipment and storage medium
JP6874315B2 (en) Information processing equipment, information processing methods and programs
JP6825299B2 (en) Information processing equipment, information processing methods and programs
CN114170565A (en) Image comparison method and device based on unmanned aerial vehicle aerial photography and terminal equipment
JP6939919B2 (en) Recognition device, recognition method and program
JP2017174380A (en) Recognition device, method for recognizing object, program, and storage medium
KR102286711B1 (en) Camera module stain defect detecting system and method
JP6742736B2 (en) Lighting color determination device for traffic light and lighting color determination method for traffic light
JP2007214806A (en) Obstacle detection system and obstacle detecting method
KR102188162B1 (en) Method and Apparatus for Detecting Vehicle in Foggy Atmosphere
JP7043910B2 (en) Image processing device, image pickup device, device control system, moving object, image processing method, program
JP6859659B2 (en) Information processing equipment, information processing methods and programs
US9082002B2 (en) Detection device and detection method
JP6733279B2 (en) Information processing apparatus, information processing method, and information processing program
JPH06348991A (en) Traveling environment recognizer for traveling vehicle
CN112241935A (en) Image processing method, device and equipment and storage medium
KR102427293B1 (en) Apparatus and method for fusing images of multiple wavelength bands
US20230230344A1 (en) Signal color determination device and signal color determination method
JP5818571B2 (en) Imaging device, control method thereof, and control program
JP6558978B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R151 Written notification of patent or utility model registration

Ref document number: 6874315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151