JP2016162436A - Road appanage detection device and road appanage detection method - Google Patents

Road appanage detection device and road appanage detection method Download PDF

Info

Publication number
JP2016162436A
JP2016162436A JP2015044086A JP2015044086A JP2016162436A JP 2016162436 A JP2016162436 A JP 2016162436A JP 2015044086 A JP2015044086 A JP 2015044086A JP 2015044086 A JP2015044086 A JP 2015044086A JP 2016162436 A JP2016162436 A JP 2016162436A
Authority
JP
Japan
Prior art keywords
road
captured image
region
specific shape
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015044086A
Other languages
Japanese (ja)
Other versions
JP6526449B2 (en
Inventor
佐藤 俊雄
Toshio Sato
俊雄 佐藤
鈴木 美彦
Yoshihiko Suzuki
美彦 鈴木
上野 秀樹
Hideki Ueno
秀樹 上野
横井 謙太朗
Kentaro Yokoi
謙太朗 横井
青木 泰浩
Yasuhiro Aoki
泰浩 青木
健二 君山
Kenji Kimiyama
健二 君山
雄介 高橋
Yusuke Takahashi
雄介 高橋
勝大 堀江
Katsuhiro Horie
勝大 堀江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015044086A priority Critical patent/JP6526449B2/en
Publication of JP2016162436A publication Critical patent/JP2016162436A/en
Application granted granted Critical
Publication of JP6526449B2 publication Critical patent/JP6526449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately detect many kinds of road appanages, for one example.SOLUTION: A road appanage detection device of an embodiment comprises: a pole area detection part; a specific color detection part; a specific shape detection part; a determination part; and an output part. The pole area detection part detects a pole area which is an area of a pole part of a detection target, based on pixels of a photographed image from the photographed image of a road where a vehicle travels. The specific color detection part detects a specific color area which is an area having specific color of the detection target from the photographed image. The specific shape detection part detects a specific shape area which is an area having a specific shape of the detection target. The determination part determines whether or not there is a road appanage(s) arranged in the vicinity of the road, based on the pole area, specific color area, and specific shape area. The output part outputs information related to the road appanage(s).SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、道路附属物検出装置および道路附属物検出方法に関する。   Embodiments described herein relate generally to a road accessory detection apparatus and a road accessory detection method.

道路標識や道路ミラー、街路灯等の道路の附属物は、道路を走行する車両にとって安全を確保するために重要である。このため、従来から、道路附属周辺の撮像画像に基づき道路附属物を検出する道路附属物検出装置が知られている。   Road accessories such as road signs, road mirrors and street lights are important for ensuring safety for vehicles traveling on the road. For this reason, conventionally, a road accessory detection device that detects a road accessory based on a captured image around the road accessory is known.

特許第4394476号公報Japanese Patent No. 4394476 特許第3006471号公報Japanese Patent No. 3006471 特開2013−54522号公報JP 2013-54522 A

このような道路附属物検出装置では、できるだけ多くの種類の道路附属物を高精度に検出することが望まれている。   In such a road accessory detection device, it is desired to detect as many types of road accessories as possible with high accuracy.

実施形態の道路附属物検出装置は、柱領域検出部と、特定色検出部と、特定形状検出部と、判定部と、出力部と、を備える。柱領域検出部は、車両が走行する道路の撮像画像から、撮像画像の画素に基づき、検出対象の柱部分の領域である柱領域を検出する。特定色検出部は、撮像画像から、検出対象の特定色を有する領域である特定色領域を検出する。特定形状検出部は、撮像画像から、検出対象の特定形状を有する領域である特定形状領域を検出する。判定部は、柱領域と特定色領域と特定形状領域とに基づいて、撮像画像に、道路の周辺に配置された道路附属物が存在するか否かを判定する。出力部は、道路附属物に関する情報を出力する。   The road accessory detection device according to the embodiment includes a pillar region detection unit, a specific color detection unit, a specific shape detection unit, a determination unit, and an output unit. The column area detection unit detects a column area, which is an area of a column part to be detected, from a captured image of a road on which the vehicle travels based on pixels of the captured image. The specific color detection unit detects a specific color region that is a region having a specific color to be detected from the captured image. The specific shape detection unit detects a specific shape region that is a region having a specific shape to be detected from the captured image. The determination unit determines whether or not a road accessory arranged around the road exists in the captured image based on the pillar region, the specific color region, and the specific shape region. The output unit outputs information on road accessories.

図1は、実施形態1の道路附属物検出装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the road accessory detection apparatus according to the first embodiment. 図2は、実施形態1の道路附属物の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a road accessory according to the first embodiment. 図3は、実施形態1にかかる道路附属物検出処理の手順の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a procedure of the road accessory detection process according to the first embodiment. 図4は、実施形態1の柱領域検出処理の手順の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of the procedure of the column area detection process according to the first embodiment. 図5は、実施形態1のエッジ強調処理を説明するための一例を示す図である。FIG. 5 is a diagram illustrating an example for explaining the edge enhancement processing according to the first embodiment. 図6は、実施形態1におけるエッジ特徴の画素抽出結果の一例を示す図である。FIG. 6 is a diagram illustrating an example of a pixel extraction result of edge features according to the first embodiment. 図7は、実施形態1の縦方向累積処理を説明するための図である。FIG. 7 is a diagram for explaining the vertical accumulation processing of the first embodiment. 図8は、実施形態1にかかる特定色検出処理の手順の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the procedure of the specific color detection process according to the first embodiment. 図9は、本実施形態の特定色検出処理を説明するための図である。FIG. 9 is a diagram for explaining the specific color detection process of the present embodiment. 図10は、本実施形態の特定色検出処理を説明するための図である。FIG. 10 is a diagram for explaining the specific color detection process of the present embodiment. 図11は、本実施形態の特定色検出処理を説明するための図である。FIG. 11 is a diagram for explaining the specific color detection processing of the present embodiment. 図12は、実施形態1にかかる特定形状検出処理の手順の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a procedure of the specific shape detection process according to the first embodiment. 図13は、実施形態1の特定形状検出処理を説明するための図である。FIG. 13 is a diagram for explaining the specific shape detection process of the first embodiment. 図14は、実施形態1の判定処理の手順の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a determination processing procedure according to the first embodiment. 図15は、実施形態1の柱領域検出処理、特定色検出処理、特定形状検出処理の検出結果の一例を示す図である。FIG. 15 is a diagram illustrating an example of detection results of the column area detection process, the specific color detection process, and the specific shape detection process according to the first embodiment. 図16は、実施形態1の判定結果の例を示す図である。FIG. 16 is a diagram illustrating an example of a determination result according to the first embodiment. 図17は、実施形態1の判定結果の他の例を示す図である。FIG. 17 is a diagram illustrating another example of the determination result of the first embodiment. 図18は、実施形態1の判定結果の他の例を示す図である。FIG. 18 is a diagram illustrating another example of the determination result of the first embodiment. 図19は、実施形態1の道路附属物の出力結果の例を示す図である。FIG. 19 is a diagram illustrating an example of an output result of the road appendage according to the first embodiment. 図20は、実施形態2の道路附属物検出装置の機能的構成を示すブロック図である。FIG. 20 is a block diagram illustrating a functional configuration of the road accessory detection apparatus according to the second embodiment. 図21は、実施形態2の形状パターンの変換の一例を示す図である。FIG. 21 is a diagram illustrating an example of shape pattern conversion according to the second embodiment. 図22は、実施形態2の道路附属物検出処理の手順の一例を示すフローチャートである。FIG. 22 is a flowchart illustrating an example of a procedure of the road accessory detection process according to the second embodiment. 図23は、実施形態2の円形の道路ミラーの車両からの見え方の例を示す図である。FIG. 23 is a diagram illustrating an example of how a circular road mirror according to the second embodiment is seen from a vehicle. 図24は、実施形態3の道路附属物検出装置の機能的構成を示すブロック図である。FIG. 24 is a block diagram illustrating a functional configuration of the road accessory detection device according to the third embodiment. 図25は、実施形態3の二つの撮像カメラの撮像方向の一例を示す図である。FIG. 25 is a diagram illustrating an example of the imaging directions of the two imaging cameras according to the third embodiment. 図26は、実施形態3の道路附属物検出の一例を説明するための図である。FIG. 26 is a diagram for explaining an example of road accessory detection according to the third embodiment. 図27は、実施形態3の道路附属物検出処理の手順の一例を示すフローチャートである。FIG. 27 is a flowchart illustrating an example of a procedure of road accessory detection processing according to the third embodiment.

以下、実施形態について説明する。   Hereinafter, embodiments will be described.

(実施形態1)
図1は、実施形態1の道路附属物検出装置の機能的構成を示すブロック図である。実施形態1の道路附属物検出装置100は、図1に示すように、撮像カメラ110と、柱領域検出部101と、特定色検出部102と、特定形状検出部103と、判定部104と、出力部105と、計時部106と、位置検出部107と、色データベース120(以下、「色DB120」という。)と、形状データベース130(以下、「形状DB130」という。)と、を主に備えている。ここで、色DB120と形状DB130は、HDD(HArd Disk Drive)やSSD(Solid State Drive)、メモリ等の記憶媒体に記憶されている。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a functional configuration of the road accessory detection apparatus according to the first embodiment. As shown in FIG. 1, the road accessory detection apparatus 100 according to the first embodiment includes an imaging camera 110, a column region detection unit 101, a specific color detection unit 102, a specific shape detection unit 103, a determination unit 104, An output unit 105, a time measuring unit 106, a position detection unit 107, a color database 120 (hereinafter referred to as “color DB 120”), and a shape database 130 (hereinafter referred to as “shape DB 130”) are mainly provided. ing. Here, the color DB 120 and the shape DB 130 are stored in a storage medium such as an HDD (HARD Disk Drive), an SSD (Solid State Drive), or a memory.

本実施形態の道路附属物検出装置100は、道路を走行する車両に搭載されて、道路附属物を検出する装置である。ここで、道路附属物とは、道路の構造の保全、安全かつ円滑な道路の交通の確保その他道路の管理上必要な施設又は工作物である(道路法第2条第2項)。このような道路附属物としては、例えば、道路標識や道路ミラー、街路灯等が挙げられるが、これらに限定されるものではない。   The road accessory detection apparatus 100 of this embodiment is an apparatus that is mounted on a vehicle traveling on a road and detects a road accessory. Here, a road accessory is a facility or work required for road structure maintenance, ensuring safe and smooth road traffic, and other road management (Article 2, Paragraph 2 of the Road Law). Examples of such road accessories include, but are not limited to, road signs, road mirrors, street lamps, and the like.

図2は、実施形態1の道路附属物の構成の一例を示す図である。道路附属物の一例である道路標識や道路ミラーは、図2に示すように、一般的に、縁領域201と、中央領域202と、柱領域203とから構成される。縁領域201は、標識やミラーの縁部の領域である。中央領域202は、標識やミラーの縁領域201より内部の部分の領域である。柱領域203は、中央領域202および縁領域201からなる部分を支える柱部分の領域である。   FIG. 2 is a diagram illustrating an example of a configuration of a road accessory according to the first embodiment. As shown in FIG. 2, a road sign or road mirror, which is an example of a road accessory, generally includes an edge area 201, a center area 202, and a pillar area 203. The edge area 201 is an area of the edge of a sign or mirror. The central area 202 is an area inside the sign or mirror edge area 201. The column region 203 is a column portion region that supports a portion including the central region 202 and the edge region 201.

図1に戻り、撮像カメラ110は、車両の外部または内部に設置され、走行する車両の前方の道路周辺を一定時間間隔で撮像し、撮像画像を出力する。   Returning to FIG. 1, the imaging camera 110 is installed outside or inside the vehicle, images the road surrounding the road ahead of the traveling vehicle at regular time intervals, and outputs a captured image.

柱領域検出部101は、撮像カメラ110で撮像された道路の周辺の撮像画像を入力し、入力された撮像画像から、撮像画像を構成する画素に基づいて、縦方向の一対の線を道路附属物の柱領域として検出する。具体的には、柱領域検出部101は、撮像画像に対してエッジ強調を行い、エッジ強調された画素からエッジ特徴を抽出し、抽出画素を撮像画像の縦方向に累積することで縦方向の一対の線からなる柱部分を検出して柱領域とし、柱領域の座標範囲を出力する。   The column area detection unit 101 inputs a captured image of the periphery of the road imaged by the imaging camera 110, and adds a pair of vertical lines to the road from the input captured image based on the pixels constituting the captured image. Detect as a pillar area of an object. Specifically, the pillar region detection unit 101 performs edge enhancement on the captured image, extracts edge features from the edge-enhanced pixels, and accumulates the extracted pixels in the vertical direction of the captured image. A column part composed of a pair of lines is detected as a column region, and the coordinate range of the column region is output.

特定色検出部102は、撮像カメラ110で撮像された撮像画像を入力し、撮像画像のR値、G値、B値を用いて、検出対象である道路附属物の色(特定色)を有する特定色領域を検出する。具体的には、特定色検出部102は、撮像画像の各画素のR値、G値、B値を、検出する対象の特定色に応じて予め定めた範囲と比較し、当該範囲に含まれる画素を抽出し、特定色を有する領域(特定色領域)とし、特定色領域の座標範囲を出力する。色DB120は、上記範囲を定めるR,G,B各値の最大値と最小値とが登録されている。   The specific color detection unit 102 inputs a captured image captured by the imaging camera 110, and has a color (specific color) of a road accessory that is a detection target using the R value, the G value, and the B value of the captured image. Detect a specific color area. Specifically, the specific color detection unit 102 compares the R value, the G value, and the B value of each pixel of the captured image with a predetermined range according to the specific color to be detected, and is included in the range. Pixels are extracted and set as a region having a specific color (specific color region), and the coordinate range of the specific color region is output. In the color DB 120, the maximum value and the minimum value of R, G, and B values that define the above range are registered.

特定形状検出部103は、撮像カメラ110で撮像された撮像画像を入力し、撮像画像から、検出対象である道路附属物の形状(特定形状)を有する領域である特定形状領域を検出する。具体的には、特定形状検出部103は、柱領域検出部101と同様に、撮像画像に対してエッジ強調を行い、エッジ強調された画素からエッジ特徴を抽出する。そして、特定形状検出部103は、抽出されたエッジ特徴に対して、予め定めれた道路附属物の形状パターンとパターンマッチングを行い、道路附属物の特定形状を抽出して特定形状領域とし、特定形状領域の座標範囲を出力する。ここで、形状DB130には、道路附属物ごとに、道路附属物の形状パターンが登録されている。   The specific shape detection unit 103 receives a captured image captured by the imaging camera 110, and detects a specific shape region that is a region having a shape (specific shape) of a road appendage that is a detection target from the captured image. Specifically, like the pillar region detection unit 101, the specific shape detection unit 103 performs edge enhancement on the captured image, and extracts edge features from the edge-enhanced pixels. Then, the specific shape detection unit 103 performs pattern matching with a predetermined shape pattern of the road appendage on the extracted edge feature, extracts the specific shape of the road appendage, and sets it as the specific shape region. Output the coordinate range of the shape area. Here, in the shape DB 130, the shape pattern of the road accessory is registered for each road accessory.

判定部104は、柱領域検出部101により検出された柱領域と、特定色検出部102により検出された特定色領域と、特定形状検出部103により検出された特定形状領域とに基づいて、撮像画像に、道路の周辺に配置された道路附属物が存在するか否かを判定する。具体的には、判定部104は、撮像画像に、柱領域、特定色領域、特定形状領域のいずれもが検出された場合、各領域の座標範囲から、各領域間の撮像画像上での距離が所定の距離未満であるか否かを判断する。そして、判定部104は、各領域間の撮像画像上での距離が所定の距離未満である場合には、撮像画像中の柱領域と特定色領域と特定形状領域とが示す領域が道路附属物である(存在する)と判定する。一方、判定部104は、各領域間の撮像画像上での距離のいずれかが所定の距離以上である場合には、撮像画像に道路附属物は存在しないと判定する。   The determination unit 104 captures an image based on the column region detected by the column region detection unit 101, the specific color region detected by the specific color detection unit 102, and the specific shape region detected by the specific shape detection unit 103. It is determined whether or not a road accessory arranged around the road exists in the image. Specifically, when any of the column area, the specific color area, and the specific shape area is detected in the captured image, the determination unit 104 determines the distance on the captured image between the areas from the coordinate range of each area. Is less than a predetermined distance. When the distance on the captured image between the regions is less than the predetermined distance, the determination unit 104 determines that the region indicated by the column region, the specific color region, and the specific shape region in the captured image is a road accessory. It is determined that (exists). On the other hand, the determination unit 104 determines that no road appendage exists in the captured image when any of the distances between the regions on the captured image is greater than or equal to a predetermined distance.

また、判定部104は、柱領域、特定色領域、特定形状領域のいずれかが検出されなかった場合には、撮像画像に道路附属物は存在しないと判定する。   The determination unit 104 determines that no road appendage exists in the captured image when any of the pillar region, the specific color region, and the specific shape region is not detected.

計時部106は、現在時刻を計時する。位置検出部107は、GPS(Global Positioning System)等を利用して車両の現在位置を取得する。   The timer unit 106 measures the current time. The position detection unit 107 acquires the current position of the vehicle using GPS (Global Positioning System) or the like.

出力部105は、判定部104で道路附属物が検出された場合に、道路附属物に関する情報を、現在時刻と車両の現在位置とともに車両の中のモニタ等に出力する。   When the determination unit 104 detects a road accessory, the output unit 105 outputs information on the road accessory together with the current time and the current position of the vehicle to a monitor in the vehicle.

次に、以上のように構成された本実施形態の道路附属物検出処理について詳細に説明する。図3は、実施形態1にかかる道路附属物検出処理の手順の一例を示すフローチャートである。ここで、図3に示すフローチャートの処理は、例えば、数秒毎などの所定時間間隔で実行される。   Next, the road accessory detection process of the present embodiment configured as described above will be described in detail. FIG. 3 is a flowchart illustrating an example of a procedure of the road accessory detection process according to the first embodiment. Here, the process of the flowchart shown in FIG. 3 is executed at predetermined time intervals such as every several seconds.

まず、撮像カメラ110は、車両の前方の周囲を撮像する。柱領域検出部101、特定色検出部102および特定形状検出部103は、撮像カメラ110から撮像画像を入力する(S11)。そして、柱領域検出部101は撮像画像に対して柱領域検出処理を行う(S12)。特定色検出部102は撮像画像に対して特定色検出処理を行う(S13)。特定形状検出部103は撮像画像に対して特定形状検出処理を行う(S14)。そして、判定部104は、S12,S13,S14の検出結果に基づき、道路附属物の判定処理を行う(S15)。   First, the imaging camera 110 images the surroundings in front of the vehicle. The column area detection unit 101, the specific color detection unit 102, and the specific shape detection unit 103 input a captured image from the imaging camera 110 (S11). Then, the column area detection unit 101 performs a column area detection process on the captured image (S12). The specific color detection unit 102 performs specific color detection processing on the captured image (S13). The specific shape detection unit 103 performs specific shape detection processing on the captured image (S14). And the determination part 104 performs the determination process of a road attachment based on the detection result of S12, S13, S14 (S15).

S12の柱領域検出処理の詳細について説明する。図4は、実施形態1の柱領域検出処理の手順の一例を示すフローチャートである。柱領域検出部101は、撮像画像に対してエッジ強調処理を行う(S31)。具体的には、柱領域検出部101は、撮像画像の各画素に対して近傍画素との差分を求める。図5は、実施形態1のエッジ強調処理を説明するための一例を示す図である。柱領域検出部101は、例えば、図5に示すように、周辺8画素に重み「−1」を乗じた画素値と、中心画素に重み「9」を乗じた画素値との和を求めることで、中心視野に輝度のピークがある画素を強調することができる。   Details of the column area detection processing in S12 will be described. FIG. 4 is a flowchart illustrating an example of the procedure of the column area detection process according to the first embodiment. The column area detection unit 101 performs edge enhancement processing on the captured image (S31). Specifically, the pillar area detection unit 101 obtains a difference between neighboring pixels for each pixel of the captured image. FIG. 5 is a diagram illustrating an example for explaining the edge enhancement processing according to the first embodiment. For example, as illustrated in FIG. 5, the pillar region detection unit 101 obtains the sum of a pixel value obtained by multiplying the surrounding 8 pixels by a weight “−1” and a pixel value obtained by multiplying the center pixel by a weight “9”. Thus, a pixel having a luminance peak in the central visual field can be emphasized.

次に、柱領域検出部101は、エッジ強調された撮像画像から、エッジ特徴の画素の抽出処理を行う(S32)。具体的には、柱領域検出部101は、エッジ強調された画素に一定の閾値で二値画像としてエッジ特徴の画素を抽出する。図6は、実施形態1におけるエッジ特徴の画素抽出結果の一例を示す図である。図6において、黒色の線が抽出画素を示している。図6の例に示すように、抽出画素としては、道路附属物501だけでなく、道路の端などの画素も抽出される。   Next, the pillar region detection unit 101 performs edge feature pixel extraction processing from the edge-enhanced captured image (S32). Specifically, the pillar region detection unit 101 extracts pixels having edge features as binary images with a certain threshold value for the edge-enhanced pixels. FIG. 6 is a diagram illustrating an example of a pixel extraction result of edge features according to the first embodiment. In FIG. 6, black lines indicate extracted pixels. As shown in the example of FIG. 6, not only the road appendage 501 but also pixels such as road edges are extracted as extracted pixels.

柱領域検出部101は、このようなエッジ特徴の画素抽出結果の画像に対して、図6に示す小領域502を移動させながら視野を設定して、縦方向累積処理を行う(S33)。図7は、実施形態1の縦方向累積処理を説明するための図である。柱領域検出部101は、図7に示すように、エッジ特徴の画素抽出結果の撮像画像に対して小領域を移動させながら視野601を設定し、視野601に対して抽出画素を縦方向に累積し、1次元の累積データ602を収集する。これにより、柱領域検出部101は、一対の線P1、P2を検出する。   The column area detection unit 101 sets the field of view while moving the small area 502 shown in FIG. 6 on the image of the pixel extraction result of the edge feature, and performs vertical accumulation processing (S33). FIG. 7 is a diagram for explaining the vertical accumulation processing of the first embodiment. As shown in FIG. 7, the column area detection unit 101 sets a field of view 601 while moving a small area with respect to the captured image of the pixel extraction result of the edge feature, and accumulates extracted pixels in the vertical direction with respect to the field of view 601. One-dimensional accumulated data 602 is collected. Thereby, the column area detection unit 101 detects the pair of lines P1 and P2.

次に、柱領域検出部101は、S33により得られた累積データ602に対して、柱領域の判定を行う(S34)。具体的には、柱領域検出部101は、累積データ602の一対の線P1、P2に対して、一定の閾値Thr以上の累積値を有し、かつ、P1とP2の間隔wが所定の範囲内である場合に、一対の線P1,P2を柱領域と判定し、その座標範囲を道路附属物の柱領域の範囲として出力する。ここで、出力される座標範囲は、矩形の柱領域の左上の座標と右下の座標で示される。   Next, the column area detection unit 101 determines a column area for the accumulated data 602 obtained in S33 (S34). Specifically, the column area detection unit 101 has an accumulated value equal to or greater than a certain threshold Thr for the pair of lines P1 and P2 of the accumulated data 602, and the interval w between P1 and P2 is a predetermined range. If it is within the range, the pair of lines P1 and P2 are determined as the column area, and the coordinate range is output as the range of the column area of the road appendage. Here, the output coordinate range is indicated by the upper left coordinate and the lower right coordinate of the rectangular pillar region.

なお、柱領域検出部101による柱領域の検出の手法は、これに限定されるものではない。例えば、予め柱のテンプレートを準備しておき、エッジ特徴の画素抽出結果の撮像画像とのマッチング手法を用いて柱領域を検出するように柱領域検出部101を構成してもよい。   Note that the method of detecting the column region by the column region detection unit 101 is not limited to this. For example, a pillar template may be prepared in advance, and the pillar region detection unit 101 may be configured to detect a pillar region using a matching method with a captured image of a pixel extraction result of an edge feature.

次に、S13の特定色検出処理の詳細について説明する。図8は、実施形態1にかかる特定色検出処理の手順の一例を示すフローチャートである。まず、特定色検出部102は、色DB120から、検出対象の色(特定色)の範囲である最小値RL、GL、BLと、最大値RH、GH、BHとを読み出して、撮像画像の各画素のR値、G値、B値を、最小値RL、GL、BLと、最大値RH、GH、BHと比較し、該当する範囲に含まれる画素を抽出する(S51)。なお、本実施形態では、R値、G値、B値を用いているが、RGBの色空間に限定されるものではない。例えば、他の表色系として、L*a*b*、xy、HSV値を用いることができる。   Next, details of the specific color detection process in S13 will be described. FIG. 8 is a flowchart illustrating an example of the procedure of the specific color detection process according to the first embodiment. First, the specific color detection unit 102 reads out the minimum values RL, GL, and BL and the maximum values RH, GH, and BH that are the range of the color (specific color) to be detected from the color DB 120, and each of the captured images. The R value, G value, and B value of the pixel are compared with the minimum values RL, GL, and BL and the maximum values RH, GH, and BH, and pixels included in the corresponding range are extracted (S51). In the present embodiment, the R value, the G value, and the B value are used, but the present invention is not limited to the RGB color space. For example, L * a * b *, xy, and HSV values can be used as other color systems.

次に、特定色検出部102は、抽出された画素において、連結している画素グループ(連結成分)を抽出する(S52)。そして、特定色検出部102は、抽出された連結成分を包含する外形の矩形を求める(S53)。特定色検出部102は、外形矩形の座標範囲を特定色の判定結果、すなわち道路附属物の特定色領域の範囲として出力する(S54)。ここで、出力される座標範囲は、外形矩形の左上の座標と右下の座標で示される。   Next, the specific color detection unit 102 extracts connected pixel groups (connected components) in the extracted pixels (S52). Then, the specific color detection unit 102 obtains a rectangular shape that includes the extracted connected components (S53). The specific color detection unit 102 outputs the coordinate range of the outer rectangle as the specific color determination result, that is, the range of the specific color region of the road accessory (S54). Here, the output coordinate range is indicated by the upper left coordinates and the lower right coordinates of the outline rectangle.

図9〜図11は、本実施形態の特定色検出処理を説明するための図である。図9は、図2に示す道路標識の例に対して、縁領域201だけが抽出対象の色であった場合の結果の例を示す。図10は、縁領域201と柱領域203が抽出対象の色であった場合の例を示す。   9 to 11 are diagrams for explaining the specific color detection processing of the present embodiment. FIG. 9 shows an example of the result when only the edge region 201 is the color to be extracted, with respect to the example of the road sign shown in FIG. FIG. 10 shows an example in which the edge area 201 and the column area 203 are colors to be extracted.

図10の例に対して、図11の破線の枠で示すように、特定色検出部102は、連結している画素グループに対して外接矩形を求め、外形矩形の座標範囲を特定色領域1101として出力する。   In the example of FIG. 10, as indicated by the dashed frame in FIG. 11, the specific color detection unit 102 obtains a circumscribed rectangle for the connected pixel group, and sets the coordinate range of the outer rectangle as the specific color region 1101. Output as.

次に、S14の特定形状検出処理の詳細について説明する。図12は、実施形態1にかかる特定形状検出処理の手順の一例を示すフローチャートである。特定形状検出部103は、柱領域検出処理と同様に、撮像画像に対してエッジ強調処理を行い、画像の各画素に対して近傍画素との差分を求める(S71)。特定形状検出部103は、柱領域検出処理と同様に、エッジ強調された撮像画像から、エッジ特徴の画素の抽出処理を行う(S72)。   Next, details of the specific shape detection process of S14 will be described. FIG. 12 is a flowchart illustrating an example of a procedure of the specific shape detection process according to the first embodiment. The specific shape detection unit 103 performs edge enhancement processing on the captured image in the same manner as the pillar region detection processing, and obtains a difference from a neighboring pixel for each pixel of the image (S71). The specific shape detection unit 103 performs an edge feature pixel extraction process from the edge-enhanced captured image in the same manner as the pillar region detection process (S72).

そして、特定形状検出部103は、形状DB130から検出対象の道路附属物の形状パターンを読出し、エッジ特徴の抽出結果の撮像画像に対して、形状パターンを走査しながらパターンマッチングを行う(S73)。そして、特定形状検出部103は、形状パターンと一致した領域と外接ずる矩形の座標範囲を、道路附属物の特定形状領域として判定して出力する(S74)。   Then, the specific shape detection unit 103 reads the shape pattern of the road appendage to be detected from the shape DB 130, and performs pattern matching while scanning the shape pattern with respect to the captured image of the edge feature extraction result (S73). Then, the specific shape detection unit 103 determines and outputs a rectangular coordinate range that circumscribes the region that matches the shape pattern as the specific shape region of the road appendage (S74).

図13は、実施形態1の特定形状検出処理を説明するための図である。図13に示すように、特定形状検出部103は、撮像画像内に局所領域を視野として設定し、特定形状の形状パターン1201とマッチング処理を行う。形状パターン1201は、例えば円の部分が”1”それ以外が”0”という2値画像としてあらかじめ形状DB130に登録しておく。特定形状検出部103は、形状パターン1201のサイズを変えながら撮像画像内を移動させ、特定形状の形状パターン1201に一致する領域に外接する矩形領域1202を検出する。ここで、エッジを抽出した画像と形状パターン1201のマッチングの手法は、二値画像同士の一致度を測定する方式や、正規化相関など変動に強い方法を用いることができる。また、別の手法として、特許第5214367号公報に開示されているエッジ方向の共起ヒストグラムによるマッチングによる検出を用いるように特定形状検出部103を構成してもよい。   FIG. 13 is a diagram for explaining the specific shape detection process of the first embodiment. As illustrated in FIG. 13, the specific shape detection unit 103 sets a local region as a field of view in a captured image, and performs a matching process with a shape pattern 1201 having a specific shape. The shape pattern 1201 is registered in advance in the shape DB 130 as a binary image in which, for example, the circle portion is “1” and the others are “0”. The specific shape detection unit 103 moves within the captured image while changing the size of the shape pattern 1201, and detects a rectangular region 1202 circumscribing a region that matches the shape pattern 1201 of the specific shape. Here, as a method for matching the image from which the edge is extracted and the shape pattern 1201, a method for measuring the degree of coincidence between binary images, or a method resistant to fluctuations such as a normalized correlation can be used. As another method, the specific shape detection unit 103 may be configured to use the detection based on the co-occurrence histogram of the edge direction disclosed in Japanese Patent No. 5214367.

次に、S15の判定処理の詳細について説明する。図14は、実施形態1の判定処理の手順の一例を示すフローチャートである。柱領域検出部101、特定色検出部102、特定形状検出部103からは、図15に示すように検出結果である各領域の座標範囲が出力される。まず、判定部104は、撮像画像に、柱領域、特定色領域、特定形状領域のすべてが検出されたか否かを判断する(S1001)。   Next, details of the determination process of S15 will be described. FIG. 14 is a flowchart illustrating an example of a determination processing procedure according to the first embodiment. From the column area detection unit 101, the specific color detection unit 102, and the specific shape detection unit 103, the coordinate range of each area as a detection result is output as shown in FIG. First, the determination unit 104 determines whether all of the column area, the specific color area, and the specific shape area are detected in the captured image (S1001).

柱領域、特定色領域、特定形状領域のいずれかが検出されなかった場合には(S1001:No)、判定部104は、撮像画像に道路附属物は存在しないと判定する(S1005)。   When any of the column area, the specific color area, and the specific shape area is not detected (S1001: No), the determination unit 104 determines that no road appendage exists in the captured image (S1005).

一方、柱領域、特定色領域、特定形状領域の全てが検出された場合には(S1001:Yes)、判定部104は、各領域の座標範囲から、各領域間の撮像画像上での距離を算出する(S1002)。そして、判定部104は、各領域間の撮像画像上での全ての距離が所定の距離未満であるか否かを判断する(S1003)。そして、各領域間の撮像画像上での全ての距離が所定の距離未満である場合には(S1003:Yes)、判定部104は、撮像画像中の柱領域と特定色領域と特定形状領域とが示す領域が道路附属物であると判定する(S1004)。一方、各領域間の撮像画像上での距離のいずれかが所定の距離以上離れている場合には(S1003:No)、判定部104は、撮像画像に道路附属物は存在しないと判定する(S1005)。   On the other hand, when all of the column area, the specific color area, and the specific shape area are detected (S1001: Yes), the determination unit 104 calculates the distance on the captured image between each area from the coordinate range of each area. Calculate (S1002). Then, the determination unit 104 determines whether or not all the distances on the captured image between the regions are less than a predetermined distance (S1003). And when all the distances on the captured image between each area | region are less than predetermined distance (S1003: Yes), the determination part 104 is the column area | region in a captured image, a specific color area | region, a specific shape area | region, It is determined that the area indicated by is a road accessory (S1004). On the other hand, if any of the distances between the regions on the captured image is a predetermined distance or more (S1003: No), the determination unit 104 determines that there is no road appendage in the captured image ( S1005).

図15は、実施形態1の柱領域と特定色領域と特定形状領域の検出結果の一例を示す図である。図16〜18は、実施形態1の判定結果の例を示す図である。   FIG. 15 is a diagram illustrating an example of detection results of the column area, the specific color area, and the specific shape area according to the first embodiment. 16 to 18 are diagrams illustrating examples of determination results according to the first embodiment.

図15の対象1では、柱領域と特定色領域が検出されているが、特定形状の検出結果がない例を示している。例えば、図16に示すような検出結果の例が該当し、道路附属物の判定結果は「該当無」となる。図16の例では、画像中の塗りつぶした領域が特定色を示しており、柱領域領域1401と、特定色領域1402の距離は所定距離未満で接近して抽出されているが、特定形状である円に対応する特定形状領域が検出されていない。   FIG. 15 shows an example in which a pillar region and a specific color region are detected, but there is no detection result of a specific shape. For example, the example of the detection result as shown in FIG. 16 corresponds, and the determination result of the road attachment is “not applicable”. In the example of FIG. 16, the filled area in the image indicates a specific color, and the distance between the column area area 1401 and the specific color area 1402 is closer than a predetermined distance and is extracted, but has a specific shape. The specific shape area corresponding to the circle is not detected.

図15の対象2では、柱領域領域、特定色領域および特定形状領域の全てが検出され、各領域が図17に示すように、所定距離未満で接近している。このため、判定部104は、道路附属物の検出結果として「該当あり」と判定する。図17では、画像中の塗りつぶした領域が特定色領域を示しており、柱領域領域1501と、特定色領域1502および特定形状領域1503が接近して抽出されている。この例では、道路ミラーのようにミラーの縁の特定色(黄)の面積が少なく、特定色領域1502が部分的に検出されている状況であるが、他の2つの特徴と合わせることで精度よく検出可能となる。   In the object 2 of FIG. 15, all of the pillar region, the specific color region, and the specific shape region are detected, and each region is approaching less than a predetermined distance as shown in FIG. 17. For this reason, the determination part 104 determines with "applicable" as a detection result of a road appendage. In FIG. 17, a filled area in the image indicates a specific color area, and a column area area 1501, a specific color area 1502, and a specific shape area 1503 are extracted close to each other. In this example, the area of the specific color (yellow) at the edge of the mirror is small and the specific color region 1502 is partially detected like a road mirror, but accuracy can be improved by combining with the other two features. It can be detected well.

図15の対象3では柱領域と特定色および特定形状が検出されているが、図18に示すように、各領域が所定距離以上離れていることから、判定部104は、道路附属物の検出結果として「該当無」と判定する。図18の例では、画像中の塗りつぶした領域が特定色領域1602を示しており、柱領域領域1601と特定形状領域1603は接近しているが、特定色領域1602は離れており別の対象を検出している。   In the object 3 of FIG. 15, the pillar region, the specific color, and the specific shape are detected. However, as shown in FIG. 18, the determination unit 104 detects the road appendage because each region is separated by a predetermined distance or more. As a result, “not applicable” is determined. In the example of FIG. 18, the filled area in the image indicates the specific color area 1602, and the column area area 1601 and the specific shape area 1603 are close to each other, but the specific color area 1602 is separated and another object is selected. Detected.

図3に戻り、判定部104による判定処理が終了すると、計時部106は現在時刻を取得する(S16)。そして、位置検出部107は、車両の現在位置を取得する(S17)。例えば、位置検出部107は、GPS衛星からGPSデータを位置情報として取得することができる。このようなGPSデータを取得して出力結果に利用することにより、道路付帯物の参照データとしてナビゲーションシステムなどでの利用も可能となる。   Returning to FIG. 3, when the determination process by the determination unit 104 is completed, the time measuring unit 106 acquires the current time (S16). And the position detection part 107 acquires the present position of a vehicle (S17). For example, the position detection unit 107 can acquire GPS data as position information from a GPS satellite. By acquiring such GPS data and using it as an output result, it can be used as reference data for road accessories in a navigation system or the like.

出力部105は、判定部104による判定結果と、現在時刻、現在位置をメモリ等に保存しておく。そして、出力部105は、ユーザの指示等により検出終了するか否かを判断する(S18)。出力部105が検出終了でないと判断した場合には(S18:No)、処理はS11へ戻り、S17までを繰り返し実行する。   The output unit 105 stores the determination result by the determination unit 104, the current time, and the current position in a memory or the like. Then, the output unit 105 determines whether or not to end the detection according to a user instruction or the like (S18). If the output unit 105 determines that the detection is not finished (S18: No), the process returns to S11 and repeats up to S17.

一方、出力部105が検出終了と判断した場合には(S18:Yes)、メモリ等に保存された判定結果、現在時刻、現在位置を用いて、道路附属物に関する情報としての出力結果を生成する(S19)。ここで、出力部105は、現在位置および現在時刻が所定の範囲内にある判定結果は、同一の道路附属物の判定結果であると判断して、出力結果には一つの判定結果のみを記録するように構成してもよい。出力部105は、出力結果をモニタなどに表示することにより出力する(S20)。   On the other hand, when the output unit 105 determines that the detection is finished (S18: Yes), an output result as information on the road accessory is generated using the determination result stored in the memory or the like, the current time, and the current position. (S19). Here, the output unit 105 determines that the determination result that the current position and the current time are within a predetermined range is the determination result of the same road accessory, and records only one determination result as the output result. You may comprise. The output unit 105 outputs the output result by displaying it on a monitor or the like (S20).

図19は、実施形態1の道路附属物の出力結果の例を示す図である。図19に示すように、出力結果には、収集日時、道路附属物の設置場所、道路附属物の種類、撮像画像等が含まれる。出力部105は、現在時刻を収集日時とし、位置情報に基づき設置場所の内容を生成し、検出された道路附属物の画像から道路附属物の種類を判断する。そして、出力部105は、収集日時、道路附属物の設置場所、道路附属物の種類、撮像画像を出力結果として生成する。   FIG. 19 is a diagram illustrating an example of an output result of the road appendage according to the first embodiment. As shown in FIG. 19, the output result includes the collection date and time, the location of the road accessory, the type of the road accessory, the captured image, and the like. The output unit 105 uses the current time as the collection date and time, generates the contents of the installation location based on the position information, and determines the type of the road appendage from the detected road appendage image. And the output part 105 produces | generates a collection date and time, the installation location of a road attachment, the kind of road attachment, and a captured image as an output result.

なお、出力結果は図19に示す形式に限定されるものではなく、任意の形式で出力するように出力部105を構成することができる。例えば、車両に搭載されたナビゲーションシステム等で表示する電子地図の位置情報が示す座標位置に、検出された道路附属物の道路標識や道路ミラー等の画像を表示するように構成してもよい。   The output result is not limited to the format shown in FIG. 19, and the output unit 105 can be configured to output in an arbitrary format. For example, an image such as a road sign or a road mirror of a detected road accessory may be displayed at a coordinate position indicated by position information of an electronic map displayed by a navigation system or the like mounted on a vehicle.

このように本実施形態によれば、多くの種類の道路附属物を高精度に検出することが可能となる。すなわち、従来の道路附属物検出装置では、すべての道路附属物を対象とできていない。色情報に基づき道路附属物を検出する手法では、黄色や青色の道路附属物に対しては、地面や空など背景との色差が大きくない場合が存在し、道路附属物の検出が困難となる場合がある。また、道路ミラーにおいて用いられる黄色は、ミラーの縁部分の限られた部分にしか用いられておらず、撮像画像から特徴をとらえるのは困難である。   As described above, according to this embodiment, it is possible to detect many types of road accessories with high accuracy. That is, the conventional road accessory detection device cannot target all road accessories. In the method of detecting road accessories based on color information, there are cases where the color difference from the background such as the ground or sky is not large for yellow or blue road accessories, making it difficult to detect road accessories. There is a case. In addition, yellow used in road mirrors is used only in a limited portion of the edge portion of the mirror, and it is difficult to capture features from the captured image.

一方、形状に基づいて道路附属物を検出する手法では、道路附属物の取り付け角度によっては、撮像時の撮影時の形状が変化する場合もある。このため、実施形態では、道路附属物検出装置100は、柱領域、特定色領域、特定形状領域を検出して、各領域の検出結果を総合的に判断して道路附属物の判定を行っている。このため、本実施形態によれば、取り付けの柱領域と、特定色領域、特定形状領域を合わせて道路附属物を検出することができ、多くの種類の道路附属物を高精度に検出することが可能となる。   On the other hand, in the method of detecting the road accessory based on the shape, the shape at the time of photographing may change depending on the attachment angle of the road accessory. For this reason, in the embodiment, the road accessory detection device 100 detects a pillar accessory, a specific color region, and a specific shape region, and comprehensively determines the detection result of each region to determine the road accessory. Yes. For this reason, according to the present embodiment, it is possible to detect a road appendage by combining a mounting column region, a specific color region, and a specific shape region, and to detect many types of road appendages with high accuracy. Is possible.

(実施形態2)
実施形態1では、特定形状の検出の際に、一つの道路附属物に対して一つの形状パターンを用いていたが、この実施形態2では、一つの道路附属物に対して一つの形状パターンを変化させながら用いている。
(Embodiment 2)
In the first embodiment, one shape pattern is used for one road appendage when detecting a specific shape. In the second embodiment, one shape pattern is used for one road appendage. Used while changing.

図20は、実施形態2の道路附属物検出装置の機能的構成を示すブロック図である。実施形態2の道路附属物検出装置3000は、図20に示すように、撮像カメラ110と、柱領域検出部101と、特定色検出部102と、特定形状検出部103と、判定部104と、出力部105と、計時部106と、位置検出部107と、色DB120と、形状DB130と、特定形状変換部3010とを主に備えている。ここで、撮像カメラ110、柱領域検出部101、特定色検出部102、特定形状検出部103、判定部104、出力部105、計時部106、位置検出部107、色DB120、形状DB130の機能、構成については実施形態1と同様である。   FIG. 20 is a block diagram illustrating a functional configuration of the road accessory detection apparatus according to the second embodiment. As shown in FIG. 20, the road accessory detection device 3000 according to the second embodiment includes an imaging camera 110, a column area detection unit 101, a specific color detection unit 102, a specific shape detection unit 103, a determination unit 104, It mainly includes an output unit 105, a time measuring unit 106, a position detection unit 107, a color DB 120, a shape DB 130, and a specific shape conversion unit 3010. Here, the functions of the imaging camera 110, the column area detection unit 101, the specific color detection unit 102, the specific shape detection unit 103, the determination unit 104, the output unit 105, the timing unit 106, the position detection unit 107, the color DB 120, and the shape DB 130, The configuration is the same as in the first embodiment.

特定形状変換部3010は、形状DB130から検出対象の特定形状の形状パターンを読み込んで形状を変換する。図21は、実施形態2の形状パターンの変換の一例を示す図である。特定形状変換部3010は、形状パターンを、車両の走行により道路附属物の見え方が異なってくることにより、見え方の変化に併せて変換する。特定形状検出部103は、特定形状変換部3010により変化していく形状パターンごとに特定形状を検出する。   The specific shape conversion unit 3010 reads a shape pattern of a specific shape to be detected from the shape DB 130 and converts the shape. FIG. 21 is a diagram illustrating an example of shape pattern conversion according to the second embodiment. The specific shape conversion unit 3010 converts the shape pattern in accordance with the change in the appearance because the appearance of the road appendage varies depending on the traveling of the vehicle. The specific shape detection unit 103 detects a specific shape for each shape pattern that is changed by the specific shape conversion unit 3010.

図22は、実施形態2の道路附属物検出処理の手順の一例を示すフローチャートである。ここで、図22に示すフローチャートの処理は、例えば、数秒毎などの所定時間間隔で実行される。S11の撮像画像の入力からS13の特定色検出処理までは実施形態1と同様に行われる。次に、特定形状変換部3010は、形状DB130から検出対象の特定形状の形状パターンを読み込んで、1パターンだけ変換する(S91)。そして、特定形状検出部103は、1パターン変換された形状パターンにより特定形状検出処理を行う(S14)。特定形状変換部3010は、形状パターンを、S11からS17の処理を繰り返すことたびに図21に示すように1パターンずつ変換し、特定形状検出部103が特定形状を検出する。S15以降の処理は実施形態1と同様に行われる。   FIG. 22 is a flowchart illustrating an example of a procedure of the road accessory detection process according to the second embodiment. Here, the process of the flowchart shown in FIG. 22 is executed at predetermined time intervals such as every several seconds. The process from the input of the captured image in S11 to the specific color detection process in S13 is performed in the same manner as in the first embodiment. Next, the specific shape conversion unit 3010 reads the shape pattern of the specific shape to be detected from the shape DB 130 and converts only one pattern (S91). Then, the specific shape detection unit 103 performs a specific shape detection process with the shape pattern converted by one pattern (S14). The specific shape conversion unit 3010 converts the shape pattern one pattern at a time as shown in FIG. 21 every time the processes of S11 to S17 are repeated, and the specific shape detection unit 103 detects the specific shape. The processes after S15 are performed in the same manner as in the first embodiment.

形状に基づいて道路附属物を検出する手法があるが、道路附属物の取り付け角度によっては、撮像時の撮影時の形状が変化する場合もある。例えば、正面からみて円である道路ミラーは、道路の進行方向に対して斜めに取り付けるため、走行車両から観測すると楕円の画像が得られ、円の形状に基づく道路附属物の検出処理をそのまま適用できない。   Although there is a method of detecting a road accessory based on the shape, the shape at the time of shooting may change depending on the attachment angle of the road accessory. For example, a road mirror that is a circle when viewed from the front is attached obliquely with respect to the direction of travel of the road, so an ellipse image is obtained when observed from a traveling vehicle, and the road accessory detection process based on the shape of the circle is applied as it is. Can not.

図23は、実施形態2の円形の道路ミラーの車両からの見え方の例を示す図である。道路ミラー2301は、車両からみて正面に向けて設置しておらず、車両から撮影した撮像画像では図23に示すように楕円に変形する。特定形状検出部103は、このように複数種類の形状パターンを用いて、種々の角度に設置されている道路附属物の検出を行う。   FIG. 23 is a diagram illustrating an example of how a circular road mirror according to the second embodiment is seen from a vehicle. The road mirror 2301 is not installed in front of the vehicle and is deformed into an ellipse as shown in FIG. 23 in the captured image taken from the vehicle. The specific shape detection unit 103 detects road appendages installed at various angles using a plurality of types of shape patterns.

このように実施形態では、道路附属物検出装置3000は、道路附属物に対して形状パターンを変換しながら特定形状の検出を変化させながら特定形状の検出を行っている。このため、本実施形態によれば、取り付けの柱領域と、特定色領域、特定形状領域を合わせて道路附属物を検出することができ、かつ車両の走行に応じた見え方の変化に対応することができる。従って、本実施形態によれば、多くの種類の道路附属物をより高精度に検出することができる。   Thus, in the embodiment, the road accessory detection device 3000 detects a specific shape while changing the detection of the specific shape while converting the shape pattern with respect to the road accessory. For this reason, according to the present embodiment, it is possible to detect the road appendage by combining the attached column region, the specific color region, and the specific shape region, and cope with a change in appearance according to the traveling of the vehicle. be able to. Therefore, according to the present embodiment, many types of road accessories can be detected with higher accuracy.

なお、本実施形態では、特定形状変換部3010により一種類の形状パターンを変換していたが、一種類の形状パターンに対して予め変換後の複数の形状パターンを形状DB130に登録しておき、これを特定形状検出で用いるように形状DB130、特定形状検出部103を構成してもよい。   In the present embodiment, one type of shape pattern is converted by the specific shape conversion unit 3010. However, a plurality of converted shape patterns are registered in advance in the shape DB 130 for one type of shape pattern, The shape DB 130 and the specific shape detection unit 103 may be configured to use this for specific shape detection.

(実施形態3)
実施形態3は、複数の撮像カメラを車両に搭載し、車両の前方向と後方向を撮像した二つの撮像画像を用いて道路附属物を検出している。
(Embodiment 3)
In the third embodiment, a plurality of imaging cameras are mounted on a vehicle, and road accessories are detected using two captured images obtained by imaging the front direction and the rear direction of the vehicle.

図24は、実施形態3の道路附属物検出装置の機能的構成を示すブロック図である。実施形態2の道路附属物検出装置5000は、図24に示すように、二つの撮像カメラ110a,110bと、柱領域検出部101と、特定色検出部102と、特定形状検出部103と、判定部2404と、出力部105と、計時部106と、位置検出部107と、色DB120と、形状DB130と、特定形状変換部3010とを主に備えている。   FIG. 24 is a block diagram illustrating a functional configuration of the road accessory detection device according to the third embodiment. As shown in FIG. 24, the road accessory detection device 5000 according to the second embodiment includes two imaging cameras 110a and 110b, a column area detection unit 101, a specific color detection unit 102, a specific shape detection unit 103, and a determination. A unit 2404, an output unit 105, a timing unit 106, a position detection unit 107, a color DB 120, a shape DB 130, and a specific shape conversion unit 3010 are mainly provided.

撮像カメラ110aは、車両の前方の道路周辺を撮像可能に車両に設置されている。撮像カメラ110bは、車両の後方の道路周辺を撮像可能に車両に設置されている。図25は、実施形態3の二つの撮像カメラ110a,110bの撮像方向の一例を示す図である。図25(a)は、撮像カメラ110aが車両2501の進行方向に光軸を合わせた前方の方向2502を撮像方向とし、撮像カメラ110bが車両2501の進行方向と180°後方の方向2503を撮像方向として設置された例を示している。   The imaging camera 110a is installed in the vehicle so as to be able to capture an image around the road ahead of the vehicle. The imaging camera 110b is installed in the vehicle so as to be able to capture an image around the road behind the vehicle. FIG. 25 is a diagram illustrating an example of the imaging directions of the two imaging cameras 110a and 110b according to the third embodiment. FIG. 25A shows that the imaging camera 110a has a forward direction 2502 in which the optical axis is aligned with the traveling direction of the vehicle 2501 as the imaging direction, and the imaging camera 110b has the traveling direction of the vehicle 2501 and the direction 2503 behind 180 °. The example installed as is shown.

図25(b)は、撮像カメラ110bが車両2501の進行方向に対して45°斜めの方向2602を撮像方向とし、撮像カメラ110bが車両2501の進行方向の180°後方から45°斜めの方向2603を撮像方向として設置した例を示している。撮像カメラ110a,110bの撮像方向は、撮像範囲に道路周辺に設置された道路附属物が含まれるような方向であれば、図25(a),(b)のいずれでも、あるいは図25(a)、(b)以外でもよい。   In FIG. 25B, the imaging camera 110 b has a direction 2602 inclined 45 ° with respect to the traveling direction of the vehicle 2501 as the imaging direction, and the imaging camera 110 b has a direction 2603 inclined 45 ° from 180 ° behind the traveling direction of the vehicle 2501. Is shown as an imaging direction. The imaging directions of the imaging cameras 110a and 110b are any of FIGS. 25A and 25B, or FIG. 25A as long as the imaging range includes a road accessory installed around the road. ), Other than (b).

撮像カメラ110aによる撮像画像を前方撮像画像といい、撮像カメラ110bによる撮像画像を後方撮像画像という。前方撮像画像は第1の撮像画像の一例であり、後方撮像画像は第2の撮像画像の一例である。   An image captured by the imaging camera 110a is referred to as a front captured image, and an image captured by the imaging camera 110b is referred to as a rear captured image. The front captured image is an example of a first captured image, and the rear captured image is an example of a second captured image.

柱領域検出部101、特定色検出部102、特定形状検出部103、出力部105、計時部106、位置検出部107、色DB120、形状DB130、特定形状変換部3010の機能、構成については実施形態2と同様である。   Embodiments of functions and configurations of the column area detection unit 101, specific color detection unit 102, specific shape detection unit 103, output unit 105, timing unit 106, position detection unit 107, color DB 120, shape DB 130, and specific shape conversion unit 3010 Same as 2.

但し、柱領域検出部101は、前方撮像画像と後方撮像画像のそれぞれから、柱領域を検出する。特定色検出部102は、前方撮像画像と後方撮像画像のそれぞれから、特定色領域を検出する。より具体的には、特定色検出部102は、前方撮像画像から、道路附属物の表面の特定色を有する特定色領域を検出し、後方撮像画像から、道路附属物の裏面の特定色を有する特定色領域を検出する。表面の特定色と裏面の特定色は、道路附属物によって同一の場合もあれば異なる場合もある。また、表面の特定色領域と裏面の特定色領域も、道路附属物によって同一の場合もあれば異なる場合もある。ここで、道路附属物の表面は、第1の面の一例であり、道路附属物の裏面は、第2の面の一例である。   However, the column area detection unit 101 detects a column area from each of the front captured image and the rear captured image. The specific color detection unit 102 detects a specific color region from each of the front captured image and the rear captured image. More specifically, the specific color detection unit 102 detects a specific color region having a specific color on the surface of the road appendage from the front captured image, and has a specific color on the back surface of the road appendage from the rear captured image. Detect a specific color area. The specific color on the front and the specific color on the back may be the same or different depending on the road accessories. The specific color area on the front surface and the specific color area on the back surface may be the same or different depending on the road accessories. Here, the surface of the road appendage is an example of the first surface, and the back surface of the road appendage is an example of the second surface.

特定形状検出部103は、前方撮像画像と後方撮像画像のそれぞれから、特定形状領域を検出する。より具体的には、特定形状検出部103は、前方撮像画像から、道路附属物の表面の特定形状を有する特定形状領域を検出し、後方撮像画像から、道路附属物の裏面の特定形状を有する特定形状領域を検出する。表面の特定形状と裏面の特定形状は、道路附属物によって同一の場合もあれば異なる場合もある。また、表面の特定形状領域と裏面の特定形状領域も、道路附属物によって同一の場合もあれば異なる場合もある。   The specific shape detection unit 103 detects a specific shape region from each of the front captured image and the rear captured image. More specifically, the specific shape detection unit 103 detects a specific shape region having a specific shape on the front surface of the road appendage from the front captured image, and has a specific shape on the back surface of the road appendage from the rear captured image. A specific shape area is detected. The specific shape on the front surface and the specific shape on the back surface may be the same or different depending on the road accessories. Further, the specific shape region on the front surface and the specific shape region on the back surface may be the same or different depending on the road accessories.

判定部2404は、前方撮像画像から検出された柱領域と特定色領域と特定形状領域とに基づいて、前方撮像画像に道路附属物の表面が存在するか否かの第1判定を行う。判定部2404は、後方撮像画像から検出された柱領域と特定色領域と特定形状領域とに基づいて、前方撮像画像に道路附属物の裏面が存在するか否かの第2判定を行う。ここで、第1判定と第2判定のそれぞれの手法については、実施形態2と同様である。   The determination unit 2404 performs a first determination as to whether or not the surface of the road appendage exists in the front captured image based on the column region, the specific color region, and the specific shape region detected from the front captured image. The determination unit 2404 performs a second determination as to whether or not the back surface of the road appendage exists in the front captured image based on the column region, the specific color region, and the specific shape region detected from the rear captured image. Here, each method of the first determination and the second determination is the same as in the second embodiment.

また、判定部2404は、第1判定の結果と第2判定の結果とから、前方撮像画像と後方撮像画像に道路附属物が存在するか否かを判定する総合判定処理を行う。より具体的には、判定部2404は、第1判定により前方撮像画像に道路附属物の表面が存在し、かつ、第2判定により後方撮像画像に道路附属物の裏面が存在すると判定された場合に、道路附属物が存在すると判定する。従って、判定部2404は、第1判定により前方撮像画像に道路附属物の表面が存在しないか、または、第2判定により後方撮像画像に道路附属物の裏面が存在しないと判定された場合に、道路附属物が存在しないと判定する。   In addition, the determination unit 2404 performs comprehensive determination processing for determining whether or not a road accessory exists in the front captured image and the rear captured image from the first determination result and the second determination result. More specifically, when the determination unit 2404 determines that the front captured image includes the front surface of the road appendage in the first determination and the second determination determines that the rear captured image includes the back surface of the road appendage. It is determined that there is a road accessory. Therefore, the determination unit 2404, when it is determined by the first determination that the surface of the road appendage does not exist in the front captured image, or when the second determination determines that the rear surface of the road appendage does not exist in the rear captured image, It is determined that there are no road accessories.

図26は、実施形態3の道路附属物検出の一例を説明するための図である。図26では、車両2501が道路を、図26の上部から下部に向かって走行する際に、走行方向からみて左側に道路ミラー2601が斜めに設置されている例の俯瞰図を示している。   FIG. 26 is a diagram for explaining an example of road accessory detection according to the third embodiment. 26 shows an overhead view of an example in which a road mirror 2601 is obliquely installed on the left side when viewed from the traveling direction when the vehicle 2501 travels on the road from the upper part to the lower part of FIG.

この場合、車両2501の走行位置でそれぞれ道路ミラー2601の見え方が変化する。図26に示すように、車両2501が道路ミラー2601から遠方の位置を走行しているときには、前方を撮像する撮像カメラ110aによる撮像画像では、道路ミラー2601の形状は楕円として撮像される(符号2602)。そして、車両2501が道路ミラー2601に接近するに従って、撮像カメラ110aによる撮像画像における道路ミラー2601の形状は、円形に変化していく(符号2603)。このとき、車両2501の後方を撮像する撮像カメラ110bでは、道路ミラー2601は撮像されない(写らない)。   In this case, the appearance of the road mirror 2601 changes depending on the travel position of the vehicle 2501. As shown in FIG. 26, when the vehicle 2501 is traveling at a position far from the road mirror 2601, the shape of the road mirror 2601 is captured as an ellipse in the captured image by the imaging camera 110a that captures the front (reference numeral 2602). ). Then, as the vehicle 2501 approaches the road mirror 2601, the shape of the road mirror 2601 in the image captured by the imaging camera 110a changes to a circle (reference numeral 2603). At this time, in the imaging camera 110b that captures the rear of the vehicle 2501, the road mirror 2601 is not captured (not captured).

また、車両2501が道路ミラー2601の位置を通過した後は、後方を撮像する撮像カメラ110bで道路ミラー2601の裏2604を撮影する。   In addition, after the vehicle 2501 passes the position of the road mirror 2601, the back 2604 of the road mirror 2601 is photographed by the imaging camera 110b that captures the rear.

道路ミラー2601において、黄色で塗装されている領域は、ミラーの縁と裏面である。このため、車両2501が道路ミラー2601の位置を通過後に、後方を撮像する撮像カメラ110bで道路ミラー2601の裏面を撮像することにより、特定色検出部102による黄色の特定色領域の検出精度を高くすることができる。このとき、車両2501の前方を撮像する撮像カメラ110aでは、道路ミラー2601は撮像されない(写らない)。   In the road mirror 2601, the areas painted in yellow are the edge and back surface of the mirror. Therefore, after the vehicle 2501 passes the position of the road mirror 2601, the backside of the road mirror 2601 is imaged by the imaging camera 110 b that captures the rear, thereby increasing the detection accuracy of the yellow specific color region by the specific color detection unit 102. can do. At this time, the imaging mirror 1101 that images the front of the vehicle 2501 does not capture (does not capture) the road mirror 2601.

次に、以上のように構成された実施形態3の道路附属物検出処理について説明する。図27は、実施形態3の道路附属物検出処理の手順の一例を示すフローチャートである。ここで、図27に示すフローチャートの処理は、例えば、数秒毎などの所定時間間隔で実行される。   Next, the road accessory detection process of the third embodiment configured as described above will be described. FIG. 27 is a flowchart illustrating an example of a procedure of road accessory detection processing according to the third embodiment. Here, the processing of the flowchart shown in FIG. 27 is executed at predetermined time intervals such as every several seconds, for example.

まず、車両の前方を撮像する撮像カメラ110aは、車両の前方の周囲を撮像する。柱領域検出部101、特定色検出部102および特定形状検出部103は、撮像カメラ110aから前方撮像画像を入力する(S1301)。そして、柱領域検出部101は前方撮像画像に対して柱領域検出処理を行う(S1302)。特定色検出部102は前方撮像画像に対して特定色検出処理を行う(S1303)。特定形状変換部3010は、形状DB130に保存されている形状パターンを変換する(S1304)。特定形状検出部103は、形状パターンを用いて前方撮像画像に対して特定形状検出処理を行う(S1305)。そして、判定部2404は、S1302、S1303、S1305の検出結果に基づき、道路附属物の表面の判定処理(第1判定)を行う(S1306)。S1302、S1303、S1305、S1306の各処理については実施形態1と同様に行われる。   First, the imaging camera 110a that captures the front of the vehicle images the surroundings in front of the vehicle. The pillar region detection unit 101, the specific color detection unit 102, and the specific shape detection unit 103 input a front captured image from the imaging camera 110a (S1301). Then, the column area detection unit 101 performs a column area detection process on the front captured image (S1302). The specific color detection unit 102 performs a specific color detection process on the front captured image (S1303). The specific shape conversion unit 3010 converts the shape pattern stored in the shape DB 130 (S1304). The specific shape detection unit 103 performs a specific shape detection process on the front captured image using the shape pattern (S1305). Then, the determination unit 2404 performs a determination process (first determination) on the surface of the road appendage based on the detection results of S1302, S1303, and S1305 (S1306). Each process of S1302, S1303, S1305, and S1306 is performed in the same manner as in the first embodiment.

そして、判定部2404は、検出対象物が前方撮像画像の範囲外になったか否かを判断する(S1307)。すなわち、判定部2404は、車両が検出対象物(道路附属物)の位置を通過したか否かを判断する。検出対象物が前方撮像画像の範囲内にある場合には(S1307:No)、車両は検出対象物をまだ通過しておらず、処理はS1301に戻り、S1306までの処理が繰り返し実行される。   Then, the determination unit 2404 determines whether or not the detection target object is outside the range of the forward captured image (S1307). That is, the determination unit 2404 determines whether or not the vehicle has passed the position of the detection object (road accessory). If the detection target is within the range of the forward captured image (S1307: No), the vehicle has not yet passed the detection target, the process returns to S1301, and the processes up to S1306 are repeatedly executed.

一方、検出対象物が前方撮像画像の範囲外になった場合には(S1307:Yes)、車両は検出対象物を通過しており、車両の後方を撮像する撮像カメラ110bは、車両の後方の周囲を撮像する。柱領域検出部101、特定色検出部102および特定形状検出部103は、撮像カメラ110bから後方撮像画像を入力する(S1308)。そして、柱領域検出部101は後方撮像画像に対して柱領域検出処理を行う(S1309)。特定色検出部102は後方撮像画像に対して特定色検出処理を行う(S1310)。特定形状変換部3010は、形状DB130に保存されている形状パターンを変換する(S1311)。特定形状検出部103は、形状パターンを用いて後方撮像画像に対して特定形状検出処理を行う(S1312)。そして、判定部2404は、S1309、S1310、S1312の検出結果に基づき、道路附属物の裏面の判定処理(第2判定)を行う(S1313)。S1309、S1310、S1312、S1313の各処理については実施形態1と同様に行われる。   On the other hand, when the detection object is out of the range of the front captured image (S1307: Yes), the vehicle has passed the detection object, and the imaging camera 110b that captures the rear of the vehicle Image the surroundings. The pillar region detection unit 101, the specific color detection unit 102, and the specific shape detection unit 103 input a rear captured image from the imaging camera 110b (S1308). Then, the column area detection unit 101 performs a column area detection process on the rear captured image (S1309). The specific color detection unit 102 performs specific color detection processing on the rear captured image (S1310). The specific shape conversion unit 3010 converts the shape pattern stored in the shape DB 130 (S1311). The specific shape detection unit 103 performs a specific shape detection process on the rear captured image using the shape pattern (S1312). Then, the determination unit 2404 performs determination processing (second determination) on the back side of the road appendage based on the detection results of S1309, S1310, and S1312 (S1313). Each process of S1309, S1310, S1312, and S1313 is performed similarly to the first embodiment.

そして、判定部2404は、検出対象物が後方撮像画像の範囲外になったか否かを判断する(S1314)。すなわち、判定部2404は、車両が検出対象物(道路附属物)の位置から遠く離れて検出不能になったか否かを判断する。検出対象物が後方撮像画像の範囲内にある場合には(S1314:No)、処理はS1308に戻り、S1313までの処理が繰り返し実行される。   Then, the determination unit 2404 determines whether or not the detection target object is outside the range of the rear captured image (S1314). That is, the determination unit 2404 determines whether or not the vehicle is far away from the position of the detection target (road accessory) and cannot be detected. If the detection target is within the range of the rear captured image (S1314: No), the process returns to S1308, and the processes up to S1313 are repeatedly executed.

一方、検出対象物が前方撮像画像の範囲外になった場合には(S1314:Yes)、すなわち、車両が検出対象物(道路附属物)の位置から遠く離れて検出不能になった場合には、判定部2404は、第1判定(S1306)の結果と、第2判定(S1313)の結果から、道路附属物が検出されたか否かを判定する総合判定処理を行う(S1315)。   On the other hand, when the detection object is out of the range of the forward captured image (S1314: Yes), that is, when the vehicle is far away from the position of the detection object (road accessory) and cannot be detected. The determination unit 2404 performs comprehensive determination processing for determining whether or not a road accessory is detected from the result of the first determination (S1306) and the result of the second determination (S1313) (S1315).

次に、計時部106は現在時刻を取得する(S1316)。そして、位置検出部107は、車両の現在位置を車両に搭載されたGPS等を利用して取得する(S1317)。   Next, the time measuring unit 106 acquires the current time (S1316). And the position detection part 107 acquires the present position of a vehicle using GPS etc. which were mounted in the vehicle (S1317).

出力部105は、判定部104による判定結果と、現在時刻、現在位置をメモリ等に保存しておく。そして、出力部105は、ユーザの指示等により検出終了するか否かを判断する(S1318)。出力部105が検出終了でないと判断した場合には(S1318:No)、処理はS1301へ戻り、S1317までを繰り返し実行する。   The output unit 105 stores the determination result by the determination unit 104, the current time, and the current position in a memory or the like. Then, the output unit 105 determines whether or not to end the detection based on a user instruction or the like (S1318). When the output unit 105 determines that the detection is not finished (S1318: No), the process returns to S1301 and repeatedly executes up to S1317.

一方、出力部105が検出終了と判断した場合には(S1318:Yes)、メモリ等に保存された判定結果、現在時刻、現在位置を用いて出力結果を生成する(S1319)。出力部105は、出力結果をモニタなどに表示することにより出力する(S1320)。   On the other hand, when the output unit 105 determines that the detection is finished (S1318: Yes), an output result is generated using the determination result saved in the memory or the like, the current time, and the current position (S1319). The output unit 105 outputs the output result by displaying it on a monitor or the like (S1320).

このように本実施形態では、二つの撮像カメラ110a,110bを車両に搭載し、道路附属物検出装置5000は、車両の前方向と後方向を撮像した二つの撮像画像(前方撮像画像、後方撮像画像)を用いて道路附属物を検出している。すなわち、車両が道路附属物の位置の通過前においては、道路附属物検出装置5000は、前方撮像画像から柱検出領域、特定色領域、特定形状領域を検出して、道路附属物の表面の検出を判定する。また、車両が道路附属物の位置の通過後においては、道路附属物検出装置5000は、後方撮像画像から柱検出領域、特定色領域、特定形状領域を検出して、道路附属物の裏面の検出を判定する。そして、道路附属物検出装置5000は、道路附属物の表面と裏面の双方が検出された場合に、道路附属物が存在すると判断する。   As described above, in this embodiment, the two imaging cameras 110a and 110b are mounted on the vehicle, and the road accessory detection device 5000 captures two captured images (a front captured image and a rear captured image) that capture the front direction and the rear direction of the vehicle. Image) is used to detect road accessories. That is, before the vehicle passes through the position of the road accessory, the road accessory detection device 5000 detects the column detection area, the specific color area, and the specific shape area from the front captured image, thereby detecting the surface of the road accessory. Determine. In addition, after the vehicle passes through the position of the road accessory, the road accessory detection device 5000 detects the column detection area, the specific color area, and the specific shape area from the rear captured image, and detects the back surface of the road accessory. Determine. Then, the road accessory detection device 5000 determines that a road accessory exists when both the front and back surfaces of the road accessory are detected.

このため、本実施形態によれば、取り付けの柱領域と、特定色領域、特定形状領域を合わせて道路附属物を検出することができ、かつ車両の走行に応じた見え方の変化に対応することができる。このため、本実施形態によれば、多くの種類の道路附属物をより高精度に検出することができる。   For this reason, according to the present embodiment, it is possible to detect the road appendage by combining the attached column region, the specific color region, and the specific shape region, and cope with a change in appearance according to the traveling of the vehicle. be able to. For this reason, according to this embodiment, many types of road accessories can be detected with higher accuracy.

なお、上記実施形態では、道路附属物検出装置100、3000、5000を車両に搭載し、道路附属物検出装置100、3000、5000は車両の走行中に撮像カメラ110で道路周辺を撮像しながら、撮像画像を逐次取得して、リアルタイムに道路附属物の存在を判定していたが、これに限定されるものではない。例えば、道路附属物検出装置100、3000、5000と撮像カメラ110とを別体として、道路附属物検出装置100、3000、5000を車両とは別個に設ける。そして、車両走行中に撮像カメラ110により道路周辺を撮像して動画として保存しておく。そして、後日、動画を取得して、柱領域、特定色領域、特定形状領域を検出して道路附属物の存在を検出するように道路附属物検出装置100、3000、5000を構成してもよい。   In the above-described embodiment, the road accessory detection devices 100, 3000, and 5000 are mounted on a vehicle, and the road accessory detection devices 100, 3000, and 5000 capture an image of the periphery of the road with the imaging camera 110 while the vehicle is running. Although captured images were sequentially acquired and the presence of road accessories was determined in real time, the present invention is not limited to this. For example, the road accessory detection devices 100, 3000, and 5000 and the imaging camera 110 are separately provided, and the road accessory detection devices 100, 3000, and 5000 are provided separately from the vehicle. Then, while the vehicle is running, the surroundings of the road are imaged by the imaging camera 110 and stored as a moving image. Then, the road accessory detection device 100, 3000, or 5000 may be configured to acquire a moving image at a later date and detect the pillar region, the specific color region, and the specific shape region to detect the presence of the road accessory. .

また、上記実施形態では、道路附属物として、道路標識や道路ミラー、街路灯を例にあげて説明したが、これらに限定されるものではない。例えば、信号機や案内板等も道路附属物として検出するように道路附属物検出装置100、3000、5000を構成することができる。これにより、より多数の種類の道路附属物を高精度に検出することが可能となる。   Moreover, although the said embodiment demonstrated and demonstrated the road sign, the road mirror, and the street light as an example of a road accessory, it is not limited to these. For example, the road accessory detection devices 100, 3000, and 5000 can be configured to detect traffic lights, guide plates, and the like as road accessories. This makes it possible to detect a greater number of types of road accessories with high accuracy.

また、上記実施形態では、道路附属物検出装置100、3000、5000は、道路の側方に配置された道路附属物を検出していたが、これに限定されるものではない。例えば、道路の上方あるいは下方に配置された道路附属物を検出するように道路附属物検出装置100、3000、5000を構成することができる。これにより、より多数の種類の道路附属物を高精度に検出することが可能となる。   Moreover, in the said embodiment, although the road appendage detection apparatus 100, 3000, 5000 detected the road appendage arrange | positioned at the side of a road, it is not limited to this. For example, the road accessory detection devices 100, 3000, and 5000 can be configured to detect a road accessory located above or below the road. This makes it possible to detect a greater number of types of road accessories with high accuracy.

また、上記実施形態では、柱領域検出部101は、撮像画像中の縦方向の一対の黒色部分を柱領域として検出しているが、これに限定されるものではない。例えば、撮像画像中の横方向の一対の黒色部分を柱領域として検出するように柱領域検出部101を構成することができる。この場合には、横方向に延在する柱により支持される案内板等も、道路附属物として高精度に検出することが可能となる。   Moreover, in the said embodiment, although the pillar area | region detection part 101 has detected a pair of black part of the vertical direction in a captured image as a pillar area | region, it is not limited to this. For example, the column region detection unit 101 can be configured to detect a pair of horizontal black portions in the captured image as a column region. In this case, a guide plate or the like supported by a column extending in the lateral direction can be detected with high accuracy as a road accessory.

上記実施形態の道路附属物検出装置100,3000,5000は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、SSDCDドライブ装置などの外部記憶装置と、モニタなどの表示装置と、タッチパネルや操作ボタンなどの入力装置を備えたハードウェア構成となっている。   The road accessory detection device 100, 3000, 5000 of the above embodiment includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) or a RAM, an external storage device such as an HDD or an SSDCD drive device, and a monitor. And a hardware configuration including an input device such as a touch panel and operation buttons.

なお、上記実施形態の道路附属物検出装置100,3000,5000で実行される道路附属物検出プログラムは、ROM等に予め組み込まれてコンピュータプログラムプロダクトとして提供される。   The road accessory detection program executed by the road accessory detection device 100, 3000, 5000 of the above embodiment is preinstalled in a ROM or the like and provided as a computer program product.

上記実施形態の道路附属物検出装置100,3000,5000で実行される道路附属物検出プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成してもよい。   The road adjunct detection program executed by the road adjunct detection apparatus 100, 3000, 5000 according to the above embodiment is a file in an installable format or an executable format, and is a CD-ROM, a flexible disk (FD), a CD-R. The program may be recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk) and provided as a computer program product.

さらに、上記実施形態の道路附属物検出装置100,3000,5000で実行される道路附属物検出プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることによりコンピュータプログラムプロダクトとして提供するように構成しても良い。また、上記実施形態の道路附属物検出装置100,3000,5000で実行される道路附属物検出プログラムをコンピュータプログラムプロダクトとしてインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, a computer program is stored by storing a road accessory detection program executed by the road accessory detection apparatus 100, 3000, 5000 of the above-described embodiment on a computer connected to a network such as the Internet and downloading the program via the network. You may comprise so that it may provide as a product. Moreover, you may comprise so that the road accessory detection program performed with the road accessory detection apparatus 100,3000,5000 of the said embodiment may be provided or distributed via networks, such as the internet, as a computer program product.

上記実施形態の道路附属物検出装置100,3000,5000で実行される道路附属物検出プログラムは、上述した各部(柱領域検出部101、特定色検出部102、特定形状変換部3010、特定形状検出部103、判定部104、2404、出力部105、計時部106、位置検出部107)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMから道路附属物検出プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、柱領域検出部101、特定色検出部102、特定形状変換部3010、特定形状検出部103、判定部104,2404、出力部105、計時部106、位置検出部107がRAM上に生成されるようになっている。   The road accessory detection program executed by the road accessory detection devices 100, 3000, and 5000 of the above embodiment includes the above-described units (the column region detection unit 101, the specific color detection unit 102, the specific shape conversion unit 3010, the specific shape detection). Unit 103, determination units 104 and 2404, output unit 105, timing unit 106, and position detection unit 107). As actual hardware, the CPU reads the road accessory detection program from the ROM. By executing this, the above-described units are loaded on the main storage device, and the column area detection unit 101, specific color detection unit 102, specific shape conversion unit 3010, specific shape detection unit 103, determination units 104 and 2404, output unit 105, timekeeping The unit 106 and the position detection unit 107 are generated on the RAM.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

100,3000,5000 道路附属物検出装置
110,110a,110b 撮像カメラ
101 柱領域検出部
102 特定色検出部
103 特定形状検出部
104,2404 判定部
105 出力部
106 計時部
107 位置検出部
120 色DB
130 形状DB
3010 特定形状変換部
100, 3000, 5000 Road accessory detection device 110, 110a, 110b Imaging camera 101 Column region detection unit 102 Specific color detection unit 103 Specific shape detection unit 104, 2404 Determination unit 105 Output unit 106 Timing unit 107 Position detection unit 120 Color DB
130 Shape DB
3010 Specific shape converter

Claims (10)

車両が走行する道路の撮像画像から、前記撮像画像の画素に基づき、検出対象の柱部分の領域である柱領域を検出する柱領域検出部と、
前記撮像画像から、前記検出対象の特定色を有する領域である特定色領域を検出する特定色検出部と、
前記撮像画像から、前記検出対象の特定形状を有する領域である特定形状領域を検出する特定形状検出部と、
前記柱領域と前記特定色領域と前記特定形状領域とに基づいて、前記撮像画像に、道路の周辺に配置された道路附属物が存在するか否かを判定する判定部と、
前記道路附属物に関する情報を出力する出力部と、
を備えた道路附属物検出装置。
From a captured image of a road on which the vehicle travels, based on the pixels of the captured image, a pillar region detection unit that detects a pillar region that is a region of a pillar part to be detected;
A specific color detection unit that detects a specific color region that is a region having the specific color of the detection target from the captured image;
A specific shape detection unit that detects a specific shape region that is a region having the specific shape of the detection target from the captured image;
Based on the pillar region, the specific color region, and the specific shape region, a determination unit that determines whether the captured image includes a road accessory arranged around a road;
An output unit for outputting information on the road accessories;
Road attachment detection device with
前記特定形状検出部は、前記道路附属物の形状に応じた形状パターンを、前記撮像画像を走査させながら、前記撮像画像とマッチングし、前記形状パターンを変化させながら前記撮像画像とマッチングすることを繰り返すことで、前記特定形状領域を検出する、
請求項1に記載の道路附属物検出装置。
The specific shape detection unit matches a shape pattern corresponding to the shape of the road appendage with the captured image while scanning the captured image, and matches the captured image with changing the shape pattern. By repeating, detecting the specific shape region,
The road accessory detection device according to claim 1.
前記形状パターンを変化させる特定形状変換部、
をさらに備えた請求項2に記載の道路附属物検出装置。
A specific shape conversion unit for changing the shape pattern;
The road accessory detection device according to claim 2, further comprising:
前記撮像画像は、前記車両の前方の第1の撮像画像と前記車両の後方の第2の撮像画像とを含み、
前記柱領域検出部は、前記第1の撮像画像と前記第2の撮像画像のそれぞれから、前記柱領域を検出し、
前記特定色検出部は、前記第1の撮像画像と前記第2の撮像画像のそれぞれから、前記特定色領域を検出し、
前記特定形状検出部は、前記第1の撮像画像と前記第2の撮像画像のそれぞれから、前記特定形状領域を検出し、
前記判定部は、前記第1の撮像画像から検出された前記柱領域と前記特定色領域と前記特定形状領域とに基づいて、前記第1の撮像画像に前記道路附属物が存在するか否かの第1判定を行い、前記第2の撮像画像から検出された前記柱領域と前記特定色領域と前記特定形状領域とに基づいて、前記第2の撮像画像に前記道路附属物が存在するか否かの第2判定を行い、前記第1判定の結果と前記第2判定の結果とから、前記第1の撮像画像と前記第2の撮像画像に前記道路附属物が存在するか否かを判定する、
請求項1〜3のいずれか一つに記載の道路附属物検出装置。
The captured image includes a first captured image in front of the vehicle and a second captured image behind the vehicle,
The pillar area detection unit detects the pillar area from each of the first captured image and the second captured image,
The specific color detection unit detects the specific color region from each of the first captured image and the second captured image,
The specific shape detection unit detects the specific shape region from each of the first captured image and the second captured image,
The determination unit determines whether the road accessory exists in the first captured image based on the pillar region, the specific color region, and the specific shape region detected from the first captured image. Whether the road appendage exists in the second captured image based on the pillar region, the specific color region, and the specific shape region detected from the second captured image. Whether or not the road appendage exists in the first captured image and the second captured image based on the result of the first determination and the result of the second determination. judge,
The road accessory detection apparatus according to any one of claims 1 to 3.
前記特定色検出部は、前記第1の撮像画像から、前記道路附属物の第1の面の特定色を有する前記特定色領域を検出し、前記第2の撮像画像から、前記道路附属物の第2の面の特定色を有する前記特定色領域を検出し、
前記特定形状検出部は、前記第1の撮像画像から、前記道路附属物の第1の面の特定形状を有する前記特定形状領域を検出し、前記第2の撮像画像から、前記道路附属物の第2の面の特定形状を有する前記特定形状領域を検出し、
前記判定部は、前記第1判定として、前記第1の撮像画像に前記道路附属物の第1の面が存在するか否かを判定し、前記第2判定として、前記第2の撮像画像に前記道路附属物の第2の面が存在するか否かを判定し、前記第1判定により前記第1の撮像画像に前記道路附属物の第1の面が存在し、かつ、前記第2判定により前記第2の撮像画像に前記道路附属物の第2の面が存在すると判定された場合に、前記道路附属物が存在すると判定する、
請求項4に記載の道路附属物検出装置。
The specific color detection unit detects the specific color region having the specific color of the first surface of the road appendage from the first captured image, and detects the road appendage from the second captured image. Detecting the specific color region having the specific color of the second surface;
The specific shape detection unit detects the specific shape region having a specific shape of the first surface of the road appendage from the first captured image, and detects the road appendage from the second captured image. Detecting the specific shape region having the specific shape of the second surface;
The determination unit determines, as the first determination, whether or not a first surface of the road appendage exists in the first captured image, and as the second determination, determines the second captured image. It is determined whether or not the second surface of the road appendage exists, the first determination causes the first surface of the road appendage to exist in the first captured image, and the second determination. When it is determined that the second surface of the road appendage exists in the second captured image, it is determined that the road appendage exists.
The road accessory detection device according to claim 4.
前記判定部は、前記柱領域、前記特定色領域、前記特定形状領域のいずれも検出され、かつ各領域間の前記撮像画像上での距離が所定の距離未満である場合には、前記柱領域と前記特定色領域と前記特定形状領域とが示す領域が前記道路附属物であると判定する、
請求項1〜5のいずれか一つに記載の道路附属物検出装置。
The determination unit detects the pillar region, the specific color region, and the specific shape region, and when the distance between the regions on the captured image is less than a predetermined distance, And determining that the region indicated by the specific color region and the specific shape region is the road appendage,
The road accessory detection device according to any one of claims 1 to 5.
前記判定部は、前記柱領域、前記特定色領域、前記特定形状領域のいずれも検出され、かつ各領域間の前記撮像画像上での距離のいずれかが前記所定の距離以上である場合には、前記撮像画像に前記道路附属物は存在しないと判定する、
請求項6に記載の道路附属物検出装置。
The determination unit detects all of the pillar region, the specific color region, and the specific shape region, and when any of the distances between the regions on the captured image is equal to or greater than the predetermined distance. Determining that the road accessory does not exist in the captured image;
The road accessory detection apparatus according to claim 6.
前記判定部は、前記柱領域、前記特定色領域、前記特定形状領域のいずれかが検出されなかった場合には、前記撮像画像に前記道路附属物は存在しないと判定する、
請求項6または7に記載の道路附属物検出装置。
The determination unit determines that the road accessory does not exist in the captured image when any of the pillar region, the specific color region, and the specific shape region is not detected.
The road accessory detection apparatus according to claim 6 or 7.
前記車両が走行する道路の周辺を撮像して前記撮像画像を得る撮像部、
をさらに備えた請求項1〜8のいずれか一つに記載の道路附属物検出装置。
An imaging unit that captures an image of a periphery of a road on which the vehicle travels to obtain the captured image;
The road accessory detection device according to claim 1, further comprising:
車両が走行する道路の周辺の撮像画像から、前記撮像画像の画素に基づき、検出対象の柱部分の領域である柱領域を検出し、
前記撮像画像から、前記検出対象の特定色を有する領域である特定色領域を検出し、
前記撮像画像から、前記検出対象の特定形状を有する領域である特定形状領域を検出し、
前記柱領域と前記特定色領域と前記特定形状領域とに基づいて、前記撮像画像に、道路の周辺に配置された道路附属物が存在するか否かを判定し、
前記道路附属物に関する情報を出力する、
ことを含む道路附属物検出方法。
From the captured image around the road on which the vehicle travels, based on the pixels of the captured image, detect a column region that is a region of the column portion to be detected,
Detecting a specific color region that is a region having the specific color of the detection target from the captured image;
From the captured image, a specific shape region that is a region having the specific shape of the detection target is detected,
Based on the pillar region, the specific color region, and the specific shape region, it is determined whether or not a road accessory arranged around a road exists in the captured image,
Outputting information about the road accessories,
Road appendage detection method.
JP2015044086A 2015-03-05 2015-03-05 Road attachment detection device and road attachment detection method Active JP6526449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015044086A JP6526449B2 (en) 2015-03-05 2015-03-05 Road attachment detection device and road attachment detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015044086A JP6526449B2 (en) 2015-03-05 2015-03-05 Road attachment detection device and road attachment detection method

Publications (2)

Publication Number Publication Date
JP2016162436A true JP2016162436A (en) 2016-09-05
JP6526449B2 JP6526449B2 (en) 2019-06-05

Family

ID=56845408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015044086A Active JP6526449B2 (en) 2015-03-05 2015-03-05 Road attachment detection device and road attachment detection method

Country Status (1)

Country Link
JP (1) JP6526449B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101012A (en) * 2017-12-07 2019-06-24 株式会社ミツトヨ Device for reading measured value from analog measuring tool
CN111488411A (en) * 2019-01-28 2020-08-04 阿里巴巴集团控股有限公司 Road facility construction method and device, rendering method, medium and terminal
US11417080B2 (en) 2017-10-06 2022-08-16 Nec Corporation Object detection apparatus, object detection method, and computer-readable recording medium
JP2022145752A (en) * 2017-12-07 2022-10-04 株式会社ミツトヨ Device for reading measured value from analog measuring tool

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654186A (en) * 1992-08-03 1994-02-25 Ricoh Co Ltd Image recognizing device
JPH0981738A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image recognition device and method therefor
JP2001036741A (en) * 1995-06-29 2001-02-09 Omron Corp Method and device for processing image, copying machine loaded with the device, scanner and printer
JP2009031131A (en) * 2007-07-27 2009-02-12 Pioneer Electronic Corp Traffic control information generator and traffic control information generation program
JP2011198002A (en) * 2010-03-19 2011-10-06 Aisin Aw Co Ltd Object image recognition apparatus for vehicle, object image recognition method for vehicle, and computer program
JP2015022716A (en) * 2013-07-23 2015-02-02 ソニー株式会社 Image processing system, image processing method, image processing program and imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654186A (en) * 1992-08-03 1994-02-25 Ricoh Co Ltd Image recognizing device
JP2001036741A (en) * 1995-06-29 2001-02-09 Omron Corp Method and device for processing image, copying machine loaded with the device, scanner and printer
JPH0981738A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image recognition device and method therefor
JP2009031131A (en) * 2007-07-27 2009-02-12 Pioneer Electronic Corp Traffic control information generator and traffic control information generation program
JP2011198002A (en) * 2010-03-19 2011-10-06 Aisin Aw Co Ltd Object image recognition apparatus for vehicle, object image recognition method for vehicle, and computer program
JP2015022716A (en) * 2013-07-23 2015-02-02 ソニー株式会社 Image processing system, image processing method, image processing program and imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11417080B2 (en) 2017-10-06 2022-08-16 Nec Corporation Object detection apparatus, object detection method, and computer-readable recording medium
JP2019101012A (en) * 2017-12-07 2019-06-24 株式会社ミツトヨ Device for reading measured value from analog measuring tool
JP7115903B2 (en) 2017-12-07 2022-08-09 株式会社ミツトヨ Reading device for the measured values of analog measuring tools
JP2022145752A (en) * 2017-12-07 2022-10-04 株式会社ミツトヨ Device for reading measured value from analog measuring tool
JP2022159481A (en) * 2017-12-07 2022-10-17 株式会社ミツトヨ Device for reading measured value from analog measuring tool
JP7282960B2 (en) 2017-12-07 2023-05-29 株式会社ミツトヨ Device for reading measured values of analog measuring tools
JP7282962B2 (en) 2017-12-07 2023-05-29 株式会社ミツトヨ Device for reading measured values of analog measuring tools
CN111488411A (en) * 2019-01-28 2020-08-04 阿里巴巴集团控股有限公司 Road facility construction method and device, rendering method, medium and terminal
CN111488411B (en) * 2019-01-28 2023-03-21 阿里巴巴集团控股有限公司 Road facility construction method and device, rendering method, medium and terminal

Also Published As

Publication number Publication date
JP6526449B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6144656B2 (en) System and method for warning a driver that visual recognition of a pedestrian may be difficult
CN107169494B (en) License plate image based on handheld terminal divides bearing calibration
JP2017191608A (en) Object recognition method, object recognition device, and classifier training method
JP6526449B2 (en) Road attachment detection device and road attachment detection method
JP6194604B2 (en) Recognizing device, vehicle, and computer executable program
JP2004145852A (en) Method for detecting position of lane marker, apparatus for detecting position of lane marker and alarm apparatus for lane deviation
JP6569385B2 (en) Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
JP5539250B2 (en) Approaching object detection device and approaching object detection method
KR20160078724A (en) Apparatus and method for displaying surveillance area of camera
KR101593483B1 (en) Image processing apparatus and method for detecting object using equi-height mosaicking image, and system for assisting vehicle driving employing the same
JP2008077154A (en) Vehicle periphery supervision unit
JP2017016474A (en) Obstacle detection system and obstacle detection method
JP5862217B2 (en) Marker detection and tracking device
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
JP2007026400A (en) Object detection/recognition system at place with sharp difference in illuminance using visible light and computer program
KR20140026078A (en) Apparatus and method for extracting object
JP2018055591A (en) Information processing apparatus, information processing method and program
JP2008146132A (en) Image detection device, program, and image detection method
JP4855342B2 (en) Object classification device, parking space detection device, object classification method, parking space detection method, and program
JP2004310282A (en) Vehicle detector
JP5911623B1 (en) Detection device and detection method for road joints
KR102174000B1 (en) System for Recognizing Information Plate for vehicle and Method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170315

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150