JP2016186756A - Device and method of detecting joint part of road - Google Patents

Device and method of detecting joint part of road Download PDF

Info

Publication number
JP2016186756A
JP2016186756A JP2015067281A JP2015067281A JP2016186756A JP 2016186756 A JP2016186756 A JP 2016186756A JP 2015067281 A JP2015067281 A JP 2015067281A JP 2015067281 A JP2015067281 A JP 2015067281A JP 2016186756 A JP2016186756 A JP 2016186756A
Authority
JP
Japan
Prior art keywords
image
road
unit
road structure
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015067281A
Other languages
Japanese (ja)
Other versions
JP5911623B1 (en
Inventor
憲 土佐林
Ken Tosabayashi
憲 土佐林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shutoko Engineering Co Ltd
Funcreate Co Ltd
Original Assignee
Shutoko Engineering Co Ltd
Funcreate Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shutoko Engineering Co Ltd, Funcreate Co Ltd filed Critical Shutoko Engineering Co Ltd
Priority to JP2015067281A priority Critical patent/JP5911623B1/en
Application granted granted Critical
Publication of JP5911623B1 publication Critical patent/JP5911623B1/en
Publication of JP2016186756A publication Critical patent/JP2016186756A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device and an object detection method with which an object can be appropriately detected.SOLUTION: An object detection device (for example, a road structure detection device) comprises: an imaging part (camera 10) that is mounted on a movable body (for example, vehicle 200) and can photograph the surroundings of the movable body; a singular point extraction part that extracts singular points from an image photographed by the imaging part; and an object detection part that detects an object (for example, a road structure) on the basis of the singular points extracted by the singular point extraction part. When the number of the continuous singular points is within a determination range corresponding to the size in a predetermined direction in an image of the object to be detected, the object detection part can determine that the object is present in the image.SELECTED DRAWING: Figure 1

Description

本発明は、物体を検出する物体検出装置及び物体検出方法に関する。   The present invention relates to an object detection apparatus and an object detection method for detecting an object.

従来、路面に関連する路面構造物や路面の周辺に設置された付属構造物等を含む道路構造物の点検作業は、点検者が目視により行っていた。例えば、道路構造物の点検方法としては、点検者が、走行する点検車両から目視により道路構造物の状態を確認したり、点検車両に設置したカメラ等で撮影した全画像から道路構造物の状態を目視判定したりする方法が用いられてきた。しかしながら、前者の方法では、点検車両を低速走行させなければならず、道路渋滞を招くおそれがある。また、後者の方法では、点検者は道路構造物が撮影されていない画像についても確認しなければならず、非効率である。   Conventionally, an inspector has visually inspected road structures including road surface structures related to the road surface and attached structures installed around the road surface. For example, as an inspection method for road structures, an inspector visually confirms the state of the road structure from a traveling inspection vehicle, or the state of the road structure from all images taken with a camera installed on the inspection vehicle. Such a method has been used for visually judging the above. However, in the former method, the inspection vehicle must be run at a low speed, which may cause road congestion. Moreover, in the latter method, the inspector must confirm an image in which the road structure is not photographed, which is inefficient.

車載のカメラで撮影した画像から道路構造物を自動的に検出する装置としては、例えば特許文献1に記載の技術がある。この技術は、車両に設置したカメラで撮影した車両前方の路面上の画像に対しエッジ検出、パターン認識などの画像処理を行うことで、車両前方の路面上の構造物(例えば、道路のジョイント部やマンホール等)を識別するものである。ここでは、路面上の構造物についての位置情報を記憶したデータベースを予め準備しておき、当該データベースに記憶された構造物の位置に車両が接近したとき、車両前方に道路構造物が存在するか否かを判断している。   As an apparatus for automatically detecting a road structure from an image taken by an in-vehicle camera, for example, there is a technique described in Patent Document 1. This technology performs image processing such as edge detection and pattern recognition on an image on the road surface in front of the vehicle, which is taken by a camera installed in the vehicle, so that a structure on the road surface in front of the vehicle (for example, a joint portion of the road) And manholes). Here, whether a road structure exists ahead of the vehicle when a database storing position information about the structure on the road surface is prepared in advance and the vehicle approaches the position of the structure stored in the database. Judging whether or not.

特開2013−20293号公報JP 2013-20293 A

上記特許文献1に記載の技術にあっては、道路構造物の位置情報を記憶したデータベースを予め準備しておかなければ、道路構造物を適切に検出することができない。すなわち、例えば道路構造物として道路のジョイント部を検出対象とした場合、当該ジョイント部の設置位置や設置間隔等が未知である場合には、適切に当該ジョイント部を検出することができない。また、上記特許文献1に記載の技術では、パターン認識により道路構造物を検出している。このようにパターン認識を用いた検出方法では、例えば、道路のジョイント部を検出する場合、道路の幅方向に沿って互い違いに正対状態で形成される三角形や四角形などの継ぎ目をパターンマッチングにより検出することで、道路のジョイント部を検出することになる。しかしながら、ジョイント部の継ぎ目の形状にはさまざまなものがあり、すべてのマッチング用パターンを用意することは困難である。したがって、上記の検出方法では、道路構造物の誤検出や検出漏れ等が発生しやすい。
そこで、本発明は、撮影画像から物体を容易且つ適切に検出することができる物体検出装置及び物体検出方法を提供することを課題としている。
In the technique described in Patent Document 1, a road structure cannot be properly detected unless a database storing position information of the road structure is prepared in advance. That is, for example, when a road joint part is used as a detection target for a road structure, the joint part cannot be appropriately detected when the installation position or installation interval of the joint part is unknown. In the technique described in Patent Document 1, a road structure is detected by pattern recognition. As described above, in the detection method using pattern recognition, for example, when detecting a joint portion of a road, a joint such as a triangle or a quadrangle formed alternately in the width direction of the road is detected by pattern matching. By doing so, the joint portion of the road is detected. However, there are various shapes of joints at the joints, and it is difficult to prepare all the patterns for matching. Therefore, in the above detection method, erroneous detection or detection omission of road structures is likely to occur.
Therefore, an object of the present invention is to provide an object detection apparatus and an object detection method that can easily and appropriately detect an object from a captured image.

上記課題を解決するために、本発明に係る物体検出装置の一態様は、移動体に搭載された撮影部で撮影した当該移動体の周辺の画像から特異点を抽出する特異点抽出部と、前記特異点抽出部で抽出した特異点のうち、前記画像における所定の方向に連続する特異点の数に基づいて、検出対象の物体を検出する物体検出部と、を備える。したがって、従来のパターンマッチングを用いた場合のように、検出対象である物体に対応したマッチング用パターンを用意する必要がない。そのため、数種類の物体を検出対象とする場合であっても、物体の誤検出や検出漏れを抑制することができる。   In order to solve the above-described problem, an aspect of the object detection device according to the present invention includes a singular point extraction unit that extracts a singular point from an image around the moving body photographed by a photographing unit mounted on the moving body, An object detection unit that detects an object to be detected based on the number of singular points that are continuous in a predetermined direction in the image among the singular points extracted by the singular point extraction unit. Therefore, unlike the case of using conventional pattern matching, it is not necessary to prepare a matching pattern corresponding to an object to be detected. Therefore, even when several types of objects are set as detection targets, it is possible to suppress erroneous detection and detection omission of objects.

また、上記の物体検出装置において、前記特異点抽出部は、前記撮影部で撮影した画像から、前記物体の輝度値に対応する値の輝度値を有する画素を前記特異点として抽出してもよい。このように、物体の輝度値を有する画素を特異点として抽出するので、検出対象である物体とは輝度値の異なる物体は、仮に形状が同じであっても検出対象から除外することができる。したがって、所望の物体を適切に検出することができる。   In the object detection device, the singular point extraction unit may extract, as the singular point, a pixel having a luminance value corresponding to the luminance value of the object from the image captured by the imaging unit. . As described above, since the pixel having the luminance value of the object is extracted as a singular point, an object having a luminance value different from that of the detection target object can be excluded from the detection target even if the shape is the same. Therefore, a desired object can be detected appropriately.

さらに、上記の物体検出装置において、前記特異点抽出部は、前記撮影部で撮影した画像に対して所定の閾値で二値化処理および多値化処理のいずれかを施し、当該処理後の画像から、前記物体の前記処理後の輝度値を有する画素を前記特異点として抽出してもよい。このように、二値化処理または多値化処理を行って特異点を抽出するので、比較的簡易に特異点、即ち検出対象である物体の候補に対応する画素を抽出することができる。また、二値化処理または多値化処理を行うことで、データ量を削減することができ、処理を軽くすることができる。   Furthermore, in the object detection apparatus, the singular point extraction unit performs either binarization processing or multi-level processing on the image captured by the imaging unit with a predetermined threshold, and the image after the processing From the above, a pixel having the processed luminance value of the object may be extracted as the singular point. As described above, since the binarization process or the multi-value process is performed to extract the singular point, it is possible to extract the singular point, that is, the pixel corresponding to the candidate object to be detected, relatively easily. Further, by performing the binarization process or the multi-value process, the data amount can be reduced and the process can be lightened.

また、上記の物体検出装置において、ユーザが入力した情報に基づいて、前記閾値を調整可能な閾値調整部をさらに備えてもよい。このように、二値化処理または多値化処理で用いる閾値を調整することで、検出可能となる物体を調整することができる。すなわち、非検出としたい物体がある場合には、その物体が検出されないように上記閾値を設定することができ、所望の物体を検出することができる。   The object detection apparatus may further include a threshold adjustment unit that can adjust the threshold based on information input by a user. In this way, by adjusting the threshold value used in the binarization process or the multi-value process, the object that can be detected can be adjusted. That is, when there is an object that should not be detected, the threshold value can be set so that the object is not detected, and a desired object can be detected.

さらにまた、上記の物体検出装置において、前記物体検出部は、前記連続する特異点の数が、前記物体の前記画像内における前記所定の方向における大きさに相当する判定範囲内にあるとき、前記画像内に前記物体が存在すると判断してもよい。これにより、検出対象の物体の画像内における大きさ及び姿勢に概ね一致する大きさ及び姿勢を有する特異点の点群を、検出対象の物体として検出することができる。したがって、複雑な処理を必要とすることなく、適切に物体の検出が可能となる。また、検出対象の物体と同等の輝度値を有する物体が存在する場合であっても、検出対象の物体とは大きさや姿勢が異なる物体は検出対象から除外することができる。したがって、所望の物体を適切に検出することができる。   Furthermore, in the above object detection device, the object detection unit, when the number of consecutive singular points is within a determination range corresponding to the size of the object in the predetermined direction in the image, It may be determined that the object is present in the image. As a result, it is possible to detect a point group of singular points having a size and orientation that approximately match the size and orientation in the image of the detection target object as the detection target object. Therefore, it is possible to appropriately detect an object without requiring complicated processing. Further, even when there is an object having a luminance value equivalent to that of the detection target object, an object having a size or orientation different from that of the detection target object can be excluded from the detection target. Therefore, a desired object can be detected appropriately.

また、上記の物体検出装置において、前記物体検出部は、前記物体の前記画像内における前記所定の方向における大きさを、前記移動体の車速と、前記物体の前記画像のフレーム間での変位量とに基づいて導出してもよい。これにより、画像内の物体の位置および大きさが、画像フレーム間で変位することを利用して判定範囲を設定することができる。したがって、例えば他車両の影などの移動体は、物体として検出されないようにすることができる。このように、より高精度に物体を検出することができる。   In the object detection device, the object detection unit may determine the size of the object in the predetermined direction in the image, the amount of displacement between the vehicle speed of the moving object and the frame of the image of the object. And may be derived based on Thereby, the determination range can be set by using the displacement and position of the object in the image between the image frames. Therefore, for example, a moving body such as a shadow of another vehicle can be prevented from being detected as an object. Thus, an object can be detected with higher accuracy.

さらに、上記の物体検出装置において、ユーザが入力した情報に基づいて、前記判定範囲を調整可能な判定範囲調整部をさらに備えてもよい。このように、物体の検出に用いる判定範囲を調整することで、検出する物体を調整することができる。したがって、所望の物体を検出することができる。
また、上記の物体検出装置において、前記物体は、道路、橋、トンネル、及び配管の少なくとも1つに関連する構造物であってもよい。これにより、道路構造物や、橋に取り付けられたボルト、トンネル内壁に設置された照明、配管の接続部などを検出することができる。
Furthermore, the object detection apparatus may further include a determination range adjustment unit that can adjust the determination range based on information input by a user. Thus, the object to be detected can be adjusted by adjusting the determination range used for detecting the object. Therefore, a desired object can be detected.
In the object detection apparatus, the object may be a structure related to at least one of a road, a bridge, a tunnel, and a pipe. Thereby, it is possible to detect road structures, bolts attached to the bridge, lighting installed on the inner wall of the tunnel, pipe connection portions, and the like.

さらに、上記の物体検出装置において、前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像を記憶装置に記憶する記憶制御部をさらに備えてもよい。これにより、移動体が撮影対象領域の移動を完了した後、点検者は記憶装置に記憶された画像を詳細に確認することができる。また、記憶装置には、物体が撮影されている画像のみを記憶するので、点検者は物体の状態を効率良く確認することができる。
また、上記の物体検出装置において、前記記憶制御部は、前記画像の撮影時刻および前記移動体の位置の少なくとも一方を、前記画像と対応付けて前記記憶装置に記憶してもよい。これにより、点検者は、画像に映っている物体の位置や、当該物体が撮影された時刻等を容易に把握することができる。
Furthermore, the object detection apparatus may further include a storage control unit that stores the image in which the object is captured in a storage device when the object detection unit detects the object. Thereby, after the moving body completes the movement of the imaging target region, the inspector can check the image stored in the storage device in detail. Further, since only the image in which the object is photographed is stored in the storage device, the inspector can efficiently check the state of the object.
In the object detection device, the storage control unit may store at least one of the shooting time of the image and the position of the moving body in the storage device in association with the image. Thereby, the inspector can easily grasp the position of the object shown in the image, the time when the object is photographed, and the like.

さらにまた、上記の物体検出装置において、前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像を表示部に表示する表示制御部をさらに備えてもよい。このように、検出対象である物体が撮影された画像を表示部に表示させるので、移動体を移動させながらモニタ上で物体の状態を確認することができる。
また、上記の物体検出装置において、前記表示制御部は、前記物体検出部で検出した物体を強調表示してもよい。これにより、検出対象である物体の状態の確認作業を効率的に行うことができる。
Furthermore, the object detection apparatus may further include a display control unit that displays the image on which the object is captured when the object is detected by the object detection unit. In this way, since an image obtained by photographing an object that is a detection target is displayed on the display unit, the state of the object can be confirmed on the monitor while moving the moving body.
In the object detection apparatus, the display control unit may highlight the object detected by the object detection unit. Thereby, the confirmation operation | work of the state of the object which is a detection target can be performed efficiently.

また、上記の物体検出装置において、前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像をサーバ装置へ転送する転送部をさらに備えてもよい。このように、検出対象である物体が撮影された画像をサーバ装置へ転送するので、遠隔地にいる監視員等は、リアルタイムで物体の状態を確認することができる。
また、本発明に係る物体検出方法の一態様は、移動体に搭載された撮影部で撮影した当該移動体の周辺の画像から特異点を抽出するステップと、抽出した特異点のうち、前記画像における所定の方向に連続する特異点の数に基づいて、検出対象の物体を検出するステップと、を含む。したがって、従来のパターンマッチングを用いた場合のように、検出対象である物体に対応したマッチング用パターンを用意する必要がない。そのため、数種類の物体を検出対象とする場合であっても、物体の誤検出や検出漏れを抑制することができる。
In addition, the object detection apparatus may further include a transfer unit that transfers the image in which the object is photographed to the server device when the object detection unit detects the object. In this way, since an image in which an object to be detected is captured is transferred to the server device, a monitor or the like at a remote location can check the state of the object in real time.
Also, one aspect of the object detection method according to the present invention is the step of extracting a singular point from an image around the moving body photographed by a photographing unit mounted on the moving body, and among the extracted singular points, the image Detecting an object to be detected based on the number of singular points continuous in a predetermined direction. Therefore, unlike the case of using conventional pattern matching, it is not necessary to prepare a matching pattern corresponding to an object to be detected. Therefore, even when several types of objects are set as detection targets, it is possible to suppress erroneous detection and detection omission of objects.

本発明によれば、検出対象の物体の設置位置やパターンが未知であっても、移動体に搭載した撮影部で撮影した画像から物体を容易且つ適切に検出することができる。また、撮影画像から物体を自動的に検出するので、検出対象である物体の状態確認作業を支援することができる。   According to the present invention, even if the installation position and pattern of an object to be detected are unknown, the object can be easily and appropriately detected from an image captured by an imaging unit mounted on the moving body. In addition, since the object is automatically detected from the captured image, it is possible to support the state confirmation work of the object that is the detection target.

本実施形態における物体検出装置の一例を示す概略構成図である。It is a schematic block diagram which shows an example of the object detection apparatus in this embodiment. 物体検出装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an object detection apparatus. 画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 画像処理装置が実行する画像処理手順を示すフローチャートである。It is a flowchart which shows the image processing procedure which an image processing apparatus performs. 撮影画像の一例である。It is an example of a picked-up image. 二値化処理後の画像データの一例である。It is an example of the image data after a binarization process. 道路構造物の検出結果の表示例である。It is an example of a display of the detection result of a road structure.

以下、本発明の実施の形態を図面に基づいて説明する。
(第1の実施形態)
図1は、本実施形態における物体検出装置の一例を示す概略構成図である。本実施形態では、物体検出装置を道路(歩道を含む)に関連する構造物(以下、「道路構造物」という。)を検出対象の物体として検出する道路構造物検出装置に適用する例を説明する。
この図1に示すように、道路構造物検出装置100は、移動体である車両200に搭載可能である。車両200は、例えば、高速道路をはじめとする各種道路において、毎日もしくは数日おきに行われる日常点検を実施するための点検車両である。道路構造物検出装置100は、カメラ10と、画像処理装置20と、GPS受信機30とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram illustrating an example of an object detection apparatus according to the present embodiment. In the present embodiment, an example in which the object detection device is applied to a road structure detection device that detects a structure (hereinafter referred to as “road structure”) related to a road (including a sidewalk) as an object to be detected will be described. To do.
As shown in FIG. 1, the road structure detection apparatus 100 can be mounted on a vehicle 200 that is a moving body. The vehicle 200 is an inspection vehicle for carrying out daily inspections performed every day or every several days on various roads including an expressway, for example. The road structure detection device 100 includes a camera 10, an image processing device 20, and a GPS receiver 30.

カメラ10は、例えば車両200の正面の屋根部分に取り付けられ、車両200の周辺を撮影する撮影部である。このカメラ10は、例えば、アスペクト比16:9の横長のハイビジョン映像を撮影するハイビジョンカメラである。これにより、アスペクト比4:3の映像に対し、人の視野に近い状態で映像を撮影することができる。
カメラ10は、例えば車両200が所定の点検対象道路を走行しているときに、当該車両200の周辺を撮影することで、道路構造物を検出するための映像を撮影する。ここで、道路構造物とは、舗装やジョイント部、道路区画線(白線)、マンホール、排水溝、中央分離帯等のような路面に関連する路面構造物や、標識や照明灯、防音壁、ガードレール、縁石、横断歩道橋等のような路面の周辺に設置された付属構造物等を含む。さらに、道路構造部は、車両が通る橋梁やトンネル等を含んでもよい。
The camera 10 is an imaging unit that is attached to, for example, a roof portion in front of the vehicle 200 and images the periphery of the vehicle 200. The camera 10 is, for example, a high-definition camera that captures a horizontally long high-definition video having an aspect ratio of 16: 9. As a result, it is possible to shoot an image with an aspect ratio of 4: 3 close to the human visual field.
For example, when the vehicle 200 is traveling on a predetermined inspection target road, the camera 10 captures an image for detecting a road structure by photographing the periphery of the vehicle 200. Here, road structures are road surface structures related to road surfaces such as pavements, joints, road lane markings (white lines), manholes, drains, median strips, signs, lighting, noise barriers, Includes attached structures installed around road surfaces such as guardrails, curbs, pedestrian crossings, etc. Furthermore, the road structure part may include a bridge or a tunnel through which the vehicle passes.

本実施形態では、カメラ10は、車両200の前方の映像を撮影する。ここで、カメラ10の撮影範囲(方向や画角(視野角))は、検出対象である道路構造物に応じて適宜設定するものとする。検出対象がジョイント部や道路区画線等、路面上の構造物である場合には、カメラ10の撮影範囲は、路面を撮影可能な範囲に設定する。一方、検出対象が道路の側部に設置された標識や照明、防音壁等である場合には、カメラ10の撮影範囲は、道路の側部を撮影可能な範囲に設定する。
なお、カメラ10は複数台設置することもできる。例えば、カメラ10は、車両200の前方を撮影する第一のカメラと、車両200の左側方を撮影する第二のカメラと、車両200の右側方を撮影する第三のカメラとで構成することもできる。この場合、各カメラでそれぞれ撮影した撮影方向の異なる映像を1つの動画情報として出力可能な構成とする。また、カメラ10は、車両の後方を撮影するように構成されていてもよい。
In the present embodiment, the camera 10 captures an image in front of the vehicle 200. Here, the shooting range (direction and angle of view (viewing angle)) of the camera 10 is appropriately set according to the road structure that is the detection target. When the detection target is a structure on the road surface such as a joint portion or a road marking line, the shooting range of the camera 10 is set to a range where the road surface can be shot. On the other hand, when the detection target is a sign, illumination, soundproof wall, or the like installed on the side of the road, the shooting range of the camera 10 is set to a range in which the side of the road can be shot.
A plurality of cameras 10 can be installed. For example, the camera 10 includes a first camera that captures the front of the vehicle 200, a second camera that captures the left side of the vehicle 200, and a third camera that captures the right side of the vehicle 200. You can also. In this case, it is configured such that videos with different shooting directions shot by each camera can be output as one moving picture information. Further, the camera 10 may be configured to photograph the rear of the vehicle.

画像処理装置20は、カメラ10で撮影した映像データの各画像フレーム(画像データ)を取得し、取得した画像データに対して画像処理を行って道路構造物を検出する。この画像処理装置20は、例えばノート型パーソナルコンピュータ(ノートPC)により構成されており、画像処理によりカメラ10から取得した画像データから特異点を抽出し、当該特異点に基づいて道路構造物を検出する。当該画像処理については後で詳述する。なお、画像処理装置20は、ノートPCに限定されるものではなく、例えば、スマートフォンやタブレット端末などの携帯端末であってもよい。また、画像処理装置20は、例えば、カメラ10に搭載されていてもよい。
GPS受信機30は、GPS(Global Positioning System)衛星から発信された信号を受信し、車両200の走行位置を示す位置情報を画像処理装置20に出力する。画像処理装置20は、GPS受信機30から取得した位置情報を予め格納した道路情報とマッチングし、車両200の走行位置を検出可能である。
The image processing device 20 acquires each image frame (image data) of video data captured by the camera 10 and performs image processing on the acquired image data to detect a road structure. The image processing apparatus 20 is configured by, for example, a notebook personal computer (notebook PC), extracts a singular point from image data acquired from the camera 10 by image processing, and detects a road structure based on the singular point. To do. The image processing will be described in detail later. Note that the image processing device 20 is not limited to a notebook PC, and may be, for example, a mobile terminal such as a smartphone or a tablet terminal. The image processing apparatus 20 may be mounted on the camera 10, for example.
The GPS receiver 30 receives a signal transmitted from a GPS (Global Positioning System) satellite and outputs position information indicating the traveling position of the vehicle 200 to the image processing device 20. The image processing device 20 can detect the traveling position of the vehicle 200 by matching the position information acquired from the GPS receiver 30 with the road information stored in advance.

以下、画像処理装置20の具体的構成について説明する。
図2は、画像処理装置20のハードウェア構成の一例を示す図である。
画像処理装置20は、CPU21と、ROM22と、RAM23と、メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、画像処理装置20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。
Hereinafter, a specific configuration of the image processing apparatus 20 will be described.
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 20.
The image processing apparatus 20 includes a CPU 21, a ROM 22, a RAM 23, a memory 24, an input unit 25, a display unit 26, a communication I / F 27, and a system bus 28.
The CPU 21 controls the operation of the image processing apparatus 20 in an integrated manner, and controls each component (22 to 27) via the system bus 28.

ROM22は、CPU21が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
The ROM 22 is a non-volatile memory that stores a control program necessary for the CPU 21 to execute processing. The program may be stored in the memory 24 or a removable storage medium (not shown).
The RAM 23 functions as a main memory and work area for the CPU 21. That is, the CPU 21 implements various functional operations by loading a program or the like necessary from the ROM 22 into the RAM 23 when executing the processing, and executing the program or the like.

メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を予め記憶している。また、メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。メモリ24は、SDカードやUSBメモリ等の外部記憶媒体であってもよい。また、メモリ24は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気テープ等の磁気記録媒体、光ディスクや光磁気ディスク等の光/光磁気記憶媒体等の記憶媒体(記憶装置)であってもよい。   For example, the memory 24 stores in advance various data and various information necessary for the CPU 21 to perform processing using a program. Further, the memory 24 stores, for example, various data and various information obtained by the CPU 21 performing processing using a program or the like. The memory 24 may be an external storage medium such as an SD card or a USB memory. The memory 24 is a storage medium (storage device) such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a magnetic recording medium such as a magnetic tape, or an optical / magneto-optical storage medium such as an optical disk or a magneto-optical disk. There may be.

入力部25は、キーボードやマウス等のポインティングデバイスで構成され、画像処理装置20のユーザは、入力部25を介して当該画像処理装置20に指示を与えることができるようになっている。
表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。
通信I/F27は、外部装置(図1では、カメラ10やGPS受信機30)と通信するためのインターフェースである。通信I/F27は、例えばLANインターフェースである。
システムバス28は、CPU21、ROM22、RAM23、メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
すなわち、CPU21は、ROM22に記憶されたプログラムを実行することで、上述した画像処理を実現する。
The input unit 25 is configured by a pointing device such as a keyboard or a mouse, and a user of the image processing apparatus 20 can give an instruction to the image processing apparatus 20 via the input unit 25.
The display unit 26 includes a monitor such as a liquid crystal display (LCD).
The communication I / F 27 is an interface for communicating with an external device (in FIG. 1, the camera 10 and the GPS receiver 30). The communication I / F 27 is, for example, a LAN interface.
The system bus 28 connects the CPU 21, the ROM 22, the RAM 23, the memory 24, the input unit 25, the display unit 26, and the communication I / F 27 so that they can communicate with each other.
That is, the CPU 21 implements the above-described image processing by executing a program stored in the ROM 22.

図3は、画像処理装置20の機能ブロック図である。画像処理装置20は、画像取得部121と、画像処理部122と、記憶制御部123と、表示制御部124と、パラメータ取得部125と、閾値調整部126と、判定範囲調整部127とを備える。
画像取得部121は、カメラ10で撮影した映像から1画像フレーム相当の撮影画像を取得し、これを画像処理部122へ出力する。画像処理部122は、画像取得部121で取得した画像データに対して後述する画像処理を施し、その結果を記憶制御部123及び表示制御部124に出力する。記憶制御部123は、画像処理部122の画像処理結果をメモリ24に記憶し、表示制御部124は、画像処理部122の画像処理結果を表示部26に表示する。
FIG. 3 is a functional block diagram of the image processing apparatus 20. The image processing apparatus 20 includes an image acquisition unit 121, an image processing unit 122, a storage control unit 123, a display control unit 124, a parameter acquisition unit 125, a threshold adjustment unit 126, and a determination range adjustment unit 127. .
The image acquisition unit 121 acquires a captured image corresponding to one image frame from the video captured by the camera 10, and outputs this to the image processing unit 122. The image processing unit 122 performs image processing described later on the image data acquired by the image acquisition unit 121, and outputs the result to the storage control unit 123 and the display control unit 124. The storage control unit 123 stores the image processing result of the image processing unit 122 in the memory 24, and the display control unit 124 displays the image processing result of the image processing unit 122 on the display unit 26.

パラメータ取得部125は、ユーザ(例えば、車両200の乗員等)が入力した、上記画像処理のパラメータに関する情報を取得する。当該パラメータは、後述する二値化閾値や判定範囲等である。例えば、パラメータ取得部125は、入力部25によって入力された上記情報を取得可能に構成されている。閾値調整部126は、パラメータ取得部125で取得した情報をもとに、上記二値化閾値の設定ファイルを調整する。また、判定範囲調整部127は、パラメータ取得部125で取得した情報をもとに、上記判定範囲の設定ファイルを調整する。ここで、上記設定ファイルは、例えばメモリ24に記憶されているものとする。   The parameter acquisition unit 125 acquires information regarding the parameters of the image processing input by a user (for example, an occupant of the vehicle 200). The parameter is a binarization threshold, a determination range, or the like, which will be described later. For example, the parameter acquisition unit 125 is configured to be able to acquire the information input by the input unit 25. The threshold adjustment unit 126 adjusts the binarization threshold setting file based on the information acquired by the parameter acquisition unit 125. The determination range adjustment unit 127 adjusts the determination range setting file based on the information acquired by the parameter acquisition unit 125. Here, it is assumed that the setting file is stored in the memory 24, for example.

図4は、画像処理装置20のCPU21で実行する画像処理手順を示すフローチャートである。この画像処理は、例えば画像処理装置20の電源が投入されたタイミングで実行開始することができる。なお、当該画像処理の開始タイミングは上記のタイミングに限定されるものではない。例えば、画像処理装置20に乗員が操作可能な処理開始ボタン等が設置されている場合、当該ボタンが押下されたことを検知したときに当該画像処理を開始するようにしてもよい。   FIG. 4 is a flowchart showing an image processing procedure executed by the CPU 21 of the image processing apparatus 20. This image processing can be started at the timing when the image processing apparatus 20 is powered on, for example. Note that the start timing of the image processing is not limited to the above timing. For example, when a processing start button or the like that can be operated by a passenger is installed in the image processing apparatus 20, the image processing may be started when it is detected that the button has been pressed.

先ずステップS1で、CPU21は、カメラ10から撮影画像を取得し、ステップS2に移行する。なお、このステップS1では、撮影画像に対して種々の補正処理を行ってもよい。例えば、撮影画像に対してワイドダイナミックレンジ(WDR)処理を行うことで、逆光が強いシーンや明暗の差が大きいシーンを撮影した画像の高品位化を図ることができる。
ステップS2では、CPU21は、ステップS1で取得した画像データに対して所定の二値化閾値を用いて二値化処理を施す。二値化閾値の設定ファイルは、予めメモリ24に記憶しておき、ユーザが適宜調整可能である。
First, in step S1, the CPU 21 acquires a captured image from the camera 10, and proceeds to step S2. In step S1, various correction processes may be performed on the captured image. For example, by performing wide dynamic range (WDR) processing on a photographed image, it is possible to improve the quality of an image obtained by photographing a scene with strong backlight or a scene with a large difference in brightness.
In step S2, the CPU 21 performs binarization processing on the image data acquired in step S1 using a predetermined binarization threshold. The binarization threshold setting file is stored in the memory 24 in advance, and can be adjusted as appropriate by the user.

この二値化閾値は、検出対象である道路構造物を検出可能な値に設定する。一般に、路面にはアスファルト舗装が施されており、撮影画像において、当該アスファルト路面部分に対応する画素の輝度値(以下、「画素値」ともいう)は黒色の輝度値「0」に近い値となる。これに対して、例えばジョイント部では、路面上に金属製の継手部材や後打コンクリートが露出しており、撮影画像において、当該ジョイント部に対応する領域の画素値は、上記のアスファルト路面部分に対応する領域の画素値よりも白色の輝度値「255」に近い値となる。   The binarization threshold is set to a value that can detect the road structure that is the detection target. Generally, asphalt pavement is applied to the road surface, and in the photographed image, the luminance value of the pixel corresponding to the asphalt road surface portion (hereinafter also referred to as “pixel value”) is close to the black luminance value “0”. Become. On the other hand, for example, in the joint portion, metal joint members and post-cast concrete are exposed on the road surface, and in the photographed image, the pixel value of the region corresponding to the joint portion is in the above asphalt road surface portion. It becomes a value closer to the white luminance value “255” than the pixel value of the corresponding region.

したがって、道路構造物としてジョイント部を検出する場合には、二値化閾値をジョイント部に対応する領域の画素値の下限値と同等、若しくはそれよりも所定のマージン分だけ小さく(黒色の輝度値に近く)設定する。これにより、二値化処理の結果、ジョイント部に対応する画素は白、アスファルト路面に対応する画素は黒となる。例えば、ステップS1で図5に示すような撮影画像を取得した場合、二値化処理の結果、図6に示すような二値化画像が得られる。図5に示すように、ジョイント部51、白線52、轍53、照明灯の影54などが撮影されている場合、二値化処理の結果、ジョイント部51や白線52、轍53に対応する領域(61〜63)は白となり、照明灯の影54に対応する領域(64)は黒となる。   Therefore, when a joint part is detected as a road structure, the binarization threshold value is equal to or lower by a predetermined margin than the lower limit value of the pixel value of the region corresponding to the joint part (black luminance value). Set near). As a result of the binarization processing, the pixels corresponding to the joint portion are white, and the pixels corresponding to the asphalt road surface are black. For example, when a captured image as shown in FIG. 5 is acquired in step S1, a binarized image as shown in FIG. 6 is obtained as a result of the binarization process. As shown in FIG. 5, when the joint portion 51, the white line 52, the collar 53, the shadow 54 of the illuminating lamp, and the like are photographed, areas corresponding to the joint portion 51, the white line 52, and the collar 53 as a result of binarization processing. (61-63) is white, and the area (64) corresponding to the shadow 54 of the illuminating lamp is black.

次にステップS3で、CPU21は、二値化画像から特異点を抽出し、ステップS4に移行する。ここで、特異点とは、二値化画像内において予め設定した注目画素値を有する画素である。注目画素値は、検出対象の道路構造物の二値化処理後の画素値に設定しておく。例えば、検出対象の道路構造物が上記のジョイント部である場合、注目画素値は、二値化処理後の白色の輝度値「1」となる。なお、このステップS3では、特異点を抽出する前に、二値化画像に対して孤立点除去や膨張処理、収縮処理等を行ってノイズを除去するようにしてもよい。   Next, in step S3, the CPU 21 extracts a singular point from the binarized image, and proceeds to step S4. Here, the singular point is a pixel having a pixel value of interest set in advance in the binarized image. The target pixel value is set to a pixel value after binarization processing of the road structure to be detected. For example, when the road structure to be detected is the above joint part, the target pixel value is a white luminance value “1” after binarization processing. In step S3, before extracting the singular point, noise may be removed by performing isolated point removal, expansion processing, contraction processing, etc. on the binarized image.

ステップS4では、CPU21は、ステップS3で抽出した特異点の連続性を判定する。具体的には、CPU21は、先ず二値化画像に対してラベリング処理を施し、道路構造物候補となる領域(点群)を識別する。次にCPU21は、各領域について、二値化画像の車両200の幅方向に対応する方向(X方向)で連続する特異点の数Nxと、車両200の進行方向に対応する方向(Y方向)で連続する特異点の数Nyとを計測する。そして、これら特異点数Nx,Nyがそれぞれ予め設定した判定範囲内であるか否かを判定することで、道路構造物の有無を判定する。   In step S4, the CPU 21 determines the continuity of the singular points extracted in step S3. Specifically, the CPU 21 first performs a labeling process on the binarized image to identify a region (point group) that is a road structure candidate. Next, for each region, the CPU 21 counts the number Nx of singular points continuous in the direction (X direction) corresponding to the width direction of the vehicle 200 in the binarized image and the direction corresponding to the traveling direction of the vehicle 200 (Y direction). The number of consecutive singular points Ny is measured. And the presence or absence of a road structure is determined by determining whether these singularity numbers Nx and Ny are within a predetermined determination range.

上記判定範囲は、検出対象である道路構造物の撮影画像内での大きさをもとに設定する。例えば、ジョイント部は、道路の幅方向に沿って道路幅に相当する長さを有すると共に、車両の進行方向に沿って所定の幅(例えば、500mm程度)を有する。したがって、検出対象である道路構造物がジョイント部である場合、特異点数Nxの判定範囲は、上記のジョイント部の長さ(道路幅)に相当する画素数に基づいて設定し、特異点数Nyの判定範囲は、上記のジョイント部の幅に相当する画素数に基づいて設定する。このように、抽出した特異点の点群の数に基づいて、道路構造物の有無を判定する。なお、判定範囲の設定ファイルは、予めメモリ24に記憶しておき、ユーザが適宜調整可能である。   The determination range is set based on the size of the road structure to be detected in the captured image. For example, the joint portion has a length corresponding to the road width along the width direction of the road, and a predetermined width (for example, about 500 mm) along the traveling direction of the vehicle. Therefore, when the road structure to be detected is a joint part, the determination range of the singularity number Nx is set based on the number of pixels corresponding to the length (road width) of the joint part, and the singularity number Ny The determination range is set based on the number of pixels corresponding to the width of the joint portion. In this way, the presence or absence of a road structure is determined based on the number of extracted point groups of singular points. The determination range setting file is stored in the memory 24 in advance, and can be adjusted as appropriate by the user.

ステップS5では、CPU21は、ステップS4の判定の結果、道路構造物があると判断した場合にはステップS6に移行し、道路構造物がないと判断した場合には後述するステップS8に移行する。
ステップS6では、CPU21は、ステップS1で取得した撮影画像に対して関連情報を付加する。当該関連情報とは、撮影画像を撮影した時点での車両200の位置情報、撮影画像を撮影した時刻情報、検出された道路構造物の種類を判別するための属性情報等を含む
In step S5, if the CPU 21 determines that there is a road structure as a result of the determination in step S4, the process proceeds to step S6, and if it is determined that there is no road structure, the process proceeds to step S8 described later.
In step S6, the CPU 21 adds related information to the captured image acquired in step S1. The relevant information includes position information of the vehicle 200 at the time when the captured image is captured, time information when the captured image is captured, attribute information for determining the type of the detected road structure, and the like.

ステップS7では、CPU21は、上記関連情報付きの撮影画像をメモリ24に保存すると共に、道路構造物の検出結果を表示部26に表示可能である。図7は、当該検出結果の表示例を示す図である。図7に示すように、表示画面71は画像表示部72を備え、当該画像表示部72に撮影画像を表示する。また、このとき、画像表示部72において、検出した道路構造物に対して検出枠73を重畳表示することにより、当該道路構造物を識別可能に強調表示することもできる。さらに、表示画面71内に撮影画像を撮影した時刻を表示したり、撮影画像を撮影した場所(例えば地図)を表示するためのボタン74を設けたりすることもできる。なお、検出結果の表示方法(強調表示の方法やボタン74の表示位置など)は、これに限定されるものではない。   In step S <b> 7, the CPU 21 can store the captured image with the related information in the memory 24 and display the road structure detection result on the display unit 26. FIG. 7 is a diagram illustrating a display example of the detection result. As shown in FIG. 7, the display screen 71 includes an image display unit 72 and displays a captured image on the image display unit 72. Further, at this time, by displaying the detection frame 73 superimposed on the detected road structure on the image display unit 72, the road structure can be highlighted in an identifiable manner. Furthermore, the time when the captured image was captured can be displayed in the display screen 71, or a button 74 for displaying the location (for example, a map) where the captured image was captured can be provided. Note that the detection result display method (highlight display method, display position of the button 74, etc.) is not limited to this.

ステップS8では、CPU21は、道路構造物の検出処理を終了するか否かを判定する。例えば、車両200の乗員が画像処理装置20に設けられた処理終了ボタンを押すなどにより、CPU21が道路構造物の検出処理を終了するための指示を受信した場合に、当該検出処理を終了する。そして、CPU21は、道路構造物の検出処理を継続すると判断した場合にはステップS1に戻り、道路構造物の検出処理を終了すると判断した場合には、そのまま図4に示す処理を終了する。
なお、図4において、ステップS2及びS3の処理が特異点抽出部に対応し、ステップS4の処理が物体検出部に対応している。
In step S8, the CPU 21 determines whether or not to end the road structure detection process. For example, when the occupant of the vehicle 200 receives an instruction for ending the road structure detection process by pressing a process end button provided in the image processing apparatus 20, the detection process is ended. If the CPU 21 determines to continue the road structure detection process, the process returns to step S1. If the CPU 21 determines to end the road structure detection process, the process shown in FIG.
In FIG. 4, the processes in steps S2 and S3 correspond to a singular point extraction unit, and the process in step S4 corresponds to an object detection unit.

以上のように、本実施形態では、車両200が、点検対象道路である例えば高速道路の所定の点検開始位置に到達し、当該車両200の乗員が、道路構造物の検出処理を開始するべく画像処理装置20の電源を投入すると、画像処理装置20は道路構造物の検出処理を開始する。このとき、画像処理装置20は、カメラ10から撮影画像を取り込み、当該撮影画像から特異点を抽出し、画像内で連続する特異点の数に基づいて道路構造物の有無を判定する。そして、画像処理装置20は、道路構造物を検出すると、当該道路構造物が撮影された撮影画像をメモリ24に保存する。また、画像処理装置20は、当該撮影画像を、道路構造物の検出箇所を明示して表示部(モニタ)26に表示する。画像処理装置20は、上記の処理を、車両200が点検対象道路の走行を完了するまで継続する。   As described above, in the present embodiment, the vehicle 200 reaches a predetermined inspection start position on, for example, an expressway that is an inspection target road, and an occupant of the vehicle 200 is imaged so as to start a road structure detection process. When the processing apparatus 20 is turned on, the image processing apparatus 20 starts a road structure detection process. At this time, the image processing apparatus 20 captures a captured image from the camera 10, extracts singular points from the captured image, and determines the presence or absence of a road structure based on the number of singular points consecutive in the image. Then, when the image processing apparatus 20 detects the road structure, the image processing apparatus 20 stores a captured image in which the road structure is captured in the memory 24. In addition, the image processing apparatus 20 displays the captured image on the display unit (monitor) 26 with the detection location of the road structure clearly indicated. The image processing device 20 continues the above processing until the vehicle 200 completes traveling on the inspection target road.

このように、道路構造物の検出に際し、撮影画像から特異点を抽出し、当該特異点の連続性を判断する。すなわち、道路構造物の撮影画像内における輝度が路面の輝度とは異なることを利用し、路面の輝度値とは異なる輝度値を有する画素を特異点として抽出する。そして、画像内において所定の方向に連続する特異点の数が所定の判定範囲内にあると判断した場合に、当該特異点の点群に対応する領域を道路構造物として検出する。   As described above, when detecting a road structure, a singular point is extracted from the captured image, and the continuity of the singular point is determined. That is, using the fact that the luminance in the captured image of the road structure is different from the luminance of the road surface, a pixel having a luminance value different from the luminance value of the road surface is extracted as a singular point. When it is determined that the number of singular points continuous in a predetermined direction in the image is within a predetermined determination range, an area corresponding to the point group of the singular points is detected as a road structure.

そのため、検出対象の道路構造物の撮影画像内における大きさ及び姿勢に概ね一致する大きさ及び姿勢を有する特異点の点群を、検出対象の道路構造物として検出することができる。したがって、複雑な処理を必要とすることなく、適切に道路構造物の検出が可能となる。また、検出対象の道路構造物と同等の輝度値を有する構造物が存在する場合であっても、検出対象の道路構造物とは大きさや姿勢が異なる構造物は検出対象から除外することができる。したがって、所望の道路構造物を適切に検出することができる。   Therefore, it is possible to detect a point group of singular points having a size and posture that approximately match the size and posture in the captured image of the detection target road structure as the detection target road structure. Accordingly, it is possible to appropriately detect the road structure without requiring complicated processing. In addition, even when there is a structure having a luminance value equivalent to that of the road structure to be detected, a structure having a size or posture different from that of the road structure to be detected can be excluded from the detection target. . Therefore, a desired road structure can be detected appropriately.

さらに、撮影画像は、走行中の車両200に搭載されたカメラ10が撮影するので、当該撮影画像内の道路構造物の位置および大きさは、画像フレーム間で変位する。すなわち、撮影画像内の道路構造物は、徐々に車両200に近づく方向に移動し、その大きさも大きくなる。その変位量は、車両200の車速に応じて決定される。したがって、上記判定範囲は、車両200の車速と、画像フレーム間での道路構造物の大きさの変位とに基づいて導出してもよい。これにより、例えば他車両の影などの移動体は、道路構造物として検出されないようにすることができる。このように、より高精度に道路構造物を検出することができる。   Furthermore, since the captured image is captured by the camera 10 mounted on the traveling vehicle 200, the position and size of the road structure in the captured image are displaced between the image frames. That is, the road structure in the captured image gradually moves in the direction approaching the vehicle 200, and the size thereof also increases. The amount of displacement is determined according to the vehicle speed of the vehicle 200. Therefore, the determination range may be derived based on the vehicle speed of the vehicle 200 and the displacement of the size of the road structure between the image frames. Thereby, for example, a moving body such as a shadow of another vehicle can be prevented from being detected as a road structure. Thus, a road structure can be detected with higher accuracy.

撮影画像から特定の物体を検出する方法としては、エッジを検出してパターンマッチングする方法が広く用いられている。しかしながら、検出対象の道路構造物が複数存在する場合、それぞれについてマッチング用のパターンを用意しなければならない。また、同じ道路構造物であっても、種類によってはそれぞれ形状が異なるため、パターンマッチングによる検出方法では、誤検出や検出漏れが発生しやすい。   As a method for detecting a specific object from a photographed image, a method for detecting an edge and performing pattern matching is widely used. However, when there are a plurality of road structures to be detected, matching patterns must be prepared for each. Moreover, even if the road structure is the same, the shape differs depending on the type. Therefore, the detection method using pattern matching tends to cause erroneous detection and omission of detection.

これに対して、本実施形態では、上述したように撮影画像から特異点を抽出し、特異点数に基づいて道路構造物を検出するため、パターンマッチングを用いた検出方法と比べて道路構造物の誤検出や検出漏れを抑制することができる。例えば、継ぎ目の形状がそれぞれ異なる数種類のジョイント部等についても適切に検出することが可能である。
また、エッジ検出により道路構造物を検出しようとした場合、車幅方向に伸びる影(例えば、図5に示す照明灯の影54や他車両の影等)を道路のジョイント部として誤検出してしまうおそれがある。本実施形態では、道路構造物の輝度値を有する画素を特異点として抽出し、当該特異点の点群に基づいて道路構造物を検出するので、検出対象であるジョイント部とは輝度値の異なる影は検出対象から除外することができる。このように、所望の道路構造物を適切に検出することができる。
On the other hand, in the present embodiment, as described above, singular points are extracted from the captured image and road structures are detected based on the number of singular points. Therefore, the road structure is detected in comparison with the detection method using pattern matching. False detection and detection omission can be suppressed. For example, it is possible to appropriately detect several types of joint portions having different seam shapes.
In addition, when detecting a road structure by edge detection, a shadow extending in the vehicle width direction (for example, a shadow 54 of an illumination lamp shown in FIG. 5 or a shadow of another vehicle) is erroneously detected as a joint portion of the road. There is a risk that. In this embodiment, pixels having the brightness value of the road structure are extracted as singular points, and the road structure is detected based on the point group of the singular points. Therefore, the brightness value is different from the joint part that is the detection target. Shadows can be excluded from detection targets. Thus, a desired road structure can be detected appropriately.

さらに、撮影画像に対して二値化処理を施すことで特異点を抽出する。したがって、比較的簡易な処理で特異点を抽出することができる。また、二値化処理で用いる二値化閾値は外部記憶媒体等に記憶し、検出対象の道路構造物の輝度値に応じて調整可能である。換言すると、上記二値化閾値を変更することで、検出可能となる道路構造物を変更することができる。したがって、非検出としたい道路構造物がある場合には、その道路構造物が検出されないように上記二値化閾値を設定することができる。   Furthermore, a singular point is extracted by performing binarization processing on the captured image. Therefore, a singular point can be extracted by a relatively simple process. The binarization threshold used in the binarization process is stored in an external storage medium or the like, and can be adjusted according to the luminance value of the road structure to be detected. In other words, the road structure that can be detected can be changed by changing the binarization threshold. Therefore, when there is a road structure that is not desired to be detected, the binarization threshold can be set so that the road structure is not detected.

例えば、道路のジョイント部を非検出とし、道路の白線のみを検出したい場合には、二値化閾値をより白色の輝度値「255」に近い値とする。これにより、ジョイント部に対応する灰色の画素を二値化処理により黒色の輝度値「0」とすることができ、特異点として抽出されないようにすることができる。このように、解析に必要な道路構造物のみを検出するような設定とすることができるので、作業性を向上させることができる。なお、特異点の抽出に際し、撮影画像内の画素の彩度や色相を考慮するようにしてもよい。   For example, when the road joint is not detected and only the white line of the road is to be detected, the binarization threshold is set to a value closer to the white luminance value “255”. Thereby, the gray pixel corresponding to the joint portion can be set to the black luminance value “0” by the binarization process, and can be prevented from being extracted as a singular point. Thus, since it can be set as the detection of only a road structure required for an analysis, workability | operativity can be improved. Note that the saturation and hue of the pixels in the captured image may be taken into account when extracting the singular points.

また、上記判定範囲は外部記憶媒体等に記憶し、検出対象とする道路構造物に応じて調整可能である。そのため、上述した二値化閾値と同様に、上記判定範囲を変更することで、検出可能となる道路構造物を変更することができる。例えば、当該判定範囲を、車幅方向に道路幅相当の長さを有する領域に設定すれば、特異点の点群として、道路のジョイント部に対応する領域と道路の白線に対応する領域とを認識している場合であっても、ジョイント部に対応する領域のみを検出対象の道路構造物である判断することができる。このように、解析に必要な道路構造物のみを検出するような設定とすることができるので、作業性を向上させることができる。
このように、二値化閾値や判定範囲を設定するための設定ファイルを外部記憶媒体等に記憶し、ユーザにより任意に調整可能とすることで、自由度の高い検出処理が可能となる。
The determination range is stored in an external storage medium or the like, and can be adjusted according to the road structure to be detected. Therefore, similarly to the above-described binarization threshold, the road structure that can be detected can be changed by changing the determination range. For example, if the determination range is set to an area having a length corresponding to the road width in the vehicle width direction, an area corresponding to the joint portion of the road and an area corresponding to the white line of the road are used as a point cloud of singular points. Even in the case of recognition, it is possible to determine that only the area corresponding to the joint portion is the road structure to be detected. Thus, since it can be set as the detection of only a road structure required for an analysis, workability | operativity can be improved.
As described above, the setting file for setting the binarization threshold value and the determination range is stored in an external storage medium or the like, and can be arbitrarily adjusted by the user, so that detection processing with a high degree of freedom is possible.

また、道路構造物を検出したときの撮影画像をメモリ24に保存するので、車両200が点検対象の道路の走行を完了した後、点検者は保存した撮影画像を詳細に確認することができる。メモリ24には、道路構造物が撮影されている撮影画像のみを保存するので、点検者は道路構造物の状態を効率良く確認することができる。
撮影画像を保存するメモリ24は、着脱可能な記憶媒体であってもよいし、着脱不可能な記憶媒体であってもよい。メモリ24として着脱可能な外部記憶媒体を用いれば、車両200以外の場所での撮影画像の確認や、別の場所にある管理システムへのデータのアップロード等が可能となる。
Further, since the captured image when the road structure is detected is stored in the memory 24, the inspector can check the stored captured image in detail after the vehicle 200 completes traveling on the inspection target road. Since the memory 24 stores only the captured image of the road structure, the inspector can efficiently check the state of the road structure.
The memory 24 that stores the captured image may be a removable storage medium or a non-removable storage medium. If a removable external storage medium is used as the memory 24, it is possible to check a captured image at a place other than the vehicle 200, upload data to a management system at another place, and the like.

さらに、メモリ24に保存する撮影画像は、関連情報として車両位置情報や撮影時刻情報等を有するので、点検者は、撮影画像に映っている道路構造物の位置や、当該道路構造物が撮影された時刻等を容易に把握することができる。したがって、点検者は、撮影画像から道路構造物の異常を検出したとき、道路構造物の詳細点検や応急処置を行う車両を当該道路構造物の位置に適切に向かわせることができる。
また、道路構造物を検出したときの撮影画像をモニタ表示するので、車両200の乗員はリアルタイムで道路構造物の状態を確認することができる。このとき、検出した道路構造物に対して検出枠を重畳表示する等、道路構造物を強調表示するので、乗員による点検作業効率を向上させることができる。
Furthermore, since the captured image stored in the memory 24 includes vehicle position information, shooting time information, and the like as related information, the inspector can photograph the position of the road structure reflected in the captured image and the road structure. It is possible to easily grasp the time. Accordingly, when the inspector detects an abnormality of the road structure from the photographed image, the inspector can appropriately point the vehicle that performs the detailed inspection of the road structure and the first aid to the position of the road structure.
Moreover, since the captured image when the road structure is detected is displayed on the monitor, the occupant of the vehicle 200 can check the state of the road structure in real time. At this time, since the road structure is highlighted, for example, a detection frame is superimposed on the detected road structure, the inspection work efficiency by the occupant can be improved.

このように、本実施形態では、カメラ10で撮影した撮影画像をもとに道路構造物を自動で検出する。したがって、車両200は、点検対象の道路を、車線規制を必要としない速度で走行することができる。点検車両の乗員が目視により道路構造物の状態を確認する点検方法の場合、当該点検車両は低速走行をしなければならず、点検作業に長時間を要する。また、車線規制を必要とするので、道路渋滞を招くおそれもある。これに対して、本実施形態では、短時間で作業を行うことができると共に、道路渋滞を招くおそれもない。   As described above, in this embodiment, the road structure is automatically detected based on the captured image captured by the camera 10. Therefore, the vehicle 200 can travel on the road to be inspected at a speed that does not require lane regulation. In the case of an inspection method in which an occupant of an inspection vehicle visually confirms the state of a road structure, the inspection vehicle must travel at a low speed, and the inspection work takes a long time. Moreover, since lane regulation is required, there is a risk of causing traffic congestion. On the other hand, in the present embodiment, work can be performed in a short time and there is no possibility of causing traffic congestion.

また、本実施形態では、特異点を抽出する方法により道路構造物を検出するので、さまざまな道路構造物を検出対象とすることができる。すなわち、撮影画像における道路構造物に対応する画素が特異点として抽出できれば、当該道路構造物の自動検出が可能である。路面に関連する路面構造物の場合、アスファルト路面とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができる。例えば、このような路面構造物としては、道路のジョイント部、道路区画線(白線等)、轍、路面上の落下物、路面の損傷による穴などが挙げられる。また、路面周辺の付属構造物の場合にも同様に、周囲とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができる。例えば、このような付属構造物としては、標識、標識の文字、他車両のナンバープレートの文字、照明灯、防音壁やトンネル等の損傷部(亀裂、ボルト抜け部等)などが挙げられる。   Moreover, in this embodiment, since a road structure is detected by the method of extracting a singular point, various road structures can be detected. That is, if a pixel corresponding to a road structure in the captured image can be extracted as a singular point, the road structure can be automatically detected. In the case of a road surface structure related to a road surface, any structure having a luminance value different from that of an asphalt road surface can be set as a detection target. Examples of such road surface structures include road joints, road lane markings (white lines, etc.), fences, fallen objects on road surfaces, holes due to road surface damage, and the like. Similarly, in the case of an accessory structure around the road surface, any structure having a luminance value different from that of the surrounding area can be set as a detection target. For example, examples of such an attached structure include a sign, a character of the sign, a character of a license plate of another vehicle, an illumination light, a damaged part (such as a crack or bolt missing part) of a soundproof wall or a tunnel.

道路構造物を検出した撮影画像は、道路構造物の状態確認に用いることができる。すなわち、点検者は、当該撮影画像から道路構造物の異常の有無を判断することができる。また、トンネル内の照明や破線状の白線等、通常は等間隔で配列している道路構造物について、点検者は、照明切れや白線切れの有無を判断することもできる。
このように、本道路構造物検出装置100は、撮影画像から道路構造物を適切に自動検出することで、道路維持管理の一環である道路構造物の状態確認作業を支援することができる。
The photographed image in which the road structure is detected can be used for checking the state of the road structure. That is, the inspector can determine whether there is an abnormality in the road structure from the captured image. In addition, the inspector can also determine whether or not there is a light outage or a white line outage for road structures that are usually arranged at regular intervals, such as lighting in a tunnel or white lines in broken lines.
As described above, the road structure detection device 100 can assist the state confirmation work of the road structure as a part of the road maintenance management by appropriately automatically detecting the road structure from the captured image.

(変形例)
なお、上記実施形態においては、物体検出装置を走行車両に搭載する場合について説明したが、物体検出装置を搭載する移動体は車両に限定されるものではない。例えば、ラジコン、ドローン(無人航空機)、ヘリコプターなどに物体検出装置を搭載してもよい。
また、上記実施形態においては、物体検出装置を、道路に関連する構造物(道路構造物)を検出する道路構造物検出装置に適用する場合について説明したが、検出対象の物体は道路構造物に限定されるものではない。例えば、電気や電話のケーブル、ガス管、水道管等を通すための橋やトンネルに関連する構造物を、検出対象の物体とすることもできる。さらに、上下水道管などの配管に関連する構造物を検出対象の物体とすることもできる。
(Modification)
In the above-described embodiment, the case where the object detection device is mounted on the traveling vehicle has been described. However, the moving body on which the object detection device is mounted is not limited to the vehicle. For example, the object detection device may be mounted on a radio control, a drone (unmanned aerial vehicle), a helicopter, or the like.
In the above embodiment, the case where the object detection device is applied to a road structure detection device that detects a structure (road structure) related to a road has been described. However, the detection target object is a road structure. It is not limited. For example, a structure related to a bridge or a tunnel for passing an electric or telephone cable, a gas pipe, a water pipe, or the like can be used as an object to be detected. Furthermore, a structure related to piping such as a water and sewage pipe can be used as an object to be detected.

例えば、ラジコンに物体検出装置を搭載し、下水道管などの配管内部を走行させれば、配管の内壁や接続部等における損傷部を検出することが可能となる。また、例えば、ラジコンに物体検出装置を搭載し、ラジコンのタイヤに磁石を設置すれば、橋梁のケーブル上や橋桁の裏側など、点検者が直接点検に行くことが困難な場所の撮像画像を容易に取得し、損傷部等を検出することが可能となる。
また、上記実施形態においては、特異点の抽出に際し、撮影画像を二値化処理する場合について説明したが、撮影画像を多値化処理し、多値化処理後の画像から、道路構造物の当該多値化処理後の輝度値を有する画素を特異点として抽出してもよい。
For example, if an object detection device is mounted on a radio control and travels inside a pipe such as a sewer pipe, it is possible to detect a damaged part on the inner wall or connection part of the pipe. Also, for example, if an object detection device is mounted on a radio control and a magnet is installed on the radio control tire, it is easy to capture images of places where it is difficult for an inspector to go directly to the inspection, such as on the cable of a bridge or the back side of a bridge girder. It is possible to detect damaged parts and the like.
Further, in the above-described embodiment, the case where the captured image is binarized when the singular point is extracted has been described. However, the captured image is subjected to multi-value processing, and from the image after multi-value processing, the road structure You may extract the pixel which has the luminance value after the said multi-value process as a singular point.

さらに、特異点の抽出に際し、撮像画像に対して減色処理を施し、減色処理後の画像から特異点を抽出してもよい。例えば、フルカラーの撮像画像を、256色や16色等に減色した画像に変換し、減色処理後の画像から検出対象の物体の色に対応する画素を選出し、これを特異点として抽出することができる。例えば、検出対象の物体が道路標識である場合、道路標識に主に用いられる色(赤、緑、青、黄など)に対応する画素を特異点として抽出する。また、例えば、検出対象の物体が錆である場合、錆の色(茶色、茶褐色など)に対応する画素を特異点として抽出する。これにより、より高精度に検出対象の物体を検出することができる。この検出方法は、検出対象の物体の色が既知である場合に有効である。   Further, when extracting the singularity, a color reduction process may be performed on the captured image, and the singularity may be extracted from the image after the color reduction process. For example, converting a full-color captured image into an image reduced to 256 colors or 16 colors, selecting a pixel corresponding to the color of the object to be detected from the image after the color reduction process, and extracting this as a singular point Can do. For example, when the object to be detected is a road sign, pixels corresponding to colors (red, green, blue, yellow, etc.) mainly used for the road sign are extracted as singular points. For example, when the object to be detected is rust, pixels corresponding to the color of rust (brown, brown, etc.) are extracted as singular points. As a result, the object to be detected can be detected with higher accuracy. This detection method is effective when the color of the object to be detected is known.

また、上記実施形態においては、画像処理装置20が検出対象の物体(道路構造物)を検出した際、撮影画像をメモリ24に保存する場合について説明したが、これに加えて当該撮影画像を画像処理装置20の通信I/F27を介してサーバ装置へ転送するようにしてもよい。また、撮影画像をメモリ24に保存するのに代えて、当該撮影画像を画像処理装置20の通信I/F27を介してサーバ装置へ転送するようにしてもよい。これにより、遠隔地にいる点検者がリアルタイムで撮影画像を確認することができ、作業の効率化が図れる。したがって、仮に道路構造物に異常が発生している場合には、当該異常を迅速に検出することができ、道路構造物の位置に詳細点検及び応急処置を行うための車両を赴かせる等の対応を迅速に行うことができる。   In the above-described embodiment, the case where the captured image is stored in the memory 24 when the image processing apparatus 20 detects the detection target object (road structure) has been described. In addition, the captured image is displayed as an image. The data may be transferred to the server device via the communication I / F 27 of the processing device 20. Further, instead of storing the captured image in the memory 24, the captured image may be transferred to the server device via the communication I / F 27 of the image processing device 20. As a result, an inspector at a remote location can check the captured image in real time, and work efficiency can be improved. Therefore, if there is an abnormality in the road structure, the abnormality can be detected quickly, and measures such as causing a vehicle to perform detailed inspection and emergency treatment at the position of the road structure, etc. Can be done quickly.

また、撮影画像をサーバ装置へ転送するタイミングは、これに限定されるものではない。例えば、画像処理装置20が道路構造物を検出し、撮影画像を表示部26へ表示した際に、車両200の乗員が表示部26の表示画面上で道路構造物の異常を検出、若しくは異常が疑われることを検出した場合に、撮影画像をサーバ装置へ転送するようにしてもよい。これにより、道路構造物の詳細点検が必要であることを遠隔地にいる管理者等に緊急通報することができる。   Moreover, the timing which transfers a picked-up image to a server apparatus is not limited to this. For example, when the image processing apparatus 20 detects a road structure and displays a captured image on the display unit 26, an occupant of the vehicle 200 detects an abnormality of the road structure on the display screen of the display unit 26, or an abnormality is detected. When the suspicion is detected, the captured image may be transferred to the server device. Thereby, it is possible to make an emergency call to a remote manager or the like that a detailed inspection of the road structure is necessary.

なお、上記実施形態における画像処理装置20で実行されるプログラムは、インストール可能なファイル形式または実行可能なファイル形式で、コンピュータが読み取り可能な記憶媒体に記憶されて提供されてもよい。また、上記実施形態における画像処理装置20で実行されるプログラムは、インターネット等のネットワーク経由で提供されてもよい。
以上、本発明の実施形態について詳細に説明したが、上述した実施形態は、本発明を実施するにあたっての一例を示したにすぎず、本発明の技術的範囲は、上述した実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の修正又は変更が可能である。
The program executed by the image processing apparatus 20 in the above embodiment may be provided by being stored in a computer-readable storage medium in an installable file format or an executable file format. Further, the program executed by the image processing apparatus 20 in the above embodiment may be provided via a network such as the Internet.
As mentioned above, although embodiment of this invention was described in detail, embodiment mentioned above showed only an example in implementing this invention, and the technical scope of this invention is limited to embodiment mentioned above. It is not something. The present invention can be variously modified or changed without departing from the spirit of the present invention.

10…カメラ、20…画像処理装置、30…GPS受信機、51…ジョイント部、52…白線、53…轍、54…照明灯の影、71…表示画面、72…画像表示部、73…検出枠、74…ボタン、100…道路構造物検出装置、121…画像取得部、122…画像処理部、123…記憶制御部、124…表示制御部、125…パラメータ取得部、126…閾値調整部、127…判定範囲調整部、200…車両   DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Image processing apparatus, 30 ... GPS receiver, 51 ... Joint part, 52 ... White line, 53 ... 轍, 54 ... Shadow of illumination lamp, 71 ... Display screen, 72 ... Image display part, 73 ... Detection Frame, 74 ... button, 100 ... road structure detection device, 121 ... image acquisition unit, 122 ... image processing unit, 123 ... storage control unit, 124 ... display control unit, 125 ... parameter acquisition unit, 126 ... threshold adjustment unit, 127: Determination range adjustment unit, 200: Vehicle

本発明は、道路のジョイント部を検出する出装置及び出方法に関する。 The present invention relates to a detection apparatus and detection method for detecting the joint portion of the road.

従来、路面に関連する造物や路面の周辺に設置された付属構造物等を含む道路構造物の点検作業は、点検者が目視により行っていた。例えば、道路構造物の点検方法としては、点検者が、走行する点検車両から目視により道路構造物の状態を確認したり、点検車両に設置したカメラ等で撮影した全画像から道路構造物の状態を目視判定したりする方法が用いられてきた。しかしながら、前者の方法では、点検車両を低速走行させなければならず、道路渋滞を招くおそれがある。また、後者の方法では、点検者は道路構造物が撮影されていない画像についても確認しなければならず、非効率である。 Conventionally, inspection of the road structure including the installed around the structure creation and road related to the road surface comes structures, etc., inspector had done visually. For example, as an inspection method for road structures, an inspector visually confirms the state of the road structure from a traveling inspection vehicle, or the state of the road structure from all images taken with a camera installed on the inspection vehicle. Such a method has been used for visually judging the above. However, in the former method, the inspection vehicle must be run at a low speed, which may cause road congestion. Moreover, in the latter method, the inspector must confirm an image in which the road structure is not photographed, which is inefficient.

車載のカメラで撮影した画像から道路構造物を自動的に検出する装置としては、例えば特許文献1に記載の技術がある。この技術は、車両に設置したカメラで撮影した車両前方の路面上の画像に対しエッジ検出、パターン認識などの画像処理を行うことで、車両前方の路面上の構造物(例えば、道路のジョイント)を識別するものである。ここでは、路面上の構造物についての位置情報を記憶したデータベースを予め準備しておき、当該データベースに記憶された構造物の位置に車両が接近したとき、車両前方に道路構造物が存在するか否かを判断している。 As an apparatus for automatically detecting a road structure from an image taken by an in-vehicle camera, for example, there is a technique described in Patent Document 1. This technology performs image processing such as edge detection and pattern recognition on an image on the road surface in front of the vehicle, which is taken by a camera installed in the vehicle, so that a structure on the road surface in front of the vehicle (for example, a joint portion of the road) ). Here, whether a road structure exists ahead of the vehicle when a database storing position information about the structure on the road surface is prepared in advance and the vehicle approaches the position of the structure stored in the database. Judging whether or not.

特開2013−20293号公報JP 2013-20293 A

上記特許文献1に記載の技術にあっては、道路構造物の位置情報を記憶したデータベースを予め準備しておかなければ、道路構造物を適切に検出することができない。すなわち、例えば道路構造物として道路のジョイント部を検出対象とした場合、当該ジョイント部の設置位置や設置間隔等が未知である場合には、適切に当該ジョイント部を検出することができない。また、上記特許文献1に記載の技術では、パターン認識により道路構造物を検出している。このようにパターン認識を用いた検出方法では、例えば、道路のジョイント部を検出する場合、道路の幅方向に沿って互い違いに正対状態で形成される三角形や四角形などの継ぎ目をパターンマッチングにより検出することで、道路のジョイント部を検出することになる。しかしながら、ジョイント部の継ぎ目の形状にはさまざまなものがあり、すべてのマッチング用パターンを用意することは困難である。したがって、上記の検出方法では、ジョイント部の誤検出や検出漏れ等が発生しやすい。
そこで、本発明は、撮影画像から道路のジョイント部を容易且つ適切に検出することができる出装置及び出方法を提供することを課題としている。
In the technique described in Patent Document 1, a road structure cannot be properly detected unless a database storing position information of the road structure is prepared in advance. That is, for example, when a road joint part is used as a detection target for a road structure, the joint part cannot be appropriately detected when the installation position or installation interval of the joint part is unknown. In the technique described in Patent Document 1, a road structure is detected by pattern recognition. As described above, in the detection method using pattern recognition, for example, when detecting a joint portion of a road, a joint such as a triangle or a quadrangle formed alternately in the width direction of the road is detected by pattern matching. By doing so, the joint portion of the road is detected. However, there are various shapes of joints at the joints, and it is difficult to prepare all the patterns for matching. Therefore, in the above detection method, erroneous detection of the joint portion , detection omission, etc. are likely to occur.
Accordingly, the present invention has an object to provide a detection apparatus and detection method capable of easily and properly detect the joint portion of the road from the captured image.

上記課題を解決するために、本発明に係る道路のジョイント部の検出装置の一態様は、移動体に搭載された撮影部で撮影した当該移動体の周辺の撮影画像の各画像フレーム全体から道路のジョイント部を検出するため二値化閾値または多値化閾値を用いて二値化または多値化画像フレームを得る処理部と、前記二値化または多値化画像フレームから特異点を抽出する特異点抽出部と、前記特異点抽出部で抽出した特異点のうち、前記二値化または多値化画像フレーム内における所定の方向に連続する特異点の数に基づいて、前記ジョイント部を検出する検出部と、を備え、前記二値化閾値及び多値化閾値は、前記ジョイント部と当該ジョイント部の周囲との画素の輝度値の相違に基づく値であることを特徴とする。したがって、従来のパターンマッチングを用いた場合のように、検出対象である物体(ジョイント部)に対応したマッチング用パターンを用意する必要がない。そのため、ジョイント部の誤検出や検出漏れを抑制することができる。 In order to solve the above problems, an aspect of the detection device of the joint portion of the road according to the present invention, the entire each image frame of the captured image of the periphery of the moving object captured by onboard imaging unit to the mobile , using the binarization threshold or multi-level threshold value for detecting the joint portion of the road, a processing unit for obtaining a binarization or multi-level image frames, specifically from the binarization or multi-level image frame a singular point extraction unit that extracts a point, among the extracted specific point in the singular point extraction unit, based on the number of singularities continuous in a predetermined direction in the binarization or multi-level image frame, wherein A detection unit for detecting a joint part , wherein the binarization threshold value and the multi-value threshold value are values based on a difference in luminance values of pixels between the joint part and the periphery of the joint part, To do . Therefore, unlike the case where the conventional pattern matching is used, it is not necessary to prepare a matching pattern corresponding to an object (joint portion) that is a detection target. Therefore, erroneous detection and detection omission of the joint part can be suppressed.

また、上記の出装置において、前記特異点抽出部は、前記処理部により得られた画像フレームから、前記ジョイント部の輝度値に対応する値の輝度値を有する画素を前記特異点として抽出してもよい。このように、ジョイント部の輝度値を有する画素を特異点として抽出するので、検出対象であるジョイント部とは輝度値の異なる物体は、仮に形状が同じであっても検出対象から除外することができる。したがって、ジョイント部を適切に検出することができる。 Further, in the detection device described above, the singular point extraction unit, from the image frame obtained by the processing unit extracts a pixel having a luminance value of a value corresponding to the luminance value of the joint portion as the singular point May be. In this way, since the pixel having the luminance value of the joint portion is extracted as a singular point, an object having a luminance value different from that of the joint portion that is the detection target may be excluded from the detection target even if the shape is the same. it can. Therefore, the joint part can be detected appropriately.

記の出装置において、前記処理部は、前記影した画像フレームに対して所定の閾値で二値化処理および多値化処理のいずれかを施し、前記特異点抽出部は当該処理後の画像フレームから記特異点として抽出している。このように、二値化処理または多値化処理を行って特異点を抽出するので、比較的簡易に特異点、即ち検出対象であるジョイント部の候補に対応する画素を抽出することができる。また、二値化処理または多値化処理を行うことで、データ量を削減することができ、処理を軽くすることができる。 In detection device above reporting, the processing unit, the shooting subjected to any of the binarization processing and multi-level conversion with a predetermined threshold value with respect to the shadow image frames, the singular point extraction unit after the process It is extracted as a pre-Symbol singularities from the image frame. As described above, the binarization process or the multi-value process is performed to extract the singular point, so that the singular point, that is, the pixel corresponding to the candidate joint part to be detected can be extracted relatively easily. Further, by performing the binarization process or the multi-value process, the data amount can be reduced and the process can be lightened.

また、上記の出装置において、ユーザが入力した情報に基づいて、前記閾値を調整可能な閾値調整部をさらに備えてもよい。このように、二値化処理または多値化処理で用いる閾値を調整することで、検出可能となるジョイント部を調整することができる Further, in the detection device of the above, based on the information input by the user, the threshold value may further include a threshold adjustment unit adjustable. As described above, the joint portion that can be detected can be adjusted by adjusting the threshold value used in the binarization process or the multi-value process .

さらにまた、上記の出装置において、前記出部は、前記連続する特異点の数が、前記ジョイント部の前記画像フレーム内における前記所定の方向における大きさに相当する判定範囲内にあるとき、前記画像フレーム内に前記ジョイント部が存在すると判断してもよい。これにより、検出対象のジョイント部の画像フレーム内における大きさ及び姿勢に概ね一致する大きさ及び姿勢を有する特異点の点群を、検出対象のジョイント部として検出することができる。したがって、複雑な処理を必要とすることなく、適切にジョイント部の検出が可能となる。また、検出対象のジョイント部と同等の輝度値を有する物体が存在する場合であっても、検出対象のジョイント部とは大きさや姿勢が異なる物体は検出対象から除外することができる。したがって、所望のジョイント部を適切に検出することができる。 Furthermore, the detection device described above, the detection unit, the number of singular points where the consecutive, when in the determination range corresponding to the size in the predetermined direction within the image frame of the joint portion It may be determined that the joint portion exists in the image frame . Thus, the point group of the singular point having a size and orientation corresponding generally to the size and orientation in the image frame of the joint portion to be detected, can be detected as a joint portion to be detected. Therefore, it is possible to appropriately detect the joint portion without requiring complicated processing. Further, even when an object having a luminance value equivalent to that of the joint portion to be detected exists, an object having a size or orientation different from that of the joint portion to be detected can be excluded from the detection target. Therefore, a desired joint part can be detected appropriately.

また、上記の出装置において、前記出部は、前記ジョイント部の前記画像フレーム内における前記所定の方向における大きさを、前記移動体の車速と、前記ジョイント部の前記画像レーム間での変位量とに基づいて導出してもよい。これにより、画像フレーム内のジョイント部の位置および大きさが、画像フレーム間で変位することを利用して判定範囲を設定することができる。したがって、例えば他車両の影などの移動体は、ジョイント部として検出されないようにすることができる。このように、より高精度にジョイント部を検出することができる。 Further, in the detection device described above, the detection unit, the size in the predetermined direction within the image frame of the joint portion, and the vehicle speed of the moving body, between the image frames of the joint portion And may be derived based on the amount of displacement. Thus, the position and size of the joint portion of the image frame, the determination range by utilizing the fact that the displacement between the image frames can be set. Therefore, for example, a moving body such as a shadow of another vehicle can be prevented from being detected as a joint portion . Thus, the joint part can be detected with higher accuracy.

さらに、上記の出装置において、ユーザが入力した情報に基づいて、前記判定範囲を調整可能な判定範囲調整部をさらに備えてもよい。このように、ジョイント部の検出に用いる判定範囲を調整することで、検出するジョイント部を調整することができる。したがって、所望のジョイント部を検出することができる。 Furthermore, the detection device of the above, based on the information input by the user, the determination range may further comprise an adjustable determination range adjusting section. Thus, the joint part to be detected can be adjusted by adjusting the determination range used for detection of the joint part . Therefore, a desired joint part can be detected.

さらに、上記の出装置において、前記出部でジョイント部を検出したとき、当該ジョイント部が撮影されている前記画像を記憶装置に記憶する記憶制御部をさらに備えてもよい。これにより、移動体が撮影対象領域の移動を完了した後、点検者は記憶装置に記憶された画像を詳細に確認することができる。また、記憶装置には、ジョイント部が撮影されている画像のみを記憶するので、点検者はジョイント部の状態を効率良く確認することができる。
また、上記の出装置において、前記記憶制御部は、前記画像の撮影時刻および前記移動体の位置の少なくとも一方を、前記画像と対応付けて前記記憶装置に記憶してもよい。これにより、点検者は、画像に映っているジョイント部の位置や、当該ジョイント部が撮影された時刻等を容易に把握することができる。
Furthermore, the detection device described above, upon detection of the joint in the detection unit may further include a storage control unit that stores the image to which the joint portion is captured in a storage device. Thereby, after the moving body completes the movement of the imaging target region, the inspector can check the image stored in the storage device in detail. Moreover, since only the image in which the joint part is image | photographed is memorize | stored in a memory | storage device, the inspector can confirm the state of a joint part efficiently.
Further, in the detection device described above, wherein said storage control unit, at least one of the position of the imaging time and the movable body of the image may be stored in the storage device in association with the image. Thereby, the inspector can easily grasp the position of the joint part shown in the image, the time when the joint part was photographed, and the like.

さらにまた、上記の出装置において、前記出部でジョイント部を検出したとき、当該ジョイント部が撮影されている前記画像を表示部に表示する表示制御部をさらに備えてもよい。このように、検出対象であるジョイント部が撮影された画像を表示部に表示させるので、移動体を移動させながらモニタ上でジョイント部の状態を確認することができる。
また、上記の出装置において、前記表示制御部は、前記出部で検出したジョイント部を強調表示してもよい。これにより、ジョイント部の状態の確認作業を効率的に行うことができる。
Furthermore, the detection device described above, upon detection of the joint in the detection unit may further include a display control unit for displaying the image in which the joint portion is captured on the display unit. As described above, since the image obtained by photographing the joint part to be detected is displayed on the display part, the state of the joint part can be confirmed on the monitor while moving the moving body.
Further, in the detection device of the above, the display control unit may highlight the joint portion detected by the detection unit. Thereby, the confirmation operation | work of the state of a joint part can be performed efficiently.

また、上記の出装置において、前記出部でジョイント部を検出したとき、当該ジョイント部が撮影されている前記画像をサーバ装置へ転送する転送部をさらに備えてもよい。このように、検出対象であるジョイント部が撮影された画像をサーバ装置へ転送するので、遠隔地にいる監視員等は、リアルタイムでジョイント部の状態を確認することができる。
また、本発明に係る出方法の一態様は、処理部と、特異点抽出部と、検出部とを備える検出装置が実行する検出方法であって、前記処理部が、移動体に搭載された撮影部で撮影した当該移動体の周辺の撮影画像の各画像フレーム全体から道路のジョイント部を検出するため二値化閾値または多値化閾値を用いて二値化または多値化画像フレームを得るステップと、前記特異点抽出部が、前記二値化または多値化画像フレームから特異点を抽出するステップと、前記検出部が、抽出した特異点のうち、前記二値化または多値化画像フレーム内における所定の方向に連続する特異点の数に基づいて、前記ジョイント部を検出するステップと、を含み、前記二値化閾値及び多値化閾値は、前記ジョイント部と当該ジョイント部の周囲との画素の輝度値の相違に基づく値であることを特徴とする出方法である。したがって、従来のパターンマッチングを用いた場合のように、検出対象であるジョイント部に対応したマッチング用パターンを用意する必要がない。そのため、ジョイント部の誤検出や検出漏れを抑制することができる。
Further, in the detection device described above, upon detection of the joint in the detection unit may further include a transfer unit that transfers the image to which the joint portion is taken to the server device. Thus, since the image in which the joint part that is the detection target is captured is transferred to the server device, a monitor or the like at a remote location can check the state of the joint part in real time.
Another embodiment of the detection method according to the present invention, a processing unit, a singular point extraction unit, a detection method detecting device executes and a detection unit, wherein the processing unit is mounted on a mobile body from each entire image frame of the captured image of the periphery of the photographed the mobile photographing unit, by using the binarization threshold or multi-level threshold value for detecting the joint portion of the road, binarization or multi-level and obtaining an image frame, the singular point extraction unit, extracting the singular point from the binarized or multivalued image frames, the detection unit, among the extracted singularities, the binarized Or detecting the joint unit based on the number of singular points continuous in a predetermined direction in the multilevel image frame , wherein the binarization threshold and the multilevel threshold are the joint unit and Drawing with the surroundings of the joint A detection method is characterized in that the a values based on the difference in luminance value. Therefore, unlike the case where the conventional pattern matching is used, it is not necessary to prepare a matching pattern corresponding to the joint part to be detected. Therefore, erroneous detection and detection omission of the joint part can be suppressed.

本発明によれば、検出対象のジョイント部の設置位置やパターンが未知であっても、移動体に搭載した撮影部で撮影した画像からジョイント部を容易且つ適切に検出することができる。また、撮影画像からジョイント部を自動的に検出するので、ジョイント部の状態確認作業を支援することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if the installation position and pattern of the joint part of a detection target are unknown, a joint part can be detected easily and appropriately from the image image | photographed with the imaging | photography part mounted in the moving body. Further, since the joint portion is automatically detected from the photographed image, it is possible to support the state confirmation operation of the joint portion .

本実施形態における出装置の一例を示す概略構成図である。Is a schematic diagram showing an example of a detection device in the present embodiment. 出装置のハードウェア構成の一例を示す図である。Is a diagram illustrating an example of a hardware configuration of the detection apparatus. 画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 画像処理装置が実行する画像処理手順を示すフローチャートである。It is a flowchart which shows the image processing procedure which an image processing apparatus performs. 撮影画像の一例である。It is an example of a picked-up image. 二値化処理後の画像データの一例である。It is an example of the image data after a binarization process. 道路構造物の検出結果の表示例である。It is an example of a display of the detection result of a road structure.

以下、本発明の実施の形態を図面に基づいて説明する。
(第1の実施形態)
図1は、本実施形態における出装置の一例を示す概略構成図である。本実施形態では、出装置を道路(歩道を含む)に関連する構造物(以下、「道路構造物」という。)を検出る道路構造物検出装置に適用する例を説明する。
この図1に示すように、道路構造物検出装置100は、移動体である車両200に搭載可能である。車両200は、例えば、高速道路をはじめとする各種道路において、毎日もしくは数日おきに行われる日常点検を実施するための点検車両である。道路構造物検出装置100は、カメラ10と、画像処理装置20と、GPS受信機30とを備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
Figure 1 is a schematic configuration diagram showing an example of a detection device in the present embodiment. In the present embodiment, the detection device, associated structures in road (including sidewalks) (hereinafter, referred to as. "Road structures") describes an example of applying the road structures detector you detect.
As shown in FIG. 1, the road structure detection apparatus 100 can be mounted on a vehicle 200 that is a moving body. The vehicle 200 is an inspection vehicle for carrying out daily inspections performed every day or every several days on various roads including an expressway, for example. The road structure detection device 100 includes a camera 10, an image processing device 20, and a GPS receiver 30.

カメラ10は、例えば車両200の正面の屋根部分に取り付けられ、車両200の周辺を撮影する撮影部である。このカメラ10は、例えば、アスペクト比16:9の横長のハイビジョン映像を撮影するハイビジョンカメラである。これにより、アスペクト比4:3の映像に対し、人の視野に近い状態で映像を撮影することができる。
カメラ10は、例えば車両200が所定の点検対象道路を走行しているときに、当該車両200の周辺を撮影することで、道路構造物を検出するための映像を撮影する
The camera 10 is an imaging unit that is attached to, for example, a roof portion in front of the vehicle 200 and images the periphery of the vehicle 200. The camera 10 is, for example, a high-definition camera that captures a horizontally long high-definition video having an aspect ratio of 16: 9. As a result, it is possible to shoot an image with an aspect ratio of 4: 3 close to the human visual field.
For example, when the vehicle 200 is traveling on a predetermined inspection target road, the camera 10 captures an image for detecting a road structure by photographing the periphery of the vehicle 200 .

本実施形態では、カメラ10は、車両200の前方の映像を撮影する。ここで、カメラ10の撮影範囲(方向や画角(視野角))は、検出対象である道路構造物に応じて適宜設定するものとする。検出対象が道路のジョイント部ある場合には、カメラ10の撮影範囲は、路面を撮影可能な範囲に設定する。一方、検出対象が道路の側部に設置された標識や照明、防音壁等である場合には、カメラ10の撮影範囲は、道路の側部を撮影可能な範囲に設定する。
なお、カメラ10は複数台設置することもできる。例えば、カメラ10は、車両200の前方を撮影する第一のカメラと、車両200の左側方を撮影する第二のカメラと、車両200の右側方を撮影する第三のカメラとで構成することもできる。この場合、各カメラでそれぞれ撮影した撮影方向の異なる映像を1つの動画情報として出力可能な構成とする。また、カメラ10は、車両の後方を撮影するように構成されていてもよい。
In the present embodiment, the camera 10 captures an image in front of the vehicle 200. Here, the shooting range (direction and angle of view (viewing angle)) of the camera 10 is appropriately set according to the road structure that is the detection target. When the detection target is a joint portion of the road, the shooting range of the camera 10 is set to a range where the road surface can be shot. On the other hand, when the detection target is a sign, illumination, soundproof wall, or the like installed on the side of the road, the shooting range of the camera 10 is set to a range in which the side of the road can be shot.
A plurality of cameras 10 can be installed. For example, the camera 10 includes a first camera that captures the front of the vehicle 200, a second camera that captures the left side of the vehicle 200, and a third camera that captures the right side of the vehicle 200. You can also. In this case, it is configured such that videos with different shooting directions shot by each camera can be output as one moving picture information. Further, the camera 10 may be configured to photograph the rear of the vehicle.

画像処理装置20は、カメラ10で撮影した映像データの各画像フレーム(画像データ)を取得し、取得した画像データに対して画像処理を行って道路構造物を検出する。この画像処理装置20は、例えばノート型パーソナルコンピュータ(ノートPC)により構成されており、画像処理によりカメラ10から取得した画像データから特異点を抽出し、当該特異点に基づいて道路構造物を検出する。当該画像処理については後で詳述する。なお、画像処理装置20は、ノートPCに限定されるものではなく、例えば、スマートフォンやタブレット端末などの携帯端末であってもよい。また、画像処理装置20は、例えば、カメラ10に搭載されていてもよい。
GPS受信機30は、GPS(Global Positioning System)衛星から発信された信号を受信し、車両200の走行位置を示す位置情報を画像処理装置20に出力する。画像処理装置20は、GPS受信機30から取得した位置情報を予め格納した道路情報とマッチングし、車両200の走行位置を検出可能である。
The image processing device 20 acquires each image frame (image data) of video data captured by the camera 10 and performs image processing on the acquired image data to detect a road structure. The image processing apparatus 20 is configured by, for example, a notebook personal computer (notebook PC), extracts a singular point from image data acquired from the camera 10 by image processing, and detects a road structure based on the singular point. To do. The image processing will be described in detail later. Note that the image processing device 20 is not limited to a notebook PC, and may be, for example, a mobile terminal such as a smartphone or a tablet terminal. The image processing apparatus 20 may be mounted on the camera 10, for example.
The GPS receiver 30 receives a signal transmitted from a GPS (Global Positioning System) satellite and outputs position information indicating the traveling position of the vehicle 200 to the image processing device 20. The image processing device 20 can detect the traveling position of the vehicle 200 by matching the position information acquired from the GPS receiver 30 with the road information stored in advance.

以下、画像処理装置20の具体的構成について説明する。
図2は、画像処理装置20のハードウェア構成の一例を示す図である。
画像処理装置20は、CPU21と、ROM22と、RAM23と、メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。
CPU21は、画像処理装置20における動作を統括的に制御するものであり、システムバス28を介して、各構成部(22〜27)を制御する。
Hereinafter, a specific configuration of the image processing apparatus 20 will be described.
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 20.
The image processing apparatus 20 includes a CPU 21, a ROM 22, a RAM 23, a memory 24, an input unit 25, a display unit 26, a communication I / F 27, and a system bus 28.
The CPU 21 controls the operation of the image processing apparatus 20 in an integrated manner, and controls each component (22 to 27) via the system bus 28.

ROM22は、CPU21が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
The ROM 22 is a non-volatile memory that stores a control program necessary for the CPU 21 to execute processing. The program may be stored in the memory 24 or a removable storage medium (not shown).
The RAM 23 functions as a main memory and work area for the CPU 21. That is, the CPU 21 implements various functional operations by loading a program or the like necessary from the ROM 22 into the RAM 23 when executing the processing, and executing the program or the like.

メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を予め記憶している。また、メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。メモリ24は、SDカードやUSBメモリ等の外部記憶媒体であってもよい。また、メモリ24は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気テープ等の磁気記録媒体、光ディスクや光磁気ディスク等の光/光磁気記憶媒体等の記憶媒体(記憶装置)であってもよい。   For example, the memory 24 stores in advance various data and various information necessary for the CPU 21 to perform processing using a program. Further, the memory 24 stores, for example, various data and various information obtained by the CPU 21 performing processing using a program or the like. The memory 24 may be an external storage medium such as an SD card or a USB memory. The memory 24 is a storage medium (storage device) such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a magnetic recording medium such as a magnetic tape, or an optical / magneto-optical storage medium such as an optical disk or a magneto-optical disk. There may be.

入力部25は、キーボードやマウス等のポインティングデバイスで構成され、画像処理装置20のユーザは、入力部25を介して当該画像処理装置20に指示を与えることができるようになっている。
表示部26は、液晶ディスプレイ(LCD)等のモニタで構成される。
通信I/F27は、外部装置(図1では、カメラ10やGPS受信機30)と通信するためのインターフェースである。通信I/F27は、例えばLANインターフェースである。
システムバス28は、CPU21、ROM22、RAM23、メモリ24、入力部25、表示部26及び通信I/F27を通信可能に接続する。
すなわち、CPU21は、ROM22に記憶されたプログラムを実行することで、上述した画像処理を実現する。
The input unit 25 is configured by a pointing device such as a keyboard or a mouse, and a user of the image processing apparatus 20 can give an instruction to the image processing apparatus 20 via the input unit 25.
The display unit 26 includes a monitor such as a liquid crystal display (LCD).
The communication I / F 27 is an interface for communicating with an external device (in FIG. 1, the camera 10 and the GPS receiver 30). The communication I / F 27 is, for example, a LAN interface.
The system bus 28 connects the CPU 21, the ROM 22, the RAM 23, the memory 24, the input unit 25, the display unit 26, and the communication I / F 27 so that they can communicate with each other.
That is, the CPU 21 implements the above-described image processing by executing a program stored in the ROM 22.

図3は、画像処理装置20の機能ブロック図である。画像処理装置20は、画像取得部121と、画像処理部122と、記憶制御部123と、表示制御部124と、パラメータ取得部125と、閾値調整部126と、判定範囲調整部127とを備える。
画像取得部121は、カメラ10で撮影した映像から1画像フレーム相当の撮影画像を取得し、これを画像処理部122へ出力する。画像処理部122は、画像取得部121で取得した画像データに対して後述する画像処理を施し、その結果を記憶制御部123及び表示制御部124に出力する。記憶制御部123は、画像処理部122の画像処理結果をメモリ24に記憶し、表示制御部124は、画像処理部122の画像処理結果を表示部26に表示する。
FIG. 3 is a functional block diagram of the image processing apparatus 20. The image processing apparatus 20 includes an image acquisition unit 121, an image processing unit 122, a storage control unit 123, a display control unit 124, a parameter acquisition unit 125, a threshold adjustment unit 126, and a determination range adjustment unit 127. .
The image acquisition unit 121 acquires a captured image corresponding to one image frame from the video captured by the camera 10, and outputs this to the image processing unit 122. The image processing unit 122 performs image processing described later on the image data acquired by the image acquisition unit 121, and outputs the result to the storage control unit 123 and the display control unit 124. The storage control unit 123 stores the image processing result of the image processing unit 122 in the memory 24, and the display control unit 124 displays the image processing result of the image processing unit 122 on the display unit 26.

パラメータ取得部125は、ユーザ(例えば、車両200の乗員等)が入力した、上記画像処理のパラメータに関する情報を取得する。当該パラメータは、後述する二値化閾値や判定範囲等である。例えば、パラメータ取得部125は、入力部25によって入力された上記情報を取得可能に構成されている。閾値調整部126は、パラメータ取得部125で取得した情報をもとに、上記二値化閾値の設定ファイルを調整する。また、判定範囲調整部127は、パラメータ取得部125で取得した情報をもとに、上記判定範囲の設定ファイルを調整する。ここで、上記設定ファイルは、例えばメモリ24に記憶されているものとする。   The parameter acquisition unit 125 acquires information regarding the parameters of the image processing input by a user (for example, an occupant of the vehicle 200). The parameter is a binarization threshold, a determination range, or the like, which will be described later. For example, the parameter acquisition unit 125 is configured to be able to acquire the information input by the input unit 25. The threshold adjustment unit 126 adjusts the binarization threshold setting file based on the information acquired by the parameter acquisition unit 125. The determination range adjustment unit 127 adjusts the determination range setting file based on the information acquired by the parameter acquisition unit 125. Here, it is assumed that the setting file is stored in the memory 24, for example.

図4は、画像処理装置20のCPU21で実行する画像処理手順を示すフローチャートである。この画像処理は、例えば画像処理装置20の電源が投入されたタイミングで実行開始することができる。なお、当該画像処理の開始タイミングは上記のタイミングに限定されるものではない。例えば、画像処理装置20に乗員が操作可能な処理開始ボタン等が設置されている場合、当該ボタンが押下されたことを検知したときに当該画像処理を開始するようにしてもよい。   FIG. 4 is a flowchart showing an image processing procedure executed by the CPU 21 of the image processing apparatus 20. This image processing can be started at the timing when the image processing apparatus 20 is powered on, for example. Note that the start timing of the image processing is not limited to the above timing. For example, when a processing start button or the like that can be operated by a passenger is installed in the image processing apparatus 20, the image processing may be started when it is detected that the button has been pressed.

先ずステップS1で、CPU21は、カメラ10から撮影画像を取得し、ステップS2に移行する。なお、このステップS1では、撮影画像に対して種々の補正処理を行ってもよい。例えば、撮影画像に対してワイドダイナミックレンジ(WDR)処理を行うことで、逆光が強いシーンや明暗の差が大きいシーンを撮影した画像の高品位化を図ることができる。
ステップS2では、CPU21は、ステップS1で取得した画像データに対して所定の二値化閾値を用いて二値化処理を施す。二値化閾値の設定ファイルは、予めメモリ24に記憶しておき、ユーザが適宜調整可能である。
First, in step S1, the CPU 21 acquires a captured image from the camera 10, and proceeds to step S2. In step S1, various correction processes may be performed on the captured image. For example, by performing wide dynamic range (WDR) processing on a photographed image, it is possible to improve the quality of an image obtained by photographing a scene with strong backlight or a scene with a large difference in brightness.
In step S2, the CPU 21 performs binarization processing on the image data acquired in step S1 using a predetermined binarization threshold. The binarization threshold setting file is stored in the memory 24 in advance, and can be adjusted as appropriate by the user.

この二値化閾値は、検出対象である道路構造物を検出可能な値に設定する。一般に、路面にはアスファルト舗装が施されており、撮影画像において、当該アスファルト路面部分に対応する画素の輝度値(以下、「画素値」ともいう)は黒色の輝度値「0」に近い値となる。これに対して、例えばジョイント部では、路面上に金属製の継手部材や後打コンクリートが露出しており、撮影画像において、当該ジョイント部に対応する領域の画素値は、上記のアスファルト路面部分に対応する領域の画素値よりも白色の輝度値「255」に近い値となる。   The binarization threshold is set to a value that can detect the road structure that is the detection target. Generally, asphalt pavement is applied to the road surface, and in the photographed image, the luminance value of the pixel corresponding to the asphalt road surface portion (hereinafter also referred to as “pixel value”) is close to the black luminance value “0”. Become. On the other hand, for example, in the joint portion, metal joint members and post-cast concrete are exposed on the road surface, and in the photographed image, the pixel value of the region corresponding to the joint portion is in the above asphalt road surface portion. It becomes a value closer to the white luminance value “255” than the pixel value of the corresponding region.

したがって、道路構造物としてジョイント部を検出する場合には、二値化閾値をジョイント部に対応する領域の画素値の下限値と同等、若しくはそれよりも所定のマージン分だけ小さく(黒色の輝度値に近く)設定する。これにより、二値化処理の結果、ジョイント部に対応する画素は白、アスファルト路面に対応する画素は黒となる。例えば、ステップS1で図5に示すような撮影画像を取得した場合、二値化処理の結果、図6に示すような二値化画像が得られる。図5に示すように、ジョイント部51、白線52、轍53、照明灯の影54などが撮影されている場合、二値化処理の結果、ジョイント部51や白線52、轍53に対応する領域(61〜63)は白となり、照明灯の影54に対応する領域(64)は黒となる。   Therefore, when a joint part is detected as a road structure, the binarization threshold value is equal to or lower by a predetermined margin than the lower limit value of the pixel value of the region corresponding to the joint part (black luminance value). Set near). As a result of the binarization processing, the pixels corresponding to the joint portion are white, and the pixels corresponding to the asphalt road surface are black. For example, when a captured image as shown in FIG. 5 is acquired in step S1, a binarized image as shown in FIG. 6 is obtained as a result of the binarization process. As shown in FIG. 5, when the joint portion 51, the white line 52, the collar 53, the shadow 54 of the illuminating lamp, and the like are photographed, areas corresponding to the joint portion 51, the white line 52, and the collar 53 as a result of binarization processing. (61-63) is white, and the area (64) corresponding to the shadow 54 of the illuminating lamp is black.

次にステップS3で、CPU21は、二値化画像から特異点を抽出し、ステップS4に移行する。ここで、特異点とは、二値化画像内において予め設定した注目画素値を有する画素である。注目画素値は、検出対象の道路構造物の二値化処理後の画素値に設定しておく。例えば、検出対象の道路構造物が上記のジョイント部である場合、注目画素値は、二値化処理後の白色の輝度値「1」となる。なお、このステップS3では、特異点を抽出する前に、二値化画像に対して孤立点除去や膨張処理、収縮処理等を行ってノイズを除去するようにしてもよい。   Next, in step S3, the CPU 21 extracts a singular point from the binarized image, and proceeds to step S4. Here, the singular point is a pixel having a pixel value of interest set in advance in the binarized image. The target pixel value is set to a pixel value after binarization processing of the road structure to be detected. For example, when the road structure to be detected is the above joint part, the target pixel value is a white luminance value “1” after binarization processing. In step S3, before extracting the singular point, noise may be removed by performing isolated point removal, expansion processing, contraction processing, etc. on the binarized image.

ステップS4では、CPU21は、ステップS3で抽出した特異点の連続性を判定する。具体的には、CPU21は、先ず二値化画像に対してラベリング処理を施し、道路構造物候補となる領域(点群)を識別する。次にCPU21は、各領域について、二値化画像の車両200の幅方向に対応する方向(X方向)で連続する特異点の数Nxと、車両200の進行方向に対応する方向(Y方向)で連続する特異点の数Nyとを計測する。そして、これら特異点数Nx,Nyがそれぞれ予め設定した判定範囲内であるか否かを判定することで、道路構造物の有無を判定する。   In step S4, the CPU 21 determines the continuity of the singular points extracted in step S3. Specifically, the CPU 21 first performs a labeling process on the binarized image to identify a region (point group) that is a road structure candidate. Next, for each region, the CPU 21 counts the number Nx of singular points continuous in the direction (X direction) corresponding to the width direction of the vehicle 200 in the binarized image and the direction corresponding to the traveling direction of the vehicle 200 (Y direction). The number of consecutive singular points Ny is measured. And the presence or absence of a road structure is determined by determining whether these singularity numbers Nx and Ny are within a predetermined determination range.

上記判定範囲は、検出対象である道路構造物の撮影画像内での大きさをもとに設定する。例えば、ジョイント部は、道路の幅方向に沿って道路幅に相当する長さを有すると共に、車両の進行方向に沿って所定の幅(例えば、500mm程度)を有する。したがって、検出対象である道路構造物がジョイント部である場合、特異点数Nxの判定範囲は、上記のジョイント部の長さ(道路幅)に相当する画素数に基づいて設定し、特異点数Nyの判定範囲は、上記のジョイント部の幅に相当する画素数に基づいて設定する。このように、抽出した特異点の点群の数に基づいて、道路構造物の有無を判定する。なお、判定範囲の設定ファイルは、予めメモリ24に記憶しておき、ユーザが適宜調整可能である。   The determination range is set based on the size of the road structure to be detected in the captured image. For example, the joint portion has a length corresponding to the road width along the width direction of the road, and a predetermined width (for example, about 500 mm) along the traveling direction of the vehicle. Therefore, when the road structure to be detected is a joint part, the determination range of the singularity number Nx is set based on the number of pixels corresponding to the length (road width) of the joint part, and the singularity number Ny The determination range is set based on the number of pixels corresponding to the width of the joint portion. In this way, the presence or absence of a road structure is determined based on the number of extracted point groups of singular points. The determination range setting file is stored in the memory 24 in advance, and can be adjusted as appropriate by the user.

ステップS5では、CPU21は、ステップS4の判定の結果、道路構造物があると判断した場合にはステップS6に移行し、道路構造物がないと判断した場合には後述するステップS8に移行する。
ステップS6では、CPU21は、ステップS1で取得した撮影画像に対して関連情報を付加する。当該関連情報とは、撮影画像を撮影した時点での車両200の位置情報、撮影画像を撮影した時刻情報、検出された道路構造物の種類を判別するための属性情報等を含む
In step S5, if the CPU 21 determines that there is a road structure as a result of the determination in step S4, the process proceeds to step S6, and if it is determined that there is no road structure, the process proceeds to step S8 described later.
In step S6, the CPU 21 adds related information to the captured image acquired in step S1. The relevant information includes position information of the vehicle 200 at the time when the captured image is captured, time information when the captured image is captured, attribute information for determining the type of the detected road structure, and the like.

ステップS7では、CPU21は、上記関連情報付きの撮影画像をメモリ24に保存すると共に、道路構造物の検出結果を表示部26に表示可能である。図7は、当該検出結果の表示例を示す図である。図7に示すように、表示画面71は画像表示部72を備え、当該画像表示部72に撮影画像を表示する。また、このとき、画像表示部72において、検出した道路構造物に対して検出枠73を重畳表示することにより、当該道路構造物を識別可能に強調表示することもできる。さらに、表示画面71内に撮影画像を撮影した時刻を表示したり、撮影画像を撮影した場所(例えば地図)を表示するためのボタン74を設けたりすることもできる。なお、検出結果の表示方法(強調表示の方法やボタン74の表示位置など)は、これに限定されるものではない。   In step S <b> 7, the CPU 21 can store the captured image with the related information in the memory 24 and display the road structure detection result on the display unit 26. FIG. 7 is a diagram illustrating a display example of the detection result. As shown in FIG. 7, the display screen 71 includes an image display unit 72 and displays a captured image on the image display unit 72. Further, at this time, by displaying the detection frame 73 superimposed on the detected road structure on the image display unit 72, the road structure can be highlighted in an identifiable manner. Furthermore, the time when the captured image was captured can be displayed in the display screen 71, or a button 74 for displaying the location (for example, a map) where the captured image was captured can be provided. Note that the detection result display method (highlight display method, display position of the button 74, etc.) is not limited to this.

ステップS8では、CPU21は、道路構造物の検出処理を終了するか否かを判定する。例えば、車両200の乗員が画像処理装置20に設けられた処理終了ボタンを押すなどにより、CPU21が道路構造物の検出処理を終了するための指示を受信した場合に、当該検出処理を終了する。そして、CPU21は、道路構造物の検出処理を継続すると判断した場合にはステップS1に戻り、道路構造物の検出処理を終了すると判断した場合には、そのまま図4に示す処理を終了する。
なお、図4において、ステップS2及びS3の処理が特異点抽出部に対応し、ステップS4の処理が出部に対応している。
In step S8, the CPU 21 determines whether or not to end the road structure detection process. For example, when the occupant of the vehicle 200 receives an instruction for ending the road structure detection process by pressing a process end button provided in the image processing apparatus 20, the detection process is ended. If the CPU 21 determines to continue the road structure detection process, the process returns to step S1. If the CPU 21 determines to end the road structure detection process, the process shown in FIG.
In FIG. 4, the processing of steps S2 and S3 correspond to the singular point extraction unit, the processing of step S4 corresponds to the unit detect.

以上のように、本実施形態では、車両200が、点検対象道路である例えば高速道路の所定の点検開始位置に到達し、当該車両200の乗員が、道路構造物の検出処理を開始するべく画像処理装置20の電源を投入すると、画像処理装置20は道路構造物の検出処理を開始する。このとき、画像処理装置20は、カメラ10から撮影画像を取り込み、当該撮影画像から特異点を抽出し、画像内で連続する特異点の数に基づいて道路構造物の有無を判定する。そして、画像処理装置20は、道路構造物を検出すると、当該道路構造物が撮影された撮影画像をメモリ24に保存する。また、画像処理装置20は、当該撮影画像を、道路構造物の検出箇所を明示して表示部(モニタ)26に表示する。画像処理装置20は、上記の処理を、車両200が点検対象道路の走行を完了するまで継続する。   As described above, in the present embodiment, the vehicle 200 reaches a predetermined inspection start position on, for example, an expressway that is an inspection target road, and an occupant of the vehicle 200 is imaged so as to start a road structure detection process. When the processing apparatus 20 is turned on, the image processing apparatus 20 starts a road structure detection process. At this time, the image processing apparatus 20 captures a captured image from the camera 10, extracts singular points from the captured image, and determines the presence or absence of a road structure based on the number of singular points consecutive in the image. Then, when the image processing apparatus 20 detects the road structure, the image processing apparatus 20 stores a captured image in which the road structure is captured in the memory 24. In addition, the image processing apparatus 20 displays the captured image on the display unit (monitor) 26 with the detection location of the road structure clearly indicated. The image processing device 20 continues the above processing until the vehicle 200 completes traveling on the inspection target road.

このように、道路構造物の検出に際し、撮影画像から特異点を抽出し、当該特異点の連続性を判断する。すなわち、道路構造物の撮影画像内における輝度が路面の輝度とは異なることを利用し、路面の輝度値とは異なる輝度値を有する画素を特異点として抽出する。そして、画像内において所定の方向に連続する特異点の数が所定の判定範囲内にあると判断した場合に、当該特異点の点群に対応する領域を道路構造物として検出する。   As described above, when detecting a road structure, a singular point is extracted from the captured image, and the continuity of the singular point is determined. That is, using the fact that the luminance in the captured image of the road structure is different from the luminance of the road surface, a pixel having a luminance value different from the luminance value of the road surface is extracted as a singular point. When it is determined that the number of singular points continuous in a predetermined direction in the image is within a predetermined determination range, an area corresponding to the point group of the singular points is detected as a road structure.

そのため、検出対象の道路構造物の撮影画像内における大きさ及び姿勢に概ね一致する大きさ及び姿勢を有する特異点の点群を、検出対象の道路構造物として検出することができる。したがって、複雑な処理を必要とすることなく、適切に道路構造物の検出が可能となる。また、検出対象の道路構造物と同等の輝度値を有する構造物が存在する場合であっても、検出対象の道路構造物とは大きさや姿勢が異なる構造物は検出対象から除外することができる。したがって、所望の道路構造物を適切に検出することができる。   Therefore, it is possible to detect a point group of singular points having a size and posture that approximately match the size and posture in the captured image of the detection target road structure as the detection target road structure. Accordingly, it is possible to appropriately detect the road structure without requiring complicated processing. In addition, even when there is a structure having a luminance value equivalent to that of the road structure to be detected, a structure having a size or posture different from that of the road structure to be detected can be excluded from the detection target. . Therefore, a desired road structure can be detected appropriately.

さらに、撮影画像は、走行中の車両200に搭載されたカメラ10が撮影するので、当該撮影画像内の道路構造物の位置および大きさは、画像フレーム間で変位する。すなわち、撮影画像内の道路構造物は、徐々に車両200に近づく方向に移動し、その大きさも大きくなる。その変位量は、車両200の車速に応じて決定される。したがって、上記判定範囲は、車両200の車速と、画像フレーム間での道路構造物の大きさの変位とに基づいて導出してもよい。これにより、例えば他車両の影などの移動体は、道路構造物として検出されないようにすることができる。このように、より高精度に道路構造物を検出することができる。   Furthermore, since the captured image is captured by the camera 10 mounted on the traveling vehicle 200, the position and size of the road structure in the captured image are displaced between the image frames. That is, the road structure in the captured image gradually moves in the direction approaching the vehicle 200, and the size thereof also increases. The amount of displacement is determined according to the vehicle speed of the vehicle 200. Therefore, the determination range may be derived based on the vehicle speed of the vehicle 200 and the displacement of the size of the road structure between the image frames. Thereby, for example, a moving body such as a shadow of another vehicle can be prevented from being detected as a road structure. Thus, a road structure can be detected with higher accuracy.

撮影画像から特定の道路構造物を検出する方法としては、エッジを検出してパターンマッチングする方法が広く用いられている。しかしながら、検出対象の道路構造物が複数存在する場合、それぞれについてマッチング用のパターンを用意しなければならない。また、同じ道路構造物であっても、種類によってはそれぞれ形状が異なるため、パターンマッチングによる検出方法では、誤検出や検出漏れが発生しやすい。 As a method of detecting a specific road structure from a photographed image, a method of pattern matching by detecting an edge is widely used. However, when there are a plurality of road structures to be detected, matching patterns must be prepared for each. Moreover, even if the road structure is the same, the shape differs depending on the type. Therefore, the detection method using pattern matching tends to cause erroneous detection and omission of detection.

これに対して、本実施形態では、上述したように撮影画像から特異点を抽出し、特異点数に基づいて道路構造物を検出するため、パターンマッチングを用いた検出方法と比べて道路構造物の誤検出や検出漏れを抑制することができる。例えば、継ぎ目の形状がそれぞれ異なる数種類のジョイント部等についても適切に検出することが可能である。
また、エッジ検出により道路構造物を検出しようとした場合、車幅方向に伸びる影(例えば、図5に示す照明灯の影54や他車両の影等)を道路のジョイント部として誤検出してしまうおそれがある。本実施形態では、道路構造物の輝度値を有する画素を特異点として抽出し、当該特異点の点群に基づいて道路構造物を検出するので、検出対象であるジョイント部とは輝度値の異なる影は検出対象から除外することができる。このように、所望の道路構造物を適切に検出することができる。
On the other hand, in the present embodiment, as described above, singular points are extracted from the captured image and road structures are detected based on the number of singular points. Therefore, the road structure is detected in comparison with the detection method using pattern matching. False detection and detection omission can be suppressed. For example, it is possible to appropriately detect several types of joint portions having different seam shapes.
In addition, when detecting a road structure by edge detection, a shadow extending in the vehicle width direction (for example, a shadow 54 of an illumination lamp shown in FIG. 5 or a shadow of another vehicle) is erroneously detected as a joint portion of the road. There is a risk that. In this embodiment, pixels having the brightness value of the road structure are extracted as singular points, and the road structure is detected based on the point group of the singular points. Therefore, the brightness value is different from the joint part that is the detection target. Shadows can be excluded from detection targets. Thus, a desired road structure can be detected appropriately.

さらに、撮影画像に対して二値化処理を施すことで特異点を抽出する。したがって、比較的簡易な処理で特異点を抽出することができる。また、二値化処理で用いる二値化閾値は外部記憶媒体等に記憶し、検出対象の道路構造物の輝度値に応じて調整可能である。換言すると、上記二値化閾値を変更することで、検出可能となる道路構造物を変更することができる。したがって、非検出としたい道路構造物がある場合には、その道路構造物が検出されないように上記二値化閾値を設定することができる。   Furthermore, a singular point is extracted by performing binarization processing on the captured image. Therefore, a singular point can be extracted by a relatively simple process. The binarization threshold used in the binarization process is stored in an external storage medium or the like, and can be adjusted according to the luminance value of the road structure to be detected. In other words, the road structure that can be detected can be changed by changing the binarization threshold. Therefore, when there is a road structure that is not desired to be detected, the binarization threshold can be set so that the road structure is not detected.

のように、解析に必要な道路構造物のみを検出するような設定とすることができるので、作業性を向上させることができる。なお、特異点の抽出に際し、撮影画像内の画素の彩度や色相を考慮するようにしてもよい。 As this, it is possible to configure so as to detect only road structures necessary for the analysis, it is possible to improve the workability. Note that the saturation and hue of the pixels in the captured image may be taken into account when extracting the singular points.

また、上記判定範囲は外部記憶媒体等に記憶し、検出対象とする道路構造物に応じて調整可能である。そのため、上述した二値化閾値と同様に、上記判定範囲を変更することで、検出可能となる道路構造物を変更することができる。例えば、当該判定範囲を、車幅方向に道路幅相当の長さを有する領域に設定すれば、特異点の点群として、道路のジョイント部に対応する領域と道路の白線に対応する領域とを認識している場合であっても、ジョイント部に対応する領域のみを検出対象の道路構造物である判断することができる。このように、解析に必要な道路構造物のみを検出するような設定とすることができるので、作業性を向上させることができる。
このように、二値化閾値や判定範囲を設定するための設定ファイルを外部記憶媒体等に記憶し、ユーザにより任意に調整可能とすることで、自由度の高い検出処理が可能となる。
The determination range is stored in an external storage medium or the like, and can be adjusted according to the road structure to be detected. Therefore, similarly to the above-described binarization threshold, the road structure that can be detected can be changed by changing the determination range. For example, if the determination range is set to an area having a length corresponding to the road width in the vehicle width direction, an area corresponding to the joint portion of the road and an area corresponding to the white line of the road are used as a point cloud of singular points. Even in the case of recognition, it is possible to determine that only the area corresponding to the joint portion is the road structure to be detected. Thus, since it can be set as the detection of only a road structure required for an analysis, workability | operativity can be improved.
As described above, the setting file for setting the binarization threshold value and the determination range is stored in an external storage medium or the like, and can be arbitrarily adjusted by the user, so that detection processing with a high degree of freedom is possible.

また、道路構造物を検出したときの撮影画像をメモリ24に保存するので、車両200が点検対象の道路の走行を完了した後、点検者は保存した撮影画像を詳細に確認することができる。メモリ24には、道路構造物が撮影されている撮影画像のみを保存するので、点検者は道路構造物の状態を効率良く確認することができる。
撮影画像を保存するメモリ24は、着脱可能な記憶媒体であってもよいし、着脱不可能な記憶媒体であってもよい。メモリ24として着脱可能な外部記憶媒体を用いれば、車両200以外の場所での撮影画像の確認や、別の場所にある管理システムへのデータのアップロード等が可能となる。
Further, since the captured image when the road structure is detected is stored in the memory 24, the inspector can check the stored captured image in detail after the vehicle 200 completes traveling on the inspection target road. Since the memory 24 stores only the captured image of the road structure, the inspector can efficiently check the state of the road structure.
The memory 24 that stores the captured image may be a removable storage medium or a non-removable storage medium. If a removable external storage medium is used as the memory 24, it is possible to check a captured image at a place other than the vehicle 200, upload data to a management system at another place, and the like.

さらに、メモリ24に保存する撮影画像は、関連情報として車両位置情報や撮影時刻情報等を有するので、点検者は、撮影画像に映っている道路構造物の位置や、当該道路構造物が撮影された時刻等を容易に把握することができる。したがって、点検者は、撮影画像から道路構造物の異常を検出したとき、道路構造物の詳細点検や応急処置を行う車両を当該道路構造物の位置に適切に向かわせることができる。
また、道路構造物を検出したときの撮影画像をモニタ表示するので、車両200の乗員はリアルタイムで道路構造物の状態を確認することができる。このとき、検出した道路構造物に対して検出枠を重畳表示する等、道路構造物を強調表示するので、乗員による点検作業効率を向上させることができる。
Furthermore, since the captured image stored in the memory 24 includes vehicle position information, shooting time information, and the like as related information, the inspector can photograph the position of the road structure reflected in the captured image and the road structure. It is possible to easily grasp the time. Accordingly, when the inspector detects an abnormality of the road structure from the photographed image, the inspector can appropriately point the vehicle that performs the detailed inspection of the road structure and the first aid to the position of the road structure.
Moreover, since the captured image when the road structure is detected is displayed on the monitor, the occupant of the vehicle 200 can check the state of the road structure in real time. At this time, since the road structure is highlighted, for example, a detection frame is superimposed on the detected road structure, the inspection work efficiency by the occupant can be improved.

このように、本実施形態では、カメラ10で撮影した撮影画像をもとに道路構造物を自動で検出する。したがって、車両200は、点検対象の道路を、車線規制を必要としない速度で走行することができる。点検車両の乗員が目視により道路構造物の状態を確認する点検方法の場合、当該点検車両は低速走行をしなければならず、点検作業に長時間を要する。また、車線規制を必要とするので、道路渋滞を招くおそれもある。これに対して、本実施形態では、短時間で作業を行うことができると共に、道路渋滞を招くおそれもない。   As described above, in this embodiment, the road structure is automatically detected based on the captured image captured by the camera 10. Therefore, the vehicle 200 can travel on the road to be inspected at a speed that does not require lane regulation. In the case of an inspection method in which an occupant of an inspection vehicle visually confirms the state of a road structure, the inspection vehicle must travel at a low speed, and the inspection work takes a long time. Moreover, since lane regulation is required, there is a risk of causing traffic congestion. On the other hand, in the present embodiment, work can be performed in a short time and there is no possibility of causing traffic congestion.

また、本実施形態では、特異点を抽出する方法により道路構造物を検出するので、さまざまな道路構造物を検出対象とすることができる。すなわち、撮影画像における道路構造物に対応する画素が特異点として抽出できれば、当該道路構造物の自動検出が可能である。路面に関連する路面構造物の場合、アスファルト路面とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができるまた、路面周辺の付属構造物の場合にも同様に、周囲とは異なる輝度値を有する構造物であれば、いずれも検出対象とすることができる Moreover, in this embodiment, since a road structure is detected by the method of extracting a singular point, various road structures can be detected. That is, if a pixel corresponding to a road structure in the captured image can be extracted as a singular point, the road structure can be automatically detected. In the case of a road surface structure related to a road surface, any structure having a luminance value different from that of an asphalt road surface can be set as a detection target . Similarly, in the case of an accessory structure around the road surface, any structure having a luminance value different from that of the surrounding area can be set as a detection target .

道路構造物を検出した撮影画像は、道路構造物の状態確認に用いることができる。すなわち、点検者は、当該撮影画像から道路構造物の異常の有無を判断することができる
このように、本道路構造物検出装置100は、撮影画像から道路構造物を適切に自動検出することで、道路維持管理の一環である道路構造物の状態確認作業を支援することができる。
The photographed image in which the road structure is detected can be used for checking the state of the road structure. That is, the inspector can determine whether there is an abnormality in the road structure from the captured image .
As described above, the road structure detection device 100 can assist the state confirmation work of the road structure as a part of the road maintenance management by appropriately automatically detecting the road structure from the captured image.

(変形例)
なお、上記実施形態においては、道路構造物検出装置を走行車両に搭載する場合について説明したが、道路構造物検出装置を搭載する移動体は車両に限定されるものではない。例えば、ラジコン、ドローン(無人航空機)、ヘリコプターなどに道路構造物検出装置を搭載してもよい。
(Modification)
In the above embodiment has described the case of mounting the road structures detecting device on the traveling vehicle, the moving body mounting the road structure detection device is not limited to the vehicle. For example, radio-controlled, drone (unmanned aircraft), but it may also be equipped with a road structure detection device such as a helicopter.

た、上記実施形態においては、特異点の抽出に際し、撮影画像を二値化処理する場合について説明したが、撮影画像を多値化処理し、多値化処理後の画像から、道路構造物の当該多値化処理後の輝度値を有する画素を特異点として抽出してもよい。 Also, in the above embodiment, upon extraction of the singularity, the case has been described where the binarization processing of the captured image, the captured image and processing multivalued, the image after multi-value processing, road structures A pixel having a luminance value after the multi-value processing may be extracted as a singular point.

さらに、特異点の抽出に際し、撮像画像に対して減色処理を施し、減色処理後の画像から特異点を抽出してもよい。例えば、フルカラーの撮像画像を、256色や16色等に減色した画像に変換し、減色処理後の画像から検出対象の道路構造物の色に対応する画素を選出し、これを特異点として抽出することができる。これにより、より高精度に検出対象の道路構造物を検出することができる。この検出方法は、検出対象の道路構造物の色が既知である場合に有効である。 Further, when extracting the singularity, a color reduction process may be performed on the captured image, and the singularity may be extracted from the image after the color reduction process. For example, a full-color captured image is converted into an image that has been reduced to 256 colors or 16 colors, and pixels corresponding to the color of the road structure to be detected are selected from the image after the color reduction processing and extracted as singular points. it can be. This ensures that it is possible to detect the road structure of the detection target with higher accuracy. This detection method is effective when the color of the road structure to be detected is known.

また、上記実施形態においては、画像処理装置20が検出対象の物体(道路構造物)を検出した際、撮影画像をメモリ24に保存する場合について説明したが、これに加えて当該撮影画像を画像処理装置20の通信I/F27を介してサーバ装置へ転送するようにしてもよい。また、撮影画像をメモリ24に保存するのに代えて、当該撮影画像を画像処理装置20の通信I/F27を介してサーバ装置へ転送するようにしてもよい。これにより、遠隔地にいる点検者がリアルタイムで撮影画像を確認することができ、作業の効率化が図れる。したがって、仮に道路構造物に異常が発生している場合には、当該異常を迅速に検出することができ、道路構造物の位置に詳細点検及び応急処置を行うための車両を赴かせる等の対応を迅速に行うことができる。   In the above-described embodiment, the case where the captured image is stored in the memory 24 when the image processing apparatus 20 detects the detection target object (road structure) has been described. In addition, the captured image is displayed as an image. The data may be transferred to the server device via the communication I / F 27 of the processing device 20. Further, instead of storing the captured image in the memory 24, the captured image may be transferred to the server device via the communication I / F 27 of the image processing device 20. As a result, an inspector at a remote location can check the captured image in real time, and work efficiency can be improved. Therefore, if there is an abnormality in the road structure, the abnormality can be detected quickly, and measures such as causing a vehicle to perform detailed inspection and emergency treatment at the position of the road structure, etc. Can be done quickly.

また、撮影画像をサーバ装置へ転送するタイミングは、これに限定されるものではない。例えば、画像処理装置20が道路構造物を検出し、撮影画像を表示部26へ表示した際に、車両200の乗員が表示部26の表示画面上で道路構造物の異常を検出、若しくは異常が疑われることを検出した場合に、撮影画像をサーバ装置へ転送するようにしてもよい。これにより、道路構造物の詳細点検が必要であることを遠隔地にいる管理者等に緊急通報することができる。   Moreover, the timing which transfers a picked-up image to a server apparatus is not limited to this. For example, when the image processing apparatus 20 detects a road structure and displays a captured image on the display unit 26, an occupant of the vehicle 200 detects an abnormality of the road structure on the display screen of the display unit 26, or an abnormality is detected. When the suspicion is detected, the captured image may be transferred to the server device. Thereby, it is possible to make an emergency call to a remote manager or the like that a detailed inspection of the road structure is necessary.

なお、上記実施形態における画像処理装置20で実行されるプログラムは、インストール可能なファイル形式または実行可能なファイル形式で、コンピュータが読み取り可能な記憶媒体に記憶されて提供されてもよい。また、上記実施形態における画像処理装置20で実行されるプログラムは、インターネット等のネットワーク経由で提供されてもよい。
以上、本発明の実施形態について詳細に説明したが、上述した実施形態は、本発明を実施するにあたっての一例を示したにすぎず、本発明の技術的範囲は、上述した実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の修正又は変更が可能である。
The program executed by the image processing apparatus 20 in the above embodiment may be provided by being stored in a computer-readable storage medium in an installable file format or an executable file format. Further, the program executed by the image processing apparatus 20 in the above embodiment may be provided via a network such as the Internet.
As mentioned above, although embodiment of this invention was described in detail, embodiment mentioned above showed only an example in implementing this invention, and the technical scope of this invention is limited to embodiment mentioned above. It is not something. The present invention can be variously modified or changed without departing from the spirit of the present invention.

10…カメラ、20…画像処理装置、30…GPS受信機、51…ジョイント部、52…白線、53…轍、54…照明灯の影、71…表示画面、72…画像表示部、73…検出枠、74…ボタン、100…道路構造物検出装置、121…画像取得部、122…画像処理部、123…記憶制御部、124…表示制御部、125…パラメータ取得部、126…閾値調整部、127…判定範囲調整部、200…車両



DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Image processing apparatus, 30 ... GPS receiver, 51 ... Joint part, 52 ... White line, 53 ... 轍, 54 ... Shadow of illumination lamp, 71 ... Display screen, 72 ... Image display part, 73 ... Detection Frame, 74 ... button, 100 ... road structure detection device, 121 ... image acquisition unit, 122 ... image processing unit, 123 ... storage control unit, 124 ... display control unit, 125 ... parameter acquisition unit, 126 ... threshold adjustment unit, 127: Determination range adjustment unit, 200: Vehicle



Claims (16)

移動体に搭載された撮影部で撮影した当該移動体の周辺の画像から特異点を抽出する特異点抽出部と、
前記特異点抽出部で抽出した特異点のうち、前記画像における所定の方向に連続する特異点の数に基づいて、検出対象の物体を検出する物体検出部と、を備えることを特徴とする物体検出装置。
A singular point extraction unit that extracts a singular point from an image around the moving body imaged by the imaging unit mounted on the moving body;
An object detection unit that detects an object to be detected based on the number of singular points that are continuous in a predetermined direction in the image among the singular points extracted by the singular point extraction unit. Detection device.
前記特異点抽出部は、前記撮影部で撮影した画像から、前記物体の輝度値に対応する値の輝度値を有する画素を前記特異点として抽出することを特徴とする請求項1に記載の物体検出装置。   2. The object according to claim 1, wherein the singular point extraction unit extracts, as the singular point, a pixel having a luminance value corresponding to a luminance value of the object from an image captured by the imaging unit. Detection device. 前記特異点抽出部は、前記撮影部で撮影した画像に対して所定の閾値で二値化処理および多値化処理のいずれかを施し、当該処理後の画像から、前記物体の前記処理後の輝度値を有する画素を前記特異点として抽出することを特徴とする請求項2に記載の物体検出装置。   The singular point extraction unit performs either binarization processing or multi-value processing on the image captured by the imaging unit with a predetermined threshold, and from the processed image, the object after the processing The object detection apparatus according to claim 2, wherein a pixel having a luminance value is extracted as the singular point. ユーザが入力した情報に基づいて、前記閾値を調整可能な閾値調整部をさらに備えることを特徴とする請求項3に記載の物体検出装置。   The object detection apparatus according to claim 3, further comprising a threshold adjustment unit capable of adjusting the threshold based on information input by a user. 前記物体検出部は、前記連続する特異点の数が、前記物体の前記画像内における前記所定の方向における大きさに相当する判定範囲内にあるとき、前記画像内に前記物体が存在すると判断することを特徴とする請求項1〜4のいずれか1項に記載の物体検出装置。   The object detection unit determines that the object is present in the image when the number of consecutive singular points is within a determination range corresponding to the size of the object in the predetermined direction in the image. The object detection apparatus according to any one of claims 1 to 4. 前記物体検出部は、前記物体の前記画像内における前記所定の方向における大きさを、前記移動体の車速と、前記物体の前記画像のフレーム間での変位量とに基づいて導出することを特徴とする請求項5に記載の物体検出装置。   The object detection unit derives a size of the object in the predetermined direction in the image based on a vehicle speed of the moving body and a displacement amount of the object between frames of the image. The object detection apparatus according to claim 5. ユーザが入力した情報に基づいて、前記判定範囲を調整可能な判定範囲調整部をさらに備えることを特徴とする請求項5または6に記載の物体検出装置。   The object detection apparatus according to claim 5, further comprising a determination range adjustment unit capable of adjusting the determination range based on information input by a user. 前記物体は、道路、橋、トンネル、及び配管の少なくとも1つに関連する構造物であることを特徴とする請求項1〜7のいずれか1項に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the object is a structure related to at least one of a road, a bridge, a tunnel, and a pipe. 前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像を記憶装置に記憶する記憶制御部をさらに備えることを特徴とする請求項1〜8のいずれか1項に記載の物体検出装置。   9. The storage control unit according to claim 1, further comprising: a storage control unit that stores, in a storage device, the image in which the object is captured when the object detection unit detects the object. Object detection device. 前記記憶制御部は、前記画像の撮影時刻および前記移動体の位置の少なくとも一方を、前記画像と対応付けて前記記憶装置に記憶することを特徴とする請求項9に記載の物体検出装置。   The object detection device according to claim 9, wherein the storage control unit stores at least one of a photographing time of the image and a position of the moving body in the storage device in association with the image. 前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像を表示部に表示する表示制御部をさらに備えることを特徴とする請求項1〜10のいずれか1項に記載の物体検出装置。   11. The display control unit according to claim 1, further comprising: a display control unit configured to display on the display unit the image in which the object is captured when the object detection unit detects the object. Object detection device. 前記表示制御部は、前記物体検出部で検出した物体を強調表示することを特徴とする請求項11に記載の物体検出装置。   The object detection apparatus according to claim 11, wherein the display control unit highlights an object detected by the object detection unit. 前記物体検出部で物体を検出したとき、当該物体が撮影されている前記画像をサーバ装置へ転送する転送部をさらに備えることを特徴とする請求項1〜12のいずれか1項に記載の物体検出装置。   The object according to any one of claims 1 to 12, further comprising: a transfer unit that, when an object is detected by the object detection unit, transfers the image in which the object is captured to a server device. Detection device. 移動体に搭載された撮影部で撮影した当該移動体の周辺の画像から特異点を抽出するステップと、
抽出した特異点のうち、前記画像における所定の方向に連続する特異点の数に基づいて、検出対象の物体を検出するステップと、を含むことを特徴とする物体検出方法。
Extracting a singular point from an image around the moving body imaged by an imaging unit mounted on the moving body;
Detecting an object to be detected based on the number of singular points that are continuous in a predetermined direction in the image among the extracted singular points.
コンピュータを、前記請求項1〜13のいずれか1項に記載の物体検出装置の各部として機能させるためのプログラム。   The program for functioning a computer as each part of the object detection apparatus of any one of the said Claims 1-13. 前記請求項15に記載のプログラムを記録した、コンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 15 is recorded.
JP2015067281A 2015-03-27 2015-03-27 Detection device and detection method for road joints Active JP5911623B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015067281A JP5911623B1 (en) 2015-03-27 2015-03-27 Detection device and detection method for road joints

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015067281A JP5911623B1 (en) 2015-03-27 2015-03-27 Detection device and detection method for road joints

Publications (2)

Publication Number Publication Date
JP5911623B1 JP5911623B1 (en) 2016-04-27
JP2016186756A true JP2016186756A (en) 2016-10-27

Family

ID=55808261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015067281A Active JP5911623B1 (en) 2015-03-27 2015-03-27 Detection device and detection method for road joints

Country Status (1)

Country Link
JP (1) JP5911623B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168144A (en) * 2017-01-25 2021-10-21 株式会社ユピテル Data collection device, road status evaluation support device, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003002256A (en) * 2001-06-22 2003-01-08 Matsushita Electric Ind Co Ltd Drive recorder for vehicle
JP2011089977A (en) * 2009-09-24 2011-05-06 Denso Corp Guidance system for street crossings
JP2012211815A (en) * 2011-03-31 2012-11-01 Aisin Aw Co Ltd Stop line recognition device, stop line recognition method and program
JP2012221303A (en) * 2011-04-11 2012-11-12 Mitsubishi Electric Corp In-vehicle lighting device for driving support and in-vehicle driving support device and driving support system
JP2013020293A (en) * 2011-07-07 2013-01-31 Mitsubishi Motors Corp Vehicle control device
JP2013195783A (en) * 2012-03-21 2013-09-30 Ricoh Co Ltd Position shift detection device, vehicle, and position shift detection method
JP2014013451A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd In-vehicle lane recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003002256A (en) * 2001-06-22 2003-01-08 Matsushita Electric Ind Co Ltd Drive recorder for vehicle
JP2011089977A (en) * 2009-09-24 2011-05-06 Denso Corp Guidance system for street crossings
JP2012211815A (en) * 2011-03-31 2012-11-01 Aisin Aw Co Ltd Stop line recognition device, stop line recognition method and program
JP2012221303A (en) * 2011-04-11 2012-11-12 Mitsubishi Electric Corp In-vehicle lighting device for driving support and in-vehicle driving support device and driving support system
JP2013020293A (en) * 2011-07-07 2013-01-31 Mitsubishi Motors Corp Vehicle control device
JP2013195783A (en) * 2012-03-21 2013-09-30 Ricoh Co Ltd Position shift detection device, vehicle, and position shift detection method
JP2014013451A (en) * 2012-07-03 2014-01-23 Clarion Co Ltd In-vehicle lane recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168144A (en) * 2017-01-25 2021-10-21 株式会社ユピテル Data collection device, road status evaluation support device, and program
JP7195021B2 (en) 2017-01-25 2022-12-23 株式会社ユピテル Data collection device, road condition evaluation support device, and program

Also Published As

Publication number Publication date
JP5911623B1 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
US8284996B2 (en) Multiple object speed tracking system
Chen et al. Inexpensive multimodal sensor fusion system for autonomous data acquisition of road surface conditions
US8818026B2 (en) Object recognition device and object recognition method
CN102867414B (en) Vehicle queue length measurement method based on PTZ (Pan/Tilt/Zoom) camera fast calibration
JP6904614B2 (en) Object detection device, prediction model creation device, object detection method and program
US20120166033A1 (en) Method and apparatus for detecting driving information of autonomous driving system
JP6408434B2 (en) Road marking body deterioration detection method
JP4363295B2 (en) Plane estimation method using stereo images
EP2955664A1 (en) Traffic lane boundary line extraction apparatus, traffic lane boundary line extraction method, and program
JP2007234019A (en) Vehicle image area specifying device and method for it
Puente et al. Automatic detection of road tunnel luminaires using a mobile LiDAR system
KR20110037180A (en) System and method for road visibility measurement using camera
JP2009017157A (en) Image processor, method and program
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
KR102418823B1 (en) Deep learning-based illegal parking enforcement system using wide-area detection images
JP2007316856A (en) Traveling object detecting device, computer program, and traveling object detection method
JP2011209896A (en) Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program
JP2005332071A (en) System for tracking visually handicapped person and method for detecting visually handicapped person
JP2016186756A (en) Device and method of detecting joint part of road
KR101582348B1 (en) Method for monitoring parking lot and apparatus thereof
JP2019066368A (en) System and method for detecting displacement of structure
KR101327256B1 (en) System and method of detecting vehicle using detecting shadow region of the vehicle by ptz camera
Burghardt et al. Camera contrast ratio of road markings at dual carriageway roads

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R150 Certificate of patent or registration of utility model

Ref document number: 5911623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250