JP2020140335A - Same structure detection device, same structure detection method, and same structure detection program - Google Patents

Same structure detection device, same structure detection method, and same structure detection program Download PDF

Info

Publication number
JP2020140335A
JP2020140335A JP2019034038A JP2019034038A JP2020140335A JP 2020140335 A JP2020140335 A JP 2020140335A JP 2019034038 A JP2019034038 A JP 2019034038A JP 2019034038 A JP2019034038 A JP 2019034038A JP 2020140335 A JP2020140335 A JP 2020140335A
Authority
JP
Japan
Prior art keywords
frame
same structure
same
detection
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019034038A
Other languages
Japanese (ja)
Other versions
JP7030732B2 (en
Inventor
和幸 赤井
Kazuyuki Akai
和幸 赤井
俊彦 原田
Toshihiko Harada
俊彦 原田
中村 隆幸
Takayuki Nakamura
隆幸 中村
雅稔 井藤
Masatoshi Ito
雅稔 井藤
美濃越 亮太
Ryota Minokoshi
亮太 美濃越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2019034038A priority Critical patent/JP7030732B2/en
Publication of JP2020140335A publication Critical patent/JP2020140335A/en
Application granted granted Critical
Publication of JP7030732B2 publication Critical patent/JP7030732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

To detect a same structure among a plurality of photographed images.SOLUTION: A same structure determination part 15 between cameras estimates a frame j, k, and l of cameras 2-4 corresponding to representative frame i of a camera 1 (reference position) based on gap of photographing timing of a structure in consideration of clipping distance of a frame and direction of cameras 1-4, and extracts representative frame within an acceptable range from the reference position regarding the cameras 2-4.SELECTED DRAWING: Figure 1

Description

本発明は、複数の撮影画像に写った構造物の同一性を判定する技術に関する。 The present invention relates to a technique for determining the identity of a structure captured in a plurality of captured images.

公共インフラは産業や生活の基盤である。道路沿いに設置された公共インフラの一例として、信号機、電灯、および電柱などの構造物が挙げられる。公共インフラの点検・保守は重要である。例えば、信号機の灯器が汚れていたり、樹木が灯器を隠していたりすると、信号機が見えにくくなり、大きな事故につながる可能性がある。 Public infrastructure is the foundation of industry and livelihood. Examples of public infrastructure installed along roads include structures such as traffic lights, lights, and utility poles. Inspection and maintenance of public infrastructure is important. For example, if the traffic light of the traffic light is dirty or a tree hides the traffic light, the traffic light becomes difficult to see, which may lead to a serious accident.

「通信インフラのメンテナンスサイクルを革新するデジタルトランスフォーメーション」、NTT技術ジャーナル、日本電信電話株式会社、2019年1月、第31巻、第1号、pp. 32-35"Digital Transformation that Innovates the Maintenance Cycle of Communication Infrastructure", NTT Technology Journal, Nippon Telegraph and Telephone Corporation, January 2019, Vol. 31, No. 1, pp. 32-35

従来、徒歩または自転車により、道路沿いの構造物の異常を目視で確認し、点検・保守を行ってきた。しかしながら、道路沿いの構造物は長距離にわたって点在しており、量も非常に多く、効率的な点検方法が望まれていた。 Conventionally, abnormalities in structures along roads have been visually confirmed, inspected and maintained by walking or by bicycle. However, the structures along the road are scattered over a long distance, and the amount is very large, so that an efficient inspection method has been desired.

道路に沿って車を走らせ、車載カメラで道路沿いの構造物を撮影し、撮影した動画を見て構造物の異常を発見する方法が考えられる。信号機、電灯、および電柱などの長尺の構造物を1台のカメラで撮影した場合、カメラと構造物との距離が近いときは構造物の全体が写らないことがある。チルト角を変えた複数のカメラで構造物を撮影すると構造物の全体を撮影することができる。さらに、チルト角だけでなくパン角をカメラごとに変えることで、点検により適した画像を得ることができる。 A possible method is to drive a car along the road, take a picture of the structure along the road with an in-vehicle camera, and watch the video taken to detect an abnormality in the structure. When a long structure such as a traffic light, an electric light, and a utility pole is photographed by one camera, the entire structure may not be photographed when the distance between the camera and the structure is short. When a structure is photographed with a plurality of cameras having different tilt angles, the entire structure can be photographed. Furthermore, by changing not only the tilt angle but also the pan angle for each camera, a more suitable image can be obtained for inspection.

しかしながら、カメラごとにパン角を変えると、構造物が撮影される時刻がずれてしまうという問題があった。複数の撮影動画を見比べて同一構造物を判定することも困難である。 However, if the pan angle is changed for each camera, there is a problem that the time when the structure is photographed shifts. It is also difficult to determine the same structure by comparing a plurality of captured moving images.

本発明は、上記に鑑みてなされたものであり、複数の撮影画像間で同一の構造物を検出することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to detect the same structure among a plurality of captured images.

本発明に係る同一構造物検出装置は、複数のカメラで一定距離ごとに撮影した複数の撮影画像群から同一構造物の写っている撮影画像を抽出する同一構造物検出装置であって、前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定し、前記基準画像から所定の範囲内の撮影画像に写る構造物を同一構造物と判定する同一構造物判定部を備えることを特徴とする。 The same structure detection device according to the present invention is the same structure detection device that extracts a photographed image showing the same structure from a plurality of photographed image groups photographed by a plurality of cameras at regular intervals. The same structure in the plurality of captured image groups based on the deviation of the imaging timing of the structure considering the distance and the imaging direction of each of the plurality of cameras or the distance from the imaging position of each of the plurality of cameras to the structure. It is characterized by including the same structure determination unit that estimates a reference image to be captured and determines that the structure captured in the captured image within a predetermined range from the reference image is the same structure.

本発明によれば、複数の撮影画像間で同一の構造物を検出することができる。 According to the present invention, the same structure can be detected between a plurality of captured images.

本実施形態における構造物検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the structure detection apparatus in this embodiment. 車両に設置した複数のカメラの設置状況を説明するための図である。It is a figure for demonstrating the installation situation of a plurality of cameras installed in a vehicle. 車両に設置した複数のカメラの設置状況を説明するための図である。It is a figure for demonstrating the installation situation of a plurality of cameras installed in a vehicle. 撮影動画から一定距離ごとに切り出したフレームの例を示す図である。It is a figure which shows the example of the frame cut out at a fixed distance from a photographed moving image. フレーム内で検出対象の構造物を検出した様子を示す図である。It is a figure which shows the state which the structure to be detected was detected in the frame. フレーム内で構造物の位置が移動する様子を示す図である。It is a figure which shows how the position of a structure moves in a frame. 複数カメラの撮影動画から切り出したフレームに、同一の構造物が写った様子を示す図である。It is a figure which shows the appearance of the same structure in the frame cut out from the moving image taken by a plurality of cameras. 出力画面例を示す図である。It is a figure which shows the output screen example. 構造物検出装置のメインルーチンのフローチャートである。It is a flowchart of the main routine of a structure detection device. 単一カメラ内での構造物の同一判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the same determination process of a structure in a single camera. 誤検出された検出枠の例を示す図である。It is a figure which shows the example of the detection frame which was erroneously detected. 1つの構造物を複数回検出した重複する検出枠の例を示す図である。It is a figure which shows the example of the overlapping detection frame which detected one structure a plurality of times. 複数の構造物が重なった場合の重複する検出枠の例を示す図である。It is a figure which shows the example of the overlapping detection frame when a plurality of structures overlap. 単一カメラで撮影した撮影動画における同一構造物の判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process of the same structure in the moving image taken by a single camera. フレーム内に新たな構造物が出現する例を示す図である。It is a figure which shows the example which a new structure appears in a frame. フレーム内に新たな構造物が出現する別の例を示す図である。It is a figure which shows another example in which a new structure appears in a frame. フレーム内での構造物の検出位置の変化を示す図である。It is a figure which shows the change of the detection position of a structure in a frame. フレーム外へ構造物の検出位置が移動する例を示す図である。It is a figure which shows the example which the detection position of a structure moves out of a frame. 残りの構造物の割り振り処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the allocation process of the remaining structure. 現フレームで検出された構造物の数が増えた例を示す図である。It is a figure which shows the example which the number of structures detected in the current frame increased. 現フレームで検出された構造物の数が減った例を示す図である。It is a figure which shows the example which the number of structures detected in the current frame decreased. 複数カメラで撮影した撮影動画間における同一構造物の判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process of the same structure among the moving images taken by a plurality of cameras. 基準位置に代表フレームが存在する例を示す図である。It is a figure which shows the example which the representative frame exists in a reference position. 基準位置からずれた位置に代表フレームが存在する例を示す図である。It is a figure which shows the example which the representative frame exists in the position deviated from the reference position. 許容範囲内に複数の代表フレームが存在する例を示す図である。It is a figure which shows the example which a plurality of representative frames exist within an allowable range. LIDARの測定例を示す図である。It is a figure which shows the measurement example of LIDAR. 構造物が撮影される位置のズレの算出を説明するための図である。It is a figure for demonstrating the calculation of the deviation of the position where a structure is photographed. GPSとカメラとの時刻のズレの算出を説明するための図である。It is a figure for demonstrating the calculation of the time difference between GPS and a camera.

本発明の実施の形態の一つを以下で説明する。 One of the embodiments of the present invention will be described below.

[構造物検出装置の構成]
本実施形態の構造物検出装置1は、道路沿いの構造物を車両に設置した複数のカメラで撮影した複数の撮影動画から、検出対象の構造物が写っているフレームを抽出し、複数の撮影動画において同一の構造物が写っているフレームを関連付けて統合的に表示する装置である。本実施形態では、検出対象の構造物として信号機を例に説明する。検出対象の構造物は、道路沿いに設置されたものであれば、電灯、電柱、もしくは街路樹であってもよいし、看板、標識、自動販売機、あるいはポストなどの高さの低いものであってもよい。検出対象は、カメラを下方向に向けて撮影した路面標示等であってもよい。
[Structure of structure detection device]
The structure detection device 1 of the present embodiment extracts a frame showing a structure to be detected from a plurality of shot videos taken by a plurality of cameras installed on a vehicle for a structure along a road, and takes a plurality of shots. It is a device that links and displays frames in which the same structure appears in a moving image in an integrated manner. In the present embodiment, a traffic light will be described as an example of the structure to be detected. The structure to be detected may be a lamp, a utility pole, or a roadside tree as long as it is installed along the road, or a low-height structure such as a sign, a sign, a vending machine, or a post. There may be. The detection target may be a road marking or the like taken by pointing the camera downward.

図1に示す構造物検出装置1は、静止画取得部11、記憶部12、構造物検出部13、カメラ毎の同一構造物判定部14、カメラ間の同一構造物判定部15、出力部16、および異常検出部17を備える。構造物検出装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは構造物検出装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。 The structure detection device 1 shown in FIG. 1 includes a still image acquisition unit 11, a storage unit 12, a structure detection unit 13, the same structure determination unit 14 for each camera, the same structure determination unit 15 between cameras, and an output unit 16. , And an abnormality detection unit 17. Each part included in the structure detection device 1 may be configured by a computer provided with an arithmetic processing unit, a storage device, and the like, and the processing of each part may be executed by a program. This program is stored in a storage device included in the structure detection device 1, and can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or can be provided through a network.

静止画取得部11は、構造物を検出するために用いる静止画を取得する。本実施形態では、市販カメラおよび市販GPSロガーを車両に搭載して走行しながら道路沿いの構造物を撮影するとともに、車両の位置情報を取得する。撮影された撮影動画は記録媒体101に格納され、車両の位置情報は記録媒体102に格納される。静止画取得部11は、撮影動画が格納されたメモリカードなどの記録媒体101から撮影動画を読み込み、位置情報を記録したファイルが格納された記録媒体102から位置情報を取得し、一定距離ごとに静止画を取得する。静止画取得部11は、一定距離ごとに取得した静止画に記録媒体102から取得した位置情報を関連付けて記憶部12に格納する。本実施形態では、複数台のカメラを用いて構造物を撮影するので、複数の撮影動画のそれぞれから静止画を取得し、撮影動画ごとに静止画群を記憶部12に格納する。静止画取得部11は、ネットワークを介して、撮影動画および位置情報を取得してもよい。静止画取得部11は、動画に限らず、所定の間隔で撮影された静止画を読み込んでもよい。 The still image acquisition unit 11 acquires a still image used for detecting a structure. In the present embodiment, a commercially available camera and a commercially available GPS logger are mounted on a vehicle to photograph a structure along a road while traveling, and to acquire position information of the vehicle. The captured moving image is stored in the recording medium 101, and the position information of the vehicle is stored in the recording medium 102. The still image acquisition unit 11 reads the captured moving image from a recording medium 101 such as a memory card in which the captured moving image is stored, acquires the position information from the recording medium 102 in which the file in which the position information is recorded is stored, and obtains the position information at regular intervals. Get a still image. The still image acquisition unit 11 stores the still image acquired at regular intervals in the storage unit 12 in association with the position information acquired from the recording medium 102. In the present embodiment, since the structure is photographed by using a plurality of cameras, still images are acquired from each of the plurality of photographed moving images, and the still image group is stored in the storage unit 12 for each photographed moving image. The still image acquisition unit 11 may acquire the captured moving image and the position information via the network. The still image acquisition unit 11 may read not only moving images but also still images taken at predetermined intervals.

図2,3に示すように、本実施形態では、車両の進行方向に対してパン角およびチルト角を変えた複数台のカメラを車両に搭載して同時に撮影する。例えば、図2,3のカメラ1は、パン角が90度、チルト角が0度となるように設置し、車両の横方向を撮影する。カメラ2〜4は、順に、パン角が小さく、チルト角が大きくなるように設置する。4台のカメラ1〜4で、例えば信号機などの長尺の構造物の全体が撮影できるようにパン角およびチルト角を調節する。具体的には、カメラ1で構造物の下部を撮影し、カメラ4で構造物の頭頂部を撮影する。カメラ2,3で構造物の中間部を撮影する。複数台のカメラのパン角またはチルト角のいずれかを変えてもよい。 As shown in FIGS. 2 and 3, in the present embodiment, a plurality of cameras having different pan angles and tilt angles with respect to the traveling direction of the vehicle are mounted on the vehicle and simultaneously photographed. For example, the cameras 1 of FIGS. 2 and 3 are installed so that the pan angle is 90 degrees and the tilt angle is 0 degrees, and photographs the lateral direction of the vehicle. The cameras 2 to 4 are installed in order so that the pan angle is small and the tilt angle is large. The pan angle and tilt angle are adjusted by the four cameras 1 to 4 so that the entire long structure such as a traffic light can be photographed. Specifically, the camera 1 photographs the lower part of the structure, and the camera 4 photographs the crown of the structure. Cameras 2 and 3 take pictures of the middle part of the structure. Either the pan angle or the tilt angle of the plurality of cameras may be changed.

構造物の下部を撮影するカメラ1は、車両の進行方向に対して真横向きとなるように設置するとよい。これにより、構造物の下部に取り付けられた銘板または看板などをより鮮明に撮影できる。構造物の頭頂部を撮影するカメラ4は、パン角を小さくして斜め前方を撮影するように設置するとよい。車両の横から見上げて構造物の頭頂部を撮影すると、街路樹などにより頭頂部が撮影できないことがある。パン角を小さくし、頭頂部を少し離れた位置から撮影するとよい。 The camera 1 that captures the lower part of the structure may be installed so as to be oriented sideways with respect to the traveling direction of the vehicle. As a result, the nameplate or signboard attached to the lower part of the structure can be photographed more clearly. The camera 4 for photographing the crown of the structure may be installed so as to photograph diagonally forward with a small pan angle. If you look up from the side of the vehicle and take a picture of the top of the structure, you may not be able to take a picture of the top of the head due to roadside trees. It is advisable to reduce the pan angle and shoot the top of the head from a distance.

斜め前方を撮影するカメラだけでなく、斜め後方を撮影するカメラを設置してもよい。前後方向を撮影するカメラを設置することで、前方のカメラが逆光であっても、後方のカメラが順光となる。前方(進行方向)を撮影するカメラや後方を撮影するカメラを設置してもよい。 Not only a camera that shoots diagonally forward, but also a camera that shoots diagonally backward may be installed. By installing a camera that shoots in the front-back direction, even if the front camera is backlit, the rear camera will be in front light. A camera that shoots forward (direction of travel) or a camera that shoots backward may be installed.

静止画取得部11は、GPSロガーで取得した位置情報に基づき、一定距離ごとに撮影動画から静止画(以下、「フレーム」と称することもある)を取得する。フレームを取得する際、図4に示すように、1つの構造物が3〜5のフレームに写っているように切り出し距離を調整する。図4の例では、10cmごとに撮影動画からフレームを切り出している。図4のフレームの下に付与した番号はフレーム番号である。静止画取得部11は、フレームを切り出した順にフレーム番号を付与する。切り出し距離は、撮影動画のカメラのパン角つまりカメラから構造物までの距離によって変えてもよい。具体的には、車両の進行方向に対するパン角が小さいカメラで撮影した撮影動画では、車両の横向きに設置された(パン角が大きい)カメラで撮影した撮影動画よりも、長い時間構造物が写っているので、切り出し距離を長くする。例えば、横向きのカメラ1の撮影動画の切り出し距離を10cmとすると、カメラ2の切り出し距離を20cm、カメラ3の切り出し距離を30cm、カメラ4の切り出し距離を50cmとする。切り出し距離は、車両と構造物との間の距離によって適切な値が異なる。したがって、撮影状況に応じて、構造物が適切な枚数内に写るように設定する。路肩が広い道路では、車両と構造物との距離が長くなるので切り出し距離を長くする。 The still image acquisition unit 11 acquires a still image (hereinafter, also referred to as a “frame”) from the captured moving image at regular intervals based on the position information acquired by the GPS logger. When acquiring the frame, as shown in FIG. 4, the cutting distance is adjusted so that one structure is reflected in the frames 3 to 5. In the example of FIG. 4, frames are cut out from the captured moving image every 10 cm. The number assigned below the frame in FIG. 4 is a frame number. The still image acquisition unit 11 assigns frame numbers in the order in which the frames are cut out. The cutting distance may be changed depending on the pan angle of the camera of the captured moving image, that is, the distance from the camera to the structure. Specifically, the video shot with a camera with a small pan angle with respect to the traveling direction of the vehicle shows the structure for a longer time than the video shot with a camera installed sideways (with a large pan angle) of the vehicle. Therefore, the cutting distance is lengthened. For example, assuming that the cut-out distance of the captured moving image of the camera 1 in the horizontal direction is 10 cm, the cut-out distance of the camera 2 is 20 cm, the cut-out distance of the camera 3 is 30 cm, and the cut-out distance of the camera 4 is 50 cm. The appropriate value of the cutting distance depends on the distance between the vehicle and the structure. Therefore, the structure is set so as to be captured within an appropriate number of sheets according to the shooting situation. On roads with wide shoulders, the distance between the vehicle and the structure is long, so the cutting distance is long.

記憶部12は、静止画取得部11の取得したフレームを撮影動画ごとに格納する。例えば、静止画取得部11が4つの撮影動画からフレームを取得した場合、記憶部12には、撮影動画のそれぞれから切り出された4つの静止画群が格納される。記憶部12は、記録媒体101から読み込んだ撮影動画を格納してもよい。 The storage unit 12 stores the frames acquired by the still image acquisition unit 11 for each captured moving image. For example, when the still image acquisition unit 11 acquires a frame from four captured moving images, the storage unit 12 stores four still image groups cut out from each of the captured moving images. The storage unit 12 may store the captured moving image read from the recording medium 101.

構造物検出部13は、記憶部12に格納された静止画群のそれぞれに含まれるフレームから検出対象の構造物の写ったフレームを検出しフレーム内における構造物の位置を記憶部12に格納する。構造物検出部13は、例えば、検出対象の構造物の画像を学習させた人工知能を用いて構造物の写ったフレームを検出する。図5の例では、構造物検出部13は信号機TLの下部を検出した。構造物検出部13は、信号機TLを検出した検出枠Dのフレーム内での位置情報を記憶部12に格納する。例えば、検出枠Dのフレーム上での座標、横幅、高さ、検出結果の確信度を記憶部12に格納する。 The structure detection unit 13 detects a frame in which the structure to be detected is reflected from the frames included in each of the still image groups stored in the storage unit 12, and stores the position of the structure in the frame in the storage unit 12. .. The structure detection unit 13 detects, for example, a frame in which the structure is captured by using artificial intelligence trained with an image of the structure to be detected. In the example of FIG. 5, the structure detection unit 13 detected the lower part of the traffic light TL. The structure detection unit 13 stores the position information in the frame of the detection frame D that has detected the traffic light TL in the storage unit 12. For example, the coordinates, width, height, and certainty of the detection result on the frame of the detection frame D are stored in the storage unit 12.

カメラ毎の同一構造物判定部14(以下、単に「同一構造物判定部14」と称する)は、連続する複数のフレームで検出された構造物のフレーム内での位置の変化に基づき、フレーム間での同一構造物を判定する。具体的には、同一構造物判定部14は、フレーム内でフレーム内の風景の移動方向と同じ方向に移動する構造物は同一構造物であると判定する。連続する複数のフレームは、静止画取得部11が一定距離ごとに撮影動画から切り出した一連のフレームである。車両の進行方向に対して左側を撮影した場合、図6に示すように、構造物はフレーム内で右から左に移動する。同一構造物判定部14は、連続する複数のフレームにおいて、検出位置(検出枠)が右から左に移動する構造物を同一の構造物と判定する。車両の進行方向に対して右側を撮影した場合は、構造物はフレーム内で左から右に移動する。車両の前方または後方に設置したカメラで撮影したフレームでは、構造物はフレーム内で上から下または下から上に移動する。つまり、同一構造物判定部14は、フレーム内の風景の移動方向と同じ方向に移動する構造物を同一構造物として判定する。 The same structure determination unit 14 for each camera (hereinafter, simply referred to as “same structure determination unit 14”) is between frames based on the change in the position of the structure within the frame detected in a plurality of consecutive frames. Judge the same structure in. Specifically, the same structure determination unit 14 determines that the structures that move in the same direction as the movement direction of the landscape in the frame within the frame are the same structure. The plurality of continuous frames are a series of frames cut out from the captured moving image by the still image acquisition unit 11 at regular intervals. When the left side with respect to the traveling direction of the vehicle is photographed, the structure moves from right to left in the frame as shown in FIG. The same structure determination unit 14 determines that a structure whose detection position (detection frame) moves from right to left in a plurality of consecutive frames is the same structure. When the right side of the vehicle's direction of travel is photographed, the structure moves from left to right within the frame. In a frame taken with a camera installed in front of or behind the vehicle, the structure moves within the frame from top to bottom or bottom to top. That is, the same structure determination unit 14 determines a structure that moves in the same direction as the movement direction of the landscape in the frame as the same structure.

同一構造物判定部14は、同一構造物が写ったと判定した複数のフレームを抽出後、複数のフレームのなかから構造物が最もよく写っているフレームを代表フレームとして選定する。前方および後方を撮影するカメラを設置した場合、代表フレームとして順光のフレームを自動的に選定してもよい。 The same structure determination unit 14 extracts a plurality of frames in which the same structure is determined to be captured, and then selects a frame in which the structure is most captured from the plurality of frames as a representative frame. When a camera that shoots the front and the rear is installed, a normal light frame may be automatically selected as a representative frame.

同一構造物判定部14は、静止画群つまり撮影動画ごとに、上記の同一構造物の判定処理を行う。 The same structure determination unit 14 performs the above-mentioned determination process of the same structure for each still image group, that is, a captured moving image.

同一構造物判定部14の判定処理により、撮影動画から一定距離ごとに切り出した静止画群から、同一構造物が写ったフレームを抽出することができる。 By the determination process of the same structure determination unit 14, it is possible to extract a frame in which the same structure is captured from a group of still images cut out at regular intervals from the captured moving image.

カメラ間の同一構造物判定部15(以下、単に「同一構造物判定部15」と称する)は、各カメラの撮影方向および静止画群の切り出し間隔(距離)に基づき、同一の構造物が写った代表フレームを静止画群間で関連付ける。 The same structure determination unit 15 between cameras (hereinafter, simply referred to as “same structure determination unit 15”) captures the same structure based on the shooting direction of each camera and the cutout interval (distance) of the still image group. The representative frames are associated with each other.

同一構造物判定部15の判定処理により、図7に示すように、別々のカメラの撮影動画から切り出した静止画群から同一構造物が写ったフレームを抽出することができる。 As shown in FIG. 7, by the determination process of the same structure determination unit 15, it is possible to extract a frame in which the same structure is captured from a group of still images cut out from moving images taken by different cameras.

同一構造物判定部15は、複数の静止画群から検出して同一の構造物として判定した構造物の位置情報を記憶部12に登録してもよい。例えば、構造物に対してIDを付与し、そのIDにその構造物が写っているフレームを関連付けるとともに、その構造物の位置情報を関連付ける。構造物の位置情報は、GPSロガーから得られた車両の位置情報を利用できる。例えば、車両の進行方向に対して横向きに設置したカメラで撮影した代表フレームの位置情報をその構造物の位置情報として利用する。このとき、車両の進行方向およびカメラの設置向きに基づいてカメラの撮影方向を特定し、位置情報を撮影方向に移動した位置を構造物の位置情報としてもよい。LIDAR(Light Detection and Ranging)により車両から構造物までの距離を測定しておき、構造物の位置をより正確に求めてもよい。また、前方および後方を撮影するカメラを設置した場合、同一構造物判定部15は、構造物の同一位置を撮影する前方ならびに後方のカメラから得られた同一構造物を撮影したフレームのうちいずれか一方のフレームを選定してもよく、特に、前記撮影したフレームのうち順光のフレームを選定してもよい。例えば、フレームの検出枠内の明るさに基づいて順光または逆光と判定してもよいし、GPSロガーから得られた情報を元に車の向きを求めてカメラの設置角度に基づいてカメラの撮影方向を割り出し、時刻に応じた太陽の向きと照合して逆光かどうかを判定してもよい。 The same structure determination unit 15 may register the position information of the structure detected from a plurality of still image groups and determined as the same structure in the storage unit 12. For example, an ID is assigned to the structure, the frame in which the structure is shown is associated with the ID, and the position information of the structure is associated with the ID. As the position information of the structure, the position information of the vehicle obtained from the GPS logger can be used. For example, the position information of the representative frame taken by a camera installed sideways with respect to the traveling direction of the vehicle is used as the position information of the structure. At this time, the shooting direction of the camera may be specified based on the traveling direction of the vehicle and the installation direction of the camera, and the position where the position information is moved in the shooting direction may be used as the position information of the structure. The distance from the vehicle to the structure may be measured by LIDAR (Light Detection and Ringing), and the position of the structure may be obtained more accurately. Further, when cameras for photographing the front and the rear are installed, the same structure determination unit 15 is one of the frames for photographing the same structure obtained from the front and rear cameras for photographing the same position of the structure. One frame may be selected, and in particular, a normal light frame may be selected from the captured frames. For example, it may be determined to be forward light or back light based on the brightness in the detection frame of the frame, or the direction of the vehicle is obtained based on the information obtained from the GPS logger and the camera is installed based on the camera installation angle. The shooting direction may be determined and checked against the direction of the sun according to the time to determine whether or not it is backlit.

異常検出部17は、構造物が写っているフレームから構造物の異常(例えばヒビ、欠け、錆等)を検出する。異常検出部17は、代表フレームだけでなく、構造物が写っているフレームの全てから構造物の異常を検出してもよい。異常検出部17は、例えば、検出したい構造物の異常を学習させた人工知能を用いて構造物の写っているフレームから構造物の異常を検出する。前記人工知能としては、例えば、画像ディープラーニング技術を用いて、事前に構造物のヒビあるいは欠けあるいは錆の画像を学習させることによって入力画像中におけるヒビあるいは欠けあるいは錆の画像部分を検出可能とした学習済み人工知能を異常検出部17として用いることによって、構造物に発生したヒビあるいは欠けあるいは錆の異常を検出してもよい。 The abnormality detection unit 17 detects an abnormality (for example, crack, chipping, rust, etc.) of the structure from the frame in which the structure is shown. The abnormality detection unit 17 may detect an abnormality of the structure not only from the representative frame but also from all the frames in which the structure is shown. The anomaly detection unit 17 detects an abnormality of a structure from a frame in which the structure is shown by using artificial intelligence that has learned the abnormality of the structure to be detected, for example. As the artificial intelligence, for example, by using an image deep learning technique to learn an image of cracks, chips, or rust of a structure in advance, it is possible to detect an image portion of cracks, chips, or rust in an input image. By using the learned artificial intelligence as the abnormality detection unit 17, an abnormality of cracks, chips, or rust generated in the structure may be detected.

出力部16は、同一の構造物を異なるカメラで写した複数の静止画を並べて出力する。構造物検出部13および同一構造物判定部14,15の処理により、複数の撮影動画から切り出したフレームに写る構造物の同一性が判定され、その構造物の位置も特定されている。出力部16は、例えば、構造物を検出した位置を地図上にプロットし、地図上で構造物の選択を受け付けて、選択された構造物の写る静止画を表示する。 The output unit 16 outputs a plurality of still images of the same structure taken by different cameras side by side. By the processing of the structure detection unit 13 and the same structure determination units 14 and 15, the identity of the structure reflected in the frame cut out from the plurality of captured moving images is determined, and the position of the structure is also specified. For example, the output unit 16 plots the position where the structure is detected on a map, accepts the selection of the structure on the map, and displays a still image showing the selected structure.

図8に、出力画面例を示す。同図に示す出力画面100は、上段に地図領域110、情報領域120、動画領域130を備え、下段に構造物を写した静止画141〜144を表示している。 FIG. 8 shows an example of an output screen. The output screen 100 shown in the figure has a map area 110, an information area 120, and a moving image area 130 in the upper row, and still images 141 to 144 showing a structure are displayed in the lower row.

地図領域110では、撮影動画から検出された構造物を地図上にプロットする。構造物の不具合の有無および程度に応じてプロットの色および形状を変更してもよい。例えば、不具合の無い構造物は青色でプロットする。不具合の程度に応じて黄色、赤色でプロットする。構造物を示すマークが地図上で選択されると、下段に選択された構造物が写っている静止画141〜144が表示される。表示される静止画141〜144は、同一構造物判定部14の選定した代表フレームである。 In the map area 110, the structures detected from the captured moving image are plotted on the map. The color and shape of the plot may be changed depending on the presence and degree of defects in the structure. For example, non-defective structures are plotted in blue. Plot in yellow or red depending on the degree of defect. When the mark indicating the structure is selected on the map, the still images 141 to 144 showing the selected structure are displayed in the lower row. The displayed still images 141 to 144 are representative frames selected by the same structure determination unit 14.

図8の地図領域110では、道路上に構造物のマークを表示しているが、道路の右側または左側に寄せて構造物のマークを表示してもよい。例えば、車両の進行方向に対して左側を撮影した場合は、進行方向の左側に構造物のマークを表示する。あるいは、車両の進行方向を道路上に矢印等で図示してもよい。 In the map area 110 of FIG. 8, the mark of the structure is displayed on the road, but the mark of the structure may be displayed on the right side or the left side of the road. For example, when the left side of the traveling direction of the vehicle is photographed, the mark of the structure is displayed on the left side of the traveling direction. Alternatively, the traveling direction of the vehicle may be illustrated on the road with an arrow or the like.

情報領域120では、選択された構造物の情報等を表示する。例えば、構造物を写した撮影日時および位置情報等を表示する。また、図8の例では、後述の異常検出部17によって検出されたヒビおよび欠けを表示するか否かを選択可能にしている。チェックされた異常が静止画内に存在する場合、図8の静止画142に示すように、異常の検出された位置等を示してもよい。代表フレーム以外の表示されていない静止画(同じ構造物の写っているもの)において異常が検知されている場合は、その旨を情報領域120または静止画141〜144上に表示してよい。 In the information area 120, information or the like of the selected structure is displayed. For example, the shooting date and time and position information of the structure are displayed. Further, in the example of FIG. 8, it is possible to select whether or not to display the cracks and chips detected by the abnormality detection unit 17 described later. When the checked abnormality exists in the still image, the position where the abnormality is detected may be indicated as shown in the still image 142 of FIG. When an abnormality is detected in an undisplayed still image (one showing the same structure) other than the representative frame, that fact may be displayed on the information area 120 or the still images 141 to 144.

時期をずらして撮影した構造物の静止画が存在する場合、撮影日時を選択可能にして、選択された撮影日時の構造物の静止画を表示してもよい。例えば、選択された構造物について、2014年に撮影された静止画と2018年に撮影された静止画が存在する場合、情報領域120の撮影日時を2014年または2018年のいずれかに選択可能とする。出力画面100の下段には、選択された時期に撮影された静止画を表示する。また、新たに異常を検知した構造物だけを地図領域110に表示したり、区別できるように異なるマークを表示したりしてもよい。 If there are still images of the structure taken at different times, the shooting date and time may be selectable and the still images of the structure taken at the selected shooting date and time may be displayed. For example, if there are still images taken in 2014 and still images taken in 2018 for the selected structure, the shooting date and time of the information area 120 can be selected to be either 2014 or 2018. To do. A still image taken at the selected time is displayed in the lower part of the output screen 100. Further, only the structures for which an abnormality is newly detected may be displayed in the map area 110, or different marks may be displayed so as to be distinguishable.

動画領域130では、カメラのいずれかで撮影した撮影動画を再生する。表示する撮影動画は選択可能である。図8の例では、4つの撮影動画から再生する撮影動画を選択できる。例えば、静止画141〜144のいずれかを選択すると、対応する撮影動画が動画領域130に表示される。撮影動画を再生する際、撮影動画のタイムスタンプに合わせて地図領域110に車両の位置を図示してもよい。撮影動画に検出された構造物が写っている間は、撮影動画をスロー再生してもよい。 In the moving image area 130, a captured moving image taken by any of the cameras is played back. The captured video to be displayed can be selected. In the example of FIG. 8, the captured moving image to be reproduced can be selected from the four captured moving images. For example, when any of the still images 141 to 144 is selected, the corresponding captured moving image is displayed in the moving image area 130. When playing back the captured moving image, the position of the vehicle may be shown in the map area 110 according to the time stamp of the captured moving image. While the detected structure is shown in the captured moving image, the captured moving image may be played back slowly.

出力画面100の下段には、複数のカメラで撮影された構造物の静止画141〜144が表示される。静止画141〜144のいずれかを選択すると、同一構造物判定部14で同一の構造物が写っていると判定された複数の静止画を並べて表示してもよい。例えば、静止画142を選択すると、静止画142を含む前後数枚の同一構造物が写っている静止画(同じカメラで撮影したもの)が表示される。 In the lower part of the output screen 100, still images 141 to 144 of the structure taken by a plurality of cameras are displayed. When any of the still images 141 to 144 is selected, a plurality of still images determined by the same structure determination unit 14 to show the same structure may be displayed side by side. For example, when the still image 142 is selected, a still image (taken with the same camera) showing several same structures in the front and rear including the still image 142 is displayed.

さらに、構造物の保守の際に高所作業車が利用可能か否かを判断するために、構造物の周囲の画像を表示してもよい。例えば、構造物の下部を撮影した静止画に構造物の周囲の静止画をつなげてパノラマ画像を生成して表示する。 In addition, an image of the surroundings of the structure may be displayed to determine if an aerial work platform is available during maintenance of the structure. For example, a panoramic image is generated and displayed by connecting a still image of the lower part of the structure to a still image around the structure.

[構造物検出装置の動作]
次に、構造物検出装置1の動作について説明する。図9は、構造物検出装置1のメインルーチンのフローチャートである。
[Operation of structure detection device]
Next, the operation of the structure detection device 1 will be described. FIG. 9 is a flowchart of the main routine of the structure detection device 1.

構造物検出装置1が処理を開始すると、ステップS1において、静止画取得部11は、記録媒体101から撮影動画を読み取るとともに、記録媒体102から位置情報が記録されたファイルを読み取る。静止画取得部11は、撮影動画から一定距離ごとにフレームを取得し、フレームに位置情報を関連付けて記憶部12に格納する。静止画取得部11は、複数の記録媒体101のそれぞれから撮影動画を取得し、取得した撮影動画のそれぞれについてステップS1の処理を行う。 When the structure detection device 1 starts the process, in step S1, the still image acquisition unit 11 reads the captured moving image from the recording medium 101 and reads the file in which the position information is recorded from the recording medium 102. The still image acquisition unit 11 acquires frames from the captured moving image at regular intervals, associates the position information with the frames, and stores the frames in the storage unit 12. The still image acquisition unit 11 acquires a photographed moving image from each of the plurality of recording media 101, and performs the process of step S1 for each of the acquired photographed moving images.

ステップS2において、構造物検出部13は、静止画取得部11が取得したフレームから検出対象の構造物が写っているフレームを検出し、フレーム内における構造物の位置を記憶部12に格納する。 In step S2, the structure detection unit 13 detects a frame in which the structure to be detected is reflected from the frame acquired by the still image acquisition unit 11, and stores the position of the structure in the frame in the storage unit 12.

ステップS3において、同一構造物判定部14は、同一の撮影動画から取得した静止画群ごとに、フレーム内での構造物の検出位置の変化に基づいて、構造物の同一性を判定するとともに、同一の構造物が写っているフレームの中から代表フレームを選定する。同一構造物判定部14は、撮影動画のそれぞれから取得した静止画群のそれぞれについてステップS3の処理を行う。ステップS3の単一カメラ内での構造物の同一性判定の詳細については後述する。 In step S3, the same structure determination unit 14 determines the identity of the structure based on the change in the detection position of the structure in the frame for each still image group acquired from the same captured moving image. Select a representative frame from the frames that show the same structure. The same structure determination unit 14 performs the process of step S3 for each of the still image groups acquired from each of the captured moving images. The details of the structure identity determination in the single camera in step S3 will be described later.

ステップS4において、同一構造物判定部15は、撮影動画の撮影方向および切り出し間隔に基づき、同一の構造物が写った代表フレームを静止画群間で関連付ける。ステップS4の複数カメラ間での構造物の同一性判定の詳細については後述する。 In step S4, the same structure determination unit 15 associates the representative frames in which the same structure is captured between the still image groups based on the shooting direction and the cutting interval of the shot moving image. The details of the structure identity determination among the plurality of cameras in step S4 will be described later.

ステップS5において、出力部16は、同一の構造物を異なるカメラで写した複数の代表フレームを並べて表示する。 In step S5, the output unit 16 displays a plurality of representative frames of the same structure taken by different cameras side by side.

[単一カメラ内での構造物の同一性判定]
続いて、単一カメラ内での構造物の同一性判定処理について説明する。図10は、単一カメラ内での構造物の同一判定処理の流れを示すフローチャートである。
[Identity judgment of structures in a single camera]
Subsequently, the identity determination process of the structure in a single camera will be described. FIG. 10 is a flowchart showing the flow of the same determination process of the structure in a single camera.

ステップS31にて、同一構造物判定部14は、構造物検出部13が誤検出した検出枠を削除する。例えば、図11に示すように、フレームnにおいて構造物検出部13は構造物を検出したが、前後の数フレームn−1,n+1では構造物が検出されていない場合、フレームnの検出枠D0は誤検出であると判定し、検出枠D0を削除する。 In step S31, the same structure determination unit 14 deletes the detection frame erroneously detected by the structure detection unit 13. For example, as shown in FIG. 11, when the structure detection unit 13 detects the structure in the frame n, but the structure is not detected in the preceding and following several frames n-1, n + 1, the detection frame D0 of the frame n Is determined to be an erroneous detection, and the detection frame D0 is deleted.

ステップS32にて、同一構造物判定部14は、1つのフレーム内において検出領域が重複する検出枠をマージする。例えば、図12に示すように、フレーム内には1つの構造物のみ写っているが、構造物検出部13がその構造物について領域が重複する複数の検出枠D1,D2を出力した場合、同一構造物判定部14は、検出枠D1,D2をマージする。検出枠D1,D2のどちらかを削除してもよい。 In step S32, the same structure determination unit 14 merges detection frames in which detection areas overlap in one frame. For example, as shown in FIG. 12, only one structure is shown in the frame, but when the structure detection unit 13 outputs a plurality of detection frames D1 and D2 having overlapping regions for the structure, they are the same. The structure determination unit 14 merges the detection frames D1 and D2. Either of the detection frames D1 and D2 may be deleted.

また、図13に示すように、フレーム内で複数の構造物が重なって写っており、複数の検出枠D3,D4が重複する場合も考えられる。検出枠の重複度合いに応じて重複する検出枠を処理するか否か判定してもよい。例えば、検出枠の重複度合いが所定の閾値以上の場合は、検出枠の重複処理を行う。検出対象の構造物が重複してフレーム内に写らないものであれば、検出対象に応じて検出枠をマージするか削除するかを判定してもよい。 Further, as shown in FIG. 13, it is conceivable that a plurality of structures are overlapped in the frame and the plurality of detection frames D3 and D4 are overlapped. It may be determined whether or not to process the overlapping detection frames according to the degree of overlap of the detection frames. For example, when the degree of overlap of the detection frames is equal to or higher than a predetermined threshold value, the detection frame overlap processing is performed. If the structures to be detected are duplicated and do not appear in the frame, it may be determined whether to merge or delete the detection frames according to the detection target.

同一構造物判定部14は、静止画群の各フレームについて、フレーム番号順にステップS33の処理を行い、同一構造物の写っているフレームの集合(以下、「同一構造物の集合」と称する)を求める。ステップS33では、同一構造物判定部14は、連続する複数のフレームで検出された構造物のフレーム内での位置の変化に基づき、フレーム間での同一構造物を判定する。ステップS33の処理の詳細は後述する。 The same structure determination unit 14 performs the process of step S33 for each frame of the still image group in the order of frame numbers, and obtains a set of frames showing the same structure (hereinafter, referred to as “set of same structure”). Ask. In step S33, the same structure determination unit 14 determines the same structure between frames based on the change in the position of the structure within the frame detected in a plurality of consecutive frames. The details of the process in step S33 will be described later.

ステップS34にて、同一構造物判定部14は、同一構造物の集合の要素の数(フレーム数)が一定以下の集合は誤検出として削除する。静止画取得部11は、同一構造物が所定の数以上のフレームに写っているようにフレームを切り出すので、同一構造物判定部14は、同一構造物が写っていると判定されたフレーム数が一定以下(例えば、同一構造物が5フレーム程度に写っているように切り出した場合は1〜2フレーム)の集合は、構造物を誤検出したものと推定する。例えば、車両の前方左側を撮影するカメラで撮影した撮影動画では、車両が左折時に左折する方向に対して右側にある構造物は、撮影動画内で左側から右側に移動する。同一構造物判定部14は、撮影動画内で右側から左側に移動する構造物を同一構造物として判定するので、撮影動画内で左側から右側に移動する構造物は、撮影動画から切り出したフレームのそれぞれで新たに検出された構造物として扱われる。そのため、その構造物のフレームの集合の要素の数は1もしくは2程度となり、誤検出として削除できる。 In step S34, the same structure determination unit 14 deletes a set in which the number of elements (number of frames) of the set of the same structure is less than a certain value as a false detection. Since the still image acquisition unit 11 cuts out frames so that the same structure appears in a predetermined number of frames or more, the same structure determination unit 14 determines that the number of frames in which the same structure appears is the number of frames. A set below a certain level (for example, 1 to 2 frames when the same structure is cut out so as to appear in about 5 frames) is presumed to have erroneously detected the structure. For example, in a video shot with a camera that shoots the front left side of a vehicle, a structure on the right side of the direction in which the vehicle turns left when the vehicle turns left moves from the left side to the right side in the shot video. Since the same structure determination unit 14 determines the structure moving from the right side to the left side in the captured moving image as the same structure, the structure moving from the left side to the right side in the captured moving image is the frame cut out from the captured moving image. Each is treated as a newly detected structure. Therefore, the number of elements in the set of frames of the structure is about 1 or 2, and it can be deleted as a false positive.

ステップS35にて、同一構造物判定部14は、同一構造物の集合の中から代表フレームを選定する。同一構造物の集合に含まれるフレームの中で構造物が最もよく写っているフレームを代表フレームとする。最もよく写っているフレームとは、例えば、同一構造物の集合に含まれるフレームをフレーム番号順に並べたときの真ん中のフレームを代表フレームとしてもよい。もしくは、最も中央に構造物が写っている1つのフレームをその構造物の代表フレームとして選定してもよい。もしくは、前方および後方を撮影するカメラを設置した場合、代表フレームとして順光のフレームを自動的に選定してもよく、例えば、フレームの検出枠内の明るさに基づいて順光または逆光と判定してもよい。もしくは、ピンボケ、ブレなどの撮影不良を判定して、そのようなフレーム以外の中から代表フレームを選定してもよい。 In step S35, the same structure determination unit 14 selects a representative frame from the set of the same structures. Among the frames included in the set of the same structure, the frame in which the structure is best captured is taken as the representative frame. As the frame that appears best, for example, the middle frame when the frames included in the set of the same structure are arranged in the order of frame numbers may be used as the representative frame. Alternatively, one frame in which the structure is shown in the center may be selected as the representative frame of the structure. Alternatively, when a camera that shoots the front and the rear is installed, a forward light frame may be automatically selected as a representative frame. For example, it is determined to be forward light or back light based on the brightness in the detection frame of the frame. You may. Alternatively, a representative frame may be selected from other than such frames by determining shooting defects such as out-of-focus and blurring.

以上の処理により、撮影動画から切り出した静止画群ごとに、同一の構造物が写っているフレームの集合およびその構造物の代表フレームが求められる。 By the above processing, a set of frames in which the same structure is shown and a representative frame of the structure are obtained for each still image group cut out from the captured moving image.

続いて、図10のステップS33の同一構造物の判定処理について説明する。図14は、単一カメラで撮影した撮影動画における同一構造物の判定処理の流れを示すフローチャートである。 Subsequently, the determination process of the same structure in step S33 of FIG. 10 will be described. FIG. 14 is a flowchart showing a flow of determination processing of the same structure in a moving image taken by a single camera.

ステップS331にて、同一構造物判定部14は、処理対象の現フレームから検出対象の構造物が検出されているか否か判定する。 In step S331, the same structure determination unit 14 determines whether or not the structure to be detected is detected from the current frame to be processed.

現フレームから構造物が検出された場合、ステップS333にて、同一構造物判定部14は、同一候補構造物が存在するか否か判定する。同一候補構造物とは、前フレームn−1までに検出された構造物(検出枠)であって同一の構造物と推定される構造物である。同一候補構造物の集合は、同一の構造物と推定される構造物の集合である。同一候補構造物の集合は、複数個存在することもある。同一候補構造物の集合には、現フレームn以降で検出される構造物が追加される可能性がある。 When a structure is detected from the current frame, in step S333, the same structure determination unit 14 determines whether or not the same candidate structure exists. The same candidate structure is a structure (detection frame) detected up to the previous frame n-1 and is presumed to be the same structure. The set of the same candidate structures is a set of structures presumed to be the same structure. There may be a plurality of sets of the same candidate structure. Structures detected after the current frame n may be added to the set of the same candidate structures.

同一候補構造物が存在しない場合、ステップS334にて、新しい同一候補構造物の集合を作成し、現フレームnから検出された構造物をその同一候補構造物の集合に登録する。現フレームnから複数の構造物が検出された場合、検出された構造物の数だけ新しい同一候補構造物の集合が作られる。 If the same candidate structure does not exist, a new set of the same candidate structure is created in step S334, and the structure detected from the current frame n is registered in the set of the same candidate structure. When a plurality of structures are detected from the current frame n, a new set of the same candidate structures is created by the number of the detected structures.

同一候補構造物が存在する場合、ステップS335にて、同一構造物判定部14は、現フレームnにおいて、同一候補構造物のなかで最も右側の構造物の座標より右側で検出された構造物を新しい同一候補構造物の集合に登録する。フレームに写る同一の構造物の位置は右側から左側に移動するので、前フレームn−1までに検出された構造物よりも右側で検出された構造物は新たな別の構造物であると推定する。 When the same candidate structure exists, in step S335, the same structure determination unit 14 determines the structure detected on the right side of the coordinates of the rightmost structure among the same candidate structures in the current frame n. Register in a new set of identical candidate structures. Since the position of the same structure reflected in the frame moves from the right side to the left side, it is estimated that the structure detected on the right side of the structure detected up to the previous frame n-1 is another new structure. To do.

同一構造物判定部14は、構造物を検出した検出枠のフレーム内での位置を比較して右側または左側を判定する。例えば、検出枠の縦の中心線のフレーム内でのx座標を基準とする。 The same structure determination unit 14 determines the right side or the left side by comparing the positions of the detection frames that have detected the structure in the frame. For example, the x-coordinate within the frame of the vertical center line of the detection frame is used as a reference.

図15の例では、前フレームn−1において検出枠D5の構造物が検出された。前フレームn−1の処理において、検出枠D5は、いずれかの同一候補構造物の集合に登録される。検出枠D5は、同一候補構造物のなかで最も右側であるとする。現フレームnでは、検出枠D6の構造物と検出枠D7の構造物が検出された。検出枠D6のフレーム内での位置は、検出枠D5のフレーム内での位置より左側であり、検出枠D7のフレーム内での位置は、検出枠D5のフレーム内での位置より右側である。検出枠D7は、同一候補構造物のなかで最も右側の検出枠D5よりも右側に出現したので、検出枠D7を新しい同一候補構造物の集合に登録する。 In the example of FIG. 15, the structure of the detection frame D5 was detected in the front frame n-1. In the process of the previous frame n-1, the detection frame D5 is registered in the set of any of the same candidate structures. It is assumed that the detection frame D5 is on the rightmost side of the same candidate structure. In the current frame n, the structure of the detection frame D6 and the structure of the detection frame D7 were detected. The position of the detection frame D6 in the frame is to the left of the position of the detection frame D5 in the frame, and the position of the detection frame D7 in the frame is to the right of the position of the detection frame D5 in the frame. Since the detection frame D7 appears on the right side of the rightmost detection frame D5 among the same candidate structures, the detection frame D7 is registered in a new set of the same candidate structures.

図16の例では、現フレームnにおいて、検出枠D7の構造物と検出枠D8の構造物が検出された。検出枠D7,D8のフレーム内での位置は、両方とも検出枠D5のフレーム内での位置より右側である。検出枠D7,D8は、同一候補構造物のなかで最も右側の検出枠D5よりも右側で検出されたので、検出枠D7,D8のそれぞれを新しい同一候補構造物の集合のそれぞれに登録する。つまり、同一候補構造物の集合が新たに2つ作成される。 In the example of FIG. 16, in the current frame n, the structure of the detection frame D7 and the structure of the detection frame D8 were detected. The positions of the detection frames D7 and D8 in the frame are both to the right of the positions of the detection frames D5 in the frame. Since the detection frames D7 and D8 are detected on the right side of the rightmost detection frame D5 among the same candidate structures, each of the detection frames D7 and D8 is registered in each of the new sets of the same candidate structures. That is, two new sets of the same candidate structure are created.

撮影動画から切り出す一定距離が短い場合、車両が一時停止しているときなど、GPSロガーの誤差により、同じ位置に構造物の写るフレームが切り出されることがある。例えば、図17のフレームn−1とフレームnは、構造物のフレーム内での位置は同じである。このとき、構造物検出部13が違う位置で構造物を検出することがある。図17の例では、フレームn−1では左寄りの検出枠D9で構造物を検出し、フレームnでは右寄りの検出枠D10で構造物を検出している。検出枠D9,D10は同一の構造物を検出しているが、現フレームnの検出枠D10は検出枠D9より右側に存在するので、同一構造物判定部14は、検出枠D10を新しい同一候補構造物として登録してしまう。そこで、同一構造物判定部14は、ズレ許容範囲をピクセル単位で設定し、検出枠D10が検出枠D9よりも右側であってもズレ許容範囲内であれば、検出枠D10を検出枠D9の同一候補構造物とする。 When a certain distance to be cut out from the captured moving image is short, a frame in which the structure is shown may be cut out at the same position due to an error of the GPS logger, such as when the vehicle is temporarily stopped. For example, frame n-1 and frame n in FIG. 17 have the same position in the frame of the structure. At this time, the structure detection unit 13 may detect the structure at a different position. In the example of FIG. 17, in the frame n-1, the structure is detected by the detection frame D9 on the left side, and in the frame n, the structure is detected by the detection frame D10 on the right side. The detection frames D9 and D10 detect the same structure, but since the detection frame D10 of the current frame n exists on the right side of the detection frame D9, the same structure determination unit 14 uses the detection frame D10 as a new same candidate. It will be registered as a structure. Therefore, the same structure determination unit 14 sets the deviation allowable range in pixel units, and even if the detection frame D10 is on the right side of the detection frame D9, if it is within the deviation allowable range, the detection frame D10 is set to the detection frame D9. The same candidate structure.

ステップS335において、現フレームnで検出された構造物のうち同一候補構造物の集合に登録された構造物は、以降のステップS336,S337の処理対象としない。具体的には、図15の例では、現フレームnで検出された検出枠D7は、新しい同一候補構造物の集合に登録されたので、ステップS336,S337の処理対象としない。現フレームnで検出された検出枠D6は、まだ同一候補構造物の集合に登録されていないので、ステップS336,S337の処理対象である。 Among the structures detected in the current frame n in step S335, the structures registered in the set of the same candidate structures are not subject to the subsequent processing in steps S336 and S337. Specifically, in the example of FIG. 15, since the detection frame D7 detected in the current frame n is registered in the new set of the same candidate structures, it is not subject to the processing in steps S336 and S337. Since the detection frame D6 detected in the current frame n has not yet been registered in the set of the same candidate structures, it is the processing target of steps S336 and S337.

ステップS335において、現フレームnで検出された構造物の全てが新しい同一候補構造物の集合に登録された場合(図16の例)、前フレームn−1以前に作成された同一候補構造物の集合の確定確認をする。確定確認とは、現フレームn以降で同一候補構造物と同一の構造物が出現しないと推定し、同一候補構造物の集合に含まれる構造物を同一構造物として確定することである。確定確認の際、検出漏れ許容枚数を設定しておき、許容枚数を超えて同一候補構造物の集合に変化が無い場合に、その同一候補構造物の集合を同一構造物として確定してもよい。同一の構造物は連続したフレームに出現するはずである。あるフレームで構造物が検出されず、前後の許容枚数内のフレームにおいて右から左に移動する構造物が検出されているのであれば、構造物が検出されなかったフレームは検出漏れであると推定する。 In step S335, when all the structures detected in the current frame n are registered in the new set of the same candidate structures (example of FIG. 16), the same candidate structures created before the previous frame n-1 Confirm the confirmation of the set. Confirmation is to presume that the same structure as the same candidate structure does not appear after the current frame n, and to confirm the structures included in the set of the same candidate structures as the same structure. At the time of confirmation of confirmation, the permissible number of detection omissions may be set, and if the set of the same candidate structures does not change beyond the permissible number, the set of the same candidate structures may be confirmed as the same structure. .. The same structure should appear in consecutive frames. If no structure is detected in a certain frame and a structure moving from right to left is detected in the frames within the allowable number of frames before and after, it is estimated that the frame in which the structure is not detected is a detection omission. To do.

ステップS336にて、同一構造物判定部14は、現フレームnにおいて最も左側で検出された構造物よりも左側の同一候補構造物の集合を同一構造物として確定する。 In step S336, the same structure determination unit 14 determines the set of the same candidate structures on the left side of the structure detected on the leftmost side in the current frame n as the same structure.

図18の例では、前フレームn−1では、検出枠D12,D13の構造物が検出されている。つまり、前フレームn−1の時点では、検出枠D12を含む同一候補構造物の集合と検出枠D13を含む同一候補構造物の集合の2つが存在する。現フレームnでは、検出枠D14の構造物が検出された。検出枠D14は、検出枠D12よりも右側で、検出枠D13よりも左側である。検出枠D12の構造物が次のフレームnで検出枠D14の位置に移動することは無く、検出枠D12の構造物が移動したと推定できる構造物は現フレームnで検出されていない。したがって、検出枠D12と同一の構造物は現フレームn以降出現しないと推定できるので、検出枠D12を含む同一候補構造物の集合を同一構造物として確定する。 In the example of FIG. 18, the structures of the detection frames D12 and D13 are detected in the front frame n-1. That is, at the time of the previous frame n-1, there are two sets of the same candidate structure including the detection frame D12 and a set of the same candidate structures including the detection frame D13. In the current frame n, the structure of the detection frame D14 was detected. The detection frame D14 is on the right side of the detection frame D12 and on the left side of the detection frame D13. The structure of the detection frame D12 does not move to the position of the detection frame D14 in the next frame n, and the structure that can be estimated that the structure of the detection frame D12 has moved is not detected in the current frame n. Therefore, since it can be estimated that the same structure as the detection frame D12 does not appear after the current frame n, the set of the same candidate structures including the detection frame D12 is determined as the same structure.

図18の前フレームn−1の検出枠D13は、現フレームnの検出枠D14よりも左側であるので、検出枠D13の構造物は、検出枠D14の構造物と同一の可能性がある。検出枠D14は、次のステップS337で処理される。 Since the detection frame D13 of the front frame n-1 of FIG. 18 is on the left side of the detection frame D14 of the current frame n, the structure of the detection frame D13 may be the same as the structure of the detection frame D14. The detection frame D14 is processed in the next step S337.

なお、ステップS336においても、同一構造物判定部14は、構造物の位置の判定にズレ許容範囲を適用してもよい。 In step S336 as well, the same structure determination unit 14 may apply a deviation allowable range to the determination of the position of the structure.

ステップS337にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の同一候補構造物への割り振りを行う。残りの構造物とは、現フレームnで検出された構造物のうち、同一候補構造物の集合に登録されてないものである。ステップS337の処理の詳細は後述する。 In step S337, the same structure determination unit 14 allocates the remaining structures detected in the current frame n to the same candidate structure. The remaining structures are the structures detected in the current frame n that are not registered in the set of the same candidate structures. Details of the process in step S337 will be described later.

ステップS337までの処理により、現フレームnで検出された全ての構造物が同一候補構造物の集合のいずれかに登録される。また、連続するフレームについて上記ステップS331〜S337の処理することにより、結果として、構造物の検出位置が連続するフレームに写った風景の移動方向と同じ方向(本実施形態では左方向)に移動する場合に、フレームに写っている構造物は同一構造物と判定される。 By the processing up to step S337, all the structures detected in the current frame n are registered in one of the sets of the same candidate structures. Further, by processing the continuous frames in steps S331 to S337, as a result, the detection position of the structure moves in the same direction as the movement direction of the landscape reflected in the continuous frames (left direction in the present embodiment). In this case, the structures shown in the frame are determined to be the same structure.

一方、ステップS331の処理において現フレームnから構造物が検出されなかった場合、ステップS332にて、同一構造物判定部14は、前フレームn−1以前に作成された同一候補構造物の確定確認をする。 On the other hand, when the structure is not detected from the current frame n in the process of step S331, in step S332, the same structure determination unit 14 confirms the determination of the same candidate structure created before the previous frame n-1. do.

なお、ステップS331の処理において現フレームnから検出された構造物の大きさ(検出枠の大きさ)が、同一候補構造物の大きさと極端に異なる場合は、現フレームnで検出された構造物を対象外として除去してもよい。例えば、対象外の遠い位置の構造物を検出した検出枠は、検出対象とする道路沿いの構造物の検出枠よりも極端に小さくなる。 If the size of the structure (the size of the detection frame) detected from the current frame n in the process of step S331 is extremely different from the size of the same candidate structure, the structure detected in the current frame n May be excluded from the target. For example, the detection frame for detecting a structure at a distant position that is not the target is extremely smaller than the detection frame for the structure along the road to be detected.

続いて、図14のステップS337の残りの構造物の割り振り処理について説明する。図19は、残りの構造物の割り振り処理の流れを示すフローチャートである。 Subsequently, the allocation process of the remaining structures in step S337 of FIG. 14 will be described. FIG. 19 is a flowchart showing a flow of allocation processing of the remaining structures.

ステップS3371にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の数は、同一候補構造物の集合の数より多いか否か判定する。 In step S3371, the same structure determination unit 14 determines whether or not the number of remaining structures detected in the current frame n is larger than the number of sets of the same candidate structures.

残りの構造物の数が同一候補構造物の集合よりも多い場合、ステップS3372にて、同一候補構造物の集合の数より多い数だけ新しい同一候補構造物の集合を作成し、残りの構造物の右側から順番に新しい同一候補構造物の集合のそれぞれに登録する。 When the number of remaining structures is larger than the set of the same candidate structures, in step S3372, a new set of the same candidate structures is created by a number larger than the number of sets of the same candidate structures, and the right side of the remaining structures is created. Register in each of the new sets of the same candidate structures in order from.

例えば、図20に示すように、同一候補構造物の集合は、前フレームn−1で検出された検出枠D15を含む集合だけであり、現フレームnでは、2つの検出枠D16,D17の構造物が検出された場合を考える。検出枠D16,D17の位置は、いずれも検出枠D15よりも左側であるから、検出枠D15の構造物は、検出枠D16,D17のいずれの構造物と同一か確定できない。そこで、同一構造物判定部14は、現フレームnにおいて最も右側の検出枠D17を新しい同一候補構造物の集合に登録する。 For example, as shown in FIG. 20, the set of the same candidate structures is only the set including the detection frame D15 detected in the previous frame n-1, and in the current frame n, the structures of the two detection frames D16 and D17. Consider the case where an object is detected. Since the positions of the detection frames D16 and D17 are both on the left side of the detection frame D15, it cannot be determined whether the structure of the detection frame D15 is the same as any of the structures of the detection frames D16 and D17. Therefore, the same structure determination unit 14 registers the rightmost detection frame D17 in the current frame n in a new set of the same candidate structures.

ステップS3373にて、同一構造物判定部14は、現フレームnで検出された残りの構造物の数は、同一候補構造物の集合の数より少ないか否か判定する。 In step S3373, the same structure determination unit 14 determines whether or not the number of remaining structures detected in the current frame n is less than the number of sets of the same candidate structures.

残りの構造物の数が同一候補構造物の集合の数よりも少ない場合、ステップS3374にて、残りの構造物の数より多い数だけ、左側の同一候補構造物の集合から順番に、同一候補構造物の集合を同一構造物として確定する。 When the number of remaining structures is less than the number of sets of the same candidate structures, in step S3374, a set of the same candidate structures is set in order from the set of the same candidate structures on the left side by a number larger than the number of the remaining structures. Is determined as the same structure.

例えば、図21に示すように、前フレームn−1で検出された検出枠D18,D19をそれぞれ含む2つの同一候補構造物の集合が存在し、現フレームnでは、検出枠D20の構造物が1つだけ検出された場合を考える。検出枠D18,D19の位置は、いずれも検出枠D20よりも右側であるから、検出枠D20の構造物は、検出枠D18,D19のいずれの構造物と同一か確定できない。そこで、同一構造物判定部14は、前フレームn−1において最も左側の検出枠D18の構造物は現フレームn以降出現しないと推定し、検出枠D18を含む同一候補構造物の集合を同一構造物として確定する。 For example, as shown in FIG. 21, there are two sets of the same candidate structures including the detection frames D18 and D19 detected in the previous frame n-1, and in the current frame n, the structure of the detection frame D20 is present. Consider the case where only one is detected. Since the positions of the detection frames D18 and D19 are both on the right side of the detection frame D20, it cannot be determined whether the structure of the detection frame D20 is the same as any of the structures of the detection frames D18 and D19. Therefore, the same structure determination unit 14 estimates that the structure of the leftmost detection frame D18 in the front frame n-1 does not appear after the current frame n, and sets the same candidate structures including the detection frame D18 to the same structure. Confirm as a thing.

以上のステップS3371〜S3374の処理により、同一候補構造物の集合の数と残りの構造物の数は同数となっている。 By the above steps S3371 to S3374, the number of sets of the same candidate structure and the number of remaining structures are the same.

ステップS3375にて、同一構造物判定部14は、残りの構造物を順番に同一候補構造物の集合に割り当てる。 In step S3375, the same structure determination unit 14 allocates the remaining structures to the set of the same candidate structures in order.

以上の処理により、現フレームnで検出された構造物は、全て同一候補構造物に割り当てられる。 By the above processing, all the structures detected in the current frame n are assigned to the same candidate structure.

なお、図19の処理の開始前に、残りの構造物に、構造物の特徴が一致する同一候補構造物があれば、その残りの構造物を同一候補構造物の集合に登録してもよい。例えば、ディープラーニングを用いると、構造物の特徴により、構造物の写る位置が異なっていても同一と判定できる場合もある。例えば、同一の構造物であれば異常検出部17は同じ異常を検出すると考えられるので、異常検出部17が検出した構造物の異常に関する情報を記憶部12に格納しておき、構造物の異常に関する情報を用いて構造物の同一候補構造物を判定してもよい。また、同一の構造物である場合、構造物検出部13の検出した検出枠の確信度が近くなる傾向があるので、検出枠の確信度を用いて構造物の同一候補構造物を判定してもよい。この前処理で、残りの構造物が全て同一候補構造物に割り当てられた場合は、同一候補構造物の集合の確定確認を行い、図19の処理は行わない。 If the remaining structures have the same candidate structures having the same structure characteristics before the start of the process of FIG. 19, the remaining structures may be registered in the set of the same candidate structures. .. For example, when deep learning is used, it may be possible to determine that the structure is the same even if the position where the structure is reflected is different depending on the characteristics of the structure. For example, if the structure is the same, the abnormality detection unit 17 is considered to detect the same abnormality. Therefore, information on the abnormality of the structure detected by the abnormality detection unit 17 is stored in the storage unit 12, and the abnormality of the structure is stored. The same candidate structure of the structure may be determined by using the information regarding. Further, in the case of the same structure, the certainty of the detection frame detected by the structure detection unit 13 tends to be close to each other. Therefore, the same candidate structure of the structure is determined by using the certainty of the detection frame. May be good. When all the remaining structures are assigned to the same candidate structure in this pretreatment, the confirmation of the set of the same candidate structure is confirmed, and the process of FIG. 19 is not performed.

[複数カメラ間での構造物の同一性判定]
続いて、複数カメラ間での構造物の同一性判定処理について説明する。
[Identity judgment of structures among multiple cameras]
Subsequently, the identity determination process of the structure between the plurality of cameras will be described.

複数カメラ間の構造物の同一性は、撮影時刻と撮影方向に基づいて決めることができる。 The identity of the structure between the plurality of cameras can be determined based on the shooting time and the shooting direction.

カメラ1のフレーム切り出し間隔(距離)をs1とし、カメラ2のフレーム切り出し間隔をs2とする。カメラ1の撮影動画から切り出したフレームには通し番号(0,1,2,・・・)が付与され、カメラ2の撮影動画から切り出したフレームにも通し番号(0,1,2,・・・)が付与される。カメラ1,2のフレーム0番の切り出し時刻が同じだとすると、カメラ1のフレームiと同じ時刻のカメラ2のフレームj0はj0=i*(s1/s2)で求められる。 The frame cutting interval (distance) of the camera 1 is s1, and the frame cutting interval of the camera 2 is s2. A serial number (0, 1, 2, ...) Is assigned to the frame cut out from the video shot by the camera 1, and a serial number (0, 1, 2, ...) Is also given to the frame cut out from the video shot by the camera 2. Is given. Assuming that the cut-out time of the frame 0 of the cameras 1 and 2 is the same, the frame j0 of the camera 2 at the same time as the frame i of the camera 1 is obtained by j0 = i * (s1 / s2).

また、カメラ1は車両の真横を撮影し、カメラ2は車両の斜め前方を撮影しているとする。カメラ1のフレームiに構造物が写っていたとすると、カメラ2では、上記のフレームj0よりもf2フレーム前に構造物が写っている。カメラ1,2間の構造物の撮影タイミングのズレ(f2)は、パン角およびカメラの撮影位置から構造物への距離によって定まる。カメラ1のフレームiに写っていた構造物は、カメラ2のフレームj=i*(s1/s2)+f2に写っていた構造物と同一である。 Further, it is assumed that the camera 1 photographs the side of the vehicle and the camera 2 photographs the oblique front of the vehicle. Assuming that the structure is shown in the frame i of the camera 1, the structure is shown in the camera 2 before the frame j0 described above by the f2 frame. The deviation (f2) of the shooting timing of the structure between the cameras 1 and 2 is determined by the pan angle and the distance from the shooting position of the camera to the structure. The structure shown in the frame i of the camera 1 is the same as the structure shown in the frame j = i * (s1 / s2) + f2 of the camera 2.

このように、複数のカメラ間で同一の構造物が写っているフレームは一意に定められる。しかしながら、カメラを搭載した車両と構造物との間の距離が一定でなかったり、GPS誤差やカメラの時間設定誤差により正確に切り出せなかったり、構造物検出部13の誤検出、検出漏れがあったりするので、複数のカメラ間で対応するフレームは計算で求めた基準位置(フレームj)からずれることがある。 In this way, a frame in which the same structure is captured among a plurality of cameras is uniquely defined. However, the distance between the vehicle equipped with the camera and the structure is not constant, it cannot be cut out accurately due to GPS error or time setting error of the camera, or there is an erroneous detection or detection omission of the structure detection unit 13. Therefore, the corresponding frame between the plurality of cameras may deviate from the reference position (frame j) obtained by the calculation.

そこで、本実施形態の同一構造物判定部15は、誤差、誤検出、および検出漏れを考慮しつつ、複数カメラ間での構造物の同一性を判定する。 Therefore, the same structure determination unit 15 of the present embodiment determines the identity of the structure among a plurality of cameras while considering errors, false positives, and omissions in detection.

図22は、複数カメラで撮影した撮影動画間における同一構造物の判定処理の流れを示すフローチャートである。 FIG. 22 is a flowchart showing a flow of determination processing of the same structure between shot moving images shot by a plurality of cameras.

同一構造物判定部15は、各カメラの撮影動画から切り出した静止画群ごとに、その静止画群に含まれる全ての代表フレームについて、ステップS41〜S43の処理を繰り返す。 The same structure determination unit 15 repeats the processes of steps S41 to S43 for all the representative frames included in the still image group for each still image group cut out from the moving image captured by each camera.

ステップS41にて、同一構造物判定部15は、処理対象の代表フレームに対応する他の静止画群内の代表フレームを抽出する。 In step S41, the same structure determination unit 15 extracts representative frames in other still image groups corresponding to the representative frames to be processed.

例えば、カメラ1の撮影動画から切り出したフレームiが処理対象の代表フレームであるとする。カメラ1〜4の撮影動画からのフレームの切り出し距離とカメラ1〜4の向きを考慮した構造物の撮影タイミングのズレに基づき、カメラ1のフレームiに対応するカメラ2〜4のフレームj,k,l(基準位置)は一意に求まる。 For example, it is assumed that the frame i cut out from the moving image captured by the camera 1 is a representative frame to be processed. Based on the deviation of the shooting timing of the structure considering the cutting distance of the frame from the shot moving images of the cameras 1 to 4 and the orientation of the cameras 1 to 4, the frames j and k of the cameras 2 to 4 corresponding to the frame i of the camera 1 , L (reference position) can be uniquely obtained.

図23に、各静止画群の代表フレームが最も理想的な場合を示す。図23の例では、計算で求められたフレームiに対応するフレームj,k,lが代表フレームである。この場合、同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k,lを抽出する。 FIG. 23 shows a case where the representative frame of each still image group is the most ideal. In the example of FIG. 23, the frames j, k, l corresponding to the frame i obtained by calculation are representative frames. In this case, the same structure determination unit 15 extracts frames j, k, and l from each of the still image groups as candidates corresponding to the frame i.

しかしながら、計算で求められたフレームj,k,lが代表フレームでないことがある。図24の例では、フレームkおよびフレームlは代表フレームではない。そこで、同一構造物判定部15は、基準位置からの前後のズレの許容範囲m1〜m4をカメラ1〜4ごとに設定し、処理対象のフレームiに対応する候補として、許容範囲内の代表フレームを抽出する。図24の例では、カメラ3については基準位置から許容範囲m3内に代表フレームk−3が存在し、カメラ4については基準位置から許容範囲m4内に代表フレームl+2が存在する。同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k−3,l+2を抽出する。 However, the calculated frames j, k, and l may not be representative frames. In the example of FIG. 24, the frame k and the frame l are not representative frames. Therefore, the same structure determination unit 15 sets the permissible range m1 to m4 of the front-back deviation from the reference position for each of the cameras 1 to 4, and as a candidate corresponding to the frame i to be processed, the representative frame within the permissible range. Is extracted. In the example of FIG. 24, the representative frame k-3 exists in the allowable range m3 from the reference position for the camera 3, and the representative frame l + 2 exists in the allowable range m4 from the reference position for the camera 4. The same structure determination unit 15 extracts frames j, k-3, and l + 2 from each of the still image groups as candidates corresponding to the frame i.

また、許容範囲内に複数の代表フレームが存在することもある。同一構造物判定部15は、処理対象のフレームに対応する候補として、許容範囲内の全ての代表フレームを抽出する。図25の例では、カメラ3については許容範囲m3内に、フレームkとフレームk−3の2つの代表フレームが存在し、カメラ4については許容範囲m4内に、フレームlとフレームl+2の2つの代表フレームが存在する。同一構造物判定部15は、フレームiに対応する候補として、静止画群のそれぞれからフレームj,k,k−3,l,l+2を抽出する。 In addition, there may be a plurality of representative frames within the permissible range. The same structure determination unit 15 extracts all representative frames within the permissible range as candidates corresponding to the frames to be processed. In the example of FIG. 25, the camera 3 has two representative frames, the frame k and the frame k-3, within the permissible range m3, and the camera 4 has two representative frames, the frame l and the frame l + 2, within the permissible range m4. There is a representative frame. The same structure determination unit 15 extracts frames j, k, k-3, l, and l + 2 from each of the still image groups as candidates corresponding to the frame i.

許容範囲内に代表フレームが存在しない場合は、基準位置のフレームを抽出しておく。後述の信頼度の計算では、許容範囲内に代表フレームが存在しないカメラについては信頼度を0とする。 If the representative frame does not exist within the permissible range, the frame at the reference position is extracted. In the reliability calculation described later, the reliability is set to 0 for a camera whose representative frame does not exist within the permissible range.

ステップS42にて、同一構造物判定部15は、抽出した代表フレームについて全ての組み合わせを作成する。 In step S42, the same structure determination unit 15 creates all combinations for the extracted representative frames.

図23の例では、フレームiに対応する候補としてフレームj,k,lが抽出されたので、同一構造物の候補としてフレームi,j,k,lの組み合わせを作成する。以下では、同一構造物判定部15の作成したフレームi,j,k,lの組み合わせを(i,j,k,l)のように表す。 In the example of FIG. 23, since the frames j, k, l are extracted as candidates corresponding to the frame i, a combination of the frames i, j, k, l is created as a candidate of the same structure. In the following, the combination of frames i, j, k, l created by the same structure determination unit 15 is represented as (i, j, k, l).

図24の例では、(i,j,k−3,l+2)の組み合わせが得られる。 In the example of FIG. 24, the combination of (i, j, k-3, l + 2) is obtained.

図25の例では、カメラ3についてフレームk,k−3、カメラ4についてフレームl,l+2を抽出したので、(i,j,k−3,l),(i,j,k−3,l+2),(i,j,k,l),(i,j,k,l+2)の組み合わせが得られる。 In the example of FIG. 25, since the frames k and k-3 for the camera 3 and the frames l and l + 2 for the camera 4 were extracted, (i, j, k-3, l), (i, j, k-3, l + 2). ), (I, j, k, l), (i, j, k, l + 2) can be obtained.

ステップS43にて、同一構造物判定部15は、全ての組み合わせについて信頼度を計算する。同一構造物判定部15は、カメラ1〜4ごとに基準となる信頼度d1〜d4を決めておき、基準位置から離れた距離(フレーム数)に応じて信頼度を下げる。具体的には、次式(1)を用いてそれぞれの組み合わせの信頼度を計算する。 In step S43, the same structure determination unit 15 calculates the reliability for all combinations. The same structure determination unit 15 determines the reference reliability d1 to d4 for each of the cameras 1 to 4, and lowers the reliability according to the distance (number of frames) away from the reference position. Specifically, the reliability of each combination is calculated using the following equation (1).

信頼度=d1+d2*x^(v2a)+d3*x^(v3a)+d4*x^(v4a)
xは信頼度を下げるための1より小さい係数であり、例えばx=0.99とする。カメラごとにxを設定してもよい。v2a,v3a,v4aは、基準位置から離れたフレーム数である。基準となる信頼度d1〜d4については、例えば、d1=0.35,d2=0.4,d3=0.45,d4=0.5とする。検出対象の構造物が信号機であれば、上のカメラは信号機の特徴を捉えやすいので、上のカメラの信頼度を高くする。なお、後述のLIDARによる測距で構造物の位置が推定できる場合または予め位置情報がわかっている構造物の場合、その情報に基づいて信頼度d1〜d4を補正してもよい。
Reliability = d1 + d2 * x ^ (v2a) + d3 * x ^ (v3a) + d4 * x ^ (v4a)
x is a coefficient smaller than 1 for lowering the reliability, and for example, x = 0.99. You may set x for each camera. v2a, v3a, v4a are the number of frames away from the reference position. Regarding the reference reliability d1 to d4, for example, d1 = 0.35, d2 = 0.4, d3 = 0.45, d4 = 0.5. If the structure to be detected is a traffic light, the upper camera can easily capture the characteristics of the traffic light, so that the reliability of the upper camera is increased. If the position of the structure can be estimated by distance measurement by LIDAR, which will be described later, or if the position information is known in advance, the reliability d1 to d4 may be corrected based on the information.

許容範囲内に代表フレームが存在しないカメラについては信頼度を0として計算する。例えば、カメラ2では許容範囲内に代表フレームが存在しなかった場合、d2=0として計算する。カメラ1,3,4の信頼度を合計した値が後述の閾値c以上であれば、カメラ2の検知漏れを防ぐことができる。 For cameras whose representative frame does not exist within the permissible range, the reliability is calculated as 0. For example, in the camera 2, if the representative frame does not exist within the permissible range, d2 = 0 is calculated. If the total value of the reliability of the cameras 1, 3 and 4 is equal to or higher than the threshold value c described later, it is possible to prevent the detection omission of the camera 2.

静止画群の全ての代表フレームについて上記のステップS41〜S43の処理を行い、さらに、静止画群のそれぞれについて行う。つまり、カメラ1の代表フレームを基準するだけでなく、カメラ2〜4のそれぞれの代表フレームを基準として組み合わせを作成するとともに、その組み合わせの信頼度を計算する。 The processing of steps S41 to S43 described above is performed on all the representative frames of the still image group, and further, each of the still image groups is performed. That is, not only the representative frame of the camera 1 is used as a reference, but also the combination is created based on the representative frame of each of the cameras 2 to 4, and the reliability of the combination is calculated.

ステップS44にて、同一構造物判定部15は、全ての組み合わせの中から信頼度の高い順に複数のカメラ間の同一構造物を確定する。 In step S44, the same structure determination unit 15 determines the same structure between a plurality of cameras in descending order of reliability from all combinations.

例えば、(i,j,k−3,l),(i,j,k−3,l+2),(i,j,k,l),(i,j,k,l+2)の組み合わせについては、(i,j,k,l)の組み合わせが最も信頼度が高い。したがって、フレームi,フレームj,フレームk,フレームlに写っている構造物を同一構造物として確定する。同一構造物判定部15は、構造物にIDを付与し、そのIDにフレームi,フレームj,フレームk,フレームlを関連付ける。出力部16において構造物のIDが指定されると、そのIDに関連付けられたフレームi,フレームj,フレームk,フレームlが表示される。 For example, for the combination of (i, j, k-3, l), (i, j, k-3, l + 2), (i, j, k, l), (i, j, k, l + 2). The combination of (i, j, k, l) has the highest reliability. Therefore, the structures shown in the frame i, the frame j, the frame k, and the frame l are determined as the same structure. The same structure determination unit 15 assigns an ID to the structure, and associates the frame i, the frame j, the frame k, and the frame l with the ID. When the ID of the structure is specified in the output unit 16, the frame i, the frame j, the frame k, and the frame l associated with the ID are displayed.

同一構造物として確定した組み合わせに含まれるフレームは、他の組み合わせから除外する。除外されたフレームを含む組み合わせについては、除外されたフレームの信頼度を0として、組み合わせの信頼度を再計算する。例えば(i,j,k−3,l+2)の組み合わせの新たな信頼度は0+0+d3*x^3+d4*x^2となる。 Frames included in a combination confirmed as the same structure are excluded from other combinations. For combinations that include excluded frames, the reliability of the combination is recalculated, with the reliability of the excluded frames set to 0. For example, the new reliability of the combination of (i, j, k-3, l + 2) is 0 + 0 + d3 * x ^ 3 + d4 * x ^ 2.

同一構造物判定部15は、閾値c以上の信頼度を持つ組み合わせがなくなるまで、同一構造物の確定を行う。例えば、閾値c=1とする。 The same structure determination unit 15 determines the same structure until there are no combinations having a reliability equal to or higher than the threshold value c. For example, the threshold value c = 1.

なお、同一構造物として確定した組み合わせに含まれるフレームを除外する代わりに、確定したフレームの信頼度を下げてもよい。例えば、確定したフレームの信頼度を1/10とする場合、(i,j,k−3,l+2)の組み合わせの新たな信頼度はd1*1/10+d2*1/10+d3*x^3+d4*x^2となる。 Instead of excluding the frames included in the combination determined as the same structure, the reliability of the determined frames may be lowered. For example, when the reliability of the determined frame is 1/10, the new reliability of the combination of (i, j, k-3, l + 2) is d1 * 1/10 + d2 * 1/10 + d3 * x ^ 3 + d4 * x. It becomes ^ 2.

なお、カメラ間で構造物が写るタイミングのズレ(基準位置を求める際に補正したフレーム数f2)を自動で算出してもよい。例えば、カメラ1,2のフレーム数f2を算出する場合、フレーム数f2を少しずつ変えながら、カメラ1の代表フレームに対応するカメラ2の基準位置を求め、基準位置にカメラ2の代表フレームが最も多くなるようなフレーム数f2を求める。 It should be noted that the deviation in the timing at which the structure is captured between the cameras (the number of frames f2 corrected when the reference position is obtained) may be automatically calculated. For example, when calculating the number of frames f2 of the cameras 1 and 2, the reference position of the camera 2 corresponding to the representative frame of the camera 1 is obtained while changing the number of frames f2 little by little, and the representative frame of the camera 2 is the most at the reference position. Find the number of frames f2 that increases.

[LIDARの利用]
LIDARや簡易なレーザー測距計などを利用すると対象物までの距離を正確に測定できる。
[Use of LIDAR]
The distance to an object can be accurately measured by using LIDAR or a simple laser rangefinder.

図26に、LIDARの測定例を示す。図26のグラフは、横軸は走行距離を表し、縦軸は構造物までの距離を表す。車両にLIDARを載せて撮影方向の物体までの距離を測定すると、図26に示すように、道路沿いの円柱形の構造物までの距離を正確に測定できる。 FIG. 26 shows a measurement example of LIDAR. In the graph of FIG. 26, the horizontal axis represents the mileage and the vertical axis represents the distance to the structure. When the LIDAR is placed on the vehicle and the distance to the object in the shooting direction is measured, the distance to the cylindrical structure along the road can be accurately measured as shown in FIG.

車両に載せたGPSロガーを用いると、GPSロガーで得られた位置情報は車両の位置情報であり、構造物の位置から少し離れている。LIDARで車両から構造物までの距離を測定することで、構造物のより正確な位置情報を得ることができる。 When the GPS logger mounted on the vehicle is used, the position information obtained by the GPS logger is the position information of the vehicle, which is a little away from the position of the structure. By measuring the distance from the vehicle to the structure with LIDAR, more accurate position information of the structure can be obtained.

また、複数カメラ間での構造物の同一性判定処理で用いる構造物の撮影タイミングのズレの算出および補正にLIDARを利用できる。複数カメラ間での構造物の同一性判定処理では、カメラ間の構造物の撮影タイミングのズレを予め設定して対応するフレーム(基準位置)を決定している。図27を参照して具体的に説明する。位置TL0に構造物が存在していると想定すると、パン角がθのカメラは、位置P2で位置TL0の構造物を撮影し、パン角が90度のカメラは、位置P1で位置TL0の構造物を撮影することになると想定される。位置P1と位置P2の間の距離L0に基づいてカメラ間で構造物が撮影されるフレーム数のズレを決定する。 In addition, LIDAR can be used to calculate and correct the deviation of the shooting timing of the structure used in the structure identity determination processing between a plurality of cameras. In the structure identity determination process between a plurality of cameras, a deviation in the shooting timing of the structure between the cameras is set in advance to determine the corresponding frame (reference position). A specific description will be given with reference to FIG. 27. Assuming that a structure exists at position TL0, a camera with a pan angle of θ photographs a structure at position TL0 at position P2, and a camera with a pan angle of 90 degrees has a structure at position TL0 at position P1. It is assumed that you will be shooting things. Based on the distance L0 between the position P1 and the position P2, the deviation of the number of frames in which the structure is photographed is determined between the cameras.

ところが、実際には構造物は位置TLに存在している場合、パン角がθのカメラは、位置P3で位置TLの構造物を撮影することになる。本来ならば、位置P1と位置P3の間の距離L1に基づいてカメラ間で構造物が撮影されるフレーム数のズレを決定しなければならない。 However, when the structure actually exists at the position TL, the camera having the pan angle θ will take a picture of the structure at the position TL at the position P3. Originally, it is necessary to determine the deviation of the number of frames in which the structure is photographed between the cameras based on the distance L1 between the positions P1 and the position P3.

LIDARを用いて位置P1の車両から位置TLの構造物までの位置を正確に測定すると、パン角がθのカメラで構造物を撮影できる位置P3および位置P1と位置P3との間の距離L1が計算でき、距離L1に基づいてカメラ間で構造物が撮影されるフレーム数のズレを正確に決定することができる。構造物の位置を測定できるたびに、撮影位置から構造物までの距離を算出して、基準位置となるフレームを推定してもよい。 When the position from the vehicle at position P1 to the structure at position TL is accurately measured using LIDAR, the position P3 at which the structure can be photographed with a camera having a pan angle of θ and the distance L1 between position P1 and position P3 are obtained. It can be calculated, and the deviation of the number of frames in which the structure is photographed between the cameras can be accurately determined based on the distance L1. Each time the position of the structure can be measured, the distance from the photographing position to the structure may be calculated to estimate the frame as the reference position.

[GPSと撮影動画との間の誤差の修正]
カメラが管理する時間とGPSロガーが管理する時間がズレている場合、撮影動画から切り出したフレームの位置情報に誤差が生じる。本実施形態では、処理開始前に、GPSと撮影動画との間の誤差を修正する。
[Correction of error between GPS and recorded video]
If the time managed by the camera and the time managed by the GPS logger are different, an error will occur in the position information of the frame cut out from the captured moving image. In the present embodiment, the error between the GPS and the captured moving image is corrected before the start of processing.

図28の構造物TLは、位置がわかっているものとする。車両の進行方向に対して90度の角度で設置したカメラで構造物TLを撮影するとともに、GPSロガーで位置情報を取得する。 It is assumed that the position of the structure TL in FIG. 28 is known. The structure TL is photographed with a camera installed at an angle of 90 degrees with respect to the traveling direction of the vehicle, and position information is acquired with a GPS logger.

カメラの撮影動画からフレームを切り出し、構造物TLが中央に写っているフレームを選択する。図28の例では、位置P2で撮影したフレームを選択する。フレームを切り出す時間単位は、撮影動画の時間単位(例えば30fpsであれば1秒あたり30枚)もしくはGPSロガーの計測単位(例えば0.2秒)とする。 A frame is cut out from the moving image taken by the camera, and the frame in which the structure TL is shown in the center is selected. In the example of FIG. 28, the frame taken at the position P2 is selected. The time unit for cutting out the frame is the time unit of the captured moving image (for example, 30 frames per second for 30 fps) or the measurement unit of the GPS logger (for example, 0.2 seconds).

GPSロガーで計測した位置情報のうち、位置のわかっている構造物TLに最も近い位置情報を選択する。図28の例では、位置P2が最も構造物TLに近い。 From the position information measured by the GPS logger, the position information closest to the structure TL whose position is known is selected. In the example of FIG. 28, the position P2 is closest to the structure TL.

選択したフレームの時刻と選択した位置情報の時刻に基づいてGPSと撮影動画の時刻をあわせる。例えば、フレームの時刻が12:00:00:400であり、位置情報の時刻が12:00:00:000であった場合、この時刻の差0.4秒を考慮して処理を行う。 The time of the GPS and the captured video are adjusted based on the time of the selected frame and the time of the selected position information. For example, when the time of the frame is 12:00:00:400 and the time of the position information is 12:00:00: 000, the processing is performed in consideration of the time difference of 0.4 seconds.

以上説明したように、本実施形態によれば、静止画取得部11が、複数の撮影動画のそれぞれから一定距離ごとに静止画(フレーム)を取得し、構造物検出部13が、検出対象の構造物の写ったフレームを検出し、カメラ毎の同一構造物判定部14が、撮影動画ごとに、フレーム間の同一構造物を判定し、カメラ間の同一構造物判定部15が、撮影動画間で同一構造物を判定し、出力部16が、同一の構造物の写った複数の撮影動画から取得したフレームを並べて表示することにより、構造物を効率よく点検可能になる。 As described above, according to the present embodiment, the still image acquisition unit 11 acquires still images (frames) from each of the plurality of captured moving images at regular intervals, and the structure detection unit 13 is the detection target. The same structure determination unit 14 for each camera detects the frame in which the structure is captured, determines the same structure between the frames for each captured moving image, and the same structure determining unit 15 between the cameras determines between the captured moving images. The same structure is determined, and the output unit 16 displays the frames acquired from a plurality of captured moving images of the same structure side by side, so that the structure can be inspected efficiently.

複数のカメラを用いてチルト角やパン角を変えて撮影すると、高い構造物や逆光に対応できる。撮影動画から短い間隔でフレームを切り出すと目的の構造物の切り出し漏れを抑制できる。しかしながら、ある構造物の写っているフレームを見たい場合、膨大な数のフレームから探さなくてはならない。また、パン角を変えると複数の撮影動画間で構造物の写るタイミングが変わるので、複数のカメラで同じ時刻に同一構造物が写らないこともあり、それぞれから同一構造物を探さなくてはならない。本実施形態の構造物検出装置1を用いることで、同一構造物の写っている画像がまとめられ、見たい構造物を地図上で指定するだけで、様々なアングルで撮影した構造物の画像を一覧できる。また、構造物検出装置1は、構造物が最もよく写っているフレームを代表フレームとして並べて表示する。その結果、構造物を効率よく点検可能になる。 Shooting with multiple cameras at different tilt and pan angles can handle tall structures and backlight. By cutting out frames from the recorded video at short intervals, it is possible to suppress omission of cutting out the target structure. However, if you want to see the frame in which a structure is shown, you have to search from a huge number of frames. Also, if you change the pan angle, the timing at which the structure is captured will change between multiple shot videos, so the same structure may not be captured at the same time with multiple cameras, and you must search for the same structure from each. .. By using the structure detection device 1 of the present embodiment, images showing the same structure can be collected, and images of the structure taken from various angles can be obtained by simply specifying the structure to be viewed on the map. Can be listed. Further, the structure detection device 1 displays the frames in which the structure is best captured side by side as representative frames. As a result, the structure can be inspected efficiently.

本実施形態によれば、構造物検出部13が、検出対象の構造物の写ったフレームを検出し、カメラ毎の同一構造物判定部14が、連続するフレームn−1,n間における構造物の検出枠の位置の変化に基づいて、フレームn−1とフレームnに写っている構造物が同一構造物であるか否かを判定することにより、連続するフレーム間で同一の構造物を判定できる。具体的には、フレーム内の風景の移動方向と同じ方向に移動する検出枠の構造物は同一構造物であると判定する。 According to the present embodiment, the structure detection unit 13 detects a frame in which the structure to be detected is captured, and the same structure determination unit 14 for each camera is a structure between continuous frames n-1 and n. By determining whether the frame n-1 and the structure reflected in the frame n are the same structure based on the change in the position of the detection frame of, the same structure is determined between consecutive frames. it can. Specifically, it is determined that the structures of the detection frame that move in the same direction as the movement direction of the landscape in the frame are the same structure.

本実施形態によれば、カメラ間の同一構造物判定部15が、フレームの切り出し距離とカメラ1〜4の向きを考慮した構造物の撮影タイミングのズレに基づき、カメラ1の代表フレームiに対応するカメラ2〜4のフレームj,k,l(基準位置)を推定し、カメラ2〜4について、基準位置から許容範囲内の代表フレームを抽出することにより、パン角の異なる複数の撮影画像間で同一の構造物を判定できる。 According to the present embodiment, the same structure determination unit 15 between the cameras corresponds to the representative frame i of the camera 1 based on the difference in the shooting timing of the structure in consideration of the cutting distance of the frame and the orientations of the cameras 1 to 4. By estimating the frames j, k, l (reference position) of the cameras 2 to 4 and extracting representative frames within the allowable range from the reference positions of the cameras 2 to 4, a plurality of captured images having different pan angles are used. Can determine the same structure with.

1…構造物検出装置
11…静止画取得部
12…記憶部
13…構造物検出部
14…カメラ毎の同一構造物判定部
15…カメラ間の同一構造物判定部
16…出力部
17…異常検出部
101,102…記録媒体
1 ... Structure detection device 11 ... Still image acquisition unit 12 ... Storage unit 13 ... Structure detection unit 14 ... Same structure determination unit for each camera 15 ... Same structure determination unit between cameras 16 ... Output unit 17 ... Abnormality detection Parts 101, 102 ... Recording medium

Claims (6)

複数のカメラで一定距離ごとに撮影した複数の撮影画像群から同一構造物の写っている撮影画像を抽出する同一構造物検出装置であって、
前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定し、前記基準画像から所定の範囲内の撮影画像に写る構造物を同一構造物と判定する同一構造物判定部を備える
ことを特徴とする同一構造物検出装置。
It is the same structure detection device that extracts the captured images of the same structure from a plurality of captured images taken at regular intervals by a plurality of cameras.
The same structure in the plurality of captured image groups based on the difference in the imaging timing of the structure considering the fixed distance and the imaging direction of each of the plurality of cameras or the distance from the imaging position of each of the plurality of cameras to the structure. An identical structure detection device comprising an same structure determination unit that estimates a reference image of an object and determines that a structure captured in a captured image within a predetermined range from the reference image is the same structure.
請求項1に記載の同一構造物検出装置であって、
前記同一構造物判定部は、前記複数の撮影画像群のそれぞれを基準として、前記複数の撮影画像群ごとに他の撮影画像群の前記基準画像を推定する
ことを特徴とする同一構造物検出装置。
The same structure detection device according to claim 1.
The same structure determination unit estimates the reference image of another photographed image group for each of the plurality of photographed image groups with reference to each of the plurality of photographed image groups. ..
請求項1または2に記載の同一構造物検出装置であって、
前記同一構造物判定部は、前記所定の範囲内の前記撮影画像に複数の構造物が写っている場合、前記複数の撮影画像群のそれぞれから前記構造物の写っている前記撮影画像を選択した組み合わせを作成し、前記組み合わせのそれぞれについて、前記基準画像と前記構造物の写っている前記撮影画像との離間度に基づいて信頼度を計算し、前記信頼度の高さに応じて同一構造物の写っている前記撮影画像の組み合わせとする
ことを特徴とする同一構造物検出装置。
The same structure detection device according to claim 1 or 2.
When a plurality of structures are captured in the captured image within the predetermined range, the same structure determination unit selects the captured image in which the structure is captured from each of the plurality of captured image groups. Combinations are created, and for each of the combinations, the reliability is calculated based on the degree of separation between the reference image and the photographed image in which the structure is shown, and the same structure is calculated according to the high degree of reliability. The same structure detection device, characterized in that it is a combination of the photographed images in which the image is captured.
請求項1ないし3のいずれかに記載の同一構造物検出装置であって、
前記同一構造物判定部は、前記基準画像として推定した前記撮影画像に前記構造物の写っている前記撮影画像が最も多くなるように前記撮影タイミングのズレを変化させながら前記撮影タイミングのズレを決定する、もしくは前記構造物の位置を推定できた場合に前記構造物の位置に基づいて前記撮影位置から前記構造物への距離を算出する
ことを特徴とする同一構造物検出装置。
The same structure detection device according to any one of claims 1 to 3.
The same structure determination unit determines the deviation of the photographing timing while changing the deviation of the photographing timing so that the photographed image in which the structure is reflected in the photographed image estimated as the reference image is the largest. Or, when the position of the structure can be estimated, the same structure detection device is characterized in that the distance from the imaging position to the structure is calculated based on the position of the structure.
複数のカメラで一定距離毎に撮影した複数の撮影画像群から目的の構造物を検出する同一構造物検出方法であって、
コンピュータによる、
前記一定距離と前記複数のカメラそれぞれの撮影方向を考慮した前記構造物の撮影タイミングのズレもしくは前記複数のカメラそれぞれの撮影位置から前記構造物への距離に基づいて前記複数の撮影画像群において同一構造物の写る基準画像を推定するステップと、
前記基準画像から所定の範囲内の撮影画像に写る前記構造物を前記同一構造物と判定するステップと、を有する
ことを特徴とする同一構造物検出方法。
It is the same structure detection method that detects a target structure from a plurality of captured image groups taken at regular intervals by a plurality of cameras.
By computer
The same in the plurality of captured image groups based on the difference in the imaging timing of the structure in consideration of the fixed distance and the imaging direction of each of the plurality of cameras, or the distance from the imaging position of each of the plurality of cameras to the structure. Steps to estimate the reference image of the structure and
A method for detecting the same structure, which comprises a step of determining the structure appearing in a captured image within a predetermined range from the reference image as the same structure.
請求項1ないし4のいずれかに記載の同一構造物検出装置の各部としてコンピュータを動作させることを特徴とする同一構造物検出プログラム。 The same structure detection program, characterized in that a computer is operated as each part of the same structure detection device according to any one of claims 1 to 4.
JP2019034038A 2019-02-27 2019-02-27 Same structure detection device, same structure detection method and same structure detection program Active JP7030732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019034038A JP7030732B2 (en) 2019-02-27 2019-02-27 Same structure detection device, same structure detection method and same structure detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019034038A JP7030732B2 (en) 2019-02-27 2019-02-27 Same structure detection device, same structure detection method and same structure detection program

Publications (2)

Publication Number Publication Date
JP2020140335A true JP2020140335A (en) 2020-09-03
JP7030732B2 JP7030732B2 (en) 2022-03-07

Family

ID=72280368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019034038A Active JP7030732B2 (en) 2019-02-27 2019-02-27 Same structure detection device, same structure detection method and same structure detection program

Country Status (1)

Country Link
JP (1) JP7030732B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011201423A (en) * 2010-03-25 2011-10-13 National Traffic Safety & Environment Laboratory Entraining image processing system
JP2016196233A (en) * 2015-04-03 2016-11-24 クラリオン株式会社 Road sign recognizing device for vehicle
JP2018512593A (en) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Object position measurement with in-vehicle camera using vehicle movement data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011201423A (en) * 2010-03-25 2011-10-13 National Traffic Safety & Environment Laboratory Entraining image processing system
JP2016196233A (en) * 2015-04-03 2016-11-24 クラリオン株式会社 Road sign recognizing device for vehicle
JP2018512593A (en) * 2015-04-10 2018-05-17 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Object position measurement with in-vehicle camera using vehicle movement data
US20180181142A1 (en) * 2015-04-10 2018-06-28 Robert Bosch Gmbh Object position measurement with automotive camera using vehicle motion data

Also Published As

Publication number Publication date
JP7030732B2 (en) 2022-03-07

Similar Documents

Publication Publication Date Title
CN107923132B (en) Crack analysis device, crack analysis method, and recording medium
CN103425967B (en) A kind of based on stream of people's monitoring method of pedestrian detection and tracking
JP6494103B2 (en) Train position detection system using image processing and train position and environment change detection system using image processing
US20180060986A1 (en) Information processing device, road structure management system, and road structure management method
JP2018018461A (en) Information processing apparatus, display device, information processing method, and program
CN109635737B (en) Auxiliary vehicle navigation positioning method based on road marking line visual identification
WO2019111976A1 (en) Object detection device, prediction model creation device, object detection method, and program
JP2018021375A (en) Pavement crack analyzer, pavement crack analysis method, and pavement crack analysis program
CN109100363A (en) A kind of differentiating method and system being bonded foreign matter defect and dust
JP6938107B1 (en) How to measure road surface damage
CN113903008A (en) Ramp exit vehicle violation identification method based on deep learning and trajectory tracking
KR20170126148A (en) Device and method for detecting road crack by using unmaned aerial vehicle
CN110728269B (en) High-speed rail contact net support pole number plate identification method based on C2 detection data
CN114972177A (en) Road disease identification management method and device and intelligent terminal
JP7035272B2 (en) Shooting system
CN107506753B (en) Multi-vehicle tracking method for dynamic video monitoring
JP2018017101A (en) Information processing apparatus, information processing method, and program
JP7103975B2 (en) Structure detection device, structure detection method and structure detection program
JPH063145A (en) Tunnel face image recording processing system
JP7030732B2 (en) Same structure detection device, same structure detection method and same structure detection program
JP7065051B2 (en) Same structure detection device, same structure detection method and same structure detection program
JP2009052907A (en) Foreign matter detecting system
CN106340031A (en) Method and device for detecting moving object
JP6998710B2 (en) Inspection work support device, distance marker information management method, and program
CN111768373A (en) Hierarchical pavement marking damage detection method based on deep learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7030732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250