JP2013167494A - Structure inspection support method, structure inspection support program, and structure inspection support apparatus - Google Patents

Structure inspection support method, structure inspection support program, and structure inspection support apparatus Download PDF

Info

Publication number
JP2013167494A
JP2013167494A JP2012029966A JP2012029966A JP2013167494A JP 2013167494 A JP2013167494 A JP 2013167494A JP 2012029966 A JP2012029966 A JP 2012029966A JP 2012029966 A JP2012029966 A JP 2012029966A JP 2013167494 A JP2013167494 A JP 2013167494A
Authority
JP
Japan
Prior art keywords
image
inspection
screen
estimated
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012029966A
Other languages
Japanese (ja)
Other versions
JP5803723B2 (en
Inventor
Hiroki Hatayama
比路樹 畑山
Hiroaki Yokoyama
裕朗 横山
Masahiro Kawasaki
正博 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012029966A priority Critical patent/JP5803723B2/en
Publication of JP2013167494A publication Critical patent/JP2013167494A/en
Application granted granted Critical
Publication of JP5803723B2 publication Critical patent/JP5803723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a burden of an inspector when inspecting a road surface or the like of a bridge on site.SOLUTION: A moving image recording unit 22 acquires a moving image obtained by photographing an estimated damaged part that is estimated to be damaged in a road surface of a bridge and a vicinity of the estimated damaged part, with a photographing device 10. An inspection object image identification unit 24 accepts, from a consultant terminal 30, an instruction for identifying one frame (an inspection object image) in which the estimated damaged part is photographed in the plurality of frames included in the moving image. A mark image extraction unit 26 extracts a frame (a mark image) whose difference from the inspection object image is large, from frames photographed before/after a time when photographing the identified inspection object image. An inspection screen generating unit 28 generates an inspection screen for simultaneously displaying the mark image and the inspection object image.

Description

本件は、構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置に関する。   This case relates to a structure inspection support method, a structure inspection support program, and a structure inspection support apparatus.

従来、橋梁などの構造物に関する点検業務を円滑に行うための点検支援システムが提案されている。この点検支援システムは、構造物の簡易点検、詳細点検などの種々のレベルの点検業務のうち、簡易点検を支援することを主な目的としている。具体的には、従来の点検支援システムは、撮影者(自治体職員など)が構造物を撮影した静止画や動画を、点検者(建設コンサルタントなど)にチェック依頼する処理を簡易かつ円滑に行うことを支援している。   Conventionally, an inspection support system has been proposed for smoothly performing inspection work on structures such as bridges. The main purpose of this inspection support system is to support simple inspections among various levels of inspection work such as simple inspections and detailed inspections of structures. Specifically, a conventional inspection support system performs a simple and smooth process of requesting an inspector (such as a construction consultant) to check a still image or a video of a structure photographed by a photographer (such as a local government employee). Is supporting.

点検対象の構造物としては、例えば橋梁の路面がある。1つの自治体が点検すべき橋梁の数は非常に多いことから、橋梁の路面の点検において上述した点検支援システムを用いることは効率的である。   As a structure to be inspected, for example, there is a road surface of a bridge. Since the number of bridges to be inspected by one local government is very large, it is efficient to use the above-described inspection support system in inspecting the road surface of the bridge.

なお、特許文献1には、路面を走行しながらカメラで撮影した画像から路面の損傷部分を自動的に検出する路面損傷状態点検方法について開示されている。   Patent Document 1 discloses a road surface damage state inspection method that automatically detects a damaged portion of a road surface from an image taken by a camera while traveling on the road surface.

特開2005−43324号公報JP 2005-43324 A

上述した点検支援システムを用いる場合、点検者は、まず、撮影された画像(静止画又は動画)を端末上で参照し、当該画像に基づいて、現地で詳細に点検すべき損傷部分を特定する。そして、点検者は、持ち運び可能な端末上で予め特定しておいた点検すべき損傷部分を確認しながら、現地において路面の詳細点検を行う。   When using the above-described inspection support system, an inspector first refers to a captured image (still image or moving image) on the terminal, and specifies a damaged portion to be inspected in detail on the basis of the image. . Then, the inspector performs a detailed inspection of the road surface on the site while confirming the damaged portion to be inspected specified in advance on a portable terminal.

この場合、橋梁の路面は同色で凹凸の少ない広い平面であるため、現地において損傷部分を見つけ出すのに長時間を要する場合がある。   In this case, since the road surface of the bridge is a wide flat surface with the same color and less irregularities, it may take a long time to find the damaged part on site.

なお、上記特許文献1では、自動的に検出した損傷部分に最も近接するキロポストを特定し、当該キロポストの情報を損傷部分の画像とともにメモリに格納する点について記載されている。しかしながら、キロポストは、高速道路などには設置されていることが多いものの、一般道や橋梁などに設置されていることは少ないため、橋梁の路面の損傷部分の目印としてキロポストを用いることは難しい。   Note that the above-mentioned Patent Document 1 describes that the kilometer post that is closest to the automatically detected damaged portion is specified, and information about the kilopost is stored in the memory together with the image of the damaged portion. However, although the kilometer post is often installed on an expressway or the like, it is rarely installed on a general road or a bridge, so that it is difficult to use the kilometer post as a mark of a damaged portion of the road surface of the bridge.

なお、橋梁以外の構造物(河川の土手(法面)、崖崩れ防止用の擁壁、団地やビルなどの建物の壁面)についても、同色で凹凸の少ない(又は同一パターンの)広い平面であるとともに、キロポストのような目印が設置されているケースは稀である。   Structures other than bridges (river banks (slopes), retaining walls for preventing landslides, walls of buildings such as housing estates and buildings) are the same color and have a wide surface with few irregularities (or the same pattern). In addition, there are rare cases where landmarks such as kiloposts are installed.

そこで本件は上記の課題に鑑みてなされたものであり、現地における構造物点検の負担を軽減することが可能な構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置を提供することを目的とする。   Therefore, the present case has been made in view of the above problems, and to provide a structure inspection support method, a structure inspection support program, and a structure inspection support device that can reduce the burden of on-site structure inspection. With the goal.

本発明者らは、橋梁の路面などの構造物を撮影する撮影者の行動を分析した結果、撮影者は、構造物の損傷部分の位置を後で特定しやすくするために、損傷部分を肉眼で発見した後、損傷部分の撮影前後において損傷部分の周囲を撮影することが多いことに気づいた。本明細書に記載の構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置は、このような新規知見に基づくものである。   As a result of analyzing the behavior of a photographer who photographs a structure such as a road surface of a bridge, the present inventors have found that the photographed person visually recognizes the damaged portion in order to easily identify the position of the damaged portion of the structure. After discovering in, I noticed that I often shoot around the damaged part before and after shooting the damaged part. The structure inspection support method, the structure inspection support program, and the structure inspection support apparatus described in this specification are based on such new knowledge.

本明細書に記載の構造物点検支援方法は、点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得工程と、前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け工程と、前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出工程と、前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成工程と、をコンピュータが実行する構造物点検支援方法である。   In the structure inspection support method described in this specification, an image group obtained by photographing an estimated damaged portion estimated to be damaged in a structure to be inspected and the vicinity of the estimated damaged portion with an imaging device. An acquisition step of acquiring, an accepting step of accepting an instruction specifying one image from which the estimated damaged portion is imaged among a plurality of images included in the image group, and a time at which the specified image was captured An extraction step for extracting at least one image having a difference from the specified image greater than or equal to a predetermined value from images taken before and after, and a screen for simultaneously displaying the extracted image and the specified image A structure inspection support method executed by a computer.

本明細書に記載の構造物点検支援プログラムは、点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得し、前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付け、前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出し、前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する、処理をコンピュータに実行させる構造物点検支援プログラムである。   The structure inspection support program described in this specification includes an image group obtained by photographing an estimated damaged portion estimated to be damaged in a structure to be inspected and the vicinity of the estimated damaged portion with a photographing apparatus. An image acquired and received before and after the time at which the specified image was captured, receiving an instruction specifying one image from which the estimated damaged portion was captured among a plurality of images included in the image group To extract at least one image whose difference from the specified image is greater than or equal to a predetermined value, and generate a screen on which the extracted image and the specified image are displayed simultaneously. This is a structure inspection support program.

本明細書に記載の構造物点検支援装置は、点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得部と、前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け部と、前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出部と、前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成部と、を備えている。   The structure inspection support device described in this specification is a group of images obtained by photographing an estimated damage portion estimated to be damaged in a structure to be inspected and the vicinity of the estimated damage portion with a photographing device. An acquisition unit for acquiring, an accepting unit for receiving an instruction specifying one image from which the estimated damaged portion is captured among a plurality of images included in the image group, and a time at which the specified image is captured An extraction unit that extracts at least one image having a difference from the specified image greater than or equal to a predetermined value from images taken before and after, and a screen that simultaneously displays the extracted image and the specified image And a generating unit for generating.

本明細書に記載の構造物点検支援方法、構造物点検支援プログラム及び構造物点検支援装置は、現地における構造物点検の負担を軽減することができるという効果を奏する。   The structure inspection support method, the structure inspection support program, and the structure inspection support device described in this specification have an effect of reducing the burden of structure inspection on site.

一実施形態に係る橋梁点検支援システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the bridge inspection support system concerning one embodiment. サーバのハードウェア構成図である。It is a hardware block diagram of a server. 橋梁点検支援システムの機能ブロック図である。It is a functional block diagram of a bridge inspection support system. 地図DBを示す図である。It is a figure which shows map DB. 動画定義DBを示す図である。It is a figure which shows animation definition DB. 図6(a)は、動画DBを示す図であり、図6(b)は、点検対象画像位置テーブルを示す図であり、図6(c)は、設定DBを示す図である。FIG. 6A is a diagram illustrating the moving image DB, FIG. 6B is a diagram illustrating the inspection target image position table, and FIG. 6C is a diagram illustrating the setting DB. マーク画像DBを示す図である。It is a figure which shows mark image DB. 動画記録部の処理を示すフローチャートである。It is a flowchart which shows the process of a moving image recording part. 橋梁名入力画面の一例を示す図である。It is a figure which shows an example of a bridge name input screen. 点検対象画像特定処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows an inspection object image specific process. 点検対象画像特定処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows an inspection object image specific process. 一覧画面の一例を示す図である。It is a figure which shows an example of a list screen. 動画ファイル再生画面の一例を示す図である。It is a figure which shows an example of a moving image file reproduction | regeneration screen. マーク画像抽出部の処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the process of a mark image extraction part. マーク画像抽出部の処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the process of a mark image extraction part. 点検用画面表示処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the screen display process for an inspection. 点検用画面表示処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the screen display process for inspection. 点検用画面表示処理を示すフローチャート(その3)である。It is a flowchart (the 3) which shows the screen display process for inspection. 点検用画面を示す図(その1)である。It is a figure (the 1) which shows the screen for an inspection. 点検用画面を示す図(その2)である。It is a figure (the 2) which shows the screen for an inspection. 図19,図20の画面とともに表示可能な画面の一例を示す図である。It is a figure which shows an example of the screen which can be displayed with the screen of FIG. 19, FIG.

以下、一実施形態について、図1〜図21に基づいて詳細に説明する。図1には、構造物点検支援装置としてのサーバ20を含む、橋梁点検支援システム100が模式的に示されている。   Hereinafter, an embodiment will be described in detail with reference to FIGS. FIG. 1 schematically shows a bridge inspection support system 100 including a server 20 as a structure inspection support apparatus.

図1に示すように、橋梁点検支援システム100は、撮影装置10と、サーバ20と、コンサルタント端末30と、点検用端末50と、を備える。橋梁点検支援システム100の各装置(10,20,30,50)は、インターネットなどのネットワーク40に接続されている。   As shown in FIG. 1, the bridge inspection support system 100 includes an imaging device 10, a server 20, a consultant terminal 30, and an inspection terminal 50. Each device (10, 20, 30, 50) of the bridge inspection support system 100 is connected to a network 40 such as the Internet.

撮影装置10は、例えば、動画を撮影(例えば、ハイビジョン撮影)することが可能なビデオカメラである。なお、動画は、複数のフレーム(画像)の集合体(画像群)であるといえる。撮影装置10は、図3に示すように、撮影部14と、表示部15と、入力部16と、位置取得部12と、角速度センサ17と、通信部18と、を有する。   The imaging device 10 is, for example, a video camera capable of shooting a moving image (for example, high-definition shooting). A moving image can be said to be an aggregate (image group) of a plurality of frames (images). As illustrated in FIG. 3, the imaging device 10 includes an imaging unit 14, a display unit 15, an input unit 16, a position acquisition unit 12, an angular velocity sensor 17, and a communication unit 18.

撮影部14は、撮影者(例えば、自治体の職員)が入力部16を介して入力した指示に基づいて、点検対象の橋梁の路面を動画にて撮影する。表示部15は、液晶ディスプレイ等を含み、各種メニュー画面を表示したり、撮影中の動画(ファインダー画像)を表示したりする。入力部16は、タッチパネルや各種ボタン含み、撮影者からの指示を受け付け、当該指示を撮影部14や通信部18に対して送信する。位置取得部12は、GPSモジュールを含み、撮影装置10の位置に関する情報(緯度、経度)を取得する。角速度センサ17は、ジャイロセンサ等を含み、撮影装置10の姿勢に関する情報(ジャイロ値)を取得する。   The photographing unit 14 photographs a road surface of a bridge to be inspected with a moving image based on an instruction input by a photographer (for example, a local government staff) via the input unit 16. The display unit 15 includes a liquid crystal display and the like, displays various menu screens, and displays a moving image (finder image) being shot. The input unit 16 includes a touch panel and various buttons, receives an instruction from the photographer, and transmits the instruction to the imaging unit 14 and the communication unit 18. The position acquisition unit 12 includes a GPS module, and acquires information (latitude and longitude) related to the position of the imaging device 10. The angular velocity sensor 17 includes a gyro sensor and the like, and acquires information (gyro value) related to the posture of the photographing apparatus 10.

通信部18は、撮影部14で撮影された動画ファイルや、撮影部14が動画を撮影した際のタイムスタンプ、位置取得部12が取得した位置情報、角速度センサ17が取得した姿勢に関する情報などを含む情報(以下、「撮影情報」と呼ぶ)をサーバ20に対して送信する。   The communication unit 18 includes a moving image file shot by the shooting unit 14, a time stamp when the shooting unit 14 shots a moving image, position information acquired by the position acquisition unit 12, information on an attitude acquired by the angular velocity sensor 17, and the like. Information including the information (hereinafter referred to as “photographing information”) is transmitted to the server 20.

ここで、本実施形態では、撮影装置10を用いて撮影する撮影者は、予め定められているマニュアルに基づいて、以下のような条件で動画の撮影を行うものとする。
(1) 撮影対象の構造物は、橋梁の路面である。
(2) 撮影者は、肉眼で路面の状態を確認しながら路面の撮影を行う。
(3) 撮影者は、損傷していると推定される部分(推定損傷部分)を肉眼で確認した場合には、当該推定損傷部分を撮影する前後において、推定損傷部分の周辺を撮影する。この場合、撮影者は、推定損傷部分の周辺にある目印となりうるもの(標識や、特徴的な形状、色彩等を有する物体、汚れなど)を撮影するように留意する。
Here, in this embodiment, a photographer who photographs using the photographing apparatus 10 captures a moving image under the following conditions based on a predetermined manual.
(1) The structure to be imaged is the road surface of a bridge.
(2) The photographer takes a picture of the road surface while checking the condition of the road surface with the naked eye.
(3) When the photographer confirms a portion that is estimated to be damaged (estimated damage portion) with the naked eye, the photographer photographs the periphery of the estimated damage portion before and after photographing the estimated damage portion. In this case, the photographer takes care to photograph a mark (a sign, an object having a characteristic shape, a color, dirt, etc.) that can be a mark around the estimated damaged portion.

図1に戻り、サーバ20は、撮影装置10から送信されてきた動画ファイルや撮影情報を受信して保持する。また、サーバ20は、コンサルタント端末30からの指示に応じて、撮影装置10によって撮影された動画を表示(再生)するための画面(動画ファイル再生画面(図13参照))を生成し、コンサルタント端末30に対して送信する。また、コンサルタント端末30からの指示に応じて、路面の推定損傷部分を現地において点検する際に用いる画面(点検用画面(図19、図20参照))を生成し、点検用端末50に対して送信する。   Returning to FIG. 1, the server 20 receives and holds the moving image file and the shooting information transmitted from the shooting device 10. Further, the server 20 generates a screen (moving image file playback screen (see FIG. 13)) for displaying (playing back) the moving image shot by the shooting device 10 in accordance with an instruction from the consultant terminal 30, and the consultant terminal To 30. Further, in response to an instruction from the consultant terminal 30, a screen (inspection screen (see FIGS. 19 and 20)) used when inspecting the estimated damaged portion of the road surface is generated on the site, and the inspection terminal 50 is inspected. Send.

図2には、サーバ20のハードウェア構成が示されている。図2に示すように、サーバ20は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えており、サーバ20の構成各部は、バス98に接続されている。サーバ20では、ROM92あるいはHDD96に格納されているプログラム(構造物点検支援プログラム)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(構造物点検支援プログラム)をCPU90が実行することにより、図3の各部の機能が実現される。すなわち、サーバ20では、CPU90により、取得部としての動画記録部22と、受け付け部としての点検対象画像特定部24と、抽出部としてのマーク画像抽出部26と、生成部及び判定部としての点検用画面生成部28と、の機能が実現されている。なお、図3には、HDD96等に格納されている地図DB61、動画定義DB62、動画DB63、点検対象画像位置テーブル64、設定DB65、及びマーク画像DB66についても図示されている。   FIG. 2 shows the hardware configuration of the server 20. As shown in FIG. 2, the server 20 includes a CPU 90, a ROM 92, a RAM 94, a storage unit (here, HDD (Hard Disk Drive)) 96, a network interface 97, a portable storage medium drive 99, and the like. Each component of the 20 components is connected to a bus 98. In the server 20, the CPU 90 executes a program (structure inspection support program) stored in the ROM 92 or the HDD 96 or a program (structure inspection support program) read from the portable storage medium 91 by the portable storage medium drive 99. By doing so, the function of each part of FIG. 3 is implement | achieved. That is, in the server 20, the CPU 90 causes the moving image recording unit 22 as an acquisition unit, the inspection target image specifying unit 24 as a reception unit, the mark image extraction unit 26 as an extraction unit, and the inspection as a generation unit and a determination unit. The function of the screen generation unit 28 is realized. 3 also illustrates the map DB 61, the moving image definition DB 62, the moving image DB 63, the inspection target image position table 64, the setting DB 65, and the mark image DB 66 stored in the HDD 96 or the like.

動画記録部22は、地図DB61を参照し、通信部18から受信した動画ファイルと撮影情報とを用いて、動画定義DB62及び動画DB63に対する記録を行う。ここで、地図DB61は、地名の位置を管理するデータベースであり、図4に示すように、「地名」を「緯度」及び「経度」にて定義している。   The moving image recording unit 22 refers to the map DB 61 and performs recording on the moving image definition DB 62 and the moving image DB 63 using the moving image file and the shooting information received from the communication unit 18. Here, the map DB 61 is a database for managing the location of place names, and as shown in FIG. 4, “place names” are defined by “latitude” and “longitude”.

動画定義DB62は、撮影装置10で撮影された動画ファイルの情報を管理するデータベースであり、図5に示すように、「橋梁名」、「撮影日」、「撮影場所(撮影開始地点)」、「動画ID」、「撮影開始位置(緯度、経度)」、「撮影終了位置(緯度、経度)」、「撮影方位」の各フィールドを有する。「撮影日」、「撮影開始位置(緯度、経度)」、「撮影終了位置(緯度、経度)」の各フィールドには、撮影装置10から取得した撮影情報に含まれる各情報が格納される。「撮影場所(撮影開始地点)」のフィールドには、「撮影開始位置(緯度、経度)」のフィールドに記録された緯度、経度に対応する位置が地図DB61から抽出されて格納される。「橋梁名」のフィールドには、撮影装置10の入力部16から入力された橋梁名が格納される。「動画ID」のフィールドには、動画記録部22が動画ファイルに対して割り振る一意の文字列が格納される。「撮影方位」のフィールドには、「撮影開始位置(緯度、経度)」、「撮影終了位置(緯度、経度)」の各フィールドの内容から導き出される撮影方位(16方位を番号で示したもの)が格納される。   The moving image definition DB 62 is a database for managing information of moving image files captured by the image capturing device 10, and as shown in FIG. 5, “bridge name”, “shooting date”, “shooting location (shooting start point)”, Each field includes “moving image ID”, “shooting start position (latitude, longitude)”, “shooting end position (latitude, longitude)”, and “shooting direction”. In the fields of “shooting date”, “shooting start position (latitude, longitude)”, and “shooting end position (latitude, longitude)”, each piece of information included in the shooting information acquired from the shooting apparatus 10 is stored. In the “shooting location (shooting start point)” field, the position corresponding to the latitude and longitude recorded in the “shooting start position (latitude, longitude)” field is extracted from the map DB 61 and stored. In the “bridge name” field, the bridge name input from the input unit 16 of the photographing apparatus 10 is stored. In the “moving image ID” field, a unique character string assigned to the moving image file by the moving image recording unit 22 is stored. In the “shooting direction” field, a shooting direction derived from the contents of each field of “shooting start position (latitude, longitude)” and “shooting end position (latitude, longitude)” (16 directions indicated by numbers) Is stored.

動画DB63は、図6(a)に示すように、「動画ID」と、「動画ファイル」の各フィールドを有する。   As shown in FIG. 6A, the moving image DB 63 has fields of “moving image ID” and “moving image file”.

図3に戻り、点検対象画像特定部24は、コンサルタント端末30からの要求に応じて、動画DB63に格納されている動画を再生するための画面(動画ファイル再生画面(図13))を生成し、当該画面をコンサルタント端末30に対して送信する。また、点検対象画像特定部24は、建設コンサルタントが動画ファイル再生画面上で特定した画像(推定損傷部分が撮影されたフレーム)を点検対象画像として特定する。また、点検対象画像特定部24は、特定結果を点検対象画像位置テーブル64に格納する。ここで、点検対象画像位置テーブル64は、図6(b)に示すように、「動画ID」と、「タイムスタンプ」と、「画像スナップショット」の各フィールドを有している。「画像スナップショット」のフィールドには、点検対象画像として特定されたフレームのスナップショットが格納され、「タイムスタンプ」のフィールドには、スナップショットに対応するタイムスタンプ(動画の撮影開始時刻を0m.00s.00とする時刻)が格納される。   Returning to FIG. 3, in response to a request from the consultant terminal 30, the inspection target image specifying unit 24 generates a screen (moving image file reproduction screen (FIG. 13)) for reproducing the moving image stored in the moving image DB 63. The screen is transmitted to the consultant terminal 30. Further, the inspection target image specifying unit 24 specifies an image (a frame in which the estimated damaged portion is photographed) specified by the construction consultant on the moving image file reproduction screen as the inspection target image. The inspection target image specifying unit 24 stores the specification result in the inspection target image position table 64. Here, as shown in FIG. 6B, the inspection target image position table 64 has fields of “moving image ID”, “time stamp”, and “image snapshot”. The “image snapshot” field stores a snapshot of the frame specified as the inspection target image, and the “time stamp” field stores a time stamp corresponding to the snapshot (0 m. (Time set to 00s.00) is stored.

図3に戻り、マーク画像抽出部26は、点検用端末50からの指示に応じて、点検対象画像位置テーブル64及び設定DB65を参照して、動画ファイルからマーク画像を抽出し、当該マーク画像の情報をマーク画像DB66に格納する。ここで、マーク画像とは、上述したマニュアル(3)に基づいて撮影された推定損傷部分の周辺の画像(目印となりうるもの(標識や、特徴的な形状や色彩を有する物体、汚れなど)を撮影した画像)であるものとする。なお、マーク画像抽出部26によるマーク画像の抽出方法については、後述する。   Returning to FIG. 3, the mark image extraction unit 26 extracts the mark image from the moving image file with reference to the inspection object image position table 64 and the setting DB 65 according to the instruction from the inspection terminal 50, and extracts the mark image. Information is stored in the mark image DB 66. Here, the mark image refers to an image around the estimated damaged part (based on a sign, an object having a characteristic shape or color, dirt, etc.) taken based on the manual (3) described above. Image). The mark image extraction method performed by the mark image extraction unit 26 will be described later.

設定DB65は、図6(c)に示すように、マーク画像を抽出する範囲を設定した設定値(図6(c)では2分)を定義する。マーク画像DB66は、図7に示すように、「動画ID」、「タイムスタンプ」、「マーク画像ファイル」、「撮影位置(緯度、経度)」、「奥行き情報」、「左右情報」の各フィールドを有する。「タイムスタンプ」のフィールドには、点検対象画像のタイムスタンプが格納され、「マーク画像ファイル」のフィールドには、マーク画像のスナップショットが格納される。また、「撮影位置(緯度、経度)」は、マーク画像の撮影位置が入力され、「奥行き情報」及び「左右情報」のフィールドには、点検対象画像の撮影位置に対するマーク画像の撮影位置の情報が格納される。   As shown in FIG. 6C, the setting DB 65 defines a setting value (2 minutes in FIG. 6C) that sets a range for extracting the mark image. As shown in FIG. 7, the mark image DB 66 includes fields of “moving image ID”, “time stamp”, “mark image file”, “shooting position (latitude, longitude)”, “depth information”, and “left / right information”. Have The “time stamp” field stores the time stamp of the inspection target image, and the “mark image file” field stores a snapshot of the mark image. In addition, in “shooting position (latitude, longitude)”, the shooting position of the mark image is input, and in the “depth information” and “left / right information” fields, information on the shooting position of the mark image with respect to the shooting position of the inspection target image is input. Is stored.

図3に戻り、点検用画面生成部28は、点検用端末50からの要求に応じて、マーク画像DB66に基づいて点検用画面(図19等)を生成する。また、点検用画面生成部28は、生成した点検用画面を、点検用端末50に対して送信する。   Returning to FIG. 3, the inspection screen generator 28 generates an inspection screen (FIG. 19, etc.) based on the mark image DB 66 in response to a request from the inspection terminal 50. In addition, the inspection screen generation unit 28 transmits the generated inspection screen to the inspection terminal 50.

コンサルタント端末30は、橋梁の路面を画面上で点検するユーザ(建設コンサルタントなど)が利用する端末である。このコンサルタント端末30は、サーバ20から提供される画面(動画ファイル再生画面(図13))を表示する。なお、建設コンサルタントは、コンサルタント端末30に表示される動画ファイル再生画面(図13)を用いて、撮影された動画ファイルを閲覧し、橋梁の路面の点検を行う。また、建設コンサルタントは、必要に応じて、路面のうち損傷していると推定される部分(推定損傷部分)が撮影されているフレーム(点検対象画像)を特定するための操作をコンサルタント端末30を用いて行う。   The consultant terminal 30 is a terminal used by a user (such as a construction consultant) who checks the road surface of the bridge on the screen. The consultant terminal 30 displays a screen (moving image file reproduction screen (FIG. 13)) provided from the server 20. The construction consultant uses the moving image file reproduction screen (FIG. 13) displayed on the consultant terminal 30 to view the captured moving image file and inspect the road surface of the bridge. In addition, the construction consultant operates the consultant terminal 30 as necessary to specify a frame (inspection target image) in which a portion (estimated damage portion) estimated to be damaged on the road surface is captured. To do.

コンサルタント端末30は、図3に示すように、制御部32と、表示部34と、入力部36とを備える。制御部32は、CPU,ROM,RAM等を有し、コンサルタント端末30の各部を統括的に制御するとともに、サーバ20との間におけるデータ等(画面や指示)の送受信を行う。表示部34は、液晶ディスプレイ等を含み、制御部32の指示の下、サーバ20から受信した画面を表示する。入力部36は、建設コンサルタントから入力された指示を受け付け、制御部32を介して、サーバ20に対して送信する。   As shown in FIG. 3, the consultant terminal 30 includes a control unit 32, a display unit 34, and an input unit 36. The control unit 32 includes a CPU, a ROM, a RAM, and the like, and comprehensively controls each unit of the consultant terminal 30 and transmits and receives data and the like (screen and instructions) to and from the server 20. The display unit 34 includes a liquid crystal display and the like, and displays a screen received from the server 20 under the instruction of the control unit 32. The input unit 36 receives an instruction input from the construction consultant and transmits it to the server 20 via the control unit 32.

点検用端末50は、橋梁の路面を現地で詳細確認する現地点検者(例えば、建設コンサルタント)が利用する持ち運び可能な端末である。この点検用端末50は、サーバ20から提供される画面(点検用画面(図19等))を表示する。点検用端末50は、図3に示すように、制御部52と、表示部54と、入力部56と、位置取得部58と、を備える。制御部52は、CPU,ROM,RAM等を有し、点検用端末50の各部を統括的に制御するとともに、サーバ20との間におけるデータ等(画面や指示)の送受信を行う。表示部54は、液晶ディスプレイ等を含み、制御部52の指示の下、サーバ20から受信した画面を表示する。入力部56は、現地点検者から入力された指示を受け付け、制御部52を介して、サーバ20に対して送信する。位置取得部58は、GPSモジュールを含み、点検用端末50の位置に関する情報(緯度、経度)を取得する。なお、現地点検者は、点検用画面を見ながら、推定損傷部分を見つけ出し、当該推定損傷部分の詳細点検を行う。なお、点検用端末50とコンサルタント端末30を利用する人物は、異なる人物であってもよいし、同一の人物であってもよい。   The inspection terminal 50 is a portable terminal used by a local inspector (for example, a construction consultant) who confirms the road surface of the bridge in detail on site. The inspection terminal 50 displays a screen (inspection screen (FIG. 19)) provided from the server 20. As shown in FIG. 3, the inspection terminal 50 includes a control unit 52, a display unit 54, an input unit 56, and a position acquisition unit 58. The control unit 52 includes a CPU, a ROM, a RAM, and the like, and comprehensively controls each unit of the inspection terminal 50 and transmits and receives data and the like (screen and instructions) to and from the server 20. The display unit 54 includes a liquid crystal display or the like, and displays a screen received from the server 20 under the instruction of the control unit 52. The input unit 56 receives an instruction input from the field inspector and transmits the instruction to the server 20 via the control unit 52. The position acquisition unit 58 includes a GPS module, and acquires information (latitude, longitude) regarding the position of the inspection terminal 50. The field inspector finds the estimated damaged portion while looking at the inspection screen, and performs a detailed inspection of the estimated damaged portion. The person using the inspection terminal 50 and the consultant terminal 30 may be different persons or the same person.

次に、本実施形態における処理((A)動画記録部22の処理、(B)点検対象画像特定処理、(C)マーク画像抽出部26の処理、(D)点検用画面表示処理)について、詳細に説明する。   Next, regarding the processing in this embodiment ((A) processing of the moving image recording unit 22, (B) inspection target image specifying processing, (C) processing of the mark image extraction unit 26, (D) inspection screen display processing) This will be described in detail.

(A)動画記録部22の処理
まず、動画記録部22の処理について、図8のフローチャートに沿って詳細に説明する。
(A) Processing of Moving Image Recording Unit 22 First, the processing of the moving image recording unit 22 will be described in detail along the flowchart of FIG.

図8には、サーバ20の動画記録部22の処理がフローチャートにて示されている。図8の処理は、例えば、撮影者が、撮影装置10による橋梁の路面の撮影が完了し、撮影した動画をサーバ20に対して送信する旨の指示を入力部16を介して入力した時点から開始されるものとする。   FIG. 8 shows a process of the moving image recording unit 22 of the server 20 in a flowchart. The processing in FIG. 8 is performed, for example, from the time when the photographer completes photographing of the road surface of the bridge by the photographing device 10 and inputs an instruction to transmit the photographed moving image to the server 20 via the input unit 16. Shall be started.

図8の処理では、まず、ステップS10において、動画記録部22が、橋梁名入力画面を、撮影装置10の表示部15上に表示する。橋梁名入力画面としては、例えば、図9に示すような画面であるものとする。なお、図9の橋梁名入力画面では、撮影者が、都道府県名で絞込んだ後に、橋梁名を選択し、選択後に送信ボタンを押すことで、橋梁名をサーバ20に対して送信することができるようになっている。この場合、サーバ20は、都道府県名と橋梁名とを格納する橋梁名DBを保持しておき、当該橋梁名DBを用いて図9の画面を生成する。ただし、これに限らず、動画記録部22は、橋梁名を直接入力可能な橋梁名入力画面などを、表示部15上に表示するようにしても良い。   In the process of FIG. 8, first, in step S <b> 10, the moving image recording unit 22 displays a bridge name input screen on the display unit 15 of the photographing apparatus 10. The bridge name input screen is, for example, a screen as shown in FIG. In the bridge name input screen of FIG. 9, the photographer selects the bridge name after narrowing down by the prefecture name, and transmits the bridge name to the server 20 by pressing the send button after selection. Can be done. In this case, the server 20 stores a bridge name DB that stores the prefecture name and the bridge name, and generates the screen of FIG. 9 using the bridge name DB. However, the present invention is not limited to this, and the moving image recording unit 22 may display a bridge name input screen or the like on which the bridge name can be directly input on the display unit 15.

次いで、ステップS12では、動画記録部22が、橋梁名を受け付けるまで待機する。すなわち、動画記録部22は、撮影装置10において撮影者が橋梁名を入力した段階(図9の送信ボタンを押した段階)で、ステップS12の判断が肯定されて、ステップS14に移行する。   Next, in step S12, the moving image recording unit 22 stands by until a bridge name is received. In other words, the moving image recording unit 22 makes a positive determination in step S12 when the photographer inputs a bridge name in the photographing apparatus 10 (step in which the transmission button in FIG. 9 is pressed), and proceeds to step S14.

ステップS14に移行すると、動画記録部22は、受け付けた橋梁名を、動画定義DB62(図4)に記録する。次いで、ステップS16では、動画記録部22が、撮影装置10から動画ファイルのダウンロードを実行する。なお、動画ファイルのダウンロードの際には、動画記録部22は、動画ファイルの撮影情報(撮影日情報や撮影開始位置、撮影終了位置、撮影装置10の向きに関する情報(ジャイロ値)などの情報)も取得する。   If transfering it to step S14, the moving image recording part 22 will record the accepted bridge name in moving image definition DB62 (FIG. 4). Next, in step S <b> 16, the moving image recording unit 22 downloads a moving image file from the photographing apparatus 10. At the time of downloading a moving image file, the moving image recording unit 22 captures shooting information of the moving image file (information such as shooting date information, shooting start position, shooting end position, and information about the direction of the shooting apparatus 10 (gyro value)). Also get.

ステップS16における動画ファイルのダウンロードが完了すると、次のステップS18において、動画記録部22が、動画ファイルに動画IDを割り振り、ファイル名と対応づけて動画DB63に記録する。次いで、ステップS20では、動画記録部22が、動画IDを動画定義DB62に記録する。   When the downloading of the moving image file in step S16 is completed, in the next step S18, the moving image recording unit 22 allocates a moving image ID to the moving image file and records it in the moving image DB 63 in association with the file name. Next, in step S <b> 20, the moving image recording unit 22 records the moving image ID in the moving image definition DB 62.

次いで、ステップS22では、動画記録部22が、撮影情報から撮影日情報を取得し、動画定義DB62に記録する。次いで、ステップS24では、動画記録部22が、撮影情報から撮影開始位置(緯度、経度)情報を取得し、動画定義DB62の「撮影開始位置」のフィールドに記録する。次いで、ステップS26では、動画記録部22が、撮影情報から撮影終了位置(緯度、経度)情報を取得し、動画定義DB62の「撮影終了位置」のフィールドに記録する。   Next, in step S <b> 22, the moving image recording unit 22 acquires shooting date information from the shooting information and records it in the moving image definition DB 62. Next, in step S <b> 24, the moving image recording unit 22 acquires shooting start position (latitude, longitude) information from the shooting information and records it in the “shooting start position” field of the moving image definition DB 62. Next, in step S <b> 26, the moving image recording unit 22 acquires shooting end position (latitude, longitude) information from the shooting information and records it in the “shooting end position” field of the moving image definition DB 62.

次いで、ステップS28では、動画記録部22が、撮影開始位置(緯度、経度)に基づいて、地図DB61から撮影開始位置の地名を取得し、動画定義DB62の「撮影場所(撮影開始地点)」のフィールドに記録する。   Next, in step S28, the moving picture recording unit 22 acquires the place name of the shooting start position from the map DB 61 based on the shooting start position (latitude, longitude), and sets the “shooting place (shooting start point)” in the moving picture definition DB 62. Record in the field.

次いで、ステップS30では、動画記録部22が、動画定義DB62の撮影開始位置と撮影終了位置を用いて方位を算出し、動画定義DB62の「撮影方位」のフィールドに記録する。   Next, in step S <b> 30, the moving image recording unit 22 calculates the azimuth using the shooting start position and the shooting end position of the moving image definition DB 62 and records them in the “shooting direction” field of the moving image definition DB 62.

以上の処理により、動画記録部22は、取得した動画ファイルの情報を、動画定義DB62と動画DB63のそれぞれに記録することができる。   Through the above processing, the moving image recording unit 22 can record the acquired moving image file information in each of the moving image definition DB 62 and the moving image DB 63.

なお、上述した説明では、動画ファイルや撮影情報を、撮影装置10からサーバ20に対してネットワーク40を介して送信する場合について説明したが、これに限られるものではない。例えば、撮影装置10で撮影された動画ファイルや撮影情報を記憶媒体(光ディスクやフラッシュメモリなど)を介して、サーバ20に対して受け渡すようにしてもよい。なお、記憶媒体を用いる場合には、撮影装置10は、通信部18を有していなくてもよい(ネットワーク40に接続されていなくてもよい)。また、撮影装置10とPCなどの端末とを接続し、当該端末からサーバ20に対して動画ファイルや撮影情報を送信するようにしてもよい。   In the above description, the case where the moving image file and the shooting information are transmitted from the shooting device 10 to the server 20 via the network 40 has been described. However, the present invention is not limited to this. For example, a moving image file or shooting information shot by the shooting device 10 may be delivered to the server 20 via a storage medium (such as an optical disk or a flash memory). In the case of using a storage medium, the photographing apparatus 10 may not have the communication unit 18 (not necessarily connected to the network 40). Alternatively, the photographing apparatus 10 may be connected to a terminal such as a PC, and a moving image file or photographing information may be transmitted from the terminal to the server 20.

(B)点検対象画像特定処理
次に、点検対象画像特定処理について、図10、図11のフローチャートに沿って詳細に説明する。なお、この点検対象画像特定処理は、サーバ20の点検対象画像特定部24と、コンサルタント端末30の制御部32の同時並行処理により実現される。なお、図10、図11では、サーバ20の処理タイミングとコンサルタント端末30の処理タイミングを考慮して、各処理及び判断を配置している。
(B) Inspection target image specifying process Next, the inspection target image specifying process will be described in detail with reference to the flowcharts of FIGS. 10 and 11. The inspection target image specifying process is realized by simultaneous parallel processing of the inspection target image specifying unit 24 of the server 20 and the control unit 32 of the consultant terminal 30. In FIG. 10 and FIG. 11, each processing and determination are arranged in consideration of the processing timing of the server 20 and the processing timing of the consultant terminal 30.

図10の処理は、コンサルタント端末30を利用する建設コンサルタントが、入力部36を用いて動画再生要求を出した段階から開始される。図10の処理では、まず、ステップS200において、制御部32が、動画再生要求をサーバ20(点検対象画像特定部24)に対して送信する。   The process of FIG. 10 is started from a stage where a construction consultant using the consultant terminal 30 issues a moving image reproduction request using the input unit 36. In the process of FIG. 10, first, in step S200, the control unit 32 transmits a moving image reproduction request to the server 20 (inspection target image specifying unit 24).

これに対し、サーバ20側では、点検対象画像特定部24が、ステップS100において、動画再生要求をコンサルタント端末30から受信するまで待機している。したがって、点検対象画像特定部24は、制御部32においてステップS200の処理が行われた段階でステップS102に移行する。そして、点検対象画像特定部24は、ステップS102において、動画定義DB62から登録されている全ての橋梁名を取得して一覧画面を作成し、コンサルタント端末30に対して送信する。なお、一覧画面は、一例として、図12のような画面であるものとする。図12の一覧画面には、橋梁名の一覧と、橋梁名の一覧の中から建設コンサルタントが1つの橋梁名を選択した後に押す送信ボタンと、が含まれているものとする。   On the other hand, on the server 20 side, the inspection target image specifying unit 24 stands by until a moving image reproduction request is received from the consultant terminal 30 in step S100. Therefore, the inspection target image specifying unit 24 proceeds to step S102 when the control unit 32 performs the process of step S200. Then, in step S102, the inspection target image specifying unit 24 acquires all bridge names registered from the moving image definition DB 62, creates a list screen, and transmits the list screen to the consultant terminal 30. Note that the list screen is, for example, a screen as shown in FIG. The list screen in FIG. 12 includes a list of bridge names and a transmission button that is pressed after the construction consultant selects one bridge name from the list of bridge names.

一方、コンサルタント端末30側では、制御部32が、ステップS200以降、ステップS202においてサーバ20から一覧画面を受信するまで待機している。したがって、制御部32は、サーバ20側でステップS102の処理が行われた段階でステップS204に移行することになる。ステップS204に移行すると、制御部32は、サーバ20から受信した一覧画面(図12)を表示部34に表示する。   On the other hand, on the consultant terminal 30 side, the control unit 32 stands by after step S200 until a list screen is received from the server 20 in step S202. Therefore, the control part 32 will transfer to step S204 in the stage in which the process of step S102 was performed by the server 20 side. In step S204, the control unit 32 displays the list screen (FIG. 12) received from the server 20 on the display unit 34.

次いで、ステップS206では、制御部32は、橋梁名の選択を受け付けるまで待機する。制御部32は、建設コンサルタントが図12の一覧画面上で橋梁名を選択し、送信ボタンを押した段階で、ステップS208に移行する。ステップS208に移行すると、制御部32は、建設コンサルタントによって選択された橋梁名をサーバ20に送信する。   Next, in step S206, the control unit 32 stands by until accepting selection of a bridge name. When the construction consultant selects a bridge name on the list screen of FIG. 12 and presses the transmission button, the control unit 32 proceeds to step S208. If transfering it to step S208, the control part 32 will transmit the bridge name selected by the construction consultant to the server 20.

これに対し、サーバ20側では、点検対象画像特定部24が、ステップS102以降、ステップS104において橋梁名を受信するまで待機している。したがって、点検対象画像特定部24は、コンサルタント端末30側でステップS208の処理が行われた後に、ステップS106に移行する。   On the other hand, on the server 20 side, the inspection target image specifying unit 24 stands by after step S102 until it receives a bridge name in step S104. Therefore, the inspection target image specifying unit 24 proceeds to step S106 after the process of step S208 is performed on the consultant terminal 30 side.

ステップS106に移行すると、点検対象画像特定部24は、動画定義DB62から、受信した橋梁名に対応する動画IDを取得する。次いで、ステップS108では、動画IDに対応する動画ファイルを、動画DB63から取得して、動画ファイル再生画面(図13参照)を生成し、コンサルタント端末30に対して送信する。なお、図13の動画ファイル再生画面は、再生中画面と、当該再生中画面を操作するための操作ボタン(再生ボタン、一時停止ボタン、早送りボタン、巻き戻しボタンなど)と、「点検要画面」を特定するチェックボタンと、を含んでいる。その後は、図11のステップS110に移行する。   If transfering it to step S106, the inspection object image specific | specification part 24 will acquire moving image ID corresponding to the received bridge name from moving image definition DB62. Next, in step S108, a moving image file corresponding to the moving image ID is acquired from the moving image DB 63, and a moving image file reproduction screen (see FIG. 13) is generated and transmitted to the consultant terminal 30. Note that the movie file playback screen in FIG. 13 includes a playback screen, operation buttons for operating the playback screen (play button, pause button, fast forward button, rewind button, etc.), and “check required screen”. And a check button for specifying. Thereafter, the process proceeds to step S110 in FIG.

一方、コンサルタント端末30側では、制御部32が、ステップS208以降、ステップS210において、動画ファイル再生画面をサーバ20から受信するまで待機している。したがって、制御部32は、ステップS108においてサーバ20側から動画ファイル再生画面が送信されてきた段階で、ステップS212に移行することになる。   On the other hand, on the consultant terminal 30 side, the control unit 32 stands by after step S208 until the moving image file reproduction screen is received from the server 20 in step S210. Therefore, the control unit 32 proceeds to step S212 when the moving image file playback screen is transmitted from the server 20 side in step S108.

ステップS212に移行すると、制御部32は、図13に示す動画ファイル再生画面を表示部34に表示する。   In step S212, the control unit 32 displays the moving image file reproduction screen shown in FIG.

次いで、制御部32は、図11のステップS214において、動画ファイル再生画面にて、動画ファイルを再生する。   Next, the control unit 32 reproduces the moving image file on the moving image file reproduction screen in step S214 of FIG.

次いで、ステップS216では、制御部32が、建設コンサルタントによって、チェックボタンが押されたか否かを判断する。ここで、建設コンサルタントは、動画再生中に損傷していると推定される部分(推定損傷部分)が撮影されている画像(フレーム)を発見したときに、動画の再生を一時停止し、図13に示すチェックボタンを押す(推定損傷部分の画像を特定した指示を出す)。このように、建設コンサルタントによって推定損傷部分の画像を特定した指示が出された場合には、ステップS216の判断が肯定されて、ステップS218に移行する。一方、ステップS216の判断が否定された場合には、ステップS224に移行する。   Next, in step S216, the control unit 32 determines whether or not the check button has been pressed by the construction consultant. Here, when the construction consultant finds an image (frame) in which a portion (estimated damaged portion) that is estimated to be damaged during the reproduction of the moving image is detected, the reproduction of the moving image is temporarily stopped. The check button shown in Fig. 2 is pressed (an instruction specifying the image of the estimated damaged portion is issued). As described above, when the construction consultant gives an instruction specifying the image of the estimated damaged portion, the determination in step S216 is affirmed, and the process proceeds to step S218. On the other hand, if the determination in step S216 is negative, the process proceeds to step S224.

ステップS216の判断が肯定されてステップS218に移行した場合には、制御部32は、再生中の画像イメージ(スナップショット)を取得する。次いで、ステップS220では、制御部32が、取得したスナップショットの再生開始からのタイムスタンプを取得する。次いで、ステップS222では、制御部32が、画像イメージ(スナップショット)とタイムスタンプをサーバ20に対して送信する。その後は、ステップS224に移行し、建設コンサルタントが再生を終了するまで、ステップS216〜S224の処理・判断を繰り返す。   When the determination in step S216 is affirmed and the process proceeds to step S218, the control unit 32 acquires an image image (snapshot) being reproduced. Next, in step S220, the control unit 32 acquires a time stamp from the start of reproduction of the acquired snapshot. Next, in step S <b> 222, the control unit 32 transmits an image image (snapshot) and a time stamp to the server 20. Thereafter, the process proceeds to step S224, and the processes and determinations in steps S216 to S224 are repeated until the construction consultant finishes the regeneration.

これに対し、サーバ20側では、点検対象画像特定部24が、ステップS108以降、ステップS110において、タイムスタンプとスナップショットを受信するまで待機している。したがって、点検対象画像特定部24は、コンサルタント端末30側にてステップS222の処理が行われた後、ステップS112に移行することになる。   On the other hand, on the server 20 side, the inspection target image specifying unit 24 stands by after step S108 until receiving a time stamp and a snapshot in step S110. Therefore, the inspection target image specifying unit 24 proceeds to step S112 after the process of step S222 is performed on the consultant terminal 30 side.

ステップS112に移行すると、点検対象画像特定部24は、受信したタイムスタンプを、点検対象画像位置テーブル64(図6(b))に記録する。その後は、点検対象画像特定部24は、ステップS114において、コンサルタント端末30から再生終了情報を受信したか否かを判断するが、ここでの判断が否定された場合には、ステップS110に戻る。   In step S112, the inspection target image specifying unit 24 records the received time stamp in the inspection target image position table 64 (FIG. 6B). Thereafter, the inspection target image specifying unit 24 determines whether or not the reproduction end information has been received from the consultant terminal 30 in step S114. If the determination here is negative, the process returns to step S110.

一方、コンサルタント端末30において、建設コンサルタントが再生終了の旨を入力すると、ステップS224の判断が肯定され、制御部32は、ステップS226に移行する。そして、制御部32は、ステップS226において、再生終了情報をサーバ20に対して送信し、図10、図11の全処理を終了する。一方、ステップS226の処理が実行されると、サーバ20(点検対象画像特定部24)側では、ステップS114の判断が肯定され、図10、図11の全処理を終了する。   On the other hand, when the construction consultant inputs the end of regeneration at the consultant terminal 30, the determination in step S224 is affirmed, and the control unit 32 proceeds to step S226. Then, in step S226, the control unit 32 transmits the reproduction end information to the server 20, and ends all the processes in FIGS. On the other hand, when the process of step S226 is executed, the determination of step S114 is affirmed on the server 20 (inspection target image specifying unit 24) side, and all the processes of FIGS. 10 and 11 are terminated.

以上のような処理が行われることで、建設コンサルタントが動画を用いて簡易点検した結果(建設コンサルタントによって特定された推定損傷部分の画像(点検対象画像)の情報)を、点検対象画像位置テーブル64に記録することができる。   As a result of the processing as described above, the result of the simple inspection by the construction consultant using the moving image (information on the image of the estimated damaged part (inspection target image) specified by the construction consultant) is used as the inspection target image position table 64. Can be recorded.

(C)マーク画像抽出部26の処理
次に、マーク画像抽出部26の処理について、図14,図15のフローチャートに沿って詳細に説明する。
(C) Processing of Mark Image Extraction Unit 26 Next, the processing of the mark image extraction unit 26 will be described in detail with reference to the flowcharts of FIGS.

図14の処理では、まず、ステップS300において、マーク画像抽出部26が、マーク画像作成対象となる橋梁名を受け付けるまで待機する。この場合、マーク画像抽出部26は、現地点検者が点検用端末50の入力部56から現地点検をしようとしている橋梁名を入力した時点で、ステップS302に移行する。   In the process of FIG. 14, first, in step S300, the mark image extraction unit 26 waits until it receives a bridge name that is a mark image creation target. In this case, the mark image extraction unit 26 proceeds to step S302 when the site inspector inputs the name of the bridge to be inspected from the input unit 56 of the inspection terminal 50.

次いで、ステップS302では、マーク画像抽出部26が、受け付けた橋梁名に対応する動画IDを、動画定義DB62から取得する。次いで、ステップS304では、マーク画像抽出部26が、取得した動画IDに対応する点検対象画像位置テーブル64を参照し、動画IDに対応するすべてのタイムスタンプを取得する。   Next, in step S302, the mark image extraction unit 26 acquires the moving image ID corresponding to the accepted bridge name from the moving image definition DB 62. Next, in step S304, the mark image extraction unit 26 refers to the inspection target image position table 64 corresponding to the acquired moving image ID, and acquires all time stamps corresponding to the moving image ID.

次いで、ステップS306では、マーク画像抽出部26が、設定DB65から設定値を取得する。本実施形態では、一例として、図6(c)に示すように、設定値は2分となっている。   Next, in step S <b> 306, the mark image extraction unit 26 acquires a setting value from the setting DB 65. In this embodiment, as an example, as shown in FIG. 6C, the set value is 2 minutes.

次いで、ステップS308では、マーク画像抽出部26が、前述したステップS112において点検対象画像特定部24が点検対象画像位置テーブル64に記録したタイムスタンプに対応する画像(点検対象画像)を起点画像とし、前後所定値(2分)分の画像を取得する。次いで、ステップS310では、マーク画像抽出部26が、起点画像と、所定値(2分)内にある前後の画像(フレーム)とを比較して、大きく異なる(差異が所定以上である)フレームのスナップショットを複数取得する。   Next, in step S308, the mark image extraction unit 26 uses an image (inspection target image) corresponding to the time stamp recorded in the inspection target image position table 64 by the inspection target image specifying unit 24 in step S112 described above as a starting image. Images for a predetermined value (2 minutes) before and after are acquired. Next, in step S310, the mark image extraction unit 26 compares the starting image with the preceding and succeeding images (frames) within a predetermined value (2 minutes), and greatly differs (the difference is greater than or equal to a predetermined value). Take multiple snapshots.

次いで、ステップS312では、マーク画像抽出部26が、ステップS310で取得された複数のスナップショットの中から、焦点距離が前後と同じである(ズームが固定されている)スナップショットを起点画像の前後において1つずつ(計2つ)取得する。なお、このステップS312で取得される2つのスナップショットが、マーク画像となる。なお、マーク画像としては、推定損傷部分の周辺にある目印となりうるもの(標識や、特徴的な形状や色彩を有する物体、汚れなど)が撮影された画像(例えば、図19の点検用画面内に表示されている直後のマーク画像(左)や直前のマーク画像(右))が取得されると考えられる。   Next, in step S312, the mark image extraction unit 26 selects a snapshot having the same focal length as that before and after (the zoom is fixed) from the plurality of snapshots acquired in step S310. 1 (2 in total). Note that the two snapshots acquired in step S312 are mark images. In addition, as the mark image, an image (for example, in the inspection screen of FIG. 19) in which an object that can be a mark around the estimated damaged portion (a sign, an object having a characteristic shape or color, dirt, etc.) is photographed. It is considered that the mark image immediately after (left) and the previous mark image (right) displayed on the screen are acquired.

次いで、ステップS314では、マーク画像抽出部26が、取得したスナップショットと起点画像のタイムスタンプとをマーク画像DB66の「マーク画像ファイル」と「タイムスタンプ」のフィールドに記録する。ステップS314の後は、図15のステップS320に移行する。   Next, in step S314, the mark image extraction unit 26 records the acquired snapshot and the time stamp of the origin image in the “mark image file” and “time stamp” fields of the mark image DB 66. After step S314, the process proceeds to step S320 in FIG.

図15のステップS320に移行すると、マーク画像抽出部26は、ステップS312で取得したマーク画像のタイムスタンプと起点画像のタイムスタンプとを比較し、マーク画像のタイムスタンプが起点画像のタイムスタンプよりも前であれば、マーク画像DB66の「奥行き情報」のフィールドに「手前」を記録する。また、マーク画像のタイムスタンプが起点画像のタイムスタンプよりも後であれば、マーク画像DB66の「奥行き情報」のフィールドに「奥」を記録する。   When the process proceeds to step S320 in FIG. 15, the mark image extraction unit 26 compares the time stamp of the mark image acquired in step S312 with the time stamp of the starting image, and the time stamp of the mark image is greater than the time stamp of the starting image. If it is before, “near” is recorded in the “depth information” field of the mark image DB 66. If the time stamp of the mark image is later than the time stamp of the starting image, “back” is recorded in the “depth information” field of the mark image DB 66.

次いで、ステップS322では、マーク画像抽出部26が、撮影情報から各マーク画像を撮影したときの撮影装置10の位置情報を取得し、マーク画像DB66に記録する。次いで、ステップS324では、マーク画像抽出部26が、撮影情報から、各マーク画像を撮影したときの撮影装置10のジャイロ値を取得する。   Next, in step S322, the mark image extraction unit 26 acquires position information of the photographing apparatus 10 when each mark image is photographed from the photographing information, and records it in the mark image DB 66. Next, in step S324, the mark image extraction unit 26 acquires the gyro value of the photographing apparatus 10 when each mark image is photographed from the photographing information.

次いで、ステップS326では、マーク画像抽出部26が、ジャイロ値により、起点画像(点検対象画像)の左右どちらにマーク画像が位置するかを判別する。次いで、ステップS328では、マーク画像抽出部26が、マーク画像DB66の「左右情報」のフィールドに、ステップS326の判別結果(「左」又は「右」)を記録する。   Next, in step S326, the mark image extraction unit 26 determines whether the mark image is located on the left or right of the starting point image (inspection target image) based on the gyro value. Next, in step S328, the mark image extraction unit 26 records the determination result (“left” or “right”) in step S326 in the “left / right information” field of the mark image DB 66.

次いで、ステップS330では、マーク画像抽出部26が次のタイムスタンプがあるか否か(ステップS304で取得したタイムスタンプのうちステップS306〜S328の処理を行っていないタイムスタンプがあるか否か)を判断する。ここでの判断が肯定された場合には、ステップS306に戻る。一方、ステップS330の判断が否定された場合には、図14、図15の全処理を終了する。   Next, in step S330, the mark image extraction unit 26 determines whether or not there is a next time stamp (whether or not there is a time stamp that has not been processed in steps S306 to S328 among the time stamps acquired in step S304). to decide. When judgment here is affirmed, it returns to step S306. On the other hand, if the determination in step S330 is negative, all the processes in FIGS. 14 and 15 are terminated.

以上のような処理を行うことで、各起点画像に対応するマーク画像の情報を、マーク画像DB66に記録することができる。   By performing the processing as described above, information on the mark image corresponding to each starting image can be recorded in the mark image DB 66.

なお、図14、図15の処理は、バッチ処理にて行うことも可能である。この場合、バッチ処理とバッチ処理との間に点検対象画像位置テーブル64に新規登録されたすべての画像スナップショット(点検対象画像)に対して図14,図15の処理を行うようにすればよい。   14 and 15 can also be performed by batch processing. In this case, the processes shown in FIGS. 14 and 15 may be performed on all image snapshots (inspection target images) newly registered in the inspection target image position table 64 between the batch processes. .

(D)点検用画面表示処理
次に、点検用画面表示処理について、図16〜図18のフローチャートに沿って詳細に説明する。なお、図16〜図18では、サーバ20の処理タイミングと点検用端末50の処理タイミングを考慮して、各処理及び判断を配置している。図16〜図18の処理は、現地点検者が現地に到着して点検を開始する際に、現地点検者が点検用端末50の入力部56から点検用画面の表示要求を入力した段階から開始される。
(D) Screen display process for inspection Next, the screen display process for inspection will be described in detail with reference to the flowcharts of FIGS. In FIG. 16 to FIG. 18, each process and determination are arranged in consideration of the process timing of the server 20 and the process timing of the inspection terminal 50. The process of FIGS. 16 to 18 is started from the stage where the local inspector inputs an inspection screen display request from the input unit 56 of the inspection terminal 50 when the local inspector arrives at the site and starts the inspection. Is done.

まず、図16のステップS500において、制御部52が、点検用画面の表示要求をサーバ20に対して送信する。これに対し、点検用画面生成部28では、ステップS400において、点検用画面の表示要求を受信するまで待機しているので、点検用端末50においてステップS500の処理が行われた段階で、ステップS402に移行する。   First, in step S500 in FIG. 16, the control unit 52 transmits a display request for an inspection screen to the server 20. On the other hand, since the inspection screen generation unit 28 is on standby until a display request for the inspection screen is received in step S400, step S402 is performed when the processing of step S500 is performed in the inspection terminal 50. Migrate to

ステップS402に移行すると、点検用画面生成部28は、動画定義DB62から橋梁名を取得し、一覧画面(図12と同様)を作成し、点検用端末50に送信する。一方、点検用端末50の制御部52では、ステップS502において、一覧画面を受信するまで待機している。したがって、点検用画面生成部28においてステップS402の処理が行われた段階で、制御部52は、ステップS504に移行する。ステップS504に移行すると、制御部52は、一覧画面を表示部54に表示する。   In step S402, the inspection screen generation unit 28 acquires the bridge name from the moving image definition DB 62, creates a list screen (similar to FIG. 12), and transmits it to the inspection terminal 50. On the other hand, the control unit 52 of the inspection terminal 50 stands by until a list screen is received in step S502. Therefore, the control unit 52 proceeds to step S504 when the process of step S402 is performed in the inspection screen generation unit 28. In step S504, the control unit 52 displays a list screen on the display unit 54.

次いで、ステップS506では、制御部52は、位置取得部58より点検用端末50(すなわち、現地点検者)の位置情報を取得する。次いで、ステップS508では、制御部52が橋梁名の選択を受け付けるまで待機する。ここで、現地点検者が一覧画面の中から点検しようとしている橋梁名を選択すると、制御部52は、ステップS510に移行する。そして、ステップS510では、制御部52は、橋梁名と位置情報とをサーバ20に対して送信する。その後は、図17のステップS512に移行する。   Next, in step S <b> 506, the control unit 52 acquires position information of the inspection terminal 50 (that is, a local inspector) from the position acquisition unit 58. Next, in step S508, the control unit 52 waits until accepting selection of a bridge name. Here, when the local inspector selects a bridge name to be inspected from the list screen, the control unit 52 proceeds to step S510. In step S <b> 510, the control unit 52 transmits the bridge name and position information to the server 20. Thereafter, the process proceeds to step S512 in FIG.

これに対し、サーバ20側では、点検用画面生成部28がステップS402以降、ステップS404において、橋梁名と位置情報とを受信するまで待機している。したがって、点検用端末50側においてステップS510の処理が行われた段階で、点検用画面生成部28は、ステップS406に移行することになる。   On the other hand, on the server 20 side, the inspection screen generation unit 28 stands by after step S402 until it receives the bridge name and position information in step S404. Accordingly, at the stage where the process of step S510 is performed on the inspection terminal 50 side, the inspection screen generation unit 28 proceeds to step S406.

ステップS406に移行すると、点検用画面生成部28は、動画定義DB62から、受信した橋梁名に対応する動画IDと、撮影開始位置、撮影終了位置を取得する。次いで、ステップS410では、点検用画面生成部28が、点検対象画像位置テーブル64より、動画IDに対応するタイムスタンプをすべて取得する。次いで、ステップS412では、点検用画面生成部28が、受信した位置情報が、撮影開始位置と、撮影終了位置のどちらに近いかを判定する。その後は、図17のステップS414に移行する。   In step S406, the inspection screen generation unit 28 acquires the moving image ID, the shooting start position, and the shooting end position corresponding to the received bridge name from the moving image definition DB 62. Next, in step S410, the inspection screen generation unit 28 acquires all the time stamps corresponding to the moving image ID from the inspection target image position table 64. Next, in step S412, the inspection screen generation unit 28 determines whether the received position information is closer to the imaging start position or the imaging end position. Thereafter, the process proceeds to step S414 in FIG.

図17のステップS414に移行すると、点検用画面生成部28は、ステップS412の判定の結果、受信した位置情報が撮影終了位置に近いか否かを判断する。すなわち、ステップS412では、点検用画面生成部28は、撮影装置10が撮影した方向と同一の方向から、現地点検者が路面を点検するのか、あるいは、撮影装置10が撮影した方向とは逆の方向から、現地点検者が路面を点検するのかを判断する。ここでの判断が否定された場合、すなわち、橋梁の路面を点検する方向が撮影方向と同一である場合には、ステップS416に移行する。ステップS416に移行すると、点検用画面生成部28は、ステップS410で取得したすべてのタイムスタンプのうち、最も早いタイムスタンプに相当するスナップショットを点検対象画像位置テーブル64から取得する。次いで、ステップS418では、点検用画面生成部28がステップS410で取得したタイムスタンプに対応するマーク画像をマーク画像DB66から取得する。その後は、点検用画面生成部28は、ステップS430において、点検用画面に、所定の奥行き図を表示し、マーク画像位置、点検画像位置、現在位置情報を埋め込み、ステップS432において、取得したスナップショット、マーク画像を点検用画面の所定位置にはめ込む。これらステップS430,S432の結果、図19に示すような点検用画面が生成されることになる。   When the process proceeds to step S414 in FIG. 17, the inspection screen generation unit 28 determines whether the received position information is close to the photographing end position as a result of the determination in step S412. That is, in step S412, the inspection screen generation unit 28 checks whether the field inspector is inspecting the road surface from the same direction as the direction photographed by the photographing apparatus 10, or is opposite to the direction photographed by the photographing apparatus 10. From the direction, determine whether the local inspector will inspect the road surface. If the determination here is negative, that is, if the direction of inspecting the road surface of the bridge is the same as the shooting direction, the process proceeds to step S416. In step S416, the inspection screen generation unit 28 acquires, from the inspection target image position table 64, a snapshot corresponding to the earliest time stamp among all the time stamps acquired in step S410. In step S418, the inspection screen generation unit 28 acquires a mark image corresponding to the time stamp acquired in step S410 from the mark image DB 66. Thereafter, in step S430, the inspection screen generation unit 28 displays a predetermined depth diagram on the inspection screen and embeds the mark image position, inspection image position, and current position information. In step S432, the acquired snapshot is displayed. The mark image is inserted into a predetermined position on the inspection screen. As a result of steps S430 and S432, an inspection screen as shown in FIG. 19 is generated.

一方、ステップS414の判断が肯定された場合、すなわち、橋梁の路面を点検する方向が撮影方向とは逆である場合には、ステップS420に移行する。ステップS420では、点検用画面生成部28が、ステップS410で取得したすべてのタイムスタンプのうち、最も遅いタイムスタンプに相当するスナップショットを点検対象画像位置テーブル64から取得する。次いで、ステップS422では、点検用画面生成部28が、取得したタイムスタンプに対応するマーク画像をマーク画像DB66から取得する。   On the other hand, if the determination in step S414 is affirmative, that is, if the direction in which the road surface of the bridge is inspected is opposite to the imaging direction, the process proceeds to step S420. In step S420, the inspection screen generation unit 28 acquires a snapshot corresponding to the latest time stamp from all the time stamps acquired in step S410 from the inspection target image position table 64. Next, in step S422, the inspection screen generation unit 28 acquires a mark image corresponding to the acquired time stamp from the mark image DB 66.

次いで、ステップS424では、点検用画面生成部28が、各タイムスタンプを撮影終了時間からのタイムスタンプに置き換える。次いで、ステップS426では、点検用画面生成部28は、スナップショットを上下反転する。次いで、ステップS428では、点検用画面生成部28は、マーク画像の奥行き情報、左右情報を逆にする。   Next, in step S424, the inspection screen generation unit 28 replaces each time stamp with a time stamp from the photographing end time. Next, in step S426, the inspection screen generation unit 28 flips the snapshot upside down. Next, in step S428, the inspection screen generation unit 28 reverses the depth information and left / right information of the mark image.

次いで、点検用画面生成部28は、ステップS430において、点検用画面に、所定の奥行き図を表示し、マーク画像位置、点検画像位置、現在位置情報を埋め込む。また、点検用画面生成部28は、ステップS432において、スナップショット(上下反転)、マーク画像を点検用画面の所定位置にはめ込む。これらステップS430,S432の結果、例えば、図19と同一の推定損傷部分を点検する場合であっても、撮影方向とは逆の方向から点検を行うことに起因して、図20に示すような点検用画面が生成されることになる。   Next, in step S430, the inspection screen generation unit 28 displays a predetermined depth diagram on the inspection screen and embeds the mark image position, inspection image position, and current position information. In step S432, the inspection screen generation unit 28 inserts the snapshot (upside down) and the mark image at a predetermined position on the inspection screen. As a result of these steps S430 and S432, for example, even when the same estimated damage portion as that in FIG. 19 is inspected, the inspection is performed from the direction opposite to the photographing direction, and therefore, as shown in FIG. An inspection screen is generated.

図19又は図20の点検用画面が生成された後、ステップS434に移行すると、点検用画面生成部28は、点検用画面を点検用端末50に対して送信する。その後は、図18のステップS436に移行する。   After the inspection screen of FIG. 19 or FIG. 20 is generated, when the process proceeds to step S434, the inspection screen generation unit 28 transmits the inspection screen to the inspection terminal 50. Thereafter, the process proceeds to step S436 in FIG.

一方、点検用端末50側では、制御部52は、ステップS510の処理後、ステップS512において点検用画面を受信するまで待機している。したがって、サーバ20側において、ステップS434の処理が行われた段階で、制御部52はステップS514に移行する。ステップS514に移行すると、制御部52は、点検用画面(図19又は図20)を表示部54に表示する。その後は、図18のステップS516に移行する。   On the other hand, on the inspection terminal 50 side, the control unit 52 stands by until an inspection screen is received in step S512 after the process of step S510. Therefore, at the stage where the process of step S434 is performed on the server 20 side, the control unit 52 proceeds to step S514. If transfering it to step S514, the control part 52 will display the screen for an inspection (FIG. 19 or FIG. 20) on the display part 54. FIG. Thereafter, the process proceeds to step S516 in FIG.

図18のステップS516に移行すると、制御部52は、位置取得部58から位置情報を取得したか否かを判断する。ここでの判断が肯定された場合には、ステップS518に移行し、制御部52は、位置情報をサーバ20に対して送信し、図17のステップS512に戻る。一方、ステップS516の判断が否定された場合には、ステップS520に移行し、制御部52は、現地点検者から次の表示要求を受け付けたか否かを判断する。この場合、現地点検者が図19又は図20の点検用画面の「次へ」ボタンを押した場合に、ステップS520の判断が肯定され、ステップS522に移行する。この場合、制御部52は、ステップS522において次の表示要求をサーバに送信した後、ステップS512に戻る。一方、「次へ」ボタンが押されていない場合には、ステップS520の判断が否定され、ステップS524に移行する。   When the process proceeds to step S516 in FIG. 18, the control unit 52 determines whether or not position information has been acquired from the position acquisition unit 58. If the determination here is affirmative, the process proceeds to step S518, and the control unit 52 transmits the position information to the server 20, and returns to step S512 in FIG. On the other hand, if the determination in step S516 is negative, the process proceeds to step S520, and the control unit 52 determines whether or not the next display request has been received from the local inspector. In this case, when the local inspector presses the “next” button on the inspection screen of FIG. 19 or FIG. 20, the determination in step S520 is affirmed, and the process proceeds to step S522. In this case, the control unit 52 transmits the next display request to the server in step S522, and then returns to step S512. On the other hand, if the “next” button has not been pressed, the determination in step S520 is denied and the process proceeds to step S524.

そして、ステップS524において、制御部52は、表示終了の要求を受け付けたか否かを判断するが、ここでの判断が否定された場合には、ステップS516に戻り、肯定された場合には、ステップS526に移行する。ステップS526に移行した場合には、制御部52は、表示終了要求をサーバ20に対して送信し、図16〜図18の全処理を終了する。   In step S524, the control unit 52 determines whether a display end request has been received. If the determination is negative, the control unit 52 returns to step S516. If the determination is positive, The process moves to S526. When the process proceeds to step S526, the control unit 52 transmits a display end request to the server 20 and ends all the processes in FIGS.

これに対し、サーバ20側では、図17のステップS434の後、ステップS436において、点検用画面生成部28が点検用端末50から位置情報を受信したか否かを判断する。ここでの判断が肯定された場合(点検用端末50においてステップS518の処理が行われた場合)には、ステップS438に移行し、点検用画面生成部28は、点検用画面(図19又は図20)の現在位置情報を変更し、新しい点検用画面を点検用端末50に送信する。その後は、ステップS440に移行する。なお、この場合、点検用端末50の制御部52では、図17のステップS512の判断が肯定されるので、ステップS514において新たな点検用画面が表示部54に表示されることになる。   On the other hand, on the server 20 side, after step S434 in FIG. 17, in step S436, it is determined whether or not the inspection screen generation unit 28 has received the position information from the inspection terminal 50. When the determination here is affirmative (when the process of step S518 is performed in the inspection terminal 50), the process proceeds to step S438, and the inspection screen generation unit 28 displays the inspection screen (FIG. 19 or FIG. 19). The current position information of 20) is changed, and a new inspection screen is transmitted to the inspection terminal 50. Thereafter, the process proceeds to step S440. In this case, the control unit 52 of the inspection terminal 50 affirms the determination in step S512 of FIG. 17, so that a new inspection screen is displayed on the display unit 54 in step S514.

一方、ステップS436の判断が否定された場合、又はステップS438の後には、ステップS440において、点検用画面生成部28が、点検用端末50から次の表示要求を受けたか否かを判断する。ここでの判断が肯定された場合(点検用端末50においてステップS522の処理が行われた場合)には、ステップS442において、点検用画面生成部28が次のタイムスタンプがあるか否か(ステップS410で取得したすべてのタイムスタンプに関する処理が完了していないか否か)を判断する。ここでの判断が肯定された場合には、図17のステップS414に戻る。なお、ステップS416及びステップS420が2回目以降行われる場合には、点検用画面生成部28は、次に早い(遅い)タイムスタンプに相当するスナップショットを取得する。一方、ステップS440の判断が否定された場合、又はステップS442の判断が否定された場合には、ステップS444に移行する。   On the other hand, when the determination in step S436 is negative, or after step S438, in step S440, the inspection screen generation unit 28 determines whether or not the next display request has been received from the inspection terminal 50. If the determination here is affirmative (when the process of step S522 is performed in the inspection terminal 50), in step S442, the inspection screen generation unit 28 determines whether there is a next time stamp (step S42). It is determined whether or not the processing related to all the time stamps acquired in S410 has been completed. If the determination here is affirmed, the process returns to step S414 in FIG. In addition, when step S416 and step S420 are performed after the second time, the inspection screen generation unit 28 acquires a snapshot corresponding to the next earlier (late) time stamp. On the other hand, if the determination in step S440 is negative, or if the determination in step S442 is negative, the process proceeds to step S444.

ステップS444では、点検用画面生成部28が表示終了要求を受け付けたか否かを判断する。この場合、点検用端末50においてステップS526の処理が行われた場合には、ステップS444の判断が肯定されることになる。ステップS444の判断が否定されると、点検用画面生成部28は、ステップS440に戻るが、ステップS444の判断が肯定されると、点検用画面生成部28は、図16〜図18の全処理を終了する。   In step S444, it is determined whether or not the inspection screen generation unit 28 has received a display end request. In this case, when the process of step S526 is performed in the inspection terminal 50, the determination in step S444 is affirmed. If the determination in step S444 is negative, the inspection screen generation unit 28 returns to step S440. However, if the determination in step S444 is affirmative, the inspection screen generation unit 28 performs all the processes in FIGS. Exit.

以上のように、図16〜図18の処理が行われることにより、現地点検者の位置や点検方向に応じて、図19や図20のような点検用画面が点検用端末50に表示され、適宜更新されることになる。したがって、現地点検者は、マーク画像を目印にしながら点検すべき部分(推定損傷部分)を簡易に探し出すことが可能となる。   As described above, by performing the processes of FIGS. 16 to 18, an inspection screen as shown in FIGS. 19 and 20 is displayed on the inspection terminal 50 according to the position and inspection direction of the field inspector, It will be updated accordingly. Therefore, the field inspector can easily find a portion to be inspected (estimated damage portion) while using the mark image as a mark.

なお、本実施形態では、撮影装置10が撮影しているときの位置の情報、現地点検者の位置の情報、及びマーク画像の位置の情報をGPSを用いて取得することができるので、これらを利用して、図19,図20の画面とともに、図21のような画面を表示することとしてもよい。この場合、例えば、図6(b)の点検対象画像位置テーブル64において、画像スナップショットに対応して撮影位置を管理することとすればよい。このように、図21の画面を表示することで、現地点検者はより簡易に推定損傷部分の特定を行うことが可能となる。   In the present embodiment, the position information when the photographing apparatus 10 is photographing, the position information of the local inspector, and the position information of the mark image can be acquired using GPS. It is also possible to display a screen as shown in FIG. 21 together with the screens of FIGS. In this case, for example, in the inspection target image position table 64 in FIG. 6B, the shooting position may be managed corresponding to the image snapshot. Thus, by displaying the screen of FIG. 21, the field inspector can more easily identify the estimated damaged portion.

以上、詳細に説明したように、本実施形態によると、動画記録部22が、橋梁の路面のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍とを撮影装置10で撮影した動画を取得し、点検対象画像特定部24が、コンサルタント端末30から動画に含まれる複数のフレームのうち推定損傷部分が撮影されている1つのフレーム(点検対象画像)を特定した指示を受け付け、マーク画像抽出部26が、特定された点検対象画像を撮影した時刻の前後に撮影されたフレームから、点検対象画像との差異が大きいフレーム(マーク画像)を抽出し、点検用画面生成部28が、マーク画像と、点検対象画像とを同時に表示する点検用画面を生成する。これにより、本実施形態では、現地点検者が、点検対象画像と当該点検対象画像との差異が大きく推定損傷部分を探すのに目印になるようなマーク画像とが同時に表示された点検用画面を見ながら、現地にて推定損傷部分を探すことができる。これにより、現地点検者は、簡易に推定損傷部分の位置を特定することができ、現地点検を簡易に行うことが可能となる。   As described above in detail, according to the present embodiment, the moving image recording unit 22 captures the estimated damaged portion estimated to be damaged on the road surface of the bridge and the vicinity of the estimated damaged portion. The inspection target image specifying unit 24 obtains an instruction that specifies one frame (inspection target image) in which the estimated damaged portion is captured from a plurality of frames included in the video from the consultant terminal 30. The reception and mark image extraction unit 26 extracts a frame (mark image) having a large difference from the inspection target image from frames taken before and after the time when the specified inspection target image is taken, and an inspection screen generation unit 28 generates an inspection screen for simultaneously displaying the mark image and the inspection target image. As a result, in this embodiment, the on-site inspector displays an inspection screen on which a mark image that serves as a mark for searching for an estimated damaged portion with a large difference between the inspection target image and the inspection target image is displayed at the same time. While looking at the site, you can search for the estimated damage area. Thereby, the field inspector can easily specify the position of the estimated damaged portion, and can easily perform the field inspection.

また、本実施形態では、動画記録部22が、撮影装置10から動画ファイルとともに撮影装置10の向き(ジャイロ値)を含む撮影情報を取得し、点検用画面生成部28は、マーク画像とともに、点検対象画像の撮影方向に対するマーク画像の撮影方向(左右)を表示する画面を生成する。これにより、本実施形態では、現地点検者は、マーク画像の撮影方向を参照することで、より簡易に推定損傷部分の位置を特定することが可能となる。   Further, in the present embodiment, the moving image recording unit 22 acquires shooting information including the direction (gyro value) of the shooting device 10 together with the moving image file from the shooting device 10, and the inspection screen generation unit 28 checks along with the mark image. A screen that displays the shooting direction (left and right) of the mark image with respect to the shooting direction of the target image is generated. Thereby, in this embodiment, the field inspector can specify the position of the estimated damaged portion more easily by referring to the shooting direction of the mark image.

また、本実施形態では、点検用画面生成部28が、ステップS414において、撮影装置10が撮影した方向と同一の方向から路面を点検するか否かを判定するとともに、当該判定結果に基づいて決定されるマーク画像及び点検対象画像の表示位置及び表示方向に基づいて点検用画面を生成する。これにより、現地点検者が橋梁の起点側及び終点側のいずれから路面の点検をする場合であっても、当該点検方向に応じた点検用画面を提供することができるようになる。   Further, in the present embodiment, the inspection screen generation unit 28 determines whether or not the road surface is inspected from the same direction as the direction photographed by the photographing apparatus 10 in step S414, and is determined based on the judgment result. An inspection screen is generated based on the display position and display direction of the mark image and the inspection target image. As a result, even if the local inspector inspects the road surface from either the starting point side or the ending point side of the bridge, an inspection screen corresponding to the inspection direction can be provided.

なお、上記実施形態では、マーク画像を抽出する場合に、ジャイロ値を用いることとしてもよい。具体的には、図14のステップS310において起点画像と、所定値(例えば2分)内の前後の画像とを比較する場合に、前後の画像のうちジャイロ値が所定時間安定している画像と点検対象画像とを比較するようにしてもよい。このようにすることで、撮影装置10が撮影方向を変更している間の画像(ブレが大きい可能性の高い画像)を排除した状態で、マーク画像取得処理を行うことが可能となる。   In the above embodiment, a gyro value may be used when extracting a mark image. Specifically, when comparing the starting image and the preceding and succeeding images within a predetermined value (for example, 2 minutes) in step S310 in FIG. 14, an image in which the gyro value is stable for a predetermined time among the preceding and following images You may make it compare with an inspection object image. By doing so, it is possible to perform the mark image acquisition process in a state where images (images that are highly likely to be blurred) are excluded while the imaging apparatus 10 is changing the imaging direction.

なお、上記実施形態では、サーバ20を設ける場合について説明したが、これに限られるものではない。例えば、サーバ20の機能を、コンサルタント端末30又は点検用端末50が有していてもよい。また、上記実施形態では、撮影装置10の代わりに、点検用端末50が有するカメラ機能を用いることとしてもよい。   In addition, although the case where the server 20 was provided was demonstrated in the said embodiment, it is not restricted to this. For example, the consultant terminal 30 or the inspection terminal 50 may have the function of the server 20. Moreover, in the said embodiment, it is good also as using the camera function which the terminal 50 for an inspection has instead of the imaging device 10. FIG.

なお、上記実施形態では、動画を用いた点検を行う場合について説明したが、これに限らず、現地において多数撮影された静止画を用いた点検にも、上記実施形態を適用することが可能である。   In the above-described embodiment, the case where the inspection using the moving image is performed has been described. However, the present invention is not limited to this, and the above-described embodiment can also be applied to the inspection using the still images captured in many places. is there.

なお、上記実施形態では、点検対象(撮影対象)の構造物が、橋梁の路面である場合について説明したが、これに限られるものではない。例えば、道路の路面、堤防、河川の土手の法面、崖崩れ防止用の擁壁、団地やビルなどの建物の壁面などが点検対象(撮影対象)の構造物であってもよい。   In the above-described embodiment, the case where the structure to be inspected (photographed object) is a road surface of a bridge has been described. However, the present invention is not limited to this. For example, road structures, embankments, river bank slopes, retaining walls for preventing landslides, and walls of buildings such as housing complexes and buildings may be structures to be inspected (photographed).

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium.

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1) 点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得工程と、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け工程と、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出工程と、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成工程と、をコンピュータが実行することを特徴とする構造物点検支援方法。
(付記2) 前記取得工程では、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の向きに関する情報を取得し、
前記生成工程では、前記抽出された画像とともに、前記特定された画像の撮影方向に対する前記抽出された画像の撮影方向に関する情報を表示する画面を生成することを特徴とする付記1に記載の構造物点検支援方法。
(付記3) 前記撮影装置が撮影した方向と同一の方向から前記構造物を点検するのか、あるいは、前記撮影装置が撮影した方向とは逆の方向から前記構造物を点検するのかを判定する判定工程を前記コンピュータが実行し、
前記生成工程では、前記判定工程における判定結果に基づいて、前記抽出された画像及び前記特定された画像それぞれの表示位置及び表示方向を決定し、当該表示位置と表示方向とに基づいて前記画面を生成することを特徴とする付記1又は2に記載の構造物点検支援方法。
(付記4) 前記取得工程では、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の位置に関する情報を取得し、
前記判定工程では、前記構造物の点検する人の位置に関する情報と、前記取得工程で取得した前記撮影装置の位置に関する情報とを用いて、前記判定を行うことを特徴とする付記3に記載の構造物点検支援方法。
(付記5) 点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得し、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付け、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出し、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する、処理をコンピュータに実行させることを特徴とする構造物点検支援プログラム。
(付記6) 前記取得する処理では、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の向きに関する情報を取得し、
前記生成する処理では、前記抽出された画像とともに、前記特定された画像の撮影方向に対する前記抽出された画像の撮影方向に関する情報を表示する画面を生成することを特徴とする付記5に記載の構造物点検支援プログラム。
(付記7) 前記撮影装置が撮影した方向と同一の方向から前記構造物を点検するのか、あるいは、前記撮影装置が撮影した方向とは逆の方向から前記構造物を点検するのかを判定する処理を前記コンピュータが実行し、
前記生成する処理では、前記判定する処理における判定結果に基づいて、前記抽出された画像及び前記特定された画像それぞれの表示位置及び表示方向を決定し、当該表示位置と表示方向とに基づいて前記画面を生成することを特徴とする付記5又は6に記載の構造物点検支援プログラム。
(付記8) 前記取得する処理では、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の位置に関する情報を取得し、
前記判定する処理では、前記構造物の点検する人の位置に関する情報と、前記取得する処理で取得した前記撮影装置の位置に関する情報とを用いて、前記判定を行うことを特徴とする付記7に記載の構造物点検支援プログラム。
(付記9) 点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得部と、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け部と、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出部と、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成部と、を備える構造物点検支援装置。
(付記10) 前記取得部は、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の向きに関する情報を取得し、
前記生成部は、前記抽出された画像とともに、前記特定された画像の撮影方向に対する前記抽出された画像の撮影方向に関する情報を表示する画面を生成することを特徴とする付記9に記載の構造物点検支援装置。
(付記11) 前記撮影装置が撮影した方向と同一の方向から前記構造物を点検するのか、あるいは、前記撮影装置が撮影した方向とは逆の方向から前記構造物を点検するのかを判定する判定部を備え、
前記生成部は、前記判定部の判定結果に基づいて、前記抽出された画像及び前記特定された画像それぞれの表示位置及び表示方向を決定し、当該表示位置と表示方向とに基づいて前記画面を生成することを特徴とする付記9又は10に記載の構造物点検支援装置。
(付記12) 前記取得部は、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の位置に関する情報を取得し、
前記判定部は、前記構造物の点検する人の位置に関する情報と、前記取得部が取得した前記撮影装置の位置に関する情報とを用いて、前記判定を行うことを特徴とする付記11に記載の構造物点検支援装置。
In addition, the following additional notes are disclosed regarding the above description.
(Additional remark 1) The acquisition process of acquiring the image group which image | photographed with the imaging | photography apparatus the estimated damage part estimated to be damaged among the structures of inspection object, and the vicinity of the said estimated damage part,
An accepting step of accepting an instruction specifying one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
An extraction step of extracting at least one image having a predetermined difference or more from the image taken before and after the time when the specified image was taken;
A structure inspection support method, wherein a computer executes a generation step of generating a screen for simultaneously displaying the extracted image and the identified image.
(Supplementary Note 2) In the acquisition step, in addition to the image group, information on the orientation of the image capturing device when the image device is imaged is acquired,
The structure according to claim 1, wherein the generation step generates a screen that displays information about a shooting direction of the extracted image with respect to a shooting direction of the specified image together with the extracted image. Inspection support method.
(Supplementary Note 3) Judgment whether to inspect the structure from the same direction as the direction in which the imaging device has taken the image or to inspect the structure from the direction opposite to the direction in which the imaging device has taken an image The computer executes the process;
In the generation step, a display position and a display direction of each of the extracted image and the specified image are determined based on the determination result in the determination step, and the screen is displayed based on the display position and the display direction. The structure inspection support method according to appendix 1 or 2, wherein the structure inspection support method is generated.
(Supplementary Note 4) In the acquisition step, in addition to the image group, information on the position of the photographing device when the image device is photographed is obtained.
In the determination step, the determination is performed using information on the position of the person inspecting the structure and information on the position of the imaging device acquired in the acquisition step. Structure inspection support method.
(Supplementary Note 5) Obtain an image group obtained by photographing an estimated damaged portion estimated to be damaged in a structure to be inspected and a vicinity of the estimated damaged portion with a photographing apparatus,
Receiving an instruction specifying one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
Extracting at least one image whose difference from the specified image is greater than or equal to a predetermined value from images taken before and after the time when the specified image was taken;
A structure inspection support program for causing a computer to execute processing for generating a screen for simultaneously displaying the extracted image and the identified image.
(Additional remark 6) In the said process to acquire, together with the said image group, the information regarding the direction of the said imaging device when the image group was image | photographed with the said imaging device,
6. The structure according to appendix 5, wherein the generating process generates a screen that displays information about the shooting direction of the extracted image with respect to the shooting direction of the specified image together with the extracted image. Inspection support program.
(Additional remark 7) The process which determines whether the said structure is inspected from the same direction as the direction which the said imaging device image | photographed, or the said structure is inspected from the direction opposite to the direction which the said imaging device image | photographed The computer executes,
In the generation process, the display position and the display direction of each of the extracted image and the specified image are determined based on the determination result in the determination process, and the display position and the display direction are used to determine the display position and the display direction. The structure inspection support program according to appendix 5 or 6, characterized by generating a screen.
(Additional remark 8) In the said process to acquire, together with the said image group, the information regarding the position of the said imaging device when an image group was image | photographed with the said imaging device is acquired,
The appendix 7 is characterized in that in the determination process, the determination is performed using information on a position of the person inspecting the structure and information on the position of the photographing apparatus acquired in the acquisition process. The structure inspection support program described.
(Additional remark 9) The acquisition part which acquires the image group which image | photographed with the imaging | photography apparatus the estimated damage part estimated to be damaged among the structures of inspection object, and the vicinity of the said estimated damage part,
A receiving unit that receives an instruction that identifies one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
An extraction unit that extracts at least one image having a predetermined difference or more from the image captured before and after the time when the identified image is captured;
A structure inspection support apparatus comprising: a generation unit that generates a screen for simultaneously displaying the extracted image and the identified image.
(Additional remark 10) The said acquisition part acquires the information regarding the direction of the said imaging device when the image group was image | photographed with the said imaging device with the said image group,
The structure according to appendix 9, wherein the generation unit generates a screen that displays information about a shooting direction of the extracted image with respect to a shooting direction of the specified image together with the extracted image. Inspection support device.
(Supplementary Note 11) Judgment to determine whether the structure is inspected from the same direction as the direction in which the imaging device has been imaged or whether the structure is to be inspected from the direction opposite to the direction in which the imaging device has been Part
The generation unit determines a display position and a display direction of each of the extracted image and the specified image based on a determination result of the determination unit, and displays the screen based on the display position and the display direction. The structure inspection support device according to appendix 9 or 10, wherein the structure inspection support device is generated.
(Additional remark 12) The said acquisition part acquires the information regarding the position of the said imaging device when the image group was image | photographed with the said imaging device with the said image group,
The determination unit performs the determination using information on a position of a person inspecting the structure and information on a position of the photographing apparatus acquired by the acquisition unit. Structure inspection support device.

10 撮影装置
20 サーバ(構造物点検支援装置)
22 動画記録部(取得部)
24 点検対象画像特定部(受け付け部)
26 マーク画像抽出部(抽出部)
28 点検用画面生成部(生成部、判定部)
10 imaging device 20 server (structure inspection support device)
22 Movie recording unit (acquisition unit)
24 Inspection target image identification part (reception part)
26 Mark image extraction unit (extraction unit)
28 Screen generator for inspection (generation unit, determination unit)

Claims (5)

点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得工程と、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け工程と、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出工程と、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成工程と、をコンピュータが実行することを特徴とする構造物点検支援方法。
An acquisition step of acquiring an image group obtained by photographing an estimated damaged portion estimated to be damaged in a structure to be inspected, and the vicinity of the estimated damaged portion with an imaging device;
An accepting step of accepting an instruction specifying one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
An extraction step of extracting at least one image having a predetermined difference or more from the image taken before and after the time when the specified image was taken;
A structure inspection support method, wherein a computer executes a generation step of generating a screen for simultaneously displaying the extracted image and the identified image.
前記取得工程では、前記画像群とあわせて、前記撮影装置で画像群を撮影したときの前記撮影装置の向きに関する情報を取得し、
前記生成工程では、前記抽出された画像とともに、前記特定された画像の撮影方向に対する前記抽出された画像の撮影方向に関する情報を表示する画面を生成することを特徴とする請求項1に記載の構造物点検支援方法。
In the acquisition step, along with the image group, acquire information on the orientation of the image capturing device when the image device is imaged,
2. The structure according to claim 1, wherein in the generation step, a screen is generated that displays information about a shooting direction of the extracted image with respect to a shooting direction of the identified image together with the extracted image. Inspection support method.
前記撮影装置が撮影した方向と同一の方向から前記構造物を点検するのか、あるいは、前記撮影装置が撮影した方向とは逆の方向から前記構造物を点検するのかを判定する判定工程を前記コンピュータが実行し、
前記生成工程では、前記判定工程における判定結果に基づいて、前記抽出された画像及び前記特定された画像それぞれの表示位置及び表示方向を決定し、当該表示位置と表示方向とに基づいて前記画面を生成することを特徴とする請求項1又は2に記載の構造物点検支援方法。
A determination step of determining whether the structure is inspected from the same direction as the direction photographed by the photographing apparatus or whether the structure is inspected from a direction opposite to the direction photographed by the photographing apparatus; Runs and
In the generation step, a display position and a display direction of each of the extracted image and the specified image are determined based on the determination result in the determination step, and the screen is displayed based on the display position and the display direction. The structure inspection support method according to claim 1, wherein the structure inspection support method is generated.
点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得し、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付け、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出し、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する、処理をコンピュータに実行させることを特徴とする構造物点検支援プログラム。
Obtain an image group obtained by photographing the estimated damaged portion estimated to be damaged in the structure to be inspected and the vicinity of the estimated damaged portion with the photographing device,
Receiving an instruction specifying one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
Extracting at least one image whose difference from the specified image is greater than or equal to a predetermined value from images taken before and after the time when the specified image was taken;
A structure inspection support program for causing a computer to execute processing for generating a screen for simultaneously displaying the extracted image and the identified image.
点検対象の構造物のうち損傷していると推定される推定損傷部分と、当該推定損傷部分の近傍と、を撮影装置で撮影した画像群を取得する取得部と、
前記画像群に含まれる複数の画像のうち、前記推定損傷部分が撮影されている1つの画像を特定した指示を受け付ける受け付け部と、
前記特定された画像を撮影した時刻の前後に撮影された画像から、前記特定された画像との差異が所定以上である画像を少なくとも1つ抽出する抽出部と、
前記抽出された画像と、前記特定された画像とを同時に表示する画面を生成する生成部と、を備える構造物点検支援装置。
An acquisition unit for acquiring an image group obtained by photographing an estimated damage portion estimated to be damaged among structures to be inspected, and a vicinity of the estimated damage portion, with an imaging device;
A receiving unit that receives an instruction that identifies one image in which the estimated damaged portion is photographed among a plurality of images included in the image group;
An extraction unit that extracts at least one image having a predetermined difference or more from the image captured before and after the time when the identified image is captured;
A structure inspection support apparatus comprising: a generation unit that generates a screen for simultaneously displaying the extracted image and the identified image.
JP2012029966A 2012-02-14 2012-02-14 Structure inspection support method, structure inspection support program, and structure inspection support device Active JP5803723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012029966A JP5803723B2 (en) 2012-02-14 2012-02-14 Structure inspection support method, structure inspection support program, and structure inspection support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012029966A JP5803723B2 (en) 2012-02-14 2012-02-14 Structure inspection support method, structure inspection support program, and structure inspection support device

Publications (2)

Publication Number Publication Date
JP2013167494A true JP2013167494A (en) 2013-08-29
JP5803723B2 JP5803723B2 (en) 2015-11-04

Family

ID=49178007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012029966A Active JP5803723B2 (en) 2012-02-14 2012-02-14 Structure inspection support method, structure inspection support program, and structure inspection support device

Country Status (1)

Country Link
JP (1) JP5803723B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104267043A (en) * 2014-10-16 2015-01-07 东南大学 Mobile detection device for concrete bridge cracks
JP2016126769A (en) * 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
JP2016133320A (en) * 2015-01-16 2016-07-25 株式会社日立システムズ Damage state determination system and damage state determination method
JP2016211955A (en) * 2015-05-08 2016-12-15 古河電気工業株式会社 Bridge inspection support device, bridge inspection support method, bridge inspection support system, and program
JP2016217801A (en) * 2015-05-18 2016-12-22 エヌ・ティ・ティ・アドバンステクノロジ株式会社 Omnidirectional mobile robot and deformation detection system by three-dimensional camera system
WO2017221706A1 (en) * 2016-06-24 2017-12-28 富士フイルム株式会社 Damage diagram editing device and damage diagram editing method
JP2018154979A (en) * 2017-03-16 2018-10-04 株式会社リコー Information processing system, evaluation system, and information processing method and program
WO2019021719A1 (en) * 2017-07-27 2019-01-31 富士フイルム株式会社 Damage data editing device, damage data editing method, and program
JP2019039936A (en) * 2015-09-10 2019-03-14 富士フイルム株式会社 Damage information extraction device, damage information extraction method and damage information extraction program
JPWO2022070230A1 (en) * 2020-09-29 2022-04-07

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6449909A (en) * 1987-08-20 1989-02-27 Komatsu Mfg Co Ltd Automatic analyzing device for road surface state
JPH09196647A (en) * 1996-01-23 1997-07-31 Mitsubishi Heavy Ind Ltd Measured data analyzer for road-surface-property measuring apparatus
JP2005043324A (en) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd Method of checking defective condition of road surface, and method of specifying defective position of the road surface
JP2006112127A (en) * 2004-10-15 2006-04-27 Hitachi Ltd Road control system
US20080184785A1 (en) * 2007-02-01 2008-08-07 Wee Seong-Dong Apparatus for automatically inspecting road surface pavement condition
JP2011179874A (en) * 2010-02-26 2011-09-15 East Nippon Expressway Co Ltd Method for extracting surface cracks of paved road and evaluating surface damage level of paved road
JP2011246908A (en) * 2010-05-25 2011-12-08 Takeda Design And Manufacturing Co Ltd Bridge inspection device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6449909A (en) * 1987-08-20 1989-02-27 Komatsu Mfg Co Ltd Automatic analyzing device for road surface state
JPH09196647A (en) * 1996-01-23 1997-07-31 Mitsubishi Heavy Ind Ltd Measured data analyzer for road-surface-property measuring apparatus
JP2005043324A (en) * 2003-07-25 2005-02-17 Matsushita Electric Ind Co Ltd Method of checking defective condition of road surface, and method of specifying defective position of the road surface
JP2006112127A (en) * 2004-10-15 2006-04-27 Hitachi Ltd Road control system
US20080184785A1 (en) * 2007-02-01 2008-08-07 Wee Seong-Dong Apparatus for automatically inspecting road surface pavement condition
JP2011179874A (en) * 2010-02-26 2011-09-15 East Nippon Expressway Co Ltd Method for extracting surface cracks of paved road and evaluating surface damage level of paved road
JP2011246908A (en) * 2010-05-25 2011-12-08 Takeda Design And Manufacturing Co Ltd Bridge inspection device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104267043A (en) * 2014-10-16 2015-01-07 东南大学 Mobile detection device for concrete bridge cracks
JP2016126769A (en) * 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
JP2016133320A (en) * 2015-01-16 2016-07-25 株式会社日立システムズ Damage state determination system and damage state determination method
JP2016211955A (en) * 2015-05-08 2016-12-15 古河電気工業株式会社 Bridge inspection support device, bridge inspection support method, bridge inspection support system, and program
JP2016217801A (en) * 2015-05-18 2016-12-22 エヌ・ティ・ティ・アドバンステクノロジ株式会社 Omnidirectional mobile robot and deformation detection system by three-dimensional camera system
JP2019039936A (en) * 2015-09-10 2019-03-14 富士フイルム株式会社 Damage information extraction device, damage information extraction method and damage information extraction program
JPWO2017221706A1 (en) * 2016-06-24 2019-02-28 富士フイルム株式会社 Damage diagram editing apparatus and damage diagram editing method
WO2017221706A1 (en) * 2016-06-24 2017-12-28 富士フイルム株式会社 Damage diagram editing device and damage diagram editing method
JP2020030855A (en) * 2016-06-24 2020-02-27 富士フイルム株式会社 Damage diagram editing device and program
JP2021114320A (en) * 2016-06-24 2021-08-05 富士フイルム株式会社 Server device, image processing method and program
JP7146013B2 (en) 2016-06-24 2022-10-03 富士フイルム株式会社 Server device, image processing method, and program
JP2018154979A (en) * 2017-03-16 2018-10-04 株式会社リコー Information processing system, evaluation system, and information processing method and program
WO2019021719A1 (en) * 2017-07-27 2019-01-31 富士フイルム株式会社 Damage data editing device, damage data editing method, and program
JPWO2019021719A1 (en) * 2017-07-27 2020-04-16 富士フイルム株式会社 Damage data editing device, damage data editing method, and program
JPWO2022070230A1 (en) * 2020-09-29 2022-04-07
WO2022070230A1 (en) * 2020-09-29 2022-04-07 日本電気株式会社 Road surface management device, road surface management method, terminal device, and recording medium
JP7364093B2 (en) 2020-09-29 2023-10-18 日本電気株式会社 Road surface management device, road surface management system, terminal device, road surface management method, and program

Also Published As

Publication number Publication date
JP5803723B2 (en) 2015-11-04

Similar Documents

Publication Publication Date Title
JP5803723B2 (en) Structure inspection support method, structure inspection support program, and structure inspection support device
JP4333599B2 (en) Information processing apparatus and information processing method
US9058501B2 (en) Method, apparatus, and computer program product for determining media item privacy settings
JP2010277442A (en) Construction inspection system, portable terminal, construction inspection method and program
JP2013502666A (en) Processing geographic location information associated with digital image files
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
JP2011170540A (en) Inspection system and method, management server, mobile terminal, program, and memory medium
JP2003158655A (en) Image pickup device
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
JP2008513852A (en) Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system
CN108028881A (en) Camera auxiliary system, device and method and camera shooting terminal
JP2013164786A (en) Structure photographing support method, structure photographing support program and structure photographing support device
TW200806027A (en) Imaging/reproducing device
JP4866396B2 (en) Tag information adding device, tag information adding method, and computer program
JP2011188171A (en) Digital photograph data processing apparatus, digital photograph data server, digital photograph data processing system and digital photograph data processing method
JP2009134333A (en) Digital photograph sharing system device
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program
JP2011119832A (en) Image display device and image display method
KR100642987B1 (en) Method and apparatus for arraying file of video receiver
JP6269024B2 (en) Information processing apparatus and information processing program
JP2008242682A (en) Automatic meta information imparting system, automatic meta information imparting method, and automatic meta information imparting program
JP2009177611A (en) Digital camera
JP2016100730A (en) Moving picture imaging apparatus, moving picture playing apparatus, and positional information editing apparatus
JP2004242288A (en) Video reproducing apparatus and video recording and reproducing apparatus
JP5838844B2 (en) Structure inspection support method, structure inspection support program, and structure inspection support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150817

R150 Certificate of patent or registration of utility model

Ref document number: 5803723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150