JP7145602B2 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP7145602B2
JP7145602B2 JP2017206506A JP2017206506A JP7145602B2 JP 7145602 B2 JP7145602 B2 JP 7145602B2 JP 2017206506 A JP2017206506 A JP 2017206506A JP 2017206506 A JP2017206506 A JP 2017206506A JP 7145602 B2 JP7145602 B2 JP 7145602B2
Authority
JP
Japan
Prior art keywords
image
water leakage
terminal device
change
leak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017206506A
Other languages
Japanese (ja)
Other versions
JP2019080206A (en
Inventor
祐光 林
泰彰 北林
慎 平賀
龍之介 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Facilities Inc
Original Assignee
NTT Facilities Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Facilities Inc filed Critical NTT Facilities Inc
Priority to JP2017206506A priority Critical patent/JP7145602B2/en
Publication of JP2019080206A publication Critical patent/JP2019080206A/en
Application granted granted Critical
Publication of JP7145602B2 publication Critical patent/JP7145602B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A20/00Water conservation; Efficient water supply; Efficient water use

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理システム、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.

建物の壁等にひび割れが生じて、雨等によって建物の内部に漏水することがある。このような漏水に対する対策を講じるため、漏水が生じた箇所における漏水の程度を識別できることが望まれる。 Cracks may occur in the walls of buildings, etc., and water may leak inside the buildings due to rain or the like. In order to take countermeasures against such water leakage, it is desirable to be able to identify the degree of water leakage at the location where water leakage occurs.

また、各種点検作業で、点検を行うべき点検ポイントの画像を残して、その点検ポイントの経年変化を、残した画像を目視で見比べて検出する運用が知られている(例えば、特許文献1参照)。 In addition, in various inspection work, there is known an operation in which an image of an inspection point to be inspected is left, and aging of the inspection point is detected by visually comparing the remaining images (see, for example, Patent Document 1). ).

特開2016-143983号公報JP 2016-143983 A

しかしながら、漏水が生じている状態で立ち会えばその漏水の程度を特定することは容易であるが、漏水が生じた箇所の漏水が止まっている状況で、発生した漏水の程度を識別することは困難である。 However, although it is easy to identify the degree of water leakage if you are present when the water is leaking, it is difficult to identify the degree of water leakage when the water leakage has stopped at the location where the water leakage occurred. is.

本発明が解決しようとする課題は、漏水が生じた箇所の画像から、発生した漏水の程度を識別する情報処理システム、情報処理方法、及びプログラムを提供することにある。 The problem to be solved by the present invention is to provide an information processing system, an information processing method, and a program for identifying the degree of water leakage from an image of a water leakage location.

(1)本発明の一態様の情報処理システムは、雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする。情報処理システムは、前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得する表示制御部であって、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御する表示制御部と、前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化する定量化部と、前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化する状況変化判定部と、端末装置からの要求を受けて、前記要求に応じた処理をする要求処理部であって、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供する要求処理部と、を備える。前記表示制御部は、要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得して、前記定量化部は、前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出して、前記状況変化判定部は、前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化する。 (1) An information processing system according to one aspect of the present invention makes it possible to identify the degree of leakage of rainwater or tap water that has occurred in a building. The information processing system finds stain-like traces of water leakage caused by the wetness of the interior material on the surface of the interior material at the water leakage location in the building, and detects the water leakage location photographed using a visible camera. a display control unit that acquires a plurality of images including a first image and a second image that are images showing the state of water leakage in the water leakage trace at different shooting times, wherein the feature points of the first image and Control is performed so that the first image and the second image are superimposed and displayed so that the feature points of the second image are associated with each other and the water leakage range common to the first image and the second image overlaps. and a display control unit, based on the leak marks shown in both the first image and the second image, quantifying a change in the size of the area identified by the leak marks in both the images. a quantification unit that quantifies the change in the size of the range identified by the quantified leak traces, a situation change determination unit that quantifies the rate of change based on the leak traces shown in the two images; A request processing unit that receives a request from a terminal device and performs processing according to the request, wherein the quantification result is sent to the request source terminal device that requests the quantification result. a request processing unit that provides the quantification result to the request source terminal device so as to be displayed on a display unit of the source terminal device . The display control unit provides the first image, which is a past image, to the terminal device in response to a request, and causes the monitor of the terminal device to transmit and display the first image, thereby capturing the second image. The second image captured by the imaging unit of the terminal device is obtained by enabling the position adjustment of the time, and the quantification unit determines a range common to the first image and the second image. using a plurality of reference points determined outside the water leakage trace, detecting changes over time in the brightness of the plurality of reference points at the plurality of reference points, and calculating changes in the water leakage trace. Then, the situation change determination unit detects the internal area of the trace of water leakage reflected in the first image and the second image, and quantifies the change in the detected area.

(2)また、上記の情報処理システムにおいて、前記定量化部は、前記漏水の跡によって識別される範囲の大きさの変化を、前記双方の画像に共通する範囲内の漏水範囲に関わる前記漏水の跡の内外の面積の比から算出する。 (2) In the information processing system described above, the quantification unit determines a change in the size of the range identified by the trace of water leakage as Calculated from the ratio of the inside and outside areas of the trace .

(3)また、上記の情報処理システムにおいて、前記定量化部は、前記双方の画像に共通する範囲内に複数の基準の位置が定められ、漏水範囲に関わる前記漏水の跡の内外の前記基準の位置の明るさの分布に基づいて、前記漏水の跡によって識別される範囲の大きさの変化を算出する。 (3) In the above information processing system, the quantification unit determines a plurality of reference positions within a range common to both of the images, and determines the reference positions inside and outside of the water leakage trace related to the water leakage range. A change in size of the area identified by the leak mark is calculated based on the distribution of brightness at the position of .

(4)また、上記の情報処理システムにおいて、前記定量化部は、前記双方の画像に共通する範囲内において、前記漏水の跡の内外の前記基準の位置の明るさの比に基づいて前記漏水の跡によって識別される範囲の大きさの変化を算出する。 (4) In the above information processing system, the quantification unit may measure the water leakage based on the brightness ratio of the reference position inside and outside the water leakage trace within a range common to both of the images. Calculate the change in size of the area identified by the trace of .

(5)また、上記の情報処理システムにおいて、前記状況変化判定部は、前記漏水によって一旦濡れた後乾いてできた前記漏水の跡によって識別される範囲の大きさ又は面積に基づいて前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像における変化率で示す。 (5) In the information processing system described above, the situation change determination unit performs the quantification based on the size or area of the range identified by the water leak trace that has dried after getting wet once due to the water leak . The change in size of the area identified by the traced leak is shown as a percentage change in both images.

(6)また、上記の情報処理システムにおいて、前記建物内の漏水箇所が、前記建物の内装部材により隠蔽される前記建物の躯体側にあり、前記建物内の漏水状況を示す画像は、前記建物内の漏水箇所の像を含まない前記建物の内装部材の表面の画像である。 (6) Further, in the above information processing system, the water leakage point in the building is located on the frame side of the building that is hidden by the interior material of the building, and the image showing the water leakage situation in the building 2 is an image of a surface of an interior member of the building without an image of a water leak in the building;

(7)また、上記の情報処理システムにおいて、前記状況変化判定部は、前記建物内の漏水箇所に対応付けて、前記複数の画像のそれぞれと、その特徴点と撮影段階の条件の組情報とを記憶部に格納する。 (7) In the information processing system described above, the situation change determination unit may associate each of the plurality of images with the water leakage location in the building, and set information of each of the plurality of images, their feature points, and conditions at the photographing stage. is stored in the storage unit.

(8)また、上記の情報処理システムにおいて、前記第1画像と前記第2画像は、前記漏水状況を示す像の他に、前記漏水状況によって変化しない被写体の像を含み、前記表示制御部は、前記漏水状況によって変化しない被写体の像に基づいて、前記第1画像と前記第2画像が重なるように調整する。 (8) In the above information processing system, the first image and the second image include an image of a subject that does not change depending on the water leakage situation in addition to the image showing the water leakage situation, and the display control unit and adjusting the first image and the second image so as to overlap each other based on the image of the subject that does not change depending on the water leakage state.

(9)また、本発明の一態様の情報処理方法において、雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする情報処理システムのコンピュータが、前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得して、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御し、前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化し、前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化するステップと、端末装置からの要求を受けて、前記要求に応じた処理をして、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供するステップと、要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得するステップと、前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出するステップと、前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化するステップと、を含む情報処理方法である。 (9) Further, in the information processing method of one aspect of the present invention, when rainwater or tap water leakage occurs in a building, a computer of an information processing system that enables identification of the degree of the leakage is provided in the building. A stain-like water leakage trace caused by the wetness of the interior material is formed on the surface of the interior material at the water leakage location, and the image showing the water leakage situation at the water leakage location photographed using a visible camera. obtaining a plurality of images including a first image and a second image in which the traces of water leakage are photographed at different times, and making the feature points of the first image correspond to the feature points of the second image, controlling to overlap and display the first image and the second image so that the water leakage range common to the first image and the second image overlaps; quantifying a change in the size of the area identified by the leak marks in both of the images based on the leak marks shown in the images; and determining the size of the area identified by the quantified leak marks. a step of quantifying the rate of change based on the traces of water leakage shown in the two images ; receiving a request from the terminal device, performing processing according to the request, and obtaining the result of the quantification providing the quantification result to the requesting terminal device in response to a request from the requesting terminal device so as to display the quantification result on a display unit of the requesting terminal device; Accordingly, the first image, which is a past image, is provided to the terminal device, and the first image is transparently displayed on the monitor of the terminal device, thereby making it possible to adjust the position when the second image is captured. a step of acquiring the second image captured by an imaging unit of the terminal device; using the reference points to detect temporal changes in brightness of the plurality of reference points at the plurality of reference points to calculate changes in the traces of water leakage; and detecting an area inside the reflected trace of water leakage, and quantifying a change in the detected area.

(10)また、本発明の一態様のプログラムは、雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする情報処理システムのコンピュータに、前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得させて、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御させて、前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化させて、前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化させるステップと、端末装置からの要求を受けて、前記要求に応じた処理をさせて、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供するステップと、要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得させるステップと、前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出させるステップと、前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化させるステップと、を実行させるためのプログラムである。 (10) In addition, the program of one aspect of the present invention is a program that, when rainwater or tap water leakage occurs in a building, causes a computer of an information processing system capable of identifying the degree of the water leakage to occur in the building. A spot-like water leakage trace caused by the interior material getting wet is formed on the surface of the interior material at the location, and an image showing the water leakage situation at the water leakage location photographed using a visible camera. A plurality of images including a first image and a second image taken at different times of photographing the trace of the water leakage are acquired, and the feature points of the first image and the feature points of the second image are associated with each other to obtain the first image. Control is performed so that the first image and the second image are superimposed and displayed so that the water leakage range common to the first image and the second image overlap, and both the first image and the second image are displayed. quantify the change in the size of the area identified by the leak mark in both images, based on the leak mark shown in a step of quantifying a rate of change based on the traces of water leakage shown in the two images ; a step of providing the quantification result to the requesting terminal device so as to display the quantification result on a display unit of the requesting terminal device in response to a request from the requesting terminal device requesting The first image, which is a past image, is provided to the terminal device according to the above, and the first image is displayed on the monitor of the terminal device so that the position can be adjusted when the second image is captured. a step of acquiring the second image captured by an imaging unit of the terminal device; using the reference points to detect temporal changes in the brightness of the plurality of reference points at the plurality of reference points to calculate changes in the traces of water leakage; the first image and the second image a step of detecting the internal area of the trace of water leakage reflected in the image, and quantifying the change in the detected area.

本発明によれば、漏水が生じた箇所の画像から、発生した漏水の程度を識別する情報処理システム、情報処理方法、及びプログラムを提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the information processing system, information processing method, and program which identify the grade of water leakage which occurred from the image of the location where water leakage occurred can be provided.

第1の実施形態に係る情報処理システムの概要を説明するための図である。1 is a diagram for explaining an overview of an information processing system according to a first embodiment; FIG. 図1の情報処理システムを適用して画像を取得する処理を説明するための図である。2 is a diagram for explaining a process of acquiring an image by applying the information processing system of FIG. 1; FIG. 実施形態の履歴管理DBを説明するための図である。4 is a diagram for explaining a history management DB of the embodiment; FIG. 実施形態の携帯端末装置10の操作により画像を記録する処理を説明するための図である。FIG. 10 is a diagram for explaining a process of recording an image by operating the mobile terminal device 10 of the embodiment; 実施形態の携帯端末装置10の操作により画像を記録する処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of processing for recording an image by operating the mobile terminal device 10 of the embodiment; 実施形態の情報端末装置30の操作により画像を記録する処理を説明するための図である。FIG. 4 is a diagram for explaining a process of recording an image by operating the information terminal device 30 of the embodiment; 実施形態の情報端末装置30の操作により画像を記録する処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing for recording an image by operating the information terminal device 30 of the embodiment. 実施形態の輪郭の識別機能について説明するための図である。FIG. 5 is a diagram for explaining a contour identification function of the embodiment;

以下、本発明の実施形態の情報処理システム及び情報処理方法について、添付図面を参照して説明する。 Hereinafter, an information processing system and an information processing method according to embodiments of the present invention will be described with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の実施形態に係る情報処理システムの概要を説明するための図である。
(First embodiment)
FIG. 1 is a diagram for explaining an outline of an information processing system according to an embodiment of the present invention.

図1に示す情報処理システム1は、携帯端末装置10と、管理装置20と、操作端末装置30とを含む。携帯端末装置10と、管理装置20と、操作端末装置30とは、無線通信によりネットワークNWを介して接続される。 The information processing system 1 shown in FIG. 1 includes a mobile terminal device 10 , a management device 20 and an operation terminal device 30 . The mobile terminal device 10, the management device 20, and the operation terminal device 30 are connected via a network NW by wireless communication.

建物BLを形成する外壁等にひび割れが生じると、建物BLの防水性の低下を招く。その結果、雨水がひび割れを伝わって建物BLの内部に侵入し漏水が生じることがある。ひび割れが生じた個所が、建物BLの内装等に覆われたふかし壁の位置にあると、漏水が生じたか否か、或いはその漏水の程度を直接的に視認することが困難である。 If cracks occur in the outer wall or the like that forms the building BL, the waterproofness of the building BL will deteriorate. As a result, rainwater may flow through the cracks and enter the interior of the building BL, causing water leakage. If the location where the crack occurs is located on the padded wall covered with the interior of the building BL, it is difficult to directly visually recognize whether or not water leakage has occurred, or the extent of the water leakage.

ところで、漏水が生じたことにより建物BLの内装材が濡れることがある。このような場合、雨が上がり漏水が止まって建物BLの内装材が乾いても、漏水時に濡れた範囲が染みとなって残る。また、ひび割れが生じた個所の漏水状況が悪化すると、内装材が濡れる範囲が広くなり、それに伴い内装材の染みの範囲も大きくなる。 By the way, the interior material of the building BL may get wet due to water leakage. In such a case, even if the rain stops and the water leakage stops and the interior material of the building BL dries, the area that was wet at the time of the water leakage remains as a stain. In addition, when the water leakage condition at the cracked portion worsens, the area where the interior material gets wet becomes wider, and accordingly the area where the interior material is stained becomes larger.

そこで、実施形態の情報処理システム1は、内装材に生じた染みの範囲を検出することにより漏水の発生状況を間接的に識別する。例えば、このような識別方法をとることにより、建物BLの外壁などに生じたひび割れが、建物BLの内装材に覆われた個所に発生していても、情報処理システム1は、漏水個所が存在することや、その程度を識別可能にする。以下、情報処理システム1について一例を示して説明する。 Therefore, the information processing system 1 of the embodiment indirectly identifies the occurrence of water leakage by detecting the range of stains on the interior material. For example, by adopting such an identification method, even if cracks in the outer wall of the building BL occur in places covered with the interior materials of the building BL, the information processing system 1 can detect the presence of water leakage. identifiable to what they do and to what extent. An example of the information processing system 1 will be described below.

図2は、図1の情報処理システムを適用して画像を取得する処理を説明するための図である。 FIG. 2 is a diagram for explaining a process of acquiring an image by applying the information processing system of FIG.

(携帯端末装置)
図2に示す携帯端末装置10は、通信部11と、記憶部12と、制御部13と、表示操作部14と、撮像部15を備える。携帯端末装置10は、通信部11と、記憶部12と、制御部13と、表示操作部14と、撮像部15が、1つの筐体内に設けられていてもよく、その一部が異なる筐体に設けられていてもよい。例えば、携帯端末装置10の通信部11と、記憶部12と、制御部13とが、CPU(Central Processing Unit)、RAM(Random Access Memory)、不揮発性記憶装置,可搬型記録媒体ドライブ装置、撮像部15などを含むコンピュータとして構成されていてもよい。
(mobile terminal device)
A mobile terminal device 10 shown in FIG. In the mobile terminal device 10, the communication unit 11, the storage unit 12, the control unit 13, the display operation unit 14, and the imaging unit 15 may be provided in one housing. It may be provided on the body. For example, the communication unit 11, the storage unit 12, and the control unit 13 of the mobile terminal device 10 may include a CPU (Central Processing Unit), a RAM (Random Access Memory), a nonvolatile storage device, a portable recording medium drive device, an imaging It may be configured as a computer including the unit 15 and the like.

通信部11は、無線通信によりネットワークNWに接続され、制御部13の制御により管理装置20と通信する。 The communication unit 11 is connected to the network NW by wireless communication and communicates with the management device 20 under the control of the control unit 13 .

記憶部12は、撮像部15により撮像された画像データ、管理装置20から受信した情報、表示操作部14に表示する情報、表示操作部14により検出した操作に関する情報、等の他、制御部13を機能させるためのプログラム(OS(operating system)、アプリケーションプログラム)等を格納する。 The storage unit 12 stores image data captured by the imaging unit 15, information received from the management device 20, information to be displayed on the display/operation unit 14, information on operations detected by the display/operation unit 14, and the like. Programs (OS (operating system), application programs), etc. for functioning are stored.

制御部13は、通信部11を制御して管理装置20と通信する。その場合、制御部13は、予め定められた管理装置20のURI等を含む通信の相手先(宛先)情報を用いて、管理装置20と通信する。 The control unit 13 controls the communication unit 11 to communicate with the management device 20 . In this case, the control unit 13 communicates with the management device 20 using predetermined communication partner (destination) information including the URI of the management device 20 and the like.

例えば、携帯端末装置10は、OS、又は、アプリケーションプログラムの実行により、管理装置20と通信する。携帯端末装置10は、HTTP(Hypertext Transfer Protocol)等のプロトコルを利用して、管理装置20等に格納されたコンテンツを閲覧すること等ができる。例えば、そのコンテンツは、HTML(HyperText Markup Language)等で記述されたもの、画像データ等である。携帯端末装置10がコンテンツ等を取得する手法は、上記の他、一般的な手法を適用してもよい。 For example, the mobile terminal device 10 communicates with the management device 20 by executing an OS or an application program. The mobile terminal device 10 can use a protocol such as HTTP (Hypertext Transfer Protocol) to browse content stored in the management device 20 or the like. For example, the content is described in HTML (HyperText Markup Language) or the like, image data, or the like. In addition to the method described above, a general method may be applied as the method for the mobile terminal device 10 to acquire the content or the like.

また、制御部13は、ユーザの操作によって撮像部15を制御して、撮像部15によって撮像された画像を取得する。制御部13は、管理装置20から得たコンテンツ、画像データ等の情報を、表示操作部14に表示するように制御する。制御部13は、管理装置20から得た画像データを、単独で表示操作部14に表示することの他、撮像部15により撮像された画像に重ね合わせて表示するように制御してもよい。 In addition, the control unit 13 acquires an image captured by the imaging unit 15 by controlling the imaging unit 15 according to user's operation. The control unit 13 controls so that information such as content and image data obtained from the management device 20 is displayed on the display operation unit 14 . The control unit 13 may control the image data obtained from the management device 20 to be displayed alone on the display operation unit 14 or to be superimposed on the image captured by the imaging unit 15 and displayed.

表示操作部14は、表示部としての液晶ディスプレイ、エレクトロルミネッセンスディスプレイなどを備えており、併せて、操作を受け付けるタッチパネルとして形成されていている。 The display/operation unit 14 includes a liquid crystal display, an electroluminescence display, and the like as a display unit, and is also formed as a touch panel for accepting operations.

撮像部15は、図示しない光学系と撮像デバイスとを含み、その撮像デバイスからの信号に基づいた画像データを生成する。 The imaging unit 15 includes an optical system and an imaging device (not shown), and generates image data based on a signal from the imaging device.

(管理装置)
次に、管理装置20について説明する。
図2に示す管理装置20は、記憶部21と、要求処理部22と、データ取得部23と、表示制御部24と、定量化部25と、状況変化判定部26と、通信部27と、表示部28を備える。管理装置20は、記憶部21と、要求処理部22と、データ取得部23と、表示制御部24と、定量化部25と、状況変化判定部26と、通信部27と、表示部28と、が、1つの筐体内に設けられていてもよく、その一部が異なる筐体に設けられていてもよい。例えば、管理装置20の記憶部21と、要求処理部22と、データ取得部23と、表示制御部24と、定量化部25と、状況変化判定部26と、通信部27とが、CPU、RAM、不揮発性記憶装置,可搬型記録媒体ドライブ装置などを含むコンピュータとして構成されていてもよい。
(Management device)
Next, the management device 20 will be explained.
The management device 20 shown in FIG. 2 includes a storage unit 21, a request processing unit 22, a data acquisition unit 23, a display control unit 24, a quantification unit 25, a situation change determination unit 26, a communication unit 27, A display unit 28 is provided. The management device 20 includes a storage unit 21, a request processing unit 22, a data acquisition unit 23, a display control unit 24, a quantification unit 25, a situation change determination unit 26, a communication unit 27, and a display unit 28. , may be provided in one housing, or a part thereof may be provided in a different housing. For example, the storage unit 21, the request processing unit 22, the data acquisition unit 23, the display control unit 24, the quantification unit 25, the situation change determination unit 26, and the communication unit 27 of the management device 20 are configured by the CPU, It may be configured as a computer including a RAM, a nonvolatile storage device, a portable recording medium drive device, and the like.

記憶部21は、履歴情報DB211などを格納する。
図3は、実施形態の履歴管理DBを説明するための図である。
The storage unit 21 stores a history information DB 211 and the like.
FIG. 3 is a diagram for explaining a history management DB according to the embodiment;

履歴管理DB211には、建物IDと、階と、平面図IDと、部屋IDと、内装面IDと、位置データと、原画像IDと、撮影日データと、撮影条件データと、範囲特定画像IDと、範囲データと、変化データ等のデータが含まれる。 The history management DB 211 stores building IDs, floors, floor plan IDs, room IDs, interior surface IDs, position data, original image IDs, shooting date data, shooting condition data, and range specific image IDs. , range data, and data such as change data.

建物IDには、対象の建物BL(対象建物)を識別するためのデータ(BL01等)が格納される。階には、建物BLにおける各階を特定するためのデータ(F1,F2等)が格納される。平面図IDには、対象建物における各階ごとの平面図のデータが格納される。例えば、平面図IDをBL011とする図面は、建物IDがBL01で識別される建物BLのF1階の図面(平面図)を示し、BL011とする図面は建物BLのF2階の図面を示す。部屋IDには、建物BLにおける対象の部屋を特定するための情報が格納される。RM01は部屋IDの一例である。 The building ID stores data (such as BL01) for identifying the target building BL (target building). The floor stores data (F1, F2, etc.) for specifying each floor in the building BL. The floor plan ID stores floor plan data for each floor of the target building. For example, a drawing with a plan view ID of BL011 indicates a drawing (plan view) of the F1 floor of the building BL identified by the building ID of BL01, and a drawing with BL011 indicates a drawing of the F2 floor of the building BL. The room ID stores information for specifying the target room in the building BL. RM01 is an example of a room ID.

内装面IDには、天井(C)、壁、床(F)などを特定するためのデータが格納される。例えば、壁の特定は、その部屋の略中心からその壁を見込む方位(N/E/W/S)を適用してもよい。 The interior surface ID stores data for specifying the ceiling (C), wall, floor (F), and the like. For example, a wall may be specified by applying an orientation (N/E/W/S) looking at the wall from the approximate center of the room.

位置データには、平面図上の位置を示すデータが格納される。P01,P02,P03などは、位置データの一例である。 The position data stores data indicating a position on a plan view. P01, P02, P03, etc. are examples of position data.

原画像IDには、建物において撮影した画像データのファイル名が格納される。例えば、画像データのファイルは、このファイル名から一意に識別される。なお、建物において撮影された画像の画像データは、原画像IDにファイル名とともに格納されていてもよく、他の記憶領域に格納されていてもよい。撮影日データには、建物において画像を撮影した年月を特定するデータが含まれる。撮影条件データは、画像を撮影した当日又はその前日などにおける対象建物の周囲の環境などを示すデータが格納される。例えば、その撮影条件データには、画像を撮影した当日又はその前日などの天気に係る情報や、室内の照明の点灯状態などが含まれる。 The original image ID stores the file name of the image data shot in the building. For example, an image data file is uniquely identified from this file name. Note that the image data of the image taken in the building may be stored together with the file name in the original image ID, or may be stored in another storage area. The photographing date data includes data specifying the year and month when the image was photographed in the building. The photographing condition data stores data indicating the surrounding environment of the target building on the day or the day before the image was photographed. For example, the shooting condition data includes weather information on the day or the day before the image was shot, lighting conditions of indoor lighting, and the like.

範囲特定画像IDには、上記の画像データに基づいて漏水範囲を特定した結果が追加された画像データのファイル名が格納される。例えば、漏水範囲を特定した結果が追加された画像データのファイルは、ファイル名から一意に識別される。なお、漏水範囲を特定した結果が追加された画像データは、範囲特定画像IDにファイル名とともに格納されていてもよく、他の記憶領域に格納されていてもよい。 The range identification image ID stores the file name of the image data to which the result of identifying the leak range based on the above image data is added. For example, a file of image data to which the result of identifying the leak area is added is uniquely identified from the file name. Note that the image data to which the result of specifying the leak range may be stored together with the file name in the range specifying image ID, or may be stored in another storage area.

範囲データには、画像データに基づいて特定した漏水範囲に関するデータが格納される。例えば、特定した漏水範囲に関するデータは、画像データによる画像内における漏水個所の位置と範囲を示すデータである。 The range data stores data relating to the water leakage range specified based on the image data. For example, the data regarding the identified leak range is data indicating the position and range of the leak location in the image based on the image data.

変化データには、過去の画像データに基づいて検出された漏水範囲に対して、本画像データに基づいて検出された漏水範囲の変化に関する情報が格納される。 The change data stores information about a change in the leak range detected based on the current image data with respect to the leak range detected based on the past image data.

例えば、建物IDがBL01で識別される建物BLのF1階に位置する部屋であって、部屋IDがRM01で特定される部屋において、P01,P02,P03などによって特定される位置があると仮定する。
現在までに、P01とP02で識別される位置の画像(IM1701とIM1702)のファイル名が原画像IDに格納されている。これらの画像を撮影した日の環境は、撮影条件データの項目から「晴」であったことが識別できる。
なお、この履歴管理DB211には、当年分のP03で識別される位置の画像のファイル名はまだ格納されていない状態(NA)にある。
For example, it is assumed that there are positions identified by P01, P02, P03, etc. in a room located on the F1 floor of the building BL identified by the building ID BL01 and identified by the room ID RM01. .
Until now, the file names of the images (IM1701 and IM1702) at the positions identified by P01 and P02 are stored in the original image ID. It can be identified from the items of the shooting condition data that the environment on the day these images were taken was "clear".
Note that the history management DB 211 has not yet stored the file name of the image at the position identified by P03 for the current year (NA).

上記は、当年分の画像データに関する一例を説明したものであるが、過年度の画像データも履歴管理DB211に同様に格納されている。例えば、撮影日データが、2016M1、2016M2などの画像データは過年度のものである。 Although the above describes an example of image data for the current year, image data for previous years are also stored in the history management DB 211 in the same manner. For example, image data with shooting date data of 2016M1, 2016M2, etc. are those of past years.

図2に戻り、要求処理部22とデータ取得部23は、通信部27を制御して携帯端末装置10又は操作端末装置30と通信する。その場合、要求処理部22とデータ取得部23は、予め定められた携帯端末装置10又は操作端末装置30の相手先(宛先)情報を用いて通信する。 Returning to FIG. 2 , the request processing unit 22 and the data acquisition unit 23 control the communication unit 27 to communicate with the mobile terminal device 10 or the operation terminal device 30 . In this case, the request processing unit 22 and the data acquisition unit 23 communicate using predetermined partner (destination) information of the mobile terminal device 10 or the operation terminal device 30 .

例えば、管理装置20は、OS、又は、アプリケーションプログラムの実行により、携帯端末装置10又は操作端末装置30と通信する。管理装置20は、HTTP(Hypertext Transfer Protocol)等のプロトコルを利用して、管理装置20等に格納されたコンテンツや画像データを、携帯端末装置10又は操作端末装置30から閲覧可能に提供すること等ができる。例えば、そのコンテンツは、HTML(HyperText Markup Language)等で記述されたもの、画像データ等である。管理装置20がコンテンツ等を提供する手法は、上記の他、一般的な手法を適用してもよい。 For example, the management device 20 communicates with the mobile terminal device 10 or the operation terminal device 30 by executing an OS or an application program. The management device 20 uses a protocol such as HTTP (Hypertext Transfer Protocol) to provide content and image data stored in the management device 20 or the like so that they can be browsed from the mobile terminal device 10 or the operation terminal device 30. can be done. For example, the content is described in HTML (HyperText Markup Language) or the like, image data, or the like. In addition to the method described above, a general method may be applied as the method by which the management device 20 provides content and the like.

要求処理部22は、携帯端末装置10又は操作端末装置30からの各種要求を受け、その要求に応じた処理を各部に実行させるとともに、その要求に対する応答を各端末装置に返す。 The request processing unit 22 receives various requests from the mobile terminal device 10 or the operation terminal device 30, causes each unit to execute processing according to the request, and returns a response to the request to each terminal device.

データ取得部23は、携帯端末装置10から、漏水個所の画像データを取得して、関連する各種情報を付与して履歴情報DB211に書き込み、格納する。 The data acquisition unit 23 acquires the image data of the leak location from the mobile terminal device 10, adds various related information, and writes and stores it in the history information DB 211. FIG.

表示制御部24は、携帯端末装置10又は操作端末装置30からの各種要求に応じて、建物、階、部屋、位置などにより指定された位置の図面、画像などを、履歴情報DB211等から読み出して、要求元の各端末装置に提供する。 In response to various requests from the mobile terminal device 10 or the operation terminal device 30, the display control unit 24 reads, from the history information DB 211 or the like, a drawing, an image, or the like of a position specified by a building, floor, room, position, or the like. , to each requesting terminal device.

定量化部25は、漏水箇所の画像に基づいて、漏水の跡から特定される漏水範囲を定量化する。その詳細については後述する。 The quantification unit 25 quantifies the leak range identified from the trace of the leak based on the image of the leak location. The details will be described later.

状況変化判定部26は、漏水範囲の変化の比率(変化率)に基づいて、状況の変化を判定する。 The situation change determination unit 26 determines a change in situation based on the rate of change (rate of change) of the leakage range.

通信部27は、通信によりネットワークNWに接続され、要求処理部22とデータ取得部23の制御により携帯端末装置10又は操作端末装置30と通信する。 The communication unit 27 is connected to the network NW by communication, and communicates with the mobile terminal device 10 or the operation terminal device 30 under the control of the request processing unit 22 and the data acquisition unit 23 .

表示部28は、液晶ディスプレイ、エレクトロルミネッセンスディスプレイなどを備えており、併せて、操作を受け付けるタッチパネルとして形成されていている。 The display unit 28 includes a liquid crystal display, an electroluminescence display, and the like, and is also formed as a touch panel for accepting operations.

(操作端末装置)
図2に示す操作端末装置30は、通信部31と、記憶部32と、制御部33と、表示部34とを備える。操作端末装置30の上記各部の構成は、携帯端末装置10の構成に準じる。
(Operation terminal device)
The operation terminal device 30 shown in FIG. 2 includes a communication section 31, a storage section 32, a control section 33, and a display section . The configuration of each unit of the operation terminal device 30 conforms to the configuration of the mobile terminal device 10 .

図4は、実施形態の携帯端末装置10の操作により画像を記録する処理を説明するための図である。図5は、実施形態の携帯端末装置10の操作により画像を記録する処理の手順を示すフローチャートである。 FIG. 4 is a diagram for explaining processing for recording an image by operating the mobile terminal device 10 of the embodiment. FIG. 5 is a flowchart showing a procedure of processing for recording an image by operating the mobile terminal device 10 of the embodiment.

携帯端末装置10は、ユーザの操作を受け付けて、ユーザの操作により選択された建物に関する情報を管理装置20に通知して、建物に関する図面情報を要求する(ステップSA11)。管理装置20は、携帯端末装置10からの要求を受け付けて(ステップSA21)、その要求に応じて、ユーザの操作により選択された建物に関する図面情報を、携帯端末装置10に提供する(ステップSA22)。 The mobile terminal device 10 accepts the user's operation, notifies the management device 20 of the information on the building selected by the user's operation, and requests the drawing information on the building (step SA11). The management device 20 receives the request from the mobile terminal device 10 (step SA21), and in response to the request, provides the mobile terminal device 10 with the drawing information related to the building selected by the user's operation (step SA22). .

携帯端末装置10は、ユーザの操作により選択された建物に関する図面情報を、管理装置20から受信して、それを表示操作部14に表示する(ステップSA12)。例えば、図4(a)に、表示部に表示される図面(平面図BL01F1)の一例を示す。この平面図BL01F1には、過去に漏水が検出された位置にそれを示すマーカー(P01,P02,P03等)が示されている。 The mobile terminal device 10 receives the drawing information related to the building selected by the user's operation from the management device 20 and displays it on the display operation unit 14 (step SA12). For example, FIG. 4A shows an example of a drawing (plan view BL01F1) displayed on the display unit. In this plan view BL01F1, markers (P01, P02, P03, etc.) are shown at positions where water leakage was detected in the past.

ユーザは、表示部に表示された平面図BL01F1を参照して、平面図BL01F1に記された所望の位置に対応するマーカー(P01,P02,P03等)を選択する。例えば、ユーザは、P03のマーカーを選択するための操作をしたものとする。 The user refers to the plan view BL01F1 displayed on the display unit and selects markers (P01, P02, P03, etc.) corresponding to desired positions marked on the plan view BL01F1. For example, it is assumed that the user has performed an operation to select the marker P03.

携帯端末装置10は、ユーザの操作を受け付けて、選択された所望の位置の過去の画像データを、管理装置20に要求する(ステップSA13)。管理装置20は、携帯端末装置10からの要求を受け付けて(ステップSA23)、その要求に応じて、ユーザにより選択された所望の位置の過去の画像データを携帯端末装置10に提供する(ステップSA24)。 The mobile terminal device 10 receives the user's operation and requests the past image data of the selected desired position from the management device 20 (step SA13). The management device 20 receives the request from the mobile terminal device 10 (step SA23), and in response to the request, provides the mobile terminal device 10 with the past image data of the desired position selected by the user (step SA24). ).

携帯端末装置10は、ユーザにより選択された所望の位置の過去の画像データを、管理装置20から受信して、それを表示部に表示する(ステップSA14)。例えば、図4(b)に、表示操作部14に表示される画像(IM1601等)の一例を示す。この画像IM1601には、過去に漏水が検出された位置で漏水状況を撮影した画像(IM1601PA)が示されている。 The mobile terminal device 10 receives the past image data of the desired position selected by the user from the management device 20 and displays it on the display unit (step SA14). For example, FIG. 4B shows an example of an image (IM1601, etc.) displayed on the display operation unit 14 . This image IM1601 shows an image (IM1601PA) of the water leakage situation captured at a position where water leakage was detected in the past.

携帯端末装置10は、図4(c)に示すように上記の過去の画像データを表示操作部14に表示しつつ、撮影処理を実行して、撮像部15により画像を撮像する(ステップSA15)。
携帯端末装置10は、撮像部15により撮像した画像の画像データをアップロードする(ステップSA16)。管理装置20は、アップロードされた画像データを取得して、履歴情報DB211に格納する(ステップSA26)。
As shown in FIG. 4(c), the mobile terminal device 10 displays the past image data on the display/operation unit 14, executes the image capturing process, and captures an image with the image capturing unit 15 (step SA15). .
The mobile terminal device 10 uploads the image data of the image captured by the imaging unit 15 (step SA16). The management device 20 acquires the uploaded image data and stores it in the history information DB 211 (step SA26).

なお、上記のステップSA15における撮影処理を実行する際に、携帯端末装置10は、上記の過去の画像と、撮像部15により撮像された現在の画像IMNOWとについて、何れか一方が透過するように調整して、2つの画像が重なった1つの画像を表示操作部14に表示する。符号SI1601が過去の画像における漏水箇所を示し、符号SI1701が当年の画像における漏水箇所を示す。図4(c)では、現在の画像IMNOWを実線で示し、過去の画像を点線で示す。これにより、画像を撮像する位置、撮像系等の条件が一致していることにより、被写体の像が重なった状態で表示される。このような状態で撮影された画像は、撮影対象の漏水箇所の状況の画像を含むものになる。 Note that when executing the photographing process in step SA15 described above, the mobile terminal device 10 sets either the past image or the current image IMNOW captured by the imaging unit 15 so that one of them is transparent. After adjustment, one image in which two images are superimposed is displayed on the display operation unit 14. - 特許庁Reference numeral SI1601 indicates the water leakage location in the past image, and reference numeral SI1701 indicates the water leakage location in the image of the current year. In FIG. 4(c), the current image IMNOW is indicated by a solid line, and the past image is indicated by a dotted line. As a result, the images of the subject are displayed in an overlapping state because the conditions such as the image pickup position and the image pickup system are the same. An image captured in such a state includes an image of the condition of the leakage location to be captured.

ただし、携帯端末装置10は、定点設置されたものではなく、ユーザによって携行される。そのため、ユーザが、画像を撮像する位置を、過去に画像を撮影した位置に合わせることを試みたとしても、2つの画像を完全に一致させることは困難なことがある。 However, the mobile terminal device 10 is not installed at a fixed point, but is carried by the user. Therefore, even if the user attempts to align the position where the image is captured with the position where the image was captured in the past, it may be difficult to perfectly match the two images.

そこで、本実施形態では、上記のように、画像を撮像する位置の不一致などにより、被写体の像が完全に重ならない場合の補正について説明する。 Therefore, in the present embodiment, as described above, correction will be described in the case where the images of the subject do not overlap completely due to a mismatch in the positions at which the images are captured.

(漏水範囲の検出)
図6は、実施形態の情報端末装置30の操作により画像を記録する処理を説明するための図である。図7は、実施形態の情報端末装置30の操作により画像を記録する処理の手順を示すフローチャートである。
(Detection of water leakage range)
FIG. 6 is a diagram for explaining processing for recording an image by operating the information terminal device 30 of the embodiment. FIG. 7 is a flow chart showing a procedure of processing for recording an image by operating the information terminal device 30 of the embodiment.

まず、操作端末装置30は、ユーザの操作により選択された建物に関する情報を管理装置20に通知して、建物に関する図面情報を要求する(ステップSB31)。管理装置20は、操作端末装置30からの要求を受け付けて(ステップSB21)、その要求に応じて、ユーザの操作により選択された建物に関する図面情報を、操作端末装置30に提供する(ステップSB22)。 First, the operation terminal device 30 notifies the management device 20 of information about the building selected by the user's operation, and requests drawing information about the building (step SB31). The management device 20 receives the request from the operation terminal device 30 (step SB21), and in response to the request, provides the operation terminal device 30 with the drawing information related to the building selected by the user's operation (step SB22). .

操作端末装置30は、ユーザの操作により選択された建物に関する図面情報を、管理装置20から受信して、それを表示部34に表示する(ステップSB32)。例えば、図6(a)に、表示部に表示される図面(平面図BL01F1)の一例を示す。この平面図BL01F1には、過去に漏水が検出された位置にそれを示すマーカー(P01,P02,P03等)が示されている。 The operation terminal device 30 receives the drawing information related to the building selected by the user's operation from the management device 20 and displays it on the display unit 34 (step SB32). For example, FIG. 6A shows an example of a drawing (plan view BL01F1) displayed on the display unit. In this plan view BL01F1, markers (P01, P02, P03, etc.) are shown at positions where water leakage was detected in the past.

ユーザは、表示部に表示された平面図BL01F1を参照して、平面図BL01F1に記された所望の位置に対応するマーカー(P01,P02,P03等)を選択する。例えば、ユーザは、P03のマーカーを選択するための操作をしたものとする。 The user refers to the plan view BL01F1 displayed on the display unit and selects markers (P01, P02, P03, etc.) corresponding to desired positions marked on the plan view BL01F1. For example, it is assumed that the user has performed an operation to select the marker P03.

操作端末装置30は、ユーザの操作を受け付けて、選択された所望の位置の画像データを、管理装置20に要求する(ステップSB33)。管理装置20は、操作端末装置30からの要求を受け付けて(ステップSB23)、その要求に応じて、ユーザにより選択された所望の位置の互いに異なる時に撮影された少なくとも2つ以上の画像データを、操作端末装置30に提供する(ステップSB24)。 The operation terminal device 30 receives the user's operation and requests the image data of the selected desired position from the management device 20 (step SB33). The management device 20 receives a request from the operation terminal device 30 (step SB23), and in response to the request, at least two or more image data shot at different times at desired positions selected by the user, It is provided to the operation terminal device 30 (step SB24).

操作端末装置30は、ユーザにより選択された所望の位置の互いに異なる時に撮影された少なくとも2つ以上の画像データを、管理装置20から受信して、それらを表示部34に表示する(ステップSB34)。 The operation terminal device 30 receives from the management device 20 at least two pieces of image data photographed at different times at desired positions selected by the user, and displays them on the display unit 34 (step SB34). .

例えば、図6(b)に、表示部34に表示される画像(IM1601とIM1701等)の一例を示す。上記の2つ以上の画像には、過去に検出された漏水の発生状況を示す画像IM1601(以下、第1画像という。)と、上記の過去(画像IM1601を撮影した時点)より後に検出された漏水の発生状況を示す画像IM1701(以下、第2画像という。)とが含まれている。管理装置20は、操作端末装置30に表示された画面上に上記の第1画像と第2画像とのそれぞれを、領域を分けて並べて配置するようなデータを生成して送信する。その結果、操作端末装置30が、上記の第1画像と第2画像の画像データとを、領域を分けて並べて配置して表示させたことで、ユーザは、表示部34に表示された第1画像と第2画像を参照することが可能になる。 For example, FIG. 6B shows an example of images (IM1601, IM1701, etc.) displayed on the display unit . The above two or more images include an image IM1601 (hereinafter referred to as the first image) indicating the occurrence of water leakage detected in the past, and an image IM1601 detected after the past (when the image IM1601 was captured). and an image IM1701 (hereinafter referred to as a second image) showing the state of occurrence of water leakage. The management device 20 generates and transmits data for arranging the first image and the second image in separate areas on the screen displayed on the operation terminal device 30 . As a result, the operation terminal device 30 causes the image data of the first image and the second image to be displayed by dividing the image data into areas and arranging them side by side. It becomes possible to refer to the image and the second image.

ここで、ユーザは、両方の画像に含まれる像の中から共通する像の特徴点を選択し、選択した特徴点の位置を指定する。例えば、ユーザは、選択した特徴点の位置を各画像上に登録するように、表示部34の画面上でその特徴点の位置をタッチする。ユーザが指定する特徴点は、照明器具の筐体上の点、天井や壁などに張りつめたパネル材同士の境界上の点、点検口などに設けたフレーム上の点などを選択してもよい。例えば、符号TPは、ユーザが指定した特徴点を示す。なお、特徴点TPの個数を下記のように定めてもよい。管理装置20は、ユーザの要求により受け付ける特徴点TPの個数を、画像毎に同数にする。その個数は、例えば少なくとも2個以上である。図に示す例では、4つの特徴点TPを登録したものである。 Here, the user selects common feature points of the images included in both images, and designates the position of the selected feature points. For example, the user touches the position of the selected feature point on the screen of the display unit 34 so as to register the position of the selected feature point on each image. The feature points specified by the user may be selected from points on the housing of the lighting equipment, points on the boundary between panel materials stretched on the ceiling and walls, points on the frame provided at the inspection door, etc. . For example, the code TP indicates a feature point specified by the user. Note that the number of feature points TP may be determined as follows. The management device 20 equalizes the number of feature points TP received in response to user requests for each image. The number is, for example, at least two or more. In the illustrated example, four feature points TP are registered.

この場合、操作端末装置30は、ユーザの操作により指定された位置を検出し、指定された位置を第1画像と第2画像とに関連付けることを、要求する位置合わせ要求に関する情報を管理装置20宛に送信する(ステップSB35)。なお、上記は、アイコンEC31(「位置合わせ」)の操作が検出された後に実施される。 In this case, the operation terminal device 30 detects the position designated by the user's operation, and sends information regarding the registration request requesting that the designated position be associated with the first image and the second image. (Step SB35). Note that the above is performed after the operation of the icon EC31 (“alignment”) is detected.

上記の要求を受けた管理装置20は、位置合わせ要求に応じて、各画像のそれぞれにその特徴点TPを関連付ける位置合わせ処理を実施する(ステップSB25)。なお、管理装置20は、上記の位置合わせ処理を次のように実施してもよい。管理装置20は、画像上の特定の位置に特徴点TPを関連付けるように、その特定の位置を示す位置座標を、画像データと特徴点TPの識別情報とに対応付けて履歴情報DB211に格納する。また、操作端末装置30は、並べて表示された2つの画像(第1画像と第2画像)が同じ尺度で見えるように調整することを、管理装置20に要求してもよい。管理装置20は、操作端末装置30からの上記の要求を受け付けて、上記の複数の特徴点TPを用いて第1画像と第2画像の少なくとも何れか一方の尺度を調整する。なお、管理装置20は、この調整に当たり、尺度の調整の他、任意の点を基準にした画像の回転、台形変換等を合わせて実施してもよい。符号IM1601Cの画像は、画像IM1601(第1画像)に基づいて、上記の調整がなされたものである。上記のように調整された2つの画像は、その尺度や方向等が揃い、表示部上の平行移動で互いに対応する各特徴点TPが重なるような画像になる。 In response to the request for registration, the management device 20 performs registration processing for associating the feature points TP of each image with each image (step SB25). Note that the management device 20 may perform the alignment process as follows. The management device 20 stores the position coordinates indicating the specific position in the history information DB 211 in association with the image data and the identification information of the feature point TP so that the feature point TP is associated with the specific position on the image. . Further, the operation terminal device 30 may request the management device 20 to adjust the two images (the first image and the second image) displayed side by side so that they can be seen on the same scale. The management device 20 receives the request from the operation terminal device 30 and adjusts the scale of at least one of the first image and the second image using the plurality of feature points TP. In this adjustment, the management device 20 may perform rotation of the image based on an arbitrary point, trapezoidal transformation, etc., in addition to adjusting the scale. The image denoted by reference IM1601C is the image IM1601 (first image) that has been adjusted as described above. The two images adjusted as described above have the same scale, direction, etc., and become images such that corresponding feature points TP are overlapped by parallel movement on the display unit.

なお、操作端末装置30は、上記の2つの画像を並べて表示するか、或いは、重ねて表示するかを管理装置20に対して要求し、管理装置20がその要求を処理することにより、上記の要求に応じた画像データの応答を受ける。この表示形態の切り替えについては、操作端末装置30は、適宜要求することができる。 The operation terminal device 30 requests the management device 20 whether to display the two images side by side or to display them in an overlapping manner. Receives a response with the requested image data. The operation terminal device 30 can appropriately request the switching of the display mode.

次に、操作端末装置30は、図6(c)に示すアイコンEC32(「漏水跡検出」)の操作を検出した後に、管理装置20宛に、上記の2つの画像のそれぞれに、染みが生じた範囲を明確化させた画像を表示するように要求する(ステップSB36)。 Next, after detecting the operation of the icon EC32 (“water leakage trace detection”) shown in FIG. A request is made to display an image with a clarified range (step SB36).

上記の要求を受けた管理装置20は、図6(d)に示すような染みが生じた範囲を示す表示を、上記の2つの画像のそれぞれに追加して表示するような画像データを生成する。管理装置20は、生成された画像データを、操作端末装置30宛に送信する。管理装置20は、上記の漏水跡検出処理を実施する(ステップSB26)。 Upon receipt of the above request, the management device 20 generates image data that displays a display indicating the range where the stain occurs, as shown in FIG. 6(d), added to each of the above two images. . The management device 20 transmits the generated image data to the operation terminal device 30 . The management device 20 carries out the water leakage trace detection process (step SB26).

次に、操作端末装置30は、管理装置20からの応答を受け、上記の2つの画像のそれぞれに染みが生じた範囲を明示した画像を表示する。 Next, the operation terminal device 30 receives a response from the management device 20 and displays an image that clearly indicates the range where the stain occurs in each of the above two images.

次に、操作端末装置30は、管理装置20宛に、上記の2つの画像のそれぞれにおいて、染みが生じた範囲を定量化することを、管理装置20に要求する(ステップSB37)。 Next, operation terminal device 30 requests management device 20 to quantify the range in which stains occur in each of the above two images (step SB37).

上記の要求を受けた管理装置20は、上記の2つの画像のそれぞれにおいて、染みが生じた範囲を計数し、その結果を操作端末装置30宛に送信する定量評価処理を実施する(SB27)。 Upon receiving the above request, the management device 20 counts the areas in which stains occur in each of the above two images, and performs a quantitative evaluation process of transmitting the result to the operation terminal device 30 (SB27).

例えば、操作端末装置30は、その定量評価処理の結果を受けて、その結果を表示する。例えば、操作端末装置30に表示される結果には、図6(e)に示すように、各画像における染みが生じた範囲の面積拡大率と、染みの明度変化率とが含まれていてもよい。 For example, the operation terminal device 30 receives the result of the quantitative evaluation process and displays the result. For example, as shown in FIG. 6E, the results displayed on the operation terminal device 30 may include the area enlargement ratio of the area where the stain occurs in each image and the brightness change rate of the stain. good.

(漏水範囲の定量化の手法)
ここで、漏水範囲の定量化の手法について説明する。定量化部25は、画像に示された漏水の跡に基づいて、その画像における漏水範囲を識別し、識別した範囲の大きさを定量化する。
(Method for quantifying water leakage range)
Here, a method for quantifying the water leakage range will be described. The quantification unit 25 identifies the water leakage range in the image based on the trace of water leakage shown in the image, and quantifies the size of the identified range.

さらに、定量化部25は、2つの画像に示された、共通する漏水の跡に基づいて、双方の画像における漏水範囲の大きさの変化を定量化する。このように、2つの画像に示された共通する漏水の跡を評価の対象にすることにより、2つの画像がそれぞれ示す状態の違いが容易になる。 Furthermore, the quantification unit 25 quantifies the change in the size of the water leakage range in both images based on the common water leakage traces shown in the two images. In this way, by subjecting the common water leakage traces shown in the two images to the evaluation target, it becomes easy to distinguish between the states shown in the two images.

なお、状況変化判定部26は、算出された漏水範囲の変化を双方の画像における変化率で示すことにより、変化の程度を定量化する。例えば、定量化部25は、双方の画像に共通する範囲内の漏水範囲内外の面積の比を算出し、その面積比を対比することにより、漏水範囲の変化の程度を算出する。この場合、定量化部25は、双方の画像に共通する範囲内に複数の基準の位置が定められ、漏水範囲内外の前記基準の位置の明るさの分布に基づいて、前記漏水範囲の変化を算出してもよい。 In addition, the situation change determination unit 26 quantifies the degree of change by indicating the calculated change in the leakage range by the rate of change in both images. For example, the quantification unit 25 calculates the ratio of the areas inside and outside the leakage range within the range common to both images, and compares the area ratios to calculate the degree of change in the leakage range. In this case, a plurality of reference positions are defined within a range common to both images, and the quantification unit 25 calculates changes in the leak range based on the distribution of brightness at the reference positions inside and outside the leak range. can be calculated.

例えば、所定の大きさを範囲にもつ画像において、複数の基準の位置を格子状に定める。格子の間隔は、要求する検出精度に合わせて決定してよい。格子は、撮像部の撮像デバイスにおいて、所定の間隔に配置された撮像素子に対応付けられていてもよい。 For example, in an image having a range of a predetermined size, a plurality of reference positions are determined in a grid pattern. The grid spacing may be determined according to the required detection accuracy. The lattice may be associated with the imaging elements arranged at predetermined intervals in the imaging device of the imaging unit.

以下、定量化部25の処理を、被写体の輪郭を推定する識別機能を深層学習の手法で実施する事例について説明する。図8は、実施形態の輪郭の識別機能について説明するための図である。上記の識別機能は、セマンティックセグメンテーションとして知られている。セマンティックセグメンテーションを実現する手法として、エンコーダ・デコーダネットワーク、フルコンボリュ―ションネットワーク(FCN)等が知られている。 In the following, an example will be described in which the processing of the quantification unit 25 is performed using a deep learning technique for the identification function of estimating the outline of the subject. FIG. 8 is a diagram for explaining the contour identification function of the embodiment. The above identification function is known as semantic segmentation. Encoder/decoder networks, full convolution networks (FCN), and the like are known as techniques for realizing semantic segmentation.

図8(a)に示すエンコーダ・デコーダネットワークは、要求解像度に応じて決定される入力層と、出力層とを有する。入力層の後段に設けられるエンコーダは、複数の畳み込み層と複数のプーリング層とを含み、入力画像を入力層によって取得し、入力画像を低解像度化する。出力層の前段に設けられるデコーダは、複数の逆プーリング層と複数の転置畳み込み層とを含む。エンコーダとデコーダは、低解像度化された階層で接続され、エンコーダによって入力画像から低解像度化された情報(プーリングの位置情報)等を組み合わせて、出力層の解像度まで高精細化した画像を生成する。この過程で、エンコーダ・デコーダネットワークは、所望の条件を満たす領域を、所望の領域として推定する。 The encoder/decoder network shown in FIG. 8(a) has an input layer and an output layer determined according to the required resolution. An encoder provided after the input layer includes a plurality of convolution layers and a plurality of pooling layers, acquires an input image by the input layer, and reduces the resolution of the input image. A decoder that precedes the output layer includes a plurality of depooling layers and a plurality of transposed convolution layers. The encoder and decoder are connected in a layer with reduced resolution, and combine information (pooling position information) etc. reduced from the input image by the encoder to generate a high-definition image up to the resolution of the output layer. . In this process, the encoder-decoder network estimates the region that satisfies the desired conditions as the desired region.

また、図8(b)に示すフルコンボリュ―ションネットワークは、要求解像度に応じて決定される入力層と、出力層とを有する。フルコンボリュ―ションネットワークは、入力層より後段の中間層が複数の畳み込み層を含む。入力層が入力画像を取得し、中間層が入力画像を低解像度化する。フルコンボリュ―ションネットワークは、各畳み込み層からのデータに基づいて、要求解像度の出力層のデータを逆畳み込み演算により生成する。この過程で、フルコンボリュ―ションネットワークは、所望の条件を満たす領域を、所望の領域として推定する。 Also, the full convolution network shown in FIG. 8(b) has an input layer and an output layer determined according to the required resolution. A full convolution network includes a plurality of convolutional layers in the intermediate layer after the input layer. An input layer acquires an input image, and an intermediate layer down-resizes the input image. A full convolution network generates output layer data of the required resolution by deconvolution based on the data from each convolution layer. In this process, the full convolution network estimates a region that satisfies the desired conditions as the desired region.

上記のエンコーダ・デコーダネットワークとフルコンボリュ―ションネットワークのそれぞれは、教師データを用いて予め学習することにより、その識別能力を高めることができる。その教師データは、過去に発生した漏水が記録された画像を利用してもよい。例えば、ユーザが、その画像の中の漏水個所を識別して、正しく識別した場合の模範データを作成して、それを教師データにするとよい。このように、過去の画像データを教師データに利用することで、推定精度を高めることが可能になる。 Each of the encoder/decoder network and the full convolution network described above can be trained in advance using teacher data to improve their discriminating ability. As the training data, an image recording water leakage that occurred in the past may be used. For example, the user may identify the water leakage location in the image, create model data for the case of correct identification, and use it as teacher data. In this way, by using past image data as teacher data, it is possible to improve estimation accuracy.

実施形態の定量化部25は、被写体の輪郭を推定する識別機能を有することにより、検出対象の漏水の跡(輪郭)の形状がまちまちであっても、輪郭の形状の特徴とは異なる特徴を利用してその範囲を抽出する。
なお、漏水が記録された画像を教師データにして学習した定量化部25であれば、形状がまちまちな漏水の跡(輪郭)であっても、抽出することを可能にする。この点、パターンマッチング等の手法とは異なった推定精度を得ることができる。
The quantification unit 25 of the embodiment has an identification function of estimating the contour of the subject, so that even if the shape of the trace (contour) of the water leak to be detected is different, the characteristics different from the shape of the contour can be determined. Extract the range using
It should be noted that the quantification unit 25, which has learned using an image in which water leakage is recorded as training data, can extract even water leakage traces (contours) of various shapes. In this respect, it is possible to obtain an estimation accuracy different from that of pattern matching or the like.

以上の実施形態によれば、表示制御部は、建物BL内の漏水箇所における漏水状況を示す画像であって互いに撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得して、第1画像の特徴点と第2画像の特徴点とを対応させて、第1画像と第2画像に共通する漏水範囲が重なるように、第1画像と第2画像を重ねて表示する。定量化部25は、第1画像と第2画像の双方の画像に示された漏水の跡に基づいて、双方の画像における漏水範囲の変化を定量化することにより、漏水が生じた箇所の画像から、発生した漏水の程度を識別することができる。 According to the above embodiment, the display control unit acquires a plurality of images including the first image and the second image, which are images showing the state of water leakage at the water leakage location in the building BL and which are taken at different times. , the feature points of the first image and the feature points of the second image are associated with each other, and the first image and the second image are superimposed and displayed so that the leakage range common to the first and second images overlaps. The quantification unit 25 quantifies the change in the water leakage range in both the first image and the second image based on the traces of water leakage shown in the images of both the first image and the second image. , the degree of leakage that has occurred can be identified.

また、定量化部25は、漏水範囲の変化の程度を、漏水範囲の変化を、双方の画像に共通する範囲内の漏水範囲内外の面積の比から算出する。これにより、2つの画像に共通する範囲内における漏水範囲内外の面積の比から、漏水範囲の変化を検出することができる。 Further, the quantification unit 25 calculates the degree of change in the water leakage range from the ratio of the areas inside and outside the water leakage range within the range common to both images. Accordingly, a change in the water leakage range can be detected from the ratio of the areas inside and outside the water leakage range in the range common to the two images.

また、定量化部25は、双方の画像に共通する範囲内に複数の基準の位置が定められ、漏水範囲内外の前記基準の位置の明るさの分布に基づいて、前記漏水範囲の変化を算出する。これにより、双方の画像に共通する範囲内に定めた複数の基準の位置の明るさの分布に基づいて、前記漏水範囲の変化を算出することができる。また、基準の位置を配置する密度により、検出精度を決定することができる。 Further, the quantification unit 25 calculates a change in the water leakage range based on the brightness distribution of the reference positions within and outside the water leakage range, with a plurality of reference positions defined within a range common to both images. do. Accordingly, the change in the water leakage range can be calculated based on the distribution of brightness at a plurality of reference positions defined within a range common to both images. Also, the detection accuracy can be determined by the density of the reference positions.

また、状況変化判定部26は、算出された漏水範囲の変化を上記の双方の画像における変化率で示してもよい。これにより、双方の画像に対応する漏水の大きさを優先とする識別で見落とされがちな規模の小さな漏水であっても、変化率に着目することにより、急に状態が変化している個所を、変化の少ない箇所と識別することができる。 In addition, the situation change determination unit 26 may indicate the calculated change in the leakage range by the rate of change in both images. As a result, even for small-scale leaks that tend to be overlooked in identification that prioritizes the size of leaks corresponding to both images, by focusing on the rate of change, it is possible to identify places where the state is suddenly changing. , can be identified as a portion with little change.

また、建物BL内の漏水箇所が、建物BLの内装部材により隠蔽される建物BLの躯体側にある場合であっても、建物BL内の漏水状況を示す画像が、建物BL内の漏水箇所の像を含まない建物BLの内装部材の表面の画像にすることにより、当該位置の内装部材を撤去すること無く漏水の状況を判定することができる。 In addition, even if the leak location in the building BL is located on the side of the frame of the building BL that is hidden by the interior materials of the building BL, the image showing the state of the leak in the building BL will not show the location of the leak in the building BL. By using an image of the surface of the interior member of the building BL that does not include the image, it is possible to determine the state of water leakage without removing the interior member at the relevant position.

なお、第1画像と第2画像は、漏水状況を示す像の他に、漏水状況によって変化しない被写体の像を含む。表示制御部は、漏水状況によって変化しない被写体の像に基づいて、第1画像と前記第2画像が重なるように調整するようにしたことにより、漏水状況によって変化しない被写体の像に基づいて、2つの画像の対比を容易にする。 Note that the first image and the second image include an image of a subject that does not change depending on the water leakage situation, in addition to the image showing the water leakage situation. The display control unit adjusts the first image and the second image based on the image of the subject that does not change depending on the water leakage condition, so that two images are displayed based on the image of the subject that does not change depending on the water leakage condition. Facilitates contrasting two images.

(第2の実施形態)
第2の実施形態の状況変化判定部26は、建物BL内の漏水箇所に対応付けて、複数の画像のそれぞれと、その特徴点と撮影段階の条件の組情報とを記憶部に格納する。例えば、撮影日の前日又は当日の天気は、撮影段階の条件の一例である。
(Second embodiment)
The situation change determination unit 26 of the second embodiment stores each of a plurality of images, their characteristic points, and set information of conditions at the imaging stage in the storage unit in association with the water leakage locations in the building BL. For example, the weather on the day before or on the day of the shooting is an example of conditions in the shooting stage.

例えば、定量化部25は、撮影日の前日又は当日の天気に合わせた判定条件を利用するようにしてもよい。撮影日の前日又は当日の天気が雨などで、それによる漏水が生じる場合がある。撮影段階で、内装材が乾いていないと、乾燥時の状態と異なる画像になることがある。 For example, the quantification unit 25 may use a determination condition that matches the weather on the day before or on the day of photography. If the weather is rainy the day before or on the day of the shooting, water leakage may occur. If the interior material is not dry at the photographing stage, the image may differ from the dry state.

そこで、定量化部25は、天候などを特定する撮影段階の条件の情報を判定に利用して、判定基準を調整してもよい。 Therefore, the quantification unit 25 may adjust the determination criteria by using the information of the conditions at the imaging stage, such as the weather, for the determination.

第2の実施形態によれば、第1の実施形態と同様の効果を奏することの他に、定量化部25は、状況変化判定部26は、撮影段階の条件を含めて、状況変化の判定に利用可能にした。 According to the second embodiment, in addition to the effects similar to those of the first embodiment, the quantification unit 25 and the situation change determination unit 26 determine the situation change including conditions at the imaging stage. made available to

(第3の実施形態)
第3の実施形態の定量化部25は、双方の画像に共通する範囲内において、漏水範囲内外の基準の位置の明るさの比に基づいて漏水範囲の変化を算出する。
(Third embodiment)
The quantification unit 25 of the third embodiment calculates the change in the leak range based on the ratio of the brightness of the reference positions inside and outside the leak range in the range common to both images.

定量化部25は、第1の画像における漏水箇所の近傍に基準点を定め、第1画像に対応する第2画像における上記の基準点の明るさの比を算出する。例えば、漏水の状況が悪化して、漏水の範囲が広がると、その輪郭(跡)の位置が外側に移動する。このとき、基準点に輪郭が掛かることにより、基準点の明るさが変化する。定量化部25は、この明るさの変化を検出するようにしてもよい。 The quantification unit 25 determines a reference point near the leak location in the first image, and calculates the brightness ratio of the reference point in the second image corresponding to the first image. For example, when the water leakage situation worsens and the water leakage range widens, the outline (mark) moves outward. At this time, the brightness of the reference point changes due to the outline overlapping the reference point. The quantification unit 25 may detect this change in brightness.

第3の実施形態によれば、第1の実施形態と同様の効果を奏することの他に、定量化部25は、基準の位置の明るさの比を算出するという比較的計算処理の負荷の少ない方法で漏水状態の悪化を検出することができる。 According to the third embodiment, in addition to the same effect as the first embodiment, the quantification unit 25 reduces the computational load of calculating the brightness ratio at the reference position. It is possible to detect the deterioration of the water leakage condition with a few methods.

なお、情報処理システム1を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより管理装置20が指定する対象のコンテンツに、共有情報を追加するなどの処理動作を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A program for realizing the information processing system 1 is recorded in a computer-readable recording medium, and the program recorded in the recording medium is read into a computer system and executed. A processing operation such as adding shared information may be performed on the contents of the . It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. Also, the "computer system" includes a WWW system provided with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、ネットワークや通信回線のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Also, the program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program means a medium having a function of transmitting information, such as a network or a communication line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the functions described above in combination with a program already recorded in the computer system.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1…情報処理システム、BL…建物、10…携帯端末装置、20…管理装置、21…記憶部、22…要求処理部、23…データ取得部、24…表示制御部、25…定量化部、26…状況変化判定部、27通信部、28表示部、30…操作端末装置 Reference Signs List 1 information processing system, BL building, 10 mobile terminal device, 20 management device, 21 storage unit, 22 request processing unit, 23 data acquisition unit, 24 display control unit, 25 quantification unit, 26... Situation change determination unit, 27 communication unit, 28 display unit, 30... Operation terminal device

Claims (10)

雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする情報処理システムであって、
前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得する表示制御部であって、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御する表示制御部と、
前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化する定量化部と、
前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化する状況変化判定部と、
端末装置からの要求を受けて、前記要求に応じた処理をする要求処理部であって、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供する要求処理部と、
を備え、
前記表示制御部は、
要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得して、
前記定量化部は、
前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出して、
前記状況変化判定部は、
前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化する、
情報処理システム。
An information processing system in which rainwater or tap water leakage occurs in a building and the degree of the leakage can be identified,
On the surface of the interior material at the water leakage location in the building, a stain-like water leakage trace caused by the interior material getting wet is formed, and the water leakage situation at the water leakage location photographed using a visible camera is shown. A display control unit that acquires a plurality of images including a first image and a second image that are images and are taken at different time points of the traces of water leakage, wherein the characteristic points of the first image and the second image are obtained. a display control unit that controls to overlap and display the first image and the second image so that the water leakage range common to the first image and the second image overlaps with each other in correspondence with the feature points;
a quantification unit that quantifies, based on the water leakage traces shown in both the first image and the second image, a change in the size of the range identified by the water leakage traces in both of the images; ,
a situation change determination unit that quantifies a rate of change in the size of the range identified by the quantified leak traces based on the leak traces shown in the two images;
A request processing unit that receives a request from a terminal device and performs processing according to the request, wherein the quantification result is sent to the request source terminal device that requests the quantification result. a request processing unit that provides the quantification result to the request source terminal device so as to be displayed on a display unit of the source terminal device;
with
The display control unit
The first image, which is a past image, is provided to the terminal device in response to a request, and the first image is transparently displayed on the monitor of the terminal device, thereby enabling position adjustment when the second image is captured. and acquiring the second image captured by the imaging unit of the terminal device,
The quantification unit
brightness of the plurality of reference points over time using a plurality of reference points defined outside the water leakage trace within a range common to the first image and the second image; Detecting a change and calculating a change in the trace of water leakage,
The situation change determination unit
Detecting the internal area of the water leakage trace reflected in the first image and the second image, and quantifying the change in the detected area;
Information processing system.
前記状況変化判定部は、
前記漏水の跡によって識別される範囲の大きさの変化を、前記双方の画像に共通する範囲内の漏水範囲に関わる前記漏水の跡の内外の面積の比から算出する
請求項1に記載の情報処理システム。
The situation change determination unit
The information according to claim 1, wherein a change in the size of the area identified by the water leakage mark is calculated from the ratio of the inner and outer areas of the water leakage mark related to the water leakage area within the range common to both of the images. processing system.
前記定量化部は、
前記双方の画像に共通する範囲内に複数の基準の位置が定められ、漏水範囲に関わる前記漏水の跡の内外の前記基準の位置の明るさの分布に基づいて、前記漏水の跡によって識別される範囲の大きさの変化を算出する
請求項1又は請求項2に記載の情報処理システム。
The quantification unit
A plurality of reference positions are defined within a range common to both images, and the leak marks are identified based on the brightness distribution of the reference positions inside and outside the leak marks related to the leak area. 3. The information processing system according to claim 1 or 2, wherein the change in the size of the range is calculated.
前記定量化部は、
前記双方の画像に共通する範囲内において、前記漏水の跡の内外の前記基準の位置の明るさの比に基づいて前記漏水の跡によって識別される範囲の大きさの変化を算出する
請求項3に記載の情報処理システム。
The quantification unit
4. Within the range common to both images, a change in the size of the range identified by the water leakage trace is calculated based on the brightness ratio of the reference positions inside and outside the water leakage trace. The information processing system according to .
前記状況変化判定部は、
前記漏水によって一旦濡れた後に乾いてできた前記漏水の跡によって識別される範囲の大きさ又は面積に基づいて前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像における変化率で示す
請求項3又は請求項4に記載の情報処理システム。
The situation change determination unit
The change in the size of the range identified by the quantified leak mark based on the size or area of the range identified by the leak mark that has dried after being wetted by the leak water 5. The information processing system according to claim 3, wherein the rate of change in the image is indicated.
前記建物内の漏水箇所が、前記建物の内装部材により隠蔽される前記建物の躯体側にあり、
前記建物内の漏水状況を示す画像は、前記建物内の漏水箇所の像を含まない前記建物の内装部材の表面の画像である
請求項3に記載の情報処理システム。
The water leakage point in the building is on the frame side of the building that is hidden by the interior member of the building,
4. The information processing system according to claim 3, wherein the image indicating the state of water leakage in the building is an image of the surface of the interior member of the building that does not include the image of the water leakage location in the building.
前記状況変化判定部は、
前記建物内の漏水箇所に対応付けて、前記複数の画像のそれぞれと、その特徴点と撮影段階の条件の組情報とを記憶部に格納する
請求項5に記載の情報処理システム。
The situation change determination unit
6. The information processing system according to claim 5, wherein each of the plurality of images and paired information of the characteristic points and imaging stage conditions are stored in a storage unit in association with water leakage locations in the building.
前記第1画像と前記第2画像は、前記漏水状況を示す像の他に、前記漏水状況によって変化しない被写体の像を含み、
前記表示制御部は、前記漏水状況によって変化しない被写体の像に基づいて、前記第1画像と前記第2画像が重なるように調整する
請求項1から請求項7の何れか1項に記載の情報処理システム。
The first image and the second image include, in addition to the image showing the water leakage situation, an image of a subject that does not change depending on the water leakage situation,
The information according to any one of claims 1 to 7, wherein the display control unit adjusts the first image and the second image so as to overlap based on an image of the subject that does not change depending on the water leakage situation. processing system.
雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする情報処理システムのコンピュータが、
前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得して、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御し、
前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化し、
前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化するステップと、
端末装置からの要求を受けて、前記要求に応じた処理をして、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供するステップと、
要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得するステップと、
前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出するステップと、
前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化するステップと
を含む情報処理方法。
A computer of an information processing system that makes it possible to identify the degree of leakage of rainwater or tap water that has occurred in the building,
On the surface of the interior material at the water leakage location in the building, a stain-like water leakage trace caused by the interior material getting wet is formed, and the water leakage situation at the water leakage location photographed using a visible camera is shown. Obtaining a plurality of images including a first image and a second image in which the water leakage mark is photographed at different times, and matching the feature points of the first image with the feature points of the second image. and controlling to overlap and display the first image and the second image so that the water leakage range common to the first image and the second image overlap,
quantifying a change in the size of the area identified by the leak marks in both the first image and the second image based on the leak marks shown in both the first image and the second image;
quantifying a rate of change in the size of the area identified by the quantified leak signature based on the leak signature shown in both images;
receiving a request from a terminal device, performing processing according to the request, and displaying the quantification result on the requesting terminal device in response to a request from the requesting terminal device requesting the quantification result; providing results of the quantification to the requesting terminal for display on a unit;
The first image, which is a past image, is provided to the terminal device in response to a request, and the first image is transparently displayed on the monitor of the terminal device, thereby enabling position adjustment when the second image is captured. and acquiring the second image captured by the imaging unit of the terminal device;
brightness of the plurality of reference points over time using a plurality of reference points defined outside the water leakage trace within a range common to the first image and the second image; detecting a change and calculating a change in the leak mark;
an information processing method comprising: detecting an internal area of the water leak trace reflected in the first image and the second image, and quantifying a change in the detected area.
雨水又は水道水の漏水が建物内に生じて、前記生じた漏水の程度を識別可能にする情報処理システムのコンピュータに、
前記建物内の漏水箇所の内装材の表面に、前記内装材が濡れたことにより生じた染み状の漏水の跡が生じていて、可視カメラを用いて撮影された前記漏水箇所における漏水状況を示す画像であって互いに前記漏水の跡の撮影時点が異なる第1画像と第2画像とを含む複数の画像を取得させて、前記第1画像の特徴点と前記第2画像の特徴点とを対応させて、前記第1画像と前記第2画像に共通する漏水範囲が重なるように、前記第1画像と前記第2画像を重ねて表示させるように制御させて、
前記第1画像と前記第2画像の双方の画像に示された漏水の跡に基づいて、前記双方の画像における漏水の跡によって識別される範囲の大きさの変化を定量化させて、
前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を定量化させるステップと、
端末装置からの要求を受けて、前記要求に応じた処理をさせて、前記定量化の結果を要求する要求元端末装置からの要求に対し、前記定量化の結果を前記要求元端末装置の表示部に表示させるように前記定量化の結果を前記要求元端末装置に提供させるステップと、
前記定量化された漏水の跡によって識別される範囲の大きさの変化を前記双方の画像に示された漏水の跡に基づく変化率を算出させるステップと、
要求に応じて過去画像である前記第1画像を前記端末装置に提供し、前記端末装置のモニタに前記第1画像を透過させて表示させることで前記第2画像の撮影時の位置調整を可能にして、前記端末装置の撮像部によって撮像された前記第2画像を前記取得させるステップと、
前記第1画像と前記第2画像とに共通する範囲内で前記漏水の跡の外に定められた複数の基準点を用いて、前記複数の基準点における前記複数の基準点の明るさの経時変化を検出して、前記漏水の跡の変化を算出させるステップと、
前記第1画像と前記第2画像に映った前記漏水の跡の内部の面積を検出して、前記検出した面積の変化を定量化させるステップと
を実行させるためのプログラム。
In the computer of the information processing system that makes it possible to identify the degree of leakage of rainwater or tap water that has occurred in the building,
On the surface of the interior material at the water leakage location in the building, a stain-like water leakage trace caused by the interior material getting wet is formed, and the water leakage situation at the water leakage location photographed using a visible camera is shown. Acquiring a plurality of images including a first image and a second image in which the traces of water leakage are photographed at different times, and matching the feature points of the first image with the feature points of the second image. causing the first image and the second image to be superimposed and displayed so that the water leakage range common to the first image and the second image overlap,
Based on the water leak traces shown in both the first image and the second image, quantify the change in the size of the area identified by the water leak traces in the both images,
quantifying a change in the size of the area identified by the quantified leak signature by a rate of change based on the leak signature shown in both of the images;
receiving a request from a terminal device, performing processing according to the request, and displaying the quantification result on the requesting terminal device in response to a request from the requesting terminal device requesting the quantification result; causing the requesting terminal to provide results of the quantification for display on a unit;
calculating a rate of change in the size of the area identified by the quantified leak signature based on the leak signature shown in both images;
The first image, which is a past image, is provided to the terminal device in response to a request, and the first image is transparently displayed on the monitor of the terminal device, thereby enabling position adjustment when the second image is captured. and acquiring the second image captured by the imaging unit of the terminal device;
brightness of the plurality of reference points over time using a plurality of reference points defined outside the water leakage trace within a range common to the first image and the second image; detecting a change to calculate a change in the leak mark;
a step of detecting the internal area of the water leak trace reflected in the first image and the second image, and quantifying a change in the detected area.
JP2017206506A 2017-10-25 2017-10-25 Information processing system, information processing method, and program Active JP7145602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017206506A JP7145602B2 (en) 2017-10-25 2017-10-25 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206506A JP7145602B2 (en) 2017-10-25 2017-10-25 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019080206A JP2019080206A (en) 2019-05-23
JP7145602B2 true JP7145602B2 (en) 2022-10-03

Family

ID=66628018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206506A Active JP7145602B2 (en) 2017-10-25 2017-10-25 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7145602B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419328B (en) * 2019-08-22 2023-08-04 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and storage medium
JP7365841B2 (en) * 2019-10-07 2023-10-20 大阪瓦斯株式会社 Water leak detection system and fuel cell device
EP4109407A4 (en) * 2020-02-19 2023-07-19 Sony Group Corporation Information processing device and method, and program
CN114831554B (en) * 2022-05-31 2023-03-14 珠海格力电器股份有限公司 Water seepage detection method, device, robot, system and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000505A (en) 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd Endoscope apparatus
JP2010039956A (en) 2008-08-07 2010-02-18 Canon Inc Output device and method thereof, program, and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11183313A (en) * 1997-12-16 1999-07-09 Mega Float Gijutsu Kenkyu Kumiai Flaw detecting device for large watertight structure
JPH11259656A (en) * 1998-03-10 1999-09-24 Teito Rapid Transit Authority Tunnel wall surface decision device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000505A (en) 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd Endoscope apparatus
JP2010039956A (en) 2008-08-07 2010-02-18 Canon Inc Output device and method thereof, program, and recording medium

Also Published As

Publication number Publication date
JP2019080206A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP7145602B2 (en) Information processing system, information processing method, and program
US10916003B2 (en) Image quality scorer machine
US20180149487A1 (en) Image processing apparatus, image processing method, computer program and computer readable recording medium
CN105612430B (en) The method and apparatus for detecting change in location by scanning and monitoring auxiliary data
US20160238451A1 (en) Apparatus and method for validating leak survey results
US9292746B2 (en) Automated emissions capture determination
US20090297067A1 (en) Apparatus providing search service, method and program thereof
JP2014057143A5 (en)
CN108507132B (en) Infrared sensor adjusting method and device, readable storage medium and air conditioner
US10715714B2 (en) Machine learning-based device placement and configuration service
KR20100054056A (en) Method, system and computer-readable recording medium for providing service using electronic map
CN116091477A (en) Deep learning multi-mode image fusion-based building exterior wall defect detection method
Moayedi-Nia et al. The mTST–An mHealth approach for training and quality assurance of tuberculin skin test administration and reading
US10410091B2 (en) Detecting artifacts based on digital signatures
KR20150082204A (en) Method and system for image capture and facilitated annotation
CN111797993B (en) Evaluation method and device of deep learning model, electronic equipment and storage medium
CN111582024B (en) Video stream processing method, device, computer equipment and storage medium
JP2015143965A5 (en)
JP5289256B2 (en) Vehicle position detection system
JP2021136555A5 (en)
CN109492515B (en) Information processing apparatus, data structure of image file, and computer-readable medium
JP2018081452A5 (en)
DE502005004026D1 (en) Detection of smoke with a video camera
CN114697473B (en) Defogging method and device for camera, electronic equipment and storage medium
JP4452793B2 (en) Illegal dumping point detection device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7145602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150