JP2021051022A - Building structure diagnosis system - Google Patents

Building structure diagnosis system Download PDF

Info

Publication number
JP2021051022A
JP2021051022A JP2019174580A JP2019174580A JP2021051022A JP 2021051022 A JP2021051022 A JP 2021051022A JP 2019174580 A JP2019174580 A JP 2019174580A JP 2019174580 A JP2019174580 A JP 2019174580A JP 2021051022 A JP2021051022 A JP 2021051022A
Authority
JP
Japan
Prior art keywords
damage
damage identification
image
candidate
damaged portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019174580A
Other languages
Japanese (ja)
Other versions
JP7471570B2 (en
Inventor
文敬 山崎
Fumitaka Yamazaki
文敬 山崎
高志 狩野
Takashi Kano
高志 狩野
一也 山▲崎▼
Kazuya Yamazaki
一也 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IXS Co Ltd
Original Assignee
IXS Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IXS Co Ltd filed Critical IXS Co Ltd
Priority to JP2019174580A priority Critical patent/JP7471570B2/en
Publication of JP2021051022A publication Critical patent/JP2021051022A/en
Application granted granted Critical
Publication of JP7471570B2 publication Critical patent/JP7471570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To provide a building structure diagnosis system that can increase the efficiency of a diagnosis work about damaged parts such as cracking parts in a building or in a structure.SOLUTION: A server device 30 (edition means 32) extracts an outline shown in an image displayed by display means 23, and specifies a damaged part in the image on the basis of the extracted outline. The server device 30 (diagnosis means 33) marks the specified damaged part and diagnoses the degree of at least the marked damaged part.SELECTED DRAWING: Figure 1

Description

本発明は、建物構造物診断システムに関する。 The present invention relates to a building structure diagnostic system.

大規模の災害や昨今のリノベーションブームなどを背景に、建物や構造物の外観及び内装を診断するための診断システムについてニーズが高まっている。 Against the backdrop of large-scale disasters and the recent boom in renovation, there is an increasing need for diagnostic systems for diagnosing the exterior and interior of buildings and structures.

例えば、特許文献1には、表示装置に表示している点検対象の設備に係る画像に対して、ひび割れ、剥離、腐蝕の状態などを示す情報(対象設備損傷情報)をユーザの操作に基づいて対応付けるシステムが開示されている。 For example, in Patent Document 1, information indicating a state of cracking, peeling, corrosion, etc. (target equipment damage information) is provided based on a user's operation with respect to an image of equipment to be inspected displayed on a display device. The corresponding system is disclosed.

特開2018−5661号公報Japanese Unexamined Patent Publication No. 2018-5661

特許文献1には、入力画面に表示されている画像に撮影されているひび割れの位置を入力する際に、そのひび割れの位置をユーザの指でなぞることが記載されている。
しかし、この方法でひび割れの位置を特定すると、ユーザの誤操作によって間違った位置が登録されることが懸念される。また、ひび割れの位置の全部を指でなぞらなくては正確な位置が登録できないため、作業コストの観点からも未だ改善の余地を残していた。
Patent Document 1 describes that when inputting the position of a crack photographed in an image displayed on an input screen, the position of the crack is traced with a user's finger.
However, if the position of the crack is specified by this method, there is a concern that the wrong position will be registered due to an erroneous operation by the user. In addition, since the exact position cannot be registered without tracing all the crack positions with a finger, there is still room for improvement from the viewpoint of work cost.

本発明は、上記の課題に鑑みなされたものであり、建物や構造物に生じた損傷部(ひび割れ等)に関する診断作業の効率を向上させることができる建物構造物診断システムを提供するものである。 The present invention has been made in view of the above problems, and provides a building structure diagnostic system capable of improving the efficiency of diagnostic work for damaged parts (cracks, etc.) generated in buildings and structures. ..

本発明によれば、建物又は構造物を撮影した画像を取得する取得手段と、前記取得手段によって取得した画像を表示する表示手段と、前記表示手段によって表示されている画像を編集する編集手段と、前記編集手段による編集が行われた編集画像を診断する診断手段と、を備え、前記編集手段は、前記表示手段によって表示されている画像に撮影されている輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手段によって抽出された輪郭に基づいて、前記表示手段が表示している画像に撮影されている損傷部を特定する損傷特定手段と、前記損傷特定手段によって特定された損傷部をマーキングする編集処理を行うマーキング手段と、を有しており、前記診断手段は、少なくとも前記マーキング手段によってマーキングされた損傷部に関する損傷の度合いについて診断を行う、建物構造物診断システムが提供される。 According to the present invention, an acquisition means for acquiring an image of a building or a structure, a display means for displaying the image acquired by the acquisition means, and an editing means for editing the image displayed by the display means. The editing means includes a diagnostic means for diagnosing an edited image edited by the editing means, and the editing means includes a contour extracting means for extracting a contour captured in an image displayed by the display means. Based on the contour extracted by the contour extracting means, the damage identifying means for identifying the damaged portion captured in the image displayed by the display means and the damaged portion identified by the damage identifying means are marked. A building structure diagnostic system is provided which includes a marking means for performing an editing process, and the diagnostic means diagnoses at least the degree of damage to a damaged portion marked by the marking means.

上記の発明によれば、表示手段に表示されている画像に撮影されている損傷部を、編集手段が自動的に特定してマーキングした上で、診断手段がマーキングされた損傷部について損傷の度合いを診断するので、損傷部の位置を特定する作業やマーキングする作業、その損傷部を診断する作業について効率を向上させることができる。 According to the above invention, the editing means automatically identifies and marks the damaged part captured in the image displayed on the display means, and then the degree of damage to the damaged part marked by the diagnostic means. Therefore, it is possible to improve the efficiency of the work of identifying the position of the damaged part, the work of marking, and the work of diagnosing the damaged part.

本発明によれば、建物や構造物に生じた損傷部(ひび割れ等)に関する診断作業の効率を向上させることができる建物構造物診断システムが提供される。 According to the present invention, there is provided a building structure diagnostic system capable of improving the efficiency of diagnostic work for damaged parts (cracks, etc.) generated in a building or a structure.

本発明の実施形態におけるシステム構成図である。It is a system block diagram in embodiment of this invention. 通信端末の表示画面の具体例を示す図である。It is a figure which shows the specific example of the display screen of a communication terminal. 通信端末の表示画面の具体例を示す図である。It is a figure which shows the specific example of the display screen of a communication terminal. 図3に図示されるカメラアイコンに関する説明図である。It is explanatory drawing about the camera icon illustrated in FIG. 通信端末の表示画面の具体例を示す図である。It is a figure which shows the specific example of the display screen of a communication terminal. 通信端末の表示画面の具体例を示す図である。It is a figure which shows the specific example of the display screen of a communication terminal. 損傷部を特定する一連の処理のフローチャートである。It is a flowchart of a series of processes for identifying a damaged part. 損傷部を特定する処理による対象画像の変化を示す模式図である。It is a schematic diagram which shows the change of the target image by the process of identifying a damaged part. 損傷部を特定する処理による対象画像の変化を示す模式図である。It is a schematic diagram which shows the change of the target image by the process of identifying a damaged part. 損傷部を特定する処理による対象画像の変化を示す模式図である。It is a schematic diagram which shows the change of the target image by the process of identifying a damaged part. 本発明に係る編集処理前の画像を示す図である。It is a figure which shows the image before the editing process which concerns on this invention. 本発明に係る編集処理後の画像を示す図である。It is a figure which shows the image after the editing process which concerns on this invention. 図11に示す画像の撮影環境を示す模式図である。It is a schematic diagram which shows the shooting environment of the image shown in FIG.

以下、本発明の実施形態について、図面を用いて説明する。なお、すべての図面において、同様の構成要素には同一の符号を付し、適宜に説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same components are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

<本発明のシステム構成について>
先ず、本発明のシステム構成について説明する。
図1は、本発明の実施形態におけるシステム構成図である。
<About the system configuration of the present invention>
First, the system configuration of the present invention will be described.
FIG. 1 is a system configuration diagram according to an embodiment of the present invention.

本発明に係る建物構造物診断システム100は、通信端末20と、サーバ装置30と、を備える。
なお、通信端末20及びサーバ装置30は、ネットワーク10を介して互いに通信可能に接続している。
The building structure diagnosis system 100 according to the present invention includes a communication terminal 20 and a server device 30.
The communication terminal 20 and the server device 30 are connected to each other so as to be able to communicate with each other via the network 10.

ネットワーク10は、インターネットやローカルネットワーク(LAN)等のコンピュータネットワークであり、複数のコンピュータ装置(本実施形態では、通信端末20とサーバ装置30)を通信接続する。 The network 10 is a computer network such as the Internet or a local network (LAN), and connects a plurality of computer devices (in this embodiment, a communication terminal 20 and a server device 30) by communication.

通信端末20は、通信手段(不図示)を有するコンピュータ装置であり、他にも、画像撮影手段21と、操作入力手段22と、表示手段23と、を備える。
画像撮影手段21は、いわゆるカメラ機能であり、撮影することによって画像を取得する手段である。ただし、画像撮影手段21によって撮影される画像の被写体は、本発明の実施においては、建物や構造物である必要がある。
操作入力手段22は、後述する種々の機能を発揮させる為に、ユーザの操作を受け付ける手段である。
表示手段23は、画像撮影手段21によって撮影された画像を表示したり、操作入力手段22の操作を促す案内やアイコン等を表示したり、する手段である。
The communication terminal 20 is a computer device having communication means (not shown), and also includes an image capturing means 21, an operation input means 22, and a display means 23.
The image capturing means 21 is a so-called camera function, and is a means for acquiring an image by photographing. However, in the practice of the present invention, the subject of the image captured by the image capturing means 21 needs to be a building or a structure.
The operation input means 22 is a means for accepting a user's operation in order to exert various functions described later.
The display means 23 is a means for displaying an image taken by the image capturing means 21 and displaying a guide, an icon, or the like for prompting the operation of the operation input means 22.

なお、本実施形態に係る通信端末20は、いわゆるタッチパネル装置であり、操作入力手段22を実現するタッチパッドと、表示手段23を実現する液晶表示装置と、が一体的に構成されているものとして以下説明するが、これらが別々の装置として実現される実施例(例えば、操作入力手段22がポインティングデバイスとして実現され、表示手段23が液晶表示装置として実現されている等)によって本発明が実施されてもよい。 The communication terminal 20 according to the present embodiment is a so-called touch panel device, and assumes that a touch pad that realizes the operation input means 22 and a liquid crystal display device that realizes the display means 23 are integrally configured. As will be described below, the present invention has been implemented according to an embodiment in which these are realized as separate devices (for example, the operation input means 22 is realized as a pointing device, the display means 23 is realized as a liquid crystal display device, and the like). You may.

サーバ装置30は、通信手段(不図示)を有するコンピュータ装置であり、他にも、記憶手段31と、編集手段32と、診断手段33と、画像図面対応手段34と、を備える。
記憶手段31は、画像撮影手段21によって撮影された画像や、被写体である建物又は構造物に関する図面(以下、建物構造図面と称する場合がある)を記憶している手段である。
編集手段32は、表示手段23に表示されている画像に対して編集処理を行う手段である。編集手段32による編集処理は、操作入力手段22が受け付けたユーザの操作に基づくものについては後述するが、その他の編集処理が含まれてもよい。
診断手段33は、編集手段32によって編集された画像(以下、編集画像と称する場合がある)を診断する手段である。
画像図面対応手段34は、画像撮影手段21によって撮影された画像と、建物構造図面と、を対応付けて、記憶手段31に記憶させる手段である。
The server device 30 is a computer device having communication means (not shown), and also includes a storage means 31, an editing means 32, a diagnostic means 33, and an image drawing corresponding means 34.
The storage means 31 is a means for storing an image taken by the image capturing means 21 and a drawing (hereinafter, may be referred to as a building structure drawing) relating to a building or a structure as a subject.
The editing means 32 is a means for editing the image displayed on the display means 23. The editing process by the editing means 32 is based on the user's operation received by the operation input means 22, and will be described later, but other editing processes may be included.
The diagnostic means 33 is a means for diagnosing an image edited by the editing means 32 (hereinafter, may be referred to as an edited image).
The image drawing corresponding means 34 is a means for storing the image taken by the image taking means 21 and the building structure drawing in the storage means 31 in association with each other.

<通信端末20の表示画面について>
次に、通信端末20(表示手段23)に表示される表示画面の具体例について説明する。
図2、図3、図5、及び図6は、通信端末20の表示画面の具体例を示す図である。
図4は、図3に図示されるカメラアイコンA1〜A5に関する説明図である。
<About the display screen of the communication terminal 20>
Next, a specific example of the display screen displayed on the communication terminal 20 (display means 23) will be described.
2, FIG. 3, FIG. 5, and FIG. 6 are diagrams showing specific examples of display screens of the communication terminal 20.
FIG. 4 is an explanatory diagram relating to the camera icons A1 to A5 illustrated in FIG.

図2は、サーバ装置30(記憶手段31)に格納されている建物構造物図面に関する関連情報(外観写真、住所、一つの建物又は構造物あたりの図面数、最終撮影日時)の一覧を表示する通信端末20の表示画面である。
ユーザは、この表示画面に表示されている関連情報の中から、調査対象の建物又は構造物に関するものを選択すると、その建物又は構造物に関する建物構造物図面を通信端末20に表示させることができる。
FIG. 2 displays a list of related information (external photograph, address, number of drawings per building or structure, last shooting date and time) related to building structure drawings stored in the server device 30 (storage means 31). This is a display screen of the communication terminal 20.
When the user selects information related to the building or structure to be investigated from the related information displayed on the display screen, the user can display the building structure drawing related to the building or structure on the communication terminal 20. ..

図3は、サーバ装置30(記憶手段31)に格納されている建物構造物図面を表示する通信端末20の表示画面である。
サーバ装置30は、通信端末20からアップロードした画像の撮影位置と撮影方向を示すカメラアイコンを、表示されている建物構造物図面の任意の位置(ユーザの操作に基づいて指定された位置)に対応付けて記憶することができる。
なお、カメラアイコンを建物構造物図面に対応付けるタイミングは、そのカメラアイコンに係る画像をアップロードした以後であればいつでもよい。
FIG. 3 is a display screen of the communication terminal 20 for displaying the building structure drawing stored in the server device 30 (storage means 31).
The server device 30 corresponds to a camera icon indicating the shooting position and shooting direction of the image uploaded from the communication terminal 20 at an arbitrary position (position specified based on the user's operation) in the displayed building structure drawing. Can be attached and memorized.
The timing of associating the camera icon with the building structure drawing may be any time after the image related to the camera icon is uploaded.

カメラアイコンは、カメラの形状を模した図形と、その向き(撮影方向)を表す丸型の図形と、の組み合わせからなる。
例えば、カメラアイコンA1は建物構造物図面における左上方向を撮影したことを示しており、カメラアイコンA2は建物構造物図面における下方向を撮影したことを示しており、カメラアイコンA3は建物構造物図面における右下方向を撮影したことを示しており、カメラアイコンA4は建物構造物図面における法線方向(実際の建物では天井方向)を撮影したことを示しており、カメラアイコンA5は建物構造物図面における左上方向を撮影したことを示している。
The camera icon consists of a combination of a figure that imitates the shape of the camera and a round figure that indicates the direction (shooting direction) of the figure.
For example, the camera icon A1 indicates that the upper left direction in the building structure drawing was photographed, the camera icon A2 indicates that the downward direction in the building structure drawing was photographed, and the camera icon A3 indicates that the building structure drawing was photographed. The camera icon A4 indicates that the normal direction in the building structure drawing (the ceiling direction in the actual building) was taken, and the camera icon A5 indicates that the building structure drawing was taken. It shows that the photograph was taken in the upper left direction.

カメラアイコンは、図3の表示画面上に(建物構造物図面に重畳して)配置した後に、ユーザの操作に基づいて、その向きを変更することができる。
例えば、右上を向いているカメラアイコン(図4(a)参照)の丸型の図形をクリックした状態で、その丸型の図形を時計回りに移動させると、カメラアイコンが全体的に時計回りに回転し、クリックを解除した時点でその向きが決定される(図4(b)では右下の向きに決定されている)。
After arranging the camera icon on the display screen of FIG. 3 (superimposed on the building structure drawing), the orientation of the camera icon can be changed based on the user's operation.
For example, if you click the round shape of the camera icon (see Fig. 4 (a)) facing the upper right and move the round shape clockwise, the camera icon will turn clockwise as a whole. The orientation is determined when the camera is rotated and the click is released (in FIG. 4B, the orientation is determined to be the lower right orientation).

図3の表示画面上において、カメラアイコンをダブルクリックすると、そのカメラアイコンに関する画像(そのカメラアイコンが示す撮影位置及び撮影方向で撮影された画像)を表示することができる。 By double-clicking the camera icon on the display screen of FIG. 3, an image related to the camera icon (an image taken at the shooting position and shooting direction indicated by the camera icon) can be displayed.

図5及び図6は、カメラアイコンに関する画像とその関連情報を表示する表示である。図5は、当該表示画面を上側にスライドした場合における通信端末20の表示画面であり、図6は、当該表示画面を下側にスライドした場合における通信端末20の表示画面である。 5 and 6 are displays for displaying an image related to the camera icon and related information thereof. FIG. 5 is a display screen of the communication terminal 20 when the display screen is slid upward, and FIG. 6 is a display screen of the communication terminal 20 when the display screen is slid downward.

図5に示す表示画面には、当該表示画面に表示されている画像に対して実行可能な編集処理及び診断処理に関するアイコンが表示されている。
ここで実行可能な編集処理及び診断処理には、以下が含まれてもよい。
(イ)操作入力手段22に対するユーザの操作に基づいて、通信端末20が表示している画像のうち特定の箇所を四角の領域で囲って指定する(この四角の領域を、以下の説明では小領域と称する)。
(ロ)操作入力手段22に対するユーザの操作に基づいて、通信端末20が表示している画像に対して自由線を描く。
(ハ)操作入力手段22に対するユーザの操作に基づいて、通信端末20が表示している画像に対して文字を記入する。
(ニ)対応するアイコンに対する操作に応じて、通信端末20が表示している画像を回転又は反転させる。
(ホ)対応するアイコンに対する操作に応じて、通信端末20が表示している画像の損傷部(例えば、ひび割れ部分)を自動的に特定してマーキングする。
(へ)対応するアイコンに対する操作に応じて、(ホ)でマーキングされた損傷部に関する損傷の度合いを、人工知能によって診断する。
(ト)操作入力手段22に対するユーザの操作に基づいて、通信端末20が表示している画像に対して描いた自由線や文字、マーキングを消去する。
なお、上記の(ホ)の編集処理については、後で詳細に説明する。
On the display screen shown in FIG. 5, icons related to editing processing and diagnostic processing that can be executed on the image displayed on the display screen are displayed.
The editing process and diagnostic process that can be performed here may include the following.
(B) Based on the user's operation on the operation input means 22, a specific part of the image displayed by the communication terminal 20 is specified by enclosing it in a square area (this square area is small in the following description). Called an area).
(B) Based on the user's operation on the operation input means 22, a free line is drawn with respect to the image displayed by the communication terminal 20.
(C) Based on the user's operation on the operation input means 22, characters are entered in the image displayed by the communication terminal 20.
(D) The image displayed by the communication terminal 20 is rotated or inverted according to the operation for the corresponding icon.
(E) In response to an operation on the corresponding icon, a damaged portion (for example, a cracked portion) of the image displayed by the communication terminal 20 is automatically identified and marked.
(F) According to the operation for the corresponding icon, the degree of damage related to the damaged part marked in (e) is diagnosed by artificial intelligence.
(G) Based on the user's operation on the operation input means 22, the free lines, characters, and markings drawn on the image displayed by the communication terminal 20 are erased.
The editing process of (e) above will be described in detail later.

図6に示す表示画面には、当該表示画面に表示されている画像の撮影に関する情報、並びに、当該画像に対する診断項目が表示されている。
ここで表示される情報や診断項目には、以下が含まれてもよい。
(a)その画像が撮影された日時
(b)撮影対象(被写体)となる建物や構造物の名称
(c)その画像が対応付けられている建物構造物図面の識別情報
(d)その画像に撮影されている損傷部に関する情報(損傷の種類やサイズ等)
(e)その画像に撮影されている損傷部に関する損傷の度合い(上記の(へ)の診断処理の結果の他に、ユーザが手入力で定めたものを含む)
On the display screen shown in FIG. 6, information on shooting the image displayed on the display screen and diagnostic items for the image are displayed.
The information and diagnostic items displayed here may include the following.
(A) Date and time when the image was taken (b) Name of the building or structure to be photographed (subject) (c) Identification information of the building structure drawing to which the image is associated (d) To the image Information about the damaged part being photographed (type and size of damage, etc.)
(E) Degree of damage related to the damaged part captured in the image (including the result of the above-mentioned diagnostic process (to), as well as the one manually determined by the user).

上記の(ホ)の処理と(へ)の処理とを実行可能に構成されているので、サーバ装置30(編集手段32)は、表示手段23によって表示されている画像に撮影されている輪郭を抽出する輪郭抽出手段と、輪郭抽出手段によって抽出された輪郭に基づいて、表示手段23が表示している画像に撮影されている損傷部を特定する損傷特定手段と、損傷特定手段によって特定された損傷部をマーキングする編集処理を行うマーキング手段と、を有しているものと言える。そして、サーバ装置30(診断手段33)は、少なくともマーキング手段によってマーキングされた損傷部に関する損傷の度合いについて診断を行うものと言える。 Since the above processing (e) and (f) are configured to be executable, the server device 30 (editing means 32) captures the contour captured in the image displayed by the display means 23. Based on the contour extraction means to be extracted and the contour extracted by the contour extraction means, the damage identification means for identifying the damaged portion captured in the image displayed by the display means 23 and the damage identification means have been specified. It can be said that it has a marking means for performing an editing process for marking a damaged portion. Then, it can be said that the server device 30 (diagnostic means 33) diagnoses at least the degree of damage related to the damaged portion marked by the marking means.

なお、上記の診断処理は、一つの画像に撮影されている損傷部に関する損傷の度合いについて診断することのみ言及したが、次のような処理によって撮影対象となる建物全体又は構造物全体の診断についても診断することができる。
すなわち、サーバ装置30(診断手段33)は、診断した損傷部に関する損傷の度合いと、建物構造図面に対応付けられた一又は複数の編集画像においてマーキングされている損傷部の数と、に基づいて、当該建物構造図面に係る建物全体又は構造物全体の損傷の度合いを診断してもよい。
The above diagnostic process only mentions diagnosing the degree of damage related to the damaged part captured in one image, but the following process is used to diagnose the entire building or structure to be imaged. Can also be diagnosed.
That is, the server device 30 (diagnostic means 33) is based on the degree of damage related to the diagnosed damaged part and the number of damaged parts marked in one or more edited images associated with the building structure drawing. , The degree of damage to the entire building or the entire structure according to the building structure drawing may be diagnosed.

<損傷部を特定してマーキングする処理について>
次に、サーバ装置30が損傷部を特定してマーキングする処理(上記の(ホ)の編集処理)について説明する。
図7は、損傷部を特定する一連の処理のフローチャートである。図8〜図10は、損傷部を特定する処理による対象画像の変化を示す模式図である。
<About the process of identifying and marking damaged parts>
Next, a process of identifying and marking the damaged portion by the server device 30 (editing process of (e) above) will be described.
FIG. 7 is a flowchart of a series of processes for identifying the damaged portion. 8 to 10 are schematic views showing changes in the target image due to the process of identifying the damaged portion.

サーバ装置30は、対応するアイコンに対する操作を受け付けると(ステップS11のYES)、対象画像に撮影されている輪郭を抽出する(ステップS13)。ただし、対象画像に小領域が設定されている場合には、その小領域内に撮影されている輪郭のみを抽出する。また、対象画像に小領域が設定されていない場合には、その対象画像の範囲内に撮影されている輪郭を抽出する。
更に、サーバ装置30は、ステップS13において抽出された輪郭と、複数とおりのチューニングパラメータと、に基づいて、通信端末20が表示している画像の一部を当該画像に撮影されている損傷部の候補として特定する(以下、この処理を損傷特定処理と称する)(ステップS15)。
サーバ装置30は、所定の回数の損傷特定処理が終了するまで(ステップS17がNOである間)、ステップS13とステップS15を繰り返す。このとき、サーバ装置30は、損傷特定処理ごとに異なるチューニングパラメータを用いて複数回の損傷特定処理を実行し、損傷特定処理のそれぞれにおいて特定された損傷部の候補に基づいて、当該画像に撮影されている損傷部を定める。
そして、サーバ装置30は、所定の回数の損傷特定処理が終了すると(ステップS17のYES)、その時点で特定された損傷部の候補を、対象画像に撮影されている損傷部としてマーキングする(ステップS19)。
When the server device 30 receives an operation for the corresponding icon (YES in step S11), the server device 30 extracts the contour captured in the target image (step S13). However, when a small area is set in the target image, only the contour captured in the small area is extracted. If a small area is not set in the target image, the contour captured within the range of the target image is extracted.
Further, the server device 30 captures a part of the image displayed by the communication terminal 20 in the damaged portion based on the contour extracted in step S13 and a plurality of tuning parameters. It is specified as a candidate (hereinafter, this process is referred to as a damage identification process) (step S15).
The server device 30 repeats steps S13 and S15 until a predetermined number of damage identification processes are completed (while step S17 is NO). At this time, the server device 30 executes the damage identification process a plurality of times using different tuning parameters for each damage identification process, and captures the image based on the candidate of the damaged portion identified in each of the damage identification processes. Determine the damaged part that has been damaged.
Then, when the server device 30 completes the damage identification process a predetermined number of times (YES in step S17), the server device 30 marks the candidate for the damaged portion identified at that time as the damaged portion captured in the target image (step). S19).

<損傷部を特定する処理の具体例>
例えば、図8(a)に示す画像が通信端末20に表示され、当該画像に対してサーバ装置30が図2に図示する各処理を行って損傷部を特定するケースについて説明する。
ここで本実施形態では、サーバ装置30は、ユーザによる任意操作によって小領域P1を設定したものとする。このとき、設定された小領域P1は、通信端末20に表示された画像に重畳して図8(b)のように表示される。
<Specific example of processing to identify damaged parts>
For example, a case where the image shown in FIG. 8A is displayed on the communication terminal 20 and the server device 30 performs each process shown in FIG. 2 on the image to identify the damaged portion will be described.
Here, in the present embodiment, it is assumed that the server device 30 sets the small area P1 by an arbitrary operation by the user. At this time, the set small area P1 is superimposed on the image displayed on the communication terminal 20 and displayed as shown in FIG. 8 (b).

なお、本実施形態では、設定された小領域が通信端末20に表示されるように説明するが、小領域についてはサーバ装置30が処理可能に設定されれば足り、必ずしもユーザが視認可能に通信端末20に表示されなくてもよい。
また、本実施形態では、小領域を設定する際に、四角の領域で囲うように説明するが、本発明の実施はこれに限られない。言い換えれば、小領域は通信端末20に表示されている画像の一部(画像全体より狭い領域)として指定するものであればよく、小領域の形状は四角であることに限られない。
In the present embodiment, the set small area will be displayed on the communication terminal 20, but it is sufficient that the server device 30 is set to be processable for the small area, and the communication is not necessarily visible to the user. It does not have to be displayed on the terminal 20.
Further, in the present embodiment, when setting a small area, it is described that the small area is surrounded by a square area, but the embodiment of the present invention is not limited to this. In other words, the small area may be designated as a part of the image displayed on the communication terminal 20 (area narrower than the entire image), and the shape of the small area is not limited to a square shape.

そして、サーバ装置30は、最終的に損傷部を特定するまで、ステップS13の処理(輪郭抽出処理)と、ステップS15の処理(損傷特定処理)と、を繰り返す。
なお、本実施形態では、輪郭抽出処理と損傷特定処理とをそれぞれ4回繰り返すように、以下説明するが、本発明の実施はこれに限られない。
本発明の実施については、損傷特定処理が複数回実行されれば足り、輪郭抽出処理の実行回数は1回でもよい。また、損傷特定処理は2回以上実行されればよく、4回より少ない実行回数であってもよいし、4回より多い実行回数であってもよい。
Then, the server device 30 repeats the process of step S13 (contour extraction process) and the process of step S15 (damage identification process) until the damaged portion is finally identified.
In the present embodiment, the contour extraction process and the damage identification process will be repeated four times each, which will be described below, but the embodiment of the present invention is not limited to this.
For the implementation of the present invention, it is sufficient that the damage identification process is executed a plurality of times, and the contour extraction process may be executed once. Further, the damage identification process may be executed twice or more, and may be executed less than four times or more than four times.

先ず、最初に行われる輪郭抽出処理と損傷特定処理について説明する。 First, the contour extraction process and the damage identification process that are performed first will be described.

サーバ装置30は、手動で小領域を設定した画像から輪郭を抽出し、抽出した輪郭のうち或る面積以上の領域を損傷部の候補として特定する。なお、この処理の閾値として用いられる面積を、以下の説明では第一面積と称する場合がある。
例えば、図8(b)に例示した画像に対してこの処理を実行した結果を、図9(a)に図示する。なお、図9(a)において、図8(b)に比べて太線で図示されている箇所(撮影物S1、撮影物S2、撮影物S3)が、この処理によって特定された損傷部の候補である。
The server device 30 extracts a contour from an image in which a small area is manually set, and identifies a region of a certain area or more from the extracted contour as a candidate for a damaged portion. The area used as the threshold value for this process may be referred to as the first area in the following description.
For example, the result of executing this process on the image illustrated in FIG. 8 (b) is shown in FIG. 9 (a). In FIG. 9A, the portions (photographed object S1, photographed object S2, photographed object S3) shown by thick lines as compared with FIG. 8B are candidates for the damaged portion identified by this process. is there.

次に、サーバ装置30は、上記の処理によって特定された損傷部の候補に係る領域と、それに隣接するピクセルの明度が似ていれば、隣接するピクセルも損傷部の候補とする。この処理を実行することによって、輪郭抽出処理によって輪郭として抽出できなかったピクセル、又は、輪郭抽出処理によって輪郭のうち第一面積未満のものの中から、新たな損傷部の候補を抽出することができる。
なお、本実施形態では、図9(a)に例示した画像に対してこの処理を実行した結果として損傷部の候補となるピクセルの変動はなかったものとする。
Next, if the area related to the damaged portion candidate identified by the above process and the brightness of the adjacent pixel are similar, the server device 30 also sets the adjacent pixel as a damaged portion candidate. By executing this process, it is possible to extract a candidate for a new damaged portion from the pixels that could not be extracted as a contour by the contour extraction process or from the contours that are smaller than the first area by the contour extraction process. ..
In this embodiment, it is assumed that there is no change in the pixels that are candidates for the damaged portion as a result of executing this process on the image illustrated in FIG. 9 (a).

続いて、サーバ装置30は、設定した小領域の明度に基づいて閾値を算出し、当該閾値よりも小さい(明度が暗い)ピクセルを損傷部の候補として残す。ここで、サーバ装置30が算出する閾値は特に制限されないが、例えば、設定した小領域の明度の平均値と当該明度の標準偏差の差分などを閾値として算出することが好ましい。この処理を実行することによって、輪郭抽出処理によって輪郭として抽出され且つ第一面積以上のものであっても、明度が明るいものについては損傷部の候補から除外することができる。
なお、本実施形態では、図9(a)に例示した画像に対してこの処理を実行した結果として損傷部の候補となるピクセルの変動はなかったものとする。
Subsequently, the server device 30 calculates a threshold value based on the brightness of the set small area, and leaves pixels smaller (darker in brightness) than the threshold value as candidates for the damaged portion. Here, the threshold value calculated by the server device 30 is not particularly limited, but for example, it is preferable to calculate using the difference between the average value of the brightness of the set small area and the standard deviation of the brightness as the threshold value. By executing this process, even if the area is extracted as a contour by the contour extraction process and has a first area or more, those having a bright brightness can be excluded from the candidates for the damaged portion.
In this embodiment, it is assumed that there is no change in the pixels that are candidates for the damaged portion as a result of executing this process on the image illustrated in FIG. 9 (a).

更に、サーバ装置30は、損傷部の候補を長さ方向に引き伸ばし、引き伸ばした部分に別の損傷部の候補があれば一つの損傷部の候補としてまとめる。
例えば、図9(a)に例示した画像に対してこの処理を実行した結果を、図9(b)に図示する。具体的には、図9(b)は、損傷部の候補として特定されている撮影物S1、撮影物S2、及び撮影物S3の撮影領域を長さ方向(各々の撮影物の延在方向)に引き伸ばしている状態を図示するものである。
そして、引き伸ばした撮影物S1、撮影物S2、及び撮影物S3は、互いに延在方向に存在するので、それぞれが統合されて単独の撮影物S4になる。図10(a)は、統合後の撮影物S4を図示するものである。
この処理を実行することによって、面積や明度をチューニングパラメータとする処理では拾えないピクセル(本実施形態の事例で言えば、撮影物S1、撮影物S2、及び撮影物S3の間に存在する極小の領域)も、損傷部の候補として特定することができる。
また、ひび割れは、構造物の内部に生じるものであるため、表面上は複数に分かれていても、実際には単独のひび割れであるケースが多々ある。このようなケースであっても、実態に即した特定をすることができる。
Further, the server device 30 stretches the candidates for the damaged portion in the length direction, and if there is another candidate for the damaged portion in the stretched portion, collects the candidates for the damaged portion as one candidate for the damaged portion.
For example, the result of executing this process on the image illustrated in FIG. 9 (a) is shown in FIG. 9 (b). Specifically, FIG. 9B shows the photographing areas of the photographed object S1, the photographed object S2, and the photographed object S3 specified as candidates for the damaged portion in the length direction (extending direction of each photographed object). It is an illustration of the state of being stretched to.
Then, since the stretched photographed object S1, the photographed object S2, and the photographed object S3 exist in the extending direction of each other, they are integrated into a single photographed object S4. FIG. 10A illustrates the photographed object S4 after integration.
By executing this process, pixels that cannot be picked up by the process using the area and brightness as tuning parameters (in the example of this embodiment, the minimum size existing between the photographed object S1, the photographed object S2, and the photographed object S3). The area) can also be identified as a candidate for the damaged part.
Further, since the cracks occur inside the structure, there are many cases where the cracks are actually single cracks even if they are divided into a plurality of cracks on the surface. Even in such a case, it is possible to identify the case according to the actual situation.

次に、2回目に行われる輪郭抽出処理と損傷特定処理について説明する。
サーバ装置30は、1回目の損傷特定処理を経た画像(図10(a)に図示する画像)に対して、再び輪郭抽出処理を行い、抽出した輪郭のうち、或る面積以上(但し、上記の第一面積より大きい面積)の領域を抽出して損傷部の候補とする。なお、この処理に用いる面積を、以下の説明では第二面積と称する場合がある。
なお、本実施形態では、図10(a)に例示した画像における撮影物S4は、第二面積以上であるので、上記の処理を実行した結果として損傷部の候補となるピクセルは、図10(a)に例示した画像と同じく撮影物S4であったものとする。
Next, the contour extraction process and the damage identification process performed for the second time will be described.
The server device 30 performs the contour extraction process again on the image (the image shown in FIG. 10A) that has undergone the first damage identification process, and the extracted contour has a certain area or more (however, the above). An area larger than the first area of) is extracted and used as a candidate for a damaged part. The area used for this treatment may be referred to as a second area in the following description.
In the present embodiment, since the photographed object S4 in the image illustrated in FIG. 10A has a second area or more, the pixels that are candidates for the damaged portion as a result of executing the above processing are shown in FIG. 10 (a). It is assumed that the photographed object S4 is the same as the image illustrated in a).

次に、3回目に行われる輪郭抽出処理と損傷特定処理について説明する。
サーバ装置30は、2回目の損傷特定処理を経た画像(図10(a)に図示する画像)に対して、再び輪郭抽出処理を行い、抽出した輪郭のうち、或る面積以上(但し、上記の第二面積より大きい面積)、かつアスペクト比が所定値未満の領域を抽出して損傷部の候補とする。ここで所定値は、0を超える値であって1未満であることが好まく、例えば、所定値=0.5とすることができる。また、この処理に用いる面積を、以下の説明では第三面積と称する場合がある。
なお、本実施形態では、図10(a)に例示した画像における撮影物S4は、第三面積以上であってアスペクト比が所定値(0.5)以下であるので、上記の処理を実行した結果として損傷部の候補となるピクセルは、図10(a)に例示した画像と同じく撮影物S4であったものとする。
Next, the contour extraction process and the damage identification process performed for the third time will be described.
The server device 30 performs the contour extraction process again on the image (the image shown in FIG. 10A) that has undergone the second damage identification process, and the extracted contour has a certain area or more (however, the above). An area larger than the second area) and an aspect ratio of less than a predetermined value is extracted and used as a candidate for a damaged portion. Here, the predetermined value is preferably a value exceeding 0 and less than 1, for example, a predetermined value = 0.5. Further, the area used for this treatment may be referred to as a third area in the following description.
In the present embodiment, since the photographed object S4 in the image illustrated in FIG. 10A has a third area or more and an aspect ratio of a predetermined value (0.5) or less, the above processing is executed. As a result, it is assumed that the pixel that is a candidate for the damaged portion is the photographed object S4 as in the image illustrated in FIG. 10 (a).

次に、4回目に行われる輪郭抽出処理と損傷特定処理について説明する。
サーバ装置30は、3回目の損傷特定処理を経た画像(図10(a)に図示する画像)に対して、再び輪郭抽出処理を行い、抽出した輪郭のうち、或る面積以上(但し、上記の第三面積より大きい面積)の領域を抽出して損傷部の候補とする。なお、この処理に用いる面積を、以下の説明では第四面積と称する場合がある。
そして、サーバ装置30は、4回目の損傷特定処理において特定された損傷部の候補を、ひび割れであるものとして最終的に判断する。
なお、本実施形態では、図10(a)に例示した画像における撮影物S4は、第四面積以上であるので、上記の処理を実行した結果として損傷部の候補となるピクセルは、図10(a)に例示した画像と同じく撮影物S4であったものとする。
Next, the contour extraction process and the damage identification process performed for the fourth time will be described.
The server device 30 again performs contour extraction processing on the image that has undergone the third damage identification process (the image shown in FIG. 10A), and out of the extracted contour, a certain area or more (however, the above). An area larger than the third area of) is extracted and used as a candidate for a damaged part. The area used for this treatment may be referred to as a fourth area in the following description.
Then, the server device 30 finally determines the candidate of the damaged portion identified in the fourth damage identification process as a crack.
In the present embodiment, since the photographed object S4 in the image illustrated in FIG. 10A has a fourth area or more, the pixels that are candidates for the damaged portion as a result of executing the above processing are shown in FIG. 10 (a). It is assumed that the photographed object S4 is the same as the image illustrated in a).

以上に説明した輪郭抽出処理と損傷特定処理について、整理する。
1回目に行われる損傷特定処理は、1回目の輪郭抽出処理によって抽出された輪郭のうち、第一面積以上の領域が含まれるか否かをチューニングパラメータとし、当該領域を損傷部の候補とするので、本発明における「第一の損傷特定処理」に相当する処理を含むものと言える。
この処理によって、サーバ装置30は、抽出した輪郭のうち第一面積未満のものを排除するので、ひび割れとしては微細なものを、損傷部の候補から除くことができる。
The contour extraction process and damage identification process described above will be summarized.
In the damage identification process performed in the first time, whether or not a region equal to or larger than the first area is included in the contour extracted by the first contour extraction process is set as a tuning parameter, and the region is set as a candidate for the damaged portion. Therefore, it can be said that it includes a process corresponding to the "first damage identification process" in the present invention.
By this process, the server device 30 excludes the extracted contours having a smaller area than the first area, so that fine cracks can be excluded from the candidates for the damaged portion.

2回目の輪郭抽出処理は、1回目の損傷特定処理によって損傷部の候補とされた領域に撮影されている輪郭を抽出している。そして、2回目の損傷特定処理は、1回目の特定処理(第一の損傷特定処理)によって損傷部の候補とされた領域から抽出された輪郭のうち、第二面積以上の領域が含まれるか否かをチューニングパラメータとし、当該領域を損傷部の候補とし、第二面積は、第一面積より大きいので、本発明における「第二の損傷特定処理」に相当する処理を含むものと言える。
この処理によって、サーバ装置30は、抽出した輪郭のうち第一面積未満のものを排除いた後に第二面積未満のものを排除する。換言すれば、サーバ装置30は、段階的に判定に用いる面積を広げて、損傷部の候補を段階的に狭めて、その判定精度(ひび割れと判定する妥当性)の向上を図ることができる。
In the second contour extraction process, the contour photographed in the area selected as a candidate for the damaged portion by the first damage identification process is extracted. Then, does the second damage identification process include a region equal to or larger than the second area among the contours extracted from the areas that are candidates for the damaged portion by the first identification process (first damage identification process)? Whether or not it is a tuning parameter, the region is a candidate for a damaged portion, and the second area is larger than the first area. Therefore, it can be said that the processing corresponding to the "second damage identification processing" in the present invention is included.
By this process, the server device 30 removes the extracted contours having a smaller area than the first area and then removing the ones having a smaller area than the second area. In other words, the server device 30 can gradually increase the area used for the determination, gradually narrow the candidates for the damaged portion, and improve the determination accuracy (validity for determining the crack).

1回目の損傷特定処理における損傷部の候補を引き伸ばす処理は、1回目の損傷特定処理における第一面積をチューニングパラメータとする処理(第一の損傷特定処理)と、2回目の損傷特定処理における第二面積をチューニングパラメータとする処理(第二の損傷特定処理)と、の間に行われる処理である。そして、1回目の損傷特定処理における損傷部の候補を引き伸ばす処理は、他の損傷特定処理によって特定された損傷部の候補を引き伸ばし、引き伸ばした損傷部の候補と別の損傷部の候補が重複すると、統合して単独の損傷部の候補とするので、本発明における「第三の損傷特定処理」に相当する処理であると言える。
この処理によって、複数の損傷部の候補を統合して、それ以降の損傷特定処理に繋げるので、サーバ装置30は、より包括的な判定によって損傷部の候補を特定することができる。
The process of extending the candidate of the damaged part in the first damage identification process is a process in which the first area in the first damage identification process is used as a tuning parameter (first damage identification process) and a second process in the second damage identification process. This is a process performed between the process of using two areas as tuning parameters (second damage identification process). Then, in the process of stretching the candidate of the damaged part in the first damage identification process, the candidate of the damaged part identified by the other damage identification process is stretched, and the stretched candidate of the damaged part and the candidate of another damaged part overlap. , It can be said that it is a process corresponding to the "third damage identification process" in the present invention because it is integrated and used as a candidate for a single damaged portion.
By this process, the candidates for the damaged portion are integrated and connected to the subsequent damage identification process, so that the server device 30 can identify the candidate for the damaged portion by a more comprehensive determination.

1回目の特定処理は、1回目の損傷特定処理における第一面積をチューニングパラメータとする処理(他の損傷特定処理)によって損傷部の候補とされた領域に該当するピクセルと、当該ピクセルに隣接するピクセルと、を比較して明度が近似しているか否かをチューニングパラメータとし、明度が近似しているピクセルを損傷部の候補とするので、本発明における「第四の損傷特定処理」に相当する処理を含むであると言える。
この処理によって、面積のみをチューニングパラメータとする処理に比べて、多面的な判定を実現することができ、サーバ装置30は、特定処理の精度を向上させることができる。
In the first identification process, the pixel corresponding to the area that is a candidate for the damaged part by the process using the first area as the tuning parameter in the first damage identification process (other damage identification process) and the pixel adjacent to the pixel are adjacent to the pixel. The tuning parameter is whether or not the brightness is similar to that of the pixel, and the pixel whose brightness is similar is used as a candidate for the damaged portion. Therefore, it corresponds to the "fourth damage identification process" in the present invention. It can be said that it includes processing.
By this process, it is possible to realize a multifaceted determination as compared with the process in which only the area is used as the tuning parameter, and the server device 30 can improve the accuracy of the specific process.

1回目の損傷特定処理は、1回目の損傷特定処理における明度比較をチューニングパラメータとする処理(他の損傷特定処理)によって損傷部の候補とされた領域に含まれるピクセルの明度に基づいて算出した閾値をチューニングパラメータとし、算出した閾値より低い明度のピクセルを損傷部の候補とするので、本発明における「第五の損傷特定処理」に相当する処理であると言える。
この処理によって、面積のみをチューニングパラメータとする処理に比べて、多面的な判定を実現することができ、サーバ装置30は、損傷特定処理の精度を向上させることができる。
The first damage identification process was calculated based on the brightness of the pixels included in the area that was a candidate for the damaged part by the process using the brightness comparison in the first damage identification process as a tuning parameter (other damage identification process). Since the threshold value is used as the tuning parameter and the pixel having a brightness lower than the calculated threshold value is used as the candidate for the damaged portion, it can be said to be a process corresponding to the "fifth damage specifying process" in the present invention.
By this process, it is possible to realize a multifaceted determination as compared with the process in which only the area is used as the tuning parameter, and the server device 30 can improve the accuracy of the damage identification process.

3回目の損傷特定処理(損傷特定手段が実行する損傷特定処理のうち少なくとも一つ)は、アスペクト比が所定値未満の領域であるか否かをチューニングパラメータに含み、当該領域を損傷部の候補とする処理であると言える。
この処理によって、細長い領域であるものをひび割れ候補として残すことができるので、面積のみをチューニングパラメータとする処理に比べて、よりひびの形状として妥当な4ものを損傷部の候補として残すことができ、サーバ装置30は、損傷特定処理の精度を向上させることができる。
The third damage identification process (at least one of the damage identification processes performed by the damage identification means) includes whether or not the aspect ratio is a region less than a predetermined value in the tuning parameter, and the region is included as a candidate for the damaged portion. It can be said that this is the process.
By this process, it is possible to leave an elongated region as a candidate for a crack, so that four more appropriate crack shapes can be left as candidates for a damaged part as compared with a process in which only the area is used as a tuning parameter. , The server device 30 can improve the accuracy of the damage identification process.

以上に説明したように、サーバ装置30は、各種処理を組み合わせて実行することによって、画像に撮影されている損傷部を特定してマーキングすることができるので、ユーザが自ら損傷部の位置を特定してマーキングする作業を省くことができる。
特に、図8(b)と図10(a)とを対比すれば明らかであるが、通信端末20に表示されている画像の一部を囲うように大まかに小領域を設定すれば、損傷部の全体を特定することができるので、ユーザは小領域の設定について細やかに気をつかわずとも、正確に損傷部を特定することができる。
As described above, the server device 30 can identify and mark the damaged portion captured in the image by executing various processes in combination, so that the user can identify the position of the damaged portion by himself / herself. The work of marking can be omitted.
In particular, as is clear by comparing FIG. 8 (b) and FIG. 10 (a), if a small area is roughly set so as to surround a part of the image displayed on the communication terminal 20, the damaged portion Since the entire image can be specified, the user can accurately identify the damaged part without paying attention to the setting of the small area.

なお、上述の各種処理(特に、輪郭抽出処理及び損傷特定処理)を実現する為に、既知の人工知能処理(機械学習処理)を適用してもよく、本発明の目的に反しない範囲において、その種別は特に制限されない。
また、上述の各種処理の結果として生成される編集画像は教師データとする機械学習によって生成した学習済みモデルを、サーバ装置30による診断処理に適用してもよい。
In addition, in order to realize the above-mentioned various processes (particularly, contour extraction process and damage identification process), a known artificial intelligence process (machine learning process) may be applied, and within a range not contrary to the object of the present invention. The type is not particularly limited.
Further, as the edited image generated as a result of the above-mentioned various processes, the trained model generated by machine learning as teacher data may be applied to the diagnostic process by the server device 30.

<本発明の実施例について>
以下、実際の画像に対して本発明に係る編集処理(図7に図示する一連の処理)を実施した事例について説明する。
図11は、本発明に係る編集処理前の画像を示す図である。図12は、本発明に係る編集処理後の画像を示す図である。図13は、図11に示す画像の撮影環境を示す模式図である。
なお、図13に図示した矢印B1は、図11に示す画像の撮影方向を示すものである。
<About Examples of the Present Invention>
Hereinafter, an example in which an editing process (a series of processes shown in FIG. 7) according to the present invention is performed on an actual image will be described.
FIG. 11 is a diagram showing an image before the editing process according to the present invention. FIG. 12 is a diagram showing an image after the editing process according to the present invention. FIG. 13 is a schematic view showing a shooting environment of the image shown in FIG.
The arrow B1 shown in FIG. 13 indicates the shooting direction of the image shown in FIG.

図11に示す画像は、アスファルト舗装された地面G1と、地面G1より低い位置に存在する地面G2と、の段差に設けられたコンクリート製の縁石C1を撮影した画像である。
縁石C1は、横面C2の一部にひび割れが生じており、撮影方向(矢印B1が示す方向)から視て奥行き方向に侵出しており、その様子が上面C3に生じているひび割れから推定される。
The image shown in FIG. 11 is an image of a concrete curb C1 provided on a step between an asphalt-paved ground G1 and a ground G2 existing at a position lower than the ground G1.
The curb C1 has cracks on a part of the lateral surface C2 and protrudes in the depth direction when viewed from the shooting direction (direction indicated by the arrow B1), and the appearance is estimated from the cracks on the upper surface C3. To.

図11に示す画像には、輪郭として抽出され得るものとして、横面C2や上面C3に生じているひび割れの他に、縁石C1の上縁部C4や下縁部C5が撮影されており、多数の細かい線分が撮影されている。
図12に示す画像において、図11に比べて濃い色になっている部分が損傷部として特定された部分である。
図12に示す画像から明らかであるように、本発明に係る編集処理を施せば、損傷部のみが正確に特定され、その他の輪郭として撮影され得る部分は損傷部として特定されない。
従って、本発明は上述した目的を達成したものと言える。
In the image shown in FIG. 11, in addition to the cracks generated on the side surface C2 and the upper surface C3, the upper edge portion C4 and the lower edge portion C5 of the curb C1 are photographed as the contours that can be extracted. The fine line segment of is photographed.
In the image shown in FIG. 12, a portion having a darker color than that in FIG. 11 is a portion specified as a damaged portion.
As is clear from the image shown in FIG. 12, if the editing process according to the present invention is performed, only the damaged portion is accurately identified, and other portions that can be photographed as contours are not specified as the damaged portion.
Therefore, it can be said that the present invention has achieved the above-mentioned object.

<変形例>
以上に説明した本発明の実施形態は、本発明の目的と達成する範囲において、種々の変形が可能である。
<Modification example>
The embodiments of the present invention described above can be variously modified within the scope of the object of the present invention and the achievement.

本発明の実施は、図1に図示したシステム構成によって実現されるものに限られず、他の構成を採用してもよい。
例えば、通信端末20が備える手段をサーバ装置30が備えてもよいし、サーバ装置30が備える手段を通信端末20が備えてもよい。
また、図1では、通信端末20及びサーバ装置30がそれぞれ1台ずつであるかのように図示したが、一方又は双方共に複数台の装置によって実現されてもよい。
また、図1に図示したシステム構成では、通信端末20が有する画像撮影手段21によって診断対象となる画像を取得する実施例としたが、不図示のカメラで撮影した画像を取得してサーバ装置30に格納する構成に代えてもよい。
The implementation of the present invention is not limited to that realized by the system configuration shown in FIG. 1, and other configurations may be adopted.
For example, the server device 30 may include the means provided by the communication terminal 20, or the communication terminal 20 may include the means provided by the server device 30.
Further, in FIG. 1, the communication terminal 20 and the server device 30 are shown as if they were one each, but one or both of them may be realized by a plurality of devices.
Further, in the system configuration shown in FIG. 1, the image to be diagnosed is acquired by the image capturing means 21 included in the communication terminal 20, but the image captured by the camera (not shown) is acquired and the server device 30 is acquired. It may be replaced with the configuration to be stored in.

図7に基づいて説明した処理手順は、本発明の実施に係る一具体例であって、本発明の目的を達成する範囲において、処理の順序を入れ替える、一部の処理を省く、又は、上述の実施形態で説明していない処理を追加する、等の変更を加えてもよい。 The processing procedure described with reference to FIG. 7 is a specific example relating to the implementation of the present invention, and within the range of achieving the object of the present invention, the order of processing is changed, some processing is omitted, or the above-mentioned You may make changes such as adding a process not described in the embodiment of.

本実施形態は以下の技術思想を包含する。
(1)建物又は構造物を撮影した画像を取得する取得手段と、前記取得手段によって取得した画像を表示する表示手段と、前記表示手段によって表示されている画像を編集する編集手段と、前記編集手段による編集が行われた編集画像を診断する診断手段と、を備え、前記編集手段は、前記表示手段によって表示されている画像に撮影されている輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手段によって抽出された輪郭に基づいて、前記表示手段が表示している画像に撮影されている損傷部を特定する損傷特定手段と、前記損傷特定手段によって特定された損傷部をマーキングする編集処理を行うマーキング手段と、を有しており、前記診断手段は、少なくとも前記マーキング手段によってマーキングされた損傷部に関する損傷の度合いについて診断を行う、建物構造物診断システム。
(2)前記取得手段によって取得した画像の撮影対象である建物又は構造物に関する建物構造図面を記憶している記憶手段と、前記編集画像を前記記憶手段に記憶されている前記建物構造図面に対応付ける画像図面対応手段と、を備え、前記診断手段は、診断した損傷部に関する損傷の度合いと、前記建物構造図面に対応付けられた一又は複数の前記編集画像においてマーキングされている損傷部の数と、に基づいて、当該建物構造図面に係る建物全体又は構造物全体の損傷の度合いを診断する、(1)に記載の建物構造物診断システム。
(3)前記損傷特定手段は、前記輪郭抽出手段によって抽出された輪郭と、複数とおりのチューニングパラメータと、に基づいて、前記表示手段が表示している画像の一部を当該画像に撮影されている損傷部の候補として特定する損傷特定処理を複数回実行し、前記損傷特定処理ごとに異なる前記チューニングパラメータを用いて、前記損傷特定処理のそれぞれにおいて特定された損傷部の候補に基づいて、当該画像に撮影されている損傷部を特定する、(1)又は(2)に記載の建物構造物診断システム。
(4)前記損傷特定手段が実行する第一の前記損傷特定処理は、前記輪郭抽出手段によって抽出された輪郭のうち、第一面積以上の領域が含まれるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とする、(3)に記載の建物構造物診断システム。
(5)前記輪郭抽出手段は、前記損傷特定処理によって損傷部の候補とされた領域に撮影されている輪郭を抽出し、前記損傷特定手段が実行する第二の前記損傷特定処理は、前記第一の損傷特定処理によって損傷部の候補とされた領域から抽出された輪郭のうち、第二面積以上の領域が含まれるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とし、前記第二面積は、前記第一面積より大きい、(4)に記載の建物構造物診断システム。
(6)前記損傷特定手段が前記第一の損傷特定処理と前記第二の損傷特定処理の間に行う第三の前記損傷特定処理は、他の前記損傷特定処理によって特定された損傷部の候補を引き伸ばし、引き伸ばした損傷部の候補と別の損傷部の候補が重複すると、統合して単独の損傷部の候補とする、(5)に記載の建物構造物診断システム。
(7)前記損傷特定手段が実行する第四の前記損傷特定処理は、他の前記損傷特定処理によって損傷部の候補とされた領域に該当するピクセルと、当該ピクセルに隣接するピクセルと、を比較して明度が近似しているか否かを前記チューニングパラメータとし、明度が近似しているピクセルを前記損傷部の候補とする、(3)から(6)のいずれか一つに記載の建物構造物診断システム。
(8)前記損傷特定手段が実行する第五の前記損傷特定処理は、他の前記損傷特定処理によって損傷部の候補とされた領域に含まれるピクセルの明度に基づいて算出した閾値を前記チューニングパラメータとし、算出した閾値より低い明度のピクセルを前記損傷部の候補とする、(3)から(7)のいずれか一つに記載の建物構造物診断システム。
(9)前記損傷特定手段が実行する前記損傷特定処理のうち少なくとも一つは、アスペクト比が所定値未満の領域であるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とする、(3)から(8)のいずれか一つに記載の建物構造物診断システム。
This embodiment includes the following technical ideas.
(1) An acquisition means for acquiring an image of a building or a structure, a display means for displaying an image acquired by the acquisition means, an editing means for editing an image displayed by the display means, and the editing. The editing means includes a diagnostic means for diagnosing an edited image edited by the means, and the editing means includes a contour extraction means for extracting a contour captured in an image displayed by the display means, and the contour extraction means. Based on the contour extracted by the means, the damage identifying means for identifying the damaged part captured in the image displayed by the display means and the editing process for marking the damaged part identified by the damage identifying means are performed. A building structure diagnostic system comprising marking means to perform, the diagnostic means diagnosing at least the degree of damage to a damaged portion marked by the marking means.
(2) The storage means for storing the building structure drawing relating to the building or structure to which the image acquired by the acquisition means is to be captured and the edited image are associated with the building structure drawing stored in the storage means. The diagnostic means includes an image drawing corresponding means, and the diagnostic means includes the degree of damage related to the diagnosed damaged part and the number of damaged parts marked in one or more of the edited images associated with the building structure drawing. , The building structure diagnosis system according to (1), which diagnoses the degree of damage to the entire building or the entire structure according to the building structure drawing.
(3) The damage identifying means captures a part of the image displayed by the display means on the image based on the contour extracted by the contour extracting means and a plurality of tuning parameters. The damage identification process specified as a candidate for the damaged part is executed a plurality of times, and the tuning parameter different for each damage identification process is used, and the damage identification process is used based on the damage identification process specified in each of the damage identification processes. The building structure diagnostic system according to (1) or (2), which identifies a damaged part photographed in an image.
(4) In the first damage identification process executed by the damage identification means, whether or not a region equal to or larger than the first area is included in the contour extracted by the contour extraction means is set as the tuning parameter. The building structure diagnostic system according to (3), wherein the area is a candidate for a damaged part.
(5) The contour extracting means extracts a contour photographed in a region designated as a candidate for a damaged portion by the damage identifying process, and the second damage identifying process executed by the damage identifying means is the first. Whether or not a region equal to or larger than the second area is included in the contour extracted from the region selected as a candidate for the damaged portion by one damage identification process is set as the tuning parameter, and the region is set as the candidate for the damaged portion. The building structure diagnosis system according to (4), wherein the second area is larger than the first area.
(6) The third damage identification process performed by the damage identification means between the first damage identification process and the second damage identification process is a candidate for a damaged portion identified by the other damage identification process. The building structure diagnostic system according to (5), wherein when a candidate for a stretched damaged part and a candidate for another damaged part overlap, they are integrated into a single candidate for a damaged part.
(7) The fourth damage identification process executed by the damage identification means compares a pixel corresponding to an area that is a candidate for a damaged portion by another damage identification process with a pixel adjacent to the pixel. The building structure according to any one of (3) to (6), wherein whether or not the brightness is similar is used as the tuning parameter, and the pixels having similar brightness are used as candidates for the damaged portion. Diagnostic system.
(8) In the fifth damage identification process executed by the damage identification means, the tuning parameter is a threshold value calculated based on the brightness of the pixels included in the area that is a candidate for the damage portion by the other damage identification processing. The building structure diagnosis system according to any one of (3) to (7), wherein pixels having a brightness lower than the calculated threshold value are candidates for the damaged portion.
(9) At least one of the damage identification processes executed by the damage identification means sets whether or not the aspect ratio is a region less than a predetermined value as the tuning parameter, and uses the region as a candidate for the damaged portion. The building structure diagnosis system according to any one of (3) to (8).

100 建物構造物診断システム
10 ネットワーク
20 通信端末
21 画像撮影手段
22 操作入力手段
23 表示手段
30 サーバ装置
31 記憶手段
32 編集手段
33 診断手段
34 画像図面対応手段
100 Building structure diagnostic system 10 Network 20 Communication terminal 21 Imaging means 22 Operation input means 23 Display means 30 Server device 31 Storage means 32 Editing means 33 Diagnostic means 34 Image drawing Corresponding means

Claims (9)

建物又は構造物を撮影した画像を取得する取得手段と、
前記取得手段によって取得した画像を表示する表示手段と、
前記表示手段によって表示されている画像を編集する編集手段と、
前記編集手段による編集が行われた編集画像を診断する診断手段と、
を備え、
前記編集手段は、
前記表示手段によって表示されている画像に撮影されている輪郭を抽出する輪郭抽出手段と、
前記輪郭抽出手段によって抽出された輪郭に基づいて、前記表示手段が表示している画像に撮影されている損傷部を特定する損傷特定手段と、
前記損傷特定手段によって特定された損傷部をマーキングする編集処理を行うマーキング手段と、
を有しており、
前記診断手段は、少なくとも前記マーキング手段によってマーキングされた損傷部に関する損傷の度合いについて診断を行う、
建物構造物診断システム。
Acquisition means for acquiring images of buildings or structures, and
A display means for displaying an image acquired by the acquisition means and a display means for displaying the image.
An editing means for editing an image displayed by the display means, and
A diagnostic means for diagnosing an edited image edited by the editing means, and
With
The editing means
A contour extraction means for extracting the contour captured in the image displayed by the display means, and a contour extraction means.
Based on the contour extracted by the contour extracting means, the damage identifying means for identifying the damaged portion captured in the image displayed by the display means, and the damage identifying means.
A marking means that performs an editing process for marking a damaged portion identified by the damage identifying means,
Have and
The diagnostic means diagnoses at least the degree of damage to the damaged portion marked by the marking means.
Building structure diagnostic system.
前記取得手段によって取得した画像の撮影対象である建物又は構造物に関する建物構造図面を記憶している記憶手段と、
前記編集画像を前記記憶手段に記憶されている前記建物構造図面に対応付ける画像図面対応手段と、
を備え、
前記診断手段は、診断した損傷部に関する損傷の度合いと、前記建物構造図面に対応付けられた一又は複数の前記編集画像においてマーキングされている損傷部の数と、に基づいて、当該建物構造図面に係る建物全体又は構造物全体の損傷の度合いを診断する、
請求項1に記載の建物構造物診断システム。
A storage means for storing a building structure drawing relating to a building or a structure for which an image acquired by the acquisition means is to be taken, and a storage means.
An image drawing-corresponding means for associating the edited image with the building structure drawing stored in the storage means,
With
The diagnostic means is based on the degree of damage to the diagnosed damaged part and the number of damaged parts marked in the edited image associated with the building structure drawing. Diagnose the degree of damage to the entire building or structure
The building structure diagnostic system according to claim 1.
前記損傷特定手段は、
前記輪郭抽出手段によって抽出された輪郭と、複数とおりのチューニングパラメータと、に基づいて、前記表示手段が表示している画像の一部を当該画像に撮影されている損傷部の候補として特定する損傷特定処理を複数回実行し、
前記損傷特定処理ごとに異なる前記チューニングパラメータを用いて、前記損傷特定処理のそれぞれにおいて特定された損傷部の候補に基づいて、当該画像に撮影されている損傷部を特定する、
請求項1又は2に記載の建物構造物診断システム。
The damage identifying means
Damage that identifies a part of the image displayed by the display means as a candidate for a damaged portion captured in the image based on the contour extracted by the contour extraction means and a plurality of tuning parameters. Execute specific processing multiple times
Using the tuning parameters that are different for each of the damage identification processes, the damaged portion captured in the image is specified based on the candidate of the damaged portion identified in each of the damage identification processes.
The building structure diagnostic system according to claim 1 or 2.
前記損傷特定手段が実行する第一の前記損傷特定処理は、前記輪郭抽出手段によって抽出された輪郭のうち、第一面積以上の領域が含まれるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とする、
請求項3に記載の建物構造物診断システム。
In the first damage identification process executed by the damage identification means, whether or not a region equal to or larger than the first area is included in the contour extracted by the contour extraction means is set as a tuning parameter, and the region is damaged. Candidate for the club,
The building structure diagnostic system according to claim 3.
前記輪郭抽出手段は、前記損傷特定処理によって損傷部の候補とされた領域に撮影されている輪郭を抽出し、
前記損傷特定手段が実行する第二の前記損傷特定処理は、前記第一の損傷特定処理によって損傷部の候補とされた領域から抽出された輪郭のうち、第二面積以上の領域が含まれるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とし、
前記第二面積は、前記第一面積より大きい、
請求項4に記載の建物構造物診断システム。
The contour extraction means extracts a contour imaged in a region that is a candidate for a damaged portion by the damage identification process, and extracts the contour.
Does the second damage identification process executed by the damage identification means include a region equal to or larger than the second area among the contours extracted from the regions selected as candidates for the damaged portion by the first damage identification treatment? Whether or not is used as the tuning parameter, and the area is used as a candidate for the damaged part.
The second area is larger than the first area.
The building structure diagnostic system according to claim 4.
前記損傷特定手段が前記第一の損傷特定処理と前記第二の損傷特定処理の間に行う第三の前記損傷特定処理は、他の前記損傷特定処理によって特定された損傷部の候補を引き伸ばし、引き伸ばした損傷部の候補と別の損傷部の候補が重複すると、統合して単独の損傷部の候補とする、
請求項5に記載の建物構造物診断システム。
The third damage identification process performed by the damage identification means between the first damage identification process and the second damage identification process stretches the candidates for the damaged portion identified by the other damage identification process. When a stretched damaged part candidate and another damaged part candidate overlap, they are integrated into a single damaged part candidate.
The building structure diagnostic system according to claim 5.
前記損傷特定手段が実行する第四の前記損傷特定処理は、他の前記損傷特定処理によって損傷部の候補とされた領域に該当するピクセルと、当該ピクセルに隣接するピクセルと、を比較して明度が近似しているか否かを前記チューニングパラメータとし、明度が近似しているピクセルを前記損傷部の候補とする、
請求項3から6のいずれか一項に記載の建物構造物診断システム。
The fourth damage identification process executed by the damage identification means compares the pixels corresponding to the area designated as the candidate of the damage portion by the other damage identification processes with the pixels adjacent to the pixels and has a brightness. Is the tuning parameter, and the pixels with similar brightness are candidates for the damaged portion.
The building structure diagnostic system according to any one of claims 3 to 6.
前記損傷特定手段が実行する第五の前記損傷特定処理は、他の前記損傷特定処理によって損傷部の候補とされた領域に含まれるピクセルの明度に基づいて算出した閾値を前記チューニングパラメータとし、算出した閾値より低い明度のピクセルを前記損傷部の候補とする、
請求項3から7のいずれか一項に記載の建物構造物診断システム。
The fifth damage identification process executed by the damage identification means is calculated by using a threshold value calculated based on the brightness of pixels included in a region designated as a candidate for a damaged portion by another damage identification process as a tuning parameter. Pixels with a brightness lower than the threshold value are used as candidates for the damaged portion.
The building structure diagnostic system according to any one of claims 3 to 7.
前記損傷特定手段が実行する前記損傷特定処理のうち少なくとも一つは、アスペクト比が所定値未満の領域であるか否かを前記チューニングパラメータとし、当該領域を損傷部の候補とする、
請求項3から8のいずれか一項に記載の建物構造物診断システム。
At least one of the damage identification processes executed by the damage identification means sets whether or not the aspect ratio is a region less than a predetermined value as the tuning parameter, and uses the region as a candidate for the damaged portion.
The building structure diagnostic system according to any one of claims 3 to 8.
JP2019174580A 2019-09-25 2019-09-25 Building structure diagnostic system Active JP7471570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174580A JP7471570B2 (en) 2019-09-25 2019-09-25 Building structure diagnostic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174580A JP7471570B2 (en) 2019-09-25 2019-09-25 Building structure diagnostic system

Publications (2)

Publication Number Publication Date
JP2021051022A true JP2021051022A (en) 2021-04-01
JP7471570B2 JP7471570B2 (en) 2024-04-22

Family

ID=75157663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174580A Active JP7471570B2 (en) 2019-09-25 2019-09-25 Building structure diagnostic system

Country Status (1)

Country Link
JP (1) JP7471570B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102456987B1 (en) 2022-03-15 2022-10-20 디엘이앤씨 주식회사 Method for detecting crack of exterior wall

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339462A (en) * 1999-05-26 2000-12-08 Matsushita Electric Works Ltd Defect inspection method and defect inspection device
JP2003044832A (en) * 2001-07-31 2003-02-14 Kobe Steel Ltd Method, device and program for setting inspection parameter
JP2016065809A (en) * 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2017053819A (en) * 2015-09-11 2017-03-16 国立大学法人富山大学 Crack detection method and detection program of concrete
WO2017130718A1 (en) * 2016-01-29 2017-08-03 富士フイルム株式会社 Crack detection device, and crack detection method and program
JP2017227595A (en) * 2016-06-24 2017-12-28 富士フイルム株式会社 Damage figure creation support system and damage figure creation support method
JP2019039897A (en) * 2017-08-27 2019-03-14 圭浩 佐藤 Crack detection method of concrete surface and detection program
JP2019039936A (en) * 2015-09-10 2019-03-14 富士フイルム株式会社 Damage information extraction device, damage information extraction method and damage information extraction program
JP2019066266A (en) * 2017-09-29 2019-04-25 清水建設株式会社 Crack detector, crack detection method, and computer program
JP2019074496A (en) * 2017-10-19 2019-05-16 清水建設株式会社 Crack detector, crack detection method, and computer program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339462A (en) * 1999-05-26 2000-12-08 Matsushita Electric Works Ltd Defect inspection method and defect inspection device
JP2003044832A (en) * 2001-07-31 2003-02-14 Kobe Steel Ltd Method, device and program for setting inspection parameter
JP2016065809A (en) * 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2019039936A (en) * 2015-09-10 2019-03-14 富士フイルム株式会社 Damage information extraction device, damage information extraction method and damage information extraction program
JP2017053819A (en) * 2015-09-11 2017-03-16 国立大学法人富山大学 Crack detection method and detection program of concrete
WO2017130718A1 (en) * 2016-01-29 2017-08-03 富士フイルム株式会社 Crack detection device, and crack detection method and program
JP2017227595A (en) * 2016-06-24 2017-12-28 富士フイルム株式会社 Damage figure creation support system and damage figure creation support method
JP2019039897A (en) * 2017-08-27 2019-03-14 圭浩 佐藤 Crack detection method of concrete surface and detection program
JP2019066266A (en) * 2017-09-29 2019-04-25 清水建設株式会社 Crack detector, crack detection method, and computer program
JP2019074496A (en) * 2017-10-19 2019-05-16 清水建設株式会社 Crack detector, crack detection method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102456987B1 (en) 2022-03-15 2022-10-20 디엘이앤씨 주식회사 Method for detecting crack of exterior wall

Also Published As

Publication number Publication date
JP7471570B2 (en) 2024-04-22

Similar Documents

Publication Publication Date Title
GB2529943B (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US20180374215A1 (en) Method and system for automated visual analysis of a dipstick using standard user equipment
WO2020110576A1 (en) Information processing device
CN110443148A (en) A kind of action identification method, system and storage medium
CN109951635A (en) It takes pictures processing method, device, mobile terminal and storage medium
CN110199316A (en) The image processing method of camera and camera
CN112368724A (en) Learning device, learning system, and learning method
JPWO2019009214A1 (en) Image processing apparatus, image processing method, and program for detecting deformation from image
CN113223041A (en) Method, system and storage medium for automatically extracting target area in image
CN110751728A (en) Virtual reality equipment and method with BIM building model mixed reality function
JP6912890B2 (en) Information processing equipment, information processing method, system
CN114402362A (en) Fish counting system, fish counting method, and program
JP2020088647A (en) Information processing device, information processing method, and program
CN112084851A (en) Hand hygiene effect detection method, device, equipment and medium
JP7471570B2 (en) Building structure diagnostic system
JP2019075078A (en) Construction site image determination device and construction site image determination program
JP6058720B2 (en) Information output device, detection device, program, and information output method
CN106652898A (en) LED display point-to-point correction method
CN112884694A (en) Defect detection method, device, equipment and medium for flat display panel
CN110288579A (en) Detection method and device of display equipment
JP2016099633A (en) Maintenance inspection system using a portable terminal
JP2005316958A (en) Red eye detection device, method, and program
JP7385192B2 (en) Image processing device, image processing method, and computer program
JP6389120B2 (en) Data processing apparatus, data processing method, and program
CN115620079A (en) Sample label obtaining method and lens failure detection model training method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7471570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150