JP6664574B1 - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP6664574B1
JP6664574B1 JP2019570580A JP2019570580A JP6664574B1 JP 6664574 B1 JP6664574 B1 JP 6664574B1 JP 2019570580 A JP2019570580 A JP 2019570580A JP 2019570580 A JP2019570580 A JP 2019570580A JP 6664574 B1 JP6664574 B1 JP 6664574B1
Authority
JP
Japan
Prior art keywords
image
equipment
images
unit
facility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019570580A
Other languages
Japanese (ja)
Other versions
JPWO2021044629A1 (en
Inventor
恵 入江
恵 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6664574B1 publication Critical patent/JP6664574B1/en
Publication of JPWO2021044629A1 publication Critical patent/JPWO2021044629A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E21EARTH DRILLING; MINING
    • E21DSHAFTS; TUNNELS; GALLERIES; LARGE UNDERGROUND CHAMBERS
    • E21D11/00Lining tunnels, galleries or other underground cavities, e.g. large underground chambers; Linings therefor; Making such linings in situ, e.g. by assembling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

画像処理システム(1)は、画像分割部(12)と、画像抽出部(13)と、設備画像特定部(15)と、を備える。画像分割部(12)は、構造物に取り付けられた設備の画像を含む構造物の画像を、設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する。画像抽出部(13)は、画像分割部(12)によって分割された複数の画像の中から設備の一部を示す画像を複数抽出する。設備画像特定部(15)は、画像抽出部(13)で抽出された複数の画像のうち画像分割部(12)による分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した2つ以上の画像を含む連結画像を設備の画像として特定する。The image processing system (1) includes an image dividing unit (12), an image extracting unit (13), and a facility image specifying unit (15). The image dividing unit (12) divides the image of the structure including the image of the equipment attached to the structure into a plurality of images having a size smaller than the image showing the entire equipment. The image extracting unit (13) extracts a plurality of images showing a part of the equipment from the plurality of images divided by the image dividing unit (12). The equipment image specifying unit (15) connects two or more images, which are located at positions adjacent to each other, before being divided by the image dividing unit (12) among the plurality of images extracted by the image extracting unit (13). , A connected image including two or more connected images is specified as the facility image.

Description

本発明は、設備が取り付けられた構造物の画像から設備の画像を特定する画像処理システムおよび画像処理方法に関する。   The present invention relates to an image processing system and an image processing method for specifying an image of a facility from an image of a structure to which the facility is attached.

従来、トンネルまたは橋梁などといった構造物に取り付けられた照明機器または看板などの設備は、定期的に点検が行われている。設備の点検では、構造物に設備を取り付けるための締結具に錆または緩みがないか、または設備そのものに亀裂などの問題がないかなどを確認する作業が行われる。かかる作業を、構造物に取り付けられた全ての設備を対象に一つ一つ作業者が目視などにより確認することによって行うと、非常に手間と時間がかかる。   2. Description of the Related Art Conventionally, equipment such as a lighting device or a signboard attached to a structure such as a tunnel or a bridge is regularly inspected. In the inspection of the equipment, work is performed to check whether fasteners for attaching the equipment to the structure have rust or looseness, or whether the equipment itself has any problems such as cracks. If such an operation is carried out by visually confirming, for example, all the equipment attached to the structure by all the operators, it takes much time and effort.

点検作業を目視で行うかわりに、撮像装置によって撮影された画像から設備の画像を特定し、特定した画像を確認する方法がある。画像を特定する技術として、特許文献1には、撮像カメラが周囲を撮像して得られる画像をティーチング設備画像と比較することで、撮像カメラが撮像した画像から設備の画像を特定する技術が開示されている。   Instead of performing the inspection work visually, there is a method of identifying an image of the facility from an image captured by the imaging device and confirming the identified image. As a technique for specifying an image, Patent Literature 1 discloses a technique for comparing an image obtained by capturing an image of a surrounding area with an imaging camera with a teaching facility image to identify an image of the facility from an image captured by the imaging camera. Have been.

特開2002−19606号公報JP-A-2002-19606

しかしながら、特許文献1に記載の技術では、撮像カメラが撮像した画像とティーチング設備画像とを比較するため、取り扱う画像のサイズが大きく、撮像カメラが撮像した画像から設備の画像を特定する処理において使用するメモリ量が多い。   However, in the technology described in Patent Literature 1, the size of the image to be handled is large because the image captured by the imaging camera is compared with the teaching facility image, and the technology is used in a process of specifying the facility image from the image captured by the imaging camera. The amount of memory to be used is large.

本発明は、上記に鑑みてなされたものであって、設備が取り付けられた構造物の画像から設備の画像を特定する処理に使用するメモリ量を低減させることができる画像処理システムを得ることを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image processing system capable of reducing the amount of memory used for processing for specifying an image of a facility from an image of a structure to which the facility is attached. Aim.

上述した課題を解決し、目的を達成するために、本発明の画像処理システムは、画像分割部と、画像抽出部と、設備画像特定部と、を備える。画像分割部は、構造物に取り付けられた設備の画像を含む構造物の画像を、設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する。画像抽出部は、画像分割部によって分割された複数の画像の中から設備の一部を示す画像を複数抽出する。設備画像特定部は、画像抽出部で抽出された複数の画像のうち画像分割部による分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した2つ以上の画像を含む連結画像を設備の画像として特定する。   In order to solve the above-described problems and achieve the object, an image processing system according to the present invention includes an image dividing unit, an image extracting unit, and a facility image specifying unit. The image division unit divides an image of a structure including an image of equipment attached to the structure into a plurality of images having a smaller size than an image showing the entire equipment. The image extracting unit extracts a plurality of images showing a part of the facility from the plurality of images divided by the image dividing unit. The equipment image specifying unit connects two or more images at positions adjacent to each other before being divided by the image dividing unit among the plurality of images extracted by the image extracting unit, and combines the two or more images. The connected image including the specified image is specified as the equipment image.

本発明によれば、設備が取り付けられた構造物の画像から設備の画像を特定する処理に使用するメモリ量を低減させることができる、という効果を奏する。   ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to reduce the amount of memory used for the process which specifies the image of a facility from the image of the structure to which the facility was attached.

本発明の実施の形態1にかかる画像処理システムを説明するための図FIG. 1 is a diagram for explaining an image processing system according to a first embodiment of the present invention. 実施の形態1にかかる走行型計測装置による構造物画像の取得方法の一例を示す図The figure which shows an example of the acquisition method of the structure image by the traveling type measuring device concerning Embodiment 1. 実施の形態1にかかる走行型計測装置によって計測される構造物画像の一例を示す図The figure which shows an example of the structure image measured by the traveling type measuring device concerning Embodiment 1. 実施の形態1にかかる画像処理システムの構成例を示す図FIG. 1 is a diagram illustrating a configuration example of an image processing system according to a first embodiment; 実施の形態1にかかる画像分割部による画像分割処理の一例を説明するための図FIG. 6 is a diagram for explaining an example of an image dividing process by the image dividing unit according to the first embodiment. 実施の形態1にかかる画像抽出部による画像抽出処理の一例を説明するための図FIG. 7 is a view for explaining an example of an image extraction process by the image extraction unit according to the first embodiment. 実施の形態1にかかる第1学習モデル生成部による学習処理の一例を説明するための図FIG. 7 is a diagram for explaining an example of a learning process performed by a first learning model generation unit according to the first embodiment. 実施の形態1にかかる設備画像特定部による設備画像特定処理の一例を説明するための図FIG. 6 is a diagram for explaining an example of a facility image specifying process performed by the facility image specifying unit according to the first embodiment. 実施の形態1にかかる設備画像特定部による設備画像特定処理の他の例を示す図The figure which shows the other example of the equipment image specification processing by the equipment image specification unit according to the first embodiment. 実施の形態1にかかる設備画像特定部による設備画像特定処理の他の例を示す図The figure which shows the other example of the equipment image specification processing by the equipment image specification unit according to the first embodiment. 実施の形態1にかかる特定領域抽出部による特定領域画像処理の一例を説明するための図FIG. 6 is a diagram for explaining an example of specific region image processing by a specific region extraction unit according to the first embodiment. 実施の形態1にかかる異常判定部による異常判定処理の一例を説明するための図FIG. 8 is a diagram for explaining an example of an abnormality determination process performed by the abnormality determination unit according to the first embodiment. 実施の形態1にかかる画像処理システムによる処理手順の一例を示すフローチャート5 is a flowchart illustrating an example of a processing procedure performed by the image processing system according to the first embodiment; 実施の形態1にかかる画像抽出部による画像抽出処理の一例を示すフローチャート5 is a flowchart illustrating an example of an image extraction process performed by the image extraction unit according to the first embodiment; 実施の形態1にかかる設備画像特定部による設備画像特定処理の一例を示すフローチャート5 is a flowchart illustrating an example of a facility image specifying process performed by the facility image specifying unit according to the first embodiment; 実施の形態1にかかる特定領域抽出部による特定領域画像処理および異常判定部による異常判定処理の各々の一例を示すフローチャート5 is a flowchart illustrating an example of each of the specific area image processing by the specific area extraction unit and the abnormality determination processing by the abnormality determination unit according to the first embodiment; 実施の形態1にかかる画像処理システムのハードウェア構成の一例を示す図FIG. 1 is a diagram illustrating an example of a hardware configuration of an image processing system according to a first embodiment. 本発明の実施の形態2にかかる画像処理システムを説明するための図FIG. 4 is a diagram for explaining an image processing system according to a second embodiment of the present invention. 実施の形態2にかかる走行型計測装置による構造物画像の取得方法の一例を示す図The figure which shows an example of the acquisition method of the structure image by the traveling type measuring device concerning Embodiment 2. 実施の形態2にかかる走行型計測装置によって計測される構造物画像の一例を示す図The figure which shows an example of the structure image measured by the traveling type measuring device concerning Embodiment 2. 実施の形態2にかかる画像処理システムの構成例を示す図FIG. 2 is a diagram illustrating a configuration example of an image processing system according to a second embodiment; 実施の形態2にかかる見上げ図と見下げ図との関係を説明するための図FIG. 9 is a diagram for explaining a relationship between a look-up diagram and a look-down diagram according to the second embodiment. 実施の形態2にかかる設備画像特定部による設備画像特定処理手順における一部の手順の一例を示すフローチャート11 is a flowchart illustrating an example of a partial procedure in a facility image specifying process performed by the facility image specifying unit according to the second embodiment.

以下に、本発明の実施の形態にかかる画像処理システムおよび画像処理方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Hereinafter, an image processing system and an image processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. The present invention is not limited by the embodiment.

実施の形態1.
図1は、本発明の実施の形態1にかかる画像処理システムを説明するための図である。図1に示す画像処理システム1は、設備が取り付けられた構造物の画像から設備の画像である設備画像を特定する。以下においては、走行型計測装置2によって撮像される構造物がトンネル3であり、トンネル3に取り付けられる設備4が照明機器であるものとして説明する。なお、走行型計測装置2によって撮像される構造物は、トンネル3に限定されず、橋梁または建物などであってもよい。また、設備4は、照明機器に限定されず、送風機または看板などであってもよい。
Embodiment 1 FIG.
FIG. 1 is a diagram for explaining the image processing system according to the first embodiment of the present invention. The image processing system 1 illustrated in FIG. 1 specifies a facility image that is an image of a facility from an image of a structure to which the facility is attached. In the following, a description will be given assuming that the structure imaged by the traveling measurement device 2 is the tunnel 3 and the equipment 4 attached to the tunnel 3 is a lighting device. The structure imaged by the traveling type measurement device 2 is not limited to the tunnel 3 but may be a bridge or a building. The equipment 4 is not limited to lighting equipment, but may be a blower, a signboard, or the like.

図2は、実施の形態1にかかる走行型計測装置による構造物画像の取得方法の一例を示す図である。図2に示すように、走行型計測装置2は、撮像部51を搭載している。走行型計測装置2は、トンネル3内を走行しながら撮像部51によって走行型計測装置2の周囲を繰り返し撮像し、設備4が取り付けられたトンネル3の内壁3aの画像である構造物画像を生成する。   FIG. 2 is a diagram illustrating an example of a method of acquiring a structure image by the traveling measurement device according to the first embodiment. As shown in FIG. 2, the traveling measurement device 2 has an imaging unit 51 mounted thereon. The traveling measuring device 2 repeatedly captures an image of the periphery of the traveling measuring device 2 by the imaging unit 51 while traveling in the tunnel 3, and generates a structure image that is an image of the inner wall 3 a of the tunnel 3 to which the equipment 4 is attached. I do.

撮像部51は、例えば、ラインカメラであり、走行型計測装置2の進行方向と直交または交差する方向に沿って複数の画素が配列される。走行型計測装置2は、ラインカメラから繰り返し出力される画素の情報に基づいて、構造物画像を生成する。なお、撮像部51は、マトリクス状に複数の画素が配列されたエリアカメラであってもよい。   The imaging unit 51 is, for example, a line camera, and has a plurality of pixels arranged in a direction orthogonal to or intersecting with the traveling direction of the traveling measurement device 2. The traveling measurement device 2 generates a structure image based on information on pixels repeatedly output from the line camera. Note that the imaging unit 51 may be an area camera in which a plurality of pixels are arranged in a matrix.

図3は、実施の形態1にかかる走行型計測装置によって計測される構造物画像の一例を示す図である。図3に示す構造物画像5は、トンネル3の内壁3aの一部を2次元平面に展開したと仮定した場合におけるトンネル3の展開画像である。図3において、トンネル軸方向がX軸方向であり、トンネル周方向がY軸方向である。トンネル軸方向は、トンネル3の延伸方向である。また、トンネル周方向は、トンネル軸方向に直交する面でトンネル3を切断した場合の内壁3aを示す線に沿った方向である。   FIG. 3 is a diagram illustrating an example of a structure image measured by the traveling measurement device according to the first embodiment. The structure image 5 shown in FIG. 3 is a developed image of the tunnel 3 on the assumption that a part of the inner wall 3a of the tunnel 3 is developed on a two-dimensional plane. In FIG. 3, the tunnel axis direction is the X-axis direction, and the tunnel circumferential direction is the Y-axis direction. The tunnel axis direction is a direction in which the tunnel 3 extends. Further, the tunnel circumferential direction is a direction along a line indicating the inner wall 3a when the tunnel 3 is cut along a plane orthogonal to the tunnel axis direction.

走行型計測装置2は、レーザスキャナ装置を有しており、レーザスキャナ装置によってトンネル3の内壁3aの3次元形状を計測する。また、走行型計測装置2は、レーザスキャナ装置によって得られるデータから構造物画像5を構成する各画素の3次元位置を検出する。走行型計測装置2は、構造物画像5を構成する各画素の3次元位置に基づいてトンネル3の展開画像を生成することができる。走行型計測装置2は、構造物画像5を構成する各画素の間隔が、予め設定された間隔になるように構造物画像5を生成する。すなわち、走行型計測装置2は、トンネル3の実際の大きさに対して予め設定された縮尺になるように構造物画像5を生成する。   The traveling type measuring device 2 has a laser scanner device, and measures the three-dimensional shape of the inner wall 3a of the tunnel 3 by the laser scanner device. The traveling type measuring device 2 detects the three-dimensional position of each pixel constituting the structure image 5 from the data obtained by the laser scanner device. The traveling measurement device 2 can generate a developed image of the tunnel 3 based on the three-dimensional position of each pixel constituting the structure image 5. The traveling type measurement device 2 generates the structure image 5 so that the intervals between the pixels forming the structure image 5 are equal to a preset interval. That is, the traveling type measurement device 2 generates the structure image 5 so that the actual size of the tunnel 3 is reduced to a preset scale.

図3に示す構造物画像5は、設備4が取り付けられたトンネル3の内壁3aの画像であってトンネル3の入口から出口に亘るまでの画像である。構造物画像5は、撮像部51から順次出力される複数の領域画像6〜6を繋ぎ合わせて生成される。領域画像6〜6は、トンネル軸方向の領域が各々異なる。図3に示す構造物画像5には、複数の設備4〜4の画像が含まれる。以下、複数の設備4〜4の各々を個別に区別せずに示す場合、設備4と記載し、複数の領域画像6〜6の各々を個別に区別せずに示す場合、領域画像6と記載する。The structural image 5 shown in FIG. 3 is an image of the inner wall 3a of the tunnel 3 to which the equipment 4 is attached, and is an image from the entrance to the exit of the tunnel 3. Building image 5 is generated by connecting a plurality of region images 6 through 65, which are sequentially output from the imaging unit 51. Area image 6 through 65, the different areas of the tunnel axis direction, respectively. The structure image 5 shown in FIG. 3, includes an image of a plurality of facilities 41 to 7. Hereinafter, the case shown each of the plurality of equipment 41 to 7 without individually distinguished, listed and equipment 4, indicating each of the plurality of area images 6 through 65 without individually distinguished area Described as Image 6.

図4は、実施の形態1にかかる画像処理システムの構成例を示す図である。図4に示すように、実施の形態1にかかる画像処理システム1は、取得部10と、画像情報記憶部11と、画像分割部12と、画像抽出部13と、第1学習モデル生成部14と、設備画像特定部15と、入力部16とを備える。また、画像処理システム1は、特定領域抽出部17と、設備情報記憶部18と、異常判定部19と、第2学習モデル生成部20と、設備異常情報記憶部21と、表示処理部22と、表示部23とを備える。   FIG. 4 is a diagram illustrating a configuration example of the image processing system according to the first embodiment. As shown in FIG. 4, the image processing system 1 according to the first embodiment includes an acquisition unit 10, an image information storage unit 11, an image division unit 12, an image extraction unit 13, and a first learning model generation unit 14 And an equipment image specifying unit 15 and an input unit 16. Further, the image processing system 1 includes a specific area extraction unit 17, an equipment information storage unit 18, an abnormality determination unit 19, a second learning model generation unit 20, an equipment abnormality information storage unit 21, a display processing unit 22, , A display unit 23.

取得部10は、不図示の通信ネットワークを介して、走行型計測装置2から構造物画像5の情報である構造物画像情報を取得し、取得した構造物画像情報を画像情報記憶部11に記憶させる。画像情報記憶部11に記憶される構造物画像情報は、繋ぎ合わされていない状態の複数の領域画像6〜6の情報から構成されてもよい。この場合、トンネル軸方向に沿って隣り合う2つの領域画像6同士を特定できるように、各領域画像6の情報には、識別番号の情報または撮像位置の情報が含まれる。The acquisition unit 10 acquires structure image information, which is information on the structure image 5, from the traveling measurement device 2 via a communication network (not shown), and stores the acquired structure image information in the image information storage unit 11. Let it. Building image information stored in the image information storage unit 11 may be constructed from information of a plurality of region images 6 through 65 of the state of not being spliced together. In this case, information of each area image 6 includes information of an identification number or information of an imaging position so that two adjacent area images 6 along the tunnel axis direction can be specified.

例えば、走行型計測装置2は、図3に示す領域画像6,6,6,6,6の順に連続する複数の識別番号の情報を一つずつ割り当てる。連続する複数の識別番号が例えばID,ID,ID,ID,IDである場合、領域画像6には識別番号「ID」が割り当てられ、領域画像6には識別番号「ID」が割り当てられ、領域画像6には識別番号「ID」が割り当てられる。また、領域画像6には識別番号「ID」が割り当てられ、領域画像6には識別番号「ID」が割り当てられる。For example, running type measuring device 2 allocates one by one information of a plurality of identification numbers consecutive in the order of the area image 6 1, 6 2, 6 3, 6 4, 6 5 shown in FIG. A plurality of identification numbers for example ID 1 consecutive, ID 2, ID 3, ID 4, if it is ID 5, the area image 6 1 assigned identification number "ID 1", the area image 6 2 identification number assigned "ID 2", the area image 6 3 are assigned identification number "ID 3". Also, the area image 6 4 assigned identification number "ID 4", the area image 6 5 is assigned an identification number "ID 5".

また、走行型計測装置2は、走行型計測装置2の走行位置を検出する不図示の位置検出部を有しており、位置検出部によって各領域画像6が撮像されたときの走行型計測装置2の走行位置を領域画像6の撮像位置として検出する。走行型計測装置2は、検出した領域画像6の撮像位置の情報と領域画像6の情報とを領域画像6毎に関連付けることで構造物画像情報を生成することもできる。この場合、走行型計測装置2は、位置検出部によって繰り返し検出される走行型計測装置2の走行位置に基づいて、走行型計測装置2の走行軌跡を示す軌跡情報を生成し、生成した軌跡情報を構造物画像情報に含める。   In addition, the traveling type measuring device 2 has a position detecting unit (not shown) that detects a traveling position of the traveling type measuring device 2, and the traveling type measuring device when each region image 6 is captured by the position detecting unit. 2 is detected as the imaging position of the area image 6. The traveling type measurement device 2 can also generate structure image information by associating the information on the detected imaging position of the region image 6 with the information on the region image 6 for each region image 6. In this case, the traveling type measuring device 2 generates trajectory information indicating the traveling trajectory of the traveling type measuring device 2 based on the traveling position of the traveling type measuring device 2 repeatedly detected by the position detection unit, and generates the generated trajectory information. Is included in the structure image information.

画像分割部12は、画像情報記憶部11から構造物画像情報を読み出し、読み出した構造物画像情報に基づいて、構造物画像5を設備4の全体を示す画像である設備全体画像よりも小さなサイズの複数の画像へ分割する画像分割処理を行う。図5は、実施の形態1にかかる画像分割部による画像分割処理の一例を説明するための図である。なお、図5では、構造物画像5のうち一部のみを示している。   The image division unit 12 reads the structure image information from the image information storage unit 11 and, based on the read structure image information, converts the structure image 5 into a smaller size than the entire equipment image which is an image showing the entire equipment 4. Image division processing for dividing the image into a plurality of images. FIG. 5 is a diagram for explaining an example of an image dividing process performed by the image dividing unit according to the first embodiment. FIG. 5 shows only a part of the structure image 5.

図5に示すように、画像分割部12は、構造物画像5を分割した画像である分割画像7のサイズが規定サイズになるように構造物画像5を複数の分割画像7へ分割する。規定サイズは、設備全体画像のサイズよりも小さい。規定サイズが設備全体画像のサイズよりも小さいため、設備全体画像は、複数の分割画像7に跨って存在することになる。構造物画像5は、上述したようにトンネル3の実際の大きさに対して予め設定された縮尺になるように生成されるため、設備全体画像のサイズは、走行型計測装置2によって生成される設備全体画像のトンネル3に対する縮尺から得られる。   As illustrated in FIG. 5, the image dividing unit 12 divides the structure image 5 into a plurality of divided images 7 so that the size of the divided image 7 which is an image obtained by dividing the structure image 5 becomes a specified size. The specified size is smaller than the size of the entire equipment image. Since the specified size is smaller than the size of the entire equipment image, the entire equipment image is present over a plurality of divided images 7. As described above, since the structure image 5 is generated to have a preset scale with respect to the actual size of the tunnel 3, the size of the entire equipment image is generated by the traveling measurement device 2. It is obtained from the scale of the tunnel 3 for the whole equipment image.

画像分割部12は、構造物画像5のサイズと設備全体画像のサイズとに基づいて、分割画像7のサイズを決定し、決定したサイズを規定サイズに設定する。画像分割部12は、構造物画像情報が複数の領域画像6の情報を含む場合、領域画像6を分割した画像である分割画像7のサイズが規定サイズになるように領域画像6を複数の分割画像7へ分割する。この場合、画像分割部12は、領域画像6のサイズと設備全体画像のサイズに基づいて、分割画像7のサイズを決定し、決定したサイズを規定サイズに設定する。なお、画像分割部12は、入力部16へ入力される情報を規定サイズの情報として用いることができる。   The image division unit 12 determines the size of the divided image 7 based on the size of the structure image 5 and the size of the entire facility image, and sets the determined size to a specified size. When the structure image information includes information of a plurality of region images 6, the image dividing unit 12 divides the region image 6 into a plurality of parts so that the size of the divided image 7 which is an image obtained by dividing the region image 6 becomes a specified size. The image is divided into images 7. In this case, the image dividing unit 12 determines the size of the divided image 7 based on the size of the area image 6 and the size of the entire facility image, and sets the determined size to the specified size. Note that the image division unit 12 can use information input to the input unit 16 as information of a specified size.

図4に示す画像抽出部13は、画像分割部12によって分割された複数の分割画像7の中から設備4の一部を示す画像を設備4の部分画像として複数抽出する。画像抽出部13は、機械学習によって生成された学習モデルを用いて、複数の分割画像7の中から設備4の一部を示す画像を抽出する。以下、画像抽出部13によって抽出される設備4の一部を示す画像を設備部分画像と記載する場合がある。   The image extracting unit 13 illustrated in FIG. 4 extracts a plurality of images showing a part of the facility 4 from the plurality of divided images 7 divided by the image dividing unit 12 as partial images of the facility 4. The image extracting unit 13 extracts an image showing a part of the facility 4 from the plurality of divided images 7 using a learning model generated by machine learning. Hereinafter, an image showing a part of the equipment 4 extracted by the image extraction unit 13 may be referred to as an equipment partial image.

図6は、実施の形態1にかかる画像抽出部による画像抽出処理の一例を説明するための図である。図6に示すように、画像抽出部13は、第1学習モデルを有しており、画像分割部12によって分割された複数の分割画像7の中から第1学習モデルを用いて設備4の一部を示す画像として特定される設備部分画像8を複数抽出する。   FIG. 6 is a diagram for explaining an example of an image extracting process performed by the image extracting unit according to the first embodiment. As shown in FIG. 6, the image extracting unit 13 has a first learning model, and uses the first learning model to select one of the equipments 4 from the plurality of divided images 7 divided by the image dividing unit 12. A plurality of facility partial images 8 specified as images indicating a part are extracted.

第1学習モデルは、設備4の一部を示す画像を用いた機械学習によって生成される計算モデルである。第1学習モデルに入力される情報は、分割画像7であり、第1学習モデルから出力される情報は、設備4の一部を示す画像であるか否かを示す情報である。第1学習モデルは、例えば、畳み込みニューラルネットワークであるが、線形回帰またはロジスティック回帰などの学習アルゴリズムで生成される計算モデルであってもよい。   The first learning model is a calculation model generated by machine learning using an image showing a part of the facility 4. Information input to the first learning model is the divided image 7, and information output from the first learning model is information indicating whether or not the image is a part of the facility 4. The first learning model is, for example, a convolutional neural network, but may be a calculation model generated by a learning algorithm such as linear regression or logistic regression.

第1学習モデルは、図4に示す第1学習モデル生成部14によって生成される。第1学習モデル生成部14は、学習データを用いた機械学習によって第1学習モデルを生成する。学習用データは、設備4の一部を示す画像および設備4の一部を示す画像以外の画像などである。図7は、実施の形態1にかかる第1学習モデル生成部による学習処理の一例を説明するための図である。図7に示すように、第1学習モデル生成部14は、設備4の一部を示す画像を正解画像とし、設備4の一部を示す画像以外の画像を不正解画像として用いる学習処理によって、第1学習モデルを生成する。   The first learning model is generated by the first learning model generation unit 14 shown in FIG. The first learning model generation unit 14 generates a first learning model by machine learning using learning data. The learning data is an image showing a part of the facility 4 and an image other than an image showing a part of the facility 4. FIG. 7 is a diagram for explaining an example of a learning process performed by the first learning model generation unit according to the first embodiment. As illustrated in FIG. 7, the first learning model generation unit 14 performs a learning process using an image indicating a part of the facility 4 as a correct image and an image other than the image indicating a part of the facility 4 as an incorrect image. Generate a first learning model.

画像抽出部13は、分割画像7を第1学習モデルへ入力し、第1学習モデルから出力される情報に基づいて、設備部分画像8を抽出する。例えば、画像抽出部13は、第1学習モデルから設備4の一部を示す画像であることを示す情報が出力された場合に、第1学習モデルへ入力された分割画像7を設備部分画像8として抽出する。また、画像抽出部13は、第1学習モデルから設備4の一部を示す画像でないことを示す情報が出力された場合に、第1学習モデルへ入力された分割画像7を設備部分画像8として抽出しない。   The image extracting unit 13 inputs the divided image 7 to the first learning model, and extracts the equipment partial image 8 based on information output from the first learning model. For example, when information indicating that the image is a part of the equipment 4 is output from the first learning model, the image extracting unit 13 converts the divided image 7 input to the first learning model into the equipment partial image 8. Extract as When information indicating that the image is not an image indicating a part of the equipment 4 is output from the first learning model, the image extracting unit 13 uses the divided image 7 input to the first learning model as the equipment partial image 8. Do not extract.

なお、画像抽出部13は、第1学習モデルに代えて、設備4の一部を示す画像を基準画像として、パターンマッチング処理などによって、設備部分画像8を抽出する構成であってもよい。例えば、画像抽出部13は、設備4の一部を示す画像を基準画像として有し、分割画像7に含まれる画像と基準画像との一致度が予め設定された値以上である場合に、分割画像7を設備部分画像8として抽出することもできる。   Note that the image extraction unit 13 may be configured to extract the equipment partial image 8 by pattern matching or the like using an image showing a part of the equipment 4 as a reference image instead of the first learning model. For example, the image extracting unit 13 has an image indicating a part of the facility 4 as a reference image, and when the degree of coincidence between the image included in the divided image 7 and the reference image is equal to or greater than a preset value, The image 7 can be extracted as the equipment partial image 8.

設備画像特定部15は、画像抽出部13で抽出された複数の設備部分画像8のうち画像分割部12による分割前の位置が互いに隣接する位置にある2つ以上の設備部分画像8を連結し、連結した2つ以上の設備部分画像8を含む連結画像を設備4の全体を示す画像として特定する。以下、設備画像特定部15によって特定される設備4の全体を示す画像を設備画像と記載する場合がある。   The equipment image specifying unit 15 connects the two or more equipment partial images 8 whose positions before being divided by the image division unit 12 are adjacent to each other among the plurality of equipment partial images 8 extracted by the image extraction unit 13. Then, a connected image including two or more connected equipment partial images 8 is specified as an image showing the entire equipment 4. Hereinafter, an image showing the entire equipment 4 specified by the equipment image specifying unit 15 may be referred to as an equipment image.

図8は、実施の形態1にかかる設備画像特定部による設備画像特定処理の一例を説明するための図である。図9は、実施の形態1にかかる設備画像特定部による設備画像特定処理の他の例を示す図である。   FIG. 8 is a diagram illustrating an example of a facility image specifying process performed by the facility image specifying unit according to the first embodiment. FIG. 9 is a diagram illustrating another example of the facility image specifying process performed by the facility image specifying unit according to the first embodiment.

図8に示す例では、画像抽出部13によって設備部分画像8〜812が抽出されている。以下、設備部分画像8〜8の各々を個別に区別せずに示す場合、設備部分画像8と記載する。図8に示すように、設備部分画像8〜812の各々は、画像分割部12による分割前の位置が設備部分画像8〜812のうち少なくとも一つと互いに隣接する位置にあるため、設備画像特定部15は、設備部分画像8〜812を連結する。In the example shown in FIG. 8, equipment partial image 8 1-8 12 are extracted by the image extracting unit 13. Hereinafter, indicating each facility portion image 8 1 to 8 k without individually distinguished, referred to as equipment partial images 8. As shown in FIG. 8, each facility portion image 8 1-8 12, the position before division by the image division unit 12 is in at least one and adjacent to each other positioned of the equipment partial images 8 1-8 12, facility image specifying unit 15, connects the equipment partial image 8 1-8 12.

設備画像特定部15は、図8に示すように、設備部分画像8〜812が各々画像分割部12による分割前の位置になるように設備部分画像8〜812を連結することで、設備部分画像8〜812を含む一つの連結画像9を生成する。Facility image specifying unit 15, as shown in FIG. 8, by connecting the equipment partial image 8 1-8 12 As facilities partial image 8 1-8 12 becomes each before division by the image division unit 12 positions generates one consolidated image 9 including the equipment partial image 8 1-8 12.

設備画像特定部15は、連結画像9のサイズが予め設定された範囲内であるか否かを判定し、連結画像9のサイズが予め設定された範囲内であると判定した場合に、連結画像9を設備画像として特定する。例えば、図8において、連結画像9のX軸方向の長さSxが以下の式(1)を満たし、連結画像9のY軸方向の長さSyが以下の式(2)を満たす場合に、連結画像9を設備画像として特定する。「αmin」および「αmax」は、X軸の範囲を特定するためのパラメータであり、「βmin」および「βmax」は、Y軸の範囲を特定するためのパラメータである。
αmin<Sx<αmax ・・・(1)
βmin<Sy<βmax ・・・(2)
The facility image specifying unit 15 determines whether or not the size of the connected image 9 is within a preset range, and when determining that the size of the connected image 9 is within the preset range, 9 is specified as a facility image. For example, in FIG. 8, when the length Sx of the connected image 9 in the X-axis direction satisfies the following equation (1), and the length Sy of the connected image 9 in the Y-axis satisfies the following equation (2), The connected image 9 is specified as a facility image. “Αmin” and “αmax” are parameters for specifying the range of the X axis, and “βmin” and “βmax” are parameters for specifying the range of the Y axis.
αmin <Sx <αmax (1)
βmin <Sy <βmax (2)

設備画像特定部15は、構造物画像5が複数の領域画像6から構成される場合において、トンネル軸方向で複数の領域画像6を繋げたと仮定した場合に隣接する位置にある設備部分画像8同士を連結する。例えば、複数の領域画像6がトンネル軸方向に沿って連続する第1の領域画像と第2の領域画像とを含み、第1の領域画像の一端と第2の領域画像の一端とがトンネル軸方向で互いに対向する位置関係にあるとする。設備画像特定部15は、第1の領域画像の一端に設備部分画像8がある場合、第1の領域画像の一端にある設備部分画像8とトンネル軸方向で対向する設備部分画像8が第2の領域画像の一端にあるかどうかを判定する。設備画像特定部15は、第2の領域画像の一端に設備部分画像8があると判定した場合、第2の領域画像の一端にある設備部分画像8を第1の領域画像の一端にある設備部分画像8に連結する。なお、設備画像特定部15は、構造物画像情報に上述した識別番号の情報が含まれる場合、識別番号の情報に基づいて、複数の領域画像6の位置関係を判定する。また、設備画像特定部15は、構造物画像情報に上述した撮像位置の情報および軌跡情報が含まれる場合、走行型計測装置2の走行軌跡における走行型計測装置2の撮像位置に基づいて、複数の領域画像6の位置関係を判定する。   When the structure image 5 is composed of a plurality of region images 6 and the structure image 5 is composed of a plurality of region images 6, it is assumed that the plurality of region images 6 are connected in the tunnel axis direction. Concatenate. For example, the plurality of region images 6 include a first region image and a second region image that are continuous along the tunnel axis direction, and one end of the first region image and one end of the second region image are connected to the tunnel axis. It is assumed that they are in a positional relationship facing each other in the directions. When there is a facility partial image 8 at one end of the first region image, the facility image specifying unit 15 determines that the facility partial image 8 that is opposite to the facility partial image 8 at one end of the first region image in the tunnel axis direction is the second. Is determined at one end of the region image. If the equipment image specifying unit 15 determines that the equipment partial image 8 is at one end of the second area image, the equipment image specifying unit 15 replaces the equipment partial image 8 at one end of the second area image with the equipment at one end of the first area image. Connect to the partial image 8. When the structure image information includes the information on the identification number described above, the facility image specifying unit 15 determines the positional relationship between the plurality of region images 6 based on the information on the identification number. In addition, when the structure image information includes the above-described imaging position information and trajectory information, the facility image specifying unit 15 performs a plurality of operations based on the imaging positions of the traveling measurement device 2 in the traveling trajectory of the traveling measurement device 2. The positional relationship of the region image 6 is determined.

図9に示す例では、画像抽出部13によって設備部分画像813,814が抽出されている。図9に示すように、設備部分画像813,814は、画像分割部12による分割前の位置が互いに隣接する位置にあるため、設備画像特定部15は、設備部分画像813,814を連結する。図9に示す連結画像9は、X軸方向の長さSxが最小値αminよりも小さく、Y軸方向の長さSyが最小値βminよりも小さい。そのため、設備画像特定部15は、図9に示す連結画像9を設備画像として特定しない。In the example shown in FIG. 9, equipment partial image 8 13, 8 14 are extracted by the image extracting unit 13. As shown in FIG. 9, equipment partial image 8 13, 8 14, because in the position located before the division by the image division unit 12 are adjacent to each other, facility image specifying unit 15, equipment partial image 8 13, 8 14 Concatenate. In the linked image 9 shown in FIG. 9, the length Sx in the X-axis direction is smaller than the minimum value αmin, and the length Sy in the Y-axis direction is smaller than the minimum value βmin. Therefore, the facility image specifying unit 15 does not specify the linked image 9 illustrated in FIG. 9 as the facility image.

このように、設備画像特定部15は、サイズが予め設定された範囲内である連結画像9を設備画像として特定する。そのため、設備画像特定部15は、連結画像9のサイズにかかわらず連結画像9を設備画像として特定する場合に比べて、設備4の画像以外の画像を設備画像として誤って特定してしまう可能性を低減することができる。   As described above, the facility image specifying unit 15 specifies the connected image 9 whose size is within the preset range as the facility image. For this reason, the facility image specifying unit 15 may incorrectly specify an image other than the image of the facility 4 as the facility image as compared to the case where the connected image 9 is specified as the facility image regardless of the size of the connected image 9. Can be reduced.

また、設備画像特定部15は、画像分割部12によって分割された複数の分割画像7のうち、画像分割部12による分割前の位置が複数の設備部分画像8のうち少なくともいずれか1つと隣接する位置にある複数の分割画像7を抽出する。設備画像特定部15は、抽出した複数の分割画像7と複数の設備部分画像8とを画像分割部12による分割前の位置関係になるように連結して連結画像9を生成する。設備画像特定部15は、例えば、サイズ拡大設定がある場合に、画像分割部12による分割前の位置が設備部分画像8と隣接する分割画像7を用いて連結画像9を生成する。設備画像特定部15は、入力部16への操作がサイズ拡大設定を行うための操作である場合に、サイズ拡大設定フラグをオンにする。設備画像特定部15は、サイズ拡大設定フラグがオンである場合に、サイズ拡大設定があると判定する。   Further, the facility image specifying unit 15 is configured such that, of the plurality of divided images 7 divided by the image dividing unit 12, the position before division by the image dividing unit 12 is adjacent to at least one of the plurality of facility partial images 8. A plurality of divided images 7 at positions are extracted. The facility image specifying unit 15 connects the extracted plurality of divided images 7 and the plurality of facility partial images 8 so as to have a positional relationship before the division by the image dividing unit 12 to generate a connected image 9. For example, when there is a size enlargement setting, the facility image specifying unit 15 generates the connected image 9 using the divided image 7 in which the position before the division by the image dividing unit 12 is adjacent to the facility partial image 8. The facility image specifying unit 15 turns on the size enlargement setting flag when the operation on the input unit 16 is an operation for performing the size enlargement setting. The facility image specifying unit 15 determines that there is a size enlargement setting when the size enlargement setting flag is on.

図10は、実施の形態1にかかる設備画像特定部による設備画像特定処理の他の例を示す図である。図10に示す例では、画像抽出部13によって設備部分画像8,8,8〜8,810,811が抽出されている。設備画像特定部15は、画像分割部12による分割前の位置が複数の設備部分画像8,8,8〜8,810,811のうち少なくともいずれか1つと隣接する位置にある複数の分割画像7〜7,7,7,712,713,716,717,720〜724を抽出する。FIG. 10 is a diagram illustrating another example of the facility image specifying process performed by the facility image specifying unit according to the first embodiment. In the example shown in FIG. 10, the equipment parts by the image extracting unit 13 images 8, 83, 5-8 8, 8 10, 8 11 are extracted. Facility image specifying unit 15, to at least any one adjacent position of the image dividing unit 12 facilities partial image 82 positions of a plurality of pre-divided by 8 3, 8 5-8 8, 8 10, 8 11 extracting a certain plurality of divided images 7 1-7 5, 7 8, 7 9, 7 12, 7 13, 7 16, 7 17, 7 20 to 7 24.

そして、設備画像特定部15は、複数の設備部分画像8,8,8〜8,810,811と複数の分割画像7〜7,7,7,712,713,716,717,720〜724とを画像分割部12による分割前の位置関係になるように連結して連結画像9を生成する。The facility image specifying unit 15, a plurality of equipment partial images 82, 83, 5-8 8, 8 10, 8 11 and a plurality of divided images 7 1-7 5, 7 8, 7 9, 7 12 , 7 13, 7 16, 7 17, 7 20 to 7 and 24 are connected so that the positional relationship before the division by the image division unit 12 generates a combined image 9.

画像抽出部13が設備4の一部を示す画像ではない分割画像7を設備部分画像8として誤判定する可能性を低減するために、第1学習モデルの学習データとして用いられる画像には、設備4の一部の画像が占める割合が少ない画像が含まれない場合がある。この場合、画像抽出部13は、設備4の一部の画像が占める割合が少ない分割画像7を設備部分画像8として抽出することが難しい場合がある。設備画像特定部15は、上述のように、設備部分画像8に加えて、設備部分画像8に隣接する分割画像7を連結画像9の生成に用いる。そのため、画像抽出部13において設備4の一部の画像が占める割合が少ない分割画像7がある場合であっても、設備画像を精度よく特定することができる。   In order to reduce the possibility that the image extraction unit 13 erroneously determines the divided image 7 that is not an image showing a part of the facility 4 as the facility partial image 8, the image used as the learning data of the first learning model includes 4 may not include an image in which the proportion of a part of the image is small. In this case, it may be difficult for the image extraction unit 13 to extract, as the equipment partial image 8, the divided image 7 in which the proportion of the partial image of the equipment 4 is small. As described above, the facility image specifying unit 15 uses the divided image 7 adjacent to the facility partial image 8 in addition to the facility partial image 8 to generate the connected image 9. Therefore, even when there is a divided image 7 in which the ratio of a part of the equipment 4 in the image extraction unit 13 is small, the equipment image can be specified with high accuracy.

このように、画像処理システム1は、設備4の画像よりも小さなサイズの分割画像7を用いて設備画像を特定することから、設備画像を特定する際に取り扱う画像のサイズが小さい。そのため、画像処理システム1は、構造物画像5を分割しない場合に比べ、設備画像を特定するための処理に使用するメモリ量を低減させることができる。   As described above, since the image processing system 1 specifies the equipment image using the divided image 7 having a smaller size than the image of the equipment 4, the size of the image handled when specifying the equipment image is small. Therefore, the image processing system 1 can reduce the amount of memory used for processing for specifying the facility image, as compared with the case where the structure image 5 is not divided.

図4に示す特定領域抽出部17は、設備画像として特定された連結画像9における特定領域の画像を抽出する。特定領域は、例えば、異常判定の対象となる部品である判定対象部品の画像を含む領域であり、設備4の設計図などから設定される。判定対象部品は、例えば、設備4をトンネル3の内壁3aへ取り付けるためのボルトまたはネジなどの締結具、または設備4を構成する部品などである。   The specific area extracting unit 17 illustrated in FIG. 4 extracts an image of a specific area in the connected image 9 specified as the facility image. The specific area is, for example, an area including an image of a determination target component that is a component to be subjected to abnormality determination, and is set from a design drawing of the equipment 4 or the like. The part to be determined is, for example, a fastener such as a bolt or a screw for attaching the facility 4 to the inner wall 3a of the tunnel 3, or a part constituting the facility 4.

設備情報記憶部18には、設備4の設計図の情報である設計図情報が記憶されており、設計図情報には判定対象部品の領域を示す情報が含まれる。特定領域抽出部17は、設備情報記憶部18に記憶された設計図情報に基づいて、判定対象部品の領域を判定する。特定領域抽出部17は、判定した判定対象部品の領域に基づいて、判定対象部品の領域を含む領域を上述した特定領域として決定する。なお、特定領域抽出部17は、入力部16へ入力される特定領域の情報に基づいて、特定領域を決定することもできる。   The equipment information storage unit 18 stores design drawing information, which is information of a design drawing of the equipment 4, and the design drawing information includes information indicating an area of a part to be determined. The specific area extraction unit 17 determines the area of the determination target component based on the design drawing information stored in the equipment information storage unit 18. The specific area extracting unit 17 determines an area including the area of the determination target component as the above-described specific area based on the determined area of the determination target component. Note that the specific area extraction unit 17 can also determine a specific area based on information on the specific area input to the input unit 16.

図11は、実施の形態1にかかる特定領域抽出部による特定領域画像処理の一例を説明するための図である。図11に示す例では、特定領域抽出部17は、連結画像9における4つの特定領域30,30,30,30の画像である特定領域画像31,31,31,31を抽出する。以下、特定領域30,30,30,30の各々を個別に区別せずに示す場合、特定領域30と記載する場合がある。また、特定領域画像31,31,31,31の各々を個別に区別せずに示す場合、特定領域画像31と記載する場合がある。FIG. 11 is a diagram for explaining an example of specific region image processing performed by the specific region extraction unit according to the first embodiment. In the example illustrated in FIG. 11, the specific area extraction unit 17 outputs the specific area images 31 1 , 31 2 , 31 3 , and 31 that are images of the four specific areas 30 1 , 30 2 , 30 3 , and 304 in the connected image 9. 4 is extracted. Hereinafter, the case shown each of the specific area 30 1, 30 2, 30 3, 30 4 to not separately distinguished, may be referred to as a specific region 30. Moreover, indicating each particular area image 31 1, 31 2, 31 3, 31 4 to not separately distinguished, may be referred to as the specific area image 31.

図4に示す異常判定部19は、特定領域抽出部17によって抽出された特定領域画像31から設備4の異常を判定する。設備4の異常は、例えば、設備4のトンネル3の内壁3aへの取り付け状態の異常、または設備4の亀裂などの異常である。異常判定部19は、例えば、機械学習によって生成された学習モデルを用いて、特定領域抽出部17によって抽出された特定領域画像31から設備4を構成する判定対象部品の異常を判定する。判定対象部品の異常は、判定対象部品が締結具である場合、締結具の緩み、締結具の錆び、締結具の欠損、締結具の欠落、または設備4を構成する部品の亀裂などである。   The abnormality determining unit 19 illustrated in FIG. 4 determines the abnormality of the facility 4 from the specific area image 31 extracted by the specific area extracting unit 17. The abnormality of the equipment 4 is, for example, an abnormality in the state of attachment of the equipment 4 to the inner wall 3a of the tunnel 3, or an abnormality such as a crack in the equipment 4. The abnormality determination unit 19 determines, for example, an abnormality of the determination target component configuring the equipment 4 from the specific area image 31 extracted by the specific area extraction unit 17 using a learning model generated by machine learning. When the determination target component is a fastener, the abnormality of the determination target component is, for example, looseness of the fastener, rust of the fastener, loss of the fastener, lack of the fastener, or crack of a component constituting the facility 4.

異常判定部19は、第2学習モデルの情報を有しており、特定領域抽出部17によって抽出された画像から第2学習モデルを用いて判定対象部品の異常を判定する。第2学習モデルは、異常がある判定対象部品の画像を用いた機械学習によって生成される計算モデルである。第2学習モデルに入力される情報は、特定領域抽出部17によって抽出された特定領域画像31であり、第2学習モデルから出力される情報は、判定対象部品が異常であるか否かを示す情報である。第2学習モデルは、例えば、畳み込みニューラルネットワークであるが、線形回帰またはロジスティック回帰などの学習アルゴリズムで生成される計算モデルであってもよい。   The abnormality determination unit 19 has information of the second learning model, and determines abnormality of the determination target component from the image extracted by the specific area extraction unit 17 using the second learning model. The second learning model is a calculation model generated by machine learning using an image of a determination target component having an abnormality. The information input to the second learning model is the specific area image 31 extracted by the specific area extracting unit 17, and the information output from the second learning model indicates whether the determination target component is abnormal. Information. The second learning model is, for example, a convolutional neural network, but may be a calculation model generated by a learning algorithm such as linear regression or logistic regression.

第2学習モデルは、図4に示す第2学習モデル生成部20によって生成される。第2学習モデル生成部20は、学習用データを用いた機械学習によって第2学習モデルを生成する。学習用データは、例えば、異常がない判定対象部品の画像および異常がある判定対象部品の画像である。第2学習モデル生成部20は、異常がない判定対象部品の画像を正解画像とし、異常がある判定対象部品の画像を不正解画像とした学習処理によって、第2学習モデルを生成する。   The second learning model is generated by the second learning model generation unit 20 shown in FIG. The second learning model generation unit 20 generates a second learning model by machine learning using learning data. The learning data is, for example, an image of a determination target component having no abnormality and an image of a determination target component having an abnormality. The second learning model generation unit 20 generates a second learning model by a learning process in which an image of the determination target component having no abnormality is set as the correct image and an image of the determination target component having abnormality is set as the incorrect image.

異常判定部19は、特定領域抽出部17によって抽出された特定領域画像31を第2学習モデルへ入力し、第2学習モデルから出力される情報に基づいて、判定対象部品の異常を判定する。具体的には、異常判定部19は、判定対象部品が異常であることを示す情報が第2学習モデルから出力された場合、判定対象部品が異常であると判定する。また、異常判定部19は、判定対象部品が異常ではないことを示す情報が第2学習モデルから出力された場合、判定対象部品が異常ではないと判定する。   The abnormality determination unit 19 inputs the specific area image 31 extracted by the specific area extraction unit 17 to the second learning model, and determines abnormality of the determination target component based on information output from the second learning model. Specifically, when the information indicating that the determination target component is abnormal is output from the second learning model, the abnormality determination unit 19 determines that the determination target component is abnormal. When information indicating that the determination target component is not abnormal is output from the second learning model, the abnormality determination unit 19 determines that the determination target component is not abnormal.

図12は、実施の形態1にかかる異常判定部による異常判定処理の一例を説明するための図である。図12に示す例では、特定領域抽出部17によって抽出された特定領域画像31,31,31,31が第2学習モデルに入力されている。そして、異常判定部19は、特定領域画像31,31,31に対応する3つの判定対象部品は正常であり、特定領域画像31に対応する1つの判定対象部品は異常であると判定している。FIG. 12 is a diagram for explaining an example of the abnormality determination process performed by the abnormality determination unit according to the first embodiment. In the example shown in FIG. 12, the specific area extracting section 17 the specific area image 31 1 extracted by 31 2, 31 3, 31 4 are inputted to the second learning model. Then, abnormality determination unit 19, specific area image 31 2, 31 3, 31 3 determination target component corresponding to 4 are normal, one determination target component corresponding to a specific area image 31 1 is abnormal Has been determined.

このように、画像処理システム1は、連結画像9に対して、設計図面などで事前に設定した特定領域30,30,30,30に含まれる特定領域画像31,31,31,31を特定し、各特定領域画像31,31,31,31を用いて設備4の異常を判定する。そのため、画像処理システム1は、連結画像9をそのまま用いて設備4の異常を判定する場合に比べて、設備4の異常を判定する処理にかかる時間を短縮することができる。また、画像処理システム1は、第2学習モデルを用いて設備4の異常を判定する処理を行うことから、設備4に対する異常判定の精度を高めることができる。Thus, the image processing system 1 is connected to the image 9, design specific region 30 set in advance in such figures 1, 30 2, 30 3, 30 the specific area image 31 1 included in the 4, 31 2, 31 3, 31 4 identifies, determines an abnormality of the equipment 4 using the specific area image 31 1, 31 2, 31 3, 31 4. Therefore, the image processing system 1 can reduce the time required for the process of determining the abnormality of the facility 4 as compared with the case where the abnormality of the facility 4 is determined using the connected image 9 as it is. Further, since the image processing system 1 performs the process of determining the abnormality of the facility 4 using the second learning model, the accuracy of the abnormality determination for the facility 4 can be improved.

異常判定部19は、異常であると判定した判定対象部品の情報を示す設備異常情報を図4に示す設備異常情報記憶部21に記憶する。図4に示す表示処理部22は、入力部16への特定操作があった場合に、設備異常情報記憶部21から設備異常情報を読み出し、読み出した設備異常情報に基づいて、異常であると判定した判定対象部品の情報を表示部23に表示する。   The abnormality determination unit 19 stores equipment abnormality information indicating information of the determination target component determined to be abnormal in the equipment abnormality information storage unit 21 illustrated in FIG. The display processing unit 22 illustrated in FIG. 4 reads out the equipment abnormality information from the equipment abnormality information storage unit 21 when a specific operation is performed on the input unit 16, and determines that there is an abnormality based on the read equipment abnormality information. The information of the determined component to be determined is displayed on the display unit 23.

図13は、実施の形態1にかかる画像処理システムによる処理手順の一例を示すフローチャートである。図13に示す処理は、例えば、画像処理システム1によって構造物画像5が取得された場合または入力部16への特定操作がある場合に開始される。   FIG. 13 is a flowchart illustrating an example of a processing procedure performed by the image processing system according to the first embodiment. The process illustrated in FIG. 13 is started, for example, when the structure image 5 is acquired by the image processing system 1 or when a specific operation is performed on the input unit 16.

図13に示すように、画像処理システム1の画像分割部12は、構造物画像5を複数の分割画像7へ分割する(ステップS10)。次に、画像処理システム1の画像抽出部13は、画像抽出処理を行う(ステップS11)。かかる画像抽出処理は、図14に示すステップS20〜S24の処理であり、後述する。   As shown in FIG. 13, the image dividing unit 12 of the image processing system 1 divides the structure image 5 into a plurality of divided images 7 (Step S10). Next, the image extraction unit 13 of the image processing system 1 performs an image extraction process (Step S11). Such an image extraction process is a process of steps S20 to S24 shown in FIG. 14 and will be described later.

次に、画像処理システム1の設備画像特定部15は、設備画像特定処理を行う(ステップS12)。かかる設備画像特定処理は、図15に示すステップS30〜S39の処理であり後述する。次に、画像処理システム1の異常判定部19は、特定領域画像処理および異常判定処理を行う(ステップS13)。特定領域画像処理および異常判定処理は、図16に示すステップS40〜S45の処理であり、後述する。画像処理システム1は、ステップS13の処理を終了すると、図13に示す処理を終了する。   Next, the facility image specifying unit 15 of the image processing system 1 performs a facility image specifying process (Step S12). Such equipment image specifying processing is processing of steps S30 to S39 shown in FIG. 15 and will be described later. Next, the abnormality determination unit 19 of the image processing system 1 performs the specific area image processing and the abnormality determination processing (Step S13). The specific area image processing and the abnormality determination processing are processing of steps S40 to S45 shown in FIG. 16 and will be described later. When ending the processing of step S13, the image processing system 1 ends the processing shown in FIG.

図14は、実施の形態1にかかる画像抽出部による画像抽出処理の一例を示すフローチャートである。図14に示すように、画像抽出部13は、画像分割部12によって生成された複数の分割画像7のうち画像抽出部13による処理が未処理の分割画像7を選択し(ステップS20)、ステップS20で選択した分割画像7を第1学習モデルへ入力する(ステップS21)。画像抽出部13は、第1学習モデルの出力に基づいて、ステップS20で選択した分割画像7が設備部分画像8であるか否かを判定する(ステップS22)。   FIG. 14 is a flowchart illustrating an example of an image extracting process performed by the image extracting unit according to the first embodiment. As illustrated in FIG. 14, the image extracting unit 13 selects a divided image 7 that has not been processed by the image extracting unit 13 from among the plurality of divided images 7 generated by the image dividing unit 12 (Step S20). The divided image 7 selected in S20 is input to the first learning model (Step S21). The image extracting unit 13 determines whether or not the divided image 7 selected in Step S20 is the facility partial image 8 based on the output of the first learning model (Step S22).

画像抽出部13は、ステップS20で選択した分割画像7が設備部分画像8であると判定した場合(ステップS22:Yes)、ステップS20で選択した分割画像7を設備部分画像8として抽出する(ステップS23)。画像抽出部13は、ステップS23の処理が終了した場合、または分割画像7が設備部分画像8ではないと判定した場合(ステップS22:No)、画像分割部12によって生成された複数の分割画像7のうちステップS20において未選択の分割画像7があるか否かを判定する(ステップS24)。   When determining that the divided image 7 selected in Step S20 is the equipment partial image 8 (Step S22: Yes), the image extracting unit 13 extracts the divided image 7 selected in Step S20 as the equipment partial image 8 (Step S20). S23). When the process of step S23 is completed, or when it is determined that the divided image 7 is not the facility partial image 8 (step S22: No), the image extracting unit 13 generates the plurality of divided images 7 generated by the image dividing unit 12. It is determined whether there is an unselected divided image 7 in step S20 (step S24).

画像抽出部13は、未選択の分割画像7があると判定した場合(ステップS24:Yes)、処理をステップS20へ移行する。画像抽出部13は、未選択の分割画像7がないと判定した場合(ステップS24:No)、図14に示す処理を終了する。   When determining that there is an unselected divided image 7 (step S24: Yes), the image extracting unit 13 shifts the processing to step S20. When determining that there is no unselected divided image 7 (step S24: No), the image extracting unit 13 ends the processing illustrated in FIG.

図15は、実施の形態1にかかる設備画像特定部による設備画像特定処理の一例を示すフローチャートである。図15に示すように、設備画像特定部15は、画像抽出部13によって抽出された複数の設備部分画像8のうち設備画像特定部15で未処理の設備部分画像8を選択する(ステップS30)。設備画像特定部15は、ステップS30で選択した設備部分画像8に隣接する設備部分画像8または連結画像9があるか否かを判定する(ステップS31)。   FIG. 15 is a flowchart illustrating an example of a facility image specifying process performed by the facility image specifying unit according to the first embodiment. As shown in FIG. 15, the equipment image specifying unit 15 selects the unprocessed equipment partial image 8 from the plurality of equipment partial images 8 extracted by the image extracting unit 13 (Step S30). . The equipment image specifying unit 15 determines whether there is an equipment partial image 8 or a connected image 9 adjacent to the equipment partial image 8 selected in step S30 (step S31).

設備画像特定部15は、隣接する設備部分画像8または連結画像9があると判定した場合(ステップS31:Yes)、ステップS30で選択した設備部分画像8を隣接する設備部分画像8または連結画像9に連結する(ステップS32)。   If it is determined that there is an adjacent equipment part image 8 or connected image 9 (step S31: Yes), the equipment image specifying unit 15 replaces the equipment part image 8 selected in step S30 with the adjacent equipment part image 8 or connected image 9. (Step S32).

設備画像特定部15は、ステップS32の処理が終了した場合、または隣接する設備部分画像8または連結画像9がないと判定した場合(ステップS31:No)、複数の設備部分画像8のうちステップS30において未選択の設備部分画像8があるか否かを判定する(ステップS33)。設備画像特定部15は、未選択の設備部分画像8があると判定した場合(ステップS33:Yes)、処理をステップS30へ移行する。設備画像特定部15は、未選択の設備部分画像8がないと判定した場合(ステップS33:No)、ステップS32で生成された連結画像9があるか否かを判定する(ステップS34)。   When the processing of step S32 is completed, or when it is determined that there is no adjacent equipment partial image 8 or connected image 9 (step S31: No), the equipment image specifying unit 15 performs step S30 of the plurality of equipment partial images 8. It is determined whether or not there is an unselected equipment partial image 8 (step S33). When determining that there is an unselected facility partial image 8 (step S33: Yes), the facility image specifying unit 15 shifts the processing to step S30. When it is determined that there is no unselected facility partial image 8 (step S33: No), the facility image specifying unit 15 determines whether or not there is the connected image 9 generated in step S32 (step S34).

設備画像特定部15は、連結画像9があると判定した場合(ステップS34:Yes)、サイズ拡大設定があるか否かを判定する(ステップS35)。設備画像特定部15は、サイズ拡大設定があると判定した場合(ステップS35:Yes)、連結画像9に隣接する分割画像7を連結画像9に結合して連結画像9を変更する(ステップS36)。   When determining that there is the connected image 9 (step S34: Yes), the facility image specifying unit 15 determines whether or not there is a size enlargement setting (step S35). When determining that there is a size enlargement setting (step S35: Yes), the facility image specifying unit 15 combines the divided image 7 adjacent to the connected image 9 with the connected image 9 to change the connected image 9 (step S36). .

設備画像特定部15は、ステップS36の処理が終了した場合、またはサイズ拡大設定がないと判定した場合(ステップS35:No)、連結画像9のサイズが予め設定された範囲であるか否かを判定する(ステップS37)。設備画像特定部15は、連結画像9のサイズは予め設定された範囲であると判定した場合(ステップS37:Yes)、サイズが予め設定された範囲である連結画像9を設備画像として特定する(ステップS38)。   When the processing of step S36 is completed, or when it is determined that there is no size enlargement setting (step S35: No), the facility image specifying unit 15 determines whether or not the size of the connected image 9 is within a preset range. A determination is made (step S37). When determining that the size of the connected image 9 is within the preset range (step S37: Yes), the facility image specifying unit 15 specifies the connected image 9 whose range is within the preset range as a facility image (step S37: Yes). Step S38).

設備画像特定部15は、ステップS38の処理が終了した場合、または連結画像9のサイズは予め設定された範囲でないと判定した場合(ステップS37:No)、設備画像特定部15での処理が未処理の連結画像9があるか否かを判定する(ステップS39)。設備画像特定部15は、未処理の連結画像9があると判定した場合(ステップS39:Yes)、処理をステップS37へ移行する。設備画像特定部15は、未処理の連結画像9がないと判定した場合(ステップS39:No)、または連結画像9がないと判定した場合(ステップS34:No)、図15に示す処理を終了する。   When the processing of step S38 is completed, or when the size of the connected image 9 is determined to be out of the preset range (step S37: No), the equipment image specifying unit 15 does not perform the processing by the equipment image specifying unit 15. It is determined whether or not there is a connected image 9 for processing (step S39). When determining that there is an unprocessed connected image 9 (step S39: Yes), the facility image specifying unit 15 shifts the processing to step S37. When determining that there is no unprocessed connected image 9 (Step S39: No) or when determining that there is no connected image 9 (Step S34: No), the facility image specifying unit 15 ends the processing illustrated in FIG. I do.

図16は、実施の形態1にかかる特定領域抽出部による特定領域画像処理および異常判定部による異常判定処理の各々の一例を示すフローチャートである。図16に示すように、特定領域抽出部17は、設備画像特定部15によって設備画像として特定された連結画像9のうち異常判定部19で未処理の連結画像9を選択する(ステップS40)。特定領域抽出部17は、ステップS40で選択した連結画像9から特定領域画像31を抽出し(ステップS41)、抽出した特定領域画像31を第2学習モデルへ入力する(ステップS42)。   FIG. 16 is a flowchart illustrating an example of each of the specific region image processing by the specific region extraction unit and the abnormality determination process by the abnormality determination unit according to the first embodiment. As illustrated in FIG. 16, the specific area extraction unit 17 selects the unprocessed connected image 9 in the abnormality determination unit 19 among the connected images 9 specified as the equipment image by the equipment image specifying unit 15 (Step S40). The specific area extraction unit 17 extracts the specific area image 31 from the connected image 9 selected in step S40 (step S41), and inputs the extracted specific area image 31 to the second learning model (step S42).

異常判定部19は、第2学習モデルの出力に基づいて、判定対象部品に異常があるか否かを判定する(ステップS43)。異常判定部19は、判定対象部品に異常があると判定した場合(ステップS43:Yes)、異常であると判定した判定対象部品の情報を示す設備異常情報を設備異常情報記憶部21に記憶する(ステップS44)。異常判定部19は、ステップS44の処理が終了した場合、または判定対象部品に異常がないと判定された場合(ステップS43:No)、設備画像特定部15によって設備画像として特定された連結画像9のうちステップS40において未選択の連結画像9があるか否かを判定する(ステップS45)。   The abnormality determination unit 19 determines whether or not the determination target component has an abnormality based on the output of the second learning model (Step S43). When it is determined that the determination target component has an abnormality (step S43: Yes), the abnormality determination unit 19 stores the equipment abnormality information indicating information of the determination target component determined to be abnormal in the equipment abnormality information storage unit 21. (Step S44). When the process of step S44 is completed or when it is determined that there is no abnormality in the component to be determined (step S43: No), the abnormality determining unit 19 determines the connected image 9 specified as the equipment image by the equipment image specifying unit 15. It is determined whether there is any unselected connected image 9 in step S40 (step S45).

異常判定部19は、未選択の連結画像9があると判定した場合(ステップS45:Yes)、処理をステップS40へ移行する。異常判定部19は、未選択の連結画像9がないと判定した場合(ステップS45:No)、図16に示す処理を終了する。   When determining that there is an unselected connected image 9 (step S45: Yes), the abnormality determination unit 19 shifts the processing to step S40. When determining that there is no unselected linked image 9 (step S45: No), the abnormality determination unit 19 ends the processing illustrated in FIG.

図17は、実施の形態1にかかる画像処理システムのハードウェア構成の一例を示す図である。図17に示すように、画像処理システム1は、プロセッサ101と、メモリ102と、通信装置103と、入出力回路104と、表示装置105とを備えるコンピュータを含む。   FIG. 17 is a diagram illustrating an example of a hardware configuration of the image processing system according to the first embodiment. As illustrated in FIG. 17, the image processing system 1 includes a computer including a processor 101, a memory 102, a communication device 103, an input / output circuit 104, and a display device 105.

プロセッサ101、メモリ102、通信装置103、入出力回路104、および表示装置105は、例えば、バス106によって互いにデータの送受信が可能である。画像情報記憶部11、設備情報記憶部18、および設備異常情報記憶部21は、メモリ102によって実現される。入力部16は、入出力回路104によって実現される。表示部23は、表示装置105によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部10、画像分割部12、画像抽出部13、第1学習モデル生成部14、設備画像特定部15、特定領域抽出部17、異常判定部19、第2学習モデル生成部20、および表示処理部22の機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち1つ以上を含む。   The processor 101, the memory 102, the communication device 103, the input / output circuit 104, and the display device 105 can transmit and receive data to and from each other via the bus 106, for example. The image information storage unit 11, the equipment information storage unit 18, and the equipment abnormality information storage unit 21 are realized by the memory 102. The input unit 16 is realized by the input / output circuit 104. The display unit 23 is realized by the display device 105. The processor 101 reads out and executes the program stored in the memory 102 to obtain the acquisition unit 10, the image division unit 12, the image extraction unit 13, the first learning model generation unit 14, the facility image identification unit 15, and the specific region extraction. The function of the unit 17, the abnormality determination unit 19, the second learning model generation unit 20, and the display processing unit 22 is executed. The processor 101 is, for example, an example of a processing circuit, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).

メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち1つ以上を含む。また、メモリ102は、コンピュータが読み取り可能なプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち1つ以上を含む。なお、画像処理システム1は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。   The memory 102 includes at least one of a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), and an EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). Including. Further, the memory 102 includes a recording medium on which a computer-readable program is recorded. Such a recording medium includes at least one of a nonvolatile or volatile semiconductor memory, a magnetic disk, a flexible memory, an optical disk, a compact disk, and a DVD (Digital Versatile Disc). The image processing system 1 may include an integrated circuit such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).

画像処理システム1は、クライアント装置で構成されてもよく、サーバ装置で構成されてもよく、クライアント装置とサーバ装置とで構成されてもよい。画像処理システム1が2つ以上の装置で構成される場合、2つ以上の装置の各々は、例えば、図17に示すハードウェア構成を有する。なお、2つ以上の装置間の通信は、通信装置103を介して行われる。また、画像処理システム1は、2つ以上のサーバ装置で構成されてもよい。例えば、画像処理システム1は、処理サーバと、データサーバとで構成されてもよい。この場合、処理サーバは、例えば、取得部10、画像分割部12、画像抽出部13、第1学習モデル生成部14、設備画像特定部15、特定領域抽出部17、異常判定部19、第2学習モデル生成部20、および表示処理部22を有する。また、データサーバは、画像情報記憶部11、第1学習モデル生成部14、設備情報記憶部18、および設備異常情報記憶部21を有する。   The image processing system 1 may be configured by a client device, may be configured by a server device, or may be configured by a client device and a server device. When the image processing system 1 includes two or more devices, each of the two or more devices has, for example, a hardware configuration illustrated in FIG. Communication between two or more devices is performed via the communication device 103. Further, the image processing system 1 may be configured by two or more server devices. For example, the image processing system 1 may include a processing server and a data server. In this case, the processing server includes, for example, the acquisition unit 10, the image division unit 12, the image extraction unit 13, the first learning model generation unit 14, the equipment image identification unit 15, the specific region extraction unit 17, the abnormality determination unit 19, the second It has a learning model generator 20 and a display processor 22. Further, the data server includes an image information storage unit 11, a first learning model generation unit 14, an equipment information storage unit 18, and an equipment abnormality information storage unit 21.

以上のように、実施の形態1にかかる画像処理システム1は、画像分割部12と、画像抽出部13と、設備画像特定部15とを備える。画像分割部12は、構造物に取り付けられた設備4の画像を含む構造物の画像を、設備4の全体を示す画像よりも小さなサイズの複数の分割画像7へ分割する。画像抽出部13は、画像分割部12によって分割された複数の分割画像7の中から設備4の一部を示す設備部分画像8を複数抽出する。設備画像特定部15は、画像抽出部13で抽出された複数の設備部分画像8のうち画像分割部12による分割前の位置が互いに隣接する位置にある2つ以上の設備部分画像8を連結し、連結した2つ以上の設備部分画像8を含む連結画像9を設備4の画像として特定する。画像処理システム1は、設備4の全体を示す画像よりも小さなサイズの分割画像7を用いて設備画像を特定することから、構造物画像5を分割しない場合に比べ、設備画像を特定するための処理に使用するメモリ量を低減させることができる。   As described above, the image processing system 1 according to the first embodiment includes the image dividing unit 12, the image extracting unit 13, and the facility image specifying unit 15. The image dividing unit 12 divides an image of a structure including an image of the facility 4 attached to the structure into a plurality of divided images 7 having a smaller size than an image showing the entire facility 4. The image extracting unit 13 extracts a plurality of facility partial images 8 showing a part of the facility 4 from the plurality of divided images 7 divided by the image dividing unit 12. The equipment image specifying unit 15 connects the two or more equipment partial images 8 whose positions before being divided by the image division unit 12 are adjacent to each other among the plurality of equipment partial images 8 extracted by the image extraction unit 13. The connected image 9 including the two or more connected equipment partial images 8 is specified as the image of the equipment 4. Since the image processing system 1 specifies the equipment image using the divided image 7 having a smaller size than the image showing the entire equipment 4, the image processing system 1 can specify the equipment image as compared with the case where the structure image 5 is not divided. The amount of memory used for processing can be reduced.

また、画像抽出部13は、設備4の一部を示す画像を用いた機械学習によって生成される第1学習モデルを有し、画像分割部12によって分割された複数の分割画像7の中から第1学習モデルを用いて設備部分画像8を複数抽出する。これにより、画像処理システム1は、設備画像を精度よく特定することができる。   The image extracting unit 13 has a first learning model generated by machine learning using an image indicating a part of the facility 4, and includes a first learning model among the plurality of divided images 7 divided by the image dividing unit 12. A plurality of facility partial images 8 are extracted using one learning model. Thereby, the image processing system 1 can accurately specify the facility image.

また、設備画像特定部15は、連結画像9のサイズが予め設定された範囲内であるか否かを判定し、連結画像9のサイズが予め設定された範囲内であると判定した場合に、連結画像9を設備画像として特定する。これにより、画像処理システム1は、設備画像を精度よく特定することができる。   Further, the facility image specifying unit 15 determines whether or not the size of the connected image 9 is within a preset range, and when determining that the size of the connected image 9 is within the preset range, The connected image 9 is specified as a facility image. Thereby, the image processing system 1 can accurately specify the facility image.

また、設備画像特定部15は、画像分割部12によって分割された複数の分割画像7のうち、画像分割部12による分割前の位置が2つ以上の設備部分画像8のうち少なくともいずれか1つと隣接する位置にある複数の分割画像7と2つ以上の設備部分画像8とを連結して連結画像9を生成する。これにより、画像処理システム1は、設備画像を精度よく特定することができる。   In addition, the facility image specifying unit 15 determines that at least one of the facility partial images 8 whose positions before the division by the image dividing unit 12 are two or more among the plurality of divided images 7 divided by the image dividing unit 12. A plurality of divided images at adjacent positions and two or more equipment partial images are connected to generate a connected image. Thereby, the image processing system 1 can accurately specify the facility image.

また、画像処理システム1は、連結画像9における特定領域30の画像である特定領域画像31を抽出する特定領域抽出部17と、特定領域抽出部17によって抽出された特定領域画像31から設備部分画像8の異常を判定する異常判定部19とを備える。これにより、画像処理システム1は、連結画像9をそのまま用いて判定対象部品の異常を判定する場合に比べて、異常判定処理の時間を短縮することができる。   Further, the image processing system 1 extracts a specific area image 31 that is an image of the specific area 30 in the connected image 9, and a facility partial image from the specific area image 31 extracted by the specific area extraction section 17. And an abnormality judging unit 19 for judging the abnormality of No. 8. Thereby, the image processing system 1 can shorten the time of the abnormality determination process as compared with the case where the abnormality of the determination target component is determined using the connected image 9 as it is.

また、異常判定部19は、判定対象部品が異常である状態の判定対象部品の画像を用いて機械学習によって生成された第2学習モデルを有する。第2学習モデルは、異常判定用の学習モデルの一例である。異常判定部19は、特定領域抽出部17によって抽出された画像を第2学習モデルへ入力して得られる結果に基づいて、設備4の異常を判定する。これにより、画像処理システム1は、判定対象部品に対する異常判定の精度を高めることができる。   Further, the abnormality determining unit 19 has a second learning model generated by machine learning using an image of the determination target component in a state where the determination target component is abnormal. The second learning model is an example of a learning model for abnormality determination. The abnormality determining unit 19 determines an abnormality of the facility 4 based on a result obtained by inputting the image extracted by the specific area extracting unit 17 to the second learning model. Accordingly, the image processing system 1 can increase the accuracy of the abnormality determination for the determination target component.

実施の形態2.
実施の形態2にかかる画像処理システムは、走行型計測装置から設備4を含むトンネル3の内壁3a全体の画像を構造物画像として走行型計測装置から取得し、構造物画像における連結画像9の位置に基づいて設備画像を特定する処理を行う点で、実施の形態1にかかる画像処理システム1と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の画像処理システム1および走行型計測装置2と異なる点を中心に説明する。
Embodiment 2 FIG.
The image processing system according to the second embodiment obtains an image of the entire inner wall 3a of the tunnel 3 including the facility 4 from the traveling measurement device as a structure image from the traveling measurement device, and positions the connected image 9 in the structure image. Is different from the image processing system 1 according to the first embodiment in that processing for specifying a facility image is performed based on In the following, components having the same functions as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. The differences from the image processing system 1 and the traveling type measurement device 2 of the first embodiment will be mainly described. explain.

図18は、本発明の実施の形態2にかかる画像処理システムを説明するための図である。図18に示す画像処理システム1Aは、走行型計測装置2Aによって生成されるトンネル3の画像から、トンネル3に取り付けられた設備4の画像である設備画像を特定し、特定した設備画像から設備4の異常を検出する。   FIG. 18 is a diagram for explaining the image processing system according to the second embodiment of the present invention. The image processing system 1A illustrated in FIG. 18 specifies an equipment image that is an image of the equipment 4 attached to the tunnel 3 from an image of the tunnel 3 generated by the traveling measurement device 2A, and uses the specified equipment image to specify the equipment 4 To detect abnormalities.

図19は、実施の形態2にかかる走行型計測装置による構造物画像の取得方法の一例を示す図である。図19に示すように、走行型計測装置2Aは、撮像部51A,51Bを搭載している。かかる走行型計測装置2Aは、構造物であるトンネル3内を走行し且つ撮像部51A,51Bの向きを変えながら走行型計測装置2Aの周囲を繰り返し撮像し、構造物画像を生成する。走行型計測装置2Aによって生成される構造物画像は、トンネル3の内壁3a全体に亘る画像である。   FIG. 19 is a diagram illustrating an example of a method of acquiring a structure image by the traveling measurement device according to the second embodiment. As shown in FIG. 19, the traveling type measurement device 2A includes imaging units 51A and 51B. The traveling type measuring device 2A travels in the tunnel 3, which is a structure, and repeatedly captures an image of the periphery of the traveling type measuring device 2A while changing the direction of the imaging units 51A and 51B to generate a structure image. The structure image generated by the traveling measurement device 2A is an image covering the entire inner wall 3a of the tunnel 3.

図20は、実施の形態2にかかる走行型計測装置によって計測される構造物画像の一例を示す図である。図20において、トンネル軸方向がX軸方向であり、トンネル周方向がY軸方向である。トンネル軸方向は、トンネル3の延伸方向である。   FIG. 20 is a diagram illustrating an example of a structure image measured by the traveling measurement device according to the second embodiment. In FIG. 20, the tunnel axis direction is the X axis direction, and the tunnel circumferential direction is the Y axis direction. The tunnel axis direction is a direction in which the tunnel 3 extends.

図20に示す構造物画像5Aは、トンネル3の内壁3a全体の画像であり、トンネル3の内壁3aの全体を2次元平面に展開したと仮定した場合におけるトンネル3の展開画像である。走行型計測装置2Aは、撮像部51Aから順次出力される複数の領域画像6A〜6Aをトンネル軸方向で繋ぎ合わせて領域画像6Aを生成し、撮像部51Bから順次出力される複数の領域画像6B〜6Bをトンネル軸方向で繋ぎ合わせて領域画像6Bを生成する。走行型計測装置2Aは、領域画像6Aと領域画像6Bとをトンネル周方向で繋ぎ合わせることで、構造物画像5Aを生成する。領域画像6Aには複数の設備4〜4の画像が含まれ、領域画像6Bには複数の設備4〜414の画像が含まれる。なお、構造物画像5Aは、構造物画像5と同様に、繋ぎ合わされていない状態の複数の領域画像6A〜6A,6B〜6Bの情報を含んでいてもよい。The structure image 5A shown in FIG. 20 is an image of the entire inner wall 3a of the tunnel 3, and is a developed image of the tunnel 3 on the assumption that the entire inner wall 3a of the tunnel 3 is developed on a two-dimensional plane. Traveling-type measuring device 2A, a plurality of regions to generate an area image 6A a plurality of region images 6A 1 ~6A 5 sequentially output from the imaging unit 51A by joining the tunnel axis, are sequentially output from the imaging unit 51B image 6B 1 ~6B 5 by connecting the tunnel axis to generate an area image 6B. The traveling type measurement device 2A generates the structure image 5A by joining the region image 6A and the region image 6B in the tunnel circumferential direction. The area image 6A includes images of a plurality of facilities 41 to 7, the area image 6B includes an image of a plurality of equipment 4 8-4 14. Incidentally, the structure image 5A, similar to the structure image 5 may include a plurality of region images 6A 1 ~6A 5, 6B 1 ~6B 5 of status information that has not been spliced together.

図21は、実施の形態2にかかる画像処理システムの構成例を示す図である。図21に示すように、実施の形態2にかかる画像処理システム1Aは、設備画像特定部15に代えて設備画像特定部15Aを備える。設備画像特定部15Aは、構造物画像5Aにおける連結画像9の位置に基づいて、連結画像9の回転処理および反転処理のうちの少なくとも1つの処理を行い、かかる処理を行った連結画像9を設備画像として特定する。   FIG. 21 is a diagram illustrating a configuration example of the image processing system according to the second embodiment. As shown in FIG. 21, the image processing system 1A according to the second embodiment includes a facility image specifying unit 15A instead of the facility image specifying unit 15. The equipment image specifying unit 15A performs at least one of the rotation processing and the inversion processing of the connected image 9 based on the position of the connected image 9 in the structure image 5A, and converts the connected image 9 that has performed such processing into equipment. Specify as an image.

例えば、設備画像特定部15Aは、構造物画像5Aのうち図20に示す領域画像6Aから抽出した複数の分割画像7を連結して得られる連結画像9を180度回転し、180度回転した連結画像9を設備画像として特定する。また、設備画像特定部15Aは、構造物画像5Aのうち図20に示す領域画像6Bから抽出した複数の分割画像7を連結して得られる連結画像9をそのまま設備画像として特定する。   For example, the facility image specifying unit 15A rotates the connected image 9 obtained by connecting the plurality of divided images 7 extracted from the region image 6A shown in FIG. The image 9 is specified as a facility image. In addition, the facility image specifying unit 15A specifies the connected image 9 obtained by connecting the plurality of divided images 7 extracted from the area image 6B illustrated in FIG.

図20に示す構造物画像5Aの種類は、見上げ図であり、トンネル3の内壁3aをトンネル3内から見た場合のトンネル3の内壁3aの画像を展開した展開画像であるが、走行型計測装置2Aは、見下げ図を生成することもできる。見下げ図は、トンネル3の内壁3aをトンネル外からみたと仮定した場合のトンネル3の内壁3aの画像を展開した展開画像である。以下、見下げ図の構造物画像を構造物画像5A’と記載する。   The type of the structure image 5A shown in FIG. 20 is a look-up view, which is a developed image obtained by developing an image of the inner wall 3a of the tunnel 3 when the inner wall 3a of the tunnel 3 is viewed from the inside of the tunnel 3; The device 2A can also generate a plan view. The look-down view is a developed image obtained by developing an image of the inner wall 3a of the tunnel 3 when the inner wall 3a of the tunnel 3 is viewed from the outside of the tunnel. Hereinafter, the structure image of the plan view is referred to as a structure image 5A '.

ここで、見上げ図と見下げ図について図面を参照して説明する。図22は、実施の形態2にかかる見上げ図と見下げ図との関係を説明するための図である。図22に示す例では、説明を分かりやすくするために、トンネル3に取り付けられる2つの設備4を便宜的に「2」の文字と「5」の文字とで表現している。また、図22に示す例では、トンネル3の入口の右端を「a1」とし、トンネル3の入口の左端を「b1」とし、トンネル3の出口の右端を「a2」とし、トンネル3の出口の左端を「b2」としている。なお、ここでの左右方向は、トンネル3の入口の手前からトンネル3を見た場合の方向である。   Here, the plan view and the plan view will be described with reference to the drawings. FIG. 22 is a diagram for explaining a relationship between a look-up view and a look-down view according to the second embodiment. In the example shown in FIG. 22, two facilities 4 attached to the tunnel 3 are represented by the characters “2” and “5” for the sake of simplicity. In the example shown in FIG. 22, the right end of the entrance of the tunnel 3 is "a1", the left end of the entrance of the tunnel 3 is "b1", the right end of the exit of the tunnel 3 is "a2", and the exit of the tunnel 3 is The left end is “b2”. Note that the left-right direction is the direction when the tunnel 3 is viewed from just before the entrance of the tunnel 3.

トンネル3の内壁3aの画像をトンネル3の左端b1,b2を基準として展開することでトンネル3の見上げ図が得られる。かかる見上げ図では、「2」の文字が180度回転した状態である。そこで、設備画像特定部15Aは、構造物画像5Aの領域画像6Aから抽出した複数の分割画像7を連結して得られる連結画像9を180度回転し、180度回転した連結画像9を設備画像として特定する。すなわち、設備画像特定部15Aは、構造物画像5Aにおける連結画像9の位置が領域画像6Aに含まれる場合、180度回転した連結画像9を設備画像として特定する。   By developing the image of the inner wall 3a of the tunnel 3 with reference to the left ends b1 and b2 of the tunnel 3, a top view of the tunnel 3 can be obtained. In this look-up view, the character “2” is rotated 180 degrees. Therefore, the equipment image specifying unit 15A rotates the connected image 9 obtained by connecting the plurality of divided images 7 extracted from the area image 6A of the structure image 5A by 180 degrees, and converts the connected image 9 rotated by 180 degrees into the equipment image. To be specified. That is, when the position of the connected image 9 in the structure image 5A is included in the region image 6A, the equipment image specifying unit 15A specifies the connected image 9 rotated by 180 degrees as the equipment image.

また、トンネル3の内壁3aの画像をトンネル3の右端a1,a2を基準として展開することでトンネル3の見下げ図が得られる。見下げ図において、領域画像6A’は、領域画像6Aを変換して得られる画像であり、領域画像6B’は、領域画像6Bを変換して得られる画像である。かかる見下げ図では、「2」の文字が左右反転した状態であり、また、「5」の文字が上下反転した状態である。   Further, by developing the image of the inner wall 3a of the tunnel 3 with reference to the right ends a1 and a2 of the tunnel 3, a look down view of the tunnel 3 can be obtained. In the look-down view, the area image 6A 'is an image obtained by converting the area image 6A, and the area image 6B' is an image obtained by converting the area image 6B. In such a look-down view, the character “2” is horizontally inverted, and the character “5” is vertically inverted.

そこで、設備画像特定部15Aは、構造物画像5A’の領域画像6A’から抽出した複数の分割画像7を連結して得られる連結画像9を左右反転し、左右反転した連結画像9を設備画像として特定する。すなわち、設備画像特定部15Aは、構造物画像5A’における連結画像9の位置が領域画像6A’に含まれる場合、左右反転した連結画像9を設備画像として特定する。   Therefore, the equipment image specifying unit 15A inverts the connected image 9 obtained by connecting the plurality of divided images 7 extracted from the area image 6A ′ of the structure image 5A ′, and converts the connected image 9 that has been inverted left and right into the equipment image. To be specified. That is, when the position of the connected image 9 in the structure image 5A 'is included in the region image 6A', the equipment image specifying unit 15A specifies the horizontally-inverted connected image 9 as the equipment image.

また、設備画像特定部15Aは、構造物画像5A’の領域画像6B’から抽出した複数の分割画像7を連結して得られる連結画像9を上下反転し、上下反転した連結画像9を設備画像として特定する。すなわち、設備画像特定部15Aは、構造物画像5A’における連結画像9の位置が領域画像6B’に含まれる場合、上下反転した連結画像9を設備画像として特定する。   Further, the facility image specifying unit 15A vertically inverts the connected image 9 obtained by connecting the plurality of divided images 7 extracted from the area image 6B ′ of the structure image 5A ′, and converts the vertically inverted connected image 9 into the facility image. To be specified. That is, when the position of the connected image 9 in the structure image 5A 'is included in the area image 6B', the equipment image specifying unit 15A specifies the connected image 9 inverted upside down as the equipment image.

このように、設備画像特定部15Aは、構造物画像における連結画像9の位置と、構造物画像の種類とに基づいて、連結画像9を回転する処理または連結画像9を反転する処理を行う。これにより、設備画像特定部15Aは、設備画像を適切に特定することができ、設備画像特定部15Aによって特定された設備画像から設備4の異常を精度よく判定することができる。   As described above, the facility image specifying unit 15A performs a process of rotating the connected image 9 or a process of inverting the connected image 9 based on the position of the connected image 9 in the structure image and the type of the structure image. Thereby, the equipment image specifying unit 15A can appropriately specify the equipment image, and can accurately determine the abnormality of the equipment 4 from the equipment image specified by the equipment image specifying unit 15A.

なお、画像処理システム1Aは、走行型計測装置2Aから構造物画像5A’を取得することに代えて、構造物画像5Aを見下げ図へ変換する不図示の装置から見下げ図である構造物画像5A’を取得することもできる。   Note that the image processing system 1A is a structure image 5A that is a look-down view from a device (not shown) that converts the structure image 5A into a look-down view instead of acquiring the structure image 5A ′ from the traveling type measurement device 2A. 'Can also be obtained.

図23は、実施の形態2にかかる設備画像特定部による設備画像特定処理手順における一部の手順の一例を示すフローチャートである。図23に示す処理は、図15に示すステップS34とステップS35との間に行われる処理である。   FIG. 23 is a flowchart illustrating an example of a partial procedure in a facility image specifying process performed by the facility image specifying unit according to the second embodiment. The process illustrated in FIG. 23 is a process performed between step S34 and step S35 illustrated in FIG.

図23に示すように、画像処理システム1Aの設備画像特定部15Aは、構造物画像が見上げ図であるか否かを判定する(ステップS50)。設備画像特定部15Aは、構造物画像が見上げ図であると判定した場合(ステップS50:Yes)、構造物画像5Aにおける連結画像9の位置が特定の位置であるか否かを判定する(ステップS51)。ステップS51において、設備画像特定部15Aは、連結画像9が構造物画像5Aにおける領域画像6Aに含まれる画像である場合、連結画像9の位置が特定の位置であると判定する。   As shown in FIG. 23, the facility image specifying unit 15A of the image processing system 1A determines whether or not the structure image is a look-up view (Step S50). When determining that the structure image is a look-up view (Step S50: Yes), the facility image specifying unit 15A determines whether the position of the connected image 9 in the structure image 5A is a specific position (Step S50). S51). In step S51, when the connected image 9 is an image included in the region image 6A in the structure image 5A, the facility image specifying unit 15A determines that the position of the connected image 9 is a specific position.

設備画像特定部15Aは、連結画像9の位置が特定の位置であると判定した場合(ステップS51:Yes)、連結画像9を180度回転し、180度回転した連結画像9を設備画像として特定する(ステップS52)。設備画像特定部15Aは、構造物画像が見上げ図ではないと判定した場合(ステップS50:No)、構造物画像5A’における連結画像9の位置が特定の位置であるか否かを判定する(ステップS53)。ステップS53において、設備画像特定部15Aは、構造物画像5A’における連結画像9の位置が領域画像6B’に含まれる画像である場合、連結画像9の位置が特定の位置であると判定する。   When determining that the position of the connected image 9 is the specific position (step S51: Yes), the equipment image specifying unit 15A rotates the connected image 9 by 180 degrees and specifies the connected image 9 rotated by 180 degrees as the equipment image. (Step S52). If it is determined that the structure image is not a look-up view (Step S50: No), the equipment image specifying unit 15A determines whether the position of the connected image 9 in the structure image 5A 'is a specific position (Step S50). Step S53). In step S53, if the position of the connected image 9 in the structure image 5A 'is an image included in the region image 6B', the facility image specifying unit 15A determines that the position of the connected image 9 is the specific position.

設備画像特定部15Aは、連結画像9の位置が特定の位置であると判定した場合(ステップS53:Yes)、連結画像9を上下反転し、上下反転した連結画像9を設備画像として特定する(ステップS54)。また、設備画像特定部15Aは、連結画像9の位置が特定の位置ではないと判定した場合(ステップS53:No)、連結画像9を左右反転し、左右反転した連結画像9を設備画像として特定する(ステップS55)。   When determining that the position of the connected image 9 is the specific position (Step S53: Yes), the equipment image specifying unit 15A turns the connected image 9 upside down and specifies the connected image 9 that has been turned upside down as the equipment image ( Step S54). When determining that the position of the connected image 9 is not the specific position (step S53: No), the facility image specifying unit 15A reverses the connected image 9 from side to side, and specifies the connected image 9 that has been inverted from side to side as the facility image. (Step S55).

設備画像特定部15Aは、ステップS52の処理が終了した場合、連結画像9の位置が特定の位置ではないと判定した場合(ステップS51:No)、ステップS54の処理が終了した場合、またはステップS55の処理が終了した場合、図23に示す処理を終了する。   The facility image specifying unit 15A ends the processing of step S52, determines that the position of the connected image 9 is not the specific position (step S51: No), ends the processing of step S54, or steps S55. When the processing of is completed, the processing illustrated in FIG. 23 ends.

図21に示す画像処理システム1Aのハードウェア構成は、図17に示す画像処理システム1のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、設備画像特定部15Aの機能を実行することができる。   The hardware configuration of the image processing system 1A shown in FIG. 21 is the same as the hardware configuration of the image processing system 1 shown in FIG. The processor 101 can execute the function of the facility image specifying unit 15A by reading and executing the program stored in the memory 102.

以上のように、実施の形態2にかかる画像処理システム1Aの設備画像特定部15Aは、構造物画像5A,5A’における連結画像9の位置に基づく連結画像9の回転処理および反転処理のうち少なくとも1つの処理を含み、かかる処理が行われた連結画像9を設備画像として特定する。これにより、異常判定部19は、設備画像特定部15Aによって特定された設備画像から設備4の異常を精度よく判定することができる。   As described above, the facility image specifying unit 15A of the image processing system 1A according to the second embodiment performs at least one of the rotation processing and the inversion processing of the connected image 9 based on the position of the connected image 9 in the structural images 5A and 5A '. The connected image 9 including one process is identified as the facility image. Thereby, the abnormality determination unit 19 can accurately determine the abnormality of the equipment 4 from the equipment image specified by the equipment image specifying unit 15A.

以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。   The configurations described in the above embodiments are merely examples of the contents of the present invention, and can be combined with other known technologies, and can be combined with other known technologies without departing from the gist of the present invention. Parts can be omitted or changed.

1,1A 画像処理システム、2,2A 走行型計測装置、3 トンネル、3a 内壁、4,4〜414 設備、5,5A,5A’ 構造物画像、6,6〜6,6A,6A〜6A,6B,6B〜6B 領域画像、7,7〜7,7,7,712,713,716,717,720〜724 分割画像、8,8〜814 設備部分画像、9 連結画像、10 取得部、11 画像情報記憶部、12 画像分割部、13 画像抽出部、14 第1学習モデル生成部、15,15A 設備画像特定部、16 入力部、17 特定領域抽出部、18 設備情報記憶部、19 異常判定部、20 第2学習モデル生成部、21 設備異常情報記憶部、22 表示処理部、23 表示部、30,30,30,30,30 特定領域、31,31,31,31,31 特定領域画像、51,51A,51B 撮像部。1,1A image processing system, 2, 2A running type measuring device, 3 tunnels, 3a inner wall, 4,4 1-4 14 facilities, 5, 5A, 5A 'structure image, 6,6 1 to 6 5, 6A, 6A 1 ~6A 5, 6B, 6B 1 ~6B 5 area image, 7,7 1-7 5, 7 8, 7 9, 7 12, 7 13, 7 16, 7 17, 7 20 to 7 24 divided images, 8,8 1-8 14 facilities partial image 9 connected image, 10 obtaining unit, 11 image information storage unit, 12 image dividing unit, 13 image extraction unit, 14 first learning model generation unit, 15, 15A facility image identification unit , 16 input unit, 17 specific area extraction unit, 18 equipment information storage unit, 19 abnormality determination unit, 20 second learning model generation unit, 21 equipment abnormality information storage unit, 22 display processing unit, 23 display unit, 30, 30 1 , 30 2, 30 3, 30 4 specific region, 31 1, 31 2, 31 3, 31 4 specific area image, 51, 51A, 51B imaging unit.

Claims (10)

構造物に取り付けられた設備の画像を含む前記構造物の画像を、前記設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する画像分割部と、
前記画像分割部によって分割された前記複数の画像の中から前記設備の一部を示す画像を複数抽出する画像抽出部と、
前記画像抽出部で抽出された前記複数の画像のうち前記画像分割部による分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した前記2つ以上の画像を含む連結画像を前記設備の画像として特定する設備画像特定部と、を備える
ことを特徴とする画像処理システム。
An image dividing unit that divides the image of the structure including the image of the equipment attached to the structure into a plurality of images of a smaller size than an image showing the entire equipment,
An image extraction unit that extracts a plurality of images showing a part of the facility from among the plurality of images divided by the image division unit,
Concatenating two or more images of the plurality of images extracted by the image extracting unit at positions adjacent to each other before being divided by the image dividing unit, and including the two or more coupled images An equipment image specifying unit that specifies an image as an image of the equipment.
設備の画像を含む画像を、前記設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する画像分割部と、An image division unit that divides an image including an image of equipment into a plurality of images having a smaller size than an image showing the entire equipment,
前記画像分割部によって分割された前記複数の画像の中から前記設備の一部を示す画像を複数抽出する画像抽出部と、An image extraction unit that extracts a plurality of images showing a part of the facility from among the plurality of images divided by the image division unit,
前記画像抽出部で抽出された前記複数の画像のうち前記画像分割部による分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した前記2つ以上の画像を含む連結画像を前記設備の画像として特定する設備画像特定部と、を備えるConcatenating two or more images of the plurality of images extracted by the image extracting unit at positions adjacent to each other before being divided by the image dividing unit, and including the two or more coupled images Equipment image specifying unit for specifying an image as the image of the equipment.
ことを特徴とする画像処理システム。An image processing system, characterized in that:
前記構造物の画像は、The image of the structure is
トンネルの展開画像であり、It is a developed image of the tunnel,
前記設備画像特定部による前記設備の画像を特定する処理は、前記トンネルの展開画像における前記連結画像の位置に基づく前記連結画像の回転処理および反転処理のうち少なくとも1つの処理を含み、前記少なくとも1つの処理が行われた連結画像を前記設備の画像として特定するThe process of specifying the image of the facility by the facility image specifying unit includes at least one of a rotation process and an inversion process of the connected image based on a position of the connected image in the developed image of the tunnel, Identify the connected image that has been subjected to the two processes as the image of the facility
ことを特徴とする請求項1に記載の画像処理システム。The image processing system according to claim 1, wherein:
前記画像抽出部は、
前記設備の一部を示す画像を用いた機械学習によって生成された学習モデルを有し、前記画像分割部によって分割された前記複数の画像の中から前記学習モデルを用いて前記設備の一部を示す画像を複数抽出する
ことを特徴とする請求項1から3のいずれか1つに記載の画像処理システム。
The image extraction unit,
Having a learning model generated by machine learning using an image showing a part of the equipment, a part of the equipment using the learning model from among the plurality of images divided by the image dividing unit. The image processing system according to any one of claims 1 to 3 , wherein a plurality of images shown are extracted.
前記設備画像特定部は、
前記連結画像のサイズが予め設定された範囲内であるか否かを判定し、前記連結画像のサイズが前記予め設定された範囲内であると判定した場合に、前記連結画像を前記設備の画像として特定する
ことを特徴とする請求項1から4のいずれか1つに記載の画像処理システム。
The equipment image identification unit,
It is determined whether or not the size of the linked image is within a preset range, and when it is determined that the size of the linked image is within the preset range, the linked image is displayed as an image of the facility. The image processing system according to any one of claims 1 to 4, wherein:
前記設備画像特定部は、
前記画像分割部によって分割された前記複数の画像のうち、前記画像分割部による分割前の位置が前記2つ以上の画像のうち少なくともいずれか1つと隣接する位置にある複数の画像と前記2つ以上の画像とを連結して前記連結画像を生成する
ことを特徴とする請求項1からのいずれか1つに記載の画像処理システム。
The equipment image identification unit,
Among the plurality of images divided by the image dividing unit, the plurality of images and the two images whose positions before being divided by the image dividing unit are located at positions adjacent to at least one of the two or more images. The image processing system according to any one of claims 1 to 5 , wherein the image is connected to the image to generate the connected image.
前記連結画像における特定領域の画像を抽出する特定領域抽出部と、
前記特定領域抽出部によって抽出された画像から前記設備の異常を判定する異常判定部とを備える
ことを特徴とする請求項1からのいずれか1つに記載の画像処理システム。
A specific region extraction unit that extracts an image of a specific region in the connected image,
The image processing system according to any one of claims 1 to 6, characterized in that it comprises an abnormality determination unit determining abnormality of the equipment from the image extracted by the specified area extracting portion.
前記異常判定部は、
前記設備の部品が異常である状態の前記部品の画像を用いて機械学習によって生成された異常判定用の学習モデルを有し、前記特定領域抽出部によって抽出された画像を前記異常判定用の学習モデルへ入力して得られる結果に基づいて、前記設備の異常を判定する
ことを特徴とする請求項に記載の画像処理システム。
The abnormality determination unit includes:
A learning model for abnormality determination generated by machine learning using an image of the component in a state where the component of the facility is abnormal, and an image extracted by the specific area extracting unit is used for learning for the abnormality determination. The image processing system according to claim 7 , wherein the abnormality of the facility is determined based on a result obtained by inputting to the model.
コンピュータが行う画像処理方法であって、
構造物に取り付けられた設備の画像を含む前記構造物の画像を、前記設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する画像分割ステップと、
前記画像分割ステップによって分割された前記複数の画像の中から前記設備の一部を示す画像を複数抽出する画像抽出ステップと、
前記画像抽出ステップで抽出された前記複数の画像のうち前記画像分割ステップによる分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した前記2つ以上の画像を含む連結画像を前記設備の画像として特定する設備画像特定ステップと、
を含む
ことを特徴とする画像処理方法。
An image processing method performed by a computer,
An image dividing step of dividing the image of the structure including the image of the equipment attached to the structure into a plurality of images of a smaller size than an image showing the entire equipment,
Image extraction step of extracting a plurality of images showing a part of the equipment from among the plurality of images divided by the image division step,
Concatenating two or more images, of the plurality of images extracted in the image extraction step, whose positions before division by the image division step are adjacent to each other, and including the coupled two or more images Equipment image identification step of identifying an image as an image of the equipment,
An image processing method comprising:
コンピュータが行う画像処理方法であって、An image processing method performed by a computer,
設備の画像を含む画像を、前記設備の全体を示す画像よりも小さなサイズの複数の画像へ分割する画像分割ステップと、  An image division step of dividing an image including an image of a facility into a plurality of images having a smaller size than an image showing the entire facility,
前記画像分割ステップによって分割された前記複数の画像の中から前記設備の一部を示す画像を複数抽出する画像抽出ステップと、Image extraction step of extracting a plurality of images showing a part of the equipment from among the plurality of images divided by the image division step,
前記画像抽出ステップで抽出された前記複数の画像のうち前記画像分割ステップによる分割前の位置が互いに隣接する位置にある2つ以上の画像を連結し、連結した前記2つ以上の画像を含む連結画像を前記設備の画像として特定する設備画像特定ステップと、Concatenating two or more images, of the plurality of images extracted in the image extraction step, whose positions before division by the image division step are adjacent to each other, and including the coupled two or more images Equipment image identification step of identifying an image as an image of the equipment,
を含むincluding
ことを特徴とする画像処理方法。An image processing method comprising:
JP2019570580A 2019-09-06 2019-09-06 Image processing system and image processing method Active JP6664574B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035262 WO2021044629A1 (en) 2019-09-06 2019-09-06 Image processing system and image processing method

Publications (2)

Publication Number Publication Date
JP6664574B1 true JP6664574B1 (en) 2020-03-13
JPWO2021044629A1 JPWO2021044629A1 (en) 2021-09-27

Family

ID=70000330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570580A Active JP6664574B1 (en) 2019-09-06 2019-09-06 Image processing system and image processing method

Country Status (2)

Country Link
JP (1) JP6664574B1 (en)
WO (1) WO2021044629A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172475A1 (en) * 2021-02-12 2022-08-18 オムロン株式会社 Image inspection device, image inspection method, and trained model generation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144200A (en) * 1997-07-25 1999-02-16 Toshiba Corp Road tunnel comprehensively monitoring control device
JP2002019606A (en) * 2000-07-03 2002-01-23 Mitsubishi Heavy Ind Ltd Railroad maintenance traveling device with work robot
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas
JP2011186719A (en) * 2010-03-08 2011-09-22 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for detecting object
JP2016223796A (en) * 2015-05-27 2016-12-28 株式会社パスコ Tunnel wall surface damages detector and program for detecting damages of tunnel wall surface
JP2018101416A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Fire monitoring system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144200A (en) * 1997-07-25 1999-02-16 Toshiba Corp Road tunnel comprehensively monitoring control device
JP2002019606A (en) * 2000-07-03 2002-01-23 Mitsubishi Heavy Ind Ltd Railroad maintenance traveling device with work robot
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas
JP2011186719A (en) * 2010-03-08 2011-09-22 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for detecting object
JP2016223796A (en) * 2015-05-27 2016-12-28 株式会社パスコ Tunnel wall surface damages detector and program for detecting damages of tunnel wall surface
JP2018101416A (en) * 2016-12-21 2018-06-28 ホーチキ株式会社 Fire monitoring system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
笹間 宏 ほか: "連続走査画像による鉄道設備検査システム", 電気学会論文誌C, vol. 第117-C巻, JPN6019043060, 20 September 1997 (1997-09-20), JP, pages 1345 - 1354, ISSN: 0004194898 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172475A1 (en) * 2021-02-12 2022-08-18 オムロン株式会社 Image inspection device, image inspection method, and trained model generation device

Also Published As

Publication number Publication date
JPWO2021044629A1 (en) 2021-09-27
WO2021044629A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
EP3401671B1 (en) Detection device and detection method
JP4687518B2 (en) Image processing method, three-dimensional measurement method using the method, and image processing apparatus
US10024653B2 (en) Information processing apparatus, information processing method, and storage medium
JP6922539B2 (en) Surface defect determination method and surface defect inspection device
JP2018036226A (en) Image processing program, image processing method, and image processing device
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
CN112288732A (en) Dispensing detection method, device, equipment and system
JP2018180875A (en) Determination device, determination method and determination program
JP2014215163A (en) Inspection apparatus
JP2019196992A (en) Reinforcing bar test method and reinforcing bar test system
JP6664574B1 (en) Image processing system and image processing method
JPH0591411A (en) Image processor
CN116625239B (en) Step hole detection method, device and system based on image processing
JP4670994B2 (en) Color image processing method and image processing apparatus
JP5445064B2 (en) Image processing apparatus and image processing program
JP6749528B1 (en) Defect management device, modification management method, and modification management program
JP2021022637A (en) Inspection equipment of bonding wire, inspection method of bonding wire, and inspection program of bonding wire
JP7186821B2 (en) Bar arrangement inspection device, bar arrangement inspection method and program
JPH03192474A (en) Three-dimensional shape measuring system
CN115861161A (en) Machine learning system, learning data collection method, and storage medium
JP4415285B1 (en) Wire inspection apparatus, wire inspection method, and wire inspection program
JP2021009702A (en) Inspection support device, inspection support method and program
JP4670993B2 (en) Color image processing method and image processing apparatus
JP2021085838A (en) Bar arrangement inspection system, bar arrangement inspection method and bar arrangement inspection program
JP2005309914A (en) Method for processing color image and image processor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191219

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200218

R150 Certificate of patent or registration of utility model

Ref document number: 6664574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250