JP2023077282A - Inspection system, inspection method and program - Google Patents

Inspection system, inspection method and program Download PDF

Info

Publication number
JP2023077282A
JP2023077282A JP2021190536A JP2021190536A JP2023077282A JP 2023077282 A JP2023077282 A JP 2023077282A JP 2021190536 A JP2021190536 A JP 2021190536A JP 2021190536 A JP2021190536 A JP 2021190536A JP 2023077282 A JP2023077282 A JP 2023077282A
Authority
JP
Japan
Prior art keywords
inspection
image
captured image
marker
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021190536A
Other languages
Japanese (ja)
Inventor
久雄 森田
Hisao Morita
佳周 長田
Yoshichika Osada
啓介 岡田
Keisuke Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Prime Life Technologies Corp
Panasonic Holdings Corp
Original Assignee
Prime Life Technologies Corp
Panasonic Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Prime Life Technologies Corp, Panasonic Holdings Corp filed Critical Prime Life Technologies Corp
Priority to JP2021190536A priority Critical patent/JP2023077282A/en
Publication of JP2023077282A publication Critical patent/JP2023077282A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an inspection system, an inspection method and a program which can more correctly set an inspection range in a photographed image.SOLUTION: An inspection system 1 comprises: an image acquisition unit 1b; a display control unit 1c; an inspection range setting unit 1e; and an inspection unit 1h. The image acquisition unit 1b acquires data of a photographed image that is the image obtained by imaging an inspection object 9 in a three-dimensional shape and includes three-dimensional position information. The display control unit 1c displays the photographed image on a screen D1. The inspection range setting unit 1e sets an inspection range indicating a range in which the inspection object 9 is captured in the photographed image by the operation of a person. The inspection unit 1h inspects the inspection object 9 by performing image recognition processing on the inspection range.SELECTED DRAWING: Figure 1

Description

本開示は、検査システム、検査方法、及びプログラムに関する。 The present disclosure relates to inspection systems, inspection methods, and programs.

特許文献1では、鉄筋コンクリート構造物の建設工事現場において、配列された鉄筋が打設されたコンクリートの内部に埋没する前に、鉄筋が正しく配列されていることを確認するために、配列された鉄筋の径、ピッチ及び本数等が検査される。 In Patent Document 1, at a construction site of a reinforced concrete structure, before the arranged reinforcing bars are embedded in the poured concrete, the arranged reinforcing bars are confirmed to be correctly arranged. The diameter, pitch, number, etc. are inspected.

具体的に、特許文献1の配筋検査装置は、ステレオ撮影部と、配列平面特定部と、検査部と、を備える。ステレオ撮影部は、三次元空間の中の平面に配列された複数の鉄筋を異なる2点から撮像することで、三次元空間における複数の鉄筋の位置情報を取得する。配列平面特定部は、ステレオ撮影部により取得された鉄筋の位置情報に基づいて、複数の鉄筋が配列された平面を特定する。検査部は、配列平面特定部により特定された平面に配列された複数の鉄筋を検査対象として、鉄筋の検査を行う。 Specifically, the bar arrangement inspection device of Patent Literature 1 includes a stereo imaging unit, an array plane specifying unit, and an inspection unit. The stereo imaging unit acquires position information of the plurality of reinforcing bars in the three-dimensional space by imaging the plurality of reinforcing bars arranged on a plane in the three-dimensional space from two different points. The arrangement plane specifying unit specifies a plane on which the plurality of reinforcing bars are arranged based on the positional information of the reinforcing bars acquired by the stereo imaging unit. The inspection unit inspects a plurality of reinforcing bars arranged on the plane specified by the arrangement plane specifying unit as objects to be inspected.

特開2019-2737号公報JP 2019-2737 A

三次元空間に複数の部材が配置されていれば、ステレオ撮影部(撮像部)が撮像した画像(撮像画像)に、検査対象となる部材以外に、他の部材が写り込むことがある。このとき、撮像画像において検査対象となる部材が写っている範囲(検査範囲)を、他の部材が写っている範囲と区別できないことがあった。この結果、検査範囲を正確に設定することが困難であった。 If a plurality of members are arranged in a three-dimensional space, an image (captured image) captured by a stereo imaging unit (imaging unit) may include members other than the member to be inspected. At this time, the range (inspection range) in which the member to be inspected is shown in the captured image cannot be distinguished from the range in which other members are shown. As a result, it was difficult to set the inspection range accurately.

本開示の目的は、撮像画像内の検査範囲をより正確に設定できる検査システム、検査方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide an inspection system, an inspection method, and a program capable of setting an inspection range in a captured image more accurately.

本開示の一態様に係る検査システムは、画像取得部と、表示制御部と、検査範囲設定部と、検査部と、を備える。前記画像取得部は、立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。前記表示制御部は、前記撮像画像を画面に表示する。前記検査範囲設定部は、人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する。前記検査部は、前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う。 An inspection system according to an aspect of the present disclosure includes an image acquisition unit, a display control unit, an inspection range setting unit, and an inspection unit. The image acquisition unit acquires captured image data including three-dimensional position information, which is an image of a three-dimensional inspection target. The display control unit displays the captured image on a screen. The inspection range setting unit sets an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation. The inspection unit inspects the inspection object by performing image recognition processing on the inspection range.

本開示の一態様に係る検査方法は、画像取得ステップと、表示ステップと、検査範囲設定ステップと、検査ステップと、を備える。前記画像取得ステップは、立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。前記表示ステップは、前記撮像画像を画面に表示する。前記検査範囲設定ステップは、人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する。前記検査ステップは、前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う。 An inspection method according to an aspect of the present disclosure includes an image acquisition step, a display step, an inspection range setting step, and an inspection step. The image acquisition step acquires data of a captured image, which is an image of a three-dimensional inspection target and includes three-dimensional position information. The display step displays the captured image on a screen. In the inspection range setting step, an inspection range indicating a range in which the inspection target is shown in the captured image is set by a human operation. The inspection step inspects the inspection target by subjecting the inspection range to image recognition processing.

本開示の一態様に係るプログラムは、コンピュータシステムに上述の検査方法を実行させる。 A program according to an aspect of the present disclosure causes a computer system to execute the inspection method described above.

以上説明したように、本開示は、撮像画像内の検査範囲をより正確に設定できるという効果がある。 As described above, the present disclosure has the effect of being able to set the inspection range in the captured image more accurately.

図1は、実施形態の検査システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the inspection system of the embodiment. 図2は、同上の検査システムの使用例を示す斜視図である。FIG. 2 is a perspective view showing a usage example of the same inspection system. 図3は、同上の検査システムを構成するタブレット端末の撮像部を示す平面図である。FIG. 3 is a plan view showing an imaging unit of a tablet terminal that constitutes the same inspection system. 図4は、同上の検査システムの撮像画像を示す図である。FIG. 4 is a diagram showing an image captured by the inspection system of the same. 図5は、同上の検査システムの撮像画像に検査対象を指定した図である。FIG. 5 is a diagram in which an inspection target is specified in the captured image of the inspection system. 図6は、同上の検査システムの撮像画像に検査範囲を設定した図である。FIG. 6 is a diagram in which an inspection range is set in an image picked up by the inspection system. 図7は、同上の検査システムの三次元モデルを示す斜視図である。FIG. 7 is a perspective view showing a three-dimensional model of the same inspection system. 図8は、同上の検査システムの撮像画像にマーカ画像を設定した図である。FIG. 8 is a diagram in which a marker image is set in the captured image of the inspection system. 図9は、同上の検査システムの検査方法を示すフローチャートである。FIG. 9 is a flow chart showing an inspection method of the inspection system same as above. 図10は、第2変形例の検査システムの撮像画像に検査対象を指定した図である。FIG. 10 is a diagram in which an inspection target is specified in the captured image of the inspection system of the second modified example. 図11は、同上の検査システムの撮像画像に検査範囲を設定した図である。FIG. 11 is a diagram in which an inspection range is set in an image picked up by the inspection system. 図12は、同上の検査システムの三次元モデルを示す斜視図である。FIG. 12 is a perspective view showing a three-dimensional model of the same inspection system. 図13は、同上の検査システムの撮像画像にマーカ画像を設定した図である。FIG. 13 is a diagram in which a marker image is set in an image captured by the inspection system. 図14は、第3変形例及び第4変形例の検査システムの撮像画像に検査対象を指定した図である。14A and 14B are diagrams in which an inspection target is specified in the captured image of the inspection system of the third modification and the fourth modification. 図15は、第5変形例の検査システムの構成を示すブロック図である。FIG. 15 is a block diagram showing the configuration of the inspection system of the fifth modified example. 図16は、第5変形例の別の検査システムの構成を示すブロック図である。FIG. 16 is a block diagram showing the configuration of another inspection system of the fifth modified example.

以下の実施形態は、一般に検査システム、検査方法、及びプログラムに関する。より詳細に、以下の実施形態は、撮像画像に画像認識処理を施すことで検査対象を検査する検査システム、検査方法、及びプログラムに関する。 The following embodiments generally relate to inspection systems, inspection methods, and programs. More specifically, the following embodiments relate to an inspection system, an inspection method, and a program for inspecting an inspection object by subjecting a captured image to image recognition processing.

以下、実施形態に係る検査システム、検査方法、及びプログラムについて、図面を参照して詳細に説明する。ただし、下記の実施形態において説明する各図は模式的な図であり、各構成要素の大きさや厚さそれぞれの比が必ずしも実際の寸法比を反映しているとは限らない。 Hereinafter, an inspection system, an inspection method, and a program according to embodiments will be described in detail with reference to the drawings. However, each drawing described in the following embodiments is a schematic drawing, and the ratio of the size and thickness of each component does not necessarily reflect the actual dimensional ratio.

また、以下に説明する実施形態は、本開示の実施形態の一例にすぎない。本開示は、以下の実施形態に限定されず、本開示の効果を奏することができれば、設計等に応じて種々の変更が可能である。 Also, the embodiments described below are merely examples of the embodiments of the present disclosure. The present disclosure is not limited to the following embodiments, and various modifications can be made according to design and the like as long as the effects of the present disclosure can be achieved.

(1)概要
建築物の工事では、各工程において様々な検査が行われる。例えば、配筋、壁紙、配線器具、配線、又は配管などの部材を検査対象として、検査対象の配置、形状、及びサイズなどの検査が行われる。また、建物自体を検査対象として、検査対象の構造、配置、及び形状などの検査が行われる。このような検査では、検査対象を撮像した撮像画像に画像認識処理を施すことで、検査対象の配置、形状、サイズ、及び構造などの検査項目を評価することがある。なお、建築物の工事は、建築物の施工に関する工事であればよく、例えば建設工事、電気工事、給排水工事、及び土木工事などが含まれる。
(1) Overview In building construction, various inspections are performed in each process. For example, the placement, shape, size, and the like of the inspection target are inspected for members such as reinforcing bars, wallpaper, wiring devices, wiring, and piping. Also, the structure, layout, shape, and the like of the inspection target are inspected using the building itself as the inspection target. In such an inspection, inspection items such as the arrangement, shape, size, and structure of the inspection object may be evaluated by performing image recognition processing on a captured image of the inspection object. Note that the building work may be any work related to building construction, and includes, for example, construction work, electrical work, water supply and drainage work, and civil engineering work.

近年、二次元の撮像画像ではなく、三次元の位置情報を含む撮像画像を生成することが容易になっている。そこで、図1に示す本実施形態の検査システムは、三次元の位置情報を含む撮像画像を用いて検査対象9の検査を行う。 In recent years, it has become easier to generate a captured image including three-dimensional position information instead of a two-dimensional captured image. Therefore, the inspection system of the present embodiment shown in FIG. 1 inspects the inspection object 9 using a captured image including three-dimensional position information.

検査システム1は、画像取得部1b、表示制御部1c、検査範囲設定部1e、及び検査部1h、を備える。画像取得部1bは、立体形状の検査対象9を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。表示制御部1cは、撮像画像を画面D1に表示する。検査範囲設定部1eは、人の操作によって、撮像画像において検査対象9が写っている範囲を示す検査範囲を設定する。検査部1hは、検査範囲に画像認識処理を施すことで、検査対象9の検査を行う。 The inspection system 1 includes an image acquisition unit 1b, a display control unit 1c, an inspection range setting unit 1e, and an inspection unit 1h. The image acquisition unit 1b acquires data of a captured image, which is an image of a three-dimensional inspection target 9 and includes three-dimensional position information. The display control unit 1c displays the captured image on the screen D1. The inspection range setting unit 1e sets an inspection range indicating the range in which the inspection target 9 is shown in the captured image by a human operation. The inspection unit 1h inspects the inspection object 9 by performing image recognition processing on the inspection range.

したがって、検査システム1は、人の操作によって撮像画像における検査範囲を設定するので、検査対象以外の構造が検査範囲に含まれることを抑制でき、撮像画像内の検査範囲をより正確に設定できる。 Therefore, since the inspection system 1 sets the inspection range in the captured image by human operation, it is possible to suppress the inclusion of structures other than the inspection target in the inspection range, and to set the inspection range in the captured image more accurately.

(2)詳細
以下、本実施形態の検査システム1の詳細を説明する。
(2) Details Details of the inspection system 1 of the present embodiment will be described below.

(2.1)検査対象
本実施形態の検査対象9は、建築物の柱、梁、壁、スラブ、及び基礎などの配筋である。図2は、配筋91、92を示す。配筋91、92は、施工途中の建築物の内部の三次元空間W1に存在している。配筋91、92は梁の配筋である。配筋91の輪郭、及び配筋92の輪郭は、矩形体状である。
(2.1) Objects to be inspected Objects 9 to be inspected in this embodiment are reinforcing bars such as columns, beams, walls, slabs, and foundations of a building. FIG. 2 shows reinforcement arrangements 91 and 92 . The reinforcing bars 91 and 92 exist in the three-dimensional space W1 inside the building under construction. Reinforcements 91 and 92 are beam reinforcements. The outline of the bar arrangement 91 and the outline of the bar arrangement 92 are rectangular bodies.

配筋91、92のそれぞれは、格子状に組まれた複数の鉄筋9aで構成されており、三次元の立体形状を有する部材である。配筋の検査は、配筋91、92のそれぞれに対して、複数の鉄筋9aの配置及び組み方、並びに鉄筋9aのサイズなどが、予め決められた仕様を満たしているか否かを個別に判定する。 Each of the reinforcing bars 91 and 92 is composed of a plurality of reinforcing bars 9a arranged in a lattice, and is a member having a three-dimensional shape. In the reinforcement arrangement inspection, it is individually determined whether the arrangement and arrangement of the plurality of reinforcement bars 9a, the size of the reinforcement bars 9a, and the like satisfy predetermined specifications for each of the reinforcement arrangements 91 and 92. .

なお、本実施形態では、配筋の矩形体状の輪郭は、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提とする。 In addition, in this embodiment, it is assumed that the rectangular contour of the bar arrangement is composed of eight sides extending in the vertical direction and the horizontal direction in the three-dimensional space W1.

(2.2)検査システム
検査システム1は、コンピュータシステムを備えることが好ましい。コンピュータシステムは、プログラムを実行することによって、検査システム1の一部又は全部を実現する。コンピュータシステムは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、又はLSI(large scale integration)を含む一つ又は複数の電子回路で構成される。ここでは、ICやLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scale integration) と呼ばれるものであってもよい。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータシステムが読み取り可能なROM、光ディスク、ハードディスクドライブなどの非一時的記録媒体に記録される。プログラムは、非一時的記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して非一時的記録媒体に供給されてもよい。
(2.2) Inspection system The inspection system 1 preferably comprises a computer system. The computer system implements part or all of the inspection system 1 by executing programs. A computer system has a processor that operates according to a program as a main hardware configuration. Any type of processor can be used as long as it can implement functions by executing a program. The processor is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or LSI (large scale integration). Here, they are called ICs and LSIs, but they may be called system LSIs, VLSIs (very large scale integration), or ULSIs (ultra large scale integration) depending on the degree of integration. A field programmable gate array (FPGA), which is programmed after the LSI is manufactured, or a reconfigurable logic device capable of reconfiguring the junction relationships inside the LSI or setting up circuit partitions inside the LSI for the same purpose. can be done. A plurality of electronic circuits may be integrated on one chip or may be provided on a plurality of chips. A plurality of chips may be integrated into one device, or may be provided in a plurality of devices. The program is recorded in a non-temporary recording medium such as a ROM, optical disk, hard disk drive, etc. that can be read by the computer system. The program may be pre-stored in a non-temporary recording medium, or may be supplied to the non-temporary recording medium via a wide area network including the Internet.

コンピュータシステムは、1台のコンピュータ装置に限らず、互いに連携した複数台のコンピュータ装置で実現されていてもよい。また、コンピュータシステムは、クラウドコンピューティングシステムとして構築されていてもよい。 The computer system is not limited to one computer device, and may be realized by a plurality of computer devices that cooperate with each other. Also, the computer system may be constructed as a cloud computing system.

本実施形態の検査システム1は、図1に示すように、撮像部1a、画像取得部1b、表示制御部1c、操作部1d、検査範囲設定部1e、マーカ生成部1f、マーカ処理部1g、検査部1h、及び通信部1iを備える。また、検査システム1は、画面D1を更に備えることが好ましい。本実施形態の検査システム1は、図1及び図2に示すように、作業者H1が携行可能なタブレット端末T1で構成された検査装置である。作業者H1は、タブレット端末T1を携行して、三次元空間W1内を移動する。そして、作業者H1がタブレット端末T1で検査対象9となる配筋を撮像することで、検査システム1が検査対象9となる配筋の検査を行う。なお、本実施形態では、作業者H1が、撮像画像内に検査範囲を指定する人に相当する。 As shown in FIG. 1, the inspection system 1 of this embodiment includes an imaging unit 1a, an image acquisition unit 1b, a display control unit 1c, an operation unit 1d, an inspection range setting unit 1e, a marker generation unit 1f, a marker processing unit 1g, It has an inspection unit 1h and a communication unit 1i. Moreover, it is preferable that the inspection system 1 further includes a screen D1. As shown in FIGS. 1 and 2, the inspection system 1 of the present embodiment is an inspection apparatus including a tablet terminal T1 that can be carried by a worker H1. A worker H1 carries a tablet terminal T1 and moves in the three-dimensional space W1. The inspection system 1 inspects the bar arrangement to be the inspection target 9 by the operator H1 capturing an image of the bar arrangement to be the inspection target 9 using the tablet terminal T1. Note that, in the present embodiment, the operator H1 corresponds to the person who designates the inspection range within the captured image.

(2.2.1)撮像部
撮像部1aは、図3に示すように、3つのレンズ101を有する3眼のステレオカメラである。撮像部1aは、3つのレンズ101のそれぞれで撮像した画像データに基づいて、三次元の位置情報を含む撮像画像のデータを生成する。三次元の位置情報は、例えば、撮像部1aの撮像範囲に含まれている物体の三次元座標(例えばワールド座標)である。すなわち、撮像部1aは、撮像画像のデータとして三次元画像のデータを生成する。
(2.2.1) Imaging Unit The imaging unit 1a is a trinocular stereo camera having three lenses 101, as shown in FIG. The imaging unit 1a generates captured image data including three-dimensional position information based on image data captured by each of the three lenses 101 . The three-dimensional position information is, for example, three-dimensional coordinates (for example, world coordinates) of an object included in the imaging range of the imaging unit 1a. That is, the imaging unit 1a generates three-dimensional image data as captured image data.

撮像部1aは、立体形状の検査対象9を含む三次元空間W1を撮像して、撮像画像のデータを生成する。本実施形態では、配筋91、92のうち配筋91を検査対象9とする。そこで、作業者H1は、撮像画像に配筋91が写るようにタブレット端末T1を操作する。しかしながら、配筋91、92の配置、及び作業者H1の位置によっては、配筋91だけでなく、配筋92も撮像画像に写り込むことがある。 The image capturing unit 1a captures an image of a three-dimensional space W1 including a three-dimensional inspection object 9, and generates captured image data. In this embodiment, the reinforcement 91 among the reinforcements 91 and 92 is the inspection object 9 . Therefore, the worker H1 operates the tablet terminal T1 so that the bar arrangement 91 appears in the captured image. However, not only the reinforcement 91 but also the reinforcement 92 may appear in the captured image depending on the arrangement of the reinforcements 91 and 92 and the position of the worker H1.

そして、撮像部1aは、撮像画像のデータをリアルタイムの動画データとして出力する。すなわち、撮像部1aは、撮像画像のデータとして、移動可能な撮像部1aによって撮像されたライブビュー画像のデータを生成する。 Then, the imaging unit 1a outputs the data of the captured image as real-time moving image data. That is, the image capturing unit 1a generates data of a live view image captured by the movable image capturing unit 1a as captured image data.

(2.2.2)画像取得部
画像取得部1bは、撮像部1aから、ライブビュー画像のデータ(撮像画像のデータ)を取得する。
(2.2.2) Image Acquisition Unit The image acquisition unit 1b acquires live view image data (captured image data) from the imaging unit 1a.

なお、本実施形態では、撮像部1aと画像取得部1bとが同一の装置であるタブレット端末T1に設けられているが、撮像部1aは、タブレット端末T1とは別体に設けられていてもよい。 In the present embodiment, the imaging unit 1a and the image acquisition unit 1b are provided in the same tablet terminal T1, but the imaging unit 1a may be provided separately from the tablet terminal T1. good.

(2.2.3)表示制御部
表示制御部1cは、画像取得部1bが取得した撮像画像を画面D1に表示する。画面D1は、例えば液晶ディスプレイ又は有機ELディスプレイなどである。本実施形態の画面D1は、タブレット端末T1が具備するディスプレイ装置である。
(2.2.3) Display Control Unit The display control unit 1c displays the captured image acquired by the image acquisition unit 1b on the screen D1. The screen D1 is, for example, a liquid crystal display or an organic EL display. The screen D1 of this embodiment is a display device provided in the tablet terminal T1.

そして、表示制御部1cは、画像取得部1bが取得したライブビュー画像のデータを入力され、ライブビュー画像を画面D1に表示する。 Then, the display control unit 1c receives the data of the live view image acquired by the image acquisition unit 1b, and displays the live view image on the screen D1.

タブレット端末T1を携行している作業者H1は、画面D1を見ることで、撮像画像を確認できる。本実施形態の撮像画像は、ライブビュー画像であるので、作業者H1は、撮像画像をリアルタイムでモニタできる。 The worker H1 carrying the tablet terminal T1 can confirm the captured image by looking at the screen D1. Since the captured image in this embodiment is a live view image, the worker H1 can monitor the captured image in real time.

図4は、画面D1に表示されている撮像画像G1である。撮像画像G1には、検査対象9である配筋91だけでなく、検査対象9でない配筋92も写っている。撮像画像G1では、配筋91が写っている領域をQ91とし、配筋92が写っている領域をQ92としている。撮像画像G1のデータは、領域Q91の三次元の位置情報、及び領域Q92の三次元の位置情報を含んでいる。 FIG. 4 shows the captured image G1 displayed on the screen D1. In the captured image G1, not only the bar arrangement 91 that is the inspection target 9 but also the bar arrangement 92 that is not the inspection target 9 are shown. In the captured image G1, Q91 is the region where the bar arrangement 91 is shown, and Q92 is the region where the bar arrangement 92 is shown. The data of the captured image G1 includes three-dimensional positional information of the area Q91 and three-dimensional positional information of the area Q92.

(2.2.4)操作部
操作部1dは、画面D1に重ねて配置されたタッチセンサであり、画面D1と操作部1dとでタッチパネルを構成している。作業者H1は、タッチセンサである操作部1dを指又はタッチペンで触れることで、画面D1上で撮像画像G1における任意の位置を指定できる。撮像画像G1における任意の位置は、例えば撮像画像G1における任意の点、線、及び範囲などである。
(2.2.4) Operation Unit The operation unit 1d is a touch sensor placed over the screen D1, and the screen D1 and the operation unit 1d constitute a touch panel. The operator H1 can specify an arbitrary position in the captured image G1 on the screen D1 by touching the operation unit 1d, which is a touch sensor, with a finger or a touch pen. An arbitrary position in the captured image G1 is, for example, an arbitrary point, line, range, or the like in the captured image G1.

例えば、作業者H1は、撮像画像G1において配筋91が写っている領域Q91内の少なくとも1点、又は領域Q91近傍の少なくとも1点を指定する。 For example, the worker H1 designates at least one point in the area Q91 where the reinforcement arrangement 91 is shown in the captured image G1, or at least one point in the vicinity of the area Q91.

本実施形態では、配筋91の輪郭は6つの面を有する矩形体状である。そして、作業者H1は、領域Q91において配筋91の矩形体状の輪郭を構成する6つの面のうち少なくとも1つの面が写るように、配筋91を斜めから撮像する(図4では、3つの面が写るように、配筋91を斜めから撮像している)。そして、作業者H1は、図5に示すように、配筋91が写っている領域Q91に対して、矩形体状の検査範囲R1(図6参照)の輪郭の4つの頂点にそれぞれ対応する4つの点P1-P4を指定する。点P1は、矩形体状の輪郭の互いに直交する3つの面に共通する頂点に対応する。点P2-P4のそれぞれは、矩形体の互いに直交する3つの面に共通する頂点から延びる3辺の各端に対応する。すなわち、作業者H1は、撮像画像G1において4つの点P1-P4を指定することで、検査範囲R1(図6参照)の輪郭を構成する6つの矩形状の面のうち、互いに直交する3つの面に対応する領域を、撮像画像G1内に指定することができる。 In this embodiment, the outline of the bar arrangement 91 is a rectangular body having six faces. Then, the worker H1 takes an image of the bar arrangement 91 from an oblique angle so that at least one of the six planes forming the rectangular contour of the bar arrangement 91 is captured in the region Q91 (in FIG. 4, three The bar arrangement 91 is imaged obliquely so that two planes are captured). Then, as shown in FIG. 5, the worker H1 places four points corresponding to the four vertices of the outline of the rectangular inspection range R1 (see FIG. 6) on the area Q91 where the reinforcement arrangement 91 is shown. Designate two points P1-P4. A point P1 corresponds to a vertex common to three mutually orthogonal surfaces of the rectangular outline. Each of points P2-P4 corresponds to each end of three sides extending from a vertex common to three mutually orthogonal faces of the rectangular body. That is, the operator H1 designates four points P1 to P4 in the captured image G1, so that, of the six rectangular planes forming the outline of the inspection range R1 (see FIG. 6), the three planes perpendicular to each other. A region corresponding to the plane can be specified in the captured image G1.

図5では、配筋91の全体が写っている領域Q91に対して4つの点P1-P4を指定することで、検査範囲R1(図6参照)には配筋91の全体が写っている。しかしながら、領域Q91に配筋91の全体が写っておらず、配筋91の一部が写っていることもある。このような場合でも、上述のように、領域Q91に対して、矩形体状の検査範囲R1(図6参照)の輪郭の4つの頂点にそれぞれ対応する4つの点P1-P4を指定することで、配筋91の一部が写っている範囲を検査範囲とすることができる。 In FIG. 5, by designating four points P1-P4 for an area Q91 in which the entire bar arrangement 91 is shown, the entire bar arrangement 91 is shown in the inspection range R1 (see FIG. 6). However, the entire bar arrangement 91 may not be shown in the area Q91, and a part of the bar arrangement 91 may be shown. Even in such a case, as described above, by designating four points P1 to P4 respectively corresponding to the four vertices of the outline of the rectangular inspection range R1 (see FIG. 6) for the area Q91, , a range in which a part of the bar arrangement 91 is shown can be set as an inspection range.

なお、操作部1dは、マウス、及びキーボードなどであってもよい。 Note that the operation unit 1d may be a mouse, a keyboard, or the like.

(2.2.5)検査範囲設定部
検査範囲設定部1eは、作業者H1が撮像画像G1内に指定した位置に基づいて、図6に示す検査範囲R1を撮像画像G1内に設定する。検査範囲R1は、撮像画像G1において検査対象である配筋91が写っている領域Q91を含む。
(2.2.5) Inspection Range Setting Section The inspection range setting section 1e sets an inspection range R1 shown in FIG. 6 within the captured image G1 based on the position designated by the operator H1 within the captured image G1. The inspection range R1 includes a region Q91 in which the reinforcement arrangement 91 to be inspected is shown in the captured image G1.

検査範囲設定部1eは、撮像画像G1に設定された4つの点P1-P4に基づいて、撮像画像G1内に検査範囲R1を設定する。 The inspection range setting unit 1e sets an inspection range R1 in the captured image G1 based on the four points P1 to P4 set in the captured image G1.

具体的に、検査範囲設定部1eは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果に基づいて、撮像画像G1における鉛直方向及び水平方向を認識できる。また、検査範囲設定部1eは、モーションセンサの検出結果と、撮像画像G1の変化(画像フレームの差分)との少なくとも一方(両方でもよい)を用いて、タブレット端末T1の位置及び向きを認識できる。そこで、検査範囲設定部1eは、撮像画像G1において、4つの点P1-P4が4つの頂点に対応する矩形体を撮像した撮像領域を検査範囲R1(図6参照)として設定する。本実施形態では、配筋の矩形体状の輪郭は、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提としており、検査範囲設定部1eは、この前提の下で、4つの点P1-P4を4つの頂点として有する矩形体を撮像した撮像領域を推定する。 Specifically, the inspection range setting unit 1e recognizes the vertical direction and horizontal direction in the captured image G1 based on the detection results of a motion sensor such as an acceleration sensor, a gyro sensor, or an inclination sensor built in the tablet terminal T1. can. In addition, the inspection range setting unit 1e can recognize the position and orientation of the tablet terminal T1 using at least one (or both) of the detection result of the motion sensor and the change in the captured image G1 (difference between image frames). . Therefore, the inspection range setting unit 1e sets, as an inspection range R1 (see FIG. 6), an imaging area obtained by imaging a rectangular object in which the four points P1 to P4 correspond to the four vertices in the captured image G1. In this embodiment, it is assumed that the rectangular contour of the bar arrangement is composed of eight sides extending in the vertical direction and the horizontal direction in the three-dimensional space W1. Under this premise, an imaging area is estimated in which a rectangular body having four points P1 to P4 as its vertices is imaged.

したがって、検査システム1は、配筋91が写っている領域Q91を配筋92が写っている領域Q92と区別して、領域Q92を検査範囲に含めることなく、領域Q91を検査範囲R1とすることができる。すなわち、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。 Therefore, the inspection system 1 can distinguish the area Q91 in which the reinforcement arrangement 91 is shown from the area Q92 in which the reinforcement arrangement 92 is shown, and set the area Q91 as the inspection range R1 without including the area Q92 in the inspection range. can. That is, the inspection system 1 can more accurately set the inspection range R1 in the captured image G1.

(2.2.6)マーカ生成部
マーカ生成部1fは、撮像画像G1における検査範囲R1を示すマーカ画像M1(図8参照)を生成する。
(2.2.6) Marker Generation Unit The marker generation unit 1f generates a marker image M1 (see FIG. 8) indicating the inspection range R1 in the captured image G1.

本実施形態では、マーカ生成部1fは、4つの点P1-P4を頂点とする互いに直交する3つの面を含む矩形体状の三次元モデルK1(図7参照)を生成する。矩形体の対称性から、矩形体の外面を構成する6つの面のうち互いに直交する3つの面がわかっていれば、矩形体の外面を構成する残りの3つの面を推定することは可能である。そこで、マーカ生成部1fは、4つの点P1-P4が4つの頂点に対応する矩形体状の三次元モデルK1を生成する。すなわち、マーカ生成部1fは、三次元モデルK1の形状を、撮像画像G1において4つの点P1-P4によって指定された、互いに直交する3つの面を含む矩形体の形状としている。 In this embodiment, the marker generator 1f generates a rectangular three-dimensional model K1 (see FIG. 7) including three mutually orthogonal surfaces with four points P1 to P4 as vertices. From the symmetry of the rectangular body, if three of the six faces that make up the outer surface of the rectangular body are known, it is possible to estimate the remaining three faces that make up the outer surface of the rectangular body. be. Therefore, the marker generator 1f generates a rectangular three-dimensional model K1 in which the four points P1 to P4 correspond to the four vertices. That is, the marker generation unit 1f sets the shape of the three-dimensional model K1 to a rectangular shape including three mutually orthogonal planes specified by the four points P1 to P4 in the captured image G1.

そして、マーカ生成部1fは、三次元モデルK1を撮像画像G1に透視投影することで、図8に示すマーカ画像M1を生成する。このマーカ画像M1は、三次元モデルK1を撮像画像G1内に透視投影した領域に生成され、三次元モデルK1を撮像画像G1内に表示した立体図形画像となる。この結果、表示制御部1cは、図8に示すように、マーカ画像M1を撮像画像G1に重畳させて画面D1に表示する。マーカ画像M1は、撮像画像G1と区別できるように、色、パターン、模様を有する画像である。撮像画像G1におけるマーカ画像M1の範囲は、検査範囲R1と同じになる。すなわち、撮像画像G1に対するマーカ画像M1の範囲は、配筋91が写っている領域Q91を含んでいる。 Then, the marker generator 1f generates a marker image M1 shown in FIG. 8 by perspectively projecting the three-dimensional model K1 onto the captured image G1. The marker image M1 is generated in a region obtained by perspectively projecting the three-dimensional model K1 in the captured image G1, and becomes a solid figure image displaying the three-dimensional model K1 in the captured image G1. As a result, the display control unit 1c superimposes the marker image M1 on the captured image G1 and displays it on the screen D1, as shown in FIG. The marker image M1 is an image having colors, patterns, and patterns so that it can be distinguished from the captured image G1. The range of the marker image M1 in the captured image G1 is the same as the inspection range R1. That is, the range of the marker image M1 with respect to the captured image G1 includes the area Q91 where the bar arrangement 91 is shown.

したがって、作業者H1は、画面D1に表示された撮像画像G1内のマーカ画像M1を見ることで、撮像画像G1内の検査範囲R1を確認できる。この結果、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。 Therefore, the operator H1 can confirm the inspection range R1 in the captured image G1 by viewing the marker image M1 in the captured image G1 displayed on the screen D1. As a result, the inspection system 1 can more accurately set the inspection range R1 in the captured image G1.

(2.2.7)マーカ処理部
検査システム1は、上述のように撮像画像G1に検査範囲R1及びマーカ画像M1を設定した後、以降の撮像画像G1とマーカ画像M1とを連動させる。すなわち、マーカ画像M1の範囲を検査範囲R1とみなすことができ、検査範囲R1は、マーカ画像M1の変化に追従して、マーカ画像M1と同様に変化する。
(2.2.7) Marker Processing Section After setting the inspection range R1 and the marker image M1 in the captured image G1 as described above, the inspection system 1 links the subsequent captured image G1 and the marker image M1. That is, the range of the marker image M1 can be regarded as the inspection range R1, and the inspection range R1 follows the change of the marker image M1 and changes in the same manner as the marker image M1.

本実施形態では、マーカ処理部1gは、画面D1に表示されているマーカ画像M1に対して、移動、回転、拡大、及び縮小の少なくとも1つの処理を施す。 In this embodiment, the marker processing unit 1g performs at least one process of movement, rotation, enlargement, and reduction on the marker image M1 displayed on the screen D1.

本実施形態では、マーカ処理部1gは、操作部1dに対する作業者H1の操作に応じて、画面D1に表示されているマーカ画像M1に対して、移動、回転、拡大、及び縮小の各処理を施す。 In this embodiment, the marker processing unit 1g moves, rotates, enlarges, and reduces the marker image M1 displayed on the screen D1 in accordance with the operation of the operator H1 on the operation unit 1d. Apply.

具体的に、作業者H1は、画面D1に重なっているタッチセンサである操作部1dを指又はタッチペンで操作する。作業者H1は、画面D1に表示されているマーカ画像M1に対してスライド操作を行うことで、マーカ画像M1を移動又は回転させる。作業者H1は、画面D1に表示されているマーカ画像M1に対してピンチアウト操作を行うことで、マーカ画像M1を拡大する。作業者H1は、画面D1に表示されているマーカ画像M1に対してピンチイン操作を行うことで、マーカ画像M1を縮小する。 Specifically, the worker H1 operates the operation unit 1d, which is a touch sensor overlapping the screen D1, with a finger or a touch pen. The operator H1 moves or rotates the marker image M1 by performing a slide operation on the marker image M1 displayed on the screen D1. The operator H1 enlarges the marker image M1 by performing a pinch-out operation on the marker image M1 displayed on the screen D1. The worker H1 reduces the size of the marker image M1 by performing a pinch-in operation on the marker image M1 displayed on the screen D1.

マーカ処理部1gは、マーカ画像M1に対する移動、回転、拡大、及び縮小の各処理を三次元モデルK1に反映させて、投影面に対する三次元モデルK1の移動、並びに三次元モデルK1の回転、拡大、及び縮小の各補正処理を行う。 The marker processing unit 1g reflects each process of moving, rotating, enlarging, and reducing the marker image M1 on the three-dimensional model K1, thereby moving the three-dimensional model K1 with respect to the projection plane, and rotating and enlarging the three-dimensional model K1. , and reduction are performed.

検査範囲設定部1eは、マーカ画像M1に対する移動、回転、拡大、及び縮小の各処理に応じて、マーカ画像M1に対する処理と同様に、検査範囲R1に移動、回転、拡大、及び縮小の各補正処理を施す。すなわち、検査範囲設定部1eは、マーカ画像M1に対して施された処理に応じて、検査範囲R1を修正する。 The inspection range setting unit 1e performs each correction of movement, rotation, enlargement, and reduction on the inspection range R1 in the same manner as the processing for the marker image M1, in accordance with each process of movement, rotation, enlargement, and reduction of the marker image M1. process. That is, the inspection range setting unit 1e corrects the inspection range R1 according to the processing performed on the marker image M1.

したがって、検査システム1は、マーカ画像M1の表示領域の修正を行うことで、検査範囲R1を修正できる。この結果、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。 Therefore, the inspection system 1 can correct the inspection range R1 by correcting the display area of the marker image M1. As a result, the inspection system 1 can more accurately set the inspection range R1 in the captured image G1.

(2.2.8)検査部
検査部1hは、撮像画像G1の検査範囲R1に画像認識処理を施すことで、検査対象9である配筋91の検査を行う。
(2.2.8) Inspection Unit The inspection unit 1h inspects the bar arrangement 91, which is the inspection target 9, by performing image recognition processing on the inspection range R1 of the captured image G1.

具体的に、検査部1hは、撮像画像G1の検査範囲R1に対して、二値化処理、フィルタリング処理、エッジ抽出処理などを施すことで、検査範囲R1の特徴量を抽出する。また、検査部1hは、通信部1iを介してサーバ装置2の設計情報記憶部2aから設計情報を取得する。設計情報は、配筋91の設計仕様として、複数の鉄筋9aの配置及び組み方、並びに鉄筋9aのサイズなどの情報を含んでいる。そして、検査部1hは、検査範囲R1の特徴量を設計情報と比較することで、配筋91が設計仕様を満たしているか否かを判定する。検査部1hは、当該判定結果を配筋91の検査結果とし、配筋91の検査結果を通知するための画像データとして、検査通知データを生成する。 Specifically, the inspection unit 1h extracts the feature amount of the inspection range R1 by performing binarization processing, filtering processing, edge extraction processing, and the like on the inspection range R1 of the captured image G1. The inspection unit 1h also acquires design information from the design information storage unit 2a of the server device 2 via the communication unit 1i. The design information includes, as design specifications of the bar arrangement 91, information such as the arrangement and arrangement of the plurality of reinforcing bars 9a and the size of the reinforcing bars 9a. Then, the inspection unit 1h determines whether or not the bar arrangement 91 satisfies the design specifications by comparing the feature amount of the inspection range R1 with the design information. The inspection unit 1 h uses the determination result as the inspection result of the reinforcement arrangement 91 and generates inspection notification data as image data for notifying the inspection result of the reinforcement arrangement 91 .

表示制御部1cは、配筋91の検査通知データを画面D1に表示する。したがって、作業者H1は、画面D1に表示された検査通知データを見ることで、配筋91の検査結果を確認できる。 The display control unit 1c displays the inspection notification data of the bar arrangement 91 on the screen D1. Therefore, the worker H1 can confirm the inspection result of the bar arrangement 91 by looking at the inspection notification data displayed on the screen D1.

(2.2.9)通信部
通信部1iは、インターネットを含むネットワークNT1に接続し、ネットワークNT1上の機器と通信を行い、信号の送信及び受信を行う通信インタフェースの機能を有する。ネットワークNT1には、サーバ装置2が接続しており、通信部1iは、ネットワークNT1を介して、サーバ装置2と通信を行うことができる。
(2.2.9) Communication Unit The communication unit 1i connects to the network NT1 including the Internet, communicates with devices on the network NT1, and has a function of a communication interface for transmitting and receiving signals. A server device 2 is connected to the network NT1, and the communication unit 1i can communicate with the server device 2 via the network NT1.

サーバ装置2は、例えば建築物の設計又は施工を請け負った業者によって管理されており、設計情報記憶部2aを備えている。設計情報記憶部2aは、建築物の仕様、設計及び施工に関する各種情報を記憶している。設計情報記憶部2aが記憶している情報には、配筋91、92の設計情報も含まれている。 The server device 2 is managed by, for example, a building design or construction contractor, and includes a design information storage unit 2a. The design information storage unit 2a stores various types of information regarding the specifications, design and construction of buildings. The information stored in the design information storage unit 2a also includes the design information of the bar arrangements 91 and 92. FIG.

したがって、検査システム1は、通信部1iを介してサーバ装置2から配筋91、92の設計情報などを取得できる。 Therefore, the inspection system 1 can acquire the design information of the bar arrangements 91 and 92 from the server device 2 via the communication unit 1i.

(2.2.10)撮像画像とマーカ画像との連動
上述のように、検査システム1は、配筋91を撮像した撮像画像G1に検査範囲R1及びマーカ画像M1を設定して配筋91の検査を行う。
(2.2.10) Interlocking Captured Image and Marker Image As described above, the inspection system 1 sets the inspection range R1 and the marker image M1 in the captured image G1 of the bar arrangement 91, and conduct an inspection.

そして、検査システム1は、撮像画像G1に検査範囲R1及びマーカ画像M1を設定した後、以降の撮像画像G1と、マーカ画像M1及び検査範囲R1と、を連動させる。作業者H1がタブレット端末T1で配筋91を撮像しながら三次元空間W1内を移動すると、画面D1に表示されている撮像画像G1が変化し、撮像画像G1において配筋91が写っている領域Q91も変化する。タブレット端末T1が三次元空間W1内を移動すると、撮像画像G1におけるマーカ画像M1及び検査範囲R1の位置及び形状も変化させる。 After setting the inspection range R1 and the marker image M1 in the captured image G1, the inspection system 1 links the subsequent captured image G1 with the marker image M1 and the inspection range R1. When the worker H1 moves in the three-dimensional space W1 while imaging the reinforcement arrangement 91 with the tablet terminal T1, the captured image G1 displayed on the screen D1 changes, and the area where the reinforcement arrangement 91 is shown in the captured image G1. Q91 also changes. When the tablet terminal T1 moves within the three-dimensional space W1, the positions and shapes of the marker image M1 and the inspection range R1 in the captured image G1 are also changed.

具体的に、撮像画像G1は、三次元の位置情報を含む。そこで、マーカ生成部1fは、撮像画像G1の検査範囲R1(すなわち、領域Q91)における三次元の位置情報を用いて、三次元空間W1における配筋91(検査対象9)の位置を示す座標情報として、三次元座標(例えばワールド座標)の情報を取得する。また、マーカ生成部1fは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果、及び撮像画像G1の変化(画像フレームの差分)の少なくとも一方(両方でもよい)に基づいて、タブレット端末T1の移動距離及び移動方向を検知できる。そこで、マーカ生成部1fは、タブレット端末T1の移動距離及び移動方向に基づいて、三次元空間W1における配筋91の位置を示す三次元座標を補正する。すなわち、マーカ生成部1fは、タブレット端末T1が移動しても、撮像部1aに対する配筋91の位置を検出できる。 Specifically, the captured image G1 includes three-dimensional position information. Therefore, the marker generation unit 1f uses the three-dimensional positional information in the inspection range R1 (that is, the area Q91) of the captured image G1 to obtain coordinate information indicating the position of the bar arrangement 91 (inspection target 9) in the three-dimensional space W1. , to obtain information on three-dimensional coordinates (for example, world coordinates). In addition, the marker generation unit 1f generates at least one (both may be used), the moving distance and moving direction of the tablet terminal T1 can be detected. Therefore, the marker generation unit 1f corrects the three-dimensional coordinates indicating the position of the bar arrangement 91 in the three-dimensional space W1 based on the moving distance and moving direction of the tablet terminal T1. That is, the marker generation unit 1f can detect the position of the bar arrangement 91 with respect to the imaging unit 1a even if the tablet terminal T1 moves.

そして、マーカ生成部1fは、配筋91の位置を示す三次元座標に基づいて、撮像画像G1に対する三次元モデルK1の投影距離及び投影方向を調整することで、撮像画像G1におけるマーカ画像M1の位置及び形状を、撮像画像G1における検査範囲R1の変化に追従させる。 Then, the marker generation unit 1f adjusts the projection distance and the projection direction of the three-dimensional model K1 with respect to the captured image G1 based on the three-dimensional coordinates indicating the position of the bar arrangement 91, thereby making the marker image M1 in the captured image G1 The position and shape are made to follow changes in the inspection range R1 in the captured image G1.

また、検査範囲設定部1eは、マーカ画像M1と同様に検査範囲R1を変化させる。 Also, the inspection range setting unit 1e changes the inspection range R1 in the same manner as the marker image M1.

したがって、検査システム1は、撮像画像G1がライブビュー画像であっても、マーカ画像M1を撮像画像G1に連動させることができる。また、検査システム1は、撮像画像G1がライブビュー画像であっても、検査範囲R1を撮像画像G1に連動させることができる。 Therefore, the inspection system 1 can link the marker image M1 with the captured image G1 even if the captured image G1 is a live view image. Further, the inspection system 1 can link the inspection range R1 with the captured image G1 even if the captured image G1 is a live view image.

(2.2.11)検査方法
上述の検査システム1による検査方法をまとめると、図9のフローチャートで表される。例えば、検査システム1が備えるコンピュータシステムがプログラムを実行することで、検査方法は実行される。
(2.2.11) Inspection Method The inspection method by the inspection system 1 described above is summarized in the flow chart of FIG. For example, the inspection method is executed by the computer system included in the inspection system 1 executing a program.

検査方法は、画像取得ステップS1と、表示ステップS2と、検査範囲設定ステップS3と、検査ステップS5と、を備える。また、検査方法は、マーカ画像設定ステップS4を更に備えることが好ましい。 The inspection method includes an image acquisition step S1, a display step S2, an inspection range setting step S3, and an inspection step S5. Moreover, it is preferable that the inspection method further includes a marker image setting step S4.

画像取得ステップS1では、画像取得部1bは、撮像画像G1のデータを取得する。撮像画像G1は、立体形状の検査対象9を撮像した画像であり、三次元の位置情報を含む。 In the image acquisition step S1, the image acquisition unit 1b acquires data of the captured image G1. The captured image G1 is an image obtained by capturing the three-dimensional inspection object 9, and includes three-dimensional position information.

表示ステップS2では、表示制御部1cは、撮像画像G1を画面D1に表示する。 In the display step S2, the display control unit 1c displays the captured image G1 on the screen D1.

検査範囲設定ステップS3では、検査範囲設定部1eは、作業者H1の操作によって、撮像画像G1において検査対象9が写っている範囲を示す検査範囲R1を設定する。 In the inspection range setting step S3, the inspection range setting unit 1e sets an inspection range R1 indicating the range in which the inspection target 9 is shown in the captured image G1 by the operation of the operator H1.

マーカ画像設定ステップS4では、マーカ生成部1fは、撮像画像G1において検査範囲R1を示すマーカ画像M1を生成し、マーカ画像M1を撮像画像G1に重畳して画面D1に表示させる。 In the marker image setting step S4, the marker generation unit 1f generates a marker image M1 indicating the inspection range R1 in the captured image G1, superimposes the marker image M1 on the captured image G1, and displays it on the screen D1.

検査ステップS5では、検査部1hは、検査範囲R1に画像認識処理を施すことで、検査対象9の検査を行う。 In the inspection step S5, the inspection unit 1h inspects the inspection object 9 by performing image recognition processing on the inspection range R1.

上述の検査方法は、撮像画像G1内の検査範囲R1をより正確に設定できる。 The inspection method described above can more accurately set the inspection range R1 in the captured image G1.

(3)第1変形例
マーカ生成部1fは、撮像画像、及び撮像画像におけるマーカ画像の範囲を教師データとする機械学習によって構築された学習モデルに撮像画像G1を入力することで、マーカ画像M1が重畳した撮像画像G1を学習モデルから取得してもよい。
(3) First Modification The marker generation unit 1f inputs the captured image G1 to a learning model constructed by machine learning using the captured image and the range of the marker image in the captured image as teacher data, thereby generating the marker image M1. may be acquired from the learning model.

具体的に、多数の教師データを用いた学習による学習モデルを構築しておく。学習モデルは、ディープラーニング(Deep Learning)などの機械学習によって構築されたニューラルネットワークを用いることが好ましい。また、学習モデルは、サポートベクターマシン(Support Vector Machine)などの他のアルゴリズムを用いてもよい。 Specifically, a learning model is constructed by learning using a large amount of teacher data. The learning model preferably uses a neural network constructed by machine learning such as deep learning. The learning model may also use other algorithms such as Support Vector Machine.

学習モデルを構築する機械学習システムは、検査システム1が備える構成、検査システム1の外部に設けられる構成のいずれでもよい。 A machine learning system that constructs a learning model may be either a configuration included in the inspection system 1 or a configuration provided outside the inspection system 1 .

(4)第2変形例
検査範囲設定部1eは、検査対象9の寸法の情報を用いて検査範囲を設定してもよい。
(4) Second Modification The inspection range setting unit 1 e may set the inspection range using information on the dimensions of the inspection object 9 .

以下、図10の撮像画像G11を用いて説明する。 Hereinafter, the captured image G11 in FIG. 10 will be used for description.

画面D1に表示されている撮像画像G11は、領域Q93、Q94を含む。領域Q93に写っている配筋は、柱の配筋である。領域Q94に写っている配筋は、基礎の配筋である。基礎の配筋の輪郭は、水平に延びる矩形板状に形成されており、柱の配筋の輪郭は、鉛直方向に長い矩形体状に形成されている。本変形例では、作業者H1は、領域Q93に写っている柱の配筋を検査対象9として、柱の配筋を正面から撮像している。 A captured image G11 displayed on the screen D1 includes areas Q93 and Q94. The reinforcement arrangement shown in the region Q93 is the reinforcement arrangement of the column. The bar arrangement shown in the region Q94 is the base bar arrangement. The outline of the reinforcement of the foundation is formed in the shape of a horizontally extending rectangular plate, and the outline of the reinforcement of the column is formed in the shape of a vertically elongated rectangular body. In this modified example, the worker H1 captures an image of the reinforcement arrangement of the column from the front, with the reinforcement arrangement of the column shown in the area Q93 as the inspection object 9 .

作業者H1は、タブレット端末T1を操作することで、サーバ装置2の設計情報記憶部2aから通信部1iを介して、領域Q93に対応する柱の配筋(検査対象9である配筋)の設計情報をタブレット端末T1に予めダウンロード(タブレット端末T1に予め保存)しておく。設計情報は、領域Q93に対応する柱の配筋の設計仕様として、配筋の寸法情報を含んでいる。 By operating the tablet terminal T1, the worker H1 obtains the bar arrangement of the column corresponding to the area Q93 (the bar arrangement as the inspection target 9) from the design information storage unit 2a of the server device 2 via the communication unit 1i. The design information is previously downloaded to the tablet terminal T1 (previously stored in the tablet terminal T1). The design information includes dimensional information of the bar arrangement as the design specification of the bar arrangement of the column corresponding to the region Q93.

そして、作業者H1は、図10に示すように、領域Q93に対して3つの点P11-P13を指定することで、柱の配筋の矩形体状の輪郭の1つの面を領域Q93に対して指定する。点P11-P13は、配筋の矩形体状の輪郭の前面を規定する。すなわち、作業者H1は、撮像画像G11において3つの点P11-P13を指定することで、配筋の輪郭を構成する6つの矩形状の面のうち、1つの面に対応する領域を撮像画像G11内に指定することができる。 Then, as shown in FIG. 10, the operator H1 designates three points P11-P13 for the area Q93, thereby making one face of the rectangular contour of the bar arrangement of the column for the area Q93. to specify. Points P11-P13 define the front face of the rectangular contour of the reinforcement. That is, the operator H1 designates three points P11 to P13 in the captured image G11, and thereby selects an area corresponding to one of the six rectangular surfaces forming the contour of the reinforcement arrangement in the captured image G11. can be specified within

検査範囲設定部1eは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果に基づいて、撮像画像G11における鉛直方向及び水平方向を認識できる。また、検査範囲設定部1eは、モーションセンサの検出結果と、撮像画像G1の変化(画像フレームの差分)との少なくとも一方(両方でもよい)を用いて、タブレット端末T1の位置及び向きを認識できる。そこで、検査範囲設定部1eは、撮像画像G11において指定された3つの点P11-P13を、領域Q93に写っている配筋の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、3つの点P11-P13で規定される1つの面を含む矩形体を撮像した撮像領域に相当する。 The inspection range setting unit 1e can recognize the vertical direction and horizontal direction in the captured image G11 based on the detection result of the motion sensor such as an acceleration sensor, a gyro sensor, or an inclination sensor built in the tablet terminal T1. In addition, the inspection range setting unit 1e can recognize the position and orientation of the tablet terminal T1 using at least one (or both) of the detection result of the motion sensor and the change in the captured image G1 (difference between image frames). . Therefore, the inspection range setting unit 1e determines the inspection range R11 (see FIG. 11) by collating the three points P11-P13 specified in the captured image G11 with the design information of the bar arrangement shown in the region Q93. set. This inspection range R11 corresponds to an imaging area obtained by imaging a rectangular object including one plane defined by three points P11-P13.

したがって、検査システム1は、検査対象の配筋が写っている領域Q93を、検査対象9ではない配筋が写っている領域Q94と区別して、領域Q94を検査範囲に含めることなく、領域Q93を検査範囲R11とすることができる。すなわち、検査システム1は、撮像画像G11内の検査範囲R11をより正確に設定できる。 Therefore, the inspection system 1 distinguishes the area Q93 where the reinforcement arrangement to be inspected is shown from the area Q94 where the reinforcement arrangement which is not the inspection target 9 is shown, and does not include the area Q94 in the inspection range. It can be an inspection range R11. That is, the inspection system 1 can more accurately set the inspection range R11 in the captured image G11.

また、検査システム1は、配筋93の寸法の情報を用いることで、作業者H1の操作を簡略化できる。 Moreover, the inspection system 1 can simplify the operation of the operator H1 by using the information on the dimensions of the bar arrangement 93 .

そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。 Then, the marker generator 1f generates a marker image M11 (see FIG. 13) indicating the inspection range R11 in the captured image G11.

本実施形態では、マーカ生成部1fは、検査対象9である配筋の寸法の情報を用いて、撮像画像G11において指定された1つの面を含む矩形体状の三次元モデルK11(図12参照)を生成する。すなわち、マーカ生成部1fは、撮像画像G11において指定された3つの点P11-P13を、検査対象9である配筋の設計情報と照合することで、矩形体状の三次元モデルK11を生成する。すなわち、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において3つの点P11-P13によって指定された1つの面を含む矩形体の形状としている。 In the present embodiment, the marker generation unit 1f uses information about the dimensions of the reinforcement arrangement, which is the inspection target 9, to generate a rectangular three-dimensional model K11 (see FIG. 12) including one surface specified in the captured image G11. ). That is, the marker generation unit 1f generates a rectangular three-dimensional model K11 by collating the three points P11 to P13 specified in the captured image G11 with the design information of the bar arrangement that is the inspection target 9. . That is, the marker generator 1f sets the shape of the three-dimensional model K11 to a rectangular shape including one surface designated by the three points P11-P13 in the captured image G11.

そして、マーカ生成部1fは、三次元モデルK11を撮像画像G11に透視投影することで、図13に示すマーカ画像M11を生成する。このマーカ画像M11は、三次元モデルK11を撮像画像G11内に透視投影した領域に生成され、三次元モデルK11を撮像画像G11内に表示した立体図形画像となる。この結果、表示制御部1cは、図13に示すように、マーカ画像M11を撮像画像G11に重畳させて画面D1に表示する。マーカ画像M11は、撮像画像G11と区別できるように、色、パターン、模様を有する画像である。撮像画像G11におけるマーカ画像M11の範囲は、検査範囲R11と同じになる。すなわち、撮像画像G11に対するマーカ画像M11の範囲は、検査対象9となる配筋が写っている領域Q93を含んでいる。 Then, the marker generator 1f generates a marker image M11 shown in FIG. 13 by perspectively projecting the three-dimensional model K11 onto the captured image G11. This marker image M11 is generated in a region obtained by perspectively projecting the three-dimensional model K11 in the captured image G11, and becomes a solid figure image displaying the three-dimensional model K11 in the captured image G11. As a result, the display control unit 1c superimposes the marker image M11 on the captured image G11 and displays it on the screen D1, as shown in FIG. The marker image M11 is an image having colors, patterns, and patterns so that it can be distinguished from the captured image G11. The range of the marker image M11 in the captured image G11 is the same as the inspection range R11. That is, the range of the marker image M11 with respect to the captured image G11 includes a region Q93 in which the bar arrangement to be the inspection target 9 is shown.

したがって、作業者H1は、画面D1に表示された撮像画像G11内のマーカ画像M11を見ることで、撮像画像G11内の検査範囲R11を確認できる。この結果、検査システム1は、撮像画像G11内の検査範囲R11をより正確に設定できる。 Therefore, the operator H1 can confirm the inspection range R11 in the captured image G11 by looking at the marker image M11 in the captured image G11 displayed on the screen D1. As a result, the inspection system 1 can more accurately set the inspection range R11 in the captured image G11.

なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の面を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の面を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の面を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の面を含む矩形体の形状とする。 Note that the worker H1 may specify a plurality of surfaces of the rectangular outline of the bar arrangement for the region Q93 of the captured image G11. In this case, the inspection range setting unit 1e compares the plurality of surfaces specified in the captured image G11 with the design information of the bar arrangement (the bar arrangement shown in the area Q93) to be inspected 9, thereby determining the inspection range. Set R11 (see FIG. 11). This inspection range R11 corresponds to an imaging area in which a rectangular body including a plurality of surfaces specified in the captured image G11 is captured. In addition, the marker generation unit 1f sets the shape of the three-dimensional model K11 to a rectangular shape including a plurality of surfaces specified in the captured image G11.

(5)第3変形例
作業者H1は、図14に示すように、画面D1に表示されている撮像画像G11の領域Q93に対して1つの点P21を指定することで、配筋の矩形体状の輪郭の1つの辺を領域Q93に対して指定してもよい。本変形例の点P21は、配筋の矩形体状の輪郭の上前辺を規定する。すなわち、作業者H1は、撮像画像G11において1つの点P21を指定することで、配筋の輪郭を構成する8つの辺のうち、1つの辺を、撮像画像G11内に指定することができる。
(5) Third Modification As shown in FIG. 14, the worker H1 designates one point P21 in the region Q93 of the captured image G11 displayed on the screen D1, thereby forming a rectangle of bar arrangement. One side of the contour of the shape may be specified for region Q93. The point P21 in this modification defines the upper front side of the rectangular contour of the bar arrangement. That is, the worker H1 can designate one side in the captured image G11 by designating one point P21 in the captured image G11, out of the eight sides forming the contour of the bar arrangement.

この場合、検査範囲設定部1eは、撮像画像G11において指定された1つの点P21を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、1つの点P21で規定される1つの辺を含む矩形体を撮像した撮像領域に相当する。 In this case, the inspection range setting unit 1e collates one point P21 specified in the captured image G11 with the design information of the bar arrangement (the bar arrangement shown in the region Q93) to be inspected 9, thereby performing the inspection. A range R11 (see FIG. 11) is set. This inspection range R11 corresponds to an imaging area obtained by imaging a rectangular object including one side defined by one point P21.

そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。ここでは、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において1つの点P21によって指定された1つの辺を含む矩形体の形状としている。 Then, the marker generator 1f generates a marker image M11 (see FIG. 13) indicating the inspection range R11 in the captured image G11. Here, the marker generation unit 1f sets the shape of the three-dimensional model K11 to a rectangular shape including one side designated by one point P21 in the captured image G11.

なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の辺を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の辺を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の辺を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の辺を含む矩形体の形状とする。 Note that the worker H1 may specify a plurality of sides of the rectangular outline of the bar arrangement for the region Q93 of the captured image G11. In this case, the inspection range setting unit 1e compares the plurality of sides specified in the captured image G11 with the design information of the bar arrangement (the bar arrangement shown in the area Q93) to be inspected 9, thereby determining the inspection range. Set R11 (see FIG. 11). This inspection range R11 corresponds to an imaging area obtained by imaging a rectangular body including a plurality of sides specified in the captured image G11. In addition, the marker generation unit 1f sets the shape of the three-dimensional model K11 to a rectangular shape including a plurality of sides designated in the captured image G11.

(6)第4変形例
作業者H1は、図14に示すように、画面D1に表示されている撮像画像G11の領域Q93に対して1つの点P21を指定することで、配筋の矩形体状の輪郭の1つの点を領域Q93に対して指定してもよい。本変形例の点P31は、配筋の矩形体状の輪郭の上前辺に含まれる1点を規定する。
(6) Fourth Modification As shown in FIG. 14, the worker H1 designates one point P21 in the region Q93 of the captured image G11 displayed on the screen D1, thereby forming a rectangle of bar arrangement. A point on the contour of the shape may be designated for region Q93. The point P31 in this modified example defines one point included in the upper front side of the rectangular contour of the reinforcement arrangement.

この場合、検査範囲設定部1eは、撮像画像G11において指定された1つの点P21を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、1つの点P21を含む矩形体を撮像した撮像領域に相当する。 In this case, the inspection range setting unit 1e collates one point P21 specified in the captured image G11 with the design information of the bar arrangement (the bar arrangement shown in the region Q93) to be inspected 9, thereby performing the inspection. A range R11 (see FIG. 11) is set. This inspection range R11 corresponds to an imaging area in which a rectangular object including one point P21 is imaged.

そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。ここでは、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11における1つの点P21を含む矩形体の形状としている。 Then, the marker generator 1f generates a marker image M11 (see FIG. 13) indicating the inspection range R11 in the captured image G11. Here, the marker generator 1f sets the shape of the three-dimensional model K11 to a rectangular shape including one point P21 in the captured image G11.

なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の点を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の点を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の点を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の点を含む矩形体の形状とする。 Note that the operator H1 may specify a plurality of points on the contour of the rectangular shape of the bar arrangement in the area Q93 of the captured image G11. In this case, the inspection range setting unit 1e compares the plurality of points specified in the captured image G11 with the design information of the bar arrangement that is the inspection target 9 (the bar arrangement shown in the region Q93), thereby determining the inspection range. Set R11 (see FIG. 11). This inspection range R11 corresponds to an imaging area obtained by imaging a rectangular object including a plurality of points specified in the captured image G11. In addition, the marker generation unit 1f sets the shape of the three-dimensional model K11 to a rectangular shape including the plurality of points designated in the captured image G11.

(7)第5変形例
図15は、検査システム1の変形例として、検査システム1Aを示す。
(7) Fifth Modification FIG. 15 shows an inspection system 1A as a modification of the inspection system 1. FIG.

検査システム1Aでは、検査部1hがサーバ装置2に設けられている。タブレット端末T1とサーバ装置2とは、ネットワークNT1を介して互いに通信可能に構成されており、検査部1hは、撮像画像の検査範囲に画像認識処理を施すことで、検査対象9の検査を行う。 In the inspection system 1A, an inspection section 1h is provided in the server device 2. FIG. The tablet terminal T1 and the server device 2 are configured to be able to communicate with each other via the network NT1, and the inspection unit 1h inspects the inspection object 9 by performing image recognition processing on the inspection range of the captured image. .

図16は、検査システム1の別の変形例として、検査システム1Bを示す。 FIG. 16 shows an inspection system 1B as another modified example of the inspection system 1. As shown in FIG.

検査システム1Bでは、検査部1hに加えて、検査範囲設定部1e、マーカ生成部1f、及びマーカ処理部1gもサーバ装置2に設けられている。タブレット端末T1とサーバ装置2とは、ネットワークNT1を介して互いに通信可能に構成されており、検査範囲設定部1e、マーカ生成部1f、及びマーカ処理部1gも上記同様の機能を有する。 In the inspection system 1B, the server device 2 is also provided with an inspection range setting unit 1e, a marker generation unit 1f, and a marker processing unit 1g in addition to the inspection unit 1h. The tablet terminal T1 and the server device 2 are configured to be able to communicate with each other via the network NT1, and the inspection range setting section 1e, the marker generating section 1f, and the marker processing section 1g also have the same functions as described above.

検査システム1を構成する各部は、検査システム1のように1つの装置にまとめて設けられる構成、又は検査システム1A、1Bのように2つの装置に分散して設けられる構成に限定されず、3つ以上の装置に分散して設けられる構成であってもよい。 Each unit constituting the inspection system 1 is not limited to a configuration provided collectively in one apparatus like the inspection system 1, or a configuration provided dispersedly in two apparatuses like the inspection systems 1A and 1B. It may be configured to be distributed in one or more devices.

(8)第6変形例
検査システム1は、画面D1を備えていなくてよい。例えば、画面D1は、検査システム1と通信可能に構成されたタブレット端末、スマートフォン、及びパーソナルコンピュータなどの外部端末が備えていてもよい。
(8) Sixth Modification The inspection system 1 may not include the screen D1. For example, the screen D1 may be provided by an external terminal such as a tablet terminal, a smart phone, or a personal computer configured to communicate with the inspection system 1 .

検査対象9は配筋以外の部材、例えば壁紙、配線器具、配線、又は配管などであってもよい。すなわち、検査対象9は、特定の部材に限定されず、三次元の立体形状を有する部材であればよい。 The object 9 to be inspected may be a member other than the bar arrangement, such as wallpaper, a wiring device, wiring, or piping. That is, the inspection object 9 is not limited to a specific member, and may be any member having a three-dimensional shape.

また、作業者H1は、タブレット端末T1を操作することで、所望のタイミングでライブビュー画像を静止画像にし、静止画像に対して検査範囲を設定してもよい。この場合、作業者H1は、ライブビュー画像をモニタしながら、検査対象9がライブビュー画像に写っているときに、ライブビュー画像を静止画像に切り替えることで、検査対象9が写っている静止画像を画面D1に表示する。なお、ライブビュー画像及び静止画像ともに、撮像画像のデータに相当する。 Further, the operator H1 may operate the tablet terminal T1 to change the live view image to a still image at a desired timing and set the inspection range for the still image. In this case, while the operator H1 monitors the live view image, when the inspection object 9 is captured in the live view image, the operator H1 switches the live view image to a still image so that the still image showing the inspection object 9 can be displayed. is displayed on the screen D1. Note that both the live view image and the still image correspond to captured image data.

撮像部1aは、3つのレンズを有するステレオカメラに限定されず、2つ、又は4つ以上のレンズを有するステレオカメラであってもよい。また、撮像部1aは、単眼カメラであってもよく、この場合、撮像画像の系列から3次元の位置情報を含む撮像画像のデータを生成できる。また、撮像部1aは、3次元レーザスキャナ、又はLiDAR(Light Detection and Ranging)などのように、レーザを用いた構成であってもよい。 The imaging unit 1a is not limited to a stereo camera having three lenses, and may be a stereo camera having two or four or more lenses. Further, the imaging unit 1a may be a monocular camera, and in this case, it is possible to generate captured image data including three-dimensional position information from a series of captured images. Further, the imaging unit 1a may be configured using a laser such as a three-dimensional laser scanner or LiDAR (Light Detection and Ranging).

検査対象9は、配筋91、93に限定されず、配筋92、94であってもよい。また、検査対象9は、配筋以外であってもよく、例えば壁紙、配線器具、配線、又は配管などの部材であってもよい。また、検査対象9は、建物であってもよい。 The inspection object 9 is not limited to the bar arrangements 91 and 93, and may be the bar arrangements 92 and 94. Also, the inspection object 9 may be something other than the bar arrangement, and may be a member such as wallpaper, a wiring device, wiring, or piping, for example. Also, the inspection object 9 may be a building.

また、上述の実施形態では、配筋の矩形体状の輪郭が、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提として、検査範囲設定部1e及びマーカ生成部1fは、この前提の下で検査範囲を設定し、マーカ画像を生成している。しかしながら、検査システム1が用いる前提は、検査対象9の形状、構造、及び配置などに応じて適宜設定されればよく、特定の前提に限定されない。 Further, in the above-described embodiment, on the premise that the rectangular contour of the bar arrangement is composed of eight sides extending in the vertical direction and the horizontal direction in the three-dimensional space W1, the inspection range setting unit 1e And the marker generator 1f sets the inspection range under this premise and generates the marker image. However, the premises used by the inspection system 1 may be appropriately set according to the shape, structure, arrangement, and the like of the inspection object 9, and are not limited to specific premises.

(9)まとめ
上述の実施形態に係る第1の態様の検査システム(1、1A、1B)は、画像取得部(1b)と、表示制御部(1c)と、検査範囲設定部(1e)と、検査部(1h)と、を備える。画像取得部(1b)は、立体形状の検査対象(9)を撮像した画像であり、三次元の位置情報を含む撮像画像(G1、G11)のデータを取得する。表示制御部(1c)は、撮像画像(G1、G11)を画面(D1)に表示する。検査範囲設定部(1e)は、人(H1)の操作によって、撮像画像(G1、G11)において検査対象(9)が写っている範囲を示す検査範囲(R1、R11)を設定する。検査部(1h)は、検査範囲(R1、R11)に画像認識処理を施すことで、検査対象(9)の検査を行う。
(9) Summary The inspection system (1, 1A, 1B) of the first aspect according to the above-described embodiments includes an image acquisition unit (1b), a display control unit (1c), an inspection range setting unit (1e), , and an inspection unit (1h). An image acquisition unit (1b) acquires data of captured images (G1, G11), which are images of a three-dimensional inspection target (9) and include three-dimensional position information. A display control unit (1c) displays the captured images (G1, G11) on the screen (D1). An inspection range setting unit (1e) sets an inspection range (R1, R11) indicating a range in which an inspection target (9) is shown in a captured image (G1, G11) by an operation of a person (H1). The inspection unit (1h) inspects the inspection target (9) by performing image recognition processing on the inspection range (R1, R11).

上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).

上述の実施形態に係る第2の態様の検査システム(1、1A、1B)では、第1の態様において、検査範囲設定部(1e)は、画面(D1)に表示されている撮像画像(G1、G11)に人(H1)の操作によって指定された位置に基づいて、検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the second aspect according to the above-described embodiment, in the first aspect, the inspection range setting unit (1e) sets the captured image (G1 , G11) based on the position specified by the operation of the person (H1).

上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).

上述の実施形態に係る第3の態様の検査システム(1、1A、1B)では、第2の態様において、検査範囲設定部(1e)は、撮像画像(G1、G11)において指定された少なくとも1つの点(P1-P4、P11-P13、P21)を含む検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the third aspect according to the above-described embodiment, in the second aspect, the inspection range setting unit (1e) sets at least one specified in the captured image (G1, G11) It is preferable to set an inspection range (R1, R11) including three points (P1-P4, P11-P13, P21).

上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).

上述の実施形態に係る第4の態様の検査システム(1、1A、1B)では、第2の態様において、検査範囲設定部(1e)は、撮像画像(G1、G11)において指定された少なくとも1つの範囲を含む検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the fourth aspect according to the above-described embodiment, in the second aspect, the inspection range setting unit (1e) sets at least one specified in the captured image (G1, G11) Preferably, an inspection range (R1, R11) containing two ranges is set.

上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).

上述の実施形態に係る第5の態様の検査システム(1、1A、1B)では、第1乃至第4の態様のいずれか1つにおいて、検査範囲設定部(1e)は、検査対象(9)の寸法の情報を用いて検査範囲(R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the fifth aspect according to the above-described embodiments, in any one of the first to fourth aspects, the inspection range setting unit (1e) includes the inspection object (9) It is preferable to set the inspection range (R11) using information on the dimensions of .

上述の検査システム(1、1A、1B)は、検査対象(9)の寸法の情報を用いることで、人(H1)の操作を簡略化できる。 The inspection system (1, 1A, 1B) described above can simplify the operation of the person (H1) by using the information on the dimensions of the inspection object (9).

上述の実施形態に係る第6の態様の検査システム(1、1A、1B)は、第1乃至第5の態様のいずれか1つにおいて、撮像画像(G1、G11)における検査範囲(R1、R11)を示すマーカ画像(M1、M11)を生成するマーカ生成部(1f)を更に備えることが好ましい。表示制御部(1c)は、マーカ画像(M1、M11)を撮像画像(G1、G11)に重畳させて画面(D1)に表示する。 The inspection system (1, 1A, 1B) of the sixth aspect according to the above-described embodiment is the inspection range (R1, R11) in the captured image (G1, G11) in any one of the first to fifth aspects. ) is preferably further provided with a marker generator (1f) for generating marker images (M1, M11). A display control unit (1c) superimposes the marker images (M1, M11) on the captured images (G1, G11) and displays them on the screen (D1).

上述の検査システム(1、1A、1B)では、人(H1)は、画面(D1)に表示された撮像画像(G1、G11)内のマーカ画像(M1、M11)を見ることで、撮像画像(G1、G11)内の検査範囲(R1、R11)を確認できる。この結果、検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 In the inspection system (1, 1A, 1B) described above, the person (H1) looks at the marker images (M1, M11) in the captured images (G1, G11) displayed on the screen (D1), thereby The inspection range (R1, R11) within (G1, G11) can be confirmed. As a result, the inspection system (1, 1A, 1B) can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).

上述の実施形態に係る第7の態様の検査システム(1、1A、1B)では、第6の態様において、マーカ生成部(1f)は、検査範囲(R1、R11)に含まれる三次元の位置情報に基づいて、検査範囲(R1、R11)の三次元モデル(K1、K11)を生成することが好ましい。マーカ生成部(1f)は、三次元モデル(K1、K11)の投影画像をマーカ画像(M1、M11)とする。 In the inspection system (1, 1A, 1B) of the seventh aspect according to the above-described embodiment, in the sixth aspect, the marker generator (1f) is configured to detect three-dimensional positions included in the inspection range (R1, R11). Based on the information, a three-dimensional model (K1, K11) of the examination area (R1, R11) is preferably generated. A marker generator (1f) uses the projected images of the three-dimensional models (K1, K11) as marker images (M1, M11).

上述の検査システム(1、1A、1B)では、人(H1)は、撮像画像(G1、G11)内の検査範囲(R1、R11)を容易に確認できる。 In the inspection systems (1, 1A, 1B) described above, the person (H1) can easily confirm the inspection ranges (R1, R11) in the captured images (G1, G11).

上述の実施形態に係る第8の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、三次元モデル(K1、K11)の形状を、撮像画像(G1、G11)において指定された互いに直交する3つの面を含む矩形体形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the eighth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) converts the shape of the three-dimensional model (K1, K11) into the captured image It is preferable to have a rectangular body shape including three mutually orthogonal faces specified in (G1, G11).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).

上述の実施形態に係る第9の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの面を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the ninth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the information on the dimensions of the inspection object (9) to perform cubic The shape of the original model (K11) is preferably a three-dimensional shape including at least one plane specified in the captured image (G11).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).

上述の実施形態に係る第10の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの辺を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the tenth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the information on the dimension of the inspection object (9) to The shape of the original model (K11) is preferably a three-dimensional shape including at least one side specified in the captured image (G11).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).

上述の実施形態に係る第11の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの点を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the eleventh aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the dimension information of the inspection object (9) to The shape of the original model (K11) is preferably a three-dimensional shape including at least one point specified in the captured image (G11).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).

上述の実施形態に係る第12の態様の検査システム(1、1A、1B)では、第6の態様において、マーカ生成部(1f)は、撮像画像(G1、G11)、及び撮像画像(G1、G11)におけるマーカ画像(M1、M11)の範囲を教師データとする機械学習によって構築された学習モデルに撮像画像(G1、G11)を入力することで、マーカ画像(M1、M11)が重畳した撮像画像(G1、G11)を学習モデルから取得することが好ましい。 In the inspection system (1, 1A, 1B) of the twelfth aspect according to the above-described embodiment, in the sixth aspect, the marker generator (1f) generates the captured images (G1, G11) and the captured images (G1, By inputting the captured images (G1, G11) into a learning model constructed by machine learning using the range of the marker images (M1, M11) in G11) as teacher data, the captured images (M1, M11) are superimposed. Images (G1, G11) are preferably obtained from the learning model.

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).

上述の実施形態に係る第13の態様の検査システム(1、1A、1B)では、第6乃至第12の態様のいずれか1つにおいて、マーカ画像(M1、M11)は、三次元モデル(K1、K11)の投影画像である。マーカ生成部(1f)は、検査対象(9)が存在する三次元空間(W1)における検査対象(9)の位置を示す座標情報に基づいて、三次元モデル(K1、K11)の三次元座標を二次元座標に変換することで、画面(D1)にマーカ画像(M1、M11)を表示することが好ましい。 In the inspection system (1, 1A, 1B) of the thirteenth aspect according to the above-described embodiments, in any one of the sixth to twelfth aspects, the marker images (M1, M11) are the three-dimensional model (K1 , K11). A marker generator (1f) calculates three-dimensional coordinates of a three-dimensional model (K1, K11) based on coordinate information indicating the position of the inspection target (9) in a three-dimensional space (W1) where the inspection target (9) exists. to two-dimensional coordinates to display the marker images (M1, M11) on the screen (D1).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を撮像画像(G1、G11)に連動させることができる。 The inspection system (1, 1A, 1B) described above can link the marker images (M1, M11) with the captured images (G1, G11).

上述の実施形態に係る第14の態様の検査システム(1、1A、1B)は、第6乃至第13の態様のいずれか1つにおいて、人(H1)の操作に応じて、画面(D1)に表示されているマーカ画像(M1、M11)に対して、移動、回転、拡大、及び縮小の少なくとも1つの処理を施すマーカ処理部(1g)を更に備えることが好ましい。検査範囲設定部(1e)は、マーカ画像(M1、M11)に対して施された少なくとも1つの処理に応じて、検査範囲(R1、R11)を修正する。 The inspection system (1, 1A, 1B) of the 14th aspect according to the above-described embodiment, in any one of the 6th to 13th aspects, responds to the operation of the person (H1) on the screen (D1) It is preferable to further include a marker processing unit (1g) that performs at least one process of movement, rotation, enlargement, and reduction on the marker images (M1, M11) displayed in . An inspection range setting unit (1e) corrects the inspection ranges (R1, R11) according to at least one process performed on the marker images (M1, M11).

上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を修正することで、検査範囲(R1、R11)を修正できる。 The inspection systems (1, 1A, 1B) described above can modify the inspection ranges (R1, R11) by modifying the marker images (M1, M11).

上述の実施形態に係る第15の態様の検査システム(1、1A、1B)では、第1乃至第14の態様のいずれか1つにおいて、撮像画像(G1、G11)は、移動可能な撮像部(1a)によって撮像されたライブビュー画像であることが好ましい。 In the inspection system (1, 1A, 1B) of the fifteenth aspect according to the above-described embodiments, in any one of the first to fourteenth aspects, the captured image (G1, G11) is a movable imaging unit It is preferably a live view image captured by (1a).

上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)をリアルタイムでモニタできる。 The inspection system (1, 1A, 1B) described above can monitor the captured images (G1, G11) in real time.

上述の実施形態に係る第16の態様の検査システム(1、1A、1B)では、第1乃至第15の態様のいずれか1つにおいて、検査対象(9)は、配筋(91-94)であることが好ましい。 In the inspection system (1, 1A, 1B) according to the sixteenth aspect according to the above-described embodiments, in any one of the first to fifteenth aspects, the inspection object (9) includes bar arrangement (91-94) is preferably

上述の検査システム(1、1A、1B)は、配筋(91-94)の検査を行うことができる。 The inspection system (1, 1A, 1B) described above is capable of inspecting reinforcement arrangements (91-94).

上述の実施形態に係る第17の態様の検査システム(1、1A、1B)では、第1乃至第15の態様のいずれか1つにおいて、検査対象(9)は、建築物であることが好ましい。 In the inspection system (1, 1A, 1B) of the seventeenth aspect according to the above-described embodiments, in any one of the first to fifteenth aspects, the inspection object (9) is preferably a building. .

上述の検査システム(1、1A、1B)は、建築物の検査を行うことができる。 The inspection system (1, 1A, 1B) described above is capable of inspecting buildings.

上述の実施形態に係る第18の態様の検査方法は、画像取得ステップ(S1)と、表示ステップ(S2)と、検査範囲設定ステップ(S3)と、検査ステップ(S5)と、を含む。画像取得ステップ(S1)は、立体形状の検査対象(9)を撮像した画像であり、三次元の位置情報を含む撮像画像(G1、G11)のデータを取得する。表示ステップ(S2)は、撮像画像(G1、G11)を画面(D1)に表示する。検査範囲設定ステップ(S3)は、人(H1)の操作によって、撮像画像(G1、G11)において検査対象(9)が写っている範囲を示す検査範囲(R1、R11)を設定する。検査ステップ(S5)は、検査範囲(R1、R11)に画像認識処理を施すことで、検査対象(9)の検査を行う。 The inspection method of the eighteenth aspect according to the above embodiment includes an image acquisition step (S1), a display step (S2), an inspection range setting step (S3), and an inspection step (S5). The image acquisition step (S1) acquires data of captured images (G1, G11), which are images of a three-dimensional inspection object (9) and include three-dimensional position information. The display step (S2) displays the captured images (G1, G11) on the screen (D1). In the inspection range setting step (S3), an inspection range (R1, R11) indicating the range in which the inspection target (9) is shown in the captured images (G1, G11) is set by the operation of the person (H1). In the inspection step (S5), the inspection target (9) is inspected by subjecting the inspection range (R1, R11) to image recognition processing.

上述の検査方法は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection method described above can more accurately set the inspection ranges (R1, R11) in the captured images (G1, G11).

上述の実施形態に係る第19の態様のプログラムは、コンピュータシステムに第18の態様の検査方法を実行させる。 The program of the nineteenth aspect according to the above-described embodiments causes the computer system to execute the inspection method of the eighteenth aspect.

上述のプログラムは、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The above program can more accurately set the inspection ranges (R1, R11) in the captured images (G1, G11).

1、1A、1B 検査システム
1a 撮像部
1b 画像取得部
1c 表示制御部
1e 検査範囲設定部
1f マーカ生成部
1g マーカ処理部
1h 検査部
9 検査対象
91-94 配筋
D1 画面
W1 三次元空間
H1 作業者(人)
G1、G11 撮像画像
R1、R11 検査範囲
M1、M11 マーカ画像
K1、K11 三次元モデル
P1-P4、P11-P13、P21 点
S1 画像取得ステップ
S2 表示ステップ
S3 検査範囲設定ステップ
S5 検査ステップ
1, 1A, 1B inspection system 1a imaging unit 1b image acquisition unit 1c display control unit 1e inspection range setting unit 1f marker generation unit 1g marker processing unit 1h inspection unit 9 inspection object 91-94 bar arrangement D1 screen W1 three-dimensional space H1 work person (person)
G1, G11 Captured images R1, R11 Inspection range M1, M11 Marker images K1, K11 Three-dimensional model P1-P4, P11-P13, P21 Points S1 Image acquisition step S2 Display step S3 Inspection range setting step S5 Inspection step

Claims (19)

立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する画像取得部と、
前記撮像画像を画面に表示する表示制御部と、
人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する検査範囲設定部と、
前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う検査部と、を備える
検査システム。
an image acquisition unit that acquires data of a captured image that is an image of a three-dimensional inspection object and that includes three-dimensional position information;
a display control unit that displays the captured image on a screen;
an inspection range setting unit that sets an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation;
an inspection unit that inspects the inspection object by performing image recognition processing on the inspection range.
前記検査範囲設定部は、前記画面に表示されている前記撮像画像に前記人の操作によって指定された位置に基づいて、前記検査範囲を設定する
請求項1の検査システム。
The inspection system according to claim 1, wherein the inspection range setting unit sets the inspection range based on a position designated by the person's operation on the captured image displayed on the screen.
前記検査範囲設定部は、前記撮像画像において指定された少なくとも1つの点を含む前記検査範囲を設定する
請求項2の検査システム。
3. The inspection system according to claim 2, wherein the inspection range setting unit sets the inspection range including at least one point designated in the captured image.
前記検査範囲設定部は、前記撮像画像において指定された少なくとも1つの範囲を含む前記検査範囲を設定する
請求項2の検査システム。
The inspection system according to claim 2, wherein the inspection range setting unit sets the inspection range including at least one range specified in the captured image.
前記検査範囲設定部は、前記検査対象の寸法の情報を用いて前記検査範囲を設定する
請求項1乃至4のいずれか1つの検査システム。
The inspection system according to any one of claims 1 to 4, wherein the inspection range setting unit sets the inspection range using information on the dimensions of the inspection object.
前記撮像画像における前記検査範囲を示すマーカ画像を生成するマーカ生成部を更に備え、
前記表示制御部は、前記マーカ画像を前記撮像画像に重畳させて前記画面に表示する
請求項1乃至5のいずれか1つの検査システム。
further comprising a marker generation unit that generates a marker image indicating the inspection range in the captured image;
The inspection system according to any one of claims 1 to 5, wherein the display control unit superimposes the marker image on the captured image and displays it on the screen.
前記マーカ生成部は、
前記検査範囲に含まれる前記三次元の位置情報に基づいて、前記検査範囲の三次元モデルを生成し、
前記三次元モデルの投影画像を前記マーカ画像とする
請求項6の検査システム。
The marker generator is
generating a three-dimensional model of the inspection range based on the three-dimensional position information included in the inspection range;
The inspection system according to claim 6, wherein the projected image of the three-dimensional model is used as the marker image.
前記マーカ生成部は、前記三次元モデルの形状を、前記撮像画像において指定された互いに直交する3つの面を含む矩形体形状とする
請求項7の検査システム。
8. The inspection system according to claim 7, wherein the marker generation unit makes the shape of the three-dimensional model a rectangular body shape including three mutually orthogonal surfaces specified in the captured image.
前記マーカ生成部は、前記検査対象の寸法の情報を用いて、前記三次元モデルの形状を、前記撮像画像において指定された少なくとも1つの面を含む三次元の形状とする
請求項7の検査システム。
8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model a three-dimensional shape including at least one surface specified in the captured image. .
前記マーカ生成部は、前記検査対象の寸法の情報を用いて、前記三次元モデルの形状を、前記撮像画像において指定された少なくとも1つの辺を含む三次元の形状とする
請求項7の検査システム。
8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model into a three-dimensional shape including at least one side specified in the captured image. .
前記マーカ生成部は、前記検査対象の寸法の情報を用いて、前記三次元モデルの形状を、前記撮像画像において指定された少なくとも1つの点を含む三次元の形状とする
請求項7の検査システム。
8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model into a three-dimensional shape including at least one point specified in the captured image. .
前記マーカ生成部は、前記撮像画像、及び前記撮像画像における前記マーカ画像の範囲を教師データとする機械学習によって構築された学習モデルに前記撮像画像を入力することで、前記マーカ画像が重畳した前記撮像画像を前記学習モデルから取得する
請求項6の検査システム。
The marker generation unit inputs the captured image to a learning model constructed by machine learning using the captured image and the range of the marker image in the captured image as teacher data, thereby obtaining the marker image superimposed on the marker image. 7. The inspection system of claim 6, wherein captured images are obtained from the learning model.
前記マーカ画像は、三次元モデルの投影画像であり、
前記マーカ生成部は、前記検査対象が存在する三次元空間における前記検査対象の位置を示す座標情報に基づいて、前記三次元モデルの三次元座標を二次元座標に変換することで、前記画面に前記マーカ画像を表示する
請求項6乃至12のいずれか1つの検査システム。
the marker image is a projection image of a three-dimensional model;
The marker generation unit converts the three-dimensional coordinates of the three-dimensional model into two-dimensional coordinates based on coordinate information indicating the position of the inspection object in the three-dimensional space where the inspection object exists, so that 13. The inspection system according to any one of claims 6 to 12, wherein the marker image is displayed.
前記人の操作に応じて、前記画面に表示されている前記マーカ画像に対して、移動、回転、拡大、及び縮小の少なくとも1つの処理を施すマーカ処理部を更に備え、
前記検査範囲設定部は、前記マーカ画像に対して施された前記少なくとも1つの処理に応じて、前記検査範囲を修正する
請求項6乃至13のいずれか1つの検査システム。
further comprising a marker processing unit that performs at least one process of moving, rotating, enlarging, and reducing the marker image displayed on the screen in accordance with the operation of the person;
The inspection system according to any one of claims 6 to 13, wherein the inspection range setting section modifies the inspection range according to the at least one process performed on the marker image.
前記撮像画像は、移動可能な撮像部によって撮像されたライブビュー画像である
請求項1乃至14のいずれか1つの検査システム。
The inspection system according to any one of claims 1 to 14, wherein the captured image is a live view image captured by a movable imaging unit.
前記検査対象は、配筋である
請求項1乃至15のいずれか1つの検査システム。
16. The inspection system according to any one of claims 1 to 15, wherein the object to be inspected is bar arrangement.
前記検査対象は、建築物である
請求項1乃至15のいずれか1つの検査システム。
The inspection system according to any one of claims 1 to 15, wherein the inspection object is a building.
立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する画像取得ステップと、
前記撮像画像を画面に表示する表示ステップと、
人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する検査範囲設定ステップと、
前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う検査ステップと、を含む
検査方法。
an image acquisition step of acquiring data of a captured image that is an image of a three-dimensional inspection target and includes three-dimensional position information;
a display step of displaying the captured image on a screen;
an inspection range setting step of setting an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation;
an inspection step of inspecting the inspection target by subjecting the inspection range to image recognition processing.
コンピュータシステムに請求項18記載の検査方法を実行させる
プログラム。
A program that causes a computer system to execute the inspection method according to claim 18.
JP2021190536A 2021-11-24 2021-11-24 Inspection system, inspection method and program Pending JP2023077282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021190536A JP2023077282A (en) 2021-11-24 2021-11-24 Inspection system, inspection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021190536A JP2023077282A (en) 2021-11-24 2021-11-24 Inspection system, inspection method and program

Publications (1)

Publication Number Publication Date
JP2023077282A true JP2023077282A (en) 2023-06-05

Family

ID=86610242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021190536A Pending JP2023077282A (en) 2021-11-24 2021-11-24 Inspection system, inspection method and program

Country Status (1)

Country Link
JP (1) JP2023077282A (en)

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
JP7294396B2 (en) Image processing device, image processing method, and program
Yang et al. Thin crack observation in a reinforced concrete bridge pier test using image processing and analysis
US6031941A (en) Three-dimensional model data forming apparatus
US20220191459A1 (en) Systems and methods of creating a three-dimensional virtual image
US20160260256A1 (en) Method and System for Constructing a Virtual Image Anchored onto a Real-World Object
JP2009053147A (en) Three-dimensional measuring method and three-dimensional measuring device
JP6775054B2 (en) Inspection support device
CN104976950B (en) Object space information measuring device and method and image capturing path calculating method
US10015466B2 (en) Spatial information visualization apparatus, storage medium, and spatial information visualization method
US9569850B2 (en) System and method for automatically determining pose of a shape
JP2018048839A (en) Three-dimensional data generator, three-dimensional data generation method, and monitoring system equipped with three-dimensional data generator
US20180247430A1 (en) Display control method and display control apparatus
JPWO2019021719A1 (en) Damage data editing device, damage data editing method, and program
WO2020040277A1 (en) Mixed reality system, program, mobile terminal device, and method
US20210201522A1 (en) System and method of selecting a complementary image from a plurality of images for 3d geometry extraction
JP2024012527A (en) Information display device, method, and program
JP2023077282A (en) Inspection system, inspection method and program
KR20140099622A (en) Robot localization detecting system using a multi-view image and method thereof
JP2018081570A (en) Information visualization system, information visualization method, and program
US10311317B2 (en) Teacher data generation method
US20240017412A1 (en) Control device, control method, and program
JP2004252815A (en) Image display device, its method and program
US20220012379A1 (en) Systems and methods for modelling interactions of physical assets within a workspace
JP2020204626A (en) Inspection supporting device