JP2023077282A - Inspection system, inspection method and program - Google Patents
Inspection system, inspection method and program Download PDFInfo
- Publication number
- JP2023077282A JP2023077282A JP2021190536A JP2021190536A JP2023077282A JP 2023077282 A JP2023077282 A JP 2023077282A JP 2021190536 A JP2021190536 A JP 2021190536A JP 2021190536 A JP2021190536 A JP 2021190536A JP 2023077282 A JP2023077282 A JP 2023077282A
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- image
- captured image
- marker
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、検査システム、検査方法、及びプログラムに関する。 The present disclosure relates to inspection systems, inspection methods, and programs.
特許文献1では、鉄筋コンクリート構造物の建設工事現場において、配列された鉄筋が打設されたコンクリートの内部に埋没する前に、鉄筋が正しく配列されていることを確認するために、配列された鉄筋の径、ピッチ及び本数等が検査される。
In
具体的に、特許文献1の配筋検査装置は、ステレオ撮影部と、配列平面特定部と、検査部と、を備える。ステレオ撮影部は、三次元空間の中の平面に配列された複数の鉄筋を異なる2点から撮像することで、三次元空間における複数の鉄筋の位置情報を取得する。配列平面特定部は、ステレオ撮影部により取得された鉄筋の位置情報に基づいて、複数の鉄筋が配列された平面を特定する。検査部は、配列平面特定部により特定された平面に配列された複数の鉄筋を検査対象として、鉄筋の検査を行う。
Specifically, the bar arrangement inspection device of
三次元空間に複数の部材が配置されていれば、ステレオ撮影部(撮像部)が撮像した画像(撮像画像)に、検査対象となる部材以外に、他の部材が写り込むことがある。このとき、撮像画像において検査対象となる部材が写っている範囲(検査範囲)を、他の部材が写っている範囲と区別できないことがあった。この結果、検査範囲を正確に設定することが困難であった。 If a plurality of members are arranged in a three-dimensional space, an image (captured image) captured by a stereo imaging unit (imaging unit) may include members other than the member to be inspected. At this time, the range (inspection range) in which the member to be inspected is shown in the captured image cannot be distinguished from the range in which other members are shown. As a result, it was difficult to set the inspection range accurately.
本開示の目的は、撮像画像内の検査範囲をより正確に設定できる検査システム、検査方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide an inspection system, an inspection method, and a program capable of setting an inspection range in a captured image more accurately.
本開示の一態様に係る検査システムは、画像取得部と、表示制御部と、検査範囲設定部と、検査部と、を備える。前記画像取得部は、立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。前記表示制御部は、前記撮像画像を画面に表示する。前記検査範囲設定部は、人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する。前記検査部は、前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う。 An inspection system according to an aspect of the present disclosure includes an image acquisition unit, a display control unit, an inspection range setting unit, and an inspection unit. The image acquisition unit acquires captured image data including three-dimensional position information, which is an image of a three-dimensional inspection target. The display control unit displays the captured image on a screen. The inspection range setting unit sets an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation. The inspection unit inspects the inspection object by performing image recognition processing on the inspection range.
本開示の一態様に係る検査方法は、画像取得ステップと、表示ステップと、検査範囲設定ステップと、検査ステップと、を備える。前記画像取得ステップは、立体形状の検査対象を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。前記表示ステップは、前記撮像画像を画面に表示する。前記検査範囲設定ステップは、人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する。前記検査ステップは、前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う。 An inspection method according to an aspect of the present disclosure includes an image acquisition step, a display step, an inspection range setting step, and an inspection step. The image acquisition step acquires data of a captured image, which is an image of a three-dimensional inspection target and includes three-dimensional position information. The display step displays the captured image on a screen. In the inspection range setting step, an inspection range indicating a range in which the inspection target is shown in the captured image is set by a human operation. The inspection step inspects the inspection target by subjecting the inspection range to image recognition processing.
本開示の一態様に係るプログラムは、コンピュータシステムに上述の検査方法を実行させる。 A program according to an aspect of the present disclosure causes a computer system to execute the inspection method described above.
以上説明したように、本開示は、撮像画像内の検査範囲をより正確に設定できるという効果がある。 As described above, the present disclosure has the effect of being able to set the inspection range in the captured image more accurately.
以下の実施形態は、一般に検査システム、検査方法、及びプログラムに関する。より詳細に、以下の実施形態は、撮像画像に画像認識処理を施すことで検査対象を検査する検査システム、検査方法、及びプログラムに関する。 The following embodiments generally relate to inspection systems, inspection methods, and programs. More specifically, the following embodiments relate to an inspection system, an inspection method, and a program for inspecting an inspection object by subjecting a captured image to image recognition processing.
以下、実施形態に係る検査システム、検査方法、及びプログラムについて、図面を参照して詳細に説明する。ただし、下記の実施形態において説明する各図は模式的な図であり、各構成要素の大きさや厚さそれぞれの比が必ずしも実際の寸法比を反映しているとは限らない。 Hereinafter, an inspection system, an inspection method, and a program according to embodiments will be described in detail with reference to the drawings. However, each drawing described in the following embodiments is a schematic drawing, and the ratio of the size and thickness of each component does not necessarily reflect the actual dimensional ratio.
また、以下に説明する実施形態は、本開示の実施形態の一例にすぎない。本開示は、以下の実施形態に限定されず、本開示の効果を奏することができれば、設計等に応じて種々の変更が可能である。 Also, the embodiments described below are merely examples of the embodiments of the present disclosure. The present disclosure is not limited to the following embodiments, and various modifications can be made according to design and the like as long as the effects of the present disclosure can be achieved.
(1)概要
建築物の工事では、各工程において様々な検査が行われる。例えば、配筋、壁紙、配線器具、配線、又は配管などの部材を検査対象として、検査対象の配置、形状、及びサイズなどの検査が行われる。また、建物自体を検査対象として、検査対象の構造、配置、及び形状などの検査が行われる。このような検査では、検査対象を撮像した撮像画像に画像認識処理を施すことで、検査対象の配置、形状、サイズ、及び構造などの検査項目を評価することがある。なお、建築物の工事は、建築物の施工に関する工事であればよく、例えば建設工事、電気工事、給排水工事、及び土木工事などが含まれる。
(1) Overview In building construction, various inspections are performed in each process. For example, the placement, shape, size, and the like of the inspection target are inspected for members such as reinforcing bars, wallpaper, wiring devices, wiring, and piping. Also, the structure, layout, shape, and the like of the inspection target are inspected using the building itself as the inspection target. In such an inspection, inspection items such as the arrangement, shape, size, and structure of the inspection object may be evaluated by performing image recognition processing on a captured image of the inspection object. Note that the building work may be any work related to building construction, and includes, for example, construction work, electrical work, water supply and drainage work, and civil engineering work.
近年、二次元の撮像画像ではなく、三次元の位置情報を含む撮像画像を生成することが容易になっている。そこで、図1に示す本実施形態の検査システムは、三次元の位置情報を含む撮像画像を用いて検査対象9の検査を行う。
In recent years, it has become easier to generate a captured image including three-dimensional position information instead of a two-dimensional captured image. Therefore, the inspection system of the present embodiment shown in FIG. 1 inspects the
検査システム1は、画像取得部1b、表示制御部1c、検査範囲設定部1e、及び検査部1h、を備える。画像取得部1bは、立体形状の検査対象9を撮像した画像であり、三次元の位置情報を含む撮像画像のデータを取得する。表示制御部1cは、撮像画像を画面D1に表示する。検査範囲設定部1eは、人の操作によって、撮像画像において検査対象9が写っている範囲を示す検査範囲を設定する。検査部1hは、検査範囲に画像認識処理を施すことで、検査対象9の検査を行う。
The
したがって、検査システム1は、人の操作によって撮像画像における検査範囲を設定するので、検査対象以外の構造が検査範囲に含まれることを抑制でき、撮像画像内の検査範囲をより正確に設定できる。
Therefore, since the
(2)詳細
以下、本実施形態の検査システム1の詳細を説明する。
(2) Details Details of the
(2.1)検査対象
本実施形態の検査対象9は、建築物の柱、梁、壁、スラブ、及び基礎などの配筋である。図2は、配筋91、92を示す。配筋91、92は、施工途中の建築物の内部の三次元空間W1に存在している。配筋91、92は梁の配筋である。配筋91の輪郭、及び配筋92の輪郭は、矩形体状である。
(2.1) Objects to be inspected
配筋91、92のそれぞれは、格子状に組まれた複数の鉄筋9aで構成されており、三次元の立体形状を有する部材である。配筋の検査は、配筋91、92のそれぞれに対して、複数の鉄筋9aの配置及び組み方、並びに鉄筋9aのサイズなどが、予め決められた仕様を満たしているか否かを個別に判定する。
Each of the reinforcing
なお、本実施形態では、配筋の矩形体状の輪郭は、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提とする。 In addition, in this embodiment, it is assumed that the rectangular contour of the bar arrangement is composed of eight sides extending in the vertical direction and the horizontal direction in the three-dimensional space W1.
(2.2)検査システム
検査システム1は、コンピュータシステムを備えることが好ましい。コンピュータシステムは、プログラムを実行することによって、検査システム1の一部又は全部を実現する。コンピュータシステムは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、又はLSI(large scale integration)を含む一つ又は複数の電子回路で構成される。ここでは、ICやLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、若しくはULSI(ultra large scale integration) と呼ばれるものであってもよい。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータシステムが読み取り可能なROM、光ディスク、ハードディスクドライブなどの非一時的記録媒体に記録される。プログラムは、非一時的記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して非一時的記録媒体に供給されてもよい。
(2.2) Inspection system The
コンピュータシステムは、1台のコンピュータ装置に限らず、互いに連携した複数台のコンピュータ装置で実現されていてもよい。また、コンピュータシステムは、クラウドコンピューティングシステムとして構築されていてもよい。 The computer system is not limited to one computer device, and may be realized by a plurality of computer devices that cooperate with each other. Also, the computer system may be constructed as a cloud computing system.
本実施形態の検査システム1は、図1に示すように、撮像部1a、画像取得部1b、表示制御部1c、操作部1d、検査範囲設定部1e、マーカ生成部1f、マーカ処理部1g、検査部1h、及び通信部1iを備える。また、検査システム1は、画面D1を更に備えることが好ましい。本実施形態の検査システム1は、図1及び図2に示すように、作業者H1が携行可能なタブレット端末T1で構成された検査装置である。作業者H1は、タブレット端末T1を携行して、三次元空間W1内を移動する。そして、作業者H1がタブレット端末T1で検査対象9となる配筋を撮像することで、検査システム1が検査対象9となる配筋の検査を行う。なお、本実施形態では、作業者H1が、撮像画像内に検査範囲を指定する人に相当する。
As shown in FIG. 1, the
(2.2.1)撮像部
撮像部1aは、図3に示すように、3つのレンズ101を有する3眼のステレオカメラである。撮像部1aは、3つのレンズ101のそれぞれで撮像した画像データに基づいて、三次元の位置情報を含む撮像画像のデータを生成する。三次元の位置情報は、例えば、撮像部1aの撮像範囲に含まれている物体の三次元座標(例えばワールド座標)である。すなわち、撮像部1aは、撮像画像のデータとして三次元画像のデータを生成する。
(2.2.1) Imaging Unit The
撮像部1aは、立体形状の検査対象9を含む三次元空間W1を撮像して、撮像画像のデータを生成する。本実施形態では、配筋91、92のうち配筋91を検査対象9とする。そこで、作業者H1は、撮像画像に配筋91が写るようにタブレット端末T1を操作する。しかしながら、配筋91、92の配置、及び作業者H1の位置によっては、配筋91だけでなく、配筋92も撮像画像に写り込むことがある。
The
そして、撮像部1aは、撮像画像のデータをリアルタイムの動画データとして出力する。すなわち、撮像部1aは、撮像画像のデータとして、移動可能な撮像部1aによって撮像されたライブビュー画像のデータを生成する。
Then, the
(2.2.2)画像取得部
画像取得部1bは、撮像部1aから、ライブビュー画像のデータ(撮像画像のデータ)を取得する。
(2.2.2) Image Acquisition Unit The
なお、本実施形態では、撮像部1aと画像取得部1bとが同一の装置であるタブレット端末T1に設けられているが、撮像部1aは、タブレット端末T1とは別体に設けられていてもよい。
In the present embodiment, the
(2.2.3)表示制御部
表示制御部1cは、画像取得部1bが取得した撮像画像を画面D1に表示する。画面D1は、例えば液晶ディスプレイ又は有機ELディスプレイなどである。本実施形態の画面D1は、タブレット端末T1が具備するディスプレイ装置である。
(2.2.3) Display Control Unit The
そして、表示制御部1cは、画像取得部1bが取得したライブビュー画像のデータを入力され、ライブビュー画像を画面D1に表示する。
Then, the
タブレット端末T1を携行している作業者H1は、画面D1を見ることで、撮像画像を確認できる。本実施形態の撮像画像は、ライブビュー画像であるので、作業者H1は、撮像画像をリアルタイムでモニタできる。 The worker H1 carrying the tablet terminal T1 can confirm the captured image by looking at the screen D1. Since the captured image in this embodiment is a live view image, the worker H1 can monitor the captured image in real time.
図4は、画面D1に表示されている撮像画像G1である。撮像画像G1には、検査対象9である配筋91だけでなく、検査対象9でない配筋92も写っている。撮像画像G1では、配筋91が写っている領域をQ91とし、配筋92が写っている領域をQ92としている。撮像画像G1のデータは、領域Q91の三次元の位置情報、及び領域Q92の三次元の位置情報を含んでいる。
FIG. 4 shows the captured image G1 displayed on the screen D1. In the captured image G1, not only the
(2.2.4)操作部
操作部1dは、画面D1に重ねて配置されたタッチセンサであり、画面D1と操作部1dとでタッチパネルを構成している。作業者H1は、タッチセンサである操作部1dを指又はタッチペンで触れることで、画面D1上で撮像画像G1における任意の位置を指定できる。撮像画像G1における任意の位置は、例えば撮像画像G1における任意の点、線、及び範囲などである。
(2.2.4) Operation Unit The
例えば、作業者H1は、撮像画像G1において配筋91が写っている領域Q91内の少なくとも1点、又は領域Q91近傍の少なくとも1点を指定する。
For example, the worker H1 designates at least one point in the area Q91 where the
本実施形態では、配筋91の輪郭は6つの面を有する矩形体状である。そして、作業者H1は、領域Q91において配筋91の矩形体状の輪郭を構成する6つの面のうち少なくとも1つの面が写るように、配筋91を斜めから撮像する(図4では、3つの面が写るように、配筋91を斜めから撮像している)。そして、作業者H1は、図5に示すように、配筋91が写っている領域Q91に対して、矩形体状の検査範囲R1(図6参照)の輪郭の4つの頂点にそれぞれ対応する4つの点P1-P4を指定する。点P1は、矩形体状の輪郭の互いに直交する3つの面に共通する頂点に対応する。点P2-P4のそれぞれは、矩形体の互いに直交する3つの面に共通する頂点から延びる3辺の各端に対応する。すなわち、作業者H1は、撮像画像G1において4つの点P1-P4を指定することで、検査範囲R1(図6参照)の輪郭を構成する6つの矩形状の面のうち、互いに直交する3つの面に対応する領域を、撮像画像G1内に指定することができる。
In this embodiment, the outline of the
図5では、配筋91の全体が写っている領域Q91に対して4つの点P1-P4を指定することで、検査範囲R1(図6参照)には配筋91の全体が写っている。しかしながら、領域Q91に配筋91の全体が写っておらず、配筋91の一部が写っていることもある。このような場合でも、上述のように、領域Q91に対して、矩形体状の検査範囲R1(図6参照)の輪郭の4つの頂点にそれぞれ対応する4つの点P1-P4を指定することで、配筋91の一部が写っている範囲を検査範囲とすることができる。
In FIG. 5, by designating four points P1-P4 for an area Q91 in which the
なお、操作部1dは、マウス、及びキーボードなどであってもよい。
Note that the
(2.2.5)検査範囲設定部
検査範囲設定部1eは、作業者H1が撮像画像G1内に指定した位置に基づいて、図6に示す検査範囲R1を撮像画像G1内に設定する。検査範囲R1は、撮像画像G1において検査対象である配筋91が写っている領域Q91を含む。
(2.2.5) Inspection Range Setting Section The inspection
検査範囲設定部1eは、撮像画像G1に設定された4つの点P1-P4に基づいて、撮像画像G1内に検査範囲R1を設定する。
The inspection
具体的に、検査範囲設定部1eは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果に基づいて、撮像画像G1における鉛直方向及び水平方向を認識できる。また、検査範囲設定部1eは、モーションセンサの検出結果と、撮像画像G1の変化(画像フレームの差分)との少なくとも一方(両方でもよい)を用いて、タブレット端末T1の位置及び向きを認識できる。そこで、検査範囲設定部1eは、撮像画像G1において、4つの点P1-P4が4つの頂点に対応する矩形体を撮像した撮像領域を検査範囲R1(図6参照)として設定する。本実施形態では、配筋の矩形体状の輪郭は、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提としており、検査範囲設定部1eは、この前提の下で、4つの点P1-P4を4つの頂点として有する矩形体を撮像した撮像領域を推定する。
Specifically, the inspection
したがって、検査システム1は、配筋91が写っている領域Q91を配筋92が写っている領域Q92と区別して、領域Q92を検査範囲に含めることなく、領域Q91を検査範囲R1とすることができる。すなわち、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。
Therefore, the
(2.2.6)マーカ生成部
マーカ生成部1fは、撮像画像G1における検査範囲R1を示すマーカ画像M1(図8参照)を生成する。
(2.2.6) Marker Generation Unit The
本実施形態では、マーカ生成部1fは、4つの点P1-P4を頂点とする互いに直交する3つの面を含む矩形体状の三次元モデルK1(図7参照)を生成する。矩形体の対称性から、矩形体の外面を構成する6つの面のうち互いに直交する3つの面がわかっていれば、矩形体の外面を構成する残りの3つの面を推定することは可能である。そこで、マーカ生成部1fは、4つの点P1-P4が4つの頂点に対応する矩形体状の三次元モデルK1を生成する。すなわち、マーカ生成部1fは、三次元モデルK1の形状を、撮像画像G1において4つの点P1-P4によって指定された、互いに直交する3つの面を含む矩形体の形状としている。
In this embodiment, the
そして、マーカ生成部1fは、三次元モデルK1を撮像画像G1に透視投影することで、図8に示すマーカ画像M1を生成する。このマーカ画像M1は、三次元モデルK1を撮像画像G1内に透視投影した領域に生成され、三次元モデルK1を撮像画像G1内に表示した立体図形画像となる。この結果、表示制御部1cは、図8に示すように、マーカ画像M1を撮像画像G1に重畳させて画面D1に表示する。マーカ画像M1は、撮像画像G1と区別できるように、色、パターン、模様を有する画像である。撮像画像G1におけるマーカ画像M1の範囲は、検査範囲R1と同じになる。すなわち、撮像画像G1に対するマーカ画像M1の範囲は、配筋91が写っている領域Q91を含んでいる。
Then, the
したがって、作業者H1は、画面D1に表示された撮像画像G1内のマーカ画像M1を見ることで、撮像画像G1内の検査範囲R1を確認できる。この結果、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。
Therefore, the operator H1 can confirm the inspection range R1 in the captured image G1 by viewing the marker image M1 in the captured image G1 displayed on the screen D1. As a result, the
(2.2.7)マーカ処理部
検査システム1は、上述のように撮像画像G1に検査範囲R1及びマーカ画像M1を設定した後、以降の撮像画像G1とマーカ画像M1とを連動させる。すなわち、マーカ画像M1の範囲を検査範囲R1とみなすことができ、検査範囲R1は、マーカ画像M1の変化に追従して、マーカ画像M1と同様に変化する。
(2.2.7) Marker Processing Section After setting the inspection range R1 and the marker image M1 in the captured image G1 as described above, the
本実施形態では、マーカ処理部1gは、画面D1に表示されているマーカ画像M1に対して、移動、回転、拡大、及び縮小の少なくとも1つの処理を施す。
In this embodiment, the
本実施形態では、マーカ処理部1gは、操作部1dに対する作業者H1の操作に応じて、画面D1に表示されているマーカ画像M1に対して、移動、回転、拡大、及び縮小の各処理を施す。
In this embodiment, the
具体的に、作業者H1は、画面D1に重なっているタッチセンサである操作部1dを指又はタッチペンで操作する。作業者H1は、画面D1に表示されているマーカ画像M1に対してスライド操作を行うことで、マーカ画像M1を移動又は回転させる。作業者H1は、画面D1に表示されているマーカ画像M1に対してピンチアウト操作を行うことで、マーカ画像M1を拡大する。作業者H1は、画面D1に表示されているマーカ画像M1に対してピンチイン操作を行うことで、マーカ画像M1を縮小する。
Specifically, the worker H1 operates the
マーカ処理部1gは、マーカ画像M1に対する移動、回転、拡大、及び縮小の各処理を三次元モデルK1に反映させて、投影面に対する三次元モデルK1の移動、並びに三次元モデルK1の回転、拡大、及び縮小の各補正処理を行う。
The
検査範囲設定部1eは、マーカ画像M1に対する移動、回転、拡大、及び縮小の各処理に応じて、マーカ画像M1に対する処理と同様に、検査範囲R1に移動、回転、拡大、及び縮小の各補正処理を施す。すなわち、検査範囲設定部1eは、マーカ画像M1に対して施された処理に応じて、検査範囲R1を修正する。
The inspection
したがって、検査システム1は、マーカ画像M1の表示領域の修正を行うことで、検査範囲R1を修正できる。この結果、検査システム1は、撮像画像G1内の検査範囲R1をより正確に設定できる。
Therefore, the
(2.2.8)検査部
検査部1hは、撮像画像G1の検査範囲R1に画像認識処理を施すことで、検査対象9である配筋91の検査を行う。
(2.2.8) Inspection Unit The
具体的に、検査部1hは、撮像画像G1の検査範囲R1に対して、二値化処理、フィルタリング処理、エッジ抽出処理などを施すことで、検査範囲R1の特徴量を抽出する。また、検査部1hは、通信部1iを介してサーバ装置2の設計情報記憶部2aから設計情報を取得する。設計情報は、配筋91の設計仕様として、複数の鉄筋9aの配置及び組み方、並びに鉄筋9aのサイズなどの情報を含んでいる。そして、検査部1hは、検査範囲R1の特徴量を設計情報と比較することで、配筋91が設計仕様を満たしているか否かを判定する。検査部1hは、当該判定結果を配筋91の検査結果とし、配筋91の検査結果を通知するための画像データとして、検査通知データを生成する。
Specifically, the
表示制御部1cは、配筋91の検査通知データを画面D1に表示する。したがって、作業者H1は、画面D1に表示された検査通知データを見ることで、配筋91の検査結果を確認できる。
The
(2.2.9)通信部
通信部1iは、インターネットを含むネットワークNT1に接続し、ネットワークNT1上の機器と通信を行い、信号の送信及び受信を行う通信インタフェースの機能を有する。ネットワークNT1には、サーバ装置2が接続しており、通信部1iは、ネットワークNT1を介して、サーバ装置2と通信を行うことができる。
(2.2.9) Communication Unit The
サーバ装置2は、例えば建築物の設計又は施工を請け負った業者によって管理されており、設計情報記憶部2aを備えている。設計情報記憶部2aは、建築物の仕様、設計及び施工に関する各種情報を記憶している。設計情報記憶部2aが記憶している情報には、配筋91、92の設計情報も含まれている。
The
したがって、検査システム1は、通信部1iを介してサーバ装置2から配筋91、92の設計情報などを取得できる。
Therefore, the
(2.2.10)撮像画像とマーカ画像との連動
上述のように、検査システム1は、配筋91を撮像した撮像画像G1に検査範囲R1及びマーカ画像M1を設定して配筋91の検査を行う。
(2.2.10) Interlocking Captured Image and Marker Image As described above, the
そして、検査システム1は、撮像画像G1に検査範囲R1及びマーカ画像M1を設定した後、以降の撮像画像G1と、マーカ画像M1及び検査範囲R1と、を連動させる。作業者H1がタブレット端末T1で配筋91を撮像しながら三次元空間W1内を移動すると、画面D1に表示されている撮像画像G1が変化し、撮像画像G1において配筋91が写っている領域Q91も変化する。タブレット端末T1が三次元空間W1内を移動すると、撮像画像G1におけるマーカ画像M1及び検査範囲R1の位置及び形状も変化させる。
After setting the inspection range R1 and the marker image M1 in the captured image G1, the
具体的に、撮像画像G1は、三次元の位置情報を含む。そこで、マーカ生成部1fは、撮像画像G1の検査範囲R1(すなわち、領域Q91)における三次元の位置情報を用いて、三次元空間W1における配筋91(検査対象9)の位置を示す座標情報として、三次元座標(例えばワールド座標)の情報を取得する。また、マーカ生成部1fは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果、及び撮像画像G1の変化(画像フレームの差分)の少なくとも一方(両方でもよい)に基づいて、タブレット端末T1の移動距離及び移動方向を検知できる。そこで、マーカ生成部1fは、タブレット端末T1の移動距離及び移動方向に基づいて、三次元空間W1における配筋91の位置を示す三次元座標を補正する。すなわち、マーカ生成部1fは、タブレット端末T1が移動しても、撮像部1aに対する配筋91の位置を検出できる。
Specifically, the captured image G1 includes three-dimensional position information. Therefore, the
そして、マーカ生成部1fは、配筋91の位置を示す三次元座標に基づいて、撮像画像G1に対する三次元モデルK1の投影距離及び投影方向を調整することで、撮像画像G1におけるマーカ画像M1の位置及び形状を、撮像画像G1における検査範囲R1の変化に追従させる。
Then, the
また、検査範囲設定部1eは、マーカ画像M1と同様に検査範囲R1を変化させる。
Also, the inspection
したがって、検査システム1は、撮像画像G1がライブビュー画像であっても、マーカ画像M1を撮像画像G1に連動させることができる。また、検査システム1は、撮像画像G1がライブビュー画像であっても、検査範囲R1を撮像画像G1に連動させることができる。
Therefore, the
(2.2.11)検査方法
上述の検査システム1による検査方法をまとめると、図9のフローチャートで表される。例えば、検査システム1が備えるコンピュータシステムがプログラムを実行することで、検査方法は実行される。
(2.2.11) Inspection Method The inspection method by the
検査方法は、画像取得ステップS1と、表示ステップS2と、検査範囲設定ステップS3と、検査ステップS5と、を備える。また、検査方法は、マーカ画像設定ステップS4を更に備えることが好ましい。 The inspection method includes an image acquisition step S1, a display step S2, an inspection range setting step S3, and an inspection step S5. Moreover, it is preferable that the inspection method further includes a marker image setting step S4.
画像取得ステップS1では、画像取得部1bは、撮像画像G1のデータを取得する。撮像画像G1は、立体形状の検査対象9を撮像した画像であり、三次元の位置情報を含む。
In the image acquisition step S1, the
表示ステップS2では、表示制御部1cは、撮像画像G1を画面D1に表示する。
In the display step S2, the
検査範囲設定ステップS3では、検査範囲設定部1eは、作業者H1の操作によって、撮像画像G1において検査対象9が写っている範囲を示す検査範囲R1を設定する。
In the inspection range setting step S3, the inspection
マーカ画像設定ステップS4では、マーカ生成部1fは、撮像画像G1において検査範囲R1を示すマーカ画像M1を生成し、マーカ画像M1を撮像画像G1に重畳して画面D1に表示させる。
In the marker image setting step S4, the
検査ステップS5では、検査部1hは、検査範囲R1に画像認識処理を施すことで、検査対象9の検査を行う。
In the inspection step S5, the
上述の検査方法は、撮像画像G1内の検査範囲R1をより正確に設定できる。 The inspection method described above can more accurately set the inspection range R1 in the captured image G1.
(3)第1変形例
マーカ生成部1fは、撮像画像、及び撮像画像におけるマーカ画像の範囲を教師データとする機械学習によって構築された学習モデルに撮像画像G1を入力することで、マーカ画像M1が重畳した撮像画像G1を学習モデルから取得してもよい。
(3) First Modification The
具体的に、多数の教師データを用いた学習による学習モデルを構築しておく。学習モデルは、ディープラーニング(Deep Learning)などの機械学習によって構築されたニューラルネットワークを用いることが好ましい。また、学習モデルは、サポートベクターマシン(Support Vector Machine)などの他のアルゴリズムを用いてもよい。 Specifically, a learning model is constructed by learning using a large amount of teacher data. The learning model preferably uses a neural network constructed by machine learning such as deep learning. The learning model may also use other algorithms such as Support Vector Machine.
学習モデルを構築する機械学習システムは、検査システム1が備える構成、検査システム1の外部に設けられる構成のいずれでもよい。
A machine learning system that constructs a learning model may be either a configuration included in the
(4)第2変形例
検査範囲設定部1eは、検査対象9の寸法の情報を用いて検査範囲を設定してもよい。
(4) Second Modification The inspection
以下、図10の撮像画像G11を用いて説明する。 Hereinafter, the captured image G11 in FIG. 10 will be used for description.
画面D1に表示されている撮像画像G11は、領域Q93、Q94を含む。領域Q93に写っている配筋は、柱の配筋である。領域Q94に写っている配筋は、基礎の配筋である。基礎の配筋の輪郭は、水平に延びる矩形板状に形成されており、柱の配筋の輪郭は、鉛直方向に長い矩形体状に形成されている。本変形例では、作業者H1は、領域Q93に写っている柱の配筋を検査対象9として、柱の配筋を正面から撮像している。
A captured image G11 displayed on the screen D1 includes areas Q93 and Q94. The reinforcement arrangement shown in the region Q93 is the reinforcement arrangement of the column. The bar arrangement shown in the region Q94 is the base bar arrangement. The outline of the reinforcement of the foundation is formed in the shape of a horizontally extending rectangular plate, and the outline of the reinforcement of the column is formed in the shape of a vertically elongated rectangular body. In this modified example, the worker H1 captures an image of the reinforcement arrangement of the column from the front, with the reinforcement arrangement of the column shown in the area Q93 as the
作業者H1は、タブレット端末T1を操作することで、サーバ装置2の設計情報記憶部2aから通信部1iを介して、領域Q93に対応する柱の配筋(検査対象9である配筋)の設計情報をタブレット端末T1に予めダウンロード(タブレット端末T1に予め保存)しておく。設計情報は、領域Q93に対応する柱の配筋の設計仕様として、配筋の寸法情報を含んでいる。
By operating the tablet terminal T1, the worker H1 obtains the bar arrangement of the column corresponding to the area Q93 (the bar arrangement as the inspection target 9) from the design
そして、作業者H1は、図10に示すように、領域Q93に対して3つの点P11-P13を指定することで、柱の配筋の矩形体状の輪郭の1つの面を領域Q93に対して指定する。点P11-P13は、配筋の矩形体状の輪郭の前面を規定する。すなわち、作業者H1は、撮像画像G11において3つの点P11-P13を指定することで、配筋の輪郭を構成する6つの矩形状の面のうち、1つの面に対応する領域を撮像画像G11内に指定することができる。 Then, as shown in FIG. 10, the operator H1 designates three points P11-P13 for the area Q93, thereby making one face of the rectangular contour of the bar arrangement of the column for the area Q93. to specify. Points P11-P13 define the front face of the rectangular contour of the reinforcement. That is, the operator H1 designates three points P11 to P13 in the captured image G11, and thereby selects an area corresponding to one of the six rectangular surfaces forming the contour of the reinforcement arrangement in the captured image G11. can be specified within
検査範囲設定部1eは、タブレット端末T1に内蔵されている加速度センサ、ジャイロセンサ、又は傾きセンサなどのモーションセンサの検出結果に基づいて、撮像画像G11における鉛直方向及び水平方向を認識できる。また、検査範囲設定部1eは、モーションセンサの検出結果と、撮像画像G1の変化(画像フレームの差分)との少なくとも一方(両方でもよい)を用いて、タブレット端末T1の位置及び向きを認識できる。そこで、検査範囲設定部1eは、撮像画像G11において指定された3つの点P11-P13を、領域Q93に写っている配筋の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、3つの点P11-P13で規定される1つの面を含む矩形体を撮像した撮像領域に相当する。
The inspection
したがって、検査システム1は、検査対象の配筋が写っている領域Q93を、検査対象9ではない配筋が写っている領域Q94と区別して、領域Q94を検査範囲に含めることなく、領域Q93を検査範囲R11とすることができる。すなわち、検査システム1は、撮像画像G11内の検査範囲R11をより正確に設定できる。
Therefore, the
また、検査システム1は、配筋93の寸法の情報を用いることで、作業者H1の操作を簡略化できる。
Moreover, the
そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。
Then, the
本実施形態では、マーカ生成部1fは、検査対象9である配筋の寸法の情報を用いて、撮像画像G11において指定された1つの面を含む矩形体状の三次元モデルK11(図12参照)を生成する。すなわち、マーカ生成部1fは、撮像画像G11において指定された3つの点P11-P13を、検査対象9である配筋の設計情報と照合することで、矩形体状の三次元モデルK11を生成する。すなわち、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において3つの点P11-P13によって指定された1つの面を含む矩形体の形状としている。
In the present embodiment, the
そして、マーカ生成部1fは、三次元モデルK11を撮像画像G11に透視投影することで、図13に示すマーカ画像M11を生成する。このマーカ画像M11は、三次元モデルK11を撮像画像G11内に透視投影した領域に生成され、三次元モデルK11を撮像画像G11内に表示した立体図形画像となる。この結果、表示制御部1cは、図13に示すように、マーカ画像M11を撮像画像G11に重畳させて画面D1に表示する。マーカ画像M11は、撮像画像G11と区別できるように、色、パターン、模様を有する画像である。撮像画像G11におけるマーカ画像M11の範囲は、検査範囲R11と同じになる。すなわち、撮像画像G11に対するマーカ画像M11の範囲は、検査対象9となる配筋が写っている領域Q93を含んでいる。
Then, the
したがって、作業者H1は、画面D1に表示された撮像画像G11内のマーカ画像M11を見ることで、撮像画像G11内の検査範囲R11を確認できる。この結果、検査システム1は、撮像画像G11内の検査範囲R11をより正確に設定できる。
Therefore, the operator H1 can confirm the inspection range R11 in the captured image G11 by looking at the marker image M11 in the captured image G11 displayed on the screen D1. As a result, the
なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の面を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の面を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の面を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の面を含む矩形体の形状とする。
Note that the worker H1 may specify a plurality of surfaces of the rectangular outline of the bar arrangement for the region Q93 of the captured image G11. In this case, the inspection
(5)第3変形例
作業者H1は、図14に示すように、画面D1に表示されている撮像画像G11の領域Q93に対して1つの点P21を指定することで、配筋の矩形体状の輪郭の1つの辺を領域Q93に対して指定してもよい。本変形例の点P21は、配筋の矩形体状の輪郭の上前辺を規定する。すなわち、作業者H1は、撮像画像G11において1つの点P21を指定することで、配筋の輪郭を構成する8つの辺のうち、1つの辺を、撮像画像G11内に指定することができる。
(5) Third Modification As shown in FIG. 14, the worker H1 designates one point P21 in the region Q93 of the captured image G11 displayed on the screen D1, thereby forming a rectangle of bar arrangement. One side of the contour of the shape may be specified for region Q93. The point P21 in this modification defines the upper front side of the rectangular contour of the bar arrangement. That is, the worker H1 can designate one side in the captured image G11 by designating one point P21 in the captured image G11, out of the eight sides forming the contour of the bar arrangement.
この場合、検査範囲設定部1eは、撮像画像G11において指定された1つの点P21を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、1つの点P21で規定される1つの辺を含む矩形体を撮像した撮像領域に相当する。
In this case, the inspection
そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。ここでは、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において1つの点P21によって指定された1つの辺を含む矩形体の形状としている。
Then, the
なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の辺を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の辺を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の辺を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の辺を含む矩形体の形状とする。
Note that the worker H1 may specify a plurality of sides of the rectangular outline of the bar arrangement for the region Q93 of the captured image G11. In this case, the inspection
(6)第4変形例
作業者H1は、図14に示すように、画面D1に表示されている撮像画像G11の領域Q93に対して1つの点P21を指定することで、配筋の矩形体状の輪郭の1つの点を領域Q93に対して指定してもよい。本変形例の点P31は、配筋の矩形体状の輪郭の上前辺に含まれる1点を規定する。
(6) Fourth Modification As shown in FIG. 14, the worker H1 designates one point P21 in the region Q93 of the captured image G11 displayed on the screen D1, thereby forming a rectangle of bar arrangement. A point on the contour of the shape may be designated for region Q93. The point P31 in this modified example defines one point included in the upper front side of the rectangular contour of the reinforcement arrangement.
この場合、検査範囲設定部1eは、撮像画像G11において指定された1つの点P21を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、1つの点P21を含む矩形体を撮像した撮像領域に相当する。
In this case, the inspection
そして、マーカ生成部1fは、撮像画像G11における検査範囲R11を示すマーカ画像M11(図13参照)を生成する。ここでは、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11における1つの点P21を含む矩形体の形状としている。
Then, the
なお、作業者H1は、撮像画像G11の領域Q93に対して、配筋の矩形体状の輪郭の複数の点を指定してもよい。この場合、検査範囲設定部1eは、撮像画像G11において指定された複数の点を、検査対象9である配筋(領域Q93に写っている配筋)の設計情報と照合することで、検査範囲R11(図11参照)を設定する。この検査範囲R11は、撮像画像G11において指定された複数の点を含む矩形体を撮像した撮像領域に相当する。また、マーカ生成部1fは、三次元モデルK11の形状を、撮像画像G11において指定された複数の点を含む矩形体の形状とする。
Note that the operator H1 may specify a plurality of points on the contour of the rectangular shape of the bar arrangement in the area Q93 of the captured image G11. In this case, the inspection
(7)第5変形例
図15は、検査システム1の変形例として、検査システム1Aを示す。
(7) Fifth Modification FIG. 15 shows an inspection system 1A as a modification of the
検査システム1Aでは、検査部1hがサーバ装置2に設けられている。タブレット端末T1とサーバ装置2とは、ネットワークNT1を介して互いに通信可能に構成されており、検査部1hは、撮像画像の検査範囲に画像認識処理を施すことで、検査対象9の検査を行う。
In the inspection system 1A, an
図16は、検査システム1の別の変形例として、検査システム1Bを示す。
FIG. 16 shows an inspection system 1B as another modified example of the
検査システム1Bでは、検査部1hに加えて、検査範囲設定部1e、マーカ生成部1f、及びマーカ処理部1gもサーバ装置2に設けられている。タブレット端末T1とサーバ装置2とは、ネットワークNT1を介して互いに通信可能に構成されており、検査範囲設定部1e、マーカ生成部1f、及びマーカ処理部1gも上記同様の機能を有する。
In the inspection system 1B, the
検査システム1を構成する各部は、検査システム1のように1つの装置にまとめて設けられる構成、又は検査システム1A、1Bのように2つの装置に分散して設けられる構成に限定されず、3つ以上の装置に分散して設けられる構成であってもよい。
Each unit constituting the
(8)第6変形例
検査システム1は、画面D1を備えていなくてよい。例えば、画面D1は、検査システム1と通信可能に構成されたタブレット端末、スマートフォン、及びパーソナルコンピュータなどの外部端末が備えていてもよい。
(8) Sixth Modification The
検査対象9は配筋以外の部材、例えば壁紙、配線器具、配線、又は配管などであってもよい。すなわち、検査対象9は、特定の部材に限定されず、三次元の立体形状を有する部材であればよい。
The
また、作業者H1は、タブレット端末T1を操作することで、所望のタイミングでライブビュー画像を静止画像にし、静止画像に対して検査範囲を設定してもよい。この場合、作業者H1は、ライブビュー画像をモニタしながら、検査対象9がライブビュー画像に写っているときに、ライブビュー画像を静止画像に切り替えることで、検査対象9が写っている静止画像を画面D1に表示する。なお、ライブビュー画像及び静止画像ともに、撮像画像のデータに相当する。
Further, the operator H1 may operate the tablet terminal T1 to change the live view image to a still image at a desired timing and set the inspection range for the still image. In this case, while the operator H1 monitors the live view image, when the
撮像部1aは、3つのレンズを有するステレオカメラに限定されず、2つ、又は4つ以上のレンズを有するステレオカメラであってもよい。また、撮像部1aは、単眼カメラであってもよく、この場合、撮像画像の系列から3次元の位置情報を含む撮像画像のデータを生成できる。また、撮像部1aは、3次元レーザスキャナ、又はLiDAR(Light Detection and Ranging)などのように、レーザを用いた構成であってもよい。
The
検査対象9は、配筋91、93に限定されず、配筋92、94であってもよい。また、検査対象9は、配筋以外であってもよく、例えば壁紙、配線器具、配線、又は配管などの部材であってもよい。また、検査対象9は、建物であってもよい。
The
また、上述の実施形態では、配筋の矩形体状の輪郭が、三次元空間W1において鉛直方向及び水平方向に沿って延びる8つの辺で構成されていることを前提として、検査範囲設定部1e及びマーカ生成部1fは、この前提の下で検査範囲を設定し、マーカ画像を生成している。しかしながら、検査システム1が用いる前提は、検査対象9の形状、構造、及び配置などに応じて適宜設定されればよく、特定の前提に限定されない。
Further, in the above-described embodiment, on the premise that the rectangular contour of the bar arrangement is composed of eight sides extending in the vertical direction and the horizontal direction in the three-dimensional space W1, the inspection
(9)まとめ
上述の実施形態に係る第1の態様の検査システム(1、1A、1B)は、画像取得部(1b)と、表示制御部(1c)と、検査範囲設定部(1e)と、検査部(1h)と、を備える。画像取得部(1b)は、立体形状の検査対象(9)を撮像した画像であり、三次元の位置情報を含む撮像画像(G1、G11)のデータを取得する。表示制御部(1c)は、撮像画像(G1、G11)を画面(D1)に表示する。検査範囲設定部(1e)は、人(H1)の操作によって、撮像画像(G1、G11)において検査対象(9)が写っている範囲を示す検査範囲(R1、R11)を設定する。検査部(1h)は、検査範囲(R1、R11)に画像認識処理を施すことで、検査対象(9)の検査を行う。
(9) Summary The inspection system (1, 1A, 1B) of the first aspect according to the above-described embodiments includes an image acquisition unit (1b), a display control unit (1c), an inspection range setting unit (1e), , and an inspection unit (1h). An image acquisition unit (1b) acquires data of captured images (G1, G11), which are images of a three-dimensional inspection target (9) and include three-dimensional position information. A display control unit (1c) displays the captured images (G1, G11) on the screen (D1). An inspection range setting unit (1e) sets an inspection range (R1, R11) indicating a range in which an inspection target (9) is shown in a captured image (G1, G11) by an operation of a person (H1). The inspection unit (1h) inspects the inspection target (9) by performing image recognition processing on the inspection range (R1, R11).
上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).
上述の実施形態に係る第2の態様の検査システム(1、1A、1B)では、第1の態様において、検査範囲設定部(1e)は、画面(D1)に表示されている撮像画像(G1、G11)に人(H1)の操作によって指定された位置に基づいて、検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the second aspect according to the above-described embodiment, in the first aspect, the inspection range setting unit (1e) sets the captured image (G1 , G11) based on the position specified by the operation of the person (H1).
上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).
上述の実施形態に係る第3の態様の検査システム(1、1A、1B)では、第2の態様において、検査範囲設定部(1e)は、撮像画像(G1、G11)において指定された少なくとも1つの点(P1-P4、P11-P13、P21)を含む検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the third aspect according to the above-described embodiment, in the second aspect, the inspection range setting unit (1e) sets at least one specified in the captured image (G1, G11) It is preferable to set an inspection range (R1, R11) including three points (P1-P4, P11-P13, P21).
上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).
上述の実施形態に係る第4の態様の検査システム(1、1A、1B)では、第2の態様において、検査範囲設定部(1e)は、撮像画像(G1、G11)において指定された少なくとも1つの範囲を含む検査範囲(R1、R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the fourth aspect according to the above-described embodiment, in the second aspect, the inspection range setting unit (1e) sets at least one specified in the captured image (G1, G11) Preferably, an inspection range (R1, R11) containing two ranges is set.
上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection system (1, 1A, 1B) described above can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).
上述の実施形態に係る第5の態様の検査システム(1、1A、1B)では、第1乃至第4の態様のいずれか1つにおいて、検査範囲設定部(1e)は、検査対象(9)の寸法の情報を用いて検査範囲(R11)を設定することが好ましい。 In the inspection system (1, 1A, 1B) of the fifth aspect according to the above-described embodiments, in any one of the first to fourth aspects, the inspection range setting unit (1e) includes the inspection object (9) It is preferable to set the inspection range (R11) using information on the dimensions of .
上述の検査システム(1、1A、1B)は、検査対象(9)の寸法の情報を用いることで、人(H1)の操作を簡略化できる。 The inspection system (1, 1A, 1B) described above can simplify the operation of the person (H1) by using the information on the dimensions of the inspection object (9).
上述の実施形態に係る第6の態様の検査システム(1、1A、1B)は、第1乃至第5の態様のいずれか1つにおいて、撮像画像(G1、G11)における検査範囲(R1、R11)を示すマーカ画像(M1、M11)を生成するマーカ生成部(1f)を更に備えることが好ましい。表示制御部(1c)は、マーカ画像(M1、M11)を撮像画像(G1、G11)に重畳させて画面(D1)に表示する。 The inspection system (1, 1A, 1B) of the sixth aspect according to the above-described embodiment is the inspection range (R1, R11) in the captured image (G1, G11) in any one of the first to fifth aspects. ) is preferably further provided with a marker generator (1f) for generating marker images (M1, M11). A display control unit (1c) superimposes the marker images (M1, M11) on the captured images (G1, G11) and displays them on the screen (D1).
上述の検査システム(1、1A、1B)では、人(H1)は、画面(D1)に表示された撮像画像(G1、G11)内のマーカ画像(M1、M11)を見ることで、撮像画像(G1、G11)内の検査範囲(R1、R11)を確認できる。この結果、検査システム(1、1A、1B)は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 In the inspection system (1, 1A, 1B) described above, the person (H1) looks at the marker images (M1, M11) in the captured images (G1, G11) displayed on the screen (D1), thereby The inspection range (R1, R11) within (G1, G11) can be confirmed. As a result, the inspection system (1, 1A, 1B) can more accurately set the inspection range (R1, R11) in the captured image (G1, G11).
上述の実施形態に係る第7の態様の検査システム(1、1A、1B)では、第6の態様において、マーカ生成部(1f)は、検査範囲(R1、R11)に含まれる三次元の位置情報に基づいて、検査範囲(R1、R11)の三次元モデル(K1、K11)を生成することが好ましい。マーカ生成部(1f)は、三次元モデル(K1、K11)の投影画像をマーカ画像(M1、M11)とする。 In the inspection system (1, 1A, 1B) of the seventh aspect according to the above-described embodiment, in the sixth aspect, the marker generator (1f) is configured to detect three-dimensional positions included in the inspection range (R1, R11). Based on the information, a three-dimensional model (K1, K11) of the examination area (R1, R11) is preferably generated. A marker generator (1f) uses the projected images of the three-dimensional models (K1, K11) as marker images (M1, M11).
上述の検査システム(1、1A、1B)では、人(H1)は、撮像画像(G1、G11)内の検査範囲(R1、R11)を容易に確認できる。 In the inspection systems (1, 1A, 1B) described above, the person (H1) can easily confirm the inspection ranges (R1, R11) in the captured images (G1, G11).
上述の実施形態に係る第8の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、三次元モデル(K1、K11)の形状を、撮像画像(G1、G11)において指定された互いに直交する3つの面を含む矩形体形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the eighth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) converts the shape of the three-dimensional model (K1, K11) into the captured image It is preferable to have a rectangular body shape including three mutually orthogonal faces specified in (G1, G11).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).
上述の実施形態に係る第9の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの面を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the ninth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the information on the dimensions of the inspection object (9) to perform cubic The shape of the original model (K11) is preferably a three-dimensional shape including at least one plane specified in the captured image (G11).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).
上述の実施形態に係る第10の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの辺を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the tenth aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the information on the dimension of the inspection object (9) to The shape of the original model (K11) is preferably a three-dimensional shape including at least one side specified in the captured image (G11).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).
上述の実施形態に係る第11の態様の検査システム(1、1A、1B)では、第7の態様において、マーカ生成部(1f)は、検査対象(9)の寸法の情報を用いて、三次元モデル(K11)の形状を、撮像画像(G11)において指定された少なくとも1つの点を含む三次元の形状とすることが好ましい。 In the inspection system (1, 1A, 1B) of the eleventh aspect according to the above-described embodiment, in the seventh aspect, the marker generator (1f) uses the dimension information of the inspection object (9) to The shape of the original model (K11) is preferably a three-dimensional shape including at least one point specified in the captured image (G11).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).
上述の実施形態に係る第12の態様の検査システム(1、1A、1B)では、第6の態様において、マーカ生成部(1f)は、撮像画像(G1、G11)、及び撮像画像(G1、G11)におけるマーカ画像(M1、M11)の範囲を教師データとする機械学習によって構築された学習モデルに撮像画像(G1、G11)を入力することで、マーカ画像(M1、M11)が重畳した撮像画像(G1、G11)を学習モデルから取得することが好ましい。 In the inspection system (1, 1A, 1B) of the twelfth aspect according to the above-described embodiment, in the sixth aspect, the marker generator (1f) generates the captured images (G1, G11) and the captured images (G1, By inputting the captured images (G1, G11) into a learning model constructed by machine learning using the range of the marker images (M1, M11) in G11) as teacher data, the captured images (M1, M11) are superimposed. Images (G1, G11) are preferably obtained from the learning model.
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を容易に生成できる。 The inspection systems (1, 1A, 1B) described above can readily generate marker images (M1, M11).
上述の実施形態に係る第13の態様の検査システム(1、1A、1B)では、第6乃至第12の態様のいずれか1つにおいて、マーカ画像(M1、M11)は、三次元モデル(K1、K11)の投影画像である。マーカ生成部(1f)は、検査対象(9)が存在する三次元空間(W1)における検査対象(9)の位置を示す座標情報に基づいて、三次元モデル(K1、K11)の三次元座標を二次元座標に変換することで、画面(D1)にマーカ画像(M1、M11)を表示することが好ましい。 In the inspection system (1, 1A, 1B) of the thirteenth aspect according to the above-described embodiments, in any one of the sixth to twelfth aspects, the marker images (M1, M11) are the three-dimensional model (K1 , K11). A marker generator (1f) calculates three-dimensional coordinates of a three-dimensional model (K1, K11) based on coordinate information indicating the position of the inspection target (9) in a three-dimensional space (W1) where the inspection target (9) exists. to two-dimensional coordinates to display the marker images (M1, M11) on the screen (D1).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を撮像画像(G1、G11)に連動させることができる。 The inspection system (1, 1A, 1B) described above can link the marker images (M1, M11) with the captured images (G1, G11).
上述の実施形態に係る第14の態様の検査システム(1、1A、1B)は、第6乃至第13の態様のいずれか1つにおいて、人(H1)の操作に応じて、画面(D1)に表示されているマーカ画像(M1、M11)に対して、移動、回転、拡大、及び縮小の少なくとも1つの処理を施すマーカ処理部(1g)を更に備えることが好ましい。検査範囲設定部(1e)は、マーカ画像(M1、M11)に対して施された少なくとも1つの処理に応じて、検査範囲(R1、R11)を修正する。 The inspection system (1, 1A, 1B) of the 14th aspect according to the above-described embodiment, in any one of the 6th to 13th aspects, responds to the operation of the person (H1) on the screen (D1) It is preferable to further include a marker processing unit (1g) that performs at least one process of movement, rotation, enlargement, and reduction on the marker images (M1, M11) displayed in . An inspection range setting unit (1e) corrects the inspection ranges (R1, R11) according to at least one process performed on the marker images (M1, M11).
上述の検査システム(1、1A、1B)は、マーカ画像(M1、M11)を修正することで、検査範囲(R1、R11)を修正できる。 The inspection systems (1, 1A, 1B) described above can modify the inspection ranges (R1, R11) by modifying the marker images (M1, M11).
上述の実施形態に係る第15の態様の検査システム(1、1A、1B)では、第1乃至第14の態様のいずれか1つにおいて、撮像画像(G1、G11)は、移動可能な撮像部(1a)によって撮像されたライブビュー画像であることが好ましい。 In the inspection system (1, 1A, 1B) of the fifteenth aspect according to the above-described embodiments, in any one of the first to fourteenth aspects, the captured image (G1, G11) is a movable imaging unit It is preferably a live view image captured by (1a).
上述の検査システム(1、1A、1B)は、撮像画像(G1、G11)をリアルタイムでモニタできる。 The inspection system (1, 1A, 1B) described above can monitor the captured images (G1, G11) in real time.
上述の実施形態に係る第16の態様の検査システム(1、1A、1B)では、第1乃至第15の態様のいずれか1つにおいて、検査対象(9)は、配筋(91-94)であることが好ましい。 In the inspection system (1, 1A, 1B) according to the sixteenth aspect according to the above-described embodiments, in any one of the first to fifteenth aspects, the inspection object (9) includes bar arrangement (91-94) is preferably
上述の検査システム(1、1A、1B)は、配筋(91-94)の検査を行うことができる。 The inspection system (1, 1A, 1B) described above is capable of inspecting reinforcement arrangements (91-94).
上述の実施形態に係る第17の態様の検査システム(1、1A、1B)では、第1乃至第15の態様のいずれか1つにおいて、検査対象(9)は、建築物であることが好ましい。 In the inspection system (1, 1A, 1B) of the seventeenth aspect according to the above-described embodiments, in any one of the first to fifteenth aspects, the inspection object (9) is preferably a building. .
上述の検査システム(1、1A、1B)は、建築物の検査を行うことができる。 The inspection system (1, 1A, 1B) described above is capable of inspecting buildings.
上述の実施形態に係る第18の態様の検査方法は、画像取得ステップ(S1)と、表示ステップ(S2)と、検査範囲設定ステップ(S3)と、検査ステップ(S5)と、を含む。画像取得ステップ(S1)は、立体形状の検査対象(9)を撮像した画像であり、三次元の位置情報を含む撮像画像(G1、G11)のデータを取得する。表示ステップ(S2)は、撮像画像(G1、G11)を画面(D1)に表示する。検査範囲設定ステップ(S3)は、人(H1)の操作によって、撮像画像(G1、G11)において検査対象(9)が写っている範囲を示す検査範囲(R1、R11)を設定する。検査ステップ(S5)は、検査範囲(R1、R11)に画像認識処理を施すことで、検査対象(9)の検査を行う。 The inspection method of the eighteenth aspect according to the above embodiment includes an image acquisition step (S1), a display step (S2), an inspection range setting step (S3), and an inspection step (S5). The image acquisition step (S1) acquires data of captured images (G1, G11), which are images of a three-dimensional inspection object (9) and include three-dimensional position information. The display step (S2) displays the captured images (G1, G11) on the screen (D1). In the inspection range setting step (S3), an inspection range (R1, R11) indicating the range in which the inspection target (9) is shown in the captured images (G1, G11) is set by the operation of the person (H1). In the inspection step (S5), the inspection target (9) is inspected by subjecting the inspection range (R1, R11) to image recognition processing.
上述の検査方法は、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The inspection method described above can more accurately set the inspection ranges (R1, R11) in the captured images (G1, G11).
上述の実施形態に係る第19の態様のプログラムは、コンピュータシステムに第18の態様の検査方法を実行させる。 The program of the nineteenth aspect according to the above-described embodiments causes the computer system to execute the inspection method of the eighteenth aspect.
上述のプログラムは、撮像画像(G1、G11)内の検査範囲(R1、R11)をより正確に設定できる。 The above program can more accurately set the inspection ranges (R1, R11) in the captured images (G1, G11).
1、1A、1B 検査システム
1a 撮像部
1b 画像取得部
1c 表示制御部
1e 検査範囲設定部
1f マーカ生成部
1g マーカ処理部
1h 検査部
9 検査対象
91-94 配筋
D1 画面
W1 三次元空間
H1 作業者(人)
G1、G11 撮像画像
R1、R11 検査範囲
M1、M11 マーカ画像
K1、K11 三次元モデル
P1-P4、P11-P13、P21 点
S1 画像取得ステップ
S2 表示ステップ
S3 検査範囲設定ステップ
S5 検査ステップ
1, 1A,
G1, G11 Captured images R1, R11 Inspection range M1, M11 Marker images K1, K11 Three-dimensional model P1-P4, P11-P13, P21 Points S1 Image acquisition step S2 Display step S3 Inspection range setting step S5 Inspection step
Claims (19)
前記撮像画像を画面に表示する表示制御部と、
人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する検査範囲設定部と、
前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う検査部と、を備える
検査システム。 an image acquisition unit that acquires data of a captured image that is an image of a three-dimensional inspection object and that includes three-dimensional position information;
a display control unit that displays the captured image on a screen;
an inspection range setting unit that sets an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation;
an inspection unit that inspects the inspection object by performing image recognition processing on the inspection range.
請求項1の検査システム。 The inspection system according to claim 1, wherein the inspection range setting unit sets the inspection range based on a position designated by the person's operation on the captured image displayed on the screen.
請求項2の検査システム。 3. The inspection system according to claim 2, wherein the inspection range setting unit sets the inspection range including at least one point designated in the captured image.
請求項2の検査システム。 The inspection system according to claim 2, wherein the inspection range setting unit sets the inspection range including at least one range specified in the captured image.
請求項1乃至4のいずれか1つの検査システム。 The inspection system according to any one of claims 1 to 4, wherein the inspection range setting unit sets the inspection range using information on the dimensions of the inspection object.
前記表示制御部は、前記マーカ画像を前記撮像画像に重畳させて前記画面に表示する
請求項1乃至5のいずれか1つの検査システム。 further comprising a marker generation unit that generates a marker image indicating the inspection range in the captured image;
The inspection system according to any one of claims 1 to 5, wherein the display control unit superimposes the marker image on the captured image and displays it on the screen.
前記検査範囲に含まれる前記三次元の位置情報に基づいて、前記検査範囲の三次元モデルを生成し、
前記三次元モデルの投影画像を前記マーカ画像とする
請求項6の検査システム。 The marker generator is
generating a three-dimensional model of the inspection range based on the three-dimensional position information included in the inspection range;
The inspection system according to claim 6, wherein the projected image of the three-dimensional model is used as the marker image.
請求項7の検査システム。 8. The inspection system according to claim 7, wherein the marker generation unit makes the shape of the three-dimensional model a rectangular body shape including three mutually orthogonal surfaces specified in the captured image.
請求項7の検査システム。 8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model a three-dimensional shape including at least one surface specified in the captured image. .
請求項7の検査システム。 8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model into a three-dimensional shape including at least one side specified in the captured image. .
請求項7の検査システム。 8. The inspection system according to claim 7, wherein the marker generator uses the dimension information of the inspection object to make the shape of the three-dimensional model into a three-dimensional shape including at least one point specified in the captured image. .
請求項6の検査システム。 The marker generation unit inputs the captured image to a learning model constructed by machine learning using the captured image and the range of the marker image in the captured image as teacher data, thereby obtaining the marker image superimposed on the marker image. 7. The inspection system of claim 6, wherein captured images are obtained from the learning model.
前記マーカ生成部は、前記検査対象が存在する三次元空間における前記検査対象の位置を示す座標情報に基づいて、前記三次元モデルの三次元座標を二次元座標に変換することで、前記画面に前記マーカ画像を表示する
請求項6乃至12のいずれか1つの検査システム。 the marker image is a projection image of a three-dimensional model;
The marker generation unit converts the three-dimensional coordinates of the three-dimensional model into two-dimensional coordinates based on coordinate information indicating the position of the inspection object in the three-dimensional space where the inspection object exists, so that 13. The inspection system according to any one of claims 6 to 12, wherein the marker image is displayed.
前記検査範囲設定部は、前記マーカ画像に対して施された前記少なくとも1つの処理に応じて、前記検査範囲を修正する
請求項6乃至13のいずれか1つの検査システム。 further comprising a marker processing unit that performs at least one process of moving, rotating, enlarging, and reducing the marker image displayed on the screen in accordance with the operation of the person;
The inspection system according to any one of claims 6 to 13, wherein the inspection range setting section modifies the inspection range according to the at least one process performed on the marker image.
請求項1乃至14のいずれか1つの検査システム。 The inspection system according to any one of claims 1 to 14, wherein the captured image is a live view image captured by a movable imaging unit.
請求項1乃至15のいずれか1つの検査システム。 16. The inspection system according to any one of claims 1 to 15, wherein the object to be inspected is bar arrangement.
請求項1乃至15のいずれか1つの検査システム。 The inspection system according to any one of claims 1 to 15, wherein the inspection object is a building.
前記撮像画像を画面に表示する表示ステップと、
人の操作によって、前記撮像画像において前記検査対象が写っている範囲を示す検査範囲を設定する検査範囲設定ステップと、
前記検査範囲に画像認識処理を施すことで、前記検査対象の検査を行う検査ステップと、を含む
検査方法。 an image acquisition step of acquiring data of a captured image that is an image of a three-dimensional inspection target and includes three-dimensional position information;
a display step of displaying the captured image on a screen;
an inspection range setting step of setting an inspection range indicating a range in which the inspection target is shown in the captured image by a human operation;
an inspection step of inspecting the inspection target by subjecting the inspection range to image recognition processing.
プログラム。 A program that causes a computer system to execute the inspection method according to claim 18.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021190536A JP2023077282A (en) | 2021-11-24 | 2021-11-24 | Inspection system, inspection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021190536A JP2023077282A (en) | 2021-11-24 | 2021-11-24 | Inspection system, inspection method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023077282A true JP2023077282A (en) | 2023-06-05 |
Family
ID=86610242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021190536A Pending JP2023077282A (en) | 2021-11-24 | 2021-11-24 | Inspection system, inspection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023077282A (en) |
-
2021
- 2021-11-24 JP JP2021190536A patent/JP2023077282A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | SLAM-driven robotic mapping and registration of 3D point clouds | |
JP7294396B2 (en) | Image processing device, image processing method, and program | |
Yang et al. | Thin crack observation in a reinforced concrete bridge pier test using image processing and analysis | |
US6031941A (en) | Three-dimensional model data forming apparatus | |
US20220191459A1 (en) | Systems and methods of creating a three-dimensional virtual image | |
US20160260256A1 (en) | Method and System for Constructing a Virtual Image Anchored onto a Real-World Object | |
JP2009053147A (en) | Three-dimensional measuring method and three-dimensional measuring device | |
JP6775054B2 (en) | Inspection support device | |
CN104976950B (en) | Object space information measuring device and method and image capturing path calculating method | |
US10015466B2 (en) | Spatial information visualization apparatus, storage medium, and spatial information visualization method | |
US9569850B2 (en) | System and method for automatically determining pose of a shape | |
JP2018048839A (en) | Three-dimensional data generator, three-dimensional data generation method, and monitoring system equipped with three-dimensional data generator | |
US20180247430A1 (en) | Display control method and display control apparatus | |
JPWO2019021719A1 (en) | Damage data editing device, damage data editing method, and program | |
WO2020040277A1 (en) | Mixed reality system, program, mobile terminal device, and method | |
US20210201522A1 (en) | System and method of selecting a complementary image from a plurality of images for 3d geometry extraction | |
JP2024012527A (en) | Information display device, method, and program | |
JP2023077282A (en) | Inspection system, inspection method and program | |
KR20140099622A (en) | Robot localization detecting system using a multi-view image and method thereof | |
JP2018081570A (en) | Information visualization system, information visualization method, and program | |
US10311317B2 (en) | Teacher data generation method | |
US20240017412A1 (en) | Control device, control method, and program | |
JP2004252815A (en) | Image display device, its method and program | |
US20220012379A1 (en) | Systems and methods for modelling interactions of physical assets within a workspace | |
JP2020204626A (en) | Inspection supporting device |