JP7378691B1 - Information processing device, detection method, and detection program - Google Patents
Information processing device, detection method, and detection program Download PDFInfo
- Publication number
- JP7378691B1 JP7378691B1 JP2023554023A JP2023554023A JP7378691B1 JP 7378691 B1 JP7378691 B1 JP 7378691B1 JP 2023554023 A JP2023554023 A JP 2023554023A JP 2023554023 A JP2023554023 A JP 2023554023A JP 7378691 B1 JP7378691 B1 JP 7378691B1
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- information
- cloud information
- top layer
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 42
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 41
- 239000000284 extract Substances 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims abstract description 4
- 238000007689 inspection Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 19
- 239000003086 colorant Substances 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 9
- 230000003014 reinforcing effect Effects 0.000 description 29
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 230000005484 gravity Effects 0.000 description 11
- 230000002787 reinforcement Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 229910001294 Reinforcing steel Inorganic materials 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
情報処理装置(100)は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する取得部(120)と、複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部(130)と、予め定められた方法を用いて、3次元色付き点群情報の中から複数の対象物の点群情報である対象物点群情報を抽出する抽出部(140)と、対象物点群情報の点群密度を算出する算出部(150)と、対象物点群情報と点群密度とに基づいて、複数の層のうち、最上層以外の層を検出する検出部(170)と、を有する。The information processing device (100) includes an acquisition unit (120) that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles, and a plurality of layers configured based on the plurality of images. a creation unit (130) that creates three-dimensional colored point cloud information to create three-dimensional colored point cloud information; An extraction unit (140) that extracts the point cloud density of the target object point cloud information, a calculation unit (150) that calculates the point cloud density of the target object point cloud information, and a It has a detection unit (170) that detects layers other than the upper layer.
Description
本開示は、情報処理装置、検出方法、及び検出プログラムに関する。 The present disclosure relates to an information processing device, a detection method, and a detection program.
建築現場では、配筋検査が行われている。省力化のため、配筋検査を支援するシステムが開発されている。また、配筋領域を検出する技術が提案されている(特許文献1を参照)。 At the construction site, reinforcement inspection is being carried out. In order to save labor, systems that support reinforcement inspection have been developed. Furthermore, a technique for detecting reinforcement regions has been proposed (see Patent Document 1).
ところで、配筋検査の対象は、複数の鉄筋である。複数の鉄筋により、複数の層が構成される。このように、複数の層が構成されている場合、最上層を検出する技術が知られている。また、最上層以外の層を検出する技術も知られている。しかし、最上層以外の層を検出する技術の検出精度が悪いという問題があった。 By the way, the objects of reinforcement inspection are a plurality of reinforcing bars. Multiple layers are composed of multiple reinforcing bars. In this way, when a plurality of layers are configured, a technique for detecting the top layer is known. Furthermore, techniques for detecting layers other than the top layer are also known. However, there was a problem in that the detection accuracy of the technology for detecting layers other than the top layer was poor.
本開示の目的は、最上層以外の層を検出する精度を向上させることである。 An objective of the present disclosure is to improve the accuracy of detecting layers other than the top layer.
本開示の一態様に係る情報処理装置が提供される。情報処理装置は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する取得部と、前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部と、前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、前記形状に基づいて、3次元の方向を推定し、前記3次元の方向に基づいて、最上層の表面を抽出し、前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出する抽出部と、前記対象物点群情報の点群密度を算出する算出部と、前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する検出部と、を有する。 An information processing device according to one aspect of the present disclosure is provided. The information processing device includes an acquisition unit that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles, and a three-dimensional colored point forming a plurality of layers based on the plurality of images. a creation unit that creates group information; and a creation unit that estimates a shape of the three-dimensional colored point group information based on the three-dimensional colored point group information, estimates a three-dimensional direction based on the shape, and Based on the direction of and an extraction unit that extracts object point cloud information that is point cloud information of the plurality of objects from the three-dimensional colored point cloud information based on the average value or the mode value; a calculation unit that calculates a point cloud density of object point cloud information; a detection unit that detects a layer other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density; , has.
本開示によれば、最上層以外の層を検出する精度を向上させることができる。 According to the present disclosure, it is possible to improve the accuracy of detecting layers other than the top layer.
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。 Embodiments will be described below with reference to the drawings. The following embodiments are merely examples, and various modifications can be made within the scope of the present disclosure.
実施の形態.
図1は、建築現場の例を示す図である。建築現場には、複数の鉄筋が配置される。複数の鉄筋により、複数の層が構成される。図1は、2つの層を示している。例えば、図1は、最上層である第1層を示している。また、例えば、図1は、第1層の下の層である第2層を示している。このように、図1は、2つの層を示している。しかし、複数の鉄筋により構成される層の数は、3つ以上でもよい。Embodiment.
FIG. 1 is a diagram showing an example of a construction site. A plurality of reinforcing bars are placed at a construction site. Multiple layers are composed of multiple reinforcing bars. Figure 1 shows two layers. For example, FIG. 1 shows the first layer, which is the top layer. Further, for example, FIG. 1 shows a second layer that is a layer below the first layer. FIG. 1 thus shows two layers. However, the number of layers constituted by a plurality of reinforcing bars may be three or more.
また、図1は、情報処理装置100を示している。情報処理装置100は、検出方法を実行する装置である。例えば、情報処理装置100は、タブレット端末、スマートフォンなどである。また、情報処理装置100は、PC(Personal Computer)などでもよい。ユーザは、情報処理装置100を用いて、複数の鉄筋を撮像してもよい。複数の鉄筋を撮像する場合、情報処理装置100は、ステレオカメラ、RGB(Red Green Blue)-D(Depth)カメラ、赤外線カメラ、又はX線カメラなどの画像センサを有する。そして、複数の鉄筋を撮像する場合、ユーザは、複数の異なる角度から複数の鉄筋を撮像する。これにより、情報処理装置100は、複数の画像を取得できる。ここで、鉄筋は、対象物とも言う。
Further, FIG. 1 shows an
情報処理装置100は、複数の画像を用いて、処理を実行する。以下、情報処理装置100が実行する処理を詳細に説明する。
The
次に、情報処理装置100が有するハードウェアを説明する。
図2は、情報処理装置が有するハードウェアを示す図である。情報処理装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。Next, hardware included in the
FIG. 2 is a diagram showing hardware included in the information processing device. The
プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。また、情報処理装置100は、処理回路を有してもよい。
揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、SSD(Solid State Drive)である。
The
次に、情報処理装置100が有する機能を説明する。
図3は、情報処理装置の機能を示すブロック図である。情報処理装置100は、記憶部110、取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190を有する。Next, the functions of the
FIG. 3 is a block diagram showing the functions of the information processing device. The
記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
The
取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190の一部又は全部は、処理回路によって実現してもよい。また、取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、検出プログラムとも言う。例えば、検出プログラムは、記録媒体に記録されている。
Part or all of the
記憶部110は、様々な情報を記憶する。
取得部120は、複数の異なる角度から複数の対象物(例えば、鉄筋)を撮像することにより得られた複数の画像を取得する。例えば、情報処理装置100がカメラ(例えば、ステレオカメラ)を有する場合、取得部120は、カメラによって生成された当該複数の画像を取得する。また、取得部120は、当該複数の画像を外部装置から取得してもよい。なお、外部装置の図示は、省略されている。
The
作成部130は、当該複数の画像に基づいて、3次元色付き点群情報を作成する。3次元色付き点群情報は、複数の層を構成している。なお、点群は、特徴点の集まりである。
The
抽出部140は、予め定められた方法を用いて、3次元色付き点群情報の中から対象物点群情報を抽出する。対象物点群情報とは、複数の対象物の点群情報である。抽出部140が実行する処理を詳細に説明する。
The
抽出部140は、3次元色付き点群情報が示す色の数が予め定められた閾値以上である場合、3次元色付き点群情報が示す色をクラスタリングする。例えば、抽出部140は、k-means法を用いて、クラスタリングを行う。クラスタリングには、例えば、畳み込みニューラルネットワークなどの深層学習による方法が用いられてもよい。具体的には、抽出部140は、RGB値、RGB値の比率、HSV色空間に基づく値(例えば、色相、彩度、及び明度)、又はLab色空間に基づく値(例えば、色相、彩度、及び明度)を用いて、3次元色付き点群情報が示す色をクラスタリングする。また、抽出部140は、RGB値、RGB値の比率、HSV色空間に基づく値、及びLab色空間に基づく値を用いて、3次元色付き点群情報が示す色をクラスタリングしてもよい。クラスタリングでは、近似する色が1つの色にまとめられる。例えば、色がまとめられることで、銀色が、灰色に変更される。これにより、色の数が減少する。
The
また、当該複数の画像が赤外線カメラ、X線カメラなどのモノクロカメラにより生成された場合、抽出部140は、輝度に基づいて、3次元色付き点群情報が示す色をクラスタリングする。赤外線カメラを用いることで、例えば、夜間又は暗部での配筋検査を行うことが可能である。また、X線カメラを用いることで、例えば、コンクリート打設後など、鉄筋を直接撮影ができない状態でも配筋検査を行うことが可能である。
Furthermore, when the plurality of images are generated by a monochrome camera such as an infrared camera or an X-ray camera, the
抽出部140は、3次元色付き点群情報の中から対象物点群情報を抽出する。詳細に抽出処理を説明する。まず、取得部120は、対象物に対応する色の情報を記憶部110又は外部装置から取得する。例えば、色は、灰色である。具体的には、色の情報は、RGB値である。抽出部140は、3次元色付き点群情報と対象物に対応する色の情報とに基づいて、3次元色付き点群情報の中から対象物点群情報を抽出する。また、3次元色付き点群情報は、クラスタリングされていない3次元色付き点群情報、又はクラスタリングされた3次元色付き点群情報である。抽出部140は、3次元色付き点群情報の中から対象物以外の点群を除去する。
The
ここで、抽出部140が実行する処理を、具体例を用いて説明する。
図4(A),(B)は、抽出部が実行する処理の具体例を示す図である。まず、3次元色付き点群情報が示す色の数は、閾値以上であるものとする。抽出部140は、3次元色付き点群情報が示す色をクラスタリングする。図4(A)は、クラスタリングされた3次元色付き点群情報を示している。なお、例えば、図4(A)が示す直線は、複数の点によって表現される。図4(A)では、3次元色付き点群情報が、2つの色にクラスタリングされた状態を示している。2つの色は、灰色と赤色である。灰色の箇所は、鉄筋である。赤色の箇所は、地面である。Here, the processing executed by the
FIGS. 4A and 4B are diagrams showing specific examples of processing executed by the extraction unit. First, it is assumed that the number of colors indicated by the three-dimensional colored point group information is greater than or equal to a threshold value. The
抽出部140は、3次元色付き点群情報と対象物に対応する色(すなわち、灰色)の情報とに基づいて、3次元色付き点群情報の中から灰色の箇所を、対象物点群情報として抽出する。これにより、鉄筋を示す点群情報が、抽出される。抽出部140は、3次元色付き点群情報の中から対象物点群情報以外の点群を除去する。図4(B)は、除去が行われた後の状態を示している。よって、図4(B)は、対象物点群情報を示している。
The
上記では、対象物に対応する色の情報を用いて、対象物点群情報が抽出される場合を説明した。抽出部140は、次の方法により、対象物点群情報を抽出してもよい。対象物点群情報の抽出方法を、図を用いて説明する。
In the above, a case has been described in which object point cloud information is extracted using color information corresponding to the object. The
図5は、対象物点群情報の抽出方法の例を示す図である。抽出部140は、3次元色付き点群情報の中から、集合していない点、又は一定の密度を有さない点群を除去する。なお、当該点又は当該点群は、ノイズである。当該点又は当該点群が、3次元色付き点群情報に存在しない場合、抽出部140は、除去処理を実行しない。また、3次元色付き点群情報は、クラスタリングされていない3次元色付き点群情報、又はクラスタリングされた3次元色付き点群情報である。抽出部140は、3次元色付き点群情報に基づいて、3次元色付き点群情報の形状を推定する。抽出部140は、推定された形状に基づいて、3次元の方向を推定する。なお、当該方向は、大まかな方向でもよい。抽出部140は、3次元の方向に基づいて、最上層の表面を抽出する。抽出部140は、最上層の表面の色値(すなわち、RGB値)の平均値を算出する。抽出部140は、最上層の表面の色値の最頻値を算出してもよい。また、抽出部140は、最上層の表面の色値の中央値を算出してもよい。抽出部140は、統計量により、最上層の表面の色値から対象物の色を判別できる様々な方法を用いることができる。抽出部140は、当該平均値又は当該最頻値を、対象物の色とする。抽出部140は、3次元色付き点群情報と、当該平均値又は当該最頻値とに基づいて、3次元色付き点群情報の中から対象物点群情報を抽出する。また、当該平均値が用いられる場合、抽出部140は、当該平均値に近い値も対象物の色として、3次元色付き点群情報の中から対象物点群情報を抽出してもよい。ここで、対象物に対応する色の情報を用いる方法では、対象物に対応する色の情報が記憶部110に格納されている場合がある。そのため、当該方法では、記憶部110の記憶容量が増大される場合がある。しかし、当該平均値又は当該最頻値を用いる方法は、記憶部110に情報を格納しないで、実現できる。よって、情報処理装置100は、記憶容量の増大を抑制できる。
FIG. 5 is a diagram illustrating an example of a method for extracting object point group information. The
算出部150は、対象物点群情報が抽出された後、対象物点群情報の点群密度を算出する。
After the target object point cloud information is extracted, the
ここで、図4(B)が示すように、対象物点群情報が3次元の仮想空間に配置される。対象物点群情報は、現実の方向(例えば、重力方向)に合わせて、配置されてもよい。以下、方向を合わせる処理を説明する。 Here, as shown in FIG. 4(B), the target object point group information is arranged in a three-dimensional virtual space. The object point group information may be arranged according to the actual direction (for example, the direction of gravity). The process of adjusting the direction will be described below.
方向制御部160は、IMU(Inertial Measurement Unit)センサが情報処理装置100に搭載されている場合、IMUセンサから重力方向の情報を取得する。方向制御部160は、対象物点群情報の最上層の表面に垂直な方向を、重力方向に合わせる。これにより、図4(B)のZ軸の方向と、最上層以外の層が存在する方向とが一致する。なお、対象物点群情報の最上層の表面は、例えば、領域拡張法などの領域抽出アルゴリズムを用いて、検出されてもよい。
If an IMU (Inertial Measurement Unit) sensor is installed in the
重力方向は、次のように検出されてもよい。方向制御部160は、最上層の表面を含む画像に基づいて、複数の交点を検出する。図を用いて、交点の検出処理を説明する。
The gravity direction may be detected as follows. The
図6は、交点の検出処理の例を示す図である。図6は、画像200を示している。画像200は、最上層の表面を含む画像である。方向制御部160は、画像200に基づいて、交点201~203を検出する。なお、交点の検出では、ハフ変換が用いられてもよい。方向制御部160は、複数の交点に基づいて、重力方向を算出する。例えば、方向制御部160は、交点201~203が頂点である三角形を検出する。方向制御部160は、三角形に垂直な方向を、重力方向として検出する。
FIG. 6 is a diagram illustrating an example of intersection detection processing. FIG. 6 shows an image 200. Image 200 is an image that includes the surface of the top layer.
検出部170は、対象物点群情報と、算出された点群密度とに基づいて、複数の層のうち、最上層以外の層を検出する。図を用いて、検出処理を具体的に説明する。
The
図7は、検出処理の例を示す図である。図7の上部は、対象物点群情報を示している。例えば、検出部170は、点群密度が高い箇所と、対象物点群情報の層の箇所とを合わせることで、最上層以外の層(例えば、第2層)を検出する。また、点群情報は、オクルージョンにより、下の層ほど点群密度が低くなる傾向がある。そのため、検出部170は、当該傾向に基づいて、最上層以外の層を検出してもよい。
FIG. 7 is a diagram showing an example of detection processing. The upper part of FIG. 7 shows object point cloud information. For example, the
検査部180は、最上層以外の層に存在する対象物に対して検査を行う。詳細には、取得部120は、検査内容を示す検査内容情報を取得する。例えば、検査内容は、配筋検査の内容である。検査部180は、検査内容情報に基づいて、最上層以外の層に存在する対象物に対して検査を行う。
The
また、検査部180は、点群密度を用いて、上層以外の層に存在する対象物を検出し、検査内容情報に基づいて、最上層以外の層に存在する対象物に対して検査を行ってもよい。図を用いて、検査処理を説明する。
In addition, the
図8(A),(B)は、検査処理の例を示す図である。図8(A),(B)は、第2層の鉄筋(すなわち、対象物)を示している。配筋検査では、鉄筋の間隔が検査される。しかし、円300が示す箇所のように、鉄筋が交差している箇所がある。検査の精度を高めるために、検査部180は、正確な鉄筋の位置を検出する必要がある。そこで、検査部180は、点群密度を用いる。これにより、検査部180は、正確な鉄筋の位置を検出できる。このように、情報処理装置100は、点群密度を用いることで、精度の高い検査を行うことができる。
FIGS. 8A and 8B are diagrams illustrating an example of inspection processing. FIGS. 8A and 8B show the second layer of reinforcing bars (ie, the object). In reinforcement inspection, the spacing between reinforcing bars is inspected. However, there are places where the reinforcing bars intersect, as shown by the
また、図8(A)は、鉄筋の位置とX方向における点群密度との関係を示している。図8(B)は、鉄筋の位置とY方向における点群密度との関係を示している。 Moreover, FIG. 8(A) shows the relationship between the position of the reinforcing bars and the point group density in the X direction. FIG. 8(B) shows the relationship between the position of the reinforcing bars and the point group density in the Y direction.
出力部190は、検査の結果を出力する。例えば、情報処理装置100がディスプレイを有する場合、出力部190は、検査の結果をディスプレイに出力する。また、例えば、出力部190は、検査の結果を外部装置に出力する。
The
なお、上記では、方向制御部160は、複数の交点に基づいて重力方向を算出したがこれに限らない。例えば、方向制御部160は、点群密度を用い、重力方向を算出してもよい。例えば、点群密度として、点群密度分布の変化の激しさの度合い(すなわち、点群密度分布のグラフのピークの鋭さ(例えば、尖度))を用いてもよい。配筋を最上層方向から撮影した場合、撮影角度の違いにより、各層の鉄筋の重なり度合いが異なる。点群密度分布は、各層の鉄筋の重なり度合いが強くなるにつれて、当該グラフのピークの鋭さが強くなる。つまり、点群密度分布のグラフの尖度が最も強くなる場合が、各層の鉄筋が最も重なる状態となる。すなわち、カメラの撮影の向きと最上層の表面が相対する位置となる。言い換えれば、最上層の表面の垂直線上にカメラが位置する。この条件の下、徐々に点群密度分布のグラフのピーク値が低くなる方向を、下層がある重力の方向として検出することができる。よって、方向制御部160は、点群密度を用いることで、最上層を特定すること無く重力の方向を検出することができる。更に、現実の方向が重力方向に限定されることも無いので、例えば、壁面や柱など、重力方向と異なる向きに配置された配筋の検査を行うことができる。
Note that, in the above, the
次に、情報処理装置100が実行する処理を、フローチャートを用いて、説明する。
図9は、情報処理装置が実行する処理の例を示すフローチャートである。
(ステップS11)取得部120は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する。
(ステップS12)作成部130は、当該複数の画像に基づいて、3次元色付き点群情報を作成する。Next, the processing executed by the
FIG. 9 is a flowchart illustrating an example of processing executed by the information processing device.
(Step S11) The
(Step S12) The
(ステップS13)抽出部140は、3次元色付き点群情報が示す色をクラスタリングする。
(ステップS14)抽出部140は、クラスタリングされた3次元色付き点群情報と、対象物に対応する色の情報とに基づいて、クラスタリングされた3次元色付き点群情報の中から対象物点群情報を抽出する。(Step S13) The
(Step S14) The
(ステップS15)算出部150は、対象物点群情報の点群密度を算出する。
(ステップS16)検出部170は、対象物点群情報と点群密度とに基づいて、最上層以外の層を検出する。
(ステップS17)検査部180は、最上層以外の層に存在する対象物に対して検査を行う。
(ステップS18)出力部190は、検査の結果を出力する。(Step S15) The
(Step S16) The
(Step S17) The
(Step S18) The
実施の形態によれば、情報処理装置100は、点群密度を用いることで、最上層以外の層を検出する精度を向上させることができる。
According to the embodiment, the
上記では、対象物が鉄筋である場合を説明した。しかし、対象物が鉄筋以外の物でもよい。鉄筋以外の対象物としては、例えば、鉄骨、足場、木組み、配管、ケーブルなどである。よって、鉄筋以外の物により、複数の層が構成されている場合にも、実施の形態が適用できる。 In the above, the case where the target object is a reinforcing bar has been explained. However, the object may be other than reinforcing steel. Examples of objects other than reinforcing bars include steel frames, scaffolding, wooden structures, piping, and cables. Therefore, the embodiments can be applied even when a plurality of layers are made of materials other than reinforcing bars.
また上記では、最上層以外の層を検出する場合を説明したが、最上層を含めた層を検出してもよく、最上層以外の層の場合と同様の効果を奏する。 Moreover, although the case where layers other than the top layer are detected has been described above, layers including the top layer may be detected, and the same effect as in the case of layers other than the top layer is achieved.
100 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 120 取得部、 130 作成部、 140 抽出部、 150 算出部、 160 方向制御部、 170 検出部、 180 検査部、 190 出力部、 200 画像、 201~203 交点、 300 円。 100 information processing device, 101 processor, 102 volatile storage device, 103 nonvolatile storage device, 110 storage section, 120 acquisition section, 130 creation section, 140 extraction section, 150 calculation section, 160 direction control section, 170 detection section, 180 Inspection section, 190 Output section, 200 Image, 201-203 Intersection, 300 yen.
Claims (6)
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部と、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、前記形状に基づいて、3次元の方向を推定し、前記3次元の方向に基づいて、最上層の表面を抽出し、前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出する抽出部と、
前記対象物点群情報の点群密度を算出する算出部と、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する検出部と、
を有する情報処理装置。 an acquisition unit that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles;
a creation unit that creates three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images;
Based on the three-dimensional colored point cloud information, estimate the shape of the three-dimensional colored point cloud information, estimate the three-dimensional direction based on the shape, and estimate the three-dimensional direction based on the three-dimensional direction. The surface is extracted, the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer is calculated, and the average value or the mode of the color values of the surface of the top layer is calculated. an extraction unit that extracts object point cloud information that is point cloud information of the plurality of objects from the three-dimensional colored point cloud information based on the value ;
a calculation unit that calculates the point cloud density of the target object point cloud information;
a detection unit that detects a layer other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
An information processing device having:
前記3次元色付き点群情報が示す色の数が予め定められた閾値以上である場合、前記3次元色付き点群情報が示す色をクラスタリングし、
クラスタリングされた前記3次元色付き点群情報に基づいて、クラスタリングされた前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、前記最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
クラスタリングされた前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、クラスタリングされた前記3次元色付き点群情報の中から前記対象物点群情報を抽出する、
請求項1に記載の情報処理装置。 The extraction section is
If the number of colors indicated by the three-dimensional colored point cloud information is equal to or greater than a predetermined threshold, clustering the colors indicated by the three-dimensional colored point cloud information;
Estimating the shape of the clustered three-dimensional colored point group information based on the clustered three-dimensional colored point group information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
extracting the object point cloud information from the clustered three-dimensional colored point cloud information based on the clustered three-dimensional colored point cloud information and the average value or the mode;
The information processing device according to claim 1 .
出力部と、
をさらに有し、
前記取得部は、検査内容を示す検査内容情報を取得し、
前記検査部は、前記検査内容情報に基づいて、前記最上層以外の層に存在する前記対象物に対して検査を行い、
前記出力部は、検査の結果を出力する、
請求項1又は2に記載の情報処理装置。 Inspection department and
an output section;
It further has
The acquisition unit acquires test content information indicating test content,
The inspection unit inspects the object present in a layer other than the top layer based on the inspection content information,
The output unit outputs the test results.
The information processing device according to claim 1 or 2 .
前記点群密度を用いて、前記最上層以外の層に存在する前記対象物を検出し、
前記検査内容情報に基づいて、前記最上層以外の層に存在する前記対象物に対して検査を行う、
請求項3に記載の情報処理装置。 The inspection department includes:
Detecting the object present in a layer other than the top layer using the point cloud density,
performing an inspection on the object existing in a layer other than the top layer based on the inspection content information;
The information processing device according to claim 3 .
複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得し、
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成し、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出し、
前記対象物点群情報の点群密度を算出し、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する、
検出方法。 The information processing device
Obtain multiple images obtained by capturing multiple objects from multiple different angles,
creating three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images,
Estimating the shape of the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
Extracting object point cloud information, which is point cloud information of the plurality of objects, from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and the average value or the mode value. death,
Calculating the point cloud density of the target object point cloud information,
Detecting layers other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
Detection method.
複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得し、
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成し、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出し、
前記対象物点群情報の点群密度を算出し、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する、
処理を実行させる検出プログラム。 In the information processing device,
Obtain multiple images obtained by capturing multiple objects from multiple different angles,
creating three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images,
Estimating the shape of the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
Extracting object point cloud information, which is point cloud information of the plurality of objects, from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and the average value or the mode value. death,
Calculating the point cloud density of the target object point cloud information,
Detecting layers other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
A detection program that performs processing.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/000930 WO2023135707A1 (en) | 2022-01-13 | 2022-01-13 | Information processing device, detection method, and detection program |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2023135707A1 JPWO2023135707A1 (en) | 2023-07-20 |
JP7378691B1 true JP7378691B1 (en) | 2023-11-13 |
JPWO2023135707A5 JPWO2023135707A5 (en) | 2023-12-13 |
Family
ID=87278647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023554023A Active JP7378691B1 (en) | 2022-01-13 | 2022-01-13 | Information processing device, detection method, and detection program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7378691B1 (en) |
WO (1) | WO2023135707A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015001146A (en) * | 2013-06-18 | 2015-01-05 | 株式会社竹中工務店 | Reinforcement bar inspection assisting device and program |
JP2018172847A (en) * | 2017-03-31 | 2018-11-08 | オリンパス株式会社 | Inspection support device, inspection support method and program |
JP2019002737A (en) * | 2017-06-13 | 2019-01-10 | 鹿島建設株式会社 | Reinforcing bar inspection device and reinforcement bar inspection method |
JP2020106283A (en) * | 2018-12-26 | 2020-07-09 | 株式会社ネクステッジテクノロジー | Three-dimensional measurement device, three-dimensional measurement device calibration method, three-dimensional measurement method, and program |
-
2022
- 2022-01-13 JP JP2023554023A patent/JP7378691B1/en active Active
- 2022-01-13 WO PCT/JP2022/000930 patent/WO2023135707A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015001146A (en) * | 2013-06-18 | 2015-01-05 | 株式会社竹中工務店 | Reinforcement bar inspection assisting device and program |
JP2018172847A (en) * | 2017-03-31 | 2018-11-08 | オリンパス株式会社 | Inspection support device, inspection support method and program |
JP2019002737A (en) * | 2017-06-13 | 2019-01-10 | 鹿島建設株式会社 | Reinforcing bar inspection device and reinforcement bar inspection method |
JP2020106283A (en) * | 2018-12-26 | 2020-07-09 | 株式会社ネクステッジテクノロジー | Three-dimensional measurement device, three-dimensional measurement device calibration method, three-dimensional measurement method, and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023135707A1 (en) | 2023-07-20 |
WO2023135707A1 (en) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Beckman et al. | Deep learning-based automatic volumetric damage quantification using depth camera | |
JP6855587B2 (en) | Devices and methods for acquiring distance information from a viewpoint | |
WO2021000524A1 (en) | Hole protection cap detection method and apparatus, computer device and storage medium | |
US9754160B2 (en) | Method and device for detecting gathering of objects based on stereo vision as well as non-transitory computer-readable medium | |
US8401292B2 (en) | Identifying high saliency regions in digital images | |
US9465976B1 (en) | Feature reduction based on local densities for bundle adjustment of images | |
CN108986152B (en) | Foreign matter detection method and device based on difference image | |
JP5980555B2 (en) | Image processing apparatus, operation method of image processing apparatus, and image processing program | |
TWI651697B (en) | Parking space vacancy detection method and detection model establishment method thereof | |
US8406535B2 (en) | Invariant visual scene and object recognition | |
KR101405410B1 (en) | Object detection device and system | |
US9367920B2 (en) | Method and apparatus for processing images | |
TWI687689B (en) | Measurement device and measurement method for rotation of round body and non-transitory information readable medium | |
KR102199094B1 (en) | Method and Apparatus for Learning Region of Interest for Detecting Object of Interest | |
JPWO2020176304A5 (en) | ||
CN111524091B (en) | Information processing apparatus, information processing method, and storage medium | |
TWI500904B (en) | Stereo camera and automatic range finding method for measuring a distance between stereo camera and reference plane | |
JP6494418B2 (en) | Image analysis apparatus, image analysis method, and program | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
CN114066999A (en) | Target positioning system and method based on three-dimensional modeling | |
CN116007504A (en) | Crack detection module, device and computer equipment based on image technology | |
CN114078127A (en) | Object defect detection and counting method, device, equipment and storage medium | |
Markiewicz et al. | Quality assessment of the use of a medium format camera in the investigation of wall paintings: An image-based approach | |
JP2015148895A (en) | object number distribution estimation method | |
JP7378691B1 (en) | Information processing device, detection method, and detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230905 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7378691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |