JP7378691B1 - Information processing device, detection method, and detection program - Google Patents

Information processing device, detection method, and detection program Download PDF

Info

Publication number
JP7378691B1
JP7378691B1 JP2023554023A JP2023554023A JP7378691B1 JP 7378691 B1 JP7378691 B1 JP 7378691B1 JP 2023554023 A JP2023554023 A JP 2023554023A JP 2023554023 A JP2023554023 A JP 2023554023A JP 7378691 B1 JP7378691 B1 JP 7378691B1
Authority
JP
Japan
Prior art keywords
point cloud
information
cloud information
top layer
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023554023A
Other languages
Japanese (ja)
Other versions
JPWO2023135707A5 (en
JPWO2023135707A1 (en
Inventor
美優 井手
理 高橋
健 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023135707A1 publication Critical patent/JPWO2023135707A1/ja
Application granted granted Critical
Publication of JP7378691B1 publication Critical patent/JP7378691B1/en
Publication of JPWO2023135707A5 publication Critical patent/JPWO2023135707A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置(100)は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する取得部(120)と、複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部(130)と、予め定められた方法を用いて、3次元色付き点群情報の中から複数の対象物の点群情報である対象物点群情報を抽出する抽出部(140)と、対象物点群情報の点群密度を算出する算出部(150)と、対象物点群情報と点群密度とに基づいて、複数の層のうち、最上層以外の層を検出する検出部(170)と、を有する。The information processing device (100) includes an acquisition unit (120) that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles, and a plurality of layers configured based on the plurality of images. a creation unit (130) that creates three-dimensional colored point cloud information to create three-dimensional colored point cloud information; An extraction unit (140) that extracts the point cloud density of the target object point cloud information, a calculation unit (150) that calculates the point cloud density of the target object point cloud information, and a It has a detection unit (170) that detects layers other than the upper layer.

Description

本開示は、情報処理装置、検出方法、及び検出プログラムに関する。 The present disclosure relates to an information processing device, a detection method, and a detection program.

建築現場では、配筋検査が行われている。省力化のため、配筋検査を支援するシステムが開発されている。また、配筋領域を検出する技術が提案されている(特許文献1を参照)。 At the construction site, reinforcement inspection is being carried out. In order to save labor, systems that support reinforcement inspection have been developed. Furthermore, a technique for detecting reinforcement regions has been proposed (see Patent Document 1).

特開2018-172847号公報Japanese Patent Application Publication No. 2018-172847

ところで、配筋検査の対象は、複数の鉄筋である。複数の鉄筋により、複数の層が構成される。このように、複数の層が構成されている場合、最上層を検出する技術が知られている。また、最上層以外の層を検出する技術も知られている。しかし、最上層以外の層を検出する技術の検出精度が悪いという問題があった。 By the way, the objects of reinforcement inspection are a plurality of reinforcing bars. Multiple layers are composed of multiple reinforcing bars. In this way, when a plurality of layers are configured, a technique for detecting the top layer is known. Furthermore, techniques for detecting layers other than the top layer are also known. However, there was a problem in that the detection accuracy of the technology for detecting layers other than the top layer was poor.

本開示の目的は、最上層以外の層を検出する精度を向上させることである。 An objective of the present disclosure is to improve the accuracy of detecting layers other than the top layer.

本開示の一態様に係る情報処理装置が提供される。情報処理装置は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する取得部と、前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部と、前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、前記形状に基づいて、3次元の方向を推定し、前記3次元の方向に基づいて、最上層の表面を抽出し、前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出する抽出部と、前記対象物点群情報の点群密度を算出する算出部と、前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する検出部と、を有する。 An information processing device according to one aspect of the present disclosure is provided. The information processing device includes an acquisition unit that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles, and a three-dimensional colored point forming a plurality of layers based on the plurality of images. a creation unit that creates group information; and a creation unit that estimates a shape of the three-dimensional colored point group information based on the three-dimensional colored point group information, estimates a three-dimensional direction based on the shape, and Based on the direction of and an extraction unit that extracts object point cloud information that is point cloud information of the plurality of objects from the three-dimensional colored point cloud information based on the average value or the mode value; a calculation unit that calculates a point cloud density of object point cloud information; a detection unit that detects a layer other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density; , has.

本開示によれば、最上層以外の層を検出する精度を向上させることができる。 According to the present disclosure, it is possible to improve the accuracy of detecting layers other than the top layer.

建築現場の例を示す図である。It is a diagram showing an example of a construction site. 情報処理装置が有するハードウェアを示す図である。FIG. 2 is a diagram showing hardware included in an information processing device. 情報処理装置の機能を示すブロック図である。FIG. 2 is a block diagram showing the functions of the information processing device. (A),(B)は、抽出部が実行する処理の具体例を示す図である。(A) and (B) are diagrams illustrating a specific example of processing executed by an extraction unit. 対象物点群情報の抽出方法の例を示す図である。FIG. 3 is a diagram illustrating an example of a method for extracting target object point group information. 交点の検出処理の例を示す図である。FIG. 3 is a diagram illustrating an example of intersection detection processing. 検出処理の例を示す図である。FIG. 3 is a diagram showing an example of detection processing. (A),(B)は、検査処理の例を示す図である。(A) and (B) are diagrams illustrating an example of inspection processing. 情報処理装置が実行する処理の例を示すフローチャートである。3 is a flowchart illustrating an example of processing executed by the information processing device.

以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本開示の範囲内で種々の変更が可能である。 Embodiments will be described below with reference to the drawings. The following embodiments are merely examples, and various modifications can be made within the scope of the present disclosure.

実施の形態.
図1は、建築現場の例を示す図である。建築現場には、複数の鉄筋が配置される。複数の鉄筋により、複数の層が構成される。図1は、2つの層を示している。例えば、図1は、最上層である第1層を示している。また、例えば、図1は、第1層の下の層である第2層を示している。このように、図1は、2つの層を示している。しかし、複数の鉄筋により構成される層の数は、3つ以上でもよい。
Embodiment.
FIG. 1 is a diagram showing an example of a construction site. A plurality of reinforcing bars are placed at a construction site. Multiple layers are composed of multiple reinforcing bars. Figure 1 shows two layers. For example, FIG. 1 shows the first layer, which is the top layer. Further, for example, FIG. 1 shows a second layer that is a layer below the first layer. FIG. 1 thus shows two layers. However, the number of layers constituted by a plurality of reinforcing bars may be three or more.

また、図1は、情報処理装置100を示している。情報処理装置100は、検出方法を実行する装置である。例えば、情報処理装置100は、タブレット端末、スマートフォンなどである。また、情報処理装置100は、PC(Personal Computer)などでもよい。ユーザは、情報処理装置100を用いて、複数の鉄筋を撮像してもよい。複数の鉄筋を撮像する場合、情報処理装置100は、ステレオカメラ、RGB(Red Green Blue)-D(Depth)カメラ、赤外線カメラ、又はX線カメラなどの画像センサを有する。そして、複数の鉄筋を撮像する場合、ユーザは、複数の異なる角度から複数の鉄筋を撮像する。これにより、情報処理装置100は、複数の画像を取得できる。ここで、鉄筋は、対象物とも言う。 Further, FIG. 1 shows an information processing apparatus 100. The information processing device 100 is a device that executes a detection method. For example, the information processing device 100 is a tablet terminal, a smartphone, or the like. Further, the information processing device 100 may be a PC (Personal Computer) or the like. The user may use the information processing device 100 to capture images of a plurality of reinforcing bars. When capturing images of a plurality of reinforcing bars, the information processing device 100 includes an image sensor such as a stereo camera, an RGB (Red Green Blue)-D (Depth) camera, an infrared camera, or an X-ray camera. When capturing images of multiple reinforcing bars, the user images the multiple reinforcing bars from multiple different angles. Thereby, the information processing apparatus 100 can acquire a plurality of images. Here, the reinforcing bars are also referred to as objects.

情報処理装置100は、複数の画像を用いて、処理を実行する。以下、情報処理装置100が実行する処理を詳細に説明する。 The information processing apparatus 100 executes processing using a plurality of images. The processing executed by the information processing apparatus 100 will be described in detail below.

次に、情報処理装置100が有するハードウェアを説明する。
図2は、情報処理装置が有するハードウェアを示す図である。情報処理装置100は、プロセッサ101、揮発性記憶装置102、及び不揮発性記憶装置103を有する。
Next, hardware included in the information processing device 100 will be explained.
FIG. 2 is a diagram showing hardware included in the information processing device. The information processing device 100 includes a processor 101, a volatile storage device 102, and a nonvolatile storage device 103.

プロセッサ101は、情報処理装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。また、情報処理装置100は、処理回路を有してもよい。 Processor 101 controls the entire information processing device 100 . For example, the processor 101 is a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), or the like. Processor 101 may be a multiprocessor. Further, the information processing device 100 may include a processing circuit.

揮発性記憶装置102は、情報処理装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、情報処理装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、SSD(Solid State Drive)である。 The volatile storage device 102 is the main storage device of the information processing device 100. For example, the volatile storage device 102 is a RAM (Random Access Memory). The nonvolatile storage device 103 is an auxiliary storage device of the information processing device 100. For example, the nonvolatile storage device 103 is an SSD (Solid State Drive).

次に、情報処理装置100が有する機能を説明する。
図3は、情報処理装置の機能を示すブロック図である。情報処理装置100は、記憶部110、取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190を有する。
Next, the functions of the information processing device 100 will be explained.
FIG. 3 is a block diagram showing the functions of the information processing device. The information processing device 100 includes a storage section 110, an acquisition section 120, a creation section 130, an extraction section 140, a calculation section 150, a direction control section 160, a detection section 170, an inspection section 180, and an output section 190.

記憶部110は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。 The storage unit 110 may be realized as a storage area secured in the volatile storage device 102 or the nonvolatile storage device 103.

取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190の一部又は全部は、処理回路によって実現してもよい。また、取得部120、作成部130、抽出部140、算出部150、方向制御部160、検出部170、検査部180、及び出力部190の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、検出プログラムとも言う。例えば、検出プログラムは、記録媒体に記録されている。 Part or all of the acquisition section 120, creation section 130, extraction section 140, calculation section 150, direction control section 160, detection section 170, inspection section 180, and output section 190 may be realized by a processing circuit. In addition, some or all of the acquisition unit 120, creation unit 130, extraction unit 140, calculation unit 150, direction control unit 160, detection unit 170, inspection unit 180, and output unit 190 are modules of a program executed by the processor 101. It may also be realized as For example, the program executed by processor 101 is also referred to as a detection program. For example, the detection program is recorded on a recording medium.

記憶部110は、様々な情報を記憶する。
取得部120は、複数の異なる角度から複数の対象物(例えば、鉄筋)を撮像することにより得られた複数の画像を取得する。例えば、情報処理装置100がカメラ(例えば、ステレオカメラ)を有する場合、取得部120は、カメラによって生成された当該複数の画像を取得する。また、取得部120は、当該複数の画像を外部装置から取得してもよい。なお、外部装置の図示は、省略されている。
Storage unit 110 stores various information.
The acquisition unit 120 acquires a plurality of images obtained by capturing images of a plurality of objects (for example, reinforcing bars) from a plurality of different angles. For example, when the information processing device 100 includes a camera (for example, a stereo camera), the acquisition unit 120 acquires the plurality of images generated by the camera. Further, the acquisition unit 120 may acquire the plurality of images from an external device. Note that illustration of external devices is omitted.

作成部130は、当該複数の画像に基づいて、3次元色付き点群情報を作成する。3次元色付き点群情報は、複数の層を構成している。なお、点群は、特徴点の集まりである。 The creation unit 130 creates three-dimensional colored point cloud information based on the plurality of images. The three-dimensional colored point cloud information constitutes multiple layers. Note that a point group is a collection of feature points.

抽出部140は、予め定められた方法を用いて、3次元色付き点群情報の中から対象物点群情報を抽出する。対象物点群情報とは、複数の対象物の点群情報である。抽出部140が実行する処理を詳細に説明する。 The extraction unit 140 extracts object point cloud information from the three-dimensional colored point cloud information using a predetermined method. The target object point cloud information is point cloud information of a plurality of target objects. The processing executed by the extraction unit 140 will be explained in detail.

抽出部140は、3次元色付き点群情報が示す色の数が予め定められた閾値以上である場合、3次元色付き点群情報が示す色をクラスタリングする。例えば、抽出部140は、k-means法を用いて、クラスタリングを行う。クラスタリングには、例えば、畳み込みニューラルネットワークなどの深層学習による方法が用いられてもよい。具体的には、抽出部140は、RGB値、RGB値の比率、HSV色空間に基づく値(例えば、色相、彩度、及び明度)、又はLab色空間に基づく値(例えば、色相、彩度、及び明度)を用いて、3次元色付き点群情報が示す色をクラスタリングする。また、抽出部140は、RGB値、RGB値の比率、HSV色空間に基づく値、及びLab色空間に基づく値を用いて、3次元色付き点群情報が示す色をクラスタリングしてもよい。クラスタリングでは、近似する色が1つの色にまとめられる。例えば、色がまとめられることで、銀色が、灰色に変更される。これにより、色の数が減少する。 The extraction unit 140 clusters the colors indicated by the three-dimensional colored point cloud information when the number of colors indicated by the three-dimensional colored point cloud information is equal to or greater than a predetermined threshold. For example, the extraction unit 140 performs clustering using the k-means method. For example, a deep learning method such as a convolutional neural network may be used for clustering. Specifically, the extraction unit 140 extracts RGB values, ratios of RGB values, values based on the HSV color space (for example, hue, saturation, and brightness), or values based on the Lab color space (for example, hue, saturation, and brightness). , and brightness) to cluster the colors indicated by the three-dimensional colored point cloud information. Further, the extraction unit 140 may cluster the colors indicated by the three-dimensional colored point cloud information using RGB values, ratios of RGB values, values based on the HSV color space, and values based on the Lab color space. In clustering, similar colors are grouped into one color. For example, by combining colors, silver is changed to gray. This reduces the number of colors.

また、当該複数の画像が赤外線カメラ、X線カメラなどのモノクロカメラにより生成された場合、抽出部140は、輝度に基づいて、3次元色付き点群情報が示す色をクラスタリングする。赤外線カメラを用いることで、例えば、夜間又は暗部での配筋検査を行うことが可能である。また、X線カメラを用いることで、例えば、コンクリート打設後など、鉄筋を直接撮影ができない状態でも配筋検査を行うことが可能である。 Furthermore, when the plurality of images are generated by a monochrome camera such as an infrared camera or an X-ray camera, the extraction unit 140 clusters the colors indicated by the three-dimensional colored point cloud information based on the brightness. By using an infrared camera, it is possible to perform reinforcement inspection at night or in a dark area, for example. Furthermore, by using an X-ray camera, it is possible to inspect the reinforcement arrangement even in a state where the reinforcing bars cannot be directly photographed, such as after concrete is placed.

抽出部140は、3次元色付き点群情報の中から対象物点群情報を抽出する。詳細に抽出処理を説明する。まず、取得部120は、対象物に対応する色の情報を記憶部110又は外部装置から取得する。例えば、色は、灰色である。具体的には、色の情報は、RGB値である。抽出部140は、3次元色付き点群情報と対象物に対応する色の情報とに基づいて、3次元色付き点群情報の中から対象物点群情報を抽出する。また、3次元色付き点群情報は、クラスタリングされていない3次元色付き点群情報、又はクラスタリングされた3次元色付き点群情報である。抽出部140は、3次元色付き点群情報の中から対象物以外の点群を除去する。 The extraction unit 140 extracts object point cloud information from the three-dimensional colored point cloud information. The extraction process will be explained in detail. First, the acquisition unit 120 acquires color information corresponding to the target object from the storage unit 110 or an external device. For example, the color is gray. Specifically, the color information is an RGB value. The extraction unit 140 extracts target object point cloud information from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and color information corresponding to the target object. Further, the three-dimensional colored point cloud information is unclustered three-dimensional colored point cloud information or clustered three-dimensional colored point cloud information. The extraction unit 140 removes points other than the object from the three-dimensional colored point cloud information.

ここで、抽出部140が実行する処理を、具体例を用いて説明する。
図4(A),(B)は、抽出部が実行する処理の具体例を示す図である。まず、3次元色付き点群情報が示す色の数は、閾値以上であるものとする。抽出部140は、3次元色付き点群情報が示す色をクラスタリングする。図4(A)は、クラスタリングされた3次元色付き点群情報を示している。なお、例えば、図4(A)が示す直線は、複数の点によって表現される。図4(A)では、3次元色付き点群情報が、2つの色にクラスタリングされた状態を示している。2つの色は、灰色と赤色である。灰色の箇所は、鉄筋である。赤色の箇所は、地面である。
Here, the processing executed by the extraction unit 140 will be explained using a specific example.
FIGS. 4A and 4B are diagrams showing specific examples of processing executed by the extraction unit. First, it is assumed that the number of colors indicated by the three-dimensional colored point group information is greater than or equal to a threshold value. The extraction unit 140 clusters the colors indicated by the three-dimensional colored point cloud information. FIG. 4(A) shows clustered three-dimensional colored point cloud information. Note that, for example, the straight line shown in FIG. 4(A) is expressed by a plurality of points. FIG. 4A shows a state in which three-dimensional colored point cloud information is clustered into two colors. The two colors are gray and red. The gray areas are reinforcing bars. The red area is the ground.

抽出部140は、3次元色付き点群情報と対象物に対応する色(すなわち、灰色)の情報とに基づいて、3次元色付き点群情報の中から灰色の箇所を、対象物点群情報として抽出する。これにより、鉄筋を示す点群情報が、抽出される。抽出部140は、3次元色付き点群情報の中から対象物点群情報以外の点群を除去する。図4(B)は、除去が行われた後の状態を示している。よって、図4(B)は、対象物点群情報を示している。 The extraction unit 140 extracts gray areas from the three-dimensional colored point cloud information as object point cloud information based on the three-dimensional colored point cloud information and information on the color (i.e., gray) corresponding to the object. Extract. As a result, point cloud information indicating reinforcing bars is extracted. The extraction unit 140 removes point clouds other than the object point cloud information from the three-dimensional colored point cloud information. FIG. 4(B) shows the state after the removal has been performed. Therefore, FIG. 4(B) shows target object point group information.

上記では、対象物に対応する色の情報を用いて、対象物点群情報が抽出される場合を説明した。抽出部140は、次の方法により、対象物点群情報を抽出してもよい。対象物点群情報の抽出方法を、図を用いて説明する。 In the above, a case has been described in which object point cloud information is extracted using color information corresponding to the object. The extraction unit 140 may extract target object point group information by the following method. A method for extracting object point group information will be explained using figures.

図5は、対象物点群情報の抽出方法の例を示す図である。抽出部140は、3次元色付き点群情報の中から、集合していない点、又は一定の密度を有さない点群を除去する。なお、当該点又は当該点群は、ノイズである。当該点又は当該点群が、3次元色付き点群情報に存在しない場合、抽出部140は、除去処理を実行しない。また、3次元色付き点群情報は、クラスタリングされていない3次元色付き点群情報、又はクラスタリングされた3次元色付き点群情報である。抽出部140は、3次元色付き点群情報に基づいて、3次元色付き点群情報の形状を推定する。抽出部140は、推定された形状に基づいて、3次元の方向を推定する。なお、当該方向は、大まかな方向でもよい。抽出部140は、3次元の方向に基づいて、最上層の表面を抽出する。抽出部140は、最上層の表面の色値(すなわち、RGB値)の平均値を算出する。抽出部140は、最上層の表面の色値の最頻値を算出してもよい。また、抽出部140は、最上層の表面の色値の中央値を算出してもよい。抽出部140は、統計量により、最上層の表面の色値から対象物の色を判別できる様々な方法を用いることができる。抽出部140は、当該平均値又は当該最頻値を、対象物の色とする。抽出部140は、3次元色付き点群情報と、当該平均値又は当該最頻値とに基づいて、3次元色付き点群情報の中から対象物点群情報を抽出する。また、当該平均値が用いられる場合、抽出部140は、当該平均値に近い値も対象物の色として、3次元色付き点群情報の中から対象物点群情報を抽出してもよい。ここで、対象物に対応する色の情報を用いる方法では、対象物に対応する色の情報が記憶部110に格納されている場合がある。そのため、当該方法では、記憶部110の記憶容量が増大される場合がある。しかし、当該平均値又は当該最頻値を用いる方法は、記憶部110に情報を格納しないで、実現できる。よって、情報処理装置100は、記憶容量の増大を抑制できる。 FIG. 5 is a diagram illustrating an example of a method for extracting object point group information. The extraction unit 140 removes points that are not clustered or points that do not have a certain density from the three-dimensional colored point cloud information. Note that the point or the point group is noise. If the point or the point group does not exist in the three-dimensional colored point cloud information, the extraction unit 140 does not perform the removal process. Further, the three-dimensional colored point cloud information is unclustered three-dimensional colored point cloud information or clustered three-dimensional colored point cloud information. The extraction unit 140 estimates the shape of the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information. The extraction unit 140 estimates a three-dimensional direction based on the estimated shape. Note that the direction may be a general direction. The extraction unit 140 extracts the surface of the top layer based on the three-dimensional direction. The extraction unit 140 calculates the average value of the color values (ie, RGB values) of the surface of the top layer. The extraction unit 140 may calculate the mode of the color values on the surface of the top layer. Further, the extraction unit 140 may calculate the median color value of the surface of the top layer. The extraction unit 140 can use various methods to determine the color of the object from the color value of the surface of the top layer using statistics. The extraction unit 140 uses the average value or the mode as the color of the object. The extraction unit 140 extracts object point cloud information from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and the average value or the mode. In addition, when the average value is used, the extraction unit 140 may extract target object point cloud information from the three-dimensional colored point cloud information by using a value close to the average value as the color of the target object. Here, in the method using color information corresponding to the target object, the color information corresponding to the target object may be stored in the storage unit 110. Therefore, in this method, the storage capacity of the storage unit 110 may be increased. However, the method of using the average value or the mode can be implemented without storing information in the storage unit 110. Therefore, the information processing device 100 can suppress an increase in storage capacity.

算出部150は、対象物点群情報が抽出された後、対象物点群情報の点群密度を算出する。 After the target object point cloud information is extracted, the calculation unit 150 calculates the point cloud density of the target object point cloud information.

ここで、図4(B)が示すように、対象物点群情報が3次元の仮想空間に配置される。対象物点群情報は、現実の方向(例えば、重力方向)に合わせて、配置されてもよい。以下、方向を合わせる処理を説明する。 Here, as shown in FIG. 4(B), the target object point group information is arranged in a three-dimensional virtual space. The object point group information may be arranged according to the actual direction (for example, the direction of gravity). The process of adjusting the direction will be described below.

方向制御部160は、IMU(Inertial Measurement Unit)センサが情報処理装置100に搭載されている場合、IMUセンサから重力方向の情報を取得する。方向制御部160は、対象物点群情報の最上層の表面に垂直な方向を、重力方向に合わせる。これにより、図4(B)のZ軸の方向と、最上層以外の層が存在する方向とが一致する。なお、対象物点群情報の最上層の表面は、例えば、領域拡張法などの領域抽出アルゴリズムを用いて、検出されてもよい。 If an IMU (Inertial Measurement Unit) sensor is installed in the information processing device 100, the direction control unit 160 acquires information on the direction of gravity from the IMU sensor. The direction control unit 160 aligns the direction perpendicular to the surface of the top layer of the object point cloud information with the direction of gravity. As a result, the direction of the Z axis in FIG. 4(B) coincides with the direction in which layers other than the top layer exist. Note that the surface of the uppermost layer of the object point cloud information may be detected using, for example, a region extraction algorithm such as a region expansion method.

重力方向は、次のように検出されてもよい。方向制御部160は、最上層の表面を含む画像に基づいて、複数の交点を検出する。図を用いて、交点の検出処理を説明する。 The gravity direction may be detected as follows. The direction control unit 160 detects a plurality of intersection points based on an image including the surface of the top layer. The intersection detection process will be explained using figures.

図6は、交点の検出処理の例を示す図である。図6は、画像200を示している。画像200は、最上層の表面を含む画像である。方向制御部160は、画像200に基づいて、交点201~203を検出する。なお、交点の検出では、ハフ変換が用いられてもよい。方向制御部160は、複数の交点に基づいて、重力方向を算出する。例えば、方向制御部160は、交点201~203が頂点である三角形を検出する。方向制御部160は、三角形に垂直な方向を、重力方向として検出する。 FIG. 6 is a diagram illustrating an example of intersection detection processing. FIG. 6 shows an image 200. Image 200 is an image that includes the surface of the top layer. Direction control unit 160 detects intersections 201 to 203 based on image 200. Note that Hough transform may be used to detect the intersection. The direction control unit 160 calculates the direction of gravity based on the plurality of intersection points. For example, the direction control unit 160 detects a triangle whose vertices are intersection points 201 to 203. The direction control unit 160 detects the direction perpendicular to the triangle as the direction of gravity.

検出部170は、対象物点群情報と、算出された点群密度とに基づいて、複数の層のうち、最上層以外の層を検出する。図を用いて、検出処理を具体的に説明する。 The detection unit 170 detects layers other than the top layer among the plurality of layers based on the object point cloud information and the calculated point cloud density. The detection process will be specifically explained using figures.

図7は、検出処理の例を示す図である。図7の上部は、対象物点群情報を示している。例えば、検出部170は、点群密度が高い箇所と、対象物点群情報の層の箇所とを合わせることで、最上層以外の層(例えば、第2層)を検出する。また、点群情報は、オクルージョンにより、下の層ほど点群密度が低くなる傾向がある。そのため、検出部170は、当該傾向に基づいて、最上層以外の層を検出してもよい。 FIG. 7 is a diagram showing an example of detection processing. The upper part of FIG. 7 shows object point cloud information. For example, the detection unit 170 detects a layer other than the top layer (for example, the second layer) by matching a location where the point cloud density is high with a location in the layer of target object point cloud information. In addition, point cloud information tends to have a lower point cloud density in lower layers due to occlusion. Therefore, the detection unit 170 may detect layers other than the top layer based on the tendency.

検査部180は、最上層以外の層に存在する対象物に対して検査を行う。詳細には、取得部120は、検査内容を示す検査内容情報を取得する。例えば、検査内容は、配筋検査の内容である。検査部180は、検査内容情報に基づいて、最上層以外の層に存在する対象物に対して検査を行う。 The inspection unit 180 inspects objects present in layers other than the top layer. Specifically, the acquisition unit 120 acquires test content information indicating the test content. For example, the inspection content is the content of a reinforcement inspection. The inspection unit 180 inspects objects present in layers other than the top layer based on the inspection content information.

また、検査部180は、点群密度を用いて、上層以外の層に存在する対象物を検出し、検査内容情報に基づいて、最上層以外の層に存在する対象物に対して検査を行ってもよい。図を用いて、検査処理を説明する。 In addition, the inspection unit 180 detects objects present in layers other than the uppermost layer using the point cloud density, and inspects objects present in layers other than the top layer based on the inspection content information. You can. The inspection process will be explained using figures.

図8(A),(B)は、検査処理の例を示す図である。図8(A),(B)は、第2層の鉄筋(すなわち、対象物)を示している。配筋検査では、鉄筋の間隔が検査される。しかし、円300が示す箇所のように、鉄筋が交差している箇所がある。検査の精度を高めるために、検査部180は、正確な鉄筋の位置を検出する必要がある。そこで、検査部180は、点群密度を用いる。これにより、検査部180は、正確な鉄筋の位置を検出できる。このように、情報処理装置100は、点群密度を用いることで、精度の高い検査を行うことができる。 FIGS. 8A and 8B are diagrams illustrating an example of inspection processing. FIGS. 8A and 8B show the second layer of reinforcing bars (ie, the object). In reinforcement inspection, the spacing between reinforcing bars is inspected. However, there are places where the reinforcing bars intersect, as shown by the circle 300. In order to improve the accuracy of the inspection, the inspection unit 180 needs to accurately detect the position of the reinforcing bars. Therefore, the inspection unit 180 uses point cloud density. Thereby, the inspection unit 180 can accurately detect the position of the reinforcing bars. In this way, the information processing apparatus 100 can perform highly accurate inspection by using the point cloud density.

また、図8(A)は、鉄筋の位置とX方向における点群密度との関係を示している。図8(B)は、鉄筋の位置とY方向における点群密度との関係を示している。 Moreover, FIG. 8(A) shows the relationship between the position of the reinforcing bars and the point group density in the X direction. FIG. 8(B) shows the relationship between the position of the reinforcing bars and the point group density in the Y direction.

出力部190は、検査の結果を出力する。例えば、情報処理装置100がディスプレイを有する場合、出力部190は、検査の結果をディスプレイに出力する。また、例えば、出力部190は、検査の結果を外部装置に出力する。 The output unit 190 outputs the test results. For example, if the information processing device 100 has a display, the output unit 190 outputs the test results to the display. Further, for example, the output unit 190 outputs the test results to an external device.

なお、上記では、方向制御部160は、複数の交点に基づいて重力方向を算出したがこれに限らない。例えば、方向制御部160は、点群密度を用い、重力方向を算出してもよい。例えば、点群密度として、点群密度分布の変化の激しさの度合い(すなわち、点群密度分布のグラフのピークの鋭さ(例えば、尖度))を用いてもよい。配筋を最上層方向から撮影した場合、撮影角度の違いにより、各層の鉄筋の重なり度合いが異なる。点群密度分布は、各層の鉄筋の重なり度合いが強くなるにつれて、当該グラフのピークの鋭さが強くなる。つまり、点群密度分布のグラフの尖度が最も強くなる場合が、各層の鉄筋が最も重なる状態となる。すなわち、カメラの撮影の向きと最上層の表面が相対する位置となる。言い換えれば、最上層の表面の垂直線上にカメラが位置する。この条件の下、徐々に点群密度分布のグラフのピーク値が低くなる方向を、下層がある重力の方向として検出することができる。よって、方向制御部160は、点群密度を用いることで、最上層を特定すること無く重力の方向を検出することができる。更に、現実の方向が重力方向に限定されることも無いので、例えば、壁面や柱など、重力方向と異なる向きに配置された配筋の検査を行うことができる。 Note that, in the above, the direction control unit 160 calculates the gravity direction based on a plurality of intersection points, but the direction control unit 160 is not limited to this. For example, the direction control unit 160 may calculate the gravitational direction using the point group density. For example, the degree of severity of change in the point group density distribution (that is, the sharpness of the peak of the graph of the point group density distribution (for example, kurtosis)) may be used as the point group density. When the reinforcing bars are photographed from the top layer, the degree of overlap of the reinforcing bars in each layer differs depending on the photographing angle. In the point group density distribution, the sharper the peak of the graph becomes as the degree of overlap of the reinforcing bars in each layer becomes stronger. In other words, when the kurtosis of the graph of the point group density distribution is the strongest, the reinforcing bars of each layer overlap most. In other words, the photographing direction of the camera and the surface of the top layer are at a position opposite to each other. In other words, the camera is located on a perpendicular line to the surface of the top layer. Under this condition, the direction in which the peak value of the graph of the point cloud density distribution gradually decreases can be detected as the direction of gravity in the lower layer. Therefore, the direction control unit 160 can detect the direction of gravity without specifying the top layer by using the point group density. Furthermore, since the actual direction is not limited to the direction of gravity, it is possible to inspect reinforcing bars arranged in a direction different from the direction of gravity, such as walls and columns, for example.

次に、情報処理装置100が実行する処理を、フローチャートを用いて、説明する。
図9は、情報処理装置が実行する処理の例を示すフローチャートである。
(ステップS11)取得部120は、複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する。
(ステップS12)作成部130は、当該複数の画像に基づいて、3次元色付き点群情報を作成する。
Next, the processing executed by the information processing apparatus 100 will be explained using a flowchart.
FIG. 9 is a flowchart illustrating an example of processing executed by the information processing device.
(Step S11) The acquisition unit 120 acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles.
(Step S12) The creation unit 130 creates three-dimensional colored point cloud information based on the plurality of images.

(ステップS13)抽出部140は、3次元色付き点群情報が示す色をクラスタリングする。
(ステップS14)抽出部140は、クラスタリングされた3次元色付き点群情報と、対象物に対応する色の情報とに基づいて、クラスタリングされた3次元色付き点群情報の中から対象物点群情報を抽出する。
(Step S13) The extraction unit 140 clusters the colors indicated by the three-dimensional colored point cloud information.
(Step S14) The extraction unit 140 extracts target object point cloud information from the clustered three-dimensional colored point cloud information based on the clustered three-dimensional colored point cloud information and color information corresponding to the target object. Extract.

(ステップS15)算出部150は、対象物点群情報の点群密度を算出する。
(ステップS16)検出部170は、対象物点群情報と点群密度とに基づいて、最上層以外の層を検出する。
(ステップS17)検査部180は、最上層以外の層に存在する対象物に対して検査を行う。
(ステップS18)出力部190は、検査の結果を出力する。
(Step S15) The calculation unit 150 calculates the point cloud density of the target object point cloud information.
(Step S16) The detection unit 170 detects layers other than the top layer based on the object point cloud information and the point cloud density.
(Step S17) The inspection unit 180 inspects objects present in layers other than the top layer.
(Step S18) The output unit 190 outputs the test results.

実施の形態によれば、情報処理装置100は、点群密度を用いることで、最上層以外の層を検出する精度を向上させることができる。 According to the embodiment, the information processing apparatus 100 can improve the accuracy of detecting layers other than the top layer by using point cloud density.

上記では、対象物が鉄筋である場合を説明した。しかし、対象物が鉄筋以外の物でもよい。鉄筋以外の対象物としては、例えば、鉄骨、足場、木組み、配管、ケーブルなどである。よって、鉄筋以外の物により、複数の層が構成されている場合にも、実施の形態が適用できる。 In the above, the case where the target object is a reinforcing bar has been explained. However, the object may be other than reinforcing steel. Examples of objects other than reinforcing bars include steel frames, scaffolding, wooden structures, piping, and cables. Therefore, the embodiments can be applied even when a plurality of layers are made of materials other than reinforcing bars.

また上記では、最上層以外の層を検出する場合を説明したが、最上層を含めた層を検出してもよく、最上層以外の層の場合と同様の効果を奏する。 Moreover, although the case where layers other than the top layer are detected has been described above, layers including the top layer may be detected, and the same effect as in the case of layers other than the top layer is achieved.

100 情報処理装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 110 記憶部、 120 取得部、 130 作成部、 140 抽出部、 150 算出部、 160 方向制御部、 170 検出部、 180 検査部、 190 出力部、 200 画像、 201~203 交点、 300 円。 100 information processing device, 101 processor, 102 volatile storage device, 103 nonvolatile storage device, 110 storage section, 120 acquisition section, 130 creation section, 140 extraction section, 150 calculation section, 160 direction control section, 170 detection section, 180 Inspection section, 190 Output section, 200 Image, 201-203 Intersection, 300 yen.

Claims (6)

複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得する取得部と、
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成する作成部と、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、前記形状に基づいて、3次元の方向を推定し、前記3次元の方向に基づいて、最上層の表面を抽出し、前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出する抽出部と、
前記対象物点群情報の点群密度を算出する算出部と、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する検出部と、
を有する情報処理装置。
an acquisition unit that acquires a plurality of images obtained by imaging a plurality of objects from a plurality of different angles;
a creation unit that creates three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images;
Based on the three-dimensional colored point cloud information, estimate the shape of the three-dimensional colored point cloud information, estimate the three-dimensional direction based on the shape, and estimate the three-dimensional direction based on the three-dimensional direction. The surface is extracted, the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer is calculated, and the average value or the mode of the color values of the surface of the top layer is calculated. an extraction unit that extracts object point cloud information that is point cloud information of the plurality of objects from the three-dimensional colored point cloud information based on the value ;
a calculation unit that calculates the point cloud density of the target object point cloud information;
a detection unit that detects a layer other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
An information processing device having:
前記抽出部は、
前記3次元色付き点群情報が示す色の数が予め定められた閾値以上である場合、前記3次元色付き点群情報が示す色をクラスタリングし、
クラスタリングされた前記3次元色付き点群情報に基づいて、クラスタリングされた前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、前記最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
クラスタリングされた前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、クラスタリングされた前記3次元色付き点群情報の中から前記対象物点群情報を抽出する、
請求項に記載の情報処理装置。
The extraction section is
If the number of colors indicated by the three-dimensional colored point cloud information is equal to or greater than a predetermined threshold, clustering the colors indicated by the three-dimensional colored point cloud information;
Estimating the shape of the clustered three-dimensional colored point group information based on the clustered three-dimensional colored point group information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
extracting the object point cloud information from the clustered three-dimensional colored point cloud information based on the clustered three-dimensional colored point cloud information and the average value or the mode;
The information processing device according to claim 1 .
検査部と、
出力部と、
をさらに有し、
前記取得部は、検査内容を示す検査内容情報を取得し、
前記検査部は、前記検査内容情報に基づいて、前記最上層以外の層に存在する前記対象物に対して検査を行い、
前記出力部は、検査の結果を出力する、
請求項1又は2に記載の情報処理装置。
Inspection department and
an output section;
It further has
The acquisition unit acquires test content information indicating test content,
The inspection unit inspects the object present in a layer other than the top layer based on the inspection content information,
The output unit outputs the test results.
The information processing device according to claim 1 or 2 .
前記検査部は、
前記点群密度を用いて、前記最上層以外の層に存在する前記対象物を検出し、
前記検査内容情報に基づいて、前記最上層以外の層に存在する前記対象物に対して検査を行う、
請求項に記載の情報処理装置。
The inspection department includes:
Detecting the object present in a layer other than the top layer using the point cloud density,
performing an inspection on the object existing in a layer other than the top layer based on the inspection content information;
The information processing device according to claim 3 .
情報処理装置が、
複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得し、
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成し、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出し、
前記対象物点群情報の点群密度を算出し、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する、
検出方法。
The information processing device
Obtain multiple images obtained by capturing multiple objects from multiple different angles,
creating three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images,
Estimating the shape of the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
Extracting object point cloud information, which is point cloud information of the plurality of objects, from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and the average value or the mode value. death,
Calculating the point cloud density of the target object point cloud information,
Detecting layers other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
Detection method.
情報処理装置に、
複数の異なる角度から複数の対象物を撮像することにより得られた複数の画像を取得し、
前記複数の画像に基づいて、複数の層を構成する3次元色付き点群情報を作成し、
前記3次元色付き点群情報に基づいて、前記3次元色付き点群情報の形状を推定し、
前記形状に基づいて、3次元の方向を推定し、
前記3次元の方向に基づいて、最上層の表面を抽出し、
前記最上層の表面の色値の平均値、又は前記最上層の表面の色値の最頻値を算出し、
前記3次元色付き点群情報と、前記平均値又は前記最頻値とに基づいて、前記3次元色付き点群情報の中から前記複数の対象物の点群情報である対象物点群情報を抽出し、
前記対象物点群情報の点群密度を算出し、
前記対象物点群情報と前記点群密度とに基づいて、前記複数の層のうち、前記最上層以外の層を検出する、
処理を実行させる検出プログラム。
In the information processing device,
Obtain multiple images obtained by capturing multiple objects from multiple different angles,
creating three-dimensional colored point cloud information constituting a plurality of layers based on the plurality of images,
Estimating the shape of the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information,
Estimating a three-dimensional direction based on the shape,
extracting the surface of the top layer based on the three-dimensional direction;
Calculating the average value of the color values of the surface of the top layer or the mode of the color values of the surface of the top layer,
Extracting object point cloud information, which is point cloud information of the plurality of objects, from the three-dimensional colored point cloud information based on the three-dimensional colored point cloud information and the average value or the mode value. death,
Calculating the point cloud density of the target object point cloud information,
Detecting layers other than the top layer among the plurality of layers based on the object point cloud information and the point cloud density;
A detection program that performs processing.
JP2023554023A 2022-01-13 2022-01-13 Information processing device, detection method, and detection program Active JP7378691B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/000930 WO2023135707A1 (en) 2022-01-13 2022-01-13 Information processing device, detection method, and detection program

Publications (3)

Publication Number Publication Date
JPWO2023135707A1 JPWO2023135707A1 (en) 2023-07-20
JP7378691B1 true JP7378691B1 (en) 2023-11-13
JPWO2023135707A5 JPWO2023135707A5 (en) 2023-12-13

Family

ID=87278647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023554023A Active JP7378691B1 (en) 2022-01-13 2022-01-13 Information processing device, detection method, and detection program

Country Status (2)

Country Link
JP (1) JP7378691B1 (en)
WO (1) WO2023135707A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001146A (en) * 2013-06-18 2015-01-05 株式会社竹中工務店 Reinforcement bar inspection assisting device and program
JP2018172847A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Inspection support device, inspection support method and program
JP2019002737A (en) * 2017-06-13 2019-01-10 鹿島建設株式会社 Reinforcing bar inspection device and reinforcement bar inspection method
JP2020106283A (en) * 2018-12-26 2020-07-09 株式会社ネクステッジテクノロジー Three-dimensional measurement device, three-dimensional measurement device calibration method, three-dimensional measurement method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001146A (en) * 2013-06-18 2015-01-05 株式会社竹中工務店 Reinforcement bar inspection assisting device and program
JP2018172847A (en) * 2017-03-31 2018-11-08 オリンパス株式会社 Inspection support device, inspection support method and program
JP2019002737A (en) * 2017-06-13 2019-01-10 鹿島建設株式会社 Reinforcing bar inspection device and reinforcement bar inspection method
JP2020106283A (en) * 2018-12-26 2020-07-09 株式会社ネクステッジテクノロジー Three-dimensional measurement device, three-dimensional measurement device calibration method, three-dimensional measurement method, and program

Also Published As

Publication number Publication date
JPWO2023135707A1 (en) 2023-07-20
WO2023135707A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
Beckman et al. Deep learning-based automatic volumetric damage quantification using depth camera
JP6855587B2 (en) Devices and methods for acquiring distance information from a viewpoint
WO2021000524A1 (en) Hole protection cap detection method and apparatus, computer device and storage medium
US9754160B2 (en) Method and device for detecting gathering of objects based on stereo vision as well as non-transitory computer-readable medium
US8401292B2 (en) Identifying high saliency regions in digital images
US9465976B1 (en) Feature reduction based on local densities for bundle adjustment of images
CN108986152B (en) Foreign matter detection method and device based on difference image
JP5980555B2 (en) Image processing apparatus, operation method of image processing apparatus, and image processing program
TWI651697B (en) Parking space vacancy detection method and detection model establishment method thereof
US8406535B2 (en) Invariant visual scene and object recognition
KR101405410B1 (en) Object detection device and system
US9367920B2 (en) Method and apparatus for processing images
TWI687689B (en) Measurement device and measurement method for rotation of round body and non-transitory information readable medium
KR102199094B1 (en) Method and Apparatus for Learning Region of Interest for Detecting Object of Interest
JPWO2020176304A5 (en)
CN111524091B (en) Information processing apparatus, information processing method, and storage medium
TWI500904B (en) Stereo camera and automatic range finding method for measuring a distance between stereo camera and reference plane
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
JP5936561B2 (en) Object classification based on appearance and context in images
CN114066999A (en) Target positioning system and method based on three-dimensional modeling
CN116007504A (en) Crack detection module, device and computer equipment based on image technology
CN114078127A (en) Object defect detection and counting method, device, equipment and storage medium
Markiewicz et al. Quality assessment of the use of a medium format camera in the investigation of wall paintings: An image-based approach
JP2015148895A (en) object number distribution estimation method
JP7378691B1 (en) Information processing device, detection method, and detection program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230905

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231031

R150 Certificate of patent or registration of utility model

Ref document number: 7378691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150