JP6819758B1 - Point cloud data identity estimation device and point cloud data identity estimation system - Google Patents

Point cloud data identity estimation device and point cloud data identity estimation system Download PDF

Info

Publication number
JP6819758B1
JP6819758B1 JP2019181004A JP2019181004A JP6819758B1 JP 6819758 B1 JP6819758 B1 JP 6819758B1 JP 2019181004 A JP2019181004 A JP 2019181004A JP 2019181004 A JP2019181004 A JP 2019181004A JP 6819758 B1 JP6819758 B1 JP 6819758B1
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
data
identity
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019181004A
Other languages
Japanese (ja)
Other versions
JP2021056904A (en
Inventor
以大 間下
以大 間下
友樹 浦西
友樹 浦西
ポチャラ ラサミー
ポチャラ ラサミー
健士朗 田又
健士朗 田又
宏美 大久保
宏美 大久保
西村 忠史
忠史 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP2019181004A priority Critical patent/JP6819758B1/en
Priority to PCT/JP2020/035231 priority patent/WO2021065538A1/en
Priority to CN202080066282.9A priority patent/CN114424244B/en
Priority to US17/754,219 priority patent/US11704841B2/en
Application granted granted Critical
Publication of JP6819758B1 publication Critical patent/JP6819758B1/en
Publication of JP2021056904A publication Critical patent/JP2021056904A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】 点群データに関する情報について、同一性の評価の精度を向上させる点群データ同一性推定装置、点群データ同一性推定システムを提供する。【解決手段】 2つの3次元点群データの元となる対象物の同一性を推定する点群データ同一性推定装置であって、3次元点群データからなる第1点群データ及び第2点群データを取得する点群データ取得部と、第1点群データに関する情報を入力して第1点群データ特徴量を出力する第1ニューラルネットワークと、第2点群データに関する情報を入力して第2点群データ特徴量を出力する第2ニューラルネットワークと、前記第1点群データ特徴量と前記第2点群データ特徴量とに基づいて、前記第1点群データと前記第2点群データの同一性に関する評価を出力する同一性評価部と、を有し、前記第1ニューラルネットワークと前記第2ニューラルネットワークとは互いに重みが共有されている。【選択図】図1PROBLEM TO BE SOLVED: To provide a point cloud data identity estimation device and a point cloud data identity estimation system for improving the accuracy of evaluation of identity of information related to point cloud data. SOLUTION: This is a point group data identity estimation device that estimates the identity of an object that is the source of two three-dimensional point group data, and is a first point group data and a second point composed of three-dimensional point group data. Input the point group data acquisition unit that acquires group data, the first neural network that inputs information about the first point group data and outputs the first point group data feature amount, and the information about the second point group data. Based on the second neural network that outputs the second point group data feature amount, the first point group data feature amount, and the second point group data feature amount, the first point group data and the second point group It has an identity evaluation unit that outputs an evaluation of data identity, and the first neural network and the second neural network share weights with each other. [Selection diagram] Fig. 1

Description

本開示は、点群データ同一性推定装置及び点群データ同一性推定システムに関する。 The present disclosure relates to a point cloud data identity estimation device and a point cloud data identity estimation system.

従来より、実環境を計測することで取得した3次元点群データ、または、該3次元点群データを異なるデータ形式に変換した変換後のデータ、等のいわゆる"点群データに関する情報"を用いて、3次元モデルを作成するモデル作成技術が知られている。 Conventionally, so-called "point cloud data" such as 3D point cloud data acquired by measuring the actual environment or converted data obtained by converting the 3D point cloud data into a different data format is used. A model creation technique for creating a three-dimensional model is known.

当該モデル作成技術により3次元モデルを作成するにあたっては、実環境を計測する際の計測方向や計測位置、計測距離、計測タイミング、計測装置の種類等の各種計測条件が異なる、それぞれの"点群データに関する情報"について、適切に位置合わせ(同一性の評価)を行うことが重要となる。 When creating a 3D model using the model creation technology, each "point cloud" has different measurement conditions such as measurement direction, measurement position, measurement distance, measurement timing, and type of measurement device when measuring the actual environment. It is important to properly align (evaluate the identity) of "information about data".

特開2019−101927号公報Japanese Unexamined Patent Publication No. 2019-101927

本開示は、点群データに関する情報について、同一性の評価の精度を向上させる点群データ同一性推定装置、点群データ同一性推定システムを提供する。 The present disclosure provides a point cloud data identity estimation device and a point cloud data identity estimation system that improve the accuracy of evaluation of identity of information related to point cloud data.

本開示の第1の態様は、2つの3次元点群データの元となる対象物の同一性を推定する点群データ同一性推定装置であって、
3次元点群データからなる第1点群データ及び第2点群データを取得する点群データ取得部と、
第1点群データに関する情報を入力して第1点群データ特徴量を出力する第1ニューラルネットワークと、
第2点群データに関する情報を入力して第2点群データ特徴量を出力する第2ニューラルネットワークと、
前記第1点群データ特徴量と前記第2点群データ特徴量とに基づいて、前記第1点群データと前記第2点群データの同一性に関する評価を出力する同一性評価部と、を有し、
前記第1ニューラルネットワークと前記第2ニューラルネットワークとは互いに重みが共有されている。
The first aspect of the present disclosure is a point cloud data identity estimation device that estimates the identity of an object that is the source of two three-dimensional point cloud data.
A point cloud data acquisition unit that acquires first point cloud data and second point cloud data consisting of three-dimensional point cloud data,
A first neural network that inputs information about the first point cloud data and outputs the first point cloud data features,
A second neural network that inputs information about the second point cloud data and outputs the second point cloud data features,
Based on the first point cloud data feature amount and the second point group data feature amount, an identity evaluation unit that outputs an evaluation regarding the identity of the first point cloud data and the second point group data is provided. Have and
The first neural network and the second neural network share weights with each other.

本開示の第1の態様によれば、点群データに関する情報について、同一性の評価の精度を向上させる点群データ同一性推定装置を提供することができる。 According to the first aspect of the present disclosure, it is possible to provide a point cloud data identity estimation device that improves the accuracy of evaluation of identity of information related to point cloud data.

また、本開示の第2の態様は、第1の態様に記載の点群データ同一性推定装置であって、
互いに同一の3次元形状を元にして作成された2つの3次元点群データに関する情報を第1教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
互いに異なる3次元形状を元にして作成された2つの3次元点群データに関する情報を第2教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する。
Further, the second aspect of the present disclosure is the point cloud data identity estimation device according to the first aspect.
When information about two three-dimensional point group data created based on the same three-dimensional shapes is input to the first neural network and the second neural network as first teacher data, the identity evaluation unit The weights of the first neural network and the second neural network are updated while sharing each other so as to output an evaluation indicating that the identity is high.
When information about two three-dimensional point group data created based on three-dimensional shapes different from each other is input to the first neural network and the second neural network as second teacher data, the identity evaluation unit The weights of the first neural network and the second neural network are updated while sharing each other so as to output an evaluation indicating that the identity is low.

また、本開示の第3の態様は、第2の態様に記載の点群データ同一性推定装置であって、
前記第1教師データは、互いに同一の3次元形状を元にして作成された2つの3次元点群データに関する情報のうち少なくとも一方を欠損させたもの、または、少なくとも一方にノイズを加えたものである。
Further, the third aspect of the present disclosure is the point cloud data identity estimation device according to the second aspect.
The first teacher data is one in which at least one of the information about two three-dimensional point cloud data created based on the same three-dimensional shape is deleted, or at least one in which noise is added. is there.

また、本開示の第4の態様は、第2の態様に記載の点群データ同一性推定装置であって、
前記第1教師データは、互いに同一の3次元形状を異なる条件で計測したものを元にして作成された2つの3次元点群データに関する情報である。
Further, the fourth aspect of the present disclosure is the point cloud data identity estimation device according to the second aspect.
The first teacher data is information on two three-dimensional point cloud data created based on measurements of the same three-dimensional shapes under different conditions.

また、本開示の第5の態様は、第1の態様に記載の点群データ同一性推定装置であって、
前記第1点群データに関する情報及び前記第2点群データに関する情報は、それぞれ、3次元点群データである。
A fifth aspect of the present disclosure is the point cloud data identity estimation device according to the first aspect.
The information regarding the first point cloud data and the information regarding the second point cloud data are three-dimensional point cloud data, respectively.

また、本開示の第6の態様は、第5の態様に記載の点群データ同一性推定装置であって、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を傾けない或いは所定の角度未満傾けたものを元にして作成された3次元点群データを、第3教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を前記所定の角度以上傾けたものを元にして作成された3次元点群データを、第4教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する。
Further, the sixth aspect of the present disclosure is the point cloud data identity estimation device according to the fifth aspect.
Three-dimensional point group data created based on a predetermined three-dimensional shape, and three-dimensional point group data created based on those in which the predetermined three-dimensional shape is not tilted or tilted less than a predetermined angle. , The first neural network and the second neural network so that the identity evaluation unit outputs an evaluation indicating that the identity is high when input to the first neural network and the second neural network as the third teacher data. Update while sharing the weights of the neural network with each other
The 3D point group data created based on the predetermined 3D shape and the 3D point group data created based on the predetermined 3D shape tilted by the predetermined angle or more are obtained. 4 The first neural network and the second neural network so that the identity evaluation unit outputs an evaluation indicating that the identity is low when the teacher data is input to the first neural network and the second neural network. Update while sharing network weights with each other.

また、本開示の第7の態様は、第5の態様に記載の点群データ同一性推定装置であって、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状と同一サイズのもの或いは前記所定の3次元形状を所定範囲内の拡大率または縮小率で拡大または縮小したものを元にして作成された3次元点群データを、第5教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を前記所定範囲を超えた拡大率または縮小率で拡大または縮小したものを元にして作成された3次元点群データを、第6教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する。
Further, the seventh aspect of the present disclosure is the point cloud data identity estimation device according to the fifth aspect.
Three-dimensional point group data created based on a predetermined three-dimensional shape, and one having the same size as the predetermined three-dimensional shape or the predetermined three-dimensional shape is enlarged with an enlargement ratio or reduction ratio within a predetermined range. Or, when the three-dimensional point group data created based on the reduced data is input to the first neural network and the second neural network as the fifth teacher data, the identity evaluation unit has high identity. The weights of the first neural network and the second neural network are updated while sharing each other so as to output the indicated evaluation.
It is created based on the three-dimensional point group data created based on the predetermined three-dimensional shape, and the one obtained by enlarging or reducing the predetermined three-dimensional shape at an enlargement ratio or reduction ratio exceeding the predetermined range. When the three-dimensional point group data is input to the first neural network and the second neural network as the sixth teacher data, the identity evaluation unit outputs an evaluation indicating that the identity is low. The weights of the first neural network and the second neural network are updated while being shared with each other.

また、本開示の第8の態様は、対象物を計測し、3次元点群データを作成する計測装置と、2つの3次元点群データの元となる対象物の同一性を推定する点群データ同一性推定装置と、を有する点群データ同一性推定システムであって、
前記点群データ同一性推定装置は、
3次元点群データからなる第1点群データ及び第2点群データを取得する点群データ取得部と、
第1点群データに関する情報を入力して第1点群データ特徴量を出力する第1ニューラルネットワークと、
第2点群データに関する情報を入力して第2点群データ特徴量を出力する第2ニューラルネットワークと、
前記第1点群データ特徴量と前記第2点群データ特徴量とに基づいて、前記第1点群データと前記第2点群データの同一性に関する評価を出力する同一性評価部と、を有し、
前記第1ニューラルネットワークと前記第2ニューラルネットワークとは互いに重みが共有されている。
Further, the eighth aspect of the present disclosure is a measuring device that measures an object and creates three-dimensional point cloud data, and a point cloud that estimates the identity of the object that is the source of the two three-dimensional point cloud data. A point cloud data identity estimation system having a data identity estimation device.
The point cloud data identity estimation device is
A point cloud data acquisition unit that acquires first point cloud data and second point cloud data consisting of three-dimensional point cloud data,
A first neural network that inputs information about the first point cloud data and outputs the first point cloud data features,
A second neural network that inputs information about the second point cloud data and outputs the second point cloud data features,
Based on the first point cloud data feature amount and the second point group data feature amount, an identity evaluation unit that outputs an evaluation regarding the identity of the first point cloud data and the second point group data is provided. Have and
The first neural network and the second neural network share weights with each other.

本開示の第8の態様によれば、点群データに関する情報について、同一性の評価の精度を向上させる点群データ同一性推定システムを提供することができる。 According to the eighth aspect of the present disclosure, it is possible to provide a point cloud data identity estimation system that improves the accuracy of the evaluation of identity for information regarding point cloud data.

点群データ同一性推定システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration of the point cloud data identity estimation system. 点群データ同一性推定装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the point cloud data identity estimation apparatus. 学習用データの一例を示す図である。It is a figure which shows an example of the learning data. データ拡張部の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a data expansion part. 学習部の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a learning part. 学習部による学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the learning process by a learning part. 推論部の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of an inference part. 推論部による推論処理の流れを示すフローチャートである。It is a flowchart which shows the flow of inference processing by an inference part. 推論結果の具体例を示す図である。It is a figure which shows the specific example of the inference result.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Hereinafter, each embodiment will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals to omit duplicate explanations.

[第1の実施形態]
<点群データ同一性推定システムのシステム構成>
はじめに、第1の実施形態に係る点群データ同一性推定システムのシステム構成について説明する。図1は、点群データ同一性推定システムのシステム構成の一例を示す図である。
[First Embodiment]
<System configuration of point cloud data identity estimation system>
First, the system configuration of the point cloud data identity estimation system according to the first embodiment will be described. FIG. 1 is a diagram showing an example of a system configuration of a point cloud data identity estimation system.

図1に示すように、点群データ同一性推定システム100は、第1の計測装置110と、第2の計測装置111と、点群データ同一性推定装置120と、を有する。第1の計測装置110及び第2の計測装置111と、点群データ同一性推定装置120とは、有線または無線を介して接続される。 As shown in FIG. 1, the point cloud data identity estimation system 100 includes a first measurement device 110, a second measurement device 111, and a point cloud data identity estimation device 120. The first measuring device 110 and the second measuring device 111 and the point cloud data identity estimation device 120 are connected by wire or wirelessly.

第1の計測装置110及び第2の計測装置111は、それぞれ、実環境130内に載置された対象物A、対象物B等の各種対象物を計測し、3次元点群データを作成する。第1の計測装置110及び第2の計測装置111は、それぞれ、作成した3次元点群データを点群データ同一性推定装置120に送信する。 The first measuring device 110 and the second measuring device 111 measure various objects such as the object A and the object B placed in the actual environment 130, respectively, and create three-dimensional point cloud data. .. The first measuring device 110 and the second measuring device 111 each transmit the created three-dimensional point cloud data to the point cloud data identity estimation device 120.

なお、第1の計測装置110と第2の計測装置111とは、各種対象物を計測する際の計測方向、計測位置、計測距離、計測タイミング、装置の種類等の各種計測条件のうちの、少なくともいずれかの計測条件が異なっているものとする。 The first measuring device 110 and the second measuring device 111 are among various measurement conditions such as a measurement direction, a measurement position, a measurement distance, a measurement timing, and a type of device when measuring various objects. It is assumed that at least one of the measurement conditions is different.

また、第1の実施形態では、点群データ同一性推定システム100が、第1の計測装置110及び第2の計測装置111の2台の計測装置を有するものとして説明するが、点群データ同一性推定システム100が有する計測装置の台数は1台であってもよい。あるいは、点群データ同一性推定システム100が有する計測装置の台数は3台以上であってもよい。 Further, in the first embodiment, the point cloud data identity estimation system 100 will be described as having two measuring devices, the first measuring device 110 and the second measuring device 111, but the point cloud data is the same. The number of measuring devices included in the sex estimation system 100 may be one. Alternatively, the number of measuring devices included in the point cloud data identity estimation system 100 may be three or more.

点群データ同一性推定装置120は、2つの3次元点群データの元となる対象物の同一性を評価する装置である。 The point cloud data identity estimation device 120 is a device that evaluates the identity of an object that is the source of two three-dimensional point cloud data.

なお、2つの3次元点群データとは、計測方向や計測位置、計測距離、計測タイミング、計測装置の種類等の各種計測条件が異なる状況下で対象物を計測した場合の3次元点群データを指す。具体的には、第1の計測装置110と第2の計測装置111とが、それぞれ、実環境130に載置された対象物を計測することで作成した3次元点群データを指す。 The two 3D point cloud data are 3D point cloud data when an object is measured under different measurement conditions such as measurement direction, measurement position, measurement distance, measurement timing, and type of measurement device. Point to. Specifically, the first measuring device 110 and the second measuring device 111 each refer to three-dimensional point cloud data created by measuring an object placed in the actual environment 130.

点群データ同一性推定装置には、各種プログラムがインストールされており、当該プログラムを実行することで、点群データ同一性推定装置120は、データ取得部121、データ変換部122、データ拡張部123、学習部124、推論部125として機能する。 Various programs are installed in the point cloud data identity estimation device, and by executing the program, the point cloud data identity estimation device 120 has a data acquisition unit 121, a data conversion unit 122, and a data expansion unit 123. , It functions as a learning unit 124 and an inference unit 125.

データ取得部121は、第1の計測装置110及び第2の計測装置111より送信された3次元点群データを取得する。データ取得部121が取得する3次元点群データには、学習用データとして用いることを目的として取得する3次元点群データと、推論用データとして用いることを目的として取得する3次元点群データとが含まれる。 The data acquisition unit 121 acquires the three-dimensional point cloud data transmitted from the first measuring device 110 and the second measuring device 111. The three-dimensional point cloud data acquired by the data acquisition unit 121 includes three-dimensional point cloud data acquired for the purpose of using as learning data and three-dimensional point cloud data acquired for the purpose of using as inference data. Is included.

データ変換部122は、データ取得部121が取得した3次元点群データのデータ形式を変換し、3次元点群データとは異なるデータ形式のデータを生成する。データ変換部122により生成されるデータには、例えば、メッシュデータ(ポリゴンデータ)、サーフェスデータ、CADデータ等の各種データ形式のデータが含まれる。第1の実施形態では、3次元点群データを含むこれら各種データ形式のデータを総称して、"点群データに関する情報"と称す。ただし、以下では、説明の簡略化のため、データ変換部122のデータ形式変換機能は動作させず、点群データに関する情報=3次元点群データそのもの、であるとして説明する。 The data conversion unit 122 converts the data format of the three-dimensional point cloud data acquired by the data acquisition unit 121, and generates data in a data format different from the three-dimensional point cloud data. The data generated by the data conversion unit 122 includes, for example, data in various data formats such as mesh data (polygon data), surface data, and CAD data. In the first embodiment, the data in these various data formats including the three-dimensional point cloud data are collectively referred to as "information about the point cloud data". However, in the following, for the sake of simplification of the description, the data format conversion function of the data conversion unit 122 is not operated, and the information regarding the point cloud data = the three-dimensional point cloud data itself will be described.

また、データ変換部122は、3次元点群データを、対象物の一部の3次元形状を表す、複数の局所3次元点群データに分割する分割機能を有する。 Further, the data conversion unit 122 has a dividing function of dividing the three-dimensional point cloud data into a plurality of local three-dimensional point cloud data representing a part of the three-dimensional shape of the object.

また、データ変換部122は、学習用データとして用いることを目的として取得された3次元点群データを分割することで得た、複数の局所3次元点群データを、学習用データとして、学習用データ格納部126に格納する格納機能を有する。 Further, the data conversion unit 122 uses a plurality of local three-dimensional point cloud data obtained by dividing the three-dimensional point cloud data acquired for the purpose of using it as learning data as training data for learning. It has a storage function for storing in the data storage unit 126.

具体的には、データ変換部122は、同一の対象物を第1及び第2の計測装置110、111が計測することで取得された2つの3次元点群データのうち、該対象物の同一の一部の3次元形状を表す、2つの局所3次元点群データを、互いに対応付けて格納する。このとき、データ変換部122では、互いに同一の3次元形状を元にして作成されたものであることを示す情報もあわせて格納する。 Specifically, the data conversion unit 122 has the same object among the two three-dimensional point cloud data acquired by measuring the same object by the first and second measuring devices 110 and 111. Two local three-dimensional point cloud data representing a part of the three-dimensional shape of the above are stored in association with each other. At this time, the data conversion unit 122 also stores information indicating that the data is created based on the same three-dimensional shapes.

また、データ変換部122は、同一の対象物を第1及び第2の計測装置110、111が計測することで取得された2つの3次元点群データのうち、該対象物の異なる一部の3次元形状を表す、2つの局所3次元点群データを、互いに対応付けて格納する。このとき、データ変換部122では、互いに異なる3次元形状を元にして作成されたものであることを示す情報もあわせて格納する。 Further, the data conversion unit 122 has a part of the two three-dimensional point cloud data acquired by measuring the same object by the first and second measuring devices 110 and 111, which are different from each other. Two local three-dimensional point cloud data representing a three-dimensional shape are stored in association with each other. At this time, the data conversion unit 122 also stores information indicating that the data is created based on three-dimensional shapes different from each other.

また、データ変換部122は、異なる対象物を第1及び第2の計測装置110、111が計測することで取得された2つの3次元点群データのうち、各対象物の一部の3次元形状を表す、2つの局所3次元点群データを、互いに対応付けて格納する。このとき、データ変換部122では、互いに異なる3次元形状を元にして作成されたものであることを示す情報もあわせて格納する。 Further, the data conversion unit 122 has a part of two three-dimensional point cloud data of each object among the two three-dimensional point cloud data acquired by measuring different objects by the first and second measuring devices 110 and 111. Two local three-dimensional point cloud data representing the shape are stored in association with each other. At this time, the data conversion unit 122 also stores information indicating that the data is created based on three-dimensional shapes different from each other.

更に、データ変換部122では、推論用データとして用いることを目的として取得された3次元点群データを分割することで得た、複数の局所3次元点群データを、推論用データ格納部127に格納する格納機能を有する。 Further, in the data conversion unit 122, a plurality of local three-dimensional point cloud data obtained by dividing the three-dimensional point cloud data acquired for the purpose of using the data for inference is stored in the inference data storage unit 127. It has a storage function to store.

具体的には、データ変換部122は、
・第1の計測装置110が計測することで取得された3次元点群データを分割した複数の局所3次元点群データと、
・第2の計測装置111が計測することで取得された3次元点群データを分割した複数の局所3次元点群データと、
を互いに対応付けて格納する。
Specifically, the data conversion unit 122
A plurality of local 3D point cloud data obtained by dividing the 3D point cloud data acquired by the measurement by the first measuring device 110, and
A plurality of local 3D point cloud data obtained by dividing the 3D point cloud data acquired by the measurement by the second measuring device 111, and
Are stored in association with each other.

データ拡張部123は、学習用データとして学習用データ格納部126に格納された、複数の局所3次元点群データに対して、種々の変更処理を行うことで、学習用データを拡張する。 The data expansion unit 123 expands the learning data by performing various modification processes on the plurality of local three-dimensional point cloud data stored in the learning data storage unit 126 as the learning data.

学習部124は、深層学習フレームワークを有する。学習部124は、学習用データ格納部126に格納された複数の局所3次元点群データを読み出し、
・互いに対応付けられた2つの局所3次元点群データの組を入力データとして、ディープニューラルネットワーク(DNN:Deep Neural Network、例えば、3次元点群データ用のDNNであるPointNet)を実行し、
・同一の3次元形状を元にして作成されたものであるか否かを示す情報を正解ラベルとして、該ディープニューラルネットワーク(例えば、3次元点群データ用のDNNであるPointNet)に含まれる重みパラメータを更新する、
学習処理を行う。
The learning unit 124 has a deep learning framework. The learning unit 124 reads out a plurality of local three-dimensional point cloud data stored in the learning data storage unit 126, and reads the data.
-A deep neural network (DNN: Deep Neural Network, for example, PointNet, which is a DNN for 3D point cloud data) is executed by using a set of two local 3D point cloud data associated with each other as input data.
-Weights included in the deep neural network (for example, PointNet, which is a DNN for 3D point cloud data), using information indicating whether or not the information is created based on the same 3D shape as a correct label. Update parameters,
Perform learning process.

なお、学習部124は、学習処理を行うことで調整した重みパラメータを、推論部125に反映させる。 The learning unit 124 reflects the weight parameter adjusted by performing the learning process on the inference unit 125.

推論部125は、学習部124同様、3次元点群データ用の深層学習フレームワークを有する。 The inference unit 125, like the learning unit 124, has a deep learning framework for three-dimensional point cloud data.

推論部125は、推論用データ格納部127に格納された複数の局所3次元点群データを読み出し、
・互いに対応付けられた2つの局所3次元点群データの組を入力データとして、ディープニューラルネットワーク(例えば、3次元点群データ用のDNNであるPointNet)を実行し、
・互いに対応付けられた2つの局所3次元点群データの元となる3次元形状が、同一であるか否かを推論する、
推論処理を行う。
The inference unit 125 reads out a plurality of local three-dimensional point cloud data stored in the inference data storage unit 127, and reads the data.
-A deep neural network (for example, PointNet, which is a DNN for 3D point cloud data) is executed by using a set of two local 3D point cloud data associated with each other as input data.
-Infer whether or not the three-dimensional shapes that are the basis of the two local three-dimensional point cloud data associated with each other are the same.
Performs inference processing.

<点群データ同一性推定装置のハードウェア構成>
次に、点群データ同一性推定装置120のハードウェア構成について説明する。図2は、点群データ同一性推定装置のハードウェア構成の一例を示す図である。
<Hardware configuration of point cloud data identity estimation device>
Next, the hardware configuration of the point cloud data identity estimation device 120 will be described. FIG. 2 is a diagram showing an example of the hardware configuration of the point cloud data identity estimation device.

図2に示すように、点群データ同一性推定装置120は、プロセッサ201と、メモリ202と、補助記憶装置203と、表示装置204と、操作装置205と、I/F(Interface)装置206と、ドライブ装置207とを有する。なお、点群データ同一性推定装置120の各ハードウェアは、バス208を介して相互に接続されている。 As shown in FIG. 2, the point cloud data identity estimation device 120 includes a processor 201, a memory 202, an auxiliary storage device 203, a display device 204, an operation device 205, and an I / F (Interface) device 206. , Drive device 207. The hardware of the point cloud data identity estimation device 120 is connected to each other via the bus 208.

プロセッサ201は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等の各種演算デバイスを有する。プロセッサ201は、各種プログラムをメモリ202上に読み出して実行する。 The processor 201 has various arithmetic devices such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). The processor 201 reads various programs onto the memory 202 and executes them.

メモリ202は、ROM(Read Only Memory)、RAM(Random Access Memory)等の主記憶デバイスを有する。プロセッサ201とメモリ202とは、いわゆるコンピュータを形成し、プロセッサ201が、メモリ202上に読み出した各種プログラムを実行することで、当該コンピュータは上記機能(図1参照)を実現する。 The memory 202 has a main storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The processor 201 and the memory 202 form a so-called computer, and the processor 201 realizes the above function (see FIG. 1) by executing various programs read on the memory 202.

補助記憶装置203は、各種プログラムや、各種プログラムがプロセッサ201によって実行される際に用いられる各種データを格納する。学習用データ格納部126、推論用データ格納部127は、補助記憶装置203において実現される。 The auxiliary storage device 203 stores various programs and various data used when the various programs are executed by the processor 201. The learning data storage unit 126 and the inference data storage unit 127 are realized in the auxiliary storage device 203.

表示装置204は、点群データ同一性推定装置120の内部状態を表示する表示デバイスである。操作装置205は、点群データ同一性推定装置120のユーザが点群データ同一性推定装置120に対して各種指示を入力する際に用いる入力デバイスである。I/F装置206は、第1の計測装置110及び第2の計測装置111と接続し、3次元点群データを受信するための接続デバイスである。 The display device 204 is a display device that displays the internal state of the point cloud data identity estimation device 120. The operation device 205 is an input device used by the user of the point cloud data identity estimation device 120 to input various instructions to the point cloud data identity estimation device 120. The I / F device 206 is a connecting device for connecting to the first measuring device 110 and the second measuring device 111 and receiving the three-dimensional point cloud data.

ドライブ装置207は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。 The drive device 207 is a device for setting the recording medium 210. The recording medium 210 referred to here includes a medium such as a CD-ROM, a flexible disk, a magneto-optical disk, or the like that optically, electrically, or magnetically records information. Further, the recording medium 210 may include a semiconductor memory or the like for electrically recording information such as a ROM or a flash memory.

なお、補助記憶装置203にインストールされる各種プログラムは、例えば、配布された記録媒体210がドライブ装置207にセットされ、該記録媒体210に記録された各種プログラムがドライブ装置207により読み出されることでインストールされる。あるいは、補助記憶装置203にインストールされる各種プログラムは、不図示のネットワークを介してダウンロードされることで、インストールされてもよい。 The various programs installed in the auxiliary storage device 203 are installed, for example, by setting the distributed recording medium 210 in the drive device 207 and reading the various programs recorded in the recording medium 210 by the drive device 207. Will be done. Alternatively, the various programs installed in the auxiliary storage device 203 may be installed by being downloaded via a network (not shown).

<学習用データの具体例>
次に、学習用データ格納部126に格納される学習用データの具体例について説明する。図3は、学習用データの一例を示す図である。図3に示すように、学習用データ300は、情報の項目として、"第1点群データ"、"第2点群データ"、"正解ラベル"を有する。
<Specific examples of learning data>
Next, a specific example of the learning data stored in the learning data storage unit 126 will be described. FIG. 3 is a diagram showing an example of learning data. As shown in FIG. 3, the learning data 300 has "first point cloud data", "second point cloud data", and "correct answer label" as information items.

"第1点群データ"には、対象物を第1の計測装置110が計測することで取得した3次元点群データ310を分割した複数の局所3次元点群データが格納される。 In the "first point cloud data", a plurality of local three-dimensional point cloud data obtained by dividing the three-dimensional point cloud data 310 acquired by measuring the object by the first measuring device 110 is stored.

なお、図3の例は、複数の局所3次元点群データとして、局所3次元点群データ311、312の具体例を示している。図3に示すように、局所3次元点群データ311、312は、各点のX座標、Y座標、Z座標、R値、G値、B値を含む。また、図3の例の場合、局所3次元点群データ311、312は、2048点の点群を含む。 The example of FIG. 3 shows specific examples of the local three-dimensional point cloud data 311 and 312 as a plurality of local three-dimensional point cloud data. As shown in FIG. 3, the local three-dimensional point cloud data 311 and 312 include the X coordinate, Y coordinate, Z coordinate, R value, G value, and B value of each point. Further, in the case of the example of FIG. 3, the local three-dimensional point cloud data 311 and 312 include a point cloud of 2048 points.

"第2点群データ"には、対象物を第2の計測装置111が計測することで取得した3次元点群データ320を分割した複数の局所3次元点群データが格納される。 In the "second point cloud data", a plurality of local three-dimensional point cloud data obtained by dividing the three-dimensional point cloud data 320 acquired by measuring the object by the second measuring device 111 is stored.

なお、図3の例は、複数の局所3次元点群データとして、局所3次元点群データ321の具体例を示している。図3に示すように、局所3次元点群データ321は、各点のX座標、Y座標、Z座標、R値、G値、B値を含む。また、図3の例の場合、局所3次元点群データ321は、2048点の点群を含む。 The example of FIG. 3 shows a specific example of the local three-dimensional point cloud data 321 as a plurality of local three-dimensional point cloud data. As shown in FIG. 3, the local three-dimensional point cloud data 321 includes the X coordinate, Y coordinate, Z coordinate, R value, G value, and B value of each point. Further, in the case of the example of FIG. 3, the local three-dimensional point cloud data 321 includes a point cloud of 2048 points.

"正解ラベル"には、
・"第1点群データ"の局所3次元点群データと、
・"第2点群データ"の局所3次元点群データと、
で、互いに対応付けられた2つの局所3次元点群データが、同一の3次元形状を元にして作成されたものであるか否かを示す情報として、"同一"または"非同一"のいずれかが格納される。
"Correct label"
・ Local 3D point cloud data of "1st point cloud data" and
・ Local 3D point cloud data of "2nd point cloud data" and
As information indicating whether or not the two local three-dimensional point cloud data associated with each other are created based on the same three-dimensional shape, either "identical" or "non-identical". Is stored.

例えば、局所3次元点群データ311と局所3次元点群データ321とは、互いに同一の3次元形状を元にして作成されたものであるため、"正解ラベル"には、"同一"が格納される。なお、これらは第1教師データの一例である。 For example, since the local 3D point cloud data 311 and the local 3D point cloud data 321 are created based on the same 3D shape, "same" is stored in the "correct answer label". Will be done. These are examples of the first teacher data.

一方、局所3次元点群データ312と局所3次元点群データ321は、互いに異なる3次元形状を元にして作成されたものであるため、"正解ラベル"には、"非同一"が格納される。なお、これらは第2教師データの一例である。 On the other hand, since the local 3D point cloud data 312 and the local 3D point cloud data 321 are created based on different 3D shapes, "non-identical" is stored in the "correct answer label". To. These are examples of the second teacher data.

<データ拡張部の機能構成の詳細>
次に、データ拡張部123の機能構成の詳細について説明する。図4は、データ拡張部の機能構成の一例を示す図である。
<Details of the functional configuration of the data expansion unit>
Next, the details of the functional configuration of the data expansion unit 123 will be described. FIG. 4 is a diagram showing an example of the functional configuration of the data expansion unit.

図4に示すように、データ拡張部123は、読み出し部401、密度変更部402、欠損部403、ノイズ付加部404、バイアス付加部405、角度変更部406、拡縮部407、シフト部408を有する。 As shown in FIG. 4, the data expansion unit 123 includes a read unit 401, a density change unit 402, a defect unit 403, a noise addition unit 404, a bias addition unit 405, an angle change unit 406, an enlargement / reduction unit 407, and a shift unit 408. ..

読み出し部401は、学習用データ格納部126に格納された学習用データ300から、所定の教師データを読み出す。図4の例は、学習用データ格納部126から、所定の教師データとして、局所3次元点群データ311、321を含む教師データ410を読み出した様子を示している。なお、読み出し部401が読み出す所定の教師データとは、"正解ラベル"に同一であることを示す情報が格納されている教師データである。 The reading unit 401 reads predetermined teacher data from the learning data 300 stored in the learning data storage unit 126. The example of FIG. 4 shows a state in which the teacher data 410 including the local three-dimensional point cloud data 311 and 321 is read out as predetermined teacher data from the learning data storage unit 126. The predetermined teacher data read by the reading unit 401 is teacher data in which information indicating that the "correct answer label" is the same is stored.

密度変更部402は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データの各点を、一定間隔で間引くことで、各点の密度を変更する。密度変更部402は、変更した後の局所3次元点群データを含む教師データ421を、学習用データ格納部126に格納する。 The density change unit 402 is a local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. The density of each point is changed by thinning each point at regular intervals. The density changing unit 402 stores the teacher data 421 including the changed local three-dimensional point cloud data in the learning data storage unit 126.

欠損部403は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データの各点をランダムに欠損させる。また、欠損部403は、欠損させた後の局所3次元点群データを含む教師データ422を、学習用データ格納部126に格納する。 The missing portion 403 is each of the local three-dimensional point cloud data of one of the two local three-dimensional point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. Randomly delete points. In addition, the defect unit 403 stores the teacher data 422 including the local three-dimensional point cloud data after the defect in the learning data storage unit 126.

ノイズ付加部404は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データの任意の位置に、ノイズ(点)を付加する。また、ノイズ付加部404は、ノイズを付加した後の局所3次元点群データを含む教師データ423を、学習用データ格納部126に格納する。 The noise addition unit 404 is a local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. Add noise (point) to an arbitrary position. Further, the noise addition unit 404 stores the teacher data 423 including the local three-dimensional point cloud data after the noise is added in the learning data storage unit 126.

バイアス付加部405は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データの各点のR値、G値、B値にバイアス値を付加する(つまり、色を変化させる)。また、バイアス付加部405は、バイアス値を付加した後の局所3次元点群データを含む教師データ424を、学習用データ格納部126に格納する。 The bias addition unit 405 is the local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. A bias value is added to the R value, G value, and B value of each point (that is, the color is changed). Further, the bias adding unit 405 stores the teacher data 424 including the local three-dimensional point cloud data after adding the bias value in the learning data storage unit 126.

角度変更部406は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データを、所定の角度以上傾ける。また、角度変更部406は、所定の角度以上傾けた後の局所3次元点群データを含む教師データ425を、学習用データ格納部126に格納する。教師データ425は第4教師データの一例である。 The angle changing unit 406 selects the local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. , Tilt more than the specified angle. Further, the angle changing unit 406 stores the teacher data 425 including the local three-dimensional point cloud data after being tilted by a predetermined angle or more in the learning data storage unit 126. The teacher data 425 is an example of the fourth teacher data.

また、角度変更部406では、所定の角度以上傾けた後の局所3次元点群データを含む教師データ425については、"正解ラベル"を、"同一"から"非同一"に変更する。2つの局所3次元点群データのうちのいずれか一方を所定の角度以上傾けた場合、これら2つの局所3次元点群データは、互いに異なる3次元形状を元にして作成されたものであるとみなせるからである。 Further, the angle changing unit 406 changes the "correct answer label" from "identical" to "non-identical" for the teacher data 425 including the local three-dimensional point cloud data after being tilted by a predetermined angle or more. When one of the two local three-dimensional point cloud data is tilted by a predetermined angle or more, the two local three-dimensional point cloud data are said to have been created based on different three-dimensional shapes. Because it can be regarded.

なお、角度変更部406は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データを、傾けない或いは所定の角度未満傾けてもよい。また、角度変更部406は、傾けない或いは所定の角度未満傾けた後の局所3次元点群データを含む教師データ425を、学習用データ格納部126に格納してもよい。この場合の教師データ425は第3教師データの一例となる。また、この場合の教師データ425については、角度変更部406は"正解ラベル"を変更しない。 The angle changing unit 406 uses the local 3D point cloud of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. The data may not be tilted or tilted less than a predetermined angle. Further, the angle changing unit 406 may store the teacher data 425 including the local three-dimensional point cloud data after not tilting or tilting less than a predetermined angle in the learning data storage unit 126. The teacher data 425 in this case is an example of the third teacher data. Further, regarding the teacher data 425 in this case, the angle changing unit 406 does not change the "correct answer label".

拡縮部407は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データを、所定範囲を超えた拡大率または縮小率で拡大または縮小する。また、拡縮部407は、所定範囲を超えた拡大率または縮小率で拡大または縮小した後の局所3次元点群データを含む教師データ426を、学習用データ格納部126に格納する。教師データ426は第6教師データの一例である。 The scaling unit 407 uses the local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. Enlarge or reduce at an enlargement or reduction rate that exceeds a predetermined range. In addition, the scaling unit 407 stores the teacher data 426 including the local three-dimensional point cloud data after being enlarged or reduced at a magnification or reduction rate exceeding a predetermined range in the learning data storage unit 126. The teacher data 426 is an example of the sixth teacher data.

また、拡縮部407では、所定範囲を超えた拡大率または縮小率で拡大または縮小した後の局所3次元点群データを含む教師データ426については、"正解ラベル"を、"同一"から"非同一"に変更する。2つの局所3次元点群データのうちのいずれか一方を所定範囲を超えた拡大率または縮小率で拡大または縮小した場合、これら2つの局所3次元点群データは、互いに異なる3次元形状を元にして作成されたものであるとみなせるからである。 Further, in the scaling unit 407, the "correct label" is changed from "same" to "non" for the teacher data 426 including the local three-dimensional point cloud data after being enlarged or reduced at a magnification or reduction rate exceeding a predetermined range. Change to "same". When one of the two local 3D point cloud data is enlarged or reduced at a magnification or reduction rate exceeding a predetermined range, the two local 3D point cloud data are based on different 3D shapes. This is because it can be regarded as being created in.

なお、拡縮部407は、教師データ410に含まれる2つの局所3次元点群データを、同一サイズのまま、あるいは、いずれか一方の局所3次元点群データを、所定範囲内の拡大率または縮小率で拡大または縮小してもよい。また、拡縮部407は、同一サイズの局所3次元点群データまたは所定範囲内の拡大率または縮小率で拡大または縮小した後の局所3次元点群データを含む教師データ426を、学習用データ格納部126に格納してもよい。この場合の教師データ426は第5教師データの一例となる。また、この場合の教師データ426については、拡縮部407は"正解ラベル"を変更しない。 The scaling unit 407 keeps the two local three-dimensional point cloud data included in the teacher data 410 at the same size, or reduces or reduces the scaling factor of one of the local three-dimensional point cloud data within a predetermined range. It may be enlarged or reduced at a rate. Further, the scaling unit 407 stores the training data 426 including the local three-dimensional point cloud data of the same size or the local three-dimensional point cloud data after being enlarged or reduced at the enlargement ratio or reduction ratio within a predetermined range. It may be stored in the unit 126. The teacher data 426 in this case is an example of the fifth teacher data. Further, regarding the teacher data 426 in this case, the scaling unit 407 does not change the "correct answer label".

シフト部408は、教師データ410の"第1点群データ"及び"第2点群データ"に含まれる2つの局所3次元点群データのうちのいずれか一方の局所3次元点群データの中心位置をシフトする。また、シフト部408は、中心位置をシフトした後の局所3次元点群データを含む教師データ427を、学習用データ格納部126に格納する。 The shift unit 408 is the center of the local 3D point cloud data of one of the two local 3D point cloud data included in the "first point cloud data" and the "second point cloud data" of the teacher data 410. Shift the position. Further, the shift unit 408 stores the teacher data 427 including the local three-dimensional point cloud data after shifting the center position in the learning data storage unit 126.

このように、データ拡張部123が学習用データ300を拡張することで、計測方向や計測位置、計測距離、計測タイミング、計測装置の種類等の各種計測条件が異なる、2つの局所3次元点群データの組を、疑似的に生成することができる。そして、拡張後の学習用データ300を用いることで、第1の実施形態によれば、各種計測条件が異なる2つの局所3次元点群データについての同一性の評価の精度を向上させることができる。 In this way, by expanding the learning data 300 by the data expansion unit 123, two local three-dimensional point clouds having different measurement conditions such as measurement direction, measurement position, measurement distance, measurement timing, and type of measurement device are different. A set of data can be generated in a pseudo manner. Then, by using the expanded learning data 300, according to the first embodiment, it is possible to improve the accuracy of the evaluation of the identity of two local three-dimensional point cloud data having different measurement conditions. ..

<学習部の機能構成の詳細>
次に、学習部124の機能構成の詳細について説明する。図5は、学習部の機能構成の一例を示す図である。図5に示すように、学習部124は、2つの局所3次元点群データが互いに同一の3次元形状を元にして作成されたものであるか否かを推論するために(同一性を評価するために)、シャム(Siamese)ネットワーク構造を利用する。
<Details of the functional configuration of the learning department>
Next, the details of the functional configuration of the learning unit 124 will be described. FIG. 5 is a diagram showing an example of the functional configuration of the learning unit. As shown in FIG. 5, the learning unit 124 infers whether or not the two local three-dimensional point cloud data are created based on the same three-dimensional shape (evaluate the identity). To use the Siamese network structure.

具体的には、図5に示すように、学習部124は、第1点群データ入力部501、第1DNN部502、第2点群データ入力部511、第2DNN部512、同一性評価部521を有する。更に、学習部124は、比較部531を有する。 Specifically, as shown in FIG. 5, the learning unit 124 includes a first point cloud data input unit 501, a first DNN unit 502, a second point cloud data input unit 511, a second DNN unit 512, and an identity evaluation unit 521. Has. Further, the learning unit 124 has a comparison unit 531.

第1点群データ入力部501は、学習用データ格納部126に格納された学習用データ300から、"第1点群データ"に格納された局所3次元点群データを読み出し、第1DNN部502に入力する。また、第2点群データ入力部511は、学習用データ格納部126に格納された学習用データ300から、"第2点群データ"に格納された局所3次元点群データを読み出し、第2DNN部512に入力する。 The first point cloud data input unit 501 reads out the local three-dimensional point cloud data stored in the "first point cloud data" from the learning data 300 stored in the learning data storage unit 126, and the first DNN unit 502. Enter in. Further, the second point cloud data input unit 511 reads out the local three-dimensional point cloud data stored in the "second point cloud data" from the learning data 300 stored in the learning data storage unit 126, and reads the second DNN. Input to unit 512.

なお、第1点群データ入力部501により入力される局所3次元点群データと、第2点群データ入力部511により入力される局所3次元点群データとは、学習用データ300において互いに対応付けられた局所3次元点群データである。 The local 3D point cloud data input by the 1st point cloud data input unit 501 and the local 3D point cloud data input by the 2nd point cloud data input unit 511 correspond to each other in the training data 300. It is the attached local three-dimensional point cloud data.

第1DNN部502は第1ニューラルネットワークの一例であり、例えば、3次元点群データ用のDNNであるPointNetが用いられる。第1DNN部502は、第1点群データ入力部501により局所3次元点群データが入力されることで動作し、第1点群データ特徴量を出力する(下式(1)参照)。 The first DNN unit 502 is an example of the first neural network, and for example, PointNet, which is a DNN for three-dimensional point cloud data, is used. The first DNN unit 502 operates by inputting local three-dimensional point cloud data by the first point cloud data input unit 501, and outputs the first point cloud data feature amount (see the following equation (1)).

上式(1)は、2048点の点群を含む局所3次元点群データから、1024個の特徴量を含む第1点群データ特徴量が出力されることを表している。 The above equation (1) represents that the first point cloud data feature amount including 1024 feature amounts is output from the local three-dimensional point cloud data including the 2048 point cloud.

第2DNN部512は第2ニューラルネットワークの一例であり、例えば、3次元点群データ用のDNNであるPointNetが用いられる。第2DNN部512は、第2点群データ入力部511により局所3次元点群データが入力されることで動作し、第2点群データ特徴量を出力する(下式(2)参照)。 The second DNN unit 512 is an example of the second neural network, and for example, PointNet, which is a DNN for three-dimensional point cloud data, is used. The second DNN unit 512 operates by inputting local three-dimensional point cloud data by the second point cloud data input unit 511, and outputs the second point cloud data feature amount (see the following equation (2)).

上式(2)は、2048点の点群を含む局所3次元点群データから、1024個の特徴量を含む第2点群データ特徴量が出力されることを表している。 The above equation (2) represents that the second point cloud data feature amount including the 1024 feature amount is output from the local three-dimensional point cloud data including the 2048 point cloud.

同一性評価部521は、第1DNN部502より出力された第1点群データ特徴量と、第2DNN部512より出力された第2点群データ特徴量とを処理する。これにより、同一性評価部521は、2つの局所3次元点群データが、互いに同一の3次元形状を元にして作成されたものであるか否かを推論するためのデータ(2つの局所3次元点群データの同一性に関する評価)を出力する。 The identity evaluation unit 521 processes the first point cloud data feature amount output from the first DNN unit 502 and the second point cloud data feature amount output from the second DNN unit 512. As a result, the identity evaluation unit 521 is data for inferring whether or not the two local three-dimensional point cloud data are created based on the same three-dimensional shape (two local 3). (Evaluation of identity of 3D point cloud data) is output.

具体的には、同一性評価部521では、第1DNN部502及び第2DNN部512より出力された第1点群データ特徴量pnαと第2点群データ特徴量pnβとに基づいて、ユークリッド距離Dを算出し、比較部531に出力する(下式(3)参照)。 Specifically, in the identity evaluation unit 521, the Euclidean distance is based on the first point cloud data feature amount pn α and the second point cloud data feature amount pn β output from the first DNN unit 502 and the second DNN unit 512. The distance D w is calculated and output to the comparison unit 531 (see the following equation (3)).

ただし、上式(3)において、第1点群データ特徴量pnα、第2点群データ特徴量pnβは、下式(4−1)、(4−2)を満たすものとする。 However, in the above equation (3), the first point cloud data feature amount pn α and the second point group data feature amount pn β satisfy the following equations (4-1) and (4-2).

つまり、ユークリッド距離Dは、2つの局所3次元点群データの同一性に関する評価を表しているということができる。なお、ユークリッド距離Dが小さければ、同一性が高いことを示す評価が出力されたということができ、ユークリッド距離Dが大きければ、同一性が低いことを示す評価が出力されたということができる。 That is, it can be said that the Euclidean distance D W represents an evaluation regarding the identity of two local three-dimensional point cloud data. If the Euclidean distance D W is small, it can be said that an evaluation indicating that the identity is high is output, and if the Euclidean distance D W is large, an evaluation indicating that the identity is low is output. it can.

比較部531は、同一性評価部521により出力されたユークリッド距離Dと、学習用データ格納部126より読み出された"正解ラベル"に格納された同一(または非同一)であることを示す情報とに基づいて損失関数Lを算出する(下式(5)参照)。 The comparison unit 531 indicates that the Euclidean distance D w output by the identity evaluation unit 521 is the same (or non-identical) stored in the "correct answer label" read from the learning data storage unit 126. The loss function L c is calculated based on the information (see equation (5) below).

ただし、上式(5)において、Cには、正解ラベルが"同一"であれば"0"が入力され、"非同一"であれば"1"が入力される。また、上式(5)において、mはマージンである。 However, in the above equation (5), "0" is input to C if the correct label is "same", and "1" is input if the correct label is "non-identical". Further, in the above equation (5), m is a margin.

比較部531は、算出した損失関数Lを逆伝播させることで、第1DNN部502及び第2DNN部512の重みパラメータを更新する。 The comparison unit 531 updates the weight parameters of the first DNN unit 502 and the second DNN unit 512 by back-propagating the calculated loss function L c .

なお、第1DNN部502の重みパラメータと第2DNN部512の重みパラメータとは互いに共有されており、損失関数Lが逆伝播された際、第1DNN部502と第2DNN部512とは、同じ値の重みパラメータに更新されることになる。 Incidentally, the weight parameters of the 1DNN portion 502 and the weight parameters of the 2DNN portion 512 are shared with each other, when the loss function L c is reversely propagated, and the 1DNN unit 502 and the 2DNN portion 512, the same value Will be updated to the weight parameter of.

このように、学習時に、損失関数Lを逆伝播させ、第1DNN部502と第2DNN部512とで重みパラメータを共有させながら更新することで、学習部124によれば、例えば、
・2つの局所3次元点群データの同一性に関する評価を出力するのに適した点群データ特徴量が出力されるように、重みパラメータを学習することができる、
・学習用データ300において、"第1点群データ"及び"第2点群データ"にそれぞれ格納された局所3次元点群データの特性に偏りがあった場合でも、汎化性能の高い重みパラメータを学習することができる、
といった効果を奏することになる。この結果、第1の実施形態によれば、同一性の評価の精度を向上させることができる。
In this way, at the time of learning, the loss function L c is back-propagated and updated while sharing the weight parameter between the first DNN unit 502 and the second DNN unit 512.
-Weight parameters can be learned so that point cloud data features suitable for outputting an evaluation of the identity of two local 3D point cloud data are output.
-In the training data 300, even if the characteristics of the local 3D point cloud data stored in the "first point cloud data" and the "second point cloud data" are biased, the weight parameter with high generalization performance is high. Can learn,
It will have the effect. As a result, according to the first embodiment, the accuracy of the evaluation of identity can be improved.

<学習処理の流れ>
次に、学習部124による学習処理の流れについて説明する。図6は、学習部による学習処理の流れを示すフローチャートである。
<Flow of learning process>
Next, the flow of the learning process by the learning unit 124 will be described. FIG. 6 is a flowchart showing the flow of learning processing by the learning unit.

ステップS601において、第1点群データ入力部501及び第2点群データ入力部511は、学習用データ格納部126より、互いに対応付けられた2つの局所3次元点群データの組を複数読み出す。 In step S601, the first point cloud data input unit 501 and the second point cloud data input unit 511 read out a plurality of sets of two local three-dimensional point cloud data associated with each other from the learning data storage unit 126.

ステップS602において、第1DNN部502及び第2DNN部512は、読み出された2つの局所3次元点群データの組を入力することで動作し、第1点群データ特徴量pnα及び第2点群データ特徴量pnβを出力する。 In step S602, the first DNN unit 502 and the second DNN unit 512 operate by inputting a set of two read local three-dimensional point cloud data, and the first point cloud data feature amount pn α and the second point The group data feature amount pn β is output.

ステップS603において、同一性評価部521は、第1点群データ特徴量pnαと第2点群データ特徴量pnβとに基づいてユークリッド距離Dを算出する。 In step S603, the identity evaluation unit 521 calculates the Euclidean distance D w based on the first point cloud data feature amount pn α and the second point group data feature amount pn β .

ステップS604において、比較部531は、算出されたユークリッド距離Dと、学習用データ格納部126より読み出した正解ラベルCとに基づいて、損失関数Lを算出する。また、比較部531は、算出した損失関数Lに基づいて、第1DNN部502及び第2DNN部512の重みパラメータを共有させながら更新する。 In step S604, the comparison unit 531 calculates the loss function L c based on the calculated Euclidean distance D w and the correct label C read from the learning data storage unit 126. Further, the comparison unit 531 updates while sharing the weight parameters of the first DNN unit 502 and the second DNN unit 512 based on the calculated loss function L c .

ステップS605において、比較部531は、学習処理を終了するか否かを判定する。ステップS605において、学習処理を終了しないと判定した場合には(ステップS605においてNoの場合には)、ステップS602に戻る。これにより、第1点群データ入力部501及び第2点群データ入力部511は、互いに対応付けられた2つの局所3次元点群データの組であって、まだ学習処理に用いられていない組を第1DNN部502及び第2DNN部512に入力する。 In step S605, the comparison unit 531 determines whether or not to end the learning process. If it is determined in step S605 that the learning process is not completed (if No in step S605), the process returns to step S602. As a result, the first point cloud data input unit 501 and the second point cloud data input unit 511 are a set of two local three-dimensional point cloud data associated with each other and have not yet been used in the learning process. Is input to the first DNN unit 502 and the second DNN unit 512.

一方、ステップS605において、学習処理を終了すると判定した場合には(ステップS605においてYesの場合には)、学習処理を終了し、更新した重みパラメータを、推論部125に反映する。 On the other hand, when it is determined in step S605 that the learning process is finished (in the case of Yes in step S605), the learning process is finished and the updated weight parameter is reflected in the inference unit 125.

<推論部の機能構成>
次に、推論部125の機能構成の詳細について説明する。図7は、推論部の機能構成の一例を示す図である。学習部124と同様、推論部125は、2つの局所3次元点群データが、互いに同一の3次元形状を元にして作成されたものであるか否かを推論するために(同一性を評価するために)、シャム(Siamese)ネットワーク構造を利用する。
<Functional configuration of inference unit>
Next, the details of the functional configuration of the inference unit 125 will be described. FIG. 7 is a diagram showing an example of the functional configuration of the inference unit. Similar to the learning unit 124, the inference unit 125 infers whether or not the two local 3D point cloud data are created based on the same 3D shape (evaluate the identity). To take advantage of the Siamese network structure.

具体的には、図7に示すように、推論部125は、第1点群データ入力部701、第1DNN部702、第2点群データ入力部711、第2DNN部712、同一性評価部721を有する。更に、推論部125は、出力部731を有する。 Specifically, as shown in FIG. 7, the inference unit 125 includes a first point cloud data input unit 701, a first DNN unit 702, a second point cloud data input unit 711, a second DNN unit 712, and an identity evaluation unit 721. Has. Further, the inference unit 125 has an output unit 731.

第1点群データ入力部701は、推論用データ格納部127に格納された推論用データから、"第1点群データ"に格納された局所3次元点群データを読み出し、第1DNN部702に入力する。また、第2点群データ入力部711は、推論用データ格納部127に格納された推論用データから、"第2点群データ"に格納された局所3次元点群データを読み出し、第2DNN部712に入力する。 The first point group data input unit 701 reads out the local three-dimensional point group data stored in the "first point group data" from the inference data stored in the inference data storage unit 127, and causes the first DNN unit 702 to read the local three-dimensional point group data. input. Further, the second point group data input unit 711 reads out the local three-dimensional point group data stored in the "second point group data" from the inference data stored in the inference data storage unit 127, and the second DNN unit. Enter in 712.

なお、推論用データ格納部127に格納された推論用データは、情報の項目として"正解ラベル"がないことを除けば、図3の学習用データ300と同様の構成を有しているものとする。 The inference data stored in the inference data storage unit 127 has the same configuration as the learning data 300 in FIG. 3, except that there is no "correct answer label" as an information item. To do.

なお、第1点群データ入力部701により入力される局所3次元点群データと、第2点群データ入力部711により入力される局所3次元点群データとは、推論用データにおいて互いに対応付けられた局所3次元点群データである。 The local 3D point cloud data input by the 1st point cloud data input unit 701 and the local 3D point cloud data input by the 2nd point cloud data input unit 711 are associated with each other in the inference data. It is the local three-dimensional point cloud data obtained.

第1DNN部702は第1ニューラルネットワークの一例であり、第1点群データ入力部701により局所3次元点群データが入力されることで動作し、第1点群データ特徴量pnαを出力する。 The first DNN unit 702 is an example of the first neural network, operates by inputting local three-dimensional point cloud data by the first point cloud data input unit 701, and outputs the first point cloud data feature amount pn α . ..

第2DNN部712は第2ニューラルネットワークの一例であり、第2点群データ入力部711により局所3次元点群データが入力されることで動作し、第2点群データ特徴量pnβを出力する。なお、第1DNN部702と第2DNN部712とは、互いに重みパラメータが共有されている。 The second DNN unit 712 is an example of the second neural network, operates by inputting local three-dimensional point cloud data by the second point cloud data input unit 711, and outputs the second point cloud data feature amount pn β . .. The first DNN unit 702 and the second DNN unit 712 share weight parameters with each other.

同一性評価部721は、第1DNN部702より出力された第1点群データ特徴量と、第2DNN部712より出力された第2点群データ特徴量とを処理する。これにより、同一性評価部721は、2つの局所3次元点群データが、互いに同一の3次元形状を元にして作成されたものであるか否かを推論するためのデータ(2つの局所3次元点群データの同一性に関する評価)を出力する。 The identity evaluation unit 721 processes the first point cloud data feature amount output from the first DNN unit 702 and the second point cloud data feature amount output from the second DNN unit 712. As a result, the identity evaluation unit 721 data for inferring whether or not the two local three-dimensional point cloud data are created based on the same three-dimensional shape (two local 3). (Evaluation of identity of 3D point cloud data) is output.

具体的には、同一性評価部721では、第1DNN部702より出力された第1点群データ特徴量pnαと、第2DNN部712より出力された第2点群データ特徴量pnβとに基づいて、ユークリッド距離Dを算出し、出力部731に出力する。なお、上述したように、ユークリッド距離Dが小さければ、同一性が高いことを示す評価が出力されたということができ、ユークリッド距離Dが大きければ、同一性が低いことを示す評価が出力されたということができる。 Specifically, in the identity evaluation unit 721, the first point cloud data feature amount pn α output from the first DNN unit 702 and the second point cloud data feature amount pn β output from the second DNN unit 712 are set. Based on this, the Euclidean distance D w is calculated and output to the output unit 731. As described above, if the Euclidean distance D W is small, it can be said that an evaluation indicating that the identity is high is output, and if the Euclidean distance D W is large, an evaluation indicating that the identity is low is output. It can be said that it was done.

出力部731では、同一性評価部721より出力されたユークリッド距離Dが所定の閾値以上であるか否かを判定する(下式(6−1)、(6−2)参照)。 The output unit 731 determines whether or not the Euclidean distance D w output from the identity evaluation unit 721 is equal to or greater than a predetermined threshold value (see the following equations (6-1) and (6-2)).

ユークリッド距離Dが所定の閾値tより大きいと判定した場合(上式(6−1))、出力部731では、同一性の評価として"非同一である"を出力する。一方、ユークリッド距離Dが所定の閾値t以下であると判定した場合(上式(6−2))、出力部731では、同一性の評価として、"同一である"を出力する。 When it is determined that the Euclidean distance D w is larger than the predetermined threshold value t d (the above equation (6-1)), the output unit 731 outputs "non-identical" as an evaluation of identity. On the other hand, when it is determined that the Euclidean distance D w is equal to or less than the predetermined threshold value t d (the above equation (6-2)), the output unit 731 outputs "identical" as an evaluation of the sameness.

このように、推論時に、互いに重みパラメータが共有された第1DNN部702と第2DNN部712とを用いることで、推論部125によれば、例えば、
・2つの局所3次元点群データの同一性に関する評価を出力するのに適した点群データ特徴量を出力することができる、
・2つの局所3次元点群データを第1DNN部702と第2DNN部712のいずれに入力するかによらず、同一性に関する評価として、同じデータを出力することができる、
といった効果を奏することになる。この結果、第1の実施形態によれば、同一性の評価の精度を向上させることができる。
In this way, by using the first DNN unit 702 and the second DNN unit 712 that share the weight parameters with each other at the time of inference, according to the inference unit 125, for example,
-It is possible to output a point cloud data feature amount suitable for outputting an evaluation regarding the identity of two local three-dimensional point cloud data.
-The same data can be output as an evaluation of identity regardless of whether the two local three-dimensional point cloud data are input to the first DNN unit 702 or the second DNN unit 712.
It will have the effect. As a result, according to the first embodiment, the accuracy of the evaluation of identity can be improved.

<推論処理の流れ>
次に、推論部125による推論処理の流れについて説明する。図8は、推論部による推論処理の流れを示すフローチャートである。
<Flow of inference processing>
Next, the flow of the inference process by the inference unit 125 will be described. FIG. 8 is a flowchart showing the flow of inference processing by the inference unit.

ステップS801において、第1点群データ入力部701及び第2点群データ入力部711は、推論用データ格納部127より、互いに対応付けられた2つの局所3次元点群データの組を読み出す。 In step S801, the first point cloud data input unit 701 and the second point cloud data input unit 711 read out a set of two local three-dimensional point cloud data associated with each other from the inference data storage unit 127.

ステップS802において、第1DNN部702及び第2DNN部712は、読み出された2つの局所3次元点群データの組を入力することで動作し、第1点群データ特徴量pnα及び第2点群データ特徴量pnβを出力する。 In step S802, the first DNN unit 702 and the second DNN unit 712 operate by inputting a set of two read local three-dimensional point cloud data, and the first point cloud data feature amount pn α and the second point The group data feature amount pn β is output.

ステップS803において、同一性評価部721は、第1点群データ特徴量pnαと第2点群データ特徴量pnβとに基づいてユークリッド距離Dを算出する。 In step S803, the identity evaluation unit 721 calculates the Euclidean distance D w based on the first point cloud data feature amount pn α and the second point group data feature amount pn β .

ステップS804において、出力部731は、同一性評価部721より出力されたユークリッド距離Dに基づいて、同一性の評価("同一である"または"非同一である")を出力する。 In step S804, the output unit 731 outputs an evaluation of identity (“identical” or “non-identical”) based on the Euclidean distance D w output from the identity evaluation unit 721.

<推論結果の具体例>
次に、推論部125による推論結果の具体例について説明する。図9は、推論結果の具体例を示す図である。
<Specific example of inference result>
Next, a specific example of the inference result by the inference unit 125 will be described. FIG. 9 is a diagram showing a specific example of the inference result.

このうち、図9(a)は、推論処理に用いた推論用データの概要を示している。図9(a)において、"対象物の種類"には、第1の計測装置110及び第2の計測装置111が計測した対象物の種類を示している。 Of these, FIG. 9A shows an outline of the inference data used in the inference processing. In FIG. 9A, "type of object" indicates the type of object measured by the first measuring device 110 and the second measuring device 111.

また、図9(a)において、"2つの局所3次元点群データが同一の組の数"には、対応する"対象物の種類"に含まれる複数の局所3次元点群データのうち、互いに同一の3次元形状を元にして作成された、2つの局所3次元点群データの組の数が格納される。また、"2つの局所3次元点群データが非同一の組の数"には、対応する"対象物の種類"に含まれる複数の局所3次元点群データのうち、互いに異なる3次元形状を元にして作成された、2つの局所3次元点群データの組の数が格納される。 Further, in FIG. 9A, the "number of sets in which two local three-dimensional point cloud data are the same" includes among a plurality of local three-dimensional point cloud data included in the corresponding "object type". The number of pairs of two local 3D point cloud data created based on the same 3D shape is stored. Further, for "the number of pairs in which two local three-dimensional point cloud data are not the same", three-dimensional shapes different from each other among a plurality of local three-dimensional point cloud data included in the corresponding "object type" are used. The number of pairs of two local 3D point cloud data created based on this is stored.

一方、図9(b)は、図9(a)に示す推論用データを入力データとして、推論部125が推論した推論結果についての、"対象物の種類"ごとの適合率を示している。図9(b)に示すように、推論部125によれば、"対象物の種類"によらず、高い適合率を実現することが可能となる。 On the other hand, FIG. 9B shows the precision of the inference result inferred by the inference unit 125 for each "type of object" using the inference data shown in FIG. 9A as input data. As shown in FIG. 9B, according to the inference unit 125, it is possible to realize a high precision rate regardless of the "type of object".

<まとめ>
以上の説明から明らかなように、第1の実施形態に係る点群データ同一性推定システムは、点群データ同一性推定装置が、
・3次元点群データからなる第1点群データ及び第2点群データを取得する第1点群データ取得部及び第2点群データ取得部を有する。
・第1点群データを入力して第1点群データ特徴量を出力する第1DNN部と、第2点群データを入力して第2点群データ特徴量を出力する第2DNN部とを有する。
・第1点群データ特徴量と第2点群データ特徴量とに基づいて、第1点群データと第2点群データの同一性に関する評価を出力する同一性評価部を有する。
・第1DNN部と第2DNN部とは、互いに重みパラメータが共有されている。
<Summary>
As is clear from the above description, in the point cloud data identity estimation system according to the first embodiment, the point cloud data identity estimation device is used.
-It has a first point cloud data acquisition unit and a second point cloud data acquisition unit that acquire first point cloud data and second point cloud data composed of three-dimensional point cloud data.
It has a first DNN unit that inputs the first point cloud data and outputs the first point cloud data feature amount, and a second DNN unit that inputs the second point cloud data and outputs the second point cloud data feature amount. ..
-It has an identity evaluation unit that outputs an evaluation regarding the identity of the first point cloud data and the second point cloud data based on the first point cloud data feature amount and the second point group data feature amount.
-The first DNN part and the second DNN part share weight parameters with each other.

これにより、第1の実施形態によれば、3次元点群データについて、同一性の評価の精度を向上させる点群データ同一性推定装置及び点群データ同一性推定システムを提供することができる。 Thereby, according to the first embodiment, it is possible to provide a point cloud data identity estimation device and a point cloud data identity estimation system that improve the accuracy of the evaluation of the identity of the three-dimensional point cloud data.

[第2の実施形態]
上記第1の実施形態では、点群データに関する情報が、3次元点群データそのものであるとして説明した。しかしながら、点群データに関する情報は、3次元点群データそのものに限定されず、メッシュデータ(ポリゴンデータ)やサーフェスデータ、CADデータ等であってもよい。
[Second Embodiment]
In the first embodiment, the information regarding the point cloud data has been described as being the three-dimensional point cloud data itself. However, the information regarding the point cloud data is not limited to the three-dimensional point cloud data itself, and may be mesh data (polygon data), surface data, CAD data, or the like.

また、上記第1の実施形態では、互いに異なる3次元形状を元に作成した2つの局所3次元点群データを対応付けて学習用データ300として格納する場合の対応付け方法について言及しなかった。しかしながら、2つの局所3次元点群データを対応付ける際、例えば、それぞれの3次元形状が所定の距離内に位置する3次元点群データに限定して対応付けを行うようにしてもよい。 Further, in the first embodiment, the association method in the case where two local three-dimensional point cloud data created based on different three-dimensional shapes are associated and stored as learning data 300 is not mentioned. However, when associating two local three-dimensional point cloud data, for example, the association may be limited to the three-dimensional point cloud data in which each three-dimensional shape is located within a predetermined distance.

また、上記第1の実施形態では、データ拡張部123に含まれる各部のうち、
・角度変更部406が角度を変更する場合、及び、
・拡縮部407がサイズを変更する場合、
に変更の度合いに応じて、"正解ラベル"が"同一"の教師データと、"正解ラベル"が"非同一"の教師データとを生成するものとして説明した。
Further, in the first embodiment, among the parts included in the data expansion part 123,
・ When the angle changing unit 406 changes the angle, and
-When the scaling unit 407 changes its size
According to the degree of change, the teacher data whose "correct label" is "same" and the teacher data whose "correct label" is "non-identical" are generated.

しかしながら、角度変更部406、拡縮部407以外の各部についても、同様に、変更の度合いに応じて、"正解ラベル"が"同一"の教師データと、"正解ラベル"が"非同一"の教師データとを生成するように構成してもよい。 However, for each part other than the angle changing part 406 and the scaling part 407, similarly, depending on the degree of change, the teacher data whose "correct label" is "same" and the teacher whose "correct label" is "non-identical" It may be configured to generate data.

また、上記第1の実施形態において、データ拡張部123は、"正解ラベル"が"同一"の教師データを読み出して、学習用データ300を拡張する場合について説明した。しかしながら、データ拡張部123が学習用データ300を拡張する際に読み出す教師データは、これに限定されず、"正解ラベル"が"非同一"の教師データを読み出してもよい。 Further, in the first embodiment, the data expansion unit 123 has described a case where the teacher data having the "correct answer label" of "same" is read out to expand the learning data 300. However, the teacher data read when the data expansion unit 123 expands the learning data 300 is not limited to this, and the teacher data whose "correct answer label" is "non-identical" may be read.

これにより、例えば、同一の3次元形状を有する別箇の個体であって、色のみが異なっている場合や、材質のみが異なっている場合に、同一性の評価として、誤って"同一である"との出力がなされてしまうといった事態を回避することができる。 As a result, for example, when different individuals having the same three-dimensional shape are different only in color or different only in material, they are erroneously "identical" as an evaluation of identity. It is possible to avoid the situation where "" is output.

また、上記第1の実施形態では、データ拡張部123に含まれる各部が学習用データ300を拡張する場合について説明した。しかしながら、学習用データ300の拡張方法はこれに限定されず、各種計測条件を人為的に変更することで、学習用データ300を拡張してもよい。 Further, in the first embodiment, the case where each unit included in the data expansion unit 123 expands the learning data 300 has been described. However, the method for expanding the learning data 300 is not limited to this, and the learning data 300 may be expanded by artificially changing various measurement conditions.

例えば、密度変更部402または拡縮部407を動作させる代わりに、第1の計測装置110から対象物までの計測距離を変更したり、第1の計測装置110の種類を変更することで、学習用データ300を拡張してもよい。 For example, instead of operating the density changing unit 402 or the scaling unit 407, the measurement distance from the first measuring device 110 to the object is changed, or the type of the first measuring device 110 is changed for learning. The data 300 may be expanded.

また、例えば、角度変更部406を動作させる代わりに、第1の計測装置110の角度を傾け、計測方向を変更することで、学習用データ300を拡張してもよい。また、例えば、シフト部408を動作させる代わりに、第1の計測装置110の計測位置をシフトすることで、学習用データ300を拡張してもよい。また、例えば、ノイズ付加部404またはバイアス付加部405を動作させる代わりに、実環境130内の照明の明るさを変更したり、第1の計測装置110の計測タイミングを変更することで、学習用データ300を拡張してもよい。 Further, for example, instead of operating the angle changing unit 406, the learning data 300 may be expanded by tilting the angle of the first measuring device 110 and changing the measuring direction. Further, for example, instead of operating the shift unit 408, the learning data 300 may be expanded by shifting the measurement position of the first measuring device 110. Further, for example, instead of operating the noise addition unit 404 or the bias addition unit 405, the brightness of the illumination in the actual environment 130 is changed, or the measurement timing of the first measurement device 110 is changed for learning. The data 300 may be expanded.

また、上記第1の実施形態では、同一性評価部521が、第1点群データ特徴量と第2点群データ特徴量とに基づいて算出したユークリッド距離Dを、同一性に関する評価として出力する場合について説明した。しかしながら、同一性評価部521による同一性に関する評価の出力方法はこれに限定されず、他の関数を用いて算出したデータを、同一性に関する評価として出力してもよい。あるいは、関数以外の方法で(例えば、NNを用いて)算出したデータを、同一性に関する評価として出力してもよい。 Further, in the first embodiment, the identity evaluation unit 521 outputs the Euclidean distance D w calculated based on the first point cloud data feature amount and the second point group data feature amount as an evaluation of identity. The case of doing so was explained. However, the output method of the evaluation regarding the identity by the identity evaluation unit 521 is not limited to this, and the data calculated by using another function may be output as the evaluation regarding the identity. Alternatively, the data calculated by a method other than the function (for example, using NN) may be output as an evaluation of identity.

また、上記第1の実施形態では、点群データ同一性推定装置120が、学習部124と推論部125とを有するものとして説明した。しかしながら、学習部124と推論部125とは、別体の装置により構成してもよい。 Further, in the first embodiment, the point cloud data identity estimation device 120 has been described as having a learning unit 124 and an inference unit 125. However, the learning unit 124 and the inference unit 125 may be configured by separate devices.

以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。 Although the embodiments have been described above, it will be understood that various modifications of the embodiments and details are possible without departing from the purpose and scope of the claims.

100 :点群データ同一性推定システム
110、111 :第1、第2の計測装置
120 :点群データ同一性推定装置
121 :データ取得部
122 :データ変換部
123 :データ拡張部
124 :学習部
125 :推論部
300 :学習用データ
310、320 :3次元点群データ
311、312、321 :局所3次元点群データ
401 :読み出し部
402 :密度変更部
403 :欠損部
404 :ノイズ付加部
405 :バイアス付加部
406 :角度変更部
407 :拡縮部
408 :シフト部
501 :第1点群データ入力部
502 :第1DNN部
511 :第2点群データ入力部
512 :第2DNN部
521 :同一性評価部
531 :比較部
701 :第1点群データ入力部
702 :第1DNN部
711 :第2点群データ入力部
712 :第2DNN部
721 :同一性評価部
731 :出力部
100: Point group data identity estimation system 110, 111: First and second measuring devices 120: Point group data identity estimation device 121: Data acquisition unit 122: Data conversion unit 123: Data expansion unit 124: Learning unit 125 : Reasoning unit 300: Learning data 310, 320: Three-dimensional point group data 311, 312, 321: Local three-dimensional point group data 401: Reading unit 402: Density changing unit 403: Missing unit 404: Noise addition unit 405: Bias Addition unit 406: Angle change unit 407: Expansion / contraction unit 408: Shift unit 501: First point group data input unit 502: First DNN unit 511: Second point group data input unit 512: Second DNN unit 521: Identity evaluation unit 531 : Comparison unit 701: First point group data input unit 702: First DNN unit 711: Second point group data input unit 712: Second DNN unit 721: Identity evaluation unit 731: Output unit

Claims (8)

2つの3次元点群データの元となる対象物の同一性を推定する点群データ同一性推定装置であって、
3次元点群データからなる第1点群データ及び第2点群データを取得する点群データ取得部と、
第1点群データに関する情報を入力して第1点群データ特徴量を出力する第1ニューラルネットワークと、
第2点群データに関する情報を入力して第2点群データ特徴量を出力する第2ニューラルネットワークと、
前記第1点群データ特徴量と前記第2点群データ特徴量とに基づいて、前記第1点群データと前記第2点群データの同一性に関する評価を出力する同一性評価部と、を有し、
前記第1ニューラルネットワークと前記第2ニューラルネットワークとは互いに重みが共有されている、点群データ同一性推定装置。
It is a point cloud data identity estimation device that estimates the identity of an object that is the source of two three-dimensional point cloud data.
A point cloud data acquisition unit that acquires first point cloud data and second point cloud data consisting of three-dimensional point cloud data,
A first neural network that inputs information about the first point cloud data and outputs the first point cloud data features,
A second neural network that inputs information about the second point cloud data and outputs the second point cloud data features,
Based on the first point cloud data feature amount and the second point group data feature amount, an identity evaluation unit that outputs an evaluation regarding the identity of the first point cloud data and the second point group data is provided. Have and
A point cloud data identity estimation device in which the first neural network and the second neural network share weights with each other.
互いに同一の3次元形状を元にして作成された2つの3次元点群データに関する情報を第1教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
互いに異なる3次元形状を元にして作成された2つの3次元点群データに関する情報を第2教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する、請求項1に記載の点群データ同一性推定装置。
When information about two three-dimensional point group data created based on the same three-dimensional shapes is input to the first neural network and the second neural network as first teacher data, the identity evaluation unit The weights of the first neural network and the second neural network are updated while sharing each other so as to output an evaluation indicating that the identity is high.
When information about two three-dimensional point group data created based on three-dimensional shapes different from each other is input to the first neural network and the second neural network as second teacher data, the identity evaluation unit The point group data identity estimation device according to claim 1, wherein the weights of the first neural network and the second neural network are updated while being shared with each other so as to output an evaluation indicating low identity.
前記第1教師データは、互いに同一の3次元形状を元にして作成された2つの3次元点群データに関する情報のうち少なくとも一方を欠損させたもの、または、少なくとも一方にノイズを加えたものである、請求項2に記載の点群データ同一性推定装置。 The first teacher data is one in which at least one of the information about two three-dimensional point cloud data created based on the same three-dimensional shape is deleted, or at least one in which noise is added. The point cloud data identity estimation device according to claim 2. 前記第1教師データは、互いに同一の3次元形状を異なる条件で計測したものを元にして作成された2つの3次元点群データに関する情報である、請求項2に記載の点群データ同一性推定装置。 The point cloud data identity according to claim 2, wherein the first teacher data is information on two three-dimensional point cloud data created based on measurements of the same three-dimensional shapes under different conditions. Estimator. 前記第1点群データに関する情報及び前記第2点群データに関する情報は、それぞれ、3次元点群データである、請求項1に記載の点群データ同一性推定装置。 The point cloud data identity estimation device according to claim 1, wherein the information regarding the first point cloud data and the information regarding the second point cloud data are three-dimensional point cloud data, respectively. 所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を傾けない或いは所定の角度未満傾けたものを元にして作成された3次元点群データを、第3教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を前記所定の角度以上傾けたものを元にして作成された3次元点群データを、第4教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する、請求項5に記載の点群データ同一性推定装置。
Three-dimensional point group data created based on a predetermined three-dimensional shape, and three-dimensional point group data created based on those in which the predetermined three-dimensional shape is not tilted or tilted less than a predetermined angle. , The first neural network and the second neural network so that the identity evaluation unit outputs an evaluation indicating that the identity is high when input to the first neural network and the second neural network as the third teacher data. Update while sharing the weights of the neural network with each other
The 3D point group data created based on the predetermined 3D shape and the 3D point group data created based on the predetermined 3D shape tilted by the predetermined angle or more are obtained. 4 The first neural network and the second neural network so that the identity evaluation unit outputs an evaluation indicating that the identity is low when input to the first neural network and the second neural network as teacher data. The point group data identity estimation device according to claim 5, wherein the weights of the networks are updated while being shared with each other.
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状と同一サイズのもの或いは前記所定の3次元形状を所定範囲内の拡大率または縮小率で拡大または縮小したものを元にして作成された3次元点群データを、第5教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、同一性評価部が同一性が高いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新し、
所定の3次元形状を元にして作成された3次元点群データ、及び、前記所定の3次元形状を前記所定範囲を超えた拡大率または縮小率で拡大または縮小したものを元にして作成された3次元点群データを、第6教師データとして前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに入力した場合に、前記同一性評価部が同一性が低いと示す評価を出力するように、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークの重みを互いに共有させながら更新する、請求項5に記載の点群データ同一性推定装置。
Three-dimensional point group data created based on a predetermined three-dimensional shape, and one having the same size as the predetermined three-dimensional shape or the predetermined three-dimensional shape is enlarged with an enlargement ratio or reduction ratio within a predetermined range. Or, when the three-dimensional point group data created based on the reduced data is input to the first neural network and the second neural network as the fifth teacher data, the identity evaluation unit has high identity. The weights of the first neural network and the second neural network are updated while sharing each other so as to output the indicated evaluation.
It is created based on the three-dimensional point group data created based on the predetermined three-dimensional shape, and the one obtained by enlarging or reducing the predetermined three-dimensional shape at an enlargement ratio or reduction ratio exceeding the predetermined range. When the three-dimensional point group data is input to the first neural network and the second neural network as the sixth teacher data, the identity evaluation unit outputs an evaluation indicating that the identity is low. The point group data identity estimation device according to claim 5, wherein the weights of the first neural network and the second neural network are updated while being shared with each other.
対象物を計測し、3次元点群データを作成する計測装置と、
2つの3次元点群データの元となる対象物の同一性を推定する点群データ同一性推定装置と、を有する点群データ同一性推定システムであって、
前記点群データ同一性推定装置は、
3次元点群データからなる第1点群データ及び第2点群データを取得する点群データ取得部と、
第1点群データに関する情報を入力して第1点群データ特徴量を出力する第1ニューラルネットワークと、
第2点群データに関する情報を入力して第2点群データ特徴量を出力する第2ニューラルネットワークと、
前記第1点群データ特徴量と前記第2点群データ特徴量とに基づいて、前記第1点群データと前記第2点群データの同一性に関する評価を出力する同一性評価部と、を有し、
前記第1ニューラルネットワークと前記第2ニューラルネットワークとは互いに重みが共有されている、点群データ同一性推定システム。
A measuring device that measures an object and creates 3D point cloud data,
A point cloud data identity estimation system having a point cloud data identity estimation device that estimates the identity of an object that is the source of two three-dimensional point cloud data.
The point cloud data identity estimation device is
A point cloud data acquisition unit that acquires first point cloud data and second point cloud data consisting of three-dimensional point cloud data,
A first neural network that inputs information about the first point cloud data and outputs the first point cloud data features,
A second neural network that inputs information about the second point cloud data and outputs the second point cloud data features,
Based on the first point cloud data feature amount and the second point group data feature amount, an identity evaluation unit that outputs an evaluation regarding the identity of the first point cloud data and the second point group data is provided. Have and
A point cloud data identity estimation system in which the first neural network and the second neural network share weights with each other.
JP2019181004A 2019-09-30 2019-09-30 Point cloud data identity estimation device and point cloud data identity estimation system Active JP6819758B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019181004A JP6819758B1 (en) 2019-09-30 2019-09-30 Point cloud data identity estimation device and point cloud data identity estimation system
PCT/JP2020/035231 WO2021065538A1 (en) 2019-09-30 2020-09-17 Point group data sameness estimation device and point group data sameness estimation system
CN202080066282.9A CN114424244B (en) 2019-09-30 2020-09-17 Point cloud data identity estimation device and point cloud data identity estimation system
US17/754,219 US11704841B2 (en) 2019-09-30 2020-09-17 Apparatus for estimating sameness of point cloud data and system for estimating sameness of point cloud data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019181004A JP6819758B1 (en) 2019-09-30 2019-09-30 Point cloud data identity estimation device and point cloud data identity estimation system

Publications (2)

Publication Number Publication Date
JP6819758B1 true JP6819758B1 (en) 2021-01-27
JP2021056904A JP2021056904A (en) 2021-04-08

Family

ID=74200220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019181004A Active JP6819758B1 (en) 2019-09-30 2019-09-30 Point cloud data identity estimation device and point cloud data identity estimation system

Country Status (4)

Country Link
US (1) US11704841B2 (en)
JP (1) JP6819758B1 (en)
CN (1) CN114424244B (en)
WO (1) WO2021065538A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021559A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Estimation model training device, estimation model training method, recognition device, recognition method, and non-temporary computer-readable medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024095380A1 (en) * 2022-11-02 2024-05-10 三菱電機株式会社 Point-cloud identification device, learning device, point-cloud identification method, and learning method
CN115880276B (en) * 2023-01-09 2023-05-12 广东电网有限责任公司肇庆供电局 Tower pole operation state assessment method and system based on multi-period point cloud comparison

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5620200B2 (en) * 2010-09-06 2014-11-05 株式会社トプコン Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
RU2674326C2 (en) * 2017-02-20 2018-12-06 Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" Method of formation of neural network architecture for classification of object taken in cloud of points, method of its application for teaching neural network and searching semantically alike clouds of points
US20200057778A1 (en) * 2017-04-11 2020-02-20 Siemens Mobility GmbH Depth image pose search with a bootstrapped-created database
US10679075B2 (en) * 2017-08-31 2020-06-09 Nec Corporation Dense correspondence estimation with multi-level metric learning and hierarchical matching
JP6873027B2 (en) * 2017-12-06 2021-05-19 株式会社日立製作所 Learning system and image search system
CN108228798B (en) * 2017-12-29 2021-09-17 百度在线网络技术(北京)有限公司 Method and device for determining matching relation between point cloud data
CN108198145B (en) * 2017-12-29 2020-08-28 百度在线网络技术(北京)有限公司 Method and device for point cloud data restoration
JP7034746B2 (en) * 2018-02-02 2022-03-14 株式会社デンソーアイティーラボラトリ Feature expression device, recognition system including it, and feature expression program
WO2019182974A2 (en) * 2018-03-21 2019-09-26 Nvidia Corporation Stereo depth estimation using deep neural networks
US10832084B2 (en) * 2018-08-17 2020-11-10 Nec Corporation Dense three-dimensional correspondence estimation with multi-level metric learning and hierarchical matching
CN110147706B (en) * 2018-10-24 2022-04-12 腾讯科技(深圳)有限公司 Obstacle recognition method and device, storage medium, and electronic device
EP3714285B1 (en) * 2019-01-30 2022-07-27 Baidu.com Times Technology (Beijing) Co., Ltd. Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles
US20200311136A1 (en) * 2019-03-25 2020-10-01 HealthBlock, Inc. Measuring and increasing the quality of user-provided information
CN110246167A (en) * 2019-06-14 2019-09-17 北京百度网讯科技有限公司 Method and apparatus for handling point cloud data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021559A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Estimation model training device, estimation model training method, recognition device, recognition method, and non-temporary computer-readable medium

Also Published As

Publication number Publication date
WO2021065538A1 (en) 2021-04-08
CN114424244A (en) 2022-04-29
CN114424244B (en) 2022-09-30
US20220343553A1 (en) 2022-10-27
JP2021056904A (en) 2021-04-08
US11704841B2 (en) 2023-07-18

Similar Documents

Publication Publication Date Title
WO2021065538A1 (en) Point group data sameness estimation device and point group data sameness estimation system
US9361728B2 (en) Submarine topography construction method based on multi-source water depth data integration
JP6962263B2 (en) 3D point cloud label learning device, 3D point cloud label estimation device, 3D point cloud label learning method, 3D point cloud label estimation method, and program
JP5653541B2 (en) Drawing data generation apparatus and image drawing apparatus
WO2018113502A1 (en) Method for automatically generating grid and multi-level of detail of shader
CN108897836A (en) A kind of method and apparatus of the robot based on semantic progress map structuring
JP2019153258A (en) Mechanical learning device, prediction system, and program
US20230267686A1 (en) Subdividing a three-dimensional mesh utilizing a neural network
CN109241964A (en) The acquisition methods and equipment of the crawl point of mechanical arm
JP2020068000A (en) Training device, method for training, prediction device, method for prediction, and program
CN116310219A (en) Three-dimensional foot shape generation method based on conditional diffusion model
JP5372241B2 (en) Image display device
JPWO2009104218A1 (en) Map display device
KR20230167746A (en) Method and system for generating polygon meshes approximating surfaces using root-finding and iteration for mesh vertex positions
US9324187B2 (en) Visualization apparatus and method
EP4320595A1 (en) System and method for point cloud generation
JPWO2022180864A5 (en)
JP2023023446A (en) Point group data identity estimation device, and point group data identity estimation system
US11954802B2 (en) Method and system for generating polygon meshes approximating surfaces using iteration for mesh vertex positions
US20230394767A1 (en) Method and system for generating polygon meshes approximating surfaces using root-finding and iteration for mesh vertex positions
US20240221317A1 (en) Method and system for generating polygon meshes approximating surfaces using iteration for mesh vertex positions
Liu et al. Design and implementation of a line simplification algorithm for network measurement system
JP2001076172A (en) Method and device for curved-surface generation and storage medium
JP2002366935A (en) Method and device for generating three-dimensional shape data and computer program
JP2974648B2 (en) Three-dimensional data processing method and processing device, and recording medium storing a program for three-dimensional data processing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6819758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151