JP7443303B2 - Measuring device, measuring method and program - Google Patents
Measuring device, measuring method and program Download PDFInfo
- Publication number
- JP7443303B2 JP7443303B2 JP2021150463A JP2021150463A JP7443303B2 JP 7443303 B2 JP7443303 B2 JP 7443303B2 JP 2021150463 A JP2021150463 A JP 2021150463A JP 2021150463 A JP2021150463 A JP 2021150463A JP 7443303 B2 JP7443303 B2 JP 7443303B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- target image
- degree
- distortion
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000003384 imaging method Methods 0.000 claims description 93
- 238000005259 measurement Methods 0.000 claims description 68
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000000691 measurement method Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000036544 posture Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013519 translation Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は計測装置、計測方法及びプログラムに関する。 Embodiments of the present invention relate to a measuring device, a measuring method, and a program.
例えば建物及びトンネル等の社会インフラストラクチャの内部、または建物の内部をカメラにより撮像し、撮像により得られた大量の画像データを用いて検査する作業が行われている。例えば社会インフラストラクチャの内部、建物の内部、またはこれらに設けられた設備の状態が、大量の画像データを用いて検査されている。このような検査作業において、検査者は、検査対象を撮像した画像データと、同一の検査対象を異なる時刻に撮像した画像データとを比較しなければならなかった。 For example, work is being carried out to image the inside of social infrastructure such as buildings and tunnels, or the inside of buildings using cameras, and to inspect using a large amount of image data obtained by the imaging. For example, the inside of social infrastructure, the inside of buildings, and the conditions of equipment installed therein are inspected using a large amount of image data. In such inspection work, the inspector has had to compare image data obtained by capturing an image of an inspection object with image data obtained by capturing images of the same inspection object at different times.
従来の技術では、画像データから三次元的な反りや曲がり方の変化をとらえることは困難であった。 With conventional technology, it has been difficult to detect three-dimensional changes in warpage and bending from image data.
実施形態の計測装置は、取得部と計測制御部と記憶部と比較部とを備える。取得部は、対象物を含む第1の対象画像データを取得する。計測制御部は、前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する。記憶部は、前記基準線に対応付けられた第2のひずみ度を記憶する。比較部は、前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する。 The measuring device of the embodiment includes an acquisition section, a measurement control section, a storage section, and a comparison section. The acquisition unit acquires first target image data including the target object. The measurement control unit estimates a first three-dimensional position for each pixel of the first target image data, and defines a reference point defined on the first target image data and a reference point defined with the reference point as both ends. A first degree of distortion indicating the degree of distortion of the object on the reference line is measured from the reference line and the first three-dimensional position. The storage unit stores a second degree of distortion associated with the reference line. The comparison unit compares the first degree of distortion and the second degree of distortion, and outputs a comparison result.
以下に添付図面を参照して、画像データから三次元的な反りや曲がり(以下「ひずみ」という。)を捉えることを可能にする計測装置、計測方法及びプログラムの実施形態を詳細に説明する。 Embodiments of a measuring device, a measuring method, and a program that make it possible to capture three-dimensional warping and bending (hereinafter referred to as "strain") from image data will be described in detail below with reference to the accompanying drawings.
(第1実施形態)
はじめに第1実施形態の計測装置について説明する。
[機能構成の例]
図1は第1実施形態の計測装置100の機能構成の例を示す図である。第1実施形態の計測装置100は、取得部1、計測制御部2、記憶部3及び比較部4を備える。各機能ブロックは、1以上の装置の組み合わせにより実現される。
(First embodiment)
First, the measuring device of the first embodiment will be explained.
[Example of functional configuration]
FIG. 1 is a diagram showing an example of the functional configuration of a measuring device 100 according to the first embodiment. The measuring device 100 of the first embodiment includes an acquisition section 1, a
複数の装置で各機能ブロックを実現する場合、各装置は、通信網を介して、直接的、又は間接的に通信可能な状態に接続される。これにより各装置は、例えば形状データ等を相互に送受信することができる。 When each functional block is realized by a plurality of devices, each device is connected to be able to communicate directly or indirectly via a communication network. This allows each device to mutually transmit and receive shape data, etc., for example.
通信網の種類は任意であり、例えば各装置は、建物内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。 The type of communication network is arbitrary; for example, each device may be able to communicate with each other via a LAN (Local Area Network) installed within a building. Further, for example, each device may be configured to be able to communicate with each other via a network (cloud) such as the Internet.
以下に、各機能ブロックの概要について順に説明する。なお、各機能ブロックの動作の詳細については、図2のフローチャートを参照して後述する。 Below, an overview of each functional block will be explained in order. Note that details of the operation of each functional block will be described later with reference to the flowchart of FIG. 2.
取得部1は、計測対象の対象物(被写体)を含む対象画像データを取得する。 The acquisition unit 1 acquires target image data including an object (subject) to be measured.
計測制御部2は、対象画像データの画素ごとに三次元位置を推定し、対象画像データ上に定義される基準点と、基準点を両端として定義される基準線と、三次元位置とから、基準線上の対象物のひずみの度合いを示すひずみ度を計測する。
The
具体的には、計測制御部2は、第1距離算出部21、第2距離算出部22及びひずみ度算出部23を備える。
Specifically, the
第1距離算出部21は、対象画像データの画素ごとに三次元位置を推定し、基準点を示す三次元位置を用いて、基準点間の最短距離を算出する。 The first distance calculation unit 21 estimates a three-dimensional position for each pixel of the target image data, and uses the three-dimensional position indicating the reference point to calculate the shortest distance between the reference points.
第2距離算出部22は、対象画像データの画素に対応する三次元位置の集合に対してエッジを定義することで、三次元位置をノードとするグラフを生成し、基準点を示すノード間のグラフ上の最小コスト距離を算出する。
The second
ひずみ度算出部23は、第1距離算出部21によって算出された最短距離と、第2距離算出部22によって算出されたグラフ上の最小コスト距離との比によってひずみ度を算出する。
The distortion
記憶部3は、対象画像データ、1つ以上の基準線、及び各基準線に対応するひずみ度を含む対象画像計測情報を記憶する。対象画像計測情報は各対象画像データ単位で管理される。
The
比較部4は、ひずみ度算出部23により算出されたひずみ度と、記憶部3のひずみ度を比較し、比較結果を出力する。比較結果は、例えばひずみ度の変化の有無及びひずみ度の差等を含む。
The
[計測方法の例]
図2は第1実施形態の計測方法の例を示すフローチャートである。はじめに、取得部1が、外部記憶装置やカメラ等の撮像装置から、対象物が写された対象画像データを取得する(ステップS1)。
[Example of measurement method]
FIG. 2 is a flowchart showing an example of the measurement method according to the first embodiment. First, the acquisition unit 1 acquires target image data in which a target object is captured from an external storage device or an imaging device such as a camera (step S1).
次に、第1距離算出部21が、ステップS1で取得された対象画像データから、画素(ピクセル)ごとの三次元位置Pを算出する(ステップS2)。 Next, the first distance calculation unit 21 calculates a three-dimensional position P for each pixel from the target image data acquired in step S1 (step S2).
本実施形態における三次元位置Pは、奥行きデータとカメラパラメータとによって求められる。奥行きデータは、例えば第1距離算出部21が、対象画像データのボケの強さに基づいてそれぞれの画素位置でのオブジェクトまでの距離を、奥行データとして推定する。 The three-dimensional position P in this embodiment is determined by depth data and camera parameters. For example, the first distance calculation unit 21 estimates the distance to the object at each pixel position based on the intensity of blur in the target image data.
例えば、奥行データは、対象画像データに含まれるオブジェクトのボケの強さとオブジェクトまでの距離とを対応付けるモデルを予め機械学習することによって、対象画像データから推定できる。具体的には、例えば非特許文献1に記載されたディープニューラルネットワークを用いることにより、対象画像データから奥行データを算出することが可能である。 For example, the depth data can be estimated from the target image data by performing machine learning in advance on a model that associates the intensity of blur of an object included in the target image data with the distance to the object. Specifically, depth data can be calculated from target image data by using, for example, the deep neural network described in Non-Patent Document 1.
各画素に対応する三次元位置Pを合わせた集合は、対象画像データに含まれるオブジェクトの三次元形状を表現する点の集合ととらえることもできる。以降では、三次元位置Pの集合を再構成三次元形状と呼ぶ。 The set of three-dimensional positions P corresponding to each pixel can also be regarded as a set of points expressing the three-dimensional shape of the object included in the target image data. Hereinafter, the set of three-dimensional positions P will be referred to as a reconstructed three-dimensional shape.
次に、第1距離算出部21が、対象画像データ上のあらかじめ指定された2点間の三次元での最短距離D1を算出する(ステップS3)。 Next, the first distance calculation unit 21 calculates the three-dimensional shortest distance D1 between two points specified in advance on the target image data (step S3).
最短距離D1は、指定された位置の画素に対応する三次元位置Ps、Pe間の距離を算出することで得られる。以降では、Ps、Peで定義される線分を基準線、基準線の両端点を基準点と呼ぶ。基準点を示す情報は、画像座標系での二次元位置、及び、当該二次元位置に対応する三次元位置の情報を含む。以下の説明では、1つの基準線に対する処理について説明する。なお、基準線が複数存在する場合も、同様の処理を複数回繰り返すことで対応可能である。 The shortest distance D1 is obtained by calculating the distance between the three-dimensional positions Ps and Pe corresponding to the pixel at the designated position. Hereinafter, the line segment defined by Ps and Pe will be referred to as a reference line, and both end points of the reference line will be referred to as reference points. The information indicating the reference point includes information on a two-dimensional position in the image coordinate system and a three-dimensional position corresponding to the two-dimensional position. In the following explanation, processing for one reference line will be explained. Note that even if there are multiple reference lines, this can be handled by repeating the same process multiple times.
なお、本実施形態では、三次元位置Pを画像のボケの強さに基づく奥行きから推定したが、三次元位置Pは、対象画像データのコンテキストから推定してもよいし、ステレオカメラから推定した視差を用いてもよいし、LiDARのようなレーザーの照射による測距装置を用いて計測してもよい。 Note that in this embodiment, the three-dimensional position P is estimated from the depth based on the intensity of blur of the image, but the three-dimensional position P may be estimated from the context of the target image data or estimated from a stereo camera. Parallax may be used, or measurement may be performed using a distance measuring device such as LiDAR that uses laser irradiation.
次に、第2距離算出部22が、対象画像データの各画素に対応する三次元位置Pに対してエッジを定義することで、画素に対応する三次元位置Pをノードとするグラフを生成する(ステップS4)。
Next, the second
図3Aは第1実施形態の再構成三次元形状(三次元位置Pの集合)に対して定義されるエッジ201の例を示す図である。図3Aでは、対象画像データに含まれる対象物200がプロペラである場合を例にして説明する。対象画像データの各画素には、三次元位置Pが対応する。また、図3Aの例では、三次元位置Ps及びPeの間に基準線202が定義されている。第2距離算出部22は、隣接している画素に対応するノード間(例えば三次元位置Pa及びPb間)にエッジ201を生成する。
FIG. 3A is a diagram showing an example of an
図2に戻り、第2距離算出部22は、第1距離算出部21で算出された三次元位置Pと、あらかじめ指定された画像上の2つの基準点とを用いて、三次元位置Pで形作られる形状の表面に沿った距離を、グラフ上での最小コスト距離D2によって求める(ステップS5)。最短距離の計算には、例えばダイクストラ法が利用可能である。この場合、エッジ上のコストは、以下の式(1)で決定される。
Returning to FIG. 2, the second
Coste=|Pa-Pb| ・・・(1)
ここで、Pa及びPbはそれぞれ隣接する画素に対応する三次元位置P(ノード)である。第2距離算出部22は、基準点の三次元位置Psに対応するノードを始点とし、基準点の三次元位置Peに対応するノードを終点として、Costeが最小になるように、グラフ上の最短距離を計算する。
Cost e = |Pa-Pb| ...(1)
Here, Pa and Pb are three-dimensional positions P (nodes) corresponding to adjacent pixels, respectively. The second
なお、図3Aでは一部の隣接画素に対応するノード間でのみエッジ201を構成しているが、全ての隣接画素に対応するノード間でエッジ201を構成してもよい。その場合、画像境界に対応するノード以外では、1つのノードからは最大でも8本のエッジが構成されることになる。また、対象形状が写っている範囲が既知であれば、その範囲に含まれる画素に対応するノードのみをグラフ構成に用いることとしてもよい。範囲の特定には、例えば画像認識の分野で研究が進められているセマンティックセグメンテーション技術などが利用可能である。さらに、図3Bに示すように、画像上の基準線202から一定範囲210に含まれるノードのみを用いてグラフを構成することとしてもよい。範囲の指定は、例えば以下で行うことができる。
Note that in FIG. 3A, the
ノードiに対応する画素の2D位置:P(i)、基準線202と2D位置の最短距離を返す関数:L(p)、基準線202からの一定距離:rとすると、以下の式(2)を満たすノードの集合でグラフを構成する。 The following equation (2 ) A graph is composed of a set of nodes that satisfy ).
L(P(i))<=r ・・・(2) L(P(i))<=r...(2)
また、図3Bの一定範囲210の境界の半円部分に対応する範囲は用いず、基準線202と直交する方向のみにr離れた範囲を使ってもよいし、任意の条件で距離rを複数切り替えてもよい。一定範囲210は、基準線202との距離に基づいた条件により指定される範囲であればよい。
Alternatively, instead of using the range corresponding to the semicircular part of the boundary of the fixed range 210 in FIG. You may switch. The fixed range 210 may be any range specified by conditions based on the distance from the
次に、ひずみ度算出部23が、最短距離D1及び最小コスト距離D2から、基準線上の対象物のひずみの度合いを示すひずみ度を算出する(ステップS6)。具体的には、ひずみ度はD2/D1により算出される。このひずみ度は平たんな状態に対する変化量に対応する値と考えることができる。
Next, the distortion
図4は第1実施形態のひずみ度について説明するための図である。基準線202の最短距離をD1とする。また、経路203は、第2距離算出部22により生成されたグラフ上での最小コスト距離D’2を有し、経路204は、第2距離算出部22により生成されたグラフ上での最小コスト距離D2を有するとする。図4に示すように、最小コスト距離D’2<最小コスト距離D2の場合、ひずみ度S’(=D’2/D1)<ひずみ度S(=D2/D1)となる。
FIG. 4 is a diagram for explaining the degree of distortion in the first embodiment. The shortest distance of the
図2に戻り、次に、比較部4が、記憶部3に記憶されているひずみ度S’と、ステップS6で計算されたひずみ度Sとを比較する(ステップS7)。具体的には、比較部4は、ひずみ度間の差があらかじめ決められた閾値以下の場合には変化なしと判定する。また例えば、比較部4は、ひずみ度間の差があらかじめ決められた閾値より大きい場合、ひずみ度間の差を、計測装置100に接続された表示装置等に出力する。
Returning to FIG. 2, next, the
なお、本実施形態では、1つの基準線を対象に対して、ひずみ度Sを計測及び比較する場合について説明したが、複数の基準線を対象にする場合の処理も同様である。例えば定期的な点検の場合、計測が必要な箇所(基準線)はあらかじめ決められていると考えられるため、それぞれの箇所に対応するひずみ度S’を記憶部3に保存しておき、決められた点検順序で、順次、計測及び比較をすればよい。また例えば、対象物と、当該対象物に定義された複数の基準線を含む対象画像データを記憶部3に記憶し、比較対象の基準線を選択するUI(User Interface)を用意し、当該UIを用いて計測・比較対象の基準線を選択できるようにしてもよい。
In this embodiment, a case has been described in which the degree of distortion S is measured and compared with respect to one reference line, but the process is similar when a plurality of reference lines are used as targets. For example, in the case of periodic inspections, the locations (reference lines) that require measurement are considered to have been determined in advance, so the degree of strain S' corresponding to each location is stored in the
第1実施形態の計測装置100によれば、対象画像データから三次元的な反りや曲がり方の変化をとらえることができる。 According to the measuring device 100 of the first embodiment, it is possible to detect three-dimensional changes in warpage and bending from target image data.
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第2実施形態では、対象画像データの撮像位置及び撮像姿勢を推定し、推定された撮像位置及び撮像姿勢から比較対象の基準線を特定する場合について説明する。
(Second embodiment)
Next, a second embodiment will be described. In the description of the second embodiment, descriptions similar to those in the first embodiment will be omitted, and points different from the first embodiment will be described. In the second embodiment, a case will be described in which the imaging position and imaging orientation of target image data are estimated, and a reference line to be compared is specified from the estimated imaging position and imaging orientation.
[機能構成の例]
図4は第2実施形態の計測装置100-2の機能構成の例を示す図である。第2実施形態の計測装置100-2は、取得部1、計測制御部2、記憶部3、比較部4及び推定部5を備える。本実施形態では、推定部5を新たに備える。
[Example of functional configuration]
FIG. 4 is a diagram showing an example of the functional configuration of the measuring device 100-2 of the second embodiment. The measuring device 100-2 of the second embodiment includes an acquisition section 1, a
推定部5は、撮像装置によって撮影された対象画像データから、当該撮像装置の撮像位置を示す撮像位置データ(例えば座標等)と、当該撮像装置の撮像姿勢を示す撮像姿勢データとを推定する。 The estimation unit 5 estimates imaging position data (for example, coordinates, etc.) indicating the imaging position of the imaging device and imaging posture data indicating the imaging attitude of the imaging device from the target image data captured by the imaging device.
本実施形態では、記憶部3が、あらかじめ生成されたデータベースを記憶し、推定部5は、当該データベースから複数の参照撮像情報を取得する。それぞれの参照撮像情報には、参照画像データ、当該参照画像データを撮像した時の撮像位置、及び、当該参照画像データを撮像した時の撮像姿勢が関連付けて記憶されている。そして、推定部5は、対象画像データを、複数の参照撮像情報のそれぞれと照合することにより、撮像位置データ及び撮像姿勢データを推定する。
In this embodiment, the
具体的には、推定部5は、複数の参照画像データのうち、対象画像データに最も類似した撮像位置及び撮像姿勢で撮像された参照画像データ(以下、「近接画像データ」という。)を探し出す。そして、推定部5は、対象画像データと近接画像データとの間の位置差及び姿勢差と、近接画像データに関連付けられた参照位置データ及び参照姿勢データとに基づき、撮像位置データ及び撮像姿勢データを算出する。 Specifically, the estimating unit 5 searches for reference image data (hereinafter referred to as "proximity image data") captured at an imaging position and imaging orientation most similar to the target image data, from among the plurality of reference image data. . The estimation unit 5 then generates imaging position data and imaging orientation data based on the position difference and orientation difference between the target image data and the proximity image data, and the reference position data and reference orientation data associated with the proximity image data. Calculate.
なお、推定部5は、対象画像データ及び複数の参照撮像情報に基づき、ディープニューラルネットワークを用いて、撮像位置データ及び撮像姿勢データを算出することが可能である。例えば、非特許文献2に記載されたディープニューラルネットワークを用いることにより、撮像位置データ及び撮像姿勢データを算出することが可能である。
Note that the estimation unit 5 can calculate the imaging position data and the imaging posture data using a deep neural network based on the target image data and a plurality of pieces of reference imaging information. For example, by using the deep neural network described in
推定部5は、撮像位置データ及び撮像姿勢データを比較部4に入力する。
The estimation unit 5 inputs the imaging position data and the imaging posture data to the
比較部4は、撮像位置データ及び撮像姿勢データの少なくとも一方に基づいて、基準線を特定する。具体的には、本実施形態では、記憶部3は、撮像位置データ及び撮像姿勢データを更に含む対象画像計測情報を記憶する。すなわち、本実施形態では、対象画像計測情報には、ひずみ度、当該ひずみ度が計測された対象画像データ、当該対象画像データを撮像した撮像装置の撮像位置及び撮像姿勢を示すデータが関連付けて記憶される。比較部4は、例えば推定部5で推定された撮像位置データに最も近い撮像位置データを含む対象画像計測情報を、記憶部3から取得する。
The
次に、比較部4は、推定部5で推定された撮像位置データと、記憶部3から取得された対象画像計測情報に含まれる撮像位置データとの距離を算出し、当該距離があらかじめ決められた閾値を超えていた場合、比較対象データがないことを示す情報を計測装置100に接続された表示装置等に出力する。
Next, the comparing
比較部4は、閾値以下の場合、第1実施形態の比較部4と同様の比較処理を行い、変化の有無及びひずみ度の差を計測装置100に接続された表示装置等に出力する。
If it is below the threshold value, the comparing
なお、上述の説明では、比較部4は、撮像位置データのみを用いて対象画像計測情報を絞り込んだが、更に撮像姿勢データを用いて対象画像計測情報を絞り込んでもよい。その場合は、比較部4は、撮像位置データと同様に姿勢の差が閾値以内か否かを判定し、閾値以内の場合に、比較処理を行う。撮像位置データの後に撮像姿勢データを比較することで、同一位置で姿勢を変えて複数枚撮影した結果から得られた対象画像計測情報が記憶部3に存在する場合でも、類似箇所(比較対象箇所)のひずみ度を正しく比較することが可能となる。
Note that in the above description, the
また、撮像位置データでの閾値処理を行わない場合も考えられる。例えば、点検のための撮影の定位置が決まっているような場合には位置は同一であるため、撮像姿勢データのみで閾値処理を行えばよい。また、対象画像データを直接比較してもよい。その場合、比較部4は、2枚の対象画像データの類似度合いを算出する種々の画像認識手法を用いて類似度を算出し、当該類似度に基づいて閾値処理を行えばよい。
It is also conceivable that the threshold value processing using the imaging position data is not performed. For example, in a case where a fixed position for photographing for inspection is determined, the positions are the same, so it is sufficient to perform threshold processing using only the photographing posture data. Alternatively, target image data may be directly compared. In that case, the
[計測方法の例]
図6は第2実施形態の計測方法の例を示すフローチャートである。ステップS1の説明は、第1実施形態の計測方法(図2参照)と同じなので省略する。
[Example of measurement method]
FIG. 6 is a flowchart showing an example of the measurement method according to the second embodiment. The description of step S1 is the same as that of the measurement method of the first embodiment (see FIG. 2), so it will be omitted.
次に、推定部5が、ステップS1で取得された対象画像データから、当該撮像装置の撮像位置と、当該撮像装置の撮像姿勢とを推定する(ステップS1-2)。 Next, the estimation unit 5 estimates the imaging position of the imaging device and the imaging posture of the imaging device from the target image data acquired in step S1 (step S1-2).
ステップS2~S7の説明は、第1実施形態の計測方法(図2参照)と同じなので省略する。 Descriptions of steps S2 to S7 are omitted because they are the same as the measurement method of the first embodiment (see FIG. 2).
次に、比較部4が、ステップS1-2で推定された撮像位置及び撮像姿勢に基づいて、記憶部3から比較対象のひずみ度S’を読み出し、当該ひずみ度S’と、ステップS6で計算されたひずみ度Sとを比較する(ステップS7)。
Next, the
第2実施形態によれば、例えば、撮像位置及び撮像姿勢を変えて複数枚撮影した結果から得られた複数の対象画像計測情報が記憶部3に存在する場合でも、比較対象のひずみ度を正しく選択できる。
According to the second embodiment, for example, even if a plurality of target image measurement information obtained from the results of photographing a plurality of images while changing the imaging position and the imaging posture exist in the
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第1及び2実施形態では、対象画像データ上に任意の線分として定義される区間(基準線)に対応するひずみ度の算出方法、及び当該ひずみ度を用いた対象部分の形状変化の有無の検出方法について説明した。本実施形態は、処理対象の基準線を自動で選定する部分が第1実施形態と異なる。
(Third embodiment)
Next, a third embodiment will be described. In the description of the third embodiment, descriptions similar to those in the first embodiment will be omitted, and points different from the first embodiment will be described. In the first and second embodiments, a method for calculating the degree of distortion corresponding to an interval (reference line) defined as an arbitrary line segment on target image data, and a method for calculating the degree of distortion corresponding to an interval (reference line) defined as an arbitrary line segment on target image data, and a method for determining whether or not there is a change in shape of the target part using the degree of distortion are described. The detection method was explained. This embodiment differs from the first embodiment in that a reference line to be processed is automatically selected.
[機能構成の例]
図7は第3実施形態の計測装置100-3の機能構成の例を示す図である。第3実施形態の計測装置100-3は、取得部1、計測制御部2、記憶部3及び比較部4を備える。第3実施形態の構成は、第1実施形態と同じである。以下に、第1実施形態と処理が異なる機能ブロックについて説明する。
[Example of functional configuration]
FIG. 7 is a diagram showing an example of the functional configuration of a measuring device 100-3 according to the third embodiment. The measurement device 100-3 of the third embodiment includes an acquisition section 1, a
まず、第3実施形態における記憶部3は、上述の再構成三次元形状(三次元位置Pの集合)と、当該再構成三次元形状に対応付けられた基準点を更に保存する点が、第1及び第2実施形態の記憶部3とは異なる。以下の説明では、第1距離算出部21により生成された再構成三次元形状を再構成三次元形状Aとし、記憶部3に記憶されている再構成三次元形状を再構成三次元形状Bとする。
First, the
第3実施形態における第1距離算出部21は、以下のようにして基準線を自動的に選定する。まず、第1距離算出部21は、再構成三次元形状Aと、再構成三次元形状Bとの間で位置合わせを行い、両者が最大限重なるような変換情報を求める。 The first distance calculation unit 21 in the third embodiment automatically selects the reference line as follows. First, the first distance calculation unit 21 performs alignment between the reconstructed three-dimensional shape A and the reconstructed three-dimensional shape B, and obtains conversion information that allows the two to overlap to the maximum extent possible.
変換情報は、例えば回転行列Rと並進ベクトルtとを含む。この回転行列Rと並進ベクトルtとは、例えばICP(Iterative Closest Point)を用いることで得られる。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを対象画像計測情報に含まれる基準線の位置を示す三次元位置Pに適用する。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを適用した後の基準線の両端点と最も近い、再構成三次元形状Aに含まれる三次元位置Ps、Peを求める。次に、第1距離算出部21は、三次元位置Ps、Peを両端点とする線分を処理対象の基準線として、以降の計測・比較処理を、第1又は第2実施形態と同様にして行う。 The transformation information includes, for example, a rotation matrix R and a translation vector t. The rotation matrix R and translation vector t are obtained by using, for example, ICP (Iterative Closest Point). Next, the first distance calculation unit 21 applies the rotation matrix R and the translation vector t to the three-dimensional position P indicating the position of the reference line included in the target image measurement information. Next, the first distance calculation unit 21 calculates the three-dimensional positions Ps and Pe included in the reconstructed three-dimensional shape A that are closest to both end points of the reference line after applying the rotation matrix R and the translation vector t. . Next, the first distance calculation unit 21 uses the line segment having the three-dimensional positions Ps and Pe as the reference line to be processed, and performs the subsequent measurement and comparison process in the same manner as in the first or second embodiment. I will do it.
第3実施形態によれば、対象画像データに含まれる対象物200の計測・比較箇所(計測・比較処理対象の基準線)を自動で抽出することができる。
According to the third embodiment, it is possible to automatically extract a measurement/comparison point (a reference line for measurement/comparison processing) of the
(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、第1~第3実施形態と同様の説明については省略し、第1~第3実施形態と異なる箇所について説明する。第4実施形態では、ひずみ度の変化の有無、及び差異の大きさだけでなく、ひずみ度の変化の有無、及び差異の大きさを可視化する部分が、第1~第3実施形態と異なる。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the description of the fourth embodiment, descriptions similar to those in the first to third embodiments will be omitted, and portions that are different from the first to third embodiments will be described. The fourth embodiment differs from the first to third embodiments in the portion that visualizes not only the presence or absence of a change in the degree of strain and the magnitude of the difference, but also the presence or absence of a change in the degree of strain and the magnitude of the difference.
[機能構成の例]
図8は第4実施形態の計測装置100-4の機能構成の例を示す図である。第4実施形態の計測装置100-4は、取得部1、計測制御部2、記憶部3、比較部4、推定部5、生成部6及び表示部7を備える。第4実施形態では、生成部6及び表示部7を新たに備える。
[Example of functional configuration]
FIG. 8 is a diagram showing an example of the functional configuration of a measuring device 100-4 according to the fourth embodiment. The measurement device 100-4 of the fourth embodiment includes an acquisition section 1, a
生成部6は、ひずみ度、または比較結果の差異を直観的に把握できるような画像(以下、「計測結果画像データ」という。)を生成する。 The generation unit 6 generates an image (hereinafter referred to as "measurement result image data") that allows the degree of distortion or the difference in comparison results to be intuitively understood.
表示部7は、生成部6により生成された計測結果画像データを表示する。 The display section 7 displays the measurement result image data generated by the generation section 6.
図9は第4実施形態の計測結果画像データの例を示す図である。生成部6は、比較部4の比較結果に基づいて、基準線202の表示形式を決定し、基準線202を対象画像データに重畳した計測結果画像データを生成し、当該計測結果画像データを表示部7に出力する。具体的には、生成部6は、例えばひずみ度の大きさに応じて、色及び線の太さ等を変化させた基準線202を対象画像データに重畳することによって、計測結果画像データを生成する。これにより、二次元の画像表示からもひずみ度の大小が直感的に理解可能となる。
FIG. 9 is a diagram showing an example of measurement result image data according to the fourth embodiment. The generation unit 6 determines the display format of the
また、生成部6は、第2距離算出部22により生成されたグラフ上での最小コスト距離D2に対応する経路204を対象画像データに重畳してもよい。この場合、第2距離算出部22におけるダイクストラ法で求められた最短経路を対象画像データに重畳すればよい。再構成三次元形状の各点はピクセルと1対1対応しているので、最短経路に対応するエッジとノードが分かれば、それに対応する画素間のつながりが分かる。これを画像上でなぞることで、対象画像データに重畳することができる。
Further, the generation unit 6 may superimpose the
さらに、最短距離D1に対応する基準線202と、最小コスト距離D2に対応する経路204の乖離度を直観的に示すために、生成部6は、両方の線で囲まれる領域が塗りつぶされた計測結果画像データを生成してもよい。
Furthermore, in order to intuitively indicate the degree of deviation between the
また、生成部6は、一方から他方に対して矢印205等のシンボルを定義することで、視覚的に大きさを提示してもよい。この時には、生成部6は、例えば最小コスト距離D2に対応する最短経路上の各ノードから、最短距離D1に対応する基準線に対する垂線の足を定義し、それを対象画像データに投影することで矢印205を定義することができる。この時、生成部6は、垂線の足の長さに応じて色、または太さを変えてもよいし、垂線の足の計算に用いるノードを一定間隔でサンプリングしてもよい。前者は三次元での最短距離D1,最小コスト距離D2間の乖離の大きさを直観的に把握することを可能とし、後者は矢印205が密になりすぎて視認性を下げてしまうのを防ぐことが可能である。
Furthermore, the generation unit 6 may visually present the size by defining a symbol such as an
[計測方法の例]
図10は第4実施形態の計測方法の例を示すフローチャートである。ステップS1~S7の説明は、第2実施形態の計測方法(図6参照)と同じなので省略する。
[Example of measurement method]
FIG. 10 is a flowchart showing an example of a measurement method according to the fourth embodiment. The explanation of steps S1 to S7 is omitted because it is the same as the measurement method of the second embodiment (see FIG. 6).
生成部6は、ひずみ度、または比較結果の差異を直観的に把握できるような上述の計測結果画像データを生成し、当該計測結果画像データを表示部7に表示する(ステップS8)。 The generation unit 6 generates the above-mentioned measurement result image data that allows the degree of distortion or the difference in comparison results to be intuitively understood, and displays the measurement result image data on the display unit 7 (step S8).
第4実施形態によれば、ひずみ度、または比較結果の差異を直観的に把握できるようにすることができる。 According to the fourth embodiment, it is possible to intuitively understand the degree of distortion or the difference in comparison results.
(第5実施形態)
次に第5実施形態について説明する。第5実施形態の説明では、第1~第4実施形態と同様の説明については省略し、第1~第4実施形態と異なる箇所について説明する。第5実施形態では、インタラクティブに基準線の入力を受け付ける機能を持つ点が異なる。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the description of the fifth embodiment, descriptions similar to those in the first to fourth embodiments will be omitted, and portions that are different from the first to fourth embodiments will be described. The fifth embodiment differs in that it has a function of interactively accepting reference line input.
[機能構成の例]
図11は第5実施形態の計測装置100-5の機能構成の例を示す図である。第5実施形態の計測装置100-5は、取得部1、計測制御部2、記憶部3、比較部4、推定部5、生成部6、表示部7及び入力部8を備える。第4実施形態では、入力部8を新たに備える。
[Example of functional configuration]
FIG. 11 is a diagram showing an example of the functional configuration of a measuring device 100-5 according to the fifth embodiment. The measuring device 100-5 of the fifth embodiment includes an acquisition section 1, a
入力部8は、表示部7に提示された対象画像データのうち、ひずみ度を計測したい部分を指示する入力を受け付ける。入力部8は、例えばマウス、キーボード及びトラックボールなど、位置を指示可能な任意のデバイスの形態をとりうる。また、入力部8は、タッチパネルのように入力機能と表示機能とが一体化したデバイスであってもよい。 The input unit 8 receives an input indicating a portion of the target image data presented on the display unit 7 whose degree of distortion is desired to be measured. The input unit 8 may take the form of any device capable of indicating a position, such as a mouse, keyboard, or trackball. Furthermore, the input unit 8 may be a device such as a touch panel that has an integrated input function and display function.
表示部7は、少なくとも対象画像データを表示する。表示するデータは対象画像データに限らず、本実施形態の計測・比較処理に関する任意の結果を表示してもよい。例えば、表示部7は、生成部6にて生成された計測結果画像データを、対象画像データと合わせて表示してもよい。また、表示部7は、比較部4における出力結果である、変化の有無、及びひずみ度の差を表示することも可能である。
The display unit 7 displays at least target image data. The data to be displayed is not limited to the target image data, but any result related to the measurement/comparison process of this embodiment may be displayed. For example, the display unit 7 may display the measurement result image data generated by the generation unit 6 together with the target image data. Furthermore, the display section 7 can also display the presence or absence of a change and the difference in the degree of distortion, which are the output results from the
さらに、生成部6が、記憶部3に保存されている対象画像計測情報に基づいて、基準線の入力を支援するための入力支援画像を生成し、表示部7が、当該入力支援画像を表示してもよい。具体的には、生成部6が、第1距離算出部21で生成された再構成三次元形状Aと、記憶部3に記憶されている再構成三次元形状Bとの間で位置合わせを行い、両者が最大限重なるような回転行列Rと並進ベクトルtとを求める。回転行列Rと並進ベクトルtとは、例えば、第3実施形態と同様に、ICPを用いることで得られる。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを対象画像計測情報に含まれる基準線の位置を示す三次元位置Pに適用する。生成部6は、回転行列Rと並進ベクトルtとによって、回転及び平行移動された基準線を、対象画像データに投影することによって入力支援画像を生成する。これにより、以前の計測に使用された基準線が、現在処理対象の対象画像データ上でどこに当たるかを直観的に把握することができる。
Further, the generation unit 6 generates an input support image for supporting input of the reference line based on the target image measurement information stored in the
なお、投影された基準線の透過度を変える、色を変えるなどにより、その他の情報と視覚的に区別しやすくしてもよい。 Note that the projected reference line may be easily distinguished visually from other information by changing its transparency or changing its color.
[計測方法の例]
図12は第5実施形態の計測方法の例を示すフローチャートである。ステップS1~S2の説明は、第4実施形態の計測方法(図10参照)と同じなので省略する。
[Example of measurement method]
FIG. 12 is a flowchart showing an example of the measurement method according to the fifth embodiment. The explanation of steps S1 and S2 is the same as the measurement method of the fourth embodiment (see FIG. 10), so the explanation will be omitted.
次に、入力部8が、入力支援画像を介して基準線202を示す入力を受け付ける(ステップS2-2)。入力部8は、例えば基準線202の始点を示す三次元位置Psの位置、及び、基準線202の終点を示す三次元位置Peの位置を示す入力を受け付ける。
Next, the input unit 8 receives an input indicating the
以降の計測・比較処理は、ステップS2-2の入力処理によって指定された基準線202に対して行われる。ステップS3~S8の説明は、第4実施形態の計測方法(図10参照)と同じなので省略する。
The subsequent measurement/comparison process is performed with respect to the
第5実施形態によれば、対象画像データに含まれる対象物200の計測・比較箇所(計測・比較処理対象の基準線)の入力をインタラクティブに受け付けることができる。
According to the fifth embodiment, it is possible to interactively receive an input of a measurement/comparison point (a reference line for measurement/comparison processing) of the
最後に、第1乃至第5実施形態の計測装置100~100-5のハードウェア構成の例について説明する。 Finally, examples of the hardware configurations of the measuring devices 100 to 100-5 of the first to fifth embodiments will be described.
[ハードウェア構成の例]
図13は第1乃至第5実施形態の計測装置100~100-5のハードウェア構成の例を示す図である。
[Example of hardware configuration]
FIG. 13 is a diagram showing an example of the hardware configuration of the measuring devices 100 to 100-5 of the first to fifth embodiments.
第1乃至第5実施形態の計測装置100~100-5は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
The measuring devices 100 to 100-5 of the first to fifth embodiments include a
制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及び、メモリカード等である。
The
表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、計測装置100(100-2~100-5)を操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。計測装置100(100-2~100-5)がスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置304及び入力装置305は、例えばタッチパネルである。通信装置306は、他の装置と通信するためのインタフェースである。
計測装置100(100-2~100-5)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。 The programs executed by the measuring device 100 (100-2 to 100-5) are files in an installable or executable format and are stored on CD-ROMs, memory cards, CD-Rs, DVDs (Digital Versatile Discs), etc. It is recorded on a computer-readable storage medium and provided as a computer program product.
また計測装置100(100-2~100-5)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また計測装置100(100-2~100-5)で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。 Further, the program executed by the measuring device 100 (100-2 to 100-5) may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. . Further, the program executed by the measuring device 100 (100-2 to 100-5) may be provided via a network such as the Internet without being downloaded.
また計測装置100(100-2~100-5)で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the program to be executed by the measuring device 100 (100-2 to 100-5) may be provided in advance by being incorporated into a ROM or the like.
計測装置100(100-2~100-5)で実行されるプログラムは、計測装置100(100-2~100-5)の機能ブロックのうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。
The program executed by the measuring device 100 (100-2 to 100-5) has a module configuration that includes functional blocks that can also be realized by a program among the functional blocks of the measuring device 100 (100-2 to 100-5). It has become. As actual hardware, each functional block is loaded onto the
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。 Note that some or all of the functional blocks described above may not be implemented by software, but may be implemented by hardware such as an IC (Integrated Circuit).
また複数のプロセッサを用いて各機能ブロックを実現する場合、各プロセッサは、各機能ブロックのうち1つを実現してもよいし、各機能ブロックのうち2つ以上を実現してもよい。 Further, when each functional block is implemented using a plurality of processors, each processor may implement one of each functional block, or may implement two or more of each functional block.
また計測装置100(100-2~100-5)を実現するコンピュータの動作形態は任意でよい。例えば、計測装置100(100-2~100-5)を1台のコンピュータにより実現してもよい。また例えば、計測装置100(100-2~100-5)を、ネットワーク上のクラウドシステムとして動作させてもよい。 Further, the operating mode of the computer realizing the measuring device 100 (100-2 to 100-5) may be arbitrary. For example, the measuring device 100 (100-2 to 100-5) may be realized by one computer. Furthermore, for example, the measuring devices 100 (100-2 to 100-5) may be operated as a cloud system on a network.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
1 取得部
2 計測制御部
3 記憶部
4 比較部
5 推定部
6 生成部
7 表示部
8 入力部
21 第1距離算出部
22 第2距離算出部
23 ひずみ度算出部
100 計測装置
200 対象物
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
1
Claims (21)
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する計測制御部と、
前記基準線に対応付けられた第2のひずみ度を記憶する記憶部と、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する比較部と、
を備える計測装置。 an acquisition unit that acquires first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; a measurement control unit that measures a first degree of distortion indicating a degree of distortion of the object on the reference line from the first three-dimensional position;
a storage unit that stores a second degree of distortion associated with the reference line;
a comparison unit that compares the first degree of distortion and the second degree of distortion and outputs a comparison result;
A measuring device comprising:
前記記憶部は、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較部は、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項1に記載の計測装置。 further comprising an estimating unit that estimates, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storage unit stores the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position and imaging position of the second imaging device that captured the second target image data. It is associated with the posture and stored as target image measurement information,
The comparison unit includes the second degree of distortion included in the target image measurement information in which the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device; Comparing with the first degree of distortion,
The measuring device according to claim 1.
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出する第1距離算出部と、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出する第2距離算出部と、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するひずみ度算出部と、を備える、
請求項2に記載の計測装置。 The measurement control section includes:
A first distance calculation that estimates a first three-dimensional position for each pixel of the first target image data and calculates the shortest distance between the reference points using the first three-dimensional position indicating the reference point. Department and
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is a second distance calculation unit that calculates a minimum cost distance on the graph between nodes shown;
a distortion degree calculation unit that calculates the first distortion degree based on the ratio of the shortest distance and the minimum cost distance on the graph;
The measuring device according to claim 2.
前記第1距離算出部は、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項3に記載の計測装置。 The storage unit further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The first distance calculation unit adjusts the second three-dimensional position to the first three-dimensional position so that the first three-dimensional position and the second three-dimensional position overlap more. defining a reference point on the first target image data by calculating conversion information to be converted and applying the conversion information to a reference point included in the second target image data;
The measuring device according to claim 3.
前記入力支援画像を表示する表示部と、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付ける入力部と、
を更に備える請求項4に記載の計測装置。 By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , a generation unit that generates an input support image;
a display unit that displays the input support image;
an input unit that accepts designation of a reference line defined with the reference point as both ends via the input support image;
The measuring device according to claim 4, further comprising:
請求項5に記載の計測装置。 The generation unit determines a display format of the reference line based on the comparison result of the comparison unit, generates measurement result image data in which the reference line is superimposed on the first target image data, and generates measurement result image data in which the reference line is superimposed on the first target image data. outputting image data to the display section;
The measuring device according to claim 5.
請求項6に記載の計測装置。 The generation unit generates the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. do,
The measuring device according to claim 6.
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測するステップと、
前記基準線に対応付けられた第2のひずみ度を記憶するステップと、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力するステップと、
を含む計測方法。 acquiring first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; measuring a first degree of distortion indicating the degree of distortion of the object on the reference line from the first three-dimensional position;
storing a second degree of distortion associated with the reference line;
Comparing the first degree of distortion and the second degree of distortion and outputting a comparison result;
Measurement methods including.
前記記憶するステップは、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較するステップは、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項8に記載の計測方法。 The method further includes the step of estimating, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storing step includes storing the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position of the second imaging device that captured the second target image data, and Store it as target image measurement information in association with the imaging posture,
In the step of comparing, the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device with the second degree of distortion included in the target image measurement information; Comparing with the first degree of strain;
The measuring method according to claim 8.
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出するステップと、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出するステップと、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するステップと、を含む、
請求項9に記載の計測方法。 The measuring step includes:
estimating a first three-dimensional position for each pixel of the first target image data, and calculating the shortest distance between the reference points using the first three-dimensional position indicating the reference point;
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is calculating a minimum cost distance on the graph between the nodes shown;
calculating the first degree of distortion based on the ratio of the shortest distance and the minimum cost distance on the graph;
The measuring method according to claim 9.
前記最短距離を算出するステップは、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項10に記載の計測方法。 The storing step further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The step of calculating the shortest distance includes changing the second three-dimensional position to the first three-dimensional position so that the overlap between the first three-dimensional position and the second three-dimensional position becomes larger. defining a reference point on the first target image data by calculating conversion information for converting into the second target image data and applying the conversion information to a reference point included in the second target image data;
The measuring method according to claim 10.
前記入力支援画像を表示するステップと、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付けるステップと、
を更に含む請求項11に記載の計測方法。 By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , generating an input assistance image;
Displaying the input support image;
receiving, via the input support image, a designation of a reference line defined with the reference point as both ends;
The measuring method according to claim 11, further comprising:
請求項12に記載の計測方法。 The generating step determines the display format of the reference line based on the comparison result of the comparing step, generates measurement result image data in which the reference line is superimposed on the first target image data, and the Outputs the measurement result image data to the display section,
The measuring method according to claim 12.
請求項13に記載の計測方法。 The generating step includes generating the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. generate,
The measuring method according to claim 13.
対象物を含む第1の対象画像データを取得する取得部と、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する計測制御部と、
前記基準線に対応付けられた第2のひずみ度を記憶する記憶部と、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する比較部、
として機能させるためのプログラム。 computer,
an acquisition unit that acquires first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; a measurement control unit that measures a first degree of distortion indicating a degree of distortion of the object on the reference line from the first three-dimensional position;
a storage unit that stores a second degree of distortion associated with the reference line;
a comparison unit that compares the first degree of distortion and the second degree of distortion and outputs a comparison result;
A program to function as
前記記憶部は、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較部は、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項15に記載のプログラム。 further comprising an estimating unit that estimates, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storage unit stores the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position and imaging position of the second imaging device that captured the second target image data. It is associated with the posture and stored as target image measurement information,
The comparison unit includes the second degree of distortion included in the target image measurement information in which the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device; Comparing with the first degree of distortion,
The program according to claim 15.
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出する第1距離算出部と、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出する第2距離算出部と、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するひずみ度算出部と、を備える、
請求項16に記載のプログラム。 The measurement control section includes:
A first distance calculation that estimates a first three-dimensional position for each pixel of the first target image data and calculates the shortest distance between the reference points using the first three-dimensional position indicating the reference point. Department and
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is a second distance calculation unit that calculates a minimum cost distance on the graph between nodes shown;
a distortion degree calculation unit that calculates the first distortion degree based on the ratio of the shortest distance and the minimum cost distance on the graph;
The program according to claim 16.
前記第1距離算出部は、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項17に記載のプログラム。 The storage unit further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The first distance calculation unit adjusts the second three-dimensional position to the first three-dimensional position so that the first three-dimensional position and the second three-dimensional position overlap more. defining a reference point on the first target image data by calculating conversion information to be converted and applying the conversion information to a reference point included in the second target image data;
The program according to claim 17.
前記入力支援画像を表示する表示部と、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付ける入力部と、
を更に備える請求項18に記載のプログラム。 By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , a generation unit that generates an input support image;
a display unit that displays the input support image;
an input unit that accepts designation of a reference line defined with the reference point as both ends via the input support image;
The program according to claim 18, further comprising:
請求項19に記載のプログラム。 The generation unit determines a display format of the reference line based on the comparison result of the comparison unit, generates measurement result image data in which the reference line is superimposed on the first target image data, and generates measurement result image data in which the reference line is superimposed on the first target image data. outputting image data to the display section;
The program according to claim 19.
請求項20に記載のプログラム。 The generation unit generates the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. do,
The program according to claim 20.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021150463A JP7443303B2 (en) | 2021-09-15 | 2021-09-15 | Measuring device, measuring method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021150463A JP7443303B2 (en) | 2021-09-15 | 2021-09-15 | Measuring device, measuring method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023043005A JP2023043005A (en) | 2023-03-28 |
JP7443303B2 true JP7443303B2 (en) | 2024-03-05 |
Family
ID=85724174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021150463A Active JP7443303B2 (en) | 2021-09-15 | 2021-09-15 | Measuring device, measuring method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7443303B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075019A (en) | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
JP2007093392A (en) | 2005-09-29 | 2007-04-12 | Aisin Seiki Co Ltd | Three-dimensional shape evaluation method and three-dimensional shape evaluation device |
JP2007263611A (en) | 2006-03-27 | 2007-10-11 | Yokohama Rubber Co Ltd:The | Distortion measuring instrument and method |
JP2009241968A (en) | 2008-03-31 | 2009-10-22 | Kuraray Kuraflex Co Ltd | Vegetables and fruits packaging body |
JP2016084579A (en) | 2014-10-23 | 2016-05-19 | 国立研究開発法人産業技術総合研究所 | Monitoring method and monitoring device for deflection amount distribution of structure |
-
2021
- 2021-09-15 JP JP2021150463A patent/JP7443303B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001075019A (en) | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Endoscope device |
JP2007093392A (en) | 2005-09-29 | 2007-04-12 | Aisin Seiki Co Ltd | Three-dimensional shape evaluation method and three-dimensional shape evaluation device |
JP2007263611A (en) | 2006-03-27 | 2007-10-11 | Yokohama Rubber Co Ltd:The | Distortion measuring instrument and method |
JP2009241968A (en) | 2008-03-31 | 2009-10-22 | Kuraray Kuraflex Co Ltd | Vegetables and fruits packaging body |
JP2016084579A (en) | 2014-10-23 | 2016-05-19 | 国立研究開発法人産業技術総合研究所 | Monitoring method and monitoring device for deflection amount distribution of structure |
Non-Patent Citations (1)
Title |
---|
森田 伊織,3D物体表面の特徴パラメータを利用した再メッシュ化手法,情報処理学会研究報告 Vol.2006 No.93,日本,社団法人情報処理学会,2006年09月09日,2006-CVIM-155,P.9-16 |
Also Published As
Publication number | Publication date |
---|---|
JP2023043005A (en) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
US20200007855A1 (en) | Stereo Correspondence and Depth Sensors | |
JP5297403B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium | |
JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
US9129435B2 (en) | Method for creating 3-D models by stitching multiple partial 3-D models | |
JP2019510311A (en) | Method and computer program product for calibrating a stereo imaging system using a planar mirror | |
US10249052B2 (en) | Stereo correspondence model fitting | |
US10977857B2 (en) | Apparatus and method of three-dimensional reverse modeling of building structure by using photographic images | |
WO2014186970A1 (en) | Systems and methods for generating three-dimensional models using sensed position data | |
EP3300025B1 (en) | Image processing device and image processing method | |
JP6431404B2 (en) | Attitude estimation model generation apparatus and attitude estimation apparatus | |
TW201616451A (en) | System and method for selecting point clouds using a free selection tool | |
EP3633606A1 (en) | Information processing device, information processing method, and program | |
US20240169712A1 (en) | Image data processing method and apparatus | |
TW202014993A (en) | Information processing device, program, and information processing method | |
US20180114339A1 (en) | Information processing device and method, and program | |
JP7427615B2 (en) | Information processing device, information processing method and program | |
US10529085B2 (en) | Hardware disparity evaluation for stereo matching | |
TW201523510A (en) | System and method for combining point clouds | |
JP7003617B2 (en) | Estimator, estimation method, and estimation program | |
JP6249759B2 (en) | Image processing method, image processing program, and image processing apparatus | |
JP7443303B2 (en) | Measuring device, measuring method and program | |
JP7230722B2 (en) | Image processing device and image processing method | |
JP6704536B1 (en) | Moving amount estimating device, moving amount estimating method, and moving amount estimating program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7443303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |