JP7443303B2 - Measuring device, measuring method and program - Google Patents

Measuring device, measuring method and program Download PDF

Info

Publication number
JP7443303B2
JP7443303B2 JP2021150463A JP2021150463A JP7443303B2 JP 7443303 B2 JP7443303 B2 JP 7443303B2 JP 2021150463 A JP2021150463 A JP 2021150463A JP 2021150463 A JP2021150463 A JP 2021150463A JP 7443303 B2 JP7443303 B2 JP 7443303B2
Authority
JP
Japan
Prior art keywords
image data
target image
degree
distortion
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021150463A
Other languages
Japanese (ja)
Other versions
JP2023043005A (en
Inventor
徳裕 中村
晃仁 関
雄磨 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021150463A priority Critical patent/JP7443303B2/en
Publication of JP2023043005A publication Critical patent/JP2023043005A/en
Application granted granted Critical
Publication of JP7443303B2 publication Critical patent/JP7443303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は計測装置、計測方法及びプログラムに関する。 Embodiments of the present invention relate to a measuring device, a measuring method, and a program.

例えば建物及びトンネル等の社会インフラストラクチャの内部、または建物の内部をカメラにより撮像し、撮像により得られた大量の画像データを用いて検査する作業が行われている。例えば社会インフラストラクチャの内部、建物の内部、またはこれらに設けられた設備の状態が、大量の画像データを用いて検査されている。このような検査作業において、検査者は、検査対象を撮像した画像データと、同一の検査対象を異なる時刻に撮像した画像データとを比較しなければならなかった。 For example, work is being carried out to image the inside of social infrastructure such as buildings and tunnels, or the inside of buildings using cameras, and to inspect using a large amount of image data obtained by the imaging. For example, the inside of social infrastructure, the inside of buildings, and the conditions of equipment installed therein are inspected using a large amount of image data. In such inspection work, the inspector has had to compare image data obtained by capturing an image of an inspection object with image data obtained by capturing images of the same inspection object at different times.

特許第6788291号公報Patent No. 6788291

Masako Kashiwagi, Nao Mishima, Tatsuo Kozakaya, Shinsaku Hiura, “Deep Depth from Aberration Map”, 2019 IEEE/CVF International Conference on Computer Vision (ICCV), IEEE, 27 Oct.-2 Nov. 2019, pp. 4069-4078Masako Kashiwagi, Nao Mishima, Tatsuo Kozakaya, Shinsaku Hiura, “Deep Depth from Aberration Map”, 2019 IEEE/CVF International nal Conference on Computer Vision (ICCV), IEEE, 27 Oct. -2 Nov. 2019, pp. 4069-4078 Ryo Nakashima and Akihito Seki, “SIR-Net: Scene-Independent End-to-End Trainable Visual Relocalizer”, 2019 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT) , IEEE, 16-19 sept. 2019, pp. 472-481Ryo Nakashima and Akihito Seki, “SIR-Net: Scene-Independent End-to-End Trainable Visual Relocalizer”, 2019 International C on 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT), IEEE, 16-19 sept. 2019, pp. 472-481

従来の技術では、画像データから三次元的な反りや曲がり方の変化をとらえることは困難であった。 With conventional technology, it has been difficult to detect three-dimensional changes in warpage and bending from image data.

実施形態の計測装置は、取得部と計測制御部と記憶部と比較部とを備える。取得部は、対象物を含む第1の対象画像データを取得する。計測制御部は、前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する。記憶部は、前記基準線に対応付けられた第2のひずみ度を記憶する。比較部は、前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する。 The measuring device of the embodiment includes an acquisition section, a measurement control section, a storage section, and a comparison section. The acquisition unit acquires first target image data including the target object. The measurement control unit estimates a first three-dimensional position for each pixel of the first target image data, and defines a reference point defined on the first target image data and a reference point defined with the reference point as both ends. A first degree of distortion indicating the degree of distortion of the object on the reference line is measured from the reference line and the first three-dimensional position. The storage unit stores a second degree of distortion associated with the reference line. The comparison unit compares the first degree of distortion and the second degree of distortion, and outputs a comparison result.

第1実施形態の計測装置の機能構成の例を示す図。FIG. 1 is a diagram illustrating an example of a functional configuration of a measuring device according to a first embodiment. 第1実施形態の計測方法の例を示すフローチャート。1 is a flowchart illustrating an example of a measurement method according to the first embodiment. 第1実施形態の再構成三次元形状に対して定義されるエッジの例1を示す図。FIG. 3 is a diagram showing example 1 of edges defined for the reconstructed three-dimensional shape of the first embodiment. 第1実施形態の再構成三次元形状に対して定義されるエッジの例2を示す図。FIG. 7 is a diagram illustrating a second example of edges defined for the reconstructed three-dimensional shape of the first embodiment. 第1実施形態のひずみ度について説明するための図。FIG. 3 is a diagram for explaining the degree of distortion in the first embodiment. 第2実施形態の計測装置の機能構成の例を示す図。FIG. 7 is a diagram illustrating an example of the functional configuration of a measuring device according to a second embodiment. 第2実施形態の計測方法の例を示すフローチャート。7 is a flowchart illustrating an example of a measurement method according to the second embodiment. 第3実施形態の計測装置の機能構成の例を示す図。FIG. 7 is a diagram illustrating an example of a functional configuration of a measuring device according to a third embodiment. 第4実施形態の計測装置の機能構成の例を示す図。The figure which shows the example of the functional structure of the measuring device of 4th Embodiment. 第4実施形態の計測結果画像データの例を示す図。The figure which shows the example of the measurement result image data of 4th Embodiment. 第4実施形態の計測方法の例を示すフローチャート。10 is a flowchart illustrating an example of a measurement method according to a fourth embodiment. 第5実施形態の計測装置の機能構成の例を示す図。The figure which shows the example of the functional structure of the measuring device of 5th Embodiment. 第5実施形態の計測方法の例を示すフローチャート。10 is a flowchart illustrating an example of a measurement method according to a fifth embodiment. 第1乃至第5実施形態の計測装置のハードウェア構成の例を示す図。FIG. 3 is a diagram illustrating an example of the hardware configuration of the measuring device according to the first to fifth embodiments.

以下に添付図面を参照して、画像データから三次元的な反りや曲がり(以下「ひずみ」という。)を捉えることを可能にする計測装置、計測方法及びプログラムの実施形態を詳細に説明する。 Embodiments of a measuring device, a measuring method, and a program that make it possible to capture three-dimensional warping and bending (hereinafter referred to as "strain") from image data will be described in detail below with reference to the accompanying drawings.

(第1実施形態)
はじめに第1実施形態の計測装置について説明する。
[機能構成の例]
図1は第1実施形態の計測装置100の機能構成の例を示す図である。第1実施形態の計測装置100は、取得部1、計測制御部2、記憶部3及び比較部4を備える。各機能ブロックは、1以上の装置の組み合わせにより実現される。
(First embodiment)
First, the measuring device of the first embodiment will be explained.
[Example of functional configuration]
FIG. 1 is a diagram showing an example of the functional configuration of a measuring device 100 according to the first embodiment. The measuring device 100 of the first embodiment includes an acquisition section 1, a measurement control section 2, a storage section 3, and a comparison section 4. Each functional block is realized by a combination of one or more devices.

複数の装置で各機能ブロックを実現する場合、各装置は、通信網を介して、直接的、又は間接的に通信可能な状態に接続される。これにより各装置は、例えば形状データ等を相互に送受信することができる。 When each functional block is realized by a plurality of devices, each device is connected to be able to communicate directly or indirectly via a communication network. This allows each device to mutually transmit and receive shape data, etc., for example.

通信網の種類は任意であり、例えば各装置は、建物内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各装置は、インターネット等のネットワーク(クラウド)を介して、相互に通信可能な形態であってもよい。 The type of communication network is arbitrary; for example, each device may be able to communicate with each other via a LAN (Local Area Network) installed within a building. Further, for example, each device may be configured to be able to communicate with each other via a network (cloud) such as the Internet.

以下に、各機能ブロックの概要について順に説明する。なお、各機能ブロックの動作の詳細については、図2のフローチャートを参照して後述する。 Below, an overview of each functional block will be explained in order. Note that details of the operation of each functional block will be described later with reference to the flowchart of FIG. 2.

取得部1は、計測対象の対象物(被写体)を含む対象画像データを取得する。 The acquisition unit 1 acquires target image data including an object (subject) to be measured.

計測制御部2は、対象画像データの画素ごとに三次元位置を推定し、対象画像データ上に定義される基準点と、基準点を両端として定義される基準線と、三次元位置とから、基準線上の対象物のひずみの度合いを示すひずみ度を計測する。 The measurement control unit 2 estimates a three-dimensional position for each pixel of the target image data, and from the reference point defined on the target image data, the reference line defined with the reference point as both ends, and the three-dimensional position, The degree of distortion, which indicates the degree of distortion of the object on the reference line, is measured.

具体的には、計測制御部2は、第1距離算出部21、第2距離算出部22及びひずみ度算出部23を備える。 Specifically, the measurement control section 2 includes a first distance calculation section 21, a second distance calculation section 22, and a distortion degree calculation section 23.

第1距離算出部21は、対象画像データの画素ごとに三次元位置を推定し、基準点を示す三次元位置を用いて、基準点間の最短距離を算出する。 The first distance calculation unit 21 estimates a three-dimensional position for each pixel of the target image data, and uses the three-dimensional position indicating the reference point to calculate the shortest distance between the reference points.

第2距離算出部22は、対象画像データの画素に対応する三次元位置の集合に対してエッジを定義することで、三次元位置をノードとするグラフを生成し、基準点を示すノード間のグラフ上の最小コスト距離を算出する。 The second distance calculation unit 22 defines edges for a set of three-dimensional positions corresponding to pixels of the target image data, thereby generating a graph with three-dimensional positions as nodes, and between nodes indicating reference points. Calculate the minimum cost distance on the graph.

ひずみ度算出部23は、第1距離算出部21によって算出された最短距離と、第2距離算出部22によって算出されたグラフ上の最小コスト距離との比によってひずみ度を算出する。 The distortion degree calculation unit 23 calculates the distortion degree based on the ratio between the shortest distance calculated by the first distance calculation unit 21 and the minimum cost distance on the graph calculated by the second distance calculation unit 22.

記憶部3は、対象画像データ、1つ以上の基準線、及び各基準線に対応するひずみ度を含む対象画像計測情報を記憶する。対象画像計測情報は各対象画像データ単位で管理される。 The storage unit 3 stores target image measurement information including target image data, one or more reference lines, and a degree of distortion corresponding to each reference line. Target image measurement information is managed for each target image data unit.

比較部4は、ひずみ度算出部23により算出されたひずみ度と、記憶部3のひずみ度を比較し、比較結果を出力する。比較結果は、例えばひずみ度の変化の有無及びひずみ度の差等を含む。 The comparison unit 4 compares the degree of distortion calculated by the degree of distortion calculation unit 23 and the degree of distortion in the storage unit 3, and outputs the comparison result. The comparison results include, for example, the presence or absence of a change in the degree of strain, a difference in the degree of strain, and the like.

[計測方法の例]
図2は第1実施形態の計測方法の例を示すフローチャートである。はじめに、取得部1が、外部記憶装置やカメラ等の撮像装置から、対象物が写された対象画像データを取得する(ステップS1)。
[Example of measurement method]
FIG. 2 is a flowchart showing an example of the measurement method according to the first embodiment. First, the acquisition unit 1 acquires target image data in which a target object is captured from an external storage device or an imaging device such as a camera (step S1).

次に、第1距離算出部21が、ステップS1で取得された対象画像データから、画素(ピクセル)ごとの三次元位置Pを算出する(ステップS2)。 Next, the first distance calculation unit 21 calculates a three-dimensional position P for each pixel from the target image data acquired in step S1 (step S2).

本実施形態における三次元位置Pは、奥行きデータとカメラパラメータとによって求められる。奥行きデータは、例えば第1距離算出部21が、対象画像データのボケの強さに基づいてそれぞれの画素位置でのオブジェクトまでの距離を、奥行データとして推定する。 The three-dimensional position P in this embodiment is determined by depth data and camera parameters. For example, the first distance calculation unit 21 estimates the distance to the object at each pixel position based on the intensity of blur in the target image data.

例えば、奥行データは、対象画像データに含まれるオブジェクトのボケの強さとオブジェクトまでの距離とを対応付けるモデルを予め機械学習することによって、対象画像データから推定できる。具体的には、例えば非特許文献1に記載されたディープニューラルネットワークを用いることにより、対象画像データから奥行データを算出することが可能である。 For example, the depth data can be estimated from the target image data by performing machine learning in advance on a model that associates the intensity of blur of an object included in the target image data with the distance to the object. Specifically, depth data can be calculated from target image data by using, for example, the deep neural network described in Non-Patent Document 1.

各画素に対応する三次元位置Pを合わせた集合は、対象画像データに含まれるオブジェクトの三次元形状を表現する点の集合ととらえることもできる。以降では、三次元位置Pの集合を再構成三次元形状と呼ぶ。 The set of three-dimensional positions P corresponding to each pixel can also be regarded as a set of points expressing the three-dimensional shape of the object included in the target image data. Hereinafter, the set of three-dimensional positions P will be referred to as a reconstructed three-dimensional shape.

次に、第1距離算出部21が、対象画像データ上のあらかじめ指定された2点間の三次元での最短距離D1を算出する(ステップS3)。 Next, the first distance calculation unit 21 calculates the three-dimensional shortest distance D1 between two points specified in advance on the target image data (step S3).

最短距離D1は、指定された位置の画素に対応する三次元位置Ps、Pe間の距離を算出することで得られる。以降では、Ps、Peで定義される線分を基準線、基準線の両端点を基準点と呼ぶ。基準点を示す情報は、画像座標系での二次元位置、及び、当該二次元位置に対応する三次元位置の情報を含む。以下の説明では、1つの基準線に対する処理について説明する。なお、基準線が複数存在する場合も、同様の処理を複数回繰り返すことで対応可能である。 The shortest distance D1 is obtained by calculating the distance between the three-dimensional positions Ps and Pe corresponding to the pixel at the designated position. Hereinafter, the line segment defined by Ps and Pe will be referred to as a reference line, and both end points of the reference line will be referred to as reference points. The information indicating the reference point includes information on a two-dimensional position in the image coordinate system and a three-dimensional position corresponding to the two-dimensional position. In the following explanation, processing for one reference line will be explained. Note that even if there are multiple reference lines, this can be handled by repeating the same process multiple times.

なお、本実施形態では、三次元位置Pを画像のボケの強さに基づく奥行きから推定したが、三次元位置Pは、対象画像データのコンテキストから推定してもよいし、ステレオカメラから推定した視差を用いてもよいし、LiDARのようなレーザーの照射による測距装置を用いて計測してもよい。 Note that in this embodiment, the three-dimensional position P is estimated from the depth based on the intensity of blur of the image, but the three-dimensional position P may be estimated from the context of the target image data or estimated from a stereo camera. Parallax may be used, or measurement may be performed using a distance measuring device such as LiDAR that uses laser irradiation.

次に、第2距離算出部22が、対象画像データの各画素に対応する三次元位置Pに対してエッジを定義することで、画素に対応する三次元位置Pをノードとするグラフを生成する(ステップS4)。 Next, the second distance calculation unit 22 defines an edge for the three-dimensional position P corresponding to each pixel of the target image data, thereby generating a graph with the three-dimensional position P corresponding to the pixel as a node. (Step S4).

図3Aは第1実施形態の再構成三次元形状(三次元位置Pの集合)に対して定義されるエッジ201の例を示す図である。図3Aでは、対象画像データに含まれる対象物200がプロペラである場合を例にして説明する。対象画像データの各画素には、三次元位置Pが対応する。また、図3Aの例では、三次元位置Ps及びPeの間に基準線202が定義されている。第2距離算出部22は、隣接している画素に対応するノード間(例えば三次元位置Pa及びPb間)にエッジ201を生成する。 FIG. 3A is a diagram showing an example of an edge 201 defined for the reconstructed three-dimensional shape (set of three-dimensional positions P) according to the first embodiment. In FIG. 3A, an example will be described in which the target object 200 included in the target image data is a propeller. Each pixel of the target image data corresponds to a three-dimensional position P. Furthermore, in the example of FIG. 3A, a reference line 202 is defined between the three-dimensional positions Ps and Pe. The second distance calculation unit 22 generates an edge 201 between nodes corresponding to adjacent pixels (for example, between three-dimensional positions Pa and Pb).

図2に戻り、第2距離算出部22は、第1距離算出部21で算出された三次元位置Pと、あらかじめ指定された画像上の2つの基準点とを用いて、三次元位置Pで形作られる形状の表面に沿った距離を、グラフ上での最小コスト距離D2によって求める(ステップS5)。最短距離の計算には、例えばダイクストラ法が利用可能である。この場合、エッジ上のコストは、以下の式(1)で決定される。 Returning to FIG. 2, the second distance calculation unit 22 uses the three-dimensional position P calculated by the first distance calculation unit 21 and two reference points on the image specified in advance to determine the three-dimensional position P. The distance along the surface of the shape to be formed is determined by the minimum cost distance D2 on the graph (step S5). For example, Dijkstra's method can be used to calculate the shortest distance. In this case, the cost on the edge is determined by the following equation (1).

Cost=|Pa-Pb| ・・・(1)
ここで、Pa及びPbはそれぞれ隣接する画素に対応する三次元位置P(ノード)である。第2距離算出部22は、基準点の三次元位置Psに対応するノードを始点とし、基準点の三次元位置Peに対応するノードを終点として、Costが最小になるように、グラフ上の最短距離を計算する。
Cost e = |Pa-Pb| ...(1)
Here, Pa and Pb are three-dimensional positions P (nodes) corresponding to adjacent pixels, respectively. The second distance calculation unit 22 sets the node corresponding to the three-dimensional position Ps of the reference point as the starting point, and the node corresponding to the three-dimensional position Pe of the reference point as the end point, on the graph so that Cost e is minimized. Calculate the shortest distance.

なお、図3Aでは一部の隣接画素に対応するノード間でのみエッジ201を構成しているが、全ての隣接画素に対応するノード間でエッジ201を構成してもよい。その場合、画像境界に対応するノード以外では、1つのノードからは最大でも8本のエッジが構成されることになる。また、対象形状が写っている範囲が既知であれば、その範囲に含まれる画素に対応するノードのみをグラフ構成に用いることとしてもよい。範囲の特定には、例えば画像認識の分野で研究が進められているセマンティックセグメンテーション技術などが利用可能である。さらに、図3Bに示すように、画像上の基準線202から一定範囲210に含まれるノードのみを用いてグラフを構成することとしてもよい。範囲の指定は、例えば以下で行うことができる。 Note that in FIG. 3A, the edge 201 is formed only between nodes corresponding to some adjacent pixels, but the edge 201 may be formed between nodes corresponding to all adjacent pixels. In that case, a maximum of eight edges will be constructed from one node, except for nodes corresponding to image boundaries. Further, if the range in which the target shape is captured is known, only nodes corresponding to pixels included in the range may be used in the graph configuration. For example, semantic segmentation technology, which is being researched in the field of image recognition, can be used to specify the range. Furthermore, as shown in FIG. 3B, a graph may be constructed using only nodes included within a certain range 210 from the reference line 202 on the image. The range can be specified, for example, as follows.

ノードiに対応する画素の2D位置:P(i)、基準線202と2D位置の最短距離を返す関数:L(p)、基準線202からの一定距離:rとすると、以下の式(2)を満たすノードの集合でグラフを構成する。 The following equation (2 ) A graph is composed of a set of nodes that satisfy ).

L(P(i))<=r ・・・(2) L(P(i))<=r...(2)

また、図3Bの一定範囲210の境界の半円部分に対応する範囲は用いず、基準線202と直交する方向のみにr離れた範囲を使ってもよいし、任意の条件で距離rを複数切り替えてもよい。一定範囲210は、基準線202との距離に基づいた条件により指定される範囲であればよい。 Alternatively, instead of using the range corresponding to the semicircular part of the boundary of the fixed range 210 in FIG. You may switch. The fixed range 210 may be any range specified by conditions based on the distance from the reference line 202.

次に、ひずみ度算出部23が、最短距離D1及び最小コスト距離D2から、基準線上の対象物のひずみの度合いを示すひずみ度を算出する(ステップS6)。具体的には、ひずみ度はD2/D1により算出される。このひずみ度は平たんな状態に対する変化量に対応する値と考えることができる。 Next, the distortion degree calculation unit 23 calculates the distortion degree indicating the degree of distortion of the object on the reference line from the shortest distance D1 and the minimum cost distance D2 (step S6). Specifically, the degree of distortion is calculated by D2/D1. This degree of distortion can be considered as a value corresponding to the amount of change with respect to the flat state.

図4は第1実施形態のひずみ度について説明するための図である。基準線202の最短距離をD1とする。また、経路203は、第2距離算出部22により生成されたグラフ上での最小コスト距離D’2を有し、経路204は、第2距離算出部22により生成されたグラフ上での最小コスト距離D2を有するとする。図4に示すように、最小コスト距離D’2<最小コスト距離D2の場合、ひずみ度S’(=D’2/D1)<ひずみ度S(=D2/D1)となる。 FIG. 4 is a diagram for explaining the degree of distortion in the first embodiment. The shortest distance of the reference line 202 is assumed to be D1. Further, the route 203 has a minimum cost distance D′2 on the graph generated by the second distance calculation unit 22, and the route 204 has a minimum cost distance D′2 on the graph generated by the second distance calculation unit 22. Suppose that it has a distance D2. As shown in FIG. 4, when minimum cost distance D'2<minimum cost distance D2, distortion degree S' (=D'2/D1)<distortion degree S (=D2/D1).

図2に戻り、次に、比較部4が、記憶部3に記憶されているひずみ度S’と、ステップS6で計算されたひずみ度Sとを比較する(ステップS7)。具体的には、比較部4は、ひずみ度間の差があらかじめ決められた閾値以下の場合には変化なしと判定する。また例えば、比較部4は、ひずみ度間の差があらかじめ決められた閾値より大きい場合、ひずみ度間の差を、計測装置100に接続された表示装置等に出力する。 Returning to FIG. 2, next, the comparison unit 4 compares the degree of distortion S' stored in the storage unit 3 and the degree of distortion S calculated in step S6 (step S7). Specifically, the comparison unit 4 determines that there is no change if the difference between the degrees of distortion is less than or equal to a predetermined threshold. For example, when the difference between the strain degrees is larger than a predetermined threshold value, the comparison unit 4 outputs the difference between the strain degrees to a display device or the like connected to the measuring device 100.

なお、本実施形態では、1つの基準線を対象に対して、ひずみ度Sを計測及び比較する場合について説明したが、複数の基準線を対象にする場合の処理も同様である。例えば定期的な点検の場合、計測が必要な箇所(基準線)はあらかじめ決められていると考えられるため、それぞれの箇所に対応するひずみ度S’を記憶部3に保存しておき、決められた点検順序で、順次、計測及び比較をすればよい。また例えば、対象物と、当該対象物に定義された複数の基準線を含む対象画像データを記憶部3に記憶し、比較対象の基準線を選択するUI(User Interface)を用意し、当該UIを用いて計測・比較対象の基準線を選択できるようにしてもよい。 In this embodiment, a case has been described in which the degree of distortion S is measured and compared with respect to one reference line, but the process is similar when a plurality of reference lines are used as targets. For example, in the case of periodic inspections, the locations (reference lines) that require measurement are considered to have been determined in advance, so the degree of strain S' corresponding to each location is stored in the storage unit 3, and the locations that require measurement are determined in advance. Measurements and comparisons can be made in the order of inspection. For example, target image data including a target object and a plurality of reference lines defined for the target object is stored in the storage unit 3, a UI (User Interface) for selecting a reference line to be compared is prepared, and the UI may be used to select a reference line for measurement and comparison.

第1実施形態の計測装置100によれば、対象画像データから三次元的な反りや曲がり方の変化をとらえることができる。 According to the measuring device 100 of the first embodiment, it is possible to detect three-dimensional changes in warpage and bending from target image data.

(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第2実施形態では、対象画像データの撮像位置及び撮像姿勢を推定し、推定された撮像位置及び撮像姿勢から比較対象の基準線を特定する場合について説明する。
(Second embodiment)
Next, a second embodiment will be described. In the description of the second embodiment, descriptions similar to those in the first embodiment will be omitted, and points different from the first embodiment will be described. In the second embodiment, a case will be described in which the imaging position and imaging orientation of target image data are estimated, and a reference line to be compared is specified from the estimated imaging position and imaging orientation.

[機能構成の例]
図4は第2実施形態の計測装置100-2の機能構成の例を示す図である。第2実施形態の計測装置100-2は、取得部1、計測制御部2、記憶部3、比較部4及び推定部5を備える。本実施形態では、推定部5を新たに備える。
[Example of functional configuration]
FIG. 4 is a diagram showing an example of the functional configuration of the measuring device 100-2 of the second embodiment. The measuring device 100-2 of the second embodiment includes an acquisition section 1, a measurement control section 2, a storage section 3, a comparison section 4, and an estimation section 5. In this embodiment, an estimation unit 5 is newly provided.

推定部5は、撮像装置によって撮影された対象画像データから、当該撮像装置の撮像位置を示す撮像位置データ(例えば座標等)と、当該撮像装置の撮像姿勢を示す撮像姿勢データとを推定する。 The estimation unit 5 estimates imaging position data (for example, coordinates, etc.) indicating the imaging position of the imaging device and imaging posture data indicating the imaging attitude of the imaging device from the target image data captured by the imaging device.

本実施形態では、記憶部3が、あらかじめ生成されたデータベースを記憶し、推定部5は、当該データベースから複数の参照撮像情報を取得する。それぞれの参照撮像情報には、参照画像データ、当該参照画像データを撮像した時の撮像位置、及び、当該参照画像データを撮像した時の撮像姿勢が関連付けて記憶されている。そして、推定部5は、対象画像データを、複数の参照撮像情報のそれぞれと照合することにより、撮像位置データ及び撮像姿勢データを推定する。 In this embodiment, the storage unit 3 stores a database generated in advance, and the estimation unit 5 acquires a plurality of pieces of reference imaging information from the database. Each piece of reference imaging information is stored in association with reference image data, an imaging position when the reference image data is taken, and an imaging posture when the reference image data is taken. Then, the estimation unit 5 estimates the imaging position data and the imaging posture data by comparing the target image data with each of the plurality of reference imaging information.

具体的には、推定部5は、複数の参照画像データのうち、対象画像データに最も類似した撮像位置及び撮像姿勢で撮像された参照画像データ(以下、「近接画像データ」という。)を探し出す。そして、推定部5は、対象画像データと近接画像データとの間の位置差及び姿勢差と、近接画像データに関連付けられた参照位置データ及び参照姿勢データとに基づき、撮像位置データ及び撮像姿勢データを算出する。 Specifically, the estimating unit 5 searches for reference image data (hereinafter referred to as "proximity image data") captured at an imaging position and imaging orientation most similar to the target image data, from among the plurality of reference image data. . The estimation unit 5 then generates imaging position data and imaging orientation data based on the position difference and orientation difference between the target image data and the proximity image data, and the reference position data and reference orientation data associated with the proximity image data. Calculate.

なお、推定部5は、対象画像データ及び複数の参照撮像情報に基づき、ディープニューラルネットワークを用いて、撮像位置データ及び撮像姿勢データを算出することが可能である。例えば、非特許文献2に記載されたディープニューラルネットワークを用いることにより、撮像位置データ及び撮像姿勢データを算出することが可能である。 Note that the estimation unit 5 can calculate the imaging position data and the imaging posture data using a deep neural network based on the target image data and a plurality of pieces of reference imaging information. For example, by using the deep neural network described in Non-Patent Document 2, it is possible to calculate imaging position data and imaging posture data.

推定部5は、撮像位置データ及び撮像姿勢データを比較部4に入力する。 The estimation unit 5 inputs the imaging position data and the imaging posture data to the comparison unit 4.

比較部4は、撮像位置データ及び撮像姿勢データの少なくとも一方に基づいて、基準線を特定する。具体的には、本実施形態では、記憶部3は、撮像位置データ及び撮像姿勢データを更に含む対象画像計測情報を記憶する。すなわち、本実施形態では、対象画像計測情報には、ひずみ度、当該ひずみ度が計測された対象画像データ、当該対象画像データを撮像した撮像装置の撮像位置及び撮像姿勢を示すデータが関連付けて記憶される。比較部4は、例えば推定部5で推定された撮像位置データに最も近い撮像位置データを含む対象画像計測情報を、記憶部3から取得する。 The comparison unit 4 identifies a reference line based on at least one of the imaging position data and the imaging posture data. Specifically, in this embodiment, the storage unit 3 stores target image measurement information further including imaging position data and imaging posture data. That is, in the present embodiment, the target image measurement information is stored in association with data indicating the degree of distortion, the target image data for which the degree of distortion was measured, and the imaging position and imaging posture of the imaging device that captured the target image data. be done. The comparison unit 4 acquires target image measurement information including imaging position data closest to the imaging position data estimated by the estimation unit 5, for example, from the storage unit 3.

次に、比較部4は、推定部5で推定された撮像位置データと、記憶部3から取得された対象画像計測情報に含まれる撮像位置データとの距離を算出し、当該距離があらかじめ決められた閾値を超えていた場合、比較対象データがないことを示す情報を計測装置100に接続された表示装置等に出力する。 Next, the comparing unit 4 calculates the distance between the imaging position data estimated by the estimating unit 5 and the imaging position data included in the target image measurement information acquired from the storage unit 3, and determines whether the distance is determined in advance. If the threshold value is exceeded, information indicating that there is no comparison target data is output to a display device or the like connected to the measuring device 100.

比較部4は、閾値以下の場合、第1実施形態の比較部4と同様の比較処理を行い、変化の有無及びひずみ度の差を計測装置100に接続された表示装置等に出力する。 If it is below the threshold value, the comparing unit 4 performs the same comparison process as the comparing unit 4 of the first embodiment, and outputs the presence or absence of a change and the difference in the degree of distortion to a display device or the like connected to the measuring device 100.

なお、上述の説明では、比較部4は、撮像位置データのみを用いて対象画像計測情報を絞り込んだが、更に撮像姿勢データを用いて対象画像計測情報を絞り込んでもよい。その場合は、比較部4は、撮像位置データと同様に姿勢の差が閾値以内か否かを判定し、閾値以内の場合に、比較処理を行う。撮像位置データの後に撮像姿勢データを比較することで、同一位置で姿勢を変えて複数枚撮影した結果から得られた対象画像計測情報が記憶部3に存在する場合でも、類似箇所(比較対象箇所)のひずみ度を正しく比較することが可能となる。 Note that in the above description, the comparison unit 4 narrowed down the target image measurement information using only the imaging position data, but may further narrow down the target image measurement information using the imaging posture data. In that case, the comparison unit 4 determines whether the difference in posture is within the threshold value, similarly to the imaging position data, and if it is within the threshold value, performs the comparison process. By comparing the imaging posture data after the imaging position data, even if target image measurement information obtained from the results of taking multiple images at the same position with different postures exists in the storage unit 3, similar locations (comparison target locations) ) can be accurately compared.

また、撮像位置データでの閾値処理を行わない場合も考えられる。例えば、点検のための撮影の定位置が決まっているような場合には位置は同一であるため、撮像姿勢データのみで閾値処理を行えばよい。また、対象画像データを直接比較してもよい。その場合、比較部4は、2枚の対象画像データの類似度合いを算出する種々の画像認識手法を用いて類似度を算出し、当該類似度に基づいて閾値処理を行えばよい。 It is also conceivable that the threshold value processing using the imaging position data is not performed. For example, in a case where a fixed position for photographing for inspection is determined, the positions are the same, so it is sufficient to perform threshold processing using only the photographing posture data. Alternatively, target image data may be directly compared. In that case, the comparison unit 4 may calculate the degree of similarity using various image recognition methods for calculating the degree of similarity between the two target image data, and perform threshold processing based on the degree of similarity.

[計測方法の例]
図6は第2実施形態の計測方法の例を示すフローチャートである。ステップS1の説明は、第1実施形態の計測方法(図2参照)と同じなので省略する。
[Example of measurement method]
FIG. 6 is a flowchart showing an example of the measurement method according to the second embodiment. The description of step S1 is the same as that of the measurement method of the first embodiment (see FIG. 2), so it will be omitted.

次に、推定部5が、ステップS1で取得された対象画像データから、当該撮像装置の撮像位置と、当該撮像装置の撮像姿勢とを推定する(ステップS1-2)。 Next, the estimation unit 5 estimates the imaging position of the imaging device and the imaging posture of the imaging device from the target image data acquired in step S1 (step S1-2).

ステップS2~S7の説明は、第1実施形態の計測方法(図2参照)と同じなので省略する。 Descriptions of steps S2 to S7 are omitted because they are the same as the measurement method of the first embodiment (see FIG. 2).

次に、比較部4が、ステップS1-2で推定された撮像位置及び撮像姿勢に基づいて、記憶部3から比較対象のひずみ度S’を読み出し、当該ひずみ度S’と、ステップS6で計算されたひずみ度Sとを比較する(ステップS7)。 Next, the comparison unit 4 reads the distortion degree S' of the comparison target from the storage unit 3 based on the imaging position and imaging posture estimated in step S1-2, and calculates the distortion degree S' and the distortion degree S' in step S6. The resulting strain degree S is compared (step S7).

第2実施形態によれば、例えば、撮像位置及び撮像姿勢を変えて複数枚撮影した結果から得られた複数の対象画像計測情報が記憶部3に存在する場合でも、比較対象のひずみ度を正しく選択できる。 According to the second embodiment, for example, even if a plurality of target image measurement information obtained from the results of photographing a plurality of images while changing the imaging position and the imaging posture exist in the storage unit 3, the degree of distortion of the comparison target can be correctly determined. You can choose.

(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第1及び2実施形態では、対象画像データ上に任意の線分として定義される区間(基準線)に対応するひずみ度の算出方法、及び当該ひずみ度を用いた対象部分の形状変化の有無の検出方法について説明した。本実施形態は、処理対象の基準線を自動で選定する部分が第1実施形態と異なる。
(Third embodiment)
Next, a third embodiment will be described. In the description of the third embodiment, descriptions similar to those in the first embodiment will be omitted, and points different from the first embodiment will be described. In the first and second embodiments, a method for calculating the degree of distortion corresponding to an interval (reference line) defined as an arbitrary line segment on target image data, and a method for calculating the degree of distortion corresponding to an interval (reference line) defined as an arbitrary line segment on target image data, and a method for determining whether or not there is a change in shape of the target part using the degree of distortion are described. The detection method was explained. This embodiment differs from the first embodiment in that a reference line to be processed is automatically selected.

[機能構成の例]
図7は第3実施形態の計測装置100-3の機能構成の例を示す図である。第3実施形態の計測装置100-3は、取得部1、計測制御部2、記憶部3及び比較部4を備える。第3実施形態の構成は、第1実施形態と同じである。以下に、第1実施形態と処理が異なる機能ブロックについて説明する。
[Example of functional configuration]
FIG. 7 is a diagram showing an example of the functional configuration of a measuring device 100-3 according to the third embodiment. The measurement device 100-3 of the third embodiment includes an acquisition section 1, a measurement control section 2, a storage section 3, and a comparison section 4. The configuration of the third embodiment is the same as the first embodiment. Functional blocks that differ in processing from the first embodiment will be described below.

まず、第3実施形態における記憶部3は、上述の再構成三次元形状(三次元位置Pの集合)と、当該再構成三次元形状に対応付けられた基準点を更に保存する点が、第1及び第2実施形態の記憶部3とは異なる。以下の説明では、第1距離算出部21により生成された再構成三次元形状を再構成三次元形状Aとし、記憶部3に記憶されている再構成三次元形状を再構成三次元形状Bとする。 First, the storage unit 3 in the third embodiment further stores the above-mentioned reconstructed three-dimensional shape (set of three-dimensional positions P) and reference points associated with the reconstructed three-dimensional shape. This is different from the storage unit 3 of the first and second embodiments. In the following explanation, the reconstructed three-dimensional shape generated by the first distance calculation unit 21 will be referred to as reconstructed three-dimensional shape A, and the reconstructed three-dimensional shape stored in the storage unit 3 will be referred to as reconstructed three-dimensional shape B. do.

第3実施形態における第1距離算出部21は、以下のようにして基準線を自動的に選定する。まず、第1距離算出部21は、再構成三次元形状Aと、再構成三次元形状Bとの間で位置合わせを行い、両者が最大限重なるような変換情報を求める。 The first distance calculation unit 21 in the third embodiment automatically selects the reference line as follows. First, the first distance calculation unit 21 performs alignment between the reconstructed three-dimensional shape A and the reconstructed three-dimensional shape B, and obtains conversion information that allows the two to overlap to the maximum extent possible.

変換情報は、例えば回転行列Rと並進ベクトルtとを含む。この回転行列Rと並進ベクトルtとは、例えばICP(Iterative Closest Point)を用いることで得られる。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを対象画像計測情報に含まれる基準線の位置を示す三次元位置Pに適用する。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを適用した後の基準線の両端点と最も近い、再構成三次元形状Aに含まれる三次元位置Ps、Peを求める。次に、第1距離算出部21は、三次元位置Ps、Peを両端点とする線分を処理対象の基準線として、以降の計測・比較処理を、第1又は第2実施形態と同様にして行う。 The transformation information includes, for example, a rotation matrix R and a translation vector t. The rotation matrix R and translation vector t are obtained by using, for example, ICP (Iterative Closest Point). Next, the first distance calculation unit 21 applies the rotation matrix R and the translation vector t to the three-dimensional position P indicating the position of the reference line included in the target image measurement information. Next, the first distance calculation unit 21 calculates the three-dimensional positions Ps and Pe included in the reconstructed three-dimensional shape A that are closest to both end points of the reference line after applying the rotation matrix R and the translation vector t. . Next, the first distance calculation unit 21 uses the line segment having the three-dimensional positions Ps and Pe as the reference line to be processed, and performs the subsequent measurement and comparison process in the same manner as in the first or second embodiment. I will do it.

第3実施形態によれば、対象画像データに含まれる対象物200の計測・比較箇所(計測・比較処理対象の基準線)を自動で抽出することができる。 According to the third embodiment, it is possible to automatically extract a measurement/comparison point (a reference line for measurement/comparison processing) of the target object 200 included in the target image data.

(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、第1~第3実施形態と同様の説明については省略し、第1~第3実施形態と異なる箇所について説明する。第4実施形態では、ひずみ度の変化の有無、及び差異の大きさだけでなく、ひずみ度の変化の有無、及び差異の大きさを可視化する部分が、第1~第3実施形態と異なる。
(Fourth embodiment)
Next, a fourth embodiment will be described. In the description of the fourth embodiment, descriptions similar to those in the first to third embodiments will be omitted, and portions that are different from the first to third embodiments will be described. The fourth embodiment differs from the first to third embodiments in the portion that visualizes not only the presence or absence of a change in the degree of strain and the magnitude of the difference, but also the presence or absence of a change in the degree of strain and the magnitude of the difference.

[機能構成の例]
図8は第4実施形態の計測装置100-4の機能構成の例を示す図である。第4実施形態の計測装置100-4は、取得部1、計測制御部2、記憶部3、比較部4、推定部5、生成部6及び表示部7を備える。第4実施形態では、生成部6及び表示部7を新たに備える。
[Example of functional configuration]
FIG. 8 is a diagram showing an example of the functional configuration of a measuring device 100-4 according to the fourth embodiment. The measurement device 100-4 of the fourth embodiment includes an acquisition section 1, a measurement control section 2, a storage section 3, a comparison section 4, an estimation section 5, a generation section 6, and a display section 7. In the fourth embodiment, a generation section 6 and a display section 7 are newly provided.

生成部6は、ひずみ度、または比較結果の差異を直観的に把握できるような画像(以下、「計測結果画像データ」という。)を生成する。 The generation unit 6 generates an image (hereinafter referred to as "measurement result image data") that allows the degree of distortion or the difference in comparison results to be intuitively understood.

表示部7は、生成部6により生成された計測結果画像データを表示する。 The display section 7 displays the measurement result image data generated by the generation section 6.

図9は第4実施形態の計測結果画像データの例を示す図である。生成部6は、比較部4の比較結果に基づいて、基準線202の表示形式を決定し、基準線202を対象画像データに重畳した計測結果画像データを生成し、当該計測結果画像データを表示部7に出力する。具体的には、生成部6は、例えばひずみ度の大きさに応じて、色及び線の太さ等を変化させた基準線202を対象画像データに重畳することによって、計測結果画像データを生成する。これにより、二次元の画像表示からもひずみ度の大小が直感的に理解可能となる。 FIG. 9 is a diagram showing an example of measurement result image data according to the fourth embodiment. The generation unit 6 determines the display format of the reference line 202 based on the comparison result of the comparison unit 4, generates measurement result image data in which the reference line 202 is superimposed on the target image data, and displays the measurement result image data. output to section 7. Specifically, the generation unit 6 generates measurement result image data by superimposing a reference line 202 whose color, line thickness, etc. are changed depending on the degree of distortion, for example, on the target image data. do. This makes it possible to intuitively understand the degree of distortion from a two-dimensional image display.

また、生成部6は、第2距離算出部22により生成されたグラフ上での最小コスト距離D2に対応する経路204を対象画像データに重畳してもよい。この場合、第2距離算出部22におけるダイクストラ法で求められた最短経路を対象画像データに重畳すればよい。再構成三次元形状の各点はピクセルと1対1対応しているので、最短経路に対応するエッジとノードが分かれば、それに対応する画素間のつながりが分かる。これを画像上でなぞることで、対象画像データに重畳することができる。 Further, the generation unit 6 may superimpose the route 204 corresponding to the minimum cost distance D2 on the graph generated by the second distance calculation unit 22 on the target image data. In this case, the shortest path determined by Dijkstra's method in the second distance calculation unit 22 may be superimposed on the target image data. Since each point of the reconstructed three-dimensional shape has a one-to-one correspondence with a pixel, if the edge and node corresponding to the shortest path are known, the connection between the corresponding pixels can be found. By tracing this on the image, it can be superimposed on the target image data.

さらに、最短距離D1に対応する基準線202と、最小コスト距離D2に対応する経路204の乖離度を直観的に示すために、生成部6は、両方の線で囲まれる領域が塗りつぶされた計測結果画像データを生成してもよい。 Furthermore, in order to intuitively indicate the degree of deviation between the reference line 202 corresponding to the shortest distance D1 and the route 204 corresponding to the minimum cost distance D2, the generation unit 6 creates a measurement in which the area surrounded by both lines is filled in. Result image data may also be generated.

また、生成部6は、一方から他方に対して矢印205等のシンボルを定義することで、視覚的に大きさを提示してもよい。この時には、生成部6は、例えば最小コスト距離D2に対応する最短経路上の各ノードから、最短距離D1に対応する基準線に対する垂線の足を定義し、それを対象画像データに投影することで矢印205を定義することができる。この時、生成部6は、垂線の足の長さに応じて色、または太さを変えてもよいし、垂線の足の計算に用いるノードを一定間隔でサンプリングしてもよい。前者は三次元での最短距離D1,最小コスト距離D2間の乖離の大きさを直観的に把握することを可能とし、後者は矢印205が密になりすぎて視認性を下げてしまうのを防ぐことが可能である。 Furthermore, the generation unit 6 may visually present the size by defining a symbol such as an arrow 205 from one side to the other. At this time, the generation unit 6 defines, for example, the foot of a perpendicular line from each node on the shortest path corresponding to the minimum cost distance D2 to the reference line corresponding to the shortest distance D1, and projects it onto the target image data. An arrow 205 can be defined. At this time, the generation unit 6 may change the color or thickness depending on the length of the perpendicular line, or may sample nodes used for calculating the perpendicular line at regular intervals. The former makes it possible to intuitively understand the size of the deviation between the three-dimensional shortest distance D1 and minimum cost distance D2, and the latter prevents the arrows 205 from becoming too dense and reducing visibility. Is possible.

[計測方法の例]
図10は第4実施形態の計測方法の例を示すフローチャートである。ステップS1~S7の説明は、第2実施形態の計測方法(図6参照)と同じなので省略する。
[Example of measurement method]
FIG. 10 is a flowchart showing an example of a measurement method according to the fourth embodiment. The explanation of steps S1 to S7 is omitted because it is the same as the measurement method of the second embodiment (see FIG. 6).

生成部6は、ひずみ度、または比較結果の差異を直観的に把握できるような上述の計測結果画像データを生成し、当該計測結果画像データを表示部7に表示する(ステップS8)。 The generation unit 6 generates the above-mentioned measurement result image data that allows the degree of distortion or the difference in comparison results to be intuitively understood, and displays the measurement result image data on the display unit 7 (step S8).

第4実施形態によれば、ひずみ度、または比較結果の差異を直観的に把握できるようにすることができる。 According to the fourth embodiment, it is possible to intuitively understand the degree of distortion or the difference in comparison results.

(第5実施形態)
次に第5実施形態について説明する。第5実施形態の説明では、第1~第4実施形態と同様の説明については省略し、第1~第4実施形態と異なる箇所について説明する。第5実施形態では、インタラクティブに基準線の入力を受け付ける機能を持つ点が異なる。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the description of the fifth embodiment, descriptions similar to those in the first to fourth embodiments will be omitted, and portions that are different from the first to fourth embodiments will be described. The fifth embodiment differs in that it has a function of interactively accepting reference line input.

[機能構成の例]
図11は第5実施形態の計測装置100-5の機能構成の例を示す図である。第5実施形態の計測装置100-5は、取得部1、計測制御部2、記憶部3、比較部4、推定部5、生成部6、表示部7及び入力部8を備える。第4実施形態では、入力部8を新たに備える。
[Example of functional configuration]
FIG. 11 is a diagram showing an example of the functional configuration of a measuring device 100-5 according to the fifth embodiment. The measuring device 100-5 of the fifth embodiment includes an acquisition section 1, a measurement control section 2, a storage section 3, a comparison section 4, an estimation section 5, a generation section 6, a display section 7, and an input section 8. In the fourth embodiment, an input section 8 is newly provided.

入力部8は、表示部7に提示された対象画像データのうち、ひずみ度を計測したい部分を指示する入力を受け付ける。入力部8は、例えばマウス、キーボード及びトラックボールなど、位置を指示可能な任意のデバイスの形態をとりうる。また、入力部8は、タッチパネルのように入力機能と表示機能とが一体化したデバイスであってもよい。 The input unit 8 receives an input indicating a portion of the target image data presented on the display unit 7 whose degree of distortion is desired to be measured. The input unit 8 may take the form of any device capable of indicating a position, such as a mouse, keyboard, or trackball. Furthermore, the input unit 8 may be a device such as a touch panel that has an integrated input function and display function.

表示部7は、少なくとも対象画像データを表示する。表示するデータは対象画像データに限らず、本実施形態の計測・比較処理に関する任意の結果を表示してもよい。例えば、表示部7は、生成部6にて生成された計測結果画像データを、対象画像データと合わせて表示してもよい。また、表示部7は、比較部4における出力結果である、変化の有無、及びひずみ度の差を表示することも可能である。 The display unit 7 displays at least target image data. The data to be displayed is not limited to the target image data, but any result related to the measurement/comparison process of this embodiment may be displayed. For example, the display unit 7 may display the measurement result image data generated by the generation unit 6 together with the target image data. Furthermore, the display section 7 can also display the presence or absence of a change and the difference in the degree of distortion, which are the output results from the comparison section 4.

さらに、生成部6が、記憶部3に保存されている対象画像計測情報に基づいて、基準線の入力を支援するための入力支援画像を生成し、表示部7が、当該入力支援画像を表示してもよい。具体的には、生成部6が、第1距離算出部21で生成された再構成三次元形状Aと、記憶部3に記憶されている再構成三次元形状Bとの間で位置合わせを行い、両者が最大限重なるような回転行列Rと並進ベクトルtとを求める。回転行列Rと並進ベクトルtとは、例えば、第3実施形態と同様に、ICPを用いることで得られる。次に、第1距離算出部21は、回転行列Rと並進ベクトルtとを対象画像計測情報に含まれる基準線の位置を示す三次元位置Pに適用する。生成部6は、回転行列Rと並進ベクトルtとによって、回転及び平行移動された基準線を、対象画像データに投影することによって入力支援画像を生成する。これにより、以前の計測に使用された基準線が、現在処理対象の対象画像データ上でどこに当たるかを直観的に把握することができる。 Further, the generation unit 6 generates an input support image for supporting input of the reference line based on the target image measurement information stored in the storage unit 3, and the display unit 7 displays the input support image. You may. Specifically, the generation unit 6 performs alignment between the reconstructed three-dimensional shape A generated by the first distance calculation unit 21 and the reconstructed three-dimensional shape B stored in the storage unit 3. , find a rotation matrix R and a translation vector t such that the two overlap to the maximum extent possible. The rotation matrix R and the translation vector t can be obtained, for example, by using ICP as in the third embodiment. Next, the first distance calculation unit 21 applies the rotation matrix R and the translation vector t to the three-dimensional position P indicating the position of the reference line included in the target image measurement information. The generation unit 6 generates an input support image by projecting the reference line rotated and translated in accordance with the rotation matrix R and the translation vector t onto the target image data. Thereby, it is possible to intuitively understand where the reference line used in the previous measurement falls on the target image data that is currently being processed.

なお、投影された基準線の透過度を変える、色を変えるなどにより、その他の情報と視覚的に区別しやすくしてもよい。 Note that the projected reference line may be easily distinguished visually from other information by changing its transparency or changing its color.

[計測方法の例]
図12は第5実施形態の計測方法の例を示すフローチャートである。ステップS1~S2の説明は、第4実施形態の計測方法(図10参照)と同じなので省略する。
[Example of measurement method]
FIG. 12 is a flowchart showing an example of the measurement method according to the fifth embodiment. The explanation of steps S1 and S2 is the same as the measurement method of the fourth embodiment (see FIG. 10), so the explanation will be omitted.

次に、入力部8が、入力支援画像を介して基準線202を示す入力を受け付ける(ステップS2-2)。入力部8は、例えば基準線202の始点を示す三次元位置Psの位置、及び、基準線202の終点を示す三次元位置Peの位置を示す入力を受け付ける。 Next, the input unit 8 receives an input indicating the reference line 202 via the input support image (step S2-2). The input unit 8 receives input indicating, for example, the position of a three-dimensional position Ps indicating the starting point of the reference line 202 and the position of a three-dimensional position Pe indicating the end point of the reference line 202.

以降の計測・比較処理は、ステップS2-2の入力処理によって指定された基準線202に対して行われる。ステップS3~S8の説明は、第4実施形態の計測方法(図10参照)と同じなので省略する。 The subsequent measurement/comparison process is performed with respect to the reference line 202 designated by the input process in step S2-2. The explanation of steps S3 to S8 is the same as the measurement method of the fourth embodiment (see FIG. 10), so the explanation will be omitted.

第5実施形態によれば、対象画像データに含まれる対象物200の計測・比較箇所(計測・比較処理対象の基準線)の入力をインタラクティブに受け付けることができる。 According to the fifth embodiment, it is possible to interactively receive an input of a measurement/comparison point (a reference line for measurement/comparison processing) of the target object 200 included in the target image data.

最後に、第1乃至第5実施形態の計測装置100~100-5のハードウェア構成の例について説明する。 Finally, examples of the hardware configurations of the measuring devices 100 to 100-5 of the first to fifth embodiments will be described.

[ハードウェア構成の例]
図13は第1乃至第5実施形態の計測装置100~100-5のハードウェア構成の例を示す図である。
[Example of hardware configuration]
FIG. 13 is a diagram showing an example of the hardware configuration of the measuring devices 100 to 100-5 of the first to fifth embodiments.

第1乃至第5実施形態の計測装置100~100-5は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。 The measuring devices 100 to 100-5 of the first to fifth embodiments include a control device 301, a main storage device 302, an auxiliary storage device 303, a display device 304, an input device 305, and a communication device 306. The control device 301, main storage device 302, auxiliary storage device 303, display device 304, input device 305, and communication device 306 are connected via a bus 310.

制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及び、メモリカード等である。 The control device 301 executes the program read from the auxiliary storage device 303 to the main storage device 302. The main storage device 302 is a memory such as ROM (Read Only Memory) and RAM (Random Access Memory). The auxiliary storage device 303 is an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, or the like.

表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、計測装置100(100-2~100-5)を操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。計測装置100(100-2~100-5)がスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置304及び入力装置305は、例えばタッチパネルである。通信装置306は、他の装置と通信するためのインタフェースである。 Display device 304 displays display information. The display device 304 is, for example, a liquid crystal display. The input device 305 is an interface for operating the measuring device 100 (100-2 to 100-5). The input device 305 is, for example, a keyboard or a mouse. When the measuring device 100 (100-2 to 100-5) is a smart device such as a smartphone or a tablet terminal, the display device 304 and the input device 305 are, for example, touch panels. Communication device 306 is an interface for communicating with other devices.

計測装置100(100-2~100-5)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。 The programs executed by the measuring device 100 (100-2 to 100-5) are files in an installable or executable format and are stored on CD-ROMs, memory cards, CD-Rs, DVDs (Digital Versatile Discs), etc. It is recorded on a computer-readable storage medium and provided as a computer program product.

また計測装置100(100-2~100-5)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また計測装置100(100-2~100-5)で実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。 Further, the program executed by the measuring device 100 (100-2 to 100-5) may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. . Further, the program executed by the measuring device 100 (100-2 to 100-5) may be provided via a network such as the Internet without being downloaded.

また計測装置100(100-2~100-5)で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Further, the program to be executed by the measuring device 100 (100-2 to 100-5) may be provided in advance by being incorporated into a ROM or the like.

計測装置100(100-2~100-5)で実行されるプログラムは、計測装置100(100-2~100-5)の機能ブロックのうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。 The program executed by the measuring device 100 (100-2 to 100-5) has a module configuration that includes functional blocks that can also be realized by a program among the functional blocks of the measuring device 100 (100-2 to 100-5). It has become. As actual hardware, each functional block is loaded onto the main storage device 302 when the control device 301 reads and executes a program from a storage medium. That is, each functional block described above is generated on the main storage device 302.

なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。 Note that some or all of the functional blocks described above may not be implemented by software, but may be implemented by hardware such as an IC (Integrated Circuit).

また複数のプロセッサを用いて各機能ブロックを実現する場合、各プロセッサは、各機能ブロックのうち1つを実現してもよいし、各機能ブロックのうち2つ以上を実現してもよい。 Further, when each functional block is implemented using a plurality of processors, each processor may implement one of each functional block, or may implement two or more of each functional block.

また計測装置100(100-2~100-5)を実現するコンピュータの動作形態は任意でよい。例えば、計測装置100(100-2~100-5)を1台のコンピュータにより実現してもよい。また例えば、計測装置100(100-2~100-5)を、ネットワーク上のクラウドシステムとして動作させてもよい。 Further, the operating mode of the computer realizing the measuring device 100 (100-2 to 100-5) may be arbitrary. For example, the measuring device 100 (100-2 to 100-5) may be realized by one computer. Furthermore, for example, the measuring devices 100 (100-2 to 100-5) may be operated as a cloud system on a network.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1 取得部
2 計測制御部
3 記憶部
4 比較部
5 推定部
6 生成部
7 表示部
8 入力部
21 第1距離算出部
22 第2距離算出部
23 ひずみ度算出部
100 計測装置
200 対象物
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス
1 Acquisition unit 2 Measurement control unit 3 Storage unit 4 Comparison unit 5 Estimation unit 6 Generation unit 7 Display unit 8 Input unit 21 First distance calculation unit 22 Second distance calculation unit 23 Distortion degree calculation unit 100 Measuring device 200 Target object 301 Control Device 302 Main storage device 303 Auxiliary storage device 304 Display device 305 Input device 306 Communication device 310 Bus

Claims (21)

対象物を含む第1の対象画像データを取得する取得部と、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する計測制御部と、
前記基準線に対応付けられた第2のひずみ度を記憶する記憶部と、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する比較部と、
を備える計測装置。
an acquisition unit that acquires first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; a measurement control unit that measures a first degree of distortion indicating a degree of distortion of the object on the reference line from the first three-dimensional position;
a storage unit that stores a second degree of distortion associated with the reference line;
a comparison unit that compares the first degree of distortion and the second degree of distortion and outputs a comparison result;
A measuring device comprising:
前記第1の対象画像データから、前記第1の対象画像データを撮像した第1の撮像装置の撮像位置及び撮像姿勢を推定する推定部を更に備え、
前記記憶部は、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較部は、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項1に記載の計測装置。
further comprising an estimating unit that estimates, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storage unit stores the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position and imaging position of the second imaging device that captured the second target image data. It is associated with the posture and stored as target image measurement information,
The comparison unit includes the second degree of distortion included in the target image measurement information in which the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device; Comparing with the first degree of distortion,
The measuring device according to claim 1.
前記計測制御部は、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出する第1距離算出部と、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出する第2距離算出部と、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するひずみ度算出部と、を備える、
請求項2に記載の計測装置。
The measurement control section includes:
A first distance calculation that estimates a first three-dimensional position for each pixel of the first target image data and calculates the shortest distance between the reference points using the first three-dimensional position indicating the reference point. Department and
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is a second distance calculation unit that calculates a minimum cost distance on the graph between nodes shown;
a distortion degree calculation unit that calculates the first distortion degree based on the ratio of the shortest distance and the minimum cost distance on the graph;
The measuring device according to claim 2.
前記記憶部は、前記第2の対象画像データの画素ごとに推定された第2の三次元位置と、前記第2の対象画像データに含まれる基準点とを更に記憶し、
前記第1距離算出部は、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項3に記載の計測装置。
The storage unit further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The first distance calculation unit adjusts the second three-dimensional position to the first three-dimensional position so that the first three-dimensional position and the second three-dimensional position overlap more. defining a reference point on the first target image data by calculating conversion information to be converted and applying the conversion information to a reference point included in the second target image data;
The measuring device according to claim 3.
前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって定義された前記第1の対象画像データ上の基準点を、前記第1の対象画像データに重畳することによって、入力支援画像を生成する生成部と、
前記入力支援画像を表示する表示部と、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付ける入力部と、
を更に備える請求項4に記載の計測装置。
By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , a generation unit that generates an input support image;
a display unit that displays the input support image;
an input unit that accepts designation of a reference line defined with the reference point as both ends via the input support image;
The measuring device according to claim 4, further comprising:
前記生成部は、前記比較部の比較結果に基づいて、前記基準線の表示形式を決定し、前記基準線を前記第1の対象画像データに重畳した計測結果画像データを生成し、前記計測結果画像データを前記表示部に出力する、
請求項5に記載の計測装置。
The generation unit determines a display format of the reference line based on the comparison result of the comparison unit, generates measurement result image data in which the reference line is superimposed on the first target image data, and generates measurement result image data in which the reference line is superimposed on the first target image data. outputting image data to the display section;
The measuring device according to claim 5.
前記生成部は、前記基準線と、前記最小コスト距離を有するグラフ上の経路との間の隔たりの度合いを示すシンボルを、前記第1の対象画像データに更に重畳した前記計測結果画像データを生成する、
請求項6に記載の計測装置。
The generation unit generates the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. do,
The measuring device according to claim 6.
対象物を含む第1の対象画像データを取得するステップと、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測するステップと、
前記基準線に対応付けられた第2のひずみ度を記憶するステップと、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力するステップと、
を含む計測方法。
acquiring first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; measuring a first degree of distortion indicating the degree of distortion of the object on the reference line from the first three-dimensional position;
storing a second degree of distortion associated with the reference line;
Comparing the first degree of distortion and the second degree of distortion and outputting a comparison result;
Measurement methods including.
前記第1の対象画像データから、前記第1の対象画像データを撮像した第1の撮像装置の撮像位置及び撮像姿勢を推定するステップを更に含み、
前記記憶するステップは、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較するステップは、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項8に記載の計測方法。
The method further includes the step of estimating, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storing step includes storing the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position of the second imaging device that captured the second target image data, and Store it as target image measurement information in association with the imaging posture,
In the step of comparing, the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device with the second degree of distortion included in the target image measurement information; Comparing with the first degree of strain;
The measuring method according to claim 8.
前記計測するステップは、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出するステップと、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出するステップと、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するステップと、を含む、
請求項9に記載の計測方法。
The measuring step includes:
estimating a first three-dimensional position for each pixel of the first target image data, and calculating the shortest distance between the reference points using the first three-dimensional position indicating the reference point;
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is calculating a minimum cost distance on the graph between the nodes shown;
calculating the first degree of distortion based on the ratio of the shortest distance and the minimum cost distance on the graph;
The measuring method according to claim 9.
前記記憶するステップは、前記第2の対象画像データの画素ごとに推定された第2の三次元位置と、前記第2の対象画像データに含まれる基準点とを更に記憶し、
前記最短距離を算出するステップは、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項10に記載の計測方法。
The storing step further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The step of calculating the shortest distance includes changing the second three-dimensional position to the first three-dimensional position so that the overlap between the first three-dimensional position and the second three-dimensional position becomes larger. defining a reference point on the first target image data by calculating conversion information for converting into the second target image data and applying the conversion information to a reference point included in the second target image data;
The measuring method according to claim 10.
前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって定義された前記第1の対象画像データ上の基準点を、前記第1の対象画像データに重畳することによって、入力支援画像を生成するステップと、
前記入力支援画像を表示するステップと、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付けるステップと、
を更に含む請求項11に記載の計測方法。
By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , generating an input assistance image;
Displaying the input support image;
receiving, via the input support image, a designation of a reference line defined with the reference point as both ends;
The measuring method according to claim 11, further comprising:
前記生成するステップは、前記比較するステップの比較結果に基づいて、前記基準線の表示形式を決定し、前記基準線を前記第1の対象画像データに重畳した計測結果画像データを生成し、前記計測結果画像データを表示部に出力する、
請求項12に記載の計測方法。
The generating step determines the display format of the reference line based on the comparison result of the comparing step, generates measurement result image data in which the reference line is superimposed on the first target image data, and the Outputs the measurement result image data to the display section,
The measuring method according to claim 12.
前記生成するステップは、前記基準線と、前記最小コスト距離を有するグラフ上の経路との間の隔たりの度合いを示すシンボルを、前記第1の対象画像データに更に重畳した前記計測結果画像データを生成する、
請求項13に記載の計測方法。
The generating step includes generating the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. generate,
The measuring method according to claim 13.
コンピュータを、
対象物を含む第1の対象画像データを取得する取得部と、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記第1の対象画像データ上に定義される基準点と、前記基準点を両端として定義される基準線と、前記第1の三次元位置とから、前記基準線上の前記対象物のひずみの度合いを示す第1のひずみ度を計測する計測制御部と、
前記基準線に対応付けられた第2のひずみ度を記憶する記憶部と、
前記第1のひずみ度と前記第2のひずみ度とを比較し、比較結果を出力する比較部、
として機能させるためのプログラム。
computer,
an acquisition unit that acquires first target image data including the target object;
A first three-dimensional position is estimated for each pixel of the first target image data, a reference point defined on the first target image data, and a reference line defined with the reference point as both ends; a measurement control unit that measures a first degree of distortion indicating a degree of distortion of the object on the reference line from the first three-dimensional position;
a storage unit that stores a second degree of distortion associated with the reference line;
a comparison unit that compares the first degree of distortion and the second degree of distortion and outputs a comparison result;
A program to function as
前記第1の対象画像データから、前記第1の対象画像データを撮像した第1の撮像装置の撮像位置及び撮像姿勢を推定する推定部を更に備え、
前記記憶部は、前記第2のひずみ度を、前記第2のひずみ度が計測された第2の対象画像データ、前記第2の対象画像データを撮像した第2の撮像装置の撮像位置及び撮像姿勢と関連付けて、対象画像計測情報として記憶し、
前記比較部は、前記第1の撮像装置の撮像位置及び撮像姿勢が、前記第2の撮像装置の撮像位置及び撮像姿勢により近い前記対象画像計測情報に含まれる前記第2のひずみ度と、前記第1のひずみ度とを比較する、
請求項15に記載のプログラム。
further comprising an estimating unit that estimates, from the first target image data, an imaging position and an imaging posture of a first imaging device that captured the first target image data;
The storage unit stores the second degree of distortion in the second target image data in which the second degree of distortion was measured, the imaging position and imaging position of the second imaging device that captured the second target image data. It is associated with the posture and stored as target image measurement information,
The comparison unit includes the second degree of distortion included in the target image measurement information in which the imaging position and imaging orientation of the first imaging device are closer to the imaging position and imaging orientation of the second imaging device; Comparing with the first degree of distortion,
The program according to claim 15.
前記計測制御部は、
前記第1の対象画像データの画素ごとに第1の三次元位置を推定し、前記基準点を示す第1の三次元位置を用いて、前記基準点間の最短距離を算出する第1距離算出部と、
前記第1の対象画像データの画素に対応する第1の三次元位置の集合に対してエッジを定義することで、前記第1の三次元位置をノードとするグラフを生成し、前記基準点を示すノード間の前記グラフ上の最小コスト距離を算出する第2距離算出部と、
前記最短距離と、前記グラフ上の最小コスト距離との比によって前記第1のひずみ度を算出するひずみ度算出部と、を備える、
請求項16に記載のプログラム。
The measurement control section includes:
A first distance calculation that estimates a first three-dimensional position for each pixel of the first target image data and calculates the shortest distance between the reference points using the first three-dimensional position indicating the reference point. Department and
By defining edges for a set of first three-dimensional positions corresponding to pixels of the first target image data, a graph with the first three-dimensional positions as nodes is generated, and the reference point is a second distance calculation unit that calculates a minimum cost distance on the graph between nodes shown;
a distortion degree calculation unit that calculates the first distortion degree based on the ratio of the shortest distance and the minimum cost distance on the graph;
The program according to claim 16.
前記記憶部は、前記第2の対象画像データの画素ごとに推定された第2の三次元位置と、前記第2の対象画像データに含まれる基準点とを更に記憶し、
前記第1距離算出部は、前記第1の三次元位置と、前記第2の三次元位置との重なりがより大きくなるように、前記第2の三次元位置を前記第1の三次元位置に変換する変換情報を算出し、前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって、前記第1の対象画像データ上の基準点を定義する、
請求項17に記載のプログラム。
The storage unit further stores a second three-dimensional position estimated for each pixel of the second target image data and a reference point included in the second target image data,
The first distance calculation unit adjusts the second three-dimensional position to the first three-dimensional position so that the first three-dimensional position and the second three-dimensional position overlap more. defining a reference point on the first target image data by calculating conversion information to be converted and applying the conversion information to a reference point included in the second target image data;
The program according to claim 17.
前記第2の対象画像データに含まれる基準点に、前記変換情報を適用させることによって定義された前記第1の対象画像データ上の基準点を、前記第1の対象画像データに重畳することによって、入力支援画像を生成する生成部と、
前記入力支援画像を表示する表示部と、
前記入力支援画像を介して、前記基準点を両端として定義される基準線の指定を受け付ける入力部と、
を更に備える請求項18に記載のプログラム。
By superimposing, on the first target image data, a reference point on the first target image data defined by applying the conversion information to a reference point included in the second target image data. , a generation unit that generates an input support image;
a display unit that displays the input support image;
an input unit that accepts designation of a reference line defined with the reference point as both ends via the input support image;
The program according to claim 18, further comprising:
前記生成部は、前記比較部の比較結果に基づいて、前記基準線の表示形式を決定し、前記基準線を前記第1の対象画像データに重畳した計測結果画像データを生成し、前記計測結果画像データを前記表示部に出力する、
請求項19に記載のプログラム。
The generation unit determines a display format of the reference line based on the comparison result of the comparison unit, generates measurement result image data in which the reference line is superimposed on the first target image data, and generates measurement result image data in which the reference line is superimposed on the first target image data. outputting image data to the display section;
The program according to claim 19.
前記生成部は、前記基準線と、前記最小コスト距離を有するグラフ上の経路との間の隔たりの度合いを示すシンボルを、前記第1の対象画像データに更に重畳した前記計測結果画像データを生成する、
請求項20に記載のプログラム。
The generation unit generates the measurement result image data in which a symbol indicating the degree of gap between the reference line and the path on the graph having the minimum cost distance is further superimposed on the first target image data. do,
The program according to claim 20.
JP2021150463A 2021-09-15 2021-09-15 Measuring device, measuring method and program Active JP7443303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021150463A JP7443303B2 (en) 2021-09-15 2021-09-15 Measuring device, measuring method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021150463A JP7443303B2 (en) 2021-09-15 2021-09-15 Measuring device, measuring method and program

Publications (2)

Publication Number Publication Date
JP2023043005A JP2023043005A (en) 2023-03-28
JP7443303B2 true JP7443303B2 (en) 2024-03-05

Family

ID=85724174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021150463A Active JP7443303B2 (en) 2021-09-15 2021-09-15 Measuring device, measuring method and program

Country Status (1)

Country Link
JP (1) JP7443303B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075019A (en) 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device
JP2007093392A (en) 2005-09-29 2007-04-12 Aisin Seiki Co Ltd Three-dimensional shape evaluation method and three-dimensional shape evaluation device
JP2007263611A (en) 2006-03-27 2007-10-11 Yokohama Rubber Co Ltd:The Distortion measuring instrument and method
JP2009241968A (en) 2008-03-31 2009-10-22 Kuraray Kuraflex Co Ltd Vegetables and fruits packaging body
JP2016084579A (en) 2014-10-23 2016-05-19 国立研究開発法人産業技術総合研究所 Monitoring method and monitoring device for deflection amount distribution of structure

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075019A (en) 1999-09-01 2001-03-23 Olympus Optical Co Ltd Endoscope device
JP2007093392A (en) 2005-09-29 2007-04-12 Aisin Seiki Co Ltd Three-dimensional shape evaluation method and three-dimensional shape evaluation device
JP2007263611A (en) 2006-03-27 2007-10-11 Yokohama Rubber Co Ltd:The Distortion measuring instrument and method
JP2009241968A (en) 2008-03-31 2009-10-22 Kuraray Kuraflex Co Ltd Vegetables and fruits packaging body
JP2016084579A (en) 2014-10-23 2016-05-19 国立研究開発法人産業技術総合研究所 Monitoring method and monitoring device for deflection amount distribution of structure

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森田 伊織,3D物体表面の特徴パラメータを利用した再メッシュ化手法,情報処理学会研究報告 Vol.2006 No.93,日本,社団法人情報処理学会,2006年09月09日,2006-CVIM-155,P.9-16

Also Published As

Publication number Publication date
JP2023043005A (en) 2023-03-28

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
US20200007855A1 (en) Stereo Correspondence and Depth Sensors
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
JP2019510311A (en) Method and computer program product for calibrating a stereo imaging system using a planar mirror
US10249052B2 (en) Stereo correspondence model fitting
US10977857B2 (en) Apparatus and method of three-dimensional reverse modeling of building structure by using photographic images
WO2014186970A1 (en) Systems and methods for generating three-dimensional models using sensed position data
EP3300025B1 (en) Image processing device and image processing method
JP6431404B2 (en) Attitude estimation model generation apparatus and attitude estimation apparatus
TW201616451A (en) System and method for selecting point clouds using a free selection tool
EP3633606A1 (en) Information processing device, information processing method, and program
US20240169712A1 (en) Image data processing method and apparatus
TW202014993A (en) Information processing device, program, and information processing method
US20180114339A1 (en) Information processing device and method, and program
JP7427615B2 (en) Information processing device, information processing method and program
US10529085B2 (en) Hardware disparity evaluation for stereo matching
TW201523510A (en) System and method for combining point clouds
JP7003617B2 (en) Estimator, estimation method, and estimation program
JP6249759B2 (en) Image processing method, image processing program, and image processing apparatus
JP7443303B2 (en) Measuring device, measuring method and program
JP7230722B2 (en) Image processing device and image processing method
JP6704536B1 (en) Moving amount estimating device, moving amount estimating method, and moving amount estimating program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R151 Written notification of patent or utility model registration

Ref document number: 7443303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151