JP2015206654A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2015206654A
JP2015206654A JP2014086612A JP2014086612A JP2015206654A JP 2015206654 A JP2015206654 A JP 2015206654A JP 2014086612 A JP2014086612 A JP 2014086612A JP 2014086612 A JP2014086612 A JP 2014086612A JP 2015206654 A JP2015206654 A JP 2015206654A
Authority
JP
Japan
Prior art keywords
target object
pattern
image
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014086612A
Other languages
Japanese (ja)
Other versions
JP6425406B2 (en
Inventor
祐一郎 廣田
Yuichiro Hirota
祐一郎 廣田
藤木 真和
Masakazu Fujiki
真和 藤木
小竹 大輔
Daisuke Kotake
大輔 小竹
その子 宮谷
Sonoko Miyatani
その子 宮谷
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014086612A priority Critical patent/JP6425406B2/en
Publication of JP2015206654A publication Critical patent/JP2015206654A/en
Application granted granted Critical
Publication of JP6425406B2 publication Critical patent/JP6425406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to determine a pattern direction suitable for accurately performing position and attitude measurement of a target object by taking the characteristics of the target object into consideration.SOLUTION: An information processing apparatus includes: image acquisition means for acquiring an image including a target object photographed by imaging means; calculation means for calculating information indicating a change in the shape of the target object; and determination means for determining the direction of a pattern to be projected on the target object by projection means on the basis of the information indicating a change in the shape.

Description

本発明は、パターンを投影して物体の位置姿勢を計測する技術に関する。   The present invention relates to a technique for measuring a position and orientation of an object by projecting a pattern.

物体の位置姿勢計測では画像を利用する三次元計測技術が広く使われている。画像を利用する三次元計測技術の代表的な方法の一つであるステレオ法では、相対的な位置及び姿勢が既知な二台のカメラ(ステレオカメラ)により撮影された画像から三角測量の原理に基づいて三次元計測を行う。ステレオカメラを利用する場合、画像上での輝度変化が少ない領域ではカメラ間で対応する点を探索するのが困難である。そのため、ステレオカメラに加えてプロジェクタなどの照明装置によって計測対象にパターンを投影することで対応点探索を容易にすることが広く行われている。また、ステレオカメラの一方のカメラをプロジェクタなどの照明装置に置き換え、カメラと照明装置をステレオペアとして利用する三次元計測も広く行われている。   In the measurement of the position and orientation of an object, a three-dimensional measurement technique using an image is widely used. In the stereo method, which is one of the representative methods of 3D measurement technology using images, the principle of triangulation is based on images taken by two cameras (stereo cameras) whose relative positions and orientations are known. Based on the 3D measurement. When using a stereo camera, it is difficult to search for a corresponding point between the cameras in an area where the luminance change on the image is small. Therefore, it is widely performed to easily search for corresponding points by projecting a pattern onto a measurement target using an illumination device such as a projector in addition to a stereo camera. In addition, three-dimensional measurement is widely performed in which one of the stereo cameras is replaced with an illumination device such as a projector, and the camera and the illumination device are used as a stereo pair.

このような照明装置を用いたステレオ計測においては投影パターンとして複数の線から成るパターンがしばしば用いられるが、その場合パターンの向きによって計測して得られる三次元計測点の分布や精度が変動する。特許文献1は、それぞれ異なる位置に2つのプロジェクタを配置し、まず一方のプロジェクタからパターンを投影しカメラで撮像する。撮像された画像に、投影されたパターンにより生じる影の影響が多く含まれ、三次元計測に適さないと判断された場合に、もう一方のプロジェクタによりパターンを投影することを開示している。   In stereo measurement using such an illuminating device, a pattern composed of a plurality of lines is often used as a projection pattern. In this case, the distribution and accuracy of three-dimensional measurement points obtained by measurement vary depending on the direction of the pattern. In Patent Document 1, two projectors are arranged at different positions, and a pattern is first projected from one projector and captured by a camera. It is disclosed that when a captured image includes many influences of shadows caused by a projected pattern and is determined to be unsuitable for three-dimensional measurement, the pattern is projected by the other projector.

特開平7―234113号公報JP-A-7-234113

しかしながら特許文献1に開示されている方法では、対象物体の三次元的な形状を考慮していないため、設定された線パターンは好適でない場合もある。例えば、対象物体の表面である方向に凹凸が繰り返されるような場合に、その凹凸が繰り返される方向に対して、垂直な方向に線パターンの長手方向を設定すると、表面の凹凸を測定することができない。   However, since the method disclosed in Patent Document 1 does not consider the three-dimensional shape of the target object, the set line pattern may not be suitable. For example, when unevenness is repeated in the direction of the surface of the target object, the surface unevenness can be measured by setting the longitudinal direction of the line pattern in a direction perpendicular to the direction in which the unevenness is repeated. Can not.

本発明は以上の課題に鑑みてなされたものであり、好適に対象物体の位置姿勢計測を行うためのパターンの方向を決定する方法ことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to determine a pattern direction for suitably measuring the position and orientation of a target object.

本発明の情報処理装置は、例えば、撮像手段により撮像された、対象物体を含む画像を取得する画像取得手段と、前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出手段と、前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備える。   The information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires an image including a target object captured by an imaging unit, and a calculation that calculates information indicating a change in the shape of the target object based on the image And a determining unit that determines the orientation of the pattern projected onto the target object by the projecting unit based on the information indicating the change in shape.

本発明により、対象物体の特性を考慮することで対象物体の位置姿勢計測を精度良く行うのに最適なパターン方向を決定することが可能になる。   According to the present invention, it is possible to determine the optimum pattern direction for accurately measuring the position and orientation of the target object by considering the characteristics of the target object.

本発明の情報処理装置を用いた位置姿勢計測システムの構成を示す。1 shows a configuration of a position and orientation measurement system using an information processing apparatus of the present invention. 本発明の第1の実施形態に係る装置の構成図を示す。1 shows a configuration diagram of an apparatus according to a first embodiment of the present invention. FIG. 本発明の第1の実施形態に係るフローチャートを示す。1 shows a flowchart according to a first embodiment of the present invention. 本発明の第1の実施形態の形状変化の分布の算出方法に係るフローチャートを示す。3 shows a flowchart according to a method for calculating a distribution of shape change according to the first embodiment of the present invention. 本発明の第1の実施形態に係る処理過程を示す図を示す。The figure which shows the process based on the 1st Embodiment of this invention is shown. 本発明の第1の実施形態に係る処理結果を提示する画面を示す。The screen which shows the processing result concerning a 1st embodiment of the present invention is shown. 本発明の第2の実施形態の情報処理装置の構成図を示す。The block diagram of the information processing apparatus of the 2nd Embodiment of this invention is shown. 本発明の第2の実施形態の形状変化の分布の算出方法に係るフローチャートを示す。The flowchart which concerns on the calculation method of distribution of the shape change of the 2nd Embodiment of this invention is shown. 本発明の第3の実施形態の形状変化の分布の算出方法に係るフローチャートを示す。The flowchart which concerns on the calculation method of distribution of the shape change of the 3rd Embodiment of this invention is shown. 本発明の第5の実施形態に係る情報処理装置の構成を示す。The structure of the information processing apparatus which concerns on the 5th Embodiment of this invention is shown. 本発明の第5の実施形態に係るプロジェクタへのパターンの設定を補助する画面の例を示す。10 shows an example of a screen for assisting in setting a pattern on a projector according to a fifth embodiment of the present invention. 本発明の第6の実施形態に係る装置の構成を示す。The structure of the apparatus which concerns on the 6th Embodiment of this invention is shown. 本発明の第6の実施形態に係るフローチャートを示す。9 shows a flowchart according to a sixth embodiment of the present invention. 本発明の第6の実施形態に係る選択した画面又はカメラをユーザに提示する画面の例を示す。The example of the screen which shows a user the selected screen or camera which concerns on the 6th Embodiment of this invention is shown. 本発明の情報処理装置のハードウェア構成を示す。1 shows a hardware configuration of an information processing apparatus of the present invention.

本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図15を用いて説明する。   Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.

図15は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1510は、バス1500を介して接続する各デバイスを統括的に制御する。CPU1510は、読み出し専用メモリ(ROM)1520に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1520に記憶されており、ランダムアクセスメモリ(RAM)1530に一時記憶され、CPU1510によって適宜実行される。また、入力I/F1540は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1550は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。   FIG. 15 is a hardware configuration diagram of the information device according to the present embodiment. In the figure, a CPU 1510 comprehensively controls each device connected via a bus 1500. The CPU 1510 reads and executes processing steps and programs stored in a read-only memory (ROM) 1520. In addition to the operating system (OS), each processing program, device driver, and the like according to the present embodiment are stored in the ROM 1520, temporarily stored in a random access memory (RAM) 1530, and appropriately executed by the CPU 1510. The input I / F 1540 is input as an input signal in a format that can be processed by the information processing apparatus 1 from an external device (display device, operation device, or the like). The output I / F 1550 outputs an output signal to an external device (display device) in a format that can be processed by the display device.

これらの各機能部は、CPU1510が、ROM1520に格納されたプログラムをRAM1530に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1510を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   Each of these functional units is realized by the CPU 1510 developing a program stored in the ROM 1520 in the RAM 1530 and executing processing according to each flowchart described later. Further, for example, when hardware is configured as an alternative to software processing using the CPU 1510, arithmetic units and circuits corresponding to the processing of each functional unit described here may be configured.

(第1の実施形態)
本実施形態では、物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向の距離点を密に計測できるよう投影パターンの向きを決定する。本実施形態では法線方向の変化が激しい方向を、対象物体を撮影した二次元画像をフーリエ変換し周波数のフーリエスペクトルが大きい方向とみなしてパターンの向きを決定する。これは法線方向の変化が激しい方向の周波数のフーリエスペクトルは大きくなると考えるからである。一般的に平行線のパターンを用いたアクティブステレオ方式の三次元計測では平行線の方向で最も密に距離点が計測できるので物体の法線方向の変化が激しい方向に平行線の方向が合うように投影パターンの向きを決定する。
(First embodiment)
In this embodiment, the distribution of shape changes, specifically the distribution of changes in the normal direction of the object surface, is taken into consideration as the object characteristics, and projection is performed so that distance points in the direction in which the normal direction changes rapidly can be measured closely. Determine the orientation of the pattern. In this embodiment, the direction of the pattern is determined by regarding the direction in which the normal direction changes drastically as a direction in which the two-dimensional image obtained by photographing the target object is Fourier transformed and the frequency has a large Fourier spectrum. This is because the Fourier spectrum of the frequency in the direction in which the change in the normal direction is drastically increased. In general, in active stereo 3D measurement using parallel line patterns, distance points can be measured most closely in the direction of parallel lines, so that the direction of parallel lines matches the direction in which the normal direction of the object changes drastically. Determine the orientation of the projection pattern.

以下、本実施形態の詳細を説明する。   Details of this embodiment will be described below.

図1は本実施形態に係る位置姿勢計測システムの構成の一例を示した図である。   FIG. 1 is a diagram illustrating an example of a configuration of a position and orientation measurement system according to the present embodiment.

本実施形態の情報処理装置10は、カメラ110と投影装置120と表示装置に接続されている。情報処理装置10は取得した画像中のパターンの検出結果に基づいて画像中の画素と液晶プロジェクタの投影画像中の画素の対応付けを行い三角測量により三次元形状を計算する。本実施形態はこのような三次元計測システムにおいて位置姿勢を計測するのに最適な投影光のパターンの向きを決定する情報処理装置である。   The information processing apparatus 10 according to the present embodiment is connected to a camera 110, a projection device 120, and a display device. The information processing apparatus 10 associates the pixels in the image with the pixels in the projection image of the liquid crystal projector based on the acquired pattern detection result, and calculates a three-dimensional shape by triangulation. The present embodiment is an information processing apparatus that determines the optimal pattern light projection direction for measuring the position and orientation in such a three-dimensional measurement system.

物体100は、位置姿勢を計測する対象物体である。   The object 100 is a target object for measuring the position and orientation.

カメラ110は、対象物体100の画像を撮像する。カメラ110は、モノクロカメラでもよいしカラーカメラでもよい。カメラ110の焦点距離や画像中心、レンズ歪みパラメータといった内部パラメータは予めキャリブレーションされているものとする。また、プロジェクタ120に対するカメラ110の相対的な位置及び姿勢(外部パラメータ)も予めキャリブレーションされているものとする。   The camera 110 captures an image of the target object 100. The camera 110 may be a monochrome camera or a color camera. It is assumed that internal parameters such as the focal length, image center, and lens distortion parameter of the camera 110 are calibrated in advance. It is assumed that the relative position and orientation (external parameters) of the camera 110 with respect to the projector 120 are also calibrated in advance.

プロジェクタ120は、対象物体100にパターンを投影する。プロジェクタ120には、例えば液晶プロジェクタが用いられるが、これに限られるものではない。パターン121は投影されたプロジェクタ120から投影されるパターンである。投影されるパターンは、平行線と各平行線を一意に識別できるように平行線上に付与した符号から構成される。パターンの投影は、液晶プロジェクタで画像を出力することで行い、出力する画像を変えることでパターンの方向を制御できる。カメラ110とプロジェクタ120の相対位置姿勢は予めキャリブレーションされており既知である。   The projector 120 projects a pattern on the target object 100. For example, a liquid crystal projector is used as the projector 120, but the projector 120 is not limited to this. A pattern 121 is a pattern projected from the projected projector 120. The pattern to be projected is composed of parallel lines and codes assigned on the parallel lines so that each parallel line can be uniquely identified. Pattern projection is performed by outputting an image with a liquid crystal projector, and the direction of the pattern can be controlled by changing the output image. The relative position and orientation of the camera 110 and the projector 120 are calibrated in advance and are known.

図2は本実施形態に係る情報処理装置10の構成を示した図である。   FIG. 2 is a diagram illustrating a configuration of the information processing apparatus 10 according to the present embodiment.

画像取得部130は、カメラ110によって撮影された画像を取得する。   The image acquisition unit 130 acquires an image captured by the camera 110.

パターン出力部140は、プロジェクタ120を制御してパターンを投影する。   The pattern output unit 140 controls the projector 120 to project a pattern.

形状変化算出部150は、対象物体の形状変化の分布を算出する。具体的には、対象物体の画像を処理してパターン方向を決定する為に用いる計測対象の形状変化の分布を算出する。   The shape change calculation unit 150 calculates the distribution of the shape change of the target object. Specifically, the distribution of the shape change of the measurement target used for determining the pattern direction by processing the image of the target object is calculated.

パターン方向決定部160は、プロジェクタ120によって投影されるパターンの方向を決定する。形状変化の分布に基づいてパターン方向を決定する。   The pattern direction determination unit 160 determines the direction of the pattern projected by the projector 120. The pattern direction is determined based on the distribution of the shape change.

三次元形状計算部170は、対象物体の三次元形状を計算する。具体的には、決定された方向でパターンが投影された対象物体の画像を処理して、対象物体表面の各位置の三次元座標を計算する。   The three-dimensional shape calculation unit 170 calculates the three-dimensional shape of the target object. Specifically, the image of the target object on which the pattern is projected in the determined direction is processed, and the three-dimensional coordinates of each position on the target object surface are calculated.

モデル保持部180は、対象物体の三次元形状を表す形状モデルを保持する。本実施形態では、情報処理装置10の内部の記憶領域に保持されているとして説明するが、外部の記憶媒体にモデルを保持しておき、その記憶媒体から取得してもかまわない。   The model holding unit 180 holds a shape model representing the three-dimensional shape of the target object. In the present embodiment, description will be made assuming that the information is stored in a storage area inside the information processing apparatus 10, but the model may be stored in an external storage medium and acquired from the storage medium.

位置姿勢導出部190は、対象物体の位置姿勢を導出する。三次元形状計算部240が算出した対象物体の三次元座標に対象物体の形状モデルをフィッティングすることで対象物体の位置姿勢を算出する。   The position / orientation deriving unit 190 derives the position / orientation of the target object. The position and orientation of the target object are calculated by fitting the shape model of the target object to the three-dimensional coordinates of the target object calculated by the three-dimensional shape calculation unit 240.

図3は本実施形態に係る処理手順を示したフローチャートである。   FIG. 3 is a flowchart showing a processing procedure according to this embodiment.

(ステップS301)
ステップS301では、形状変化算出部150が、対象物体の形状変化の分布を算出する。この処理についてはさらに図4のフローチャートを用いて詳しく説明する。
(Step S301)
In step S301, the shape change calculation unit 150 calculates the distribution of the shape change of the target object. This process will be further described in detail with reference to the flowchart of FIG.

(ステップS401)
ステップS401では、カメラ110が、対象物体の画像をプロジェクタでパターンを投影していない状態で撮影する。図5(a)はこのようにして取得した対象物体の画像を表す図である。
(Step S401)
In step S401, the camera 110 captures an image of the target object in a state where no pattern is projected by the projector. FIG. 5A is a diagram illustrating an image of the target object acquired in this way.

(ステップS402)
ステップS402では、形状変化算出部150は、取得した画像f(x、y)の離散的フーリエ変換F(u、v)を得る。(x、yは取得画像上の画素の二次元座標であり、fは当該画素の輝度値である。u、vはそれぞれx方向、y方向の空間周波数を表しFは当該周波数の複素数である。)
(ステップS403)
ステップS403では、形状変化算出部150は、パターンの方向を表すbinを作成する。ここでは180度を22.5度毎に分割して8個のbinを作成する。それぞれのbinは0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度を基準としたパターンの方向を表し、binのスコアはその方向が三次元計測にどの程度適しているかを示す数値である。各binのスコアは0で初期化する。本実施形態ではbinの数を8としたが、プロジェクタが切り替え可能なパターン方向の分解能に応じて分割数とその方向を決めてもよい。
(Step S402)
In step S402, the shape change calculation unit 150 obtains a discrete Fourier transform F (u, v) of the acquired image f (x, y). (X and y are two-dimensional coordinates of a pixel on the acquired image, f is a luminance value of the pixel, u and v are spatial frequencies in the x direction and y direction, respectively, and F is a complex number of the frequency. .)
(Step S403)
In step S403, the shape change calculation unit 150 creates a bin representing the pattern direction. Here, eight bins are created by dividing 180 degrees into 22.5 degrees. Each bin represents the pattern direction based on 0 degree, 22.5 degrees, 45 degrees, 67.5 degrees, 90 degrees, 112.5 degrees, 135 degrees, and 157.5 degrees, and the bin score is It is a numerical value indicating how well the direction is suitable for three-dimensional measurement. The score of each bin is initialized with 0. Although the number of bins is 8 in this embodiment, the number of divisions and the direction thereof may be determined according to the resolution of the pattern direction that can be switched by the projector.

(ステップS404)
ステップS404では、形状変化算出部150は、離散的フーリエ変換で得られた各u、vにおいてフーリエスペクトルを計算し、u、vに対応するbinのスコアに加算する。ここでフーリエスペクトルとはu、vにおける複素数Fの絶対値
(Step S404)
In step S404, the shape change calculation unit 150 calculates a Fourier spectrum at each u and v obtained by the discrete Fourier transform, and adds it to the bin score corresponding to u and v. Here, the Fourier spectrum is the absolute value of the complex number F in u and v.

Figure 2015206654

であり
Figure 2015206654

で定義される値である。ただし、Re{F(u、v)}、Im{F(u、v)}はそれぞれF(u、v)の実部と虚部を表す。こうして全てのデータにおいて、対応するbinのスコアにフーリエスペクトルの値を加算したものを形状変化の分布とする。図5(b)は離散的フーリエ変換の結果をu、v平面上にフーリエスペクトルを輝度として画像にしたものである。この図上で線分で区切られた領域400〜470がそれぞれ上記で説明したbinの0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度に対応している。このようにして各領域において輝度(フーリエスペクトル)を加算したものを形状変化の分布とする。図5(c)は形状変化の分布をヒストグラムにして図示したものである。
Figure 2015206654

And
Figure 2015206654

It is a value defined by. However, Re {F (u, v)} and Im {F (u, v)} represent a real part and an imaginary part of F (u, v), respectively. In this way, in all the data, the distribution of the shape change is obtained by adding the Fourier spectrum value to the corresponding bin score. FIG. 5B shows the result of the discrete Fourier transform as an image on the u and v planes with the Fourier spectrum as the luminance. In this figure, regions 400 to 470 divided by line segments are 0 degrees, 22.5 degrees, 45 degrees, 67.5 degrees, 90 degrees, 112.5 degrees, 135 degrees, and 157 of bin described above. Corresponds to 5 degrees. A shape change distribution is obtained by adding luminance (Fourier spectrum) in each region in this way. FIG. 5C shows the distribution of the shape change as a histogram.

説明を図3のフローチャートに戻して続きを説明する。   The description will be returned to the flowchart of FIG.

(ステップS302)
ステップS302では、パターン方向決定部160が、形状変化の分布で最もスコアが高いbinが表す方向をパターン方向として決定する。図5(c)の例では0度方向が取得される。本実施形態ではbinのスコアのみに基づいてパターン方向を決定したが、binのスコア以外の指標を組み合わせて使っても良い。例えば液晶プロジェクタの場合はパターン方向によってはアンチエイリアスがかかりパターンの像がボケるのでbinのスコアが良い方向の中からアンチエイリアスがかからない方向を優先的に選択しても良い。
(Step S302)
In step S302, the pattern direction determination unit 160 determines the direction represented by bin having the highest score in the distribution of shape changes as the pattern direction. In the example of FIG. 5C, the 0 degree direction is acquired. In this embodiment, the pattern direction is determined based only on the bin score, but an index other than the bin score may be used in combination. For example, in the case of a liquid crystal projector, anti-aliasing is applied depending on the pattern direction, and the pattern image is blurred. Therefore, a direction in which anti-aliasing is not applied may be preferentially selected from directions having a good bin score.

(ステップS303)
ステップS303では、パターン出力部140が、ステップS302で決定した方向でパターンを投影する。液晶プロジェクタでは内蔵する液晶パネルに出力した画像がそのまま投影パターンになるので決定されたパターン方向の画像を生成し液晶プロジェクタに出力することで決定された方向でパターンを投影する。
(Step S303)
In step S303, the pattern output unit 140 projects the pattern in the direction determined in step S302. In the liquid crystal projector, since the image output to the built-in liquid crystal panel becomes the projection pattern as it is, an image in the determined pattern direction is generated and output to the liquid crystal projector to project the pattern in the determined direction.

(ステップS304)
ステップS304では、画像取得部130が、パターンが投影されている状態の対象物体の画像を取得する。
(Step S304)
In step S304, the image acquisition unit 130 acquires an image of the target object on which the pattern is projected.

(ステップS305)
ステップS305では、三次元形状算出部170が、取得した画像を処理して対象物体の三次元形状、具体的には対象物体の表面上の距離点群を計算する。
(Step S305)
In step S305, the three-dimensional shape calculation unit 170 processes the acquired image to calculate the three-dimensional shape of the target object, specifically, the distance point group on the surface of the target object.

(ステップS306)
ステップS306では、位置姿勢導出部190が、モデル保持部180から対象物体の形状モデルを取得する。
(Step S306)
In step S <b> 306, the position / orientation deriving unit 190 acquires the shape model of the target object from the model holding unit 180.

(ステップS307)
ステップS307では、位置姿勢導出部190が、対象物体の距離点群に対象物体の形状モデルをフィッティングすることで対象物体の位置姿勢を算出する。モデルフィッティングは具体的には公知のICPアルゴリズムを使って対象物体の距離点群とモデルの間の三次元距離を最小化する位置姿勢を算出する。この時、対象物体の距離点群が凹凸に乏しく平面的であると平面内での位置が定まりにくい。本実施形態では上記で説明したように対象物体の凹凸が激しい方向を密に距離点群を計測することで位置が定まりやすくなり、位置姿勢の計測精度を向上することができる。
(Step S307)
In step S307, the position and orientation deriving unit 190 calculates the position and orientation of the target object by fitting the shape model of the target object to the distance point group of the target object. Specifically, the model fitting uses a known ICP algorithm to calculate a position and orientation that minimizes the three-dimensional distance between the distance point group of the target object and the model. At this time, if the distance point group of the target object is not flat and has a flat surface, the position in the plane is difficult to be determined. In the present embodiment, as described above, the position is easily determined by densely measuring the distance point group in the direction in which the unevenness of the target object is intense, and the position and orientation measurement accuracy can be improved.

なお、本実施形態ではパターンを複数の平行線のパターンとしたが、投影方向によって計測密度が異なるようなパターンであれば他の幾何模様をしたパターンでも本発明の実施は可能である。例えば平行線を識別するために符号を付与する代わりに平行線の各線の色を変えたパターンでもよい。更に、三次元計測は一枚のパターンを照射・撮影して行う方法だけでなく、複数のパターンを投影・撮影してもよい。例えば空間コード化法に用いる線幅の異なる複数のバイナリパターンでもよいし、位相シフト法に用いる複数の正弦波パターンでもよい。   In the present embodiment, the pattern is a pattern of a plurality of parallel lines. However, the present invention can be implemented with other geometric patterns as long as the measurement density varies depending on the projection direction. For example, a pattern in which the color of each line of the parallel lines is changed may be used instead of adding a code to identify the parallel lines. Furthermore, the three-dimensional measurement is not limited to a method in which a single pattern is irradiated and photographed, but a plurality of patterns may be projected and photographed. For example, a plurality of binary patterns having different line widths used in the spatial encoding method may be used, or a plurality of sine wave patterns used in the phase shift method may be used.

本実施形態ではbinの分割は領域同士の重なりをなくして排他的に行ったが、近傍のbinと重なりを持たせて設定しても良い。例えばプロジェクタのパターン方向の切り替え分解能が1度である場合は基準方向を1度ずつ180のbinを作成し、各binの幅を例えば30度としてもよい。こうすることでbinの分割数が多くなったときにノイズなどの影響で偶然的にスコアが高くなったbinが不適切に選択されるケースを除くことできる。   In this embodiment, the bin is divided exclusively without overlapping each other. However, the bin may be set so as to overlap with a nearby bin. For example, when the projector pattern direction switching resolution is 1 degree, 180 bins may be created for the reference direction one degree at a time, and the width of each bin may be 30 degrees, for example. By doing so, it is possible to exclude a case where a bin whose score is accidentally high due to the influence of noise or the like is inappropriately selected when the number of bin divisions increases.

本実施形態では最も高いスコアのbinが表す方向をパターン方向としたが実際には、プロジェクタのハードウェアの制約やカメラの位置の制約であらかじめ投影可能な方向の候補が絞り込まれている場合がある。例えば三次元計測における対応点を探索するエピポーラ線の方向とパターンの平行線の方向が平行に近いと、カメラ画像と液晶プロジェクタの投影画像間の対応画素を検出する精度が低下するのでこのようなパターン方向は適切ではない。また、そもそもハードウェアの機構的な制約であらゆる方向にはパターンの方向を設定できない場合も考えられる。このような状況を考慮してあらかじめパターン方向の設定可能な範囲を決めておき、この範囲の中で最も高いスコアのbinが表す方向をパターンの方向として決定してもよい。また、最もスコアの高いbinが表す方向以外に二番目、三番目にスコアの高いbinに対応する方向もパターン方向の候補として保持しておきユーザに提示し、最終的な判断をユーザ指示に基づいて決定してもよい。   In this embodiment, the direction represented by the bin with the highest score is set as the pattern direction. However, actually, there are cases where candidates for directions that can be projected are narrowed down in advance due to restrictions on the hardware of the projector and restrictions on the position of the camera. . For example, if the direction of the epipolar line for searching for the corresponding point in the three-dimensional measurement and the direction of the parallel line of the pattern are close to parallel, the accuracy of detecting the corresponding pixel between the camera image and the projection image of the liquid crystal projector is lowered. The pattern direction is not appropriate. In the first place, there may be a case where the pattern direction cannot be set in any direction due to hardware restrictions. In consideration of such a situation, a range in which the pattern direction can be set is determined in advance, and the direction represented by the bin having the highest score in the range may be determined as the pattern direction. In addition to the direction represented by the bin with the highest score, the direction corresponding to the bin with the second and third highest scores is also stored as a pattern direction candidate and presented to the user, and the final judgment is made based on the user instruction. May be determined.

本実施形態では、プロジェクタを液晶プロジェクタとして、液晶パネルへの出力を切り替えることでパターンの投影方向を切り替える方法を説明したが、本発明の実施はこれに限るものではない。すなわち、対象物体に対する投影するパターンの方向を機械的に切り替える手段を備えてもよい。例えば液晶プロジェクタの筐体もしくは液晶パネルを機械的に回転させることでパターンの投影方向を制御する方法でも良い。プロジェクタが、液晶プロジェクタではなく照射光をパターンが刻まれたスリット板に通すことでパターンの投影を行う方式のものである場合はスリット板を機械的に回転させることでパターンの投影方向を変えてもよい。さらにはパターンの投影方向を変えずに、対象物体を設置している台を回転させることで対象物体に対するパターンの投影方向を切り替えてもよい。   In the present embodiment, a method has been described in which the projector is a liquid crystal projector, and the pattern projection direction is switched by switching the output to the liquid crystal panel. However, the present invention is not limited to this. That is, a means for mechanically switching the direction of the pattern to be projected onto the target object may be provided. For example, a pattern projection direction may be controlled by mechanically rotating a housing of a liquid crystal projector or a liquid crystal panel. If the projector is not a liquid crystal projector but a method that projects the pattern by passing the irradiation light through the slit plate with the pattern engraved, the projection direction of the pattern can be changed by mechanically rotating the slit plate. Also good. Furthermore, the pattern projection direction on the target object may be switched by rotating the platform on which the target object is installed without changing the pattern projection direction.

以上述べたように、物体の凹凸が激しい方向を密に三次元計測できるよう投影するパターンの方向を決定することで位置姿勢計測を高精度化することができる。   As described above, the position and orientation measurement can be performed with high accuracy by determining the direction of the pattern to be projected so that the direction in which the unevenness of the object is intense can be densely three-dimensionally measured.

[変形例1−1]
第1の実施形態では、ステップS301において、形状変化算出部150が、形状変化の分布を法線方向の変化の分布とみなし、法線方向の変化の分布を対象物体の画像の離散的フーリエ変換によって算出する例を説明した。しかし、法線方向の変化の分布が求められるのであれば算出方法はこの方法に限るものではない。例えば対象物体の法線方向が激しく変化する方向は観測される画像の輝度変化も激しくなると考えて画像の輝度勾配に基づいて求めても良い。その場合は対象物体を撮影した画像の各画素における輝度勾配ベクトルを算出し、その輝度勾配ベクトルの方向に対応するbinのスコアに輝度勾配ベクトルの大きさを加算したものを形状変化の分布とする。
[Modification 1-1]
In the first embodiment, in step S301, the shape change calculation unit 150 regards the distribution of the shape change as the distribution of the change in the normal direction, and uses the distribution of the change in the normal direction as a discrete Fourier transform of the image of the target object. The example of calculating by the above has been described. However, the calculation method is not limited to this method as long as the distribution of changes in the normal direction is obtained. For example, the direction in which the normal direction of the target object changes drastically may be determined on the basis of the luminance gradient of the image, assuming that the luminance change of the observed image also increases. In this case, the luminance gradient vector at each pixel of the image obtained by photographing the target object is calculated, and the shape change distribution is obtained by adding the magnitude of the luminance gradient vector to the bin score corresponding to the direction of the luminance gradient vector. .

[変形例1−2]
第1の実施形態ではステップS301において、形状変化算出部150が、対象物体の画像全体から形状変化の分布を算出した。しかし、画像中に対象物体以外のものが写り込んでいる場合は先にテンプレートマッチングなどで対象物体の画像中における位置を絞り込んで、その領域についてのみ形状変化の分布を算出してパターン方向を決めてもよい。こうすることで対象物体以外の物体や背景の影響を除くことができる。さらに対象物体が画像中に複数あり、領域的に分離可能な場合は、領域を分割して各領域に対して形状変化の分布を算出してパターン方向を決めても良い。この場合、プロジェクタが液晶プロジェクタのように領域毎にパターン方向を切り替えることができる装置であれば一回の計測で領域毎に最適なパターン方向で計測することが可能である。
[Modification 1-2]
In the first embodiment, in step S301, the shape change calculation unit 150 calculates the distribution of shape change from the entire image of the target object. However, if something other than the target object appears in the image, the position of the target object in the image is narrowed down first by template matching, etc., and the pattern direction is determined by calculating the distribution of shape change only for that region. May be. By doing this, it is possible to eliminate the influence of objects other than the target object and the background. Further, when there are a plurality of target objects in the image and the regions can be separated, the pattern direction may be determined by dividing the region and calculating the distribution of the shape change for each region. In this case, if the projector is a device that can switch the pattern direction for each area, such as a liquid crystal projector, it is possible to measure with the optimum pattern direction for each area in one measurement.

[変形例1−3]
第1の実施形態では決定したパターン方向で対象物体の三次元形状を計測する方法を説明したが、さらに決定されたパターン方向をユーザへ提示する手段を伴ってもよい。この場合はパターン出力部140が外部の表示装置に決定されたパターン方向を出力し、表示装置は、パターン方向を提示する画面を表示する。
[Modification 1-3]
In the first embodiment, the method of measuring the three-dimensional shape of the target object in the determined pattern direction has been described. However, a means for presenting the determined pattern direction to the user may be included. In this case, the pattern output unit 140 outputs the determined pattern direction to an external display device, and the display device displays a screen that presents the pattern direction.

図6は決定されたパターンをユーザに提示する表示画面の一例である。領域500は、パターンの候補投影方向を示す領域であり、カメラで撮影した対象物体の画像が表示されている。線510は、決定したパターン方向で投影したパターンを表している。この図のように対象物体の画像にパターンを重畳して表示しても良いし、対象物体の位置姿勢と形状モデルが既知であるならばプロジェクタまたはカメラから見た対象物体とパターンの様子をシミュレーションでレンダリングした画像を表示してもよい。領域520は、領域500で選択されているパターンの投影方向を示す数値を表示する領域である。   FIG. 6 is an example of a display screen that presents the determined pattern to the user. An area 500 is an area indicating a pattern candidate projection direction, and displays an image of a target object captured by a camera. A line 510 represents a pattern projected in the determined pattern direction. As shown in this figure, a pattern may be superimposed on the image of the target object, or if the position and orientation of the target object and the shape model are known, the target object and pattern viewed from the projector or camera will be simulated The image rendered with may be displayed. The area 520 is an area for displaying a numerical value indicating the projection direction of the pattern selected in the area 500.

このようにして決定したパターンが対象物体に投影される様子を図示することでユーザへパターン方向を提示することが可能である。   It is possible to present the pattern direction to the user by illustrating how the pattern thus determined is projected onto the target object.

なお、ここで示した画面は一例であり、パターン方向を表示する画面であれば画面の構成要素やレイアウトはこの例に限らない。またパターン方向を決定する際に形状変化の分布から得られた2番目、3番目にふさわしいとされる候補方向についても画面に備えるボタンを押すことで切り替えて表示しても良いし、リストにして表示しても良い。   The screen shown here is an example, and the components and layout of the screen are not limited to this example as long as the screen displays the pattern direction. In addition, the second and third candidate directions obtained from the distribution of shape change when determining the pattern direction may be switched and displayed by pressing a button provided on the screen, or a list may be displayed. You may display.

(第2の実施形態)
第1の実施形態では対象物体を撮影した二次元画像に基づいて形状変化の分布を算出したが、本実施形態では対象物体の三次元形状に基づいて形状変化の分布を算出する方法を説明する。本実施形態においても第1の実施形態と同様に、物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向が密に計測できるよう投影パターンの向きを決める。ここでは法線方向の変化が激しい方向を対象物体の位置姿勢と形状モデルとから生成した距離画像をフーリエ変換し周波数のフーリエスペクトルが大きい方向とみなしてパターンの向きを決定する。このように対象物体の二次元画像ではなく三次元形状に基づいて形状変化の分布を算出することで物体の凹凸が激しい方向をパターン方向として、より正確に決定することができる。
(Second Embodiment)
In the first embodiment, the distribution of the shape change is calculated based on the two-dimensional image obtained by photographing the target object. In the present embodiment, a method for calculating the distribution of the shape change based on the three-dimensional shape of the target object will be described. . In this embodiment as well, in the same way as in the first embodiment, the distribution of the shape change, specifically the distribution of the change in the normal direction of the object surface, is taken into consideration as the object characteristics, Determine the orientation of the projection pattern so that it can be measured closely. In this case, the direction of the pattern is determined by subjecting the distance image generated from the position and orientation of the target object and the shape model to the direction in which the normal direction is drastically changed, and considering the direction having a large frequency Fourier spectrum as the direction. Thus, by calculating the distribution of the shape change based on the three-dimensional shape instead of the two-dimensional image of the target object, the direction in which the unevenness of the object is intense can be determined more accurately as the pattern direction.

本実施形態に係る三次元計測システムの構成を図1に、情報処理装置20の構成図を図7に示す。本実施形態は、第1の実施形態と、形状変化算出部220によるステップS301の処理が異なる。以降この差異について説明する。   The configuration of the three-dimensional measurement system according to the present embodiment is shown in FIG. 1, and the configuration diagram of the information processing apparatus 20 is shown in FIG. This embodiment is different from the first embodiment in the process of step S301 by the shape change calculation unit 220. Hereinafter, this difference will be described.

図7は処理ステップS301を本実施形態に係る方法で実施するときの詳細な手順を表すフローチャートである。   FIG. 7 is a flowchart showing a detailed procedure when processing step S301 is performed by the method according to the present embodiment.

(ステップS801)
ステップS801では、形状変化算出部750が、モデル保持部780から対象物体の形状モデルを取得する。
(Step S801)
In step S <b> 801, the shape change calculation unit 750 acquires the shape model of the target object from the model holding unit 780.

(ステップS802)
ステップS802では、画像取得部730が、カメラ110から対象物体の画像を取得する。
(Step S802)
In step S <b> 802, the image acquisition unit 730 acquires an image of the target object from the camera 110.

(ステップS803)
ステップS803では、形状変化算出部750が、テンプレートマッチングで対象物体の位置姿勢を算出(推定)する。具体的には事前に対象物体の形状モデルに基づいて対象物体の様々な姿勢の画像をシミュレーションにより生成し、テンプレート画像としておく。ステップS802で取得した対象物体の画像上でテンプレート画像をスライドさせて照合し、最もマッチするテンプレート画像を生成した対象物体の姿勢とその検出位置を対象物体の位置姿勢とする。
(Step S803)
In step S803, the shape change calculation unit 750 calculates (estimates) the position and orientation of the target object by template matching. Specifically, images of various postures of the target object are generated in advance based on the shape model of the target object, and set as a template image. The template image is slid on the image of the target object acquired in step S802 and collated, and the posture of the target object that generated the best matching template image and its detected position are set as the position and posture of the target object.

(ステップS804)
ステップS804では、形状変化算出部750が、カメラから見た物体の距離画像をシミュレーションで生成する。具体的にはステップS703までで算出した対象物体の位置姿勢と形状モデル情報とを用いてカメラで撮影した場合の各画素の光線方向でぶつかる物体表面の距離を算出し各画素の値とすることで距離画像とする。
(Step S804)
In step S804, the shape change calculation unit 750 generates a distance image of the object viewed from the camera by simulation. Specifically, using the position and orientation of the target object calculated up to step S703 and the shape model information, the distance of the object surface that collides in the light ray direction of each pixel when the image is captured by the camera is calculated and used as the value of each pixel. The distance image.

(ステップS805)
ステップS805では、形状変化算出部750が、距離画像f(x、y)の離散的フーリエ変換F(u、v)を得る。(x、yは距離画像上の画素の二次元座標であり、fは当該画素の距離値である。u、vはそれぞれx方向、y方向の空間周波数を表しFは当該周波数の複素数である。)
ステップS806、ステップS807はそれぞれステップS403、ステップS404と同様の処理を距離画像の離散的フーリエ変換結果に対して行う。
(Step S805)
In step S805, the shape change calculation unit 750 obtains a discrete Fourier transform F (u, v) of the distance image f (x, y). (X and y are two-dimensional coordinates of a pixel on a distance image, f is a distance value of the pixel, u and v are spatial frequencies in the x and y directions, respectively, and F is a complex number of the frequency. .)
In steps S806 and S807, processing similar to that in steps S403 and S404 is performed on the discrete Fourier transform result of the distance image, respectively.

上記の処理の他は、第1の実施形態と同様の処理を行うことでパターン方向を決定し対象物体の位置姿勢を計測することができる。   In addition to the above processing, the pattern orientation can be determined and the position and orientation of the target object can be measured by performing the same processing as in the first embodiment.

なお、本実施形態では対象物体の画像中における位置姿勢をテンプレートマッチングで算出したが、位置姿勢の算出方法はこの方法に限らない。例えば、仮のパターン方向で計測した対象物体の三次元計測結果に対象物体の形状モデルをフィッティングすることで、より精度の高い位置姿勢を求める。そして、求められた位置姿勢に基づいてシミュレーションで距離画像を生成し、フーリエ変換をして形状変化の分布を算出してもよい。さらに、対象物体の位置姿勢は外部の供給装置(ロボットなど)から直接取得してもよい。   In the present embodiment, the position and orientation of the target object in the image is calculated by template matching. However, the position and orientation calculation method is not limited to this method. For example, a more accurate position and orientation is obtained by fitting the shape model of the target object to the three-dimensional measurement result of the target object measured in the temporary pattern direction. Then, a distance image may be generated by simulation based on the obtained position and orientation, and a Fourier transform may be performed to calculate a shape change distribution. Furthermore, the position and orientation of the target object may be obtained directly from an external supply device (such as a robot).

以上述べたように、物体の凹凸が激しい方向を密に三次元計測できるようパターン方向をより正確に算出するために、対象物体の二次元画像ではなく三次元形状に基づいて決定する方法を説明した。対象物体の凹凸が激しい方向を密に距離点群を計測することで位置が定まりやすくなり、位置姿勢計測を高精度化することができる。   As described above, in order to calculate the pattern direction more accurately so that three-dimensional measurement can be performed densely in the direction where the unevenness of the object is intense, the method of determining based on the three-dimensional shape instead of the two-dimensional image of the target object is explained. did. By closely measuring the distance point group in a direction in which the unevenness of the target object is intense, the position can be easily determined, and the position and orientation measurement can be made highly accurate.

(第3の実施形態)
本実施形態では精度よく位置姿勢計測を行うためには三次元距離点の精度が高くなるよう三次元形状を計測することが望ましいと考える。一般的に平行線のパターンを用いたアクティブステレオ方式の三次元計測ではパターンが当たっている表面がパターンの平行線の方向に直交する方向に傾斜すると光の線が太くなり、画像中から線を検出する精度が落ちる。一方でパターンの平行線の方向に傾斜している場合は光の線の太さは変わらないため検出精度も落ちない。そこで本実施形態では物体の特性として形状変化の分布、具体的にはパターンが当たる対象物体の表面の法線方向の分布を考慮する。そして、対象物体の傾斜方向と平行線の方向が同じ方向になるようパターンの投影方向を決めることで三次元形状計測を高精度に行う方法を説明する。
(Third embodiment)
In this embodiment, in order to accurately measure the position and orientation, it is desirable to measure the three-dimensional shape so that the accuracy of the three-dimensional distance point is increased. In general, in active stereo 3D measurement using a pattern of parallel lines, if the surface on which the pattern hits tilts in a direction perpendicular to the direction of the parallel lines of the pattern, the light line becomes thicker, and the line is drawn from the image. The accuracy of detection decreases. On the other hand, when the pattern is inclined in the direction of the parallel lines, the thickness of the light line does not change, and the detection accuracy does not decrease. Therefore, in the present embodiment, the distribution of the shape change, specifically, the distribution in the normal direction of the surface of the target object hit by the pattern is considered as the object characteristic. Then, a method for performing three-dimensional shape measurement with high accuracy by determining the projection direction of the pattern so that the direction of inclination of the target object and the direction of the parallel lines are the same will be described.

本実施形態に係る三次元計測システムの構成、及びシステム構成に含まれる情報処理装置の構成図は第2の実施形態で示した図1、図7と同様であるため、各機能部の番号は、第1の実施形態と同じ番号を与えて説明する。本実施形態では、第2の実施形態の形状変化算出部750によるステップS803〜805の処理が異なる。以降この差異について説明する。   Since the configuration of the three-dimensional measurement system according to this embodiment and the configuration diagram of the information processing apparatus included in the system configuration are the same as those in FIGS. 1 and 7 shown in the second embodiment, the numbers of the functional units are In the following description, the same numbers as those in the first embodiment are given. In the present embodiment, the processing in steps S803 to S805 by the shape change calculation unit 750 of the second embodiment is different. Hereinafter, this difference will be described.

図9はステップS301を本実施形態に係る方法で実施するときの詳細な手順を表すフローチャートである。   FIG. 9 is a flowchart showing a detailed procedure when step S301 is performed by the method according to the present embodiment.

(ステップS901)
ステップS901では、形状変化算出部750は、対象物体の形状モデルを取得する。
(Step S901)
In step S901, the shape change calculation unit 750 acquires a shape model of the target object.

(ステップS902)
ステップS902では、形状変化算出部750は、対象物体の位置姿勢を算出する。この算出方法は第2の実施形態で説明したステップS803の処理と同様であるのでここでの説明は割愛する。
(Step S902)
In step S902, the shape change calculation unit 750 calculates the position and orientation of the target object. Since this calculation method is the same as the processing in step S803 described in the second embodiment, description thereof is omitted here.

(ステップS903)
ステップS903では、形状変化算出部750は、プロジェクタから対象物体の表面を観測した時の、表面法線の方向を算出する。具体的にはステップS902までで算出した対象物体の位置姿勢と形状モデル情報を用いてカメラで撮影した場合の各画素の光線方向でぶつかる物体表面の法線方向を算出する。
(Step S903)
In step S903, the shape change calculation unit 750 calculates the direction of the surface normal when the surface of the target object is observed from the projector. Specifically, using the position and orientation of the target object calculated up to step S902 and the shape model information, the normal direction of the object surface that collides with the light ray direction of each pixel when the image is captured by the camera is calculated.

(ステップS904)
ステップS904では、形状変化算出部750は、パターンの方向を表すbinを作成する。ここでは180度を22.5度毎に分割して8個のbinを作成する。そして各binのスコアを0で初期化する。
(Step S904)
In step S904, the shape change calculation unit 750 creates a bin representing the pattern direction. Here, eight bins are created by dividing 180 degrees into 22.5 degrees. The score of each bin is initialized with 0.

(ステップS905)
ステップS905では、形状変化算出部750は、ステップS803で算出した各画素における対象物体の法線方向のカメラ視線方向に対する傾斜方向を算出する。そして、傾斜方向に対応するbinのスコアに1を加算する。こうして全ての画素においてbinのスコアに加算したものを形状変化の分布とする。
(Step S905)
In step S905, the shape change calculation unit 750 calculates the tilt direction with respect to the camera viewing direction of the normal direction of the target object in each pixel calculated in step S803. Then, 1 is added to the score of bin corresponding to the tilt direction. In this way, the sum of the bin scores in all the pixels is used as the distribution of shape change.

上記の処理の他は第1の実施形態と同様の処理を行う。ステップS302では第1の実施形態と同様にパターン方向決定部160が形状変化の分布で最もスコアが高いbinが表す方向をパターン方向として決定する。これにより、対象物体の傾斜方向と平行線の方向が同じ方向になり対象物体の位置姿勢を精度良く計測することができる。   Other than the above processing, the same processing as in the first embodiment is performed. In step S302, as in the first embodiment, the pattern direction determining unit 160 determines the direction represented by bin having the highest score in the distribution of shape change as the pattern direction. Thereby, the inclination direction of the target object and the direction of the parallel line become the same direction, and the position and orientation of the target object can be accurately measured.

本実施形態では各画素で傾斜方向に対応するbinのスコアに1を加算したが、プロジェクタに対する傾斜角度が大きいほどパターンの太さも太くなり計測精度もより低くなる。そこで一律同じ値を加算するのではなく例えば傾斜方向における傾斜角度を加算することで重みを付けても良い。   In this embodiment, 1 is added to the score of bin corresponding to the tilt direction in each pixel. However, the greater the tilt angle with respect to the projector, the thicker the pattern and the lower the measurement accuracy. Therefore, instead of adding the same value uniformly, for example, the weight may be added by adding the tilt angle in the tilt direction.

本実施形態では法線方向の分布を対象物体の形状モデルと位置姿勢に基づいて算出したが、法線方向の分布の算出方法はこの方法に限らない。例えば別途三次元計測を行って得られた三次元点群にメッシュを張って法線を計算しても良い。   In this embodiment, the distribution in the normal direction is calculated based on the shape model and the position and orientation of the target object. However, the method for calculating the distribution in the normal direction is not limited to this method. For example, a normal may be calculated by applying a mesh to a three-dimensional point group obtained by separately performing three-dimensional measurement.

以上述べたように、パターンが当たる対象物体の表面の傾斜方向と平行線の方向が同じ方向になるようパターン方向を決めることで三次元計測の精度を上げ、位置姿勢計測を高精度化する方法を説明した。   As described above, the method of increasing the accuracy of three-dimensional measurement and increasing the accuracy of position and orientation measurement by determining the pattern direction so that the direction of the parallel line is the same as the direction of inclination of the surface of the target object hit by the pattern Explained.

(第4の実施形態)
本実施形態の情報処理装置の構成は、図2の第1の実施形態に係る情報処理装置10と同様である。第1の実施形態のステップS307において対象物体の位置姿勢計算部260が行うモデルフィッティングでは対象物体の距離点群とモデルの間の三次元距離を最小化する方式を説明したが、本実施形態では、異なる方式でフィッティングを行う。
(Fourth embodiment)
The configuration of the information processing apparatus of this embodiment is the same as that of the information processing apparatus 10 according to the first embodiment of FIG. In the model fitting performed by the target object position / orientation calculation unit 260 in step S307 of the first embodiment, the method of minimizing the three-dimensional distance between the distance point group of the target object and the model has been described. , Fitting in different ways.

本実施形態では、対象物体の表面にテクスチャがある場合、その対象物体に対して、上記のような二次元画像と距離点群に対するモデルフィッティングをハイブリッドに実施する場合の投影するパターンの方向を決定する方法について説明する。   In this embodiment, when there is a texture on the surface of the target object, the direction of the pattern to be projected when the model fitting for the two-dimensional image and the distance point group as described above is performed hybridly on the target object is determined. How to do will be described.

本実施形態は、第1の実施形態のステップS301、ステップS302、ステップS307の処理が異なる。
(ステップS301)
ステップS301では、形状変化算出部150は、取得した対象物体の画像に基づいて勾配の変化の画像,すなわちエッジ画像を算出する。
This embodiment is different in the processing of step S301, step S302, and step S307 of the first embodiment.
(Step S301)
In step S301, the shape change calculation unit 150 calculates a gradient change image, that is, an edge image, based on the acquired image of the target object.

(ステップS302)
ステップS302では、パターン方向決定部160は、ステップS301で得られた二次元画像の輝度勾配の変化に基づいて、投影するパターンの方向を決定する。本実施形態では、上記のように、ステップS307で行うフィッティングの方式が第1の実施形態と異なるため、パターンの方向の決定についても異なる処理を行う。
(Step S302)
In step S302, the pattern direction determination unit 160 determines the direction of the pattern to be projected based on the change in the luminance gradient of the two-dimensional image obtained in step S301. In the present embodiment, as described above, since the fitting method performed in step S307 is different from that in the first embodiment, a different process is performed for determining the pattern direction.

すなわち、本実施形態では、エッジ画像とモデルとのフィッティングと、距離点群とモデルとのフィッティングとをハイブリッドに実施する。具体的には対象物体の三次元形状,すなわち距離点群とモデルの間の三次元距離と,対象物体のエッジ画像上のエッジとエッジ画像に投影したモデルの間の二次元距離とを同時に最小化して位置姿勢を算出する。   That is, in this embodiment, the fitting between the edge image and the model and the fitting between the distance point group and the model are performed in a hybrid manner. Specifically, the three-dimensional shape of the target object, that is, the three-dimensional distance between the distance point cloud and the model, and the two-dimensional distance between the edge on the edge image of the target object and the model projected on the edge image are minimized simultaneously. To calculate the position and orientation.

このようなハイブリッドなモデルフィッティングにおけるパターンの方向の決定の仕方について以下で説明する。   A method of determining the pattern direction in such hybrid model fitting will be described below.

まず、二次元画像に対する輝度勾配に基づいたモデルフィッティングでは輝度勾配の変化が大きい方向の位置姿勢は精度よく定まるが、その一方で輝度勾配の変化が小さい方向の位置姿勢は定まりにくい。そこで本実施形態のハイブリッドなモデルフィッティング方式では,二次元画像の輝度勾配の変化が少ない方向に投影光のパターン方向を合わせて密に三次元形状(距離点群)を計算する。こうすることで二次元画像のみに対してフィッティングする場合の位置姿勢の精度不足を補償し,最終的に得る位置姿勢の計測精度を向上させることができる。   First, in the model fitting based on the luminance gradient for the two-dimensional image, the position and orientation in the direction in which the change in the luminance gradient is large can be accurately determined, but on the other hand, the position and orientation in the direction in which the change in the luminance gradient is small is difficult to be determined. Therefore, in the hybrid model fitting method of this embodiment, the three-dimensional shape (distance point group) is calculated densely by aligning the pattern direction of the projection light with the direction in which the change in the luminance gradient of the two-dimensional image is small. By doing so, it is possible to compensate for the insufficient accuracy of the position and orientation when fitting only to a two-dimensional image, and to improve the accuracy of the finally obtained position and orientation.

二次元画像の輝度勾配変化の小さい方向の算出は第1の実施形態のステップS403と同様にパターン方向に対応するbinを作成する.次に対象物体を撮影した画像の各画素における輝度勾配変化のベクトルを算出し、その輝度勾配変化ベクトルの方向に対応するbinのスコアに輝度勾配変化ベクトルの大きさを加算してできたヒストグラムを形状変化の分布とし,この分布において最もスコアの小さい方向を選択する。こうして得られたパターン方向は第1〜3の実施形態で説明した方法で得られるパターン方向とは異なる方向になるが,二次元画像に対するフィッティングで算出した位置姿勢の精度不足を補うことができることから,本実施形態におけるハイブリッドなフィッティング方式では最適なパターン方向である。   For the calculation of the direction in which the luminance gradient change of the two-dimensional image is small, a bin corresponding to the pattern direction is created as in step S403 of the first embodiment. Next, calculate the vector of the luminance gradient change at each pixel of the image of the target object and add the magnitude of the luminance gradient change vector to the bin score corresponding to the direction of the luminance gradient change vector. The distribution of shape change is selected, and the direction with the smallest score in this distribution is selected. Although the pattern direction obtained in this way is different from the pattern direction obtained by the method described in the first to third embodiments, it is possible to compensate for the insufficient accuracy of the position and orientation calculated by fitting to the two-dimensional image. In the hybrid fitting method according to this embodiment, the pattern direction is optimum.

なお、本実施形態では、輝度勾配の変化を算出し、輝度勾配の変化に基づいて、パターンの方向を決定したが、輝度勾配を算出し、輝度勾配に基づいてパターンの方向を算出してもかまわない。   In this embodiment, the change in the luminance gradient is calculated and the pattern direction is determined based on the change in the luminance gradient. However, the luminance gradient is calculated and the pattern direction is calculated based on the luminance gradient. It doesn't matter.

(ステップS307)
ステップS307では、位置姿勢導出部190は、上記のハイブリッドなフィッティング方式で、対象物体の位置姿勢を導出する。
(Step S307)
In step S307, the position / orientation deriving unit 190 derives the position / orientation of the target object using the hybrid fitting method described above.

以上本実施形態では、二次元画像と距離画像とに対するモデルフィッティングをハイブリッドに実施する位置姿勢計測システムにおいて、二次元画像のフィッティングで位置が定まりにくい方向を密に三次元計測できるようパターン方向を決定する。これにより、位置姿勢計測を高精度化することができる。   As described above, in the present embodiment, in the position and orientation measurement system that performs model fitting for two-dimensional images and distance images in a hybrid manner, the pattern direction is determined so that directions in which the position is difficult to be determined by fitting two-dimensional images can be densely measured in three dimensions. To do. Thereby, the position and orientation measurement can be made highly accurate.

(第5の実施形態)
本実施形態の情報処理装置90は、図10に示すように、外部に表示装置91が接続されている。プロジェクタの外部パラメータが定まっていないシステムにおいては、第1の実施形態のステップS303において決定されたパターン方向をプロジェクタに自動的に設定することができない。このようなシステムでは第1〜第4の実施形態のいずれかに係る方法で決定したパターン方向をユーザがプロジェクタに設定するのを補助する機能を備えてもよい。本実施形態ではユーザがプロジェクタに決定したパターン方向を設定するのを補助する手段を伴う実施方法を説明する。
(Fifth embodiment)
As shown in FIG. 10, the information processing apparatus 90 of the present embodiment has a display device 91 connected to the outside. In a system in which external parameters of the projector are not determined, the pattern direction determined in step S303 of the first embodiment cannot be automatically set in the projector. Such a system may have a function of assisting the user in setting the pattern direction determined by the method according to any of the first to fourth embodiments to the projector. In the present embodiment, an implementation method including means for assisting the user to set the determined pattern direction for the projector will be described.

図11は、表示装置91の表示画面に表示される対象物体の様子を確認しながら決定されたパターン方向に実際のパターンの投影方向を設定するのを補助する画面の例である。表示装置91は、パターン出力部940から出力されるパターンを受け取り、表示画面に表示する。この点で、パターン出力部は表示制御部として機能する。   FIG. 11 is an example of a screen that assists in setting the projection direction of the actual pattern to the pattern direction determined while confirming the state of the target object displayed on the display screen of the display device 91. The display device 91 receives the pattern output from the pattern output unit 940 and displays it on the display screen. In this respect, the pattern output unit functions as a display control unit.

領域600はカメラで撮影した対象物体を表示する領域である。パターン610は、設定したい見本として表示しているは第1〜第4の実施形態のいずれかに係る方法によって決定したパターンである。パターン620は、現在の設定角度で実際にプロジェクタから投影されているパターンである。スライダバー630は、プロジェクタのパターン方向を調整するスライダバーでありスライダバーの値に連動してプロジェクタのパターン方向を変えることができる。ユーザは画面で確認しながらパターン620がパターン610に重なるようにスライダバー630を調整することでパターンの方向を調節することできる。数値640は現在のプロジェクタが投影しているパターンの方向を示す数値である。   An area 600 is an area for displaying a target object photographed by the camera. The pattern 610 is a pattern that is displayed as a sample to be set and determined by the method according to any of the first to fourth embodiments. The pattern 620 is a pattern that is actually projected from the projector at the current set angle. The slider bar 630 is a slider bar that adjusts the pattern direction of the projector, and can change the pattern direction of the projector in conjunction with the value of the slider bar. The user can adjust the direction of the pattern by adjusting the slider bar 630 so that the pattern 620 overlaps the pattern 610 while checking on the screen. A numerical value 640 is a numerical value indicating the direction of the pattern projected by the current projector.

なお、パターン方向を切り替える機構が備わっていないシステムにおいてはスライダバー630を使用せずにユーザが画面を確認しながら手動でプロジェクタのパターン方向を設定しても良い。   In a system that does not have a mechanism for switching the pattern direction, the user may manually set the pattern direction of the projector while checking the screen without using the slider bar 630.

なお、あくまでこの画面は一例であり決定されたパターン方向で投影できるようプロジェクタを設定する為の情報を表示することでユーザを補助できる構成を備える画面であれば画面の構成要素やレイアウトはこの例に限らない。   This screen is only an example, and if the screen has a configuration that can assist the user by displaying information for setting the projector so that projection can be performed in the determined pattern direction, the components and layout of the screen are this example Not limited to.

以上述べたように、本実施形態は、第1〜第4の実施形態のいずれかに係る方法で決定したパターン方向をユーザがプロジェクタに設定するのを補助する画面を表示することについて説明した。これにより、パターン方向を切り替える機構が備わっていない装置を用いる場合や、プロジェクタの外部パラメータが定まっていないシステムにおいてもユーザが効率よくプロジェクタのパターン方向を設定することができる。   As described above, the present embodiment has explained that the screen for assisting the user to set the pattern direction determined by the method according to any one of the first to fourth embodiments to the projector is displayed. Thus, the user can efficiently set the pattern direction of the projector even when using a device that does not have a mechanism for switching the pattern direction or in a system in which external parameters of the projector are not determined.

(第6の実施形態)
第1〜第5の実施形態では三次元計測システムの構成においてカメラが1台の場合の説明をしたが本実施形態ではカメラが複数台の場合について説明する。複数台のカメラを用いる構成においては第1〜第5の実施形態のいずれかに係る方法で決定した方向でパターンを投影して対象物体の三次元形状を計測する際に、三次元形状計測を行うべき画像を決定する手段を備える必要がある。画像の決定は当該画像の三次元形状の計算における適性に基づいて決定する。平行線のパターンを用いたアクティブステレオ方式の三次元計測においては画像中におけるステレオの対応探索を行うエピポーラ線の方向と平行線のパターン方向が90度に近い程対応を精度よく求めることができる。そこで本実施形態では画像中におけるエピポーラ線の方向と平行線のパターン方向が90度に近い程、三次元形状の計算における適性が高いとする。複数台のカメラから取得され得る各画像に対して三次元形状の計算における適性を算出して最も適性が高い画像を三次元形状計算に用いるべき画像として決定する。以下本実施形態による対象物体の位置姿勢の算出方法を説明する。なお、本実施形態においても第1の実施形態と同様に物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向が密に計測できるよう投影パターンの向きを決める。
(Sixth embodiment)
In the first to fifth embodiments, the case where there is one camera in the configuration of the three-dimensional measurement system has been described, but in this embodiment, the case where there are a plurality of cameras will be described. In the configuration using a plurality of cameras, when measuring the three-dimensional shape of the target object by projecting the pattern in the direction determined by the method according to any of the first to fifth embodiments, the three-dimensional shape measurement is performed. It is necessary to provide means for determining an image to be performed. The image is determined on the basis of suitability in calculating the three-dimensional shape of the image. In active stereo 3D measurement using a parallel line pattern, the correspondence can be obtained more accurately as the direction of the epipolar line for searching the correspondence of stereo in the image and the pattern direction of the parallel line are closer to 90 degrees. Therefore, in the present embodiment, it is assumed that the aptitude in the calculation of the three-dimensional shape is higher as the direction of the epipolar line in the image and the pattern direction of the parallel line are closer to 90 degrees. For each image that can be acquired from a plurality of cameras, the suitability for calculating the three-dimensional shape is calculated, and the image having the highest suitability is determined as the image to be used for the three-dimensional shape calculation. Hereinafter, a method for calculating the position and orientation of the target object according to the present embodiment will be described. In this embodiment as well, in the same way as in the first embodiment, the shape change distribution, specifically the distribution change in the normal direction of the object surface, is taken into consideration as the object characteristics, and the direction in which the normal direction change is significant. The direction of the projection pattern is determined so that can be measured closely.

図12は、本実施形態に係る情報処理装置60の構成を示している。本実施形態では画像取得部1230に複数台のカメラ110が接続されている。画像決定部1291は、複数のカメラが取得する画像から現在投影しているパターン方向に基づいて三次元形状の計算に用いる画像を決定する。対象物体の三次元形状計算部1270は選択された画像を用いて三次元形状の計算を行う。その他の装置構成は第1の実施形態と同様である。   FIG. 12 shows the configuration of the information processing apparatus 60 according to the present embodiment. In the present embodiment, a plurality of cameras 110 are connected to the image acquisition unit 1230. The image determination unit 1291 determines an image used for calculation of a three-dimensional shape based on the pattern direction currently projected from images acquired by a plurality of cameras. The target object three-dimensional shape calculation unit 1270 calculates a three-dimensional shape using the selected image. Other device configurations are the same as those in the first embodiment.

図13は本実施形態に係る処理手順を示したフローチャートである。以降このフローチャートに沿って本実施形態に係る具体的な処理手順を説明する。   FIG. 13 is a flowchart showing a processing procedure according to this embodiment. Hereinafter, a specific processing procedure according to the present embodiment will be described with reference to this flowchart.

(ステップS1301)
ステップS1301では、形状変化算出部1250が、形状変化の分布を算出する。複数のカメラで取得した各画像に対してこれまでの実施形態で説明したいずれかの方法で算出した対象物体の形状変化の分布の和を本実施形態における形状変化の分布とする。
(Step S1301)
In step S1301, the shape change calculation unit 1250 calculates the distribution of shape changes. The sum of the shape change distributions of the target object calculated by any of the methods described in the above embodiments for each image acquired by a plurality of cameras is used as the shape change distribution in this embodiment.

ステップS1302、ステップ1303はそれぞれステップS302、ステップS303と同様の処理でありこれまでに説明した実施形態のいずれかの方法で実現される。   Steps S1302 and 1303 are the same processes as steps S302 and S303, respectively, and are realized by any of the methods of the embodiments described above.

(ステップS1304)
ステップS1304では、画像取得部1230が複数のカメラで画像を取得する。
(Step S1304)
In step S1304, the image acquisition unit 1230 acquires images with a plurality of cameras.

(ステップS1305)
ステップS1305では、画像決定部1291が、三次元形状計算に使用すべき画像を選択する。まず、各カメラが取得する画像中におけるパターンの方向を求める。この方向はステップS1302で決められたパターン方向とあらかじめキャリブレーションによって求められているプロジェクタと当該カメラとの相対位置姿勢によって算出される。次にステレオの対応付けに用いるエピポーラ線の方向を求める。この方向は当該カメラとプロジェクタとの相対位置姿勢によって算出される。この相対位置姿勢もあらかじめキャリブレーションによって求められている。こうして画像中における平行線のパターンの方向とエピポーラ線の方向の成す角度を各カメラの画像について求め、角度が最も90度に近いカメラの画像に決定する。
(Step S1305)
In step S1305, the image determination unit 1291 selects an image to be used for 3D shape calculation. First, the direction of the pattern in the image acquired by each camera is obtained. This direction is calculated based on the pattern direction determined in step S1302 and the relative position and orientation between the projector and the camera, which are obtained in advance by calibration. Next, the direction of the epipolar line used for stereo correspondence is obtained. This direction is calculated from the relative position and orientation of the camera and projector. This relative position and orientation is also obtained in advance by calibration. In this way, the angle formed by the direction of the pattern of parallel lines and the direction of the epipolar line in the image is obtained for each camera image, and the angle of the camera closest to 90 degrees is determined.

ステップS1306以降の処理は、ステップS305以降の処理と同様の処理でありこれまでに説明した実施形態のいずれかの方法で実現される。   The processing after step S1306 is the same processing as the processing after step S305, and is realized by any method of the embodiments described so far.

本実施形態のステップS1301では、複数のカメラで画像を取得して形状変化の分布を算出したが必ずしも複数のカメラを使用する必要はなく、パターン方向を決定する為の画像を取得するのに適した一台のカメラを選択してもよい。例えばプロジェクタに最も近いカメラで取得した画像を用いて求めた形状変化の分布を用いてパターンの向きを決定してもよい。   In step S1301 of this embodiment, the distribution of the shape change is calculated by acquiring images with a plurality of cameras, but it is not always necessary to use a plurality of cameras, and is suitable for acquiring an image for determining the pattern direction. A single camera may be selected. For example, the orientation of the pattern may be determined using a distribution of shape changes obtained using an image acquired by a camera closest to the projector.

本実施形態では、プロジェクタの投影画像とカメラの画像との間でステレオ対応を取ることを想定して1台のカメラの画像に決定する方法を説明した。しかし、ステレオ対応にプロジェクタを用いずにカメラ同士の組み合わせを選択する場合でも同様に本発明の実施は可能である。その場合は全てのカメラの組み合わせにおいて同様に平行線のパターンの方向とエピポーラ線の方向の成す角度を算出し、算出された角度が最も90度に近いカメラの組み合わせを選択すればよい。   In the present embodiment, the method of determining the image of one camera on the assumption that stereo correspondence between the projection image of the projector and the image of the camera has been described. However, the present invention can be similarly implemented even when a combination of cameras is selected without using a projector for stereo correspondence. In that case, the angle formed between the direction of the pattern of parallel lines and the direction of the epipolar line may be calculated in the same way for all combinations of cameras, and the combination of cameras with the calculated angle closest to 90 degrees may be selected.

本実施形態では画像中におけるパターンの方向はプロジェクタとカメラの相対位置姿勢に基づいた幾何計算で求めたが、複数のカメラで実際に画像を取得し、各画像からパターンを検出することでより厳密に画像中におけるパターンの方向を算出しても良い。   In this embodiment, the direction of the pattern in the image is obtained by geometric calculation based on the relative position and orientation of the projector and the camera. However, the image is actually acquired by a plurality of cameras, and the pattern is detected more accurately from each image. Alternatively, the direction of the pattern in the image may be calculated.

本実施形態において使用する画像をパターン方向とプロジェクタとカメラの相対位置姿勢から静的に求められる場合は、当該画像を撮影するカメラのみで画像を撮影することで、それ以外のカメラで撮影した画像の処理は省いて効率化してもよい。   When the image used in the present embodiment is statically obtained from the pattern direction and the relative position and orientation of the projector and the camera, the image captured by the other camera is captured by capturing the image only with the camera capturing the image. This process may be omitted to improve efficiency.

本実施形態ではステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度が90度に近い画像に決定する方法を説明した。しかし、必ずしも画像の取捨選択をする必要はなく、エピポーラ線の方向とパターン方向の成す角度に基づいて重みを決定してその重みを用いて複数のカメラの画像を用いた三次元形状計算結果を統合しても良い。   In the present embodiment, the method of determining an image in which the angle between the direction of the epipolar line for performing the stereo correspondence search and the direction of the pattern of the parallel lines is close to 90 degrees has been described. However, it is not always necessary to select images. The weight is determined based on the angle between the epipolar line direction and the pattern direction, and the three-dimensional shape calculation result using the images of a plurality of cameras is used. You may integrate.

以上述べたように、ステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度が90度に近い画像を選択することにより、三次元形状計算の精度を上げ、位置姿勢計測を高精度化することができる。   As described above, by selecting an image in which the angle between the direction of the epipolar line for performing the stereo correspondence search and the direction of the pattern of the parallel lines is close to 90 degrees, the accuracy of the three-dimensional shape calculation is improved, and the position and orientation measurement is performed. High accuracy can be achieved.

[変形例6−1]
アクティブステレオ方式の三次元計測では画像中からパターンの検出が困難な鏡面反射が起こっている領域やパターンが届かない領域では三次元点が計測できない。そこで、本変形例では、三次元形状の計算における適性として上記で説明した画像中におけるパターンの方向とエピポーラ線の方向の成す角度の他に、計測可能領域を考慮する例を説明する。
[Modification 6-1]
In active stereo 3D measurement, 3D points cannot be measured in areas where specular reflection is difficult to detect from an image or areas where the pattern does not reach. Therefore, in this modification, an example in which a measurable area is considered in addition to the angle formed by the pattern direction and the epipolar line direction in the image described above will be described as suitability for calculation of a three-dimensional shape.

具体的にはステップS1304においてパターン方向とエピポーラ線の方向の成す角度が所定の角度よりも大きい画像を複数確保し、これらの画像の中から鏡面反射や影による計測不能領域が最も小さいものを選択する。計測不能領域はプロジェクタの全画素を点灯した状態でカメラで対象物体を撮影し、画像中の輝度が所定値よりも大きい領域を鏡面反射によって計測不能な領域とし、所定値よりも小さい領域を影によって計測不能な領域として判定する。   Specifically, in step S1304, a plurality of images in which the angle formed by the pattern direction and the epipolar line direction is larger than a predetermined angle are secured, and the image having the smallest non-measurable region due to specular reflection or shadow is selected from these images. To do. The non-measurable area is obtained by photographing the target object with the camera with all pixels of the projector turned on, and the area where the luminance in the image is larger than the predetermined value is set as the area that cannot be measured by specular reflection, and the area that is smaller than the predetermined value is shadowed. Is determined as an unmeasurable area.

なお、上記では計測不能領域を画像の輝度に基づいて算出したが、対象物体の形状と表面の性質、プロジェクタ及びカメラの位置姿勢を別途取得可能であればこれらの情報に基づいて幾何的に算出しても良い。この場合、カメラから見てプロジェクタから発する光線が対象物体の表面で反射したのちにカメラに正面から入射するときに対象物体上の反射した領域が鏡面反射する素材である場合は、そこで鏡面反射が発生しており計測不能な領域とする。対象物体の表面で反射せずプロジェクタからの光が届かない領域で且つカメラから観測できる領域を影によって計測不能な領域として判定する。   In the above, the non-measurable area was calculated based on the brightness of the image. However, if the shape and surface properties of the target object and the position and orientation of the projector and camera can be obtained separately, geometrically calculated based on these information. You may do it. In this case, if the light reflected from the projector as viewed from the camera is reflected from the surface of the target object and then the reflected area on the target object enters the camera from the front, the specular reflection occurs there. An area that has occurred and cannot be measured. An area that is not reflected by the surface of the target object and does not reach the light from the projector and that can be observed from the camera is determined as an area that cannot be measured by a shadow.

上記ではパターン方向とエピポーラ線の方向の成す角度が90度に近く且つ計測不能領域が最も小さいカメラの画像を選択した。しかし、必ずしも一つの画像を選択する必要はなく、領域毎に使用する画像を切り替えてもよい。例えばまずパターン方向とエピポーラ線の方向の成す角度が最も90度に近いカメラの画像を選ぶ。そして、その画像中で計測可能な領域はその画像を用いて三次元形状を計算し、計測不能な領域は角度がなるべく90度に近い別のカメラで、且つ当該領域を計測可能であるカメラの画像を用いて三次元形状を計算すればよい。さらに領域毎に三次元形状に使用する画像を切り替えるだけでなく、投影光のパターン方向を切り替えてもよい。   In the above description, a camera image in which the angle formed by the pattern direction and the epipolar line direction is close to 90 degrees and the non-measurable area is the smallest is selected. However, it is not always necessary to select one image, and the image to be used may be switched for each region. For example, first, an image of a camera whose angle between the pattern direction and the epipolar line direction is closest to 90 degrees is selected. Then, the measurable area in the image is calculated by using the image, and the three-dimensional shape is calculated. The non-measurable area is another camera whose angle is as close to 90 degrees as possible, and the area where the area can be measured. What is necessary is just to calculate a three-dimensional shape using an image. Furthermore, not only the image used for the three-dimensional shape may be switched for each region, but the pattern direction of the projection light may be switched.

以上述べたように、画像の輝度に基づき計測可能な領域を算出することで対象物体の計測が困難な鏡面反射や影の領域があっても対象物体の三次元形状を計測し高精度に位置姿勢を計測する方法を説明した。   As described above, by calculating the measurable area based on the brightness of the image, even if there is a specular reflection or shadow area where it is difficult to measure the target object, the three-dimensional shape of the target object is measured and positioned with high accuracy. Explained how to measure posture.

[変形例6−2]
本実施形態で説明した画像の決定部1291はステップS1305において決定したカメラ及びその画像をユーザに提示しても良い。
[Modification 6-2]
The image determination unit 1291 described in this embodiment may present the camera determined in step S1305 and the image thereof to the user.

図14はステップS1305で決定したカメラ及びその画像をユーザに提示する画面の一例である。領域700は候補カメラを選択するボタン760で現在選択されているカメラの画像を表示する領域である。パターン710は、投影されているパターンであり、領域720はこのカメラとプロジェクタとのステレオ対応を探索するエピポーラ線の方向を示している。領域730は決定された画像の属性を表示する領域で当該画像を撮影するカメラの番号、画像中におけるパターンの方向、エピポーラ探索方向、エピポーラ探索方向とパターンの方向が成す角度などを表示する。領域740はシステムの構成要素であるプロジェクタとカメラの配置を表示する領域である。対象物体の形状と位置姿勢が別途取得可能な場合は対象物体も表示する。図中ではステップS1305で決定された画像を撮影しているカメラが分かるよう当該カメラを強調して表示する(750)。760は候補カメラを選択するボタンであり、S1305で算出された当該カメラの画像の三次元形状の計算における適性の順に候補が並べられている。このボタンで選択することで任意のカメラ及び画像を領域700、領域740に表示することができる。   FIG. 14 shows an example of a screen that presents the camera determined in step S1305 and its image to the user. An area 700 is an area for displaying an image of a camera currently selected by a button 760 for selecting a candidate camera. A pattern 710 is a projected pattern, and an area 720 indicates the direction of an epipolar line for searching for stereo correspondence between the camera and the projector. An area 730 is an area for displaying the determined attribute of the image, and displays the number of the camera that captures the image, the pattern direction in the image, the epipolar search direction, the angle formed by the epipolar search direction and the pattern direction, and the like. An area 740 displays an arrangement of projectors and cameras that are components of the system. If the shape and position / posture of the target object can be obtained separately, the target object is also displayed. In the figure, the camera is highlighted and displayed so that the camera taking the image determined in step S1305 can be seen (750). Reference numeral 760 denotes a button for selecting a candidate camera. The candidates are arranged in the order of suitability in the calculation of the three-dimensional shape of the image of the camera calculated in S1305. By selecting with this button, an arbitrary camera and image can be displayed in the area 700 and the area 740.

以上述べたように、ステップS1305において画像決定部260が決定したカメラ及び画像をユーザが確認できるように提示する方法を説明した。   As described above, the method of presenting the camera and the image determined by the image determination unit 260 in step S1305 so that the user can confirm has been described.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

<定義>
本発明における物体の特性とは三次元計測で得られる結果を特徴づける物体の特性であればどのようなものであってもよい。一例が第1〜3の実施形態の形状変化の分布である。
<Definition>
The object characteristic in the present invention may be any object characteristic that characterizes a result obtained by three-dimensional measurement. An example is the distribution of shape change in the first to third embodiments.

本発明における物体の形状変化の分布とは物体の形状に起因して三次元計測で得られる結果を特徴づけるものであればどのようなものであってもよい。その一例が第1、2の実施形態の法線方向の変化の分布や、第3の実施形態の法線方向の分布である。   The distribution of the shape change of the object in the present invention may be any as long as it characterizes the result obtained by the three-dimensional measurement due to the shape of the object. One example is the distribution of changes in the normal direction of the first and second embodiments and the distribution of the normal direction of the third embodiment.

本発明における法線方向の変化の分布とは、直接算出するのが困難であれば二次元画像の特徴から求めた法線方向の変化に相関のある値も含む。その一例が第1の実施形態の対象物体の二次元画像のフーリエ変換のフーリエスペクトルの強度の分布や、二次元画像の勾配の強度の分布である。また、第2の実施形態の対象物体の距離画像のフーリエ変換のフーリエスペクトルの強度の分布もその一例である。   The distribution of the change in the normal direction in the present invention includes a value correlated with the change in the normal direction obtained from the characteristics of the two-dimensional image if it is difficult to directly calculate. One example is the intensity distribution of the Fourier spectrum of the Fourier transform of the two-dimensional image of the target object of the first embodiment and the intensity distribution of the gradient of the two-dimensional image. In addition, the intensity distribution of the Fourier spectrum of the Fourier transform of the distance image of the target object according to the second embodiment is an example.

本発明における三次元形状の算出に適した画像とは、当該画像で三次元形状の計算をする場合の条件が好適なものであればその尺度はどのようなものであってもよい。一例が第6の実施形態で説明した画像中におけるステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度に基づくもので三次元形状の計算の精度を尺度としている。また、[変形例6−1]で説明した画像中における対象物体の計測が困難な鏡面反射や影の領域の大きさが小さいことも尺度の一例である。   An image suitable for calculation of a three-dimensional shape in the present invention may be any scale as long as the conditions for calculating the three-dimensional shape with the image are suitable. An example is based on the angle formed by the direction of the epipolar line for performing the stereo correspondence search in the image described in the sixth embodiment and the direction of the pattern of the parallel lines, and the accuracy of calculation of the three-dimensional shape is taken as a scale. Another example of the scale is that the size of a specular reflection or shadow region in which it is difficult to measure the target object in the image described in [Modification 6-1] is small.

110 カメラ
120 プロジェクタ
130 画像取得部
140 パターン出力部
150 形状変化算出部
160 パターン方向決定部
170 三次元形状計算部
180 モデル保持部
190 位置姿勢導出部
DESCRIPTION OF SYMBOLS 110 Camera 120 Projector 130 Image acquisition part 140 Pattern output part 150 Shape change calculation part 160 Pattern direction determination part 170 Three-dimensional shape calculation part 180 Model holding part 190 Position and orientation derivation part

Claims (19)

撮像手段により撮像された、対象物体を含む画像を取得する画像取得手段と、
前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出手段と、
前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。
Image acquisition means for acquiring an image including a target object imaged by the imaging means;
Calculation means for calculating information indicating a change in the shape of the target object based on the image;
An information processing apparatus comprising: a determining unit that determines a direction of a pattern to be projected onto the target object by a projecting unit based on information indicating the change in shape.
前記算出手段は、前記画像に基づいて、前記対象物体の位置姿勢を推定し、該位置姿勢に基づいて、前記形状の変化を示す情報を算出することを特徴とする請求項1に記載の情報処理装置。   The information according to claim 1, wherein the calculation unit estimates a position and orientation of the target object based on the image, and calculates information indicating a change in the shape based on the position and orientation. Processing equipment. 前記形状の変化を示す情報は、前記対象物体の表面の法線方向の分布または前記対象物体の表面の法線方向の変化の分布であることを特徴とする請求項1または2に記載の情報処理装置。   3. The information according to claim 1, wherein the information indicating the change in shape is a distribution in a normal direction of a surface of the target object or a distribution of a change in a normal direction of the surface of the target object. Processing equipment. 前記決定手段は、前記形状の変化を示す情報に基づいて、形状の変化がより多く現れる方向を前記パターンの向きとして決定することを特徴とする請求項1ないし3のいずれか1項に記載の情報処理装置。   4. The determination unit according to claim 1, wherein the determining unit determines a direction in which a change in shape appears more as a direction of the pattern based on information indicating the change in the shape. 5. Information processing device. 前記決定手段は、前記形状の変化を示す情報と前記投影手段が投影可能なパターンの向きとに基づいて前記パターンの向きを決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The said determination means determines the direction of the said pattern based on the information which shows the change of the said shape, and the direction of the pattern which the said projection means can project, The one of the Claims 1 thru | or 4 characterized by the above-mentioned. The information processing apparatus described. 対象物体を含む二次元画像と該対象物体を示す距離点群それぞれと、前記対象物体のモデルとを対応づけることにより、前記対象物体の位置姿勢を取得する位置姿勢計測システムで用いられる前記距離点群を取得するためのパターンの方向を決定するための情報処理装置であって、
撮像手段により撮像された、対象物体を含む画像を取得する画像取得手段と、
前記画像に基づいて、前記画像の輝度勾配の変化を導出する導出手段と、
前記導出した輝度勾配の変化に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。
The distance point used in the position and orientation measurement system for acquiring the position and orientation of the target object by associating the two-dimensional image including the target object with each of the distance point groups indicating the target object and the model of the target object An information processing apparatus for determining a pattern direction for acquiring a group,
Image acquisition means for acquiring an image including a target object imaged by the imaging means;
Derivation means for deriving a change in luminance gradient of the image based on the image;
An information processing apparatus comprising: a determining unit that determines a direction of a pattern to be projected onto the target object by a projecting unit based on the derived change in luminance gradient.
前記決定手段は、前記輝度勾配がより少なく現れる方向を前記パターンの向きとして決定することを特徴とする請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the determination unit determines a direction in which the luminance gradient appears less as a direction of the pattern. 前記決定手段により決定された前記パターンの向きを表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a display control unit that causes a display unit to display a direction of the pattern determined by the determination unit. 更に、前記決定手段により決定したパターンの向きで前記対象物体にパターンを投影する投影手段を備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a projection unit that projects a pattern onto the target object in a pattern direction determined by the determination unit. 前記決定手段で決定されたパターンの向きを有するパターンを投影する投影手段と、前記パターンが投影された対象物体を撮像する複数の撮像手段を備え、
前記画像取得手段は、前記複数の撮像手段で撮像された複数の画像を取得し、
更に、前記取得した複数の画像のうちから、前記対象物体の三次元計測に用いるための画像を決定する画像決定手段を備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
A projection unit that projects a pattern having a pattern orientation determined by the determination unit; and a plurality of imaging units that capture the target object on which the pattern is projected,
The image acquisition unit acquires a plurality of images captured by the plurality of imaging units,
10. The apparatus according to claim 1, further comprising an image determination unit that determines an image to be used for three-dimensional measurement of the target object from the plurality of acquired images. Information processing device.
前記画像決定手段は、前記複数の撮像装置それぞれと前記投影装置との配置に基づいて、前記取得した複数の画像のうちから、前記対象物体の三次元計測に用いるための画像を決定することを特徴とする請求項10に記載の情報処理装置。   The image determining means determines an image to be used for three-dimensional measurement of the target object from the plurality of acquired images based on the arrangement of each of the plurality of imaging devices and the projection device. The information processing apparatus according to claim 10. 前記画像決定手段は、前記取得した複数の画像それぞれにおいて、前記画像中で、前記対象物体の三次元計測が不能な領域を導出し、該導出された領域の大きさに基づいて、前記対象物体の三次元計測に用いるための画像を決定することを特徴とする請求項10に記載の情報処理装置。   The image determining means derives a region in the image where the three-dimensional measurement of the target object is impossible in each of the plurality of acquired images, and based on the size of the derived region, the target object The information processing apparatus according to claim 10, wherein an image to be used for three-dimensional measurement is determined. 前記画像決定手段で決定された画像を撮像した撮影手段を表示手段に表示させる表示制御手段を有することを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 9, further comprising: a display control unit that causes a display unit to display a photographing unit that captures an image determined by the image determination unit. 更に、前記画像決定手段により決定された画像に基づいて、前記対象物体の三次元形状を導出する手段を備えることを特徴とする請求項10乃至13のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 10, further comprising a unit that derives a three-dimensional shape of the target object based on the image determined by the image determination unit. 対象物体に対して、投影手段によりパターンを投影し、該パターンが投影された対象物体を撮像することにより得られる画像に基づいて、前記対象物体の三次元形状を計測する情報処理装置において、
前記対象物体の特性を算出する手段と、
前記特性に基づいて前記投影手段により投影されるパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。
In an information processing apparatus that measures a three-dimensional shape of a target object based on an image obtained by projecting a pattern onto a target object by a projecting unit and imaging the target object on which the pattern is projected.
Means for calculating characteristics of the target object;
An information processing apparatus comprising: a determination unit that determines a direction of a pattern projected by the projection unit based on the characteristic.
撮像手段により撮像された、対象物体を含む画像を取得する画像取得工程と、
前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出工程と、
前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。
An image acquisition step of acquiring an image including the target object imaged by the imaging means;
A calculation step of calculating information indicating a change in the shape of the target object based on the image;
An information processing method comprising: a determining step of determining a direction of a pattern projected onto the target object by a projecting unit based on information indicating the change in shape.
対象物体を含む二次元画像と該対象物体を示す距離点群それぞれと、前記対象物体のモデルとを対応づけることにより、前記対象物体の位置姿勢を取得する位置姿勢計測システムで用いられる前記距離点群を取得するためのパターンの方向を決定するための情報処理方法であって、
撮像手段により撮像された、対象物体を含む画像を取得する画像取得工程と、
前記画像に基づいて、前記画像の輝度勾配を導出する導出工程と、
前記導出した輝度勾配に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。
The distance point used in the position and orientation measurement system for acquiring the position and orientation of the target object by associating the two-dimensional image including the target object with each of the distance point groups indicating the target object and the model of the target object An information processing method for determining a direction of a pattern for acquiring a group,
An image acquisition step of acquiring an image including the target object imaged by the imaging means;
A derivation step for deriving a luminance gradient of the image based on the image;
And a determining step of determining a direction of a pattern to be projected onto the target object by a projecting unit based on the derived luminance gradient.
対象物体に対して、投影手段によりパターンを投影し、該パターンが投影された対象物体を撮像することにより得られる画像に基づいて、前記対象物体の三次元形状を計測する情報処理方法において、
前記対象物体の特性を算出する工程と、
前記特性に基づいて前記投影手段により投影されるパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。
In an information processing method for measuring a three-dimensional shape of a target object based on an image obtained by projecting a pattern onto a target object by a projecting unit and imaging the target object on which the pattern is projected,
Calculating the characteristics of the target object;
A determination step of determining a direction of a pattern projected by the projection unit based on the characteristic.
コンピュータで実行されることにより、該コンピュータ装置を請求項1乃至15のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   A program for causing a computer apparatus to function as each unit of the information processing apparatus according to any one of claims 1 to 15 when executed by a computer.
JP2014086612A 2014-04-18 2014-04-18 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Active JP6425406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014086612A JP6425406B2 (en) 2014-04-18 2014-04-18 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014086612A JP6425406B2 (en) 2014-04-18 2014-04-18 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2015206654A true JP2015206654A (en) 2015-11-19
JP6425406B2 JP6425406B2 (en) 2018-11-21

Family

ID=54603548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014086612A Active JP6425406B2 (en) 2014-04-18 2014-04-18 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6425406B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017110975A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Measuring device, system, measurement method, determination method, and program
JP2017129525A (en) * 2016-01-22 2017-07-27 キヤノン株式会社 Measurement device, control method thereof, and program
JP2017146170A (en) * 2016-02-16 2017-08-24 株式会社日立製作所 Shape measuring system and shape measuring method
CN115086538A (en) * 2021-03-15 2022-09-20 北京字跳网络技术有限公司 Shooting position determining method, device, equipment and medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63229313A (en) * 1987-03-19 1988-09-26 Fujitsu Ltd Mounting part inspection apparatus
JPH04279811A (en) * 1991-03-08 1992-10-05 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional object discrimination method and posture decision method
JP2003202216A (en) * 2002-01-08 2003-07-18 Canon Inc Method, device, system and program for three-dimensional image processing
JP2007139622A (en) * 2005-11-18 2007-06-07 Olympus Corp Three-dimensional shape measuring device
JP2010256149A (en) * 2009-04-24 2010-11-11 Keyence Corp Transmissive dimension measuring device
JP2012215394A (en) * 2011-03-31 2012-11-08 Dainippon Screen Mfg Co Ltd Three-dimensional measuring apparatus and three-dimensional measuring method
JP2014055815A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63229313A (en) * 1987-03-19 1988-09-26 Fujitsu Ltd Mounting part inspection apparatus
JPH04279811A (en) * 1991-03-08 1992-10-05 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional object discrimination method and posture decision method
JP2003202216A (en) * 2002-01-08 2003-07-18 Canon Inc Method, device, system and program for three-dimensional image processing
JP2007139622A (en) * 2005-11-18 2007-06-07 Olympus Corp Three-dimensional shape measuring device
JP2010256149A (en) * 2009-04-24 2010-11-11 Keyence Corp Transmissive dimension measuring device
JP2012215394A (en) * 2011-03-31 2012-11-08 Dainippon Screen Mfg Co Ltd Three-dimensional measuring apparatus and three-dimensional measuring method
JP2014055815A (en) * 2012-09-11 2014-03-27 Keyence Corp Shape measuring device, shape measuring method, and shape measuring program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017110975A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Measuring device, system, measurement method, determination method, and program
JP2017129525A (en) * 2016-01-22 2017-07-27 キヤノン株式会社 Measurement device, control method thereof, and program
JP2017146170A (en) * 2016-02-16 2017-08-24 株式会社日立製作所 Shape measuring system and shape measuring method
CN115086538A (en) * 2021-03-15 2022-09-20 北京字跳网络技术有限公司 Shooting position determining method, device, equipment and medium
CN115086538B (en) * 2021-03-15 2024-03-15 北京字跳网络技术有限公司 Shooting position determining method, device, equipment and medium

Also Published As

Publication number Publication date
JP6425406B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6635690B2 (en) Information processing apparatus, information processing method and program
GB2564794B (en) Image-stitching for dimensioning
CN103649674B (en) Measuring equipment and messaging device
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
KR101601331B1 (en) System and method for three-dimensional measurment of the shape of material object
JP5921271B2 (en) Object measuring apparatus and object measuring method
JP5655134B2 (en) Method and apparatus for generating texture in 3D scene
CN107025663A (en) It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP2009264862A (en) Three-dimensional shape measuring method and device
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP2010071782A (en) Three-dimensional measurement apparatus and method thereof
JP6566768B2 (en) Information processing apparatus, information processing method, and program
WO2015049853A1 (en) Dimension measurement device, dimension measurement method, dimension measurement system, and program
JP6937642B2 (en) Surface evaluation method and surface evaluation device
Přibyl et al. Feature point detection under extreme lighting conditions
JP6425406B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6278842B2 (en) Inspection device, inspection method, and program
JP6115639B2 (en) Information processing apparatus, inspection range calculation method, and program
JP2018063693A (en) Image processing device, image processing method, and program
WO2019230171A1 (en) Laser calibration device, calibration method therefor, and image input device including laser calibration device
WO2020075213A1 (en) Measurement apparatus, measurement method, and microscopic system
JP6381262B2 (en) Information processing apparatus, information processing method, and program
JP6822086B2 (en) Simulation equipment, simulation method and simulation program
KR101314101B1 (en) System for three-dimensional measurement and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R151 Written notification of patent or utility model registration

Ref document number: 6425406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151