JP2015206654A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2015206654A JP2015206654A JP2014086612A JP2014086612A JP2015206654A JP 2015206654 A JP2015206654 A JP 2015206654A JP 2014086612 A JP2014086612 A JP 2014086612A JP 2014086612 A JP2014086612 A JP 2014086612A JP 2015206654 A JP2015206654 A JP 2015206654A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- pattern
- image
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、パターンを投影して物体の位置姿勢を計測する技術に関する。 The present invention relates to a technique for measuring a position and orientation of an object by projecting a pattern.
物体の位置姿勢計測では画像を利用する三次元計測技術が広く使われている。画像を利用する三次元計測技術の代表的な方法の一つであるステレオ法では、相対的な位置及び姿勢が既知な二台のカメラ(ステレオカメラ)により撮影された画像から三角測量の原理に基づいて三次元計測を行う。ステレオカメラを利用する場合、画像上での輝度変化が少ない領域ではカメラ間で対応する点を探索するのが困難である。そのため、ステレオカメラに加えてプロジェクタなどの照明装置によって計測対象にパターンを投影することで対応点探索を容易にすることが広く行われている。また、ステレオカメラの一方のカメラをプロジェクタなどの照明装置に置き換え、カメラと照明装置をステレオペアとして利用する三次元計測も広く行われている。 In the measurement of the position and orientation of an object, a three-dimensional measurement technique using an image is widely used. In the stereo method, which is one of the representative methods of 3D measurement technology using images, the principle of triangulation is based on images taken by two cameras (stereo cameras) whose relative positions and orientations are known. Based on the 3D measurement. When using a stereo camera, it is difficult to search for a corresponding point between the cameras in an area where the luminance change on the image is small. Therefore, it is widely performed to easily search for corresponding points by projecting a pattern onto a measurement target using an illumination device such as a projector in addition to a stereo camera. In addition, three-dimensional measurement is widely performed in which one of the stereo cameras is replaced with an illumination device such as a projector, and the camera and the illumination device are used as a stereo pair.
このような照明装置を用いたステレオ計測においては投影パターンとして複数の線から成るパターンがしばしば用いられるが、その場合パターンの向きによって計測して得られる三次元計測点の分布や精度が変動する。特許文献1は、それぞれ異なる位置に2つのプロジェクタを配置し、まず一方のプロジェクタからパターンを投影しカメラで撮像する。撮像された画像に、投影されたパターンにより生じる影の影響が多く含まれ、三次元計測に適さないと判断された場合に、もう一方のプロジェクタによりパターンを投影することを開示している。 In stereo measurement using such an illuminating device, a pattern composed of a plurality of lines is often used as a projection pattern. In this case, the distribution and accuracy of three-dimensional measurement points obtained by measurement vary depending on the direction of the pattern. In Patent Document 1, two projectors are arranged at different positions, and a pattern is first projected from one projector and captured by a camera. It is disclosed that when a captured image includes many influences of shadows caused by a projected pattern and is determined to be unsuitable for three-dimensional measurement, the pattern is projected by the other projector.
しかしながら特許文献1に開示されている方法では、対象物体の三次元的な形状を考慮していないため、設定された線パターンは好適でない場合もある。例えば、対象物体の表面である方向に凹凸が繰り返されるような場合に、その凹凸が繰り返される方向に対して、垂直な方向に線パターンの長手方向を設定すると、表面の凹凸を測定することができない。 However, since the method disclosed in Patent Document 1 does not consider the three-dimensional shape of the target object, the set line pattern may not be suitable. For example, when unevenness is repeated in the direction of the surface of the target object, the surface unevenness can be measured by setting the longitudinal direction of the line pattern in a direction perpendicular to the direction in which the unevenness is repeated. Can not.
本発明は以上の課題に鑑みてなされたものであり、好適に対象物体の位置姿勢計測を行うためのパターンの方向を決定する方法ことを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to determine a pattern direction for suitably measuring the position and orientation of a target object.
本発明の情報処理装置は、例えば、撮像手段により撮像された、対象物体を含む画像を取得する画像取得手段と、前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出手段と、前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備える。 The information processing apparatus according to the present invention includes, for example, an image acquisition unit that acquires an image including a target object captured by an imaging unit, and a calculation that calculates information indicating a change in the shape of the target object based on the image And a determining unit that determines the orientation of the pattern projected onto the target object by the projecting unit based on the information indicating the change in shape.
本発明により、対象物体の特性を考慮することで対象物体の位置姿勢計測を精度良く行うのに最適なパターン方向を決定することが可能になる。 According to the present invention, it is possible to determine the optimum pattern direction for accurately measuring the position and orientation of the target object by considering the characteristics of the target object.
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図15を用いて説明する。 Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.
図15は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1510は、バス1500を介して接続する各デバイスを統括的に制御する。CPU1510は、読み出し専用メモリ(ROM)1520に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1520に記憶されており、ランダムアクセスメモリ(RAM)1530に一時記憶され、CPU1510によって適宜実行される。また、入力I/F1540は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1550は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
FIG. 15 is a hardware configuration diagram of the information device according to the present embodiment. In the figure, a
これらの各機能部は、CPU1510が、ROM1520に格納されたプログラムをRAM1530に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1510を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
Each of these functional units is realized by the
(第1の実施形態)
本実施形態では、物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向の距離点を密に計測できるよう投影パターンの向きを決定する。本実施形態では法線方向の変化が激しい方向を、対象物体を撮影した二次元画像をフーリエ変換し周波数のフーリエスペクトルが大きい方向とみなしてパターンの向きを決定する。これは法線方向の変化が激しい方向の周波数のフーリエスペクトルは大きくなると考えるからである。一般的に平行線のパターンを用いたアクティブステレオ方式の三次元計測では平行線の方向で最も密に距離点が計測できるので物体の法線方向の変化が激しい方向に平行線の方向が合うように投影パターンの向きを決定する。
(First embodiment)
In this embodiment, the distribution of shape changes, specifically the distribution of changes in the normal direction of the object surface, is taken into consideration as the object characteristics, and projection is performed so that distance points in the direction in which the normal direction changes rapidly can be measured closely. Determine the orientation of the pattern. In this embodiment, the direction of the pattern is determined by regarding the direction in which the normal direction changes drastically as a direction in which the two-dimensional image obtained by photographing the target object is Fourier transformed and the frequency has a large Fourier spectrum. This is because the Fourier spectrum of the frequency in the direction in which the change in the normal direction is drastically increased. In general, in active stereo 3D measurement using parallel line patterns, distance points can be measured most closely in the direction of parallel lines, so that the direction of parallel lines matches the direction in which the normal direction of the object changes drastically. Determine the orientation of the projection pattern.
以下、本実施形態の詳細を説明する。 Details of this embodiment will be described below.
図1は本実施形態に係る位置姿勢計測システムの構成の一例を示した図である。 FIG. 1 is a diagram illustrating an example of a configuration of a position and orientation measurement system according to the present embodiment.
本実施形態の情報処理装置10は、カメラ110と投影装置120と表示装置に接続されている。情報処理装置10は取得した画像中のパターンの検出結果に基づいて画像中の画素と液晶プロジェクタの投影画像中の画素の対応付けを行い三角測量により三次元形状を計算する。本実施形態はこのような三次元計測システムにおいて位置姿勢を計測するのに最適な投影光のパターンの向きを決定する情報処理装置である。
The
物体100は、位置姿勢を計測する対象物体である。
The
カメラ110は、対象物体100の画像を撮像する。カメラ110は、モノクロカメラでもよいしカラーカメラでもよい。カメラ110の焦点距離や画像中心、レンズ歪みパラメータといった内部パラメータは予めキャリブレーションされているものとする。また、プロジェクタ120に対するカメラ110の相対的な位置及び姿勢(外部パラメータ)も予めキャリブレーションされているものとする。
The
プロジェクタ120は、対象物体100にパターンを投影する。プロジェクタ120には、例えば液晶プロジェクタが用いられるが、これに限られるものではない。パターン121は投影されたプロジェクタ120から投影されるパターンである。投影されるパターンは、平行線と各平行線を一意に識別できるように平行線上に付与した符号から構成される。パターンの投影は、液晶プロジェクタで画像を出力することで行い、出力する画像を変えることでパターンの方向を制御できる。カメラ110とプロジェクタ120の相対位置姿勢は予めキャリブレーションされており既知である。
The
図2は本実施形態に係る情報処理装置10の構成を示した図である。
FIG. 2 is a diagram illustrating a configuration of the
画像取得部130は、カメラ110によって撮影された画像を取得する。
The
パターン出力部140は、プロジェクタ120を制御してパターンを投影する。
The
形状変化算出部150は、対象物体の形状変化の分布を算出する。具体的には、対象物体の画像を処理してパターン方向を決定する為に用いる計測対象の形状変化の分布を算出する。
The shape
パターン方向決定部160は、プロジェクタ120によって投影されるパターンの方向を決定する。形状変化の分布に基づいてパターン方向を決定する。
The pattern
三次元形状計算部170は、対象物体の三次元形状を計算する。具体的には、決定された方向でパターンが投影された対象物体の画像を処理して、対象物体表面の各位置の三次元座標を計算する。
The three-dimensional
モデル保持部180は、対象物体の三次元形状を表す形状モデルを保持する。本実施形態では、情報処理装置10の内部の記憶領域に保持されているとして説明するが、外部の記憶媒体にモデルを保持しておき、その記憶媒体から取得してもかまわない。
The
位置姿勢導出部190は、対象物体の位置姿勢を導出する。三次元形状計算部240が算出した対象物体の三次元座標に対象物体の形状モデルをフィッティングすることで対象物体の位置姿勢を算出する。
The position /
図3は本実施形態に係る処理手順を示したフローチャートである。 FIG. 3 is a flowchart showing a processing procedure according to this embodiment.
(ステップS301)
ステップS301では、形状変化算出部150が、対象物体の形状変化の分布を算出する。この処理についてはさらに図4のフローチャートを用いて詳しく説明する。
(Step S301)
In step S301, the shape
(ステップS401)
ステップS401では、カメラ110が、対象物体の画像をプロジェクタでパターンを投影していない状態で撮影する。図5(a)はこのようにして取得した対象物体の画像を表す図である。
(Step S401)
In step S401, the
(ステップS402)
ステップS402では、形状変化算出部150は、取得した画像f(x、y)の離散的フーリエ変換F(u、v)を得る。(x、yは取得画像上の画素の二次元座標であり、fは当該画素の輝度値である。u、vはそれぞれx方向、y方向の空間周波数を表しFは当該周波数の複素数である。)
(ステップS403)
ステップS403では、形状変化算出部150は、パターンの方向を表すbinを作成する。ここでは180度を22.5度毎に分割して8個のbinを作成する。それぞれのbinは0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度を基準としたパターンの方向を表し、binのスコアはその方向が三次元計測にどの程度適しているかを示す数値である。各binのスコアは0で初期化する。本実施形態ではbinの数を8としたが、プロジェクタが切り替え可能なパターン方向の分解能に応じて分割数とその方向を決めてもよい。
(Step S402)
In step S402, the shape
(Step S403)
In step S403, the shape
(ステップS404)
ステップS404では、形状変化算出部150は、離散的フーリエ変換で得られた各u、vにおいてフーリエスペクトルを計算し、u、vに対応するbinのスコアに加算する。ここでフーリエスペクトルとはu、vにおける複素数Fの絶対値
(Step S404)
In step S404, the shape
であり
で定義される値である。ただし、Re{F(u、v)}、Im{F(u、v)}はそれぞれF(u、v)の実部と虚部を表す。こうして全てのデータにおいて、対応するbinのスコアにフーリエスペクトルの値を加算したものを形状変化の分布とする。図5(b)は離散的フーリエ変換の結果をu、v平面上にフーリエスペクトルを輝度として画像にしたものである。この図上で線分で区切られた領域400〜470がそれぞれ上記で説明したbinの0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度に対応している。このようにして各領域において輝度(フーリエスペクトル)を加算したものを形状変化の分布とする。図5(c)は形状変化の分布をヒストグラムにして図示したものである。
And
It is a value defined by. However, Re {F (u, v)} and Im {F (u, v)} represent a real part and an imaginary part of F (u, v), respectively. In this way, in all the data, the distribution of the shape change is obtained by adding the Fourier spectrum value to the corresponding bin score. FIG. 5B shows the result of the discrete Fourier transform as an image on the u and v planes with the Fourier spectrum as the luminance. In this figure,
説明を図3のフローチャートに戻して続きを説明する。 The description will be returned to the flowchart of FIG.
(ステップS302)
ステップS302では、パターン方向決定部160が、形状変化の分布で最もスコアが高いbinが表す方向をパターン方向として決定する。図5(c)の例では0度方向が取得される。本実施形態ではbinのスコアのみに基づいてパターン方向を決定したが、binのスコア以外の指標を組み合わせて使っても良い。例えば液晶プロジェクタの場合はパターン方向によってはアンチエイリアスがかかりパターンの像がボケるのでbinのスコアが良い方向の中からアンチエイリアスがかからない方向を優先的に選択しても良い。
(Step S302)
In step S302, the pattern
(ステップS303)
ステップS303では、パターン出力部140が、ステップS302で決定した方向でパターンを投影する。液晶プロジェクタでは内蔵する液晶パネルに出力した画像がそのまま投影パターンになるので決定されたパターン方向の画像を生成し液晶プロジェクタに出力することで決定された方向でパターンを投影する。
(Step S303)
In step S303, the
(ステップS304)
ステップS304では、画像取得部130が、パターンが投影されている状態の対象物体の画像を取得する。
(Step S304)
In step S304, the
(ステップS305)
ステップS305では、三次元形状算出部170が、取得した画像を処理して対象物体の三次元形状、具体的には対象物体の表面上の距離点群を計算する。
(Step S305)
In step S305, the three-dimensional
(ステップS306)
ステップS306では、位置姿勢導出部190が、モデル保持部180から対象物体の形状モデルを取得する。
(Step S306)
In step S <b> 306, the position /
(ステップS307)
ステップS307では、位置姿勢導出部190が、対象物体の距離点群に対象物体の形状モデルをフィッティングすることで対象物体の位置姿勢を算出する。モデルフィッティングは具体的には公知のICPアルゴリズムを使って対象物体の距離点群とモデルの間の三次元距離を最小化する位置姿勢を算出する。この時、対象物体の距離点群が凹凸に乏しく平面的であると平面内での位置が定まりにくい。本実施形態では上記で説明したように対象物体の凹凸が激しい方向を密に距離点群を計測することで位置が定まりやすくなり、位置姿勢の計測精度を向上することができる。
(Step S307)
In step S307, the position and
なお、本実施形態ではパターンを複数の平行線のパターンとしたが、投影方向によって計測密度が異なるようなパターンであれば他の幾何模様をしたパターンでも本発明の実施は可能である。例えば平行線を識別するために符号を付与する代わりに平行線の各線の色を変えたパターンでもよい。更に、三次元計測は一枚のパターンを照射・撮影して行う方法だけでなく、複数のパターンを投影・撮影してもよい。例えば空間コード化法に用いる線幅の異なる複数のバイナリパターンでもよいし、位相シフト法に用いる複数の正弦波パターンでもよい。 In the present embodiment, the pattern is a pattern of a plurality of parallel lines. However, the present invention can be implemented with other geometric patterns as long as the measurement density varies depending on the projection direction. For example, a pattern in which the color of each line of the parallel lines is changed may be used instead of adding a code to identify the parallel lines. Furthermore, the three-dimensional measurement is not limited to a method in which a single pattern is irradiated and photographed, but a plurality of patterns may be projected and photographed. For example, a plurality of binary patterns having different line widths used in the spatial encoding method may be used, or a plurality of sine wave patterns used in the phase shift method may be used.
本実施形態ではbinの分割は領域同士の重なりをなくして排他的に行ったが、近傍のbinと重なりを持たせて設定しても良い。例えばプロジェクタのパターン方向の切り替え分解能が1度である場合は基準方向を1度ずつ180のbinを作成し、各binの幅を例えば30度としてもよい。こうすることでbinの分割数が多くなったときにノイズなどの影響で偶然的にスコアが高くなったbinが不適切に選択されるケースを除くことできる。 In this embodiment, the bin is divided exclusively without overlapping each other. However, the bin may be set so as to overlap with a nearby bin. For example, when the projector pattern direction switching resolution is 1 degree, 180 bins may be created for the reference direction one degree at a time, and the width of each bin may be 30 degrees, for example. By doing so, it is possible to exclude a case where a bin whose score is accidentally high due to the influence of noise or the like is inappropriately selected when the number of bin divisions increases.
本実施形態では最も高いスコアのbinが表す方向をパターン方向としたが実際には、プロジェクタのハードウェアの制約やカメラの位置の制約であらかじめ投影可能な方向の候補が絞り込まれている場合がある。例えば三次元計測における対応点を探索するエピポーラ線の方向とパターンの平行線の方向が平行に近いと、カメラ画像と液晶プロジェクタの投影画像間の対応画素を検出する精度が低下するのでこのようなパターン方向は適切ではない。また、そもそもハードウェアの機構的な制約であらゆる方向にはパターンの方向を設定できない場合も考えられる。このような状況を考慮してあらかじめパターン方向の設定可能な範囲を決めておき、この範囲の中で最も高いスコアのbinが表す方向をパターンの方向として決定してもよい。また、最もスコアの高いbinが表す方向以外に二番目、三番目にスコアの高いbinに対応する方向もパターン方向の候補として保持しておきユーザに提示し、最終的な判断をユーザ指示に基づいて決定してもよい。 In this embodiment, the direction represented by the bin with the highest score is set as the pattern direction. However, actually, there are cases where candidates for directions that can be projected are narrowed down in advance due to restrictions on the hardware of the projector and restrictions on the position of the camera. . For example, if the direction of the epipolar line for searching for the corresponding point in the three-dimensional measurement and the direction of the parallel line of the pattern are close to parallel, the accuracy of detecting the corresponding pixel between the camera image and the projection image of the liquid crystal projector is lowered. The pattern direction is not appropriate. In the first place, there may be a case where the pattern direction cannot be set in any direction due to hardware restrictions. In consideration of such a situation, a range in which the pattern direction can be set is determined in advance, and the direction represented by the bin having the highest score in the range may be determined as the pattern direction. In addition to the direction represented by the bin with the highest score, the direction corresponding to the bin with the second and third highest scores is also stored as a pattern direction candidate and presented to the user, and the final judgment is made based on the user instruction. May be determined.
本実施形態では、プロジェクタを液晶プロジェクタとして、液晶パネルへの出力を切り替えることでパターンの投影方向を切り替える方法を説明したが、本発明の実施はこれに限るものではない。すなわち、対象物体に対する投影するパターンの方向を機械的に切り替える手段を備えてもよい。例えば液晶プロジェクタの筐体もしくは液晶パネルを機械的に回転させることでパターンの投影方向を制御する方法でも良い。プロジェクタが、液晶プロジェクタではなく照射光をパターンが刻まれたスリット板に通すことでパターンの投影を行う方式のものである場合はスリット板を機械的に回転させることでパターンの投影方向を変えてもよい。さらにはパターンの投影方向を変えずに、対象物体を設置している台を回転させることで対象物体に対するパターンの投影方向を切り替えてもよい。 In the present embodiment, a method has been described in which the projector is a liquid crystal projector, and the pattern projection direction is switched by switching the output to the liquid crystal panel. However, the present invention is not limited to this. That is, a means for mechanically switching the direction of the pattern to be projected onto the target object may be provided. For example, a pattern projection direction may be controlled by mechanically rotating a housing of a liquid crystal projector or a liquid crystal panel. If the projector is not a liquid crystal projector but a method that projects the pattern by passing the irradiation light through the slit plate with the pattern engraved, the projection direction of the pattern can be changed by mechanically rotating the slit plate. Also good. Furthermore, the pattern projection direction on the target object may be switched by rotating the platform on which the target object is installed without changing the pattern projection direction.
以上述べたように、物体の凹凸が激しい方向を密に三次元計測できるよう投影するパターンの方向を決定することで位置姿勢計測を高精度化することができる。 As described above, the position and orientation measurement can be performed with high accuracy by determining the direction of the pattern to be projected so that the direction in which the unevenness of the object is intense can be densely three-dimensionally measured.
[変形例1−1]
第1の実施形態では、ステップS301において、形状変化算出部150が、形状変化の分布を法線方向の変化の分布とみなし、法線方向の変化の分布を対象物体の画像の離散的フーリエ変換によって算出する例を説明した。しかし、法線方向の変化の分布が求められるのであれば算出方法はこの方法に限るものではない。例えば対象物体の法線方向が激しく変化する方向は観測される画像の輝度変化も激しくなると考えて画像の輝度勾配に基づいて求めても良い。その場合は対象物体を撮影した画像の各画素における輝度勾配ベクトルを算出し、その輝度勾配ベクトルの方向に対応するbinのスコアに輝度勾配ベクトルの大きさを加算したものを形状変化の分布とする。
[Modification 1-1]
In the first embodiment, in step S301, the shape
[変形例1−2]
第1の実施形態ではステップS301において、形状変化算出部150が、対象物体の画像全体から形状変化の分布を算出した。しかし、画像中に対象物体以外のものが写り込んでいる場合は先にテンプレートマッチングなどで対象物体の画像中における位置を絞り込んで、その領域についてのみ形状変化の分布を算出してパターン方向を決めてもよい。こうすることで対象物体以外の物体や背景の影響を除くことができる。さらに対象物体が画像中に複数あり、領域的に分離可能な場合は、領域を分割して各領域に対して形状変化の分布を算出してパターン方向を決めても良い。この場合、プロジェクタが液晶プロジェクタのように領域毎にパターン方向を切り替えることができる装置であれば一回の計測で領域毎に最適なパターン方向で計測することが可能である。
[Modification 1-2]
In the first embodiment, in step S301, the shape
[変形例1−3]
第1の実施形態では決定したパターン方向で対象物体の三次元形状を計測する方法を説明したが、さらに決定されたパターン方向をユーザへ提示する手段を伴ってもよい。この場合はパターン出力部140が外部の表示装置に決定されたパターン方向を出力し、表示装置は、パターン方向を提示する画面を表示する。
[Modification 1-3]
In the first embodiment, the method of measuring the three-dimensional shape of the target object in the determined pattern direction has been described. However, a means for presenting the determined pattern direction to the user may be included. In this case, the
図6は決定されたパターンをユーザに提示する表示画面の一例である。領域500は、パターンの候補投影方向を示す領域であり、カメラで撮影した対象物体の画像が表示されている。線510は、決定したパターン方向で投影したパターンを表している。この図のように対象物体の画像にパターンを重畳して表示しても良いし、対象物体の位置姿勢と形状モデルが既知であるならばプロジェクタまたはカメラから見た対象物体とパターンの様子をシミュレーションでレンダリングした画像を表示してもよい。領域520は、領域500で選択されているパターンの投影方向を示す数値を表示する領域である。
FIG. 6 is an example of a display screen that presents the determined pattern to the user. An
このようにして決定したパターンが対象物体に投影される様子を図示することでユーザへパターン方向を提示することが可能である。 It is possible to present the pattern direction to the user by illustrating how the pattern thus determined is projected onto the target object.
なお、ここで示した画面は一例であり、パターン方向を表示する画面であれば画面の構成要素やレイアウトはこの例に限らない。またパターン方向を決定する際に形状変化の分布から得られた2番目、3番目にふさわしいとされる候補方向についても画面に備えるボタンを押すことで切り替えて表示しても良いし、リストにして表示しても良い。 The screen shown here is an example, and the components and layout of the screen are not limited to this example as long as the screen displays the pattern direction. In addition, the second and third candidate directions obtained from the distribution of shape change when determining the pattern direction may be switched and displayed by pressing a button provided on the screen, or a list may be displayed. You may display.
(第2の実施形態)
第1の実施形態では対象物体を撮影した二次元画像に基づいて形状変化の分布を算出したが、本実施形態では対象物体の三次元形状に基づいて形状変化の分布を算出する方法を説明する。本実施形態においても第1の実施形態と同様に、物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向が密に計測できるよう投影パターンの向きを決める。ここでは法線方向の変化が激しい方向を対象物体の位置姿勢と形状モデルとから生成した距離画像をフーリエ変換し周波数のフーリエスペクトルが大きい方向とみなしてパターンの向きを決定する。このように対象物体の二次元画像ではなく三次元形状に基づいて形状変化の分布を算出することで物体の凹凸が激しい方向をパターン方向として、より正確に決定することができる。
(Second Embodiment)
In the first embodiment, the distribution of the shape change is calculated based on the two-dimensional image obtained by photographing the target object. In the present embodiment, a method for calculating the distribution of the shape change based on the three-dimensional shape of the target object will be described. . In this embodiment as well, in the same way as in the first embodiment, the distribution of the shape change, specifically the distribution of the change in the normal direction of the object surface, is taken into consideration as the object characteristics, Determine the orientation of the projection pattern so that it can be measured closely. In this case, the direction of the pattern is determined by subjecting the distance image generated from the position and orientation of the target object and the shape model to the direction in which the normal direction is drastically changed, and considering the direction having a large frequency Fourier spectrum as the direction. Thus, by calculating the distribution of the shape change based on the three-dimensional shape instead of the two-dimensional image of the target object, the direction in which the unevenness of the object is intense can be determined more accurately as the pattern direction.
本実施形態に係る三次元計測システムの構成を図1に、情報処理装置20の構成図を図7に示す。本実施形態は、第1の実施形態と、形状変化算出部220によるステップS301の処理が異なる。以降この差異について説明する。
The configuration of the three-dimensional measurement system according to the present embodiment is shown in FIG. 1, and the configuration diagram of the
図7は処理ステップS301を本実施形態に係る方法で実施するときの詳細な手順を表すフローチャートである。 FIG. 7 is a flowchart showing a detailed procedure when processing step S301 is performed by the method according to the present embodiment.
(ステップS801)
ステップS801では、形状変化算出部750が、モデル保持部780から対象物体の形状モデルを取得する。
(Step S801)
In step S <b> 801, the shape
(ステップS802)
ステップS802では、画像取得部730が、カメラ110から対象物体の画像を取得する。
(Step S802)
In step S <b> 802, the
(ステップS803)
ステップS803では、形状変化算出部750が、テンプレートマッチングで対象物体の位置姿勢を算出(推定)する。具体的には事前に対象物体の形状モデルに基づいて対象物体の様々な姿勢の画像をシミュレーションにより生成し、テンプレート画像としておく。ステップS802で取得した対象物体の画像上でテンプレート画像をスライドさせて照合し、最もマッチするテンプレート画像を生成した対象物体の姿勢とその検出位置を対象物体の位置姿勢とする。
(Step S803)
In step S803, the shape
(ステップS804)
ステップS804では、形状変化算出部750が、カメラから見た物体の距離画像をシミュレーションで生成する。具体的にはステップS703までで算出した対象物体の位置姿勢と形状モデル情報とを用いてカメラで撮影した場合の各画素の光線方向でぶつかる物体表面の距離を算出し各画素の値とすることで距離画像とする。
(Step S804)
In step S804, the shape
(ステップS805)
ステップS805では、形状変化算出部750が、距離画像f(x、y)の離散的フーリエ変換F(u、v)を得る。(x、yは距離画像上の画素の二次元座標であり、fは当該画素の距離値である。u、vはそれぞれx方向、y方向の空間周波数を表しFは当該周波数の複素数である。)
ステップS806、ステップS807はそれぞれステップS403、ステップS404と同様の処理を距離画像の離散的フーリエ変換結果に対して行う。
(Step S805)
In step S805, the shape
In steps S806 and S807, processing similar to that in steps S403 and S404 is performed on the discrete Fourier transform result of the distance image, respectively.
上記の処理の他は、第1の実施形態と同様の処理を行うことでパターン方向を決定し対象物体の位置姿勢を計測することができる。 In addition to the above processing, the pattern orientation can be determined and the position and orientation of the target object can be measured by performing the same processing as in the first embodiment.
なお、本実施形態では対象物体の画像中における位置姿勢をテンプレートマッチングで算出したが、位置姿勢の算出方法はこの方法に限らない。例えば、仮のパターン方向で計測した対象物体の三次元計測結果に対象物体の形状モデルをフィッティングすることで、より精度の高い位置姿勢を求める。そして、求められた位置姿勢に基づいてシミュレーションで距離画像を生成し、フーリエ変換をして形状変化の分布を算出してもよい。さらに、対象物体の位置姿勢は外部の供給装置(ロボットなど)から直接取得してもよい。 In the present embodiment, the position and orientation of the target object in the image is calculated by template matching. However, the position and orientation calculation method is not limited to this method. For example, a more accurate position and orientation is obtained by fitting the shape model of the target object to the three-dimensional measurement result of the target object measured in the temporary pattern direction. Then, a distance image may be generated by simulation based on the obtained position and orientation, and a Fourier transform may be performed to calculate a shape change distribution. Furthermore, the position and orientation of the target object may be obtained directly from an external supply device (such as a robot).
以上述べたように、物体の凹凸が激しい方向を密に三次元計測できるようパターン方向をより正確に算出するために、対象物体の二次元画像ではなく三次元形状に基づいて決定する方法を説明した。対象物体の凹凸が激しい方向を密に距離点群を計測することで位置が定まりやすくなり、位置姿勢計測を高精度化することができる。 As described above, in order to calculate the pattern direction more accurately so that three-dimensional measurement can be performed densely in the direction where the unevenness of the object is intense, the method of determining based on the three-dimensional shape instead of the two-dimensional image of the target object is explained. did. By closely measuring the distance point group in a direction in which the unevenness of the target object is intense, the position can be easily determined, and the position and orientation measurement can be made highly accurate.
(第3の実施形態)
本実施形態では精度よく位置姿勢計測を行うためには三次元距離点の精度が高くなるよう三次元形状を計測することが望ましいと考える。一般的に平行線のパターンを用いたアクティブステレオ方式の三次元計測ではパターンが当たっている表面がパターンの平行線の方向に直交する方向に傾斜すると光の線が太くなり、画像中から線を検出する精度が落ちる。一方でパターンの平行線の方向に傾斜している場合は光の線の太さは変わらないため検出精度も落ちない。そこで本実施形態では物体の特性として形状変化の分布、具体的にはパターンが当たる対象物体の表面の法線方向の分布を考慮する。そして、対象物体の傾斜方向と平行線の方向が同じ方向になるようパターンの投影方向を決めることで三次元形状計測を高精度に行う方法を説明する。
(Third embodiment)
In this embodiment, in order to accurately measure the position and orientation, it is desirable to measure the three-dimensional shape so that the accuracy of the three-dimensional distance point is increased. In general, in active stereo 3D measurement using a pattern of parallel lines, if the surface on which the pattern hits tilts in a direction perpendicular to the direction of the parallel lines of the pattern, the light line becomes thicker, and the line is drawn from the image. The accuracy of detection decreases. On the other hand, when the pattern is inclined in the direction of the parallel lines, the thickness of the light line does not change, and the detection accuracy does not decrease. Therefore, in the present embodiment, the distribution of the shape change, specifically, the distribution in the normal direction of the surface of the target object hit by the pattern is considered as the object characteristic. Then, a method for performing three-dimensional shape measurement with high accuracy by determining the projection direction of the pattern so that the direction of inclination of the target object and the direction of the parallel lines are the same will be described.
本実施形態に係る三次元計測システムの構成、及びシステム構成に含まれる情報処理装置の構成図は第2の実施形態で示した図1、図7と同様であるため、各機能部の番号は、第1の実施形態と同じ番号を与えて説明する。本実施形態では、第2の実施形態の形状変化算出部750によるステップS803〜805の処理が異なる。以降この差異について説明する。
Since the configuration of the three-dimensional measurement system according to this embodiment and the configuration diagram of the information processing apparatus included in the system configuration are the same as those in FIGS. 1 and 7 shown in the second embodiment, the numbers of the functional units are In the following description, the same numbers as those in the first embodiment are given. In the present embodiment, the processing in steps S803 to S805 by the shape
図9はステップS301を本実施形態に係る方法で実施するときの詳細な手順を表すフローチャートである。 FIG. 9 is a flowchart showing a detailed procedure when step S301 is performed by the method according to the present embodiment.
(ステップS901)
ステップS901では、形状変化算出部750は、対象物体の形状モデルを取得する。
(Step S901)
In step S901, the shape
(ステップS902)
ステップS902では、形状変化算出部750は、対象物体の位置姿勢を算出する。この算出方法は第2の実施形態で説明したステップS803の処理と同様であるのでここでの説明は割愛する。
(Step S902)
In step S902, the shape
(ステップS903)
ステップS903では、形状変化算出部750は、プロジェクタから対象物体の表面を観測した時の、表面法線の方向を算出する。具体的にはステップS902までで算出した対象物体の位置姿勢と形状モデル情報を用いてカメラで撮影した場合の各画素の光線方向でぶつかる物体表面の法線方向を算出する。
(Step S903)
In step S903, the shape
(ステップS904)
ステップS904では、形状変化算出部750は、パターンの方向を表すbinを作成する。ここでは180度を22.5度毎に分割して8個のbinを作成する。そして各binのスコアを0で初期化する。
(Step S904)
In step S904, the shape
(ステップS905)
ステップS905では、形状変化算出部750は、ステップS803で算出した各画素における対象物体の法線方向のカメラ視線方向に対する傾斜方向を算出する。そして、傾斜方向に対応するbinのスコアに1を加算する。こうして全ての画素においてbinのスコアに加算したものを形状変化の分布とする。
(Step S905)
In step S905, the shape
上記の処理の他は第1の実施形態と同様の処理を行う。ステップS302では第1の実施形態と同様にパターン方向決定部160が形状変化の分布で最もスコアが高いbinが表す方向をパターン方向として決定する。これにより、対象物体の傾斜方向と平行線の方向が同じ方向になり対象物体の位置姿勢を精度良く計測することができる。
Other than the above processing, the same processing as in the first embodiment is performed. In step S302, as in the first embodiment, the pattern
本実施形態では各画素で傾斜方向に対応するbinのスコアに1を加算したが、プロジェクタに対する傾斜角度が大きいほどパターンの太さも太くなり計測精度もより低くなる。そこで一律同じ値を加算するのではなく例えば傾斜方向における傾斜角度を加算することで重みを付けても良い。 In this embodiment, 1 is added to the score of bin corresponding to the tilt direction in each pixel. However, the greater the tilt angle with respect to the projector, the thicker the pattern and the lower the measurement accuracy. Therefore, instead of adding the same value uniformly, for example, the weight may be added by adding the tilt angle in the tilt direction.
本実施形態では法線方向の分布を対象物体の形状モデルと位置姿勢に基づいて算出したが、法線方向の分布の算出方法はこの方法に限らない。例えば別途三次元計測を行って得られた三次元点群にメッシュを張って法線を計算しても良い。 In this embodiment, the distribution in the normal direction is calculated based on the shape model and the position and orientation of the target object. However, the method for calculating the distribution in the normal direction is not limited to this method. For example, a normal may be calculated by applying a mesh to a three-dimensional point group obtained by separately performing three-dimensional measurement.
以上述べたように、パターンが当たる対象物体の表面の傾斜方向と平行線の方向が同じ方向になるようパターン方向を決めることで三次元計測の精度を上げ、位置姿勢計測を高精度化する方法を説明した。 As described above, the method of increasing the accuracy of three-dimensional measurement and increasing the accuracy of position and orientation measurement by determining the pattern direction so that the direction of the parallel line is the same as the direction of inclination of the surface of the target object hit by the pattern Explained.
(第4の実施形態)
本実施形態の情報処理装置の構成は、図2の第1の実施形態に係る情報処理装置10と同様である。第1の実施形態のステップS307において対象物体の位置姿勢計算部260が行うモデルフィッティングでは対象物体の距離点群とモデルの間の三次元距離を最小化する方式を説明したが、本実施形態では、異なる方式でフィッティングを行う。
(Fourth embodiment)
The configuration of the information processing apparatus of this embodiment is the same as that of the
本実施形態では、対象物体の表面にテクスチャがある場合、その対象物体に対して、上記のような二次元画像と距離点群に対するモデルフィッティングをハイブリッドに実施する場合の投影するパターンの方向を決定する方法について説明する。 In this embodiment, when there is a texture on the surface of the target object, the direction of the pattern to be projected when the model fitting for the two-dimensional image and the distance point group as described above is performed hybridly on the target object is determined. How to do will be described.
本実施形態は、第1の実施形態のステップS301、ステップS302、ステップS307の処理が異なる。
(ステップS301)
ステップS301では、形状変化算出部150は、取得した対象物体の画像に基づいて勾配の変化の画像,すなわちエッジ画像を算出する。
This embodiment is different in the processing of step S301, step S302, and step S307 of the first embodiment.
(Step S301)
In step S301, the shape
(ステップS302)
ステップS302では、パターン方向決定部160は、ステップS301で得られた二次元画像の輝度勾配の変化に基づいて、投影するパターンの方向を決定する。本実施形態では、上記のように、ステップS307で行うフィッティングの方式が第1の実施形態と異なるため、パターンの方向の決定についても異なる処理を行う。
(Step S302)
In step S302, the pattern
すなわち、本実施形態では、エッジ画像とモデルとのフィッティングと、距離点群とモデルとのフィッティングとをハイブリッドに実施する。具体的には対象物体の三次元形状,すなわち距離点群とモデルの間の三次元距離と,対象物体のエッジ画像上のエッジとエッジ画像に投影したモデルの間の二次元距離とを同時に最小化して位置姿勢を算出する。 That is, in this embodiment, the fitting between the edge image and the model and the fitting between the distance point group and the model are performed in a hybrid manner. Specifically, the three-dimensional shape of the target object, that is, the three-dimensional distance between the distance point cloud and the model, and the two-dimensional distance between the edge on the edge image of the target object and the model projected on the edge image are minimized simultaneously. To calculate the position and orientation.
このようなハイブリッドなモデルフィッティングにおけるパターンの方向の決定の仕方について以下で説明する。 A method of determining the pattern direction in such hybrid model fitting will be described below.
まず、二次元画像に対する輝度勾配に基づいたモデルフィッティングでは輝度勾配の変化が大きい方向の位置姿勢は精度よく定まるが、その一方で輝度勾配の変化が小さい方向の位置姿勢は定まりにくい。そこで本実施形態のハイブリッドなモデルフィッティング方式では,二次元画像の輝度勾配の変化が少ない方向に投影光のパターン方向を合わせて密に三次元形状(距離点群)を計算する。こうすることで二次元画像のみに対してフィッティングする場合の位置姿勢の精度不足を補償し,最終的に得る位置姿勢の計測精度を向上させることができる。 First, in the model fitting based on the luminance gradient for the two-dimensional image, the position and orientation in the direction in which the change in the luminance gradient is large can be accurately determined, but on the other hand, the position and orientation in the direction in which the change in the luminance gradient is small is difficult to be determined. Therefore, in the hybrid model fitting method of this embodiment, the three-dimensional shape (distance point group) is calculated densely by aligning the pattern direction of the projection light with the direction in which the change in the luminance gradient of the two-dimensional image is small. By doing so, it is possible to compensate for the insufficient accuracy of the position and orientation when fitting only to a two-dimensional image, and to improve the accuracy of the finally obtained position and orientation.
二次元画像の輝度勾配変化の小さい方向の算出は第1の実施形態のステップS403と同様にパターン方向に対応するbinを作成する.次に対象物体を撮影した画像の各画素における輝度勾配変化のベクトルを算出し、その輝度勾配変化ベクトルの方向に対応するbinのスコアに輝度勾配変化ベクトルの大きさを加算してできたヒストグラムを形状変化の分布とし,この分布において最もスコアの小さい方向を選択する。こうして得られたパターン方向は第1〜3の実施形態で説明した方法で得られるパターン方向とは異なる方向になるが,二次元画像に対するフィッティングで算出した位置姿勢の精度不足を補うことができることから,本実施形態におけるハイブリッドなフィッティング方式では最適なパターン方向である。 For the calculation of the direction in which the luminance gradient change of the two-dimensional image is small, a bin corresponding to the pattern direction is created as in step S403 of the first embodiment. Next, calculate the vector of the luminance gradient change at each pixel of the image of the target object and add the magnitude of the luminance gradient change vector to the bin score corresponding to the direction of the luminance gradient change vector. The distribution of shape change is selected, and the direction with the smallest score in this distribution is selected. Although the pattern direction obtained in this way is different from the pattern direction obtained by the method described in the first to third embodiments, it is possible to compensate for the insufficient accuracy of the position and orientation calculated by fitting to the two-dimensional image. In the hybrid fitting method according to this embodiment, the pattern direction is optimum.
なお、本実施形態では、輝度勾配の変化を算出し、輝度勾配の変化に基づいて、パターンの方向を決定したが、輝度勾配を算出し、輝度勾配に基づいてパターンの方向を算出してもかまわない。 In this embodiment, the change in the luminance gradient is calculated and the pattern direction is determined based on the change in the luminance gradient. However, the luminance gradient is calculated and the pattern direction is calculated based on the luminance gradient. It doesn't matter.
(ステップS307)
ステップS307では、位置姿勢導出部190は、上記のハイブリッドなフィッティング方式で、対象物体の位置姿勢を導出する。
(Step S307)
In step S307, the position /
以上本実施形態では、二次元画像と距離画像とに対するモデルフィッティングをハイブリッドに実施する位置姿勢計測システムにおいて、二次元画像のフィッティングで位置が定まりにくい方向を密に三次元計測できるようパターン方向を決定する。これにより、位置姿勢計測を高精度化することができる。 As described above, in the present embodiment, in the position and orientation measurement system that performs model fitting for two-dimensional images and distance images in a hybrid manner, the pattern direction is determined so that directions in which the position is difficult to be determined by fitting two-dimensional images can be densely measured in three dimensions. To do. Thereby, the position and orientation measurement can be made highly accurate.
(第5の実施形態)
本実施形態の情報処理装置90は、図10に示すように、外部に表示装置91が接続されている。プロジェクタの外部パラメータが定まっていないシステムにおいては、第1の実施形態のステップS303において決定されたパターン方向をプロジェクタに自動的に設定することができない。このようなシステムでは第1〜第4の実施形態のいずれかに係る方法で決定したパターン方向をユーザがプロジェクタに設定するのを補助する機能を備えてもよい。本実施形態ではユーザがプロジェクタに決定したパターン方向を設定するのを補助する手段を伴う実施方法を説明する。
(Fifth embodiment)
As shown in FIG. 10, the
図11は、表示装置91の表示画面に表示される対象物体の様子を確認しながら決定されたパターン方向に実際のパターンの投影方向を設定するのを補助する画面の例である。表示装置91は、パターン出力部940から出力されるパターンを受け取り、表示画面に表示する。この点で、パターン出力部は表示制御部として機能する。
FIG. 11 is an example of a screen that assists in setting the projection direction of the actual pattern to the pattern direction determined while confirming the state of the target object displayed on the display screen of the
領域600はカメラで撮影した対象物体を表示する領域である。パターン610は、設定したい見本として表示しているは第1〜第4の実施形態のいずれかに係る方法によって決定したパターンである。パターン620は、現在の設定角度で実際にプロジェクタから投影されているパターンである。スライダバー630は、プロジェクタのパターン方向を調整するスライダバーでありスライダバーの値に連動してプロジェクタのパターン方向を変えることができる。ユーザは画面で確認しながらパターン620がパターン610に重なるようにスライダバー630を調整することでパターンの方向を調節することできる。数値640は現在のプロジェクタが投影しているパターンの方向を示す数値である。
An
なお、パターン方向を切り替える機構が備わっていないシステムにおいてはスライダバー630を使用せずにユーザが画面を確認しながら手動でプロジェクタのパターン方向を設定しても良い。
In a system that does not have a mechanism for switching the pattern direction, the user may manually set the pattern direction of the projector while checking the screen without using the
なお、あくまでこの画面は一例であり決定されたパターン方向で投影できるようプロジェクタを設定する為の情報を表示することでユーザを補助できる構成を備える画面であれば画面の構成要素やレイアウトはこの例に限らない。 This screen is only an example, and if the screen has a configuration that can assist the user by displaying information for setting the projector so that projection can be performed in the determined pattern direction, the components and layout of the screen are this example Not limited to.
以上述べたように、本実施形態は、第1〜第4の実施形態のいずれかに係る方法で決定したパターン方向をユーザがプロジェクタに設定するのを補助する画面を表示することについて説明した。これにより、パターン方向を切り替える機構が備わっていない装置を用いる場合や、プロジェクタの外部パラメータが定まっていないシステムにおいてもユーザが効率よくプロジェクタのパターン方向を設定することができる。 As described above, the present embodiment has explained that the screen for assisting the user to set the pattern direction determined by the method according to any one of the first to fourth embodiments to the projector is displayed. Thus, the user can efficiently set the pattern direction of the projector even when using a device that does not have a mechanism for switching the pattern direction or in a system in which external parameters of the projector are not determined.
(第6の実施形態)
第1〜第5の実施形態では三次元計測システムの構成においてカメラが1台の場合の説明をしたが本実施形態ではカメラが複数台の場合について説明する。複数台のカメラを用いる構成においては第1〜第5の実施形態のいずれかに係る方法で決定した方向でパターンを投影して対象物体の三次元形状を計測する際に、三次元形状計測を行うべき画像を決定する手段を備える必要がある。画像の決定は当該画像の三次元形状の計算における適性に基づいて決定する。平行線のパターンを用いたアクティブステレオ方式の三次元計測においては画像中におけるステレオの対応探索を行うエピポーラ線の方向と平行線のパターン方向が90度に近い程対応を精度よく求めることができる。そこで本実施形態では画像中におけるエピポーラ線の方向と平行線のパターン方向が90度に近い程、三次元形状の計算における適性が高いとする。複数台のカメラから取得され得る各画像に対して三次元形状の計算における適性を算出して最も適性が高い画像を三次元形状計算に用いるべき画像として決定する。以下本実施形態による対象物体の位置姿勢の算出方法を説明する。なお、本実施形態においても第1の実施形態と同様に物体の特性として形状変化の分布、具体的には物体表面の法線方向の変化の分布を考慮し、法線方向の変化が激しい方向が密に計測できるよう投影パターンの向きを決める。
(Sixth embodiment)
In the first to fifth embodiments, the case where there is one camera in the configuration of the three-dimensional measurement system has been described, but in this embodiment, the case where there are a plurality of cameras will be described. In the configuration using a plurality of cameras, when measuring the three-dimensional shape of the target object by projecting the pattern in the direction determined by the method according to any of the first to fifth embodiments, the three-dimensional shape measurement is performed. It is necessary to provide means for determining an image to be performed. The image is determined on the basis of suitability in calculating the three-dimensional shape of the image. In active stereo 3D measurement using a parallel line pattern, the correspondence can be obtained more accurately as the direction of the epipolar line for searching the correspondence of stereo in the image and the pattern direction of the parallel line are closer to 90 degrees. Therefore, in the present embodiment, it is assumed that the aptitude in the calculation of the three-dimensional shape is higher as the direction of the epipolar line in the image and the pattern direction of the parallel line are closer to 90 degrees. For each image that can be acquired from a plurality of cameras, the suitability for calculating the three-dimensional shape is calculated, and the image having the highest suitability is determined as the image to be used for the three-dimensional shape calculation. Hereinafter, a method for calculating the position and orientation of the target object according to the present embodiment will be described. In this embodiment as well, in the same way as in the first embodiment, the shape change distribution, specifically the distribution change in the normal direction of the object surface, is taken into consideration as the object characteristics, and the direction in which the normal direction change is significant. The direction of the projection pattern is determined so that can be measured closely.
図12は、本実施形態に係る情報処理装置60の構成を示している。本実施形態では画像取得部1230に複数台のカメラ110が接続されている。画像決定部1291は、複数のカメラが取得する画像から現在投影しているパターン方向に基づいて三次元形状の計算に用いる画像を決定する。対象物体の三次元形状計算部1270は選択された画像を用いて三次元形状の計算を行う。その他の装置構成は第1の実施形態と同様である。
FIG. 12 shows the configuration of the
図13は本実施形態に係る処理手順を示したフローチャートである。以降このフローチャートに沿って本実施形態に係る具体的な処理手順を説明する。 FIG. 13 is a flowchart showing a processing procedure according to this embodiment. Hereinafter, a specific processing procedure according to the present embodiment will be described with reference to this flowchart.
(ステップS1301)
ステップS1301では、形状変化算出部1250が、形状変化の分布を算出する。複数のカメラで取得した各画像に対してこれまでの実施形態で説明したいずれかの方法で算出した対象物体の形状変化の分布の和を本実施形態における形状変化の分布とする。
(Step S1301)
In step S1301, the shape
ステップS1302、ステップ1303はそれぞれステップS302、ステップS303と同様の処理でありこれまでに説明した実施形態のいずれかの方法で実現される。 Steps S1302 and 1303 are the same processes as steps S302 and S303, respectively, and are realized by any of the methods of the embodiments described above.
(ステップS1304)
ステップS1304では、画像取得部1230が複数のカメラで画像を取得する。
(Step S1304)
In step S1304, the
(ステップS1305)
ステップS1305では、画像決定部1291が、三次元形状計算に使用すべき画像を選択する。まず、各カメラが取得する画像中におけるパターンの方向を求める。この方向はステップS1302で決められたパターン方向とあらかじめキャリブレーションによって求められているプロジェクタと当該カメラとの相対位置姿勢によって算出される。次にステレオの対応付けに用いるエピポーラ線の方向を求める。この方向は当該カメラとプロジェクタとの相対位置姿勢によって算出される。この相対位置姿勢もあらかじめキャリブレーションによって求められている。こうして画像中における平行線のパターンの方向とエピポーラ線の方向の成す角度を各カメラの画像について求め、角度が最も90度に近いカメラの画像に決定する。
(Step S1305)
In step S1305, the
ステップS1306以降の処理は、ステップS305以降の処理と同様の処理でありこれまでに説明した実施形態のいずれかの方法で実現される。 The processing after step S1306 is the same processing as the processing after step S305, and is realized by any method of the embodiments described so far.
本実施形態のステップS1301では、複数のカメラで画像を取得して形状変化の分布を算出したが必ずしも複数のカメラを使用する必要はなく、パターン方向を決定する為の画像を取得するのに適した一台のカメラを選択してもよい。例えばプロジェクタに最も近いカメラで取得した画像を用いて求めた形状変化の分布を用いてパターンの向きを決定してもよい。 In step S1301 of this embodiment, the distribution of the shape change is calculated by acquiring images with a plurality of cameras, but it is not always necessary to use a plurality of cameras, and is suitable for acquiring an image for determining the pattern direction. A single camera may be selected. For example, the orientation of the pattern may be determined using a distribution of shape changes obtained using an image acquired by a camera closest to the projector.
本実施形態では、プロジェクタの投影画像とカメラの画像との間でステレオ対応を取ることを想定して1台のカメラの画像に決定する方法を説明した。しかし、ステレオ対応にプロジェクタを用いずにカメラ同士の組み合わせを選択する場合でも同様に本発明の実施は可能である。その場合は全てのカメラの組み合わせにおいて同様に平行線のパターンの方向とエピポーラ線の方向の成す角度を算出し、算出された角度が最も90度に近いカメラの組み合わせを選択すればよい。 In the present embodiment, the method of determining the image of one camera on the assumption that stereo correspondence between the projection image of the projector and the image of the camera has been described. However, the present invention can be similarly implemented even when a combination of cameras is selected without using a projector for stereo correspondence. In that case, the angle formed between the direction of the pattern of parallel lines and the direction of the epipolar line may be calculated in the same way for all combinations of cameras, and the combination of cameras with the calculated angle closest to 90 degrees may be selected.
本実施形態では画像中におけるパターンの方向はプロジェクタとカメラの相対位置姿勢に基づいた幾何計算で求めたが、複数のカメラで実際に画像を取得し、各画像からパターンを検出することでより厳密に画像中におけるパターンの方向を算出しても良い。 In this embodiment, the direction of the pattern in the image is obtained by geometric calculation based on the relative position and orientation of the projector and the camera. However, the image is actually acquired by a plurality of cameras, and the pattern is detected more accurately from each image. Alternatively, the direction of the pattern in the image may be calculated.
本実施形態において使用する画像をパターン方向とプロジェクタとカメラの相対位置姿勢から静的に求められる場合は、当該画像を撮影するカメラのみで画像を撮影することで、それ以外のカメラで撮影した画像の処理は省いて効率化してもよい。 When the image used in the present embodiment is statically obtained from the pattern direction and the relative position and orientation of the projector and the camera, the image captured by the other camera is captured by capturing the image only with the camera capturing the image. This process may be omitted to improve efficiency.
本実施形態ではステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度が90度に近い画像に決定する方法を説明した。しかし、必ずしも画像の取捨選択をする必要はなく、エピポーラ線の方向とパターン方向の成す角度に基づいて重みを決定してその重みを用いて複数のカメラの画像を用いた三次元形状計算結果を統合しても良い。 In the present embodiment, the method of determining an image in which the angle between the direction of the epipolar line for performing the stereo correspondence search and the direction of the pattern of the parallel lines is close to 90 degrees has been described. However, it is not always necessary to select images. The weight is determined based on the angle between the epipolar line direction and the pattern direction, and the three-dimensional shape calculation result using the images of a plurality of cameras is used. You may integrate.
以上述べたように、ステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度が90度に近い画像を選択することにより、三次元形状計算の精度を上げ、位置姿勢計測を高精度化することができる。 As described above, by selecting an image in which the angle between the direction of the epipolar line for performing the stereo correspondence search and the direction of the pattern of the parallel lines is close to 90 degrees, the accuracy of the three-dimensional shape calculation is improved, and the position and orientation measurement is performed. High accuracy can be achieved.
[変形例6−1]
アクティブステレオ方式の三次元計測では画像中からパターンの検出が困難な鏡面反射が起こっている領域やパターンが届かない領域では三次元点が計測できない。そこで、本変形例では、三次元形状の計算における適性として上記で説明した画像中におけるパターンの方向とエピポーラ線の方向の成す角度の他に、計測可能領域を考慮する例を説明する。
[Modification 6-1]
In active stereo 3D measurement, 3D points cannot be measured in areas where specular reflection is difficult to detect from an image or areas where the pattern does not reach. Therefore, in this modification, an example in which a measurable area is considered in addition to the angle formed by the pattern direction and the epipolar line direction in the image described above will be described as suitability for calculation of a three-dimensional shape.
具体的にはステップS1304においてパターン方向とエピポーラ線の方向の成す角度が所定の角度よりも大きい画像を複数確保し、これらの画像の中から鏡面反射や影による計測不能領域が最も小さいものを選択する。計測不能領域はプロジェクタの全画素を点灯した状態でカメラで対象物体を撮影し、画像中の輝度が所定値よりも大きい領域を鏡面反射によって計測不能な領域とし、所定値よりも小さい領域を影によって計測不能な領域として判定する。 Specifically, in step S1304, a plurality of images in which the angle formed by the pattern direction and the epipolar line direction is larger than a predetermined angle are secured, and the image having the smallest non-measurable region due to specular reflection or shadow is selected from these images. To do. The non-measurable area is obtained by photographing the target object with the camera with all pixels of the projector turned on, and the area where the luminance in the image is larger than the predetermined value is set as the area that cannot be measured by specular reflection, and the area that is smaller than the predetermined value is shadowed. Is determined as an unmeasurable area.
なお、上記では計測不能領域を画像の輝度に基づいて算出したが、対象物体の形状と表面の性質、プロジェクタ及びカメラの位置姿勢を別途取得可能であればこれらの情報に基づいて幾何的に算出しても良い。この場合、カメラから見てプロジェクタから発する光線が対象物体の表面で反射したのちにカメラに正面から入射するときに対象物体上の反射した領域が鏡面反射する素材である場合は、そこで鏡面反射が発生しており計測不能な領域とする。対象物体の表面で反射せずプロジェクタからの光が届かない領域で且つカメラから観測できる領域を影によって計測不能な領域として判定する。 In the above, the non-measurable area was calculated based on the brightness of the image. However, if the shape and surface properties of the target object and the position and orientation of the projector and camera can be obtained separately, geometrically calculated based on these information. You may do it. In this case, if the light reflected from the projector as viewed from the camera is reflected from the surface of the target object and then the reflected area on the target object enters the camera from the front, the specular reflection occurs there. An area that has occurred and cannot be measured. An area that is not reflected by the surface of the target object and does not reach the light from the projector and that can be observed from the camera is determined as an area that cannot be measured by a shadow.
上記ではパターン方向とエピポーラ線の方向の成す角度が90度に近く且つ計測不能領域が最も小さいカメラの画像を選択した。しかし、必ずしも一つの画像を選択する必要はなく、領域毎に使用する画像を切り替えてもよい。例えばまずパターン方向とエピポーラ線の方向の成す角度が最も90度に近いカメラの画像を選ぶ。そして、その画像中で計測可能な領域はその画像を用いて三次元形状を計算し、計測不能な領域は角度がなるべく90度に近い別のカメラで、且つ当該領域を計測可能であるカメラの画像を用いて三次元形状を計算すればよい。さらに領域毎に三次元形状に使用する画像を切り替えるだけでなく、投影光のパターン方向を切り替えてもよい。 In the above description, a camera image in which the angle formed by the pattern direction and the epipolar line direction is close to 90 degrees and the non-measurable area is the smallest is selected. However, it is not always necessary to select one image, and the image to be used may be switched for each region. For example, first, an image of a camera whose angle between the pattern direction and the epipolar line direction is closest to 90 degrees is selected. Then, the measurable area in the image is calculated by using the image, and the three-dimensional shape is calculated. The non-measurable area is another camera whose angle is as close to 90 degrees as possible, and the area where the area can be measured. What is necessary is just to calculate a three-dimensional shape using an image. Furthermore, not only the image used for the three-dimensional shape may be switched for each region, but the pattern direction of the projection light may be switched.
以上述べたように、画像の輝度に基づき計測可能な領域を算出することで対象物体の計測が困難な鏡面反射や影の領域があっても対象物体の三次元形状を計測し高精度に位置姿勢を計測する方法を説明した。 As described above, by calculating the measurable area based on the brightness of the image, even if there is a specular reflection or shadow area where it is difficult to measure the target object, the three-dimensional shape of the target object is measured and positioned with high accuracy. Explained how to measure posture.
[変形例6−2]
本実施形態で説明した画像の決定部1291はステップS1305において決定したカメラ及びその画像をユーザに提示しても良い。
[Modification 6-2]
The
図14はステップS1305で決定したカメラ及びその画像をユーザに提示する画面の一例である。領域700は候補カメラを選択するボタン760で現在選択されているカメラの画像を表示する領域である。パターン710は、投影されているパターンであり、領域720はこのカメラとプロジェクタとのステレオ対応を探索するエピポーラ線の方向を示している。領域730は決定された画像の属性を表示する領域で当該画像を撮影するカメラの番号、画像中におけるパターンの方向、エピポーラ探索方向、エピポーラ探索方向とパターンの方向が成す角度などを表示する。領域740はシステムの構成要素であるプロジェクタとカメラの配置を表示する領域である。対象物体の形状と位置姿勢が別途取得可能な場合は対象物体も表示する。図中ではステップS1305で決定された画像を撮影しているカメラが分かるよう当該カメラを強調して表示する(750)。760は候補カメラを選択するボタンであり、S1305で算出された当該カメラの画像の三次元形状の計算における適性の順に候補が並べられている。このボタンで選択することで任意のカメラ及び画像を領域700、領域740に表示することができる。
FIG. 14 shows an example of a screen that presents the camera determined in step S1305 and its image to the user. An
以上述べたように、ステップS1305において画像決定部260が決定したカメラ及び画像をユーザが確認できるように提示する方法を説明した。 As described above, the method of presenting the camera and the image determined by the image determination unit 260 in step S1305 so that the user can confirm has been described.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
<定義>
本発明における物体の特性とは三次元計測で得られる結果を特徴づける物体の特性であればどのようなものであってもよい。一例が第1〜3の実施形態の形状変化の分布である。
<Definition>
The object characteristic in the present invention may be any object characteristic that characterizes a result obtained by three-dimensional measurement. An example is the distribution of shape change in the first to third embodiments.
本発明における物体の形状変化の分布とは物体の形状に起因して三次元計測で得られる結果を特徴づけるものであればどのようなものであってもよい。その一例が第1、2の実施形態の法線方向の変化の分布や、第3の実施形態の法線方向の分布である。 The distribution of the shape change of the object in the present invention may be any as long as it characterizes the result obtained by the three-dimensional measurement due to the shape of the object. One example is the distribution of changes in the normal direction of the first and second embodiments and the distribution of the normal direction of the third embodiment.
本発明における法線方向の変化の分布とは、直接算出するのが困難であれば二次元画像の特徴から求めた法線方向の変化に相関のある値も含む。その一例が第1の実施形態の対象物体の二次元画像のフーリエ変換のフーリエスペクトルの強度の分布や、二次元画像の勾配の強度の分布である。また、第2の実施形態の対象物体の距離画像のフーリエ変換のフーリエスペクトルの強度の分布もその一例である。 The distribution of the change in the normal direction in the present invention includes a value correlated with the change in the normal direction obtained from the characteristics of the two-dimensional image if it is difficult to directly calculate. One example is the intensity distribution of the Fourier spectrum of the Fourier transform of the two-dimensional image of the target object of the first embodiment and the intensity distribution of the gradient of the two-dimensional image. In addition, the intensity distribution of the Fourier spectrum of the Fourier transform of the distance image of the target object according to the second embodiment is an example.
本発明における三次元形状の算出に適した画像とは、当該画像で三次元形状の計算をする場合の条件が好適なものであればその尺度はどのようなものであってもよい。一例が第6の実施形態で説明した画像中におけるステレオ対応探索を行うエピポーラ線の方向と平行線のパターンの方向の成す角度に基づくもので三次元形状の計算の精度を尺度としている。また、[変形例6−1]で説明した画像中における対象物体の計測が困難な鏡面反射や影の領域の大きさが小さいことも尺度の一例である。 An image suitable for calculation of a three-dimensional shape in the present invention may be any scale as long as the conditions for calculating the three-dimensional shape with the image are suitable. An example is based on the angle formed by the direction of the epipolar line for performing the stereo correspondence search in the image described in the sixth embodiment and the direction of the pattern of the parallel lines, and the accuracy of calculation of the three-dimensional shape is taken as a scale. Another example of the scale is that the size of a specular reflection or shadow region in which it is difficult to measure the target object in the image described in [Modification 6-1] is small.
110 カメラ
120 プロジェクタ
130 画像取得部
140 パターン出力部
150 形状変化算出部
160 パターン方向決定部
170 三次元形状計算部
180 モデル保持部
190 位置姿勢導出部
DESCRIPTION OF
Claims (19)
前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出手段と、
前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。 Image acquisition means for acquiring an image including a target object imaged by the imaging means;
Calculation means for calculating information indicating a change in the shape of the target object based on the image;
An information processing apparatus comprising: a determining unit that determines a direction of a pattern to be projected onto the target object by a projecting unit based on information indicating the change in shape.
撮像手段により撮像された、対象物体を含む画像を取得する画像取得手段と、
前記画像に基づいて、前記画像の輝度勾配の変化を導出する導出手段と、
前記導出した輝度勾配の変化に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。 The distance point used in the position and orientation measurement system for acquiring the position and orientation of the target object by associating the two-dimensional image including the target object with each of the distance point groups indicating the target object and the model of the target object An information processing apparatus for determining a pattern direction for acquiring a group,
Image acquisition means for acquiring an image including a target object imaged by the imaging means;
Derivation means for deriving a change in luminance gradient of the image based on the image;
An information processing apparatus comprising: a determining unit that determines a direction of a pattern to be projected onto the target object by a projecting unit based on the derived change in luminance gradient.
前記画像取得手段は、前記複数の撮像手段で撮像された複数の画像を取得し、
更に、前記取得した複数の画像のうちから、前記対象物体の三次元計測に用いるための画像を決定する画像決定手段を備えることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 A projection unit that projects a pattern having a pattern orientation determined by the determination unit; and a plurality of imaging units that capture the target object on which the pattern is projected,
The image acquisition unit acquires a plurality of images captured by the plurality of imaging units,
10. The apparatus according to claim 1, further comprising an image determination unit that determines an image to be used for three-dimensional measurement of the target object from the plurality of acquired images. Information processing device.
前記対象物体の特性を算出する手段と、
前記特性に基づいて前記投影手段により投影されるパターンの向きを決定する決定手段とを備えることを特徴する情報処理装置。 In an information processing apparatus that measures a three-dimensional shape of a target object based on an image obtained by projecting a pattern onto a target object by a projecting unit and imaging the target object on which the pattern is projected.
Means for calculating characteristics of the target object;
An information processing apparatus comprising: a determination unit that determines a direction of a pattern projected by the projection unit based on the characteristic.
前記画像に基づいて、前記対象物体の形状の変化を示す情報を算出する算出工程と、
前記形状の変化を示す情報に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。 An image acquisition step of acquiring an image including the target object imaged by the imaging means;
A calculation step of calculating information indicating a change in the shape of the target object based on the image;
An information processing method comprising: a determining step of determining a direction of a pattern projected onto the target object by a projecting unit based on information indicating the change in shape.
撮像手段により撮像された、対象物体を含む画像を取得する画像取得工程と、
前記画像に基づいて、前記画像の輝度勾配を導出する導出工程と、
前記導出した輝度勾配に基づいて、投影手段により前記対象物体に投影するパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。 The distance point used in the position and orientation measurement system for acquiring the position and orientation of the target object by associating the two-dimensional image including the target object with each of the distance point groups indicating the target object and the model of the target object An information processing method for determining a direction of a pattern for acquiring a group,
An image acquisition step of acquiring an image including the target object imaged by the imaging means;
A derivation step for deriving a luminance gradient of the image based on the image;
And a determining step of determining a direction of a pattern to be projected onto the target object by a projecting unit based on the derived luminance gradient.
前記対象物体の特性を算出する工程と、
前記特性に基づいて前記投影手段により投影されるパターンの向きを決定する決定工程とを備えることを特徴する情報処理方法。 In an information processing method for measuring a three-dimensional shape of a target object based on an image obtained by projecting a pattern onto a target object by a projecting unit and imaging the target object on which the pattern is projected,
Calculating the characteristics of the target object;
A determination step of determining a direction of a pattern projected by the projection unit based on the characteristic.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014086612A JP6425406B2 (en) | 2014-04-18 | 2014-04-18 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014086612A JP6425406B2 (en) | 2014-04-18 | 2014-04-18 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015206654A true JP2015206654A (en) | 2015-11-19 |
JP6425406B2 JP6425406B2 (en) | 2018-11-21 |
Family
ID=54603548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014086612A Active JP6425406B2 (en) | 2014-04-18 | 2014-04-18 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6425406B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017110975A (en) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | Measuring device, system, measurement method, determination method, and program |
JP2017129525A (en) * | 2016-01-22 | 2017-07-27 | キヤノン株式会社 | Measurement device, control method thereof, and program |
JP2017146170A (en) * | 2016-02-16 | 2017-08-24 | 株式会社日立製作所 | Shape measuring system and shape measuring method |
CN115086538A (en) * | 2021-03-15 | 2022-09-20 | 北京字跳网络技术有限公司 | Shooting position determining method, device, equipment and medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63229313A (en) * | 1987-03-19 | 1988-09-26 | Fujitsu Ltd | Mounting part inspection apparatus |
JPH04279811A (en) * | 1991-03-08 | 1992-10-05 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional object discrimination method and posture decision method |
JP2003202216A (en) * | 2002-01-08 | 2003-07-18 | Canon Inc | Method, device, system and program for three-dimensional image processing |
JP2007139622A (en) * | 2005-11-18 | 2007-06-07 | Olympus Corp | Three-dimensional shape measuring device |
JP2010256149A (en) * | 2009-04-24 | 2010-11-11 | Keyence Corp | Transmissive dimension measuring device |
JP2012215394A (en) * | 2011-03-31 | 2012-11-08 | Dainippon Screen Mfg Co Ltd | Three-dimensional measuring apparatus and three-dimensional measuring method |
JP2014055815A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
-
2014
- 2014-04-18 JP JP2014086612A patent/JP6425406B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63229313A (en) * | 1987-03-19 | 1988-09-26 | Fujitsu Ltd | Mounting part inspection apparatus |
JPH04279811A (en) * | 1991-03-08 | 1992-10-05 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional object discrimination method and posture decision method |
JP2003202216A (en) * | 2002-01-08 | 2003-07-18 | Canon Inc | Method, device, system and program for three-dimensional image processing |
JP2007139622A (en) * | 2005-11-18 | 2007-06-07 | Olympus Corp | Three-dimensional shape measuring device |
JP2010256149A (en) * | 2009-04-24 | 2010-11-11 | Keyence Corp | Transmissive dimension measuring device |
JP2012215394A (en) * | 2011-03-31 | 2012-11-08 | Dainippon Screen Mfg Co Ltd | Three-dimensional measuring apparatus and three-dimensional measuring method |
JP2014055815A (en) * | 2012-09-11 | 2014-03-27 | Keyence Corp | Shape measuring device, shape measuring method, and shape measuring program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017110975A (en) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | Measuring device, system, measurement method, determination method, and program |
JP2017129525A (en) * | 2016-01-22 | 2017-07-27 | キヤノン株式会社 | Measurement device, control method thereof, and program |
JP2017146170A (en) * | 2016-02-16 | 2017-08-24 | 株式会社日立製作所 | Shape measuring system and shape measuring method |
CN115086538A (en) * | 2021-03-15 | 2022-09-20 | 北京字跳网络技术有限公司 | Shooting position determining method, device, equipment and medium |
CN115086538B (en) * | 2021-03-15 | 2024-03-15 | 北京字跳网络技术有限公司 | Shooting position determining method, device, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP6425406B2 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6635690B2 (en) | Information processing apparatus, information processing method and program | |
GB2564794B (en) | Image-stitching for dimensioning | |
CN103649674B (en) | Measuring equipment and messaging device | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
KR101601331B1 (en) | System and method for three-dimensional measurment of the shape of material object | |
JP5921271B2 (en) | Object measuring apparatus and object measuring method | |
JP5655134B2 (en) | Method and apparatus for generating texture in 3D scene | |
CN107025663A (en) | It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system | |
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP2009264862A (en) | Three-dimensional shape measuring method and device | |
JP2012058076A (en) | Three-dimensional measurement device and three-dimensional measurement method | |
JP2010071782A (en) | Three-dimensional measurement apparatus and method thereof | |
JP6566768B2 (en) | Information processing apparatus, information processing method, and program | |
WO2015049853A1 (en) | Dimension measurement device, dimension measurement method, dimension measurement system, and program | |
JP6937642B2 (en) | Surface evaluation method and surface evaluation device | |
Přibyl et al. | Feature point detection under extreme lighting conditions | |
JP6425406B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6278842B2 (en) | Inspection device, inspection method, and program | |
JP6115639B2 (en) | Information processing apparatus, inspection range calculation method, and program | |
JP2018063693A (en) | Image processing device, image processing method, and program | |
WO2019230171A1 (en) | Laser calibration device, calibration method therefor, and image input device including laser calibration device | |
WO2020075213A1 (en) | Measurement apparatus, measurement method, and microscopic system | |
JP6381262B2 (en) | Information processing apparatus, information processing method, and program | |
JP6822086B2 (en) | Simulation equipment, simulation method and simulation program | |
KR101314101B1 (en) | System for three-dimensional measurement and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181023 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6425406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |