JP2021009140A - Measuring apparatus, imaging apparatus, measuring system, control method and program - Google Patents

Measuring apparatus, imaging apparatus, measuring system, control method and program Download PDF

Info

Publication number
JP2021009140A
JP2021009140A JP2020106407A JP2020106407A JP2021009140A JP 2021009140 A JP2021009140 A JP 2021009140A JP 2020106407 A JP2020106407 A JP 2020106407A JP 2020106407 A JP2020106407 A JP 2020106407A JP 2021009140 A JP2021009140 A JP 2021009140A
Authority
JP
Japan
Prior art keywords
pattern
image
subject
measuring device
viewpoints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020106407A
Other languages
Japanese (ja)
Inventor
章成 高木
Akinari Takagi
章成 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2020/024635 priority Critical patent/WO2020262389A1/en
Priority to CN202080047551.7A priority patent/CN114080535A/en
Publication of JP2021009140A publication Critical patent/JP2021009140A/en
Priority to US17/560,523 priority patent/US20220113131A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

To realize good measuring accuracy while suppressing increase of an apparatus scale or reduction of usability.SOLUTION: A measuring apparatus comprises: a projection device that projects a predetermined pattern onto a subject; an imaging system that images an image group from at least two or more different view points, distance among the view points being shorter than distance between the projection device and the view point; and relative position calculation means that calculates a relative position of the projection device relative to the at least one view point from a pattern image position on the image group and a physical relationship between the view points, and acquires distance information of the subject from the relative position and the pattern image position on an image in the view point.SELECTED DRAWING: Figure 1

Description

本発明は、計測装置、撮像装置、計測システム、制御方法及びプログラムに関し、特にステレオ法を含む複数の方式の距離計測を併用する計測技術に関する。 The present invention relates to a measuring device, an imaging device, a measuring system, a control method and a program, and more particularly to a measuring technique in which a plurality of methods of distance measurement including a stereo method are used in combination.

従来、撮像によって得られた画像から三角測量の原理を用いて、被写体の距離情報や形状情報を取得する技術、所謂ステレオ法が提案されている。例えば、同一被写体を異なる位置に置いた2つの撮像装置で撮像することにより取得した視差画像対を用いて、三角測量の原理で被写体の形状計測を行うパッシブステレオ法がある。また、テクスチャの少ない物体や、暗所での形状計測を行う方法として、パターン投影ステレオ法がある。パターン投影ステレオ法は、投影装置により被写体に既定のパターンを投影して投影装置とは異なる位置に置いた撮像装置により撮像し、投影装置および撮像装置の位置関係と、撮像で得られた画像上のパターンの位置関係とから、三角測量の原理を用いて被写体の距離情報や形状情報を取得するものである。さらに、精度向上などを目的とし、パターン投影ステレオ法とパッシブステレオ法を併用するハイブリッド型も提案されている(特許文献1)。 Conventionally, a technique for acquiring distance information and shape information of a subject by using the principle of triangulation from an image obtained by imaging, a so-called stereo method, has been proposed. For example, there is a passive stereo method in which the shape of a subject is measured by the principle of triangulation using a parallax image pair acquired by imaging the same subject with two imaging devices placed at different positions. In addition, there is a pattern projection stereo method as a method for measuring the shape of an object having a small texture or in a dark place. In the pattern projection stereo method, a predetermined pattern is projected onto a subject by a projection device and an image is taken by an imaging device placed at a position different from that of the projection device. The positional relationship between the projection device and the imaging device and the image obtained by the imaging are displayed. From the positional relationship of the patterns of, the distance information and shape information of the subject are acquired using the principle of triangulation. Further, for the purpose of improving accuracy and the like, a hybrid type in which the pattern projection stereo method and the passive stereo method are used in combination has also been proposed (Patent Document 1).

特開2002−286415号公報JP-A-2002-286415

特許文献1にはパッシブステレオ法とパターン投影ステレオ法とを併用するハイブリッド型が提案されているが、その具体的な構成および手法については開示されていない。 Patent Document 1 proposes a hybrid type in which a passive stereo method and a pattern projection stereo method are used in combination, but a specific configuration and method thereof are not disclosed.

ステレオ法は三角測量の原理を用いるため、視差を発生させる2つの要素の位置関係が既定(既知)かつ安定していることが、高い計測精度を得るために重要である。ここで、2つの要素とは、パッシブステレオ法では2つの撮像装置であり、パターン投影ステレオ法では投影装置と撮像装置である。従って、パッシブステレオ法とパターン投影ステレオ法とを併用する場合には、2つの撮像装置間の位置関係と、1つの撮像装置と投影装置との位置関係のそれぞれが既知であり、かつ、安定していることが高い計測精度を得るために重要である。 Since the stereo method uses the principle of triangulation, it is important that the positional relationship between the two elements that generate parallax is default (known) and stable in order to obtain high measurement accuracy. Here, the two elements are two imaging devices in the passive stereo method, and a projection device and an imaging device in the pattern projection stereo method. Therefore, when the passive stereo method and the pattern projection stereo method are used in combination, the positional relationship between the two imaging devices and the positional relationship between one imaging device and the projection device are known and stable. It is important to have high measurement accuracy.

また、三角測量の原理上、視差を発生させる2つの要素間の距離(基線長)が長いほど高い計測精度を得る上で有利である。 Further, in principle of triangulation, the longer the distance (baseline length) between two elements that generate parallax, the more advantageous it is to obtain higher measurement accuracy.

しかしながら、温度環境や振動などの存在下で、2つの要素の位置関係を既知かつ安定させるためには、頑丈に2つの要素を固定する必要があり、計測システムの構成が複雑かつ大型化するという課題がある。さらに、高精度に計測するために2つの要素の間隔である基線長を長くすると、機械的な安定性が低下するため、2つの要素を保持する機構のさらなる大型化の要因になるという課題があった。 However, in order to know and stabilize the positional relationship between the two elements in the presence of temperature environment and vibration, it is necessary to firmly fix the two elements, which makes the configuration of the measurement system complicated and large. There are challenges. Furthermore, if the baseline length, which is the distance between the two elements, is increased in order to measure with high accuracy, the mechanical stability is lowered, which causes a problem that the mechanism for holding the two elements is further increased in size. there were.

一方で、投影装置と撮像装置の位置関係を固定とすると、例えば影を生じさせないように被写体の形状に応じてパターンを投影する等、投影の位置や向きを調整可能な範囲が制限されるため、使い勝手が低下するという課題も生じる。 On the other hand, if the positional relationship between the projection device and the image pickup device is fixed, the range in which the position and orientation of the projection can be adjusted is limited, for example, by projecting a pattern according to the shape of the subject so as not to cause shadows. , There is also a problem that usability is reduced.

また、投影装置を用いてパターンを投影させることで被写体上にテクスチャを形成できるため、テクスチャの少ない物体や暗所でもパッシブステレオ法での形状計測が可能となる。しかしながら、この場合、パターン投影はあくまでパッシブステレオ法の改善を目的としたものであり、パターン投影ステレオ法が併用される構成とは異なる。従って、ハイブリッド型の場合に比べ、計測の安定性や精度が低いという課題があった。 Further, since a texture can be formed on the subject by projecting a pattern using a projection device, it is possible to measure the shape by the passive stereo method even in an object with a small texture or in a dark place. However, in this case, the pattern projection is only for the purpose of improving the passive stereo method, and is different from the configuration in which the pattern projection stereo method is used together. Therefore, there is a problem that the measurement stability and accuracy are lower than those of the hybrid type.

本発明は、このような従来技術の課題の少なくともいずれかを軽減することを目的としたものであり、装置規模の増大や使い勝手の低下を抑制しつつ、良好な計測精度を実現する計測装置、撮像装置、計測システム、制御方法及びプログラムを提供することを目的とする。 The present invention aims to alleviate at least one of the problems of the prior art, and is a measuring device that realizes good measurement accuracy while suppressing an increase in the scale of the device and a decrease in usability. It is an object of the present invention to provide an imaging device, a measurement system, a control method and a program.

被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置において、
前記視点間の距離は、前記投影装置と前記視点の距離よりも短く、
前記画像群上のパターン像位置および前記視点間の位置関係から、少なくともひとつの前記視点に対する前記投影装置の相対位置を求める相対位置算出手段を有し、
該相対位置と前記視点での画像上のパターン像位置から前記被写体の距離情報を取得することを特徴とする計測装置。
In a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures image groups from at least two different viewpoints.
The distance between the viewpoints is shorter than the distance between the projection device and the viewpoints.
It has a relative position calculation means for obtaining a relative position of the projection device with respect to at least one of the viewpoints from the pattern image position on the image group and the positional relationship between the viewpoints.
A measuring device characterized in that distance information of the subject is acquired from the relative position and the pattern image position on the image at the viewpoint.

本発明によれば、装置規模の増大や使い勝手の低下を抑制しつつ、良好な計測精度を実現できる。 According to the present invention, good measurement accuracy can be realized while suppressing an increase in the scale of the apparatus and a decrease in usability.

本発明の実施形態に係る計測システムの機能構成を示したブロック図Block diagram showing the functional configuration of the measurement system according to the embodiment of the present invention 第1の実施形態に係る計測装置150で実行される距離計測処理を例示したフローチャートA flowchart illustrating the distance measurement process executed by the measuring device 150 according to the first embodiment. 第1の実施形態におけるパターンの投影態様を説明するための図The figure for demonstrating the projection mode of the pattern in 1st Embodiment. 第1の実施形態に係る計測装置150で実行される距離計測処理の変形例を示したフローチャートA flowchart showing a modified example of the distance measurement process executed by the measuring device 150 according to the first embodiment. 第1の実施形態に係る計測装置150で実行される距離計測の処理の別の変形例を示したフローチャートA flowchart showing another modification of the distance measurement process executed by the measuring device 150 according to the first embodiment. 第1の実施形態に係る投影装置110の位置および姿勢を算出する方法を例示した図The figure which illustrated the method of calculating the position and the posture of the projection apparatus 110 which concerns on 1st Embodiment. 第2の実施形態に係る計測システムの機能構成を示したブロック図Block diagram showing the functional configuration of the measurement system according to the second embodiment 第2の実施形態に係る撮像システム120の詳細構成を説明するための図The figure for demonstrating the detailed configuration of the imaging system 120 which concerns on 2nd Embodiment 第3の実施形態に係る計測装置150で実行される距離計測処理を例示したフローチャートA flowchart illustrating the distance measurement process executed by the measuring device 150 according to the third embodiment. 第3の実施形態に係るパターン投影がなされた状態で得られる撮像画像を例示した図The figure which illustrated the captured image obtained in the state which made the pattern projection which concerns on 3rd Embodiment 第3の実施形態に係る計測装置150で実行される距離計測処理の変形例を示したフローチャートA flowchart showing a modified example of the distance measurement process executed by the measuring device 150 according to the third embodiment. 第3の実施形態に係る計測装置150で実行される距離計測の処理の別の変形例を示したフローチャートA flowchart showing another modification of the distance measurement process executed by the measuring device 150 according to the third embodiment. 第4の実施形態に係る計測装置150で実行される距離計測処理を例示したフローチャートA flowchart illustrating the distance measurement process executed by the measuring device 150 according to the fourth embodiment. 第4の実施形態に係るパターン投影がなされた状態で得られる撮像画像を例示した図The figure which illustrated the captured image obtained in the state which made the pattern projection which concerns on 4th Embodiment

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate description is omitted.

以下に説明する一実施形態は、計測システムの一例としての、2つの撮像装置(カメラ)及び1つの投影装置と、これらが接続された計測装置とを含み、撮像装置から被写体までの距離を計測可能な計測システムに、本発明を適用した例を説明する。しかし、本発明は、パターン投影を行った状態でのパッシブステレオ法を用いた奥行方向の距離計測が可能な任意の機器に適用可能である。 One embodiment described below includes two imaging devices (cameras) and one projection device as an example of a measurement system, and a measuring device to which these are connected, and measures the distance from the imaging device to the subject. An example in which the present invention is applied to a possible measurement system will be described. However, the present invention can be applied to any device capable of measuring the distance in the depth direction using the passive stereo method in the state where the pattern is projected.

[第1の実施形態]
本発明における計測システム100の構成例を図1に示す。
[First Embodiment]
FIG. 1 shows a configuration example of the measurement system 100 in the present invention.

図1において、計測システム100は、被写体にパターンを投影する投影装置110、被写体からの光束に基づき視差画像を取得する撮像システム120、計測装置150から構成される。 In FIG. 1, the measurement system 100 includes a projection device 110 that projects a pattern on a subject, an imaging system 120 that acquires a parallax image based on a luminous flux from the subject, and a measurement device 150.

投影装置110は、投影光学系111、空間変調器やレチクルおよびLED等の照明部を有するパターン部112で構成される。113は投影光学系111の射出瞳であり、114は投影装置110の投影方向を表す投影軸である。投影装置110は、投影装置110の各ブロックの制御プログラムを記録したROM及び制御プログラムの展開領域として用いられるRAMを含んだ、マイクロコンピュータ等の制御部(不図示)を有し、パターン部112を制御して被写体にパターン(光)を投影する。 The projection device 110 is composed of a projection optical system 111, a pattern unit 112 having an illumination unit such as a spatial modulator, a reticle, and an LED. Reference numeral 113 denotes an exit pupil of the projection optical system 111, and 114 is a projection axis representing the projection direction of the projection device 110. The projection device 110 has a control unit (not shown) such as a microcomputer including a ROM in which a control program of each block of the projection device 110 is recorded and a RAM used as an expansion area of the control program, and has a pattern unit 112. It controls and projects a pattern (light) on the subject.

撮像システム120は第1のカメラ130と第2のカメラ140で構成され、2つの異なる視点からの画像群を撮像する。第1のカメラ130は、第1の撮像光学系131とCCDやCMOSセンサ等の第1の撮像素子132を有し、第1の撮像光学系131の第1の入射瞳133を視点とし、第1の撮像軸134を撮像方向とする画像を撮像する。第2のカメラ140は、第2の撮像光学系141とCCDやCMOSセンサ等の第2の撮像素子142を有し、第2の撮像光学系141の第2の入射瞳143を視点とし、第2の撮像軸144を撮像方向とする画像を撮像する。なお、第1の入射瞳133と第2の入射瞳143の間の距離は、投影装置の射出瞳113と撮像システム120の第1の入射瞳133の間の距離よりも短くなるように構成している。また、第1のカメラ130と第2のカメラ140はそれぞれ、CPU・ROM・RAMからなる制御部、撮像素子から出力される画像信号に現像、補正等の画像処理を施しデジタルデータの撮像画像を生成する画像処理部等、デジタルカメラに一般的に備わる構成を備える。 The imaging system 120 is composed of a first camera 130 and a second camera 140, and images a group of images from two different viewpoints. The first camera 130 has a first image pickup optical system 131 and a first image pickup element 132 such as a CCD or a CMOS sensor, with the first entrance pupil 133 of the first image pickup optical system 131 as a viewpoint. An image is taken with the image pickup axis 134 of 1 as the image pickup direction. The second camera 140 has a second image pickup optical system 141 and a second image pickup element 142 such as a CCD or a CMOS sensor, with the second entrance pupil 143 of the second image pickup optical system 141 as a viewpoint. An image is taken with the image pickup axis 144 of 2 as the image pickup direction. The distance between the first entrance pupil 133 and the second entrance pupil 143 is set to be shorter than the distance between the exit pupil 113 of the projection device and the first entrance pupil 133 of the imaging system 120. ing. Further, each of the first camera 130 and the second camera 140 performs image processing such as development and correction on the image signal output from the control unit including the CPU, ROM, and RAM, and the image sensor, and obtains the captured image of digital data. It is provided with a configuration generally provided in a digital camera, such as an image processing unit for generating.

計測装置150は、CPUからなる制御部151、メモリ152、相対位置算出部154および距離形状算出部153を有している。制御部151は、メモリ152の不揮発性部分(以下、便宜上ROMと呼ぶ)に記憶されている各ブロックの動作プログラムを読み出し、メモリ152の別領域に展開して実行することにより各ブロックの動作を制御する。また、計測装置150は、外部装置である撮像システム120及び投影装置110と接続し、各装置との間でのデータの送受信を可能とする。 The measuring device 150 includes a control unit 151 including a CPU, a memory 152, a relative position calculation unit 154, and a distance shape calculation unit 153. The control unit 151 reads the operation program of each block stored in the non-volatile portion of the memory 152 (hereinafter, referred to as ROM for convenience), expands the operation program of each block into another area of the memory 152, and executes the operation of each block. Control. Further, the measuring device 150 is connected to the imaging system 120 and the projection device 110, which are external devices, and can transmit and receive data to and from each device.

次に、計測システム100が行う距離形状の算出フローについて、図2Aを用いて説明する。本フローの各処理は、計測装置150の制御部151が対応する制御プログラムを実行することで、制御部151によって、あるいは、制御部151の制御に従って各ブロックが動作することによって実施される。 Next, the calculation flow of the distance shape performed by the measurement system 100 will be described with reference to FIG. 2A. Each process of this flow is executed by the control unit 151 of the measuring device 150 executing the corresponding control program, or by operating each block under the control of the control unit 151 or the control unit 151.

ステップS1501では、制御部151が、通信部を介して投影装置110にパターンの投影指示を行い、また通信部を介して撮像システム120にパターンが投影された状態で撮像を指示し、撮像システム120から撮像により得られる一対の視差画像を取得する。図2Bに示すように、投影装置110は上記計測装置150からの指示を受けて、パターン部112および投影光学系111により投影軸114の方向に、被写体にパターン200を投影する。撮像システム120は上記計測装置150からの指示を受けて、第1のカメラ130および第2のカメラ140で、被写体およびパターン200の視差画像を撮像する。 In step S1501, the control unit 151 gives an instruction to project a pattern to the projection device 110 via the communication unit, and also instructs the image pickup system 120 to take an image in a state where the pattern is projected to the image pickup system 120 via the communication unit. A pair of parallax images obtained by imaging is acquired from. As shown in FIG. 2B, the projection device 110 receives an instruction from the measurement device 150 and projects the pattern 200 onto the subject in the direction of the projection axis 114 by the pattern unit 112 and the projection optical system 111. In response to the instruction from the measuring device 150, the imaging system 120 captures a parallax image of the subject and the pattern 200 with the first camera 130 and the second camera 140.

ステップ1502で、距離形状算出部153が、撮像した視差画像上の被写体およびパターン像の位置と各視点の位置関係から、パッシブステレオ法の公知の方法で、被写体の一次距離情報を算出する。 In step 1502, the distance shape calculation unit 153 calculates the primary distance information of the subject from the positions of the subject and the pattern image on the captured parallax image and the positional relationship of each viewpoint by a known method of the passive stereo method.

次にステップS1503で、相対位置算出部154が、被写体の一次距離情報と視差画像上のパターン像の位置から、撮像システム120の第1の入射瞳133の位置に対する投影装置110の位置および姿勢である射出瞳113の位置および投影軸114を算出する。なお、本実施形態では投影装置110の位置姿勢が、第1のカメラ130の位置姿勢を基準とした相対的な位置姿勢であるものとして説明する。しかし第2のカメラ140の位置姿勢を基準とした相対的な位置姿勢でもよい。 Next, in step S1503, the relative position calculation unit 154 determines the position and orientation of the projection device 110 with respect to the position of the first entrance pupil 133 of the imaging system 120 from the position of the primary distance information of the subject and the pattern image on the parallax image. The position of a certain exit pupil 113 and the projection axis 114 are calculated. In the present embodiment, the position and orientation of the projection device 110 will be described as being relative to the position and orientation of the first camera 130. However, the position / orientation relative to the position / orientation of the second camera 140 may be used.

次にステップS1504で、距離形状算出部153が、算出した投影装置110の位置姿勢と、撮像システム120の位置姿勢と視差画像上のパターン像の位置から、パターン投影ステレオ法の公知の方法で、被写体の二次距離情報を算出する。 Next, in step S1504, the distance shape calculation unit 153 uses a known method of the pattern projection stereo method from the calculated position / orientation of the projection device 110, the position / orientation of the imaging system 120, and the position of the pattern image on the parallax image. Calculate the secondary distance information of the subject.

そしてステップS1505で、制御部151は、算出した二次距離情報を、図示しない記憶部に記憶、あるいは記録部や通信部等を介して外部装置に出力する。このとき、投影装置110の射出瞳113と撮像システム120の第1の入射瞳133の間の距離(基線長)は、撮像システム120の第1の入射瞳133と第2の入射瞳143の間の距離(基線長)より長い。このため、撮像システム120によるパッシブステレオ法で求めた一次距離情報より、投影装置110および撮像システム120によるパターン投影ステレオ法で求めた二次距離情報のほうが、距離精度が高い。よって、撮像システム120の第1のカメラ130と第2のカメラについては、所望の計測精度を得るために必要な基線長よりも、短い基線長での位置関係を保持するだけで良いことになり、より簡易な構成で高い測距精度を得ることができる。 Then, in step S1505, the control unit 151 stores the calculated secondary distance information in a storage unit (not shown), or outputs the calculated secondary distance information to an external device via a recording unit, a communication unit, or the like. At this time, the distance (baseline length) between the exit pupil 113 of the projection device 110 and the first entrance pupil 133 of the imaging system 120 is between the first entrance pupil 133 and the second entrance pupil 143 of the imaging system 120. Longer than the distance (baseline length). Therefore, the secondary distance information obtained by the pattern projection stereo method by the projection device 110 and the imaging system 120 has higher distance accuracy than the primary distance information obtained by the passive stereo method by the imaging system 120. Therefore, it is only necessary to maintain the positional relationship between the first camera 130 and the second camera of the imaging system 120 at a baseline length shorter than the baseline length required to obtain the desired measurement accuracy. , High distance measurement accuracy can be obtained with a simpler configuration.

また図3Aに示すように、制御部151は、図2Aで行う処理に加えてパッシブステレオ法で求めた一次距離情報と、パターン投影ステレオ法で求めた二次距離情報を統合して、被写体の距離情報を求めるステップS1506を行っても良い。なお、図3Aのフローの各処理も、計測装置150の制御部151によって、あるいは制御部151の制御に従って各ブロックが動作することによって実施される。例えば、投影装置110の位置と被写体の形状の関係によっては、被写体の影となってパターンが投影されない領域が発生する場合がある。このとき被写体の持つ模様を手掛かりに、パッシブステレオ法では一次距離情報を取得できる場合があり、一次距離情報と二次距離情報を統合することで、欠損の無い距離情報を得ることができる。 Further, as shown in FIG. 3A, the control unit 151 integrates the primary distance information obtained by the passive stereo method and the secondary distance information obtained by the pattern projection stereo method in addition to the processing performed in FIG. 2A to integrate the subject. Step S1506 for obtaining the distance information may be performed. Each process of the flow of FIG. 3A is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151. For example, depending on the relationship between the position of the projection device 110 and the shape of the subject, there may be a region where the pattern is not projected as a shadow of the subject. At this time, the passive stereo method may be able to acquire the primary distance information by using the pattern of the subject as a clue, and by integrating the primary distance information and the secondary distance information, it is possible to obtain the distance information without any loss.

次に、ステップS1503に係る、制御部151が被写体の一次距離情報と視差画像上のパターン像の位置から、投影装置110の位置および姿勢である射出瞳113の位置および投影軸114を算出する方法を、図4を用いて説明する。図4は、被写体300にパターンを投影して距離を計測する場合を示している。投影装置110の射出瞳113から投影軸114の方向にパターンを投影し、第1のカメラ130の第1の入射瞳133および第2のカメラ140の第2の入射瞳143について視差画像が取得される。まず、被写体300の表面上に形成されたパターンのうち、任意の2か所(パターン201、パターン202)の一次距離情報を算出し、第1のカメラ130の第1の入射瞳133の位置に対する各パターンの相対位置座標を求める。第1の入射瞳133に対する相対位置座標とは、例えば、第1の入射瞳133を原点とし、第1の入射瞳133と第2の入射瞳143を結んだ直線を一つの軸として、それと直交する方向に他の軸を設定した直交座標系における位置座標である。次に、パターン201とパターン202の投影角度をθ1としたとき、パターン201とパターン202の2点を通り、θ1が円周角となる円310を求める。この時、投影装置の射出瞳113は、円310の円周上のいずれかの位置に存在することになる。なお、投影角度θ1は投影装置110について既知の情報であり、例えば、パターン部112および投影光学系111の幾何関係から決定されるものである。次に、被写体300の表面上に形成されたパターンのうち、別の1か所(パターン203)の一次距離情報を算出し、第一のカメラの第1の入射瞳133の位置に対するパターンの相対位置座標を求める。パターン202とパターン203の投影角度をθ2としたとき、パターン202とパターン203の2点を通り、θ2が円周角となる円311を求める。この時、投影装置の射出瞳113は、円311の円周上のいずれかの位置に存在することになる。つまり、円310と円311の交点のうち、パターン202ではないほうの交点が射出瞳113の位置となる。本実施形態では、パターン202として、投影軸上のパターンを選択している。この時、射出瞳113の位置とパターン202の位置を結んだ線分を含む直線が投影軸114となる。このように、被写体の一次距離情報と視差画像上のパターン像の位置から、投影装置110の位置および姿勢である射出瞳113の位置および投影軸114を算出することができる。 Next, according to step S1503, the control unit 151 calculates the position and orientation of the projection device 110, the position of the exit pupil 113, and the projection axis 114 from the primary distance information of the subject and the position of the pattern image on the parallax image. Will be described with reference to FIG. FIG. 4 shows a case where a pattern is projected onto the subject 300 to measure the distance. A pattern is projected from the exit pupil 113 of the projection device 110 in the direction of the projection axis 114, and parallax images are acquired for the first entrance pupil 133 of the first camera 130 and the second entrance pupil 143 of the second camera 140. To. First, among the patterns formed on the surface of the subject 300, the primary distance information of arbitrary two places (pattern 201, pattern 202) is calculated, and the position of the first entrance pupil 133 of the first camera 130 is obtained. Find the relative position coordinates of each pattern. The relative position coordinates with respect to the first entrance pupil 133 are, for example, orthogonal to the first entrance pupil 133 as the origin and the straight line connecting the first entrance pupil 133 and the second entrance pupil 143 as one axis. It is a position coordinate in a Cartesian coordinate system in which another axis is set in the direction of the movement. Next, when the projection angles of the pattern 201 and the pattern 202 are set to θ1, a circle 310 in which θ1 is the inscribed angle is obtained through the two points of the pattern 201 and the pattern 202. At this time, the exit pupil 113 of the projection device is present at any position on the circumference of the circle 310. The projection angle θ1 is known information about the projection device 110, and is determined from, for example, the geometric relationship between the pattern unit 112 and the projection optical system 111. Next, among the patterns formed on the surface of the subject 300, the primary distance information of another one place (pattern 203) is calculated, and the pattern is relative to the position of the first entrance pupil 133 of the first camera. Find the position coordinates. When the projection angles of the pattern 202 and the pattern 203 are set to θ2, a circle 311 passing through the two points of the pattern 202 and the pattern 203 and having θ2 as the inscribed angle is obtained. At this time, the exit pupil 113 of the projection device is present at any position on the circumference of the circle 311. That is, the intersection of the circle 310 and the circle 311 that is not the pattern 202 is the position of the exit pupil 113. In this embodiment, a pattern on the projection axis is selected as the pattern 202. At this time, the straight line including the line segment connecting the position of the exit pupil 113 and the position of the pattern 202 becomes the projection axis 114. In this way, the position of the exit pupil 113 and the projection axis 114, which are the positions and postures of the projection device 110, can be calculated from the primary distance information of the subject and the position of the pattern image on the parallax image.

なお、本実施形態では、被写体表面上の3か所の相対位置情報を用いたが、4か所以上の情報を用いて、平均化処理等を用いて、より高い精度で射出瞳113の位置および投影軸114を求めても良い。また、射出瞳113の位置の座標や投影軸114の方向に関する事前情報が有る場合は、2か所の相対位置情報でも、射出瞳113の位置および投影軸114を求めることができる。例えば、第1の入射瞳133を原点とする座標系に対する投影軸114の傾きがわかっている場合、2か所の相対位置情報で求めた円310と、パターン202の位置を通る投影軸114との交点が射出瞳113の位置となる。なお、図4に示すような幾何関係を用いて、投影装置110の射出瞳113の位置や投影軸114を求める方法は、本実施形態に示した工程に限られるものではない。撮像システム120で取得した視差画像上のパターン像位置および視点間の位置関係を入力情報として、少なくともひとつの視点に対する投影装置の相対位置を求める方法であれば良く、一次距離情報などの中間データを用いない方法でも良い。 In the present embodiment, the relative position information of three places on the surface of the subject is used, but the position of the exit pupil 113 is performed with higher accuracy by using the information of four or more places and using an averaging process or the like. And the projection axis 114 may be obtained. Further, when there is prior information regarding the coordinates of the position of the exit pupil 113 and the direction of the projection axis 114, the position of the exit pupil 113 and the projection axis 114 can be obtained from the relative position information of the two locations. For example, when the inclination of the projection axis 114 with respect to the coordinate system with the first entrance pupil 133 as the origin is known, the circle 310 obtained from the relative position information at two locations and the projection axis 114 passing through the position of the pattern 202 The intersection of is the position of the exit pupil 113. The method of obtaining the position of the exit pupil 113 of the projection device 110 and the projection axis 114 by using the geometric relationship as shown in FIG. 4 is not limited to the process shown in the present embodiment. Any method may be used in which the relative position of the projection device with respect to at least one viewpoint is obtained by using the pattern image position on the parallax image acquired by the imaging system 120 and the positional relationship between the viewpoints as input information, and intermediate data such as primary distance information can be obtained. A method that is not used may be used.

本実施形態では、投影装置110の位置姿勢を、図4を用いて、撮像システム120の第1の入射瞳133および第2の入射瞳143を結んだ線分を含む二次元平面内で作図的に求める方法を説明した。投影装置110の射出瞳113の位置が、この二次元平面内に無い場合は、第1のカメラ130の第1の入射瞳133を含み、図4に示す平面と直交する平面内でも幾何関係を用いて投影装置110の位置姿勢を求める。各平面内で求めた位置姿勢を合成して、三次元的な位置姿勢を求めることができる。なお、投影装置110が、撮像システム120の第1の入射瞳133および第2の入射瞳143を結んだ直線の延長線上の位置に配置されていることが好ましい。これにより、投影装置110の位置姿勢を二次元平面内でのみ求めればよく、計算量を減らせるため、高速化や消費電力を抑制できる。 In the present embodiment, the position and orientation of the projection device 110 are plotted in a two-dimensional plane including a line segment connecting the first entrance pupil 133 and the second entrance pupil 143 of the imaging system 120 by using FIG. Explained how to ask for. If the position of the exit pupil 113 of the projection device 110 is not in this two-dimensional plane, the geometric relationship is formed even in a plane orthogonal to the plane shown in FIG. 4, including the first entrance pupil 133 of the first camera 130. The position and orientation of the projection device 110 are obtained by using. It is possible to obtain a three-dimensional position / orientation by synthesizing the position / orientation obtained in each plane. It is preferable that the projection device 110 is arranged at a position on an extension of a straight line connecting the first entrance pupil 133 and the second entrance pupil 143 of the imaging system 120. As a result, the position and orientation of the projection device 110 need only be obtained in the two-dimensional plane, and the amount of calculation can be reduced, so that the speed and power consumption can be suppressed.

以上の構成により、本実施形態では、所望の計測精度を得るために必要な基線長よりも短い基線長での位置関係を保持するだけで良く、より簡易な構成で安定して高い測距精度を得ることができる。 With the above configuration, in the present embodiment, it is only necessary to maintain the positional relationship with the baseline length shorter than the baseline length required to obtain the desired measurement accuracy, and the distance measurement accuracy is stable and high with a simpler configuration. Can be obtained.

また、必要なときに投影装置110の位置姿勢を求めることができるため、投影装置110の位置姿勢を既定の状態に固定せずに、可変にすることができる。これにより、被写体の形状による遮蔽が生じないようにパターンを投影する方向や位置を決めることができ、計測可能な被写体の条件を大幅に拡張することができる。なお、投影装置110の位置姿勢は、計測の度に常に求めなくても良い。例えば、投影装置110の位置姿勢を能動的に変えたときや、環境温度変化や振動などの外乱による位置関係の変化が懸念される場合に、投影装置110の位置姿勢を求めるようにしても良い。 Further, since the position and orientation of the projection device 110 can be obtained when necessary, the position and orientation of the projection device 110 can be made variable without being fixed to a predetermined state. As a result, the direction and position of projecting the pattern can be determined so that the shape of the subject does not block the subject, and the conditions of the measurable subject can be greatly expanded. The position and orientation of the projection device 110 need not always be obtained for each measurement. For example, the position / orientation of the projection device 110 may be obtained when the position / orientation of the projection device 110 is actively changed or when there is a concern about a change in the positional relationship due to a disturbance such as an environmental temperature change or vibration. ..

なお、投影するパターンは、撮像システム120の第1の入射瞳133および第2の入射瞳143を結んだ直線と垂直な方向に延びた線分が、該直線の方向(一対の視差画像にて視差が生じる方向)に略周期的に並んだ縞状のパターンであることが好ましい。このように構成することで、撮像システム120の視差方向にコントラストの高い視差画像が取得でき、パッシブステレオ法による一次距離情報の計測精度を高くすることができる。このような好適なパターンの投影は、テストパターンの投影後、撮像システム120において該テストパターンを撮像した撮像画像に基づいて動的にパターンを構成する態様とすることでも実現できる。 In the pattern to be projected, a line segment extending in a direction perpendicular to the straight line connecting the first entrance pupil 133 and the second entrance pupil 143 of the imaging system 120 is in the direction of the straight line (in a pair of parallax images). It is preferable that the pattern is a striped pattern arranged substantially periodically in the direction in which parallax occurs). With this configuration, a parallax image with high contrast in the parallax direction of the imaging system 120 can be acquired, and the measurement accuracy of the primary distance information by the passive stereo method can be improved. The projection of such a suitable pattern can also be realized by dynamically constructing the pattern based on the captured image obtained by capturing the test pattern in the imaging system 120 after the test pattern is projected.

さらに、縞状のパターンのうち、少なくともひとつの線分(縞)は、それ以外の線分と色や形状を異ならせことが望ましい。これにより視差画像間の対応を取るときに誤対応を抑制でき、計測エラーを軽減できる。特に、投影軸114上のパターンの色や形状を他の線分と異なるものにすることにより、投影軸114の算出を容易にすることができる。また、一次距離情報を測定するために投影するパターン200は、投影された各パターン像を撮像システム120が認識したとき、該パターン間の相対的な位置関係がわかるように、予め撮像システム側にもパターン(間の位置関係)に関する情報が記憶されていることが好ましい。撮像システム120はこれにより、各パターンが投影された位置にある被写体の瞳分割方向の位置関係を、パターン同士の位置関係(例えば縞状パターンでは縞間の位置関係)から容易に推定することが出来る。 Further, it is desirable that at least one line segment (striped) of the striped pattern has a different color and shape from the other line segments. As a result, it is possible to suppress erroneous correspondence when taking correspondence between parallax images, and it is possible to reduce measurement errors. In particular, the calculation of the projection axis 114 can be facilitated by making the color and shape of the pattern on the projection axis 114 different from those of other line segments. Further, the pattern 200 projected to measure the primary distance information is placed on the imaging system side in advance so that when the imaging system 120 recognizes each projected pattern image, the relative positional relationship between the patterns can be known. It is also preferable that information on patterns (positional relationships between them) is stored. As a result, the imaging system 120 can easily estimate the positional relationship in the pupil division direction of the subject at the position where each pattern is projected from the positional relationship between the patterns (for example, the positional relationship between the stripes in the striped pattern). You can.

また、パッシブステレオ法を用いて投影装置の相対位置を求めるときに用いるパターンと、パターン投影ステレオ法で距離情報を取得するときに用いるパターンとが異なるようにしても良い。また、計測システム100は、図2Aに示す処理に加えて図3Bに示すフローで計測を行ってもよい。なお、図3Bのフローの各処理も、計測装置150の制御部151により、あるいは制御部151の制御に従って各ブロックが動作することにより実施される。ステップS1503の後にステップS1507として投影装置110はランダムドットやグレードなど、一般的にパターン投影ステレオで用いられるパターンを投影し、当該パターンが投影された被写体が撮像システム120によって撮像されて一対の視差画像が取得される。このように構成することで、各手法に適したパターンを用いることができ、より高い精度での位置算出および距離計測が可能となる。また、パターン投影ステレオ法で用いるパターンを、一次距離情報を用いて、パターンの細かさを変えるなど、被写体の形状に適したパターンにして投影すると、より高い精度で距離情報を取得することができる。 Further, the pattern used when obtaining the relative position of the projection device by the passive stereo method and the pattern used when acquiring the distance information by the pattern projection stereo method may be different. Further, the measurement system 100 may perform measurement in the flow shown in FIG. 3B in addition to the processing shown in FIG. 2A. Each process of the flow of FIG. 3B is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151. After step S1503, as step S1507, the projection device 110 projects a pattern generally used in pattern projection stereo such as random dots and grades, and the subject on which the pattern is projected is imaged by the imaging system 120 to form a pair of parallax images. Is obtained. With this configuration, a pattern suitable for each method can be used, and position calculation and distance measurement with higher accuracy become possible. Further, if the pattern used in the pattern projection stereo method is projected as a pattern suitable for the shape of the subject, such as changing the fineness of the pattern by using the primary distance information, the distance information can be acquired with higher accuracy. ..

[第2の実施形態]
次に、第2の実施形態を、図5Aおよび図5Bを用いて説明する。図5Aに示すように、第1の実施形態に対して、撮像システム120が、カメラ400で構成されている点が異なる。処理フローは図2Aに示す例を含み、第1の実施形態のものと同じである。
[Second Embodiment]
Next, the second embodiment will be described with reference to FIGS. 5A and 5B. As shown in FIG. 5A, the image pickup system 120 is different from the first embodiment in that the camera 400 is configured. The processing flow includes the example shown in FIG. 2A and is the same as that of the first embodiment.

カメラ400は、撮像光学系401、撮像素子402で構成されている。撮像素子402は、ひとつの画素に2つの光電変換部を有している。図5Bに示すように、撮像素子402の画素は、マイクロレンズ403と第一の光電変換部404および第二の光電変換部405で構成されている。マイクロレンズ403を介して、光電変換部と撮像光学系401の瞳が、光学的に共役な関係になっており、撮像光学系の瞳を分割して、異なる視点からの視差画像を取得している。第一の光電変換部404からの画像信号を用いて得られる画像は、撮像光学系401の瞳領域の一部に対応する、第1の実施形態における第2の入射瞳143を視点とする画像に相当する画像である。また、各画素の第二の光電変換部405からの画像信号を用いて得られる画像は、撮像光学系401の瞳領域の他の一部に対応する、第1の実施形態における第1の入射瞳133を視点とする画像になる。さらに、各画素の各画素の第一の光電変換部404からの画像信号と第二の光電変換部405からの画像信号を加算した信号を用いて得られる画像は、入射瞳406を視点とする画像になる。 The camera 400 is composed of an image pickup optical system 401 and an image pickup element 402. The image sensor 402 has two photoelectric conversion units in one pixel. As shown in FIG. 5B, the pixel of the image sensor 402 is composed of a microlens 403, a first photoelectric conversion unit 404, and a second photoelectric conversion unit 405. The photoelectric conversion unit and the pupil of the imaging optical system 401 are in an optically conjugate relationship via the microlens 403, and the pupil of the imaging optical system is divided to acquire parallax images from different viewpoints. There is. The image obtained by using the image signal from the first photoelectric conversion unit 404 is an image with the second entrance pupil 143 in the first embodiment as a viewpoint, which corresponds to a part of the pupil region of the imaging optical system 401. It is an image corresponding to. Further, the image obtained by using the image signal from the second photoelectric conversion unit 405 of each pixel corresponds to the other part of the pupil region of the imaging optical system 401, and the first incident in the first embodiment. The image is based on the pupil 133. Further, the image obtained by adding the image signal from the first photoelectric conversion unit 404 of each pixel and the image signal from the second photoelectric conversion unit 405 of each pixel has the incident pupil 406 as a viewpoint. It becomes an image.

以上の通り、本実施形態では、ひとつの撮像光学系401とひとつの撮像素子402で一対の視差画像を取得することができるため、複数台のカメラを用いた第1の実施形態とは違ってより機械的に安定した基線長の短い撮像システムを構成することができ、より簡易な構成で安定して高い測距精度を得ることができる。 As described above, in the present embodiment, a pair of parallax images can be acquired by one imaging optical system 401 and one imaging element 402, so that the present embodiment is different from the first embodiment using a plurality of cameras. It is possible to construct a more mechanically stable image pickup system with a short baseline length, and it is possible to stably obtain high distance measurement accuracy with a simpler configuration.

さらに、パターンを投影せずに撮像した通常画像も取得することで、通常画像と同一視点での計測値を取得でき、メタ情報として画像に付加したり、認識に用いることで認識精度を向上させたりする撮像装置として用いることができる。 Furthermore, by acquiring a normal image captured without projecting a pattern, it is possible to obtain measured values from the same viewpoint as the normal image, and by adding it to the image as meta information or using it for recognition, the recognition accuracy is improved. It can be used as an image pickup device.

[第3の実施形態]
次に、第3の実施形態を、図6Aおよび図6Bを用いて、説明する。なお、図6Aのフローの各処理も、計測装置150の制御部151により、あるいは制御部151の制御に従って各ブロックが動作することにより実施される。図6Aは処理フローであり、ステップS1511でパターンを投影し撮像する。図6Bは、図5Aに示す計測システム100を用い、投影装置110でパターンを投影し、撮像システム120で取得した第1の入射瞳133の視点での画像の例である。投影するパターンは、撮像システム120の第1の入射瞳133および第2の入射瞳143を結んだ直線と垂直な方向に延びた線分が、直線の方向に略周期的に並んだ縞状のパターンである。被写体は、平面と、平面上に置かれた半球状の物体である。
[Third Embodiment]
Next, a third embodiment will be described with reference to FIGS. 6A and 6B. Each process of the flow of FIG. 6A is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151. FIG. 6A is a processing flow, and the pattern is projected and imaged in step S1511. FIG. 6B is an example of an image from the viewpoint of the first entrance pupil 133 acquired by the imaging system 120 by projecting a pattern with the projection device 110 using the measurement system 100 shown in FIG. 5A. The pattern to be projected is a striped pattern in which line segments extending in a direction perpendicular to the straight line connecting the first entrance pupil 133 and the second entrance pupil 143 of the imaging system 120 are arranged substantially periodically in the direction of the straight line. It is a pattern. The subject is a plane and a hemispherical object placed on the plane.

ステップS1512で、距離形状算出部153が、パッシブステレオ法で、撮像した視差画像から被写体の一次距離情報を算出する。 In step S1512, the distance shape calculation unit 153 calculates the primary distance information of the subject from the parallax image captured by the passive stereo method.

次にステップS1513で、距離形状算出部153が、いずれかの視差画像における縞状パターン像の縞間隔から面法線情報を生成する。縞状パターン像の縞間隔は、縞の周期方向の面の傾きを表し、観察方向に面が正対している場合は投影パターンの縞間隔と同じになり、面法線が傾くと縞間隔が狭くなる。図6Bに示されるように、例えば平面である領域210における縞は直線で等間隔になる。一方、曲面である領域211における縞は曲線状になり、縞間隔は場所により変化する。 Next, in step S1513, the distance shape calculation unit 153 generates surface normal information from the stripe spacing of the striped pattern image in any of the parallax images. The stripe spacing of the striped pattern image represents the inclination of the surface in the periodic direction of the stripes, and is the same as the stripe spacing of the projection pattern when the surfaces face each other in the observation direction, and the stripe spacing becomes the same when the surface normal is inclined. It gets narrower. As shown in FIG. 6B, for example, the stripes in the plane region 210 are straight and evenly spaced. On the other hand, the fringes in the curved region 211 become curved, and the fringe spacing changes depending on the location.

ステップS1513で、距離形状算出部153は、画像中の場所ごとの局所的な縞間隔を求め、これにより、被写体の局所位置での面法線情報を取得することができる。さらにステップS1514で、距離形状算出部153は、一次距離情報と面法線情報を統合して、高精度な距離形状情報を生成する。 In step S1513, the distance shape calculation unit 153 obtains the local fringe interval for each place in the image, and thereby, the surface normal information at the local position of the subject can be acquired. Further, in step S1514, the distance shape calculation unit 153 integrates the primary distance information and the surface normal information to generate highly accurate distance shape information.

そしてステップS1515で、制御部151は、算出した高精度な距離形状情報を、図示しない記憶部に記憶、あるいは記録部や通信部等を介して外部装置に出力する。 Then, in step S1515, the control unit 151 stores the calculated high-precision distance shape information in a storage unit (not shown), or outputs it to an external device via a recording unit, a communication unit, or the like.

パッシブステレオ法で求めた一次距離情報と、縞間隔を用いた面法線情報は、微分・積分の関係にある。つまり、面法線の積分と距離情報、または面法線と距離情報の微分は本来同じものになる。従って、距離形状算出部153は、これらを比較し、明らかなエラー値の除去や平均化によりばらつきを低減することができる。あるいは、平面部は面法線を積分した情報を用い、段差部における段差量は距離情報を用いることで、ばらつきを抑えることができる。このように、一次距離情報と面法線情報を統合することで、単一の計測方法で求めた距離形状情報より高精度な距離形状情報を取得することができる。なお、ステップS1512とステップS1513の順番は入れ替わっても良い。 The primary distance information obtained by the passive stereo method and the surface normal information using the fringe spacing are in a differential / integral relationship. That is, the integral of the surface normal and the distance information, or the derivative of the surface normal and the distance information are essentially the same. Therefore, the distance shape calculation unit 153 can compare these and reduce the variation by removing or averaging the obvious error values. Alternatively, variation can be suppressed by using information obtained by integrating the surface normals for the flat surface portion and using distance information for the step amount in the stepped portion. By integrating the primary distance information and the surface normal information in this way, it is possible to acquire the distance shape information with higher accuracy than the distance shape information obtained by a single measurement method. The order of steps S1512 and S1513 may be interchanged.

またこのとき、図7Aに示すようにステップS1516の処理を追加で行うことにより、パッシブステレオ法を用いて一次距離情報を求めるときに用いるパターンと、縞間隔から面法線情報を取得するときに用いるパターンとが異なるようにしてもよい。なお、図7Aのフローの各処理も、計測装置150の制御部151により、あるいは制御部151の制御に従って各ブロックが動作することにより実施される。ステップS1516では、制御部151が、通信部を介して投影装置110にパターンの投影指示を行い、また通信部を介して撮像システム120にパターンが投影された状態で撮像を指示し、撮像システム120から撮像により得られる一対の視差画像を新たに取得する。ここで、ステップS1516において面法線情報を取得するときの方が、S1511において一次距離情報を求めるときに用いるパターンよりも縞間隔が狭いことが望ましい。これにより、空間的に密な面法線情報を取得することができる。面法線情報を求めるときは、直交する縞状パターンを切り替えて投影したり、直交する縞状パターンを合成した井桁パターンまたは点線パターンを投影したりしてもよい。このように構成することで、直交する軸方向の法線を求めることができるため、より高い精度で被写体の面法線情報を取得できる。 At this time, by additionally performing the process of step S1516 as shown in FIG. 7A, when the pattern used when obtaining the primary distance information by using the passive stereo method and the surface normal information are acquired from the stripe spacing. The pattern used may be different. Each process of the flow of FIG. 7A is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151. In step S1516, the control unit 151 gives an instruction to project a pattern to the projection device 110 via the communication unit, and also instructs the image pickup system 120 to take an image in a state where the pattern is projected to the image pickup system 120 via the communication unit. A pair of parallax images obtained by imaging from the above are newly acquired. Here, it is desirable that the stripe spacing is narrower when the surface normal information is acquired in step S1516 than when the pattern used when obtaining the primary distance information in S1511 is obtained. As a result, spatially dense surface normal information can be acquired. When obtaining the surface normal information, the orthogonal striped patterns may be switched and projected, or the grid pattern or the dotted line pattern obtained by synthesizing the orthogonal striped patterns may be projected. With this configuration, the normals in the orthogonal axial directions can be obtained, so that the surface normal information of the subject can be acquired with higher accuracy.

また、一次距離情報をもとに面法線情報取得時のパターンを選択しても良い。例えば、投影装置からの距離が遠いと投影パターン像は粗く、近いと投影パターン像は細かくなるため、距離に応じて、面法線情報取得に必要な縞間隔になるようにパターンサイズを制御する。また、一次距離情報から面の傾いている方向が概略わかるので、傾いている方向に直交する方向の縞状パターンを選択して投影したり、細かいパターンを投影したりすると、面の傾き量(面法線の傾き量)を高精度に取得することができる。 Further, the pattern at the time of acquiring the surface normal information may be selected based on the primary distance information. For example, if the distance from the projection device is far, the projection pattern image becomes coarse, and if it is close, the projection pattern image becomes fine. Therefore, the pattern size is controlled so as to have the stripe spacing required for acquiring surface normal information according to the distance. .. In addition, since the direction in which the surface is tilted can be roughly understood from the primary distance information, if a striped pattern in the direction orthogonal to the tilted direction is selected and projected, or a fine pattern is projected, the amount of tilt of the surface ( The amount of inclination of the surface normal) can be obtained with high accuracy.

また、面法線情報をもとにパッシブステレオ法で用いるパターンを選択しても良い。面法線が傾いていると縞状パターン像が粗くなり過ぎて、視差画像間の対応が取れず、測距精度が低下するため、傾いている面では投影パターンを細かくする。これにより、高精度に距離情報を取得できる。 これにより、被写体の形状に適したパターンにして投影できるため、より高い精度で距離情報を取得することができる。 Further, the pattern used in the passive stereo method may be selected based on the surface normal information. If the surface normal is tilted, the striped pattern image becomes too coarse, the parallax images cannot correspond to each other, and the distance measurement accuracy is lowered. Therefore, the projection pattern is made finer on the tilted surface. As a result, distance information can be acquired with high accuracy. As a result, it is possible to project in a pattern suitable for the shape of the subject, so that the distance information can be acquired with higher accuracy.

また、面法線情報を取得するときに用いるパターンは、投影装置110と撮像システム120の視点を結ぶ直線に垂直な方向に延びた線分が、直線の方向に略周期的に並んだ縞状のパターンであることが望ましい。このように構成することで、面法線に対する縞間隔の変化が大きくなり、面法線を高い精度で検出することができる。 Further, the pattern used when acquiring the surface normal information is a striped shape in which line segments extending in a direction perpendicular to a straight line connecting the viewpoints of the projection device 110 and the imaging system 120 are arranged substantially periodically in the straight line direction. It is desirable that the pattern is. With this configuration, the change in the stripe spacing with respect to the surface normal becomes large, and the surface normal can be detected with high accuracy.

さらに、図7Bに示す例のように、パターン投影ステレオ法で取得した距離情報を用いても良い。なお、図7Bのフローの各処理も、計測装置150の制御部151により、あるいは制御部151の制御に従って各ブロックが動作することにより実施される。 Further, as in the example shown in FIG. 7B, the distance information acquired by the pattern projection stereo method may be used. Each process of the flow of FIG. 7B is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151.

ステップS1517で、相対位置算出部154は、被写体の一次距離情報と視差画像上のパターン像の位置から、撮像システム120の位置に対する投影装置110の位置および姿勢を算出する。 In step S1517, the relative position calculation unit 154 calculates the position and orientation of the projection device 110 with respect to the position of the imaging system 120 from the primary distance information of the subject and the position of the pattern image on the parallax image.

次にステップS1518で、距離形状算出部153は、算出した投影装置110の位置姿勢と、撮像システム120の位置姿勢と視差画像上のパターン像の位置から、パターン投影ステレオ法で、被写体の二次距離情報を算出する。 Next, in step S1518, the distance shape calculation unit 153 uses the pattern projection stereo method to secondary the subject from the calculated position / orientation of the projection device 110, the position / orientation of the imaging system 120, and the position of the pattern image on the parallax image. Calculate the distance information.

ステップS1514で、距離形状算出部153は、一次距離情報、二次距離情報、面法線情報を比較し、エラー値の除去や平均化を行うことにより、より安定した高精度な距離形状情報を取得することができる。以上の通り本実施形態では、パッシブステレオ法で求めた一次距離情報と、縞間隔を用いた面法線情報を統合して1つの距離形状情報を算出することでより高精度な距離形状情報を生成することができる。 In step S1514, the distance shape calculation unit 153 compares the primary distance information, the secondary distance information, and the surface normal information, and removes and averages the error values to obtain more stable and highly accurate distance shape information. Can be obtained. As described above, in the present embodiment, more accurate distance shape information can be obtained by integrating the primary distance information obtained by the passive stereo method and the surface normal information using the stripe spacing to calculate one distance shape information. Can be generated.

[第4の実施形態]
本実施形態では、投影装置110により投影される縞状パターンに基づく画像中の縞の連続性を解析することで、被写体の境界領域を抽出し、その情報を用いて、高精度に距離形状情報を取得する。本実施形態に係る処理フローを図8Aを用いて説明する。なお、図8Aのフローの各処理も、計測装置150の制御部151により、あるいは制御部151の制御に従って各ブロックが動作することにより実施される。
[Fourth Embodiment]
In the present embodiment, the boundary region of the subject is extracted by analyzing the continuity of the stripes in the image based on the stripe pattern projected by the projection device 110, and the information is used to obtain the distance shape information with high accuracy. To get. The processing flow according to this embodiment will be described with reference to FIG. 8A. Each process of the flow of FIG. 8A is also carried out by the control unit 151 of the measuring device 150 or by operating each block under the control of the control unit 151.

ステップS1521で、制御部151が、通信部を介して投影装置110に縞状パターンの投影指示を行い、また通信部を介して撮像システム120に縞状パターンが投影された状態で撮像を指示し、撮像システム120から撮像により得られる一対の視差画像を取得する。 In step S1521, the control unit 151 gives an instruction to project the striped pattern to the projection device 110 via the communication unit, and also instructs the imaging system 120 to take an image with the striped pattern projected via the communication unit. , Acquire a pair of parallax images obtained by imaging from the imaging system 120.

次にステップS1522で、距離形状算出部153が、被写体の境界部情報を生成する。図6Bにおいて、平面である領域210の縞は、線の方向が一定であり、曲面である領域211の縞は、線の方向は変化しているが、その変化は緩やかである。一方、距離の変化が大きい領域(境界部)212では線の方向が急激に変化している。図8Bでは、平面と手前側に奥行方向に離れた位置に置かれた平面の物体で構成された被写体の画像の例であり、奥行方向に段差がある被写体の境界部222では、縞の線が途切れて不連続になる。このように、縞の連続性を解析することで、距離の変化が大きい領域、つまり被写体の境界部を抽出することができる。 Next, in step S1522, the distance shape calculation unit 153 generates boundary portion information of the subject. In FIG. 6B, the stripes in the flat region 210 have a constant line direction, and the stripes in the curved region 211 have a changing line direction, but the change is gradual. On the other hand, in the region (boundary portion) 212 where the change in distance is large, the direction of the line changes rapidly. FIG. 8B is an example of an image of a subject composed of a flat surface and a flat object placed at a position separated from each other in the depth direction on the front side, and a striped line at the boundary portion 222 of the subject having a step in the depth direction. Is interrupted and becomes discontinuous. By analyzing the continuity of the fringes in this way, it is possible to extract a region where the change in distance is large, that is, a boundary portion of the subject.

ステップS1523で、距離形状算出部153が、パッシブステレオ法で、撮像した視差画像から被写体の一次距離情報を算出する。 In step S1523, the distance shape calculation unit 153 calculates the primary distance information of the subject from the parallax image captured by the passive stereo method.

次にステップS1524で、距離形状算出部153が、被写体の境界部情報を用いて、一次距離情報から高精度な距離形状情報を生成する。距離変化が大きい境界領域では、原理的にステレオ法は精度が低下する。そこで、抽出した境界領域については、距離をステレオ法で求めた一次距離情報は用いず、境界領域を挟むそれぞれの領域での一次距離情報を境界部まで延長するようにして、距離形状情報を作成する。例えば、図8Bに示す例においては、境界部222を挟んで領域221側では領域221の一次距離情報を用い、領域220側では領域220の一次距離情報を用いる。図6Bに示す例においては、境界部212を挟んで領域210側では領域210の一次距離情報を用い、領域211側では領域211内の面法線の変化が連続的になるように一次距離情報を生成する。このように、縞の形状をもとに被写体の境界領域を抽出し、それに基づいて距離情報を求めることで、距離変化の大きい境界部でも、精度良く距離形状情報を求めることができる。このとき、パターン投影ステレオ法で求めた二次距離情報や縞間隔から求めた面法線情報を用いることにより、さらに高精度に被写体の距離形状情報を求めることができる。 Next, in step S1524, the distance shape calculation unit 153 generates highly accurate distance shape information from the primary distance information using the boundary portion information of the subject. In principle, the stereo method is less accurate in the boundary region where the distance change is large. Therefore, for the extracted boundary region, the distance shape information is created by extending the primary distance information in each region sandwiching the boundary region to the boundary portion without using the primary distance information obtained by the stereo method. To do. For example, in the example shown in FIG. 8B, the primary distance information of the region 221 is used on the region 221 side across the boundary portion 222, and the primary distance information of the region 220 is used on the region 220 side. In the example shown in FIG. 6B, the primary distance information of the region 210 is used on the region 210 side across the boundary portion 212, and the primary distance information on the region 211 side so that the surface normals in the region 211 change continuously. To generate. In this way, by extracting the boundary region of the subject based on the shape of the stripes and obtaining the distance information based on the boundary region, it is possible to obtain the distance shape information with high accuracy even at the boundary portion where the distance change is large. At this time, by using the secondary distance information obtained by the pattern projection stereo method and the surface normal information obtained from the stripe spacing, it is possible to obtain the distance shape information of the subject with higher accuracy.

そしてステップS1525で、制御部151は、算出した高精度な距離形状情報を、図示しない記憶部に記憶、あるいは記録部や通信部等を介して外部装置に出力する。 Then, in step S1525, the control unit 151 stores the calculated high-precision distance shape information in a storage unit (not shown), or outputs it to an external device via a recording unit, a communication unit, or the like.

以上の通り、本実施形態では、投影装置110により縞状のパターン光を投影させ、被写体とパターン光を含む画像中の縞の連続性を解析することで、被写体の境界領域を抽出し、その境界領域の情報を用いてより高精度に距離形状情報を取得することができる。 As described above, in the present embodiment, the boundary region of the subject is extracted by projecting the striped pattern light by the projection device 110 and analyzing the continuity of the stripes in the image including the subject and the pattern light. Distance shape information can be acquired with higher accuracy by using the information of the boundary region.

[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

100 計測システム
110 投影装置
120 撮像システム
130 第1のカメラ
140 第2のカメラ
150 計測装置
100 Measuring system 110 Projection device 120 Imaging system 130 First camera 140 Second camera 150 Measuring device

Claims (24)

被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置において、
前記視点間の距離は、前記投影装置と前記視点の距離よりも短く、
前記画像群上のパターン像位置および前記視点間の位置関係から、少なくともひとつの前記視点に対する前記投影装置の相対位置を求める相対位置算出手段を有し、
該相対位置と前記視点での画像上のパターン像位置から前記被写体の距離情報を取得することを特徴とする計測装置。
In a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures image groups from at least two different viewpoints.
The distance between the viewpoints is shorter than the distance between the projection device and the viewpoints.
It has a relative position calculation means for obtaining a relative position of the projection device with respect to at least one of the viewpoints from the pattern image position on the image group and the positional relationship between the viewpoints.
A measuring device characterized in that distance information of the subject is acquired from the relative position and the pattern image position on the image at the viewpoint.
前記投影装置は、位置と姿勢が可変であることを特徴とする請求項1に記載の計測装置。 The measuring device according to claim 1, wherein the projection device has a variable position and posture. 前記投影装置が、2つの前記視点を結ぶ直線の延長線上の位置に配置されていることを特徴とする請求項1または2に記載の計測装置。 The measuring device according to claim 1 or 2, wherein the projection device is arranged at a position on an extension line of a straight line connecting the two viewpoints. 前記相対位置を求めるときに用いるパターンと前記距離情報を取得するときに用いるパターンが異なることを特徴とする請求項1から3のいずれか1項に記載の計測装置。 The measuring device according to any one of claims 1 to 3, wherein the pattern used when obtaining the relative position and the pattern used when acquiring the distance information are different. 前記パターンは2つの前記視点を結ぶ直線に垂直な方向に延びた線分が該直線の方向に略周期的に並んだ縞状のパターンであることを特徴とする請求項1から4のいずれか1項に記載の計測装置。 Any of claims 1 to 4, wherein the pattern is a striped pattern in which line segments extending in a direction perpendicular to a straight line connecting the two viewpoints are arranged substantially periodically in the direction of the straight line. The measuring device according to item 1. 前記縞状のパターンのうち、少なくともひとつの線分は、それ以外の線分と色及び/または形状が異なることを特徴とする請求項5に記載の計測装置。 The measuring device according to claim 5, wherein at least one line segment of the striped pattern is different in color and / or shape from the other line segments. 前記縞状のパターンの前記画像上のパターン像の局所的な縞間隔を用いて、前記被写体の該局所位置での面法線情報を取得することを特徴とする請求項5または6に記載の計測装置。 The fifth or sixth aspect of the present invention, wherein the surface normal information at the local position of the subject is acquired by using the local stripe spacing of the pattern image on the image of the striped pattern. Measuring device. 前記面法線情報と、前記相対位置と前記視点での画像上のパターン像位置から前記被写体の距離情報を取得することを特徴とする請求項7に記載の計測装置。 The measuring device according to claim 7, wherein the distance information of the subject is acquired from the surface normal information and the pattern image position on the image at the relative position and the viewpoint. 前記面法線情報と、前記相対位置と前記視点での画像上のパターン像位置と、前記視点間の距離と前記各視点に対する画像上のパターン像位置から、前記被写体の距離情報を取得することを特徴とする請求項7または8に記載の計測装置。 Obtaining the distance information of the subject from the surface normal information, the pattern image position on the image at the relative position and the viewpoint, the distance between the viewpoints, and the pattern image position on the image with respect to each viewpoint. The measuring device according to claim 7 or 8. 前記面法線情報を取得するときに用いるパターンと前記パターン像位置を取得するときに用いるパターンが異なり、前記面法線情報を取得するときに用いるパターンの方がパターンの縞間隔が狭いことを特徴とする請求項7から9のいずれか1項に記載の計測装置。 The pattern used when acquiring the surface normal information and the pattern used when acquiring the pattern image position are different, and the pattern used when acquiring the surface normal information has a narrower stripe spacing of the pattern. The measuring device according to any one of claims 7 to 9, wherein the measuring device is characterized. 前記パターンは線分を含むパターンであり、
前記画像上の前記線分のパターン像の形状をもとに被写体の境界領域を抽出し、該境界領域の情報を用いて、前記被写体の距離情報を取得することを特徴とする請求項1から10のいずれか1項に記載の計測装置。
The pattern is a pattern including a line segment.
According to claim 1, the boundary region of the subject is extracted based on the shape of the pattern image of the line segment on the image, and the distance information of the subject is acquired by using the information of the boundary region. The measuring device according to any one of 10.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置において、
前記パターンは2つの前記視点を結ぶ直線に垂直な方向に延びた線分が該直線の方向に略周期的に並んだ縞状のパターンを含み、
該縞状のパターンの少なくともひとつの視点の前記画像上のパターン像の局所的な縞間隔を用いて、前記被写体の該局所位置での面法線情報を取得し、
該面法線情報と、前記視点間の距離と前記各視点に対する画像上のパターン像位置から、前記被写体の距離情報を取得することを特徴とする計測装置。
In a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures image groups from at least two different viewpoints.
The pattern includes a striped pattern in which line segments extending in a direction perpendicular to the straight line connecting the two viewpoints are arranged substantially periodically in the direction of the straight line.
Using the local stripe spacing of the pattern image on the image at least one viewpoint of the striped pattern, the surface normal information at the local position of the subject is acquired.
A measuring device characterized in that distance information of the subject is acquired from the surface normal information, the distance between the viewpoints, and the pattern image position on the image with respect to each viewpoint.
前記面法線情報を取得するときに用いるパターンと前記パターン像位置を取得するときに用いるパターンが異なり、前記面法線情報を取得するときに用いるパターンの方がパターンの縞間隔が狭いことを特徴とする請求項12に記載の計測装置。 The pattern used when acquiring the surface normal information and the pattern used when acquiring the pattern image position are different, and the pattern used when acquiring the surface normal information has a narrower stripe spacing of the pattern. The measuring device according to claim 12. 前記面法線情報を取得するときに用いるパターンは、前記投影装置と前記撮像システムの視点を結ぶ直線に垂直な方向に延びた線分が該直線の方向に略周期的に並んだ縞状のパターンを含むことを特徴とする請求項12または13に記載の計測装置。 The pattern used when acquiring the surface normal information is a striped pattern in which line segments extending in a direction perpendicular to a straight line connecting the projection device and the viewpoint of the imaging system are arranged substantially periodically in the direction of the straight line. The measuring device according to claim 12 or 13, wherein the measuring device includes a pattern. 被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置において、
前記パターンは線分を含むパターンであり、
前記画像上の前記線分のパターン像の形状をもとに被写体の境界領域を抽出し、該境界領域の情報を用いて、前記被写体の距離情報を取得することを特徴とする計測装置。
In a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures image groups from at least two different viewpoints.
The pattern is a pattern including a line segment.
A measuring device characterized in that a boundary region of a subject is extracted based on the shape of the pattern image of the line segment on the image, and distance information of the subject is acquired by using the information of the boundary region.
前記撮像システムは、ひとつの光学系の瞳を分割して複数の視点からの画像群を撮像することを特徴とする請求項1から15のいずれか1項に記載の計測装置。 The measuring device according to any one of claims 1 to 15, wherein the imaging system divides the pupil of one optical system and images a group of images from a plurality of viewpoints. 請求項1から16のいずれか1項に記載の計測装置を含み、
前記撮像システムは、前記パターンを投影しないで撮像した画像も取得することを特徴とする撮像装置。
The measuring device according to any one of claims 1 to 16 is included.
The imaging system is an imaging device characterized in that an image captured without projecting the pattern is also acquired.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムと、該投影装置及び該撮像システムと接続された計測装置と、を含んで構成される計測システムであって、
前記視点間の距離は、前記投影装置と前記視点の距離よりも短く、
前記計測装置は、
前記画像群上のパターン像位置および前記視点間の位置関係から、少なくともひとつの前記視点に対する前記投影装置の相対位置を求める相対位置算出手段を有し、
該相対位置と前記視点での画像上のパターン像位置から前記被写体の距離情報を取得することを特徴とする計測システム。
It is configured to include a projection device that projects a predetermined pattern on a subject, an imaging system that captures image groups from at least two different viewpoints, and a projection device and a measuring device connected to the imaging system. It is a measurement system
The distance between the viewpoints is shorter than the distance between the projection device and the viewpoints.
The measuring device is
It has a relative position calculation means for obtaining a relative position of the projection device with respect to at least one of the viewpoints from the pattern image position on the image group and the positional relationship between the viewpoints.
A measurement system characterized in that distance information of the subject is acquired from the relative position and the pattern image position on the image at the viewpoint.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムと、該投影装置及び該撮像システムと接続された計測装置と、を含んで構成される計測システムであって、
前記パターンは2つの前記視点を結ぶ直線に垂直な方向に延びた線分が該直線の方向に略周期的に並んだ縞状のパターンを含み、
前記計測装置は、
該縞状のパターンの少なくともひとつの視点の前記画像上のパターン像の局所的な縞間隔を用いて、前記被写体の該局所位置での面法線情報を取得し、
該面法線情報と、前記視点間の距離と前記各視点に対する画像上のパターン像位置から、前記被写体の距離情報を取得することを特徴とする計測システム。
It is configured to include a projection device that projects a predetermined pattern on a subject, an imaging system that captures image groups from at least two different viewpoints, and a projection device and a measuring device connected to the imaging system. It is a measurement system
The pattern includes a striped pattern in which line segments extending in a direction perpendicular to the straight line connecting the two viewpoints are arranged substantially periodically in the direction of the straight line.
The measuring device is
Using the local stripe spacing of the pattern image on the image at least one viewpoint of the striped pattern, the surface normal information at the local position of the subject is acquired.
A measurement system characterized in that distance information of the subject is acquired from the surface normal information, the distance between the viewpoints, and the pattern image position on the image with respect to each viewpoint.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムと、該投影装置及び該撮像システムと接続された計測装置と、を含んで構成される計測システムであって、
前記パターンは線分を含むパターンであり、
前記計測装置は、前記画像上の前記線分のパターン像の形状をもとに被写体の境界領域を抽出し、該境界領域の情報を用いて、前記被写体の距離情報を取得することを特徴とする計測システム。
It is configured to include a projection device that projects a predetermined pattern on a subject, an imaging system that captures image groups from at least two different viewpoints, and a projection device and a measuring device connected to the imaging system. It is a measurement system
The pattern is a pattern including a line segment.
The measuring device is characterized in that a boundary region of a subject is extracted based on the shape of the pattern image of the line segment on the image, and the distance information of the subject is acquired by using the information of the boundary region. Measurement system to do.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置の制御方法であって、
前記視点間の距離は、前記投影装置と前記視点の距離よりも短く、
前記画像群上のパターン像位置および前記視点間の位置関係から、少なくともひとつの前記視点に対する前記投影装置の相対位置を求める相対位置算出工程を有し、
該相対位置と前記視点での画像上のパターン像位置から前記被写体の距離情報を取得することを特徴とする制御方法。
It is a control method of a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures an image group from at least two different viewpoints.
The distance between the viewpoints is shorter than the distance between the projection device and the viewpoints.
It has a relative position calculation step of obtaining a relative position of the projection device with respect to at least one of the viewpoints from the pattern image position on the image group and the positional relationship between the viewpoints.
A control method characterized in that distance information of the subject is acquired from the relative position and the pattern image position on the image at the viewpoint.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置の制御方法であって、
前記パターンは2つの前記視点を結ぶ直線に垂直な方向に延びた線分が該直線の方向に略周期的に並んだ縞状のパターンを含み、
該縞状のパターンの少なくともひとつの視点の前記画像上のパターン像の局所的な縞間隔を用いて、前記被写体の該局所位置での面法線情報を取得し、
該面法線情報と、前記視点間の距離と前記各視点に対する画像上のパターン像位置から、前記被写体の距離情報を取得することを特徴とする制御方法。
It is a control method of a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures an image group from at least two different viewpoints.
The pattern includes a striped pattern in which line segments extending in a direction perpendicular to the straight line connecting the two viewpoints are arranged substantially periodically in the direction of the straight line.
Using the local stripe spacing of the pattern image on the image at least one viewpoint of the striped pattern, the surface normal information at the local position of the subject is acquired.
A control method characterized in that distance information of the subject is acquired from the surface normal information, the distance between the viewpoints, and the pattern image position on the image with respect to each viewpoint.
被写体に所定のパターンを投影する投影装置と、少なくとも2つの異なる複数の視点からの画像群を撮像する撮像システムとを有する計測装置の制御方法であって、
前記パターンは線分を含むパターンであり、
前記画像上の前記線分のパターン像の形状をもとに被写体の境界領域を抽出し、該境界領域の情報を用いて、前記被写体の距離情報を取得することを特徴とする制御方法。
It is a control method of a measuring device having a projection device that projects a predetermined pattern on a subject and an imaging system that captures an image group from at least two different viewpoints.
The pattern is a pattern including a line segment.
A control method characterized in that a boundary region of a subject is extracted based on the shape of the pattern image of the line segment on the image, and distance information of the subject is acquired by using the information of the boundary region.
コンピュータを、請求項1から16のいずれか1項に記載の計測装置として機能させるためのプログラム。 A program for causing a computer to function as the measuring device according to any one of claims 1 to 16.
JP2020106407A 2019-06-28 2020-06-19 Measuring apparatus, imaging apparatus, measuring system, control method and program Pending JP2021009140A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/024635 WO2020262389A1 (en) 2019-06-28 2020-06-23 Measurement apparatus, imaging apparatus, measurement system, control method, and program
CN202080047551.7A CN114080535A (en) 2019-06-28 2020-06-23 Measurement apparatus, imaging apparatus, measurement system, control method, and program
US17/560,523 US20220113131A1 (en) 2019-06-28 2021-12-23 Measurement apparatus, image capturing apparatus, measurement system, control method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019122099 2019-06-28
JP2019122099 2019-06-28

Publications (1)

Publication Number Publication Date
JP2021009140A true JP2021009140A (en) 2021-01-28

Family

ID=74199844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020106407A Pending JP2021009140A (en) 2019-06-28 2020-06-19 Measuring apparatus, imaging apparatus, measuring system, control method and program

Country Status (1)

Country Link
JP (1) JP2021009140A (en)

Similar Documents

Publication Publication Date Title
Luhmann et al. Sensor modelling and camera calibration for close-range photogrammetry
US9672630B2 (en) Contour line measurement apparatus and robot system
CN106127745B (en) The combined calibrating method and device of structure light 3 D vision system and line-scan digital camera
JP6223169B2 (en) Information processing apparatus, information processing method, and program
JP6363863B2 (en) Information processing apparatus and information processing method
KR102166691B1 (en) Device for estimating three-dimensional shape of object and method thereof
JP6112769B2 (en) Information processing apparatus and information processing method
EP2613121B1 (en) Image sensor, attitude detector, contact probe, and multi-sensing probe
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
JP2011506914A (en) System and method for multi-frame surface measurement of object shape
TWI740237B (en) Optical phase profilometry system
JP4419570B2 (en) 3D image photographing apparatus and method
JP5256933B2 (en) Focus information detector
WO2020262389A1 (en) Measurement apparatus, imaging apparatus, measurement system, control method, and program
JP3925266B2 (en) Three-dimensional shape input device and displacement detection method
JP7307592B2 (en) Measuring device, imaging device, control method and program
JP2021009140A (en) Measuring apparatus, imaging apparatus, measuring system, control method and program
JP7414090B2 (en) Imaging device and method of controlling the imaging device
JP6550102B2 (en) Light source direction estimation device
CN108007386B (en) Three-dimensional scanning method based on structured light and device and system thereof
JP7344283B2 (en) motion encoder
JP2007121124A (en) Precision assurance fixture for ccd camera-based three-dimensional shape measurement device
JP7213686B2 (en) Shape measuring device, control method and program
JP2019192156A (en) Image processing apparatus, image processing method and program
WO2023007625A1 (en) Three-dimensional measurement system, device, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507