JP5364861B1 - 3D information measuring apparatus and 3D information measuring method - Google Patents

3D information measuring apparatus and 3D information measuring method Download PDF

Info

Publication number
JP5364861B1
JP5364861B1 JP2013094430A JP2013094430A JP5364861B1 JP 5364861 B1 JP5364861 B1 JP 5364861B1 JP 2013094430 A JP2013094430 A JP 2013094430A JP 2013094430 A JP2013094430 A JP 2013094430A JP 5364861 B1 JP5364861 B1 JP 5364861B1
Authority
JP
Japan
Prior art keywords
subject
dimensional information
rotation axis
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013094430A
Other languages
Japanese (ja)
Other versions
JP2014215245A (en
Inventor
健二 平野
洋己 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumita Optical Glass Manufacturing Co Ltd
Original Assignee
Sumita Optical Glass Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumita Optical Glass Manufacturing Co Ltd filed Critical Sumita Optical Glass Manufacturing Co Ltd
Priority to JP2013094430A priority Critical patent/JP5364861B1/en
Application granted granted Critical
Publication of JP5364861B1 publication Critical patent/JP5364861B1/en
Publication of JP2014215245A publication Critical patent/JP2014215245A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】従来測定困難な被検体の部位の形状の三次元情報を測定する。
【解決手段】三次元情報測定装置10は光源ユニット11と撮像ユニット12と支持ユニット13と制御ユニット14とを有する。光源ユニット11は第1の方向に沿って複数の境界を有するパターン光を出射可能である。撮像ユニット12はパターン光を照射した被検体を撮像する。支持ユニット13は光源ユニット11および撮像ユニット12を回転軸RXを中心に回動可能に支持する。制御ユニット14は複数の異なる回転位置において被検体にパターン光を照射した状態で撮像ユニット12の撮像により得られる画像に基づいて被検体の三次元情報を生成する。
【選択図】図1
To measure three-dimensional information of the shape of a part of a subject that has been difficult to measure conventionally.
A three-dimensional information measuring apparatus includes a light source unit, an imaging unit, a support unit, and a control unit. The light source unit 11 can emit pattern light having a plurality of boundaries along the first direction. The imaging unit 12 images the subject irradiated with the pattern light. The support unit 13 supports the light source unit 11 and the imaging unit 12 so as to be rotatable about a rotation axis RX. The control unit 14 generates three-dimensional information of the subject based on an image obtained by imaging with the imaging unit 12 in a state where the subject is irradiated with pattern light at a plurality of different rotational positions.
[Selection] Figure 1

Description

本発明は、被検体の形状を三次元情報として測定する三次元情報測定装置および三次元情報測定方法に関するものである。   The present invention relates to a three-dimensional information measuring apparatus and a three-dimensional information measuring method for measuring the shape of a subject as three-dimensional information.

被検体の形状を三次元情報として測定する多様な方法が提案されている。例えば、三次元情報の測定方法として、例えばグレイコードパターン光投影法、空間コード化パターン光投影法(特許文献1参照)、および光切断法(特許文献2参照)などが提案されている。   Various methods for measuring the shape of a subject as three-dimensional information have been proposed. For example, as a method for measuring three-dimensional information, for example, a gray code pattern light projection method, a spatially coded pattern light projection method (see Patent Document 1), a light cutting method (see Patent Document 2), and the like have been proposed.

特開2012−127819号公報JP 2012-127819 A 特開2005−3410号公報Japanese Patent Laying-Open No. 2005-3410

しかし、既知の測定方法では、単一の方向から撮像した画像を用いて被検体の三次元座標を測定するので、撮像されない被検体の部位、例えば撮像方向から隠れた部位などの三次元情報を測定することができなかった。   However, in the known measurement method, since the three-dimensional coordinates of the subject are measured using an image picked up from a single direction, three-dimensional information such as a portion of the subject that is not imaged, for example, a portion hidden from the image pickup direction, is obtained. It could not be measured.

本発明は、かかる観点に鑑みてなされたもので、従来測定困難であった被検体の部位の形状の三次元情報も測定可能な三次元情報測定装置および三次元情報測定方法を提供することを目的とするものである。   The present invention has been made in view of such a viewpoint, and provides a three-dimensional information measuring apparatus and a three-dimensional information measuring method capable of measuring three-dimensional information of the shape of a part of a subject, which has been difficult to measure in the past. It is the purpose.

上述した諸課題を解決すべく、第1の観点による三次元情報測定装置は、
第1の方向に沿って複数の境界を有するパターン光を出射可能な光源ユニットと、
前記パターン光を照射した被検体を撮像する撮像ユニットと、
前記光源ユニットおよび前記撮像ユニットを回転軸を中心に回動可能に、前記複数の境界および前記回転軸が交差するように前記回転軸に対して傾斜させた方向から前記パターン光を照射可能な姿勢で前記光源ユニットを支持し、前記光源ユニットとは異なる角度で前記回転軸から傾斜した方向から前記被検体を撮像可能な姿勢で前記撮像ユニットを支持する支持ユニットと、
前記回転軸に対して複数の異なる回転位置において、前記回転軸近傍に設置した前記被検体に前記パターン光を照射した状態で前記撮像ユニットの撮像により得られる画像に基づいて前記被検体の三次元情報を生成する制御ユニットとを備える
ことを特徴とするものである。
In order to solve the above-described problems, the three-dimensional information measuring apparatus according to the first aspect is
A light source unit capable of emitting pattern light having a plurality of boundaries along the first direction;
An imaging unit for imaging the subject irradiated with the pattern light;
An attitude capable of irradiating the pattern light from a direction inclined with respect to the rotation axis such that the plurality of boundaries and the rotation axis intersect so that the light source unit and the imaging unit can be rotated around the rotation axis. A support unit that supports the imaging unit in a posture capable of imaging the subject from a direction inclined from the rotation axis at an angle different from that of the light source unit.
Three-dimensional of the subject based on images obtained by imaging of the imaging unit in a state where the subject placed near the rotational axis is irradiated with the pattern light at a plurality of different rotational positions with respect to the rotational axis. And a control unit for generating information.

また、第2の観点による三次元情報測定装置において、
前記光源ユニットは、前記パターン光より少ない境界を有する基準パターン光を出射可能であり、
前記制御部は、前記被検体に前記基準パターンを照射した状態で前記撮像ユニットの撮像により得られる画像に基づいて前記被検体の基準位置を判別し、前記基準位置に基づいて前記三次元情報を生成する
ことが好ましい。
In the three-dimensional information measuring apparatus according to the second aspect,
The light source unit can emit reference pattern light having a boundary smaller than the pattern light,
The control unit determines a reference position of the subject based on an image obtained by imaging of the imaging unit in a state where the reference pattern is irradiated on the subject, and determines the three-dimensional information based on the reference position. It is preferable to generate.

また、第3の観点による三次元情報測定装置において、
前記被検体を設置すべき位置を示す指標を、さらに備え、
前記制御部は、前記指標に示される位置に基づいて前記三次元情報を生成する
ことが好ましい。
In the three-dimensional information measuring apparatus according to the third aspect,
An index indicating a position where the subject is to be placed,
The control unit preferably generates the three-dimensional information based on a position indicated by the index.

また、第4の観点による三次元情報測定装置において、
前記光源ユニットは、照明光を出射可能であって、
前記制御部は、前記複数の異なる回転位置において前記照明光を照射した状態で撮像ユニットの撮像により得られる画像、および前記三次元情報に基づいて、任意の方向から見た前記被検体の画像を作成する
ことが好ましい。
In the three-dimensional information measuring apparatus according to the fourth aspect,
The light source unit can emit illumination light,
The control unit is configured to display an image of the subject viewed from an arbitrary direction based on an image obtained by imaging of an imaging unit in a state where the illumination light is irradiated at the plurality of different rotational positions and the three-dimensional information. It is preferable to create it.

上述したように本発明の解決手段を装置として説明してきたが、本発明はこれらに実質
的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るもの
であり、本発明の範囲にはこれらも包含されるものと理解されたい。
As described above, the solution of the present invention has been described as an apparatus. However, the present invention can be realized as a method, a program, and a storage medium storing the program, which are substantially equivalent thereto, and the scope of the present invention. It should be understood that these are also included.

例えば、本発明を方法として実現させた、第5の観点による三次元情報測定方法は、
パターン光が有する複数の境界が回転軸に交差するように前記回転軸から傾斜させた方向からのパターン光の前記回転軸近傍の被検体への照射、および前記パターン光の照射する角度とは異なる角度で前記回転軸に対して傾斜した方向からの前記被検体の撮像を、前記回転軸に対して複数の回転位置において実行する採取ステップと、
前記採取ステップにおいて撮像された複数の画像に基づいて、前記被検体の三次元情報を生成する生成ステップとを備える
ことを特徴とするものである。
For example, the three-dimensional information measuring method according to the fifth aspect, which realizes the present invention as a method,
The pattern light from the direction inclined from the rotation axis so that a plurality of boundaries of the pattern light intersect the rotation axis is different from the irradiation angle of the object near the rotation axis and the angle at which the pattern light is irradiated A sampling step of performing imaging of the subject from a direction inclined with respect to the rotation axis at an angle at a plurality of rotation positions with respect to the rotation axis;
A generating step of generating three-dimensional information of the subject based on a plurality of images captured in the collecting step.

また、第6の観点による三次元情報測定方法において、
前記採取ステップにおいて、前記回転軸から傾斜させた前記方向からの照明光の前記被検体への照射および前記照明光の照射する角度とは異なる前記角度で前記回転軸に対して傾斜させた前記方向からの前記被検体の撮像を、前記複数の回転位置において実行し、
前記生成ステップにおいて、生成した前記被検体の三次元情報と、前記採取ステップにおいて撮像した前記照明光を照射された前記被検体の画像とに基づいて、任意の方向から見た前記被検体の画像を作成する
ことが好ましい。
In the three-dimensional information measuring method according to the sixth aspect,
In the sampling step, the direction inclined with respect to the rotation axis at an angle different from the irradiation angle of the illumination light from the direction inclined with respect to the rotation axis and the angle with which the illumination light is irradiated Performing imaging of the subject from the plurality of rotational positions;
In the generating step, the image of the subject viewed from an arbitrary direction based on the generated three-dimensional information of the subject and the image of the subject irradiated with the illumination light imaged in the sampling step It is preferable to create

本発明によれば、従来測定困難であった被検体の部位の形状の三次元情報も測定可能である。   According to the present invention, it is also possible to measure three-dimensional information of the shape of a part of a subject that has been difficult to measure conventionally.

本発明の一実施形態に係る三次元情報測定装置の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the three-dimensional information measuring apparatus which concerns on one Embodiment of this invention. パターン光の光学像を示す図である。It is a figure which shows the optical image of pattern light. 基準パターン光の光学像を示す図である。It is a figure which shows the optical image of reference | standard pattern light. 各境界の光学像の回転軸への投影位置および入射角度を説明するための図である。It is a figure for demonstrating the projection position and incident angle to the rotating shaft of the optical image of each boundary. 被検体に基準パターン光を照射したときの状態を示す図である。It is a figure which shows a state when a test object is irradiated with reference | standard pattern light. 被検体にパターン光を照射したときの状態を示す図である。It is a figure which shows a state when pattern light is irradiated to a subject. 回転軸からの高さを説明するための図である。It is a figure for demonstrating the height from a rotating shaft. 回転軸からの高さの算出原理を説明するための図である。It is a figure for demonstrating the calculation principle of the height from a rotating shaft. θyh座標上におけるOBJの形状を示した図である。It is the figure which showed the shape of OBJ on the θyh coordinate. xyz座標上におけるOBJの形状を示した図である。It is the figure which showed the shape of OBJ on an xyz coordinate. θyh座標系からxyz座標系への三次元情報の変換原理を説明するための図である。It is a figure for demonstrating the conversion principle of the three-dimensional information from (theta) yh coordinate system to xyz coordinate system. 任意の回転位置から見た被検体の画像の作成方法を説明するための図である。It is a figure for demonstrating the production method of the image of the subject seen from arbitrary rotation positions. 制御ユニットが実行する形状測定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the shape measurement process which a control unit performs. 制御ユニットが実行する画像作成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image creation process which a control unit performs. 三次元情報測定装置の変形例の構成を概略的に示す機能ブロック図である。It is a functional block diagram which shows roughly the structure of the modification of a three-dimensional information measuring device.

以下、本発明の実施の形態について、図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る三次元情報測定装置を概略的に示す機能ブロック図である。   FIG. 1 is a functional block diagram schematically showing a three-dimensional information measuring apparatus according to an embodiment of the present invention.

三次元情報測定装置10は、光源ユニット11、撮像ユニット12、支持ユニット13、および制御ユニット14を含んで構成される。   The three-dimensional information measuring apparatus 10 includes a light source unit 11, an imaging unit 12, a support unit 13, and a control unit 14.

光源ユニット11は、パターン光、基準パターン光、および照明光を切替えて出射可能である。パターン光とは、図2に示すように、任意の方向である第1の方向に沿って複数の境界BLを有する光学像である。複数の境界BLは、比較的輝度の高い白色領域WAおよび比較的輝度の低い黒色領域BAによって形成される。第1の方向における各境界BLの位置は、予め定められ、例えば本実施形態においては、パターン光の第1の方向に沿った一端からの最初の境界BL間での間隔、および各境界BL間の間隔が等しくなるように位置が定められる。基準パターン光とは、図3に示すように、第1の方向に沿ってパターン光よりも少ない境界BLを、パターン光における境界BLと実質的に同じ位置に有する光学像である。例えば、本実施形態においては、パターン光の基端から15番目および29番目の境界BLと同じ位置に、基準パターン光は境界BLを有する。照明光とは、均質な白色光である。   The light source unit 11 can switch and emit pattern light, reference pattern light, and illumination light. As shown in FIG. 2, the pattern light is an optical image having a plurality of boundaries BL along a first direction which is an arbitrary direction. The plurality of boundaries BL are formed by a white area WA having a relatively high brightness and a black area BA having a relatively low brightness. The position of each boundary BL in the first direction is determined in advance. For example, in the present embodiment, the interval between the first boundaries BL from one end along the first direction of the pattern light, and between the boundaries BL The positions are determined so that the intervals are equal. As shown in FIG. 3, the reference pattern light is an optical image having boundaries BL less than the pattern light along the first direction at substantially the same positions as the boundaries BL in the pattern light. For example, in this embodiment, the reference pattern light has the boundary BL at the same position as the 15th and 29th boundaries BL from the base end of the pattern light. Illumination light is homogeneous white light.

撮像ユニット12は、被写体像を結像させる光学系15、および、例えばラインセンサまたはエリアセンサなどの撮像素子を有する(図1参照)。撮像ユニット12は、被写体像を撮像して画像を生成する。光学系15は物体側テレセントリックであることが好ましい。   The imaging unit 12 includes an optical system 15 that forms a subject image and an imaging element such as a line sensor or an area sensor (see FIG. 1). The imaging unit 12 captures a subject image and generates an image. The optical system 15 is preferably object-side telecentric.

支持ユニット13は、本体16およびモータ17を有する。本体16は連結部18および基台部19を有する。連結部18は、基台部19の長手方向が回転軸RXと平行となる状態で、回転軸RXを中心に本体16が回動可能となるように、支持される。基台部19には、光源ユニット11および撮像ユニット12が設けられる。光源ユニット11は、光源ユニット11が有する照明光学系の光軸OX1が回転軸RXと交差するように傾斜させた方向から、複数の境界BLの回転軸RX上の像が回転軸RXと交差するようにパターン光を照射可能な姿勢で支持される。本実施形態では、パターン光の複数の境界BLの回転軸RX上の像が回転軸RXと、各境界BLの回転軸RX上の像と回転軸RXとを有する平面上で直交する。光源ユニット11は、光軸OX1が回転軸RXと、光学系15の光軸OX2とは異なる角度で交差し且つ両光軸のなす角度が0°より大きく90°未満の範囲である姿勢で、支持される。本実施形態では、撮像ユニット12の光学系15の光軸OX2が回転軸RXと直交する。さらに、撮像ユニット12は、ラインセンサを用いる場合には、少なくとも、回転軸RXに平行な方向の線状の画像を撮像可能なように、配置される。モータ17は、例えば筐体などに固定され、回転軸RXを中心に本体16とともに、光源ユニット11および撮像ユニット12を、任意の回転位置に回動させる。   The support unit 13 includes a main body 16 and a motor 17. The main body 16 has a connecting portion 18 and a base portion 19. The connecting portion 18 is supported so that the main body 16 can rotate around the rotation axis RX in a state where the longitudinal direction of the base portion 19 is parallel to the rotation axis RX. The base unit 19 is provided with a light source unit 11 and an imaging unit 12. In the light source unit 11, images on the rotation axis RX of the plurality of boundaries BL intersect the rotation axis RX from a direction inclined so that the optical axis OX <b> 1 of the illumination optical system included in the light source unit 11 intersects the rotation axis RX. Thus, it is supported in a posture capable of irradiating pattern light. In the present embodiment, the image on the rotation axis RX of the plurality of boundaries BL of the pattern light is orthogonal on the plane having the rotation axis RX and the image on the rotation axis RX of each boundary BL and the rotation axis RX. The light source unit 11 has an attitude in which the optical axis OX1 intersects the rotation axis RX and the optical axis OX2 of the optical system 15 at an angle different from each other, and an angle formed by both optical axes is greater than 0 ° and less than 90 °. Supported. In the present embodiment, the optical axis OX2 of the optical system 15 of the imaging unit 12 is orthogonal to the rotation axis RX. Furthermore, when the line sensor is used, the imaging unit 12 is arranged so that at least a linear image in a direction parallel to the rotation axis RX can be captured. The motor 17 is fixed to, for example, a housing and rotates the light source unit 11 and the imaging unit 12 together with the main body 16 around the rotation axis RX to arbitrary rotation positions.

制御ユニット14は、例えばパソコンなどのコンピュータであり、三次元情報測定装置10の各部位の動作を制御する。制御ユニット14は、キーボードおよびマウスなどの入力部21、SDRAMおよびハードディスクなどの記憶部22、ならびにディスプレイ23に接続される。   The control unit 14 is a computer such as a personal computer, for example, and controls the operation of each part of the three-dimensional information measuring apparatus 10. The control unit 14 is connected to an input unit 21 such as a keyboard and a mouse, a storage unit 22 such as an SDRAM and a hard disk, and a display 23.

入力部21は操作者の多様な入力を検出する。例えば、回転軸RX近傍に設置した被検体の形状の測定を開始する入力、および任意の方向から見た被検体の画像を作成する入力などを検出する。   The input unit 21 detects various inputs from the operator. For example, an input for starting measurement of the shape of the subject placed near the rotation axis RX and an input for creating an image of the subject viewed from an arbitrary direction are detected.

記憶部22は、後述するように、光源ユニット11から出射したパターン光における各境界BL光学像の回転軸RXと交差する投影位置および入射角度を記憶する。光源ユニット11からパターン光を出射した状態において、光源ユニット11側のパターン光の端部と回転軸RXとの交点が始点SPに定められ、始点SPから境界BLと回転軸RXとの交点位置までの距離が各境界BLの回転軸RX上での投影位置として予め算出または計測され、記憶部22に記憶される。また、回転軸RXとの交点位置での各境界BLの入射角度も、各境界BLの回転軸RX上での入射角度として予め算出または計測され、記憶される。   As will be described later, the storage unit 22 stores a projection position and an incident angle that intersect the rotation axis RX of each boundary BL optical image in the pattern light emitted from the light source unit 11. In the state where the pattern light is emitted from the light source unit 11, the intersection of the end of the pattern light on the light source unit 11 side and the rotation axis RX is determined as the start point SP, and from the start point SP to the intersection point of the boundary BL and the rotation axis RX. Is calculated or measured in advance as a projection position on the rotation axis RX of each boundary BL, and stored in the storage unit 22. Also, the incident angle of each boundary BL at the position of the intersection with the rotation axis RX is calculated or measured in advance as the incident angle on the rotation axis RX of each boundary BL and stored.

本実施形態における、各境界BLの光学像の回転軸RX上での投影位置および入射角度の算出方法について、図4を用いて、説明する。パターン光の境界BLの数を(N−1)、パターン光全体の広がり角度をφ、パターン光の法線NVおよび回転軸RXのなす角度をα、始点SPを通るパターン光の幅をLとすると、始点SPからn番目の境界BLの投影位置yr(n/N)は、(1)式により算出される。また、始点SPからn番目の境界BLの入射角度α(n/N)は、(2)式により算出される。 The calculation method of the projection position and incident angle on the rotation axis RX of the optical image of each boundary BL in the present embodiment will be described with reference to FIG. The number of pattern light boundaries BL is (N−1), the spread angle of the entire pattern light is φ, the angle formed by the normal NV of the pattern light and the rotation axis RX is α, and the width of the pattern light passing through the start point SP is L 0. Then, the projection position yr (n / N) of the nth boundary BL from the start point SP is calculated by the equation (1). Further, the incident angle α (n / N) at the nth boundary BL from the start point SP is calculated by the equation (2).

Figure 0005364861
Figure 0005364861

また、記憶部22は、光源ユニット11から出射した基準パターン光における各境界BLの回転軸RX上での投影位置および入射角度を記憶する。さらに、記憶部22は、制御ユニット14が生成する三次元情報を記憶する。   In addition, the storage unit 22 stores the projection position and the incident angle on the rotation axis RX of each boundary BL in the reference pattern light emitted from the light source unit 11. Furthermore, the storage unit 22 stores three-dimensional information generated by the control unit 14.

ディスプレイ23は、三次元情報測定装置10の操作のための画像および被検体を任意の方向から見た画像などの多様な画像を表示する。   The display 23 displays various images such as an image for operating the three-dimensional information measuring apparatus 10 and an image obtained by viewing the subject from an arbitrary direction.

次に、三次元情報測定装置10による、被検体の形状の測定について、以下に説明する。被検体を回転軸RX近傍、好ましくは回転軸RX上に設置した状態で、形状の測定を開始する入力を入力部21が検出すると、制御ユニット14は、三次元情報生成のために各部位の制御を始める。   Next, measurement of the shape of the subject by the three-dimensional information measuring apparatus 10 will be described below. When the input unit 21 detects an input for starting shape measurement in a state where the subject is placed in the vicinity of the rotation axis RX, preferably on the rotation axis RX, the control unit 14 detects each part to generate three-dimensional information. Begin control.

最初に、撮像を開始させる回転位置に基台部19が配置されるように、モータ17は本体16を回動させる。撮像を開始させる回転位置において、図5に示すように、光源ユニット11は基準パターン光を被検体OBJに照射する。基準パターン光が照射されている状態において、撮像ユニット12は、光学系15の光軸OX2と回転軸RXとを有する平面PLと被検体OBJの表面が交わる線状の画像LIを基準位置決定用の画像として撮像する。次に、図6に示すように、光源ユニット11は、パターン光を被検体OBJに照射する。パターン光が照射されている状態において、撮像ユニット12は、光学系15の光軸OX2と回転軸RXとを有する平面PLと被検体OBJの表面が交わる線状の画像LIを測定用の画像として撮像する。さらに、光源ユニット11は、照明光を被検体OBJに照射する。照明光が照射されている状態において、撮像ユニット12は、光学系15の光軸OX2と回転軸RXとを有する平面PLと被検体OBJの表面が交わる線状の画像LIを表示用の画像として撮像する。   First, the motor 17 rotates the main body 16 so that the base portion 19 is disposed at a rotation position at which imaging starts. As shown in FIG. 5, the light source unit 11 irradiates the subject OBJ with the reference pattern light at the rotational position where imaging starts. In the state in which the reference pattern light is irradiated, the imaging unit 12 determines a reference position using a linear image LI where the plane PL having the optical axis OX2 and the rotation axis RX of the optical system 15 intersects the surface of the subject OBJ. The image is taken. Next, as shown in FIG. 6, the light source unit 11 irradiates the subject OBJ with pattern light. In a state where the pattern light is irradiated, the imaging unit 12 uses, as a measurement image, a linear image LI where the plane PL having the optical axis OX2 and the rotation axis RX of the optical system 15 and the surface of the subject OBJ intersect. Take an image. Further, the light source unit 11 irradiates the subject OBJ with illumination light. In a state where the illumination light is irradiated, the imaging unit 12 uses, as a display image, a linear image LI where the plane PL having the optical axis OX2 and the rotation axis RX of the optical system 15 and the surface of the subject OBJ intersect. Take an image.

測定用の画像を撮像すると、モータ17は撮像を開始させる回転位置から所定の角度だけ本体16を回転させる。本実施形態では、例えば0.5°の角度で回転させ、異なる回転位置に光源ユニット11および撮像ユニット12を本体16ともに配置する。この回転位置において、光源ユニット11は、パターン光を被検体OBJに照射する。パターン光が照射されている状態において、撮像ユニット12は、光学系15の光軸OX2と回転軸RXとを有する平面PLと被検体OBJの表面が交わる線状の画像LIを測定用の画像として撮像する。さらに、この回転位置において、光源ユニット11は、照明光を被検体OBJに照射する。照明光が照射されている状態において、撮像ユニット12は、光学系15の光軸OX2と回転軸RXとを有する平面PLと被検体OBJの表面が交わる線状の画像LIを表示用の画像として撮像する。   When an image for measurement is captured, the motor 17 rotates the main body 16 by a predetermined angle from the rotation position at which imaging starts. In the present embodiment, for example, the light source unit 11 and the imaging unit 12 are arranged together with the main body 16 at different rotational positions by rotating at an angle of 0.5 °. At this rotational position, the light source unit 11 irradiates the subject OBJ with pattern light. In a state where the pattern light is irradiated, the imaging unit 12 uses, as a measurement image, a linear image LI where the plane PL having the optical axis OX2 and the rotation axis RX of the optical system 15 and the surface of the subject OBJ intersect. Take an image. Further, at this rotational position, the light source unit 11 irradiates the subject OBJ with illumination light. In a state where the illumination light is irradiated, the imaging unit 12 uses, as a display image, a linear image LI where the plane PL having the optical axis OX2 and the rotation axis RX of the optical system 15 and the surface of the subject OBJ intersect. Take an image.

以後、撮像を開始させる回転位置から所定の角度の回転位置、例えば180°回転するまで、本体16の0.5°の回転、パターン光の照射、測定用の画像の撮像、照明光の照射、および表示用の画像の撮像を繰返す。   Thereafter, the rotation of the main body 16 from the rotation position at which imaging starts to a predetermined angle, for example, 180 ° rotation, rotation of the main body 16 by 0.5 °, irradiation of pattern light, imaging for measurement, irradiation of illumination light, And the imaging of the display image is repeated.

撮像を開始させる回転位置から所定の角度の回転位置における照明光の照射および表示用の画像の撮像を終えると、制御ユニット14は、以下に詳細に説明するように、撮像した画像に基づいて被検体OBJの形状の三次元情報を生成する。   When the irradiation of illumination light at the rotation position at a predetermined angle and the imaging of the display image are completed from the rotation position at which the imaging is started, the control unit 14, based on the captured image, will be described in detail below. Three-dimensional information of the shape of the specimen OBJ is generated.

制御ユニット14は、被検体OBJ表面の各微小領域の三次元座標を、図7に示すように、回転軸RXに沿った位置y、回転軸RXからの高さh、および撮像を開始する回転位置からの回転角度を回転位置θとする座標軸として算出する。すなわち、各回転位置θ0°〜θ360°において、被検体OBJの表面の回転軸RXに沿った各位置yにおける回転軸RXからの高さhを算出する。 The control unit 14 converts the three-dimensional coordinates of each minute region on the surface of the subject OBJ into a position y along the rotation axis RX, a height h from the rotation axis RX, and rotation for starting imaging as shown in FIG. The rotation angle from the position is calculated as a coordinate axis with the rotation position θ. That is, at each rotation position θ 0 ° to θ 360 ° , the height h from the rotation axis RX at each position y along the rotation axis RX of the surface of the subject OBJ is calculated.

高さの算出原理について、以下に説明する。光源ユニット11が回転軸RXから傾斜しているので、図8に示すように、境界BLを示す光学像のy軸に沿った投影位置は、回転軸RXに投影した場合(符号“y”参照)および被検体OBJに投影した場合(符号“y”参照)とでは異なり、その投影位置にはズレdが生じる。それゆえ、境界BLを示す光学像の回転軸RXに対する入射角度α(n/N)を用いて、高さhが、(3)式により算出される。 The height calculation principle will be described below. Since the light source unit 11 is inclined from the rotation axis RX, as shown in FIG. 8, the projection position along the y-axis of the optical image indicating the boundary BL is projected on the rotation axis RX (symbol “y r ”). (See reference) and when projected onto the object OBJ (see reference sign “y o ”), a deviation d occurs at the projection position. Therefore, the height h is calculated by the expression (3) using the incident angle α (n / N) with respect to the rotation axis RX of the optical image indicating the boundary BL.

Figure 0005364861
Figure 0005364861

投影位置のズレdは、被検体OBJに投影した境界BLの光学像の投影位置y、および回転軸RXに投影した境界BLの光学像の投影位置yの差分である。すなわち、始点SPからn番目の境界BLの投影位置のズレd(n/N)は、(4)式により算出される。 Deviation d of the projection position is the difference projection position y r of the optical image of the boundary BL projected on the projection position y o, and the rotation axis RX of the optical image of the boundary BL projected to the subject OBJ. That is, the deviation d (n / N) of the projection position of the nth boundary BL from the start point SP is calculated by the equation (4).

Figure 0005364861
Figure 0005364861

前述のように、回転軸RXに投影した各境界BLの光学像の投影位置yr(n/N)は、予め算出され記憶部22に記憶されている。また、各境界BLの光学像の回転軸RXに対する各入射角度α(n/N)も、予め算出され記憶部22に記憶されている。したがって、測定用の画像において、被検体OBJに投影した境界BLの光学像の投影位置yo(n/N)を検出することにより、始点SPからn番目の境界BLの高さhを算出可能である。 As described above, the projection position yr (n / N) of the optical image of each boundary BL projected on the rotation axis RX is calculated in advance and stored in the storage unit 22. Each incident angle α (n / N) with respect to the rotation axis RX of the optical image at each boundary BL is also calculated in advance and stored in the storage unit 22. Accordingly, in the measurement image, the height h of the nth boundary BL from the start point SP can be calculated by detecting the projection position yo (n / N) of the optical image of the boundary BL projected on the subject OBJ. It is.

ただし、被検体OBJが始点SPよりも光源ユニット11から離れた位置に設置されている場合には、すべての境界BLが被検体OBJに照射され得ないため、被検体OBJに照射された境界BLが始点SPから何番目の境界BLであるかの判別が出来ない。そこで、基準パターン光を用いて、被検体OBJに照射される境界BLの序数が検出される。前述のように、基準パターン光は、パターン光における15番目および29番目の境界BLと同じ位置に、境界BLを有している。それゆえ、基準位置決定用の画像において検出される2つの境界BLの位置が、基準位置に定められる。最初に撮像された測定用の画像において、始点SPよりの基準位置または始点SPから離れた基準位置の境界BLが15番目または29番目の境界BLに定められ、当該境界BLを基準として他の境界BLの序数が定められる。定められた序数および検出された境界BLの位置に基づいて、前述のように、各境界BLにおける被検体OBJの高さhが算出される。なお、撮像を開始する回転位置の次の回転位置における測定用の画像では、撮像を開始する回転位置の測定用の画像の各境界BLに最も近い境界BLを、撮像を開始する回転位置の測定用の画像の境界BLと同じ序数として高さhの算出に用いる。   However, when the subject OBJ is installed at a position farther from the light source unit 11 than the starting point SP, the entire boundary BL cannot be irradiated to the subject OBJ, and therefore the boundary BL irradiated to the subject OBJ. It is impossible to determine the number of the boundary BL from the starting point SP. Therefore, the ordinal number of the boundary BL irradiated to the subject OBJ is detected using the reference pattern light. As described above, the reference pattern light has the boundary BL at the same position as the 15th and 29th boundaries BL in the pattern light. Therefore, the positions of the two boundaries BL detected in the image for determining the reference position are determined as the reference position. In the first measurement image captured, the reference position boundary BL from the start point SP or the reference position distance BL from the start point SP is defined as the fifteenth or 29th boundary BL, and another boundary with the boundary BL as a reference. The ordinal number of BL is determined. Based on the determined ordinal number and the position of the detected boundary BL, the height h of the subject OBJ at each boundary BL is calculated as described above. Note that in the measurement image at the rotation position next to the rotation position at which imaging starts, the boundary BL closest to each boundary BL of the measurement image at the rotation position at which imaging starts is measured at the rotation position at which imaging starts. The same ordinal number as the boundary BL of the image is used to calculate the height h.

測定用の全画像において、検出された境界BLの高さhを算出して、その中の最大値を用いて、各境界BLの高さが最大1までの値に正規化される。制御ユニット14は、正規化された境界BLの高さh、本体16の回転位置θ、および始点SPを基準とする位置yの三次元情報を生成する。 In all the images for measurement, the height h of the detected boundary BL is calculated, and the height of each boundary BL is normalized to a value up to 1 using the maximum value among them. The control unit 14 generates three-dimensional information of the normalized height h s of the boundary BL, the rotational position θ of the main body 16, and the position y with reference to the start point SP.

θyh座標上で被検体OBJの形状を描画すると、図9に示すように、実際の三次元形状と異なる被検体OBJの形状が形成される。そこで、制御ユニット14は、(5)、(6)式により、θyh座標系の三次元情報から、撮像を開始するときの回転位置における回転軸RXに垂直な軸をx軸、xy平面に垂直な軸をz軸とするxyz座標系の三次元情報(図10参照)に変換する。なお、(5)、(6)式により変換した三次元情報は、回転位置90°の方向から見た位置に相当する。   When the shape of the subject OBJ is drawn on the θyh coordinates, a shape of the subject OBJ different from the actual three-dimensional shape is formed as shown in FIG. Therefore, the control unit 14 uses the equations (5) and (6) to determine from the three-dimensional information in the θyh coordinate system that the axis perpendicular to the rotation axis RX at the rotation position when imaging starts is the x axis and the xy plane. This is converted into three-dimensional information (see FIG. 10) in an xyz coordinate system with the correct axis as the z-axis. Note that the three-dimensional information converted by the equations (5) and (6) corresponds to the position viewed from the direction of the rotational position 90 °.

Figure 0005364861
Figure 0005364861

(5)、(6)式において、Wはディスプレイ23で表示可能な画像の幅以下の任意の長さであって、高さhの正規化に用いる最大値に相当する。図11に示すように、h(θ、y)は、特定の回転位置θおよび特定の位置yにおける被検体OBJの表面の回転軸RXからの正規化された高さである。θは、任意の回転位置の、撮像を開始する回転位置からの角度である。 In equations (5) and (6), W is an arbitrary length that is equal to or smaller than the width of the image that can be displayed on the display 23, and corresponds to the maximum value used for normalizing the height h. As shown in FIG. 11, h s (θ, y) is a normalized height from the rotation axis RX of the surface of the subject OBJ at the specific rotation position θ and the specific position y. θ is an angle of an arbitrary rotational position from the rotational position at which imaging starts.

また、制御ユニット14は、表示用の画像を細分化し、細分化した各画像を、同じ回転位置において撮像した測定用の画像における同じy座標の位置の三次元情報を組合わせる。さらに、制御ユニット14は、表示用の画像を、回転位置90°から見た画像に変換する。図11に示すように、各回転位置の測定用の画像は、回転位置から見て垂直な方向に幅Δθを有する。各回転位置から見た幅Δθにsinθを乗じることにより、回転位置90°から見た幅Δxに変換可能である。制御ユニット14は、変換した表示用の画像を、xyz座標系の三次元情報と組合わせて、記憶部22に記憶させる。   Further, the control unit 14 subdivides the display image and combines the subdivided images with the three-dimensional information at the same y-coordinate position in the measurement image captured at the same rotational position. Further, the control unit 14 converts the display image into an image viewed from the rotation position 90 °. As shown in FIG. 11, the image for measurement at each rotational position has a width Δθ in a direction perpendicular to the rotational position. By multiplying the width Δθ seen from each rotational position by sin θ, the width Δx seen from the rotational position 90 ° can be converted. The control unit 14 stores the converted display image in the storage unit 22 in combination with the three-dimensional information of the xyz coordinate system.

制御ユニット14は、変換した表示用の画像の、xyz座標系の三次元座標との組合せにより、回転位置90°から見た被検体OBJの画像を作成可能である。また、他の回転位置ω°から見た被検体OBJの画像(図12参照)に関しては、(5)、(6)式および、表示用の画像の幅Δθの変換のために乗じるsinθにおいて、θに、(θ+ω−90°)を代入することにより算出される三次元情報および細分化した各画像へ変換可能である。   The control unit 14 can create an image of the subject OBJ viewed from the rotation position 90 ° by combining the converted display image with the three-dimensional coordinates of the xyz coordinate system. Further, regarding the image of the object OBJ (see FIG. 12) viewed from another rotational position ω °, in equations (5) and (6) and sin θ multiplied for conversion of the width Δθ of the display image, By substituting (θ + ω−90 °) into θ, it can be converted into three-dimensional information calculated and subdivided images.

次に、制御ユニット14が実行する被検体OBJの形状測定処理を、図13のフローチャートを用いて説明する。前述のように、形状の測定を開始する入力を入力部21が検出すると、形状測定処理を開始する。   Next, the shape measurement process of the object OBJ executed by the control unit 14 will be described using the flowchart of FIG. As described above, when the input unit 21 detects an input for starting shape measurement, the shape measurement process is started.

ステップS100において、制御ユニット14は、本体16を、撮像を開始させる回転位置に回動させる。開始のための回転位置に回動させると、プロセスはステップS101に進む。   In step S100, the control unit 14 rotates the main body 16 to a rotation position at which imaging starts. Once rotated to the starting rotational position, the process proceeds to step S101.

ステップS101では、制御ユニット14は、被検体OBJに基準パターン光を照射させる。さらに、制御ユニット14は、基準パターン光が照射された被検体OBJを撮像して、基準位置決定用の画像を取得する。基準位置決定用の画像を撮像すると、プロセスはステップS102に進む。   In step S101, the control unit 14 irradiates the object OBJ with the reference pattern light. Furthermore, the control unit 14 images the subject OBJ irradiated with the reference pattern light, and acquires an image for determining the reference position. When the image for determining the reference position is captured, the process proceeds to step S102.

ステップS102では、制御ユニット14は、被検体OBJにパターン光を照射させる。さらに、制御ユニット14は、パターン光が照射された被検体OBJを撮像して、測定用の画像を取得する。測定用の画像を撮像すると、プロセスはステップS103に進む。   In step S102, the control unit 14 irradiates the subject OBJ with pattern light. Furthermore, the control unit 14 images the subject OBJ irradiated with the pattern light and acquires a measurement image. When the measurement image is captured, the process proceeds to step S103.

ステップS103では、制御ユニット14は、被検体OBJに照明光を照射させる。さらに、制御ユニット14は、照明光が照射された被検体OBJを撮像して、表示用の画像を取得する。表示用の画像を撮像すると、プロセスはステップS104に進む。なお、ステップS102とステップS103の順番を変えて、表示用の画像を測定用の画像より先に取得してもよい。   In step S103, the control unit 14 irradiates the subject OBJ with illumination light. Further, the control unit 14 images the subject OBJ irradiated with the illumination light, and acquires a display image. When the display image is captured, the process proceeds to step S104. Note that the display image may be acquired before the measurement image by changing the order of step S102 and step S103.

ステップS104では、制御ユニット14は、現在の回転位置が最終の回転位置であるか否かを判別する。最終の回転位置でないときには、プロセスはステップS105に進む。最終の回転位置であるときには、プロセスはステップS106に進む。   In step S104, the control unit 14 determines whether or not the current rotational position is the final rotational position. If it is not the final rotational position, the process proceeds to step S105. If it is the final rotational position, the process proceeds to step S106.

ステップS105では、制御ユニット14は、本体16を0.5°回転させる。本体16の回転後、プロセスはステップS102に戻る。   In step S105, the control unit 14 rotates the main body 16 by 0.5 °. After the main body 16 is rotated, the process returns to step S102.

ステップS106では、制御ユニット14は、ステップS101において取得した基準位置決定用の画像に基づき、基準位置を決定する。さらに、制御ユニット14は、決定した基準位置に基づいて、ステップS102において取得した測定用の画像における境界BLの序数を決定する。境界BLの序数を決定すると、プロセスはステップS107に進む。   In step S106, the control unit 14 determines the reference position based on the reference position determination image acquired in step S101. Furthermore, the control unit 14 determines the ordinal number of the boundary BL in the measurement image acquired in step S102 based on the determined reference position. When the ordinal number of the boundary BL is determined, the process proceeds to step S107.

ステップS107では、制御ユニット14は、記憶部22に記憶された各境界BLの回転軸RX上の投影位置yおよび入射角度と、ステップS102において取得した測定用の画像に基づく境界BLの投影位置yとを用いて、被検体OBJのxyz座標系における三次元情報を算出する。xyz座標系の三次元情報を算出すると、プロセスはステップS108に進む。 In Step S107, the control unit 14 projects the projection position yr and the incident angle on the rotation axis RX of each boundary BL stored in the storage unit 22, and the projection position of the boundary BL based on the measurement image acquired in Step S102. by using the y o, we calculate three-dimensional information in the xyz coordinate system of the object OBJ. When the three-dimensional information of the xyz coordinate system is calculated, the process proceeds to step S108.

ステップS108では、制御ユニット14は、ステップS103で取得した表示用の画像の幅Δθを変換する。さらに、制御ユニット14は、幅Δθを変換した画像をステップS107において算出した三次元情報に組合わせる。組合せ後、プロセスはステップS109に進む。   In step S108, the control unit 14 converts the width Δθ of the display image acquired in step S103. Furthermore, the control unit 14 combines the image obtained by converting the width Δθ with the three-dimensional information calculated in step S107. After the combination, the process proceeds to step S109.

ステップS109では、制御ユニット14は、ステップS108において組合わせた三次元情報および表示用の画像を記憶部22に記憶させる。記憶部22に記憶させると、形状測定処理を終了する。   In step S109, the control unit 14 causes the storage unit 22 to store the three-dimensional information and the display image combined in step S108. If it memorize | stores in the memory | storage part 22, a shape measurement process will be complete | finished.

次に、制御ユニット14が実行する任意の回転位置から見た被検体OBJの画像作成処理を、図14のフローチャートを用いて説明する。前述のように、任意の方向から見た被検体OBJの画像を作成する入力を入力部21が検出すると、画像作成処理を開始する。   Next, the image creation processing of the subject OBJ viewed from an arbitrary rotation position executed by the control unit 14 will be described with reference to the flowchart of FIG. As described above, when the input unit 21 detects an input for creating an image of the subject OBJ viewed from an arbitrary direction, the image creation process is started.

ステップS200において、制御ユニット14は、形状測定処理のステップS107における座標変換において、θの代わりに(θ+ω−90°)を用いた座標変換を行う。座標変換後、プロセスはステップS201に進む。   In step S200, the control unit 14 performs coordinate conversion using (θ + ω−90 °) instead of θ in the coordinate conversion in step S107 of the shape measurement process. After coordinate transformation, the process proceeds to step S201.

ステップS201では、制御ユニット14は、形状測定処理のステップS108における画像変換において、θの代わりに(θ+ω−90°)を用いた画像変換を行う。さらに、制御ユニット14は、幅Δθを変換した画像をステップS200において算出した三次元情報に組合わせる。組合せ後、プロセスはステップS202に進む。   In step S201, the control unit 14 performs image conversion using (θ + ω−90 °) instead of θ in the image conversion in step S108 of the shape measurement process. Further, the control unit 14 combines the image obtained by converting the width Δθ with the three-dimensional information calculated in step S200. After combination, the process proceeds to step S202.

ステップS202では、制御ユニット14は、ステップS202において組合わせた三次元情報および表示用の画像を記憶部22に記憶させる。記憶部22に記憶させると、画像作成処理を終了する。   In step S202, the control unit 14 stores the three-dimensional information and the display image combined in step S202 in the storage unit 22. When stored in the storage unit 22, the image creation process is terminated.

以上のような構成の本実施形態の三次元情報測定装置によれば、撮像ユニット12を被検体OBJの周囲を回転させながら、パターン光を照射した被検体OBJを撮像するので、単一の視点からの撮像では死角となる部位の三次元情報も測定可能である。   According to the three-dimensional information measuring apparatus of the present embodiment configured as described above, the subject OBJ irradiated with the pattern light is imaged while the imaging unit 12 is rotated around the subject OBJ. 3D information of a part that becomes a blind spot can be measured by imaging from.

また、本実施形態の三次元情報測定装置によれば、算出した三次元情報と表示用の画像の組合わせにより、任意の回転位置から見た被検体OBJの画像を作成可能である。   Further, according to the three-dimensional information measuring apparatus of the present embodiment, an image of the subject OBJ viewed from an arbitrary rotational position can be created by a combination of the calculated three-dimensional information and a display image.

本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。   Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.

例えば、本実施形態において、基準位置を基準位置決定用の画像に基づいて決定するが、他の構成により決定してもよい。例えば、図15に示すように、三次元情報測定装置10が、被検体OBJの先端を合わせるべき位置を示す指標24を備える構成であってもよい。当該指標24が示す位置は始点SPであり、当該始点SPに被検体OBJの先端を合わせて測定を行うことにより、測定用の画像における始点SPから最初の境界BLが一番目の境界BLとして扱うことが可能であって、基準位置決定用の画像の撮像が不要となる。   For example, in the present embodiment, the reference position is determined based on the image for determining the reference position, but may be determined by another configuration. For example, as illustrated in FIG. 15, the three-dimensional information measurement apparatus 10 may include an index 24 that indicates a position where the tip of the subject OBJ should be aligned. The position indicated by the index 24 is the start point SP, and the first boundary BL from the start point SP in the measurement image is handled as the first boundary BL by performing measurement by aligning the tip of the subject OBJ with the start point SP. Therefore, it is not necessary to capture an image for determining the reference position.

また、本実施形態において、基準位置決定用の画像は初回のみ撮像される構成であるが、回転位置毎に、あるいは任意の回転位置においても、基準位置決定用の画像が撮像される構成であってもよい。回転位置の変化に対して高さが大きく変わる被検体OBJでは、隣接する測定用の画像における境界BLの投影位置yが大きく変わり得る。それゆえ、このような被検体OBJに対しては、多様な回転位置において基準位置を確認することにより、測定精度を向上可能である。 In the present embodiment, the reference position determination image is captured only for the first time. However, the reference position determination image is captured at each rotational position or at any rotational position. May be. In the subject OBJ height with respect to the change in the rotational position changes greatly, the projection position y o of the boundary BL in the image for measurement adjacent may vary widely. Therefore, for such an object OBJ, the measurement accuracy can be improved by checking the reference position at various rotational positions.

10 三次元情報測定装置
11 光源ユニット
12 撮像ユニット
13 支持ユニット
14 制御ユニット
15 光学系
16 本体
17 モータ
18 連結部
19 基台部
21 入力部
22 記憶部
23 ディスプレイ
24 指標
BA 黒色領域
BL 境界
LI 線状の画像
NV パターン光の法線
OBJ 被検体
OX1 照明光学系の光軸
OX2 光学系の光軸
PL 光学系の光軸と回転軸とを有する平面
RX 回転軸
SP 始点
WA 白色領域
DESCRIPTION OF SYMBOLS 10 3D information measuring device 11 Light source unit 12 Imaging unit 13 Support unit 14 Control unit 15 Optical system 16 Main body 17 Motor 18 Connection part 19 Base part 21 Input part 22 Memory | storage part 23 Display 24 Index BA Black area BL Boundary LI Linear Image NV Normal line OBJ Subject OX1 Optical axis of illumination optical system OX2 Optical axis of optical system PL Plane having optical axis and rotation axis of optical system RX Rotation axis SP Start point WA White region

Claims (6)

第1の方向に沿って複数の境界を有するパターン光を出射可能な光源ユニットと、
前記パターン光を照射した被検体を撮像する撮像ユニットと、
前記光源ユニットおよび前記撮像ユニットを回転軸を中心に回動可能に、前記複数の境界および前記回転軸が交差するように前記回転軸に対して傾斜させた方向から前記パターン光を照射可能な姿勢で前記光源ユニットを支持し、前記光源ユニットとは異なる角度で前記回転軸から傾斜した方向から前記被検体を撮像可能な姿勢で前記撮像ユニットを支持する支持ユニットと、
前記回転軸に対して複数の異なる回転位置において前記回転軸の近傍に設置した前記被検体に前記パターン光を照射した状態で前記撮像ユニットの撮像により得られる拡散反射光の像の画像に基づいて、前記被検体の三次元情報を生成する制御ユニットとを備える
ことを特徴とする三次元情報測定装置。
A light source unit capable of emitting pattern light having a plurality of boundaries along the first direction;
An imaging unit for imaging the subject irradiated with the pattern light;
An attitude capable of irradiating the pattern light from a direction inclined with respect to the rotation axis such that the plurality of boundaries and the rotation axis intersect so that the light source unit and the imaging unit can be rotated around the rotation axis. A support unit that supports the imaging unit in a posture capable of imaging the subject from a direction inclined from the rotation axis at an angle different from that of the light source unit.
Based on an image of diffuse reflected light obtained by imaging of the imaging unit in a state in which the subject is placed near the rotation axis at a plurality of different rotational positions with respect to the rotation axis and the pattern light is irradiated. And a control unit that generates three-dimensional information of the subject.
請求項1に記載の三次元情報測定装置であって、
前記光源ユニットは、前記パターン光より少ない境界を有する基準パターン光を出射可能であり、
前記制御部は、前記被検体に前記基準パターンを照射した状態で前記撮像ユニットの撮像により得られる拡散反射光の像の画像に基づいて前記被検体の基準位置を判別し、前記基準位置に基づいて前記三次元情報を生成する
ことを特徴とする三次元情報測定装置。
The three-dimensional information measuring apparatus according to claim 1,
The light source unit can emit reference pattern light having a boundary smaller than the pattern light,
The control unit determines a reference position of the subject based on an image of a diffuse reflected light image obtained by imaging of the imaging unit in a state where the subject is irradiated with the reference pattern, and based on the reference position The three-dimensional information measuring device is characterized in that the three-dimensional information is generated.
請求項1に記載の三次元情報測定装置であって、
前記被検体を設置すべき位置を示す指標を、さらに備え、
前記制御部は、前記指標に示される位置に基づいて前記三次元情報を生成する
ことを特徴とする三次元情報測定装置。
The three-dimensional information measuring device according to claim 1,
An index indicating a position where the subject is to be placed,
The control unit generates the three-dimensional information based on a position indicated by the index.
請求項1から請求項3のいずれか1項に記載の三次元情報測定装置であって、
前記光源ユニットは、照明光を出射可能であって、
前記制御部は、前記複数の異なる回転位置において前記照明光を照射した状態で撮像ユニットの撮像により得られる拡散反射光の像の画像、および前記三次元情報に基づいて、任意の方向から見た前記被検体の画像を作成する
ことを特徴とする三次元情報測定装置。
The three-dimensional information measuring device according to any one of claims 1 to 3,
The light source unit can emit illumination light,
The control unit is viewed from an arbitrary direction based on the image of the diffuse reflected light obtained by imaging of the imaging unit in a state where the illumination light is irradiated at the plurality of different rotational positions and the three-dimensional information. A three-dimensional information measuring apparatus, characterized in that an image of the subject is created.
パターン光が有する第1の方向に沿った複数の境界が回転軸に交差するように前記回転軸から傾斜させた方向からの前記パターン光の前記回転軸の近傍の被検体への照射、および前記パターン光の照射する角度とは異なる角度で前記回転軸に対して傾斜した方向からの前記被検体の撮像を、前記回転軸に対して複数の回転位置において実行する採取ステップと、
前記採取ステップにおいて撮像された複数の拡散反射光の像の画像に基づいて、前記被検体の三次元情報を生成する生成ステップとを備える
ことを特徴とする三次元情報測定方法。
Irradiating a subject near the rotation axis with the pattern light from a direction inclined from the rotation axis such that a plurality of boundaries along a first direction of the pattern light intersect the rotation axis; and A sampling step of performing imaging of the subject from a direction inclined with respect to the rotation axis at an angle different from the angle irradiated with the pattern light at a plurality of rotation positions with respect to the rotation axis;
A three-dimensional information measurement method comprising: a generation step of generating three-dimensional information of the subject based on images of a plurality of diffuse reflected light images captured in the collecting step.
請求項5に記載の三次元情報測定方法であって、
前記採取ステップにおいて、前記回転軸から傾斜させた前記方向からの照明光の前記被検体への照射および前記照明光の照射する角度とは異なる前記角度で前記回転軸に対して傾斜させた前記方向からの前記被検体の撮像を、前記複数の回転位置において実行し、
前記生成ステップにおいて、生成した前記被検体の三次元情報と、前記採取ステップにおいて撮像した前記照明光を照射された前記被検体の拡散反射光の像の画像とに基づいて、任意の方向から見た前記被検体の画像を作成する
ことを特徴とする三次元情報測定方法。
The three-dimensional information measuring method according to claim 5,
In the sampling step, the direction inclined with respect to the rotation axis at an angle different from the irradiation angle of the illumination light from the direction inclined with respect to the rotation axis and the angle with which the illumination light is irradiated Performing imaging of the subject from the plurality of rotational positions;
In the generation step, based on the generated three-dimensional information of the subject and the image of the diffuse reflection light image of the subject irradiated with the illumination light imaged in the collection step, the image is viewed from an arbitrary direction. A three-dimensional information measurement method, comprising: creating an image of the subject.
JP2013094430A 2013-04-26 2013-04-26 3D information measuring apparatus and 3D information measuring method Active JP5364861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013094430A JP5364861B1 (en) 2013-04-26 2013-04-26 3D information measuring apparatus and 3D information measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094430A JP5364861B1 (en) 2013-04-26 2013-04-26 3D information measuring apparatus and 3D information measuring method

Publications (2)

Publication Number Publication Date
JP5364861B1 true JP5364861B1 (en) 2013-12-11
JP2014215245A JP2014215245A (en) 2014-11-17

Family

ID=49850389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094430A Active JP5364861B1 (en) 2013-04-26 2013-04-26 3D information measuring apparatus and 3D information measuring method

Country Status (1)

Country Link
JP (1) JP5364861B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290415B2 (en) * 2018-12-06 2023-06-13 三星電子株式会社 Three-dimensional measuring device and heating cooker

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03293507A (en) * 1990-04-11 1991-12-25 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
JPH1068612A (en) * 1996-06-21 1998-03-10 Matsushita Electric Works Ltd Method and apparatus for detecting surface shape of object
JP2003172610A (en) * 2001-12-07 2003-06-20 Brother Ind Ltd Three-dimensional color/shape-detecting apparatus and three-dimensional scanner
JP2006126033A (en) * 2004-10-29 2006-05-18 Gc Corp Preparation method for three-dimensional shape data for dental prosthesis
JP2006242828A (en) * 2005-03-04 2006-09-14 Ricoh Co Ltd Surface defect detection device
JP2008216199A (en) * 2007-03-07 2008-09-18 Toyota Motor Corp Device and method for inspecting weld bead

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03293507A (en) * 1990-04-11 1991-12-25 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
JPH1068612A (en) * 1996-06-21 1998-03-10 Matsushita Electric Works Ltd Method and apparatus for detecting surface shape of object
JP2003172610A (en) * 2001-12-07 2003-06-20 Brother Ind Ltd Three-dimensional color/shape-detecting apparatus and three-dimensional scanner
JP2006126033A (en) * 2004-10-29 2006-05-18 Gc Corp Preparation method for three-dimensional shape data for dental prosthesis
JP2006242828A (en) * 2005-03-04 2006-09-14 Ricoh Co Ltd Surface defect detection device
JP2008216199A (en) * 2007-03-07 2008-09-18 Toyota Motor Corp Device and method for inspecting weld bead

Also Published As

Publication number Publication date
JP2014215245A (en) 2014-11-17

Similar Documents

Publication Publication Date Title
JP6044705B2 (en) Shape measuring apparatus, structure manufacturing system, shape measuring method, structure manufacturing method, and shape measuring program
JP6194996B2 (en) Shape measuring device, shape measuring method, structure manufacturing method, and shape measuring program
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP2012521005A (en) Optical gauge and three-dimensional surface profile measuring method
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
JP2014010098A (en) Measurement device, measurement method and program
JP2018533722A (en) Method and apparatus for measuring features on or near a subject
JP2018522240A (en) Method for measuring artifacts
JP5364861B1 (en) 3D information measuring apparatus and 3D information measuring method
JP2013234854A (en) Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, and program for the same
JP5950100B2 (en) X-ray inspection equipment
JP2014163892A (en) Laser measurement system
JP2012013593A (en) Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine
JP6202875B2 (en) Image measuring apparatus and control program therefor
JP2010169636A (en) Shape measuring apparatus
JP6653539B2 (en) Image measuring device, control program therefor, and measuring device
JP5175916B2 (en) Parts search system
JP6821424B2 (en) Information processing equipment, information processing methods, and programs
JP2006292462A (en) Computer tomographic photography system
JP2008292414A (en) X-ray ct device
JP5233046B2 (en) Shape measuring device
JP2007121126A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP7292133B2 (en) Machining inspection device, Machining inspection system, Machining inspection method and program
JP6845836B2 (en) Piping route measurement method and piping route measurement system
JP2013240374A5 (en)

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5364861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250