JP2017003469A - Three-dimensional measurement device, three-dimensional measurement device control method and program - Google Patents

Three-dimensional measurement device, three-dimensional measurement device control method and program Download PDF

Info

Publication number
JP2017003469A
JP2017003469A JP2015118605A JP2015118605A JP2017003469A JP 2017003469 A JP2017003469 A JP 2017003469A JP 2015118605 A JP2015118605 A JP 2015118605A JP 2015118605 A JP2015118605 A JP 2015118605A JP 2017003469 A JP2017003469 A JP 2017003469A
Authority
JP
Japan
Prior art keywords
image
pattern
imaging condition
offset
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015118605A
Other languages
Japanese (ja)
Inventor
匡貴 中島
Masataka Nakajima
匡貴 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015118605A priority Critical patent/JP2017003469A/en
Priority to US15/175,324 priority patent/US10378886B2/en
Publication of JP2017003469A publication Critical patent/JP2017003469A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To highly accurately measure a three-dimensional shape of a work with high speed.SOLUTION: A three-dimensional measurement device measuring a three-dimensional shape of works on the basis of an image obtained by imaging the work having patterns projected comprises: a synthesis unit that synthesizes first and second images of the work acquired respectively under first and second shooting conditions so that a magnitude relation between an amount of exposure per unit time by a light source for projecting the pattern and a luminance value corresponding to the amount of exposure is maintained between the first and second images; and a measurement unit that measures the three-dimensional shape of the work on the basis of the image synthesized by the synthesis unit.SELECTED DRAWING: Figure 2

Description

本発明は、三次元計測装置、三次元計測装置の制御方法及びプログラムに関する。   The present invention relates to a three-dimensional measuring apparatus, a control method for the three-dimensional measuring apparatus, and a program.

三角測量の原理を用いて画像情報から被検物の形状を計測する方法として空間符号化パターン投影法が知られている。プロジェクタ等の投影装置により被検物に複数の格子のパターンを投影し、複数の格子パターンを撮像装置で撮像し、格子パターンの明暗の位置と、撮像装置と投影装置の幾何関係とから被検物の形状を計測する。空間符号化パターン投影法においては、投影パターンの明暗の位置により対応付けされた符号が被検物の各点における基準面からの高さとして解析され、被検物の三次元形状が計測される。しかし、このような空間符号化パターン投影法を用いた三次元形状計測では、被検物の表面に低反射領域や高反射領域など様々な反射特性を持つ領域が広く分布している場合に問題が生じることがある。例えば、パターンを投影するための光源の光量を調整したとしても、或いは、撮像装置の露出を調整したとしても、広範囲の反射分布をカバーできないことがある。   A spatially encoded pattern projection method is known as a method for measuring the shape of a test object from image information using the principle of triangulation. A plurality of grid patterns are projected onto a test object by a projection device such as a projector, the plurality of grid patterns are imaged by an imaging device, and the test is performed based on the light / dark position of the grid pattern and the geometric relationship between the imaging device and the projection device. Measure the shape of an object. In the spatially encoded pattern projection method, the code associated with the bright and dark positions of the projection pattern is analyzed as the height from the reference plane at each point of the test object, and the three-dimensional shape of the test object is measured. . However, in the three-dimensional shape measurement using such a spatially encoded pattern projection method, there is a problem when a region having various reflection characteristics such as a low reflection region and a high reflection region is widely distributed on the surface of the test object. May occur. For example, even if the light quantity of the light source for projecting the pattern is adjusted or the exposure of the imaging device is adjusted, a wide range of reflection distribution may not be covered.

これに対して、特許文献1では、スリット光を用いた光切断法によって生成された光切断線を撮像して階調のある濃淡画像データを得る撮像部を用いる方法が開示されている。複数の撮影条件で撮影したライン光画像から、飽和している画素の輝度を飽和輝度以下で最も明るい輝度値に置き換えて合成した画像を作成し、その画像から被検物の三次元形状を計測することにより、広範囲な反射特性を持つ被検物の形状計測を可能にしている。   On the other hand, Patent Document 1 discloses a method using an image capturing unit that captures a light cutting line generated by a light cutting method using slit light to obtain grayscale grayscale image data. Create a composite image by replacing the brightness of saturated pixels with the brightest brightness value below saturation brightness from a line light image captured under multiple imaging conditions, and measure the 3D shape of the test object from that image By doing so, it is possible to measure the shape of an object having a wide range of reflection characteristics.

また、特許文献2では、空間符号化パターン投影法を用いて、複数の撮影条件で撮影したパターン強度画像から空間符号の対応付けを行い、画像の平均輝度が最も高い条件での空間符号を統合することにより、被検物の形状計測を行っている。   Also, in Patent Document 2, spatial codes are associated from pattern intensity images captured under a plurality of imaging conditions using the spatial encoding pattern projection method, and the spatial codes under the highest average luminance of the images are integrated. By doing so, the shape of the test object is measured.

特開昭62−21011号公報JP-A-62-21011 特開2007−271530号公報JP 2007-271530 A

しかしながら、特許文献1に記載の技術の場合、画像の輝度を、飽和していない最も高い輝度値に置き換えるだけである。そのため、空間符号化パターン投影法においてはパターンの明暗位置による符号の対応付けに際に誤って対応付けを行ってしまうことがあり、高精度な三次元形状計測を行うことが難しいという課題がある。   However, in the case of the technique described in Patent Document 1, the luminance of the image is simply replaced with the highest luminance value that is not saturated. Therefore, in the spatially encoded pattern projection method, there is a problem in that it is difficult to perform high-accuracy three-dimensional shape measurement because there is a case where association is erroneously performed in association with codes according to the light / dark positions of patterns. .

また、特許文献2に記載の技術では、複数の撮影条件で撮影したパターン強度画像から、空間符号の対応付けを行って統合する必要があるため、演算量が多くなり、計算機のメモリを多く消費してしまう。そのため、高速に三次元形状計測を行うことが難しいという課題がある。   Further, in the technique described in Patent Document 2, since it is necessary to perform integration by associating spatial codes from pattern intensity images photographed under a plurality of photographing conditions, the amount of calculation increases and a large amount of computer memory is consumed. Resulting in. Therefore, there is a problem that it is difficult to perform three-dimensional shape measurement at high speed.

本発明は、上記の課題に鑑みてなされたものであり、被検物の三次元形状を高速且つ高精度に計測する技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for measuring a three-dimensional shape of a test object at high speed and with high accuracy.

上記の目的を達成するために、本発明の一態様による三次元計測装置は以下の構成を備える。即ち、
パターンが投影された被検物を撮影して得られた画像に基づいて前記被検物の三次元形状を計測する三次元計測装置であって、
第1の撮影条件及び第2の撮影条件でそれぞれ取得された前記被検物の第1の画像及び第2の画像を、前記パターンを投影するための光源による単位時間当たりの露光量及び当該露光量に対応する輝度値の大小関係が、前記第1の画像及び前記第2の画像の間で保持されるように合成する合成手段と、
前記合成手段により合成された画像に基づいて前記被検物の三次元形状を計測する計測手段と、
を備えることを特徴とする。
In order to achieve the above object, a three-dimensional measurement apparatus according to an aspect of the present invention has the following arrangement. That is,
A three-dimensional measurement apparatus that measures a three-dimensional shape of the test object based on an image obtained by photographing the test object on which a pattern is projected,
The first image and the second image of the test object acquired under the first imaging condition and the second imaging condition, respectively, the exposure amount per unit time and the exposure by the light source for projecting the pattern Combining means for combining so that a magnitude relationship of luminance values corresponding to a quantity is maintained between the first image and the second image;
Measuring means for measuring the three-dimensional shape of the test object based on the image synthesized by the synthesizing means;
It is characterized by providing.

本発明によれば、被検物の三次元形状を高速且つ高精度に計測することが可能となる。   According to the present invention, the three-dimensional shape of a test object can be measured at high speed and with high accuracy.

本発明の一実施形態に係る三次元計測装置を示した図である。It is the figure which showed the three-dimensional measuring apparatus which concerns on one Embodiment of this invention. 本発明の実施形態1に係る三次元計測装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the three-dimensional measuring apparatus which concerns on Embodiment 1 of this invention implements. 本発明の一実施形態に係る投影パターンの一例を示した図である。It is the figure which showed an example of the projection pattern which concerns on one Embodiment of this invention. 本発明の実施形態1に係る複数の撮影条件におけるパターン強度画像の輝度の一例を示す図である。It is a figure which shows an example of the brightness | luminance of the pattern intensity image in the several imaging condition which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画像合成前後の露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount before and behind image composition which concerns on Embodiment 1 of this invention, and a luminance value. 本発明の実施形態1に係るオフセットを加えた画像輝度の一例を示す図である。It is a figure which shows an example of the image brightness | luminance which added the offset which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係るオフセットを加えて合成した画像輝度の一例を示した図である。It is the figure which showed an example of the image brightness | luminance combined by adding the offset which concerns on Embodiment 1 of this invention. 本発明の一実施形態に係る空間符号の一例を示す図である。It is a figure which shows an example of the space code which concerns on one Embodiment of this invention. 本発明の優位性を説明するための図である。It is a figure for demonstrating the predominance of this invention. 画像合成における画像合成前後の露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount before and behind image composition in an image composition, and a luminance value. 画像の値域圧縮における露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount and luminance value in the range compression of an image. 本発明の実施形態2に係る三次元計測装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the three-dimensional measuring apparatus which concerns on Embodiment 2 of this invention implements. 本発明の実施形態2に係る画像合成前後の露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount before and behind image composition which concerns on Embodiment 2 of this invention, and a luminance value. 本発明の実施形態2に係る複数の撮影条件が3つの場合の画像合成前後の露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount before and behind image composition, and a luminance value in case the some imaging | photography conditions which concern on Embodiment 2 of this invention are three. 本発明の実施形態3に係る複数の撮影条件におけるパターン強度画像の輝度の一例を示す図である。It is a figure which shows an example of the brightness | luminance of the pattern intensity image in the several imaging condition which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る画像合成前後の露光量と輝度値の関係を示す図である。It is a figure which shows the relationship between the exposure amount before and behind image composition which concerns on Embodiment 3 of this invention, and a luminance value. 実施形態3に係るオフセットを加えた画像輝度の一例を示す図である。It is a figure which shows an example of the image brightness | luminance which added the offset which concerns on Embodiment 3. FIG. 本発明の実施形態3に係るオフセットを加えて合成した画像輝度の一例を示す図である。It is a figure which shows an example of the image brightness | luminance combined by adding the offset which concerns on Embodiment 3 of this invention.

以下、添付の図面を参照して、本発明の実施の形態について詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本発明の一実施形態に係る三次元計測装置を示した図である。三次元計測装置は、光源1と、パターン生成部2と、投影レンズ3a、3bと、集光レンズ5a、5bと、撮像素子6と、制御・解析部7とを備えている。例えば、パターン生成部2と、投影レンズ3a、3bとで投影部を構成し、集光レンズ5a、5bと、撮像素子6とで撮影部を構成してもよい。
(Embodiment 1)
FIG. 1 is a diagram showing a three-dimensional measuring apparatus according to an embodiment of the present invention. The three-dimensional measuring apparatus includes a light source 1, a pattern generation unit 2, projection lenses 3 a and 3 b, condenser lenses 5 a and 5 b, an image sensor 6, and a control / analysis unit 7. For example, the pattern generation unit 2 and the projection lenses 3 a and 3 b may constitute a projection unit, and the condenser lenses 5 a and 5 b and the imaging element 6 may constitute an imaging unit.

光源1は、光束を射出する。パターン生成部2は、被検物4に投影する格子のパターンを生成し、パターンを変調する。投影レンズ3a、3bは、被検物4にパターンを照射する。集光レンズ5a、5bは、被検物4で反射されたパターンを集光する。撮像素子6は、被検物4から拡散・反射された光束の強度を取得する。制御・解析部7は、光源1の発光やパターン生成部2での投影パターン、撮像素子6の露光時間やゲインを制御し、撮像素子6から得られた光束の強度情報から被検物4の形状を算出する。   The light source 1 emits a light beam. The pattern generation unit 2 generates a lattice pattern to be projected onto the test object 4 and modulates the pattern. The projection lenses 3a and 3b irradiate the object 4 with a pattern. The condensing lenses 5a and 5b condense the pattern reflected by the test object 4. The image sensor 6 acquires the intensity of the light beam diffused and reflected from the test object 4. The control / analysis unit 7 controls the light emission of the light source 1, the projection pattern of the pattern generation unit 2, the exposure time and gain of the image sensor 6, and the intensity information of the light beam obtained from the image sensor 6. Calculate the shape.

制御・解析部7は、光源制御部7aと、投影パターン制御部7bと、撮像素子制御部7cと、記憶部7dと、画像合成部7eと、距離算出部7fとを備えている。光源制御部7aは、光源1の発光強度や発光時間等を制御する。投影パターン制御部7bは、パターン生成部2で生成される投影パターンの変更等を制御する。撮像素子制御部7cは、撮像素子6の露光時間等の変更や画像撮影を行う。記憶部7dは、撮影した画像や距離演算中の結果を記憶する。画像合成部7eは、記憶した画像を合成する。距離算出部7fは、合成した画像から被検物4の三次元形状を算出する。   The control / analysis unit 7 includes a light source control unit 7a, a projection pattern control unit 7b, an image sensor control unit 7c, a storage unit 7d, an image composition unit 7e, and a distance calculation unit 7f. The light source control unit 7 a controls the light emission intensity, the light emission time, and the like of the light source 1. The projection pattern control unit 7b controls the change of the projection pattern generated by the pattern generation unit 2. The image sensor control unit 7c changes the exposure time of the image sensor 6 and takes an image. The storage unit 7d stores captured images and results during distance calculation. The image composition unit 7e composes the stored images. The distance calculation unit 7f calculates the three-dimensional shape of the test object 4 from the synthesized image.

光源1にはLED等が使用される。光源1は、光束を射出し、明部と暗部とが周期的に並ぶ格子のパターンを生成するパターン生成部2を照明する。例えば、パターン生成部2としては、遮光部と非遮光部とが規則的に並んだマスクパターンを用いてもよい。また、液晶素子、デジタルミラーデバイス(DMD)などを用いることにより、モノクロパターン、正弦波状パターンなど任意のパターンを生成可能に構成してもよい。   An LED or the like is used for the light source 1. The light source 1 emits a light beam and illuminates a pattern generation unit 2 that generates a lattice pattern in which bright portions and dark portions are periodically arranged. For example, as the pattern generation unit 2, a mask pattern in which light shielding portions and non-light shielding portions are regularly arranged may be used. Further, by using a liquid crystal element, a digital mirror device (DMD) or the like, an arbitrary pattern such as a monochrome pattern or a sinusoidal pattern may be generated.

パターン生成部2を透過した格子パターンを有する光束は、投影レンズ3a、3bへ入射される。投影レンズ3bから射出された光束は、被検物4に照射され、パターン生成部2により生成されたパターンが投影される。被検物4で反射及び拡散されたパターンは、結像レンズ5a、5bに入射し、被検物4に照射されたパターンの像が撮像素子6上に結像される。結像されたパターンの像の光強度をCCDやCMOSセンサなどの撮像素子6によって検出する。そして、CPU、メモリ、ディスプレイ、ハードディスクなどの記憶装置、入出力用の各種インタフェース等を具備する汎用のコンピュータ等により構成される制御・解析部7で処理される。   A light beam having a lattice pattern transmitted through the pattern generation unit 2 is incident on the projection lenses 3a and 3b. The light beam emitted from the projection lens 3b is irradiated onto the test object 4, and the pattern generated by the pattern generation unit 2 is projected. The pattern reflected and diffused by the test object 4 enters the imaging lenses 5 a and 5 b, and an image of the pattern irradiated on the test object 4 is formed on the image sensor 6. The light intensity of the image of the formed pattern is detected by an image sensor 6 such as a CCD or CMOS sensor. Then, the data is processed by the control / analysis unit 7 including a CPU, a memory, a display, a storage device such as a hard disk, and a general-purpose computer having various interfaces for input / output.

光源制御部7aにより設定された発光強度と、投影パターン制御部7bにより指定された被検物4に投影されるパターンとを変更しながら、撮像素子制御部7cにより設定された露光時間とゲインで、投影されたパターンの強度を撮像素子6で複数回撮影する。そして、撮影結果を記憶部7dに記憶する。   While changing the light emission intensity set by the light source control unit 7a and the pattern projected on the test object 4 specified by the projection pattern control unit 7b, the exposure time and gain set by the image sensor control unit 7c are used. The image sensor 6 captures the intensity of the projected pattern a plurality of times. Then, the photographing result is stored in the storage unit 7d.

そして、画像合成部7eにより、予め設定した撮影条件(露光時間、光源の発光強度、撮像素子のゲインの組み合わせ等)で撮影を行ったかを判定する。全ての撮影条件で撮影を行っていない場合は、光源制御部7aにより光源1の発光強度を変更し、撮像素子制御部7cにより撮像素子6の露光時間とゲインを変更し、再度被検物4にパターンを投影し、パターン強度の撮影を行う。全ての撮影条件での撮影が完了した後、画像合成部7eは、撮影したパターン強度画像を合成して記憶部7dに記憶する。   Then, it is determined by the image composition unit 7e whether or not photographing has been performed under preset photographing conditions (a combination of exposure time, light emission intensity of the light source, gain of the image sensor, etc.). When imaging is not performed under all imaging conditions, the emission intensity of the light source 1 is changed by the light source control unit 7a, the exposure time and gain of the imaging device 6 are changed by the imaging device control unit 7c, and the test object 4 again. The pattern is projected onto the pattern and the pattern intensity is photographed. After photographing under all photographing conditions is completed, the image composition unit 7e composes the photographed pattern intensity images and stores them in the storage unit 7d.

その後、距離算出部7fが、合成されたパターン強度画像から強度情報に基づいて、被検物4の各領域に空間符号を付与し、パターン生成部2と撮像素子6との幾何関係から、被検物4の三次元形状を計測する。   Thereafter, the distance calculation unit 7f assigns a spatial code to each region of the test object 4 based on the intensity information from the combined pattern intensity image, and from the geometric relationship between the pattern generation unit 2 and the image sensor 6, The three-dimensional shape of the specimen 4 is measured.

以上の原理の下、複数の撮影条件で撮影したパターン強度画像から、複数の撮影条件におけるパターン強度と輝度値の関係が連続的につながるように画像合成を行って感度領域を拡大し、感度領域が拡大した画像から被検物の三次元形状を計測する例を説明する。   Based on the above principle, the sensitivity area is expanded by combining images from pattern intensity images shot under multiple shooting conditions so that the relationship between the pattern intensity and the luminance value in the multiple shooting conditions is continuously connected. An example in which the three-dimensional shape of the test object is measured from an enlarged image will be described.

特に、本実施形態では、異なる2つの撮影条件(露光時間、光源の発光強度、撮像素子のゲインの組み合わせ等)で撮影したパターン強度画像を、単位時間当たりの露光量と輝度値の関係が連続的につながるように合成する。これにより、各撮影条件における単位時間当たりの露光量の多寡と画像輝度値の大小関係が逆転することなく、精度よく被検物の三次元形状を計測する例を説明する。   In particular, in the present embodiment, the relationship between the exposure amount per unit time and the luminance value is continuous for pattern intensity images shot under two different shooting conditions (exposure time, light emission intensity of the light source, gain of the image sensor, etc.). To be connected. Thus, an example will be described in which the three-dimensional shape of the test object is accurately measured without reversing the magnitude relationship between the exposure amount per unit time and the image luminance value under each imaging condition.

図2は、本発明の実施形態1に係る三次元計測装置が実施する処理の手順を示すフローチャートである。   FIG. 2 is a flowchart showing a procedure of processing performed by the three-dimensional measurement apparatus according to Embodiment 1 of the present invention.

S101において、制御・解析部7は、予め設定された2つの撮影条件のうちの一方の撮影条件を光源1、撮像素子6に設定する。ここで、予め設定された撮影条件のうちの一つ(以下、第1の撮影条件とする)としては、パターン強度画像において、影の領域を除いて飽和する画素が存在しても、暗い領域が明るく撮影されるような露光時間、光源の発光強度、撮像素子のゲインを設定する。また、もう一方の撮影条件(以下、第2の撮影条件とする)としては、第1の撮影条件で取得したパターン強度画像において飽和している画素が飽和しないような露光時間、光源1の発光強度、撮像素子6のゲインを設定する。この時、第1の撮影条件と第2の撮影条件とで、露光時間、光源1の発光強度、撮像素子6のゲイン全てを異なる設定にしてもよいし、いずれか一つ、または二つのみ異なる設定にしてもよい。   In step S <b> 101, the control / analysis unit 7 sets one of the two shooting conditions set in advance in the light source 1 and the image sensor 6. Here, as one of the preset shooting conditions (hereinafter referred to as the first shooting condition), even if there is a pixel saturated in the pattern intensity image except for the shadow area, a dark area is present. The exposure time, the light emission intensity of the light source, and the gain of the image sensor are set. Further, as another imaging condition (hereinafter, referred to as a second imaging condition), an exposure time that does not saturate saturated pixels in the pattern intensity image acquired under the first imaging condition, light emission of the light source 1 Intensity and gain of the image sensor 6 are set. At this time, the exposure time, the light emission intensity of the light source 1, and the gain of the image sensor 6 may all be set differently depending on the first imaging condition and the second imaging condition, or only one or two of them may be set. Different settings may be used.

S102において、撮像素子6は、S101で設定された撮影条件でパターン強度画像を撮影する。この時、図3の301〜310に示すようなパターンを順に投影する。この例では、4ビットの空間符号化パターン投影法のグレイコードパターンであるため、プロジェクタからの出射光を2(=16)分割することができる。ビット数を増加させると投影枚数は増加するが、出射光の分割数を増加させることができる。例えば10ビットの場合には、210(=1024)分割することが可能となり、被検物4の領域をより細かく分割でき、詳細な形状を計測することができる。 In S102, the image sensor 6 captures a pattern intensity image under the capturing conditions set in S101. At this time, patterns as shown by 301 to 310 in FIG. 3 are projected in order. In this example, since it is a gray code pattern of the 4-bit spatial encoding pattern projection method, the outgoing light from the projector can be divided by 2 4 (= 16). Increasing the number of bits increases the number of projections, but can increase the number of divisions of emitted light. For example, in the case of 10 bits, it becomes possible to divide 2 10 (= 1024), the area of the test object 4 can be divided more finely, and a detailed shape can be measured.

S103において、制御・解析部7は、予め設定した全ての撮影条件でパターン強度画像の撮影を行ったか否かを判定する。全ての撮影条件で撮影を行っていない場合は、S101に戻り、制御・解析部7が、まだ撮影を行っていない撮影条件を光源1及び撮像素子6に設定する。そして、S102へ進み、再びパターン強度画像の撮影を行う。一方、予め設定した全ての撮影条件でパターン強度画像の撮影が完了している場合は、S104に進む。S104において、制御・解析部7は、各撮影条件における単位時間当たりの露光量の多寡と輝度値の大小関係が保持されるようにパターン強度画像を合成し、感度領域を拡大した画像を生成する。   In step S <b> 103, the control / analysis unit 7 determines whether or not the pattern intensity image has been shot under all the preset shooting conditions. If shooting has not been performed under all shooting conditions, the process returns to S101, and the control / analysis unit 7 sets shooting conditions for which shooting has not been performed in the light source 1 and the image sensor 6. Then, the process proceeds to S102, and a pattern intensity image is taken again. On the other hand, if the pattern intensity image has been captured under all the preset capturing conditions, the process proceeds to S104. In S104, the control / analysis unit 7 synthesizes the pattern intensity images so that the magnitude relationship between the exposure amount per unit time and the luminance value in each photographing condition is maintained, and generates an image in which the sensitivity region is enlarged. .

ここで、図4(a)及び図4(b)を参照して、本実施形態に係るパターン強度画像の合成について説明する。まず図4(a)は、暗い領域を明るく撮影できるように、すなわち黒つぶれがなくなるように設定した第1の撮影条件で撮影されたパターン強度画像の輝度値を示している。画素X1−1〜X7−1のうち画素X3−1及びX7−1の画素が飽和している。一方、図4(b)は、画素が飽和しないように、すなわち飽和画素がなくなるように設定した撮影条件で撮影されたパターン強度画像の輝度値を示している。画素X1−2〜X7−2の全ての画素が飽和していない。   Here, with reference to FIG. 4A and FIG. 4B, the synthesis of the pattern intensity image according to the present embodiment will be described. First, FIG. 4A shows the luminance value of a pattern intensity image photographed under the first photographing condition that is set so that a dark region can be photographed brightly, that is, blackout is eliminated. Of the pixels X1-1 to X7-1, the pixels X3-1 and X7-1 are saturated. On the other hand, FIG. 4B shows the luminance value of the pattern intensity image photographed under the photographing conditions set so that the pixels are not saturated, that is, the saturated pixels are eliminated. All the pixels X1-2 to X7-2 are not saturated.

本実施形態では、第1の撮影条件で撮影されたパターン強度画像における飽和した画素の輝度値を他の輝度値へ置き換える。具体的には、第2の撮影条件で撮影されたパターン強度画像の画素の輝度値に、各撮影条件における単位時間当たりの露光量と輝度値が連続的につながるように設定されたオフセットΔを加えたものへと置き換えることにより、パターン強度画像の合成を行う。   In this embodiment, the luminance value of the saturated pixel in the pattern intensity image imaged under the first imaging condition is replaced with another luminance value. Specifically, an offset Δ set so that the exposure value per unit time and the luminance value in each imaging condition are continuously connected to the luminance value of the pixel of the pattern intensity image captured under the second imaging condition. By replacing with the added one, the pattern intensity image is synthesized.

つまり、図4(a)における画素X3−1とX7−1の輝度値を、図4(b)の画素X3−2とX7−2の輝度値にオフセットΔを加えたものへ置き換える。続いて、図5を参照して、オフセットΔについて説明する。図5(a)は、第1の撮影条件における撮像素子6の画素に対する、単位時間当たりの露光量と画像の輝度値との関係である。第1の撮影条件では第2の撮影条件と比較して露光時間が長く、また光源1の発光強度と撮像素子6のゲインが高いため、単位時間当たりの露光量ρ1で飽和してしまう。これに対して、図5(b)に示すように、第2の撮影条件では第1の撮影条件と比較して露光時間が短く、また、光源1の発光強度と撮像素子6のゲインが低いため、ρ1よりも大きい単位時間当たりの露光量ρ2まで飽和せずに輝度値を取得できる。複数の撮影条件における単位時間当たりの露光量と輝度値との関係が連続的につながるためには、図5(c)に示すように、第2の撮影条件のρ1における輝度値が第1の撮影条件における飽和輝度値になる必要がある。このため、第1の撮影条件における露光時間T、光源1の発光強度W、撮像素子6のゲインG、第2の撮影条件における露光時間T、光源1の発光強度W、撮像素子6のゲインG、画像の階調幅をαとすると、オフセットΔは以下の式(1)で表すことができる。 That is, the luminance values of the pixels X3-1 and X7-1 in FIG. 4A are replaced with the luminance values of the pixels X3-2 and X7-2 in FIG. Next, the offset Δ will be described with reference to FIG. FIG. 5A shows the relationship between the exposure amount per unit time and the luminance value of the image for the pixels of the image sensor 6 under the first imaging condition. In the first imaging condition, the exposure time is longer than that in the second imaging condition, and the light emission intensity of the light source 1 and the gain of the image sensor 6 are high, so that the exposure amount ρ1 per unit time is saturated. On the other hand, as shown in FIG. 5B, the exposure time is shorter in the second imaging condition than in the first imaging condition, and the light emission intensity of the light source 1 and the gain of the imaging element 6 are low. Therefore, the luminance value can be acquired without saturation up to the exposure amount ρ2 per unit time larger than ρ1. In order for the relationship between the exposure amount per unit time and the luminance value in a plurality of imaging conditions to be continuously connected, as shown in FIG. 5C, the luminance value at ρ1 in the second imaging condition is the first value. It is necessary to obtain a saturated luminance value in the shooting conditions. Therefore, the exposure time T 1 in the first imaging condition, luminous intensity W 1 of the light source 1, the gain G 1 of the image pickup device 6, the exposure time T 2 in the second imaging condition, the emission intensity W 2 of the light source 1, the imaging If the gain G 2 of the element 6 and the gradation width of the image are α, the offset Δ can be expressed by the following equation (1).

Figure 2017003469
Figure 2017003469

ここで、Roundup()は括弧内の数値を整数に切り上げる関数である。αは画像の階調幅であり、画像の階調が12bitの場合、画像の輝度値の範囲は212=4096となる。異なる2つの撮影条件から算出されたオフセットΔを第2の撮影条件で撮影したパターン強度画像の輝度値に加える。オフセットΔを加えたパターン強度画像輝度を図6に示す。図6の点線は、第2の撮影条件で撮影したパターン強度画像の輝度値を示しており、実線はオフセットΔを加えた輝度値を示している。オフセットΔを加えることにより、複数の撮影条件におけるパターン強度と輝度値の関係が連続的につながることとなる。 Here, Roundup () is a function that rounds up the numerical value in parentheses to an integer. α is the gradation width of the image. When the gradation of the image is 12 bits, the range of the luminance value of the image is 2 12 = 4096. An offset Δ calculated from two different shooting conditions is added to the luminance value of the pattern intensity image shot under the second shooting condition. The pattern intensity image luminance with the offset Δ added is shown in FIG. The dotted line in FIG. 6 indicates the luminance value of the pattern intensity image captured under the second imaging condition, and the solid line indicates the luminance value to which the offset Δ is added. By adding the offset Δ, the relationship between the pattern intensity and the luminance value in a plurality of photographing conditions is continuously connected.

次に、第1の撮影条件で撮影したパターン強度画像と、第2の撮影条件で撮影したパターン強度画像にオフセットΔを加えた画像とを合成する。画像の合成では、第1の撮影条件で撮影したパターン強度画像において飽和している画素の輝度を、第2の撮影条件で撮影した飽和していない画素の輝度値にオフセットΔを加えたものに置き換える。   Next, the pattern intensity image captured under the first imaging condition and the image obtained by adding the offset Δ to the pattern intensity image captured under the second imaging condition are combined. In the image composition, the luminance of the saturated pixel in the pattern intensity image photographed under the first photographing condition is obtained by adding the offset Δ to the luminance value of the non-saturated pixel photographed under the second photographing condition. replace.

ここで、図7に、合成したパターン強度画像の概要を示す。図4(a)に示した第1の撮影条件で撮影したパターン強度画像において飽和している画素X3−1とX7−1の輝度値を、図6に示した第2の撮影条件で撮影したパターン強度画像にオフセットΔを加えた画像の画素X3−2'とX7−2'の輝度値にそれぞれ置き換え、パターン強度画像を合成する。   Here, FIG. 7 shows an outline of the combined pattern intensity image. The brightness values of the saturated pixels X3-1 and X7-1 in the pattern intensity image photographed under the first photographing condition shown in FIG. 4A were photographed under the second photographing condition shown in FIG. The pattern intensity image is synthesized by replacing the intensity values of the pixels X3-2 ′ and X7-2 ′ of the image obtained by adding the offset Δ to the pattern intensity image.

次に、S105において、制御・解析部7は、S104で合成されたパターン強度画像に基づいて被検物4の三次元形状を計測し、処理を終了する。本実施形態では空間符号化パターン投影法を用いる。空間符号化パターン投影法では、各bitのパターン強度画像の輝度情報から明暗判定を行い、撮影範囲の領域毎に空間符号を付与する。例えば、1bit目の画像において明暗判定を行い、空間符号を付与する際、図3の302のポジティブパターン画像と、図3の307のネガティブパターン画像との同一画素について、ポジティブパターンの輝度とネガティブパターンの輝度との平均値を閾値とする。そして、当該閾値よりも明るい画素を1、暗い画素を0と判定し、空間符号を付与する。これを各bitのパターン強度画像に対して行い、4bitまで当該処理を行うと、図8に示すような空間符号が付与される。この時、S104で第2の撮影条件のパターン強度画像の輝度値にオフセットΔを加えたことにより、明暗判定を間違えることなく、正しく空間符号の付与を行うことができる。そして、付与した空間符号と、パターン生成部2と撮像素子6との幾何関係とから被検物4の三次元形状を算出する。   Next, in S105, the control / analysis unit 7 measures the three-dimensional shape of the test object 4 based on the pattern intensity image synthesized in S104, and ends the process. In this embodiment, a spatial encoding pattern projection method is used. In the spatial encoding pattern projection method, brightness / darkness determination is performed from the luminance information of the pattern intensity image of each bit, and a spatial code is assigned to each region of the imaging range. For example, when the brightness determination is performed on the 1-bit image and the spatial code is assigned, the luminance and negative pattern of the positive pattern for the same pixel in the positive pattern image 302 in FIG. 3 and the negative pattern image 307 in FIG. The average value with the luminance is set as a threshold value. Then, a pixel brighter than the threshold is determined as 1 and a dark pixel is determined as 0, and a spatial code is assigned. If this is performed on the pattern intensity image of each bit and the process is performed up to 4 bits, a spatial code as shown in FIG. 8 is given. At this time, by adding an offset Δ to the luminance value of the pattern intensity image under the second imaging condition in S104, it is possible to correctly assign a spatial code without making a light / dark decision. Then, the three-dimensional shape of the test object 4 is calculated from the assigned space code and the geometric relationship between the pattern generation unit 2 and the image sensor 6.

ここで、オフセットを加えた場合と加えなかった場合との各合成結果の例を図9に示す。図9の901は、第1の撮影条件のポジティブパターンの輝度値が飽和し、第2の撮影条件のポジティブパターンの輝度値が第1の撮影条件のネガティブパターンの輝度値より小さくなる場合を示している。901のような場合において、オフセットΔの加算無しで合成した画像では、図9の902に示すように、ポジティブパターンの輝度値とネガティブパターンの輝度値との大小関係が逆転してしまう。そのため、明暗判定を間違ってしまい、正しく空間符号を付与することができず、被検物4の三次元形状を精度よく計測することができない。   Here, FIG. 9 shows an example of each synthesis result when the offset is added and when it is not added. Reference numeral 901 in FIG. 9 indicates a case where the luminance value of the positive pattern under the first imaging condition is saturated and the luminance value of the positive pattern under the second imaging condition is smaller than the luminance value of the negative pattern under the first imaging condition. ing. In the case of 901, in the image synthesized without adding the offset Δ, the magnitude relationship between the luminance value of the positive pattern and the luminance value of the negative pattern is reversed, as indicated by 902 in FIG. For this reason, the light / dark judgment is wrong, the space code cannot be correctly assigned, and the three-dimensional shape of the test object 4 cannot be measured accurately.

これに対して、オフセットΔを加えて合成した画像においては、図9の903に示すように、ポジティブパターンの輝度値とネガティブパターンの輝度値との大小関係が保持されることから、正しく明暗判定を行うことができる。したがって、正しく空間符号を付与することができ、被検物4の三次元形状を精度よく計測することが可能となる。   On the other hand, in the image synthesized by adding the offset Δ, the magnitude relationship between the luminance value of the positive pattern and the luminance value of the negative pattern is maintained as indicated by reference numeral 903 in FIG. It can be performed. Therefore, it is possible to correctly assign the space code, and to accurately measure the three-dimensional shape of the test object 4.

また、ポジティブパターンの輝度値とネガティブパターンの輝度値との大小関係が反転しないような画像合成方法として、図10(a)−図10(c)に示すように、各撮影条件における単位時間当たりの露光量と輝度の関係が一致するように画像輝度に対して演算を行い、画像を合成する方法が広く知られている。しかし、第1の撮影条件と第2の撮影条件とにおける単位時間当たりの露光量が同じ輝度値の比を、第2の撮影条件の画像輝度値に乗算することにより当該方法が実施されることが多い。そのため、第1の撮影条件と第2の撮影条件の輝度値の比が大きくなるほど、合成後の飽和輝度値が大きくなる。従って、合成後の画像を記憶するために、記憶部7dにより多くのメモリを必要とする。   In addition, as an image composition method in which the magnitude relationship between the luminance value of the positive pattern and the luminance value of the negative pattern is not reversed, as shown in FIGS. 10 (a) to 10 (c), per unit time in each photographing condition. There is widely known a method of performing an operation on image luminance so that the relationship between the exposure amount and the luminance coincides to synthesize an image. However, the method is implemented by multiplying the image brightness value of the second shooting condition by the ratio of the brightness value with the same exposure amount per unit time in the first shooting condition and the second shooting condition. There are many. For this reason, as the ratio between the luminance values of the first shooting condition and the second shooting condition increases, the combined saturated luminance value increases. Therefore, a large amount of memory is required for the storage unit 7d in order to store the combined image.

一方、合成後の画像においても、2つの撮影条件の場合、輝度値の比が2倍を超える場合でも画像の階調数としては、合成する前の画像の階調数の2倍未満にしかならない。しかし、飽和輝度値は2倍より大きくなり、記憶部7dに必要なメモリ量が2倍より多くなるが、情報量としては2倍以上にならず、メモリ使用効率が高くない。例えば、合成前の画像の階調が12bitの場合、13bit以上の階調値(8192以上)が必要になるが、階調数としては8192より多くならないので、メモリ空間内のデータ配置は疎な状態となり、メモリ使用効率が高くない。   On the other hand, even in the case of two images, the number of gradations of the image is less than twice the number of gradations of the image before composition even when the ratio of luminance values exceeds twice under the two shooting conditions. Don't be. However, the saturation luminance value is larger than twice, and the memory amount necessary for the storage unit 7d is more than twice, but the information amount is not more than twice, and the memory use efficiency is not high. For example, when the gradation of the image before synthesis is 12 bits, a gradation value of 13 bits or more (8192 or more) is required, but the number of gradations is not more than 8192, so the data arrangement in the memory space is sparse. The memory usage efficiency is not high.

また、写真等において人が観賞することを目的としており、ダイナミックレンジ拡大のために複数の撮影条件から画像を合成する場合においては、メモリ使用量の増加を低減するために、合成後の画像を、図11(b)に示すように対数関数を用いて圧縮し、メモリ使用量の増加を低減することがある。あるいは、図11(c)に示すように線形に階調幅を圧縮(低bit化)してメモリ使用量の増加を低減することがある。しかし、このような圧縮を行った場合、図11(a)における単位時間の露光量がρ1からρ2の範囲においては、階調数は変わらないものの、階調幅が2倍上に引き延ばされておりデータ密度が低いため、問題にはなりにくい。その一方、データ密度が高いρ1までの領域については多くの階調情報が失われてしまう可能性がある。   It is also intended for human viewing in photos, etc., and when combining images from multiple shooting conditions to expand the dynamic range, to reduce the increase in memory usage, As shown in FIG. 11B, compression may be performed using a logarithmic function to reduce an increase in memory usage. Alternatively, as shown in FIG. 11C, the increase in memory usage may be reduced by linearly compressing the gradation width (lowering the bit). However, when such compression is performed, the number of gradations does not change when the exposure amount per unit time in FIG. 11A is in the range of ρ1 to ρ2, but the gradation width is doubled. Since the data density is low, it is unlikely to be a problem. On the other hand, a large amount of gradation information may be lost in the region up to ρ1 where the data density is high.

これに対して、本実施形態に係る画像合成によると、輝度値の比が2倍以上になったとしても、合成後の飽和輝度は2倍未満にしかならない。そのため、例えば合成前の画像の階調が12bitであった場合、13bitの階調値以下(8192以下)で表現することができ、メモリ使用効率が高く、最小限のメモリ量の増加で合成後の画像を記憶することが可能である。   On the other hand, according to the image composition according to the present embodiment, even if the ratio of the luminance values becomes twice or more, the saturation luminance after the composition is less than twice. Therefore, for example, when the gradation of an image before composition is 12 bits, it can be expressed with a gradation value of 13 bits or less (8192 or less), and the memory use efficiency is high. Images can be stored.

加えて、合成後の画像輝度を合成前の階調幅に圧縮したとしても、データの密度が単位時間当たりの露光量の範囲によらず一定なので、特定の領域で多くの情報が失われることがない。そのため、圧縮後の階調情報量は従来の方法と比較して多く残りやすい。また、特許文献2に開示されているような各撮影条件のパターン強度画像から被検物の形状を算出して統合する方法と比較して、本実施形態に係る画像合成方法は演算量が少なくて済み、より高速に被検物の三次元形状を計測することが可能である。   In addition, even if the image brightness after composition is compressed to the gradation width before composition, the data density is constant regardless of the range of exposure per unit time, so a lot of information may be lost in a specific area. Absent. For this reason, the amount of gradation information after compression tends to remain large compared to the conventional method. Compared with the method of calculating and integrating the shape of the test object from the pattern intensity image of each imaging condition as disclosed in Patent Document 2, the image synthesis method according to the present embodiment has a small amount of calculation. Thus, the three-dimensional shape of the test object can be measured at a higher speed.

このように、本実施形態によれば、低反射領域や高反射領域など、様々な反射特性を持つ領域が広く分布しており、一つの撮影条件での撮影では十分な形状計測が困難な被検物に対しても、最小限のメモリ増加で、より高速に精度よく三次元形状の計測が可能となる。   As described above, according to the present embodiment, areas having various reflection characteristics such as a low reflection area and a high reflection area are widely distributed, and it is difficult to perform sufficient shape measurement by shooting under one shooting condition. For inspections, three-dimensional shapes can be measured more quickly and accurately with a minimum increase in memory.

(実施形態2)
本実施形態では、画像合成の際に加えるオフセットを複数の撮影条件から算出することなく固定値とする例について説明を行う。本実施形態を実現するために必要な三次元計測装置の構成は、図1と同様である。また各部の機能も図1と同様である。
(Embodiment 2)
In the present embodiment, an example will be described in which an offset to be added at the time of image composition is a fixed value without being calculated from a plurality of shooting conditions. The configuration of the three-dimensional measurement apparatus necessary for realizing this embodiment is the same as that shown in FIG. The function of each part is the same as in FIG.

図12は、本発明の実施形態2に係る三次元計測装置が実施する処理の手順を示すフローチャートである。   FIG. 12 is a flowchart showing a procedure of processing performed by the three-dimensional measurement apparatus according to Embodiment 2 of the present invention.

S201において、制御・解析部7は、S101と同様に、予め設定された2つの撮影条件のうちの一方の撮影条件を光源1、撮像素子6に設定する。S202において、撮像素子6は、S102と同様に、S201で設定された撮影条件でパターン強度画像を撮影する。S203において、制御・解析部7は、S103と同様に、予め設定した全ての撮影条件でパターン強度画像の撮影を行ったか否かを判定する。   In step S <b> 201, the control / analysis unit 7 sets one of the two shooting conditions set in advance in the light source 1 and the image sensor 6 as in step S <b> 101. In S202, the image sensor 6 captures a pattern intensity image under the capturing conditions set in S201, as in S102. In S203, similarly to S103, the control / analysis unit 7 determines whether or not the pattern intensity image has been shot under all the preset shooting conditions.

次に、S204において、制御・解析部7は、固定値のオフセットを用いてパターン強度画像を合成し、感度領域を拡大した画像を生成する。   In step S <b> 204, the control / analysis unit 7 synthesizes a pattern intensity image using a fixed value offset to generate an image in which the sensitivity region is enlarged.

ここで、本実施形態に係るパターン強度画像の合成について説明する。本実施形態でも、第1の撮影条件で撮影されたパターン強度画像における飽和した画素の輝度値を、第2の撮影条件で撮影されたパターン強度画像の画素の輝度値にオフセットを加えたものへと置き換えることにより、パターン強度画像の合成を行う。なお、第1の撮影条件、第2の撮影条件については実施形態1と同様である。   Here, the synthesis of the pattern intensity image according to the present embodiment will be described. Also in this embodiment, the brightness value of the saturated pixel in the pattern intensity image shot under the first shooting condition is added to the brightness value of the pixel of the pattern intensity image shot under the second shooting condition. Is replaced with the pattern intensity image. The first shooting condition and the second shooting condition are the same as in the first embodiment.

実施形態1では、複数の撮影条件における単位時間当たりの露光量と輝度値が連続的につながるようにオフセットΔを算出する例を説明した。これに対して、本実施形態では、複数の撮影条件によらず固定値のオフセットΔconstを用いてパターン強度画像の合成を行う。オフセットΔconstは、第1の撮影条件と第2の撮影条件とで単位時間当たりの露光量の多寡と輝度値の大小関係が逆転しないような値に設定する。 In the first embodiment, the example in which the offset Δ is calculated so that the exposure amount per unit time and the luminance value are continuously connected in a plurality of shooting conditions has been described. On the other hand, in the present embodiment, the pattern intensity image is synthesized using a fixed value offset Δ const regardless of a plurality of imaging conditions. The offset Δ const is set to a value that does not reverse the magnitude relationship between the amount of exposure amount per unit time and the luminance value between the first imaging condition and the second imaging condition.

例えば、オフセットΔconstを合成前のパターン強度画像の飽和輝度値に所定値(例えば、1)を加えた値とする。例えば、合成前の画像の階調幅が12bitであった場合、オフセットΔconstを4096(=212+1)とすることで、第1の撮影条件と第2の撮影条件の単位時間当たりの露光量と輝度値の大小関係が逆転することなくパターン強度画像を合成することができる。 For example, the offset Δ const is a value obtained by adding a predetermined value (for example, 1) to the saturation luminance value of the pattern intensity image before synthesis. For example, when the gradation width of the pre-combination image is 12 bits, the exposure amount per unit time of the first shooting condition and the second shooting condition is set by setting the offset Δ const to 4096 (= 2 12 +1). The pattern intensity image can be synthesized without reversing the magnitude relationship between the brightness value and the brightness value.

ここで、図13(c)は、固定値のオフセットΔconstを、合成前のパターン強度画像の飽和輝度値に1を加えた値とした場合の、単位時間当たりの露光量と輝度値との関係を示す。図13(a)は、第1の撮影条件における単位時間当たりの露光量と画像の輝度値との関係である。図13(b)は、第2の撮影条件における単位時間当たりの露光量と画像の輝度値との関係である。合成する画像の飽和輝度値より大きな固定値のオフセットで合成を行うことにより、実施形態1と比較すると、メモリの使用効率等はやや低下するものの、オフセットを算出する処理が必要なくなるため、より高速にパターン強度画像を合成することが可能となる。 Here, FIG. 13C shows the exposure amount per unit time and the luminance value when the fixed value offset Δ const is a value obtained by adding 1 to the saturation luminance value of the pattern intensity image before synthesis. Show the relationship. FIG. 13A shows the relationship between the exposure amount per unit time and the luminance value of the image under the first imaging condition. FIG. 13B shows the relationship between the exposure amount per unit time and the luminance value of the image under the second imaging condition. By performing synthesis with a fixed offset larger than the saturation luminance value of the image to be synthesized, compared to the first embodiment, although the memory usage efficiency is somewhat reduced, the processing for calculating the offset is not required, so that the processing speed is higher. It is possible to synthesize a pattern intensity image.

また、本実施形態では2つの撮影条件の場合を説明したが、3つ以上の撮影条件でもパターン強度画像を合成する度にオフセットΔconstを加算していくことにより、単位時間当たりの露光量の多寡と輝度値の大小関係が逆転しないようにパターン強度画像を合成することができる。 Further, in the present embodiment, the case of two shooting conditions has been described, but an offset Δ const is added every time a pattern intensity image is synthesized even under three or more shooting conditions, so that the exposure amount per unit time can be increased. A pattern intensity image can be synthesized so that the magnitude relationship between the luminance and the luminance value is not reversed.

図14は、3つの撮影条件の画像を合成した場合の単位時間当たりの露光量と輝度値の関係を示す。第1の撮影条件、第2の撮影条件に加えて、単位時間当たりの露光量がρ3の場合に飽和する第3の撮影条件を追加した場合、第3の撮影条件のパターン強度画像を合成する際に、2×Δconstをオフセットして加算すればよい。 FIG. 14 shows the relationship between the exposure amount per unit time and the luminance value when images of three shooting conditions are combined. In addition to the first imaging condition and the second imaging condition, when a third imaging condition that is saturated when the exposure amount per unit time is ρ3 is added, a pattern intensity image of the third imaging condition is synthesized. At this time, 2 × Δ const may be offset and added.

また、撮影条件がN個(Nは自然数)になった場合でも、第Nの撮影条件の画像に対して(N−1)×Δconstをオフセットして加算すれば、単位時間当たりの露光量の多寡と輝度値の大小関係が逆転することなくパターン強度画像を合成することができる。 Even when the number of shooting conditions is N (N is a natural number), if (N−1) × Δ const is offset and added to the image of the Nth shooting condition, the exposure amount per unit time The pattern intensity image can be synthesized without reversing the relationship between the magnitude of the brightness and the brightness value.

S205において、制御・解析部7は、S105と同様に、S204で合成したパターン強度画像から被検物4の三次元形状を計測して、処理を終了する。本実施形態では空間符号化パターン投影法を用いる。   In S205, similarly to S105, the control / analysis unit 7 measures the three-dimensional shape of the test object 4 from the pattern intensity image synthesized in S204, and ends the process. In this embodiment, a spatial encoding pattern projection method is used.

以上説明したように、本実施形態によれば、実施形態1と比較して、より少ない演算処理でパターン強度画像を合成することができ、より高速に精度よく三次元形状の計測が可能となる。   As described above, according to the present embodiment, it is possible to synthesize a pattern intensity image with less calculation processing than in the first embodiment, and it is possible to measure a three-dimensional shape more quickly and accurately. .

(実施形態3)
本実施形態では、撮影条件が3つの場合に、画像合成の際に加えるオフセットとしてそれぞれ異なるオフセットを適用する例について説明を行う。本実施形態を実現するために必要な三次元計測装置の構成は、図1と同様である。また各部の機能も図1と同様である。
(Embodiment 3)
In the present embodiment, an example in which different offsets are applied as offsets added at the time of image composition when there are three shooting conditions will be described. The configuration of the three-dimensional measurement apparatus necessary for realizing this embodiment is the same as that shown in FIG. The function of each part is the same as in FIG.

本実施形態では、実施形態1と同様の原理で処理を行う。3つの撮影条件で撮影したパターン強度画像を用いて、単位時間当たりの露光量と輝度値の関係が連続的につながるように画像合成を行う。これにより、感度領域を拡大し、感度領域を拡大した画像から被検物4の三次元形状を計測する。   In the present embodiment, processing is performed on the same principle as in the first embodiment. Image synthesis is performed using pattern intensity images photographed under three photographing conditions so that the relationship between the exposure amount per unit time and the luminance value is continuously connected. Thereby, the sensitivity region is expanded, and the three-dimensional shape of the test object 4 is measured from the image in which the sensitivity region is expanded.

以下、図2を参照しながら、本実施形態に係る処理の手順を説明する。   Hereinafter, the procedure of the process according to the present embodiment will be described with reference to FIG.

S101において、制御・解析部7は、予め設定された3つの撮影条件のうちの一つの撮影条件を光源1、撮像素子6に設定する。   In step S <b> 101, the control / analysis unit 7 sets one of the three shooting conditions set in advance in the light source 1 and the image sensor 6.

パターン強度画像の平均輝度をB〜Bとすると、平均輝度が以下の式(2)を満たすように3つの撮影条件を設定する。 Assuming that the average luminance of the pattern intensity image is B 1 to B 3 , three shooting conditions are set so that the average luminance satisfies the following formula (2).

Figure 2017003469
Figure 2017003469

第1の撮影条件としては、パターン強度画像において、影の領域を除いて飽和する画素が存在しても、暗い領域が明るく撮影されるような露光時間、光源の発光強度、撮像素子のゲインを設定する。また、第2の撮影条件としては、第1の撮影条件で取得したパターン強度画像において飽和している画素が飽和しない範囲で、できるだけパターン強度画像の平均輝度Bが高くなるように、露光時間、光源の発光強度、撮像素子のゲインを設定する。 As a first imaging condition, in the pattern intensity image, an exposure time, a light emission intensity of a light source, and a gain of an imaging element are set so that a dark area is brightly photographed even if there is a saturated pixel except for a shadow area. Set. As the second imaging condition, to the extent that pixel is saturated in acquired pattern intensity image at a first imaging condition is not saturated, as much as possible the average luminance B 2 of the pattern intensity image is increased, the exposure time The emission intensity of the light source and the gain of the image sensor are set.

第3の撮影条件としては、第2の撮影条件で取得したパターン強度画像において飽和している画素が飽和しない範囲で、できるだけパターン強度画像の平均輝度Bが高くなるように、露光時間、光源の発光強度、撮像素子のゲインを設定する。 The third imaging condition, to the extent that pixel is saturated in acquired pattern intensity image in the second imaging condition is not saturated, so that the average luminance B 3 as possible pattern intensity image increases, exposure time, light source The emission intensity and gain of the image sensor are set.

また、合成後のパターン強度画像において、飽和する画素がなく且つ平均輝度が高くなるように3つの撮影条件を設定してもよい。この時、第1の撮影条件、第2の撮影条件、第3の撮影条件において、露光時間、光源の発光強度、撮像素子のゲインの全てを異なる設定にしてもよいし、いずれか一つ、または二つのみ異なる設定にしてもよい。S102、S103の処理は実施形態1と同様であるため、説明を省略する。   In addition, in the combined pattern intensity image, three imaging conditions may be set so that there is no saturated pixel and the average luminance is high. At this time, the exposure time, the light emission intensity of the light source, and the gain of the image sensor may all be set differently in the first shooting condition, the second shooting condition, and the third shooting condition. Alternatively, only two different settings may be used. Since the processing of S102 and S103 is the same as that of the first embodiment, the description thereof is omitted.

続いて、S104において、制御・解析部7は、各撮影条件における単位時間当たりの露光量と輝度値の大小関係が保持されるようにパターン強度画像を合成し、感度領域を拡大した画像を生成する。   Subsequently, in S104, the control / analysis unit 7 combines the pattern intensity images so as to maintain the magnitude relationship between the exposure amount per unit time and the luminance value in each photographing condition, and generates an image in which the sensitivity region is enlarged. To do.

ここで、図15(a)―図15(c)を参照して、本実施形態に係るパターン強度画像の合成について説明する。図15(a)は、第1の撮影条件で撮影したパターン強度画像の輝度値を示し、画素X1−1〜X7−1のうち画素X3−1とX7−1が飽和している。図15(b)は、第2の撮影条件で撮影したパターン強度画像の輝度値を示し、画素X1−2〜 X7−2のうちX7−2の画素が飽和している。図15(c)は、第3の撮影条件で撮影したパターン強度画像の輝度値を示し、画素X1−3〜 X7−3の全ての画素が飽和していない。   Here, with reference to FIGS. 15A to 15C, the synthesis of the pattern intensity image according to the present embodiment will be described. FIG. 15A shows the luminance value of the pattern intensity image photographed under the first photographing condition, and the pixels X3-1 and X7-1 are saturated among the pixels X1-1 to X7-1. FIG. 15B shows the luminance value of the pattern intensity image photographed under the second photographing condition, and the pixel X7-2 out of the pixels X1-2 to X7-2 is saturated. FIG. 15C shows the luminance value of the pattern intensity image photographed under the third photographing condition, and all the pixels X1-3 to X7-3 are not saturated.

本実施形態では、パターン強度画像の合成の際に、第1の撮影条件で撮影された画像の飽和している画素を、第1の撮影条件と第2の撮影条件に基づいて算出されたオフセットΔ1を第2の撮影条件で撮影された画像の輝度値に加えたものへ置き換える。これにより、第一段階の画像の合成を行う。次に、合成した画像において飽和している画素を、オフセットΔ1に加えて更に、第2の撮影条件と第3の撮影条件とに基づいて算出されたオフセットΔ2を第3の撮影条件で撮影された画像の輝度値に加えたものへと置き換える。これにより、第二段階の合成を行い、全ての撮影条件の画像の合成を行う。   In the present embodiment, when the pattern intensity image is combined, the pixel that is saturated in the image captured under the first imaging condition is calculated based on the first imaging condition and the second imaging condition. Replace Δ1 with the luminance value of the image shot under the second shooting condition. Thus, the first stage image is synthesized. Next, in addition to the offset Δ1, pixels that are saturated in the combined image are further shot with the offset Δ2 calculated based on the second shooting condition and the third shooting condition under the third shooting condition. Replace with the brightness value of the image. As a result, the second stage of synthesis is performed, and images of all shooting conditions are synthesized.

具体的には、まず図15(a)における画素X3−1とX7−1の輝度値を、図15(b)の画素X3−2とX7−2の輝度値にオフセットΔ1を加えたものに置き換える。この時、オフセットΔ1は、第1の撮影条件と第2の撮影条件における単位時間当たりの露光量と輝度値の関係が連続的につながるように設定される。   Specifically, first, the luminance values of the pixels X3-1 and X7-1 in FIG. 15A are obtained by adding the offset Δ1 to the luminance values of the pixels X3-2 and X7-2 in FIG. replace. At this time, the offset Δ1 is set so that the relationship between the exposure amount per unit time and the luminance value in the first shooting condition and the second shooting condition is continuously connected.

次に、図15(b)の画素X7−2の輝度値を、図15(c)の画素X7−3の輝度値にオフセットΔ1とオフセットΔ2とを加えたものに置き換える。この時、オフセットΔ2は、第2の撮影条件と第3の撮影条件における単位時間当たりの露光量と輝度値の関係が連続的につながるように設定される。   Next, the luminance value of the pixel X7-2 in FIG. 15B is replaced with the luminance value of the pixel X7-3 in FIG. 15C plus the offset Δ1 and the offset Δ2. At this time, the offset Δ2 is set so that the relationship between the exposure amount per unit time and the luminance value in the second imaging condition and the third imaging condition is continuously connected.

図16(a)−図16(d)を参照して、オフセットΔ1とオフセットΔ2の加算について説明する。図16(a)は、第1の撮影条件における単位時間当たりの露光量と画像の輝度値の関係である。第1の撮影条件では、第2の撮影条件、第3の撮影条件と比較して露光時間が長く、また光源1の発光強度と撮像素子6のゲインが高いため、単位時間当たりの画素への入射光量ρ1'で飽和してしまう。   The addition of the offset Δ1 and the offset Δ2 will be described with reference to FIGS. FIG. 16A shows the relationship between the exposure amount per unit time and the luminance value of the image under the first imaging condition. In the first imaging condition, the exposure time is longer than in the second imaging condition and the third imaging condition, and the light emission intensity of the light source 1 and the gain of the image sensor 6 are high. It will be saturated at the incident light quantity ρ1 ′.

図16(b)は、第2の撮影条件における単位時間当たりの露光量と画像の輝度値の関係である。第2の撮影条件では、図16(b)に示すように、第1の撮影条件と比較して露光時間が短く、また光源1の発光強度と撮像素子6のゲインが低いため、ρ1'よりも大きい単位時間当たりの露光量ρ2'まで飽和せずに輝度値を取得できる。   FIG. 16B shows the relationship between the exposure amount per unit time and the luminance value of the image under the second imaging condition. In the second imaging condition, as shown in FIG. 16B, the exposure time is shorter than the first imaging condition, and the light emission intensity of the light source 1 and the gain of the image sensor 6 are low. The luminance value can be acquired without being saturated up to a large exposure amount ρ2 ′ per unit time.

図16(c)は、第3の撮影条件における単位時間当たりの露光量と画像の輝度値の関係である。第3の撮影条件では、図16(c)に示すように、第2の撮影条件と比較して露光時間が短く、また光源1の発光強度と撮像素子6のゲインがさらに低いため、ρ1'、ρ2'よりも大きい単位時間当たりの露光量ρ3'まで飽和せずに輝度値を取得できる。   FIG. 16C shows the relationship between the exposure amount per unit time and the luminance value of the image under the third imaging condition. In the third imaging condition, as shown in FIG. 16C, the exposure time is shorter than that in the second imaging condition, and the light emission intensity of the light source 1 and the gain of the image sensor 6 are further lower. , The luminance value can be acquired without saturation up to an exposure amount ρ3 ′ per unit time larger than ρ2 ′.

そして、複数の撮影条件における単位時間当たりの露光量と輝度値の関係が連続的につながるためには、図16(d)に示すように、第2の撮影条件でのρ1'における輝度値が第1の撮影条件における飽和輝度値になる必要がある。また、第3の撮影条件でのρ2'における輝度値が第2の撮影条件の飽和輝度値になる必要がある。   Then, in order for the relationship between the exposure amount per unit time and the luminance value in a plurality of imaging conditions to be continuously connected, as shown in FIG. 16D, the luminance value at ρ1 ′ in the second imaging condition is It is necessary to have a saturated luminance value in the first imaging condition. In addition, the luminance value at ρ2 ′ under the third imaging condition needs to be the saturation luminance value under the second imaging condition.

ここで、第1の撮影条件における露光時間T、光源1の発光強度をW、撮像素子6のゲインをGとする。第2の撮影条件における露光時間をT、光源1の発光強度をW、撮像素子6のゲインをGとする。さらに、第3の撮影条件における露光時間をT、光源1の発光強度をW、撮像素子6のゲインをG、画像の階調幅をαとする。これらを用いると、オフセットΔ1とオフセットΔ2は以下の式(3)、式(4)で表すことができる。 Here, it is assumed that the exposure time T 1 in the first imaging condition, the light emission intensity of the light source 1 is W 1 , and the gain of the image sensor 6 is G 1 . The exposure time in the second imaging condition is T 2 , the light emission intensity of the light source 1 is W 2 , and the gain of the image sensor 6 is G 2 . Furthermore, the exposure time under the third imaging condition is T 3 , the light emission intensity of the light source 1 is W 3 , the gain of the image sensor 6 is G 3 , and the gradation width of the image is α. When these are used, the offset Δ1 and the offset Δ2 can be expressed by the following equations (3) and (4).

Figure 2017003469
Figure 2017003469

Figure 2017003469
Figure 2017003469

ここで、Roundup()は括弧内の数値を整数に切り上げる関数である。αは画像の階調幅であり、画像の階調が12bitの場合、画像の輝度値の範囲は212=4096となる。オフセットΔ1を第2の撮影条件で撮影したパターン強度画像の輝度値に加える。また、オフセットΔ1とオフセットΔ2とを、第3の撮影条件で撮影したパターン強度画像の輝度値に加える。 Here, Roundup () is a function that rounds up the numerical value in parentheses to an integer. α is the gradation width of the image. When the gradation of the image is 12 bits, the range of the luminance value of the image is 2 12 = 4096. The offset Δ1 is added to the luminance value of the pattern intensity image photographed under the second photographing condition. Further, the offset Δ1 and the offset Δ2 are added to the luminance value of the pattern intensity image photographed under the third photographing condition.

オフセットΔ1を加えたパターン強度画像輝度を図17(a)に示す。図17(a)の点線は、第2の撮影条件で撮影したパターン強度画像の輝度値を示し、実線はオフセットΔ1を加えた輝度値を示す。   FIG. 17A shows the pattern intensity image luminance to which the offset Δ1 is added. The dotted line in FIG. 17A indicates the luminance value of the pattern intensity image captured under the second imaging condition, and the solid line indicates the luminance value to which the offset Δ1 is added.

また、オフセットΔ1、オフセットΔ2を加えたパターン強度画像輝度を図17(b)に示す。図17(b)の点線は第3の撮影条件で撮影したパターン強度画像の輝度を示し、一点鎖線はオフセットΔ1を加えた輝度値を示し、実線はオフセットΔ1とオフセットΔ2を加えた輝度値を示す。オフセットΔ1、オフセットΔ2を加えることにより、複数の撮影条件における単位時間当たりの露光量と輝度値の関係を連続的につなげることができる。   Further, FIG. 17B shows the pattern intensity image luminance to which the offset Δ1 and the offset Δ2 are added. The dotted line in FIG. 17B indicates the luminance of the pattern intensity image captured under the third imaging condition, the alternate long and short dash line indicates the luminance value obtained by adding the offset Δ1, and the solid line indicates the luminance value obtained by adding the offset Δ1 and the offset Δ2. Show. By adding the offset Δ1 and the offset Δ2, it is possible to continuously connect the relationship between the exposure amount per unit time and the luminance value under a plurality of photographing conditions.

次に、第1の撮影条件で撮影したパターン強度画像と、第2の撮影条件、第3の撮影条件で撮影したパターン強度画像にオフセットΔ1、Δ2を加えた画像とを合成する。   Next, the pattern intensity image shot under the first shooting condition and the image obtained by adding the offsets Δ1 and Δ2 to the pattern intensity image shot under the second shooting condition and the third shooting condition are combined.

画像の合成では、第1の撮影条件で撮影したパターン強度画像において飽和している画素の輝度を、第2の撮影条件で撮影した飽和していない画素の輝度値にオフセットΔ1を加えたものへ置き換える。次に、合成したパターン強度画像において、飽和している画素の輝度を第3の撮影条件で撮影した飽和していない画素の輝度値にオフセットΔ1とオフセットΔ2を加えたものへ置き換える。   In the image composition, the luminance of the saturated pixel in the pattern intensity image photographed under the first photographing condition is added to the luminance value of the non-saturated pixel photographed under the second photographing condition by adding the offset Δ1. replace. Next, in the synthesized pattern intensity image, the luminance of the saturated pixel is replaced with the luminance value of the non-saturated pixel imaged under the third imaging condition plus the offset Δ1 and offset Δ2.

図18の1801は、合成後のパターン強度画像の輝度の一例である。1802に示したような第1の撮影条件で撮影したパターン強度画像において飽和している画素X3−1とX7−1の輝度値を、1803に示すような第2の撮影条件で撮影したパターン強度画像にオフセットΔ1を加えた画像の画素X3−2'とX7−2'の輝度値へ、それぞれ置き換える。次に、画素X3−1とX7−1の輝度値を画素X3−2'とX7−2'に輝度値の置き換えた画像において、画素X7−2'の輝度値を、1804に示すような画素X7−3'の輝度値に置き換えて、1801に示すようなパターン強度画像を合成する。これにより、各撮影条件における単位時間当たりの露光量の多寡と輝度値の大小関係が逆転することなく、パターン強度画像を合成することができる。   Reference numeral 1801 in FIG. 18 is an example of the brightness of the combined pattern intensity image. The intensity values of the pixels X3-1 and X7-1 that are saturated in the pattern intensity image photographed under the first photographing condition as shown in 1802 are the pattern intensities photographed under the second photographing condition as shown in 1803. The brightness values of the pixels X3-2 ′ and X7-2 ′ of the image obtained by adding the offset Δ1 to the image are respectively replaced. Next, in the image in which the luminance values of the pixels X3-1 and X7-1 are replaced with the luminance values of the pixels X3-2 ′ and X7-2 ′, the luminance value of the pixel X7-2 ′ is a pixel as indicated by 1804. A pattern intensity image as indicated by 1801 is synthesized by replacing with the luminance value of X7-3 ′. Thereby, it is possible to synthesize a pattern intensity image without reversing the magnitude relationship between the amount of exposure per unit time and the luminance value under each photographing condition.

次に、S105において、制御・解析部7は、実施形態1と同様に、S104で合成されたパターン強度画像に基づいて被検物4の三次元形状を計測し、処理を終了する。本実施形態では空間符号化パターン投影法を用いる。以上説明したように、本実施形態では、3つの撮影条件に関して、単位時間当たりの露光量が同じとなる条件の輝度値の比が3倍以上になったとしても、合成後の飽和輝度は3倍未満にしかならない。そのため、14bitの階調で表現することができ、メモリ使用効率が高く、最小限のメモリ量の増加で合成後の画像を記憶することが可能である。   Next, in S105, similarly to the first embodiment, the control / analysis unit 7 measures the three-dimensional shape of the test object 4 based on the pattern intensity image synthesized in S104, and ends the process. In this embodiment, a spatial encoding pattern projection method is used. As described above, in this embodiment, even when the ratio of the luminance values under the condition that the exposure amount per unit time is the same for the three photographing conditions is 3 times or more, the saturation luminance after synthesis is 3 It can only be less than double. For this reason, it is possible to express with 14-bit gradation, high memory use efficiency, and it is possible to store the combined image with a minimum increase in memory.

また、本発明は、撮影条件が3つより増え、N個の撮影条件(Nは自然数)になったとしても適用できる。その場合、第N−1の撮影条件と第Nの撮影条件とに基づいてオフセットΔN−1を算出する。そして、第N−1の撮影条件で撮影したパターン強度画像において飽和している画素の輝度値を、第Nの撮影条件で撮影したパターン強度画像の輝度値にオフセットΔ1からΔN−1までを加えたものへ置き換える。これにより、各撮影条件における単位時間当たりの露光量の多寡と輝度値の大小関係が逆転することなく、空間符号化パターン投影法において正しく明暗判定を行うことができるパターン強度画像を合成することができる。   Further, the present invention can be applied even when the number of shooting conditions is increased from three and N shooting conditions (N is a natural number). In this case, the offset ΔN−1 is calculated based on the (N−1) th shooting condition and the Nth shooting condition. Then, the luminance value of the saturated pixel in the pattern intensity image photographed under the (N-1) th photographing condition is added to the luminance value of the pattern intensity image photographed under the Nth photographing condition from offsets [Delta] 1 to [Delta] N-1. Replace with something. As a result, it is possible to synthesize a pattern intensity image that can correctly perform contrast determination in the spatially encoded pattern projection method without reversing the magnitude relationship between the amount of exposure per unit time and the luminance value in each shooting condition. it can.

このように、本実施形態によれば、低反射領域や高反射領域など、様々な反射特性を持つ領域が広く分布しており、一つの撮影条件での撮影では十分な形状計測が困難な被検物に対しても、最小限のメモリ増加で、より高速に精度よく三次元形状の計測が可能となる。   As described above, according to the present embodiment, areas having various reflection characteristics such as a low reflection area and a high reflection area are widely distributed, and it is difficult to perform sufficient shape measurement by shooting under one shooting condition. For inspections, three-dimensional shapes can be measured more quickly and accurately with a minimum increase in memory.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:光源、2:パターン生成部、3a,3b:投影レンズ、4:被検物、5a,5b:集光レンズ、6:撮像素子、7:制御・解析部、7a:光源制御部、7b:投影パターン制御部、7c:撮像素子制御部、7d:記憶部、7e:画像合成部、7f:距離算出部   1: Light source, 2: Pattern generation unit, 3a, 3b: Projection lens, 4: Test object, 5a, 5b: Condensing lens, 6: Image sensor, 7: Control / analysis unit, 7a: Light source control unit, 7b : Projection pattern control unit, 7c: image sensor control unit, 7d: storage unit, 7e: image composition unit, 7f: distance calculation unit

Claims (13)

パターンが投影された被検物を撮影して得られた画像に基づいて前記被検物の三次元形状を計測する三次元計測装置であって、
第1の撮影条件及び第2の撮影条件でそれぞれ取得された前記被検物の第1の画像及び第2の画像を、前記パターンを投影するための光源による単位時間当たりの露光量及び当該露光量に対応する輝度値の大小関係が、前記第1の画像及び前記第2の画像の間で保持されるように合成する合成手段と、
前記合成手段により合成された画像に基づいて前記被検物の三次元形状を計測する計測手段と、
を備えることを特徴とする三次元計測装置。
A three-dimensional measurement apparatus that measures a three-dimensional shape of the test object based on an image obtained by photographing the test object on which a pattern is projected,
The first image and the second image of the test object acquired under the first imaging condition and the second imaging condition, respectively, the exposure amount per unit time and the exposure by the light source for projecting the pattern Combining means for combining so that a magnitude relationship of luminance values corresponding to a quantity is maintained between the first image and the second image;
Measuring means for measuring the three-dimensional shape of the test object based on the image synthesized by the synthesizing means;
A three-dimensional measuring apparatus comprising:
前記合成手段は、前記第1の撮影条件及び前記第2の撮影条件での単位時間当たりの露光量及び当該露光量に対応する輝度値の関係が連続的につながるように合成を行うことを特徴とする請求項1に記載の三次元計測装置。   The synthesizing unit performs synthesis so that a relationship between an exposure amount per unit time and a luminance value corresponding to the exposure amount under the first imaging condition and the second imaging condition is continuously connected. The three-dimensional measuring apparatus according to claim 1. 前記合成手段は、前記第1の撮影条件及び前記第2の撮影条件に基づいてオフセットを算出し、当該オフセットを用いて合成を行うことを特徴とする請求項2に記載の三次元計測装置。   The three-dimensional measurement apparatus according to claim 2, wherein the synthesizing unit calculates an offset based on the first imaging condition and the second imaging condition, and performs synthesis using the offset. 前記合成手段は、前記第1の撮影条件及び前記第2の撮影条件のそれぞれの光源の露光時間、発光強度、撮像素子のゲイン、及び画像の階調幅に基づいて前記オフセットを算出することを特徴とする請求項3に記載の三次元計測装置。   The synthesizing unit calculates the offset based on an exposure time of a light source, a light emission intensity, a gain of an image sensor, and a gradation width of an image in each of the first photographing condition and the second photographing condition. The three-dimensional measuring apparatus according to claim 3. 前記合成手段は、固定値のオフセットを用いて合成を行うことを特徴とする請求項1に記載の三次元計測装置。   The three-dimensional measurement apparatus according to claim 1, wherein the synthesizing unit performs synthesis using a fixed value offset. 前記固定値のオフセットは、画像の飽和輝度値に所定値を加えた値であることを特徴とする請求項5に記載の三次元計測装置。   The three-dimensional measurement apparatus according to claim 5, wherein the offset of the fixed value is a value obtained by adding a predetermined value to the saturation luminance value of the image. 前記第1の撮影条件で撮影された画像における飽和した画素の輝度値を、前記第2の撮影条件で撮影された画像の画素の輝度値に前記オフセットを加えたものへと置き換えることにより合成を行うことを特徴とする請求項4乃至6の何れか1項に記載の三次元計測装置。   The composition is performed by replacing the luminance value of the saturated pixel in the image photographed under the first photographing condition with the luminance value of the pixel of the image photographed under the second photographing condition plus the offset. The three-dimensional measuring apparatus according to claim 4, wherein the three-dimensional measuring apparatus is performed. 前記第1の撮影条件と前記第2の撮影条件とでは、前記光源による露光時間及び発光強度、撮像素子のゲインのうち少なくとも1つが異なることを特徴とする請求項1乃至7の何れか1項に記載の三次元計測装置。   8. The method according to claim 1, wherein at least one of an exposure time and light emission intensity by the light source and a gain of the image sensor is different between the first imaging condition and the second imaging condition. The three-dimensional measuring device described in 1. 前記合成手段は、前記第1の撮影条件、前記第2の撮影条件、及び第3の撮影条件でそれぞれ取得された前記被検物の第1の画像、第2の画像、及び第3の画像を、前記パターンを投影するための光源による単位時間当たりの露光量に対応する輝度値の大小関係が、前記第1の画像、前記第2の画像、及び前記第3の画像の間で保持されるように合成することを特徴とする請求項1に記載の三次元計測装置。   The synthesizing means includes a first image, a second image, and a third image of the test object acquired under the first imaging condition, the second imaging condition, and the third imaging condition, respectively. The magnitude relationship of the luminance values corresponding to the exposure amount per unit time by the light source for projecting the pattern is held between the first image, the second image, and the third image. The three-dimensional measuring apparatus according to claim 1, wherein the three-dimensional measuring apparatus is synthesized as follows. 前記合成手段は、
前記第1の撮影条件及び前記第2の撮影条件のそれぞれの光源の露光時間、発光強度、撮像素子のゲイン、及び画像の階調幅に基づいて第1のオフセットを算出し、
前記第2の撮影条件及び前記第3の撮影条件のそれぞれの光源の露光時間、発光強度、撮像素子のゲイン、及び画像の階調幅に基づいて第2のオフセットを算出し、
前記第1のオフセット及び前記第2のオフセットを用いて合成を行うことを特徴とする請求項9に記載の三次元計測装置。
The synthesis means includes
Calculating a first offset based on an exposure time, a light emission intensity, a gain of an image sensor, and a gradation width of an image of each light source of the first imaging condition and the second imaging condition;
Calculating a second offset based on the exposure time, the light emission intensity, the gain of the image sensor, and the gradation width of the image of each light source of the second imaging condition and the third imaging condition;
The three-dimensional measurement apparatus according to claim 9, wherein synthesis is performed using the first offset and the second offset.
前記パターンを前記被検物に投影する投影部と、
前記パターンが投影された前記被検物を撮影する撮影部と
をさらに備えることを特徴とする請求項1乃至10の何れか1項に記載の三次元計測装置。
A projection unit that projects the pattern onto the test object;
The three-dimensional measurement apparatus according to claim 1, further comprising: an imaging unit that images the object on which the pattern is projected.
パターンが投影された被検物を撮影して得られた画像に基づいて前記被検物の三次元形状を計測する三次元計測装置の制御方法であって、
合成手段が、第1の撮影条件及び第2の撮影条件でそれぞれ取得された前記被検物の第1の画像及び第2の画像を、前記パターンを投影するための光源による単位時間当たりの露光量に対応する輝度値の大小関係が、前記第1の画像及び前記第2の画像の間で保持されるように合成する合成工程と、
計測手段が、前記合成工程により合成された画像に基づいて前記被検物の三次元形状を計測する計測工程と、
を有することを特徴とする三次元計測装置の制御方法。
A control method for a three-dimensional measurement apparatus that measures a three-dimensional shape of the test object based on an image obtained by photographing the test object on which a pattern is projected,
An exposure per unit time by a light source for projecting the first image and the second image of the test object acquired by the combining unit under the first imaging condition and the second imaging condition, respectively. A combining step of combining the luminance values corresponding to the amounts so as to be maintained between the first image and the second image;
A measuring step for measuring a three-dimensional shape of the test object based on the image synthesized by the synthesis step; and
A control method for a three-dimensional measuring apparatus, comprising:
請求項12に記載の三次元計測装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of the three-dimensional measuring apparatus of Claim 12.
JP2015118605A 2015-06-11 2015-06-11 Three-dimensional measurement device, three-dimensional measurement device control method and program Pending JP2017003469A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015118605A JP2017003469A (en) 2015-06-11 2015-06-11 Three-dimensional measurement device, three-dimensional measurement device control method and program
US15/175,324 US10378886B2 (en) 2015-06-11 2016-06-07 Three dimensional measurement apparatus, control method for three dimensional measurement apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015118605A JP2017003469A (en) 2015-06-11 2015-06-11 Three-dimensional measurement device, three-dimensional measurement device control method and program

Publications (1)

Publication Number Publication Date
JP2017003469A true JP2017003469A (en) 2017-01-05

Family

ID=57516055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015118605A Pending JP2017003469A (en) 2015-06-11 2015-06-11 Three-dimensional measurement device, three-dimensional measurement device control method and program

Country Status (2)

Country Link
US (1) US10378886B2 (en)
JP (1) JP2017003469A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021004781A (en) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ Distance image generation device
US11022435B2 (en) * 2016-05-13 2021-06-01 Kallion, Inc. Pattern projection depth value 3D scanning device and method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10032279B2 (en) * 2015-02-23 2018-07-24 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
DE102017000908A1 (en) 2017-02-01 2018-09-13 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the exposure time for a 3D image
JP6970376B2 (en) * 2017-12-01 2021-11-24 オムロン株式会社 Image processing system and image processing method
DE102018102159A1 (en) * 2018-01-31 2019-08-01 Carl Zeiss Industrielle Messtechnik Gmbh Method for determining the exposure time for a 3D image
DE102018212104A1 (en) 2018-07-19 2020-01-23 Carl Zeiss Industrielle Messtechnik Gmbh Method and arrangement for the optical detection of an object by means of light pattern projection

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921620A (en) * 1995-07-05 1997-01-21 Fuji Facom Corp Method for measuring three-dimensional shape of object
JP2002100291A (en) * 2000-09-21 2002-04-05 Hitachi Ltd Measurement method and instrument of electron beam intensity distribution, and manufacturing method of cathode-ray tube
JP2005003385A (en) * 2003-06-09 2005-01-06 Mitsutoyo Corp Image measuring method and image measuring apparatus
JP2007315864A (en) * 2006-05-24 2007-12-06 Roland Dg Corp Method for measuring three-dimensional shape and its apparatus
JP2009165558A (en) * 2008-01-11 2009-07-30 Panasonic Corp Method and device for measuring inside of oral cavity
JP2012231273A (en) * 2011-04-26 2012-11-22 Nikon Corp Imaging apparatus
JP2013055610A (en) * 2011-09-06 2013-03-21 Olympus Imaging Corp Imaging apparatus
JP2014036401A (en) * 2012-08-10 2014-02-24 Sony Corp Image pick-up device, image signal processing method and program
US20150022693A1 (en) * 2013-07-16 2015-01-22 Texas Instruments Incorporated Wide Dynamic Range Depth Imaging
JP2015087243A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Image processor and image processing method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6221011A (en) 1985-07-19 1987-01-29 Nissan Motor Co Ltd Measuring apparatus by light cutting method
US6876392B1 (en) * 1998-12-22 2005-04-05 Matsushita Electric Industrial Co., Ltd. Rangefinder for obtaining information from a three-dimensional object
JP2007271530A (en) * 2006-03-31 2007-10-18 Brother Ind Ltd Apparatus and method for detecting three-dimensional shape
JP4983905B2 (en) * 2009-12-25 2012-07-25 カシオ計算機株式会社 Imaging apparatus, 3D modeling data generation method, and program
JP6029394B2 (en) * 2012-09-11 2016-11-24 株式会社キーエンス Shape measuring device
JP6161276B2 (en) * 2012-12-12 2017-07-12 キヤノン株式会社 Measuring apparatus, measuring method, and program
JP6128219B2 (en) * 2013-07-19 2017-05-17 株式会社ニコン Shape measuring device, structure manufacturing system, shape measuring method, structure manufacturing method, shape measuring program, and recording medium
EP2869023B1 (en) * 2013-10-30 2018-06-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method and corresponding computer program
JP6566737B2 (en) * 2015-06-18 2019-08-28 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6800597B2 (en) * 2016-03-30 2020-12-16 キヤノン株式会社 Controls, control methods and programs

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921620A (en) * 1995-07-05 1997-01-21 Fuji Facom Corp Method for measuring three-dimensional shape of object
JP2002100291A (en) * 2000-09-21 2002-04-05 Hitachi Ltd Measurement method and instrument of electron beam intensity distribution, and manufacturing method of cathode-ray tube
JP2005003385A (en) * 2003-06-09 2005-01-06 Mitsutoyo Corp Image measuring method and image measuring apparatus
JP2007315864A (en) * 2006-05-24 2007-12-06 Roland Dg Corp Method for measuring three-dimensional shape and its apparatus
JP2009165558A (en) * 2008-01-11 2009-07-30 Panasonic Corp Method and device for measuring inside of oral cavity
JP2012231273A (en) * 2011-04-26 2012-11-22 Nikon Corp Imaging apparatus
JP2013055610A (en) * 2011-09-06 2013-03-21 Olympus Imaging Corp Imaging apparatus
JP2014036401A (en) * 2012-08-10 2014-02-24 Sony Corp Image pick-up device, image signal processing method and program
US20150022693A1 (en) * 2013-07-16 2015-01-22 Texas Instruments Incorporated Wide Dynamic Range Depth Imaging
JP2015087243A (en) * 2013-10-30 2015-05-07 キヤノン株式会社 Image processor and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11022435B2 (en) * 2016-05-13 2021-06-01 Kallion, Inc. Pattern projection depth value 3D scanning device and method
JP2021004781A (en) * 2019-06-26 2021-01-14 株式会社 日立産業制御ソリューションズ Distance image generation device
JP7290485B2 (en) 2019-06-26 2023-06-13 株式会社 日立産業制御ソリューションズ Range image generator
JP7290485B6 (en) 2019-06-26 2023-06-30 株式会社 日立産業制御ソリューションズ Range image generator

Also Published As

Publication number Publication date
US10378886B2 (en) 2019-08-13
US20160364872A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
JP2017003469A (en) Three-dimensional measurement device, three-dimensional measurement device control method and program
JP7350343B2 (en) Method and system for generating three-dimensional images of objects
JP4889373B2 (en) Three-dimensional shape measuring method and apparatus
JP4891408B2 (en) Camera and method in camera
US7957639B2 (en) Method and system for determining optimal exposure of structured light based 3D camera
JP5907596B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method and program
US20170287157A1 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and storage medium
JP6444233B2 (en) Distance measuring device, distance measuring method, and program
JP2004212385A (en) Photographic device, photographing method and control method for the photographic device
JP2009168658A (en) Three-dimensional shape measuring device
JP2015087244A (en) Image processor and image processing method
JP2016086246A (en) Image processing apparatus and method, and imaging device
JP4944435B2 (en) Three-dimensional shape measuring method and apparatus
JP2019145097A (en) Setting device and method, program, and storage medium
JP2015142364A (en) Image processing device, imaging apparatus and image processing method
CN111540042B (en) Method, device and related equipment for three-dimensional reconstruction
JP3825383B2 (en) 3D shape measuring method and 3D shape measuring apparatus
CN112866596B (en) Anti-strong light three-dimensional capturing method and system based on CMOS sensor
US11295464B2 (en) Shape measurement device, control method, and recording medium
JP2022537423A (en) Method for determining one or more groups of exposure settings for use in a 3D image acquisition process
JP2009216650A (en) Three-dimensional shape measuring device
JP2011252835A (en) Three dimensional shape measuring device
JP2021063700A (en) Three-dimensional measuring device, computer program, control system, and method for manufacturing article
JP6016000B1 (en) Super-resolution processing method, super-resolution processing apparatus, and super-resolution processing system
JP2021004762A (en) Measurement device, imaging device, measurement system, control method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191122