JP5365419B2 - 3D shape sensor - Google Patents

3D shape sensor Download PDF

Info

Publication number
JP5365419B2
JP5365419B2 JP2009198351A JP2009198351A JP5365419B2 JP 5365419 B2 JP5365419 B2 JP 5365419B2 JP 2009198351 A JP2009198351 A JP 2009198351A JP 2009198351 A JP2009198351 A JP 2009198351A JP 5365419 B2 JP5365419 B2 JP 5365419B2
Authority
JP
Japan
Prior art keywords
focal length
lens
dimensional shape
block
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009198351A
Other languages
Japanese (ja)
Other versions
JP2011047883A (en
Inventor
宗年 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2009198351A priority Critical patent/JP5365419B2/en
Publication of JP2011047883A publication Critical patent/JP2011047883A/en
Application granted granted Critical
Publication of JP5365419B2 publication Critical patent/JP5365419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Description

本発明は、奥行き標本化による3次元形状センサに関する。   The present invention relates to a three-dimensional shape sensor based on depth sampling.

3次元形状センサにおいて、立体画像を形成するための3次元形状情報を取得する方法としては、例えば、ステレオ方式、TOF(Time Of Flight)方式、奥行き標本化方式などがある。奥行き標本化方式は、画像の先鋭度などを測定することで、焦点距離から被写体の位置を測定する方法である。奥行き標本化方式は、焦点距離が可変なレンズ系、あるいはレンズ系そのものが被写体との間で移動が容易な顕微鏡などが用いられている。   As a method of acquiring three-dimensional shape information for forming a stereoscopic image in a three-dimensional shape sensor, for example, there are a stereo method, a TOF (Time Of Flight) method, a depth sampling method, and the like. The depth sampling method is a method of measuring the position of the subject from the focal length by measuring the sharpness of the image. The depth sampling method uses a lens system with a variable focal length or a microscope in which the lens system itself can easily move between the subject and the like.

このような光学系を備えたイメージセンサにおいてレンズの焦点距離がある値のとき、あるいは、顕微鏡においてある基準面からレンズの位置のズレがわかっているとき、3次元形状センサは、イメージセンサにより得られた画像を処理して、その先鋭度などを計算し、元の画像の2次元座標上に重み情報をマッピングする。マッピングの粗さは様々であるが、多くの場合、視野を有限のブロックに分割してそのブロック毎に重みを付加する。   In an image sensor equipped with such an optical system, when the focal length of the lens is a certain value, or when the positional deviation of the lens is known from a certain reference plane in the microscope, the three-dimensional shape sensor is obtained by the image sensor. The obtained image is processed, its sharpness is calculated, and the weight information is mapped onto the two-dimensional coordinates of the original image. The roughness of the mapping varies, but in many cases, the field of view is divided into finite blocks and a weight is added to each block.

3次元形状センサは、マッピングされた重み情報が大きい部分を、そのときの焦点距離ないしレンズ移動距離に対応する位置にある物体と判断する。この重み付けを同じ被写体、同じ視野において、様々な焦点距離ないしレンズ移動距離で繰り返し行うことで、被写体の3次元形状を把握する。   The three-dimensional shape sensor determines that the portion where the mapped weight information is large is an object at a position corresponding to the focal length or lens movement distance at that time. By repeatedly performing this weighting on the same subject and the same field of view at various focal lengths or lens movement distances, the three-dimensional shape of the subject is grasped.

焦点距離が可変なレンズとして液体レンズを備えた3次元形状センサがある。この液体レンズは、入力される電圧に対してリニア(線形)に焦点距離を変化させて、高速に応答する。   There is a three-dimensional shape sensor including a liquid lens as a lens having a variable focal length. This liquid lens responds at high speed by changing the focal length linearly with respect to the input voltage.

図10は液体レンズを搭載した従来の3次元形状センサを示す図である。図10において、3次元形状センサ200は、液体レンズ201、CCD(Charge Coupled Device;電荷結合素子)202、主制御部207、レンズ制御部206、CCD制御部205、信号処理部203、距離抽出部204を有している。   FIG. 10 shows a conventional three-dimensional shape sensor equipped with a liquid lens. In FIG. 10, a three-dimensional shape sensor 200 includes a liquid lens 201, a CCD (Charge Coupled Device) 202, a main control unit 207, a lens control unit 206, a CCD control unit 205, a signal processing unit 203, and a distance extraction unit. 204.

次に、図10に示す3次元形状センサ200の動作を説明する。まず、3次元形状センサ200に対して3次元形状を測定するように指示が与えられると、主制御部207は、レンズ制御部206に対して液体レンズ201の焦点距離を所定の方法により変化させるように指示を与える。   Next, the operation of the three-dimensional shape sensor 200 shown in FIG. 10 will be described. First, when an instruction is given to the three-dimensional shape sensor 200 to measure a three-dimensional shape, the main control unit 207 changes the focal length of the liquid lens 201 to the lens control unit 206 by a predetermined method. To give instructions.

レンズ制御部206は、主制御部207からの指示を受けて、図11(b)に示すように時間に対して所定の傾きを有するランプ波形からなるレンズ入力電圧を生成し、この電圧を液体レンズ201に出力する。   Upon receiving an instruction from the main control unit 207, the lens control unit 206 generates a lens input voltage having a ramp waveform having a predetermined inclination with respect to time as shown in FIG. Output to the lens 201.

一方、主制御部207は、CCD制御部205に対して、液体レンズ201の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CCD制御部205は、図11(a)に示すように撮影を実施するための駆動信号をCCD202に出力する。このとき、駆動信号の立ち上がりタイミングで撮影が行われるが、撮影のタイミングで焦点距離が図11(c)に示すように、F1,F2,F3と設定される。信号処理部203は、CCD202から画像を読み出す。   On the other hand, the main control unit 207 instructs the CCD control unit 205 to take a predetermined number of times while the focal length of the liquid lens 201 is changing. For example, when n times of photographing are performed, the CCD control unit 205 outputs a drive signal for performing photographing to the CCD 202 as shown in FIG. At this time, photographing is performed at the rising timing of the drive signal, and the focal length is set to F1, F2, and F3 as shown in FIG. 11C at the photographing timing. The signal processing unit 203 reads an image from the CCD 202.

3次元形状センサ200は、コントラスト法により測定対象100の形状を測定する。信号処理部203は、得られた画像を有限のブロック数に分割する。次に、各々のブロック内でコントラスト値を決定する。計算した結果は距離抽出部204に出力される。   The three-dimensional shape sensor 200 measures the shape of the measurement object 100 by a contrast method. The signal processing unit 203 divides the obtained image into a finite number of blocks. Next, a contrast value is determined in each block. The calculated result is output to the distance extraction unit 204.

距離抽出部204は以下の処理を行う。図12は距離抽出部によるt番目のブロックに関して行われる処理を示す図である。   The distance extraction unit 204 performs the following processing. FIG. 12 is a diagram illustrating processing performed on the t-th block by the distance extraction unit.

まず、距離抽出部204には主制御部207からn回の撮影画像毎の焦点距離情報が送られてくる。また、距離抽出部204には信号処理部203から各ブロック毎のコントラスト値が撮影画像毎に送られてくる。   First, the distance extraction unit 204 receives focal length information for each of n captured images from the main control unit 207. Further, the contrast value for each block is sent from the signal processing unit 203 to the distance extraction unit 204 for each captured image.

距離抽出部204には、図12に示すように、例えば、t番目のブロックにおいて、1番目の焦点距離F1とコントラスト値C1の対230、2番目の焦点距離F2とコントラスト値C2の対231、k番目の焦点距離Fkとコントラスト値Ckの対232、n番目の焦点距離Fnとコントラスト値Cnの対233が順次作成される。   12, for example, in the t-th block, the distance extraction unit 204 includes a first focal length F1 and contrast value C1 pair 230, a second focal length F2 and contrast value C2 pair 231, A pair 232 of kth focal length Fk and contrast value Ck, and a pair 233 of nth focal length Fn and contrast value Cn are sequentially created.

距離抽出部204は、各ブロック毎にこれらの対230〜233の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。   The distance extraction unit 204 selects a pair having the maximum contrast value from these pairs 230 to 233 for each block, and adopts the focal distance as the distance from the photographing point to the measurement target.

図12に示すように、例えばt番目のブロックではk番目のコントラストCkが最も大きくなると、そのときの焦点距離Fkがそのブロックに関する距離情報として採用される。   As shown in FIG. 12, for example, when the k-th contrast Ck becomes the largest in the t-th block, the focal length Fk at that time is adopted as distance information regarding the block.

このようにして得られた各ブロックのコントラストが最大になる焦点距離に基づき測定対象100とCCD202との距離が求められ、求められた距離に基づき測定対象100の形状も確定する。   The distance between the measurement object 100 and the CCD 202 is obtained based on the focal length at which the contrast of each block obtained in this way is maximized, and the shape of the measurement object 100 is also determined based on the obtained distance.

ところで、イメージセンサの読み出し時間が高速であるほど、距離測定完了に要する時間をより短縮できる。また、搭載されるイメージセンサの画素数が多いほど、多くのブロックを持つことができ、分解能が高くなる。   By the way, the faster the reading time of the image sensor, the shorter the time required to complete the distance measurement. Further, the larger the number of pixels of the mounted image sensor, the greater the number of blocks, and the higher the resolution.

従来、イメージセンサとしてCCDを用いていたが、CCDは、電荷を転送して読み出すため、画素数の増加に比例して読み出しに要する時間が増加する。一般的なCMOSイメージセンサは、CCDの電荷順次転送と異なり、画素を直接アドレスして出力するため、CCDよりも高速に読出しが可能である。従って、3次元形状をより精密に且つより高速に測定するためには、CMOSイメージセンサを用いるのがよい。   Conventionally, a CCD has been used as an image sensor. However, since a CCD transfers and reads charges, the time required for reading increases in proportion to the increase in the number of pixels. Unlike a CCD charge sequential transfer, a general CMOS image sensor can output pixels by directly addressing them, so that it can be read out faster than a CCD. Accordingly, in order to measure the three-dimensional shape more precisely and at higher speed, it is preferable to use a CMOS image sensor.

なお、従来の技術として、特許文献1には、奥行き標本化におけるサンプリングの間隔を立体視特性に合わせて可変とし、標本化数を減ずる奥行き標本化式立体画像形成装置が記載されている。特許文献2には、焦点距離が可変なレンズが記載されている。   As a conventional technique, Patent Document 1 describes a depth sampling type stereoscopic image forming apparatus in which the sampling interval in depth sampling is variable according to the stereoscopic characteristics and the number of samplings is reduced. Patent Document 2 describes a lens having a variable focal length.

特開平10−20245号公報Japanese Patent Laid-Open No. 10-20245 米国特許6369954号明細書US Pat. No. 6,369,954

しかしながら、3次元形状センサにCMOSイメージセンサを用いると以下の問題が発生する。即ち、一般的なCMOSイメージセンサはCCDと異なるシャッタ方式を用いているからである。具体的にはCCDはグローバルシャッタと呼ばれる全画素で露光のタイミングが揃っているシャッタ方式である。   However, when a CMOS image sensor is used for the three-dimensional shape sensor, the following problems occur. That is, a general CMOS image sensor uses a shutter system different from that of a CCD. Specifically, the CCD is a shutter system called a global shutter, in which exposure timing is uniform for all pixels.

一方、一般的なCMOSイメージセンサはローリングシャッタと呼ばれるシャッタ方式で、これは画素ライン毎に露光のタイミングがずれているシャッタ方式である。このため、以下の問題が発生する。   On the other hand, a general CMOS image sensor is a shutter system called a rolling shutter, which is a shutter system in which the exposure timing is shifted for each pixel line. For this reason, the following problems occur.

図11に示すように、液体レンズ201にランプ波形が入力され、液体レンズ201の焦点距離が連続的に変化され、所定のタイミングでイメージセンサにパルスの駆動信号を送り撮影を行う場合、CCD202を用いた従来例では、撮影を行うように指示したタイミングで全画素のタイミングが揃っていた。従って、ある撮影タイミングで撮影した画像は、画面全体である単一の焦点距離の画像であった。   As shown in FIG. 11, when a ramp waveform is input to the liquid lens 201, the focal length of the liquid lens 201 is continuously changed, and a pulse drive signal is sent to the image sensor at a predetermined timing to perform imaging, the CCD 202 is used. In the conventional example used, the timing of all the pixels is aligned at the timing of instructing to perform shooting. Therefore, an image photographed at a certain photographing timing is an image having a single focal length that is the entire screen.

しかしながら、CMOSイメージセンサを用いた場合、ライン毎に画像が順次読み出されるため、ライン毎に露光のタイミングがずれる。そして、画像の読出しが行われる間にも、連続したランプ波形が液体レンズ201に入力されるため、液体レンズ201の焦点距離がずれてしまい、画面のライン毎に異なった焦点距離の映像が得られてしまう。この結果、従来の3次元形状センサでは、正確な距離を測定できず、測定対象の正確な3次元形状が得られない。   However, when a CMOS image sensor is used, images are sequentially read out for each line, so that the exposure timing is shifted for each line. Since the continuous ramp waveform is input to the liquid lens 201 while the image is being read, the focal length of the liquid lens 201 is shifted, and an image with a different focal length is obtained for each line of the screen. It will be. As a result, the conventional three-dimensional shape sensor cannot measure an accurate distance, and an accurate three-dimensional shape to be measured cannot be obtained.

本発明の目的は、CMOSイメージセンサを用いて高速に高精細な3次元形状情報を得ることができる3次元形状センサを提供することにある。   An object of the present invention is to provide a three-dimensional shape sensor that can obtain high-definition three-dimensional shape information at high speed using a CMOS image sensor.

の発明は、焦点距離が可変されるレンズと、前記レンズを通して測定対象を撮影する、ローリングシャッタ方式を用いたCMOSイメージセンサと、前記CMOSイメージセンサで撮影された画像を1フレーム毎に読み出して読み出した画像を所定数のブロックに分割し各ブロックのコントラスト値を決定する信号処理部と、前記レンズの焦点距離をリニアに変化させるレンズ制御部と、前記レンズ制御部により変化された前記レンズの焦点距離と時間との対応関係を示すテーブルを記憶する記憶部と、前記CMOSイメージセンサの1フレーム毎の焦点距離情報に、前記記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と前記信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から前記測定対象までの距離を求める距離算出部とを備えることを特徴とする。 According to a first aspect of the present invention, a lens having a variable focal length , a CMOS image sensor using a rolling shutter system for photographing a measurement object through the lens, and an image photographed by the CMOS image sensor are read out for each frame. a signal processing unit for determining a contrast value of each block by dividing the read image into a predetermined number of blocks Te, a lens control unit for changing the focal length of the lens linearly, the lens is changed by the lens control unit A storage unit that stores a table indicating the correspondence between the focal length and time of the image , and a correction value for each block based on the table stored in the storage unit in the focal length information for each frame of the CMOS image sensor Based on the corrected focal length information and the contrast value of each block from the signal processing unit Characterized in that it comprises a distance calculation unit for determining the distance al to the measurement target.

の発明によれば、距離算出部は、CMOSイメージセンサの1フレーム毎の焦点距離情報に記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から測定対象までの距離を求めるので、CMOSイメージセンサを用いて高速に高精細な3次元形状情報を得ることができる。 According to the first invention, the distance calculation unit includes the corrected focal length information and the signal obtained by adding the correction value for each block based on the table stored in the storage unit to the focal length information for each frame of the CMOS image sensor. Since the distance from the photographing point to the measurement object is obtained based on the contrast value of each block from the processing unit, high-definition three-dimensional shape information can be obtained at high speed using a CMOS image sensor.

液体レンズを搭載した実施例1の3次元形状センサを示す図である。It is a figure which shows the three-dimensional shape sensor of Example 1 carrying a liquid lens. 実施例1の3次元形状センサの時間に対するレンズ入力電圧と液体レンズの焦点距離とを示す図である。It is a figure which shows the lens input voltage with respect to time of the three-dimensional shape sensor of Example 1, and the focal distance of a liquid lens. 得られた画像のブロック分割例を示す図である。It is a figure which shows the example of block division of the obtained image. 3次元形状センサの信号処理部の信号処理手順を示す図である。It is a figure which shows the signal processing procedure of the signal processing part of a three-dimensional shape sensor. 焦点距離及びコントラスト値の最大値を選び出すアルゴリズムを示す図である。It is a figure which shows the algorithm which selects the maximum value of a focal distance and a contrast value. 液体レンズを搭載した実施例2の3次元形状センサを示す図である。It is a figure which shows the three-dimensional shape sensor of Example 2 carrying a liquid lens. 実施例2の焦点距離と時間との対応関係を示すテーブルである。It is a table which shows the correspondence of the focal distance of Example 2, and time. 実施例2の3次元形状センサの時間に対するレンズ入力電圧と液体レンズの焦点距離とを示す図である。It is a figure which shows the lens input voltage with respect to the time of the three-dimensional shape sensor of Example 2, and the focal distance of a liquid lens. 実施例2の距離抽出部によるt番目のブロックに関して行われる処理を示す図である。It is a figure which shows the process performed regarding the t-th block by the distance extraction part of Example 2. FIG. 液体レンズを搭載した従来の3次元形状センサを示す図である。It is a figure which shows the conventional three-dimensional shape sensor carrying a liquid lens. 従来の3次元形状センサの時間に対するレンズ入力電圧と液体レンズの焦点距離とを示す図である。It is a figure which shows the lens input voltage with respect to time of the conventional three-dimensional shape sensor, and the focal distance of a liquid lens. 距離抽出部によるt番目のブロックに関して行われる処理を示す図である。It is a figure which shows the process performed regarding the t-th block by a distance extraction part.

以下、本発明の3次元形状センサの実施の形態を図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the three-dimensional shape sensor of the present invention will be described in detail with reference to the drawings.

実施例1の3次元形状センサは、液体レンズの駆動方法を工夫し、ローリングシャッタ型のCMOSイメージセンサを用いても画面全体で焦点距離を所定値にしたことを特徴とする。   The three-dimensional shape sensor of Example 1 is characterized in that the liquid lens driving method is devised and the focal length is set to a predetermined value over the entire screen even when a rolling shutter type CMOS image sensor is used.

図1において、3次元形状センサ10は、焦点距離が可変される液体レンズ1、CMOSイメージセンサ2、CMOSイメージセンサ2の画像を1フレーム毎に読み出して所定の処理を行う信号処理部3、1フレーム毎に液体レンズ1の焦点距離をステップ状に変化させるとともに1フレーム期間中では焦点距離を所定値に保持するレンズ制御部6、信号処理部6で処理された画像とCMOSイメージセンサ2の焦点距離情報とに基づいて撮影地点から測定対象までの距離を求める距離抽出部(距離算出部という場合がある)4、主制御部7、及びCMOSイメージセンサ制御部5を有している。   In FIG. 1, a three-dimensional shape sensor 10 is a signal processing unit 3, 1 that reads out images of a liquid lens 1, a CMOS image sensor 2, and a CMOS image sensor 2 whose focal length is variable and performs predetermined processing for each frame. The focal length of the liquid lens 1 is changed stepwise for each frame and the focal point of the CMOS image sensor 2 and the image processed by the lens control unit 6 and the signal processing unit 6 that hold the focal length at a predetermined value during one frame period. A distance extraction unit (sometimes referred to as a distance calculation unit) 4 for obtaining a distance from the shooting point to the measurement object based on the distance information, a main control unit 7, and a CMOS image sensor control unit 5 are provided.

即ち、実施例1の3次元形状センサ10は、図10に示す従来の3次元形状センサ200内のCCD202、CCD制御部205、レンズ制御部206に代えて、CMOSイメージセンサ2、CMOSイメージセンサ制御部5、レンズ制御部6を設けた点が異なる。   That is, the three-dimensional shape sensor 10 according to the first embodiment replaces the CCD 202, the CCD control unit 205, and the lens control unit 206 in the conventional three-dimensional shape sensor 200 shown in FIG. The difference is that the unit 5 and the lens control unit 6 are provided.

実施例1の液体レンズ1、主制御部7、信号処理部3、距離抽出部4は、図10に示す従来の液体レンズ201、主制御部207、信号処理部203、距離抽出部204と同一構成である。   The liquid lens 1, the main control unit 7, the signal processing unit 3, and the distance extraction unit 4 of the first embodiment are the same as the conventional liquid lens 201, main control unit 207, signal processing unit 203, and distance extraction unit 204 shown in FIG. It is a configuration.

図2を用いて、実施例1のレンズ制御部6の機能を説明する。ここでは、t番目のブロックの距離を測定すると仮定し、t番目のブロックはCMOSイメージセンサ2のL行目にあるとする。図2において、Tは1フレーム(1画面)分の読出し時間であり、時刻t0は駆動信号の立ち上がりタイミングであり、時刻t1、t2、t3、t4は1フレーム画像のL行目の読出しタイミングである。時刻t1〜t2、時刻t2〜t3、時刻t3〜t4は、1フレーム分の読出し時間Tである。
従来のレンズ制御部206は、時間的に変化するランプ波形を生成していたため、液体レンズ201の焦点距離は、時間的に連続に変化し、L行目の読み出しタイミングでは1行目と異なった焦点距離になっていた。
The function of the lens control unit 6 according to the first embodiment will be described with reference to FIG. Here, it is assumed that the distance of the t-th block is measured, and the t-th block is in the Lth row of the CMOS image sensor 2. In FIG. 2, T is a readout time for one frame (one screen), time t0 is a drive signal rising timing, and times t1, t2, t3, and t4 are readout timings of the Lth row of one frame image. is there. Times t1 to t2, times t2 to t3, and times t3 to t4 are read times T for one frame.
Since the conventional lens control unit 206 generates a ramp waveform that changes with time, the focal length of the liquid lens 201 changes continuously with time, and the readout timing of the L row differs from that of the first row. It was the focal length.

これに対して、実施例1では、まず、3次元形状センサ10に対して3次元形状を測定するように指示が与えられると、主制御部7は、レンズ制御部6に対して液体レンズ1の焦点距離を所定の方法により変化させるように指示を与える。   In contrast, in the first embodiment, when an instruction is given to the three-dimensional shape sensor 10 to measure a three-dimensional shape, the main control unit 7 instructs the lens control unit 6 to use the liquid lens 1. An instruction is given to change the focal length of the lens by a predetermined method.

一方、主制御部7は、CMOSイメージセンサ制御部5に対して、液体レンズ1の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CMOSイメージセンサ制御部5は、主制御部7からの撮影指示を受けて、CMOSイメージセンサ2に図2(a)に示す撮影を実施するための駆動信号を与える。   On the other hand, the main control unit 7 instructs the CMOS image sensor control unit 5 to perform photographing a predetermined number of times while the focal length of the liquid lens 1 is changing. For example, when imaging is performed n times, the CMOS image sensor control unit 5 receives an imaging instruction from the main control unit 7 and drives the CMOS image sensor 2 to perform the imaging shown in FIG. give.

レンズ制御部6は、主制御部7からの指示を受けて、図2(a)に示す駆動信号に同期して、1フレーム分の読出し時間T毎にステップ状(階段状)に電圧が上昇するレンズ入力電圧を生成し、ステップ状の電圧を液体レンズ1に出力する。   In response to the instruction from the main control unit 7, the lens control unit 6 increases in voltage stepwise (stepped) every reading time T for one frame in synchronization with the drive signal shown in FIG. A lens input voltage is generated, and a stepped voltage is output to the liquid lens 1.

液体レンズ1は、レンズ制御部6からのステップ状のレンズ入力電圧により、図2(c)に示すように、1フレーム分の読出し時間T毎にステップ状に焦点距離がF1、F2、F3と上昇する。信号処理部3は、CMOSイメージセンサ2から画像を1フレーム毎に読み出す。   As shown in FIG. 2 (c), the liquid lens 1 has stepwise focal lengths F1, F2, and F3 at every readout time T for one frame by the stepped lens input voltage from the lens control unit 6. To rise. The signal processing unit 3 reads an image from the CMOS image sensor 2 for each frame.

CMOSイメージセンサ2の1フレーム分の全画素の読出しが終わる間、即ち、1フレームの期間中は、焦点距離が所定値に保持される。このため、L行目を含む全画素の読出しが終わる間、焦点距離は変化しないので、従来のCCDで撮影した場合と同等の映像を取得できる。   The focal length is held at a predetermined value while reading of all pixels for one frame of the CMOS image sensor 2 is completed, that is, during the period of one frame. For this reason, since the focal length does not change while reading of all the pixels including the Lth row is completed, it is possible to obtain an image equivalent to a case where the image is taken with a conventional CCD.

3次元形状センサ10は、コントラスト法により測定対象100の形状を測定する。信号処理部3は、図4の信号処理手順に示すように、得られた画像を有限のブロック数に分割する(S101)。例えば、得られた画像のブロック分割例210を図3に示す。図3では、得られた画像を1x8画素の単位で区切ってブロックに分割している。   The three-dimensional shape sensor 10 measures the shape of the measuring object 100 by a contrast method. As shown in the signal processing procedure of FIG. 4, the signal processing unit 3 divides the obtained image into a finite number of blocks (S101). For example, FIG. 3 shows a block division example 210 of the obtained image. In FIG. 3, the obtained image is divided into blocks by dividing the obtained image into units of 1 × 8 pixels.

次に、各々のブロック内でコントラスト値を決定する(S102)。このコントラスト値Cの計算方法は、例えば、
C=(lmax−lmin)/(lmax+lmin)
とする。ここで、lmaxはブロック内の輝度の最大値、lminはブロック内の輝度の最小値である。計算した結果は距離抽出部4に出力される(S103)。
Next, a contrast value is determined in each block (S102). The calculation method of the contrast value C is, for example,
C = (lmax−lmin) / (lmax + lmin)
And Here, lmax is the maximum luminance value in the block, and lmin is the minimum luminance value in the block. The calculated result is output to the distance extraction unit 4 (S103).

距離抽出部4には主制御部7からn回の撮影画像毎の焦点距離情報が送られてくる。また、距離抽出部4には信号処理部3から各ブロック毎のコントラスト値が撮影画像毎に送られてくる。   Focal length information for each of n captured images is sent from the main control unit 7 to the distance extraction unit 4. Further, the contrast value for each block is sent from the signal processing unit 3 to the distance extraction unit 4 for each captured image.

距離抽出部4には、図12に示すように、例えば、t番目のブロックにおいて、1番目の焦点距離F1とコントラスト値C1の対230、2番目の焦点距離F2とコントラスト値C2の対231、k番目の焦点距離Fkとコントラスト値Ckの対232、n番目の焦点距離Fnとコントラスト値Cnの対233が順次作成される。   As shown in FIG. 12, for example, in the t-th block, the distance extraction unit 4 includes a first focal length F1 and contrast value C1 pair 230, a second focal length F2 and contrast value C2 pair 231, A pair 232 of kth focal length Fk and contrast value Ck, and a pair 233 of nth focal length Fn and contrast value Cn are sequentially created.

距離抽出部4は、各ブロック毎にこれらの対230〜233の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。   The distance extraction unit 4 selects the pair having the maximum contrast value from these pairs 230 to 233 for each block, and adopts the focal length as the distance from the shooting point to the measurement target.

図12に示すように、例えばt番目のブロックではk番目のコントラストCkが最も大きくなると、そのときの焦点距離Fkがそのブロックに関する距離情報として採用される。   As shown in FIG. 12, for example, when the k-th contrast Ck becomes the largest in the t-th block, the focal length Fk at that time is adopted as distance information regarding the block.

コントラスト値の最大値を選び出すアルゴリズムを図5に示す。図5において、Cpはコントラスト値を示し、Fpは焦点距離を示す。まず、Cp=0、Fp=0に設定する(S201)。なお、pは整数である。次に、CpがCp+1よりも大きいかどうかを判定し(S202)、CpがCp+1よりも大きい場合、Cp=Cp+1、Fp=Fp+1とする(S203)。即ち、比較した2つのコントラスト値のうち、大きい方のコントラスト値及びこれに対応する焦点距離を残す。次に、p+1がnになったかどうかを判定し(S204)、p+1がnになっていない場合には、pを1だけインクリメントして(S205)、S202の処理に戻り、同様な処理を繰り返す。p+1がnになった場合には、処理を終了する(S206)。   FIG. 5 shows an algorithm for selecting the maximum contrast value. In FIG. 5, Cp represents a contrast value, and Fp represents a focal length. First, Cp = 0 and Fp = 0 are set (S201). Note that p is an integer. Next, it is determined whether Cp is larger than Cp + 1 (S202). If Cp is larger than Cp + 1, Cp = Cp + 1 and Fp = Fp + 1 are set (S203). That is, the larger contrast value of the two compared contrast values and the focal length corresponding thereto are left. Next, it is determined whether or not p + 1 is n (S204). If p + 1 is not n, p is incremented by 1 (S205), the process returns to S202, and the same process is repeated. . If p + 1 becomes n, the process is terminated (S206).

このようにして得られた各ブロックのコントラストが最大になる焦点距離に基づき測定対象100とCMOSイメージセンサ2との距離が求められ、求められた距離に基づき測定対象100の形状も確定する。   The distance between the measurement object 100 and the CMOS image sensor 2 is obtained based on the focal length at which the contrast of each block obtained in this way is maximized, and the shape of the measurement object 100 is also determined based on the obtained distance.

このように実施例1の3次元形状センサによれば、CMOSイメージセンサ2の1フレーム分の全画素の読出しが終わる間、即ち、1フレームの期間中は、焦点距離が所定値に保持される。このため、L行目を含む全画素の読出しが終わる間、焦点距離は変化しないので、従来のCCDで撮影した場合と同等の映像を取得できる。従って、画素間に同時性のないローリングシャッタ方式のCMOSイメージセンサ2を用いて高速に高精細な3次元形状情報を得ることができる。   As described above, according to the three-dimensional shape sensor of the first embodiment, the focal length is held at a predetermined value while reading of all pixels for one frame of the CMOS image sensor 2 is completed, that is, during the period of one frame. . For this reason, since the focal length does not change while reading of all the pixels including the Lth row is completed, it is possible to obtain an image equivalent to a case where the image is taken with a conventional CCD. Therefore, high-definition three-dimensional shape information can be obtained at high speed using the rolling shutter type CMOS image sensor 2 having no simultaneity between pixels.

実施例2では、画像信号のライン毎に焦点距離の情報、もしくは焦点距離を推定できる情報(たとえば露光タイミングの情報)を付加することにより、画像内で露光タイミングが揃っていなくても焦点距離を補正する。即ち、実施例2では、画像の焦点距離にライン毎の補正値を加え、信号処理を行う。   In the second embodiment, focal length information or information (for example, exposure timing information) that can estimate the focal length is added to each line of the image signal, so that the focal length can be set even if the exposure timing is not uniform in the image. to correct. That is, in the second embodiment, signal processing is performed by adding a correction value for each line to the focal length of the image.

図6は液体レンズを搭載した実施例2の3次元形状センサを示す図である。図6に示す実施例2の3次元形状センサ10aは、図1に示す実施例1の3次元形状センサ10に対して、レンズ制御部6a、主制御部7a、距離抽出部4aの構成が異なる。   FIG. 6 is a diagram showing a three-dimensional shape sensor of Example 2 equipped with a liquid lens. The three-dimensional shape sensor 10a of the second embodiment shown in FIG. 6 differs from the three-dimensional shape sensor 10 of the first embodiment shown in FIG. 1 in the configuration of the lens control unit 6a, the main control unit 7a, and the distance extraction unit 4a. .

レンズ制御部6aは、液体レンズ1の焦点距離をリニアに変化させる。具体的には、レンズ制御部6aは、主制御部7からの指示を受けて、図8(b)に示すように時間に対して所定の傾きを有するランプ波形からなるレンズ入力電圧を生成し、レンズ入力電圧を液体レンズ1に出力する。   The lens control unit 6a linearly changes the focal length of the liquid lens 1. Specifically, the lens control unit 6a receives an instruction from the main control unit 7, and generates a lens input voltage having a ramp waveform having a predetermined inclination with respect to time as shown in FIG. 8B. The lens input voltage is output to the liquid lens 1.

主制御部7aは、CMOSイメージセンサ制御部5に対して、液体レンズ1の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CMOSイメージセンサ制御部5は、図8(a)に示すように撮影を実施するための駆動信号をCMOSイメージセンサ2に出力する。   The main control unit 7a gives an instruction to the CMOS image sensor control unit 5 to perform photographing a predetermined number of times while the focal length of the liquid lens 1 is changing. For example, when n times of photographing are performed, the CMOS image sensor control unit 5 outputs a drive signal for performing photographing to the CMOS image sensor 2 as shown in FIG.

また、主制御部7aは、図7に示す焦点距離と時間との対応関係を示すテーブルが格納されたメモリ71を有している。図7に示す時間Δt1,Δt2‥Δtnは、図8に示す1フレームの読出し開始時刻t0からt番目のブロックに対応するL行目までの時間であり、時間Δt1,Δt2‥Δtnに対応する焦点距離は、ΔF1,ΔF2‥ΔFnである。   Further, the main control unit 7a has a memory 71 in which a table showing the correspondence between the focal length and time shown in FIG. 7 is stored. The times Δt1, Δt2,... Δtn shown in FIG. 7 are the times from the read start time t0 of one frame shown in FIG. 8 to the Lth row corresponding to the tth block, and the focal points corresponding to the times Δt1, Δt2,. The distances are ΔF1, ΔF2,... ΔFn.

主制御部7aは、メモリ71に格納されたテーブルを用いて、焦点距離情報をライン毎(ブロック毎に)に距離抽出部4aに出力する。即ち、主制御部7aは、CMOSイメージセンサ2の1フレーム毎の焦点距離情報(図8(c)に示すF1,F2,F3‥)に、メモリ71に格納されたテーブルを参照して各ブロック毎の補正値ΔF1,ΔF2‥ΔFn(図8(c)に示すΔF)を加えた補正焦点距離情報を距離抽出部4aに出力する。   Using the table stored in the memory 71, the main control unit 7a outputs focal length information to the distance extraction unit 4a for each line (for each block). That is, the main control unit 7a refers to the focal length information for each frame of the CMOS image sensor 2 (F1, F2, F3,... Shown in FIG. 8C) with reference to the table stored in the memory 71. Correction focal length information obtained by adding correction values ΔF1, ΔF2,... ΔFn (ΔF shown in FIG. 8C) for each is output to the distance extraction unit 4a.

例えばt番目のブロックがL行目に存在している場合、液体レンズ1の焦点距離は、図8(c)に示すように、1行目(時刻t0)のときにF1であるが、L行目(時刻t1)ではランプ波形からなるレンズ入力電圧が1行目のときよりも大きくなり、F1よりΔFだけずれて(F1+ΔF)となる。   For example, when the t-th block is present in the Lth row, the focal length of the liquid lens 1 is F1 in the first row (time t0) as shown in FIG. In the row (time t1), the lens input voltage composed of the ramp waveform is larger than that in the first row, and is shifted from the F1 by ΔF to (F1 + ΔF).

距離抽出部4aは、主制御部7aからの補正焦点距離情報をt番目のブロックの距離情報に用いる。具体的には、距離抽出部4aは、主制御部7aからの補正焦点距離情報と信号処理部3からのコントラスト値との対を作成するとき、図9に示すように、例えば、t番目のブロックにおいて、1番目の補正焦点距離F1+ΔFとコントラスト値C1の対30、2番目の補正焦点距離F2+ΔFとコントラスト値C2の対31、k番目の補正焦点距離Fk+ΔFとコントラスト値Ckの対32、n番目の補正焦点距離Fn+ΔFとコントラスト値Cnの対33を順次作成する。   The distance extraction unit 4a uses the corrected focal length information from the main control unit 7a as the distance information of the t-th block. Specifically, when the distance extraction unit 4a creates a pair of the corrected focal length information from the main control unit 7a and the contrast value from the signal processing unit 3, as shown in FIG. In the block, the first corrected focal length F1 + ΔF and contrast value C1 pair 30, the second corrected focal length F2 + ΔF and contrast value C2 pair 31, the kth corrected focal length Fk + ΔF and contrast value Ck pair 32, the nth. A pair 33 of the corrected focal length Fn + ΔF and the contrast value Cn is sequentially created.

距離抽出部4aは、各ブロック毎にこれらの対30〜33の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。   The distance extraction unit 4a selects the pair having the maximum contrast value from these pairs 30 to 33 for each block, and adopts the focal length as the distance from the shooting point to the measurement target.

このように実施例2の3次元形状センサによれば、焦点距離情報に各ブロック毎の補正値を加えた補正焦点距離情報を用いることにより、高速に高精細な3次元形状情報を得ることができる。   As described above, according to the three-dimensional shape sensor of the second embodiment, high-definition three-dimensional shape information can be obtained at high speed by using the corrected focal length information obtained by adding the correction value for each block to the focal length information. it can.

なお、本発明は上述した実施例1,2の3次元形状センサに限定されるものではない。実施例2では、焦点距離情報として、各ブロック毎の補正値をテーブルに格納したが、テーブルを用いることなく、各ブロック毎に補正値を計算によって求めることにより用いても良い。   In addition, this invention is not limited to the three-dimensional shape sensor of Example 1, 2 mentioned above. In the second embodiment, the correction value for each block is stored in the table as the focal length information. However, the correction value may be obtained by calculation for each block without using the table.

本発明は、3次元形状センサを用いた立体画像形成装置に適用可能である。   The present invention can be applied to a stereoscopic image forming apparatus using a three-dimensional shape sensor.

1,201 液体レンズ
2 CMOSイメージセンサ
3,203 信号処理部
4,4a,204 距離抽出部
5 CMOSイメージセンサ制御部
6,6a,206 レンズ制御部
7,7a,207 主制御部
10,10a,200 3次元形状センサ
71 メモリ
100 測定対象
202 CCD
205 CCD制御部
DESCRIPTION OF SYMBOLS 1,201 Liquid lens 2 CMOS image sensor 3,203 Signal processing part 4,4a, 204 Distance extraction part 5 CMOS image sensor control part 6,6a, 206 Lens control part 7,7a, 207 Main control part 10,10a, 200 Three-dimensional shape sensor 71 Memory 100 Measuring object 202 CCD
205 CCD controller

Claims (2)

焦点距離が可変されるレンズと、
前記レンズを通して測定対象を撮影する、ローリングシャッタ方式を用いたCMOSイメージセンサと、
前記CMOSイメージセンサで撮影された画像を1フレーム毎に読み出して読み出した画像を所定数のブロックに分割し各ブロックのコントラスト値を決定する信号処理部と、
前記レンズの焦点距離をリニアに変化させるレンズ制御部と、
前記レンズ制御部により変化された前記レンズの焦点距離と時間との対応関係を示すテーブルを記憶する記憶部と、
前記CMOSイメージセンサの1フレーム毎の焦点距離情報に、前記記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と前記信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から前記測定対象までの距離を求める距離算出部と、
を備えることを特徴とする3次元形状センサ。
A lens with variable focal length;
A CMOS image sensor using a rolling shutter system for photographing a measurement object through the lens;
A signal processing unit that reads an image captured by the CMOS image sensor for each frame , divides the read image into a predetermined number of blocks, and determines a contrast value of each block ;
A lens controller that linearly changes the focal length of the lens;
A storage unit for storing a table indicating a correspondence relationship between the focal length of the lens and time changed by the lens control unit;
Corrected focal length information obtained by adding correction values for each block based on the table stored in the storage unit to the focal length information for each frame of the CMOS image sensor, and the contrast value of each block from the signal processing unit A distance calculation unit for obtaining a distance from the shooting point to the measurement object based on
A three-dimensional shape sensor comprising:
前記レンズは、液体レンズからなる請求項1記載の3次元形状センサ The three-dimensional shape sensor according to claim 1, wherein the lens is a liquid lens .
JP2009198351A 2009-08-28 2009-08-28 3D shape sensor Active JP5365419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198351A JP5365419B2 (en) 2009-08-28 2009-08-28 3D shape sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198351A JP5365419B2 (en) 2009-08-28 2009-08-28 3D shape sensor

Publications (2)

Publication Number Publication Date
JP2011047883A JP2011047883A (en) 2011-03-10
JP5365419B2 true JP5365419B2 (en) 2013-12-11

Family

ID=43834350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198351A Active JP5365419B2 (en) 2009-08-28 2009-08-28 3D shape sensor

Country Status (1)

Country Link
JP (1) JP5365419B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5668227B2 (en) * 2011-02-17 2015-02-12 株式会社ミツトヨ Image measuring device
CN105103668B (en) * 2013-03-29 2018-09-18 富士机械制造株式会社 Production equipment
US9143674B2 (en) * 2013-06-13 2015-09-22 Mitutoyo Corporation Machine vision inspection system and method for performing high-speed focus height measurement operations
KR101727073B1 (en) * 2015-07-24 2017-04-17 한국기초과학지원연구원 System and method for determining height difference of fine pattern by using liquid lens
US10097777B2 (en) * 2016-06-03 2018-10-09 Recognition Robotics, Inc. Depth map from multi-focal plane images
US10944899B2 (en) 2017-03-15 2021-03-09 Sony Corporation Image processing device and image processing method
JP7052772B2 (en) * 2019-04-26 2022-04-12 オムロン株式会社 Image sensor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
JPH07280518A (en) * 1994-04-14 1995-10-27 Nippon Telegr & Teleph Corp <Ntt> Object measurement device
JPH09145318A (en) * 1995-11-16 1997-06-06 Nikon Corp Three-dimensional measuring equipment
JPH09145332A (en) * 1995-11-29 1997-06-06 Komatsu Ltd Detection data reader for object measuring apparatus
JPH11201717A (en) * 1998-01-09 1999-07-30 Canon Inc Object recognizing device
JP3673076B2 (en) * 1998-03-27 2005-07-20 株式会社ミツトヨ Focus adjustment device for imaging equipment
JP4844305B2 (en) * 2005-09-12 2011-12-28 日本ビクター株式会社 Imaging device
JP4197339B2 (en) * 2006-01-16 2008-12-17 アンリツ株式会社 3D shape measuring device
JP2009069063A (en) * 2007-09-14 2009-04-02 Nikon Corp Measurement method, shape measurement method, measuring device, and shape measuring apparatus

Also Published As

Publication number Publication date
JP2011047883A (en) 2011-03-10

Similar Documents

Publication Publication Date Title
JP5365419B2 (en) 3D shape sensor
JP4843750B2 (en) Imaging apparatus, method and program
CN104735347B (en) Autofocus adjustment method and apparatus
JP6210333B2 (en) Distance measuring device and distance measuring method
JP2008141666A (en) Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method
WO2015057098A1 (en) Motion compensation method and apparatus for depth images
JP2009168658A (en) Three-dimensional shape measuring device
US20230186501A1 (en) Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method
JP2009085705A (en) Apparatus and method for distance measurement and program
US9699381B2 (en) Digital photographing motion compensation system and method
JP2011013425A (en) Image pickup apparatus, zoom correction information creating method and program
JP6152772B2 (en) Imaging apparatus, semiconductor integrated circuit, and imaging method
JP4311668B2 (en) Imaging apparatus, imaging system, and image capturing method
JP6564284B2 (en) Image processing apparatus and image processing method
JP2012120152A (en) Imaging apparatus and control method of the same
JP5581968B2 (en) Imaging device
KR20120064477A (en) 3d camera capable of acquiring depth information, acquisition method of depth information and the recording medium thereof
JP2002359783A (en) Imaging device and pixel defect correction method
JP2016040902A (en) Imaging display device and control method therefor
JP5718029B2 (en) Imaging device
JP2022064968A (en) Imaging element, imaging device, method of operating imaging element, and program
JP2015216604A (en) Image processing system, method of the same, and program
CN110692235B (en) Image processing apparatus, image processing program, and image processing method
JP2015177258A (en) image input device
CN109115182B (en) Distance measuring device and distance measuring method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130826

R150 Certificate of patent or registration of utility model

Ref document number: 5365419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150