JP5365419B2 - 3D shape sensor - Google Patents
3D shape sensor Download PDFInfo
- Publication number
- JP5365419B2 JP5365419B2 JP2009198351A JP2009198351A JP5365419B2 JP 5365419 B2 JP5365419 B2 JP 5365419B2 JP 2009198351 A JP2009198351 A JP 2009198351A JP 2009198351 A JP2009198351 A JP 2009198351A JP 5365419 B2 JP5365419 B2 JP 5365419B2
- Authority
- JP
- Japan
- Prior art keywords
- focal length
- lens
- dimensional shape
- block
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Description
本発明は、奥行き標本化による3次元形状センサに関する。 The present invention relates to a three-dimensional shape sensor based on depth sampling.
3次元形状センサにおいて、立体画像を形成するための3次元形状情報を取得する方法としては、例えば、ステレオ方式、TOF(Time Of Flight)方式、奥行き標本化方式などがある。奥行き標本化方式は、画像の先鋭度などを測定することで、焦点距離から被写体の位置を測定する方法である。奥行き標本化方式は、焦点距離が可変なレンズ系、あるいはレンズ系そのものが被写体との間で移動が容易な顕微鏡などが用いられている。 As a method of acquiring three-dimensional shape information for forming a stereoscopic image in a three-dimensional shape sensor, for example, there are a stereo method, a TOF (Time Of Flight) method, a depth sampling method, and the like. The depth sampling method is a method of measuring the position of the subject from the focal length by measuring the sharpness of the image. The depth sampling method uses a lens system with a variable focal length or a microscope in which the lens system itself can easily move between the subject and the like.
このような光学系を備えたイメージセンサにおいてレンズの焦点距離がある値のとき、あるいは、顕微鏡においてある基準面からレンズの位置のズレがわかっているとき、3次元形状センサは、イメージセンサにより得られた画像を処理して、その先鋭度などを計算し、元の画像の2次元座標上に重み情報をマッピングする。マッピングの粗さは様々であるが、多くの場合、視野を有限のブロックに分割してそのブロック毎に重みを付加する。 In an image sensor equipped with such an optical system, when the focal length of the lens is a certain value, or when the positional deviation of the lens is known from a certain reference plane in the microscope, the three-dimensional shape sensor is obtained by the image sensor. The obtained image is processed, its sharpness is calculated, and the weight information is mapped onto the two-dimensional coordinates of the original image. The roughness of the mapping varies, but in many cases, the field of view is divided into finite blocks and a weight is added to each block.
3次元形状センサは、マッピングされた重み情報が大きい部分を、そのときの焦点距離ないしレンズ移動距離に対応する位置にある物体と判断する。この重み付けを同じ被写体、同じ視野において、様々な焦点距離ないしレンズ移動距離で繰り返し行うことで、被写体の3次元形状を把握する。 The three-dimensional shape sensor determines that the portion where the mapped weight information is large is an object at a position corresponding to the focal length or lens movement distance at that time. By repeatedly performing this weighting on the same subject and the same field of view at various focal lengths or lens movement distances, the three-dimensional shape of the subject is grasped.
焦点距離が可変なレンズとして液体レンズを備えた3次元形状センサがある。この液体レンズは、入力される電圧に対してリニア(線形)に焦点距離を変化させて、高速に応答する。 There is a three-dimensional shape sensor including a liquid lens as a lens having a variable focal length. This liquid lens responds at high speed by changing the focal length linearly with respect to the input voltage.
図10は液体レンズを搭載した従来の3次元形状センサを示す図である。図10において、3次元形状センサ200は、液体レンズ201、CCD(Charge Coupled Device;電荷結合素子)202、主制御部207、レンズ制御部206、CCD制御部205、信号処理部203、距離抽出部204を有している。
FIG. 10 shows a conventional three-dimensional shape sensor equipped with a liquid lens. In FIG. 10, a three-dimensional shape sensor 200 includes a liquid lens 201, a CCD (Charge Coupled Device) 202, a
次に、図10に示す3次元形状センサ200の動作を説明する。まず、3次元形状センサ200に対して3次元形状を測定するように指示が与えられると、主制御部207は、レンズ制御部206に対して液体レンズ201の焦点距離を所定の方法により変化させるように指示を与える。
Next, the operation of the three-dimensional shape sensor 200 shown in FIG. 10 will be described. First, when an instruction is given to the three-dimensional shape sensor 200 to measure a three-dimensional shape, the
レンズ制御部206は、主制御部207からの指示を受けて、図11(b)に示すように時間に対して所定の傾きを有するランプ波形からなるレンズ入力電圧を生成し、この電圧を液体レンズ201に出力する。
Upon receiving an instruction from the
一方、主制御部207は、CCD制御部205に対して、液体レンズ201の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CCD制御部205は、図11(a)に示すように撮影を実施するための駆動信号をCCD202に出力する。このとき、駆動信号の立ち上がりタイミングで撮影が行われるが、撮影のタイミングで焦点距離が図11(c)に示すように、F1,F2,F3と設定される。信号処理部203は、CCD202から画像を読み出す。
On the other hand, the
3次元形状センサ200は、コントラスト法により測定対象100の形状を測定する。信号処理部203は、得られた画像を有限のブロック数に分割する。次に、各々のブロック内でコントラスト値を決定する。計算した結果は距離抽出部204に出力される。
The three-dimensional shape sensor 200 measures the shape of the measurement object 100 by a contrast method. The
距離抽出部204は以下の処理を行う。図12は距離抽出部によるt番目のブロックに関して行われる処理を示す図である。
The
まず、距離抽出部204には主制御部207からn回の撮影画像毎の焦点距離情報が送られてくる。また、距離抽出部204には信号処理部203から各ブロック毎のコントラスト値が撮影画像毎に送られてくる。
First, the
距離抽出部204には、図12に示すように、例えば、t番目のブロックにおいて、1番目の焦点距離F1とコントラスト値C1の対230、2番目の焦点距離F2とコントラスト値C2の対231、k番目の焦点距離Fkとコントラスト値Ckの対232、n番目の焦点距離Fnとコントラスト値Cnの対233が順次作成される。
12, for example, in the t-th block, the
距離抽出部204は、各ブロック毎にこれらの対230〜233の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。
The
図12に示すように、例えばt番目のブロックではk番目のコントラストCkが最も大きくなると、そのときの焦点距離Fkがそのブロックに関する距離情報として採用される。 As shown in FIG. 12, for example, when the k-th contrast Ck becomes the largest in the t-th block, the focal length Fk at that time is adopted as distance information regarding the block.
このようにして得られた各ブロックのコントラストが最大になる焦点距離に基づき測定対象100とCCD202との距離が求められ、求められた距離に基づき測定対象100の形状も確定する。
The distance between the measurement object 100 and the
ところで、イメージセンサの読み出し時間が高速であるほど、距離測定完了に要する時間をより短縮できる。また、搭載されるイメージセンサの画素数が多いほど、多くのブロックを持つことができ、分解能が高くなる。 By the way, the faster the reading time of the image sensor, the shorter the time required to complete the distance measurement. Further, the larger the number of pixels of the mounted image sensor, the greater the number of blocks, and the higher the resolution.
従来、イメージセンサとしてCCDを用いていたが、CCDは、電荷を転送して読み出すため、画素数の増加に比例して読み出しに要する時間が増加する。一般的なCMOSイメージセンサは、CCDの電荷順次転送と異なり、画素を直接アドレスして出力するため、CCDよりも高速に読出しが可能である。従って、3次元形状をより精密に且つより高速に測定するためには、CMOSイメージセンサを用いるのがよい。 Conventionally, a CCD has been used as an image sensor. However, since a CCD transfers and reads charges, the time required for reading increases in proportion to the increase in the number of pixels. Unlike a CCD charge sequential transfer, a general CMOS image sensor can output pixels by directly addressing them, so that it can be read out faster than a CCD. Accordingly, in order to measure the three-dimensional shape more precisely and at higher speed, it is preferable to use a CMOS image sensor.
なお、従来の技術として、特許文献1には、奥行き標本化におけるサンプリングの間隔を立体視特性に合わせて可変とし、標本化数を減ずる奥行き標本化式立体画像形成装置が記載されている。特許文献2には、焦点距離が可変なレンズが記載されている。
As a conventional technique,
しかしながら、3次元形状センサにCMOSイメージセンサを用いると以下の問題が発生する。即ち、一般的なCMOSイメージセンサはCCDと異なるシャッタ方式を用いているからである。具体的にはCCDはグローバルシャッタと呼ばれる全画素で露光のタイミングが揃っているシャッタ方式である。 However, when a CMOS image sensor is used for the three-dimensional shape sensor, the following problems occur. That is, a general CMOS image sensor uses a shutter system different from that of a CCD. Specifically, the CCD is a shutter system called a global shutter, in which exposure timing is uniform for all pixels.
一方、一般的なCMOSイメージセンサはローリングシャッタと呼ばれるシャッタ方式で、これは画素ライン毎に露光のタイミングがずれているシャッタ方式である。このため、以下の問題が発生する。 On the other hand, a general CMOS image sensor is a shutter system called a rolling shutter, which is a shutter system in which the exposure timing is shifted for each pixel line. For this reason, the following problems occur.
図11に示すように、液体レンズ201にランプ波形が入力され、液体レンズ201の焦点距離が連続的に変化され、所定のタイミングでイメージセンサにパルスの駆動信号を送り撮影を行う場合、CCD202を用いた従来例では、撮影を行うように指示したタイミングで全画素のタイミングが揃っていた。従って、ある撮影タイミングで撮影した画像は、画面全体である単一の焦点距離の画像であった。
As shown in FIG. 11, when a ramp waveform is input to the liquid lens 201, the focal length of the liquid lens 201 is continuously changed, and a pulse drive signal is sent to the image sensor at a predetermined timing to perform imaging, the
しかしながら、CMOSイメージセンサを用いた場合、ライン毎に画像が順次読み出されるため、ライン毎に露光のタイミングがずれる。そして、画像の読出しが行われる間にも、連続したランプ波形が液体レンズ201に入力されるため、液体レンズ201の焦点距離がずれてしまい、画面のライン毎に異なった焦点距離の映像が得られてしまう。この結果、従来の3次元形状センサでは、正確な距離を測定できず、測定対象の正確な3次元形状が得られない。 However, when a CMOS image sensor is used, images are sequentially read out for each line, so that the exposure timing is shifted for each line. Since the continuous ramp waveform is input to the liquid lens 201 while the image is being read, the focal length of the liquid lens 201 is shifted, and an image with a different focal length is obtained for each line of the screen. It will be. As a result, the conventional three-dimensional shape sensor cannot measure an accurate distance, and an accurate three-dimensional shape to be measured cannot be obtained.
本発明の目的は、CMOSイメージセンサを用いて高速に高精細な3次元形状情報を得ることができる3次元形状センサを提供することにある。 An object of the present invention is to provide a three-dimensional shape sensor that can obtain high-definition three-dimensional shape information at high speed using a CMOS image sensor.
第1の発明は、焦点距離が可変されるレンズと、前記レンズを通して測定対象を撮影する、ローリングシャッタ方式を用いたCMOSイメージセンサと、前記CMOSイメージセンサで撮影された画像を1フレーム毎に読み出して読み出した画像を所定数のブロックに分割し各ブロックのコントラスト値を決定する信号処理部と、前記レンズの焦点距離をリニアに変化させるレンズ制御部と、前記レンズ制御部により変化された前記レンズの焦点距離と時間との対応関係を示すテーブルを記憶する記憶部と、前記CMOSイメージセンサの1フレーム毎の焦点距離情報に、前記記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と前記信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から前記測定対象までの距離を求める距離算出部とを備えることを特徴とする。 According to a first aspect of the present invention, a lens having a variable focal length , a CMOS image sensor using a rolling shutter system for photographing a measurement object through the lens, and an image photographed by the CMOS image sensor are read out for each frame. a signal processing unit for determining a contrast value of each block by dividing the read image into a predetermined number of blocks Te, a lens control unit for changing the focal length of the lens linearly, the lens is changed by the lens control unit A storage unit that stores a table indicating the correspondence between the focal length and time of the image , and a correction value for each block based on the table stored in the storage unit in the focal length information for each frame of the CMOS image sensor Based on the corrected focal length information and the contrast value of each block from the signal processing unit Characterized in that it comprises a distance calculation unit for determining the distance al to the measurement target.
第1の発明によれば、距離算出部は、CMOSイメージセンサの1フレーム毎の焦点距離情報に記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から測定対象までの距離を求めるので、CMOSイメージセンサを用いて高速に高精細な3次元形状情報を得ることができる。 According to the first invention, the distance calculation unit includes the corrected focal length information and the signal obtained by adding the correction value for each block based on the table stored in the storage unit to the focal length information for each frame of the CMOS image sensor. Since the distance from the photographing point to the measurement object is obtained based on the contrast value of each block from the processing unit, high-definition three-dimensional shape information can be obtained at high speed using a CMOS image sensor.
以下、本発明の3次元形状センサの実施の形態を図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the three-dimensional shape sensor of the present invention will be described in detail with reference to the drawings.
実施例1の3次元形状センサは、液体レンズの駆動方法を工夫し、ローリングシャッタ型のCMOSイメージセンサを用いても画面全体で焦点距離を所定値にしたことを特徴とする。 The three-dimensional shape sensor of Example 1 is characterized in that the liquid lens driving method is devised and the focal length is set to a predetermined value over the entire screen even when a rolling shutter type CMOS image sensor is used.
図1において、3次元形状センサ10は、焦点距離が可変される液体レンズ1、CMOSイメージセンサ2、CMOSイメージセンサ2の画像を1フレーム毎に読み出して所定の処理を行う信号処理部3、1フレーム毎に液体レンズ1の焦点距離をステップ状に変化させるとともに1フレーム期間中では焦点距離を所定値に保持するレンズ制御部6、信号処理部6で処理された画像とCMOSイメージセンサ2の焦点距離情報とに基づいて撮影地点から測定対象までの距離を求める距離抽出部(距離算出部という場合がある)4、主制御部7、及びCMOSイメージセンサ制御部5を有している。
In FIG. 1, a three-dimensional shape sensor 10 is a
即ち、実施例1の3次元形状センサ10は、図10に示す従来の3次元形状センサ200内のCCD202、CCD制御部205、レンズ制御部206に代えて、CMOSイメージセンサ2、CMOSイメージセンサ制御部5、レンズ制御部6を設けた点が異なる。
That is, the three-dimensional shape sensor 10 according to the first embodiment replaces the
実施例1の液体レンズ1、主制御部7、信号処理部3、距離抽出部4は、図10に示す従来の液体レンズ201、主制御部207、信号処理部203、距離抽出部204と同一構成である。
The
図2を用いて、実施例1のレンズ制御部6の機能を説明する。ここでは、t番目のブロックの距離を測定すると仮定し、t番目のブロックはCMOSイメージセンサ2のL行目にあるとする。図2において、Tは1フレーム(1画面)分の読出し時間であり、時刻t0は駆動信号の立ち上がりタイミングであり、時刻t1、t2、t3、t4は1フレーム画像のL行目の読出しタイミングである。時刻t1〜t2、時刻t2〜t3、時刻t3〜t4は、1フレーム分の読出し時間Tである。
従来のレンズ制御部206は、時間的に変化するランプ波形を生成していたため、液体レンズ201の焦点距離は、時間的に連続に変化し、L行目の読み出しタイミングでは1行目と異なった焦点距離になっていた。
The function of the
Since the conventional
これに対して、実施例1では、まず、3次元形状センサ10に対して3次元形状を測定するように指示が与えられると、主制御部7は、レンズ制御部6に対して液体レンズ1の焦点距離を所定の方法により変化させるように指示を与える。
In contrast, in the first embodiment, when an instruction is given to the three-dimensional shape sensor 10 to measure a three-dimensional shape, the main control unit 7 instructs the
一方、主制御部7は、CMOSイメージセンサ制御部5に対して、液体レンズ1の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CMOSイメージセンサ制御部5は、主制御部7からの撮影指示を受けて、CMOSイメージセンサ2に図2(a)に示す撮影を実施するための駆動信号を与える。
On the other hand, the main control unit 7 instructs the CMOS image
レンズ制御部6は、主制御部7からの指示を受けて、図2(a)に示す駆動信号に同期して、1フレーム分の読出し時間T毎にステップ状(階段状)に電圧が上昇するレンズ入力電圧を生成し、ステップ状の電圧を液体レンズ1に出力する。
In response to the instruction from the main control unit 7, the
液体レンズ1は、レンズ制御部6からのステップ状のレンズ入力電圧により、図2(c)に示すように、1フレーム分の読出し時間T毎にステップ状に焦点距離がF1、F2、F3と上昇する。信号処理部3は、CMOSイメージセンサ2から画像を1フレーム毎に読み出す。
As shown in FIG. 2 (c), the
CMOSイメージセンサ2の1フレーム分の全画素の読出しが終わる間、即ち、1フレームの期間中は、焦点距離が所定値に保持される。このため、L行目を含む全画素の読出しが終わる間、焦点距離は変化しないので、従来のCCDで撮影した場合と同等の映像を取得できる。
The focal length is held at a predetermined value while reading of all pixels for one frame of the
3次元形状センサ10は、コントラスト法により測定対象100の形状を測定する。信号処理部3は、図4の信号処理手順に示すように、得られた画像を有限のブロック数に分割する(S101)。例えば、得られた画像のブロック分割例210を図3に示す。図3では、得られた画像を1x8画素の単位で区切ってブロックに分割している。
The three-dimensional shape sensor 10 measures the shape of the measuring object 100 by a contrast method. As shown in the signal processing procedure of FIG. 4, the
次に、各々のブロック内でコントラスト値を決定する(S102)。このコントラスト値Cの計算方法は、例えば、
C=(lmax−lmin)/(lmax+lmin)
とする。ここで、lmaxはブロック内の輝度の最大値、lminはブロック内の輝度の最小値である。計算した結果は距離抽出部4に出力される(S103)。
Next, a contrast value is determined in each block (S102). The calculation method of the contrast value C is, for example,
C = (lmax−lmin) / (lmax + lmin)
And Here, lmax is the maximum luminance value in the block, and lmin is the minimum luminance value in the block. The calculated result is output to the distance extraction unit 4 (S103).
距離抽出部4には主制御部7からn回の撮影画像毎の焦点距離情報が送られてくる。また、距離抽出部4には信号処理部3から各ブロック毎のコントラスト値が撮影画像毎に送られてくる。
Focal length information for each of n captured images is sent from the main control unit 7 to the distance extraction unit 4. Further, the contrast value for each block is sent from the
距離抽出部4には、図12に示すように、例えば、t番目のブロックにおいて、1番目の焦点距離F1とコントラスト値C1の対230、2番目の焦点距離F2とコントラスト値C2の対231、k番目の焦点距離Fkとコントラスト値Ckの対232、n番目の焦点距離Fnとコントラスト値Cnの対233が順次作成される。
As shown in FIG. 12, for example, in the t-th block, the distance extraction unit 4 includes a first focal length F1 and contrast
距離抽出部4は、各ブロック毎にこれらの対230〜233の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。
The distance extraction unit 4 selects the pair having the maximum contrast value from these
図12に示すように、例えばt番目のブロックではk番目のコントラストCkが最も大きくなると、そのときの焦点距離Fkがそのブロックに関する距離情報として採用される。 As shown in FIG. 12, for example, when the k-th contrast Ck becomes the largest in the t-th block, the focal length Fk at that time is adopted as distance information regarding the block.
コントラスト値の最大値を選び出すアルゴリズムを図5に示す。図5において、Cpはコントラスト値を示し、Fpは焦点距離を示す。まず、Cp=0、Fp=0に設定する(S201)。なお、pは整数である。次に、CpがCp+1よりも大きいかどうかを判定し(S202)、CpがCp+1よりも大きい場合、Cp=Cp+1、Fp=Fp+1とする(S203)。即ち、比較した2つのコントラスト値のうち、大きい方のコントラスト値及びこれに対応する焦点距離を残す。次に、p+1がnになったかどうかを判定し(S204)、p+1がnになっていない場合には、pを1だけインクリメントして(S205)、S202の処理に戻り、同様な処理を繰り返す。p+1がnになった場合には、処理を終了する(S206)。 FIG. 5 shows an algorithm for selecting the maximum contrast value. In FIG. 5, Cp represents a contrast value, and Fp represents a focal length. First, Cp = 0 and Fp = 0 are set (S201). Note that p is an integer. Next, it is determined whether Cp is larger than Cp + 1 (S202). If Cp is larger than Cp + 1, Cp = Cp + 1 and Fp = Fp + 1 are set (S203). That is, the larger contrast value of the two compared contrast values and the focal length corresponding thereto are left. Next, it is determined whether or not p + 1 is n (S204). If p + 1 is not n, p is incremented by 1 (S205), the process returns to S202, and the same process is repeated. . If p + 1 becomes n, the process is terminated (S206).
このようにして得られた各ブロックのコントラストが最大になる焦点距離に基づき測定対象100とCMOSイメージセンサ2との距離が求められ、求められた距離に基づき測定対象100の形状も確定する。
The distance between the measurement object 100 and the
このように実施例1の3次元形状センサによれば、CMOSイメージセンサ2の1フレーム分の全画素の読出しが終わる間、即ち、1フレームの期間中は、焦点距離が所定値に保持される。このため、L行目を含む全画素の読出しが終わる間、焦点距離は変化しないので、従来のCCDで撮影した場合と同等の映像を取得できる。従って、画素間に同時性のないローリングシャッタ方式のCMOSイメージセンサ2を用いて高速に高精細な3次元形状情報を得ることができる。
As described above, according to the three-dimensional shape sensor of the first embodiment, the focal length is held at a predetermined value while reading of all pixels for one frame of the
実施例2では、画像信号のライン毎に焦点距離の情報、もしくは焦点距離を推定できる情報(たとえば露光タイミングの情報)を付加することにより、画像内で露光タイミングが揃っていなくても焦点距離を補正する。即ち、実施例2では、画像の焦点距離にライン毎の補正値を加え、信号処理を行う。 In the second embodiment, focal length information or information (for example, exposure timing information) that can estimate the focal length is added to each line of the image signal, so that the focal length can be set even if the exposure timing is not uniform in the image. to correct. That is, in the second embodiment, signal processing is performed by adding a correction value for each line to the focal length of the image.
図6は液体レンズを搭載した実施例2の3次元形状センサを示す図である。図6に示す実施例2の3次元形状センサ10aは、図1に示す実施例1の3次元形状センサ10に対して、レンズ制御部6a、主制御部7a、距離抽出部4aの構成が異なる。
FIG. 6 is a diagram showing a three-dimensional shape sensor of Example 2 equipped with a liquid lens. The three-dimensional shape sensor 10a of the second embodiment shown in FIG. 6 differs from the three-dimensional shape sensor 10 of the first embodiment shown in FIG. 1 in the configuration of the lens control unit 6a, the
レンズ制御部6aは、液体レンズ1の焦点距離をリニアに変化させる。具体的には、レンズ制御部6aは、主制御部7からの指示を受けて、図8(b)に示すように時間に対して所定の傾きを有するランプ波形からなるレンズ入力電圧を生成し、レンズ入力電圧を液体レンズ1に出力する。
The lens control unit 6a linearly changes the focal length of the
主制御部7aは、CMOSイメージセンサ制御部5に対して、液体レンズ1の焦点距離が変化している間に所定回数の撮影を行うよう指示を与える。例えばn回の撮影が行なわれる場合、CMOSイメージセンサ制御部5は、図8(a)に示すように撮影を実施するための駆動信号をCMOSイメージセンサ2に出力する。
The
また、主制御部7aは、図7に示す焦点距離と時間との対応関係を示すテーブルが格納されたメモリ71を有している。図7に示す時間Δt1,Δt2‥Δtnは、図8に示す1フレームの読出し開始時刻t0からt番目のブロックに対応するL行目までの時間であり、時間Δt1,Δt2‥Δtnに対応する焦点距離は、ΔF1,ΔF2‥ΔFnである。
Further, the
主制御部7aは、メモリ71に格納されたテーブルを用いて、焦点距離情報をライン毎(ブロック毎に)に距離抽出部4aに出力する。即ち、主制御部7aは、CMOSイメージセンサ2の1フレーム毎の焦点距離情報(図8(c)に示すF1,F2,F3‥)に、メモリ71に格納されたテーブルを参照して各ブロック毎の補正値ΔF1,ΔF2‥ΔFn(図8(c)に示すΔF)を加えた補正焦点距離情報を距離抽出部4aに出力する。
Using the table stored in the
例えばt番目のブロックがL行目に存在している場合、液体レンズ1の焦点距離は、図8(c)に示すように、1行目(時刻t0)のときにF1であるが、L行目(時刻t1)ではランプ波形からなるレンズ入力電圧が1行目のときよりも大きくなり、F1よりΔFだけずれて(F1+ΔF)となる。
For example, when the t-th block is present in the Lth row, the focal length of the
距離抽出部4aは、主制御部7aからの補正焦点距離情報をt番目のブロックの距離情報に用いる。具体的には、距離抽出部4aは、主制御部7aからの補正焦点距離情報と信号処理部3からのコントラスト値との対を作成するとき、図9に示すように、例えば、t番目のブロックにおいて、1番目の補正焦点距離F1+ΔFとコントラスト値C1の対30、2番目の補正焦点距離F2+ΔFとコントラスト値C2の対31、k番目の補正焦点距離Fk+ΔFとコントラスト値Ckの対32、n番目の補正焦点距離Fn+ΔFとコントラスト値Cnの対33を順次作成する。
The
距離抽出部4aは、各ブロック毎にこれらの対30〜33の中からコントラスト値が最大になる対を選び、その焦点距離を撮影地点から測定対象までの距離として採用する。
The
このように実施例2の3次元形状センサによれば、焦点距離情報に各ブロック毎の補正値を加えた補正焦点距離情報を用いることにより、高速に高精細な3次元形状情報を得ることができる。 As described above, according to the three-dimensional shape sensor of the second embodiment, high-definition three-dimensional shape information can be obtained at high speed by using the corrected focal length information obtained by adding the correction value for each block to the focal length information. it can.
なお、本発明は上述した実施例1,2の3次元形状センサに限定されるものではない。実施例2では、焦点距離情報として、各ブロック毎の補正値をテーブルに格納したが、テーブルを用いることなく、各ブロック毎に補正値を計算によって求めることにより用いても良い。 In addition, this invention is not limited to the three-dimensional shape sensor of Example 1, 2 mentioned above. In the second embodiment, the correction value for each block is stored in the table as the focal length information. However, the correction value may be obtained by calculation for each block without using the table.
本発明は、3次元形状センサを用いた立体画像形成装置に適用可能である。 The present invention can be applied to a stereoscopic image forming apparatus using a three-dimensional shape sensor.
1,201 液体レンズ
2 CMOSイメージセンサ
3,203 信号処理部
4,4a,204 距離抽出部
5 CMOSイメージセンサ制御部
6,6a,206 レンズ制御部
7,7a,207 主制御部
10,10a,200 3次元形状センサ
71 メモリ
100 測定対象
202 CCD
205 CCD制御部
DESCRIPTION OF SYMBOLS 1,201
205 CCD controller
Claims (2)
前記レンズを通して測定対象を撮影する、ローリングシャッタ方式を用いたCMOSイメージセンサと、
前記CMOSイメージセンサで撮影された画像を1フレーム毎に読み出して読み出した画像を所定数のブロックに分割し各ブロックのコントラスト値を決定する信号処理部と、
前記レンズの焦点距離をリニアに変化させるレンズ制御部と、
前記レンズ制御部により変化された前記レンズの焦点距離と時間との対応関係を示すテーブルを記憶する記憶部と、
前記CMOSイメージセンサの1フレーム毎の焦点距離情報に、前記記憶部に記憶されたテーブルに基づいた各ブロック毎の補正値を加えた補正焦点距離情報と前記信号処理部からの各ブロックのコントラスト値とに基づいて撮影地点から前記測定対象までの距離を求める距離算出部と、
を備えることを特徴とする3次元形状センサ。 A lens with variable focal length;
A CMOS image sensor using a rolling shutter system for photographing a measurement object through the lens;
A signal processing unit that reads an image captured by the CMOS image sensor for each frame , divides the read image into a predetermined number of blocks, and determines a contrast value of each block ;
A lens controller that linearly changes the focal length of the lens;
A storage unit for storing a table indicating a correspondence relationship between the focal length of the lens and time changed by the lens control unit;
Corrected focal length information obtained by adding correction values for each block based on the table stored in the storage unit to the focal length information for each frame of the CMOS image sensor, and the contrast value of each block from the signal processing unit A distance calculation unit for obtaining a distance from the shooting point to the measurement object based on
A three-dimensional shape sensor comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198351A JP5365419B2 (en) | 2009-08-28 | 2009-08-28 | 3D shape sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198351A JP5365419B2 (en) | 2009-08-28 | 2009-08-28 | 3D shape sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011047883A JP2011047883A (en) | 2011-03-10 |
JP5365419B2 true JP5365419B2 (en) | 2013-12-11 |
Family
ID=43834350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009198351A Active JP5365419B2 (en) | 2009-08-28 | 2009-08-28 | 3D shape sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5365419B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5668227B2 (en) * | 2011-02-17 | 2015-02-12 | 株式会社ミツトヨ | Image measuring device |
CN105103668B (en) * | 2013-03-29 | 2018-09-18 | 富士机械制造株式会社 | Production equipment |
US9143674B2 (en) * | 2013-06-13 | 2015-09-22 | Mitutoyo Corporation | Machine vision inspection system and method for performing high-speed focus height measurement operations |
KR101727073B1 (en) * | 2015-07-24 | 2017-04-17 | 한국기초과학지원연구원 | System and method for determining height difference of fine pattern by using liquid lens |
US10097777B2 (en) * | 2016-06-03 | 2018-10-09 | Recognition Robotics, Inc. | Depth map from multi-focal plane images |
US10944899B2 (en) | 2017-03-15 | 2021-03-09 | Sony Corporation | Image processing device and image processing method |
JP7052772B2 (en) * | 2019-04-26 | 2022-04-12 | オムロン株式会社 | Image sensor |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4584704A (en) * | 1984-03-01 | 1986-04-22 | Bran Ferren | Spatial imaging system |
JPH07280518A (en) * | 1994-04-14 | 1995-10-27 | Nippon Telegr & Teleph Corp <Ntt> | Object measurement device |
JPH09145318A (en) * | 1995-11-16 | 1997-06-06 | Nikon Corp | Three-dimensional measuring equipment |
JPH09145332A (en) * | 1995-11-29 | 1997-06-06 | Komatsu Ltd | Detection data reader for object measuring apparatus |
JPH11201717A (en) * | 1998-01-09 | 1999-07-30 | Canon Inc | Object recognizing device |
JP3673076B2 (en) * | 1998-03-27 | 2005-07-20 | 株式会社ミツトヨ | Focus adjustment device for imaging equipment |
JP4844305B2 (en) * | 2005-09-12 | 2011-12-28 | 日本ビクター株式会社 | Imaging device |
JP4197339B2 (en) * | 2006-01-16 | 2008-12-17 | アンリツ株式会社 | 3D shape measuring device |
JP2009069063A (en) * | 2007-09-14 | 2009-04-02 | Nikon Corp | Measurement method, shape measurement method, measuring device, and shape measuring apparatus |
-
2009
- 2009-08-28 JP JP2009198351A patent/JP5365419B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011047883A (en) | 2011-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5365419B2 (en) | 3D shape sensor | |
JP4843750B2 (en) | Imaging apparatus, method and program | |
CN104735347B (en) | Autofocus adjustment method and apparatus | |
JP6210333B2 (en) | Distance measuring device and distance measuring method | |
JP2008141666A (en) | Stereoscopic image creating device, stereoscopic image output device, and stereoscopic image creating method | |
WO2015057098A1 (en) | Motion compensation method and apparatus for depth images | |
JP2009168658A (en) | Three-dimensional shape measuring device | |
US20230186501A1 (en) | Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method | |
JP2009085705A (en) | Apparatus and method for distance measurement and program | |
US9699381B2 (en) | Digital photographing motion compensation system and method | |
JP2011013425A (en) | Image pickup apparatus, zoom correction information creating method and program | |
JP6152772B2 (en) | Imaging apparatus, semiconductor integrated circuit, and imaging method | |
JP4311668B2 (en) | Imaging apparatus, imaging system, and image capturing method | |
JP6564284B2 (en) | Image processing apparatus and image processing method | |
JP2012120152A (en) | Imaging apparatus and control method of the same | |
JP5581968B2 (en) | Imaging device | |
KR20120064477A (en) | 3d camera capable of acquiring depth information, acquisition method of depth information and the recording medium thereof | |
JP2002359783A (en) | Imaging device and pixel defect correction method | |
JP2016040902A (en) | Imaging display device and control method therefor | |
JP5718029B2 (en) | Imaging device | |
JP2022064968A (en) | Imaging element, imaging device, method of operating imaging element, and program | |
JP2015216604A (en) | Image processing system, method of the same, and program | |
CN110692235B (en) | Image processing apparatus, image processing program, and image processing method | |
JP2015177258A (en) | image input device | |
CN109115182B (en) | Distance measuring device and distance measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111012 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120329 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5365419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |