JP2014016309A - Distance measuring device and distance measuring method - Google Patents

Distance measuring device and distance measuring method Download PDF

Info

Publication number
JP2014016309A
JP2014016309A JP2012155595A JP2012155595A JP2014016309A JP 2014016309 A JP2014016309 A JP 2014016309A JP 2012155595 A JP2012155595 A JP 2012155595A JP 2012155595 A JP2012155595 A JP 2012155595A JP 2014016309 A JP2014016309 A JP 2014016309A
Authority
JP
Japan
Prior art keywords
distance
distance measuring
focal length
measuring device
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012155595A
Other languages
Japanese (ja)
Other versions
JP6079017B2 (en
Inventor
Yuji Yamanaka
祐治 山中
Kensuke Masuda
憲介 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012155595A priority Critical patent/JP6079017B2/en
Publication of JP2014016309A publication Critical patent/JP2014016309A/en
Application granted granted Critical
Publication of JP6079017B2 publication Critical patent/JP6079017B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve a distance measuring device capable of performing appropriate distance estimation despite of subject distances largely different depending on the cases.SOLUTION: A distance measuring device comprises: an imaging lens 1 that allows incident of object light from a subject; a lens array 2 on which the object light transmitted through the imaging lens 1 is made incident; an imaging element 5 that receives the light passed through the lens array 2, and outputs image information; and an arithmetic device 6 that performs estimation of a distance to the subject. The lens array 2 is formed by two-dimensionally arraying microlenses 3 variable in focal distance; the imaging element 5 has a plurality of light-receiving elements corresponding to each of the microlenses 3; and the arithmetic device 6 performs distance estimation on the basis of the image information.

Description

この発明は、距離測定装置および距離測定方法に関する。   The present invention relates to a distance measuring device and a distance measuring method.

通常のカメラ光学系にレンズアレイを組込んだ「プレノプティックカメラ」で取得したライトフィールド情報から被写体距離を推定することが知られている。
即ち、特許文献1、非特許文献1には「プレノプティックカメラの構成により被写体距離を測定する装置」が開示されている。
このような距離測定装置は、工業用ロボットの「ワークの距離の測定」などに利用される。
It is known to estimate a subject distance from light field information acquired by a “plenoptic camera” in which a lens array is incorporated in a normal camera optical system.
That is, Patent Document 1 and Non-Patent Document 1 disclose “apparatus for measuring a subject distance by the configuration of a plenoptic camera”.
Such a distance measuring device is used for “measurement of workpiece distance” of an industrial robot.

これ等の文献に記載の装置は、レンズアレイを構成するマイクロレンズが固定焦点距離であるため「好適な結果が得られる被写体距離の範囲」が十分に広いとは言いがたい。   The devices described in these documents cannot be said to have a sufficiently wide “range of subject distance for obtaining a favorable result” because the microlenses constituting the lens array have a fixed focal length.

非特許文献2には、レンズアレイを「焦点距離の異なるマイクロレンズ」で構成することにより、測定可能な被写体距離の範囲を拡大することが記載されている。   Non-Patent Document 2 describes that a range of measurable subject distances is expanded by configuring a lens array with “microlenses having different focal lengths”.

しかし、この場合も、レンズアレイを構成する個々のマイクロレンズの焦点距離は固定されているため、被写体距離の「測定範囲の拡大」には限度がある。   However, in this case as well, since the focal lengths of the individual microlenses constituting the lens array are fixed, there is a limit to “expansion of the measurement range” of the subject distance.

この発明は、被写体距離が大きく異なる場合でも、好適な距離推定を行い得る距離測定装置および距離測定方法の実現を課題とする。   An object of the present invention is to realize a distance measuring device and a distance measuring method capable of performing a preferable distance estimation even when subject distances are greatly different.

この発明の距離測定装置は、被写体からの物体光を入射させる撮像レンズと、この撮像レンズを透過した物体光が入射するレンズアレイと、このレンズアレイを通過した光を受光して、画像情報を出力する撮像素子と、被写体までの距離推定を行なう演算装置と、を有し、レンズアレイは、焦点距離を可変できるマイクロレンズを2次元配列してなり、撮像素子は、マイクロレンズの個々に対応して複数の受光素子を有し、演算装置は、画像情報に基づき距離推定を行なうものであることを特徴とする。   The distance measuring device according to the present invention receives an image pickup lens for entering object light from a subject, a lens array for entering object light transmitted through the image pickup lens, and light passing through the lens array to obtain image information. It has an image sensor that outputs and an arithmetic unit that estimates the distance to the subject. The lens array is a two-dimensional array of microlenses that can vary the focal length, and each image sensor corresponds to each microlens. The arithmetic unit has a plurality of light receiving elements, and performs the distance estimation based on the image information.

この発明の距離測定方法は、上記距離測定装置を用いる距離測定方法であって、各マイクロレンズに対応する複数の受光素子の出力によりマクロピクセルを得、このマクロピクセルとその周囲のマクロピクセルとにより構成されるマクロピクセル群から、シフト量算出用の2次元画像を複数個抽出作成する工程と、抽出作成された複数の2次元画像のシフト量を、パターンマッチングにより算出する工程と、マイクロレンズの焦点距離に応じて、予め定められたシフト量と撮像距離の関係に基づいて、撮像距離を推定することを特徴とする。   The distance measuring method of the present invention is a distance measuring method using the distance measuring device, wherein a macro pixel is obtained from outputs of a plurality of light receiving elements corresponding to each micro lens, and the macro pixel and surrounding macro pixels are used. A step of extracting and creating a plurality of two-dimensional images for calculating the shift amount from the configured macropixel group, a step of calculating shift amounts of the plurality of two-dimensional images extracted and created by pattern matching, According to the focal length, the imaging distance is estimated based on a predetermined relationship between the shift amount and the imaging distance.

この発明の距離測定装置・距離測定方法では、上記の如く、レンズアレイにおけるマイクロレンズの焦点距離を調整できる。
従って、被写体距離が大きく異なる場合でも「被写体距離に適した焦点距離」を設定することにより好適な距離推定が可能である。
In the distance measuring apparatus / distance measuring method of the present invention, the focal length of the microlens in the lens array can be adjusted as described above.
Therefore, even when the subject distance is greatly different, it is possible to estimate a suitable distance by setting the “focal length suitable for the subject distance”.

距離測定装置の実施の1形態を説明するための図である。It is a figure for demonstrating one Embodiment of a distance measuring device. マクロピクセル群から2次元画像の抽出・形成を説明するための図である。It is a figure for demonstrating extraction and formation of a two-dimensional image from a macro pixel group. シフト量を有する2つの2次元画像を説明するための図である。It is a figure for demonstrating two two-dimensional images which have a shift amount. シフト量と被写体距離の関係を2例示す図である。It is a figure which shows two examples of the relationship between the amount of shifts, and object distance. 距離測定の工程を説明するための図である。It is a figure for demonstrating the process of distance measurement. 距離測定装置の実施の別形態を説明するための図である。It is a figure for demonstrating another form of implementation of a distance measuring device. マクロピクセル群から2次元画像の抽出・形成を説明するための図である。It is a figure for demonstrating extraction and formation of a two-dimensional image from a macro pixel group. 別の距離測定の工程を説明するための図である。It is a figure for demonstrating the process of another distance measurement. 演算装置の構成の1例を示すブロック図である。It is a block diagram which shows one example of a structure of an arithmetic unit.

以下、実施の形態を説明する。
図1は、距離測定装置の構成を示している。
Hereinafter, embodiments will be described.
FIG. 1 shows the configuration of the distance measuring device.

図1において、符号1は「撮像レンズ」、符号2は「レンズアレイ」、符号3は「マイクロレンズ」、符号5は「撮像素子」、符号6は「演算装置」を示す。
図のような構成により「プレノプティックカメラ」を構築できる。
In FIG. 1, reference numeral 1 denotes an “imaging lens”, reference numeral 2 denotes a “lens array”, reference numeral 3 denotes a “microlens”, reference numeral 5 denotes an “imaging device”, and reference numeral 6 denotes an “arithmetic device”.
A “plenoptic camera” can be constructed with the configuration shown in the figure.

距離測定の対象となる被写体(図示されず)は、図1において撮像レンズ1の左方にある。被写体からの物体光は、撮像レンズ1に入射する。
撮像レンズ1を透過した物体光はレンズアレイ2に入射し、これを通過した光は、撮像素子5に入射する。
レンズアレイ2は、撮像レンズ1に対して所定の位置、例えば、撮像レンズ1の像側焦点面位置に合致して配置される。
この場合、撮像レンズ1に対して「無限遠物体の像」がレンズアレイ2の位置に結像することになる。
A subject (not shown) for distance measurement is on the left side of the imaging lens 1 in FIG. Object light from the subject enters the imaging lens 1.
Object light that has passed through the imaging lens 1 enters the lens array 2, and light that has passed through the lens array 2 enters the imaging device 5.
The lens array 2 is arranged in a predetermined position with respect to the imaging lens 1, for example, in accordance with the image side focal plane position of the imaging lens 1.
In this case, an “image of an object at infinity” is formed on the imaging lens 1 at the position of the lens array 2.

撮像素子5は、入射する光に応じて「画像情報」を出力する。
演算装置6は、撮像素子5が出力する画像情報を得て、被写体の距離推定を行なう。
The image sensor 5 outputs “image information” according to the incident light.
The arithmetic device 6 obtains image information output from the image sensor 5 and estimates the distance of the subject.

演算装置6は、演算部としてCPU等のマイクロコンピュータを有し、各種の演算や制御を行なう。   The arithmetic device 6 has a microcomputer such as a CPU as an arithmetic unit, and performs various arithmetic operations and controls.

レンズアレイ2を構成するマイクロレンズ3は焦点距離を変化させることができる。
焦点距離を変化させ得るレンズは、従来から種々のものが知られている。
図1のレンズアレイ2に用いられるマイクロレンズ3は「印加電圧を変化させて焦点距離を変化させるエレクトロウェッティングレンズ」である。
The microlens 3 constituting the lens array 2 can change the focal length.
Conventionally, various lenses that can change the focal length are known.
The microlens 3 used in the lens array 2 in FIG. 1 is an “electrowetting lens that changes the focal length by changing the applied voltage”.

エレクトロウェティングレンズは、これに印加する印加電圧を変化させることにより、レンズ面の曲率半径を変化させることができ、これにより焦点距離を変化させる。   The electrowetting lens can change the radius of curvature of the lens surface by changing the applied voltage applied thereto, thereby changing the focal length.

図1(a)は、マイクロレンズ3の焦点距離が大きい場合であり、図1(b)はマイクロレンズ3の曲率半径を小さくして「小さい焦点距離」を実現した場合を示している。   FIG. 1A shows a case where the focal length of the microlens 3 is large, and FIG. 1B shows a case where a “small focal length” is realized by reducing the radius of curvature of the microlens 3.

個々のマイクロレンズ3と撮像素子5との間は「遮光壁」で互いに遮断され、1個のマイクロレンズ3を通過した光は、符号4で示す受光領域に入射する。   The individual microlenses 3 and the image pickup device 5 are shielded from each other by a “light-shielding wall”, and the light passing through one microlens 3 is incident on a light receiving region indicated by reference numeral 4.

個々のマイクロレンズ3に対応する受光領域4は、複数の受光素子を有している。
以下、撮像素子5から出力される画像情報を「ライトフィールド画像」と呼ぶ。
勿論、ライトフィールド画像は、実際の可視的な画像ではなく、撮像素子5の各受光素子から出力される「配列された電気信号の集合」である。
The light receiving region 4 corresponding to each microlens 3 has a plurality of light receiving elements.
Hereinafter, the image information output from the image sensor 5 is referred to as a “light field image”.
Of course, the light field image is not an actual visible image, but a “collected electric signal set” output from each light receiving element of the imaging element 5.

混同の恐れはないと思われるので、以下、撮像素子5における各受光素子を「画素」と称することにする。
なお、「画素」は、受光素子から出力される「電気信号」を意味する場合もある。
Since there is no fear of confusion, each light receiving element in the image sensor 5 will be referred to as a “pixel” hereinafter.
The “pixel” may mean an “electric signal” output from the light receiving element.

以下、ライトフィールド画像に基づいて被写体距離の推定を行なうプロセスを、簡略化したモデルを用いて説明する。   Hereinafter, the process of estimating the subject distance based on the light field image will be described using a simplified model.

説明の簡単のために、1個のマイクロレンズ3に対する受光領域4に、4個の画素が割り当てられ、縦横に「2×2画素」で正方形配列しているものとする。   For the sake of simplicity, it is assumed that four pixels are allocated to the light receiving region 4 for one microlens 3 and are squarely arranged with “2 × 2 pixels” vertically and horizontally.

このとき、1つの受光領域4を構成する「2×2画素」の個々の電気信号の「2×2配列」をマクロピクセルと呼ぶ。
混同の恐れは無いと思われるので、受光領域4を構成するマクロピクセルを「マクロピクセル4」と呼ぶことにする。
At this time, a “2 × 2 array” of individual electric signals of “2 × 2 pixels” constituting one light receiving region 4 is called a macro pixel.
Since there is no possibility of confusion, the macro pixel constituting the light receiving region 4 is referred to as “macro pixel 4”.

マクロピクセル4は、マイクロレンズ3と同数個存在している。
次には、マクロピクセル4の集合から「マクロピクセル群」を求め、マクロピクセル群から「シフト量算出用の2次元画像」を複数個抽出作成する。
There are the same number of macropixels 4 as there are microlenses 3.
Next, a “macro pixel group” is obtained from the set of macro pixels 4, and a plurality of “two-dimensional images for shift amount calculation” are extracted and created from the macro pixel group.

図2の左図は「マイクロピクセル群」を説明図的に示している。
マクロピクセル群MPGは、9個のマクロピクセルを「3×3配列」に正方形配列して構成される。図の太線で囲まれた「2×2画素」の部分がマクロピクセルである。
The left diagram of FIG. 2 illustrates the “micropixel group” in an explanatory manner.
The macro pixel group MPG is configured by arranging nine macro pixels in a square array of “3 × 3 array”. A portion of “2 × 2 pixels” surrounded by a thick line in the figure is a macro pixel.

この図のマクロピクセル群MPGは、特定のマクロピクセルを中央にして、これを8個のマクロピクセルで囲繞して構成されている。   The macro pixel group MPG in this figure is configured by setting a specific macro pixel at the center and surrounding it with eight macro pixels.

次に、マクロピクセル群MPGから「シフト量算出用の2次元画像」を複数個抽出作成する。この2次元画像は「各画素の電気信号の配列を再配列」して得られる。
図2の右図は、再配列の例を示している。
即ち、2次元画像40Aは、マクロピクセル群MPGを構成する9個のマイクロピクセルの「左上の画素」を、マイクロピクセルの配列に従って「再配列」して得られる。
Next, a plurality of “two-dimensional images for shift amount calculation” are extracted and created from the macro pixel group MPG. This two-dimensional image is obtained by “rearranging the arrangement of electric signals of each pixel”.
The right diagram in FIG. 2 shows an example of rearrangement.
That is, the two-dimensional image 40A is obtained by “rearranging” the “upper left pixel” of the nine micropixels constituting the macropixel group MPG according to the arrangement of the micropixels.

図2上図における9本の矢印は「再配列における画素の配列規則」を表している。   The nine arrows in the upper diagram of FIG. 2 represent “pixel arrangement rules in rearrangement”.

この場合は、各マクロピクセルの左上の受光素子の電気信号を再配列している。
同様に、2次元画像40Bは、マクロピクセル群MPGを構成する9個のマイクロピクセルの「右上の画素」を、マイクロピクセルの配列に従って「再配列」して得られる。
In this case, the electrical signals of the light receiving elements at the upper left of each macro pixel are rearranged.
Similarly, the two-dimensional image 40B is obtained by “rearranging” the “upper right pixel” of the nine micropixels constituting the macropixel group MPG according to the arrangement of the micropixels.

図2下図における9本の矢印は「再配列における画素の配列規則」を表している。   The nine arrows in the lower diagram of FIG. 2 represent “pixel arrangement rules in rearrangement”.

このような2次元画像を、複数個作成する。
例えば、図2に示す2次元画像40A、40Bを得る。
A plurality of such two-dimensional images are created.
For example, two-dimensional images 40A and 40B shown in FIG. 2 are obtained.

図3は、上記再配列により得られた「2つの2次元画像」を説明図的に示している。   FIG. 3 illustrates “two two-dimensional images” obtained by the above rearrangement.

これ等の2次元画像では「人物」が前景に、「木」が背景にあるが、前景の人物に対しては「視度」が大きく、背景の木に対する視度は小さい。   In these two-dimensional images, “person” is in the foreground and “tree” is in the background, but the “diopter” is large for the foreground person and the diopter for the background tree is small.

従って、上記の如き再配列の際に、視度の大きい人物は「大きく」ずれ、視度の小さい木は「小さく」ずれることが、図3から見て取れる。   Therefore, it can be seen from FIG. 3 that a person with a high diopter shifts “large” and a tree with a low diopter shifts “small” during rearrangement as described above.

若干補足すると、上に説明した例では、2次元画像を構成する画素の数は9画素で「3×3配列」である。
マクロピクセルがより多い画素(例えば10×10画素)からなる場合は、マクロピクセルから1画素ずつ抜き出して再配列してもよい。
あるいはまた、複数画素(例えば2×2画素)の「総和あるいは平均値」を算出して再配列してもよい。
「総和あるいは平均値を再配列」すると、信号に対するノイズの比(SN比)を大きくできる。
図2では、簡単のために、マクロピクセル群の数が9個と非常に少なく、再構成した2次元画像40A、40Bの画素数も9画素である。
To supplement a little, in the example described above, the number of pixels constituting the two-dimensional image is 9 pixels, which is a “3 × 3 array”.
When the macro pixel is composed of more pixels (for example, 10 × 10 pixels), the macro pixel may be extracted and rearranged one by one from the macro pixel.
Alternatively, a “total or average value” of a plurality of pixels (for example, 2 × 2 pixels) may be calculated and rearranged.
By “rearranging the sum or average value”, the ratio of noise to signal (SN ratio) can be increased.
In FIG. 2, for the sake of simplicity, the number of macro pixel groups is as very small as nine, and the number of pixels of the reconstructed two-dimensional images 40A and 40B is nine.

これは説明の簡単のためであり、実際には、レンズアレイを構成するマイクロレンズの数を多くすることで、画像として意味のあるものとする。   This is for simplicity of explanation, and in fact, it is meaningful as an image by increasing the number of microlenses constituting the lens array.

次に「再配列により作成した複数の2次元画像から被写体距離を推定する方法」について説明する。
「被写体距離推定」は、マクロピクセルの異なる位置から再配列して作成した複数の2次元画像間のシフト量に基づき算出する。
Next, “a method for estimating a subject distance from a plurality of two-dimensional images created by rearrangement” will be described.
“Subject distance estimation” is calculated based on shift amounts between a plurality of two-dimensional images created by rearranging from different positions of macro pixels.

図3に示した2つの2次元画像は、上に説明したように、図2のマクロピクセル群MPGを構成する9個のマクロピクセルから再構成した2つの2次元画像である。
この場合のシフトの方向は横方向であり、図2の、各マクロピクセルの「左上の画素の再配列」と「右上の画素の再配列」による2次元画像である。
As described above, the two two-dimensional images shown in FIG. 3 are two two-dimensional images reconstructed from the nine macro pixels constituting the macro pixel group MPG of FIG.
The shift direction in this case is the horizontal direction, which is a two-dimensional image according to “rearrangement of upper left pixels” and “rearrangement of upper right pixels” of each macro pixel in FIG.

なお「左上画素の再配列と左下画素の再配列」の場合であれば、縦方向にシフトがあり、左上画素の再配列と右下画素の再配列の場合であれば「斜め方向にシフト」がある。
これら2次元画像間のシフト量を、ブロックマッチング等のパターンマッチングにより求めて「シフト量に対応する画素数」を求め。これを距離に換算する。
In the case of “rearrangement of upper left pixel and rearrangement of lower left pixel”, there is a shift in the vertical direction, and in the case of rearrangement of upper left pixel and rearrangement of the lower right pixel, “shift diagonally”. There is.
The shift amount between these two-dimensional images is obtained by pattern matching such as block matching to obtain the “number of pixels corresponding to the shift amount”. This is converted into distance.

図3に示す2次元画像の説明では、上記の如く、説明を簡単化するためにマクロピクセルの画素数を極端に単純化し「2×2画素」とした。
このため、図4に示す2次元画像は、上の説明に従えば、9画素ということになるが、勿論実際には「ずっと多い画素数」で構成されることになる。
In the description of the two-dimensional image shown in FIG. 3, as described above, the number of macro pixels is extremely simplified to “2 × 2 pixels” in order to simplify the description.
Therefore, the two-dimensional image shown in FIG. 4 is 9 pixels according to the above description, but of course, it is actually composed of “a much larger number of pixels”.

パターンマッチングの方法(アルゴリズム)は、従来から種々のものが知られており、シフト量を求めるのに、これ等公知の方法を適宜利用することができる。
1例として「テンプレートマッチング」による画像処理の場合を簡単に説明する。
Various pattern matching methods (algorithms) have been conventionally known, and these known methods can be appropriately used to obtain the shift amount.
As an example, the case of image processing by “template matching” will be briefly described.

この説明においては、図3に示す2次元画像の画素数を、例えば、500×500画素程度であるとする。   In this description, it is assumed that the number of pixels of the two-dimensional image shown in FIG. 3 is about 500 × 500 pixels, for example.

図3の、2枚の2次元画像をもとに、例えば「被写体としての人物」に対する被写体距離を距離推定する場合であれば、人物部分のシフト量を求めることになる。   For example, in the case of estimating the subject distance with respect to “a person as a subject” based on the two two-dimensional images in FIG. 3, the shift amount of the person portion is obtained.

この場合は、例えば、図4の左図の2次元画像の、人物の顔の部分に「N×M画素のテンプレート」を設定する。図4の右図の2次元画像は「対象画像」とする。   In this case, for example, an “N × M pixel template” is set in the face portion of the person in the two-dimensional image in the left diagram of FIG. The two-dimensional image in the right diagram of FIG. 4 is a “target image”.

このとき、テンプレートの位置:(i,j)における画素値(電気信号の値)を「T(i,j)」とし、テンプレートと重ね合わせた対象画像の画素値を「I(i,j)」とする。   At this time, the pixel value (electric signal value) at the template position (i, j) is “T (i, j)”, and the pixel value of the target image superimposed on the template is “I (i, j)”. "

このとき、これら「T(i,j)およびI(i,j)」を用いて、以下の2式の何れかを計算する。この計算を、演算装置6が行なうことは言うまでも無い。   At this time, either “T (i, j) and I (i, j)” is used to calculate either of the following two expressions. Needless to say, the calculation device 6 performs this calculation.

SSD=ΣΣ{I(i,j)―T(i,j)} (式1)
SAD=ΣΣ|I(i,j)―T(i,j)| (式2)
これ等の式における「2重和」は、何れも「iにつき、i=0からN−1まで」、「jにつき,j=0からM−1まで」取られる。
R SSD = ΣΣ {I (i, j) −T (i, j)} 2 (Formula 1)
R SAD = ΣΣ | I (i, j) −T (i, j) | (Formula 2)
The “double sum” in these equations is taken “from i = 0 to N−1 for i” and “j = 0 to M−1 for j”.

テンプレートと対象画像が最も良く合致するとき、式1、式2の値は最小になる。
式1または式2の値が最小となるときの「i」の値から、前記「横方向のシフト量」が画素単位で求まる。
このシフト量と被写体距離は、一般的に「反比例」の関係にあるが、その具体的な関係は、距離測定装置の具体的な仕様による。
When the template and the target image match best, the values of Equation 1 and Equation 2 are the smallest.
From the value of “i” when the value of Equation 1 or Equation 2 is minimized, the “lateral shift amount” is obtained in units of pixels.
The shift amount and the subject distance are generally in an “inverse proportion” relationship, but the specific relationship depends on the specific specification of the distance measuring device.

具体的な仕様とは、撮像レンズ1の焦点距離や開口数、レンズアレイ2におけるマイクロレンズの配列密度や焦点距離(基準値)、撮像素子5の画素密度や画素数等である。   Specific specifications include the focal length and numerical aperture of the imaging lens 1, the arrangement density and focal length (reference value) of the microlenses in the lens array 2, the pixel density and the number of pixels of the imaging device 5, and the like.

そして「シフト量と被写体距離の関係」は、上記具体的な仕様に基づいて、予め、実験的に求めて「ルックアップテーブル」や「推定式」として定めることができる。   The “relationship between the shift amount and the subject distance” can be experimentally obtained in advance based on the specific specification and defined as a “look-up table” or an “estimation formula”.

この発明においては、マイクロレンズの焦点距離を変化させることが出来るので、変化させる複数の焦点距離ごとに、上記ルックアップテーブルもしくは推定式を求めておく。   In the present invention, since the focal length of the microlens can be changed, the lookup table or the estimation formula is obtained for each of the plurality of focal lengths to be changed.

例えば、マイクロレンズの焦点距離として、長い場合と短い場合を考え、その各々について求めた「シフト量と被写体距離との関係」を図4に示す。   For example, considering the case where the focal length of the microlens is long and short, the “relation between the shift amount and the subject distance” obtained for each case is shown in FIG.

図4において、曲線50は「焦点距離の長いマイクロレンズのレンズアレイを用いて撮影したマクロピクセルで作成した2次元画像間のシフト量」と被写体距離の関係を示す。   In FIG. 4, a curve 50 shows the relationship between “the shift amount between two-dimensional images created by macro pixels photographed using a lens array of a micro lens having a long focal length” and the subject distance.

曲線51は「焦点距離の短いマイクロレンズのレンズアレイを用いて撮影したマクロピクセルで作成した2次元画像間のシフト量」と被写体距離の関係である。   A curve 51 is a relationship between “the shift amount between two-dimensional images created by macro pixels photographed using a lens array of microlenses having a short focal length” and the subject distance.

「焦点距離の長いマイクロレンズのレンズアレイによるマクロピクセル」から作成した2次元画像間のシフト量から、実線50により被写体距離を推定できる。
また、「焦点距離の短いマイクロレンズのレンズアレイによるマクロピクセル」から作成した2次元画像間のシフト量から、点線51により被写体距離を推定できる。
The subject distance can be estimated by the solid line 50 from the shift amount between the two-dimensional images created from the “macropixel by the lens array of the micro lens having a long focal length”.
Further, the subject distance can be estimated by the dotted line 51 from the shift amount between the two-dimensional images created from the “macropixel by the lens array of the microlens having a short focal length”.

図4の曲線51、52とも、シフト量と被写体距離が「反比例」の関係にあることを示している。   Curves 51 and 52 in FIG. 4 also indicate that the shift amount and the subject distance are in an “inverse proportion” relationship.

従って、推定式は、被写体距離を「d」、シフト量(画素数)を「P」として、一般に
d=K/P
の如きものとなる。
Kは上記「反比例」における比例定数であり、焦点距離が長い場合に対して「K1」、短い場合に比して「K2」とすれば、推定式は、焦点距離が長い場合について、
d=K1/P (3)
焦点距離が短い場合について、
d=K2/P (4)
となる。
Therefore, the estimation formula generally assumes that the subject distance is “d” and the shift amount (number of pixels) is “P”.
It becomes something like this.
K is a proportionality constant in the above “inverse proportion”, and is “K1” when the focal length is long, and “K2” when the focal length is short.
d = K1 / P (3)
For short focal lengths,
d = K2 / P (4)
It becomes.

例えば、標準的な被写体距離が1000mmで、K1=5000、K2=3000とすれば、焦点距離が長い場合の推定式(3)に応じて、dとPの関係として、
d=1000 P=5
d=1111 P=4.5
d=1250 P=4
d=1429 P=3.5
d=1667 P=3
等々が得られる。
For example, if the standard subject distance is 1000 mm, K1 = 5000, and K2 = 3000, the relationship between d and P is as follows according to the estimation formula (3) when the focal length is long:
d = 1000 P = 5
d = 1111 P = 4.5
d = 1250 P = 4
d = 1429 P = 3.5
d = 1667 P = 3
And so on.

また、焦点距離が短い場合の推定式(4)に応じて、dとPの関係として、
d=1000 P=3
d=1200 P=2.5
d=1500 P=2
d=2000 P=1.5
d=3000 P=1
等々が得られる。
Further, according to the estimation formula (4) when the focal length is short, the relationship between d and P is as follows:
d = 1000 P = 3
d = 1200 P = 2.5
d = 1500 P = 2
d = 2000 P = 1.5
d = 3000 P = 1
And so on.

従って、これ等の値を「焦点距離」により区分けしてルックアップテーブルに記憶させ、得られたシフト量:Pに応じて被写体距離:dを探すようにすることができる。   Therefore, these values can be classified by “focal length” and stored in the lookup table, and the subject distance: d can be searched according to the obtained shift amount: P.

あるいは、焦点距離の大小により推定式(3)または(4)を選択し、得られたシフト量:Pに応じて被写体距離:dを算出することができる。   Alternatively, the estimation formula (3) or (4) is selected depending on the magnitude of the focal length, and the subject distance: d can be calculated according to the obtained shift amount: P.

被写体距離の測定に際しての、マイクロレンズの焦点距離調整を行なう場合として、2つのパターンが考えられる。   Two patterns are conceivable for adjusting the focal length of the microlens when measuring the subject distance.

第1は、測定したい被写体距離が予め「ある程度わかっている」場合である。
この場合は測定者が「マイクロレンズの焦点距離」を、測定対象の被写体距離に合わせて調整して距離測定を行ない、その結果に応じて「より好適な焦点距離」を再設定する。
The first is a case where the subject distance to be measured is “known to some extent” in advance.
In this case, the measurer adjusts the “focal length of the microlens” according to the subject distance to be measured, measures the distance, and resets the “more suitable focal length” according to the result.

そして、距離測定を繰り返す。この工程は、必要に応じて繰り返すことができ、繰り返すごとに測定の精度が向上していく。   Then, the distance measurement is repeated. This process can be repeated as necessary, and the accuracy of measurement improves each time it is repeated.

上記「焦点距離の再設定」は、測定者が行なっても良いが、推定された被写体距離をフィードバックして制御することにより、より好適な焦点距離に設定してもよい。   The “reset of focal length” may be performed by the measurer, but may be set to a more suitable focal length by controlling the estimated subject distance by feedback.

即ち、距離測定装置が、上記フィードバックによる焦点距離再設定の機能を有していることができる。   That is, the distance measuring device can have a function of resetting the focal length by the feedback.

第2は、被写体距離が不明の場合であり、このときは複数の焦点距離のレンズアレイを設定して距離測定を行なう。その結果、被写体距離が判明する。   The second is a case where the subject distance is unknown. At this time, a lens array having a plurality of focal lengths is set and distance measurement is performed. As a result, the subject distance is determined.

より高い空間分解能で測定を行なう場合には、測定された被写体距離をフィードバックし、その被写体距離に対応した焦点距離に調整して、測定を繰り返す。   When measuring with higher spatial resolution, the measured subject distance is fed back, adjusted to a focal length corresponding to the subject distance, and the measurement is repeated.

この場合も、距離測定装置が「フィードバックによる焦点距離再設定の機能」を有していることができる。   Also in this case, the distance measuring device can have a “focal length resetting function by feedback”.

第1の場合の処理の流れを、図5に示す。
測定対象である被写体距離は、凡その値が知られている。
The flow of processing in the first case is shown in FIG.
The approximate value of the subject distance to be measured is known.

ステップ:S1で「エレクトロウェッティングレンズの焦点距離」を制御する。この制御により、上記「凡そ知られた被写体距離」に適した焦点距離が設定される。   Step: In “S1”, the “focal length of the electrowetting lens” is controlled. With this control, a focal length suitable for the “approximately known subject distance” is set.

ステップ:S2では、前述の如くして「ラインフィールド画像」を取得する。   Step: In S2, “line field image” is acquired as described above.

ステップ:S3で、マクロピクセル群から「複数の2次元画像」を作成する。
ステップ:S4で、「複数の2次元画像間のシフト量を算出」する。
Step: In S3, “a plurality of two-dimensional images” are created from the macro pixel group.
Step: In S4, “calculate the shift amount between a plurality of two-dimensional images”.

ステップ:S5で、「算出されたシフト量に対応する被写体距離を推定」する。   Step: In S5, “estimate the subject distance corresponding to the calculated shift amount”.

その後、必要に応じて、焦点距離の再設定から被写体距離の推定までのプロセスを繰り返すことができる。   Thereafter, the process from the resetting of the focal length to the estimation of the subject distance can be repeated as necessary.

上記第2の場合について、以下に説明する。
この場合、測定対象としての被写体距離は「予め知られてはいない」ので、以下のような方法で測定を行なう。
レンズアレイ2を構成するマイクロレンズ3は、エレクトロウェッティングレンズで焦点距離を変化させることができるが、焦点距離変化はマイクロレンズ単位で可能である。
The second case will be described below.
In this case, since the subject distance as the measurement target is “not known in advance”, the measurement is performed by the following method.
The microlenses 3 constituting the lens array 2 can be changed in focal length by an electrowetting lens, but the focal length can be changed in units of microlenses.

そこで、レンズアレイ2に「焦点距離の異なるマイクロレンズを混在」させる。
簡単のために「長い焦点距離のマイクロレンズ」と「焦点距離の短いレンズ」を、市松模様状に配列混在させる場合を説明する。
Therefore, the lens array 2 is “mixed with microlenses having different focal lengths”.
For the sake of simplicity, a description will be given of a case where “a lens having a long focal length” and “a lens having a short focal length” are mixed in a checkered pattern.

図6(a)に示す状態は測定開始時の状態であり「焦点距離の短いマイクロレンズ3」と「焦点距離の長いマイクロレンズ8」が市松模様に配列している。
図7は、焦点距離の短いマイクロレンズ3の直下にあるマクロピクセルを中心とした9個のマイクロピクセルの「3×3配列」のマクロピクセル群10を示している。
太線で囲まれているのがマクロピクセルであり、それぞれのマクロピクセルが「2×2」の受光素子から成る。
「白色のマクロピクセル」は、焦点距離の短いマイクロレンズ3の直下のマクロピクセルである。
「灰色のマクロピクセル」は、焦点距離の長いマイクロレンズ8の直下のマクロピクセルである。
焦点距離の長・短にそれぞれ対応する被写体距離を推定するために、それぞれのマクロピクセルの画素の電気信号を再配列して、2つの2次元画像11、12を作成する。
The state shown in FIG. 6A is a state at the start of measurement, and “a microlens 3 with a short focal length” and “a microlens 8 with a long focal length” are arranged in a checkered pattern.
FIG. 7 shows a macro pixel group 10 in a “3 × 3 array” of nine micro pixels centering on a macro pixel immediately below the micro lens 3 with a short focal length.
The macro pixels are surrounded by a thick line, and each macro pixel is composed of “2 × 2” light receiving elements.
The “white macropixel” is a macropixel immediately below the microlens 3 having a short focal length.
The “gray macro pixel” is a macro pixel immediately below the microlens 8 having a long focal length.
In order to estimate subject distances corresponding to the length and shortness of the focal length, the two-dimensional images 11 and 12 are created by rearranging the electrical signals of the pixels of the respective macro pixels.

再配列方法を図中の矢印で示す。各マクロピクセルの同じ位置(図6の場合は左上)の画素をマクロピクセルの配列に従って再配列する。
「再配列すべき電気信号のない部分13」は「周囲の電気信号の値から補間」して求めることができる。
マクロピクセルの「左上以外の位置」の画素の再配列も同様であり、図7の場合にはマクロピクセルが2×2画素で構成されている。
従って、焦点距離の短いマイクロレンズ直下のマクロピクセルと、焦点距離の長いマイクロレンズ直下のマクロピクセルから「それぞれ4つの2次元画像」を作成できる。
The rearrangement method is indicated by arrows in the figure. Pixels at the same position (upper left in the case of FIG. 6) of each macro pixel are rearranged according to the arrangement of the macro pixels.
The “portion 13 having no electrical signal to be rearranged” can be obtained by “interpolating from the values of surrounding electrical signals”.
The rearrangement of the pixels at “positions other than the upper left” of the macro pixels is the same, and in the case of FIG. 7, the macro pixels are composed of 2 × 2 pixels.
Therefore, “four two-dimensional images” can be created from the macropixels immediately below the microlenses with a short focal length and the macropixels immediately below the microlenses with a long focal length.

焦点距離の異なるマイクロレンズで撮影したマクロピクセルから作成した2次元画像から被写体距離を推定する方法は、上に説明したのと同様である。
即ち、焦点距離に対応したシフト量と被写体距離の関係(推定式あるいはルックップテーブルとして予め求めておく)を用いて、焦点距離ごとの被写体距離を推定する。
The method for estimating the subject distance from the two-dimensional image created from the macro pixels photographed by the microlenses having different focal lengths is the same as described above.
That is, the subject distance for each focal length is estimated using the relationship between the shift amount corresponding to the focal length and the subject distance (preliminarily obtained as an estimation formula or a lookup table).

上記のように焦点距離の異なるマイクロレンズを、同一レンズアレイに同時に存在させることで「1度の撮影で広い被写体距離に対して好適な測定が可能」である。   As described above, microlenses having different focal lengths are simultaneously present in the same lens array, thereby enabling “preferable measurement for a wide subject distance by one photographing”.

図8に処理の流れを示す。   FIG. 8 shows the flow of processing.

ステップ:S21で「複数の焦点距離を持つようにレンズアレイを設定」する。
即ち、レンズアレイに、長い焦点距離持つマイクロレンズと短い焦点距離を持つマイクロレンズが2次元的に混在した配列を設定する。
Step: “Set the lens array to have a plurality of focal lengths” in S21.
That is, an array in which microlenses having a long focal length and microlenses having a short focal length are two-dimensionally mixed is set in the lens array.

ステップ:S21で「ライトフィールド画像を取得」する。
ステップ:S23で「焦点距離の異なるマイクロレンズを通過した光線を受光するマクロピクセル群から、それぞれ2次元画像を作成」する。
Step: “Acquire light field image” in S21.
Step: In S23, “create a two-dimensional image from each macropixel group that receives light rays that have passed through microlenses having different focal lengths”.

この部分は、図7に即して説明したとおりである。   This portion is as described with reference to FIG.

ステップ:S24で「2次元画像に含まれるシフト量を算出」する。
ステップ:S25で「シフト量から適切なシフト−距離関係を用いて、被写体距離を推定」する。
Step: “Calculate the shift amount included in the two-dimensional image” in S24.
Step: In S25, “estimate the subject distance from the shift amount using an appropriate shift-distance relationship”.

ステップ:S26で「被写体距離:d」が求まる。   Step: “Subject distance: d” is obtained in S26.

ステップ:S27で「このように求まった被写体距離:dの、より高精度の測定に適した焦点距離を設定」する。   Step: In S27, “set a focal length suitable for higher-accuracy measurement of the subject distance d thus obtained”.

図6(b)はこの状態を示し、レンズアレイ2のマイクロレンズ3は、全て同一の焦点距離に設定されている。   FIG. 6B shows this state, and the microlenses 3 of the lens array 2 are all set to the same focal length.

その後、再設定された焦点距離で「ライトフィールド画像」を取り込み、マクロピクセル群を求め、これから「2次元画像」を作成するのがステップ:S28である。   Thereafter, the “light field image” is captured at the reset focal length, the macro pixel group is obtained, and the “two-dimensional image” is created from this in step S28.

ステップ:S29で「2次元画像に含まれるシフト量を差出」する。
ステップ:S30で「シフト量に基づき被写体距離を推定」する。
Step: “Send out the shift amount included in the two-dimensional image” in S29.
Step: In S30, “estimate subject distance based on shift amount”.

このようにして、予め知られていない被写体距離に対しても適正な距離測定が可能となり、被写体距離が大きく異なる場合でも、好適な距離推定を行うことができる。   In this way, an appropriate distance measurement can be performed even for a subject distance that is not known in advance, and a suitable distance estimation can be performed even when the subject distance differs greatly.

この場合の「焦点距離の再設定」も測定者が行なっても良いが、推定された被写体距離をフィードバックして制御することにより、より好適な焦点距離に自動設定してもよい。   In this case, the “reset of focal length” may be performed by the measurer, but it may be automatically set to a more suitable focal length by feeding back and controlling the estimated subject distance.

図9は、演算装置の構成の1例を示すブロック図である。   FIG. 9 is a block diagram illustrating an example of the configuration of the arithmetic device.

撮像レンズ1からレンズアレイ2を介して、撮像素子5に取り込まれた画像は、電気信号として出力され、A/D変換器51でデジタルの画像データに変換される。   An image taken into the image sensor 5 from the imaging lens 1 via the lens array 2 is output as an electrical signal and converted into digital image data by the A / D converter 51.

タイミング信号発生器55は、CPU56の指示に基づき、撮像素子5、A/D変換器51を動作させるためのタイミング信号を発生させる。
画像処理回路53は、画像データを一時的に格納し、ノイズ除去などの前処理を画像データに施して、ライトフィールド画像とする。
ROM59には「当該装置を距離測定装置として機能させるためのプログラム」が格納されている。
CPU56はROM59に格納されたプログラムを「RAM57を作業領域」として実行することにより、当該装置を距離測定装置として機能させる。
処理の完了したデータは、メモリ58に記録される。操作部60はスイッチ、レバーおよびタッチパネル等により構成されている。処理結果はLCD52上に表示される。
The timing signal generator 55 generates a timing signal for operating the image sensor 5 and the A / D converter 51 based on an instruction from the CPU 56.
The image processing circuit 53 temporarily stores the image data, and performs preprocessing such as noise removal on the image data to obtain a light field image.
The ROM 59 stores “a program for causing the device to function as a distance measuring device”.
The CPU 56 executes the program stored in the ROM 59 using “RAM 57 as a work area”, thereby causing the device to function as a distance measuring device.
The processed data is recorded in the memory 58. The operation unit 60 includes a switch, a lever, a touch panel, and the like. The processing result is displayed on the LCD 52.

ドライバ61はCPU56の指示に基づき、レンズアレイ2のマイクロレンズ3の焦点距離を変化させる。   The driver 61 changes the focal length of the microlenses 3 of the lens array 2 based on an instruction from the CPU 56.

各部における「信号のやりとり」はバス70を介して行なわれる。   “Signal exchange” in each unit is performed via the bus 70.

1 撮像レンズ
2 レンズアレイ
3 マイクロレンズ
4 マクロピクセル
5 撮像素子
6 演算装置
1 Imaging lens
2 Lens array
3 Microlens
4 macro pixels
5 Image sensor
6 Arithmetic unit

特開2009−229125号公報JP 2009-229125 A

Adelson and Wang「Single Lens Stereo with a Plenoptic Camera」、IEEE Transactions on pattern analysis and machine intelligence, vol. 14, No. 2, February 1992.Adelson and Wang `` Single Lens Stereo with a Plenoptic Camera '', IEEE Transactions on pattern analysis and machine intelligence, vol. 14, No. 2, February 1992. Christian Perwas and Lennart Wietzke「Single lens 3D-camera with extended depth-of-field」Christian Perwas and Lennart Wietzke `` Single lens 3D-camera with extended depth-of-field ''

Claims (10)

被写体からの物体光を入射させる撮像レンズと、
この撮像レンズを透過した物体光が入射するレンズアレイと、
このレンズアレイを通過した光を受光して、画像情報を出力する撮像素子と、
前記被写体までの距離推定を行なう演算装置と、を有し、
前記レンズアレイは、焦点距離を可変できるマイクロレンズを2次元配列してなり、
前記撮像素子は、前記マイクロレンズの個々に対応して複数の受光素子を有し、
前記演算装置は、前記画像情報に基づき前記距離推定を行なうものであることを特徴とする距離測定装置。
An imaging lens for entering object light from a subject;
A lens array into which object light transmitted through the imaging lens is incident;
An image sensor that receives light passing through the lens array and outputs image information;
An arithmetic unit for estimating the distance to the subject,
The lens array is a two-dimensional array of microlenses that can vary the focal length,
The imaging element has a plurality of light receiving elements corresponding to each of the microlenses,
The distance measuring device, wherein the computing device performs the distance estimation based on the image information.
請求項1記載の距離測定装置において、
レンズアレイにおけるマイクロレンズの焦点距離を、個別に、もしくは複数のマイクロレンズのグループ単位で変更可能であることを特徴とする距離測定装置。
The distance measuring device according to claim 1,
A distance measuring device characterized in that the focal length of a microlens in a lens array can be changed individually or in groups of a plurality of microlenses.
請求項1または2記載の距離測定装置において、
レンズアレイにおけるマイクロレンズの焦点距離を、距離推定の結果に基づいて変化させることを特徴とする距離測定装置。
The distance measuring device according to claim 1 or 2,
A distance measuring device that changes a focal length of a microlens in a lens array based on a result of distance estimation.
請求項1〜3の任意の1に記載の距離測定装置において、
距離測定開始時には、レンズアレイに、焦点距離の異なるマイクロレンズが混在され、距離測定後、推定結果に応じて前記マイクロレンズの焦点距離を変化させることを特徴とする距離測定装置。
In the distance measuring device according to any one of claims 1 to 3,
At the start of distance measurement, a microlens having a different focal length is mixed in the lens array, and after the distance measurement, the focal length of the microlens is changed according to an estimation result.
請求項1〜4の任意の1に記載の距離測定装置において、
焦点距離を変化させることのできるマイクロレンズをエレクトロウェッティングレンズとしたことを特徴とする距離測定装置。
In the distance measuring device according to any one of claims 1 to 4,
A distance measuring device characterized in that an electrowetting lens is used as a microlens capable of changing a focal length.
請求項1〜5の任意の1に記載の距離測定装置において、
焦点距離に対応した距離推定を行う演算装置が、撮像素子の撮像画像に基づきマクロピクセル群の画像を介して、シフト量算出用の2次元画像を複数個抽出作成し、複数の2次元画像間のシフト量を算出する機能と、
シフト量と撮像距離との対応関係を、複数の焦点距離ごとに予め定めたルックアップテーブルを参照して、前記算出したシフト量により距離推定を行なう機能と、を有することを特徴とする距離測定装置。
In the distance measuring device according to any one of claims 1 to 5,
A computing device that performs distance estimation corresponding to the focal length extracts and creates a plurality of two-dimensional images for calculating the shift amount based on the image of the macro pixel group on the basis of the captured image of the image sensor. A function for calculating the shift amount of
A function of estimating a distance based on the calculated shift amount by referring to a lookup table predetermined for each of a plurality of focal lengths for a correspondence relationship between the shift amount and the imaging distance. apparatus.
請求項1〜6の任意の1に記載の距離測定装置において、
焦点距離に対応した距離推定を行う演算装置が、撮像素子の撮像画像に基づきマクロピクセル群の画像を介して、シフト量算出用の2次元画像を複数個抽出作成し、複数の2次元画像間のシフト量を算出する機能と、
シフト量と撮像距離との対応関係を、複数の焦点距離ごとに予め定めた推定式を参照して、前記算出したシフト量により距離推定を行なう機能と、を有することを特徴とする距離測定装置。
The distance measuring device according to any one of claims 1 to 6,
A computing device that performs distance estimation corresponding to the focal length extracts and creates a plurality of two-dimensional images for calculating the shift amount based on the image of the macro pixel group on the basis of the captured image of the image sensor. A function for calculating the shift amount of
A distance measuring device having a function of estimating a distance based on the calculated shift amount with reference to an estimation formula predetermined for each of a plurality of focal lengths for a correspondence relationship between the shift amount and the imaging distance .
請求項1記載の距離測定装置を用いる距離測定方法であって、
各マイクロレンズに対応する複数の受光素子の出力によりマクロピクセルを得、このマクロピクセルとその周囲のマクロピクセルとにより構成されるマクロピクセル群から、シフト量算出用の2次元画像を複数個抽出作成する工程と、
抽出作成された複数の2次元画像のシフト量を、パターンマッチングにより算出する工程と、
マイクロレンズの焦点距離に応じて、予め定められたシフト量と撮像距離の関係に基づいて、撮像距離を推定する工程を、有することを特徴とする距離測定方法。
A distance measuring method using the distance measuring device according to claim 1,
A macro pixel is obtained from the output of a plurality of light receiving elements corresponding to each microlens, and a plurality of two-dimensional images for calculating the shift amount are extracted and created from a macro pixel group constituted by the macro pixel and surrounding macro pixels. And a process of
Calculating shift amounts of a plurality of two-dimensional images extracted and created by pattern matching;
A distance measuring method comprising a step of estimating an imaging distance based on a predetermined relationship between a shift amount and an imaging distance according to a focal length of the microlens.
請求項8記載の距離測定方法において、
マイクロレンズの焦点距離を所望の値に設定して、被写体の画像情報の取り込みを行なうことを特徴とする距離測定方法。
The distance measuring method according to claim 8, wherein
A distance measuring method characterized in that the focal length of a microlens is set to a desired value and image information of a subject is captured.
請求項8または9記載の距離測定方法において、
推定された被写体距離に基づき、マイクロレンズの焦点距離を変更して、被写体の画像情報の取り込みを再度行なうことを特徴とする距離測定方法。
The distance measuring method according to claim 8 or 9,
A distance measuring method, wherein the focal length of the microlens is changed based on the estimated subject distance, and image information of the subject is captured again.
JP2012155595A 2012-07-11 2012-07-11 Distance measuring device and distance measuring method Active JP6079017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012155595A JP6079017B2 (en) 2012-07-11 2012-07-11 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012155595A JP6079017B2 (en) 2012-07-11 2012-07-11 Distance measuring device and distance measuring method

Publications (2)

Publication Number Publication Date
JP2014016309A true JP2014016309A (en) 2014-01-30
JP6079017B2 JP6079017B2 (en) 2017-02-15

Family

ID=50111107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012155595A Active JP6079017B2 (en) 2012-07-11 2012-07-11 Distance measuring device and distance measuring method

Country Status (1)

Country Link
JP (1) JP6079017B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015174172A (en) * 2014-03-14 2015-10-05 セイコーエプソン株式会社 Robot, robot system, and control device
WO2016158403A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Image processing device and method
WO2016158402A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Image processing device and method
JP2017530376A (en) * 2014-09-29 2017-10-12 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically determining the position of at least one object
KR101844004B1 (en) * 2016-05-24 2018-03-30 주식회사 이엠텍 Image generating apparatus including distance information
CN108072877A (en) * 2016-11-10 2018-05-25 光宝电子(广州)有限公司 Optical devices
JP2018138875A (en) * 2017-02-24 2018-09-06 コニカミノルタ株式会社 Object approach detection device and object approach detection method
WO2020053240A1 (en) * 2018-09-12 2020-03-19 Brainlab Ag Intra-operative determination of a focal length of a camera for medical applications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158825A (en) * 2005-12-06 2007-06-21 Ricoh Co Ltd Image input device
JP2009169025A (en) * 2008-01-15 2009-07-30 Sony Corp Imaging apparatus and digital camera
JP2010057067A (en) * 2008-08-29 2010-03-11 Sony Corp Image pickup apparatus and image processing apparatus
JP2011019088A (en) * 2009-07-09 2011-01-27 Fujifilm Corp Compound eye imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158825A (en) * 2005-12-06 2007-06-21 Ricoh Co Ltd Image input device
JP2009169025A (en) * 2008-01-15 2009-07-30 Sony Corp Imaging apparatus and digital camera
JP2010057067A (en) * 2008-08-29 2010-03-11 Sony Corp Image pickup apparatus and image processing apparatus
JP2011019088A (en) * 2009-07-09 2011-01-27 Fujifilm Corp Compound eye imaging apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015174172A (en) * 2014-03-14 2015-10-05 セイコーエプソン株式会社 Robot, robot system, and control device
JP2017530376A (en) * 2014-09-29 2017-10-12 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically determining the position of at least one object
WO2016158403A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Image processing device and method
WO2016158402A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Image processing device and method
KR101844004B1 (en) * 2016-05-24 2018-03-30 주식회사 이엠텍 Image generating apparatus including distance information
CN108072877A (en) * 2016-11-10 2018-05-25 光宝电子(广州)有限公司 Optical devices
JP2018138875A (en) * 2017-02-24 2018-09-06 コニカミノルタ株式会社 Object approach detection device and object approach detection method
US10628697B2 (en) 2017-02-24 2020-04-21 Konica Minolta, Inc. Object approach detection device and object approach detection method
WO2020053240A1 (en) * 2018-09-12 2020-03-19 Brainlab Ag Intra-operative determination of a focal length of a camera for medical applications
US11694363B2 (en) 2018-09-12 2023-07-04 Brainlab Ag Intra-operative determination of a focal length of a camera for medical applications

Also Published As

Publication number Publication date
JP6079017B2 (en) 2017-02-15

Similar Documents

Publication Publication Date Title
JP6079017B2 (en) Distance measuring device and distance measuring method
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9818199B2 (en) Method and apparatus for estimating depth of focused plenoptic data
JP2014150466A (en) Imaging apparatus and control method of the same
JP2015049200A (en) Measuring device, measuring method, and measuring program
US20130038698A1 (en) Image processing device, image processing method and imaging device
WO2014069169A1 (en) Image processing device
CN111225201A (en) Parallax correction method and device, and storage medium
JP6009206B2 (en) 3D measuring device
JP2015188251A (en) Image processing system, imaging apparatus, image processing method, and program
KR102541363B1 (en) Method and apparatus for estimating depth of unfocused plenoptic data
JP6557499B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP2018054412A (en) Processing device, processing system, imaging device, processing method, program, and recording medium
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2020021126A (en) Image processing device and control method thereof, distance detection device, imaging device, program
JP2018018425A (en) Image processing device and image processing method
JP2018081378A (en) Image processing apparatus, imaging device, image processing method, and image processing program
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP7373297B2 (en) Image processing device, image processing method and program
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP2016099322A (en) Imaging device, control method of imaging device, and program
JP7200002B2 (en) Image processing device, imaging device, image processing method, program, and storage medium
KR101839357B1 (en) Imaging apparatus and imaging method
US11880991B2 (en) Imaging apparatus including depth information at first or second spatial resolution at different regions in the image
KR101376780B1 (en) Apparatus and method for managing accuracy of distance measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R151 Written notification of patent or utility model registration

Ref document number: 6079017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151