JP2005069936A - Three-dimensional image forming method, and method for deriving distance from three-dimensional object - Google Patents

Three-dimensional image forming method, and method for deriving distance from three-dimensional object Download PDF

Info

Publication number
JP2005069936A
JP2005069936A JP2003301501A JP2003301501A JP2005069936A JP 2005069936 A JP2005069936 A JP 2005069936A JP 2003301501 A JP2003301501 A JP 2003301501A JP 2003301501 A JP2003301501 A JP 2003301501A JP 2005069936 A JP2005069936 A JP 2005069936A
Authority
JP
Japan
Prior art keywords
image
distance
dimensional object
reduced
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003301501A
Other languages
Japanese (ja)
Other versions
JP4205533B2 (en
Inventor
Jun Tanida
純 谷田
Koichi Nitta
功一 仁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003301501A priority Critical patent/JP4205533B2/en
Publication of JP2005069936A publication Critical patent/JP2005069936A/en
Application granted granted Critical
Publication of JP4205533B2 publication Critical patent/JP4205533B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide the image of a three-dimensional object with no image blurring using a compound-eye camera. <P>SOLUTION: The compound-eye camera focuses a plurality of reduced images on light receiving element through a micro lens array where a plurality of micro lenses are arrayed. A plurality of reduced images are obtained by photographing (S1) with the compound-eye camera, in such condition as a three-dimensional object is disposed in the range from a front side distance b<SB>f</SB>that satisfies an expression (X1) in the front direction of the micro lens array to a rear side distance b<SB>b</SB>acquired from an expression (X2). A shift amount is acquired (S2) regarding deviation in relative position between a plurality of reduced images assuming a set distance b<SB>r</SB>obtained with an expression (X3) as a distance from the micro lens array to the three-dimensional object. The plurality of reduced images are disposed on the same region based on the acquired shift amount, to constitute a single image of the three-dimensional object (S3). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法,及び前記複数の縮小像から構成した前記立体対象の画像に基づいて前記マイクロレンズアレイから前記立体対象の各部位までの距離を求める立体対象の距離導出方法に関するものである。   According to the present invention, a stereoscopic object is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and the image of the stereoscopic object is obtained from the plurality of reduced images. The present invention relates to a method for constructing a three-dimensional image, and a method for deriving a distance of a three-dimensional object to obtain a distance from the microlens array to each part of the three-dimensional object based on the image of the three-dimensional object composed of the plurality of reduced images. .

昨今,例えば半導体製造における各種検査工程等の製造分野や内視鏡等の医療分野,さらには入退室管理における形状認識(人の顔の形状の認識等)等のセキュリティ分野等の広汎な分野において,3次元形状を有する立体対象について,画像ボケのない鮮明な立体画像(3次元画像)を取得する技術や,立体形状に関する情報(撮像装置(カメラ)から立体対象の各部位までの距離情報等,以下,立体情報という)を取得する技術が求められている。さらに,医療分野やセキュリティ分野等においては特に,使用環境の問題から撮像装置の小型化や近距離にある立体対象を撮像可能なことも求められている。
従来,立体画像や立体情報の取得技術としては,単一のカメラ(撮像装置)と立体対象(撮像対象)との距離を変化させながら撮像し,これにより得た複数の画像の各個所における画像ボケ等を解析して立体画像や立体情報を取得する手法や,各々異なる位置に配置された複数のカメラで立体対象を撮像し,これにより得た複数の画像の視差情報を解析して立体画像や立体情報(立体形状)を得る多眼式法等が知られている。
しかしながら,前者の手法では,カメラと立体対象との距離を変化させるアクチュエータ及びその制御装置が必要なため装置が大型化・複雑化する上,得られた複数の画像の撮像時点が各々異なるため,立体対象が動くものである場合には適用できないという問題点がある。
また,後者の多眼式法では,複数のカメラを離して配置し,これらの同期制御を行う制御手段等を設ける必要があり,装置が大型化・複雑化するという問題点がある。
Recently, in a wide range of fields such as manufacturing fields such as various inspection processes in semiconductor manufacturing, medical fields such as endoscopes, and security fields such as shape recognition (recognition of human face shape, etc.) in entrance / exit management. , A technology for obtaining a clear stereoscopic image (three-dimensional image) without image blur for a three-dimensional object having a three-dimensional shape, information on a three-dimensional shape (distance information from an imaging device (camera) to each part of the three-dimensional object, etc. , Hereinafter referred to as 3D information). Further, particularly in the medical field and the security field, there is a demand for downsizing of an image pickup apparatus and that a three-dimensional object at a short distance can be picked up due to problems in use environment.
Conventionally, as a technique for acquiring a stereoscopic image and stereoscopic information, images are taken while changing the distance between a single camera (imaging device) and a stereoscopic target (imaging target), and images at each location of a plurality of images obtained thereby are obtained. A method of acquiring a stereoscopic image and information by analyzing a blur or the like, or capturing a stereoscopic object with a plurality of cameras arranged at different positions, and analyzing disparity information of the plurality of images obtained thereby to generate a stereoscopic image And multi-view methods for obtaining three-dimensional information (three-dimensional shape) are known.
However, since the former method requires an actuator that changes the distance between the camera and the three-dimensional object and its control device, the device becomes larger and complicated, and the time points at which the obtained images are captured are different. There is a problem that it cannot be applied when the three-dimensional object moves.
In the latter multi-view method, it is necessary to dispose a plurality of cameras, and to provide control means for performing synchronous control of these cameras, resulting in a problem that the apparatus becomes large and complicated.

一方,前記2つの手法では,受光素子アレイと一組の光学系で構成される単眼式カメラ(単眼式の撮像装置)が用いられるのに対し,近年,小型化・薄型化が可能な撮像装置(画像入力装置)として,昆虫等に見られる複眼構造を模倣した複眼式カメラ(複眼式画像入力装置)が開発されている。
複眼式カメラは,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像(物体縮小像)を結像するものである。
図11は,単眼式カメラの光学系((a)単眼光学系)と複眼式カメラの光学系((b)複眼光学系)とを模式的に表した図である。
図11の(a),(b)を比較してわかるように,複眼式カメラでは,前記マイクロレンズ80それぞれの焦点距離(図中,f/Nで表す)が微小であるため,複眼式カメラは,同等の明るさの画像が得られる単眼式カメラに比べて極めて小型・薄型の装置構成とすることが可能である。
また,複眼式カメラにおいて,口径が微小な前記マイクロレンズ80ごとに前記受光素子81に結像されて得られる複数の縮小像それぞれは解像度の低い画像であるが,複数の縮小像をそれらのずれを補正(シフト)して1つの領域に配置する処理を行うことにより,単一の高精細な画像を構成することができる。
ここで,複数の縮小像から1つの高精細な画像を得る手法としては,例えば,非特許文献1に示される相加平均法や擬似逆行列法等による画像再構成法や,特許文献1に示されるように,複数の縮小像(物体縮小像)間の相関演算によりそれらのシフト量を算定し,そのシフト量に基づいて複数の縮小像を同一領域上に再配置して高精細な画像を得る画像再構成法等が提案されている。
On the other hand, in the above two methods, a monocular camera (monocular imaging device) composed of a light receiving element array and a pair of optical systems is used, but in recent years an imaging device that can be reduced in size and thickness. As a (image input device), a compound eye camera (compound eye image input device) that mimics the compound eye structure found in insects and the like has been developed.
The compound-eye camera forms a plurality of reduced images (object reduced images) on a light receiving element through a microlens array in which a plurality of microlenses are arranged.
FIG. 11 is a diagram schematically showing an optical system of a monocular camera ((a) monocular optical system) and an optical system of a compound eye camera ((b) compound eye optical system).
As can be seen by comparing (a) and (b) of FIG. 11, in the compound-eye camera, the focal length of each of the microlenses 80 (indicated by f / N in the figure) is very small. Compared to a monocular camera that can obtain an image with the same brightness, it is possible to make the device configuration extremely small and thin.
In the compound-eye camera, each of the plurality of reduced images obtained by forming the image on the light receiving element 81 for each micro lens 80 having a small aperture is an image having a low resolution. A single high-definition image can be constructed by performing a process of correcting (shifting) the image and arranging it in one area.
Here, as a technique for obtaining one high-definition image from a plurality of reduced images, for example, an image reconstruction method based on an arithmetic mean method or a pseudo inverse matrix method shown in Non-Patent Document 1, As shown in the figure, the shift amount is calculated by correlation calculation between a plurality of reduced images (reduced object images), and a plurality of reduced images are rearranged on the same region based on the shift amount, thereby obtaining a high-definition image. An image reconstruction method for obtaining the above has been proposed.

ところで,結像光学系において,画像ボケ(ここでは,いわゆるピンボケを表す)のない(或いは,画像ボケが許容される)像を得ることについての評価尺度として被写界深度がある。この被写界深度は,立体対象を撮影した際に,画像ボケのない(或いは,画像ボケが許容される)像を得ることができる立体対象の奥行き幅(カメラから見た奥行き)として表される。被写界深度については,非特許文献2等に詳しい。
この被写界深度について,図12を用いて説明する。
図12において,物体面(撮像対象の前面)をO,レンズ82の焦平面をO’とする。ここで,レンズ82を通して得られる像において,前記焦平面O’上における許容錯乱円直径ε程度の画像ボケは許容されるとする。このとき,レンズ82により集光される光が前記許容錯乱円(直径ε)の範囲内に収まるときの前記焦平面O’から最も離れた前後の結像面をO1’及びO2’とすると,O1’からO2’の範囲内に結像する物体側の位置O1からO2までの範囲にある物体の像は,焦平面O’に結像される像としてボケなしに取得できる。このとき前記O1から前記O2までの距離を被写界深度といい,さらに,前記O1から前記Oまでの距離a1を後側被写界深度,前記Oから前記O2までの距離a2を前側被写界深度という。
結像公式から。a1とa2は,それぞれ次の(1)式と(2)式とで表される。但し,s,s1及びs2は前記レンズ82から前記物体面O,O1及びO2までの各距離,f及びdは前記レンズ82の焦点距離及び口径を表し,F=f/dである。
ここで,物体までの距離sを次の(3)式で求まるShに設定すれば,(1)式及び(2)式において,a1=∞,a2≒Sh/2となり,無限遠からSh/2までの距離の範囲内にある物体はすべて被写界深度内に入る。一般に,Shは過焦点距離と呼ばれる。
この(3)式からわかるように,レンズの焦点距離f及び口径dが小さいほど過焦点距離が短い,即ち,より近距離にある物体について被写界深度内に入る。従って,一般に単眼式カメラよりも各レンズ(マイクロレンズ)の焦点距離f及び口径dが非常に小さい複眼式カメラを用いれば,単眼式カメラを用いる場合に比べて,非常に近距離にある物体(撮像対象)についても画像ボケのない像(前記縮小像)を得ることができる。
特開平2003―141529号公報 J. Tanida, T. Kumagai, K. Yamada, S. Miyatake, K. Ishida, T. Morimoto, N. Kondo, D. Miyazaki, and Y. Ichioka, "Thin Observation module by bound optics (TOMBO): concept and experimental verification," Appl. Opt. 40, 1806-1813 (2001) 高橋友刀, "レンズ設計", (東海大学出版会, 1994)
By the way, in an imaging optical system, there is a depth of field as an evaluation measure for obtaining an image having no image blur (herein, representing so-called out-of-focus) (or allowing image blur). This depth of field is expressed as the depth width (depth viewed from the camera) of the stereoscopic object that can obtain an image without image blur (or image blur is allowed) when the stereoscopic object is photographed. The The depth of field is detailed in Non-Patent Document 2 and the like.
This depth of field will be described with reference to FIG.
In FIG. 12, the object plane (front surface of the imaging target) is O, and the focal plane of the lens 82 is O ′. Here, in the image obtained through the lens 82, it is assumed that an image blur having an allowable circle of confusion circle diameter ε on the focal plane O ′ is allowed. At this time, if the image planes before and after the farthest from the focal plane O ′ when the light collected by the lens 82 falls within the range of the allowable circle of confusion (diameter ε) are O1 ′ and O2 ′, The image of the object in the range from the object side position O1 to O2 that forms an image within the range of O1 ′ to O2 ′ can be acquired without blur as an image that is imaged on the focal plane O ′. In this case refers to the distance from the O1 to the O2 and depth of field, furthermore, the distance a 1 to the rear depth of field from the O1 to said O, the distance a 2 from the O to the O2 front This is called depth of field.
From the imaging formula. a 1 and a 2 are expressed by the following equations (1) and (2), respectively. However, s, s 1 and s 2 represent the distances from the lens 82 to the object planes O, O 1 and O 2, f and d represent the focal length and aperture of the lens 82, and F = f / d.
Here, by setting the S h which is obtained a distance s to the object by the following formula (3), (1) In the formula and (2), a 1 = ∞, a 2 ≒ S h / 2 , and the endless All objects within the distance from far to S h / 2 fall within the depth of field. In general, Sh is called the hyperfocal distance.
As can be seen from this equation (3), the smaller the focal length f and the aperture d of the lens, the shorter the hyperfocal length, that is, the closer the object is within the depth of field. Accordingly, in general, when a compound eye camera in which the focal length f and the aperture diameter d of each lens (microlens) is much smaller than that of a monocular camera is used, an object (very short distance) is used compared to the case of using a monocular camera. An image with no image blur (the reduced image) can be obtained with respect to the imaging target.
Japanese Patent Laid-Open No. 2003-141529 J. Tanida, T. Kumagai, K. Yamada, S. Miyatake, K. Ishida, T. Morimoto, N. Kondo, D. Miyazaki, and Y. Ichioka, "Thin Observation module by bound optics (TOMBO): concept and experimental verification, "Appl. Opt. 40, 1806-1813 (2001) Tomohashi Takahashi, "Lens Design", (Tokai University Press, 1994)

しかしながら,従来,小型化・薄型化が可能な複眼式カメラを用いてどのような条件及び方法で撮影及び画像構成を行えば,立体対象(3次元の撮像対象)についてのボケのない画像や立体情報を得られるかが明らかでないという問題点があった。
例えば,複眼式カメラを用いた場合,前述したように近距離にある物体(撮像対象)についてもピンボケのない縮小像を得ることができるが,高解像度の(高精細の)立体画像を得るためには,複数の縮小像をそのずれを補正(シフト)して1つの領域に配置する処理を行う必要がある。そのシフト量は,撮像対象までの距離の設定値によって異なるため,被写界深度内に立体対象(立体の撮像対象)が入っている場合でも,カメラから立体対象までの距離の設定値を適切に設定した上でシフト量を求めて縮小像を配置しなければ,前記複数の縮小像の配置のずれ(前記シフト量の誤算出)に起因する格子状のノイズ(画像ボケの一例)が生じ,結局,高精細な画像ボケのない立体画像を構成することができない等である。
従って,本発明は上記事情に鑑みてなされたものであり,その目的とするところは,複眼式カメラを用いて画像ボケのない立体対象の画像を得るための立体画像構成方法及び複眼式カメラを用いて立体対象までの距離(立体情報)を得るための立体対象の距離導出方法を提供することにある。
However, if a conventional multi-lens camera that can be reduced in size and thickness is used for shooting and image composition under any conditions and methods, an image or a stereoscopic image that is not blurred about a stereoscopic target (three-dimensional imaging target). There was a problem that it was not clear whether information could be obtained.
For example, when a compound eye camera is used, a reduced image without blur can be obtained even for an object (imaging target) at a short distance as described above, but in order to obtain a high-resolution (high-definition) stereoscopic image. In this case, it is necessary to perform processing for correcting a shift of a plurality of reduced images and shifting the reduced images to one area. The amount of shift varies depending on the setting value of the distance to the imaging target. Therefore, even if a stereoscopic target (stereoscopic imaging target) is in the depth of field, the setting value of the distance from the camera to the stereoscopic target is appropriate. If a reduced image is not arranged by obtaining the shift amount after setting to the above, lattice-like noise (an example of image blur) due to the misalignment of the plurality of reduced images (incorrect calculation of the shift amount) occurs. After all, it is impossible to construct a high-definition 3D image without image blur.
Accordingly, the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a stereoscopic image constructing method and a compound eye camera for obtaining a stereoscopic target image without image blur using a compound eye camera. The object of the present invention is to provide a method for deriving a distance to a three-dimensional object to obtain a distance (three-dimensional information) to the three-dimensional object.

上記目的を達成するために第1の発明は,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,前記マイクロレンズアレイの正面方向における下記(X1)式を満たす前面側距離bfから下記(X2)式により求まる背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる撮影で得られた前記複数の縮小像について,下記(X3)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第1のシフト量算出工程と,前記第1のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して単一の前記立体対象の画像を構成する第1の縮小像配置工程と,を有してなることを特徴とする立体画像構成方法である。
但し,Dは前記マイクロレンズアレイ側から見た前記立体対象の奥行き方向の厚み,d及びfは前記マイクロレンズ各々の口径及び焦点距離,Nは前記マイクロレンズの一次元方向の配列数,νは前記受光素子上の前記縮小像各々の一次元方向の画素数,rはその値が約0.1である係数を表す。
このような方法によれば,撮像対象となる前記立体対象の奥行き方向の厚みが既知であり,前記立体対象までの距離を所望の距離に設定できる場合に,1回の撮像によって画像ボケのない立体対象の画像を得ることができる。しかも,前記マイクロレンズの口径及び焦点距離はごく小さいので,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を構成することが可能である。前記係数rを約0.1とすることは,画像ボケのない立体対象の画像が得られる条件として実験的に得られたものである。
In order to achieve the above object, according to a first aspect of the present invention, a stereoscopic object is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged. In the stereoscopic image forming method for forming the stereoscopic target image from the reduced image, the back side distance b b obtained from the following formula (X2) from the front side distance b f satisfying the following formula (X1) in the front direction of the microlens array. for the plurality of reduced image in which the stereoscopic object is obtained by photographing by the compound-eye camera positioned state in the range of up to the three-dimensional set distance b r which is obtained by the following (X3) equation from the microlens array A first shift amount calculating step of obtaining a shift amount relating to a shift in relative position between the plurality of reduced images as being a distance to an object; A first reduced image arrangement step of arranging the plurality of reduced images on the same region based on the shift amount obtained in the shift amount calculation step to form a single stereoscopic object image. This is a method for constructing a stereoscopic image.
Where D is the thickness in the depth direction of the three-dimensional object viewed from the microlens array side, d and f are the aperture and focal length of each microlens, N is the number of arrays in the one-dimensional direction of the microlens, and ν is The number of pixels in the one-dimensional direction of each of the reduced images on the light receiving element, r represents a coefficient whose value is about 0.1.
According to such a method, when the thickness in the depth direction of the three-dimensional object to be imaged is known and the distance to the three-dimensional object can be set to a desired distance, there is no image blur due to one imaging. A stereoscopic target image can be obtained. In addition, since the aperture and focal length of the microlens are very small, it is possible to construct an image without image blur for a stereoscopic object at a shorter distance than when a monocular camera is used. Setting the coefficient r to about 0.1 was experimentally obtained as a condition for obtaining a stereoscopic target image without image blur.

また,第2の発明は,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,前記マイクロレンズアレイの正面方向における下記(X4)式及び(X5)式をそれぞれ満たす前面側距離bfから背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる撮影で得られた前記複数の縮小像について,下記(X6)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第2のシフト量算出工程と,前記第2のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して単一の前記立体対象の画像を構成する第2の縮小像配置工程と,を有してなることを特徴とする立体画像構成方法である。
但し,d及びfは前記マイクロレンズ各々の口径及び焦点距離,Nは前記マイクロレンズの一次元方向の配列数,νは前記受光素子上の前記縮小像各々の一次元方向の画素数,rはその値が約0.1である係数,yは各式で共通の所定のパラメータを表す。
このような方法によっても,前記第1の発明と同様の作用効果を奏する。
According to a second aspect of the present invention, a stereoscopic object is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged. In the stereoscopic image constructing method for constructing the target image, the microlens array has the above-mentioned formulas (X4) and (X5) in the front direction within the range from the front side distance b f to the back side distance b b. for the plurality of reduced image obtained by photographing by the compound-eye camera in a state where the three-dimensional object is located, is the distance of the set distance b r which is obtained by the following (X6) equation from the microlens array to said solid target Obtained by a second shift amount calculating step for obtaining a shift amount relating to a relative position shift between the plurality of reduced images, and the second shift amount calculating step. And a second reduced image arrangement step of arranging a plurality of reduced images on the same region based on the shift amount to form a single image of the three-dimensional object. This is an image construction method.
Where d and f are the aperture and focal length of each of the microlenses, N is the number of arrays in the one-dimensional direction of the microlenses, ν is the number of pixels in the one-dimensional direction of each of the reduced images on the light receiving element, and r is A coefficient whose value is about 0.1, y represents a predetermined parameter common to each equation.
Even with such a method, the same effects as those of the first invention can be obtained.

また,第3の発明は,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮像し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,前記複眼式カメラによる前記立体対象の撮影により得られた前記複数の縮小像について,所定の複数の設定距離ごとに該設定距離が前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第3のシフト量算出工程と,前記第3のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して前記設定距離ごとに単一の前記立体対象の画像を構成する第3の縮小像配置工程と,前記第3の縮小像配置工程により得られた各構成画像の各全領域が区分された複数の要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケのない或いは画像ボケの小さい前記要素領域の画像を選択する第1の要素領域画像選択工程と,前記第1の要素領域画像選択工程により選択された前記要素領域の画像を組み合わせて単一の前記立体対象の画像を構成する画像組合せ工程と,を有してなることを特徴とする立体画像構成方法である。
この方法によれば,1回の撮像によって得た前記複数の縮小像に対し,前記立体対象までの距離を仮定した複数の前記設定距離ごとに立体画像が構成され,その複数の構成画像から,前記要素領域ごとに画像ボケのない(或いは小さい)前記要素領域の画像が選択されて組み合わされ,全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。従って,前記立体対象までの距離を任意に設定できない場合や,前記立体対象の奥行き方向の厚みが1つの前記設定距離を用いたシフト量計算に基づいて構成される前記構成画像に画像ボケが生じない最大奥行き長さを超えている場合であっても,全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。
しかも,前記マイクロレンズの口径及び焦点距離はごく小さいので,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を得ることが可能である。
この場合,前記設定距離br(i)(i=1,2,…,n)を下記(X7)式により求まる距離又は下記(X7)式により求まる距離よりも設定間隔が狭い距離に設定することが好適である。
但し,bf(1)は所定の初期値,rはその値が約0.1である係数とする。
この(X7)式は,前記設定距離をbr(i)としたときに画像ボケが生じない前記立体対象の最背面までの距離bb(i)と,前記設定距離をbr(i+1)としたときに画像ボケが生じない前記立体対象の最前面までの距離bf(i+1)とが一致する(bb(i)=bf(i+1))ように前記設定距離br(i)を求めるものである。
従って,(X7)式に従って前記設定距離br(i)を設定すれば,前記第3の縮小像配置工程における前記縮小像の配置処理の回数(=一定奥行き長さに対する前記設定距離の数n)を最も少ない回数にしながら,かつ前記第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。
もちろん,前記設定距離を(X7)式により求まる距離よりも設定間隔が狭い距離に設定すれば前記第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。但しこの場合,奥行き方向の一定長さに対して前記第3の縮小像配置工程における前記縮小像の配置処理の回数(=n)が増えるので,その分演算負荷が増大する。
According to a third aspect of the present invention, a three-dimensional object is imaged by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and the three-dimensional object is obtained from the plurality of reduced images. In the method for constructing a stereoscopic image that constitutes an image of an object, the set distance is determined from the microlens array for each of a plurality of predetermined set distances for the plurality of reduced images obtained by photographing the stereoscopic object by the compound eye camera. A third shift amount calculation step for obtaining a shift amount relating to a shift in relative position between the plurality of reduced images as a distance to the three-dimensional object, and the shift amount obtained in the third shift amount calculation step. A plurality of reduced images based on the same region, and a third reduced image arrangement step of forming a single stereoscopic target image for each set distance; From the image of a plurality of element regions obtained by dividing the entire region of each component image obtained by the reduced image arrangement step, there is no image blur or small image blur for each of the corresponding component regions between the component images. The first element region image selecting step for selecting the element region image and the element region image selected by the first element region image selecting step are combined to form a single three-dimensional object image. And a method for constructing a three-dimensional image.
According to this method, a stereoscopic image is configured for each of the plurality of set distances assuming a distance to the stereoscopic object, with respect to the plurality of reduced images obtained by one imaging, and from the plurality of constituent images, The image of the element area without image blur (or small) is selected and combined for each element area, and a stereoscopic image without image blur (or small) can be obtained for all areas. Therefore, when the distance to the three-dimensional object cannot be arbitrarily set, or when the thickness of the three-dimensional object is in the depth direction, an image blur occurs in the configuration image configured based on the shift amount calculation using one set distance. Even when the maximum depth length is not exceeded, a stereoscopic image free from (or small) image blur can be obtained for the entire region.
In addition, since the aperture and focal length of the microlens are very small, it is possible to obtain an image without image blur for a stereoscopic object at a shorter distance than when a monocular camera is used.
In this case, the set distance b r (i) (i = 1, 2,..., N) is set to a distance obtained by the following equation (X7) or a distance whose setting interval is narrower than the distance obtained by the following equation (X7). Is preferred.
Here, b f (1) is a predetermined initial value, and r is a coefficient whose value is about 0.1.
The (X7) expression the set distance between b r the distance to the top rear surface of the three-dimensional object image blur does not occur when the (i) b b (i) , the set distance b r (i + The setting is made so that the distance b f (i + 1) to the forefront of the three-dimensional object that does not cause image blur when 1) matches (b b (i) = b f (i + 1)). The distance b r (i) is obtained.
Therefore, if the set distance b r (i) is set according to the equation (X7), the number of times of the reduced image placement process in the third reduced image placement step (= the number n of the set distances for a certain depth length). ) In the smallest number of times, and in the first element area image selection step, an image for each element area without image blur (or small) can be selected with certainty.
Of course, if the set distance is set to a distance whose set interval is narrower than the distance obtained by the equation (X7), the image for each element area without image blur (or smaller) in the first element area image selection step can be ensured. Can be selected. However, in this case, since the number of times of reduction image placement processing (= n) in the third reduced image placement step increases with respect to a certain length in the depth direction, the calculation load increases accordingly.

また,第4の発明は,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から構成した前記立体対象の画像に基づいて前記マイクロレンズアレイから前記立体対象の各部位までの距離を求める立体対象の距離導出方法であって,前記複眼式カメラによる前記立体対象の撮影により得られた前記複数の縮小像について,所定の複数の設定距離ごとに該設定距離が前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第3のシフト量算出工程と,前記第3のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して前記設定距離ごとに単一の前記立体対象の画像を構成する第3の縮小像配置工程と,前記第3の縮小像配置工程により得られた各構成画像の各全領域が区分された複数の要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケの有無又は画像ボケの程度に関する画像ボケ情報を求める画像ボケ情報導出工程と,前記画像ボケ情報導出工程で得られた前記画像ボケ情報及びそれに対応する前記設定距離に基づいて前記要素領域それぞれに対応する前記立体対象の各部位についての前記マイクロレンズアレイからの距離を求める距離導出工程と,を有してなることを特徴とする立体対象の距離導出方法である。
例えば,前記距離導出工程が,前記画像ボケ情報導出工程により得られた前記画像ボケ情報に基づいて前記各構成画像間で対応する前記要素領域ごとに画像ボケのない或いは画像ボケの小さい前記要素領域の画像を選択する第2の要素領域画像選択工程を有し,該第2の要素領域画像選択工程で選択された前記要素領域の画像に対応する前記設定距離に基づいて前記要素領域それぞれに対応する前記立体対象の各部位についての前記マイクロレンズアレイからの距離を求めてなるもの等である。
この方法によれば,1回の撮像によって得た前記複数の縮小像に対し,前記立体対象までの距離を仮定した複数の前記設定距離ごとに立体画像が構成され,その複数の構成画像から,前記要素領域ごとに前記画像ボケ情報を得ることができる。ここで,前記画像ボケ情報から,画像ボケがない(或いは小さい)と判別された前記要素領域に対応する前記立体対象の部位は,その要素領域の画像に対応する前記設定距離(即ち,その要素領域の画像が得られたときの前記設定距離)の前後の所定範囲内に入っていることになる。
従って,画像ボケがない(或いは小さい)若しくは画像ボケの程度が最も小さいと判別された前記要素領域の画像について,例えばその画像に対応する前記設定距離をその要素領域に対応する前記立体対象の部位の距離として求めれば,そのときの設定距離の前後の画像ボケが生じない範囲を最大誤差範囲として前記立体対象の各部位の距離を求めることができる。
その他にも,例えば前記要素領域ごとに,画像ボケがない(或いは小さい)ものとして選択された前記要素領域の画像が複数ある場合に,それらに対応する複数の前記設定距離について,最大値,最小値若しくは平均値を求める,又は最小の前記設定距離と最大の前記設定距離とを所定の重み付けでの加重平均値を求める(単純平均を含む)ことにより得られた値(距離)を前記立体対象の各部位の距離とすること等も考えられる。
According to a fourth aspect of the present invention, a three-dimensional object is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and is configured from the plurality of reduced images. A method of deriving a distance of a three-dimensional object that obtains a distance from the microlens array to each part of the three-dimensional object based on the image of the three-dimensional object, the plurality of the plurality of objects obtained by photographing the three-dimensional object with the compound eye camera For each of a plurality of reduced images, a third shift amount is obtained for each of a plurality of predetermined set distances, wherein the set distance is a distance from the microlens array to the three-dimensional object, and a shift amount relating to a relative position shift between the plurality of reduced images is obtained. Based on the shift amount obtained in the shift amount calculation step and the third shift amount calculation step, the plurality of reduced images are arranged on the same area before the shift amount calculation step. A third reduced image arrangement step that constitutes a single three-dimensional object image for each set distance, and a plurality of elements in which all regions of each component image obtained by the third reduced image arrangement step are divided Obtained from an image blur information derivation step for obtaining image blur information relating to the presence or absence of image blur or the degree of image blur for each element region corresponding to each of the component images, and the image blur information derivation step. A distance deriving step for obtaining a distance from the microlens array for each part of the three-dimensional object corresponding to each of the element regions based on the image blur information and the set distance corresponding to the image blur information. This is a method for deriving the distance of a featured solid object.
For example, the distance deriving step includes the element region having no image blur or small image blur for each of the element regions corresponding between the constituent images based on the image blur information obtained by the image blur information deriving step. A second element area image selecting step for selecting the image of the element, and corresponding to each of the element areas based on the set distance corresponding to the image of the element area selected in the second element area image selecting step The distance obtained from the microlens array for each part of the three-dimensional object to be obtained is obtained.
According to this method, a stereoscopic image is configured for each of the plurality of set distances assuming a distance to the stereoscopic object, with respect to the plurality of reduced images obtained by one imaging, and from the plurality of constituent images, The image blur information can be obtained for each element region. Here, from the image blur information, the part of the three-dimensional object corresponding to the element region determined to have no image blur (or small) is the set distance corresponding to the image of the element region (that is, the element This is within a predetermined range before and after the set distance when the image of the area is obtained.
Therefore, for the image of the element area determined to have no (or small) image blur or the smallest degree of image blur, for example, the set distance corresponding to the image is the part of the three-dimensional object corresponding to the element area. If the distance is determined as the distance, the distance between the respective portions of the three-dimensional object can be determined with the range where the image blur before and after the set distance is not generated as the maximum error range.
In addition, for example, in the case where there are a plurality of images of the element region selected as having no image blur (or small) for each element region, the maximum value and the minimum value are set for the plurality of set distances corresponding to the images. A value (distance) obtained by obtaining a value or an average value, or by obtaining a weighted average value (including a simple average) with a predetermined weight between the minimum set distance and the maximum set distance. It is also conceivable to set the distance of each part.

前記第1の発明によれば,撮像対象となる前記立体対象の奥行き方向の厚みが既知であり,立体対象(撮像対象)までの距離を所望の距離に設定できる場合に,複眼式カメラを用いた1回の撮像によって画像ボケのない立体対象の画像を得ることができる。しかも,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を構成することが可能である。
また,前記第3の発明によれば,複眼式カメラを用いた1回の撮像によって得た複数の縮小像に対し,立体対象までの距離を仮定した複数の設定距離ごとに立体画像が構成され,その複数の構成画像から,前記要素領域ごとに画像ボケのない(或いは小さい)前記要素領域の画像が選択されて組み合わされ,全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。従って,前記立体対象までの距離を任意に設定できない場合や,前記立体対象の奥行き方向の厚みが1つの前記設定距離を用いたシフト量計算に基づいて構成される前記構成画像に画像ボケが生じない最大奥行き長さを超えている場合であっても,全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。
しかも,前記マイクロレンズの口径及び焦点距離はごく小さいので,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を得ることが可能である。
さらにこの場合,前記(X7)式に従って前記設定距離br(i)を設定すれば,前記第3の縮小像配置工程における前記縮小像の配置処理の回数(=一定奥行き長さに対する前記設定距離の数n)を最も少ない回数にしながら,かつ前記第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。また,前記設定距離を(X7)式により求まる距離よりも設定間隔が狭い距離に設定すれば前記第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。
また,前記第4の発明によれば,1回の撮像によって得た前記複数の縮小像に対し,前記立体対象までの距離を仮定した複数の前記設定距離ごとに立体画像が構成され,その複数の構成画像から,前記要素領域ごとに前記画像ボケ情報を得ることができ,この画像ボケ情報から,前記設定距離の前後の画像ボケが生じない範囲を最大誤差範囲として前記立体対象の各部位の距離(立体情報)を求めることができる。
According to the first aspect of the invention, the compound eye camera is used when the depth of the stereoscopic object to be imaged is known and the distance to the stereoscopic object (imaging object) can be set to a desired distance. Thus, it is possible to obtain a stereoscopic target image without image blur by one imaging. In addition, it is possible to construct an image without image blur for a three-dimensional object at a shorter distance than when a monocular camera is used.
According to the third aspect of the present invention, a stereoscopic image is formed for each of a plurality of set distances assuming a distance to a stereoscopic object with respect to a plurality of reduced images obtained by one imaging using a compound eye camera. From the plurality of component images, the image of the element area without (or small) image blur is selected and combined for each element area, and a stereoscopic image without image blur (or small) is obtained for all areas. it can. Therefore, when the distance to the three-dimensional object cannot be arbitrarily set, or when the thickness of the three-dimensional object is in the depth direction, an image blur occurs in the configuration image configured based on the shift amount calculation using one set distance. Even when the maximum depth length is not exceeded, a stereoscopic image free from (or small) image blur can be obtained for the entire region.
In addition, since the aperture and focal length of the microlens are very small, it is possible to obtain an image without image blur for a stereoscopic object at a shorter distance than when a monocular camera is used.
Further, in this case, if the set distance b r (i) is set according to the equation (X7), the number of reduced image placement processes in the third reduced image placement step (= the set distance for a certain depth length). In the first element region image selection step, it is possible to reliably select an image for each element region without image blur (or small). Further, if the set distance is set to a distance whose set interval is narrower than the distance obtained by the equation (X7), the image for each element area that is surely free from (or smaller in) image blur in the first element area image selection step. Can be selected.
According to the fourth aspect of the present invention, a stereoscopic image is constructed for each of the plurality of set distances assuming a distance to the stereoscopic object, with respect to the plurality of reduced images obtained by one imaging. The image blur information can be obtained for each element region from the component image, and from this image blur information, a range in which image blur before and after the set distance does not occur is set as a maximum error range, and each part of the three-dimensional object is determined. The distance (three-dimensional information) can be obtained.

以下添付図面を参照しながら,本発明の実施の形態について説明し,本発明の理解に供する。尚,以下の実施の形態は,本発明を具体化した一例であって,本発明の技術的範囲を限定する性格のものではない。
ここに,図1は第1の発明に係る立体画像構成方法の手順の一例を表すフローチャート,図2は複眼式カメラでの撮影により得られる縮小像の一例,図3は立体対象の面までの距離と構成画像の生成に用いる設定距離とが異なる場合の複眼式カメラによる観察領域を模式的に表した図,図4は第1の発明に係る立体画像構成方法における設定距離と立体対象の厚みとの関係を表すグラフの一例,図5は前記複眼式カメラにおけるマイクロレンズ間の視差について模式的に表した図,図6は複数の縮小像を同一領域上に配置する様子を模式的に表した図,図7は第1の発明に係る立体画像構成方法により得られた立体画像の一例,図8は第3の発明に係る立体画像構成方法の手順の一例を表すフローチャート,図9は第3の発明に係る立体画像構成方法における構成画像の区分について模式的に表した図,図10は第4の発明に係る立体対象の距離導出方法の手順の一例を表すフローチャート,図11は単眼式カメラの光学系と複眼式カメラの光学系の模式図,図12は被写界深度を説明するための図である。
以下,本発明の実施の形態に係る立体画像構成方法及び立体対象の距離導出方法の手順について工程を追って説明するが,各工程で示される式の計算や画像の配置(画像データのメモリ領域への配置)等の処理は,所定のプログラムをコンピュータで実行し,処理結果をハードディスク等の記憶手段に記憶させながら実行するものである。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings so that the present invention can be understood. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.
FIG. 1 is a flowchart showing an example of the procedure of the stereoscopic image forming method according to the first invention, FIG. 2 is an example of a reduced image obtained by photographing with a compound eye camera, and FIG. FIG. 4 is a diagram schematically showing an observation area by a compound eye camera when the distance and the set distance used for generating the composition image are different. FIG. 4 is a diagram illustrating the set distance and the thickness of the three-dimensional object in the three-dimensional image construction method according to the first invention. FIG. 5 is a diagram schematically showing the parallax between the microlenses in the compound-eye camera, and FIG. 6 schematically shows how a plurality of reduced images are arranged in the same region. FIG. 7 is an example of a stereoscopic image obtained by the stereoscopic image construction method according to the first invention, FIG. 8 is a flowchart showing an example of the procedure of the stereoscopic image construction method according to the third invention, and FIG. 3D image according to invention 3 FIG. 10 is a flowchart schematically showing an example of the procedure of the method for deriving the distance of a three-dimensional object according to the fourth invention, and FIG. 11 is an optical system of a monocular camera and a compound eye type. FIG. 12 is a schematic diagram of the optical system of the camera, and FIG. 12 is a diagram for explaining the depth of field.
Hereinafter, the steps of the method for constructing the stereoscopic image and the method for deriving the distance of the stereoscopic object according to the embodiment of the present invention will be described step by step, but the calculation of the formulas shown in each step and the arrangement of the images (to the memory area of the image data) And the like are executed while a predetermined program is executed by a computer and the processing result is stored in a storage means such as a hard disk.

(第1の発明)
まず,図1のフローチャートを用いて,前記第1の発明に係る立体画像構成方法の手順の一例について説明する。以下S1,S2,,は処理手順(ステップ)の番号を示す。
<S1:撮影工程>
まず,所定の撮影条件Xの下で,複数のマイクロレンズ(図11に示す前記マイクロレンズ80)が配列されたマイクロレンズアレイを通じて受光素子(図11に示す前記受光素子81)上に複数の縮小像を結像する複眼式カメラにより,撮影対象である立体対象(三次元物体)を撮影する(S1)。
前記撮影条件Xは,前記マイクロレンズアレイの正面方向における下記(X1)式を満たす前面側距離bfから下記(X2)式により求まる背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる撮影を行う。
但し,Dは前記マイクロレンズアレイ側から見た前記立体対象の奥行き方向の厚み,d及びfは前記マイクロレンズ各々の口径及び焦点距離,Nは前記マイクロレンズの一次元方向の配列数,νは前記受光素子上の前記縮小像各々の一次元方向の画素数,rはその値が約0.1である係数を表す。
これにより,前記マイクロレンズアレイを通じて前記受光素子上に結像される複数の縮小像(物体縮小像)が得られる。本撮影により得られた前記複数の縮小像のデータは,前記複眼式カメラから所定のコンピュータに転送され,該コンピュータの記憶手段に記憶される。
図2(a)は,前記マイクロレンズが11×11(縦×横)個配列されたマイクロレンズアレイを備えた前記複眼式カメラにより,平面物体である「A」という文字盤を撮影した場合に,前記受光素子上に結像され,画像情報に変換された前記複数の縮小像(121個の縮小像)の一例を表し,図2(b)は,前記縮小像単体の一例を表す。図2では,便宜上,平面物体の像を示したが,立体対象(三次元物体)を撮影した場合であっても同様である。図2(b)に示すように,前記縮小像それぞれは,解像度の低い粗い画像である。
(First invention)
First, an example of the procedure of the stereoscopic image construction method according to the first invention will be described with reference to the flowchart of FIG. In the following, S1, S2, and so on indicate process procedure (step) numbers.
<S1: Shooting process>
First, under a predetermined photographing condition X, a plurality of reductions are performed on a light receiving element (the light receiving element 81 shown in FIG. 11) through a microlens array in which a plurality of microlenses (the microlens 80 shown in FIG. 11) are arranged. A three-dimensional object (three-dimensional object) that is an object to be imaged is imaged by a compound eye camera that forms an image (S1).
In the photographing condition X, the three-dimensional object is arranged within a range from a front side distance b f satisfying the following formula (X1) in the front direction of the microlens array to a back side distance b b obtained by the following formula (X2). Shooting with the compound-eye camera is performed.
Where D is the thickness in the depth direction of the three-dimensional object viewed from the microlens array side, d and f are the aperture and focal length of each microlens, N is the number of arrays in the one-dimensional direction of the microlens, and ν is The number of pixels in the one-dimensional direction of each of the reduced images on the light receiving element, r represents a coefficient whose value is about 0.1.
As a result, a plurality of reduced images (object reduced images) formed on the light receiving element through the microlens array are obtained. The data of the plurality of reduced images obtained by the actual photographing is transferred from the compound-eye camera to a predetermined computer and stored in a storage unit of the computer.
FIG. 2A shows a case where a dial “A”, which is a planar object, is photographed by the compound eye camera having a microlens array in which 11 × 11 (vertical × horizontal) microlenses are arranged. FIG. 2B shows an example of the plurality of reduced images (121 reduced images) formed on the light receiving element and converted into image information, and FIG. 2B shows an example of the reduced image alone. In FIG. 2, an image of a planar object is shown for convenience, but the same applies to a case where a three-dimensional object (three-dimensional object) is photographed. As shown in FIG. 2B, each of the reduced images is a coarse image with a low resolution.

ここで,(X1)式及び(X2)式の導出過程について説明する。
立体対象を複眼式カメラで撮影して得られた前記複数の縮小像から,高精細の画像を得るためには,後述するように前記複数の縮小像相互間の相対位置のずれ(シフト量)を補正(シフト)しながら同一領域に配置(再配置)する必要がある。以下,このように前記複数の縮小像をシフトして同一領域に配置して得られる画像を構成画像という。ここで,各縮小像のシフト量は,後述するように前記マイクロレンズアレイから前記立体対象の面までの距離を与える(以下,この距離を設定距離という)ことによって求めることができるが,前記設定距離と前記立体対象の面までの実際の距離とに差がある場合には,前記構成画像に画像ボケが生じてしまう。
Here, the derivation process of the equations (X1) and (X2) will be described.
In order to obtain a high-definition image from the plurality of reduced images obtained by photographing a three-dimensional object with a compound eye camera, the relative position shift (shift amount) between the plurality of reduced images is described later. It is necessary to arrange (rearrange) in the same area while correcting (shifting). Hereinafter, an image obtained by shifting the plurality of reduced images and arranging them in the same area is referred to as a component image. Here, the shift amount of each reduced image can be obtained by giving a distance from the microlens array to the surface of the three-dimensional object as will be described later (hereinafter, this distance is referred to as a set distance). When there is a difference between the distance and the actual distance to the surface of the three-dimensional object, image blurring occurs in the component image.

図3は,撮像対象である立体対象の最前面(以下,物体最前面という)までの距離bfと前記構成画像の生成に用いる前記設定距離brとが異なる場合の前記複眼式カメラによる観察領域を模式的に表したものである。説明の簡単化のため,図3では1次元で説明する。
図3において,前記マイクロレンズ各々の口径をd,焦点距離をf,前記最前面までの距離をbfとすると,物体縮小光学系の焦点距離と倍率の関係により,前記物体最前面の観察領域の1次元方向の長さは,bf×d/fとなる(図のW1の領域)。物体縮小光学系では,この領域W1の画像情報として,複数の画素情報が前記受光素子上の前記dの幅内で等間隔に観察される。
また,前記マイクロレンズアレイの1次元方向のアレイ数(前記マイクロレンズの個数)をN(図3ではN=3)とおくと,各マイクロレンズの視差量から,前記複眼式カメラ(複眼光学系)による距離bfの位置における全観察領域(図中,長方形で囲まれている領域W0)の1次元方向の長さは,d×(N−1)+bf×d/fとなる。この全観察領域W0は,前記物体最前面までの距離によって異なるため,前記物体最前面までの距離bfと,前記構成画像を生成する際に用いる前記設定距離brとに差がある場合,前記構成画像と実際の前記物体面の像とに差が生じる。
例えば,図3に示すように前記設定距離brが前記物体最前面までの距離bfよりも大きい場合,前記構成画像の全領域に対応する構成面(前記設定距離brに位置する面)の全観察領域(図中,長方形で囲まれている領域Wr)の長さは,前記物体最前面での全観察領域W0よりも広い範囲となる。このため,図3における1つの前記マイクロレンズにより観察される領域の最も端の点である前記物体最前面の黒丸の点Pbは,前記構成面の全観察領域Wr上において,正しくは白抜きの一重丸の点Pw上に投影されるべきであるのにもかかわらず,二重丸の点Pg上にあるかのように構成される。この2点Pg,Pwの距離(ずれ)が大きい場合,前記構成画像に格子状のノイズ(画像ボケの一例)が発生してしまう。そして,前記構成面と実際の前記物体面とのずれ(以下,位置ずれという)は,前記マイクロレンズそれぞれにより観察される領域の最も端の点(前記点Pb,Pgに相当)に対応する画素で最も顕著となる。
FIG. 3 shows the observation by the compound-eye camera when the distance b f to the forefront of the three-dimensional object that is the imaging target (hereinafter referred to as the forefront of the object) is different from the set distance b r used for generating the component image. This is a schematic representation of the region. For simplicity of explanation, FIG. 3 will be described in one dimension.
3, the microlenses each diameter d, a focal length f, the when the distance to the foreground and b f, the relationship between the focal length and magnification of the object the reduction optical system, the object foreground observation region The length in the one-dimensional direction is b f × d / f (region W1 in the figure). In the object reduction optical system, a plurality of pieces of pixel information are observed at regular intervals within the width d on the light receiving element as image information of the region W1.
If the number of microlens arrays in the one-dimensional direction (the number of the microlenses) is N (N = 3 in FIG. 3), the compound-eye camera (compound-eye optical system) is calculated from the parallax amount of each microlens. ) In the one-dimensional direction of the entire observation region (region W0 surrounded by a rectangle in the figure) at the position of the distance b f is d × (N−1) + b f × d / f. Since this total observation region W0 varies depending on the distance to the forefront of the object, when there is a difference between the distance b f to the forefront of the object and the set distance b r used when generating the component image, There is a difference between the component image and the actual image of the object plane.
For example, as shown in FIG. 3, when the set distance b r is larger than the distance b f to the forefront of the object, the configuration surface corresponding to the entire region of the configuration image (surface located at the set distance b r ) The length of the entire observation region (region Wr surrounded by a rectangle in the figure) is wider than the entire observation region W0 on the forefront of the object. For this reason, the black point Pb on the forefront of the object, which is the end point of the region observed by one microlens in FIG. 3, is correctly outlined on the entire observation region Wr on the component surface. Although it should be projected on the single circle point Pw, it is configured as if it is on the double circle point Pg. When the distance (deviation) between the two points Pg and Pw is large, grid-like noise (an example of image blur) is generated in the configuration image. A displacement between the component surface and the actual object surface (hereinafter referred to as a positional displacement) corresponds to the extreme end point (corresponding to the points Pb and Pg) of the region observed by each of the microlenses. Becomes the most prominent.

以下,前記位置ずれを前記縮小像における各画素の観察領域から解析する。
前記マイクロレンズ各々の口径及び焦点距離をd及びf,前記受光素子上における前記縮小像各々の一次元方向の画素数をν(前記受光素子における前記マイクロレンズの口径と同じ幅d当たりの画素数),前記マイクロレンズの一次元方向の配列数をN,前記構成面の全観察領域Wrの一方の端点(図3では左端)の座標を0とすると,前記構成面の全観察領域Wrの他方の端点(図3では右端)の座標は(ν+N−1)とおくことができ,前記構成面上の点Pgの座標y(即ち,前記位置ずれの最も顕著な点の座標)は,次の(4)式で表される。
この(4)式は,次の(5)式のように変形できる。
ここで,前記立体対象の面までの距離が,前記構成画像を生成する際に用いる前記設定距離brと異なる場合であっても,座標yの方向において1画素の大きさに対する所定比r(0<r<1,以下,rを許容係数という)の差(ずれ)以内に収まる場合は,得られる画素情報にほとんど差がなく,画像ボケが認識されない(画像ボケがない,或いは小さい)許容範囲であるとする。
このとき,前記設定距離brを用いて前記構成画像を生成する際に,画像ボケが認識されない最も前面側(最も前記マイクロレンズアレイに近い側)の距離である前面側距離bfと,同じく画像ボケが認識されない最も最背面側(最も前記マイクロレンズアレイから遠い側)の距離である背面側距離bbとは,前記(5)式のyにそれぞれ(y+r),(y−r)を代入して得られる次の(6)式及び(7)式で表される。
従って,(6)式及び(7)式を満たす撮影条件で得られた前記複数の縮小像について,(5)式で求まる前記設定距離brを用いて前記構成画像の生成を行えば,画像ボケのない前記構成画像を得ることができる。ここで,yは(5)式〜(7)式で共通のパラメータとして捉えることができる。
Hereinafter, the positional shift is analyzed from the observation area of each pixel in the reduced image.
The aperture and focal length of each of the microlenses is d and f, and the number of pixels in each one-dimensional direction of the reduced image on the light receiving element is ν (the number of pixels per width d which is the same as the aperture of the microlens in the light receiving element). ), Where N is the number of arrays in the one-dimensional direction of the micro lens, and the coordinate of one end point (the left end in FIG. 3) of the entire observation region Wr on the component surface is 0, the other of the entire observation regions Wr on the component surface The coordinate of the end point (right end in FIG. 3) can be set to (ν + N−1), and the coordinate y of the point Pg on the component surface (that is, the coordinate of the most prominent point of the displacement) is It is represented by the formula (4).
This equation (4) can be transformed into the following equation (5).
Here, the distance to the surface of the solid object, even if different from the set distance b r to be used for generating the configuration image, a predetermined ratio to the size of one pixel in the direction of the coordinate y r ( 0 <r <1, or less, where r is an allowable coefficient) (within a difference), there is almost no difference in the obtained pixel information, and image blur is not recognized (no image blur or small) Suppose that it is a range.
At this time, when the component image is generated using the set distance b r , the front side distance b f that is the distance on the most front side (side closest to the microlens array) where image blur is not recognized is the same. the rear side distance b b is the distance of the most backmost side image blur is not recognized (most the microlens farther from the array), the (5) respectively in the expression of y (y + r), a (y-r) It is expressed by the following equations (6) and (7) obtained by substitution.
Thus, (6) and (7) above for a plurality of reduced image obtained by the imaging condition satisfying, by performing generation of the constituent images by using the set distance b r which is obtained by (5), the image The component image without blur can be obtained. Here, y can be regarded as a common parameter in the equations (5) to (7).

前記(5)〜(7)式において,bf,bb,brを変数と捉えた場合,これら変数のいずれかが与えられると(既知であると),パラメータyの値が求まるので,そのyの値を前記(5)〜(7)式のいずれかに代入することによって残りの変数が求まる。
例えば,画像ボケのない画像を取得したい前記立体対象の奥行き方向(前記マイクロレンズアレイから見た奥行き方向)の厚みDが与えられ,前記前面側距離bfを任意に設定できる場合を考える。ここでの厚みDは,前記立体対象として設置する物体の実際の奥行き方向の厚みを意味するのではなく,前記複眼式カメラによって撮像可能な部分(前記複眼式カメラ側から見える部分)についての奥行き方向の厚みを意味する。
この場合,画像ボケのない前記構成画像を得るためには,D≦bb−bfである必要がある。ここで,D≦bb−bfとして前記(6)式及び(7)式を整理すると,次の(8)式を導くことができる。
この(8)式を(5)式に代入すると,前記前面側距離bfが満たすべき条件式として前記(X1)式が得られる。
一方,前記(X1)式を満たす前記前面側距離bfが決まれば,前記(5)式及び(7)式それぞれに,前記(6)式を「y=」の形に変形して代入することにより,前記設定距離br及び前記背面側距離bbを求めることができる。
このようにして前記(6)式を前記(7)式に代入した式が前記(X2)式である。
従って,前記(X1)式を満たす前面側距離bfから前記(X2)式により求まる背面側距離bbまでの範囲内に前記立体対象が配置された前記撮影条件Xの下で前記複眼式カメラにより撮影を行い,それにより得られた前記複数の縮小像について,「y=」の形に変形した前記(6)式を前記(5)式に代入した式(後述する(X3)式)で求まる前記設定距離brを用いた前記構成画像の生成を行えば,画像ボケのない前記構成画像を得ることができる。
In the expressions (5) to (7), when b f , b b , and b r are regarded as variables, if any of these variables is given (if known), the value of the parameter y is obtained. The remaining variables are obtained by substituting the value of y into any one of the equations (5) to (7).
For example, let us consider a case where a thickness D in the depth direction (depth direction viewed from the microlens array) of the three-dimensional object for which an image without image blur is to be acquired is given, and the front side distance b f can be arbitrarily set. The thickness D here does not mean the thickness in the depth direction of the object placed as the three-dimensional object, but the depth of the portion that can be imaged by the compound eye camera (the portion that can be seen from the compound eye camera side). It means the thickness in the direction.
In this case, it is necessary to satisfy D ≦ b b −b f in order to obtain the component image without image blur. Here, the following equation (8) can be derived by arranging the above equations (6) and (7) as D ≦ b b −b f .
By substituting this equation (8) into equation (5), the above equation (X1) is obtained as a conditional expression to be satisfied by the front side distance b f .
On the other hand, if the front side distance b f satisfying the equation (X1) is determined, the equation (6) is transformed into “y =” and substituted for the equations (5) and (7). Thus, the set distance b r and the back side distance b b can be obtained.
In this way, the formula obtained by substituting the formula (6) into the formula (7) is the formula (X2).
Accordingly, the compound-eye camera under the photographing condition X in which the three-dimensional object is arranged within the range from the front side distance b f satisfying the formula (X1) to the back side distance b b determined by the formula (X2). For the plurality of reduced images obtained by the above, the expression (6) transformed into the form of “y =” is substituted into the expression (5) (expression (X3) described later). If the component image is generated using the determined set distance br, the component image without image blur can be obtained.

図4は,奥行き方向の厚みDの前記立体対象の最前面を前記前面側距離bfのうち最も小さい距離(前記(X1)式における左辺=右辺としたときの前記前面側距離bf)に配置した場合における,その前面側距離bfと前記厚みDとの関係を表すグラフの一例である。図4では,f=1.3mm,d=0.5mm,N=5,ν=80としており,これらの値は,現状の前記複眼式カメラを構成するデバイス技術で十分構築できる値である。なお,r=0.1である。
図4より,前記前面側距離bfが400mmの位置において,画像ボケの生じない奥行き方向の厚みDが約75mmであることから,例えば,セキュリティ分野において人の顔の形状認識を行うような場合でも,凹凸のある顔の立体画像を十分に画像ボケなく構成することができることを示している。
FIG. 4 shows that the forefront of the three-dimensional object having a thickness D in the depth direction is the smallest distance among the front surface side distances b f (the front surface side distance b f when the left side in the equation (X1) is the right side). It is an example of the graph showing the relationship between the front side distance bf and the said thickness D when arrange | positioning . In FIG. 4, f = 1.3 mm, d = 0.5 mm, N = 5, and ν = 80, and these values are values that can be satisfactorily constructed by the current device technology that constitutes the compound-eye camera. Note that r = 0.1.
As shown in FIG. 4, when the front side distance b f is 400 mm, the thickness D in the depth direction where image blur does not occur is about 75 mm. For example, in the security field, the shape of a human face is recognized. However, it is shown that a three-dimensional image of an uneven face can be constructed without image blur.

<S2:第1のシフト量算出工程>
次に,前記撮影条件Xの下で前記複眼式カメラを用いた撮影により得られた前記複数の縮小像について,前記(X3)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める(S2)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(前記シフト量)が前記記憶手段に記憶される。ここで,(X3)式は,「y=」の形に変形した前記(6)式を前記(5)式に代入した式である。従って,前記撮影条件Xの下で得られた前記複数の縮小像について,(X3)式により求まる前記設定距離brを用いれば,画像ボケのない前記構成画像を得ることができる。
ところで,図5は,前記複眼式カメラにおける前記マイクロレンズ間の視差について模式的に表した図である。
図5に示すように,距離bだけ離れた物体を観察する場合,1つの前記マイクロレンズによる観察領域の幅W1は,前記マイクロレンズの倍率を考慮するとdb/fとなる。また,隣り合う前記マイクロレンズの観察領域相互間には,視差によりd(=前記マイクロレンズの口径)の相対位置のずれが生じる。この物体面での視差によるずれdは,前記縮小像においてf/b倍に縮小される。
この第1のシフト量算出工程では,前記(X3)式により求めた前記設定距離bfを前記マイクロレンズアレイから前記立体対象までの距離であるとして隣合う前記縮小像間における相対位置のずれを求める。そうすると,(df/bf)が隣合う前記縮小像間における相対位置のずれとなる。
さらに,前記相対値のずれの量に基づいて,前記複数の縮小像を所定の同一領域(2次元領域)に配置する際に,前記複数の縮小像を構成する各画素を,前記同一領域上で前記物体面上の位置に対応する位置(画素)に配置(座標変換)する補正量として前記縮小像ごとに各画素のシフト量を求める。ここでは,いずれかの前記縮小像(例えば,中央の位置の前記縮小像)を基準とし,この基準縮小像に対する他の縮小像の前記相対位置のずれを補正する前記シフト量を,各縮小像ごとに各画素の2次元方向それぞれについて求める。
<S2: First shift amount calculation step>
Next, the plurality of reduced image obtained by imaging using the compound-eye camera under the imaging conditions X, the set distance b r which is obtained by the (X3) equation from the microlens array to said solid target The shift amount relating to the shift of the relative position between the plurality of reduced images is obtained (S2). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (the shift amount) is stored in the storage means. Here, the expression (X3) is an expression obtained by substituting the expression (6) transformed into the form of “y =” into the expression (5). Therefore, the image capturing conditions of the plurality of reduced image obtained under X, it is possible to obtain the set distance b By using r, the constituent images without image blur obtained by (X3) equation.
FIG. 5 is a diagram schematically showing parallax between the microlenses in the compound-eye camera.
As shown in FIG. 5, when observing an object separated by a distance b, the width W1 of the observation region by one microlens is db / f considering the magnification of the microlens. In addition, a shift in the relative position of d (= the diameter of the microlens) occurs between the observation regions of the adjacent microlenses due to parallax. The shift d due to the parallax on the object plane is reduced by f / b times in the reduced image.
In the first shift amount calculating step, the relative distance between adjacent reduced images is determined by assuming that the set distance b f obtained by the equation (X3) is a distance from the microlens array to the three-dimensional object. Ask. Then, (df / b f ) is a relative position shift between the adjacent reduced images.
Further, when arranging the plurality of reduced images in a predetermined same region (two-dimensional region) based on the amount of deviation of the relative value, each pixel constituting the plurality of reduced images is placed on the same region. The shift amount of each pixel is obtained for each reduced image as a correction amount to be arranged (coordinate conversion) at a position (pixel) corresponding to the position on the object plane. Here, using any one of the reduced images (for example, the reduced image at the center position) as a reference, the shift amount for correcting the shift of the relative position of the other reduced image with respect to the reference reduced image is set as each reduced image. For each two-dimensional direction of each pixel.

<S3:第1の縮小像配置工程>
次に,S2(前記第1のシフト量算出工程)で得られた前記シフト量に基づいて前記複数の縮小像を同一領域(所定の画像メモリ領域)上に配置して単一の前記立体対象の画像を構成する(S3)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(前記画像メモリ領域に配置された画像データ(前記構成画像のデータ))が前記記憶手段に記憶される。
図6は,前記複数の縮小像を同一領域上に配置する様子を模式的に表したものである。図6に示すQ0,Q1,Q2は,それぞれ前記受光素子上に結像された3×3の画素を持つ前記縮小像を表し,更にM1は単一の立体対象の画像が構成される領域であって,その画素数は前記受光素子全体と同数とする。
この縮小像の配置工程では,まずS2において基準とした前記縮小像(図6ではQ0で表す)の画素を領域M1のスケールに合わせて,矢印で示すように配置する。
続いて,他の前記縮小像(図6ではQ1,Q2で表す)の画素を,S2で算出した前記シフト量に基づいて領域M1に配置する。
これにより,前記領域M1上に,前記縮小像相互間の相対位置のずれが修正(補正)されて配置された高解像度の単一の画像(前記構成画像)が構成されることになる。
この構成画像は,画像ボケが生じない範囲として実験的に確認された前記許容係数r(≒0.1)を用いて,前記(X1),(X2)式に基づく前記撮影条件Xの下で得られた前記複数の縮小像を,前記(X3)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして求めた前記シフト量に基づく前記複数の縮小像の配置により得られた構成画像であるため,該構成画像は,画像ボケのない立体画像となる。
<S3: First Reduced Image Placement Step>
Next, the plurality of reduced images are arranged on the same region (predetermined image memory region) based on the shift amount obtained in S2 (the first shift amount calculation step), and the single three-dimensional object (S3). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (image data arranged in the image memory area (data of the constituent image)) is stored in the storage means.
FIG. 6 schematically shows how the plurality of reduced images are arranged on the same region. Q0, Q1, and Q2 shown in FIG. 6 represent the reduced images each having 3 × 3 pixels formed on the light receiving element, and M1 is a region where a single three-dimensional object image is formed. The number of pixels is the same as that of the entire light receiving element.
In this reduced image arrangement step, first, the pixels of the reduced image (indicated by Q0 in FIG. 6) used as a reference in S2 are arranged as indicated by arrows in accordance with the scale of the region M1.
Subsequently, the other pixels of the reduced image (represented by Q1 and Q2 in FIG. 6) are arranged in the region M1 based on the shift amount calculated in S2.
As a result, a single high-resolution image (the constituent image) is arranged on the area M1 with the relative position shift between the reduced images corrected (corrected).
This component image is obtained under the photographing condition X based on the equations (X1) and (X2) using the allowable coefficient r (≈0.1) experimentally confirmed as a range where no image blur occurs. the resulting plurality of reduced image, wherein (X3) arranged in said plurality of reduced images from the microlens array set distance b r which is obtained based on the shift amount calculated as a distance to the three-dimensional object by formula Therefore, the constituent image is a stereoscopic image without image blur.

ここで,S3により得られた前記構成画像は,前記縮小像それぞれの画素を拡大された前記同一領域M1内に配置した画像であるため,物体と前記マイクロレンズアレイとの距離によっては欠失画素を含む場合がある。
そのような場合は,その欠失画素の周辺の画素値を用いて補間すればよい。
例えば,欠失画素では水平,或いは垂直方向に対して線形的に画素値が変化すると仮定すると,欠失画素がNdel個連続している場合,そのi番目の欠失画素に対して補間する画素値Pdel(i)は次の(9)式を適用して算出可能である。
ここで,P1,P2は欠失画素に隣接する画素の画素値である。
そして,対象とする欠失画素に対して,水平及び垂直方向に(11)式を適用し,得られた値の平均値をその欠失画素に対する画素値とする。
これにより,S3で得られた前記構成画像に含まれる欠失画素が補間され,より精細な前記構成画像(立体画像)を得ることができる。
さらに,補間後の前記構成画像に対し,さらに鮮鋭化処理を施してもよい。
例えば,周知の高域強調フィルタ等の手法を用いて高い周波数成分を強調することにより,エッジ強調を行って前記構成画像を鮮鋭化する等である。
Here, since the component image obtained in S3 is an image in which the pixels of the reduced images are arranged in the same area M1, the deleted pixel is dependent on the distance between the object and the microlens array. May be included.
In such a case, interpolation may be performed using pixel values around the deleted pixel.
For example, if it is assumed that the pixel value changes linearly in the horizontal or vertical direction in the case of a deleted pixel, if there are N del consecutive deleted pixels, the i-th deleted pixel is interpolated. The pixel value P del (i) can be calculated by applying the following equation (9).
Here, P1 and P2 are pixel values of pixels adjacent to the deleted pixel.
Then, the expression (11) is applied to the target deletion pixel in the horizontal and vertical directions, and the average value of the obtained values is set as the pixel value for the deletion pixel.
Thereby, the deletion pixel contained in the said composition image obtained by S3 is interpolated, and the said finer composition image (stereoscopic image) can be obtained.
Furthermore, sharpening processing may be further performed on the component image after interpolation.
For example, by emphasizing high frequency components using a known high-frequency emphasis filter or the like, edge enhancement is performed to sharpen the component image.

図7は,前述したS1〜S3の工程を経て得られた立体画像(前記構成画像)の一例である。
前記立体対象は100mm角のダイス(但し,ダイスの黒点は「5」の点のみ表示されている)であり,そのダイスの1つの頂点(「5」の面の角部を形成する4頂点のうちの1つ)を前記複眼式カメラにおける前記マイクロレンズアレイに対して最前面(最短距離)(その距離bf=350mm)となるよう斜めに傾けて配置している。また,r=0.1である。これにより,前記マイクロレンズアレイ側から視認できる前記ダイスの奥行き方向の厚み(距離)は120mmである。なお,ダイスの黒点の半径は27mmである。
図7に示すように,前記前面側距離bf=350mmという近距離において,奥行き方向の距離120mmという深い奥行き範囲に渡って,画像ボケのない鮮明な立体画像(前記構成画像)が得られている。
以上示したように,本第1の発明によれば,撮像対象である前記立体対象の奥行き方向の厚みが既知であり,前記立体対象までの距離を所望の距離に設定できる場合に,1回の撮像によって画像ボケのない立体対象の画像を得ることができる。しかも,前記マイクロレンズの口径及び焦点距離はごく小さいので,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を構成することが可能である。なお,前記係数rを約0.1とすることは,画像ボケのない立体対象の画像が得られる条件として実験的に得られたものである。
FIG. 7 is an example of a stereoscopic image (the configuration image) obtained through the above-described steps S1 to S3.
The three-dimensional object is a 100 mm square die (however, the black point of the die is indicated only by a point “5”), and one vertex of the die (four vertexes forming the corner of the “5” surface). One of them is disposed obliquely with respect to the microlens array in the compound-eye camera so as to be the forefront (shortest distance) (the distance b f = 350 mm). R = 0.1. Thereby, the thickness (distance) in the depth direction of the die visible from the microlens array side is 120 mm. The radius of the black spot of the die is 27 mm.
As shown in FIG. 7, at the short distance of the front surface side distance b f = 350 mm, a clear stereoscopic image (the component image) without image blur is obtained over a deep depth range of 120 mm in the depth direction. Yes.
As described above, according to the first aspect of the present invention, the thickness in the depth direction of the three-dimensional object that is the imaging target is known and the distance to the three-dimensional object can be set to a desired distance once. A three-dimensional object image free from image blur can be obtained by the imaging. In addition, since the aperture and focal length of the microlens are very small, it is possible to construct an image without image blur for a stereoscopic object at a shorter distance than when a monocular camera is used. Note that setting the coefficient r to about 0.1 is experimentally obtained as a condition for obtaining a stereoscopic target image without image blur.

(第2の発明)
前記第1の発明について示した方法に限らず,前述したように,前記(6)式及び(7)式を満たす撮影条件で得られた前記複数の縮小像について,前記(5)式(前記X6式に相当)で求まる前記設定距離brを用いて前記構成画像の生成を行えば,画像ボケのない前記構成画像を得ることができる。
即ち,前記マイクロレンズアレイの正面方向における前記(6)式(前記X4式に相当)及び(7)式(前記X5式に相当)をそれぞれ満たす前面側距離bfから背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる1回の撮影で得られた前記複数の縮小像について,前記(5)式(前記(X6)式に相当)により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして,前記第1のシフト量算出工程と同じ処理により,前記複数の縮小像間の相対位置のずれに関するシフト量を求め(前記第2のシフト量算出工程の一例),該工程で得られた前記シフト量に基づいて,前記第1の縮小像配置工程と同じ処理により,前記複数の縮小像を同一領域上に配置して単一の前記立体対象の画像を構成すれば,画像ボケのない前記構成画像(立体画像)を得ることができる。
(Second invention)
Not limited to the method shown for the first invention, as described above, the plurality of reduced images obtained under the photographing conditions satisfying the expressions (6) and (7) can be expressed by the expression (5) (the above by performing the production of the constituent images by using the set distance b r which is obtained by corresponding) to X6 formula, it is possible to obtain the configuration image without image blur.
That, wherein in the front direction of the microlens array (6) of (the equivalent to X4 formula) and (7) (corresponding to the X5 equation) from the front side distance b f respectively satisfying to the back side distance b b A set distance obtained by the equation (5) (corresponding to the equation (X6)) for the plurality of reduced images obtained by one imaging with the compound-eye camera in a state where the three-dimensional object is arranged within the range. Assuming that br is a distance from the microlens array to the three-dimensional object, a shift amount relating to a relative position shift between the plurality of reduced images is obtained by the same process as the first shift amount calculation step (the first shift amount). 2), the plurality of reduced images are arranged on the same region by the same process as the first reduced image arrangement step based on the shift amount obtained in the step. One standing By configuring the image of the object, it is possible to obtain an image blur without the structure image (a stereoscopic image).

前述したように,前記(5)〜(7)式において,変数bf,bb,brのいずれかが与えられると(既知であると),パラメータyの値が求まるので,そのyの値を前記(5)〜(7)式のいずれかに代入することによって残りの変数が求まる。
前記(6)式及び(7)式を満たす撮影条件としては,例えば,前記前面側距離bfが与えられた場合が考えられる。
この場合,与えられた前記前面側距離bfを前記(6)式に代入することによってパラメータyが求まる。このyをy1とすると,前記マイクロレンズアレイの前方において,与えられた前記前面側距離bfからy1を前記(7)式に代入して求まる前記背面側距離bbまでの範囲内に前記立体対象を配置して撮影すればよい。
そして,y1を前記(5)式に代入して求まる距離を前記設定距離brとして前記構成画像を生成することにより,画像ボケのない前記構成画像を得ることができる。前記背面側距離bbが与えられた場合,或いは前記設定距離brが与えられた場合も同様である。
As described above, if any of the variables b f , b b , and b r is given (if known) in the equations (5) to (7), the value of the parameter y is obtained. By substituting the values into any of the equations (5) to (7), the remaining variables are obtained.
As a photographing condition satisfying the expressions (6) and (7), for example, a case where the front side distance b f is given can be considered.
In this case, the parameter y is obtained by substituting the given front side distance b f into the equation (6). If y is y1, the three-dimensional object is within the range from the given front side distance b f to the back side distance b b obtained by substituting y1 into the equation (7) in front of the microlens array. What is necessary is just to arrange and shoot the target.
By generating the configuration image distance calculated by substituting y1 in the equation (5) as the set distance b r, it is possible to obtain the configuration image without image blur. The same applies when the back side distance b b is given or when the set distance b r is given.

(第3の発明)
前述した第1の発明に係る立体画像構成方法は,撮像対象となる前記立体対象の奥行き方向の厚みが既知であり,前記立体対象までの距離を所望の距離に設定できる場合に有効であるが,前記立体対象の最前面までの距離が不明である場合や,前記立体対象の奥行き方向の厚みが1つの前記設定距離brを用いたシフト量計算に基づいて構成される前記構成画像に画像ボケが生じない最大奥行き長さ(前記(5)式〜(7)式を満たすときの(bb−bf))を超えている場合等には画像ボケの生じる画像領域が生じることを防げない。
そこで,そのような場合にも画像ボケの生じない立体画像を得ることができる第3の発明に係る立体画像構成方法について以下に説明する。
図8は,第3の発明に係る立体画像構成方法の手順の一例を表すフローチャートである。
<S11:撮影工程>
まず,複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより,撮影対象である立体対象(三次元物体)を撮影する(S11)。撮影条件は特に問わないが,少なくとも前記複眼式カメラで撮像可能な範囲に前記立体対象を配置する。本撮影により得られた前記複数の縮小像のデータは,前記複眼式カメラから所定のコンピュータに転送され,該コンピュータの記憶手段に記憶される。
ここでは,前記マイクロレンズアレイの正面方向の任意の位置(距離)に前記立体対象が配置された状態で前記複眼式カメラによる撮影を行う。
これにより,前記マイクロレンズアレイを通じて複数の縮小像(物体縮小像)が,前記受光素子上に結像される。
(Third invention)
The above-described stereoscopic image construction method according to the first invention is effective when the thickness in the depth direction of the stereoscopic object to be imaged is known and the distance to the stereoscopic object can be set to a desired distance. the when the distance to the foreground is unclear or solid object, the three-dimensional object in the depth direction of the thickness of the image to the constituent images constructed on the basis of the shift amount calculation using one of the set distance b r When the maximum depth length at which blur does not occur ((b b −b f ) when the above formulas (5) to (7) are satisfied) is exceeded, an image area in which image blur occurs is prevented. Absent.
Therefore, a stereoscopic image forming method according to the third aspect of the present invention that can obtain a stereoscopic image that does not cause image blur even in such a case will be described below.
FIG. 8 is a flowchart showing an example of the procedure of the stereoscopic image forming method according to the third invention.
<S11: Shooting process>
First, a three-dimensional object (three-dimensional object) that is an object to be photographed is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged (S11). The photographing conditions are not particularly limited, but the stereoscopic object is arranged at least in a range that can be imaged by the compound-eye camera. The data of the plurality of reduced images obtained by the actual photographing is transferred from the compound-eye camera to a predetermined computer and stored in a storage unit of the computer.
Here, photographing with the compound-eye camera is performed in a state where the three-dimensional object is arranged at an arbitrary position (distance) in the front direction of the microlens array.
As a result, a plurality of reduced images (object reduced images) are formed on the light receiving element through the microlens array.

<S12:第3のシフト量算出工程>
次に,前記第2の撮影工程(S11)での撮影により得られた前記複数の縮小像について,所定の複数の設定距離ごとに該設定距離が前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める(S12)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(前記シフト量)が前記記憶手段に記憶される。
ここで,前記設定距離br(i)(i=1,2,…,n)は,次の(X7)式により求まる距離に設定する。
但し,bf(1)は所定の初期値,rは前記許容係数であり,その値は約0.1とする。
この(X7)式は,前記(5)式〜(7)式に基づいて,前記設定距離をbr(i)としたときに画像ボケが生じない前記立体対象の最背面までの距離bb(i)と,前記設定距離をbr(i+1)としたときに画像ボケが生じない前記立体対象の最前面までの距離bf(i+1)とが一致する(bb(i)=bf(i+1))ように前記設定距離br(i)を求めるものである。
よって,(X7)式に従って前記設定距離br(i)を設定すれば,後述する第3の縮小像配置工程における前記縮小像の配置処理の回数(=一定奥行き長さに対する前記設定距離の数n)を最も少ない回数にしながら,かつ後述する第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。即ち,(X7)式に従えば,後述する第3の縮小像配置工程において,前記縮小像の配置処理の回数を必要最小限の回数とできる。
もちろん,前記設定距離を(X7)式により求まる距離よりも設定間隔が狭い距離に設定すれば後述する第1の要素領域画像選択工程において確実に画像ボケのない(或いは小さい)前記要素領域ごとの画像を選択することができる。但しこの場合,奥行き方向の一定長さに対して前記第3の縮小像配置工程における前記縮小像の配置処理の回数(=n)が増えるので,その分演算負荷が増大する。
前記初期値bf(1)としては,前記複眼式カメラでピンボケなく撮像可能な範囲で前記マイクロレンズアレイに最も近い距離とすることや,前記立体対象の最前面が,考えられる範囲で最も前記マイクロレンズアレイに接近するときの距離とすること等が考えられる。
前記設定距離br(i)それぞれについての前記シフト量の計算方法は,前記第1のシフト量算出工程と同様である。
<S12: Third Shift Amount Calculation Step>
Next, with respect to the plurality of reduced images obtained by photographing in the second photographing step (S11), the set distance is a distance from the microlens array to the three-dimensional object for each of a plurality of predetermined set distances. Assuming that there is a shift amount regarding the relative position shift between the plurality of reduced images, the shift amount is obtained (S12). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (the shift amount) is stored in the storage means.
Here, the set distance b r (i) (i = 1, 2,..., N) is set to a distance obtained by the following equation (X7).
However, b f (1) is a predetermined initial value, r is the allowable coefficient, and its value is about 0.1.
This equation (X7) is based on the above equations (5) to (7), and the distance b b to the rearmost surface of the three-dimensional object where no image blur occurs when the set distance is b r (i). (i) coincides with the distance b f (i + 1) to the forefront of the three-dimensional object where no image blur occurs when the set distance is b r (i + 1) (b b (i ) = B f (i + 1)) to obtain the set distance b r (i).
Therefore, if the set distance b r (i) is set according to the formula (X7), the number of times of the reduced image arrangement process in the third reduced image arrangement step described later (= the number of the set distances for a certain depth length) It is possible to select an image for each of the element regions with the smallest number of times n) and with no (or small) image blurring in a first element region image selection step described later. That is, according to the formula (X7), the number of times of the reduced image arrangement process can be set to the minimum necessary number in a third reduced image arrangement step described later.
Of course, if the set distance is set to a distance whose set interval is narrower than the distance obtained by the equation (X7), it is ensured that there is no image blur (or small) for each element region in the first element region image selection step described later. An image can be selected. However, in this case, the number of times of reduction image placement processing (= n) in the third reduced image placement step increases with respect to a certain length in the depth direction, and the calculation load increases accordingly.
As the initial value b f (1), the closest distance to the microlens array within a range that can be imaged with no blur by the compound-eye camera, or the forefront of the three-dimensional object is the most conceivable range. The distance when approaching the microlens array may be considered.
The calculation method of the shift amount for each of the set distances b r (i) is the same as the first shift amount calculation step.

<S13:第3の縮小像配置工程>
次に,S12(前記第3のシフト量算出工程)で得られた前記シフト量に基づいて前記複数の縮小像を同一領域(所定の画像メモリの領域)上に配置して前記設定距離ごとに単一の前記立体対象の画像を構成する(S13)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(前記画像メモリ領域に配置された画像データ(前記構成画像のデータ))が前記記憶手段に記憶される。
本工程では,複数の前記設定距離br(i)それぞれについて,前記第1の縮小像配置工程と同じ処理を行う。これにより,前記設定距離br(i)の数nだけ前記構成画像が生成される。ここで,生成された前記構成画像について,必要に応じて前述した欠失画像の補間・鮮鋭化を行う。
<S13: Third Reduced Image Placement Step>
Next, on the basis of the shift amount obtained in S12 (the third shift amount calculating step), the plurality of reduced images are arranged on the same region (a predetermined image memory region) and are set for each set distance. A single image of the three-dimensional object is constructed (S13). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (image data arranged in the image memory area (data of the constituent image)) is stored in the storage means.
In this step, the same processing as in the first reduced image arrangement step is performed for each of the plurality of set distances b r (i). As a result, the number of the component images is generated by the number n of the set distances b r (i). Here, with respect to the generated component image, the above-described deletion image interpolation / sharpening is performed as necessary.

<S14:第1の要素領域画像選択工程>
次に,前記第3の縮小像配置工程により得られた各構成画像の各全領域が区分された複数の要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケのない或いは画像ボケの小さい前記要素領域の画像を選択する(S14)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(例えば,前記要素領域ごとに選択した前記構成画像の番号(即ち,前記設定距離br(i)の番号)等)が前記記憶手段に記憶される。
図9は,前記構成画像の区分を模式的に表したものである。
本工程では,図9(a)に示すように,前記構成画像の全領域の画素数がJ×J(縦×横)であるとしたときに,その全領域を,例えば,図9(b)に示すようなj×j画素(1<j<J/2)の要素領域に区分する。
そして,前記第3の縮小像配置工程により得られた複数の前記構成画像それぞれの前記要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケの程度(画像ボケ情報)を求め(後述する画像ボケ情報導出工程の一例),最も画像ボケの程度が小さいものを画像ボケがない(或いは小さい)画像として選択する。
ここで,jの値が小さい程(1に近いほど),局所的な領域における画像の解析を行えるため,最終結果の画質を向上できる一方,前記要素領域の数が増える(演算回数は(J2/j2)回となる)ため,画像処理の演算負荷が高くなる。
また,前記要素領域の画像ボケの程度を求める方法としては,各種手法が考えられる。
例えば,従来のカメラにおけるオートフォーカス処理を適用し,前記要素領域の画像それぞれのコントラストを画像ボケの程度の評価指標とすることが考えられる。この場合,コントラストが最大のものを画像ボケのない(或いは小さい)画像として選択する。
また,i番目とi+1番目の前記構成画像の同一の(対応する)前記要素領域について画像データの差分を求め,その差分に基づいて画像ボケの有無を評価することも考えられる。これは,ピントがずれた画像データからピントずれのない画像データに変化したときに画像データの値の変化(差分)が大きくなるという特性を利用するものである。例えば,ある前記要素領域について,h番目の前記構成画像における画像データに画像ボケがなく,その他の画像データに画像ボケがある場合には,(h−1)番目とh番目との差分,及びh番目と(h+1)番目の差分が他の差分よりも大きくなる。
従って,例えば,前記要素領域ごとに,求めた(n−1)個の前記差分からその絶対値が最大のものから2つ選び,その2つの差分の計算に用いた画像データの番号(上記例の場合,(h−1)番目,h番目,(h+1)番目の3つ)のうちの最大番号及び最小番号以外の番号(上記例の場合,h番目)の画像を画像ボケのない(或いは小さい)画像として選択すること等が考えられる。
これら以外にも,前記設定距離br(i)と実際の物体面までの距離とが異なる場合に発生する格子状のノイズの有無を検出することや,前記コントラスト,前記差分及び前記格子状のノイズの各要因の複数を組み合わせた指標を画像ボケ評価の指標とすること等も考えられる。これらの方法はあくまで一例である。
<S14: First Element Region Image Selection Step>
Next, image blurring is performed for each element region corresponding to each of the component images from an image of a plurality of element regions obtained by dividing the entire region of each component image obtained in the third reduced image arrangement step. An image of the element region that is absent or has a small image blur is selected (S14). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (for example, the number of the constituent image selected for each element region (that is, the number of the set distance br (i)) Etc.) is stored in the storage means.
FIG. 9 schematically shows the division of the component images.
In this step, as shown in FIG. 9A, when the number of pixels in the entire area of the component image is J × J (vertical × horizontal), the entire area is, for example, shown in FIG. ) To be divided into element regions of j × j pixels (1 <j <J / 2).
Then, the degree of image blur (image blur information) for each element region corresponding to each of the component images from the images of the component regions of the plurality of component images obtained by the third reduced image arrangement step. (An example of an image blur information deriving step described later) is selected, and an image with the smallest degree of image blur is selected as an image with no (or small) image blur.
Here, as the value of j is smaller (closer to 1), the image in the local area can be analyzed, so that the image quality of the final result can be improved, while the number of element areas increases (the number of computations is (J 2 / j 2 ) times), the calculation load of image processing increases.
Various methods are conceivable as a method for obtaining the degree of image blur in the element region.
For example, it is conceivable to apply autofocus processing in a conventional camera and use the contrast of each image in the element region as an evaluation index for the degree of image blur. In this case, the image having the maximum contrast is selected as an image without image blur (or small).
It is also conceivable to obtain a difference in image data for the same (corresponding) element regions of the i-th and i + 1-th component images and evaluate the presence / absence of image blur based on the difference. This utilizes the characteristic that the change (difference) in the value of the image data becomes large when the image data is out of focus and the image data is out of focus. For example, if there is no image blur in the image data in the h-th component image and image blur in other image data for a certain element region, the difference between the (h−1) th and h-th, and The h-th and (h + 1) -th differences are larger than other differences.
Accordingly, for example, for each element region, two of the obtained (n−1) differences having the maximum absolute value are selected, and the number of the image data used for calculating the two differences (the above example) In the case of (h-1) th, hth, (h + 1) th), the image of the number other than the maximum number and the minimum number (in the above example, the hth) is not blurred (or It may be possible to select as a small image.
In addition to these, it is possible to detect the presence or absence of lattice-like noise that occurs when the set distance br (i) is different from the actual distance to the object surface, and the contrast, the difference, and the lattice-like noise. It is also conceivable that an index combining a plurality of these factors is used as an index for image blur evaluation. These methods are merely examples.

<S15:画像組合せ工程>
次に,前記第1の要素領域画像選択工程により選択された前記要素領域の画像を組み合わせて単一の前記立体対象の画像を構成する(S15)。本工程の処理も,前記コンピュータが所定のプログラムを実行することにより行われ,処理結果(組み合わされた単一の前記立体対象の画像のデータ)が前記記憶手段に記憶される。
これにより,画像ボケのない(或いは小さい)前記要素領域の画像が組み合わされて全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。従って,前記立体対象までの距離を任意に設定できない場合や,前記立体対象の奥行き方向の厚みが1つの前記設定距離を用いたシフト量計算に基づいて構成される前記構成画像に画像ボケが生じない最大奥行き長さを超えている場合であっても,全領域について画像ボケのない(或いは小さい)立体画像を得ることができる。
しかも,前記マイクロレンズの口径及び焦点距離はごく小さいので,単眼式カメラを用いる場合に比べ,より近距離にある立体対象について画像ボケのない画像を得ることが可能である。
<S15: Image combining step>
Next, the images of the element regions selected in the first element region image selection step are combined to form a single three-dimensional object image (S15). The processing in this step is also performed by the computer executing a predetermined program, and the processing result (the combined data of the single three-dimensional object image) is stored in the storage means.
As a result, the image of the element area without image blur (or small) can be combined to obtain a stereoscopic image without image blur (or small) for the entire area. Therefore, when the distance to the three-dimensional object cannot be arbitrarily set, or when the thickness of the three-dimensional object is in the depth direction, an image blur occurs in the configuration image configured based on the shift amount calculation using one set distance. Even when the maximum depth length is not exceeded, a stereoscopic image free from (or small) image blur can be obtained for the entire region.
In addition, since the aperture and focal length of the microlens are very small, it is possible to obtain an image without image blur for a stereoscopic object at a shorter distance than when a monocular camera is used.

(第4の発明)
前記第1の発明及び第3の発明は,画像ボケのない立体画像を得るためのものであったが,前記第3の発明を応用して,前記マイクロレンズアレイから,撮像対象である前記立体対象の各部位までの距離を求めることが可能である。
以下,図10のフローチャートを用いて,第4の発明に係る立体対象の距離導出方法の手順の一例について説明する。
この立体対象の距離導出方法におけるS21〜S24の工程は,図8に示したS11〜S14の工程と同じであるのでここでは説明を省略する。ここで,図8における前記第1の要素領域画像選択工程が,図10における第2の要素領域画像選択工程に相当する。また,前記第1の要素領域画像選択工程において説明した前記要素領域の画像ボケの程度(前記画像ボケ情報の一例)を求める処理(工程)が,前記画像ボケ情報導出工程の一例である。
(Fourth invention)
The first invention and the third invention are for obtaining a stereoscopic image free from image blur. However, by applying the third invention, the stereoscopic image to be imaged is obtained from the microlens array. It is possible to obtain the distance to each target part.
Hereinafter, an example of the procedure of the method for deriving the distance of the three-dimensional object according to the fourth invention will be described using the flowchart of FIG.
Since the steps S21 to S24 in the method for deriving the distance of the three-dimensional object are the same as the steps S11 to S14 shown in FIG. 8, the description thereof is omitted here. Here, the first element region image selection step in FIG. 8 corresponds to the second element region image selection step in FIG. Further, the process (step) for obtaining the degree of image blur (an example of the image blur information) of the element region described in the first element region image selection step is an example of the image blur information deriving step.

<S25:距離導出工程>
S21〜S24の処理(即ち,S11〜S14の処理)の後,S24で前記要素領域ごとに選択された前記要素領域の画像に対応する前記設定距離br(i)を用いて(基づいて),前記要素領域それぞれに対応する前記立体対象の各部位についての前記マイクロレンズアレイからの距離を求める。
S24(第2の要素領域画像選択工程)で画像ボケがない(或いは小さい)と判別された前記要素領域に対応する前記立体対象の部位は,その要素領域の画像に対応する前記設定距離br(i)(即ち,その要素領域の画像が得られたときの前記設定距離br(i))の前後の所定範囲内(bf〜bbの範囲内)に入っていることになる。
従って,本工程では,画像ボケがない(或いは小さい)と判別された前記要素領域の画像に対応する前記設定距離br(i)をその要素領域に対応する前記立体対象の部位の距離として求める。
これにより,その設定距離br(i)の前後の画像ボケが生じない範囲(bf〜bbの範囲)を最大誤差範囲として前記立体対象の各部位の距離を求めることができる。
この他にも,例えば前記要素領域ごとに,前記画像ボケの程度が小さい画像を複数選択し,その要素領域について選択された複数の画像に対応する前記設定距離(複数)について,最大値,最小値若しくは平均値を求める,又は最小の前記設定距離と最大の前記設定距離とを所定の重み付けでの加重平均値を求める(単純平均を含む)ことにより得られた値(距離)を前記立体対象の各部位の距離とすること(前記距離導出工程の他の例)等も考えられる。
この第4の発明によれば,1回の撮像によって得た前記複数の縮小像から,前記立体対象の各部位までの距離情報を得ることができる。
<S25: Distance derivation process>
After the processing of S21 to S24 (that is, the processing of S11 to S14), using (based on) the set distance b r (i) corresponding to the image of the element region selected for each of the element regions in S24. , The distance from the microlens array for each part of the three-dimensional object corresponding to each of the element regions is obtained.
The part of the three-dimensional object corresponding to the element area determined as having no image blur (or small) in S24 (second element area image selection step) is the set distance b r corresponding to the image of the element area. (i) (that is, within the predetermined range (b f to b b) before and after the set distance b r (i) when the image of the element region is obtained).
Therefore, in this step, the set distance b r (i) corresponding to the image of the element area determined to have no image blur (or small) is obtained as the distance of the part of the three-dimensional object corresponding to the element area. .
As a result, the distance of each part of the three-dimensional object can be obtained with the range (b f to b b ) in which no image blur occurs before and after the set distance b r (i) as the maximum error range.
In addition, for example, for each of the element regions, a plurality of images with a small degree of image blur are selected, and the maximum value and minimum value are set for the set distances (plurality) corresponding to the plurality of images selected for the element region. A value (distance) obtained by obtaining a value or an average value, or by obtaining a weighted average value (including a simple average) with a predetermined weight between the minimum set distance and the maximum set distance. It is also conceivable to set the distance of each part of (other examples of the distance deriving step) and the like.
According to the fourth aspect of the invention, distance information to each part of the three-dimensional object can be obtained from the plurality of reduced images obtained by one imaging.

本発明は,各種画像処理装置等への利用が可能である。   The present invention can be used for various image processing apparatuses.

第1の発明に係る立体画像構成方法の手順の一例を表すフローチャート。The flowchart showing an example of the procedure of the stereo image structure method which concerns on 1st invention. 複眼式カメラでの撮影により得られる縮小像の一例。An example of a reduced image obtained by photographing with a compound eye camera. 立体対象の面までの距離と構成画像の生成に用いる設定距離とが異なる場合の複眼式カメラによる観察領域を模式的に表した図。The figure which represented typically the observation area | region by the compound eye type camera in case the distance to the surface of a solid object and the setting distance used for the production | generation of a structure image differ. 第1の発明に係る立体画像構成方法における前面側距離と立体対象の厚みとの関係を表すグラフの一例。An example of the graph showing the relationship between the front side distance and the thickness of a three-dimensional object in the three-dimensional image structure method which concerns on 1st invention. 前記複眼式カメラにおけるマイクロレンズ間の視差について模式的に表した図。The figure which represented typically about the parallax between the microlenses in the said compound-eye camera. 複数の縮小像を同一領域上に配置する様子を模式的に表した図。The figure which represented typically a mode that a some reduced image was arrange | positioned on the same area | region. 第1の発明に係る立体画像構成方法により得られた立体画像の一例。An example of a stereoscopic image obtained by the stereoscopic image construction method according to the first invention. 第3の発明に係る立体画像構成方法の手順の一例を表すフローチャート。The flowchart showing an example of the procedure of the stereo image structure method which concerns on 3rd invention. 第3の発明に係る立体画像構成方法における構成画像の区分について模式的に表した図。The figure which represented typically about the division | segmentation of the structure image in the stereo image structure method which concerns on 3rd invention. 第4の発明に係る立体対象の距離導出方法の手順の一例を表すフローチャート。The flowchart showing an example of the procedure of the distance derivation | leading-out method of the solid object which concerns on 4th invention. 単眼式カメラの光学系と複眼式カメラの光学系の模式図。The schematic diagram of the optical system of a monocular camera, and the optical system of a compound eye camera. 被写界深度を説明するための図。The figure for demonstrating the depth of field.

符号の説明Explanation of symbols

Q0,Q1,Q2…縮小像
M1…単一の立体対象の画像が構成される領域
S1,S2,,…処理手順(ステップ)の番号
Q0, Q1, Q2 ... Reduced image M1 ... Number of regions S1, S2,...

Claims (6)

複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,
前記マイクロレンズアレイの正面方向における下記(X1)式を満たす前面側距離bfから下記(X2)式により求まる背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる撮影で得られた前記複数の縮小像について,下記(X3)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第1のシフト量算出工程と,
前記第1のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して単一の前記立体対象の画像を構成する第1の縮小像配置工程と,
を有してなることを特徴とする立体画像構成方法。
但し,Dは前記マイクロレンズアレイ側から見た前記立体対象の奥行き方向の厚み,d及びfは前記マイクロレンズ各々の口径及び焦点距離,Nは前記マイクロレンズの一次元方向の配列数,νは前記受光素子上の前記縮小像各々の一次元方向の画素数,rはその値が約0.1である係数を表す。
A stereoscopic image in which a stereoscopic object is photographed by a compound-eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and the stereoscopic target image is configured from the plurality of reduced images In the configuration method,
The compound eye type in a state where the three-dimensional object is arranged in a range from a front side distance b f satisfying the following formula (X1) in the front direction of the microlens array to a back side distance b b obtained by the following formula (X2). for the plurality of reduced image obtained by the shooting by the camera, the following (X3) from the microlens array set distance b r which is obtained by expression of the relative position between the plurality of reduced image as a distance to the three-dimensional object A first shift amount calculating step for obtaining a shift amount related to the shift;
A first reduced image arranging step of arranging a plurality of reduced images on the same region based on the shift amount obtained in the first shift amount calculating step to form a single stereoscopic target image; ,
A method for constructing a three-dimensional image, comprising:
Where D is the thickness in the depth direction of the three-dimensional object viewed from the microlens array side, d and f are the aperture and focal length of each microlens, N is the number of arrays in the one-dimensional direction of the microlens, and ν is The number of pixels in the one-dimensional direction of each of the reduced images on the light receiving element, r represents a coefficient whose value is about 0.1.
複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,
前記マイクロレンズアレイの正面方向における下記(X4)式及び(X5)式をそれぞれ満たす前面側距離bfから背面側距離bbまでの範囲内に前記立体対象が配置された状態で前記複眼式カメラによる撮影で得られた前記複数の縮小像について,下記(X6)式により求まる設定距離brを前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第2のシフト量算出工程と,
前記第2のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して単一の前記立体対象の画像を構成する第2の縮小像配置工程と,
を有してなることを特徴とする立体画像構成方法。
但し,d及びfは前記マイクロレンズ各々の口径及び焦点距離,Nは前記マイクロレンズの一次元方向の配列数,νは前記受光素子上の前記縮小像各々の一次元方向の画素数,rはその値が約0.1である係数,yは各式で共通の所定のパラメータを表す。
A stereoscopic image in which a stereoscopic object is photographed by a compound-eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and the stereoscopic target image is configured from the plurality of reduced images In the configuration method,
The compound-eye camera in a state in which the three-dimensional object is arranged within a range from a front side distance b f to a back side distance b b that respectively satisfy the following expressions (X4) and (X5) in the front direction of the microlens array: for the plurality of reduced image obtained by photographing by the deviation of the relative position between the plurality of reduced images as the distance the set distance b r which is obtained by the following (X6) equation from the microlens array to said solid target A second shift amount calculating step for obtaining a shift amount with respect to
A second reduced image arrangement step of arranging the plurality of reduced images on the same region based on the shift amount obtained in the second shift amount calculation step to form a single three-dimensional object image; ,
A method for constructing a three-dimensional image, comprising:
Where d and f are the aperture and focal length of each of the microlenses, N is the number of arrays in the one-dimensional direction of the microlenses, ν is the number of pixels in the one-dimensional direction of each of the reduced images on the light receiving element, and r is A coefficient whose value is about 0.1, y represents a predetermined parameter common to each equation.
複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮像し,前記複数の縮小像から前記立体対象の画像を構成する立体画像構成方法において,
前記複眼式カメラによる前記立体対象の撮影により得られた前記複数の縮小像について,所定の複数の設定距離ごとに該設定距離が前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第3のシフト量算出工程と,
前記第3のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して前記設定距離ごとに単一の前記立体対象の画像を構成する第3の縮小像配置工程と,
前記第3の縮小像配置工程により得られた各構成画像の各全領域が区分された複数の要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケのない或いは画像ボケの小さい前記要素領域の画像を選択する第1の要素領域画像選択工程と,
前記第1の要素領域画像選択工程により選択された前記要素領域の画像を組み合わせて単一の前記立体対象の画像を構成する画像組合せ工程と,
を有してなることを特徴とする立体画像構成方法。
A three-dimensional image in which a three-dimensional object is imaged by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and the image of the three-dimensional object is configured from the plurality of reduced images In the configuration method,
For the plurality of reduced images obtained by photographing the stereoscopic object by the compound eye camera, the set distances are assumed to be distances from the microlens array to the stereoscopic object for each of a plurality of predetermined set distances. A third shift amount calculating step for obtaining a shift amount relating to a relative position shift between the reduced images;
A plurality of reduced images are arranged on the same region based on the shift amount obtained in the third shift amount calculating step, and a single three-dimensional object image is configured for each set distance. A reduced image placement process;
There is no image blur or image for each of the corresponding element regions among the plurality of element regions obtained by dividing the entire region of each component image obtained by the third reduced image arrangement step. A first element region image selection step of selecting an image of the element region having a small blur;
An image combination step of combining the images of the element regions selected in the first element region image selection step to form a single image of the three-dimensional object;
A method for constructing a three-dimensional image, comprising:
前記設定距離br(i)(i=1,2,…,n)を下記(X7)式により求まる距離又は下記(X7)式により求まる距離よりも設定間隔が狭い距離に設定してなる請求項2に記載の立体画像構成方法。
但し,bf(1)は所定の初期値,rはその値が約0.1である係数とする。
The set distance b r (i) (i = 1, 2,..., N) is set to a distance obtained by the following equation (X7) or a distance whose setting interval is narrower than a distance obtained by the following equation (X7). Item 3. The stereoscopic image construction method according to Item 2.
Here, b f (1) is a predetermined initial value, and r is a coefficient whose value is about 0.1.
複数のマイクロレンズが配列されたマイクロレンズアレイを通じて受光素子上に複数の縮小像を結像する複眼式カメラにより立体対象を撮影し,前記複数の縮小像から構成した前記立体対象の画像に基づいて前記マイクロレンズアレイから前記立体対象の各部位までの距離を求める立体対象の距離導出方法であって,
前記複眼式カメラによる前記立体対象の撮影により得られた前記複数の縮小像について,所定の複数の設定距離ごとに該設定距離が前記マイクロレンズアレイから前記立体対象までの距離であるとして前記複数の縮小像間の相対位置のずれに関するシフト量を求める第3のシフト量算出工程と,
前記第3のシフト量算出工程で得られた前記シフト量に基づいて前記複数の縮小像を同一領域上に配置して前記設定距離ごとに単一の前記立体対象の画像を構成する第3の縮小像配置工程と,
前記第3の縮小像配置工程により得られた各構成画像の各全領域が区分された複数の要素領域の画像から,前記各構成画像間で対応する前記要素領域ごとに画像ボケの有無又は画像ボケの程度に関する画像ボケ情報を求める画像ボケ情報導出工程と,
前記画像ボケ情報導出工程で得られた前記画像ボケ情報及びそれに対応する前記設定距離に基づいて前記要素領域それぞれに対応する前記立体対象の各部位についての前記マイクロレンズアレイからの距離を求める距離導出工程と,
を有してなることを特徴とする立体対象の距離導出方法。
A three-dimensional object is photographed by a compound eye camera that forms a plurality of reduced images on a light receiving element through a microlens array in which a plurality of microlenses are arranged, and based on the image of the three-dimensional object composed of the plurality of reduced images A method for deriving a distance of a three-dimensional object to obtain a distance from the microlens array to each part of the three-dimensional object,
For the plurality of reduced images obtained by photographing the stereoscopic object by the compound eye camera, the set distances are assumed to be distances from the microlens array to the stereoscopic object for each of a plurality of predetermined set distances. A third shift amount calculating step for obtaining a shift amount relating to a relative position shift between the reduced images;
A plurality of reduced images are arranged on the same region based on the shift amount obtained in the third shift amount calculating step, and a single three-dimensional object image is configured for each set distance. A reduced image placement process;
The presence / absence of image blur or an image for each element region corresponding to each component image from images of a plurality of element regions obtained by dividing all the regions of each component image obtained by the third reduced image arrangement step An image blur information deriving step for obtaining image blur information related to the degree of blur;
A distance derivation for obtaining a distance from the microlens array for each part of the three-dimensional object corresponding to each of the element regions based on the image blur information obtained in the image blur information deriving step and the set distance corresponding to the image blur information. Process,
A method for deriving a distance of a three-dimensional object.
前記距離導出工程が,
前記画像ボケ情報導出工程により得られた前記画像ボケ情報に基づいて前記各構成画像間で対応する前記要素領域ごとに画像ボケのない或いは画像ボケの小さい前記要素領域の画像を選択する第2の要素領域画像選択工程を有し,該第2の要素領域画像選択工程で選択された前記要素領域の画像に対応する前記設定距離に基づいて前記要素領域それぞれに対応する前記立体対象の各部位についての前記マイクロレンズアレイからの距離を求めてなる請求項5に記載の立体対象の距離導出方法。
The distance deriving step includes
A second image that has no image blur or a small image blur is selected for each element region corresponding to each component image based on the image blur information obtained in the image blur information deriving step. For each part of the three-dimensional object corresponding to each of the element regions based on the set distance corresponding to the image of the element region selected in the second element region image selection step The method of deriving a distance of a three-dimensional object according to claim 5, wherein the distance from the microlens array is obtained.
JP2003301501A 2003-08-26 2003-08-26 3D image construction method, 3D object distance derivation method Expired - Lifetime JP4205533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003301501A JP4205533B2 (en) 2003-08-26 2003-08-26 3D image construction method, 3D object distance derivation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003301501A JP4205533B2 (en) 2003-08-26 2003-08-26 3D image construction method, 3D object distance derivation method

Publications (2)

Publication Number Publication Date
JP2005069936A true JP2005069936A (en) 2005-03-17
JP4205533B2 JP4205533B2 (en) 2009-01-07

Family

ID=34406107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003301501A Expired - Lifetime JP4205533B2 (en) 2003-08-26 2003-08-26 3D image construction method, 3D object distance derivation method

Country Status (1)

Country Link
JP (1) JP4205533B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006087088A (en) * 2004-08-20 2006-03-30 Sony Corp Imaging device, and imaging method
JP2008241355A (en) * 2007-03-26 2008-10-09 Funai Electric Co Ltd Device for deriving distance of object
JP2009124213A (en) * 2007-11-12 2009-06-04 Sony Corp Image pickup apparatus
US7550707B2 (en) 2007-03-01 2009-06-23 Sony Corporation Biometrics authentication system with authentication based upon multiple layers
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010210490A (en) * 2009-03-11 2010-09-24 Ricoh Co Ltd Device and method for measuring movement, and program
WO2013065884A1 (en) * 2011-11-01 2013-05-10 엘지전자 주식회사 Camera and 3d image system having same
EP2786696A1 (en) * 2013-04-04 2014-10-08 Dürr Dental AG Dental camera system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006087088A (en) * 2004-08-20 2006-03-30 Sony Corp Imaging device, and imaging method
JP4645358B2 (en) * 2004-08-20 2011-03-09 ソニー株式会社 Imaging apparatus and imaging method
US7550707B2 (en) 2007-03-01 2009-06-23 Sony Corporation Biometrics authentication system with authentication based upon multiple layers
JP2008241355A (en) * 2007-03-26 2008-10-09 Funai Electric Co Ltd Device for deriving distance of object
JP2009124213A (en) * 2007-11-12 2009-06-04 Sony Corp Image pickup apparatus
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010210490A (en) * 2009-03-11 2010-09-24 Ricoh Co Ltd Device and method for measuring movement, and program
WO2013065884A1 (en) * 2011-11-01 2013-05-10 엘지전자 주식회사 Camera and 3d image system having same
EP2786696A1 (en) * 2013-04-04 2014-10-08 Dürr Dental AG Dental camera system
US9220414B2 (en) 2013-04-04 2015-12-29 Duerr Dental Ag Dental camera system

Also Published As

Publication number Publication date
JP4205533B2 (en) 2009-01-07

Similar Documents

Publication Publication Date Title
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4673202B2 (en) Image input device
JP4235539B2 (en) Image composition apparatus and image composition method
JP5745183B2 (en) Imaging apparatus and imaging method
JP2005210217A (en) Stereoscopic camera
US9535193B2 (en) Image processing apparatus, image processing method, and storage medium
JP6053347B2 (en) Imaging apparatus, control method therefor, and program
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
US11032533B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2019016275A (en) Image processing method, image processing program, storage medium, image processing device, and imaging device
US10148870B2 (en) Image capturing apparatus
KR20100040643A (en) Apparatus and method for processing image to generate high resolution image
JP2019032295A (en) Distance measuring camera
JP4205533B2 (en) 3D image construction method, 3D object distance derivation method
JP7288226B2 (en) ranging camera
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US9407801B2 (en) Compound eye image pickup apparatus
US10230882B2 (en) Image pickup apparatus acquiring a plurality of in-focus images of different field angles
JP7121269B2 (en) ranging camera
WO2019181622A1 (en) Distance measurement camera
US10326951B2 (en) Image processing apparatus, image processing method, image capturing apparatus and image processing program
JP6039301B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012256964A (en) Imaging apparatus
JP7009219B2 (en) Image processing method, image processing device, image pickup device, image processing program, and storage medium
JP4695557B2 (en) Element image group correction apparatus, element image group acquisition system, element image group correction method, and element image group correction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081014

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081016

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4205533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term