JP4437228B2 - Imaging apparatus and imaging method using defocus structure - Google Patents

Imaging apparatus and imaging method using defocus structure Download PDF

Info

Publication number
JP4437228B2
JP4437228B2 JP2005322870A JP2005322870A JP4437228B2 JP 4437228 B2 JP4437228 B2 JP 4437228B2 JP 2005322870 A JP2005322870 A JP 2005322870A JP 2005322870 A JP2005322870 A JP 2005322870A JP 4437228 B2 JP4437228 B2 JP 4437228B2
Authority
JP
Japan
Prior art keywords
image
fourier transform
focusing
viewpoint
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005322870A
Other languages
Japanese (ja)
Other versions
JP2007128009A (en
Inventor
和也 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inter University Research Institute Corp Research Organization of Information and Systems
Original Assignee
Inter University Research Institute Corp Research Organization of Information and Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inter University Research Institute Corp Research Organization of Information and Systems filed Critical Inter University Research Institute Corp Research Organization of Information and Systems
Priority to JP2005322870A priority Critical patent/JP4437228B2/en
Publication of JP2007128009A publication Critical patent/JP2007128009A/en
Application granted granted Critical
Publication of JP4437228B2 publication Critical patent/JP4437228B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明はイメージング装置及びイメージング方法に関する。詳しくは、撮影対象に関する焦点ぼけ構造を持つ画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成するイメージング装置及びイメージング方法に関する。   The present invention relates to an imaging apparatus and an imaging method. Specifically, the present invention relates to an imaging apparatus and an imaging method for generating a visual image corresponding to an arbitrary viewpoint, aperture, and focusing from an image group having a defocused structure related to an imaging target.

コンピュータ利用のX線断層撮影の基本手法では、平行X線を人体の周囲に360度回転させて撮影する。これにより、一連の画像中にあらゆる角度からみた情報が蓄積され、これらの情報を基に、任意の方向から見た、複数層の人体断層写真を得ることができる。このように平行透過光を用いて対象物の周囲から撮影すれば、任意の方向から見た任意の断層の合焦点画像を生成できる。
これに対して、物体を透過しないしかも非平行な可視光を用いるカメラによる撮影画像の場合は如何であろうか。
In the basic method of X-ray tomography using a computer, parallel X-rays are imaged by rotating 360 degrees around the human body. As a result, information viewed from all angles is accumulated in a series of images, and a multi-layer human tomographic photograph viewed from an arbitrary direction can be obtained based on the information. In this way, by photographing from around the object using parallel transmitted light, an in-focus image of an arbitrary tomogram viewed from an arbitrary direction can be generated.
On the other hand, what about a photographed image by a camera that does not transmit an object and uses non-parallel visible light?

カメラによる撮影画像については、ライトフィールドレンダリング(Light Field Rendering)による画像生成法が知られている。例えば撮影対象を、カメラを2次元平面にアレイ状に並べて、異なる視点から撮影し、2次元×2次元の撮影画像データを取得する。これらのデータに基づいてコンピュータ演算し、カメラ側の任意の視点及び視線方向から見た透視画像を生成できる。   As for a photographed image by a camera, an image generation method by light field rendering is known. For example, the imaging target is imaged from different viewpoints with cameras arranged in a two-dimensional plane, and 2D × 2D captured image data is acquired. Based on these data, a computer calculation can be performed to generate a fluoroscopic image viewed from an arbitrary viewpoint and line-of-sight direction on the camera side.

また、発明者は、カメラの撮像面を移動して焦点合わせの異なる撮影画像群を取得し、これに基づいてコンピュータ演算により画像を生成するマルチフォーカスイメージング(Multi Focus Imaging:MFI)を用いて、全焦点画像を生成している。(非特許文献1参照)   Further, the inventor uses multi-focus imaging (MFI) that moves the imaging surface of the camera to acquire a group of captured images with different focusing, and generates an image by computer calculation based on the group. An omnifocal image is generated. (See Non-Patent Document 1)

また、発明者達は焦点合わせの異なる複数の撮影画像と生成画像とを、ぼけ関数による畳み込みを表す定数を含む恒等式で関係付け、焦点合わせの異なる撮影画像から任意の焦点合わせ画像を生成する方法を提案している。また、相澤達は焦点合わせの異なる複数の撮影画像と生成画像とを、ぼけパラメータを含むフィルタ関数を用いて関係付け、焦点合わせの異なる撮影画像から任意の焦点合わせ画像を生成する方法を提案している。(特許文献1,2参照)   In addition, the inventors relate a plurality of captured images with different focusing and generated images by an identity equation including a constant representing convolution by a blur function, and generate an arbitrary focused image from captured images with different focusing Has proposed. In addition, Aizawa et al. Proposed a method of generating arbitrary focused images from captured images with different focus by associating multiple captured images with different focus and generated images using a filter function including blur parameters. ing. (See Patent Documents 1 and 2)

図17にスタンフォード大学で提案されたプレノプティックカメラ(Plenoptic Camera)で撮影された焦点合わせの異なる複数(図17では5枚)の画像を示す。
図18は、プレノプティックカメラについて説明するための図である。2次元空間を例えば4×4の領域に分割してレンズアレイ等を配して多眼カメラのように機能させ(4×4の異なる視点から対象物を見ることと等価である)ている。いわば2次元空間にさらに2次元空間を形成することにより、コンピュータ上で4次元空間が実現されているといえる。したがって、これから3次元のMFI画像をコンピュータ演算により作成することが可能である。すなわち、図17に示すような焦点合わせが異なる画像を生成することが可能である。(非特許文献2参照)
FIG. 17 shows a plurality of images (five in FIG. 17) with different focuss taken by a plenoptic camera proposed by Stanford University.
FIG. 18 is a diagram for explaining the plenoptic camera. A two-dimensional space is divided into, for example, 4 × 4 areas and a lens array or the like is arranged to function like a multi-view camera (equivalent to viewing an object from 4 × 4 different viewpoints). In other words, it can be said that a four-dimensional space is realized on a computer by further forming a two-dimensional space in the two-dimensional space. Therefore, it is possible to create a three-dimensional MFI image from this by computer calculation. That is, it is possible to generate images with different focusing as shown in FIG. (See Non-Patent Document 2)

特開1999−295826号公報(段落0018〜0033、図1)JP 1999-295826 (paragraphs 0018 to 0033, FIG. 1) 特開2001−223874号公報(段落0023〜0097、図1〜13)JP 2001-223874 A (paragraphs 0023 to 0097, FIGS. 1 to 13) 多数の焦点合わせ画像群の統合的変換処理に基づく画像生成の検討、児玉和也、映像メディア処理シンポジウム第8回シンポジウム資料、p73〜74、2003年11月12日〜14日Examination of image generation based on integrated conversion processing of a large number of focused images, Kazuya Kodama, 8th Symposium on Video Media Processing Symposium, p73-74, November 12-14, 2003 Light Field Photography with aHand−Held Plenoptic Camera Ren Ng(Stanford Univ.)等 [online]、2005年4月[2005年8月24日検索]、インターネット <URL:http://graphics.stanford.edu/papers/lfcamera/>Light Field Photography with a Hand-Held Plenoptic Camera Ren Ng (Stanford Univ.) Et al. [Online], April 2005 [August 24, 2005 search], Internet <URL: http://graphics.paperford.edu. / lfcamera />

しかしながら、MFIによる方法では未だ任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成できておらず、焦点合わせの異なる複数の撮影画像と生成画像とを、恒等式またはフィルタ関数を用いて関係付ける方法は、いずれも撮影画像と生成画像とを2次元情報として直接関連付け、連立方程式の解を求めるものであるが、対象の多様な3次元情報を完全に反映した恒等式またはフィルタ関数が具体的に定義されておらず、その場合の完全解を得る方法も示されていない。また、プレノプティックカメラを用いて焦点合わせの異なる複数の視覚イメージ画像が得られているが、4次元情報から視覚イメージを得ており、情報量が過多であるために処理量が多いという問題があった。また、1台のカメラで撮影面を複数に分割して使用するために、解像度が悪いという問題があった。   However, the MFI method has not yet been able to generate a visual image corresponding to an arbitrary viewpoint, aperture, and focusing, and a plurality of captured images with different focusing and generated images can be related using an identity or a filter function. In both methods, the photographed image and the generated image are directly associated as two-dimensional information to find a solution of simultaneous equations, but an identity or a filter function that completely reflects the various three-dimensional information of the target is concrete. Is not defined, nor is a method for obtaining a complete solution in that case. In addition, a plurality of visual image images with different focusing are obtained using a plenoptic camera, but visual images are obtained from four-dimensional information, and the amount of information is excessive, so that the processing amount is large. There was a problem. In addition, there is a problem in that the resolution is poor because the photographing surface is divided into a plurality of parts with one camera.

本発明は、撮影対象に関する焦点ぼけ構造を持つ撮影画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成できる、新規なイメージング装置及びイメージング方法を提供することを目的とする。
また、3次元情報から視覚イメージ画像を得て処理量を少なくすること、解像度を向上することを目的とする。
An object of the present invention is to provide a novel imaging apparatus and imaging method capable of generating a visual image corresponding to an arbitrary viewpoint, aperture, and focusing from a group of captured images having a defocused structure related to an imaging target.
Another object of the present invention is to obtain a visual image from three-dimensional information to reduce the processing amount and improve the resolution.

本発明は、焦点ぼけ構造を持つ画像群から任意の視点及び視線方向、絞り、焦点合わせに相当する視覚イメージ画像を生成するものである。これは、前述のライトフィールドレンダリング(LFR)とマルチフォーカスイメージング(MFI)とを結びつけることにより、実現できたものである。すなわち、MFIにおける多焦点画像群の視線の方向から、LFRを用いて視線方向を変更し、任意の視点+視線方向からの画像に変換している。   The present invention generates a visual image corresponding to an arbitrary viewpoint, line-of-sight direction, aperture, and focusing from an image group having a defocus structure. This can be realized by combining light field rendering (LFR) and multifocus imaging (MFI) described above. That is, the line-of-sight direction is changed using the LFR from the line-of-sight direction of the multifocal image group in the MFI, and converted to an image from an arbitrary viewpoint + line-of-sight direction.

上記問題を解決するために、本発明の第1の態様に係る焦点ぼけ構造を用いるイメージング装置1は、例えば図10に示すように、撮影対象Qに関する焦点ぼけ構造を持つ撮影画像群g(X,Y)を統合及びフーリエ変換して統合的フーリエ変換撮影画像G(u,v,w)を形成するフーリエ変換・統合手段3と、統合的フーリエ変換撮影画像G(u,v,w)から焦点ぼけに係る3次元以上のフィルタ処理を用いて任意の視点、絞り、焦点合わせに対応する周波数成分を抽出して選択的フーリエ変換画像A(u,v,w)を形成する周波数成分抽出手段5と、選択的フーリエ変換画像A(u,v,w)を逆フーリエ変換及び切出して、任意の視点、絞り、焦点合わせに相当する撮影対象Qに関する視覚イメージ画像a(X,Y)を生成する逆フーリエ変換・切出手段6とを備える。 In order to solve the above problems, an imaging apparatus 1 using a defocusing structure according to a first aspect of the present invention, for example, as shown in FIG. 10, captured image group g n with defocusing structure for capturing object Q ( X and Y) are integrated and Fourier transformed to form an integrated Fourier transform photographed image G (u, v, w), and an integrated Fourier transform photographed image G (u, v, w). Extraction of frequency components corresponding to an arbitrary viewpoint, aperture, and focusing by using a three-dimensional or higher-dimensional filter processing related to defocusing to form a selective Fourier transform image A (u, v, w) a means 5, selective Fourier transform image a (u, v, w) the inverse Fourier transform and cut any viewpoint, iris, visual images on imaging target Q corresponding to focusing a n (X, Y) Raw Inverse Fourier transform / cutout means 6 is provided.

ここにおいて、撮影画像群が焦点ぼけ構造を持つとは、撮影画像群が焦点合わせ、視点等を変更して体系的に撮影され、その撮影画像を統合することにより、ぼけの状態が統合画像の各位置においてほとんど変化しないことをいう。また撮影画像群の変化は焦点合わせのみ、視点のみに限られず、両者共変化しても良い。また、焦点ぼけに係るフィルタとは、複数の実空間平面に焦点が合うようにして撮影した場合の、複数の撮像面で得られる焦点ぼけの程度を表すフィルタをいう。また、フィルタ処理は、明細書内で(式2)、(式3)で具体的に示されるが、このようなガウス分布に基づく関数に限られるものではなく、例えば視点を変化させる場合、魚眼レンズ、レンチキュラレンズを用いる場合等には、円柱型、階段状円柱型、これらの変形等の異なる関数となり得る。また、視覚イメージ画像とは、コンピュータ演算により生成される、視覚で感知可能な画像をいい、静止画像だけでなく、動画像、彩色画像も含まれる。   Here, the photographed image group has a defocused structure. The photographed image group is systematically photographed by changing the focus, changing the viewpoint, etc., and by integrating the photographed images, the blur state is the integrated image. It means that there is almost no change at each position. Further, the change of the photographed image group is not limited to focusing only and only the viewpoint, but both may be changed. The filter related to defocusing refers to a filter representing the degree of defocusing obtained on a plurality of imaging planes when shooting is performed so that a plurality of real space planes are in focus. Further, the filter processing is specifically shown in the specification as (Equation 2) and (Equation 3), but is not limited to such a function based on the Gaussian distribution. For example, when changing the viewpoint, a fisheye lens When a lenticular lens is used, it can be a different function such as a cylindrical shape, a stepped cylindrical shape, or a deformation thereof. Further, the visual image image means a visually perceivable image generated by computer calculation, and includes not only a still image but also a moving image and a color image.

このように構成すると、対象物に関する焦点ぼけ構造を持つ撮影画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成する新規なイメージング装置を提供できる。また、3次元情報から視覚イメージを得て処理量を少なくでき、解像度を向上できる。   If comprised in this way, the novel imaging device which produces | generates the visual image image equivalent to arbitrary viewpoints, aperture | diaphragm | squeeze, and focusing from the picked-up image group which has a defocus structure regarding a target object can be provided. Further, it is possible to obtain a visual image from the three-dimensional information, reduce the processing amount, and improve the resolution.

また、本発明の第2の態様は、第1の態様に係る焦点ぼけ構造を用いるイメージング装置において、焦点ぼけ構造を持つ撮影画像群g(X,Y)を、焦点を異にして撮影した画像群又は視点を変えて撮影した画像群から構成する。このように構成すると、焦点ぼけ構造を持つ画像群を確実かつ容易に得ることができる。 Further, according to the second aspect of the present invention, in the imaging apparatus using the defocus structure according to the first aspect, the photographed image group g n (X, Y) having the defocus structure is photographed with different focus. It is composed of an image group or an image group taken by changing the viewpoint. If comprised in this way, the image group which has a defocus structure can be obtained reliably and easily.

上記問題を解決するために、本発明の第3の態様に係る焦点ぼけ構造を用いるイメージング方法は、例えば図11に示すように、撮影対象Qに関する焦点ぼけ構造を持つ撮影画像群g(X,Y)を取得する画像群取得工程(S001)と、画像群取得工程で取得した撮影画像群g(X,Y)を統合及びフーリエ変換して統合的フーリエ変換撮影画像G(u,v,w)を形成するフーリエ変換・統合工程(S003)と、統合的フーリエ変換撮影画像G(u,v,w)から焦点ぼけに係る3次元以上のフィルタ処理を用いて任意の視点、絞り、焦点合わせに対応する周波数成分を抽出して選択的フーリエ変換画像A(u,v,w)を形成する周波数成分抽出工程(S004)と、選択的フーリエ変換画像A(u,v,w)を逆フーリエ変換及び切出して、任意の視点、絞り、焦点合わせに相当する撮影対象Qに関する視覚イメージ画像a(X,Y)を生成する逆フーリエ変換・切出工程(S005)とを備える。 In order to solve the above problem, the imaging method using the defocus structure according to the third aspect of the present invention is, for example, as shown in FIG. 11, a captured image group g n (X , Y) to obtain an integrated Fourier transform photographed image G (u, v) by integrating and Fourier transforming the image group obtaining step (S001) for obtaining and the photographed image group g n (X, Y) obtained in the image group obtaining step. , W), a Fourier transform / integration step (S003), and an integrated Fourier transform photographed image G (u, v, w) using a three-dimensional or more filter processing related to defocusing, an arbitrary viewpoint, aperture, A frequency component extraction step (S004) for extracting a frequency component corresponding to focusing and forming a selective Fourier transform image A (u, v, w) and a selective Fourier transform image A (u, v, w) are performed. Inverse Fourier transform Conversion and cut comprising, an arbitrary viewpoint, iris, visual images a n (X, Y) on imaging target Q corresponding to the focusing and an inverse Fourier transform-cutting step (S005) of generating.

このように構成すると、撮影対象に関する焦点ぼけ構造を持つ撮影画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成する新規なイメージング方法を提供できる。また、3次元情報から視覚イメージを得て処理量を少なくでき、解像度を向上できる。   If comprised in this way, the novel imaging method which produces | generates the visual image image corresponded to arbitrary viewpoints, aperture | diaphragm | squeeze, and focusing from the picked-up image group which has a defocus structure regarding a to-be-photographed object can be provided. Further, it is possible to obtain a visual image from the three-dimensional information, reduce the processing amount, and improve the resolution.

また、本発明の第4の態様は、第3の態様に係る焦点ぼけ構造を用いるイメージング方法において、焦点ぼけ構造を持つ撮影画像群g(X,Y)を、焦点を異にして撮影した画像群又は視点を変えて撮影した画像群から構成する。このように構成すると、焦点ぼけ構造を持つ画像群を確実かつ容易に得ることができる。 According to a fourth aspect of the present invention, in the imaging method using the defocus structure according to the third aspect, a photographed image group g n (X, Y) having a defocus structure is photographed at a different focus. It is composed of an image group or an image group taken by changing the viewpoint. If comprised in this way, the image group which has a defocus structure can be obtained reliably and easily.

また、本発明の第5の態様は、第3の態様又は第4の態様に係る焦点ぼけ構造を用いるイメージング方法をコンピュータに実行させるためのプログラムの発明である。 The fifth aspect of the present invention is an invention of a program for causing a computer to execute the imaging method using the defocus structure according to the third aspect or the fourth aspect .

本発明によれば、撮影対象に関する焦点ぼけ構造を持つ撮影画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成できる、新規なイメージング装置及びイメージング方法を提供できる。
また、3次元情報から視覚イメージ画像を得て処理量を少なくでき、解像度を向上できる。
ADVANTAGE OF THE INVENTION According to this invention, the novel imaging device and imaging method which can produce | generate the visual image image corresponded to arbitrary viewpoints, aperture_diaphragm | restriction, and focusing from the picked-up image group which has a defocus structure regarding imaging | photography object can be provided.
Further, it is possible to obtain a visual image from the three-dimensional information, reduce the processing amount, and improve the resolution.

[第1の実施の形態]
本実施の形態では、焦点合わせを変えて撮影した画像群から、焦点ぼけに係る3次元のフィルタ処理を用いてレンダリングすることにより、任意の視点、絞り、焦点合わせに相当する画像を作成する例を説明する。
まず、発明の原理について説明する。
[First Embodiment]
In this embodiment, an example of creating an image corresponding to an arbitrary viewpoint, aperture, and focusing by rendering using a three-dimensional filter process related to defocusing from a group of images taken with different focusing. Will be explained.
First, the principle of the invention will be described.

図1は透視座標と直交座標との関係を説明するための図である。実空間は本来透視座標系で表されるが、本発明の大半の処理は変換を適用した直交座標系で表される。図1(a)は実空間を表すもので、カメラの絞りをピンホールと仮定し、実空間におけるカメラからの視線を矢印で示す。図1(b)は座標変換後の空間を表す。実空間ではカメラのピンホールを原点O(0,0,0)とし、座標変換後の空間ではカメラの光軸上の焦点距離の位置を原点O(0,0,0)とする(本明細書中ではここを除きOは透視座標系の原点を示し、図面中では透視座標系及び直交座標系の原点を示す)。透視座標で左右方向をx、上下方向をy、前後方向をz(前方を+)とし、直交座標で左右方向をX、上下方向をY、前後方向をZ(前方を+)とする。透視座標系の座標は(x,y,z)で、直交座標系の座標は(X,Y,Z)で表す。   FIG. 1 is a diagram for explaining the relationship between perspective coordinates and orthogonal coordinates. The real space is originally expressed in a perspective coordinate system, but most of the processing of the present invention is expressed in an orthogonal coordinate system to which transformation is applied. FIG. 1 (a) represents real space, where the aperture of the camera is assumed to be a pinhole, and the line of sight from the camera in real space is indicated by an arrow. FIG. 1B shows the space after coordinate conversion. In the real space, the camera pinhole is set as the origin O (0, 0, 0), and in the space after coordinate conversion, the position of the focal length on the optical axis of the camera is set as the origin O (0, 0, 0) (this specification). Except here, O indicates the origin of the perspective coordinate system, and in the drawing indicates the origin of the perspective coordinate system and the orthogonal coordinate system). In perspective coordinates, the left-right direction is x, the up-down direction is y, the front-rear direction is z (forward is +), the left-right direction is X, the up-down direction is Y, and the front-rear direction is Z (forward is +) in orthogonal coordinates. The coordinates of the perspective coordinate system are represented by (x, y, z), and the coordinates of the orthogonal coordinate system are represented by (X, Y, Z).

カメラから座標(p,q,f)(fは焦点距離)を見た視線は、実空間では直線(x,y)=(z/f)*(p,q)(x=(z/f)*p、y=(z/f)*qと2つの式をまとめて示したもので、以下もこのような表現を用いる。*は乗算演算子である。)で表され、座標変換後の空間では、(X,Y)=(p,q)で、±Z方向に延びる直線に対応し、(p、q)一点として撮影される。すなわち、直交座標系では無限遠を見る視線は±Z方向に延びる平行線となる。また、Q1,Q2は撮影対象であり、実空間では同じ寸法でも、カメラに近い方が大きく表される。カメラの光軸方向については、透視座標系でカメラから距離f,Nf/(N−1),…,Nf/i,…,Nf/2,Nf,∞にあるxy平面上の撮影対象は、直交座標系では0,1/N,2/N,…,(N−i)/N,…,(N−2)/N,(N−1)/N,1と、原点からZ方向に等間隔に配置されたXY平面上に変換される。透視座標系と直交座標系とで、(X,Y)=(f/z)*(x,y)、Z=(1−f/z)と座標変換される。   The line of sight when viewing coordinates (p, q, f) (f is the focal length) from the camera is a straight line (x, y) = (z / f) * (p, q) (x = (z / f) in real space. ) * P, y = (z / f) * q and the following two expressions are shown together, and the following expression is also used below (* is a multiplication operator)), and after coordinate conversion In this space, (X, Y) = (p, q), corresponding to a straight line extending in the ± Z direction, is taken as one point (p, q). That is, in the Cartesian coordinate system, the line of sight at infinity is a parallel line extending in the ± Z direction. Q1 and Q2 are objects to be photographed, and even in the real space, the one closer to the camera is greatly represented even if the dimensions are the same. With respect to the optical axis direction of the camera, the imaging target on the xy plane at distances f, Nf / (N−1),..., Nf / i,. In the orthogonal coordinate system, 0, 1 / N, 2 / N,..., (N−i) / N,..., (N−2) / N, (N−1) / N, 1 and the Z direction from the origin Conversion is performed on an XY plane arranged at equal intervals. In the perspective coordinate system and the orthogonal coordinate system, coordinate conversion is performed such that (X, Y) = (f / z) * (x, y), Z = (1−f / z).

図2は図1のカメラのピンホールをレンズに置換した場合の透視座標と直交座標との関係を示す。図2(a)は実空間(透視座標系)を、図2(b)は座標変換後の空間(直交座標系)を表す。レンズ上の原点から見た視線の他に、点(s,t,0)から見た視線も示す。また、(a)では情景(Scene)側(+z側)と共に像(Image)側(−z側)の光線も併せて示す。図2(a)の透視座標系において、原点O(0,0,0)から見た視線に比して点(s,t,0)から見た視線は+z側で(s、t,0)だけ平行移動する。原点O(0,0,0)及び(p,q,f)を通る光線とこれに平行な点(s,t,0)及び(p+s,q+t,f)を通る光線は焦点距離−fの平面で一致するので、点(s,t,0)及び(p+s,q+t,f)を通る光線は、+側で、(x,y)=(z/f)*(p,q)+(s,t)で表わされ、−側で、(x,y)=(z/f)*(p+s,q+t)+(s,t)で表わされる。透視座標系と直交座標系とで、z≧fでは、(X,Y)=(f/z)*(x,y)、Z=(1−f/z)、z≦−fでは、(X,Y)=(f/z)*(x,y)、Z=−f/zと座標変換される。   FIG. 2 shows the relationship between perspective coordinates and orthogonal coordinates when the pinhole of the camera of FIG. 1 is replaced with a lens. 2A shows a real space (perspective coordinate system), and FIG. 2B shows a space (orthogonal coordinate system) after coordinate conversion. In addition to the line of sight viewed from the origin on the lens, the line of sight viewed from the point (s, t, 0) is also shown. Further, (a) also shows the rays on the image (Image) side (−z side) together with the scene (Scene) side (+ z side). In the perspective coordinate system of FIG. 2A, the line of sight viewed from the point (s, t, 0) is (s, t, 0) on the + z side as compared to the line of sight viewed from the origin O (0, 0, 0). ). Rays passing through the origins O (0, 0, 0) and (p, q, f) and rays passing through the points (s, t, 0) and (p + s, q + t, f) parallel to this have focal length −f. Since they coincide in the plane, rays passing through the points (s, t, 0) and (p + s, q + t, f) are (x, y) = (z / f) * (p, q) + ( s, t), and on the negative side, (x, y) = (z / f) * (p + s, q + t) + (s, t). In the perspective coordinate system and the orthogonal coordinate system, when z ≧ f, (X, Y) = (f / z) * (x, y), Z = (1−f / z), and z ≦ −f, X, Y) = (f / z) * (x, y), and Z = −f / z.

図2(b)の直交座標系において、視点が原点O(0,0,0)にある場合と(s,t,0)にある場合で無限遠を見る視線はz=∞で一致するので、視点(s,t,0)から点(p+s,q+t,f)を見た視線は、直線

(X,Y)=(p,q)+(1−Z)*(s,t)・・・(式1)

で表わされる。また、透視座標系における平行光束は、原点O(0,0,0)から半径r(いま点(s,t,0)はこの円周上にあるものとする)のレンズを通して、焦点距離−fの平面の焦点に集光する。この平行光束は、直交座標系において、(X,Y)=(p,q)であるZ方向に延びる直線を軸とし、(式1)の直線をこの軸の周りに回転した円錐の内部で表される。
In the Cartesian coordinate system of FIG. 2B, the line of sight that looks at infinity when the viewpoint is at the origin O (0, 0, 0) and at the point (s, t, 0) matches at z = ∞. The line of sight of the point (p + s, q + t, f) from the viewpoint (s, t, 0) is a straight line

(X, Y) = (p, q) + (1-Z) * (s, t) (Equation 1)

It is represented by Further, the parallel luminous flux in the perspective coordinate system passes through a lens having a radius r a (assuming that the current point (s, t, 0) is on this circumference) from the origin O (0, 0, 0), and the focal length. Focus on the focal plane of -f. This parallel light beam is centered on a straight line extending in the Z direction (X, Y) = (p, q) in the orthogonal coordinate system, and the straight line of (Equation 1) is inside a cone rotated around this axis. expressed.

レンズを使用することは、光束の情報を含むことになる。そして、撮像空間においてz値の異なる多数の面があり、ある面に焦点を合わせると、他の面では焦点ぼけが発生することとなるが、ぼけ情報は光束情報を含むものであり、この光束情報に含まれる実空間の情報を抽出できる可能性がある。   Using a lens will contain information about the luminous flux. Then, there are a large number of surfaces having different z values in the imaging space, and when focusing on a certain surface, defocusing occurs on the other surface, but the blur information includes light flux information. There is a possibility that real space information included in the information can be extracted.

図3に直交座標系において、無限遠からの光とZ方向に並ぶ平面群との関係を示す。図3はMFI(マルチフォーカスイメージング)モデルで表現したものである。図3は+側(Scene側)と−側(Image側)両方の図を兼ねている。図において、Z方向に並ぶ複数(N+1層)のXY平面は、直交座標系では、Z=0,1/N,2/N,…,(N−i)/N,…,(N−2)/N,(N−1)/N,1の位置にある。透視座標系では、+側でz=f,Nf/(N−1),…,Nf/i,…,Nf/2,Nf,∞の位置に対応し、−側でz=−∞,−Nf,−Nf/2,…,−Nf/i,…,−Nf/(N−1),−fの位置に対応する。+側で無限遠からの光束が矢印間の斜線部分と見ることができ、−側でレンズ透過後の光束が矢印間の斜線部分と見ることができる。   FIG. 3 shows the relationship between light from infinity and a group of planes arranged in the Z direction in the orthogonal coordinate system. FIG. 3 is an MFI (multi-focus imaging) model. FIG. 3 combines both the + side (Scene side) and the − side (Image side). In the figure, a plurality of (N + 1 layers) XY planes arranged in the Z direction are represented by Z = 0, 1 / N, 2 / N,..., (N−i) / N,. ) / N, (N−1) / N, 1. In the perspective coordinate system, z = f, Nf / (N−1),..., Nf / i,..., Nf / 2, Nf, ∞ on the + side, and z = −∞, − on the − side. This corresponds to the positions of Nf, -Nf / 2, ..., -Nf / i, ..., -Nf / (N-1), -f. On the + side, the light beam from infinity can be seen as the shaded portion between the arrows, and on the-side, the light beam after passing through the lens can be seen as the shaded portion between the arrows.

無限遠からの平行光束は原点Oを中心とする半径r(点(s,t,0)はこの円周上にあるものとする)のレンズを通過する。この光束は、直交座標系で図3に示すように、点(p,q)と無限遠(Z=1)を結ぶ線を中心軸とし、底面(Z=0)で半径r(点(p+s,q+t)はこの円周上にある)の円を有する円錐の内部で表される。この平行光束はレンズを通過後、焦点距離−fの平面(Z=1)の焦点に集光し、その後、次第に広がりZ=0(z=−∞に対応する)の平面では、底面(Z=0)で点(p、q)を中心とする半径r(点(p+s,q+t)はこの円周上にあるものとする)の円となる。すなわち、この光束は点(p、q)と焦点(Z=1)を結ぶ線を中心軸とし、底面(Z=0)で半径rの円を有する円錐の内部で表される。したがって、Z方向に並んだXY平面群は、+側(Scene側)において、無限遠からの平行光束と円で交わり、その円の中に平行光束の情報を有し、また、−側(Image側)において焦点(−f)通過後に平行光束と円で交わり、これらの面を撮像面とする撮影画像はこの円の中に平行光束の情報を有している。 A parallel light beam from infinity passes through a lens having a radius r a (the point (s, t, 0) is on the circumference) centered on the origin O. As shown in FIG. 3 in the orthogonal coordinate system, this light beam has a radius r a (point (point (Z)) with the line connecting the point (p, q) and infinity (Z = 1) as the central axis. p + s, q + t) is represented inside a cone having a circle on this circumference. After passing through the lens, this parallel light beam is condensed on the focal point of the plane (Z = 1) having a focal length −f, and then spreads gradually on the plane of Z = 0 (corresponding to z = −∞) on the bottom surface (Z = 0) and a circle with a radius r a centered on the point (p, q) (the point (p + s, q + t) is on this circumference). That is, the luminous flux is expressed inside a cone having a circle connecting the point (p, q) and the focal point (Z = 1) as the central axis and having a bottom surface (Z = 0) and a radius ra. Therefore, the XY plane group arranged in the Z direction intersects with a parallel light beam from infinity on a + side (Scene side) and has information on the parallel light beam in the circle, and also on the − side (Image side) ) Intersects with a parallel light beam after passing through the focal point (−f) in a circle, and a photographed image having these surfaces as imaging surfaces has information on the parallel light beam in this circle.

このように無限遠からの平行光は焦点に集光するが、実空間、透視座標系でz=Nf,Nf/2,…,Nf/i,…,Nf/(N−1),fのxy平面に物体(撮影対象)がある場合は、物体からの反射光が発生し、それぞれ、撮像空間、直交座標系でZ=(N−1)/N,(N−2)/N,…,(N−i)/N,…,2/N,1/N,のXY平面に結像する。これらの場合には、物体からの反射光による光束は、Z=(N−1)/N,(N−2)/N,…,(N−i)/N,…,2/N,1/N,0の平面を頂点とする+−両側に広がる円錐で表される。したがって、+側(実空間側)において各XY平面は物体からの反射光と円で交わり、その円の中に物体(撮影対象)の情報を有している。また、−側(撮像空間側)において各XY平面はレンズ透過光と円で交わり、これらの面を撮像面とする撮影画像はこの円の中に物体(撮影対象)の情報を有している。ここに、実空間でn層目のXY平面の情報(明るさ)をf(X,Y,Z)=f(X,Y)、n層目のXY平面に焦点を合わせて撮影された画像、即ち,撮像空間でn層目のXY平面で得られる取得画像をg(X,Y,Z)=g(X,Y)とする。なお、Z=n/Nである。 In this way, parallel light from infinity is collected at the focal point, but in the real space, perspective coordinate system, z = Nf, Nf / 2,..., Nf / i,. When there is an object (photographing target) on the plane, reflected light from the object is generated, and Z = (N−1) / N, (N−2) / N,. An image is formed on the XY plane of (N−i) / N,..., 2 / N, 1 / N. In these cases, the light flux from the reflected light from the object is Z = (N−1) / N, (N−2) / N,..., (Ni) / N,. It is represented by a cone extending on both sides of the +/-, 0 plane. Therefore, on the + side (real space side), each XY plane intersects with the reflected light from the object in a circle, and has information on the object (photographing target) in the circle. On the negative side (imaging space side), each XY plane intersects with the lens transmitted light and a circle, and a photographed image having these surfaces as the imaging surface has information on an object (photographing target) in this circle. . Here, the information (brightness) of the n-th XY plane in real space is f (X, Y, Z n ) = f n (X, Y), and is photographed with the focus on the n-th XY plane. An acquired image obtained on the XY plane of the nth layer in the imaging space is assumed to be g (X, Y, Z n ) = g n (X, Y). Note that Z n = n / N.

MFIモデルでは、レンズを通る全ての光線が使用されるので、円錐の内側で光束は連続的であり、円錐内の全ての情報を含んでいる。これにより、焦点の異なるN枚の取得画像g(X,Y)に基づいて、レンダリングにより任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成できる。 In the MFI model, all rays through the lens are used, so that the light flux is continuous inside the cone and contains all the information in the cone. Thus, a visual image corresponding to an arbitrary viewpoint, aperture, and focusing can be generated by rendering based on N acquired images g n (X, Y) having different focal points.

図4に、3次元ぼけフィルタを介した実空間情報(+z側)(Scene)と撮影画像(−z側)(Image)群との関係を示す。図4(a)は撮影対象を含む実空間情報、撮影画像、3次元ぼけフィルタの関係を模式的に示し、図4(b)は3次元ぼけフィルタの概念を模式的に示す。実空間情報f(X,Y,Z)と撮影画像群g(X,Y)を統合した統合的撮影画像g(X,Y,Z)とはフィルタh(X,Y,Z)により関係付けられる。すなわち、実空間情報f(X,Y,Z)にフィルタh(X,Y,Z)を作用することにより、統合的撮影画像g(X,Y,Z)を得る。撮像画像群g(X,Y,Z)=g(X,Y)は焦点合わせを変化させて、すなわち撮像面を変えて撮影した画像群であり、焦点が合う平面上の物体は明瞭な画像として、焦点が合わない平面上の物体は焦点ぼけした不明瞭な画像として撮影される。そして、撮像画像群g(X,Y)を統合したものが統合的撮影画像g(X,Y,Z)といえる。フィルタは、各XY平面上(1=<n=<N)で焦点が合うように撮影した場合の、各XY撮像面(1=<n=<N)で得られる焦点ぼけの程度を表すフィルタである。模式的には、焦点が合う平面を頂点とする+−両側に広がる円錐で表される。すなわち、図4(b)に示すように焦点に近いほどXY平面と交わる円は小さく、ぼけの程度が低く、焦点から遠いほどXY平面と交わる円は大きく、ぼけの程度も大きくなる。 FIG. 4 shows the relationship between real space information (+ z side) (Scene) and photographed image (−z side) (Image) group via a three-dimensional blur filter. FIG. 4A schematically shows the relationship between real space information including a subject to be photographed, a photographed image, and a three-dimensional blur filter, and FIG. 4B schematically shows the concept of the three-dimensional blur filter. The integrated photographed image g (X, Y, Z) obtained by integrating the real space information f (X, Y, Z) and the photographed image group g n (X, Y) is related by the filter h (X, Y, Z). Attached. That is, the integrated photographed image g (X, Y, Z) is obtained by applying the filter h (X, Y, Z) to the real space information f (X, Y, Z). The captured image group g (X, Y, Z n ) = g n (X, Y) is an image group captured by changing the focusing, that is, by changing the imaging surface, and the object on the focused plane is clear. As a simple image, an object on a plane that is out of focus is photographed as a blurred and unclear image. The captured image group g n (X, Y) is obtained by integrating the integrated photographic image g (X, Y, Z) and said. The filter represents the degree of defocusing obtained on each XY imaging surface (1 = <n = <N) when the XY plane (1 = <n = <N) is photographed so as to be in focus. It is. Schematically, it is represented by a cone extending on both sides of the +/− side with the in-focus plane as the apex. That is, as shown in FIG. 4B, the closer to the focal point, the smaller the circle that intersects the XY plane and the lower the degree of blur, and the farther from the focal point, the larger the circle that intersects the XY plane and the greater the degree of blur.

幾何光学において、焦点合わせの異なる複数の撮影面を関連付けるぼけ行列は

と表現される。このぼけ行列を畳み込み演算のフィルタとして表現すると、
と表される。
これを周波数領域で表すと、
と表される。
In geometric optics, the blur matrix that associates multiple imaging planes with different focus points is

It is expressed. If this blur matrix is expressed as a filter for convolution,
It is expressed.
Expressing this in the frequency domain,
It is expressed.

図5は実空間情報(Scene)f(X,Y,Z)、撮影画像(Image)群g(X,Y,Z)、フィルタh(X,Y,Z)の関係を模式的に示す。図5(a)はMFIモデルを示す。3次元形状を有する(ここでは形状がX,Z方向に変化し、Y方向に一様である)物体(撮影対象)Qを太線で示し、Z方向に並ぶ各XY平面に焦点を合わせて撮影した場合の光線の状況を示す。図5(a)において、焦点は観察方向を表わす光線の交点で示され、光線は光束内で連続的である。光線の広がりは撮影画像群g(X,Y,Z)のぼけの程度を表している。f(X,Y,Z)=0の何もない領域もぼけているとみなせる。 FIG. 5 schematically shows the relationship between real space information (Scene) f (X, Y, Z), a photographed image (Image) group g (X, Y, Z n ), and a filter h (X, Y, Z). . FIG. 5A shows an MFI model. An object (photographing target) Q having a three-dimensional shape (in this case, the shape changes in the X and Z directions and is uniform in the Y direction) is indicated by a bold line, and is focused on each XY plane aligned in the Z direction. The state of the light beam when In FIG. 5 (a), the focal point is indicated by the intersection of rays indicating the observation direction, and the rays are continuous in the light flux. The spread of the light beam represents the degree of blur of the photographed image group g (X, Y, Z n ). It can be considered that a blank area where f (X, Y, Z) = 0 is blurred.

図5(b)は実空間情報f(X,Y,Z)と撮影画像群g(X,Y,Z)とをフィルタh(X,Y,Z)で結合する過程を示す。すなわち、焦点が合った撮像面では明瞭な画像が得られるが、焦点が合わない撮像面ではぼけを含む画像が得られる。フィルタh(X,Y,Z)はこのような変換フィルタの機能を有している。 FIG. 5B shows a process of combining the real space information f (X, Y, Z) and the photographed image group g (X, Y, Z n ) with a filter h (X, Y, Z). That is, a clear image can be obtained on the focused imaging surface, but an image including blur can be obtained on the unfocused imaging surface. The filter h (X, Y, Z) has such a conversion filter function.

次に、3次元ぼけフィルタh(X,Y,Z)の性質を考える。実空間情報f(X,Y,Z)に対応する撮影画像群g(X,Y,Z)を考える。例えば実空間f(X,Y,Z)を1つの方向から観察した場合、視線に直交しかつ焦点が合う撮像面で明瞭に観察でき、焦点が合わない面ではぼけて観察される。これは、例えばn=1〜5の各撮像面に適用される。このようなフィルタがh(X,Y,Z)である。 Next, consider the nature of the three-dimensional blur filter h (X, Y, Z). Consider a captured image group g (X, Y, Z n ) corresponding to real space information f (X, Y, Z). For example, when the real space f (X, Y, Z) is observed from one direction, it can be clearly observed on an imaging surface that is orthogonal to the line of sight and is in focus, and is blurred and observed on a surface that is not in focus. This is applied to each imaging surface where n = 1 to 5, for example. Such a filter is h (X, Y, Z).

この関係はフーリエ空間でも適用される。実空間情報f(X,Y,Z)に対応するフーリエ空間をF(u,v、w)、撮影画像群g(X,Y,Z)に対応するフーリエ空間での統合的フーリエ変換撮影画像をG(u,v、w)、フィルタh(X,Y,Z)に対応するフーリエ空間でのフィルタをH(u,v、w)とする。フーリエ空間ではフィルタH(u,v、w)は(式3)で表され、良好に観察できる周波数領域を抽出する。また、後述するように、フーリエ空間では周波数成分で表現することにより、統合的撮像空間g(X,Y,Z)に基づいて、特定の周波数成分を抽出し、コンピュータ演算することにより、任意の視点、焦点合わせ、絞りの画像を生成できる。 This relationship also applies in Fourier space. The Fourier space corresponding to the real space information f (X, Y, Z) is F (u, v, w), and the integrated Fourier transform imaging is performed in the Fourier space corresponding to the captured image group g (X, Y, Z n ). The image is G (u, v, w), and the filter in the Fourier space corresponding to the filter h (X, Y, Z) is H (u, v, w). In the Fourier space, the filter H (u, v, w) is expressed by (Equation 3), and a frequency region that can be satisfactorily observed is extracted. As described later, in the Fourier space, a specific frequency component is extracted on the basis of the integrated imaging space g (X, Y, Z) by being expressed by a frequency component, and an arbitrary calculation is performed by computer calculation. Viewpoint, focus and aperture images can be generated.

フーリエ変換画像F(u,v、w)は実空間情報f(X,Y,Z)のフーリエ変換画像である。また、統合的フーリエ変換撮影画像G(u,v,w)は各層の撮影画像群g(X,Y)をコンピュータ演算等により統合処理しフーリエ変換したものである。 The Fourier transform image F (u, v, w) is a Fourier transform image of the real space information f (X, Y, Z). The integrated Fourier transform photographed image G (u, v, w) is obtained by subjecting the photographed image group g n (X, Y) of each layer to integration processing by computer calculation or the like and Fourier transform.

図6は3次元ぼけフィルタの周波数特性例を示す。図6(a)は実空間情報のフーリエ変換画像F(u,v,w)に3次元ぼけフィルタH(u,v,w)をかけて統合的フーリエ変換撮影画像G(u,v,w)が抽出される過程を示す。フィルタH(u,v,w)は(式3)で表されるものである。このフィルタは、MFIモデルでは、光束に垂直な平面群に係る周波数成分を抽出するものである。図6(b)はレンズのぼけがガウス分布となっている場合のフィルタH(u,v,w)の例である。原点O(0,0,0)ではデルタ関数で抽出され、uv平面上ではH(u,v,w)≠0なので抽出されるが、w軸上では原点を除いてH(u,v,w)=0なので抽出されない。図6(c)はピンホールカメラの場合のフィルタH(u,v,w)の例で、uv平面上のみ抽出される。   FIG. 6 shows an example of frequency characteristics of a three-dimensional blur filter. FIG. 6A shows an integrated Fourier transform image G (u, v, w) obtained by applying a three-dimensional blur filter H (u, v, w) to a Fourier transform image F (u, v, w) of real space information. ) Shows the process of extraction. The filter H (u, v, w) is expressed by (Equation 3). In the MFI model, this filter extracts a frequency component related to a plane group perpendicular to the light beam. FIG. 6B shows an example of the filter H (u, v, w) when the lens blur has a Gaussian distribution. At the origin O (0, 0, 0), it is extracted by a delta function, and on the uv plane, it is extracted because H (u, v, w) ≠ 0. However, on the w axis, H (u, v, Since w) = 0, it is not extracted. FIG. 6C shows an example of a filter H (u, v, w) in the case of a pinhole camera, and it is extracted only on the uv plane.

図7は、原点O(0,0,0)(以下(0,0)と省略して示す。)から(s,t,0)(以下(s,t)と省略して示す。)ずれた位置から半径rのアイリスを有する仮想カメラで撮影した場合を説明するための図である。図7(a)は実空間像f(X,Y,Z)から撮像空間における焦点合わせの異なる視覚イメージ画像群a(X,Y,Z)=a(X,Y)を得るもので、フィルタh(X,Y,Z;r,s,t)は、図7(a)のようにレンズを通る光束が傾斜した円錐領域を通るものに対応する。なお、これらの視覚イメージ画像群を統合したものが選択的生成画像a(X,Y,Z)である。図7(b)はフーリエ変換画像F(u,v,w)から特定の周波数成分を抽出した選択的フーリエ変換画像A(u,v,w)を得るもので、これに対応するフーリエ空間のフィルタは、図7(b)のように傾斜した平面群に係る周波数領域を抽出するフィルタH(u,v,w;r,s,t)となる。このように、原点O(0,0)からずれた位置(s,t)から半径rのアイリス(絞り)を有する仮想カメラで撮影した場合においても、フィルタを用いて、特定の周波数成分を抽出して選択的フーリエ変換画像A(u,v,w)を取得可能であり、選択的フーリエ変換画像A(u,v,w)をさらにフーリエ逆変換すれば選択的生成画像a(X,Y,Z)を生成でき、これを任意のXY面で切り出すことにより、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像a(X,Y)=a(X,Y,Z)を生成可能であるといえる。 In FIG. 7, the origin O (0, 0, 0) (hereinafter abbreviated as (0, 0)) is shifted from (s, t, 0) (hereinafter abbreviated as (s, t)). It is a figure for demonstrating the case where it image | photographed with the virtual camera which has an iris of radius r from the position where it was. FIG. 7A obtains a visual image group a (X, Y, Z n ) = a n (X, Y) having different focusing in the imaging space from the real space image f (X, Y, Z). , Filter h a (X, Y, Z; r, s, t) corresponds to the light beam passing through the lens passing through the inclined cone region as shown in FIG. Note that the selectively generated image a (X, Y, Z) is obtained by integrating these visual image groups. FIG. 7B obtains a selective Fourier transform image A (u, v, w) obtained by extracting a specific frequency component from the Fourier transform image F (u, v, w). The filter is a filter H a (u, v, w; r, s, t) that extracts a frequency region related to the inclined plane group as shown in FIG. In this way, even when shooting with a virtual camera having an iris (aperture) of radius r from a position (s, t) deviated from the origin O (0, 0), a specific frequency component is extracted using a filter. Thus, the selective Fourier transform image A (u, v, w) can be obtained, and if the selective Fourier transform image A (u, v, w) is further subjected to Fourier inverse transform, the selectively generated image a (X, Y) is obtained. , Z) can be generated, and a visual image a n (X, Y) = a (X, Y, Z n ) corresponding to an arbitrary viewpoint, aperture, and focusing can be obtained by cutting this out with an arbitrary XY plane. It can be said that it can be generated.

ここにおいて、仮想カメラで視点(s,t)からアイリスrで撮影した場合の3次元ぼけフィルタは(式4)で表され、周波数空間では(式5)で表される。
Here, the three-dimensional blur filter when the virtual camera is used to capture the image from the viewpoint (s, t) with the iris r is expressed by (Expression 4), and is expressed by (Expression 5) in the frequency space.

図8は、フーリエ空間における、撮影で取得される撮影画像G(u,v,w)とコンピュータ演算により生成される生成画像(選択的フーリエ変換画像)A(u,v,w)間の関係を示す。実空間情報f(X,Y,Z)のフーリエ変換画像をF(u,v,w)、半径rのアイリスを用いて、原点から撮影したときの撮影画像をG(u,v,w)、そのときのフィルタをH(u,v,w)、原点(0,0)からずれた位置(s,t)から半径rのアイリスを有するカメラで撮影したと仮定してコンピュータ演算により生成される選択的フーリエ変換画像をA(u,v,w)、そのときのフィルタをH(u,v,w;r,s,t)とすると、

G(u,v,w)=H(u,v,w)F(u,v,w) ・・・(式6)
A(u,v,w)=H(u,v,w;r,s,t)F(u,v,w)・・・(式7)

が成立する。
FIG. 8 shows the relationship between a captured image G (u, v, w) acquired by shooting and a generated image (selective Fourier transform image) A (u, v, w) generated by computer calculation in Fourier space. Indicates. Using a Fourier transform image of real space information f (X, Y, Z), F (u, v, w), and an iris with a radius ra, the captured image is G (u, v, w). ), And the filter at that time is generated by computer calculation on the assumption that the image was taken with a camera having an iris of radius r from a position (s, t) deviated from the origin (0, 0), H (u, v, w) If the selective Fourier transform image is A (u, v, w) and the filter at that time is H a (u, v, w; r, s, t),

G (u, v, w) = H (u, v, w) F (u, v, w) (Formula 6)
A (u, v, w) = H a (u, v, w; r, s, t) F (u, v, w) (Expression 7)

Is established.

これにより周波数領域における、撮影画像G(u,v,w)と選択的フーリエ変換画像(視覚イメージ画像をフーリエ変換したもの)A(u,v,w)の関係は、

A(u,v,w)=H(u,v,w;r,s,t)H(u,v,w)−1G(u,v,w)・・・(式8)

となる。このことは、MFIで取得された画像から、任意の視点、絞り、焦点合わせに相当する選択的生成画像a(X,Y,Z)を生成可能なことを意味する。
Thereby, in the frequency domain, the relationship between the captured image G (u, v, w) and the selective Fourier transform image (a Fourier transform of the visual image image) A (u, v, w) is

A (u, v, w) = H a (u, v, w; r, s, t) H (u, v, w) −1 G (u, v, w) (Equation 8)

It becomes. This means that a selectively generated image a (X, Y, Z) corresponding to an arbitrary viewpoint, aperture, and focusing can be generated from an image acquired by MFI.

図9は、視覚イメージ画像が生成可能な場合の条件を示す。これは取得した複数枚の撮影画像群g(X,Y)の情報中に生成される視覚イメージ画像a(X,Y)の情報が存在する場合に生成可能ということである。すなわち、取得した撮影画像に係る3次元ぼけフィルタがH(u,v,w)=0となる領域に、生成される画像の3次元ぼけフィルタでH(u,v,w;r,s,t)≠0となる領域が存在すれば、H(u,v,w;r,s,t)H(u,v,w)−1が定まらず、イメージ画像を得ることができない。また、H(u,v,w)≠0となる領域にのみ、H(u,v,w;r,s,t)≠0となる領域が存在すれば、すべての領域でH(u,v,w;r,s,t)H(u,v,w)−1が定まり、視覚イメージ画像a(X,Y)の生成が可能である。 FIG. 9 shows conditions when a visual image can be generated. This is that can be generated when information of the photographed image group g n (X, Y) of the plurality of acquired visual images produced during information a n (X, Y) is present. That is, H a (u, v, w; r, s) is generated by the three-dimensional blur filter of the generated image in an area where the three-dimensional blur filter related to the acquired captured image is H (u, v, w) = 0. , T) ≠ 0, if there is an area where H a (u, v, w; r, s, t) H (u, v, w) −1 is not determined, an image cannot be obtained. In addition, if there is a region where H a (u, v, w; r, s, t) ≠ 0 exists only in a region where H (u, v, w) ≠ 0, H a ( u, v, w; r, s, t) H (u, v, w) -1 is Sadamari, it is possible to produce visual images a n (X, Y).

図10に本実施の形態におけるイメージング装置の構成例を示す。
図10において、Qは撮影対象である。1はイメージング装置であり、演算処理、制御処理を行う演算制御装置2、撮影画像を取得する画像取得手段8としての撮像装置、取得した撮影画像、演算過程や演算結果で生成された画像を記憶する画像記憶手段9、取得した撮影画像、演算過程や演算結果で生成された画像を表示する画像表示手段10等から構成される。演算制御装置2は、焦点ぼけ構造を持つ撮影画像群g(x,y)を統合及びフーリエ変換して統合的フーリエ変換撮影画像G(u,v,w)を形成するフーリエ変換・統合手段3、統合的フーリエ変換撮影画像G(u,v,w)からフィルタ処理を用いて任意の視点、絞り、焦点合わせに適応する周波数成分を抽出して選択的フーリエ変換画像A(u,v,w)を形成する周波数成分抽出手段5、選択的フーリエ変換画像A(u,v,w)を逆フーリエ変換及び切出して、任意の視点、絞り、焦点合わせに相当する撮影対象Qに関する視覚イメージ画像a(X,Y)を生成する逆フーリエ変換・切出手段6、イメージング装置1を構成する各手段を制御して、イメージング装置1としての機能を果たさせる制御手段7等から構成される。また、撮像装置8は焦点合わせに応じて撮像面の位置が可変に構成され、焦点合わせの異なる撮影画像群g(x,y)、すなわち、焦点ぼけ構造を持つ撮影画像群を撮影可能である。
FIG. 10 shows a configuration example of the imaging apparatus in the present embodiment.
In FIG. 10, Q is a subject to be photographed. Reference numeral 1 denotes an imaging device, which stores an arithmetic control device 2 that performs arithmetic processing and control processing, an imaging device as an image acquisition means 8 that acquires a captured image, an acquired captured image, and an image generated by an arithmetic process and an arithmetic result Image storage means 9, an acquired photographed image, an image display means 10 for displaying an image generated by a calculation process or a calculation result, and the like. The arithmetic and control unit 2 integrates and Fourier transforms the captured image group g n (x, y) having a defocus structure to form an integrated Fourier transform captured image G (u, v, w). 3. Extracting frequency components suitable for any viewpoint, aperture, and focusing from the integrated Fourier transform photographed image G (u, v, w) using filter processing, and selectively Fourier transform image A (u, v, w) The visual component image of the subject Q corresponding to an arbitrary viewpoint, aperture, and focusing by performing inverse Fourier transform and cutting out the selective Fourier transform image A (u, v, w) forming the frequency component extraction means 5 forming w) Inverse Fourier transform / cutting means 6 for generating a n (X, Y), control means 7 for controlling each means constituting the imaging apparatus 1 to perform the function as the imaging apparatus 1, etc. . The imaging device 8 is variably configured position of the imaging surface in response to the focus, different photographed images g n of focusing (x, y), i.e., capable of photographing a photographed image group having a defocusing structure is there.

図11に本実施の形態におけるイメージング方法の処理フロー例を示す。
まず、画像取得手段としての撮像装置8により、撮影対象1に関する焦点ぼけ構造を持つ撮影画像群g(x,y)を撮影し、取得する(画像取得工程:ステップS001)。撮像面は、直交座標系で等間隔になるように調整される。次に、撮影により取得した焦点ぼけ構造を持つ撮影画像群g(x,y)を画像記憶手段9に記憶する(取得画像記憶工程:ステップS002)。画像記憶手段9への記憶は、演算制御装置2の演算過程や演算結果が得られた段階等でも可能である。次に、フーリエ変換・統合手段3により、これらの撮影画像群g(x,y)を統合及び座標変換して統合的撮影画像g(X,Y,Z)とし、次いで、統合的撮影画像g(X,Y,Z)をフーリエ変換して、統合的フーリエ変換撮影画像G(u,v,w)を得る(フーリエ変換・統合工程:ステップS003)。
FIG. 11 shows an example of a processing flow of the imaging method in the present embodiment.
First, a photographic image group g n (x, y) having a defocused structure related to the photographic subject 1 is photographed and obtained by the imaging device 8 as an image acquisition means (image acquisition step: step S001). The imaging surfaces are adjusted so as to be equally spaced in the orthogonal coordinate system. Next, the captured image group g n (x, y) having a defocused structure acquired by imaging is stored in the image storage unit 9 (acquired image storage step: step S002). The storage in the image storage means 9 can be performed at the stage when the calculation process of the calculation control device 2 and the calculation result are obtained. Next, these photographic image groups g n (x, y) are integrated and coordinate-transformed by the Fourier transform / integration means 3 to obtain an integrated photographic image g (X, Y, Z), and then the integrated photographic image. g (X, Y, Z) is subjected to Fourier transform to obtain an integrated Fourier transform photographed image G (u, v, w) (Fourier transform / integration step: step S003).

次に、周波数成分抽出手段5により、フィルタ処理を用いて、統合的フーリエ変換撮影画像G(u,v,w)から任意の視点、絞り、焦点合わせに対応する周波数成分を抽出して選択的フーリエ変換画像A(u,v,w)を形成する(周波数成分抽出工程:ステップS004)。詳しくは、(式8)を用い、統合的フーリエ変換撮影画像G(u,v,w)にH(u,v,w;r,s,t)H(u,v,w)−1を作用させて演算し、選択的フーリエ変換画像A(u,v,w)を形成する。ここでは、必ずしも実空間情報のフーリエ変換画像F(u,v,w)を求める必要はなく、H(u,v,w;r,s,t)H(u,v,w)−1を1つの演算子として作用させている。なお、実空間情報のフーリエ変換画像F(u,v,w)を求めても良いが、その精度は撮影画像群g(X,Y)の層数や層間隔に依存するので、その値にある程度の広がりが生じる。 Next, the frequency component extraction unit 5 extracts and selectively selects frequency components corresponding to an arbitrary viewpoint, aperture, and focusing from the integrated Fourier transform photographed image G (u, v, w) using filter processing. A Fourier transform image A (u, v, w) is formed (frequency component extraction step: step S004). Specifically, using (Equation 8), H a (u, v, w; r, s, t) H (u, v, w) −1 is applied to the integrated Fourier transform photographed image G (u, v, w). To generate a selective Fourier transform image A (u, v, w). Here, it is not always necessary to obtain the Fourier transform image F (u, v, w) of real space information, and H a (u, v, w; r, s, t) H (u, v, w) −1. Act as one operator. Note that the Fourier transform image F (u, v, w) of the real space information may be obtained, but its accuracy depends on the number of layers and the layer interval of the photographed image group g n (X, Y). A certain amount of spread occurs.

次に、逆フーリエ変換・切出手段6により、抽出された選択的フーリエ変換画像A(u,v,w)を逆フーリエ変換して、選択的生成画像a(X,Y,Z)とし、次いで、選択的生成画像a(X,Y,Z)を座標変換し、任意の視点、絞り、焦点合わせに相当する撮影対象Qに関する視覚イメージ画像a(x,y)を切出し生成する(逆フーリエ変換・切出工程:ステップS005)。次に、画像表示手段10に生成された視覚イメージ画像a(x,y)を表示する(イメージ画像表示工程:S006)。 Next, the selective Fourier transform image A (u, v, w) extracted by the inverse Fourier transform / cutout means 6 is subjected to inverse Fourier transform to obtain a selectively generated image a (X, Y, Z). then, selective generated image a (X, Y, Z) the coordinate transformation, an arbitrary viewpoint, iris, visual images a n (x, y) on imaging target Q corresponding to focusing the cut produce (reverse Fourier transform / cutout step: Step S005). Then, visual generated on the image display unit 10 images a n (x, y) is displayed (Image display step: S006).

ここにおいて、フーリエ変換・統合工程(ステップS003)において、まず、撮影画像群g(x,y)をフーリエ変換してフーリエ変換撮影画像群G(u,v)とし、次いで、これを統合及び座標変換して統合的フーリエ変換撮影画像G(u,v,w)を得ても良い。また、逆フーリエ変換・切出工程(ステップS005)において、選択的フーリエ変換画像A(u,v,w)から、視覚イメージ画像のフーリエ変換画像A(u,v)を抽出し、これを逆フーリエ変換及び座標変換して、視覚イメージ画像a(x,y)を生成しても良い。また、座標変換と統合の順序はどちらを先にしても良く、座標変換と切出の順序もどちらを先にしても良い。 Here, in the Fourier transform / integration step (step S003), first, the photographed image group g n (x, y) is Fourier-transformed into a Fourier transform photographed image group G n (u, v), which is then integrated. Further, an integrated Fourier transform photographed image G (u, v, w) may be obtained by coordinate transformation. Further, the inverse Fourier transform-cutting step (step S005), selective Fourier transform image A (u, v, w) from the Fourier transform image A n (u, v) of the visual images to extract, it inverse Fourier transform and to coordinate transformation, the visual images a n (x, y) may be generated. Also, either the coordinate conversion or the integration order may be first, and the coordinate conversion or the cut-out order may be first.

図12は、撮影画像群から生成される視覚イメージ画像の第1の例を示す。最も左側の列にアイリスr=1.0、(s,t)=(0,0)として撮影した複数枚(64枚)のMFI撮影画像群g(X,Y)を示す。撮影対象の形状は三面鏡のように真中の部分が奥側になっている。これら撮影画像群g(X,Y)の右側に矢印を介して、これらの画像群g(X,Y)に基づいて生成された視覚イメージ画像a(X,Y)を示す。視覚イメージ画像a(X,Y)の左側の列にはアイリスr=0.0(ピンホール)、右側の列にはアイリスr=0.2の場合を、いずれも(s,t)=(0,0)の状態で示す。図12では、Z=16,28,40に焦点を合わせた画像を抽出して示す。r=0.2の状態では、画像のボケは、アイリスr=0とr=1の間にあることが解る。 FIG. 12 shows a first example of a visual image image generated from a captured image group. The leftmost column shows a plurality (64) of MFI photographed image groups g n (X, Y) photographed with iris r a = 1.0 and (s, t) = (0, 0). The shape of the object to be photographed has a middle part on the back side like a three-sided mirror. Via arrow to the right of these captured images g n (X, Y), indicating these image groups g n (X, Y) visual images are generated on the basis of a n (X, Y). Visual images a n (X, Y) Iris r = 0.0 in the left column of (pinhole), the case of iris r = 0.2 and the right column, all (s, t) = This is indicated by the state (0, 0). In FIG. 12, an image focused on Z = 16, 28, 40 is extracted and shown. It can be seen that in the state of r = 0.2, the blur of the image is between iris r = 0 and r = 1.

図13は、撮影画像群から生成される視覚イメージ画像の第2の例を示す。最も左側の列のMFI撮影画像群g(X,Y)は図12と同じである。これら撮影画像群g(X,Y)の右側に矢印を介して、これらの画像群g(X,Y)に基づいて生成された視覚イメージ画像a(X,Y)を示す。5行×5列の視点の異なる画像を得ることができた。これらの視覚イメージ画像については、アイリスr=0.0であり、s,tはそれぞれ、−0.5、−0.25,0,+0.25,+0.5の5段階を示す。左側の列ほど撮影対象Qの左側から、右側の列ほど撮影対象Qの右側から、上側の行ほど撮影対象Qの上側から、下側の行ほど撮影対象Qの下側から見えているのが解る。 FIG. 13 shows a second example of the visual image image generated from the photographed image group. The MFI photographed image group g n (X, Y) in the leftmost column is the same as FIG. Via arrow to the right of these captured images g n (X, Y), indicating these image groups g n (X, Y) visual images are generated on the basis of a n (X, Y). Images with different viewpoints of 5 rows × 5 columns could be obtained. For these visual image images, iris r = 0.0, and s and t indicate five stages of -0.5, -0.25, 0, +0.25, and +0.5, respectively. The left column is seen from the left side of the subject Q, the right column is seen from the right side of the subject Q, the upper row is seen from the upper side of the subject Q, and the lower row is seen from the lower side of the subject Q. I understand.

図14は、撮影画像群から生成される視覚イメージ画像の第3の例を示す。最も左側の列のMFI撮影画像群g(X,Y)は図12と同じである。これら撮影画像群g(X,Y)の右側に矢印を介して、これらの画像群g(X,Y)に基づいて生成された視覚イメージ画像a(X,Y)を示す。3列の視覚イメージ画像を得ることができた。図14では、Z=16,28,40に焦点を合わせた画像を抽出して示す。これらの視覚イメージ画像については、アイリスr=0.2であり、左側の列では(s,t)=(+0.5,0.0)、中央の列では(s,t)=(0.0,−0.5)、右側の列では(s,t)=(−0.25,+0.25)における画像である。それぞれの列で、撮影対象Qの右側、下側、左上側から少しぼけて見えているのが解る。 FIG. 14 shows a third example of the visual image image generated from the photographed image group. The MFI photographed image group g n (X, Y) in the leftmost column is the same as FIG. Via arrow to the right of these captured images g n (X, Y), indicating these image groups g n (X, Y) visual images are generated on the basis of a n (X, Y). Three rows of visual image images could be obtained. In FIG. 14, an image focused on Z = 16, 28, 40 is extracted and shown. For these visual image images, iris r = 0.2, (s, t) = (+ 0.5, 0.0) in the left column and (s, t) = (0. 0, -0.5), and the right column is an image at (s, t) = (-0.25, +0.25). It can be seen that each row is slightly blurred from the right side, lower side, and upper left side of the subject Q.

以上より、焦点ぼけ構造を持つ撮影画像群から任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成できることが解る。   As described above, it can be understood that a visual image corresponding to an arbitrary viewpoint, aperture, and focusing can be generated from a group of captured images having a defocus structure.

[第2の実施の形態]
次に第2の実施の形態について説明する。
本実施の形態では、視点を変えて撮影した画像群から、フィルタ処理を用いてレンダリングすることにより、任意の視点、絞り、焦点合わせに相当する画像を生成する例を説明する。
[Second Embodiment]
Next, a second embodiment will be described.
In the present embodiment, an example will be described in which an image corresponding to an arbitrary viewpoint, aperture, and focusing is generated from a group of images taken with different viewpoints by rendering using filter processing.

図15は本実施の形態におけるイメージング方法を説明するための図である。広角カメラを横一列に並べてオーバーラップするように撮影する例である。これにより、異なる視点から観察された撮影対象の撮影画像群を取得することができる。これらの視点が異なる撮影画像を比較すると、撮影対象の或る1点から様々な方向に発する光線が含まれている。このことは、視点を変えて撮影した撮影画像は本質的にある仮想レンズについての焦点ぼけ情報を含むことを意味しており、視点を変化させた多数の撮影画像により、焦点ぼけ構造を持つ撮影画像群を構成できる。この場合、撮影対象の任意の点についてできるだけ広範囲の撮影画像に含まれることが好ましいので、広角カメラを用いることが望ましく、またできるだけ広範囲の視点から撮影することが好ましい。以上により、これら視点の異なる撮影画像群を元にして、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成可能である。例えば、矢印で示される視点からみた視覚イメージ画像を生成可能である。なお、広角カメラを平面内に2次元アレイ状に配置しても、焦点ぼけ構造を持つ撮影画像群を構成でき、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成可能である。   FIG. 15 is a diagram for explaining an imaging method according to the present embodiment. This is an example in which wide-angle cameras are photographed so as to overlap in a horizontal row. Thereby, it is possible to acquire a group of captured images observed from different viewpoints. When these captured images having different viewpoints are compared, light rays emitted in various directions from a certain point to be imaged are included. This means that a shot image taken from a different viewpoint essentially includes out-of-focus information about a certain virtual lens. A group of images can be constructed. In this case, since it is preferable that an arbitrary point to be captured is included in a captured image as wide as possible, it is desirable to use a wide-angle camera, and it is preferable to capture from a viewpoint as wide as possible. As described above, it is possible to generate a visual image corresponding to an arbitrary viewpoint, aperture, and focusing based on a group of captured images having different viewpoints. For example, it is possible to generate a visual image image viewed from the viewpoint indicated by an arrow. Even if the wide-angle cameras are arranged in a two-dimensional array on the plane, a group of captured images having a defocused structure can be formed, and a visual image image corresponding to an arbitrary viewpoint, aperture, and focusing can be generated.

[第3の実施の形態]
次に第3の実施の形態について説明する。本実施の形態も第2の実施の形態と同様に、視点を変えて撮影した画像群から、フィルタ処理を用いてレンダリングすることにより、任意の視点、絞り、焦点合わせに相当する画像を生成する例である。
[Third Embodiment]
Next, a third embodiment will be described. Similarly to the second embodiment, this embodiment also generates an image corresponding to an arbitrary viewpoint, aperture, and focusing by rendering using a filter process from a group of images taken with different viewpoints. It is an example.

図16は第3の実施の形態におけるイメージング方法を説明するための図である。第2の実施の形態で述べた複数の広角カメラを撮影対象を取り囲むように円環状に配置して撮影する例を示す。これにより、異なる視点から観察された撮影対象物の多数の撮影画像を取得することができる。しかも撮影対象の周囲360度からの情報を得ることができる。これら視点の異なる撮影画像群を元にして、撮影対象の周囲360度からの視点、絞り、焦点合わせに相当する視覚イメージ画像を生成可能である。例えば、図中の三角形で示される視点からみた視覚イメージ画像を生成可能である。また、大小さまざまなカメラが混在しても良く、また、カメラの配置は円環状でなくても撮影対象を一周するように取り囲んで配置されていれば良く、また、撮影対象を半球状(ドーム状)に取り囲んで配置されていても良い。また、視覚化の範囲が360度未満でも、その部分のみを円弧状に囲んでいれば良い。   FIG. 16 is a diagram for explaining an imaging method according to the third embodiment. An example in which a plurality of wide-angle cameras described in the second embodiment are arranged in an annular shape so as to surround a subject to be photographed is shown. Thereby, it is possible to acquire a large number of photographed images of the photographing object observed from different viewpoints. In addition, information from 360 degrees around the subject to be imaged can be obtained. Based on these photographed image groups having different viewpoints, it is possible to generate visual image images corresponding to the viewpoint, aperture, and focusing from around 360 degrees around the photographing object. For example, it is possible to generate a visual image image viewed from the viewpoint indicated by a triangle in the figure. In addition, cameras of various sizes may be mixed, and the camera may be arranged so as to surround the object to be photographed even if it is not in an annular shape. It may be arranged so as to surround it. Moreover, even if the range of visualization is less than 360 degrees, it is sufficient to surround only that portion in an arc shape.

[第4の実施の形態]
本実施の形態は、第1の実施の形態と第2の実施の形態又は第3の実施の形態を組み合わせるものである。すなわち、撮影対象に関し、焦点合わせ及び視点を変えて撮影した複数の画像から、フィルタ処理を用いてレンダリングすることにより、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を作成するものである。
例えば広角カメラを横一列に並べてオーバーラップするように撮影し、さらにそれぞれの広角カメラについて、撮像面を動かしながら焦点合わせを変えて撮影する。これにより、いわば、第1の実施の形態及び第2の実施の形態を合わせた撮影画像群が得られ、これらの撮影画像群に基づいて、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成可能である。
[Fourth Embodiment]
In this embodiment, the first embodiment is combined with the second embodiment or the third embodiment. In other words, a visual image corresponding to an arbitrary viewpoint, aperture, and focusing is created by rendering using a filter process from a plurality of images taken with different focus and viewpoint regarding a subject to be photographed. .
For example, wide-angle cameras are photographed so as to overlap in a horizontal row, and each wide-angle camera is photographed while changing the focus while moving the imaging surface. As a result, a group of photographed images obtained by combining the first embodiment and the second embodiment is obtained, and based on these photographed image groups, a visual image corresponding to an arbitrary viewpoint, aperture, and focusing is obtained. An image can be generated.

[第5の実施の形態]
非特許文献2において、複数方向からの光線を用いて撮影した撮影画像に基づいて、レンダリングを行なうことにより、焦点合わせの異なる複数の画像が得られることが実証されている。したがって、複数の視点からの撮影画像を用いて、焦点合わせの異なる画像群が得られれば、第1の実施の形態で説明した原理と手法によって、任意の視点、絞り、焦点合わせに相当する視覚イメージ画像を生成可能である。
[Fifth Embodiment]
In Non-Patent Document 2, it has been demonstrated that a plurality of images with different focusing can be obtained by performing rendering based on captured images captured using light rays from a plurality of directions. Therefore, if image groups with different focusing can be obtained using captured images from a plurality of viewpoints, a vision corresponding to an arbitrary viewpoint, aperture, and focusing can be obtained by the principle and method described in the first embodiment. An image can be generated.

[第6の実施の形態]
以上の実施の形態では、単色光を想定して説明したが、色彩の異なる複数の光線を用いて、任意の視点、絞り、焦点合わせの彩色画像を生成しても良い。色彩の異なる光線に同一の視点、絞り、焦点合わせを採用することはもちろん可能であるが、色彩毎に視点、絞り、焦点の異なる画像を生成することも可能である。この場合、フーリエ変換・統合工程、周波数成分抽出工程、逆フーリエ変換・切出工程を色彩毎に行なう。これにより、従来とは異なる構成、雰囲気の視覚イメージ画像を提供できる。
[Sixth Embodiment]
In the above embodiments, the description has been made assuming monochromatic light, but a chromatic image of any viewpoint, aperture, and focus may be generated using a plurality of light beams having different colors. Of course, it is possible to adopt the same viewpoint, aperture, and focusing for light beams with different colors, but it is also possible to generate images with different viewpoints, apertures, and focal points for each color. In this case, a Fourier transform / integration step, a frequency component extraction step, and an inverse Fourier transform / cutout step are performed for each color. Thereby, the visual image image of a structure and atmosphere different from the past can be provided.

[第7の実施の形態]
以上の実施の形態では、静止画像を想定して説明したが、動画像に適用することも可能である。例えば、視点又は焦点合わせの少なくとも1つを時間的に変化させて視覚イメージ画像を生成することにより、動的画像を得ることが可能である。また、画像取得手段8としても撮像装置にビデオカメラを使用し、撮影対象の動的振る舞いを時系列的に、視点又は焦点合わせを変えて撮影した撮影画像群を画像記憶手段9に蓄積しておき、動画編集手段を設けて、動的振る舞いについて編集することにより、任意の視点、絞り、焦点合わせに相当する動的視覚イメージ画像を生成可能である。
この場合、プレノプティックカメラに比して少ない情報量で任意の視点、絞り、焦点合わせに相当する動的視覚イメージ画像を生成可能なので、高速処理が可能であり、本発明は動画の分野に適していると解される。
[Seventh Embodiment]
In the above embodiment, the description has been made assuming a still image, but it can also be applied to a moving image. For example, it is possible to obtain a dynamic image by generating a visual image image by temporally changing at least one of the viewpoint or the focusing. In addition, a video camera is used as the image acquisition unit 8 as an image pickup device, and a group of captured images taken by changing the viewpoint or focus in a time-series manner with respect to the dynamic behavior of the shooting target is stored in the image storage unit 9. In addition, a dynamic visual image corresponding to an arbitrary viewpoint, aperture, and focusing can be generated by providing moving image editing means and editing dynamic behavior.
In this case, since a dynamic visual image corresponding to an arbitrary viewpoint, aperture, and focusing can be generated with a small amount of information compared to a plenoptic camera, high-speed processing is possible. It is understood that it is suitable for.

また、本発明は以上の実施の形態における焦点ぼけ構造を用いるイメージング方法を、コンピュータに実行させるためのプログラムとして、また当該プログラムを記録したコンピュータ読み取り可能な記録媒体としても実現可能である。プログラムは、コンピュータに内蔵のROMに記録して用いても良く、FD、CD−ROM、内蔵又は外付けの磁気ディスク等の記録媒体に記録し、コンピュータに読み取って用いても良く、インターネットを介してコンピュータにダウンロードして用いても良い。   The present invention can also be realized as a program for causing a computer to execute the imaging method using the defocus structure in the above-described embodiment, and also as a computer-readable recording medium on which the program is recorded. The program may be used by being recorded in a ROM built in the computer, or may be recorded on a recording medium such as an FD, CD-ROM, built-in or external magnetic disk, read by the computer, and used via the Internet. May be downloaded to a computer and used.

以上、本発明の実施の形態について説明したが、本発明は上記の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で、実施の形態に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the embodiments without departing from the spirit of the present invention. It is obvious.

例えば、以上の実施の形態では、フィルタ処理は(式2)、(式3)で具体的に示される例について説明したが、これに限られるものではなく、例えば視点を変化させる場合、魚眼レンズ、レンチキュラレンズを用いる場合等には、異なる関数(例えば、ガウス分布に限られず、円筒型、階段状円筒型やこれらを変形したもの等)となる。また、以上の実施の形態では、実空間情報のフーリエ変換画像F(u,v,w)を求めない例を説明したが、統合的フーリエ変換撮影画像G(u、v,w)から実空間情報のフーリエ変換画像F(u,v,w)を求め、これを逆フーリエ変換してf(X,Y,Z)とし、これから視覚イメージ画像a(X,Y)を合成し、座標変換して、視覚イメージ画像a(x,y)を生成しても良く、また、これらの順序を変更することも可能である。また、焦点ぼけに係る4次元以上のフィルタとして、視点を変える場合における2次元空間座標内に2次元空間座標を形成する場合のフィルタ、3次元空間座標内にさらに3次元空間座標を形成する場合のフィルタ等が考えられる。また、焦点合わせを変える方法として撮像面の位置を移動する例を説明したが、顕微鏡のように撮影対象をステージに搭載する場合には、ステージを移動しても良い。また、撮影装置については、通常のカメラや広角カメラに限られず、赤外線カメラ、望遠鏡や顕微鏡(電子顕微鏡を含む)等にも適用可能である。また、画像群の撮影画像の枚数や撮影画像間の焦点合わせの間隔、視点を変える場合のカメラ配置等は状況に応じて種々変更可能である。 For example, in the above embodiment, the filter processing has been described with respect to the examples specifically shown in (Expression 2) and (Expression 3), but is not limited thereto. For example, when changing the viewpoint, a fisheye lens, When a lenticular lens is used, the functions are different (for example, not limited to the Gaussian distribution but a cylindrical shape, a stepped cylindrical shape, or a modified version thereof). Moreover, although the above embodiment demonstrated the example which does not obtain | require the Fourier-transform image F (u, v, w) of real space information, real space is obtained from integrated Fourier-transform imaging | photography image G (u, v, w). Fourier transform image F (u, v, w) the determined information, which the inverse Fourier transform to the f (X, Y, Z) , and now synthesized visual images a n (X, Y), the coordinate transformation to, visual images a n (x, y) may be generated, it is also possible to modify these sequence. Further, as a filter of four or more dimensions related to defocusing, a filter for forming two-dimensional space coordinates in two-dimensional space coordinates when changing the viewpoint, and a case of forming three-dimensional space coordinates in three-dimensional space coordinates. These filters can be considered. Moreover, although the example which moves the position of an imaging surface was demonstrated as a method of changing focusing, when mounting an imaging | photography object on a stage like a microscope, you may move a stage. Further, the photographing apparatus is not limited to a normal camera or a wide-angle camera, but can be applied to an infrared camera, a telescope, a microscope (including an electron microscope), and the like. Further, the number of captured images of the image group, the focusing interval between the captured images, the camera arrangement when changing the viewpoint, and the like can be variously changed according to the situation.

本発明はコンピュータを用いた画像処理技術に利用できる。   The present invention can be used in image processing technology using a computer.

透視座標と直交座標との関係を説明するための図である。It is a figure for demonstrating the relationship between a perspective coordinate and a rectangular coordinate. 図1のカメラのピンホールをレンズに置換した場合の透視座標と直交座標との関係を示す図である。It is a figure which shows the relationship between a perspective coordinate at the time of replacing the pinhole of the camera of FIG. 1 with a lens, and a rectangular coordinate. 直交座標系において、無限遠からの光とZ方向に並ぶ平面群との関係を示す図である。In a rectangular coordinate system, it is a figure which shows the relationship between the light from infinity and the plane group arranged in a Z direction. 3次元ぼけフィルタを介した実空間情報と撮影画像群との関係を示す図である。It is a figure which shows the relationship between real space information and a picked-up image group through a three-dimensional blur filter. 実空間情報、撮影画像群、3次元ぼけフィルタの関係を模式的に示す図である。It is a figure which shows typically the relationship between real space information, a picked-up image group, and a three-dimensional blur filter. 3次元ぼけフィルタの周波数特性例を示す図である。It is a figure which shows the example of a frequency characteristic of a three-dimensional blur filter. 原点から(s,t)ずれた位置から半径rのアイリスを有する仮想カメラで撮影した場合を説明するための図である。It is a figure for demonstrating the case where it image | photographs with the virtual camera which has an iris of radius r from the position which shifted | deviated from the origin (s, t). フーリエ空間における、撮影で取得される撮影画像とコンピュータ演算により生成される生成画像間の関係を示す図である。It is a figure which shows the relationship between the picked-up image acquired by imaging | photography in the Fourier space, and the production | generation image produced | generated by computer calculation. 視覚イメージ画像が生成可能な場合の条件を示す図である。It is a figure which shows the conditions in case a visual image image is generable. 第1の実施の形態におけるイメージング装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device in 1st Embodiment. 第1の実施の形態におけるイメージング方法の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the imaging method in 1st Embodiment. 撮影画像群から生成される視覚イメージ画像の第1の例を示すThe 1st example of the visual image image produced | generated from a picked-up image group is shown. 撮影画像群から生成される視覚イメージ画像の第2の例を示すThe 2nd example of the visual image image produced | generated from a picked-up image group is shown. 撮影画像群から生成される視覚イメージ画像の第3の例を示すThe 3rd example of the visual image image produced | generated from a picked-up image group is shown. 第2の実施の形態におけるイメージング方法を説明するための図である。It is a figure for demonstrating the imaging method in 2nd Embodiment. 第3の実施の形態におけるイメージング方法を説明するための図である。It is a figure for demonstrating the imaging method in 3rd Embodiment. 従来の方法で得られた焦点合わせの異なる複数の画像を示す図である。It is a figure which shows the some image from which the focusing differs obtained by the conventional method. プレノプティックカメラについて説明するための図である。It is a figure for demonstrating a plenoptic camera.

符号の説明Explanation of symbols

1 イメージング装置
2 演算制御装置
3 フーリエ変換・統合手段
5 周波数成分抽出手段
6 逆フーリエ変換・切出手段
7 制御手段
8 画像取得手段(撮像装置)
9 画像記憶手段
10 画像表示手段
A(u,v,w) 選択的フーリエ変換画像(周波数空間)
a(X,Y,Z) 選択的生成画像(直交座標)
a(X,Y,Z)=a(X,Y) 視覚イメージ画像群(直交座標)
(x,y) 視覚イメージ画像群(透視座標)
F(u,v,w) 統合的フーリエ変換画像(周波数空間)
f(X,Y,Z) 実空間像(直交座標)
f(x,y,z) 実空間像(透視座標)
G(u,v,w) 統合的フーリエ変換撮影画像(周波数空間)
g(X,Y,Z) 統合的撮影画像(直交座標)
g(X,Y,Z)=g(X,Y) 撮影画像群(直交座標)
(x,y) 撮影画像群(透視座標)
H(u,v,w) 撮像時の3次元ぼけフィルタ(周波数空間)
h(X,Y,Z) 撮像時の3次元ぼけフィルタ(実空間)
(u,v,w;r,s,t)視覚イメージ生成時の3次元ぼけフィルタ(周波数空間)
(X,Y,Z;r,s,t)視覚イメージ生成時の3次元ぼけフィルタ(実空間)
N 層数
n 層番号
O(0,0) 原点
(p,q) 光線方向
Q 撮影対象
f 焦点距離
撮像時のアイリス(絞り)
r 視覚イメージ生成時のアイリス(絞り)
(s,t) 視点
u,v,w フーリエ変換系における座標
X,Y,Z 直交座標
x,y,z 透視座標
DESCRIPTION OF SYMBOLS 1 Imaging apparatus 2 Arithmetic control apparatus 3 Fourier transform and integration means 5 Frequency component extraction means 6 Inverse Fourier transform and extraction means 7 Control means 8 Image acquisition means (imaging apparatus)
9 Image storage means 10 Image display means A (u, v, w) Selective Fourier transform image (frequency space)
a (X, Y, Z) Selectively generated image (orthogonal coordinates)
a (X, Y, Z n ) = a n (X, Y) Visual image image group (orthogonal coordinates)
a n (x, y) Visual image group (perspective coordinates)
F (u, v, w) Integrated Fourier transform image (frequency space)
f (X, Y, Z) Real space image (Cartesian coordinates)
f (x, y, z) Real space image (perspective coordinates)
G (u, v, w) Integrated Fourier transform image (frequency space)
g (X, Y, Z) Integrated photographed image (Cartesian coordinates)
g (X, Y, Z n ) = g n (X, Y) Photographed image group (orthogonal coordinates)
g n (x, y) Photographed image group (perspective coordinates)
H (u, v, w) Three-dimensional blur filter (frequency space) during imaging
h (X, Y, Z) Three-dimensional blur filter during imaging (real space)
H a (u, v, w; r, s, t) Three-dimensional blur filter (frequency space) at the time of visual image generation
h a (X, Y, Z; r, s, t) Three-dimensional blur filter (real space) when generating a visual image
N layer number n layer number O (0,0) origin (p, q) ray direction Q imaging object f the focal length r a captured during the iris
r Iris (aperture) for visual image generation
(S, t) Viewpoints u, v, w Coordinates X, Y, Z in Fourier transform system x, y, z perspective coordinates

Claims (5)

撮影対象に関して焦点又は視点を変更して撮影された撮影画像群であって、各撮影画像間の焦点ぼけが3次元以上のぼけフィルタにより関連付けられる焦点ぼけ構造を持つ撮影画像群を、一まとまりの画像群として統合し及びフーリエ変換して統合的フーリエ変換撮影画像を形成するフーリエ変換・統合手段と;
前記統合的フーリエ変換撮影画像から任意の視点、絞り、焦点合わせに対応する3次元以上のぼけフィルタを用いてフィルタ処理を行い、前記任意の視点、絞り、焦点合わせに対応する周波数成分を抽出して選択的フーリエ変換画像を形成する周波数成分抽出手段と;
前記選択的フーリエ変換画像を逆フーリエ変換及び切出して、前記任意の視点、絞り、焦点合わせに相当する前記撮影対象に関する視覚イメージ画像を生成する逆フーリエ変換・切出手段とを備え
前記撮影画像群は、撮像空間を表す直交座標系において、光軸方向に等間隔な焦点合わせの異なる複数の撮影画像からなり;
前記フィルタ処理における視点、絞りはレンズ中心のピンホールと異なる視点、絞りを含み、前記フィルタ処理に用いるフィルタは前記視点、絞りを通る光束に対応する;
焦点ぼけ構造を用いるイメージング装置。
And about the imaging target A photographic images taken by changing the focus or viewpoint, the captured images having a defocusing structure defocusing between the captured images is associated with more than two dimensions blur filter, Fourier transform / integration means for integrating and Fourier transforming as a group of images to form an integrated Fourier transform photographed image;
The integrated Fourier transform photographed image is subjected to filter processing using a blur filter of three or more dimensions corresponding to an arbitrary viewpoint, aperture, and focusing, and frequency components corresponding to the arbitrary viewpoint, aperture, and focusing are extracted. A frequency component extracting means for forming a selective Fourier transform image;
An inverse Fourier transform / cutout unit that performs inverse Fourier transform and cutout of the selective Fourier transform image to generate a visual image image related to the photographing object corresponding to the arbitrary viewpoint, aperture, and focusing ;
The photographed image group includes a plurality of photographed images with different focusing at equal intervals in the optical axis direction in an orthogonal coordinate system representing an imaging space;
The viewpoint and stop in the filter processing include a viewpoint and stop different from the pinhole at the center of the lens, and the filter used for the filter processing corresponds to a light beam passing through the viewpoint and stop;
An imaging device using a defocused structure.
前記撮影画像群は、実空間座標(x、y、z)を直交座標(X=fx/z,Y=fy/z,Z=1−f/z、fは焦点距離)に変換した前記撮像空間において、前記光軸方向であるZ方向に焦点合わせの異なる複数の撮影画像からなる;
請求項1に記載の焦点ぼけ構造を用いるイメージング装置。
The captured image group is obtained by converting real space coordinates (x, y, z) into orthogonal coordinates (X = fx / z, Y = fy / z, Z = 1-f / z, f is a focal length). A plurality of captured images with different focusing in the Z direction which is the optical axis direction in the space;
An imaging apparatus using the defocus structure according to claim 1.
コンピュータにより実行される方法であって;
撮影対象に関して焦点又は視点を変更して撮影された撮影画像群であって、各撮影画像間の焦点ぼけが3次元以上のぼけフィルタにより関連付けられる焦点ぼけ構造を持つ撮影画像群を取得する画像群取得工程と;
前記画像群取得工程で取得した撮影画像群を、一まとまりの画像群として統合し及びフーリエ変換して統合的フーリエ変換撮影画像を形成するフーリエ変換・統合工程と;
前記統合的フーリエ変換撮影画像から任意の視点、絞り、焦点合わせに対応する3次元以上のぼけフィルタを用いてフィルタ処理を行い、前記任意の視点、絞り、焦点合わせに対応する周波数成分を抽出して選択的フーリエ変換画像を形成する周波数成分抽出工程と;
前記選択的フーリエ変換画像を逆フーリエ変換及び切出して、前記任意の視点、絞り、焦点合わせに相当する前記撮影対象に関する視覚イメージ画像を生成する逆フーリエ変換・切出工程とを備え
前記撮影画像群は、撮像空間を表す直交座標系において、光軸方向に等間隔な焦点合わせの異なる複数の撮影画像からなり;
前記フィルタ処理における視点、絞りはレンズ中心のピンホールと異なる視点、絞りを含み、前記フィルタ処理に用いるフィルタは前記視点、絞りを通る光束に対応する;
焦点ぼけ構造を用いるイメージング方法。
A method executed by a computer;
And about the imaging target A photographic images taken by changing the focus or perspective, acquires photographed images having a defocusing structure defocusing between the captured images is associated with more than two dimensions blur filter An image group acquisition step to perform;
A Fourier transform / integration step of integrating the captured image group acquired in the image group acquisition step as a group of image groups and Fourier transforming to form an integrated Fourier transform captured image;
The integrated Fourier transform photographed image is subjected to filter processing using a blur filter of three or more dimensions corresponding to an arbitrary viewpoint, aperture, and focusing, and frequency components corresponding to the arbitrary viewpoint, aperture, and focusing are extracted. A frequency component extraction step for forming a selective Fourier transform image;
An inverse Fourier transform / cutout step of generating a visual image image relating to the photographing object corresponding to the arbitrary viewpoint, aperture, and focusing by performing inverse Fourier transform and cutout of the selective Fourier transform image ;
The photographed image group includes a plurality of photographed images with different focusing at equal intervals in the optical axis direction in an orthogonal coordinate system representing an imaging space;
The viewpoint and stop in the filter processing include a viewpoint and stop different from the pinhole at the center of the lens, and the filter used for the filter processing corresponds to a light beam passing through the viewpoint and stop;
An imaging method using a defocused structure.
前記撮影画像群は、実空間座標(x、y、z)を直交座標(X=fx/z,Y=fy/z,Z=1−f/z、fは焦点距離)に変換した前記撮像空間において、前記光軸方向であるZ方向に焦点合わせの異なる複数の撮影画像からなる;
請求項3に記載の焦点ぼけ構造を用いるイメージング方法。
The captured image group is obtained by converting real space coordinates (x, y, z) into orthogonal coordinates (X = fx / z, Y = fy / z, Z = 1-f / z, f is a focal length). A plurality of captured images with different focusing in the Z direction which is the optical axis direction in the space;
An imaging method using the defocus structure according to claim 3.
請求項3又は請求項4に記載の焦点ぼけ構造を用いるイメージング方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the imaging method using the defocus structure according to claim 3 or 4.
JP2005322870A 2005-11-07 2005-11-07 Imaging apparatus and imaging method using defocus structure Active JP4437228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005322870A JP4437228B2 (en) 2005-11-07 2005-11-07 Imaging apparatus and imaging method using defocus structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005322870A JP4437228B2 (en) 2005-11-07 2005-11-07 Imaging apparatus and imaging method using defocus structure

Publications (2)

Publication Number Publication Date
JP2007128009A JP2007128009A (en) 2007-05-24
JP4437228B2 true JP4437228B2 (en) 2010-03-24

Family

ID=38150695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005322870A Active JP4437228B2 (en) 2005-11-07 2005-11-07 Imaging apparatus and imaging method using defocus structure

Country Status (1)

Country Link
JP (1) JP4437228B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110431599A (en) * 2017-03-17 2019-11-08 奇跃公司 Mixed reality system with virtual content distortion and the method using system generation virtual content

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5179784B2 (en) * 2007-06-07 2013-04-10 株式会社ユニバーサルエンターテインメント Three-dimensional coordinate measuring apparatus and program executed in three-dimensional coordinate measuring apparatus
JP5115138B2 (en) * 2007-10-17 2013-01-09 株式会社ニコン Focus measurement device, focus measurement method and program
US8558942B2 (en) 2007-10-17 2013-10-15 Nikon Corporation Focusing measurement device, focusing measurement method, and program
JP4706882B2 (en) * 2009-02-05 2011-06-22 ソニー株式会社 Imaging device
JP5417920B2 (en) * 2009-03-19 2014-02-19 株式会社ニコン Image processing apparatus, image processing method, electronic camera, and image processing program
MX2013009389A (en) * 2011-02-25 2014-03-27 Univ Texas Focus error estimation in images.
JP5705096B2 (en) 2011-12-02 2015-04-22 キヤノン株式会社 Image processing apparatus and image processing method
JP2014071207A (en) 2012-09-28 2014-04-21 Canon Inc Image processing apparatus, imaging system, and image processing system
WO2014088048A1 (en) 2012-12-07 2014-06-12 Canon Kabushiki Kaisha Image generating apparatus and image generating method
US8983176B2 (en) 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
JP6103969B2 (en) * 2013-02-07 2017-03-29 キヤノン株式会社 Imaging apparatus, control method thereof, and program
US9183620B2 (en) 2013-11-21 2015-11-10 International Business Machines Corporation Automated tilt and shift optimization
JP2015192238A (en) * 2014-03-27 2015-11-02 キヤノン株式会社 Image data generation device and image data generation method
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
WO2015156149A1 (en) * 2014-04-10 2015-10-15 ソニー株式会社 Image processing apparatus and image processing method
JP2015108837A (en) * 2015-01-07 2015-06-11 キヤノン株式会社 Image processing apparatus and image processing method
EP3265866B1 (en) 2015-03-05 2022-12-28 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10419698B2 (en) 2015-11-12 2019-09-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP6598660B2 (en) 2015-12-01 2019-10-30 キヤノン株式会社 Image processing apparatus and image processing method
CA3007367A1 (en) 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
WO2017121670A1 (en) * 2016-01-11 2017-07-20 Thomson Licensing Consistently editing light field data
IL294134B2 (en) 2016-08-02 2023-10-01 Magic Leap Inc Fixed-distance virtual and augmented reality systems and methods
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
KR20230149347A (en) 2017-03-17 2023-10-26 매직 립, 인코포레이티드 Mixed reality system with color virtual content warping and method of generating virtual content using same
CA3054617A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
JP2021092732A (en) * 2019-12-12 2021-06-17 国立大学法人 和歌山大学 Optical device, image capturing system, analysis system, method, and spacial light modulation element
WO2023095212A1 (en) * 2021-11-24 2023-06-01 日本電信電話株式会社 Multi-viewpoint image generation device, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110431599A (en) * 2017-03-17 2019-11-08 奇跃公司 Mixed reality system with virtual content distortion and the method using system generation virtual content

Also Published As

Publication number Publication date
JP2007128009A (en) 2007-05-24

Similar Documents

Publication Publication Date Title
JP4437228B2 (en) Imaging apparatus and imaging method using defocus structure
JP6279321B2 (en) Method and system for creating a virtual output image from data obtained by an array of image capture devices
JP5968107B2 (en) Image processing method, image processing apparatus, and program
JP5618943B2 (en) Image processing method, imaging apparatus, image processing apparatus, and image processing program
JP6305053B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6230239B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP4818592B2 (en) Microscope system, microscope image display system, observation object image display method, and program
JP6223169B2 (en) Information processing apparatus, information processing method, and program
US10755429B2 (en) Apparatus and method for capturing images using lighting from different lighting angles
JP2008242658A (en) Three-dimensional object imaging apparatus
CN110431465B (en) Microscope device for recording and displaying three-dimensional images of a sample
JP2019114250A (en) Image processing device, image processing program, image processing method, and imaging device
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
JP6418770B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP2016225811A (en) Image processing apparatus, image processing method, and program
KR102253320B1 (en) Method for displaying 3 dimension image in integral imaging microscope system, and integral imaging microscope system implementing the same
JP7014175B2 (en) Image processing device, image processing method, and program
JP5721891B2 (en) Imaging device
KR101614121B1 (en) Apparatus and method for displaying integrated image
JP6598621B2 (en) Imaging device
JP5553862B2 (en) Image pickup apparatus and image pickup apparatus control method
KR101715470B1 (en) Integral Imaging Microscope Apparatus and the Method for Improving Depth of Focus thereof
JP6569769B2 (en) Arbitrary viewpoint image composition method and image processing apparatus
JP4089912B2 (en) Digital camera system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150