JP2021005743A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2021005743A
JP2021005743A JP2019117024A JP2019117024A JP2021005743A JP 2021005743 A JP2021005743 A JP 2021005743A JP 2019117024 A JP2019117024 A JP 2019117024A JP 2019117024 A JP2019117024 A JP 2019117024A JP 2021005743 A JP2021005743 A JP 2021005743A
Authority
JP
Japan
Prior art keywords
image
grid pattern
imaging
angle
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019117024A
Other languages
Japanese (ja)
Other versions
JP7159118B2 (en
Inventor
和幸 田島
Kazuyuki Tajima
和幸 田島
良太 川俣
Ryota Kawamata
良太 川俣
悠介 中村
Yusuke Nakamura
悠介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019117024A priority Critical patent/JP7159118B2/en
Publication of JP2021005743A publication Critical patent/JP2021005743A/en
Application granted granted Critical
Publication of JP7159118B2 publication Critical patent/JP7159118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Blocking Light For Cameras (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Studio Devices (AREA)

Abstract

To create a captured image of uniform picture quality regardless of an incident angle of light.SOLUTION: An imaging apparatus includes a modulator having an imaging lattice pattern, and modulating intensity of incident light, an image sensor for creating a projection image by converting the incident light, passed through the converter, into an electric signal, an image processing part for creating a development image by development processing using a cross-correlation function with a development lattice pattern corresponding to the imaging lattice pattern, and an attention field angle setting part for setting an attention field angle for the image processing part, where the image processing part changes the development processing according to the attention field angle thus set.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging device.

スマートフォン等の携帯端末にはカメラモジュールが搭載されており、携帯端末の薄型化に伴ってカメラモジュールにも薄型化が求められている。デジタルカメラの薄型化に関する技術としては、例えば、特許文献1に、レンズを用いないことによって薄型化を実現した撮像装置が記載されている。 Mobile terminals such as smartphones are equipped with camera modules, and as mobile terminals become thinner, the camera modules are also required to be thinner. As a technique for reducing the thickness of a digital camera, for example, Patent Document 1 describes an imaging device that realizes a thinning by not using a lens.

特開2018−061109号公報JP-A-2018-061109

特許文献1に記載の撮像装置は、所定のパターンを有する変調器を透過した光を画像センサに入射させ、画像センサ上に生じる射影パターンから、入射光の入射角を相互相関演算により求めることで、被写体が写された撮像画像を得ることができる。 The image pickup apparatus described in Patent Document 1 causes light transmitted through a modulator having a predetermined pattern to be incident on an image sensor, and obtains an incident angle of the incident light from a projection pattern generated on the image sensor by cross-correlation calculation. , It is possible to obtain an captured image in which the subject is captured.

しかしながら、該撮像装置では、光が斜入射した場合、射影パターンの全体を画像センサで取得できないため、光が垂直入射した場合に比較して、得られる撮像画像が劣化してしまう。 However, in the image pickup apparatus, when the light is obliquely incident, the entire projection pattern cannot be acquired by the image sensor, so that the obtained captured image is deteriorated as compared with the case where the light is vertically incident.

本発明はこのような状況に鑑みてなされたものであり、光の入射角度に拘わらず、画質が均一な撮像画像を生成できるようにすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to enable a captured image having uniform image quality to be generated regardless of the incident angle of light.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows.

上記課題を解決すべく、本発明の一態様に係る撮像装置は、撮像用格子パターンを有し、入射光の強度を変調する変調器と、前記変調器を通過して入射した光を電気信号に変換することにより、投影像を生成する画像センサと、前記投影像と、前記撮像用格子パターンに対応する現像用格子パターンとの相互相関関数を用いた現像処理によって現像画像を生成する画像処理部と、注目画角範囲を前記画像処理部に対して設定する注目画角設定部と、を備え、前記画像処理部は、設定された前記注目画角範囲に応じて前記現像処理を変更することを特徴とする。 In order to solve the above problems, the image pickup apparatus according to one aspect of the present invention has an imaging lattice pattern, a modulator that modulates the intensity of incident light, and an electric signal that transmits light that has passed through the modulator and is incident. Image processing that generates a developed image by a development process using an image sensor that generates a projected image by converting to, and a developing process that uses a mutual correlation function between the projected image and a developing lattice pattern corresponding to the imaging lattice pattern. The image processing unit includes a unit and an angle of view setting unit that sets the angle of view range of interest with respect to the image processing unit, and the image processing unit changes the development process according to the set angle of view range of interest. It is characterized by that.

本発明の一態様によれば、光の入射角度に拘わらず、画質が均一な撮像画像を生成することが可能となる。 According to one aspect of the present invention, it is possible to generate a captured image having uniform image quality regardless of the incident angle of light.

上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 Issues, configurations, and effects other than those described above will be clarified by the description of the following embodiments.

図1は、本発明の各実施形態の基礎となる撮像装置の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an imaging device that is the basis of each embodiment of the present invention. 図2は、図1の撮像装置における変調器の第1の構成例を示す図である。FIG. 2 is a diagram showing a first configuration example of the modulator in the image pickup apparatus of FIG. 図3は、図1の撮像装置における変調器の第2の構成例を示す図である。FIG. 3 is a diagram showing a second configuration example of the modulator in the image pickup apparatus of FIG. 図4は、撮像装置による撮像の様子の一例を示す図である。FIG. 4 is a diagram showing an example of a state of imaging by an imaging device. 図5は、ガボールゾーンプレートの一例を示す図である。FIG. 5 is a diagram showing an example of a Gabor zone plate. 図6は、フレネルゾーンプレートの一例を示す図である。FIG. 6 is a diagram showing an example of a Fresnel zone plate. 図7は、変調器に対して斜入射した平行光が画像センサ上でシフトすることを説明するための図である。FIG. 7 is a diagram for explaining that the parallel light obliquely incident on the modulator shifts on the image sensor. 図8は、投影像の一例を示す図である。FIG. 8 is a diagram showing an example of a projected image. 図9は、現像用格子パターンの一例を示す図である。FIG. 9 is a diagram showing an example of a development grid pattern. 図10は、現像画像の一例を示す図である。FIG. 10 is a diagram showing an example of a developed image. 図11は、撮像装置の画角を説明するための図である。FIG. 11 is a diagram for explaining the angle of view of the image pickup apparatus. 図12は、撮像用格子パターンの一例を示す図である。FIG. 12 is a diagram showing an example of an imaging grid pattern. 図13は、撮像用格子パターンの一例を示す図である。FIG. 13 is a diagram showing an example of an imaging grid pattern. 図14は、画像処理部が有する機能ブロックの構成例を示す図である。FIG. 14 is a diagram showing a configuration example of a functional block included in the image processing unit. 図15は、画像処理の一例を説明するフローチャートである。FIG. 15 is a flowchart illustrating an example of image processing. 図16は、被写体を構成する各点からの光がセンサに対してなす角を説明するための図である。FIG. 16 is a diagram for explaining an angle formed by light from each point constituting the subject with respect to the sensor. 図17は、被写体が無限距離にある場合における撮像用格子パターンが画像センサ上に照射された状態の一例を示す図である。FIG. 17 is a diagram showing an example of a state in which an imaging grid pattern is irradiated on an image sensor when the subject is at an infinite distance. 図18は、被写体が有限距離にある場合における撮像用格子パターンが画像センサ上に照射された状態の一例を示す図である。FIG. 18 is a diagram showing an example of a state in which an imaging grid pattern is irradiated on the image sensor when the subject is at a finite distance. 図19は、図1の撮像装置の変形例を示す図である。FIG. 19 is a diagram showing a modified example of the image pickup apparatus of FIG. 図20は、図19の変形例による画像処理の一例を説明するフローチャートである。FIG. 20 is a flowchart illustrating an example of image processing according to the modification of FIG. 19. 図21は、撮像用格子パターンが部分的に画像センサ上に投影されない状態の一例を示す図である。FIG. 21 is a diagram showing an example of a state in which the image pickup grid pattern is not partially projected on the image sensor. 図22は、図21の状態に対応する撮像用格子パターンの投影像の一例を示す図である。FIG. 22 is a diagram showing an example of a projected image of the image pickup grid pattern corresponding to the state of FIG. 21. 図23は、現像用格子パターンの一例を示す図である。FIG. 23 is a diagram showing an example of a development grid pattern. 図24は、図22の投影像に対応する現像画像を示す図である。FIG. 24 is a diagram showing a developed image corresponding to the projected image of FIG. 22. 図25は、サイズを拡張した撮像用格子パターンの投影が画像センサの全体を覆うことを示す図である。FIG. 25 is a diagram showing that the projection of the image pickup grid pattern with the expanded size covers the entire image sensor. 図26は、拡張した撮像用格子パターンに対応する投影像の一例を示す図である。FIG. 26 is a diagram showing an example of a projected image corresponding to the expanded grid pattern for imaging. 図27は、拡張した現像用格子パターンの一例を示す図である。FIG. 27 is a diagram showing an example of an expanded grid pattern for development. 図28は、図26の投影像に対応する現像画像を示す図である。FIG. 28 is a diagram showing a developed image corresponding to the projected image of FIG. 26. 図29は、本発明の第1の実施形態に係る撮像装置の構成例を示す図である。FIG. 29 is a diagram showing a configuration example of an imaging device according to the first embodiment of the present invention. 図30は、図25は、サイズを縮小した撮像用格子パターンの全体が画像センサ上に全て投影されることを示す図である。FIG. 30 is a diagram showing that the entire image pickup grid pattern reduced in size is projected onto the image sensor. 図31は、サイズを縮小した撮像用格子パターンに対応する投影像の一例を示す図である。FIG. 31 is a diagram showing an example of a projected image corresponding to an imaging grid pattern whose size has been reduced. 図32は、サイズを縮小した撮像用格子パターンに対応する投影像の一例を示す図である。FIG. 32 is a diagram showing an example of a projected image corresponding to an imaging grid pattern whose size has been reduced. 図33は、撮像用格子パターンの開口から入射光が回折して画像センサに投影された状態を示す図である。FIG. 33 is a diagram showing a state in which the incident light is diffracted from the opening of the image pickup grid pattern and projected onto the image sensor. 図34は、撮像用格子パターンの隣接した開口から入射光が回折して画像センサに投影された状態を示す図である。FIG. 34 is a diagram showing a state in which incident light is diffracted and projected onto an image sensor from adjacent openings of an imaging grid pattern. 図35は、本発明の第2の実施形態に係る撮像装置の構成例を示す図である。FIG. 35 is a diagram showing a configuration example of an imaging device according to a second embodiment of the present invention.

以下、本発明の複数の実施形態を図面に基づいて説明する。なお、各実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合、及び原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aより成る」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合、及び原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似又は類似するもの等を含むものとする。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, in all the drawings for explaining each embodiment, in principle, the same members are designated by the same reference numerals, and the repeated description thereof will be omitted. In addition, in the following embodiments, the components (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say. In addition, when saying "consisting of A", "consisting of A", "having A", and "including A", other elements are excluded unless it is clearly stated that it is only that element. It goes without saying that it is not something to do. Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of a component or the like, the shape is substantially the same unless otherwise specified or, in principle, it is considered that it is not clearly the case. Etc., etc. shall be included.

<本発明の各実施形態の基礎となる撮像装置101の構成例>
図1は、本発明の各実施形態となる撮像装置101の構成例を示している。
<Structure example of the image pickup apparatus 101 which is the basis of each embodiment of the present invention>
FIG. 1 shows a configuration example of an image pickup apparatus 101 according to each embodiment of the present invention.

撮像装置101は、被写体からの光を画像センサに結像させるためのレンズを用いることなく、被写体を撮像し、その結果得られた撮像画像を画像表示部107に出力するものである。 The image pickup apparatus 101 takes an image of the subject without using a lens for forming an image of light from the subject on the image sensor, and outputs the captured image obtained as a result to the image display unit 107.

撮像装置101は、変調器102、画像センサ103、及び画像処理部106を備える。 The image pickup apparatus 101 includes a modulator 102, an image sensor 103, and an image processing unit 106.

変調器102は、その上面(入射面)に撮像用格子パターン104を有しており、撮像用格子パターン104により、変調器102と通過する光の強度を変調する。画像センサ103は、光電変換により、変調器102を通過して入射した光に応じた画像信号(以下、センサ画像または投影像と称する)を生成する。 The modulator 102 has an imaging grid pattern 104 on its upper surface (incident surface), and the imaging grid pattern 104 modulates the intensity of light passing through the modulator 102. The image sensor 103 generates an image signal (hereinafter, referred to as a sensor image or a projected image) according to the light incident through the modulator 102 by photoelectric conversion.

次に、図2は、変調器102の第1の構成例を示している。変調器102の第1の構成例は、格子基板102a、及び撮像用格子パターン104からなり、格子基板102aが画像センサ103の受光面に密着して固定され、撮像用格子パターン104が格子基板102aの上面に形成されている。 Next, FIG. 2 shows a first configuration example of the modulator 102. The first configuration example of the modulator 102 includes a grid substrate 102a and a grid pattern 104 for imaging, the grid substrate 102a is closely fixed to the light receiving surface of the image sensor 103, and the grid pattern 104 for imaging is the grid substrate 102a. It is formed on the upper surface of.

可視光での撮像を想定している場合、格子基板102aには、例えばガラスやプラスティック等の可視光に対して透明な材料を用いればよい。撮像用格子パターン104は、可視光を遮断するアルミニウム、クロム等の金属を、例えば半導体プロセスに用いられるスパッタリング法等によって格子基板102aの上面に蒸着することによって形成される。撮像用格子パターン104は、金属が蒸着されている部分と、蒸着されていない部分によって濃淡がつけられる。 When imaging with visible light is assumed, a material transparent to visible light such as glass or plastic may be used for the lattice substrate 102a. The imaging lattice pattern 104 is formed by depositing a metal such as aluminum or chromium that blocks visible light on the upper surface of the lattice substrate 102a by, for example, a sputtering method used in a semiconductor process. The image-taking grid pattern 104 is shaded by a portion where metal is vapor-deposited and a portion where metal is not vapor-deposited.

なお、撮像用格子パターン104の形成方法は、スパッタリング法等による金属の蒸着に限定されるものでなく、例えばインクジェットプリンタ等による印刷等によって濃淡をつける等、光の透過率を変調できれば、どのように形成してもよい。 The method of forming the image-imaging grid pattern 104 is not limited to the vapor deposition of metal by a sputtering method or the like, and what if the light transmittance can be modulated by, for example, printing with an inkjet printer or the like to add shading. May be formed in.

また、可視光以外の光での撮像を想定している場合、格子基板102aには、撮像対象となる光に対して透明な材料(例えば、遠赤外光の場合、例えばゲルマニウム、シリコン、カルコゲナイド等)を用い、撮像用格子パターン104には、撮像対象となる光を遮断する材料を用いればよい。 Further, when imaging with light other than visible light is assumed, the lattice substrate 102a is provided with a material transparent to the light to be imaged (for example, in the case of far infrared light, for example, germanium, silicon, chalcogenide). Etc.), and a material that blocks light to be imaged may be used for the imaging lattice pattern 104.

次に、図3は、変調器102の第2の構成例を示している。変調器102の第2の構成例は、支持部材102b、及び撮像用格子パターン104からなり、撮像用格子パターン104が薄膜によって形成され、該薄膜(撮像用格子パターン104)が、支持部材102bによって画像センサ103から所定の距離を離して保持されている。 Next, FIG. 3 shows a second configuration example of the modulator 102. A second configuration example of the modulator 102 is composed of a support member 102b and an imaging grid pattern 104, the imaging grid pattern 104 is formed of a thin film, and the thin film (imaging grid pattern 104) is formed by the support member 102b. It is held at a predetermined distance from the image sensor 103.

図1に戻る。画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサ、またはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。画像センサ103の受光面には、受光素子である複数の画素103aが格子状に規則的に配置されている。画像センサ103は、各画素103aが変調器102を通過して入射した光を電気信号に変換することによってセンサ画像(投影像)を生成する。 Return to FIG. The image sensor 103 includes, for example, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. On the light receiving surface of the image sensor 103, a plurality of pixels 103a, which are light receiving elements, are regularly arranged in a grid pattern. The image sensor 103 generates a sensor image (projected image) by converting the light incident on each pixel 103a through the modulator 102 into an electric signal.

撮像用格子パターン104は、複数の同心円からなる縞模様であって、外側に向かうほど中心からの半径に反比例して隣接する円どうしの間隔(ピッチまたは開口とも称する)が狭くなるように形成されている。 The image pickup grid pattern 104 is a striped pattern composed of a plurality of concentric circles, and is formed so that the distance (also referred to as pitch or opening) between adjacent circles becomes narrower in inverse proportion to the radius from the center toward the outside. ing.

画像処理部106は、投影像に対して現像処理を含む画像処理を行い、その結果得られる撮像画像を画像表示部107に出力する。 The image processing unit 106 performs image processing including development processing on the projected image, and outputs the captured image obtained as a result to the image display unit 107.

<撮像装置101による撮像の様子>
次に、図4は、撮像装置101による撮像の様子を示している。同図に示されるように、撮像装置101は、被写体401を撮像して所定の画像処理を行い、その結果得られる撮像画像を画像表示部107に表示させる用途に用いることができる。
<State of imaging by the imaging device 101>
Next, FIG. 4 shows a state of imaging by the imaging device 101. As shown in the figure, the image pickup apparatus 101 can be used for an application in which the subject 401 is imaged, subjected to predetermined image processing, and the captured image obtained as a result is displayed on the image display unit 107.

<撮像装置101における撮像原理>
次に、撮像装置101における撮像原理について説明する。
<Imaging principle in the imaging device 101>
Next, the imaging principle in the imaging device 101 will be described.

はじめに、撮像用格子パターン104としての複数の同心円からなる縞模様について定義する。レーザ干渉計等において、平面波に近い球面波と参照光として用いる平面波とを干渉させる場合を想定する。同心円の中心を基準座標、基準座標からの半径をrとし、基準座標から半径rの位置における球面波の位相をφ(r)とした場合、位相φ(r)は、波面の曲がりの大きさを決める係数βを用いて、次式(1)のように表すことができる。 First, a striped pattern composed of a plurality of concentric circles as an imaging grid pattern 104 is defined. In a laser interferometer or the like, it is assumed that a spherical wave close to a plane wave interferes with a plane wave used as reference light. When the center of the concentric circle is the reference coordinate, the radius from the reference coordinate is r, and the phase of the spherical wave at the position of the radius r from the reference coordinate is φ (r), the phase φ (r) is the magnitude of the curve of the wave surface. Using the coefficient β that determines, it can be expressed as in the following equation (1).

Figure 2021005743
Figure 2021005743

球面波にも拘わらず、位相φ(r)が半径rの2乗で表されているのは、球面波が平面波に近いため、展開の最低次のみで近似できるからである。この位相分布を持った光に平面波を干渉させると、次式(2)に示される干渉縞の強度分布が得られる。 Despite the spherical wave, the phase φ (r) is represented by the square of the radius r because the spherical wave is close to a plane wave and can be approximated only by the lowest order of expansion. By interfering a plane wave with light having this phase distribution, the intensity distribution of the interference fringes represented by the following equation (2) can be obtained.

Figure 2021005743
Figure 2021005743

式(2)は、次式(3)を満たす半径rの位置で明るい線を持つ同心円の縞模様となる。 Equation (2) is a concentric striped pattern having bright lines at the position of radius r satisfying the following equation (3).

Figure 2021005743
Figure 2021005743

縞模様のピッチをpとした場合、次式(4)の関係を得ることができる。 When the pitch of the striped pattern is p, the relationship of the following equation (4) can be obtained.

Figure 2021005743
Figure 2021005743

式(4)から、ピッチpは、半径rに対して反比例して狭くなっていくことがわかる。このような同心円状の縞模様は、ガボールゾーンプレートまたはフレネルゾーンプレートと称される。 From equation (4), it can be seen that the pitch p becomes narrower in inverse proportion to the radius r. Such a concentric striped pattern is called a Gabor zone plate or a Fresnel zone plate.

図5は、式(2)に対応するガボールゾーンプレートの一例を示している。図6は、式(2)のI(r)を、1を閾値として2値化したフレネルゾーンプレートの一例を示している。 FIG. 5 shows an example of a Gabor zone plate corresponding to the formula (2). FIG. 6 shows an example of a Fresnel zone plate in which I (r) of the formula (2) is binarized with 1 as a threshold value.

なお、以下においては、説明を簡単化するため、x方向についてのみ数式を用いて説明するが、y方向についてもx方向と同様に処理することにより、x方向及びy方向の2次元に展開することが可能である。 In the following, in order to simplify the explanation, only the x direction will be described using a mathematical formula, but the y direction will be expanded into two dimensions in the x direction and the y direction by processing in the same manner as in the x direction. It is possible.

次に、図7は、変調器102に対して斜入射した平行光が画像センサ103上でシフトすることを説明するための図である。 Next, FIG. 7 is a diagram for explaining that the parallel light obliquely incident on the modulator 102 shifts on the image sensor 103.

同図に示されるように、変調器102の厚さがd、平行光のx方向の入射角度がθである場合、変調器102の中の屈折角をθとすれば、幾何光学的には、撮像用格子パターン104の透過率が乗じられた光が、k=d・tanθだけシフトして画像センサ103に入射する。そして、次式(5)によって表される強度分布を有する投影像が画像センサ103によって生成される。 As shown in the figure, when the thickness of the modulator 102 is d and the incident angle of the parallel light in the x direction is θ 0 , if the refraction angle in the modulator 102 is θ, the geometrical optics Is, the light multiplied by the transmittance of the imaging lattice pattern 104 is shifted by k = d · tan θ and incident on the image sensor 103. Then, the image sensor 103 generates a projected image having an intensity distribution represented by the following equation (5).

Figure 2021005743
Figure 2021005743

なお、式(5)におけるΦは、式(2)の干渉縞強度分布の初期位相を示している。 Note that Φ F in the equation (5) indicates the initial phase of the interference fringe intensity distribution in the equation (2).

図8は、画像センサ103によって生成される、撮像用格子パターン104の投影像の一例を示している。図8からわかるように、撮像用格子パターン104は、画像センサ103の中心からkだけシフトして投影される。 FIG. 8 shows an example of a projected image of the imaging grid pattern 104 generated by the image sensor 103. As can be seen from FIG. 8, the imaging grid pattern 104 is projected by shifting it by k from the center of the image sensor 103.

図9は、図8の投影像に対する現像処理に用いるための現像用格子パターン105の一例を示している。図10は、図8の投影像に対する現像処理の結果得られる現像画像の一例を示している。現像画像には、シフト量kの輝点が出現する。 FIG. 9 shows an example of a developing grid pattern 105 for use in the developing process for the projected image of FIG. FIG. 10 shows an example of a developed image obtained as a result of a developing process on the projected image of FIG. Bright spots with a shift amount of k appear in the developed image.

本実施形態では、投影像に対する現像処理として相関現像方式を採用し、投影像(図8)と現像用格子パターン105(図9)との相互相関関数を演算することによって現像画像を得る。 In the present embodiment, a correlation development method is adopted as the development process for the projected image, and the developed image is obtained by calculating the cross-correlation function between the projected image (FIG. 8) and the development grid pattern 105 (FIG. 9).

なお、一般的に、相互相関関数の演算は、2次元畳み込み演算によって行うと演算量が大きくなる。そこで、本実施の形態では、相互相関関数の演算における演算量がより少なくなるように、フーリエ変換を用いて演算する。以下、フーリエ変換を用いて相互相関関数の演算を行う原理について説明する。ただし、相互相関関数の演算を、2次元畳み込み演算によって行うようにしてもよい。 In general, if the cross-correlation function is calculated by a two-dimensional convolution operation, the amount of calculation becomes large. Therefore, in the present embodiment, the Fourier transform is used to perform the calculation so that the amount of calculation in the calculation of the cross-correlation function is smaller. The principle of calculating the cross-correlation function using the Fourier transform will be described below. However, the operation of the cross-correlation function may be performed by a two-dimensional convolution operation.

現像用格子パターン105には、撮像用格子パターン104と同一のガボールゾーンプレートまたはフレネルゾーンプレートを用いる。よって、現像用格子パターン105は、初期位相Φを用いて、次式(6)のように表すことができる。 For the developing grid pattern 105, the same Gabor zone plate or Fresnel zone plate as the imaging grid pattern 104 is used. Therefore, the developing grid pattern 105 can be expressed by the following equation (6) using the initial phase Φ B.

Figure 2021005743
Figure 2021005743

現像用格子パターン105は、現像処理にて演算に使用するだけであり、撮像用格子パターン104のように光を透過させる用途には用いないので、負の値となってもよい。よって、現像用格子パターン105を表す式(6)は、撮像用格子パターン104を表す式(2)のように1を加算してオフセットさせる必要はない。 Since the developing grid pattern 105 is only used for calculation in the developing process and is not used for transmitting light like the imaging grid pattern 104, it may have a negative value. Therefore, the equation (6) representing the developing grid pattern 105 does not need to be offset by adding 1 as in the equation (2) representing the imaging grid pattern 104.

式(5),(6)のフーリエ変換の結果は、次式(7),(8)に示すとおりである。 The results of the Fourier transform of equations (5) and (6) are as shown in the following equations (7) and (8).

Figure 2021005743
Figure 2021005743

Figure 2021005743
Figure 2021005743

式(7),(8)におけるF[]はフーリエ変換演算、uはx方向の周波数座標を表す。式(7)におけるδ()は、デルタ関数である。F[],u,δ()については、以降の式においても同様とする。 In equations (7) and (8), F [] represents the Fourier transform operation, and u represents the frequency coordinates in the x direction. Δ () in equation (7) is a delta function. The same applies to F [], u, and δ () in the following equations.

式(7),(8)で重要なことは、フーリエ変換後においても、フレネルゾーンプレートまたはガボールゾーンプレートを表す成分を含んでいる点である。よって、式(4),(5)に基づいてフーリエ変換後の現像用格子パターンを直接的に生成してもよい。これにより画像処理部106における演算量の低減が可能となる。 What is important in the equations (7) and (8) is that the component representing the Fresnel zone plate or the Gabor zone plate is contained even after the Fourier transform. Therefore, the development grid pattern after the Fourier transform may be directly generated based on the equations (4) and (5). This makes it possible to reduce the amount of calculation in the image processing unit 106.

次に、式(7)と式(8)とを乗算して次式(9)を得る。 Next, the following equation (9) is obtained by multiplying the equation (7) and the equation (8).

Figure 2021005743
Figure 2021005743

式(9)における指数関数で表された項e(−iku)が信号成分であり、この項を逆フーリエ変換すれば、次式(10)に示す点拡がり関数を得ることができる。 The term e (-iku) represented by the exponential function in the equation (9) is a signal component, and the point spread function shown in the following equation (10) can be obtained by performing an inverse Fourier transform on this term.

Figure 2021005743
Figure 2021005743

式(10)は、図10に示された現像画像のように、元のx軸において、基準座標からkだけずれた位置の輝点を表す。この輝点は、無限遠の光束を示しており、現像画像(図9)は、撮像装置101(図1)によって撮像された画像にほかならない。 Equation (10) represents a bright spot at a position deviated by k from the reference coordinates on the original x-axis, as in the developed image shown in FIG. This bright spot indicates a luminous flux at infinity, and the developed image (FIG. 9) is nothing but an image captured by the image pickup apparatus 101 (FIG. 1).

なお、式(9)の右辺第2項のsinの中の式から、Φ=Φ=π/4である場合、sinの初期位相が0となる。さらに、この場合、式(9)の右辺第1項が0となり現像に不要な項を低減できる。この条件で現像処理を行えば、現像時のノイズが少ない現像画像を得ることが可能である。 From the equation in the second term on the right side of the equation (9), when Φ F = Φ B = π / 4, the initial phase of the sin is 0. Further, in this case, the first term on the right side of the equation (9) becomes 0, and the term unnecessary for development can be reduced. If the development process is performed under these conditions, it is possible to obtain a developed image with less noise during development.

なお、投影像に対する現像処理は、上述した相関現像方式に限らず、モアレ現像方式を採用してもよい。 The development process for the projected image is not limited to the above-mentioned correlation development method, and a moire development method may be adopted.

<撮像装置101における画角>
次に、図11は、撮像装置101における画角を説明するための図である。
<Angle of view in the imaging device 101>
Next, FIG. 11 is a diagram for explaining the angle of view in the image pickup apparatus 101.

画像センサ103によって検出可能な平行光の入射角の最大角度、すなわち、画角は、撮像用格子パターン104の投影像と現像用格子パターン105との相互相関関数のピークが画像センサ103の端となる場合である。よって、同図に示されるように、撮像用格子パターン104の中心と画像センサ103の端を結ぶ線が表す角度が画角最大角度となって、次式(11)として表される。 The maximum angle of incidence of parallel light that can be detected by the image sensor 103, that is, the angle of view, is such that the peak of the cross-correlation function between the projected image of the imaging lattice pattern 104 and the developing lattice pattern 105 is the edge of the image sensor 103. This is the case. Therefore, as shown in the figure, the angle represented by the line connecting the center of the imaging grid pattern 104 and the end of the image sensor 103 is the maximum angle of view and is expressed as the following equation (11).

Figure 2021005743
Figure 2021005743

また、画角θmaxの平行光を画像センサ103の端で焦点が合うように受光させるには、一般的なレンズによる結像から類推すると、レンズを用いない撮像装置101の実効的な焦点距離は、次式(12)に相当すると考えられる。 Further, in order to receive parallel light having an angle of view θ max so as to be in focus at the edge of the image sensor 103, the effective focal length of the image pickup apparatus 101 without a lens can be inferred from the image formation by a general lens. Is considered to correspond to the following equation (12).

Figure 2021005743
Figure 2021005743

ここで、式(11)より、画角θmaxは、変調器102の厚さdによって変更可能であることがわかる。よって、例えば変調器102が、図3に示された構成(第2の構成例)を有する場合、支持部材102bの長さを可変とすれば、撮像時に画角を変更して撮像することが可能になる。 Here, from the equation (11), it can be seen that the angle of view θ max can be changed by the thickness d of the modulator 102. Therefore, for example, when the modulator 102 has the configuration shown in FIG. 3 (second configuration example), if the length of the support member 102b is variable, the angle of view can be changed during imaging. It will be possible.

なお、撮像用格子パターン104の透過率分布は、式(2)で示されたように基本的には正弦波のように変動する特性があることを想定しているが、これに限らず、基本周波数成分として、正弦波のように変動する成分があればよい。 It is assumed that the transmittance distribution of the imaging grid pattern 104 basically fluctuates like a sine wave as shown in the equation (2), but the present invention is not limited to this. As the fundamental frequency component, there may be a component that fluctuates like a sine wave.

次に、図12及び図13は、基本周波数成分として正弦波のように変動する成分を有する撮像用格子パターン104の例を示している。 Next, FIGS. 12 and 13 show an example of an imaging grid pattern 104 having a component that fluctuates like a sine wave as a fundamental frequency component.

図12は、撮像用格子パターン104の透過率を3値化したものである。図13は、撮像用格子パターン104を、透過率が高い領域と低い領域のdutyを変えて、透過率の高い領域の幅を広げて透過率を高めたものである。図13に示された撮像用格子パターン104の場合、撮像用格子パターン104における回折を抑圧する効果が得られ、投影像の劣化を低減させることが可能となる。 FIG. 12 shows the ternary transmittance of the imaging grid pattern 104. FIG. 13 shows the imaging grid pattern 104 in which the duty of the high transmittance region and the low transmittance region is changed to widen the width of the high transmittance region and increase the transmittance. In the case of the imaging grid pattern 104 shown in FIG. 13, the effect of suppressing the diffraction in the imaging grid pattern 104 can be obtained, and the deterioration of the projected image can be reduced.

<画像処理部106の構成例>
次に、図14は、画像処理部106が有する機能ブロックの構成例を示している。
<Configuration example of image processing unit 106>
Next, FIG. 14 shows a configuration example of a functional block included in the image processing unit 106.

画像処理部106は、2次元FFT演算部1301、現像用格子FFT画像生成部1302、格子間乗算部1303、逆2次元FFT演算部1304、ノイズ除去部1305、コントラスト強調部1306、及びカラーバランス調整部1307の各機能ブロックを備える。 The image processing unit 106 includes a two-dimensional FFT calculation unit 1301, a development grid FFT image generation unit 1302, an inter-lattice multiplication unit 1303, an inverse two-dimensional FFT calculation unit 1304, a noise removal unit 1305, a contrast enhancement unit 1306, and a color balance adjustment. Each functional block of the unit 1307 is provided.

画像処理部106は、例えば、CPU(Central Processing Unit)、メモリ、ストレージ、及び通信インターフェース等を備えた一般的なコンピュータからなり、CPUがプログラムを実行することによって上述した機能ブロックが実現される。なお、画像処理部106の各機能ブロックは、画像処理回路等のハードウェアによって実現してもよい。 The image processing unit 106 is composed of, for example, a general computer provided with a CPU (Central Processing Unit), a memory, a storage, a communication interface, and the like, and the above-mentioned functional block is realized by the CPU executing a program. Each functional block of the image processing unit 106 may be realized by hardware such as an image processing circuit.

2次元FFT演算部1301は、画像センサ103から入力される投影像に対して2次元FFT(高速フーリエ変換)を行い、その結果得られる、投影像のフーリエ変換画像を格子間乗算部1303に出力する。現像用格子FFT画像生成部1302は、現像用格子パターン105のフーリエ変換画像を生成して格子間乗算部1303に出力する。なお、現像用格子パターン105のフーリエ変換画像は、フレーム(画像センサ103の出力)毎に演算する必要はなく、メモリ等に格納しておけばよい。これにより、画像処理部106としての演算量を低減することが可能である。 The two-dimensional FFT calculation unit 1301 performs a two-dimensional FFT (fast Fourier transform) on the projected image input from the image sensor 103, and outputs the Fourier transform image of the projected image obtained as a result to the interstitial multiplication unit 1303. To do. The development grid FFT image generation unit 1302 generates a Fourier transform image of the development grid pattern 105 and outputs it to the inter-grid multiplication unit 1303. The Fourier transform image of the development grid pattern 105 does not need to be calculated for each frame (output of the image sensor 103), and may be stored in a memory or the like. This makes it possible to reduce the amount of calculation performed by the image processing unit 106.

また、上述した説明では、フーリエ変換としてFFTを採用したが、FFTの代わりに、離散コサイン変換(DCT:Discrete Cosine Transform)等を採用してもよい。これにより、FFTに比べて演算量を削減することが可能となる。 Further, in the above description, the FFT is adopted as the Fourier transform, but instead of the FFT, a discrete cosine transform (DCT) or the like may be adopted. This makes it possible to reduce the amount of calculation as compared with the FFT.

格子間乗算部1303は、投影像のフーリエ変換画像と、現像用格子パターン105のフーリエ変換画像とを要素毎に乗算して逆2次元FFT演算部1304に出力する。逆2次元FFT演算部1304は、格子間乗算部1303からの入力に対し、逆2次元FFTを行い、その結果得られる現像画像をノイズ除去部1305に出力する。ノイズ除去部1305は、逆2次元FFT演算部1304から入力された現像画像にノイズ除去処理を行ってコントラスト強調部1306に出力する。コントラスト強調部1306は、ノイズが除去された現像画像に対してコントラスト強調処理を行ってカラーバランス調整部1307に出力する。カラーバランス調整部1307は、コントラストが強調された現像画像に対してカラーバランス調整処理を行い、その結果得られた撮像画像を画像表示部107に出力する。 The inter-grid multiplication unit 1303 multiplies the Fourier transform image of the projected image and the Fourier transform image of the development grid pattern 105 for each element and outputs the result to the inverse two-dimensional FFT calculation unit 1304. The inverse two-dimensional FFT calculation unit 1304 performs an inverse two-dimensional FFT with respect to the input from the interstitial multiplication unit 1303, and outputs the developed image obtained as a result to the noise removal unit 1305. The noise removing unit 1305 performs noise removing processing on the developed image input from the inverse two-dimensional FFT calculation unit 1304 and outputs it to the contrast enhancing unit 1306. The contrast enhancement unit 1306 performs contrast enhancement processing on the developed image from which noise has been removed and outputs the developed image to the color balance adjustment unit 1307. The color balance adjustment unit 1307 performs color balance adjustment processing on the developed image in which the contrast is emphasized, and outputs the captured image obtained as a result to the image display unit 107.

<画像処理部106による画像処理>
次に、図15は、画像処理部106による画像処理の一例を説明するフローチャートである。
<Image processing by image processing unit 106>
Next, FIG. 15 is a flowchart illustrating an example of image processing by the image processing unit 106.

該画像処理は、例えば、画像センサ103から画像処理部106に対して投影像が入力されたことに応じて開始される。 The image processing is started, for example, when a projected image is input from the image sensor 103 to the image processing unit 106.

はじめに、2次元FFT演算部1301が、画像センサ103から入力された投影像に対して2次元FFTを行い、その結果得られる、投影像のフーリエ変換画像を格子間乗算部1303に出力する(ステップS1)。次に、現像用格子FFT画像生成部1302が、式(8)を演算することにより、現像用格子パターン105のフーリエ変換画像を生成して格子間乗算部1303に出力する(ステップS2)。 First, the two-dimensional FFT calculation unit 1301 performs two-dimensional FFT on the projected image input from the image sensor 103, and outputs the Fourier transform image of the projected image obtained as a result to the interstitial multiplication unit 1303 (step). S1). Next, the development grid FFT image generation unit 1302 generates a Fourier transform image of the development grid pattern 105 by calculating the equation (8) and outputs it to the inter-grid multiplication unit 1303 (step S2).

次に、格子間乗算部1303が、投影像のフーリエ変換画像と、現像用格子パターン105のフーリエ変換画像とを要素毎に乗算して逆2次元FFT演算部1304に出力する(ステップS3)。次に、逆2次元FFT演算部1304が、格子間乗算部1303からの入力に対し、逆2次元FFTを行い、その結果得られる現像画像をノイズ除去部1305に出力する(ステップS4)。 Next, the inter-lattice multiplication unit 1303 multiplies the Fourier transform image of the projected image and the Fourier transform image of the developing lattice pattern 105 for each element and outputs them to the inverse two-dimensional FFT calculation unit 1304 (step S3). Next, the inverse two-dimensional FFT calculation unit 1304 performs the inverse two-dimensional FFT with respect to the input from the interstitial multiplication unit 1303, and outputs the developed image obtained as a result to the noise removal unit 1305 (step S4).

次に、ノイズ除去部1305が、逆2次元FFT演算部1304から入力された現像画像に対し、ノイズ除去処理を行ってコントラスト強調部1306に出力する(ステップS5)。次に、コントラスト強調部1306が、ノイズが除去された現像画像に対し、コントラスト強調処理を行ってカラーバランス調整部1307に出力する(ステップS6)。次に、カラーバランス調整部1307が、コントラストが強調された現像画像に対し、カラーバランス調整処理を行い、その結果得られた撮像画像を画像表示部107に出力する(ステップS7)。以上で、画像処理部106による画像処理は終了される。 Next, the noise removing unit 1305 performs noise removing processing on the developed image input from the inverse two-dimensional FFT calculation unit 1304 and outputs it to the contrast enhancing unit 1306 (step S5). Next, the contrast enhancement unit 1306 performs contrast enhancement processing on the developed image from which noise has been removed and outputs the developed image to the color balance adjustment unit 1307 (step S6). Next, the color balance adjusting unit 1307 performs a color balance adjusting process on the developed image in which the contrast is emphasized, and outputs the captured image obtained as a result to the image display unit 107 (step S7). With the above, the image processing by the image processing unit 106 is completed.

なお、上述した画像処理は、相互相関関数の演算に2次元FFTを用いたが、2次元FFTの代わりに、2次元畳込み演算を用いてもよい。 In the image processing described above, the two-dimensional FFT is used for the calculation of the cross-correlation function, but the two-dimensional convolution calculation may be used instead of the two-dimensional FFT.

<被写体からの光の入射角度>
以上の説明では、撮像装置101に対して同時に一方向からのみ光が入射することを仮定して説明した。しかしながら、撮像装置101が実際に被写体を撮像する場合には、画像センサ103に対して同時に複数の角度から光が入射することになる。このように、異なる入射角で撮像装置101に同時に入射した光は、画像センサ103に入射する時点で既に複数の撮像用格子パターン104の投影像が重なり合わされたものとなる。
<Incident angle of light from the subject>
In the above description, it is assumed that light is incident on the image pickup apparatus 101 from only one direction at the same time. However, when the image pickup apparatus 101 actually captures a subject, light is incident on the image sensor 103 from a plurality of angles at the same time. In this way, the light that is simultaneously incident on the image pickup apparatus 101 at different angles of incidence is such that the projected images of the plurality of imaging grid patterns 104 are already overlapped when they are incident on the image sensor 103.

しかしながら、一般的な光源による照明下において同時に入射する入射光はインコヒーレントであり、相互には干渉しないため、それぞれの入射光を独立して考えることが可能である。 However, the incident light that is incident at the same time under illumination by a general light source is incoherent and does not interfere with each other, so that each incident light can be considered independently.

次に、これまで検出することを説明してきた平行光と、実際の被写体からの光との対応について、図16を参照して説明する。図16は、被写体を構成する各点からの光が画像センサ103に対してなす角を説明するための図である。 Next, the correspondence between the parallel light, which has been described so far for detection, and the light from an actual subject will be described with reference to FIG. FIG. 16 is a diagram for explaining an angle formed by light from each point constituting the subject with respect to the image sensor 103.

被写体401を構成する各点からの光は、厳密には点光源からの球面波として、撮像装置101の変調器102を通過し、画像センサ103に入射する。以下、変調器102及び画像センサ103を一括して格子センサ一体基板1401と称する。 Strictly speaking, the light from each point constituting the subject 401 passes through the modulator 102 of the image pickup apparatus 101 as a spherical wave from a point light source and is incident on the image sensor 103. Hereinafter, the modulator 102 and the image sensor 103 are collectively referred to as a grid sensor integrated substrate 1401.

被写体401に対して格子センサ一体基板1401が十分に小さい場合や、十分に遠い場合には、各点から、格子センサ一体基板1401に入射する光の入射角は同一とみなすことができる。この条件下であれば、撮像装置101は、無限遠の被写体を撮像することができる。 When the grid sensor integrated substrate 1401 is sufficiently small or sufficiently far from the subject 401, the incident angles of the light incident on the grid sensor integrated substrate 1401 can be regarded as the same from each point. Under this condition, the imaging device 101 can image a subject at infinity.

図17は、撮像する被写体が無限距離にある場合における、被写体を構成する点1501からの球面波の光によって、撮像用格子パターン104が画像センサ103に投影された状態を示している。 FIG. 17 shows a state in which the image pickup grid pattern 104 is projected onto the image sensor 103 by the light of the spherical wave from the point 1501 constituting the subject when the subject to be imaged is at an infinite distance.

同図に示されるように、無限遠の被写体を構成する点1501からの球面波の光は、十分に長い距離を伝搬する間に平面波となる。よって、画像センサ103によって得られる投影像1502は、撮像用格子パターン104とほぼ同じ形状となる。したがって、投影像1502に対して、現像用格子パターン105との相互相関演算を行うことにより、単一の輝点を表す現像画像を得ることができる。 As shown in the figure, the light of the spherical wave from the point 1501 constituting the subject at infinity becomes a plane wave while propagating a sufficiently long distance. Therefore, the projected image 1502 obtained by the image sensor 103 has substantially the same shape as the imaging grid pattern 104. Therefore, by performing a cross-correlation calculation on the projected image 1502 with the developing grid pattern 105, a developed image representing a single bright spot can be obtained.

<有限距離被写体の撮像原理>
次に、図18は、撮像する被写体が有限距離にある場合における、被写体を構成する点1601からの球面波による、撮像用格子パターン104が画像センサ103に投影された状態を示している。
<Principle of imaging a finite distance subject>
Next, FIG. 18 shows a state in which the imaging grid pattern 104 is projected onto the image sensor 103 by the spherical waves from the points 1601 constituting the subject when the subject to be imaged is at a finite distance.

同図に示されるように、被写体を構成する点1601からの球面波が撮像用格子パターン104を通過して画像センサ103上に投影される場合、画像センサ103によって得られる投影像1602はほぼ一様に拡大されたものとなる。なお、この拡大率αは、撮像用格子パターン104から点1601までの距離fを用いて、次式(13)のように算出できる。 As shown in the figure, when the spherical wave from the point 1601 constituting the subject passes through the imaging grid pattern 104 and is projected onto the image sensor 103, the projected image 1602 obtained by the image sensor 103 is almost one. It will be expanded like this. The enlargement ratio α can be calculated by the following equation (13) using the distance f from the imaging grid pattern 104 to the point 1601.

Figure 2021005743
Figure 2021005743

このため、入射光が平行光であることを前提として計算された、撮像用格子パターン104と同じサイズの現像用格子パターン105を用いて相互相関関数の演算を行っても、単一の輝点を表す現像画像を得ることができない。 Therefore, even if the cross-correlation function is calculated using the developing grid pattern 105 having the same size as the imaging grid pattern 104, which is calculated on the assumption that the incident light is parallel light, a single bright spot. It is not possible to obtain a developed image representing.

単一の輝点を表す現像画像を得るためには、撮像用格子パターン104が一様に拡大されている投影像1602に合わせ、現像用格子パターン105も拡大させてから相互相関関数を演算すればよい。具体的には、現像用格子パターン105のフーリエ変換画像を表す式(8)における係数βを、β/αに置換すればよい。 In order to obtain a developed image representing a single bright spot, the cross-correlation function is calculated after the developing grid pattern 105 is also enlarged according to the projected image 1602 in which the imaging grid pattern 104 is uniformly enlarged. Just do it. Specifically, the coefficient β in the equation (8) representing the Fourier transform image of the development grid pattern 105 may be replaced with β / α 2 .

これにより、必ずしも無限遠でない距離に位置する被写体の点1601からの光を選択的に現像することができる。換言すれば、撮像装置101は、任意の位置にフォーカスを合わせて撮像を行うことが可能となる。 As a result, the light from the point 1601 of the subject located at a distance not necessarily infinity can be selectively developed. In other words, the imaging device 101 can perform imaging by focusing on an arbitrary position.

さらに、撮像装置101(図1)を変形し、撮像後において任意の距離にフォーカスを合わせられるようにしてもよい。 Further, the imaging device 101 (FIG. 1) may be modified so that the image can be focused at an arbitrary distance after imaging.

図19は、撮像装置101の変形例を示している。該変形例は、撮像装置101(図1)に対して、画像記憶部1701、及びフォーカス設定部1703を追加したものであり、撮像後において任意の距離にフォーカスを合わせることができる。 FIG. 19 shows a modified example of the image pickup apparatus 101. In the modified example, an image storage unit 1701 and a focus setting unit 1703 are added to the image pickup apparatus 101 (FIG. 1), and the focus can be adjusted to an arbitrary distance after imaging.

画像記憶部1701は、画像センサ103と画像処理部106との間に配置される。画像記憶部1701は、画像処理部106から出力される投影像を一時的に保持して画像処理部106に出力する。 The image storage unit 1701 is arranged between the image sensor 103 and the image processing unit 106. The image storage unit 1701 temporarily holds the projected image output from the image processing unit 106 and outputs it to the image processing unit 106.

フォーカス設定部1703は、ユーザから入力されるフォーカスを合わせる距離を受け付けるためのボタン、ダイアル、GUI(Graphical User Interface)等のユーザインターフェースからなり、受け付けたフォーカスを合わせる距離を表すフォーカス距離情報を画像処理部106に出力する。画像処理部106は、投影像との相互相関関数の演算に用いる現像用格子パターン105のサイズを、入力されたフォーカス距離情報に応じて変更する。 The focus setting unit 1703 includes a user interface such as a button, a dial, and a GUI (Graphical User Interface) for receiving the focus distance input from the user, and image-processes the focus distance information indicating the received focus distance. Output to unit 106. The image processing unit 106 changes the size of the developing grid pattern 105 used for calculating the cross-correlation function with the projected image according to the input focus distance information.

次に、図20は、撮像装置101の変形例(図19)による、画像処理の一例を説明するためのフローチャートである。 Next, FIG. 20 is a flowchart for explaining an example of image processing according to a modified example (FIG. 19) of the image pickup apparatus 101.

該画像処理は、例えば、画像センサ103から画像処理部106に対して投影像が入力されたことに応じて開始される。 The image processing is started, for example, when a projected image is input from the image sensor 103 to the image processing unit 106.

はじめに、2次元FFT演算部1301が、画像センサ103から入力された投影像に対して2次元FFTを行い、その結果得られる、投影像のフーリエ変換画像を格子間乗算部1303に出力する(ステップS11)。次に、現像用格子FFT画像生成部1302が、フォーカス設定部1703から入力されるフォーカス距離情報に基づき、式(13)に従って拡大率αを算出する(ステップS12)。次に、現像用格子FFT画像生成部1302が、式(8)における係数βを、β/αに置換して演算することにより、現像用格子パターン105のフーリエ変換画像を生成して格子間乗算部1303に出力する(ステップS13)。 First, the two-dimensional FFT calculation unit 1301 performs two-dimensional FFT on the projected image input from the image sensor 103, and outputs the Fourier transform image of the projected image obtained as a result to the interstitial multiplication unit 1303 (step). S11). Next, the developing grid FFT image generation unit 1302 calculates the enlargement ratio α according to the equation (13) based on the focus distance information input from the focus setting unit 1703 (step S12). Next, the development grid FFT image generation unit 1302 generates a Fourier transform image of the development grid pattern 105 by substituting the coefficient β in the equation (8) with β / α 2 and performing an operation between the grids. Output to the multiplication unit 1303 (step S13).

ステップS14〜S18の処理については、図15のステップS3〜S7と同様なので、その説明を省略する。以上で、撮像装置101の変形例による画像処理は終了される。 Since the processing of steps S14 to S18 is the same as that of steps S3 to S7 of FIG. 15, the description thereof will be omitted. This completes the image processing according to the modified example of the image pickup apparatus 101.

該画像処理によれば、撮像後の投影像に基づき、任意の距離にフォーカスを合わせた撮像画像を生成し、画像表示部107に出力することができる。 According to the image processing, it is possible to generate an captured image focused at an arbitrary distance based on the projected image after imaging and output it to the image display unit 107.

<撮像用格子パターン104の投影像の欠けと補正説明>
ここまでの説明では、撮像用格子パターン104の全体が画像センサ103上に投影されることを前提としていたが、光の入射角度によっては、撮像用格子パターン104が部分的に画像センサ103上に投影されないことが起こり得る。
<Explanation of missing and corrected projection image of grid pattern 104 for imaging>
In the description so far, it has been assumed that the entire image pickup grid pattern 104 is projected onto the image sensor 103, but depending on the incident angle of light, the image pickup grid pattern 104 is partially projected onto the image sensor 103. It can happen that it is not projected.

図21は、画像センサ103と撮像用格子パターン104とのサイズが等しい場合における、撮像用格子パターン104が部分的に画像センサ103上に投影されない状態の一例を示している。 FIG. 21 shows an example of a state in which the imaging grid pattern 104 is not partially projected onto the image sensor 103 when the image sensor 103 and the imaging grid pattern 104 have the same size.

例えば、画像センサ103の直上に被写体を構成する点(不図示)が存在する場合、その点からの光により、撮像用格子パターン104は画像センサ103上に欠けることなく投影される。しかしながら、同図に示されるように、画像センサ103の直上に存在しない点1901からの光による撮像用格子パターン104の投影1902は、その一部が画像センサ103からはみ出してしまい、画像センサ103によって得られる投影像は撮像用格子パターン104の一部が欠けたものとなる。 For example, when there is a point (not shown) constituting the subject directly above the image sensor 103, the imaging grid pattern 104 is projected onto the image sensor 103 without being chipped by the light from that point. However, as shown in the figure, a part of the projection 1902 of the imaging grid pattern 104 by the light from the point 1901, which does not exist directly above the image sensor 103, protrudes from the image sensor 103, and the image sensor 103 The obtained projected image has a part of the image pickup grid pattern 104 missing.

図22は、図21の状態において画像センサ103によって得られる撮像用格子パターン104の投影像2001の一例を示している。同図に示されるように、投影像2001は、撮像用格子パターン104の一部が欠けたものとなる。 FIG. 22 shows an example of the projected image 2001 of the imaging grid pattern 104 obtained by the image sensor 103 in the state of FIG. 21. As shown in the figure, the projected image 2001 lacks a part of the imaging grid pattern 104.

図23は、図21に示された撮像用格子パターン104に対応する現像用格子パターン105の一例を示している。図24は、図22に示された投影像2001に対し、図23に示された現像用格子パターン105を用いて現像処理を行うことによって得られた現像画像2002を示している。 FIG. 23 shows an example of the developing grid pattern 105 corresponding to the imaging grid pattern 104 shown in FIG. FIG. 24 shows a developed image 2002 obtained by performing a developing process on the projected image 2001 shown in FIG. 22 using the developing grid pattern 105 shown in FIG. 23.

図24に示されるように、現像画像2002において、被写体を構成する点1901(図21)に対応する輝点2003はx方向に伸びたものとなる。この原因は、投影像2001におけるx方向の情報量がy方向の情報量に比べて減少し、x方向の点広がり関数(PSF:Point Spread Function)が鈍るためである。 As shown in FIG. 24, in the developed image 2002, the bright spots 2003 corresponding to the points 1901 (FIG. 21) constituting the subject are extended in the x direction. This is because the amount of information in the x direction in the projected image 2001 is smaller than the amount of information in the y direction, and the point spread function (PSF) in the x direction becomes dull.

そこで、投影像2001に欠けが生じることによる情報の減少を防ぐためには、撮像用格子パターン104のサイズを拡張する方法と、反対に、撮像用格子パターン104のサイズを縮小する方法が考えられる。 Therefore, in order to prevent the reduction of information due to the chipping of the projected image 2001, a method of increasing the size of the imaging grid pattern 104 and a method of reducing the size of the imaging grid pattern 104 can be considered.

<撮像用格子パターン104を拡張する方法>
図25は、サイズを拡張した撮像用格子パターン104の投影が画像センサ103の全体を覆うことを示している。
<Method of expanding the imaging grid pattern 104>
FIG. 25 shows that the projection of the image pickup grid pattern 104 with the expanded size covers the entire image sensor 103.

式(11)に示されたように、撮像装置101の画角は、画像センサ103のサイズS、及び画像センサ103と撮像用格子パターン104との距離dを用いて計算できる。また、撮像装置101の視野(FOV:Field Of View)は、撮像用格子パターン104と被写体を構成する点2102との距離fをさらに用い、次式(14)により計算できる。 As shown in the formula (11), the angle of view of the image pickup apparatus 101 can be calculated by using the size S of the image sensor 103 and the distance d between the image sensor 103 and the image pickup grid pattern 104. Further, the field of view (FOV) of the image pickup apparatus 101 can be calculated by the following equation (14) by further using the distance f between the image pickup grid pattern 104 and the points 2102 constituting the subject.

Figure 2021005743
Figure 2021005743

視野FOVの最も端に存在する点2102の位置と画像センサ103のサイズ及び位置と関係から、全画角において投影像に欠けを生じさせない撮像用格子パターン104のサイズlは、次式(15)により計算できる。 From the relationship between the position of the point 2102 existing at the outermost end of the field of view FOV and the size and position of the image sensor 103, the size l of the imaging grid pattern 104 that does not cause a chip in the projected image at all angles of view is determined by the following equation (15). Can be calculated by.

Figure 2021005743
Figure 2021005743

以下、サイズlに拡張した撮像用格子パターン104を、撮像用格子パターン2101と称する。 Hereinafter, the imaging grid pattern 104 expanded to the size l will be referred to as an imaging grid pattern 2101.

図26は、撮像用格子パターン2101を用いた場合の投影像2201の一例を示している。同図に示されるように、撮像用格子パターン2101を用いた場合、その投影は画像センサ103の全体を覆うので、欠けがない投影像2201を得られることがわかる。 FIG. 26 shows an example of the projected image 2201 when the imaging grid pattern 2101 is used. As shown in the figure, when the imaging grid pattern 2101 is used, the projection covers the entire image sensor 103, so that it can be seen that a projection image 2201 without chips can be obtained.

図27は、撮像用格子パターン2101に対応する現像用格子パターン2202の一例を示している。同図に示されるように、現像用格子パターン2202は、撮像用格子パターン2101と同様、サイがlに拡張されたものとなる。 FIG. 27 shows an example of the developing grid pattern 2202 corresponding to the imaging grid pattern 2101. As shown in the figure, the developing grid pattern 2202 has the same size as the imaging grid pattern 2101.

図28は、図26に示された投影像2201に対し、図27に示された現像用格子パターン2202を用いた現像処理によって得られた現像画像2203を示している。 FIG. 28 shows a developed image 2203 obtained by a developing process using the developing grid pattern 2202 shown in FIG. 27 with respect to the projected image 2201 shown in FIG. 26.

図28に示されるように、現像画像2203は、図24に示された現像画像2002に比較して、被写体を構成する点1901(図21)に対応する輝点2204のx方向への伸びが無く高画質であることが分かる。これは、投影像2201におけるx方向の情報量とy方向の情報量とに差がなく、点広がり関数の鈍りが解消されたことによる。 As shown in FIG. 28, in the developed image 2203, as compared with the developed image 2002 shown in FIG. 24, the extension of the bright spot 2204 corresponding to the point 1901 (FIG. 21) constituting the subject in the x direction is increased. It can be seen that the image quality is high. This is because there is no difference between the amount of information in the x direction and the amount of information in the y direction in the projected image 2201, and the dullness of the point spread function is eliminated.

以上説明したように、撮像装置101の画角全体を覆うように撮像用格子パターン104のサイズを拡張すれば、投影像の欠けに起因する現像画像の劣化を抑止することができる。 As described above, if the size of the image pickup grid pattern 104 is expanded so as to cover the entire angle of view of the image pickup apparatus 101, deterioration of the developed image due to chipping of the projected image can be suppressed.

ただし、上述したように、拡張した撮像用格子パターン2101のサイズに応じて現像用格子パターン2202のサイズを拡張した場合、それぞれのサイズが大きくなるほど、画像処理部106における演算負荷は大きくなり現像処理に時間を要することになる。 However, as described above, when the size of the developing grid pattern 2202 is expanded according to the expanded size of the imaging grid pattern 2101, the larger each size is, the heavier the calculation load on the image processing unit 106 is and the more the development processing is performed. Will take time.

そこで、次に、画像処理部106における演算負荷の増大を抑止できる撮像装置の構成について説明する。 Therefore, next, the configuration of the image pickup apparatus capable of suppressing the increase in the calculation load in the image processing unit 106 will be described.

<本発明の第1の実施形態に係る撮像装置101の構成例>
図29は、本発明の第1の実施形態に係る撮像装置101の構成例を示している。撮像装置101は、画角全体のうち、注目する角度範囲を設定し、注目する角度範囲に応じて現像用格子パターン2202のサイズを適応的に変更することにより、現像処理に要する演算量の増加の抑止と、注目する角度範囲における画質の向上を実現できるようになされている。
<Structure example of the image pickup apparatus 101 1 according to the first embodiment of the present invention>
FIG. 29 shows a configuration example of the image pickup apparatus 1011 according to the first embodiment of the present invention. The image pickup apparatus 101 1 sets an angle range of interest in the entire angle of view, and adaptively changes the size of the development grid pattern 2202 according to the angle range of interest to calculate the amount of calculation required for the development process. It is possible to suppress the increase and improve the image quality in the angle range of interest.

撮像装置101は、撮像装置101(図1)に対して、注目画角設定部2301を追加したものである。注目画角設定部2301は、外部からユーザによって入力される、画角全体のうちの注目したい角度範囲を受け付けるためのボタン、ダイアル、GUI(Graphical User Interface)等のユーザインターフェースからなり、受け付けた角度範囲を表す注目画角範囲θpを画像処理部106に出力する。なお、注目画角設定部2301は、PC、スマートフォン等と通信する通信インターフェースであってもよく、その場合、PC等から入力される注目画角範囲θpを画像処理部106に出力する。 The image pickup apparatus 101 1 is an image pickup apparatus 101 (FIG. 1) to which the attention angle of view setting unit 2301 is added. The angle of view setting unit 2301 is composed of a user interface such as a button, a dial, and a GUI (Graphical User Interface) for receiving an angle range of the entire angle of view to be noticed, which is input by the user from the outside, and the accepted angle. The angle of view range θp representing the range is output to the image processing unit 106. The attention angle of view setting unit 2301 may be a communication interface that communicates with a PC, a smartphone, or the like. In that case, the attention angle of view range θp input from the PC or the like is output to the image processing unit 106.

撮像装置101における画像処理部106では、注目画角設定部2301から入力される注目画角範囲θpに応じたサイズの現像用格子パターン2202を生成し、生成した現像用格子パターン2202を用いて現像処理を行う。なお、注目画角範囲θpに応じた現像用格子パターン2202のサイズは、次式(16)のように算出できる。 The image processing unit 106 in the image pickup apparatus 101 1 generates a development grid pattern 2202 having a size corresponding to the attention angle range θp input from the attention angle of view setting unit 2301, and uses the generated development grid pattern 2202. Perform development processing. The size of the developing grid pattern 2202 according to the angle of view range θp of interest can be calculated by the following equation (16).

Figure 2021005743
Figure 2021005743

撮像装置101によれば、注目画角範囲θpに応じて現像用格子パターン2202のサイズを適応的に変更して現像処理を行うので、現像処理に要する演算量の増加の抑止と、注目する角度範囲における画質の向上を実現できる。 According to the image pickup apparatus 101 1 , the size of the development grid pattern 2202 is adaptively changed according to the angle of view range θp of interest to perform the development process. Therefore, attention is paid to suppressing an increase in the amount of calculation required for the development process. It is possible to improve the image quality in the angle range.

<撮像用格子パターン104を縮小する方法>
上述した第1の実施形態では、拡張した撮像用格子パターン2101を用いるとともに、現像用格子パターン2202のサイズを適応的に変更することにより、現像処理に要する演算量の増加の抑止と、注目する角度範囲における画質の向上を実現した。
<Method of reducing the imaging grid pattern 104>
In the first embodiment described above, attention is paid to the suppression of an increase in the amount of calculation required for the development process by using the expanded grid pattern 2101 for imaging and adaptively changing the size of the grid pattern 2202 for development. The image quality has been improved in the angle range.

次に、本発明の第2の実施形態として、撮像用格子パターン104のサイズを縮小することにより、斜め方向から光が入射した場合における現像画像の画質向上を実現する方法について説明する。以下、サイズを縮小した撮像用格子パターン104を撮像用格子パターン2401と称する。 Next, as a second embodiment of the present invention, a method of reducing the size of the image pickup grid pattern 104 to improve the image quality of the developed image when light is incident from an oblique direction will be described. Hereinafter, the imaging grid pattern 104 whose size has been reduced is referred to as an imaging grid pattern 2401.

図30は、撮像用格子パターン2401の全体が画像センサ103上に投影されることを示している。 FIG. 30 shows that the entire image pickup grid pattern 2401 is projected onto the image sensor 103.

同図に示されるように、画像センサ103に対して撮像用格子パターン2401のサイズが小さい場合、画像センサ103の正面に位置する点2402、及び画像センサ103の画角の端に位置する点2403それぞれからの光により、撮像用格子パターン2401はその全体が画像センサ103上に欠けることなく投影される。 As shown in the figure, when the size of the image pickup grid pattern 2401 is smaller than that of the image sensor 103, the point 2402 located in front of the image sensor 103 and the point 2403 located at the end of the angle of view of the image sensor 103. The light from each of them projects the entire image pickup grid pattern 2401 onto the image sensor 103 without chipping.

図31は、点2402からの光が撮像用格子パターン2401を通過して画像センサ103に入射することによって得られた投影像2501の一例を示している。図32は、点2403からの光が撮像用格子パターン2401を通過して画像センサ103に入射することによって得られた投影像2502の一例を示している。 FIG. 31 shows an example of the projected image 2501 obtained by the light from the point 2402 passing through the imaging grid pattern 2401 and incident on the image sensor 103. FIG. 32 shows an example of the projected image 2502 obtained by the light from the point 2403 passing through the imaging grid pattern 2401 and incident on the image sensor 103.

図31及び図32によれば、投影像2501,2502には、撮像用格子パターン2401が投影されていない領域(黒い領域)が存在するが、撮像用格子パターン2401の全体が投影されていることを確認できる。また、投影像2501,2502を比べた場合、撮像用格子パターン2401は同じサイズ及び形状で投影されていることがわかる。したがって、投影像2501,2502それぞれに対して現像処理を行って得られる現像画像の画質は同等なものとなる。 According to FIGS. 31 and 32, the projected images 2501, 502 include a region (black region) in which the imaging grid pattern 2401 is not projected, but the entire imaging grid pattern 2401 is projected. Can be confirmed. Further, when the projected images 2501, 502 are compared, it can be seen that the imaging grid patterns 2401 are projected in the same size and shape. Therefore, the image quality of the developed image obtained by performing the developing process on each of the projected images 2501, 502 is the same.

なお、投影像2501,2502それぞれに対して現像処理に用いる現像用格子パターン105のサイズは、投影像2501,2502における撮像用格子パターン2401の射影と同じサイズであり、撮像用格子パターン2401のサイズによっては投影像2501より小さくても構わない。これによって現像処理に必要な演算量を低減しつつ、注目画角内の画質を改善することが可能である。 The size of the developing grid pattern 105 used for the developing process for each of the projected images 2501, 502 is the same size as the projection of the imaging grid pattern 2401 in the projected images 2501, 502, and is the size of the imaging grid pattern 2401. Depending on the case, it may be smaller than the projected image 2501. This makes it possible to improve the image quality within the angle of view of interest while reducing the amount of calculation required for the development process.

<最狭ピッチの制約>
上述した第1及び第2の実施形態では、撮像用格子パターン104のサイズを変更している。撮像用格子パターン104のサイズを変更する場合、その同心円状の縞模様のピッチには制約がある。
<Restriction on the narrowest pitch>
In the first and second embodiments described above, the size of the imaging grid pattern 104 is changed. When the size of the imaging grid pattern 104 is changed, the pitch of the concentric striped pattern is limited.

本実施形態における撮像用格子パターン104を形成する同心円状の縞模様のピッチ幅は、現像画像の解像度と関係があり、そのピッチが細かいほど現像画像の解像度が向上するという特徴がある。ただし、ピッチが細かすぎる場合には画像センサ103上に到達する影が回折で拡がってしまい分離できなくなってしまう。 The pitch width of the concentric striped pattern forming the imaging grid pattern 104 in the present embodiment is related to the resolution of the developed image, and the finer the pitch, the higher the resolution of the developed image. However, if the pitch is too fine, the shadow that reaches the image sensor 103 spreads due to diffraction and cannot be separated.

そのため、撮像用格子パターン104を形成する同心円状の縞模様のピッチは、回折が発生した場合でも分離できる程度の幅にする必要がある。 Therefore, the pitch of the concentric striped pattern forming the imaging grid pattern 104 needs to be wide enough to be separated even when diffraction occurs.

図33は、撮像用格子パターン104の一つの開口から入射光が回折して画像センサ103上に投影された状態を示している。同図において、入射光線2601は撮像用格子パターン104を通過する際、その開口幅qに応じた回折角Wθで拡がり、画像センサ上ではWの幅で投影されることになる。撮像用格子パターン104と画像センサ103の距離をdとし、入射光線2601の波長をλとすると、幅Wは、近似を用いて次式のように計算できる。 FIG. 33 shows a state in which incident light is diffracted from one aperture of the imaging grid pattern 104 and projected onto the image sensor 103. In the figure, when the incident light ray 2601 passes through the imaging grid pattern 104, it spreads at a diffraction angle W θ corresponding to the aperture width q, and is projected on the image sensor with a width of W q . Assuming that the distance between the imaging grid pattern 104 and the image sensor 103 is d and the wavelength of the incident ray 2601 is λ, the width W q can be calculated by using an approximation as follows.

Figure 2021005743
Figure 2021005743

この幅Wが大きい領域では画像センサ103上に撮像用格子パターン104が投影されず、結果的に投影像の情報量が不足してしまい解像度の低下に繋がってしまう。 In this region where the width W q is large, the image pickup grid pattern 104 is not projected on the image sensor 103, and as a result, the amount of information in the projected image is insufficient, leading to a decrease in resolution.

そこで、回折によって投影されない領域が生じない撮像用格子パターン104の幅を考える。 Therefore, consider the width of the imaging grid pattern 104 in which a region not projected by diffraction is not generated.

図34は、撮像用格子パターン104の隣接する開口から入射光が開口して画像センサ103上に投影された状態を示している。ここで、開口幅qは、撮像用格子パターン104の中心からの距離r、及び係数βを用い、次式(18)によって計算できる。 FIG. 34 shows a state in which incident light opens from an adjacent aperture of the imaging grid pattern 104 and is projected onto the image sensor 103. Here, the aperture width q can be calculated by the following equation (18) using the distance r from the center of the imaging grid pattern 104 and the coefficient β.

Figure 2021005743
Figure 2021005743

なお、厳密には、隣接する開口は、撮像用格子パターン104の中心からの距離rが異なるので、その幅qも異なるが、隣接する開口では距離rの差が十分に小さいので、開口幅qも同一とみなすことができる。 Strictly speaking, the width q of the adjacent openings is different because the distance r from the center of the imaging grid pattern 104 is different, but the difference of the distance r is sufficiently small in the adjacent openings, so that the opening width q Can be regarded as the same.

同図の場合、画像センサ103上には中心間距離が2qだけ離れた二つの開口から入射した光が投影されることになる。この二つの開口からの投影が重なった領域は、投影されている撮像用格子パターンが情報として扱えなくなるので、現像画像の解像度の低下の原因となる。 In the case of the figure, the incident light is projected onto the image sensor 103 from two openings separated by a distance of 2q from the center. In the region where the projections from these two openings overlap, the projected imaging grid pattern cannot be handled as information, which causes a decrease in the resolution of the developed image.

そこで、係数βを調整して、隣接する二つの開口からの投影が重ならないようにする。これには、レイリー限界を用いることができる。 Therefore, the coefficient β is adjusted so that the projections from two adjacent openings do not overlap. Rayleigh limits can be used for this.

レイリー限界とは、同等の明るさの光源が近くに見えているときにそれを二つの光源であると認識できる限界を示したもので、その定義は第1の光源から回折した第1暗線が、第2の光源の中心に到達した場合に相当する。これを撮像用格子パターン104に適用すれば、一つの開口から投影されたパターンの幅が4qに到達した場合が解像できる限界となり、開口幅qは次式(19)のように計算できる。 The Rayleigh limit indicates the limit at which a light source of the same brightness can be recognized as two light sources when they are seen close to each other, and the definition is that the first dark line diffracted from the first light source is used. , Corresponds to the case where the center of the second light source is reached. When this is applied to the imaging grid pattern 104, the resolution is the limit when the width of the pattern projected from one aperture reaches 4q, and the aperture width q can be calculated by the following equation (19).

Figure 2021005743
Figure 2021005743

さらに式(18)を用いると解像限界のピッチを持つ格子パターンの係数βは、次式(20)のように計算できる。 Further, using the equation (18), the coefficient β of the lattice pattern having the pitch of the resolution limit can be calculated by the following equation (20).

Figure 2021005743
Figure 2021005743

式(20)から分かるように、最適な係数βは、画像センサ103のサイズS、及び画像センサ103と撮像用格子パターン104との距離dに依存する、つまり、式(20)に基づき、画像センサ103のサイズS、及び画像センサ103と撮像用格子パターン104との距離dを変更して係数βを調整することにより、画像センサ103が有する解像度を有効に活用することが可能となる。 As can be seen from the equation (20), the optimum coefficient β depends on the size S of the image sensor 103 and the distance d between the image sensor 103 and the imaging grid pattern 104, that is, based on the equation (20). By adjusting the coefficient β by changing the size S of the sensor 103 and the distance d between the image sensor 103 and the imaging grid pattern 104, it is possible to effectively utilize the resolution of the image sensor 103.

<本発明の第3の実施形態に係る撮像装置101の構成例>
次に、図35は、本発明の第3の実施形態に係る撮像装置101の構成例を示している。撮像装置101は、撮像装置101と同様、画角全体のうち、注目する角度範囲を設定し、注目する角度範囲に応じて現像用格子パターン2202のサイズを適応的に変更することにより、現像処理に要する演算量の増加の抑止と、注目する角度範囲における画質の向上を実現できるようになされている。
<Structure example of the image pickup apparatus 101 3 according to the third embodiment of the present invention>
Next, FIG. 35 shows a configuration example of the image pickup apparatus 1013 according to the third embodiment of the present invention. Similar to the image pickup device 101 1 , the image pickup apparatus 101 3 sets an angle range of interest in the entire angle of view, and adaptively changes the size of the developing lattice pattern 2202 according to the angle range of interest. It is possible to suppress an increase in the amount of calculation required for the development process and improve the image quality in the angle range of interest.

撮像装置101は、撮像装置101(図1)に対して、注目画角記憶部2801を追加したものである。注目画角記憶部2801は、例えば、半導体メモリ等からなり、予め(製造時等)記憶している、画角全体のうちの注目したい角度範囲を表す注目画角範囲θpを画像処理部106に出力する。注目画角記憶部2801は、本発明の注目画角設定部に相当する。 The image pickup apparatus 101 3 is an image pickup apparatus 101 (FIG. 1) to which the attention angle of view storage unit 2801 is added. The attention angle of view storage unit 2801 is composed of, for example, a semiconductor memory or the like, and the attention angle of view range θp representing the angle range of interest in the entire angle of view, which is stored in advance (during manufacturing, etc.), is stored in the image processing unit 106. Output. The attention angle of view storage unit 2801 corresponds to the attention angle of view setting unit of the present invention.

撮像装置101における画像処理部106では、撮像装置101と同様、注目画角記憶部2801から入力される注目画角範囲θpに応じたサイズの現像用格子パターン2202を生成し、生成した現像用格子パターン2202を用いて現像処理を行う。 Similar to the image pickup device 101 1 , the image processing unit 106 in the image pickup apparatus 101 3 generates a development grid pattern 2202 having a size corresponding to the angle of view range θp input from the angle of view storage unit 2801, and the generated development. Development processing is performed using the grid pattern 2202.

撮像装置101によれば、注目画角範囲θpに応じて現像用格子パターン2202のサイズを適応的に変更して現像処理を行うので、現像処理に要する演算量の増加の抑止と、注目する角度範囲における画質の向上を実現できる。 According to the imaging apparatus 101 3, since the development process by changing the size of the developing grating pattern 2202 adaptively in accordance with the target angle range theta] p, the suppression of the increase in the calculation amount required for the development, attention It is possible to improve the image quality in the angle range.

また、撮像装置101によれば、撮像装置101のように外部からユーザによって画角全体のうちの注目したい角度範囲を入力する必要が無いので、その分だけユーザの操作を簡便にすることができる。 Further, according to the image pickup device 101 3 , unlike the image pickup device 101 1 , it is not necessary for the user to input the angle range of the entire angle of view to be noticed from the outside, so that the user's operation can be simplified accordingly. Can be done.

ただし、撮像装置101の場合、注目画角範囲θpを予め注目画角記憶部2801に記憶される必要がある。また、撮像装置101の場合、外的要因等によって撮像用格子パターン104と画像センサ103との距離d、撮像用格子パターン104の中心位置座標、変調器102の屈折率等が変動した場合、注目画角記憶部2801に記憶されている注目画角範囲θpをそれらの変動に対応する値に更新する必要がある。 However, if the imaging apparatus 101 3, needs to be stored attention angle range θp advance in the target angle storage unit 2801. Further, if the imaging apparatus 101 3, if the distance between the imaging grating pattern 104 and the image sensor 103 d, the center position coordinates of the imaging grid pattern 104, such as refractive index of the modulator 102 is varied by external factors such as, It is necessary to update the attention angle range θp stored in the attention angle of view storage unit 2801 to a value corresponding to those fluctuations.

本発明は、上記した実施形態に限定されるものではなく、さらに様々な変形例が含まれる。また、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and further includes various modifications. In addition, each of the above-described embodiments has been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those including all the components described above. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

101,101〜101・・・撮像装置、102・・・変調器、102a・・・格子基板、102b・・・支持部材、103・・・画像センサ、103a・・・画素、104・・・撮像用格子パターン、105・・・現像用格子パターン、106・・・画像処理部、107・・・画像表示部、1301・・・2次元FFT演算部、1302・・・現像用格子FFT画像生成部、1303・・・格子間乗算部、1304・・・逆2次元FFT演算部、1305・・・ノイズ除去部、1306・・・コントラスト強調部、1307・・・カラーバランス調整部、1401・・・格子センサ一体基板、1501・・・点、1502・・・投影像、1601・・・点、1602・・・投影像、1701・・・画像記憶部、1703・・・フォーカス設定部、1901・・・点、1902・・・投影、2001・・・投影像、2002・・・現像画像、2003・・・輝点、2101・・・撮像用格子パターン、2102・・・点、2201・・・投影像、2202・・・現像用格子パターン、2203・・・現像画像、2204・・・輝点、2301・・・注目画角設定部、2401・・・撮像用格子パターン、2402,2403・・・点、2501,2502・・・投影像、2601・・・入射光線、2801・・・注目画角記憶部 101, 101 1 to 101 3 ... Imaging device, 102 ... Modulator, 102a ... Lattice substrate, 102b ... Support member, 103 ... Image sensor, 103a ... Pixel, 104 ... -Imaging lattice pattern, 105 ... Development lattice pattern, 106 ... Image processing unit, 107 ... Image display unit, 1301 ... Two-dimensional FFT calculation unit, 1302 ... Development lattice FFT image Generation unit, 1303 ... Interstitial multiplication unit, 1304 ... Inverse two-dimensional FFT calculation unit, 1305 ... Noise removal unit, 1306 ... Contrast enhancement unit, 1307 ... Color balance adjustment unit, 1401. .. Lattice sensor integrated substrate, 1501 ... point, 1502 ... projected image, 1601 ... point, 1602 ... projected image, 1701 ... image storage unit, 1703 ... focus setting unit, 1901 ... Point, 1902 ... Projection, 2001 ... Projection image, 2002 ... Developed image, 2003 ... Bright point, 2101 ... Imaging grid pattern, 2102 ... Point, 2201 ... -Projection image 2202 ... Development grid pattern 2203 ... Development image, 2204 ... Bright spot, 2301 ... Attention angle of view setting unit 2401 ... Imaging grid pattern, 2402, 2403. .. Point, 2501,502 ... Projected image, 2601 ... Incident light, 2801 ... Attention angle of view storage

Claims (9)

撮像用格子パターンを有し、入射光の強度を変調する変調器と、
前記変調器を通過して入射した光を電気信号に変換することにより、投影像を生成する画像センサと、
前記投影像と、前記撮像用格子パターンに対応する現像用格子パターンとの相互相関関数を用いた現像処理によって現像画像を生成する画像処理部と、
注目画角範囲を前記画像処理部に対して設定する注目画角設定部と、
を備え、
前記画像処理部は、設定された前記注目画角範囲に応じて前記現像処理を変更する
ことを特徴とする撮像装置。
A modulator that has a grid pattern for imaging and modulates the intensity of incident light,
An image sensor that generates a projected image by converting the light that has passed through the modulator and incident light into an electrical signal.
An image processing unit that generates a developed image by a developing process using a cross-correlation function between the projected image and a developing grid pattern corresponding to the imaging grid pattern.
An angle of view setting unit that sets the angle of view range of interest for the image processing unit, and
With
The image processing unit is an image pickup apparatus characterized in that the development process is changed according to the set angle of view range of interest.
請求項1に記載の撮像装置であって、
前記画像処理部は、設定された前記注目画角範囲に応じて前記現像処理に用いる前記現像用格子パターンのサイズを変更する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The image processing unit is an image pickup apparatus that changes the size of the development grid pattern used in the development processing according to the set angle of view range of interest.
請求項2に記載の撮像装置であって、
前記撮像用格子パターンのサイズは、前記画像センサのサイズよりも大きい
ことを特徴とする撮像装置。
The imaging device according to claim 2.
An image pickup apparatus characterized in that the size of the image pickup grid pattern is larger than the size of the image sensor.
請求項2に記載の撮像装置であって、
前記撮像用格子パターンのサイズは、前記画像センサのサイズよりも小さい
ことを特徴とする撮像装置。
The imaging device according to claim 2.
An image pickup apparatus characterized in that the size of the image pickup grid pattern is smaller than the size of the image sensor.
請求項1に記載の撮像装置であって、
前記撮像用格子パターンは、複数の同心円からなる縞模様であり、
前記縞模様の開口は、前記同心円の中心からの距離に反比例して細かくなる
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The image pickup grid pattern is a striped pattern composed of a plurality of concentric circles.
An imaging device characterized in that the striped opening becomes finer in inverse proportion to the distance from the center of the concentric circles.
請求項5に記載の撮像装置であって、
前記撮像用格子パターンをなす前記縞模様の最小開口幅からの1次回折光の幅は、前記最小開口幅の4倍以下である
ことを特徴とする撮像装置。
The imaging device according to claim 5.
An imaging device characterized in that the width of the primary diffracted light from the minimum aperture width of the striped pattern forming the image-taking grid pattern is four times or less the minimum aperture width.
請求項1に記載の撮像装置であって、
前記注目画角設定部は、ユーザから入力された前記注目画角範囲を前記画像処理部に対して設定する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The attention angle of view setting unit is an image pickup apparatus characterized in that the attention angle of view range input by the user is set for the image processing unit.
請求項1に記載の撮像装置であって、
前記注目画角設定部は、予め記憶している前記注目画角範囲を前記画像処理部に対して設定する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The attention angle of view setting unit is an image pickup apparatus characterized in that the attention angle of view range stored in advance is set for the image processing unit.
請求項1に記載の撮像装置であって、
前記画像処理部は、前記現像画像に対してノイズ除去処理、コントラスト強調処理、及びカラーバランス処理を行うことにより撮像画像を生成する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The image processing unit is an image pickup apparatus characterized in that a captured image is generated by performing noise removal processing, contrast enhancement processing, and color balance processing on the developed image.
JP2019117024A 2019-06-25 2019-06-25 Imaging device Active JP7159118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019117024A JP7159118B2 (en) 2019-06-25 2019-06-25 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019117024A JP7159118B2 (en) 2019-06-25 2019-06-25 Imaging device

Publications (2)

Publication Number Publication Date
JP2021005743A true JP2021005743A (en) 2021-01-14
JP7159118B2 JP7159118B2 (en) 2022-10-24

Family

ID=74098318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019117024A Active JP7159118B2 (en) 2019-06-25 2019-06-25 Imaging device

Country Status (1)

Country Link
JP (1) JP7159118B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150219808A1 (en) * 2013-08-28 2015-08-06 Rambus Inc. Patchwork fresnel zone plates for lensless imaging
JP2018061109A (en) * 2016-10-04 2018-04-12 株式会社日立製作所 Imaging apparatus and imaging method
WO2018123318A1 (en) * 2016-12-27 2018-07-05 富士フイルム株式会社 Imaging device and imaging module
WO2020059181A1 (en) * 2018-09-18 2020-03-26 株式会社日立製作所 Imaging device and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150219808A1 (en) * 2013-08-28 2015-08-06 Rambus Inc. Patchwork fresnel zone plates for lensless imaging
JP2018061109A (en) * 2016-10-04 2018-04-12 株式会社日立製作所 Imaging apparatus and imaging method
WO2018123318A1 (en) * 2016-12-27 2018-07-05 富士フイルム株式会社 Imaging device and imaging module
WO2020059181A1 (en) * 2018-09-18 2020-03-26 株式会社日立製作所 Imaging device and imaging method

Also Published As

Publication number Publication date
JP7159118B2 (en) 2022-10-24

Similar Documents

Publication Publication Date Title
JP6491332B2 (en) Imaging device
US10551532B2 (en) Imaging device and imaging method
US10461108B2 (en) Imaging device
CN110324513B (en) Image pickup apparatus, image pickup module, and image pickup method
JP6646619B2 (en) Imaging device
CN110198391B (en) Image pickup apparatus, image pickup method, and image processing apparatus
JP2023016864A (en) Imaging apparatus and method
WO2020059181A1 (en) Imaging device and imaging method
JP6864604B2 (en) Imaging device
JP7159118B2 (en) Imaging device
JP6947891B2 (en) Mobile information terminal
JP6770164B2 (en) Imaging device
CN110278350B (en) Image pickup apparatus
JP7389195B2 (en) Image generation method
JP6636663B2 (en) Imaging device and image generation method
JP7146698B2 (en) Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R151 Written notification of patent or utility model registration

Ref document number: 7159118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151