JP2021005786A - Imaging apparatus, imaging method, transmitting device of imaging system and receiving device of imaging system - Google Patents

Imaging apparatus, imaging method, transmitting device of imaging system and receiving device of imaging system Download PDF

Info

Publication number
JP2021005786A
JP2021005786A JP2019118394A JP2019118394A JP2021005786A JP 2021005786 A JP2021005786 A JP 2021005786A JP 2019118394 A JP2019118394 A JP 2019118394A JP 2019118394 A JP2019118394 A JP 2019118394A JP 2021005786 A JP2021005786 A JP 2021005786A
Authority
JP
Japan
Prior art keywords
imaging
unit
grid noise
image
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019118394A
Other languages
Japanese (ja)
Other versions
JP7146698B2 (en
Inventor
良太 川俣
Ryota Kawamata
良太 川俣
和幸 田島
Kazuyuki Tajima
和幸 田島
悠介 中村
Yusuke Nakamura
悠介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019118394A priority Critical patent/JP7146698B2/en
Publication of JP2021005786A publication Critical patent/JP2021005786A/en
Application granted granted Critical
Publication of JP7146698B2 publication Critical patent/JP7146698B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To appropriately remove noise due to a point spread function with a vibrating side lobe that can occur in an image obtained as a result of imaging.SOLUTION: An imaging apparatus comprises: an imaging unit that images an object and outputs an image in which grid noise due to a side lobe in a point spread function during imaging occurs; and a grid noise removing unit that removes the grid noise from the image on the basis of the grid noise information. The imaging apparatus may comprise a grid noise information output unit that outputs the grid noise information to the grid noise removing unit.SELECTED DRAWING: Figure 25

Description

本発明は、撮像装置、撮像方法、撮像システムの送信装置、及び撮像システムの受信装置に関する。 The present invention relates to an imaging device, an imaging method, a transmitting device of an imaging system, and a receiving device of an imaging system.

IoT(Internet of Things)デバイスやウェアラブルデバイス等のデバイスに搭載するための撮像装置は、設置するスペースが限られているため薄型化と低コスト化が求められる。 An imaging device to be mounted on a device such as an IoT (Internet of Things) device or a wearable device is required to be thin and low in cost because the installation space is limited.

撮像装置を薄型化する技術として、例えば特許文献1には、レンズを用いることなく物体像を得ることができる撮像方式が提案されている。 As a technique for reducing the thickness of an imaging device, for example, Patent Document 1 proposes an imaging method capable of obtaining an object image without using a lens.

また、特許文献2には、薄型化した撮像装置によって指の赤外画像を撮像し、赤外画像から検出した静脈パターンを認証に用いる際の認証精度を向上させる技術が提案されている。 Further, Patent Document 2 proposes a technique for capturing an infrared image of a finger with a thin image pickup device and improving the authentication accuracy when the vein pattern detected from the infrared image is used for authentication.

特開2018−061109号公報JP-A-2018-061109 特開2015−026228号公報Japanese Unexamined Patent Publication No. 2015-0226228

特許文献1に記載の撮像方法によれば、物体の光が撮像用のパターンからなる変調器を通過し、画像センサに入射して得られる投影像に対し、撮像用のパターンに対応する現像用のパターンを用いて相互相関演算を行うことによって物体の現像画像を得ることができる。しかしながら、撮像の際の点拡がり関数が振動するサイドローブを持つため、それに起因するノイズが現像画像に生じてしまう問題がある。 According to the imaging method described in Patent Document 1, for development, the projected image obtained by passing the light of an object through a modulator composed of a pattern for imaging and incident on an image sensor is subjected to a pattern for imaging. A developed image of an object can be obtained by performing a cross-correlation calculation using the pattern of. However, since the point spread function at the time of imaging has a side lobe that vibrates, there is a problem that noise caused by the side lobe is generated in the developed image.

また、特許文献2に記載の技術では、指を撮像した赤外画像から、静脈を検出する際に支障となるノイズを除去している。ここでのノイズ源は、指のしわを想定している。ノイズを除去するためには、Top−hat変換による高周波成分の除去を行う。具体的には、皮膚のしわは血管幅よりも狭いことが多いことを利用し、構造化要素の長さの調整を経験的に行ない、可能な範囲でしわ成分を除去している。しかしながら、該技術では、血管の細い陰影を誤ってしわと判断して除去してしまう問題がある。また、鮮明な血管の陰影のコントラストを低下させてしまうことも問題である。 Further, in the technique described in Patent Document 2, noise that hinders the detection of veins is removed from the infrared image obtained by capturing the finger. The noise source here assumes wrinkles on the fingers. In order to remove noise, high frequency components are removed by Top-hat conversion. Specifically, taking advantage of the fact that skin wrinkles are often narrower than the blood vessel width, the length of the structural element is empirically adjusted to remove wrinkle components to the extent possible. However, this technique has a problem that a thin shadow of a blood vessel is erroneously determined to be a wrinkle and removed. Another problem is that the contrast of the shadows of clear blood vessels is reduced.

本発明はこのような状況に鑑みてなされたものであり、撮像の結果得られる画像上に生じ得る、振動するサイドローブを持つ点拡がり関数に起因するノイズを適切に除去できるようにすることを目的とする。 The present invention has been made in view of such a situation, and makes it possible to appropriately remove noise caused by a point spread function having a vibrating side lobe that may occur on an image obtained as a result of imaging. The purpose.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows.

上記課題を解決すべく、本発明の一態様に係る撮像装置は、物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている現像画像を出力する撮像部と、グリッドノイズ情報に基づいて前記現像画像から前記グリッドノイズを除去するグリッドノイズ除去部と、を備えることを特徴とする。 In order to solve the above problems, the imaging device according to one aspect of the present invention is an imaging unit that images an object and outputs a developed image in which grid noise due to a side lobe in the point spread function at the time of imaging may occur. A grid noise removing unit that removes the grid noise from the developed image based on the grid noise information is provided.

本発明の一態様によれば、撮像の結果得られる画像に生じ得る、振動するサイドローブを持つ点拡がり関数に起因するノイズを適切に除去することが可能となる。 According to one aspect of the present invention, it is possible to appropriately remove noise caused by a point spread function having a vibrating side lobe, which may occur in an image obtained as a result of imaging.

上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 Issues, configurations, and effects other than those described above will be clarified by the description of the following embodiments.

図1は、本発明の各実施形態の基礎となる撮像装置の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an imaging device that is the basis of each embodiment of the present invention. 図2は、撮像用パターン周辺の構成例を示す図である。FIG. 2 is a diagram showing a configuration example around the imaging pattern. 図3は、撮像用パターン周辺の他の構成例を示す図である。FIG. 3 is a diagram showing another configuration example around the imaging pattern. 図4は、撮像用パターンとしてのガボールゾーンプレートの一例を示す図である。FIG. 4 is a diagram showing an example of a Gabor zone plate as an imaging pattern. 図5は、撮像用パターンとしてのフレネルゾーンプレートの一例を示す図である。FIG. 5 is a diagram showing an example of a Fresnel zone plate as an imaging pattern. 図6は、パターン基板に対して斜め入射した平行光が画像センサ上でシフトすることを説明するための図である。FIG. 6 is a diagram for explaining that the parallel light obliquely incident on the pattern substrate shifts on the image sensor. 図7は、投影像の一例を示す図です。FIG. 7 is a diagram showing an example of a projected image. 図8は、現像用パターンの一例を示す図である。FIG. 8 is a diagram showing an example of a developing pattern. 図9は、相関現像方式による現像画像の一例を示す図である。FIG. 9 is a diagram showing an example of a developed image by the correlation development method. 図10は、モアレ現像方式によるモアレ縞の一例を示す図である。FIG. 10 is a diagram showing an example of moire fringes by the moire development method. 図11は、モアレ現像方式による現像画像の一例を示す図である。FIG. 11 is a diagram showing an example of a developed image by the moire development method. 図12は、フリンジスキャン演算処理における初期位相の組合せの例を示す図である。FIG. 12 is a diagram showing an example of a combination of initial phases in the fringe scan calculation process. 図13は、初期位相が異なる複数の撮像用パターンを空間的に組み合わせて生成した撮像用パターンの一例を示す図である。FIG. 13 is a diagram showing an example of an imaging pattern generated by spatially combining a plurality of imaging patterns having different initial phases. 図14は、フリンジスキャン演算処理の一例を説明するフローチャートである。FIG. 14 is a flowchart illustrating an example of the fringe scan calculation process. 図15は、相関現像方式による現像処理の一例を説明するフローチャートである。FIG. 15 is a flowchart illustrating an example of development processing by the correlation development method. 図16は、モアレ現像方式による現像処理の一例を説明するフローチャートである。FIG. 16 is a flowchart illustrating an example of development processing by the moire development method. 図17は、物体が無限距離にある場合に撮像用パターンが等倍で投影されることを説明するための図である。FIG. 17 is a diagram for explaining that the imaging pattern is projected at the same magnification when the object is at an infinite distance. 図18は、物体が有限距離にある場合に撮像用パターンが拡大されて投影されることを説明するための図である。FIG. 18 is a diagram for explaining that the imaging pattern is enlarged and projected when the object is at a finite distance. 図19は、画像センサが小さい場合の点拡がり関数の一例を示す図である。FIG. 19 is a diagram showing an example of a point spread function when the image sensor is small. 図20は、画像センサが大きい場合の点拡がり関数の一例を示す図である。FIG. 20 is a diagram showing an example of a point spread function when the image sensor is large. 図21は、単一輝度の物体の一例を示す図である。FIG. 21 is a diagram showing an example of a single-luminance object. 図22は、図21の物体の撮像結果を示す図である。FIG. 22 is a diagram showing an imaging result of the object of FIG. 21. 図23は、図21の物体の一次元プロファイルを示す図である。FIG. 23 is a diagram showing a one-dimensional profile of the object of FIG. 21. 図24は、図21の物体の撮像結果の一次元プロファイルを示す図である。FIG. 24 is a diagram showing a one-dimensional profile of the imaging result of the object of FIG. 21. 図25は、本発明の第1の実施形態に係る撮像装置の構成例を示す図である。FIG. 25 is a diagram showing a configuration example of an imaging device according to the first embodiment of the present invention. 図26は、グリッドノイズ情報出力部の第1の構成例を示す図である。FIG. 26 is a diagram showing a first configuration example of the grid noise information output unit. 図27は、グリッドノイズ情報出力部の第2の構成例を示す図である。FIG. 27 is a diagram showing a second configuration example of the grid noise information output unit. 図28は、本発明の第2の実施形態に係る撮像装置の構成例を示す図である。FIG. 28 is a diagram showing a configuration example of an imaging device according to a second embodiment of the present invention. 図29は、複数の基本撮像用パターンからなる撮像用パターンの一例を示す図である。FIG. 29 is a diagram showing an example of an imaging pattern including a plurality of basic imaging patterns. 図30は、本発明の第3の実施形態に係る撮像装置の構成例を示す図である。FIG. 30 is a diagram showing a configuration example of an imaging device according to a third embodiment of the present invention. 図31は、グリッドノイズ情報記憶部の第1の構成例を示す図である。FIG. 31 is a diagram showing a first configuration example of the grid noise information storage unit. 図32は、グリッドノイズ情報記憶部の第2の構成例を示す図である。FIG. 32 is a diagram showing a second configuration example of the grid noise information storage unit. 図33は、本発明の第4の実施形態に係る撮像装置の構成例を示す図である。FIG. 33 is a diagram showing a configuration example of an imaging device according to a fourth embodiment of the present invention. 図34は、図33の撮像部の構成例を示す図である。FIG. 34 is a diagram showing a configuration example of the imaging unit of FIG. 33. 図35は、本発明の第5の実施形態に係る撮像装置の構成例を示す図である。FIG. 35 is a diagram showing a configuration example of an imaging device according to a fifth embodiment of the present invention. 図36は、本発明の第6の実施形態に係る撮像装置の構成例を示す図である。FIG. 36 is a diagram showing a configuration example of an imaging device according to a sixth embodiment of the present invention. 図37は、本発明の第7の実施形態に係る撮像装置の構成例を示す図である。FIG. 37 is a diagram showing a configuration example of an image pickup apparatus according to a seventh embodiment of the present invention. 図38は、本発明の第8の実施形態に係る撮像装置の構成例を示す図である。FIG. 38 is a diagram showing a configuration example of an image pickup apparatus according to an eighth embodiment of the present invention.

以下、本発明の複数の実施形態を図面に基づいて説明する。なお、各実施形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合、及び原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aより成る」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合、及び原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似又は類似するもの等を含むものとする。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, in all the drawings for explaining each embodiment, in principle, the same members are designated by the same reference numerals, and the repeated description thereof will be omitted. In addition, in the following embodiments, the components (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say. In addition, when saying "consisting of A", "consisting of A", "having A", and "including A", other elements are excluded unless it is clearly stated that it is only that element. It goes without saying that it is not something to do. Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of a component or the like, the shape is substantially the same unless otherwise specified or, in principle, it is considered that it is not clearly the case. Etc., etc. shall be included.

<撮像装置101の構成例>
図1は、以下に説明する本発明の各実施形態の基礎となる撮像装置101の構成例を示している。撮像装置101は、撮像部102、及びコントローラ108を備える。
<Structure example of imaging device 101>
FIG. 1 shows a configuration example of an image pickup apparatus 101 which is a basis of each embodiment of the present invention described below. The image pickup apparatus 101 includes an image pickup unit 102 and a controller 108.

撮像部102は、画像センサ103、パターン基板104、撮像用パターン105、及び画像処理部106を有する。撮像部102は、物体の光学像を結像させるためのレンズを用いることなく、物体を撮像し、所定の現像処理によって物体の撮像画像を生成し、コントローラ108に出力する。 The image pickup unit 102 includes an image sensor 103, a pattern substrate 104, an image pickup pattern 105, and an image processing unit 106. The imaging unit 102 images an object without using a lens for forming an optical image of the object, generates an image of the object by a predetermined development process, and outputs the captured image to the controller 108.

コントローラ108は、撮像部102から入力される撮像画像を、例えば、コンピュータや記録デバイス等の外部装置に出力する。コントローラ108は、外部装置に撮像画像を出力する場合、外部装置と接続するためのインターフェース(例えば、USB(Universal Serial Bus)等)に適合するように撮像画像のデータ形式を変換する。コントローラ108は、例えば、CPU、メモリ、ストレージ、通信インターフェースを備える一般的なコンピュータによって実現できる。 The controller 108 outputs the captured image input from the imaging unit 102 to an external device such as a computer or a recording device. When outputting the captured image to the external device, the controller 108 converts the data format of the captured image so as to be compatible with an interface for connecting to the external device (for example, USB (Universal Serial Bus) or the like). The controller 108 can be realized by, for example, a general computer including a CPU, a memory, a storage, and a communication interface.

次に、図2は、撮像用パターン105周辺の構成例を示している。パターン基板104は、その下面が画像センサ103の受光面に密着して固定されており、パターン基板104の上面(光入射面)には、撮像用パターン105が形成されている。 Next, FIG. 2 shows a configuration example around the imaging pattern 105. The lower surface of the pattern substrate 104 is fixed in close contact with the light receiving surface of the image sensor 103, and the image pickup pattern 105 is formed on the upper surface (light incident surface) of the pattern substrate 104.

パターン基板104は、例えばガラスやプラスティック等の可視光に対して透明な材料からなる。撮像用パターン105は、例えば半導体プロセスに用いられるスパッタリング法等により、パターン基板104の上面にアルミニウム、クロム等の金属を蒸着することによって形成されている。 The pattern substrate 104 is made of a material that is transparent to visible light, such as glass or plastic. The imaging pattern 105 is formed by depositing a metal such as aluminum or chromium on the upper surface of the pattern substrate 104 by, for example, a sputtering method used in a semiconductor process.

なお、撮像用パターン105は、アルミニウム等の金属が蒸着されている部分と蒸着されていない部分とを設けることによって濃淡がつけられており、通過する可視光の透過率を変調することができるようになされている。すなわち、撮像用パターン105は、本発明の変調器に相当する。 The imaging pattern 105 is shaded by providing a portion where a metal such as aluminum is vapor-deposited and a portion where the metal such as aluminum is not vapor-deposited so that the transmittance of passing visible light can be modulated. Has been done. That is, the imaging pattern 105 corresponds to the modulator of the present invention.

ただし、撮像用パターン105の形成は、金属の蒸着に限るものでない。例えばインクジェットプリンタ等によって印刷する等、可視光の透過率の変調を実現できる手段であればどのように形成してもよい。 However, the formation of the imaging pattern 105 is not limited to the vapor deposition of metal. Any means may be used as long as it can realize modulation of the transmittance of visible light, such as printing with an inkjet printer or the like.

また、ここでは可視光を例に説明したが、可視光以外の光の撮像を行う場合には、パターン基板104を、該光を透過する材料(例えば、遠赤外光の場合、ゲルマニウム、シリコン、カルコゲナイド等)で形成し、撮像用パターン105を、該光を遮断する材料で形成するようにすればよい。 Further, although visible light has been described as an example here, when imaging light other than visible light, the pattern substrate 104 is used as a material that transmits the light (for example, in the case of far infrared light, germanium or silicon. , Calcogenide, etc.), and the imaging pattern 105 may be formed of a material that blocks the light.

次に、図3は、撮像用パターン105周辺の他の構成例を示している。図2の構成例では、撮像用パターン105をパターン基板104の上面に形成していた。図3の構成例では、撮像用パターン105を薄膜によって形成し、該薄膜が、支持部材301によって画像センサ103から所定の距離を離して保持されている。 Next, FIG. 3 shows another configuration example around the imaging pattern 105. In the configuration example of FIG. 2, the imaging pattern 105 was formed on the upper surface of the pattern substrate 104. In the configuration example of FIG. 3, the imaging pattern 105 is formed of a thin film, and the thin film is held by the support member 301 at a predetermined distance from the image sensor 103.

なお、撮像装置101による撮像画角は、パターン基板104の厚さによって変更可能である。したがって、図3に示された構成例の場合、支持部材301の長さを変更できる機構を設ければ、撮像画角を変更することが可能となる。 The angle of view captured by the imaging device 101 can be changed depending on the thickness of the pattern substrate 104. Therefore, in the case of the configuration example shown in FIG. 3, the imaging angle of view can be changed by providing a mechanism capable of changing the length of the support member 301.

画像センサ103は、その表面に受光素子である画素103aが格子状に規則的に配置されている。画像センサ103は、各画素103aによる光電変換の結果得られる入射光に応じた画素信号からなるセンサ画像(以下、投影像とも称する)を画像処理部106に出力する。 Pixels 103a, which are light receiving elements, are regularly arranged in a grid pattern on the surface of the image sensor 103. The image sensor 103 outputs a sensor image (hereinafter, also referred to as a projected image) composed of pixel signals corresponding to the incident light obtained as a result of photoelectric conversion by each pixel 103a to the image processing unit 106.

画像処理部106は、画像センサ103から入力される投影像に、フリンジスキャン演算処理、現像処理等の画像処理を行うことにより、撮像画像を生成し、コントローラ108に出力する。画像処理部106は、例えば、専用の画像処理回路、またはコンピュータによって実現される。 The image processing unit 106 generates an captured image by performing image processing such as fringe scan calculation processing and development processing on the projected image input from the image sensor 103, and outputs the captured image to the controller 108. The image processing unit 106 is realized by, for example, a dedicated image processing circuit or a computer.

<撮像装置101による撮像原理>
ここで、撮像装置101による撮像原理について説明する。
<Principle of imaging by imaging device 101>
Here, the imaging principle by the imaging device 101 will be described.

はじめに、撮像用パターン105について説明する。撮像用パターン105は、中心からの距離に反比例して間隔が細かくなる複数の同心円からなるパターン(模様)である。撮像用パターン105は、同心円の中心を基準座標とし、基準座標からの半径r、係数βを用いて次式(1)のように表される。 First, the imaging pattern 105 will be described. The imaging pattern 105 is a pattern (pattern) composed of a plurality of concentric circles whose intervals become finer in inverse proportion to the distance from the center. The imaging pattern 105 is expressed by the following equation (1) using the center of the concentric circle as the reference coordinate, the radius r from the reference coordinate, and the coefficient β.

Figure 2021005786
Figure 2021005786

なお、撮像用パターン105は、実際に光を透過させる用途に用いるので、負の値となっては不都合であるため、COS値に1を加算してオフセットさせている。撮像用パターン105は、式(1)に比例して透過する光の透過率を変調する。このような複数の同心円からなる縞模様は、ガボールゾーンプレートまたはフレネルゾーンプレート等と称される。 Since the imaging pattern 105 is used for actually transmitting light, it is inconvenient if it has a negative value, so 1 is added to the COS value to offset it. The imaging pattern 105 modulates the transmittance of transmitted light in proportion to the equation (1). Such a striped pattern consisting of a plurality of concentric circles is called a Gabor zone plate, a Fresnel zone plate, or the like.

図4は、式(1)に対応するガボールゾーンプレートの一例を示している。図5は、式(1)のI(r)を、1を閾値として2値化したフレネルゾーンプレートの一例を示している。 FIG. 4 shows an example of a Gabor zone plate corresponding to the formula (1). FIG. 5 shows an example of a Fresnel zone plate in which I (r) of the formula (1) is binarized with 1 as a threshold value.

なお、以下においては、説明を簡単化するため、x方向についてのみ数式を用いて説明するが、y方向についてもx方向と同様に処理することにより、x方向及びy方向の2次元に展開することが可能である。 In the following, in order to simplify the explanation, only the x direction will be described using a mathematical formula, but the y direction will be expanded into two dimensions in the x direction and the y direction by processing in the same manner as in the x direction. It is possible.

次に、図6は、パターン基板104に対して斜め入射した平行光が画像センサ103上でシフトすることを説明するための図である。 Next, FIG. 6 is a diagram for explaining that the parallel light obliquely incident on the pattern substrate 104 shifts on the image sensor 103.

同図に示されるように、撮像用パターン105が形成されている厚さdのパターン基板104に対し、x方向に角度θで平行光が入射した場合、パターン基板104の中の屈折角をθとすれば、幾何光学的には、撮像用パターン105の透過率が乗じられた光が、k=d・tanθだけシフトして画像センサ103に入射する。そして、次式(2)によって表される強度分布を有する投影像が画像センサ103によって生成される。 As shown in the figure, when parallel light is incident on the pattern substrate 104 having a thickness d on which the imaging pattern 105 is formed at an angle θ 0 in the x direction, the refraction angle in the pattern substrate 104 is determined. If θ is set, geometrically, the light multiplied by the transmittance of the imaging pattern 105 is shifted by k = d · tan θ and incident on the image sensor 103. Then, the image sensor 103 generates a projected image having an intensity distribution represented by the following equation (2).

Figure 2021005786
Figure 2021005786

式(2)におけるΦは、式(1)によって表される撮像用パターン105の透過率分布の初期位相である。 Φ in the equation (2) is the initial phase of the transmittance distribution of the imaging pattern 105 represented by the equation (1).

次に、図7は、式(1)によって表される撮像用パターン105を通過し、画像センサ103に入射して得られた投影像の一例を示している。同図に示されるように、投影像は、撮像用パターン105に比べて、式(2)のようにkだけずれたものとなる。 Next, FIG. 7 shows an example of a projected image obtained by passing through the imaging pattern 105 represented by the equation (1) and incident on the image sensor 103. As shown in the figure, the projected image is deviated by k as shown in the equation (2) as compared with the imaging pattern 105.

ここで、画像処理部106における現像処理について説明する。画像処理部106における現像処理では、相関現像方式またはモアレ現像方式の一方により現像処理を実行する。図8は、現像処理に用いる現像用パターン801の一例である。 Here, the development process in the image processing unit 106 will be described. In the development process in the image processing unit 106, the development process is executed by either the correlation development method or the moire development method. FIG. 8 is an example of a developing pattern 801 used in the developing process.

はじめに、相関現像方式について説明する。相関現像方式では、撮像用パターン105を通過した光の投影像(図7)と、現像用パターン801(図8)との相互相関関数を演算することによって現像画像を得る。 First, the correlation development method will be described. In the correlation development method, a developed image is obtained by calculating a cross-correlation function between the projected image of light passing through the imaging pattern 105 (FIG. 7) and the developing pattern 801 (FIG. 8).

図9は、相関現像方式による現像画像の一例を示している。同図に示されるように、相関現像方式による現像画像には、シフト量kの輝点が出現する。 FIG. 9 shows an example of a developed image by the correlation development method. As shown in the figure, bright spots with a shift amount k appear in the developed image by the correlation development method.

なお、一般的に、相互相関関数の演算は、2次元畳み込み演算によって行うと演算量が大きくなる。そこで、本実施の形態では、相互相関関数の演算における演算量がより少なくなるように、フーリエ変換を用いて演算する。以下、フーリエ変換を用いて相互相関関数の演算を行う原理について説明する。 In general, if the cross-correlation function is calculated by a two-dimensional convolution operation, the amount of calculation becomes large. Therefore, in the present embodiment, the Fourier transform is used to perform the calculation so that the amount of calculation in the calculation of the cross-correlation function is smaller. The principle of calculating the cross-correlation function using the Fourier transform will be described below.

投影像との相互相関関数を演算する現像用パターン801(図8)は、撮像用パターン105と同様、ガボールゾーンプレートやフレネルゾーンプレートを用いる。したがって、現像用パターン801は、初期位相Φを用いて次式(3)のように表すことができる。 As the developing pattern 801 (FIG. 8) for calculating the cross-correlation function with the projected image, a Gabor zone plate or a Fresnel zone plate is used as in the imaging pattern 105. Therefore, the developing pattern 801 can be expressed by the following equation (3) using the initial phase Φ.

Figure 2021005786
Figure 2021005786

現像用パターン801は、現像処理にて演算に使用するだけであり、撮像用パターン105のように光を透過させる用途には用いないので、負の値となってもよい。よって、現像用パターン801を表す式(3)は、撮像用パターン105を表す式(1)のように1を加算してオフセットさせる必要はない。 Since the development pattern 801 is only used for calculation in the development process and is not used for transmitting light like the imaging pattern 105, it may have a negative value. Therefore, the equation (3) representing the developing pattern 801 does not need to be offset by adding 1 as in the equation (1) representing the imaging pattern 105.

式(1),(3)のフーリエ変換の結果は、次式(4),(5)に示すとおりである。 The results of the Fourier transform of equations (1) and (3) are as shown in the following equations (4) and (5).

Figure 2021005786
Figure 2021005786

Figure 2021005786
Figure 2021005786

式(4),(5)におけるFはフーリエ変換演算、uはx方向の周波数座標を表す。式(4)におけるδは、デルタ関数である。F,u,δについては、以降の式においても同様とする。 In equations (4) and (5), F represents the Fourier transform operation, and u represents the frequency coordinates in the x direction. Δ in equation (4) is a delta function. The same applies to F, u, and δ in the following equations.

式(4),(5)で重要なことは、フーリエ変換後においても、フレネルゾーンプレートやガボールゾーンプレートを表す成分を含んでいる点である。よって、式(4),(5)に基づいてフーリエ変換後の現像用パターンを直接的に生成してもよい。これにより演算量の低減が可能となる。 What is important in the equations (4) and (5) is that even after the Fourier transform, the components representing the Fresnel zone plate and the Gabor zone plate are included. Therefore, the development pattern after the Fourier transform may be directly generated based on the equations (4) and (5). This makes it possible to reduce the amount of calculation.

次に、式(4)と式(5)とを乗算して次式(6)を得る。 Next, the following equation (6) is obtained by multiplying the equation (4) and the equation (5).

Figure 2021005786
Figure 2021005786

式(6)における指数関数で表された項e(−iku)が信号成分であり、この項を逆フーリエ変換すれば、次式(7)に示す点拡がり関数を得ることができる。 The term e (-iku) represented by the exponential function in the equation (6) is a signal component, and by performing an inverse Fourier transform on this term, the point spread function shown in the following equation (7) can be obtained.

Figure 2021005786
Figure 2021005786

式(7)は、図9に示された現像画像のように、元のx軸において、基準座標からkだけずれた位置の輝点を表す。この輝点は、無限遠の光束を示しており、現像画像(図9)は、撮像部102によって撮像された画像にほかならない。 Equation (7) represents a bright spot at a position deviated by k from the reference coordinates on the original x-axis, as in the developed image shown in FIG. This bright spot indicates a luminous flux at infinity, and the developed image (FIG. 9) is nothing but an image captured by the imaging unit 102.

なお、式(6)には、信号成分以外の項も存在し、これがノイズとなるため、フリンジスキャン演算処理によるノイズキャンセルを行う(詳細後述)。 In addition, since the term (6) also has a term other than the signal component, which becomes noise, noise cancellation is performed by fringe scan calculation processing (details will be described later).

また、相関現像方式の場合、撮像用パターン105及び現像用パターン801は、そのパターンの自己相関関数が単一のピークを有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されず、例えばランダムなパターンであってもよい。 Further, in the case of the correlation development method, the imaging pattern 105 and the developing pattern 801 are not limited to the Fresnel zone plate and the Gabor zone plate as long as the autocorrelation function of the patterns has a single peak, for example. It may be a random pattern.

次に、モアレ現像方式について説明する。モアレ現像方式では、撮像用パターン105を通過した光の投影像(図7)と、現像用パターン801(図8)とを乗算することによりモアレ縞を生成し、モアレ稿をフーリエ変換することによって現像画像を得る。 Next, the moire development method will be described. In the moire development method, moire fringes are generated by multiplying the projected image of light passing through the imaging pattern 105 (FIG. 7) and the developing pattern 801 (FIG. 8), and the moire manuscript is subjected to Fourier transform. Obtain a developed image.

図10は、撮像用パターン105を通過した光の投影像(図7)と、現像用パターン801(図8)とを乗算することによって得られるモアレ縞の一例を示している。このモアレ縞は、次式(8)によって表される。 FIG. 10 shows an example of moire fringes obtained by multiplying the projected image of light passing through the imaging pattern 105 (FIG. 7) and the developing pattern 801 (FIG. 8). The moire fringes are represented by the following equation (8).

Figure 2021005786
Figure 2021005786

式(8)の展開式における第3項が信号成分であり、図10に示されるように、投影像(図7)と、現像用パターン801(図8)とのパターンのずれの方向(図面横方向)と直交する等間隔の縞模様が、投影像(図7)と、現像用パターン801(図8)とのパターンが重なり合う領域の全体に生じていることが分かる。このような縞と縞との重ね合わせによって相対的に低い空間周波数で生じる縞がモアレ縞である。 The third term in the expansion formula of the formula (8) is a signal component, and as shown in FIG. 10, the direction of pattern deviation between the projected image (FIG. 7) and the developing pattern 801 (FIG. 8) (drawing). It can be seen that striped patterns at equal intervals orthogonal to the lateral direction are generated in the entire region where the projected image (FIG. 7) and the developing pattern 801 (FIG. 8) overlap. Moire fringes are fringes that occur at a relatively low spatial frequency due to the superposition of such fringes.

式(8)の展開式における第3項に2次元フーリエ変換を行えば、次式(9)に示す点拡がり関数を得ることができる。 By performing a two-dimensional Fourier transform on the third term in the expansion equation of the equation (8), the point spread function shown in the following equation (9) can be obtained.

Figure 2021005786
Figure 2021005786

また、式(9)から、モアレ縞の空間周波数スペクトルにおいて、空間周波数のピークがu=±kβ/πの位置に生じることが分かる。 Further, from the equation (9), it can be seen that the peak of the spatial frequency occurs at the position of u = ± kβ / π in the spatial frequency spectrum of the moire fringes.

図11は、モアレ縞をフーリエ変換することによって得られる現像画像の一例を示している。同図に示されるように、モアレ現像方式による現像画像には、シフト量±kβ/πの輝点が出現する。この輝点は、無限遠の光束を示しており、撮像部102によって撮像された画像にほかならない。 FIG. 11 shows an example of a developed image obtained by Fourier transforming moire fringes. As shown in the figure, bright spots with a shift amount of ± kβ / π appear in the developed image by the moire development method. This bright spot indicates a luminous flux at infinity, and is nothing but an image captured by the imaging unit 102.

なお、式(8)には、信号成分以外の項も存在し、これがノイズとなるため、フリンジスキャン演算処理によるノイズキャンセルを行う(詳細後述)。 In addition, since the term (8) also has a term other than the signal component, which becomes noise, noise cancellation is performed by fringe scan calculation processing (details will be described later).

また、モアレ現像方式の場合、撮像用パターン105及び現像用パターン801のパターンは、両者を乗算して得られるモアレ縞が単一の周波数を有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されず、例えば楕円状のパターンであってもよい。 Further, in the case of the moire development method, the patterns of the imaging pattern 105 and the developing pattern 801 can be applied to the Fresnel zone plate or the Gabor zone plate as long as the moire fringes obtained by multiplying the two have a single frequency. The pattern is not limited, and may be, for example, an elliptical pattern.

<フリンジスキャン演算に基づくノイズキャンセル>
次に、式(6)及び式(8)における信号成分以外の項に起因するノイズをフリンジスキャン演算処理によってキャンセルする方法について説明する。
<Noise cancellation based on fringe scan calculation>
Next, a method of canceling noise caused by terms other than the signal components in the equations (6) and (8) by the fringe scan calculation process will be described.

フリンジスキャン演算処理を行うためには、初期位相Φが異なる複数の撮像用パターン105を使用して撮像を行う必要がある。 In order to perform the fringe scan calculation process, it is necessary to perform imaging using a plurality of imaging patterns 105 having different initial phases Φ.

図12は、初期位相Φが異なる4種類の撮像用パターン105の例を示しており、左側から順に、初期位相Φが0,π/2,π,3π/2撮像用パターン105を示している。 FIG. 12 shows an example of four types of imaging patterns 105 having different initial phases Φ, and shows patterns 105 having initial phases Φ of 0, π / 2, π, 3π / 2 in order from the left side. ..

初期位相Φ(0,π/2,π,3π/2)が異なる4種類の撮像用パターン105を用いて4枚のセンサ画像を撮像し、次式(10)に従って演算すると複素数のセンサ画像(以下、複素センサ画像と称する)を得ることができる。 Four sensor images are imaged using four types of imaging patterns 105 having different initial phases Φ (0, π / 2, π, 3π / 2), and a complex number sensor image (10) is calculated according to the following equation (10). Hereinafter referred to as a complex sensor image) can be obtained.

Figure 2021005786
Figure 2021005786

複素センサ画像に対応する現像用パターン801は、次式(11)に示すとおりとなる。 The development pattern 801 corresponding to the complex sensor image is as shown in the following equation (11).

Figure 2021005786
Figure 2021005786

なお、式(11)には複素数を含んでいるが、複素センサ画像に対応する現像用パターン801は、実際に光を透過させるわけではなく、フリンジスキャン演算処理に用いるだけなので複素数であっても問題ない。 Although the equation (11) includes a complex number, the development pattern 801 corresponding to the complex sensor image does not actually transmit light and is only used for the fringe scan calculation process, so even if it is a complex number. no problem.

モアレ現像方式の場合には、複素センサ画像を表す式(10)と、現像用パターン801を表す式(11)とを乗算して次式(12)を得る。 In the case of the moire development method, the equation (10) representing the complex sensor image is multiplied by the equation (11) representing the development pattern 801 to obtain the following equation (12).

Figure 2021005786
Figure 2021005786

式(12)における指数関数で表された項exp(2iβkx)が信号成分であり、式(8)のように信号成分以外の項が存在しないので、ノイズが除去されていることが分かる。 Since the term exp (2iβkx) represented by the exponential function in the equation (12) is the signal component and there is no term other than the signal component as in the equation (8), it can be seen that the noise is removed.

一方、相関現像方式の場合には、複素センサ画像を表す式(10)と、現像用パターン801をそれぞれフーリエ変換して次式(13),(14)を得る。 On the other hand, in the case of the correlation development method, the equation (10) representing the complex sensor image and the development pattern 801 are Fourier transformed, respectively, to obtain the following equations (13) and (14).

Figure 2021005786
Figure 2021005786

Figure 2021005786
Figure 2021005786

次に、式(13)と式(14)とを乗算して次式(15)を得る。 Next, the following equation (15) is obtained by multiplying the equation (13) and the equation (14).

Figure 2021005786
Figure 2021005786

式(15)における指数関数で表された項exp(−iku)が信号成分であり、式(6)のように信号成分以外の項が存在しないので、ノイズが除去されていることが分かる。 Since the term exp (-iku) represented by the exponential function in the equation (15) is the signal component and there is no term other than the signal component as in the equation (6), it can be seen that the noise is removed.

なお、上述したフリンジスキャン演算処理によるノイズキャンセルの説明では、初期位相Φが異なる4枚の撮像用パターン105を用いたが、フリンジスキャンに用いる撮像用パターン105の数は4に限らない。例えば、N(Nは2以上の整数)枚の撮像用パターン105を用いる場合、初期位相Φは0〜2πの間の角度[rad]をN等分して設定すればよい。 In the above description of noise cancellation by the fringe scan calculation process, four imaging patterns 105 having different initial phases Φ are used, but the number of imaging patterns 105 used for the fringe scan is not limited to four. For example, when using N (N is an integer of 2 or more) imaging patterns 105, the initial phase Φ may be set by dividing the angle [rad] between 0 and 2π into N equal parts.

初期位相Φが異なる複数の撮像用パターン105を用いて撮像を行うには、時分割で撮像用パターン105を切り替える方法と、空間分割で初期位相Φが異なる複数の撮像用パターン105を配置する方法がある。 In order to perform imaging using a plurality of imaging patterns 105 having different initial phases Φ, a method of switching the imaging patterns 105 by time division and a method of arranging a plurality of imaging patterns 105 having different initial phases Φ by spatial division. There is.

時分割で撮像用パターン105を切り替える方法は、例えば、初期位相Φが異なる複数の撮像用パターン105を切り替えて表示することが可能な液晶表示素子等を、撮像用パターン105として使用すればよい。この液晶表示素子の切替タイミングと画像センサ103のシャッタタイミングを同期させて撮像を行い、その結果得られた4枚のセンサ画像を画像処理部106に出力し、画像処理部106においてフリンジスキャン演算処理を実行すればよい。 As a method of switching the imaging pattern 105 by time division, for example, a liquid crystal display element or the like capable of switching and displaying a plurality of imaging patterns 105 having different initial phases Φ may be used as the imaging pattern 105. Imaging is performed in synchronization with the switching timing of the liquid crystal display element and the shutter timing of the image sensor 103, and the four sensor images obtained as a result are output to the image processing unit 106, and the image processing unit 106 performs fringe scan calculation processing. Just execute.

一方、空間分割で初期位相Φが異なる複数の撮像用パターン105を配置する方法は、初期位相Φが異なる複数の撮像用パターン105を空間的に組み合わせて1枚の撮像用パターン105を生成する。そして、該1枚の撮像用パターン105を用いて撮像を行い、その結果得られたセンサ画像を画像処理部106にて4枚に分割してからフリンジスキャン演算処理を実行すればよい。 On the other hand, in the method of arranging a plurality of imaging patterns 105 having different initial phases Φ by spatial division, a plurality of imaging patterns 105 having different initial phases Φ are spatially combined to generate one imaging pattern 105. Then, imaging may be performed using the one imaging pattern 105, and the sensor image obtained as a result may be divided into four by the image processing unit 106, and then the fringe scan calculation process may be executed.

図13は、図12に示された初期位相Φが異なる4枚の撮像用パターンを空間的に組み合わせた撮像用パターン105の一例である。なお、図13に示されたような1枚の撮像用パターン105を構成する初期位相Φが異なる4数の撮像用パターンを、以下、基本撮像用パターンと称する。 FIG. 13 is an example of an imaging pattern 105 in which four imaging patterns having different initial phases Φ shown in FIG. 12 are spatially combined. It should be noted that the four imaging patterns having different initial phases Φ constituting one imaging pattern 105 as shown in FIG. 13 are hereinafter referred to as basic imaging patterns.

<画像処理部106による画像処理>
次に、図14は、画像処理部106によるフリンジスキャン演算処理の一例を説明するフローチャートである。
<Image processing by image processing unit 106>
Next, FIG. 14 is a flowchart illustrating an example of fringe scan calculation processing by the image processing unit 106.

フリンジスキャン演算処理は、例えば、画像処理部106に対し、画像センサ103からセンサ画像が入力されたときに開始される。なお、画像センサ103からは、初期位相Φが異なる複数の撮像用パターン105をそれぞれ用いて撮像した複数のセンサ画像が入力される場合(以下、時分割フリンジスキャンの場合と称する)と、初期位相Φが異なる複数の基本撮像用パターンを空間的に組み合わせた1枚の撮像用パターン105を用いて撮像した1枚のセンサ画像が入力される場合(以下、空間分割フリンジスキャンの場合と称する)とがある。 The fringe scan calculation process is started, for example, when a sensor image is input from the image sensor 103 to the image processing unit 106. When a plurality of sensor images captured by using a plurality of imaging patterns 105 having different initial phases Φ are input from the image sensor 103 (hereinafter, referred to as a time-divided fringe scan), the initial phase When a single sensor image captured using one imaging pattern 105 in which a plurality of basic imaging patterns having different Φs are spatially combined is input (hereinafter, referred to as a space division fringe scan). There is.

はじめに、画像処理部106は、空間分割フリンジスキャンの場合、1枚の撮像用パターン105をなす基本撮像用パターンの数に合わせてセンサ画像を複数に分割する(ステップS1)。なお、時分割フリンジスキャンの場合、ステップS1は省略される。 First, in the case of the spatial division fringe scan, the image processing unit 106 divides the sensor image into a plurality of parts according to the number of basic imaging patterns forming one imaging pattern 105 (step S1). In the case of time-division fringe scan, step S1 is omitted.

次に、画像処理部106は、出力用の複素センサ画像を初期化する(ステップS2)。次に、画像処理部106は、1番目の初期位相Φに対応するセンサ画像を処理対象として取得し(ステップS3)、その初期位相Φに応じたexp(iΦ)をセンサ画像に乗算し(ステップS4)、その乗算結果を複素センサ画像に加算する(ステップS5)。 Next, the image processing unit 106 initializes the complex sensor image for output (step S2). Next, the image processing unit 106 acquires the sensor image corresponding to the first initial phase Φ as the processing target (step S3), and multiplies the sensor image by exp (iΦ) corresponding to the initial phase Φ (step). S4), the multiplication result is added to the complex sensor image (step S5).

次に、画像処理部106は、全ての初期位相Φにそれぞれ対応するセンサ画像を処理対象としたか否かを判定する(ステップS6)。ここで、全ての初期位相Φにそれぞれ対応するセンサ画像を処理対象としていないと判定した場合(ステップS6でNO)、画像処理部106は、処理をステップS3に戻して、ステップS3〜S6を繰り返す。例えば、図12に示されたように、初期位相Φが0,π/2,π,3π/2の4種類である場合、ステップS3〜S6は4回繰り返される。その後、全ての初期位相Φにそれぞれ対応するセンサ画像を処理対象としたと判定した場合(ステップS6でYES)、画像処理部106は、次に説明する現像処理に対して複素センサ画像を出力する(ステップS7)。以上で、画像処理部106によるフリンジスキャン演算処理は終了される。 Next, the image processing unit 106 determines whether or not the sensor images corresponding to all the initial phases Φ are processed targets (step S6). Here, when it is determined that the sensor images corresponding to all the initial phases Φ are not processed (NO in step S6), the image processing unit 106 returns the processing to step S3 and repeats steps S3 to S6. .. For example, as shown in FIG. 12, when the initial phase Φ is 0, π / 2, π, 3π / 2, steps S3 to S6 are repeated four times. After that, when it is determined that the sensor images corresponding to all the initial phases Φ are the processing targets (YES in step S6), the image processing unit 106 outputs the complex sensor image for the development processing described below. (Step S7). This completes the fringe scan calculation process by the image processing unit 106.

次に、画像処理部106による現像処理について説明する。 Next, the development process by the image processing unit 106 will be described.

図15は、画像処理部106による相関現像方式を採用した現像処理を含む画像処理の一例を説明するフローチャートである。 FIG. 15 is a flowchart illustrating an example of image processing including development processing adopting a correlation development method by the image processing unit 106.

該画像処理は、上述したフリンジスキャン演算処理から複素センサ画像が入力されたことに応じて開始される。 The image processing is started in response to the input of the complex sensor image from the fringe scan calculation processing described above.

はじめに、画像処理部106は、フリンジスキャン演算処理から入力された複素センサ画像に対して2次元FFT(高速フーリエ変換)演算を行う(ステップS11)。 First, the image processing unit 106 performs a two-dimensional FFT (Fast Fourier Transform) calculation on the complex sensor image input from the fringe scan calculation process (step S11).

次に、画像処理部106は、現像処理に使用する現像用パターン801を生成して2次元FFT演算後の複素センサ画像に乗算し(ステップS12)、逆2次元FFT演算を実行する(ステップS13)。ステップS13の演算結果は複素数となるため、画像処理部106は、演算結果を絶対値化するか、または実部を取り出して撮像対象の像を実数化して画像化することにより現像画像を生成する(ステップS14)。 Next, the image processing unit 106 generates a development pattern 801 to be used for the development process, multiplies it by the complex sensor image after the two-dimensional FFT calculation (step S12), and executes the inverse two-dimensional FFT calculation (step S13). ). Since the calculation result in step S13 is a complex number, the image processing unit 106 generates a developed image by converting the calculation result into an absolute value or by taking out the real part and converting the image to be imaged into a real number and imaging it. (Step S14).

次に、画像処理部106は、得られた現像画像に対してコントラスト強調処理(ステップS15)、カラーバランス調整処理(ステップS16)等を行い、撮像画像としてコントローラ108に出力する。以上で、画像処理は終了される。 Next, the image processing unit 106 performs contrast enhancement processing (step S15), color balance adjustment processing (step S16), and the like on the obtained developed image, and outputs the captured image to the controller 108. This completes the image processing.

次に、図16は、画像処理部106によるモアレ現像方式を採用した現像処理を含む画像処理の一例を説明するフローチャートである。 Next, FIG. 16 is a flowchart illustrating an example of image processing including development processing adopting a moire development method by the image processing unit 106.

該画像処理は、上述したフリンジスキャン演算処理から複素センサ画像が入力されたことに応じて開始される。 The image processing is started in response to the input of the complex sensor image from the fringe scan calculation processing described above.

はじめに、画像処理部106は、現像処理に使用する現像用パターン801を生成してフリンジスキャン演算処理から入力された複素センサ画像に対して乗算し(ステップS21)、2次元FFT(高速フーリエ変換)演算を行うことにより周波数スペクトルを求め(ステップS22)、この周波数スペクトルのうち、必要な周波数領域のデータを切り出す(ステップS23)。 First, the image processing unit 106 generates a development pattern 801 to be used for the development process, multiplies it by the complex sensor image input from the fringe scan calculation process (step S21), and performs a two-dimensional FFT (fast Fourier transform). A frequency spectrum is obtained by performing an operation (step S22), and data in a necessary frequency domain is cut out from this frequency spectrum (step S23).

必要な周波数領域のデータは複素数となるため次に、画像処理部106は、該データを絶対値化するか、または実部を取り出して撮像対象の像を実数化して画像化することにより現像画像を生成する(ステップS24)。 Since the data in the required frequency region is a complex number, the image processing unit 106 then converts the data into an absolute value, or takes out the real part and converts the image to be imaged into a real number and images the developed image. Is generated (step S24).

次に、画像処理部106は、得られた現像画像に対してコントラスト強調処理(ステップS25)、カラーバランス調整処理(ステップS26)等を行った後、撮像画像としてコントローラ108に出力する。以上で、画像処理は終了される。 Next, the image processing unit 106 performs contrast enhancement processing (step S25), color balance adjustment processing (step S26), and the like on the obtained developed image, and then outputs the captured image to the controller 108. This completes the image processing.

<有限距離物体の撮像原理>
ここまでは、撮像の対象とする物体が無限距離に存在していることを前提として説明した。図17は、撮像の対象とする物体が無限距離に存在している場合における撮像用パターン105の画像センサ103への射影の様子を示している。
<Principle of imaging finite-distance objects>
Up to this point, the description has been made on the assumption that the object to be imaged exists at an infinite distance. FIG. 17 shows how the imaging pattern 105 is projected onto the image sensor 103 when the object to be imaged exists at an infinite distance.

同図に示されるように、無限遠の物体を構成する点1701からの球面波は、十分に長い距離を伝搬する間に平面波となって撮像用パターン105を透過し、画像センサ103に入射する。したがって、画像センサ103にて得られる投影像1702は撮像用パターン105とほぼ同じ形状となる。この結果、投影像1702に対して、現像用パターンを用いて現像処理を行うことにより、単一の輝点を得ることが可能とある。 As shown in the figure, the spherical wave from the point 1701 constituting the object at infinity becomes a plane wave while propagating a sufficiently long distance, passes through the imaging pattern 105, and is incident on the image sensor 103. .. Therefore, the projected image 1702 obtained by the image sensor 103 has substantially the same shape as the imaging pattern 105. As a result, it is possible to obtain a single bright spot by performing a developing process on the projected image 1702 using a developing pattern.

次に、撮像の対象とする物体が有限距離に存在している場合について説明する。 Next, a case where the object to be imaged exists at a finite distance will be described.

図18は、撮像の対象とする物体が有限距離に存在している場合における撮像用パターン105の画像センサ103への射影の様子を示している。 FIG. 18 shows how the imaging pattern 105 is projected onto the image sensor 103 when the object to be imaged exists at a finite distance.

同図に示されるように、有限遠の物体を構成する点1801からの球面波は、球面波の状態で撮像用パターン105を透過し、画像センサ103に入射する。よって、画像センサ103にて得られる投影像1802は、撮像用パターン105がほぼ一様に拡大されたものとなる。なお、この拡大率αは、点1801から撮像用パターン105までの距離fを用いて、次式(16)により算出できる。 As shown in the figure, the spherical wave from the point 1801 constituting the object at a finite distance passes through the imaging pattern 105 in the state of the spherical wave and is incident on the image sensor 103. Therefore, in the projected image 1802 obtained by the image sensor 103, the imaging pattern 105 is enlarged substantially uniformly. The enlargement ratio α can be calculated by the following equation (16) using the distance f from the point 1801 to the imaging pattern 105.

Figure 2021005786
Figure 2021005786

このように、撮像の対象とする物体が有限距離に存在している場合、投影像1802は、撮像用パターン105を拡大率αしたものとなるため、平行光に対して設計された現像用パターンをそのまま用いて現像処理を行った場合、単一の輝点を得ることができない。 In this way, when the object to be imaged exists at a finite distance, the projected image 1802 is a magnifying power α of the imaging pattern 105, and thus a developing pattern designed for parallel light. When the development process is performed using the above as it is, a single bright spot cannot be obtained.

このような場合、現像用パターンを、投影像1802に合わせて、現像用パターン801を拡大させて用いれば、撮像の対象とする物体が有限距離に存在している場合と同様、単一の輝点を得ることができる。 In such a case, if the development pattern 801 is enlarged and used in accordance with the projected image 1802, a single brightness is obtained as in the case where the object to be imaged exists at a finite distance. You can get points.

また、このような場合、現像用パターン801は、式(3)における係数βを、β/αに置換することで補正が可能である。これにより、必ずしも無限遠でない距離の点1801からの光を選択的に現像画像上に再生することができる。これによって、任意の位置に焦点合わせて撮像を行うことができる。 Further, in such a case, the developing pattern 801 can be corrected by replacing the coefficient β in the equation (3) with β / α 2 . As a result, the light from the point 1801 at a distance not necessarily infinity can be selectively reproduced on the developed image. As a result, the image can be focused on an arbitrary position.

<グリッドノイズの発生>
以上の説明では、画像センサ103の大きさが無限に大きい理想的な状況を想定していた。したがって、撮像用パターン105の投影像も外側まで無限に続いていることを想定していた。
<Generation of grid noise>
In the above description, an ideal situation is assumed in which the size of the image sensor 103 is infinitely large. Therefore, it was assumed that the projected image of the imaging pattern 105 also continued infinitely to the outside.

しかしながら、画像センサ103の大きさは有限であるため、以下においては、画像センサ103の大きさが有限である現実的な状況について説明する。 However, since the size of the image sensor 103 is finite, a realistic situation in which the size of the image sensor 103 is finite will be described below.

画像センサ103の大きさが有限である場合、式(7)や式(9)によって示されていた点拡がり関数が変化し、現像画像にグリッドノイズが生じる。以下、現像画像に生じるグリッドノイズについて説明する。 When the size of the image sensor 103 is finite, the point spread function represented by the equations (7) and (9) changes, and grid noise is generated in the developed image. The grid noise generated in the developed image will be described below.

現像画像におけるグリッドノイズの発生は、撮像部102の設計値に依存している。はじめに、画像センサ103の大きさが有限である場合に点拡がり関数が変化することを説明する。 The generation of grid noise in the developed image depends on the design value of the imaging unit 102. First, it will be described that the point spread function changes when the size of the image sensor 103 is finite.

画像センサ103の大きさが有限である場合、画像センサ103上で検出される投影像の大きさも有限となる。画像センサ103がx方向に−sから+sまでの幅を有すると、撮像用パターン105の投影像を表す式(2)は、次式(17)に示されるとおりとなる。 When the size of the image sensor 103 is finite, the size of the projected image detected on the image sensor 103 is also finite. When the image sensor 103 has a width from −s to + s in the x direction, the equation (2) representing the projected image of the imaging pattern 105 is as shown in the following equation (17).

Figure 2021005786
Figure 2021005786

式(17)における矩形関数rect(x)は、次式(18)に示すとおりである。 The rectangular function rect (x) in the equation (17) is as shown in the following equation (18).

Figure 2021005786
Figure 2021005786

この場合、図6に示されたように、撮像用パターン105が形成されている厚さdのパターン基板104に対し、x方向に角度θで平行光が入射したとき現像画像を表す点拡がり関数は、式(7)から次式(19)に変化する。 In this case, as shown in FIG. 6, a point spread representing a developed image when parallel light is incident on a pattern substrate 104 having a thickness d on which an imaging pattern 105 is formed at an angle θ 0 in the x direction. The function changes from equation (7) to equation (19).

Figure 2021005786
Figure 2021005786

すなわち、点拡がり関数が、δ関数からsin(2βs(x+k))/(2βs(x+k))・cos(β(x+k))へと、サイドローブを持つ関数に変化する。ここでサイドローブとは、メインローブの他に少なくとも一度出現する顕著な振動成分を指す。 That is, the point spread function changes from the δ function to sin (2βs (x + k)) / (2βs (x + k)) · cos (β (x + k) 2 ), which is a function having a side lobe. Here, the side lobe refers to a remarkable vibration component that appears at least once in addition to the main lobe.

図19及び図20は、画像センサ103の大きさが異なる場合の、サイドローブを有する点広がり関数の例を示しており、図19は、画像センサ103の大きさが小さい方に対応する点広がり関数であり、図20が画像センサ103の大きさが大きい方に対応する点広がり関数である。 19 and 20 show an example of a point spread function having a side lobe when the size of the image sensor 103 is different, and FIG. 19 shows a point spread corresponding to the smaller size of the image sensor 103. It is a function, and FIG. 20 is a point spread function corresponding to the larger size of the image sensor 103.

図19及び図20からわかるように、サイドローブは、画像センサ103の大きさが小さいほど、その振動の収束が遅くなる。一方、メインローブは、画像センサ103の大きさが小さいほど、その拡がりが広くなる。なお、図示は省略するが、サイドローブは、撮像用パターン105が粗いほど、その振動の収束が遅くなる。一方、メインローブは、撮像用パターン105が粗いほど、その拡がりが広くなる。 As can be seen from FIGS. 19 and 20, the smaller the size of the image sensor 103, the slower the convergence of the vibration of the side lobe. On the other hand, the smaller the size of the image sensor 103, the wider the main lobe. Although not shown, the coarser the imaging pattern 105 of the side lobe, the slower the convergence of the vibration. On the other hand, the coarser the imaging pattern 105, the wider the main lobe.

以下、式(19)においてk=0としたときの点拡がり関数を、PSF(x)と称する。 Hereinafter, the point spread function when k = 0 in the equation (19) is referred to as PSF (x).

次に、点拡がり関数がサイドローブを有し、かつ、所定の条件下で現像画像にグリッドノイズが発生することについて説明する。 Next, it will be described that the point spread function has side lobes and grid noise is generated in the developed image under predetermined conditions.

はじめに、単一輝度(例えば、白色)の四角形の物体を撮像する場合を考える。図21は、単一輝度の四角形の物体の一例を示している。該物体は、x方向の幅が2Lであり、該物体を矩形関数rect(x/2L)と表した場合、現像画像r(x)は、次式(20)のように表される。ここで、単一輝度の四角形の物体を撮像撮影して得られる現像画像r(x)を、特にgrid(x)と表す。 First, consider the case of imaging a quadrangular object having a single brightness (for example, white). FIG. 21 shows an example of a single-luminance quadrangular object. When the object has a width of 2 L in the x direction and the object is represented by a rectangular function rect (x / 2 L), the developed image r (x) is represented by the following equation (20). Here, the developed image r (x) obtained by imaging and photographing a quadrangular object having a single brightness is particularly referred to as a grid (x).

Figure 2021005786
Figure 2021005786

図22は、図21に示された物体を撮像して得られる現像画像である。図23は、図21に示された単一輝度の物体の一次元プロファイルである。図24は、図22に示された現像画像の一次元プロファイルである。 FIG. 22 is a developed image obtained by imaging the object shown in FIG. 21. FIG. 23 is a one-dimensional profile of the single-luminance object shown in FIG. FIG. 24 is a one-dimensional profile of the developed image shown in FIG.

図24からわかるように、輝度が急激に変化する物体の縁の部分の周囲で、点拡がり関数のサイドローブの振動の影響が顕著に現れる。具体的には、サイドローブの形状で決まる縁からの距離で暗線と明線が繰り返される。これがグリッドノイズである。 As can be seen from FIG. 24, the influence of the vibration of the side lobe of the point spread function becomes remarkable around the edge portion of the object whose brightness changes rapidly. Specifically, dark lines and bright lines are repeated at a distance from the edge determined by the shape of the side lobe. This is grid noise.

一方、物体が単一輝度ではない場合、発生するノイズは太さや現れる位置が変化し、グリッド状ではない。数式で表すと、物体が単一輝度ではなく、その輝度分布が関数f(x)である場合、現像画像r(x)は、次式(21)のように表される。 On the other hand, when the object does not have a single brightness, the noise generated changes in thickness and appearance position, and is not grid-like. Expressed by a mathematical formula, when the object is not a single luminance and its luminance distribution is a function f (x), the developed image r (x) is expressed by the following equation (21).

Figure 2021005786
Figure 2021005786

しかしながら、物体が単一輝度に近い輝度分布を有する場合、グリッドノイズの位置を計算で近似することができる。物体が単一輝度に近い輝度分布を有する場合、輝度分布を表す関数f(x)は、微小量hを用いて次式(22)のように表される。 However, if the object has a brightness distribution close to a single brightness, the position of the grid noise can be approximated by calculation. When the object has a luminance distribution close to a single luminance, the function f (x) representing the luminance distribution is expressed by the following equation (22) using a minute amount h.

Figure 2021005786
Figure 2021005786

式(22)におけるo(x)は、物体の輝度分布から定数成分を差し引いたものである。これに対応する現像画像r(x)は、次式(23)のように表される。 O (x) in the equation (22) is obtained by subtracting the constant component from the luminance distribution of the object. The developed image r (x) corresponding to this is expressed by the following equation (23).

Figure 2021005786
Figure 2021005786

式(23)によって表される現像画像r(x)ではグリッドノイズが卓越しており、その出現はgrid(x)で表される。このように、物体が単一輝度に近い輝度分布を有する場合、撮像部102の設計値に依存した固定の位置にグリッドノイズが現れることになる。 Grid noise is predominant in the developed image r (x) represented by the equation (23), and its appearance is represented by grid (x). As described above, when the object has a brightness distribution close to a single brightness, grid noise appears at a fixed position depending on the design value of the imaging unit 102.

次に、現像画像に生じたグリッドノイズを除去する可能な撮像装置について説明する。 Next, an image pickup device capable of removing grid noise generated in the developed image will be described.

<本発明の第1の実施形態に係る撮像装置101の構成例>
図25は、本発明の第1の実施形態に係る撮像装置101の構成例を示している。撮像装置101は、撮像装置101(図1)に対して、撮像部102とコントローラ108との間に、グリッドノイズ除去部107及びグリッドノイズ情報出力部1071を追加したものである。なお、撮像装置101の構成要素のうち、撮像装置101の構成要素と共通するものについては、同一の符号を付して、その説明を省略する。
<Structure example of the image pickup apparatus 101 1 according to the first embodiment of the present invention>
FIG. 25 shows a configuration example of the image pickup apparatus 1011 according to the first embodiment of the present invention. The image pickup apparatus 101 1 is an image pickup apparatus 101 (FIG. 1) in which a grid noise removal unit 107 and a grid noise information output unit 1071 are added between the image pickup unit 102 and the controller 108. Of the components of the image pickup device 101 1 , those that are common to the components of the image pickup device 101 are designated by the same reference numerals, and the description thereof will be omitted.

グリッドノイズ除去部107は、グリッドノイズ情報grid(x)に基づき、画像処理部106から入力される現像画像r(x)に生じたグリッドノイズを除去して、コントローラ108に出力する。グリッドノイズ除去部107は、例えば、専用の画像処理回路、またはコンピュータによって実現される。 The grid noise removing unit 107 removes the grid noise generated in the developed image r (x) input from the image processing unit 106 based on the grid noise information grid (x), and outputs the grid noise to the controller 108. The grid noise removing unit 107 is realized by, for example, a dedicated image processing circuit or a computer.

グリッドノイズ情報出力部1071は、外部から入力される情報に基づき、グリッドノイズ情報grid(x)を生成してグリッドノイズ除去部107に出力する。 The grid noise information output unit 1071 generates grid noise information grid (x) based on information input from the outside and outputs it to the grid noise removal unit 107.

次に、図26は、撮像装置101におけるグリッドノイズ情報出力部1071の第1の構成例を示している。 Next, FIG 26 shows a first configuration example of a grid noise information output section 1071 in the image pickup apparatus 101 1.

グリッドノイズ情報出力部1071の第1の構成例は、撮像部設計値入力部1072、及びグリッドノイズ情報計算部1073を有する。 The first configuration example of the grid noise information output unit 1071 includes an imaging unit design value input unit 1072 and a grid noise information calculation unit 1073.

撮像部設計値入力部1072は、例えば、USBポート等の入力インターフェースからなり、外部(キーボード、半導体メモリ、PC(Personal Computer)等)から入力された撮像部設計値をグリッドノイズ情報計算部1073に出力する。 The imaging unit design value input unit 1072 comprises, for example, an input interface such as a USB port, and the imaging unit design value input from the outside (keyboard, semiconductor memory, PC (Personal Computer), etc.) is input to the grid noise information calculation unit 1073. Output.

ここで、撮像部設計値は、例えば、画像センサ103の大きさ、撮像用パターン情報、現像用パターン情報、視野の大きさ、物体と撮像用パターン105との距離f、及び撮像用パターン105と画像センサ103との距離d等を含むものとする。 Here, the image pickup unit design values include, for example, the size of the image sensor 103, the image pickup pattern information, the development pattern information, the field of view size, the distance f between the object and the image pickup pattern 105, and the image pickup pattern 105. It is assumed that the distance d and the like with the image sensor 103 are included.

グリッドノイズ情報計算部1073は、撮像部設計値入力部1072から入力された撮像部設計値に基づき、グリッドノイズ除去に必要なグリッドノイズ情報grid(x)を式(20)に従って計算し、グリッドノイズ除去部107に出力する。 The grid noise information calculation unit 1073 calculates the grid noise information grid (x) required for grid noise removal according to the equation (20) based on the image pickup unit design value input from the image pickup unit design value input unit 1072, and grid noise. Output to the removal unit 107.

グリッドノイズ除去部107は、次式(24)に示すように、現像画像r(x)をグリッドノイズ情報grid(x)で除算することにより、グリッドノイズ除去後の現像画像r’(x)を演算する。 As shown in the following equation (24), the grid noise removing unit 107 divides the developed image r (x) by the grid noise information grid (x) to obtain the developed image r'(x) after removing the grid noise. Calculate.

Figure 2021005786
Figure 2021005786

グリッドノイズ除去前の現像画像r(x)を表す式(23)と、式(24)と比較して明らかなように、式(23)は、(グリッドノイズ+物体)であったのに対し、式(24)は、(1+輝度が多少変化した物体)となり、式(24)からは、グリッドノイズが除去されていることがわかる。 As is clear from the comparison between the equation (23) representing the developed image r (x) before removing the grid noise and the equation (24), the equation (23) was (grid noise + object). , Equation (24) is (1 + an object whose brightness is slightly changed), and it can be seen from Equation (24) that grid noise is removed.

なお、図24に示されたように、視野内におけるグリッドノイズの輝度の変動の割合 (輝度の絶対値に対する輝度の分散)は、1よりも十分小さいため、物体の輝度の変化量も十分小さい。 As shown in FIG. 24, the rate of variation in the brightness of the grid noise in the field of view (dispersion of the brightness with respect to the absolute value of the brightness) is sufficiently smaller than 1, so that the amount of change in the brightness of the object is also sufficiently small. ..

したがって、式(22)で表されるような物体に関しては、グリッドノイズ除去の効果が物体の輝度が変化する影響を上回るので、本実施形態によるグリッドノイズ除去が有効に作用する。 Therefore, for an object represented by the equation (22), the effect of grid noise removal exceeds the effect of changing the brightness of the object, so that the grid noise removal according to the present embodiment works effectively.

特に、例えば、人の指静脈を検出するような場合において、人の指の赤外画像に生じたグリッドノイズに起因する指静脈の誤検出を抑止する手段として、本実施形態によるグリッドノイズ除去は非常に有効となる。これは、指の赤外画像には、ほぼ単一輝度の背景の中に、エッジが顕著ではない静脈が数本写る状態となるためである。 In particular, for example, in the case of detecting a human finger vein, the grid noise removal by the present embodiment is used as a means for suppressing erroneous detection of the finger vein due to the grid noise generated in the infrared image of the human finger. Very effective. This is because the infrared image of the finger shows several veins with inconspicuous edges in a background with almost single brightness.

なお、本実施形態によるグリッドノイズ除去は、単一輝度の物体を仮定して計算したグリッドノイズの情報を、より一般的な物体のグリッドノイズ除去にも用いることが可能である。 In the grid noise removal according to the present embodiment, the grid noise information calculated on the assumption of a single-luminance object can also be used for grid noise removal of a more general object.

ただし、例えば市松模様のように、単一輝度とは異なり、式(22)で表されない物体に対しては、本実施形態によるグリッドノイズ除去は適用できない。このような物体を撮像した現像画像に対して、本実施形態によるグリッドノイズ除去を行った場合、グリッドノイズ除去に起因する余計なノイズがさらに生じることになる。 However, unlike a single brightness, such as a checkerboard pattern, grid noise removal according to the present embodiment cannot be applied to an object not represented by the equation (22). When the grid noise removal according to the present embodiment is performed on the developed image obtained by capturing such an object, extra noise due to the grid noise removal will be further generated.

しかしながら、物体の現像画像に対して生じ得るこの余計なノイズは、本実施形態によるグリッドノイズ除去が利用されているか否かの判断に用いることができる。すなわち、格子サイズの異なる市松模様を複数撮像し、現像画像にノイズが生じている場合、本実施形態によるグリッドノイズ除去が利用されていると判断できる。また、市松模様の代わりに、二次元正規分布のような徐々に物体の縁で徐々に輝度が変化する物体を用いることも可能である。 However, this extra noise that can occur in the developed image of the object can be used to determine whether or not the grid noise removal according to the present embodiment is used. That is, when a plurality of checkered patterns having different grid sizes are imaged and noise is generated in the developed image, it can be determined that the grid noise removal according to the present embodiment is used. It is also possible to use an object whose brightness gradually changes at the edge of the object, such as a two-dimensional normal distribution, instead of the checkered pattern.

次に、図27は、撮像装置101におけるグリッドノイズ情報出力部1071の第2の構成例を示している。 Next, FIG. 27 shows a second configuration example of the grid noise information output section 1071 in the image pickup apparatus 101 1.

グリッドノイズ情報出力部1071の第2の構成例は、実測撮像結果入力部1074、及びグリッドノイズ情報抽出部1075を有する。 A second configuration example of the grid noise information output unit 1071 includes an actual measurement image pickup result input unit 1074 and a grid noise information extraction unit 1075.

実測撮像結果入力部1074は、例えば、USBポート等の入力インターフェースからなり、外部(半導体メモリ、PC等)から入力された実測撮像結果をグリッドノイズ情報抽出部1075に出力する。実測撮像結果とは、グリッドノイズが生じている現像画像である。 The actual measurement imaging result input unit 1074 comprises, for example, an input interface such as a USB port, and outputs the actual measurement imaging result input from the outside (semiconductor memory, PC, etc.) to the grid noise information extraction unit 1075. The actual measurement imaging result is a developed image in which grid noise is generated.

グリッドノイズ情報抽出部1075は、実測撮像結果からグリッドノイズ情報grid(x)を抽出してグリッドノイズ除去部107に出力する。具体的には、グリッドノイズ情報抽出部1075は、実測撮像結果としての現像画像に対し、内蔵する高域通過濾波器を用いてグリッドノイズ情報grid(x)を抽出する。また、実測撮像結果の信号が弱い場合、実測撮像結果を平滑化する処理が必要となる。 The grid noise information extraction unit 1075 extracts the grid noise information grid (x) from the actual measurement imaging result and outputs it to the grid noise removal unit 107. Specifically, the grid noise information extraction unit 1075 extracts the grid noise information grid (x) from the developed image as the actual measurement imaging result by using the built-in high-pass filter. Further, when the signal of the actually measured imaging result is weak, a process for smoothing the actually measured imaging result is required.

ここで、実測撮像結果の最も単純な例としては、単一輝度の物体を撮像して得られた現像画像を挙げることができる。この現像画像は、そのままグリッドノイズ情報grid(x)に対応するので、グリッドノイズ情報抽出部1075では特に処理を行わず、入力された現像画像をそのままグリッドノイズ情報grid(x)としてグリッドノイズ除去部107に出力する。 Here, as the simplest example of the actual measurement imaging result, a developed image obtained by imaging an object having a single brightness can be mentioned. Since this developed image directly corresponds to the grid noise information grid (x), the grid noise information extraction unit 1075 does not perform any particular processing, and the input developed image is used as the grid noise information grid (x) as it is in the grid noise removal unit. Output to 107.

ただし、実測撮像結果を得るために撮像する物体は、単一輝度のものに限る必要はない。既知の任意の物体を撮像した結果を実測撮像結果入力部1074に入力し、グリッドノイズ情報抽出部1075にて撮像結果と既知の物体情報を比較することで、グリッドノイズ情報grid(x)を得ることも可能である。具体的には、撮像結果と既知の物体情報から点拡がり関数PSF(x)を算出し、式(20)に従ってグリッドノイズ情報grid(x)を計算する。また必要に応じて、グリッドノイズ情報grid(x)に高域通過濾波器や平滑化の適用を行う。 However, the object to be imaged in order to obtain the actual measurement imaging result does not have to be limited to a single-luminance object. The grid noise information grid (x) is obtained by inputting the result of imaging an arbitrary known object into the actual measurement imaging result input unit 1074 and comparing the imaging result with the known object information by the grid noise information extraction unit 1075. It is also possible. Specifically, the point spread function PSF (x) is calculated from the imaging result and known object information, and the grid noise information grid (x) is calculated according to the equation (20). If necessary, a high-pass filter or smoothing is applied to the grid noise information grid (x).

グリッドノイズ情報出力部1071の第1の構成例(図26)と第2の構成例(図27)とを比較すると、理論と実機との乖離が無視できる場合には、ノイズ等の影響を受けない第1の構成による計算に基づいたグリッドノイズ除去が有効である。反対に、理論と実機との乖離が無視できない場合には、ノイズ等の影響を受けるものの、第2の構成例による現実に即したグリッドノイズ除去が有効である。 Comparing the first configuration example (FIG. 26) and the second configuration example (FIG. 27) of the grid noise information output unit 1071, if the discrepancy between the theory and the actual machine can be ignored, it is affected by noise or the like. No Grid denoising based on the calculation by the first configuration is effective. On the contrary, when the discrepancy between the theory and the actual machine cannot be ignored, it is effective to remove the grid noise according to the reality by the second configuration example, although it is affected by noise and the like.

<本発明の第2の実施形態に係る撮像装置101の構成例>
次に、図28は、本発明の第2の実施形態に係る撮像装置101の構成例を示している。撮像装置101は、撮像装置101(図25)における撮像部102を、撮像部102に置換したものである。なお、撮像装置101の構成要素のうち、撮像装置101及び撮像装置101の構成要素と共通するものについては、同一の符号を付して、その説明を省略する。
<Structure example of the image pickup apparatus 1012 according to the second embodiment of the present invention>
Next, FIG. 28 shows a configuration example of the image pickup apparatus 1012 according to the second embodiment of the present invention. The image pickup device 101 2 replaces the image pickup unit 102 in the image pickup device 101 1 (FIG. 25) with the image pickup unit 102 2 . Of the components of the image pickup device 101 2 , those that are common to the components of the image pickup device 101 and the image pickup device 101 1 are designated by the same reference numerals, and the description thereof will be omitted.

撮像部102は、撮像部102(図1)と比べて、撮像用パターン105の大きさ、画像センサ103の大きさ、撮像用パターン105と画像センサ103との距離は共通である。ただし、撮像用パターン105が複数の基本撮像用パターン1051からなり、画像センサ103が複数の小型画像センサユニット1031からなる点が異なる。 The image pickup unit 102 2 has the same size of the image pickup pattern 105, the size of the image sensor 103, and the distance between the image pickup pattern 105 and the image sensor 103 as compared with the image pickup unit 102 (FIG. 1). However, the difference is that the imaging pattern 105 is composed of a plurality of basic imaging patterns 1051, and the image sensor 103 is composed of a plurality of small image sensor units 1031.

このような構成により、撮像部102は、撮像部102と比べて、より広い視野を撮像することができる。 With such a configuration, the imaging unit 102 2 can image a wider field of view as compared with the imaging unit 102.

図29は、撮像部102に採用されている、複数の基本撮像用パターン1051からなる撮像用パターン105の一例を示している。同図の場合、撮像用パターン105は、初期位相Φが等しい9つの基本撮像用パターン1051からなるが、撮像用パターン105をなす基本撮像用パターン1051の数は9に限定されない。 FIG. 29 shows an example of an imaging pattern 105 composed of a plurality of basic imaging patterns 1051 adopted in the imaging unit 102 2 . In the case of the figure, the imaging pattern 105 is composed of nine basic imaging patterns 1051 having the same initial phase Φ, but the number of basic imaging patterns 1051 forming the imaging pattern 105 is not limited to nine.

また、撮像部102は、必ずしも撮像用パターン105、及び画像センサ103の両方が複数に分かれている必要はない。例えば、1つの基本撮像用パターン1051からなる撮像用パターン105と、複数の小型画像センサユニット1031からなる画像センサ103の組み合わせでもよいし、複数の基本撮像用パターン1051からなる撮像用パターン105と、細分化されていない画像センサ103との組み合わせでもよい。 Further, in the image pickup unit 102 2 , both the image pickup pattern 105 and the image sensor 103 do not necessarily have to be divided into a plurality of parts. For example, an imaging pattern 105 composed of one basic imaging pattern 1051 and an image sensor 103 composed of a plurality of small image sensor units 1031 may be combined, or an imaging pattern 105 composed of a plurality of basic imaging patterns 1051 may be combined. It may be combined with an image sensor 103 that is not subdivided.

<本発明の第3の実施形態に係る撮像装置101の構成例>
次に、図30は、本発明の第3の実施形態に係る撮像装置101の構成例を示している。
<Structure example of the image pickup apparatus 101 3 according to the third embodiment of the present invention>
Next, FIG. 30 shows a configuration example of the image pickup apparatus 1013 according to the third embodiment of the present invention.

撮像装置101(図25)では、グリッドノイズ除去部107に対して、撮像装置101の外部から入力される情報に基づいて生成されたグリッドノイズ情報grid(x)を入力していた。これに対して、撮像装置101は、グリッドノイズ除去部107が、グリッドノイズ情報grid(x)を予め(製造時等)保持するグリッドノイズ情報記憶部1076を内蔵している。グリッドノイズ情報記憶部1076は、保持するグリッドノイズ情報grid(x)をグリッドノイズ除去部107に出力する。グリッドノイズ情報記憶部1076は、本発明のグリッドノイズ情報出力部に相当する。 In the image pickup apparatus 101 1 (FIG. 25), the grid noise information grid (x) generated based on the information input from the outside of the image pickup apparatus 101 1 is input to the grid noise removal unit 107. In contrast, the imaging apparatus 101 3, grid noise removing unit 107 has a built-in grid noise information storage unit 1076 in advance (during manufacture) holding grid noise information grid (x). The grid noise information storage unit 1076 outputs the grid noise information grid (x) to be held to the grid noise removal unit 107. The grid noise information storage unit 1076 corresponds to the grid noise information output unit of the present invention.

なお、撮像装置101の構成要素のうち、撮像装置101及び撮像装置101の構成要素と共通するものについては、同一の符号を付して、その説明を省略する。 Of the components of the image pickup device 101 3 , those that are common to the components of the image pickup device 101 and the image pickup device 101 1 are designated by the same reference numerals, and the description thereof will be omitted.

撮像装置101の場合、グリッドノイズ除去部107は、グリッドノイズ情報記憶部1076が保持するグリッドノイズ情報grid(x)を用いてグリッドノイズを除去することができる。 For imaging apparatus 101 3, grid noise removal unit 107 can remove the grid noise by using the grid noise information grid (x) of the grid noise information storage unit 1076 holds.

次に、図31は、撮像装置101におけるグリッドノイズ情報記憶部1076の第1の構成例を示している。 Next, FIG 31 shows a first configuration example of a grid noise information storage unit 1076 in the image pickup apparatus 101 3.

グリッドノイズ情報記憶部1076の第1の構成例は、撮像部設計値記憶部1077、及びグリッドノイズ情報計算部1073を有する。撮像部設計値記憶部1077は、予め(製造時等)記憶している撮像部設計値をグリッドノイズ情報計算部1073に出力する。グリッドノイズ情報計算部1073は、撮像部設計値記憶部1077からの撮像部設計値に基づき、グリッドノイズ情報grid(x)を計算して保持し、適宜、グリッドノイズ除去部107に出力する。 The first configuration example of the grid noise information storage unit 1076 includes an imaging unit design value storage unit 1077 and a grid noise information calculation unit 1073. The imaging unit design value storage unit 1077 outputs the imaging unit design value stored in advance (during manufacturing, etc.) to the grid noise information calculation unit 1073. The grid noise information calculation unit 1073 calculates and holds the grid noise information grid (x) based on the image pickup unit design value from the image pickup unit design value storage unit 1077, and outputs the grid noise information grid (x) to the grid noise removal unit 107 as appropriate.

次に、図32は、撮像装置101におけるグリッドノイズ情報記憶部1076の第2の構成例を示している。 Next, FIG. 32 shows a second configuration example of a grid noise information storage unit 1076 in the image pickup apparatus 101 3.

グリッドノイズ情報記憶部1076の第2の構成例は、実測撮像結果記憶部1078、及びグリッドノイズ情報抽出部1075を有する。実測撮像結果記憶部1078は、予め(製造時等)記憶している実測撮像結果をグリッドノイズ情報抽出部1075に出力する。グリッドノイズ情報抽出部1075は、実測撮像結果からグリッドノイズ情報grid(x)を抽出して保持し、適宜、グリッドノイズ除去部107に出力する。 A second configuration example of the grid noise information storage unit 1076 includes an actually measured imaging result storage unit 1078 and a grid noise information extraction unit 1075. The actual measurement imaging result storage unit 1078 outputs the actual measurement imaging result stored in advance (during manufacturing, etc.) to the grid noise information extraction unit 1075. The grid noise information extraction unit 1075 extracts and holds the grid noise information grid (x) from the actual measurement imaging result, and outputs the grid noise information grid (x) to the grid noise removal unit 107 as appropriate.

<本発明の第4の実施形態に係る撮像装置101の構成例>
次に、図33は、本発明の第4の実施形態に係る撮像装置101の構成例を示している。
<Structure example of the image pickup apparatus 1014 according to the fourth embodiment of the present invention>
Next, FIG. 33 shows a configuration example of the image pickup apparatus 1014 according to the fourth embodiment of the present invention.

第1〜3の実施形態における撮像部102,102は、レンズを含まない構成であった。しかしながら、本実施形態によるグリッドノイズ除去は、撮像部におけるレンズの有無に拘わらず、点拡がり関数がサイドローブを有する場合の現像画像に生じたグリッドノイズに対して有効に作用する。 The imaging units 102 and 102 2 in the first to third embodiments have a configuration that does not include a lens. However, the grid noise removal according to the present embodiment effectively acts on the grid noise generated in the developed image when the point spread function has a side lobe regardless of the presence or absence of the lens in the imaging unit.

そこで、撮像装置101における撮像部102は、レンズの有無については限定せず、点拡がり関数がサイドローブを有するものと定義する。なお、撮像装置101の構成要素のうち、撮像装置101等の構成要素と共通するものについては、同一の符号を付して、その説明を省略する。 Therefore, the imaging unit 102 4 in the image pickup apparatus 101 4, without limiting the presence or absence of the lens is defined as the point spread function has sidelobes. Of the components of the image pickup device 101 4 , those that are common to the components of the image pickup device 101 1 and the like are designated by the same reference numerals, and the description thereof will be omitted.

図34は、撮像装置101における撮像部102の構成例を示している。撮像部102は、有機EL(Electro Luminescence)ディスプレイ1021、及び、カメラモジュール1022を有する。カメラモジュール1022は、レンズ、画像センサ、及び画像処理部(何れも不図示)を備える。カメラモジュール1022は、それ自体では点拡がり関数にサイドローブが発生しない(無視できる程度に発生する場合を含む)。 Figure 34 illustrates a configuration example of the imaging unit 102 4 in the image pickup apparatus 101 4. The imaging unit 102 4 includes an organic EL (Electro Luminescence) display 1021 and a camera module 1022. The camera module 1022 includes a lens, an image sensor, and an image processing unit (all not shown). The camera module 1022 itself does not generate side lobes in the point spread function (including cases where it occurs to a negligible extent).

同図に示された撮像部102の構成例は、例えば、スマートフォン等に搭載し、ディスプレイの裏面からディスプレイの表面にある物体(ユーザの指紋)を撮像する場合に適用できる。 Configuration of the imaging unit 102 4 shown in the figure, for example, mounted on a smartphone can be applied in the case of imaging an object (fingerprint of the user) with the rear surface of the display surface of the display.

同図に示された撮像部102においては、カメラモジュール1022では点拡がり関数にサイドローブが発生しないが、有機ELディスプレイ1021による回折の影響で、有機ELディスプレイ1021を通過した光がカメラモジュール1022によって撮像された段階で点拡がり関数にサイドローブが発生する。 In the imaging unit 102 4 shown in the figure, the camera in the module 1022 point spread function sidelobes but does not occur, the influence of diffraction due to the organic EL display 1021, an organic EL display 1021 a camera module 1022 is light that has passed through the Side lobes occur in the point spread function at the stage imaged by.

すなわち、撮像部102は、カメラモジュール1022と物体の間に、点拡がり関数にサイドローブを発生させ得る変換物(同図の場合、有機ELディスプレイ1021)が配置された構成全般を含む。撮像部102は、点拡がり関数のサイドローブに起因するグリッドノイズが生じた画像をグリッドノイズ除去部107に出力する。 That is, the imaging unit 102 4 includes the entire configuration in which a transformant (in the case of the figure, the organic EL display 1021) capable of generating a side lobe in the point spread function is arranged between the camera module 1022 and the object. The imaging unit 102 4 outputs an image in which grid noise is generated due to the side lobe of the point spread function to the grid noise removing unit 107.

なお、撮像装置101における撮像部102以降の構成については、図33に示されたように撮像装置101(図25)と同様であってもよいし、撮像装置101(図30)と同様であってもよい。 The configuration after the imaging unit 102 4 in the image pickup apparatus 101 4 may be the same as the image pickup device 101 1 (Fig. 25) As shown in FIG. 33, the imaging apparatus 101 3 (Figure 30) It may be similar to.

ところで、上述した第1〜4の実施形態では、撮像部102と、それ以降の構成(グリッドノイズ除去部107、及びコントローラ108)が一体化されていたため、撮像装置全体のサイズが大きくなっていた。また、コストや消費電力が上がる可能性があった。 By the way, in the above-described first to fourth embodiments, since the imaging unit 102 and the subsequent configurations (grid noise removing unit 107 and controller 108) are integrated, the size of the entire imaging device is large. .. In addition, cost and power consumption may increase.

以下、サイズの小型化が可能な実施形態について説明する。 Hereinafter, embodiments that can be reduced in size will be described.

<本発明の第5の実施形態に係る撮像装置101の構成例>
次に、図35は、本発明の第5の実施形態に係る撮像装置101の構成例を示している。なお、撮像装置101の構成要素のうち、上述した第1〜4の実施形態の構成要素と共通するものについて同一の符号を付し、その説明を省略する。
<Structure example of the image pickup apparatus 1015 according to the fifth embodiment of the present invention>
Next, FIG. 35 shows a configuration example of the image pickup apparatus 1015 according to the fifth embodiment of the present invention. Among the components of the imaging apparatus 101 5, the same reference numerals for those that are common to the components of the first to fourth embodiments described above, description thereof will be omitted.

撮像装置101は、撮像装置101(図25)が備える構成要素を送信部2001と受信部2002とに分割し、グリッドノイズ情報出力部1071を送信部2001側に配置した構成を有する。撮像装置101、送信部2001及び受信部2002は、それぞれ本発明の撮像システム、送信装置、及び受信装置に相当する。 The image pickup apparatus 101 5 has a configuration in which the components included in the image pickup apparatus 101 1 (FIG. 25) are divided into a transmission unit 2001 and a reception unit 2002, and the grid noise information output unit 1071 is arranged on the transmission unit 2001 side. Imaging device 101 5, the transmission unit 2001 and reception unit 2002, each imaging system of the present invention, the transmitting apparatus, and corresponds to the receiving device.

撮像装置101における送信部2001は、撮像部102、グリッドノイズ情報出力部1071、及びデータ送信部2003を有する。撮像装置101における受信部2002は、グリッドノイズ除去部107、コントローラ108、及びデータ受信部2004を有する。 Transmission unit in the image pickup 101 5 2001 includes an imaging unit 102, grid noise information output unit 1071, and a data transmission unit 2003. Receiving unit 2002 in the image pickup apparatus 101 5 includes a grid noise removing unit 107, the controller 108, and a data receiving unit 2004.

データ送信部2003は、撮像部102から入力された現像画像r(x)、及びグリッドノイズ情報出力部1071から入力されたグリッドノイズ情報grid(x)をデータ受信部2004に送信する。データ受信部2004は、受信した現像画像r(x)、及びグリッドノイズ情報grid(x)をグリッドノイズ除去部107に出力する。 The data transmission unit 2003 transmits the developed image r (x) input from the imaging unit 102 and the grid noise information grid (x) input from the grid noise information output unit 1071 to the data reception unit 2004. The data receiving unit 2004 outputs the received developed image r (x) and the grid noise information grid (x) to the grid noise removing unit 107.

データ送信部2003とデータ受信部2004との間のデータ通信は、所定の有線通信規格、または所定の無線通信規格に従って行われる。なお、データ送信部2003とデータ受信部2004との間のデータ通信に記録媒体を用いてもよい。 Data communication between the data transmitting unit 2003 and the data receiving unit 2004 is performed according to a predetermined wired communication standard or a predetermined wireless communication standard. A recording medium may be used for data communication between the data transmission unit 2003 and the data reception unit 2004.

また、データ送信部2003とデータ受信部2004とがインターネットに代表される双方向通信網を介して接続可能であれば、例えば、受信部2002を、所謂クラウドネットワーク上のサーバによって実現するようにしてもよい。その場合、1台の受信部2002が、複数台の送信部2001に対応してグリッドノイズ除去を行うようにしてもよい。 Further, if the data transmitting unit 2003 and the data receiving unit 2004 can be connected via a bidirectional communication network represented by the Internet, for example, the receiving unit 2002 may be realized by a server on a so-called cloud network. May be good. In that case, one receiving unit 2002 may perform grid noise removal corresponding to a plurality of transmitting units 2001.

撮像装置101によれば、撮像装置101(図25)のサイズに比べ、撮像部102を含む送信部2001のサイズを小型化及び軽量化できるので、送信部2001の配置の自由度を上げることができる。 According to the imaging apparatus 101 5, compared to the size of the imaging device 101 1 (FIG. 25), since the size of the transmission unit 2001, which includes the imaging unit 102 can be made smaller and lighter, increasing the degree of freedom in the arrangement of the transmission unit 2001 be able to.

<本発明の第6の実施形態に係る撮像装置101の構成例>
次に、図36は、本発明の第6の実施形態に係る撮像装置101の構成例を示している。なお、撮像装置101の構成要素のうち、上述した第1〜5の実施形態の構成要素と共通するものについて同一の符号を付し、その説明を省略する。
<Structure example of the image pickup apparatus 1016 according to the sixth embodiment of the present invention>
Next, FIG. 36 shows a configuration example of the image pickup apparatus 1016 according to the sixth embodiment of the present invention. Among the components of the imaging apparatus 101 6, the same reference numerals for those that are common to the components of the first to fifth embodiments described above, description thereof will be omitted.

撮像装置101は、撮像装置101(図30)が備える構成要素を、送信部2001と受信部2002とに分割し、グリッドノイズ情報記憶部1076を送信部2001側に配置した構成を有する。撮像装置101は、本発明の撮像システムに相当する。 Imaging device 101 6, the components included in the imaging apparatus 101 3 (Figure 30), it is divided into a transmission unit 2001 and reception unit 2002 has a configuration of arranging the grid noise information storage unit 1076 in the transmitting unit 2001 side. Imaging device 101 6 corresponds to the imaging system of the present invention.

撮像装置101によれば、撮像装置101(図30)のサイズに比べ、撮像部102を含む送信部2001のサイズを小型化及び軽量化できるので、送信部2001の配置の自由度を上げることができる。 According to the imaging apparatus 101 6, compared to the size of the imaging device 101 3 (Figure 30), since the size of the transmission unit 2001, which includes the imaging unit 102 can be made smaller and lighter, increasing the degree of freedom in the arrangement of the transmission unit 2001 be able to.

<本発明の第7の実施形態に係る撮像装置101の構成例>
次に、図37は、本発明の第7の実施形態に係る撮像装置101の構成例を示している。なお、撮像装置101の構成要素のうち、上述した第1〜6の実施形態の構成要素と共通するものについて同一の符号を付し、その説明を省略する。
<Structure example of the image pickup apparatus 1017 according to the seventh embodiment of the present invention>
Next, FIG. 37 shows a configuration example of the image pickup apparatus 1017 according to the seventh embodiment of the present invention. Among components of the imaging apparatus 101 7, the same reference numerals for those that are common to the components of the first to sixth embodiments described above, description thereof will be omitted.

撮像装置101は、撮像装置101(図25)が備える構成要素を送信部2001と受信部2002とに分割し、グリッドノイズ情報出力部1071を受信部2002側に配置した構成を有する。撮像装置101は、本発明の撮像システムに相当する。 The image pickup apparatus 10 1 7 has a configuration in which the components included in the image pickup apparatus 101 1 (FIG. 25) are divided into a transmission unit 2001 and a reception unit 2002, and the grid noise information output unit 1071 is arranged on the reception unit 2002 side. Imaging device 101 7 corresponds to the imaging system of the present invention.

撮像装置101における送信部2001は、撮像部102、及びデータ送信部2003を有する。撮像装置101における受信部2002は、グリッドノイズ除去部107、コントローラ108、グリッドノイズ情報出力部1071、及びデータ受信部2004を有する。 Transmission unit 2001 in the image pickup apparatus 101 7 includes an imaging unit 102, and a data transmission unit 2003,. Receiving unit 2002 in the image pickup apparatus 101 5 includes a grid noise removing unit 107, the controller 108, the grid noise information output unit 1071, and a data receiving unit 2004.

撮像装置101におけるデータ送信部2003は、撮像部102から入力された現像画像r(x)をデータ受信部2004に送信する。データ受信部2004は、受信した現像画像r(x)をグリッドノイズ除去部107に出力する。 Data transmission unit in the imaging apparatus 101 7 2003 transmits developed image r input from the imaging unit 102 (x) to the data reception unit 2004. The data receiving unit 2004 outputs the received developed image r (x) to the grid noise removing unit 107.

撮像装置101によれば、撮像装置101(図35)に比べ、グリッドノイズ情報出力部1071の分だけ、撮像部102を含む送信部2001のサイズを小型化及び軽量化できるので、送信部2001の配置の自由度を上げることができる。 According to the imaging apparatus 101 7, compared with the imaging device 101 5 (Fig. 35), by the amount of the grid noise information output section 1071, since the size of the transmission unit 2001, which includes the imaging unit 102 can be made smaller and lighter, the transmission unit The degree of freedom of arrangement of 2001 can be increased.

<本発明の第8の実施形態に係る撮像装置101の構成例>
次に、図38は、本発明の第8の実施形態に係る撮像装置101の構成例を示している。なお、撮像装置101の構成要素のうち、上述した第1〜7の実施形態の構成要素と共通するものについて同一の符号を付し、その説明を省略する。
<Structure example of the image pickup apparatus 1018 according to the eighth embodiment of the present invention>
Next, FIG. 38 shows a configuration example of the image pickup apparatus 1018 according to the eighth embodiment of the present invention. Among the components of the imaging apparatus 101 8, the same reference numerals for those that are common to the components of the first to seventh embodiments described above, description thereof will be omitted.

撮像装置101は、撮像装置101(図30)が備える構成要素を、送信部2001と受信部2002とに分割し、グリッドノイズ情報記憶部1076を受信部2002側に配置した構成を有する。撮像装置101は、本発明の撮像システムに相当する。 Imaging apparatus 101 8 has a configuration in which the components included in the imaging apparatus 101 3 (Figure 30), it is divided into a transmission portion 2001 and receiving portion 2002, were placed grid noise information storage unit 1076 in the reception unit 2002 side. Imaging apparatus 101 8 corresponds to the imaging system of the present invention.

撮像装置101によれば、撮像装置101(図36)に比べ、撮像部102を含む送信部2001のサイズを小型化及び軽量化できるので、送信部2001の配置の自由度を上げることができる。 According to the imaging apparatus 101 8, compared with the imaging apparatus 101 6 (FIG. 36), since the size of the transmission unit 2001, which includes the imaging unit 102 can be made smaller and lighter, it is possible to increase the degree of freedom in the arrangement of the transmission unit 2001 it can.

本発明は、上記した実施形態に限定されるものではなく、さらに様々な変形例が含まれる。また、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and further includes various modifications. In addition, each of the above-described embodiments has been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those including all the components described above. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

101,101〜101・・・撮像装置、102,102,102・・・撮像部、103・・・画像センサ、104・・・パターン基板、105・・・撮像用パターン、1051・・・基本撮像用パターン、106・・・画像処理部、107・・・グリッドノイズ除去部、108・・・コントローラ、301・・・支持部材、801・・・現像用パターン、1021・・・有機ELディスプレイ、1022・・・カメラモジュール、1031・・・小型画像センサユニット、1071・・・グリッドノイズ情報出力部、1072・・・撮像部設計値入力部、1073・・・グリッドノイズ情報計算部、1074・・・実測撮像結果入力部、1075・・・グリッドノイズ情報抽出部、1076・・・グリッドノイズ情報記憶部、2001・・・送信部、2002・・・受信部、2003・・・データ送信部、2004・・・データ受信部 101, 101 1 to 101 8 ... imaging apparatus, 102, 102 2, 102 4, ... imaging unit, 103 ... image sensor, 104 ... patterned substrate, 105 ... imaging patterns, 1051, ... Basic imaging pattern, 106 ... Image processing unit, 107 ... Grid noise removal unit, 108 ... Controller, 301 ... Support member, 801 ... Development pattern, 1021 ... Organic EL display, 1022 ... camera module, 1031 ... small image sensor unit, 1071 ... grid noise information output unit, 1072 ... imaging unit design value input unit, 1073 ... grid noise information calculation unit, 1074 ... Actual measurement imaging result input unit, 1075 ... Grid noise information extraction unit, 1076 ... Grid noise information storage unit, 2001 ... Transmission unit, 2002 ... Reception unit, 2003 ... Data transmission Unit, 2004 ... Data receiving unit

Claims (19)

物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている画像を出力する撮像部と、
グリッドノイズ情報に基づいて前記画像からグリッドノイズを除去するグリッドノイズ除去部と、
を備えることを特徴とする撮像装置。
An imaging unit that images an object and outputs an image in which grid noise due to side lobes in the point spread function during imaging may occur.
A grid noise removing unit that removes grid noise from the image based on the grid noise information,
An imaging device characterized by comprising.
請求項1に記載の撮像装置であって、
前記グリッドノイズ除去部に対して前記グリッドノイズ情報を出力するグリッドノイズ情報出力部、
を備えることを特徴とする撮像装置。
The imaging device according to claim 1.
A grid noise information output unit that outputs the grid noise information to the grid noise removal unit,
An imaging device characterized by comprising.
請求項1に記載の撮像装置であって、
前記撮像部は、
少なくとも1以上の基本撮像用パターンを含む撮像用パターンからなり、入射光の強度を変調する変調器と、
前記変調器を通過して入射した光を電気信号に変換することにより、投影像を生成する画像センサと、
前記投影像と、前記撮像用パターンに対応する現像用パターンとを用いた現像処理によって前記画像を生成する画像処理部と、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The imaging unit
A modulator consisting of an imaging pattern including at least one basic imaging pattern and modulating the intensity of incident light,
An image sensor that generates a projected image by converting the light that has passed through the modulator and incident light into an electrical signal.
An image processing unit that generates the image by a development process using the projected image and a development pattern corresponding to the image pickup pattern.
An imaging device characterized by having.
請求項3に記載の撮像装置であって、
前記画像処理部は、初期位相が異なる複数の前記撮像用パターンをそれぞれ通過した複数の前記投影像を用いたフリンジスキャン演算処理によってノイズキャンセルを行う
ことを特徴とする撮像装置。
The imaging device according to claim 3.
The image processing unit is an image pickup apparatus characterized in that noise cancellation is performed by a fringe scan calculation process using a plurality of projection images that have passed through a plurality of the imaging patterns having different initial phases.
請求項3に記載の撮像装置であって、
前記画像センサは、複数の小型画像センサユニットからなる
ことを特徴とする撮像装置。
The imaging device according to claim 3.
The image sensor is an image pickup apparatus including a plurality of small image sensor units.
請求項1に記載の撮像装置であって、
前記撮像部は、
点拡がり関数にサイドローブを発生させる中間物と、
前記中間物を通過して入射した光に基づいて前記画像を生成するカメラモジュールと、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 1.
The imaging unit
An intermediate that causes a side lobe in the point spread function,
A camera module that generates the image based on the incident light that has passed through the intermediate.
An imaging device characterized by having.
請求項6に記載の撮像装置であって、
前記中間物は、有機ELディスプレイである
ことを特徴とする撮像装置。
The imaging device according to claim 6.
The intermediate is an image pickup apparatus characterized by being an organic EL display.
請求項2に記載の撮像装置であって、
前記グリッドノイズ情報出力部は、
前記撮像部に関する撮像部設計値を外部から入力する撮像部設計値入力部と、
前記撮像部設計値に基づいて前記グリッドノイズ情報を計算するグリッドノイズ情報計算部と、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 2.
The grid noise information output unit
An imaging unit design value input unit that inputs an imaging unit design value related to the imaging unit from the outside,
A grid noise information calculation unit that calculates the grid noise information based on the image pickup unit design value,
An imaging device characterized by having.
請求項2に記載の撮像装置であって、
前記グリッドノイズ情報出力部は、
前記物体を実際に撮像した実測撮像結果を外部から入力する実測撮像結果入力部と、
前記実測撮像結果から前記グリッドノイズ情報を抽出するグリッドノイズ情報抽出部と、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 2.
The grid noise information output unit
An actual measurement result input unit that inputs an actual measurement image result of actually imaging the object from the outside,
A grid noise information extraction unit that extracts the grid noise information from the actual measurement imaging result,
An imaging device characterized by having.
請求項2に記載の撮像装置であって、
前記グリッドノイズ情報出力部は、
予め保持している、前記撮像部に関する撮像部設計値に基づいて前記グリッドノイズ情報を計算するグリッドノイズ情報計算部、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 2.
The grid noise information output unit
A grid noise information calculation unit that calculates the grid noise information based on an imaging unit design value related to the imaging unit, which is held in advance.
An imaging device characterized by having.
請求項2に記載の撮像装置であって、
前記グリッドノイズ情報出力部は、
予め保持している、前記物体を実際に撮像した実測撮像結果から前記グリッドノイズ情報を抽出するグリッドノイズ情報抽出部、
を有する
ことを特徴とする撮像装置。
The imaging device according to claim 2.
The grid noise information output unit
A grid noise information extraction unit that extracts the grid noise information from the actual measurement imaging result of actually imaging the object, which is held in advance.
An imaging device characterized by having.
撮像装置による撮像方法であって、
物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている画像を出力する撮像ステップと、
グリッドノイズ情報に基づき、前記画像から前記グリッドノイズを除去するグリッドノイズ除去ステップと、
を含むことを特徴とする撮像方法。
It is an imaging method using an imaging device.
An imaging step that images an object and outputs an image in which grid noise due to side lobes in the point spread function during imaging may occur.
A grid noise removal step for removing the grid noise from the image based on the grid noise information,
An imaging method comprising.
送信装置及び受信装置を備えた撮像システムにおける前記送信装置であって、
物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている画像を出力する撮像部と、
グリッドノイズ情報に基づいて前記画像から前記グリッドノイズを除去するグリッドノイズ除去部を有する前記受信装置に対し、前記グリッドノイズ情報及び前記画像を送信するデータ送信部と、
前記グリッドノイズ情報を前記データ送信部に出力するグリッドノイズ情報出力部と、
を備えることを特徴とする送信装置。
The transmitting device in an imaging system including a transmitting device and a receiving device.
An imaging unit that images an object and outputs an image in which grid noise due to side lobes in the point spread function during imaging may occur.
A data transmitting unit that transmits the grid noise information and the image to the receiving device having a grid noise removing unit that removes the grid noise from the image based on the grid noise information.
A grid noise information output unit that outputs the grid noise information to the data transmission unit,
A transmitter characterized by comprising.
請求項13に記載の送信装置であって、
前記グリッドノイズ情報出力部は、外部から入力された情報に基づいて前記グリッドノイズ情報を生成して前記データ送信部に出力する
ことを特徴とする送信装置。
The transmitting device according to claim 13.
The grid noise information output unit is a transmission device characterized in that the grid noise information is generated based on information input from the outside and output to the data transmission unit.
請求項13に記載の送信装置であって、
前記グリッドノイズ情報出力部は、予め保持している情報に基づいて前記グリッドノイズ情報を生成して前記データ送信部に出力する
ことを特徴とする送信装置。
The transmitting device according to claim 13.
The grid noise information output unit is a transmission device characterized in that the grid noise information is generated based on the information held in advance and output to the data transmission unit.
送信装置及び受信装置を備えた撮像システムにおける前記受信装置であって、
物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている画像を出力する撮像部と、グリッドノイズ情報及び前記画像を送信するデータ送信部と、前記グリッドノイズ情報を前記データ送信部に出力するグリッドノイズ情報出力部と、を備える送信装置から送信された前記グリッドノイズ情報及び前記画像を受信するデータ受信部と、
受信された前記グリッドノイズ情報に基づいて前記画像から前記グリッドノイズを除去するグリッドノイズ除去部と、
を備えることを特徴とする受信装置。
The receiving device in an imaging system including a transmitting device and a receiving device.
An imaging unit that images an object and outputs an image in which grid noise due to side lobes in the point spread function during imaging may occur, a data transmission unit that transmits grid noise information and the image, and the grid noise. A grid noise information output unit that outputs information to the data transmission unit, and a data reception unit that receives the grid noise information and the image transmitted from a transmission device including the data transmission unit.
A grid noise removing unit that removes the grid noise from the image based on the received grid noise information,
A receiving device characterized by comprising.
送信装置及び受信装置を備えた撮像システムにおける前記受信装置であって、
物体を撮像し、撮像の際の点拡がり関数におけるサイドローブに起因するグリッドノイズが生じ得ている画像を出力する撮像部と、前記画像を送信するデータ送信部と、を備える送信装置から送信された前記画像を受信するデータ受信部と、
グリッドノイズ情報に基づいて前記画像から前記グリッドノイズを除去するグリッドノイズ除去部と、
前記グリッドノイズ情報を前記グリッドノイズ除去部に出力するグリッドノイズ情報出力部と、
を備えることを特徴とする受信装置。
The receiving device in an imaging system including a transmitting device and a receiving device.
It is transmitted from a transmission device including an image pickup unit that images an object and outputs an image in which grid noise due to a side lobe in the point spread function at the time of imaging may be generated, and a data transmission unit that transmits the image. The data receiving unit that receives the image and
A grid noise removing unit that removes the grid noise from the image based on the grid noise information,
A grid noise information output unit that outputs the grid noise information to the grid noise removal unit,
A receiving device characterized by comprising.
請求項17に記載の受信装置であって、
前記グリッドノイズ情報出力部は、外部から入力された情報に基づいて前記グリッドノイズ情報を生成して前記グリッドノイズ除去部に出力する
ことを特徴とする受信装置。
The receiving device according to claim 17.
The grid noise information output unit is a receiving device characterized in that the grid noise information is generated based on information input from the outside and output to the grid noise removing unit.
請求項17に記載の受信装置であって、
前記グリッドノイズ情報出力部は、予め保持している情報に基づいて前記グリッドノイズ情報を生成して前記グリッドノイズ除去部に出力する
ことを特徴とする受信装置。
The receiving device according to claim 17.
The receiving device is characterized in that the grid noise information output unit generates the grid noise information based on the information held in advance and outputs the grid noise information to the grid noise removing unit.
JP2019118394A 2019-06-26 2019-06-26 Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system Active JP7146698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118394A JP7146698B2 (en) 2019-06-26 2019-06-26 Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118394A JP7146698B2 (en) 2019-06-26 2019-06-26 Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system

Publications (2)

Publication Number Publication Date
JP2021005786A true JP2021005786A (en) 2021-01-14
JP7146698B2 JP7146698B2 (en) 2022-10-04

Family

ID=74098321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118394A Active JP7146698B2 (en) 2019-06-26 2019-06-26 Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system

Country Status (1)

Country Link
JP (1) JP7146698B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008175698A (en) * 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography
JP2010503844A (en) * 2006-09-11 2010-02-04 ザ メドウェイ エヌエイチエス トラスト Radiating device or signal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010503844A (en) * 2006-09-11 2010-02-04 ザ メドウェイ エヌエイチエス トラスト Radiating device or signal
JP2008175698A (en) * 2007-01-18 2008-07-31 Univ Of Tsukuba Image processing method and image processing apparatus of optical coherence tomography

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAGAAKI OHYAMA ET AL.: "An Advanced coded imaging without side lobes", OPTICS COMMUNICATIONS, vol. Volume 27 Issue 3, JPN6022034851, December 1978 (1978-12-01), pages 339 - 344, ISSN: 0004853711 *

Also Published As

Publication number Publication date
JP7146698B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
US10551532B2 (en) Imaging device and imaging method
CN108702440B (en) Image pickup apparatus
JP7061883B2 (en) Image display device and image display method
CN110324513B (en) Image pickup apparatus, image pickup module, and image pickup method
US10887504B2 (en) Distance measurement device and distance measurement method
CN110198391B (en) Image pickup apparatus, image pickup method, and image processing apparatus
JP6807286B2 (en) Imaging device and imaging method
JP2023016864A (en) Imaging apparatus and method
WO2020059181A1 (en) Imaging device and imaging method
JP7146698B2 (en) Imaging device, imaging method, transmitting device of imaging system, and receiving device of imaging system
JP7278454B2 (en) image display device
JP7159118B2 (en) Imaging device
CN110278350B (en) Image pickup apparatus
US11740468B2 (en) Distance measuring apparatus, imaging device, distance measuring system, distance measuring method, and imaging method
JP7065761B2 (en) Distance measuring device and distance measuring method
WO2020178905A1 (en) Imaging device and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R151 Written notification of patent or utility model registration

Ref document number: 7146698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151