JP7097787B2 - Imaging device and imaging method - Google Patents
Imaging device and imaging method Download PDFInfo
- Publication number
- JP7097787B2 JP7097787B2 JP2018173930A JP2018173930A JP7097787B2 JP 7097787 B2 JP7097787 B2 JP 7097787B2 JP 2018173930 A JP2018173930 A JP 2018173930A JP 2018173930 A JP2018173930 A JP 2018173930A JP 7097787 B2 JP7097787 B2 JP 7097787B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor
- pattern
- imaging
- correction process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 56
- 238000012545 processing Methods 0.000 claims description 126
- 238000000034 method Methods 0.000 claims description 98
- 238000012937 correction Methods 0.000 claims description 81
- 230000007547 defect Effects 0.000 claims description 54
- 239000011159 matrix material Substances 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 48
- 238000003860 storage Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 19
- 230000005484 gravity Effects 0.000 claims description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 8
- 230000002950 deficient Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims 8
- 238000011161 development Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 14
- 239000000758 substrate Substances 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000009826 distribution Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 150000004770 chalcogenides Chemical class 0.000 description 1
- 229910052804 chromium Inorganic materials 0.000 description 1
- 239000011651 chromium Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 229910052732 germanium Inorganic materials 0.000 description 1
- GNPVGFCGXDBREM-UHFFFAOYSA-N germanium atom Chemical compound [Ge] GNPVGFCGXDBREM-UHFFFAOYSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000001465 metallisation Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000004544 sputter deposition Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000007740 vapor deposition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Description
本発明は、撮像装置および撮像方法に関する。 The present invention relates to an image pickup apparatus and an image pickup method.
本技術分野の背景技術として、特開2018-61109号公報(特許文献1)がある。この公報には、「第1のパターンを有し、光の強度を変調する変調器と、前記変調器を透過した光を画像データに変換して出力する画像センサと、前記画像データと、第2のパターンを示すパターンデータとの相互相関演算に基づいて像を復元する画像処理部と、を有することを特徴とする」撮像装置についての記載があり、さらに「変調器の初期位相が異なるパターンを空間分割」し、「画像センサから出力される画像データを、変調器のパターン配置に応じた領域に分割」した画像からノイズキャンセルする技術についての記載がある。 Japanese Patent Application Laid-Open No. 2018-61109 (Patent Document 1) is available as a background technique in this technical field. In this publication, "a modulator having a first pattern and modulating the intensity of light, an image sensor that converts the light transmitted through the modulator into image data and outputting the image data, the image data, and the first. There is a description of an image pickup device that "is characterized by having an image processing unit that restores an image based on mutual correlation calculation with pattern data showing two patterns", and further "a pattern in which the initial phase of the modulator is different". There is a description of a technique for noise canceling from an image in which "the image data output from the image sensor is divided into areas according to the pattern arrangement of the modulator" by "spatial division".
上記特許文献1に記載された技術では、初期位相が異なるパターンがずれて配置される(例えば、パターンA、B,C,Dのうち、パターンBの中心位置がずれる、パターンCが回転している等)、あるいは前記基板上面がセンサ面と平行ではない(例えば、傾いている等)場合、その画像センサにて受光される射影パターンに位置ずれやゆがみが発生し、像を現像しても正しい現像画像が得られないという問題がある。
In the technique described in
本発明の課題は、撮像装置の組立誤差、撮影用パターンの製造誤差、フォーカス調整の歪みを補正することで正しい現像画像を得る技術を提供することである。 An object of the present invention is to provide a technique for obtaining a correct developed image by correcting an assembly error of an image pickup apparatus, a manufacturing error of a pattern for photographing, and a distortion of focus adjustment.
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明の一態様に係る撮像装置は、光を電気信号に変換し、センサ画像を生成する画像センサと、撮影用パターンに基づいて上記画像センサで検出される光の強度を変調する変調器と、上記センサ画像のうち異なる上記撮影用パターンによって撮影された複数の上記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、を有する。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows. In order to solve the above problems, the image pickup apparatus according to one aspect of the present invention is an image sensor that converts light into an electric signal to generate a sensor image, and an image sensor that detects light based on an imaging pattern. It has a modulator that modulates the intensity, and a parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
本発明によれば、撮像装置の組立誤差、撮影用パターンの製造誤差、フォーカス調整の歪みを補正することで正しい現像画像を得る技術を提供できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a technique for obtaining a correct developed image by correcting an assembly error of an image pickup apparatus, a manufacturing error of a pattern for photographing, and a distortion of focus adjustment. Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.
以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when necessary for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, one of which is the other. It is related to some or all of the modified examples, details, supplementary explanations, etc.
また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 Further, in the following embodiments, when the number of elements (including the number, numerical value, quantity, range, etc.) is referred to, when it is specified in particular, or when it is clearly limited to a specific number in principle, etc. Except for this, the number is not limited to the specific number, and may be more than or less than the specific number.
さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Furthermore, in the following embodiments, the components (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say.
同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when the shape, positional relationship, etc. of the constituent elements are referred to, the shape is substantially the same, except when it is clearly stated or when it is considered that it is not clearly the case in principle. Etc., etc. shall be included. This also applies to the above numerical values and ranges.
また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。以下、本発明の実施例について図面を用いて説明する。 Further, in all the drawings for explaining the embodiment, the same members are in principle the same reference numerals, and the repeated description thereof will be omitted. Hereinafter, examples of the present invention will be described with reference to the drawings.
一般に、車載カメラ、ウェアラブルデバイス、スマートフォンなどの情報機器に搭載するデジタルカメラには薄型化と低コスト化が求められることが多い。例えば、レンズを用いることなく物体像を得ることで薄型化と低コスト化を実現する撮像方式が提案されている。そのような技術では、画像センサの前に特殊な格子パターンを貼り付け、その画像センサにて受光される射影パターンから像を現像するための逆問題を解くことにより、物体の像を得る撮像方式がある。この方式では、信号処理により逆問題を解く際の演算が複雑になり、処理負荷が高いために、情報機器のハードウェア要求仕様が高くなってしまう。 In general, digital cameras mounted on information devices such as in-vehicle cameras, wearable devices, and smartphones are often required to be thinner and lower in cost. For example, an imaging method has been proposed that realizes thinning and cost reduction by obtaining an object image without using a lens. In such a technique, an imaging method is used in which a special grid pattern is attached in front of an image sensor, and an inverse problem for developing an image from a projection pattern received by the image sensor is solved to obtain an image of an object. There is. In this method, the calculation when solving the inverse problem by signal processing becomes complicated, and the processing load is high, so that the hardware requirement specifications of the information device become high.
〈無限遠物体の撮影原理〉図1は、本発明の第一の実施例に係る撮像装置の構成例を示す図である。撮像装置101は、結像させるレンズを用いることなく、外界の物体の画像を取得するものであり、図1に示すように、撮像モジュール102、フリンジスキャン処理部106、画像処理部107およびコントローラ108から構成されている。図2に撮像モジュール102の一例を示す。
<Principle for photographing an infinity object> FIG. 1 is a diagram showing a configuration example of an image pickup apparatus according to a first embodiment of the present invention. The
図2は、第一の実施例に係る撮像モジュールの構成を示す図である。撮像モジュール102は、画像センサ103、パターン基板104、撮影用パターン105から構成されている。パターン基板104は、画像センサ103の受光面に密着して固定されており、パターン基板104に撮影用パターン105が形成される。パターン基板104は、例えばガラスやプラスティックなどの可視光に対して透明な材料からなる。
FIG. 2 is a diagram showing a configuration of an imaging module according to the first embodiment. The
撮影用パターン105は、外側に向かうほど中心からの半径に反比例して格子パターンの間隔、すなわちピッチが狭くなる同心円状の格子パターンからなる。撮影用パターン105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。金属が蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。なお、撮影用パターン105の形成は、これに限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけて形成してもよい。さらに、ここでは可視光を例に説明したが、例えば遠赤外線の撮影を行う際には、パターン基板104は例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料とするなど、撮影対象となる波長に対して透明な材料を用い、撮影用パターン105は金属等の遮断する材料を用いればよい。
The photographing
また、パターン基板104と撮影用パターン105とは、画像センサ103に入射する光の強度を変調する変調器であるともいえる。なお、ここでは撮像モジュール102を実現するために、撮影用パターン105をパターン基板104に形成する方法について述べたが、図3に示すような構成によっても実現できる。
Further, it can be said that the
図3は、第一の実施例に係る別の撮像モジュールの構成例を示す図である。図3に示す構成例では、撮影用パターン105を薄膜に形成し、支持部材301により保持するようにしている。
FIG. 3 is a diagram showing a configuration example of another imaging module according to the first embodiment. In the configuration example shown in FIG. 3, the photographing
なお、この装置において、撮影画角はパターン基板104の厚さによって変更可能である。よって、例えばパターン基板104が図3の構成であり支持部材301の長さを変更可能な機能を有していれば、撮影時に画角を変更して撮影することも可能となる。
In this apparatus, the shooting angle of view can be changed by the thickness of the
画像センサ103の表面には、受光素子である画素103aが格子状に規則的に配置されている。この画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換する。
撮影用パターン105を透過する光は、そのパターンによって光の強度が変調され、透過した光は画像センサ103にて受光される。画像センサ103は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。
The intensity of the light transmitted through the photographing
画像センサ103から出力された画像信号は、フリンジスキャン処理部106によってノイズ除去等の処理がなされ、画像処理部107によって画像処理されたデータがコントローラ108に出力される。コントローラ108は、出力をホストコンピュータや外部記録媒体に出力する場合には、USB(Universal Serial Bus)等のインターフェイスに適合するようデータ形式を変換し出力する。
The image signal output from the
続いて、撮像装置101における撮影原理について説明する。まず、撮影用パターン105は、中心からの半径に対して反比例してピッチが細かくなる同心円状のパターンであり、同心円の中心である基準座標からの半径r、係数βを用いて、
Subsequently, the imaging principle in the
このような縞を持つプレートは、ガボールゾーンプレート(GZP:Gabor Zone Plate)やフレネルゾーンプレート(FZP:Fresnel Zone Plate)と呼ばれる。 Plates with such stripes are called Gabor Zone Plates (GZPs) or Fresnel Zone Plates (FZPs).
図4は、第一の実施例に係る撮影用パターンおよび現像用パターンの例を示す図である。具体的には、図4は、上式(1)で表されるガボールゾーンプレートの例である。 FIG. 4 is a diagram showing an example of a photographing pattern and a developing pattern according to the first embodiment. Specifically, FIG. 4 is an example of a Gabor zone plate represented by the above equation (1).
図5は、第一の実施例に係る撮影用パターンおよび現像用パターンの別の例を示す図である。具体的には、上式(1)を閾値1で2値化した結果得られるパターンを用いたフレネルゾーンプレートの例である。 FIG. 5 is a diagram showing another example of the photographing pattern and the developing pattern according to the first embodiment. Specifically, it is an example of a Fresnel zone plate using a pattern obtained as a result of binarizing the above equation (1) with a threshold value of 1.
撮影用パターン105が形成された厚さdのパターン基板104に、図6に示すようにx軸方向に角度θ0で平行光が入射したとする。パターン基板104中の屈折角をθとして幾何光学的には、表面の格子の透過率が乗じられた光が、k=d・tanθだけずれて画像センサ103に入射する。このとき、
As shown in FIG. 6, it is assumed that parallel light is incident on the
図7は、撮影用パターンの投影像の例を示す図である。図7に示すように、撮影用パターン105を用いて図6のような平行光の入射があった場合に、画像センサ103上には、上式(2)のようにkだけシフトして投影される。これが撮像モジュール102からの出力となる。
FIG. 7 is a diagram showing an example of a projected image of a shooting pattern. As shown in FIG. 7, when the parallel light as shown in FIG. 6 is incident using the photographing
次に、画像処理部107においては、現像処理が行われるが、そのうち相関現像方式とモアレ現像方式による現像処理について説明する。
Next, the
相関現像方式では、画像処理部107が、図7に示した撮影用パターン105の投影像と、図8に示された現像用パターン801との相互相関関数を演算することにより、図9に示すシフト量kの輝点を得ることができる。なお、一般的に、相互相関演算を2次元畳込み演算で行うと演算量が大きくなる。
In the correlation development method, the
図8は、現像用パターンの例を示す図である。具体的には、現像用パターン801は、図4に示したガボールゾーンプレートや図5に示したFZP(フレネルゾーンプレート)と同様のパターンを有する。すなわち、本実施形態では、現像用パターン801は、物理的に実体を有する必要はなく、画像処理において用いる情報として存在すればよい。 FIG. 8 is a diagram showing an example of a developing pattern. Specifically, the developing pattern 801 has the same pattern as the Gabor zone plate shown in FIG. 4 and the FZP (Fresnel zone plate) shown in FIG. That is, in the present embodiment, the development pattern 801 does not have to have a physical substance, and may exist as information used in image processing.
図9は、相関現像方式による現像画像の例を示す図である。相関現像方式により現像すると、上述のとおり、ある輝点がkだけシフトした現像画像を得ることができる。 FIG. 9 is a diagram showing an example of a developed image by the correlation development method. When developed by the correlation development method, as described above, it is possible to obtain a developed image in which a certain bright spot is shifted by k.
ここで、相互相関演算を2次元畳込み演算で行わず、フーリエ変換を用いて演算する例について、数式を用いて原理を説明する。まず、現像用パターン801は、撮影用パターン105と同様にガボールゾーンプレートやフレネルゾーンプレートを用いるため、現像用パターン801は初期位相Φを用いて、
Here, an example in which the cross-correlation operation is performed by using the Fourier transform without performing the two-dimensional convolution operation will be described using a mathematical formula. First, since the developing pattern 801 uses a Gabor zone plate or a Fresnel zone plate as in the photographing
上式(2)、上式(3)のフーリエ変換はそれぞれ、 The Fourier transforms of the above equations (2) and (3) are, respectively.
次に、上式(4)と上式(5)を乗算すると、 Next, when the above equation (4) and the above equation (5) are multiplied,
なお、このような相関現像方式では、パターンの自己相関関数が単一のピークを有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えばランダムなパターンで実現してもよい。 In such a correlation development method, as long as the autocorrelation function of the pattern has a single peak, it may be realized by a pattern not limited to the Fresnel zone plate or the Gabor zone plate, for example, a random pattern.
次に、モアレ現像方式では、図7に示した撮影用パターン105の投影像と図8に示した現像用パターン801とを乗算することにより、図10に示すようなモアレ縞を生成し、これをフーリエ変換することにより図11に示すようなシフト量が(kβ/π)の輝点を得ることができる。
Next, in the moire development method, by multiplying the projected image of the photographing
図10は、モアレ現像方式によるモアレ縞の例を示す図である。具体的には、図10に示すように、図7に示した撮影用パターン105の投影像と、図8に示した現像用パターン801と、の乗算の結果がモアレ縞として得られる。
FIG. 10 is a diagram showing an example of moire fringes by the moire development method. Specifically, as shown in FIG. 10, the result of multiplication of the projected image of the photographing
このモアレ縞を数式で示すと、 If this moire fringe is expressed by a mathematical formula,
この第3項の2次元フーリエ変換は、 The two-dimensional Fourier transform of this third term is
図11は、モアレ現像方式による現像画像の例を示す図である。図11に示す現像画像では、u=±kβ/πの位置に輝点が得られている。 FIG. 11 is a diagram showing an example of a developed image by the moire development method. In the developed image shown in FIG. 11, a bright spot is obtained at the position of u = ± kβ / π.
なお、モアレ現像方式ではパターンのシフトによって得られるモアレ縞が単一の周波数を有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えば楕円状のパターンで実現してもよい。 In the moire development method, as long as the moire fringes obtained by shifting the pattern have a single frequency, a pattern not limited to the Fresnel zone plate or the Gabor zone plate, for example, an elliptical pattern may be realized.
〈ノイズキャンセル〉上式(6)から上式(7)への変換、また上式(8)から上式(9)への変換において信号成分に着目して話を進めたが、実際には信号成分以外の項がノイズとして現像を阻害する。そこで、フリンジスキャンに基づくノイズキャンセルが効果的である。 <Noise Cancellation> In the conversion from the above equation (6) to the above equation (7), and in the conversion from the above equation (8) to the above equation (9), we focused on the signal components, but in reality Terms other than the signal component hinder development as noise. Therefore, noise cancellation based on fringe scan is effective.
フリンジスキャンのためには、撮影用パターン105として初期位相Φの異なる複数のパターンを使用する必要がある。図12に複数のパターンの例を示す。
For the fringe scan, it is necessary to use a plurality of patterns having different initial phases Φ as the photographing
図12は、フリンジスキャンにおける初期位相の撮影用パターンの組み合わせの例を示す図である。ここでは、(Φ=0)、(Φ=π/2)、(Φ=π)、(Φ=3π/2)となる4位相、すなわちπ/2ずつずれた位相を用いて撮影したセンサ画像を以下式に従って演算すると複素数のセンサ画像(複素センサ画像)が得られる。これを式で表すと、 FIG. 12 is a diagram showing an example of a combination of shooting patterns of the initial phase in the fringe scan. Here, the sensor image taken using four phases of (Φ = 0), (Φ = π / 2), (Φ = π), and (Φ = 3π / 2), that is, phases shifted by π / 2. Is calculated according to the following equation to obtain a complex sensor image (complex sensor image). Expressing this as an expression,
モアレ現像方式において、上式(10)と上式(11)を乗算すると、 In the moire development method, when the above equation (10) and the above equation (11) are multiplied,
同様に、相関現像方式についても確認すると、上式(10)、上式(11)のフーリエ変換はそれぞれ、 Similarly, when confirming the correlation development method, the Fourier transforms of the above equations (10) and (11) are, respectively.
なお、上記の例では、(Φ=0)、(Φ=π/2)、(Φ=π)、(Φ=3π/2)となるπ/2ずつずれた4位相の複数の現像用パターンを使用して説明したが、Φは0~2πの間の角度を等分するように設定すればよく、この位相に限定するものではない。 In the above example, a plurality of development patterns having four phases shifted by π / 2, which are (Φ = 0), (Φ = π / 2), (Φ = π), and (Φ = 3π / 2). However, Φ may be set so as to equally divide the angle between 0 and 2π, and is not limited to this phase.
以上の複数パターンによる撮影を実現する方法として、フリンジスキャンの処理において時分割でパターンを切り替える方法と、空間分割でパターンを切り替える方法が考えられる。 As a method of realizing the above-mentioned shooting with a plurality of patterns, a method of switching the pattern by time division in the fringe scan process and a method of switching the pattern by spatial division can be considered.
時分割フリンジスキャンを実現するには、例えば電気的に図12に示す複数の初期位相を切り替えて表示することが可能な液晶表示素子などを、図1における撮影用パターン105として使用すればよい。この液晶表示素子の切替タイミングと画像センサ103のシャッタタイミングを同期して制御し、4枚の画像を時系列に取得後にフリンジスキャン処理部106においてフリンジスキャン演算を実施する。
In order to realize the time-division fringe scan, for example, a liquid crystal display element capable of electrically switching and displaying a plurality of initial phases shown in FIG. 12 may be used as the photographing
これに対して、空間分割フリンジスキャンを実現するには、図13に示すように複数の初期位相を有する撮影用パターン105を使用する必要がある。全体として1枚の画像を取得後、フリンジスキャン処理部106においてそれぞれの初期位相のパターンに対応して当該画像を4枚に分割し、フリンジスキャン演算を実施する。
On the other hand, in order to realize the spatial division fringe scan, it is necessary to use the photographing
図13は、空間分割フリンジスキャンの撮影用パターンの例を示す図である。空間分割フリンジスキャンの撮影用パターン1300は、撮影用パターン105の応用例であるが、XY平面(画像センサ103と平行な面)上で空間的に分割して、複数の初期位相((Φ=0)、(Φ=π/2)、(Φ=π)、(Φ=3π/2)となる4位相)を含む撮影用パターンとしたものである。続いて、フリンジスキャン処理部106でのフリンジスキャン演算について説明する。
FIG. 13 is a diagram showing an example of a shooting pattern of the spatial division fringe scan. The space-divided fringe
図14は、フリンジスキャンの処理フローの例を示す図である。まず、フリンジスキャン処理部106は、画像センサ103から出力される複数の撮影パターンによるセンサ画像を取得するが、空間分割フリンジスキャンを採用する場合には取得したセンサ画像を個別の撮影パターンに応じて分割する必要があるため、所定の領域に分割して複数のセンサ画像とする(ステップ1401)。なお、時分割フリンジスキャンを採用する場合には、時間の経過に応じて異なる撮影パターンによるセンサ画像を複数得るため、分割は実施しない。
FIG. 14 is a diagram showing an example of a fringe scan processing flow. First, the fringe
次に、フリンジスキャン処理部106は、出力用の複素センサ画像を初期化する(ステップ1402)。
Next, the fringe
そして、フリンジスキャン処理部106は、一つ目の初期位相Φのセンサ画像を取得する(ステップ1403)。
Then, the fringe
そして、フリンジスキャン処理部106は、その初期位相Φに応じたexp(iΦ)を乗算する(ステップ1404)。
Then, the fringe
そして、フリンジスキャン処理部106は、乗算結果を、複素センサ画像に加算する(ステップ1405)。
Then, the fringe
フリンジスキャン処理部106は、このステップ1403からステップ1405までの処理を、使用した初期位相数だけ繰り返す(ステップ1406)。例えば、図12に示したような4位相を用いたフリンジスキャンでは、フリンジスキャン処理部106は、初期位相のそれぞれ(Φ=0)、(π/2)、(π)、(3π/2)の計4回繰り返す。
The fringe
そして、フリンジスキャン処理部106は、複素センサ画像を出力する(ステップ1407)。以上のステップ1401乃至ステップ1407のフリンジスキャン処理部106による処理は、上式(10)に相当する処理である。次に、画像処理部107での画像処理について説明する。
Then, the fringe
図15は、相関現像方式による現像処理の処理フローの例を示す図である。まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、複素センサ画像に対して2次元高速フーリエ変換(FFT:Fast Fourier Transform)演算を実施する(ステップ1501)。
FIG. 15 is a diagram showing an example of a processing flow of development processing by a correlation development method. First, the
次に、画像処理部107は、現像処理に使用する予め定められた現像用パターン801を生成し、2次元FFT演算した複素センサ画像に乗算する(ステップ1502)。
Next, the
そして、画像処理部107は、逆2次元FFT演算を行う(ステップ1503)。なお、この演算結果は複素数となる。
Then, the
そのため、画像処理部107は、逆2次元FFT演算の演算結果から絶対値化もしくは実部を取り出して撮影対象の像を実数化して現像する(ステップ1504)。
Therefore, the
その後、画像処理部107は、得られた現像画像に対してコントラスト強調処理を行う(ステップ1505)。さらに、画像処理部107は、カラーバランス調整(ステップ1506)等を実施し、撮影画像として出力する。以上が、相関現像方式による現像処理である。
After that, the
図16は、モアレ現像方式による現像処理の処理フローの例を示す図である。まず、画像処理部107は、フリンジスキャン処理部106から出力される複素センサ画像を取得し、現像処理に使用する予め定められた現像用パターン801を生成し、複素センサ画像に乗算する(ステップ1601)。
FIG. 16 is a diagram showing an example of a processing flow of development processing by a moire development method. First, the
そして、画像処理部107は、2次元FFT演算により周波数スペクトルを求める(ステップ1602)。
Then, the
そして、画像処理部107は、ステップ1602にて求めた周波数スペクトルのうち必要な周波数領域のデータを切り出す(ステップ1603)。
Then, the
以降のステップ1504の実数化処理、ステップ1505のコントラスト強調処理、ステップ1506のカラーバランス調整処理は、図15に示したステップ1504乃至ステップ1506の処理と同様であるため、説明を割愛する。
Subsequent realization processing in
〈有限距離物体の撮影原理〉次に、これまで述べた被写体が十分に遠い場合(無限遠の場合)における撮影用パターン105の画像センサ103への射影の様子を図17に示す。
<Principle of photographing a finite-distance object> Next, FIG. 17 shows a state of projection of the photographing
図17は、物体が無限距離にある場合の撮影用パターンの投影例を示す図である。遠方の物体を構成する点1701からの球面波は、十分に長い距離を伝搬する間に平面波となり撮影用パターン105を照射し、その投影像1702が画像センサ103に投影される場合、投影像は撮影用パターン105とほぼ同じ形状である。その結果、投影像1702に対して、現像用パターンを用いて現像処理を行うことにより、単一の輝点を得ることが可能である。これに比して、有限距離の物体に対する撮像について説明する。
FIG. 17 is a diagram showing an example of projection of a shooting pattern when an object is at an infinite distance. When the spherical wave from the
図18は、物体が有限距離にある場合の撮影用パターンの拡大投影例を示す図である。撮像する物体が有限距離にある場合には、撮影用パターン105の画像センサ103への射影が撮影用パターン105よりも拡大される。物体を構成する点1801からの球面波が撮影用パターン105を照射し、その投影像1802が画像センサ103に投影される場合、投影像はほぼ一様に拡大される。なお、この拡大率αは、撮影用パターン105から点1801までの距離fを用いて、
FIG. 18 is a diagram showing an example of magnified projection of a photographing pattern when an object is at a finite distance. When the object to be imaged is at a finite distance, the projection of the photographing
そこで、一様に拡大された撮影用パターン105の投影像に合わせて、現像用パターン801を拡大させたならば、拡大された投影像1802に対して再び、単一の輝点を得ることができる。このためには、現像用パターン801の係数βを、β/α2とすることで補正が可能である。これにより、必ずしも無限遠でない距離の点1801からの光を選択的に再生することができる。これによって、任意の位置に焦点を合わせて撮影を行うことができる。すなわち、焦点を被写体に合わせて撮影を行う場合に、現像用パターン801の拡大倍率を決定すればよい。
Therefore, if the development pattern 801 is enlarged to match the uniformly enlarged projection image of the photographing
さらに、本構成によれば、撮影後に任意の距離にフォーカスを合わせることも可能となる。この場合の構成を図19に示す。 Further, according to this configuration, it is possible to focus on an arbitrary distance after shooting. The configuration in this case is shown in FIG.
図19は、本発明の第二の実施例に係る撮像装置の構成を示す図である。第二の実施例に係る撮像装置は、基本的に第一の実施例に係る撮像装置と同様の構成を備える。ただし、第一の実施例と異なるのは、フォーカス設定部1901の存在である。フォーカス設定部1901は、撮像装置101に備え付けられたつまみや、スマートフォンのGUI(Graphical User Interface)などによってフォーカス距離の設定を受け付け、フォーカス距離情報を画像処理部107に出力する。
FIG. 19 is a diagram showing a configuration of an image pickup apparatus according to a second embodiment of the present invention. The image pickup apparatus according to the second embodiment basically has the same configuration as the image pickup apparatus according to the first embodiment. However, what is different from the first embodiment is the existence of the
さらに、このように撮影後のフォーカス調整が可能ということは、奥行情報を有しているということであり、オートフォーカスや測距といった様々な機能を画像処理部107において実現することが可能になる。
Further, the fact that the focus can be adjusted after shooting in this way means that the
このようなフォーカス設定をはじめとする機能を実現する上では、現像用パターン801の係数βを自由に変更することが必要となるが、本実施例で説明したフリンジスキャン処理部106における処理のようにフリンジスキャン演算を行うことにより、現像用パターン801を用いた処理を独立して行うことが可能となり、処理を簡易化することが可能となる。
In order to realize such a function such as focus setting, it is necessary to freely change the coefficient β of the developing pattern 801. However, it is similar to the processing in the fringe
〈空間分割フリンジスキャンの問題:被写体距離〉図18で説明したように、撮像する物体が有限距離にある場合には、撮影用パターン105の画像センサ103への射影が撮影用パターン105より拡大される。これは、空間分割フリンジスキャンを使用する際に問題となりうる。
<Problem of spatial division fringe scan: subject distance> As described in FIG. 18, when the object to be imaged is at a finite distance, the projection of the photographing
図20は、点光源と撮像装置の位置関係の例を示す図である。図20のように、撮像する物体が遠い距離fにある場合(点光源2001)と、近い距離f´(点光源2001´)にある場合と、を考える。 FIG. 20 is a diagram showing an example of the positional relationship between the point light source and the image pickup device. As shown in FIG. 20, consider the case where the object to be imaged is at a long distance f (point light source 2001) and the case where the object to be imaged is at a short distance f'(point light source 2001').
図21は、点光源の距離別のセンサ画像の例を示す図である。図21に示すように、撮像する物体からの光が空間分割フリンジスキャンの撮影用パターン105に照射され、その影が画像センサ103へ投影された際に投影される像は、撮像する物体と撮影パターンとの間の距離fの場合と、距離f´の場合とに応じて変化する。空間分割フリンジスキャンでは、フリンジスキャン処理部106においてそれぞれの初期位相のパターンに対応して4枚に分割する必要があるが、各象限のパターンの中心が被写体との距離fやf´に応じて変化している。例えば、第一象限1302の同心円の中心は、距離f´の場合の第一象限2102においては、右上にずれた状態となる。このように、各象限を常に同じ場所で分割しているとずれが発生し、フリンジスキャンの効果が減じられることになる。
FIG. 21 is a diagram showing an example of a sensor image for each distance of a point light source. As shown in FIG. 21, when the light from the object to be imaged is applied to the photographing
本問題を解決するには、式16の拡大率αを用いて画像補正を行った後に、各象限ごとの4枚にデータを分割すればよい。図22、図23のそれぞれに、図21のセンサ画像の中心を原点に配置した際の各パターンの中心を×でそれぞれ示す。 In order to solve this problem, after performing image correction using the enlargement ratio α of the equation 16, the data may be divided into four images for each quadrant. In each of FIGS. 22 and 23, the center of each pattern when the center of the sensor image of FIG. 21 is arranged at the origin is indicated by x.
図22は、点光源が無限遠にある場合のパターン中心座標の例を示す図である。図22においては、第一象限のパターン中心2201の座標は、(x0,y0)で表されている。
FIG. 22 is a diagram showing an example of pattern center coordinates when the point light source is at infinity. In FIG. 22, the coordinates of the
図23は、点光源が有限距離にある場合のパターン中心座標の例を示す図である。図23においては、第一象限のパターン中心2301の座標は、(x1,y1)で表されている。
FIG. 23 is a diagram showing an example of pattern center coordinates when the point light source is at a finite distance. In FIG. 23, the coordinates of the
図23のパターン中心2301の座標(x1,y1)は、図22のパターン中心2201の座標(x0,y0)から拡大率αで拡大されているので、座標(x1,y1)を座標(x0,y0)に変換するには、
Since the coordinates (x1, y1) of the
図24は、点光源が有限距離にある場合のセンサ画像の補正例を示す図である。図24に示すように、画像は縮小され、常に同じ位置がパターンの中心となる画像になるため、この例であれば各象限で画像を4分割すれば、各象限のセンサ画像を得られる。なお、画像を縮小することとなるため、得られるセンサ画像は補正前の画像サイズよりも小さくなる。この場合、余白領域2401には、0などの定数を補完するか、もしくはNAN値として使用しないようにしてもよい。
FIG. 24 is a diagram showing a correction example of the sensor image when the point light source is at a finite distance. As shown in FIG. 24, the image is reduced and the same position is always the center of the pattern. Therefore, in this example, if the image is divided into four in each quadrant, a sensor image in each quadrant can be obtained. Since the image is reduced, the obtained sensor image is smaller than the image size before correction. In this case, the
このように、式(17)に示す行列Mを用いて同心円の中心を基準に座標変換することにより、点光源が有限距離にある場合、すなわち被写体距離が有限距離である場合に生じる射影の拡大問題を解消できる。 In this way, by transforming the coordinates based on the center of the concentric circles using the matrix M shown in Eq. (17), the projection that occurs when the point light source is at a finite distance, that is, when the subject distance is a finite distance, is expanded. The problem can be solved.
〈空間分割フリンジスキャンの問題:パターン固定精度〉しかし、被写体距離によるずれを補正しただけでは不十分な場合がある。それは、撮像装置101を組み立てる際の精度や、撮影用パターン105の作製精度が十分でなく、ずれが生じている場合である。撮影用パターン105がずれて取り付けられた場合のセンサ画像の例を図25に示す。
<Problem of spatial division fringe scan: Pattern fixing accuracy> However, it may not be enough to correct the deviation due to the subject distance. It is a case where the accuracy when assembling the
図25は、撮影用パターンが回転している場合のセンサ画像の例を示す図である。この例では、撮影用パターン105は、原点を中心に角度-θだけ回転して取り付けられた場合のセンサ画像の例が示されている。
FIG. 25 is a diagram showing an example of a sensor image when the photographing pattern is rotated. In this example, an example of a sensor image when the photographing
これを補正する方法について説明する。まず、基準となるパターン(例えば、撮影用パターン105を被写体距離から求めた拡大率αで拡大した画像)との相互相関演算により各パターンの中心座標2501~2504を算出する。次に、中心座標2501~2504の4点の重心Oの座標を算出し、図26に示すように重心Oが原点と重なるように配置する。
A method for correcting this will be described. First, the center coordinates 2501 to 2504 of each pattern are calculated by cross-correlation calculation with a reference pattern (for example, an image obtained by enlarging the photographing
図26は、撮影用パターンが回転している場合のパターン中心座標の例を示す図である。この時、図26の第一象限のパターン中心2601の座標(x1,y1)を、図22のパターン中心2201の座標(x0,y0)に変換するには、
FIG. 26 is a diagram showing an example of the pattern center coordinates when the photographing pattern is rotated. At this time, in order to convert the coordinates (x1, y1) of the
なお、式(18)、式(19)に示した行列Hは、一般的にアフィン行列と呼ばれる2×2の要素を持つ行列であり、4つの座標の関係(この例では各パターンの中心座標2201~2204と中心座標2501~2504)から要素を算出することが可能である。アフィン行列を算出するのに用いる点は正しくは2点であるが、4点の情報を用いて最小二乗法を適用することにより、より精度の高いアフィン行列を得ることが可能である。 The matrix H shown in the equations (18) and (19) is a matrix having 2 × 2 elements generally called an affine matrix, and has a relationship of four coordinates (in this example, the center coordinates of each pattern). It is possible to calculate the elements from 2201 to 2204 and the center coordinates 2501 to 2504). The points used to calculate the affine matrix are correctly two points, but by applying the least squares method using the information of four points, it is possible to obtain a more accurate affine matrix.
次に、撮像装置を組み立てる際の精度が低い他の例について説明する。例えば、図27のように、撮影用パターン105が厚み方向に斜めにずれて配置された場合を考える。この状態で、点光源2001を撮影した際のセンサ画像の例を図28に示す。
Next, another example in which the accuracy when assembling the image pickup apparatus is low will be described. For example, consider a case where the photographing
図28は、撮影用パターンが厚み方向に傾いている状態のセンサ画像の例を示す図である。この場合には、図28のとおり、センサ画像は台形歪みを有する。台形歪みについては、式(18)のようなアフィン行列では補正しきれないが、ホモグラフィ行列を使用することでより容易に精度高く台形歪みを補正することが可能である。 FIG. 28 is a diagram showing an example of a sensor image in a state where the photographing pattern is tilted in the thickness direction. In this case, as shown in FIG. 28, the sensor image has trapezoidal distortion. The trapezoidal distortion cannot be completely corrected by the affine matrix as in Eq. (18), but it is possible to correct the trapezoidal distortion more easily and accurately by using the homography matrix.
これを補正する方法について説明する。まず、基準となるパターン(例えば、撮影用パターン105を被写体距離から求めた拡大率αで拡大した画像)との相互相関演算により各パターンの中心座標2801~2804を算出する。次に、中心座標2801~2804の4点の重心Oの座標を算出し、図29に示すように重心Oが原点と重なるように配置する。
A method for correcting this will be described. First, the center coordinates 2801 to 2804 of each pattern are calculated by cross-correlation calculation with a reference pattern (for example, an image obtained by enlarging the photographing
図29は、撮影用パターンが厚み方向に傾いている状態のパターン中心座標の例を示す図である。この時、図29の第一象限のパターン中心2801の座標(x1,y1)を、図22のパターン中心2201の座標(x0,y0)に変換するには、
FIG. 29 is a diagram showing an example of pattern center coordinates in a state where the photographing pattern is tilted in the thickness direction. At this time, in order to convert the coordinates (x1, y1) of the
以上の歪み補正を実現する構成および処理について、図30~図33を用いて説明する。図30に、歪み補正を実現する構成を示す。 The configuration and processing for realizing the above distortion correction will be described with reference to FIGS. 30 to 33. FIG. 30 shows a configuration that realizes distortion correction.
図30は、本発明の第三の実施例に係る撮像装置の構成例を示す図である。図30に示す撮像装置は、図19に示す第二の実施例に係る撮像装置と基本的に同一であるが、一部異なる。その相違を中心に、以下説明する。 FIG. 30 is a diagram showing a configuration example of an image pickup apparatus according to a third embodiment of the present invention. The image pickup apparatus shown in FIG. 30 is basically the same as the image pickup apparatus according to the second embodiment shown in FIG. 19, but is partially different. The differences will be mainly described below.
第三の実施例に係る撮像装置は、歪み補正用の行列H、行列Mを含む補正用パラメータを測定・格納するパラメータ格納部としての補正値格納部3001と、補正用パラメータを使用して歪み補正を実施するフリンジスキャン処理部3002を備える。なお、図31に示すように、補正値格納部3001は、撮像モジュール102に含まれるものであってもよい。その場合、補正値格納部3001は、補正値、すなわち補正のためのパラメータを、API(Application Programming Interface)を介した要求に応じて出力するパラメータ出力部として動作する。
The image pickup apparatus according to the third embodiment uses a correction
図31は、本発明の第三の実施例の変形例に係る撮像装置の構成例を示す図である。補正用パラメータは、撮像モジュール102の取り付けばらつきによって個体差があることを鑑みると、撮像モジュール102が撮像装置101から分離している構成においては、図31のように撮像モジュール102に補正値格納部3001が付随する形態の方が、汎用性がある。いずれの実施例であっても、補正値の算出方法(キャリブレーション方法)は、共通する。まず、補正値の算出方法(キャリブレーション方法)について述べる。
FIG. 31 is a diagram showing a configuration example of an image pickup apparatus according to a modified example of the third embodiment of the present invention. Considering that there are individual differences in the correction parameters due to variations in the mounting of the
図32は、キャリブレーションの処理フローの例を示す図である。まず、キャリブレーションの実施者は、図20のように、撮像モジュール102の光軸上にある点光源2001を撮像モジュール102に向けて照射する(ステップ3201)。この点光源2001は、LED(Light Emitting Diode)光源や太陽など、無限遠または被写体までの距離が判っている光源であれば何でもよい。
FIG. 32 is a diagram showing an example of a calibration processing flow. First, as shown in FIG. 20, the calibrator performs the irradiation of the
そして、キャリブレーションの実施者は、撮像モジュール102にセンサ画像を取得させる(ステップ3202)。
Then, the calibrator causes the
そして、フリンジスキャン処理部3002は、FZA(Fresnel Zone Aperture)の中心座標を算出する(ステップ3203)。具体的には、フリンジスキャン処理部3002は、基準となるパターン(例えば、撮影用パターン105を被写体距離から求めた拡大率αで拡大した画像)との相互相関演算により各パターンの中心座標(例:中心座標2801~2804)を算出する。
Then, the fringe
そして、フリンジスキャン処理部3002は、この中心座標群から重心Oを算出する(ステップ3204)。そして、フリンジスキャン処理部3002は、重心Oを原点に配置する。
Then, the fringe
そして、フリンジスキャン処理部3002は、補正行列Hを算出する(ステップ3205)。具体的には、フリンジスキャン処理部3002は、4つの中心座標のずれ方の関係(例:中心座標2201~2204と、中心座標2801~2804と、の回転関係や台形ゆがみの関係)から補正行列Hとなるホモグラフィ行列Hの3×3の要素を算出する。
Then, the fringe
そして、フリンジスキャン処理部3002は、補正用パラメータとして補正行列Hと重心Oの位置とを、補正値格納部3001に格納する(ステップ3206)。
Then, the fringe
以上が、キャリブレーションの処理である。キャリブレーションの処理によれば、センサ画像を補正するための行列Hと重心Oの位置とを特定し、パラメータとして補正値格納部3001に格納することができる。
The above is the calibration process. According to the calibration process, the matrix H for correcting the sensor image and the position of the center of gravity O can be specified and stored as parameters in the correction
つづいて、フリンジスキャン処理部3002が歪み補正処理を実施する。
Subsequently, the fringe
図33は、センサ画像の歪み補正処理フローの例を示す図である。まず、フリンジスキャン処理部3002は、補正値格納部3001から重心Oの位置を読み出し、センサ画像の重心Oを原点となる座標に移動させる(ステップ3301)。
FIG. 33 is a diagram showing an example of a distortion correction processing flow of the sensor image. First, the fringe
次に、フリンジスキャン処理部3002は、行列Mによる補正を行う(ステップ3302)。具体的には、フリンジスキャン処理部3002は、フォーカス設定部1901からフォーカスを合わせる距離f´の情報を取得し、距離f´に応じた行列Mを用いて補正を実施する。
Next, the fringe
そして、フリンジスキャン処理部3002は、行列Hによる補正を行う(ステップ3303)。具体的には、フリンジスキャン処理部3002は、補正値格納部3001から取得した行列Hによる補正を実施する。
Then, the fringe
その後は、図14に示したフリンジスキャンの処理フローのステップ1401~ステップ1407の処理と同様の処理を、行列Hによる補正を実施したセンサ画像に対して行う。
After that, the same processing as the processing of
なお、この例では行列Hと重心Oの位置の移動とを分けて処理するものとしたが、式(20)のように、3×3行列のホモグラフィ行列を用いる場合には、3×3行列に重心Oの移動の補正量を含めることが可能であるため、必ずしも分けて処理するものでなくともよい。 In this example, the movement of the position of the matrix H and the center of gravity O is processed separately, but when a 3 × 3 matrix homography matrix is used as in the equation (20), 3 × 3 is used. Since it is possible to include the correction amount of the movement of the center of gravity O in the matrix, it is not always necessary to process them separately.
また、キャリブレーションは事前に実施することを前提に説明したが、点光源や太陽を検出した際に撮影しながら補正用パラメータを再計算し、補正値格納部3001の情報を更新するようにしてもよい。すなわち、事前実施に限られず、使用環境下において随時キャリブレーションを行うようにしてもよい。
In addition, although the calibration was explained on the premise that it is performed in advance, the correction parameters are recalculated while shooting when a point light source or the sun is detected, and the information in the correction
以上が、第三の実施例に係る撮像装置である。第三の実施例に係る撮像装置によれば、撮像装置を組み立てる際の誤差や、撮影用パターンの作製時の誤差を補正し、且つフォーカス調整にかかる歪みを補正することで高精度な空間分割フリンジスキャンを実施することが可能となる。 The above is the image pickup apparatus according to the third embodiment. According to the image pickup apparatus according to the third embodiment, the error in assembling the image pickup apparatus and the error in the production of the shooting pattern are corrected, and the distortion related to the focus adjustment is corrected to achieve high-precision spatial division. It becomes possible to carry out a fringe scan.
第三の実施例の構成においては、センサ画像のフリンジスキャン前に歪みを補正していた(フリンジスキャン処理部3002において、ステップ3301~3303の処理を、ステップ1401~1407の処理の前に行っていた)が、センサ画像を無線や有線により他の装置へ伝送する場合には、情報の欠落防止を考慮して伝送する情報は無加工であることが望ましい場合がある。すなわち、歪み補正処理はフリンジスキャン後に行うのが好ましい場合がある。センサ画像のフリンジスキャン後に歪み補正する方法について、図34、図35を用いて説明する。
In the configuration of the third embodiment, the distortion is corrected before the fringe scan of the sensor image (in the fringe
図34は、本発明の第四の実施例に係る撮像装置の構成例を示す図である。第四の実施例に係る撮像装置は、第三の実施例に係る撮像装置と略同一であるが、一部において相違がある。第四の実施例に係る撮像装置が第三の実施例に係る撮像装置と異なるのは、補正値格納部3001の情報を画像処理部3401が読み出して利用する点である。すなわち、第四の実施例に係る撮像装置は、センサ画像の歪みを補正するのではなく、センサ画像と対応する歪みを現像用パターン801の方に付加する。第三の実施例では座標(x1,y1)を、座標(x0,y0)に変換するための行列Hを算出したが、本実施例では、
FIG. 34 is a diagram showing a configuration example of the image pickup apparatus according to the fourth embodiment of the present invention. The image pickup apparatus according to the fourth embodiment is substantially the same as the image pickup apparatus according to the third embodiment, but there are some differences. The image pickup apparatus according to the fourth embodiment is different from the image pickup apparatus according to the third embodiment in that the image processing unit 3401 reads out and uses the information of the correction
この場合の現像処理の流れは、上述の図15の相関現像方式による現像処理の処理フローと同等であるが、一部相違する。相関現像方式による現像処理のステップ1502における現像用パターン801の生成について、第四の実施例では、図35に示す処理の流れで実施する。
The flow of the development process in this case is the same as the process flow of the development process by the correlation development method of FIG. 15 described above, but is partially different. In the fourth embodiment, the generation of the developing pattern 801 in the
図35は、現像用パターンの歪み補正処理フローの例を示す図である。現像用パターンの歪み補正処理は、相関現像方式による現像処理のステップ1502において開始される。
FIG. 35 is a diagram showing an example of a distortion correction processing flow of a developing pattern. The distortion correction process of the development pattern is started in
なお、現像用パターンの歪み補正処理フローの実施前に、画像処理部3401は、図32に示したキャリブレーションの処理フローの例と同様に、式(21)の行列H’を予め歪み付加用の行列として算出しておく。具体的には、画像処理部3401は、4つの座標の関係(例:中心座標2201~2204と、中心座標2801~2804)から補正行列H’となるホモグラフィ行列H’の3×3の要素を予め算出しておく。 Before executing the distortion correction processing flow of the developing pattern, the image processing unit 3401 preliminarily applies the matrix H'of the equation (21) for distortion addition, as in the example of the calibration processing flow shown in FIG. 32. Calculate as a matrix of. Specifically, the image processing unit 3401 is a 3 × 3 element of the homography matrix H'that becomes the correction matrix H'from the relationship of the four coordinates (eg, the center coordinates 2201 to 2204 and the center coordinates 2801 to 2804). Is calculated in advance.
そして、現像時、すなわち現像用パターンの歪み補正処理においては、画像処理部3401は、図20のような空間分割フリンジスキャン用の同心円のパターン画像を生成する(ステップ3501)。 Then, at the time of development, that is, in the distortion correction processing of the development pattern, the image processing unit 3401 generates a pattern image of concentric circles for spatial division fringe scan as shown in FIG. 20 (step 3501).
そして、画像処理部3401は、重心Oを移動させる(ステップ3502)。具体的には、画像処理部3401は、補正値格納部3001から重心Oの位置を読み出し、空間分割フリンジスキャン用の同心円のパターン画像の中心を、原点とする座標から重心Oの位置分移動させる。
Then, the image processing unit 3401 moves the center of gravity O (step 3502). Specifically, the image processing unit 3401 reads the position of the center of gravity O from the correction
そして、画像処理部3401は、補正値格納部3001から取得した行列H’による補正を実施する(ステップ3503)。具体的には、補正値格納部3001から読み出した行列H’を用いて、空間分割フリンジスキャン用の同心円のパターン画像を変換する。
Then, the image processing unit 3401 performs the correction by the matrix H'acquired from the correction value storage unit 3001 (step 3503). Specifically, the matrix H'read from the correction
そして、画像処理部3401は、補正値格納部3001から取得した行列M’による補正を実施する(ステップ3504)。具体的には、画像処理部3401は、フォーカス設定部1901からフォーカスを合わせる距離f´を取得して、距離f´に応じた行列M’の情報を補正値格納部3001から取得し、補正を実施する。
Then, the image processing unit 3401 performs the correction by the matrix M'acquired from the correction value storage unit 3001 (step 3504). Specifically, the image processing unit 3401 acquires the focus distance f'from the
そして、画像処理部3401は、パターン画像を4つに分割する(ステップ3505)。これ以降の処理は、2次元FFT演算した複素センサ画像に乗算する図15の現像処理と同一である。 Then, the image processing unit 3401 divides the pattern image into four (step 3505). The subsequent processing is the same as the development processing of FIG. 15 for multiplying the complex sensor image calculated by the two-dimensional FFT.
なお、本方法では現像用パターン801を歪ませることから、モアレ現像方式では点光源現像時のモアレが単一周波数にならず像がボケることになる。よって、モアレ現像方式よりも相関現像方式の方が、親和性が高く望ましいといえる。 Since the development pattern 801 is distorted in this method, in the moire development method, the moire at the time of point light source development does not become a single frequency and the image is blurred. Therefore, it can be said that the correlation development method has a higher affinity and is preferable to the moire development method.
以上が、第四の実施例に係る撮像装置である。第四の実施例に係る方法・構成によれば、撮像装置を組み立てる際の誤差や、撮影用パターンの作製時の誤差を補正し、且つフォーカス調整にかかる歪みを補正することで高精度な空間分割フリンジスキャンを実施することが可能となる。 The above is the image pickup apparatus according to the fourth embodiment. According to the method / configuration according to the fourth embodiment, a highly accurate space is obtained by correcting an error in assembling an image pickup device and an error in making a pattern for photographing, and also correcting a distortion related to focus adjustment. It is possible to perform a split fringe scan.
第三および第四の実施例では、撮像装置を組み立てる際の誤差や、撮影用パターンの作製時の誤差を補正し、且つフォーカス調整にかかる歪みを補正する方法について説明した。しかし、撮影用パターンや画像センサの欠陥、汚れ、ゴミに対する補正は考慮されていなかった。第五の実施例では、この欠陥保護の方法について図36乃至40を用いて説明する。この欠陥の問題点についてまず、図37を用いて明らかにする。 In the third and fourth embodiments, a method of correcting an error in assembling an image pickup apparatus, an error in producing a pattern for photographing, and a distortion in focus adjustment has been described. However, corrections for defects, stains, and dust in the shooting pattern and the image sensor were not taken into consideration. In the fifth embodiment, this defect protection method will be described with reference to FIGS. 36 to 40. First, the problem of this defect will be clarified with reference to FIG. 37.
図37は、撮影用パターンに汚れ等が付着している場合の画像の例を示す図である。時分割フリンジスキャンであれば、4つのパターン全ての同じ位置に欠陥が現れるため、センサ画像としては一箇所に欠陥が記録される。空間分割フリンジスキャンの場合には、欠陥3801のようにパターン3803の象限にのみ欠陥が存在することになるため、他のパターンと整合が取れない。図37のパターン3802の象限とパターン3803の象限とについて、点線に沿って輝度分布をマッピングすると、それぞれ図38、図39に示すグラフを得られる。
FIG. 37 is a diagram showing an example of an image in the case where stains or the like are attached to the photographing pattern. In the case of time-division fringe scan, defects appear at the same positions in all four patterns, so that defects are recorded in one place as a sensor image. In the case of the spatial division fringe scan, since the defect exists only in the quadrant of the
図38は、理想的なセンサ画像の輝度分布例を示す図である。すなわち、パターン3802に示されるように、同心円パターンのマスク部分について輝度が小さくなる信号成分を得られる。
FIG. 38 is a diagram showing an example of brightness distribution of an ideal sensor image. That is, as shown in the
図39は、欠陥のあるセンサ画像の輝度分布例を示す図である。すなわち、パターン3803に示されるように、同心円パターンのマスク部分について輝度が小さくなる信号成分を得られるが、欠陥3801の一部により輝度がマスク部分とは無関係に小さくなる。なお、当然に、欠陥3801の度合いに応じて、輝度の減少度合いは異なる。すなわち、欠陥が軽微なものであれば輝度の減少度合いは少なく、欠陥が甚大なものであれば輝度の減少度合いは多くなる。
FIG. 39 is a diagram showing an example of luminance distribution of a defective sensor image. That is, as shown in the
図37に示す状態では、欠陥部分のフリンジスキャンが正しく実施されず、その誤差が画像全体に波及することになり画質が低下する(有意な画像が得られなくなる)。これは、欠陥領域の輝度差が信号成分の輝度差よりも一般的に大きく、影響度が大きいためである。この欠陥位置を特定し、現像処理から除外する方が欠陥の影響が小さくなり、S/N比が悪くなる程度の影響に抑えることができる。第五の実施例の構成について、図36に示す。 In the state shown in FIG. 37, the fringe scan of the defective portion is not performed correctly, and the error spreads to the entire image, resulting in deterioration of image quality (significant image cannot be obtained). This is because the luminance difference in the defect region is generally larger than the luminance difference of the signal component, and the degree of influence is large. By specifying the defect position and excluding it from the developing process, the influence of the defect becomes smaller and the influence of the S / N ratio becomes worse. The configuration of the fifth embodiment is shown in FIG.
図36は、本発明の第五の実施例に係る撮像装置の構成例を示す図である。第五の実施例に係る撮像装置は、基本的に第四の実施例に係る撮像装置と同様であるが、一部に相違がある。 FIG. 36 is a diagram showing a configuration example of the image pickup apparatus according to the fifth embodiment of the present invention. The image pickup apparatus according to the fifth embodiment is basically the same as the image pickup apparatus according to the fourth embodiment, but there are some differences.
第五の実施例に係る撮像装置が、第四の実施例に係る撮像装置と異なる点は、欠陥検出部3601を備える点と、画像処理部3602が欠陥保護処理を実施する点である。欠陥検出部3601は、フリンジスキャン処理部106からセンサ画像を取得し、図38、図39に示すように、欠陥検出閾値よりも輝度が低い領域を検出すると、当該領域を特定する欠陥信号を出力するとともに、補正値格納部3001に格納する。すなわち、欠陥信号が出力された位置を特定する情報が補正値格納部3001に格納される。そのような情報には、例えば欠陥のあるセンサ上の座標を逐一指定する情報に限られず、センサ上の矩形領域を特定する情報や、欠陥部位が含まれる最小円の中心と半径であってもよい。
The image pickup apparatus according to the fifth embodiment is different from the image pickup apparatus according to the fourth embodiment in that it includes a defect detection unit 3601 and that the image processing unit 3602 performs defect protection processing. The defect detection unit 3601 acquires a sensor image from the fringe
欠陥検出部3601による最も簡便な欠陥検出方法は上述のとおりであるが、信号成分の振幅が大きい時には欠陥と信号の判別が困難になることがある。そこで、欠陥検出部3601は、フリンジスキャンにおけるΦ=0、πのセンサ画像の組み合わせ、もしくはΦ=π/2、3π/2のセンサ画像の組み合わせのように、位相がπずれた関係、すなわち同心円の白黒が反転した状態にある2つのセンサ画像を加算することで、欠陥を判別するようにしてもよい。この処理は、図14のフリンジスキャンの処理のステップ1401とステップ1402の間で行われるようにするのが望ましい。図38、図39に示した信号に対してこの加算を実施した結果を、図40に示す。
The simplest defect detection method by the defect detection unit 3601 is as described above, but when the amplitude of the signal component is large, it may be difficult to distinguish between the defect and the signal. Therefore, the defect detection unit 3601 has a relationship of π-shifted phase, that is, concentric circles, such as a combination of sensor images of Φ = 0 and π in fringe scan, or a combination of sensor images of Φ = π / 2 and 3π / 2. Defects may be discriminated by adding two sensor images in which black and white are inverted. It is desirable that this process be performed between
図40は、反転パターン合成による欠陥検出の例を示す図である。図40に示すように、正常な信号成分が相殺によりキャンセルされて輝度変動成分のみが残留することになる。この応答に対して、欠陥検出部3601は、平均値の±定数の範囲となる欠陥検出閾値を用いて、残留した輝度が欠陥検出閾値を下回るもしくは上回る領域について、欠陥信号を出力し補正値格納部3001に記憶させる。この方法によれば、被写体によらず安定した欠陥検出が可能となる。この欠陥検出を、すべてのセンサ画像のそれぞれにおいて行うようにしてもよいし、反転パターンをペアとして、ペアごとに行うようにしてもよい。
FIG. 40 is a diagram showing an example of defect detection by inversion pattern synthesis. As shown in FIG. 40, the normal signal component is canceled by the offset and only the luminance fluctuation component remains. In response to this response, the defect detection unit 3601 outputs a defect signal and stores the correction value in the region where the residual brightness is below or above the defect detection threshold value using the defect detection threshold value within the range of ± constant of the average value. It is stored in the
そして、画像処理部3602において、欠陥検出部3601の出力である欠陥信号を用いて、現像用パターンの欠陥信号に該当する箇所をNAN値として使用しない処理、すなわちデータのマスク処理を施す。 Then, in the image processing unit 3602, using the defect signal output from the defect detection unit 3601, a process of not using the portion corresponding to the defect signal of the developing pattern as a NAN value, that is, a data mask process is performed.
なお、欠陥信号をセンサ画像ではなく画像処理部3602の現像用パターンに対して適用する場合には、第四の実施例のように、行列H’、行列M’を使用して欠陥信号に該当する位置を補正することが望ましい。 When the defect signal is applied not to the sensor image but to the development pattern of the image processing unit 3602, it corresponds to the defect signal by using the matrix H'and the matrix M'as in the fourth embodiment. It is desirable to correct the position to be used.
また、欠陥信号を画像処理部3602ではなく、第三の実施例の図30のフリンジスキャン処理部3002に入力し、センサ画像の各パターン全ての同一箇所(パターン中心と欠陥信号の相対位置が同じとなる箇所)をNAN値として使用しない処理を施すようにしてもよい。
Further, the defect signal is input not to the image processing unit 3602 but to the fringe
以上、第五の実施例について説明した。第五の実施例に係る撮像装置によれば、撮像装置を組み立てる際の誤差や、撮影用パターンの作製時の誤差を補正し、且つフォーカス調整にかかる歪みを補正するだけでなく、撮影用パターンや画像センサの欠陥、汚れ、ゴミに対する補正も実施することでより高精度な空間分割フリンジスキャンを実施することが可能となる。 The fifth embodiment has been described above. According to the image pickup apparatus according to the fifth embodiment, not only the error in assembling the image pickup apparatus and the error in the production of the photographing pattern are corrected, and the distortion related to the focus adjustment is corrected, but also the photographing pattern is corrected. It is possible to perform more accurate spatial division fringe scan by correcting defects, stains, and dust in the image sensor.
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention is not limited to the above examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。 Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
以上、本発明について、実施例を中心に説明した。 The present invention has been described above with a focus on examples.
101・・・撮像装置、102・・・撮像モジュール、103・・・画像センサ、103a・・・画素、104・・・パターン基板、105・・・撮影用パターン、106・・・フリンジスキャン処理部、107・・・画像処理部、108・・・コントローラ、301・・・支持部材、801・・・現像用パターン、1300・・・撮影用パターン、1302・・・第一象限、1701,1801・・・点、1702,1802・・・投影像、1901・・・フォーカス設定部、2001,2001´・・・光源、2101・・・第二象限、2102・・・第一象限、2103・・・第三象限、2104・・・第四象限、2401・・・余白領域、2201,2301,2501,2601,2801・・・第一象限のパターン中心、2502,2602,2802・・・第二象限のパターン中心、2503,2603,2803・・・第三象限のパターン中心、2504,2604,2804・・・第四象限のパターン中心、3001・・・補正値格納部、3002・・・フリンジスキャン処理部、3401・・・画像処理部、3601・・・欠陥検出部、3602・・・画像処理部、3801・・・欠陥、3802・・・第四象限のパターン、3803・・・第一象限のパターン。 101 ... Imaging device, 102 ... Imaging module, 103 ... Image sensor, 103a ... Pixels, 104 ... Pattern substrate, 105 ... Shooting pattern, 106 ... Fringe scan processing unit , 107 ... Image processing unit, 108 ... Controller, 301 ... Support member, 801 ... Development pattern, 1300 ... Shooting pattern, 1302 ... First quadrant, 1701, 1801 ... .. Point, 1702, 1802 ... Projection image, 1901 ... Focus setting unit, 2001, 2001'... Light source, 2101 ... Second quadrant, 2102 ... First quadrant, 2103 ... Third quadrant, 2104 ... Fourth quadrant, 2401 ... Margin area, 2201,2301,251,260,2801 ... First quadrant pattern center, 2502,2602,2802 ... Second quadrant Pattern center, 2503, 263, 2803 ... Third quadrant pattern center, 2504, 264, 2804 ... Fourth quadrant pattern center, 3001 ... Correction value storage unit, 3002 ... Fringe scan processing unit 3,401 ... Image processing unit, 3601 ... Defect detection unit, 3602 ... Image processing unit, 3801 ... Defect, 3802 ... Fourth quadrant pattern, 3803 ... First quadrant pattern ..
Claims (10)
撮影用パターンに基づいて前記画像センサで検出される光の強度を変調する変調器と、
前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、
を有し、
前記パラメータには、前記撮影用パターンごとに前記画像センサ面上の移動量を特定する情報として、前記撮影用パターンの同心円の中心を基準に台形歪みを補正する情報が含まれる、
ことを特徴とする撮像装置。 An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light detected by the image sensor based on a shooting pattern, and
A parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
Have,
The parameter includes information for correcting trapezoidal distortion with reference to the center of concentric circles of the imaging pattern as information for specifying the amount of movement on the image sensor surface for each imaging pattern.
An imaging device characterized by this.
撮影用パターンに基づいて前記画像センサで検出される光の強度を変調する変調器と、
前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、
を有し、
前記撮影用パターンには、同心円状のパターンが設けられ、
前記パラメータには、前記撮影用パターンごとに前記画像センサのセンサ面上の移動量を特定する情報として、前記撮影用パターンの同心円の中心間の重心の移動量と、該重心を回転の中心とする回転角度に相当する情報を特定する情報が含まれる、
ことを特徴とする撮像装置。 An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light detected by the image sensor based on a shooting pattern, and
A parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
Have,
The shooting pattern is provided with a concentric pattern.
The parameters include the amount of movement of the center of gravity between the centers of concentric circles of the imaging pattern and the center of rotation as the center of rotation as information for specifying the amount of movement of the image sensor on the sensor surface for each imaging pattern. Contains information that identifies information that corresponds to the rotation angle to be
An imaging device characterized by this.
撮影用パターンに基づいて前記画像センサで検出される光の強度を変調する変調器と、
前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、
を有し、
前記所定の補正処理は、ホモグラフィ変換であって、
前記パラメータは、前記ホモグラフィ変換に用いる3×3行列を特定する情報である、
ことを特徴とする撮像装置。 An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light detected by the image sensor based on a shooting pattern, and
A parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
Have,
The predetermined correction process is a homography transformation, and is
The parameter is information for specifying the 3 × 3 matrix used for the homography transformation.
An imaging device characterized by this.
撮影用パターンに基づいて前記画像センサで検出される光の強度を変調する変調器と、
前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、
を有し、
前記所定の補正処理は、アフィン変換であって、
前記パラメータは、前記アフィン変換に用いる2×2行列を特定する情報である、
ことを特徴とする撮像装置。 An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light detected by the image sensor based on a shooting pattern, and
A parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
Have,
The predetermined correction process is an affine transformation.
The parameter is information for specifying the 2 × 2 matrix used for the affine transformation.
An imaging device characterized by this.
撮影用パターンに基づいて前記画像センサで検出される光の強度を変調する変調器と、
前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを記憶するパラメータ記憶部と、
を有し、
前記センサ画像の欠陥部位を検出する欠陥検出部を備え、
前記所定の補正処理は、前記欠陥部位を除外する処理であって、
前記パラメータは、前記欠陥部位を特定する情報であり、
前記欠陥検出部は、前記撮影用パターンのうち反転パターンを有する撮影用パターンにより得られた前記センサ画像同士を合成して所定以上の出力を有する部位を前記欠陥部位として検出する、
ことを特徴とする撮像装置。 An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light detected by the image sensor based on a shooting pattern, and
A parameter storage unit that stores parameters used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images.
Have,
A defect detection unit for detecting a defect portion of the sensor image is provided.
The predetermined correction process is a process of excluding the defective portion.
The parameter is information for identifying the defect site, and is
The defect detection unit synthesizes the sensor images obtained by the imaging pattern having an inversion pattern among the imaging patterns, and detects a portion having an output equal to or higher than a predetermined value as the defect portion.
An imaging device characterized by this.
前記撮像装置は、
撮影用パターンを透過させた光の強度を変調する変調ステップと、
画像センサにより前記変調した光を電気信号に変換し、センサ画像を生成する画像生成ステップと、
フリンジスキャン処理部により、前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを所定の記憶部から読み出して前記補正処理を実行する補正ステップと、
を実施し、
前記パラメータには、前記撮影用パターンごとに前記画像センサ面上の移動量を特定する情報として、前記撮影用パターンの同心円の中心を基準に台形歪みを補正する情報が含まれる、
ことを特徴とする撮像方法。 It is an imaging method using an imaging device.
The image pickup device
A modulation step that modulates the intensity of the light transmitted through the shooting pattern,
An image generation step of converting the modulated light into an electric signal by an image sensor to generate a sensor image, and
The fringe scan processing unit reads from a predetermined storage unit a parameter used to execute a predetermined correction processing for a plurality of the sensor images captured by different imaging patterns among the sensor images, and executes the correction processing. Steps and
And carry out
The parameter includes information for correcting trapezoidal distortion with reference to the center of concentric circles of the imaging pattern as information for specifying the amount of movement on the image sensor surface for each imaging pattern.
An imaging method characterized by that.
前記撮像装置は、 The image pickup device
撮影用パターンを透過させた光の強度を変調する変調ステップと、 A modulation step that modulates the intensity of the light transmitted through the shooting pattern,
画像センサにより前記変調した光を電気信号に変換し、センサ画像を生成する画像生成ステップと、 An image generation step of converting the modulated light into an electric signal by an image sensor to generate a sensor image, and
フリンジスキャン処理部により、前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを所定の記憶部から読み出して前記補正処理を実行する補正ステップと、 The fringe scan processing unit reads from a predetermined storage unit a parameter used to execute a predetermined correction processing for a plurality of the sensor images captured by different imaging patterns among the sensor images, and executes the correction processing. Steps and
を実施し、 And carry out
前記撮影用パターンには、同心円状のパターンが設けられ、 The shooting pattern is provided with a concentric pattern.
前記パラメータには、前記撮影用パターンごとに前記画像センサのセンサ面上の移動量を特定する情報として、前記撮影用パターンの同心円の中心間の重心の移動量と、該重心を回転の中心とする回転角度に相当する情報を特定する情報が含まれる、 The parameters include the amount of movement of the center of gravity between the centers of concentric circles of the imaging pattern and the center of rotation as the center of rotation as information for specifying the amount of movement of the image sensor on the sensor surface for each imaging pattern. Contains information that identifies information that corresponds to the rotation angle to be
ことを特徴とする撮像方法。 An imaging method characterized by that.
前記撮像装置は、 The image pickup device
撮影用パターンを透過させた光の強度を変調する変調ステップと、 A modulation step that modulates the intensity of the light transmitted through the shooting pattern,
画像センサにより前記変調した光を電気信号に変換し、センサ画像を生成する画像生成ステップと、 An image generation step of converting the modulated light into an electric signal by an image sensor to generate a sensor image, and
フリンジスキャン処理部により、前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを所定の記憶部から読み出して前記所定の補正処理を実行する補正ステップと、 The fringe scan processing unit reads out from a predetermined storage unit a parameter used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images, and executes the predetermined correction process. Correction steps to be performed and
を実施し、 And carry out
前記所定の補正処理は、ホモグラフィ変換であって、 The predetermined correction process is a homography transformation, and is
前記パラメータは、前記ホモグラフィ変換に用いる3×3行列を特定する情報である、 The parameter is information for specifying the 3 × 3 matrix used for the homography transformation.
ことを特徴とする撮像方法。 An imaging method characterized by that.
前記撮像装置は、 The image pickup device
撮影用パターンを透過させた光の強度を変調する変調ステップと、 A modulation step that modulates the intensity of the light transmitted through the shooting pattern,
画像センサにより前記変調した光を電気信号に変換し、センサ画像を生成する画像生成ステップと、 An image generation step of converting the modulated light into an electric signal by an image sensor to generate a sensor image, and
フリンジスキャン処理部により、前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを所定の記憶部から読み出して前記所定の補正処理を実行する補正ステップと、 The fringe scan processing unit reads out from a predetermined storage unit a parameter used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images, and executes the predetermined correction process. Correction steps to be performed and
を実施し、 And carry out
前記所定の補正処理は、アフィン変換であって、 The predetermined correction process is an affine transformation.
前記パラメータは、前記アフィン変換に用いる2×2行列を特定する情報である、 The parameter is information for specifying the 2 × 2 matrix used for the affine transformation.
ことを特徴とする撮像方法。 An imaging method characterized by that.
前記撮像装置は、 The image pickup device
撮影用パターンを透過させた光の強度を変調する変調ステップと、 A modulation step that modulates the intensity of the light transmitted through the shooting pattern,
画像センサにより前記変調した光を電気信号に変換し、センサ画像を生成する画像生成ステップと、 An image generation step of converting the modulated light into an electric signal by an image sensor to generate a sensor image, and
フリンジスキャン処理部により、前記センサ画像のうち異なる前記撮影用パターンによって撮影された複数の前記センサ画像に対する所定の補正処理の実行に用いるパラメータを所定の記憶部から読み出して前記所定の補正処理を実行する補正ステップと、 The fringe scan processing unit reads out from a predetermined storage unit a parameter used for executing a predetermined correction process for a plurality of the sensor images captured by different imaging patterns among the sensor images, and executes the predetermined correction process. Correction steps to be performed and
を実施し、 And carry out
前記センサ画像の欠陥部位を検出する欠陥検出部を備え、 A defect detection unit for detecting a defect portion of the sensor image is provided.
前記所定の補正処理は、前記欠陥部位を除外する処理であって、 The predetermined correction process is a process of excluding the defective portion.
前記パラメータは、前記欠陥部位を特定する情報であり、 The parameter is information for identifying the defect site, and is
前記欠陥検出部は、前記撮影用パターンのうち反転パターンを有する撮影用パターンにより得られた前記センサ画像同士を合成して所定以上の出力を有する部位を前記欠陥部位として検出する、 The defect detection unit synthesizes the sensor images obtained by the imaging pattern having an inversion pattern among the imaging patterns, and detects a portion having an output equal to or higher than a predetermined value as the defect portion.
ことを特徴とする撮像方法。 An imaging method characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018173930A JP7097787B2 (en) | 2018-09-18 | 2018-09-18 | Imaging device and imaging method |
PCT/JP2019/010263 WO2020059181A1 (en) | 2018-09-18 | 2019-03-13 | Imaging device and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018173930A JP7097787B2 (en) | 2018-09-18 | 2018-09-18 | Imaging device and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020048031A JP2020048031A (en) | 2020-03-26 |
JP7097787B2 true JP7097787B2 (en) | 2022-07-08 |
Family
ID=69886883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018173930A Active JP7097787B2 (en) | 2018-09-18 | 2018-09-18 | Imaging device and imaging method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7097787B2 (en) |
WO (1) | WO2020059181A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7159118B2 (en) * | 2019-06-25 | 2022-10-24 | 株式会社日立製作所 | Imaging device |
WO2023127509A1 (en) * | 2021-12-27 | 2023-07-06 | ソニーグループ株式会社 | Adjustment device and operation method of adjustment device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166255A (en) | 2010-02-05 | 2011-08-25 | Panasonic Corp | Image pickup device |
JP2018061109A (en) | 2016-10-04 | 2018-04-12 | 株式会社日立製作所 | Imaging apparatus and imaging method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3014895B2 (en) * | 1993-06-02 | 2000-02-28 | 株式会社日立製作所 | Video camera |
JPH11205652A (en) * | 1998-01-19 | 1999-07-30 | Yoshikazu Ichiyama | Learning digital image input device |
-
2018
- 2018-09-18 JP JP2018173930A patent/JP7097787B2/en active Active
-
2019
- 2019-03-13 WO PCT/JP2019/010263 patent/WO2020059181A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011166255A (en) | 2010-02-05 | 2011-08-25 | Panasonic Corp | Image pickup device |
JP2018061109A (en) | 2016-10-04 | 2018-04-12 | 株式会社日立製作所 | Imaging apparatus and imaging method |
Also Published As
Publication number | Publication date |
---|---|
WO2020059181A1 (en) | 2020-03-26 |
JP2020048031A (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6820908B2 (en) | Imaging device | |
US10423002B2 (en) | Imaging apparatus capable of generating an image using moire without a lens | |
US10670829B2 (en) | Imaging device | |
JP6685887B2 (en) | Imaging device | |
JP6721698B2 (en) | Imaging device | |
JP7097787B2 (en) | Imaging device and imaging method | |
CN110324513B (en) | Image pickup apparatus, image pickup module, and image pickup method | |
CN109900249B (en) | Distance measuring device and distance measuring method | |
JP2018098758A (en) | Imaging device | |
JP6807281B2 (en) | Imaging device, imaging system, and imaging method | |
JP6864604B2 (en) | Imaging device | |
JP6807286B2 (en) | Imaging device and imaging method | |
JP2023016864A (en) | Imaging apparatus and method | |
JP6947891B2 (en) | Mobile information terminal | |
JP6770164B2 (en) | Imaging device | |
JP2019149674A (en) | Imaging apparatus, imaging method, and image processing apparatus | |
JP7065761B2 (en) | Distance measuring device and distance measuring method | |
JP6814762B2 (en) | Imaging device | |
JP6636663B2 (en) | Imaging device and image generation method | |
JP2021064000A (en) | Imaging device | |
JP2022003801A (en) | Imaging apparatus | |
JP2020098963A (en) | Imaging apparatus | |
JP2021005743A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220628 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7097787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |