JP6887223B2 - Plenoptic Forbidden Camera - Google Patents

Plenoptic Forbidden Camera Download PDF

Info

Publication number
JP6887223B2
JP6887223B2 JP2016125154A JP2016125154A JP6887223B2 JP 6887223 B2 JP6887223 B2 JP 6887223B2 JP 2016125154 A JP2016125154 A JP 2016125154A JP 2016125154 A JP2016125154 A JP 2016125154A JP 6887223 B2 JP6887223 B2 JP 6887223B2
Authority
JP
Japan
Prior art keywords
color
microimage
area
filter array
color filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016125154A
Other languages
Japanese (ja)
Other versions
JP2017017690A (en
JP2017017690A5 (en
Inventor
ヴァンダム,ブノワ
ボレル,ティエリ
シェヴァリエ,ルイス
Original Assignee
インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ filed Critical インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Publication of JP2017017690A publication Critical patent/JP2017017690A/en
Publication of JP2017017690A5 publication Critical patent/JP2017017690A5/ja
Application granted granted Critical
Publication of JP6887223B2 publication Critical patent/JP6887223B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/005Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration for correction of secondary colour or higher-order chromatic aberrations
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/22Absorbing filters
    • G02B5/223Absorbing filters containing organic substances, e.g. dyes, inks or pigments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本開示の分野は、ライトフィールドイメージングに関係がある。特に、本開示は、カラーのライトフィールドイメージを記録するための技術に関連する。 The fields of this disclosure relate to light field imaging. In particular, the present disclosure relates to techniques for recording color light field images.

より具体的には、本開示は、プレンオプティックカメラのセンサに取り付けられることを対象としたカラーフィルタアレイ(CFA;Color Filter Array)に関係がある。 More specifically, the present disclosure relates to a color filter array (CFA) intended to be attached to a sensor of a Plen optic camera.

本項目は、以下で記載及び/又は請求される本開示の様々な態様に関連し得る技術の様々な態様を読者に紹介することを目的とする。この議論は、本開示の様々な態様のより良い理解を助けるよう読者に背景情報を提供するのに有用であると信じられている。然るに、それらの記述は、この観点から読まれるべきであり、先行技術の承認としてではないことが理解されるべきである。 This item is intended to introduce to the reader various aspects of the technology that may be relevant to the various aspects of the disclosure described and / or claimed below. This discussion is believed to be useful in providing background information to the reader to aid in a better understanding of the various aspects of this disclosure. However, it should be understood that those statements should be read from this point of view, not as a prior art approval.

従来のイメージキャプチャデバイスは、3次元の場面を2次元のセンサの上にレンダリングする。動作中、従来のキャプチャデバイスは、デバイス内のセンサ(又は光検出器)の上の各点に届く光の量を表す2次元(2D)イメージを捕捉する。しかし、この2Dイメージは、センサに届く光線の方向分布に関する情報(ライトフィールドと呼ばれ得る。)を含まない。例えば、奥行きは、捕捉の間に失われる。よって、従来のキャプチャデバイスは、場面からの光分布に関する情報の大部分を保持しない。 Traditional image capture devices render a 3D scene onto a 2D sensor. During operation, conventional capture devices capture a two-dimensional (2D) image that represents the amount of light that reaches each point on a sensor (or photodetector) within the device. However, this 2D image does not contain information about the directional distribution of light rays reaching the sensor (which can be called a light field). For example, depth is lost during capture. Therefore, conventional capture devices do not retain most of the information about the light distribution from the scene.

ライトフィールドキャプチャデバイス(“ライトフィールドデータ収集デバイス”とも呼ばれる。)は、場面の異なる視点からの光を捕捉することによって、その場面の4次元(4D)ライトフィールドを計測するよう設計されてきた。よって、センサを横断する光の各ビームに沿って移動する光の量を計測することで、そのようなデバイスは、後処理によって新しいイメージングアプリケーションを提供するために、追加の光情報(光線の束の方向分布に関する情報)を捕捉することができる。ライトフィールドキャプチャデバイスによって収集/入手された情報は、ライトフィールドデータと呼ばれる。ライトフィールドキャプチャデバイスは、ライトフィールドデータを捕捉することができる如何なるデバイスとしてもここで定義される。 Lightfield capture devices (also referred to as "lightfield data acquisition devices") have been designed to measure the four-dimensional (4D) lightfield of a scene by capturing light from different perspectives of the scene. Thus, by measuring the amount of light traveling along each beam of light across the sensor, such devices can post-process additional light information (bundles of light) to provide new imaging applications. Information on the directional distribution of The information collected / obtained by the light field capture device is called light field data. A light field capture device is defined herein as any device capable of capturing light field data.

ライトフィールドデータの処理は、特に、しかし制限なしに、場面のリフォーカシングされたイメージを生成すること、場面の夫々のビューを生成すること、場面の深度マップを生成すること、拡張焦点深度(EDOF;extended depth of field)イメージを生成すること、立体イメージを生成すること、及び/又はそれらのあらゆる組み合わせを含む。 The processing of light field data, in particular but without limitation, is to generate a refocused image of the scene, to generate each view of the scene, to generate a depth map of the scene, to extend depth of focus (EDOF). Includes extending depth of field) generating images, generating stereoscopic images, and / or any combination thereof.

ライトフィールドキャプチャデバイスの幾つかの既存のグループの中でも、“プレンオプティックデバイス”又は“プレンオプティックカメラ(plenoptic camera)”は、センサの前で、メインレンズのイメージ焦点フィールドに位置するマイクロレンズアレイを備える。センサ上には、マイクロレンズごとに1つのマイクロイメージが投影される。以下の記載において、1つ(又は複数)のマイクロイメージが投影されることを対象とするセンサのエリアは、“マイクロイメージエリア”又は“センサマイクロイメージ”又は“センサのマイクロイメージ”又は“露光区間”又は“投影の区間”と呼ばれる。結果として得られる場面のロー(raw)イメージは、1つのセンサマイクロイメージ及び/又は他に属するセンサの全ピクセルの和である。その場合に、ライトフィールドの角度情報は、マイクロイメージエリアにおけるピクセルの、それらの中心に対する相対位置によって与えられる。このローイメージに基づき、特定の視点からの捕捉された場面のイメージの抽出(“デマルチプレキング”とも呼ばれる。)は、実行され得る。デマルチプレキングプロセスは、2Dのローイメージから4Dのライトフィールドへのデータ変換と見なされ得る。結果として起こるデマルチプレキングされたライトフィールドデータは、全てのビューが水平及び垂直に整列されているビューのマトリクスによって表され得る。 Among some existing groups of light field capture devices, the "plenoptic device" or "plenoptic camera" has a microlens array located in the image focus field of the main lens in front of the sensor. .. One microimage is projected on the sensor for each microlens. In the following description, the area of the sensor for which one (or more) microimages are projected is the "microimage area" or "sensor microimage" or "sensor microimage" or "exposure section". It is called "or" projection section ". The resulting raw image of the scene is the sum of the microimages of one sensor and / or all the pixels of the sensors belonging to the other. In that case, the angular information of the light field is given by the relative position of the pixels in the microimage area with respect to their center. Based on this raw image, the extraction of an image of the captured scene from a particular point of view (also called "demultiplicating") can be performed. The demultiplexing process can be considered as a data conversion from a 2D low image to a 4D light field. The resulting demultiplexed lightfield data can be represented by a matrix of views in which all views are aligned horizontally and vertically.

色検出に関して、大部分のセンサのピクセルは、それらを通過する可視光子の量のみを、それらの色にかかわらず記録する。カラーの4Dライトフィールドデータを得るために、センサの上にカラーフィルタアレイ(CFA)を実装することが、背景技術から知られている。例えば、2×2のピクセルを覆い、2×2マトリクス内でRGGBの順序で置かれた3つの異なった色Red(R)、Green(G)、Blue(B)を有するベイヤー(Bayer)フィルタは、CFAとして広く使用されている。しかし、当業者であれば、以下の記載で使用される表現“カラーフィルタアレイ”は、ベイヤーフィルタだけでなく、当該技術の代替のCFAの全てを指すことが理解されるであろう。 For color detection, most sensor pixels record only the amount of visible photons that pass through them, regardless of their color. It is known from background art to mount a color filter array (CFA) on top of a sensor to obtain color 4D light field data. For example, a Bayer filter that covers 2x2 pixels and has three different colors Red (R), Green (G), and Blue (B) placed in the order of RGGB in a 2x2 matrix. , Widely used as CFA. However, one of ordinary skill in the art will appreciate that the expression "color filter array" used in the following description refers to all alternative CFAs of the art, not just Bayer filters.

この技術の主たる欠点の1つは、光子の少なくとも半分がCFAによってブロックされるので、センサの光感度を低下させることである。加えて、色収差がセンサマイクロイメージの端で起こり、従って、レンダリングされるイメージの品質に影響を及ぼし得る。それらの問題を解決しようとして、米国特許出願公開第2014/0146201(A1)号明細書(特許文献1)には、センサマイクロイメージの一部分のみを覆うCFAが開示されている。しかし、それは、センサの光感度を改善するには不十分である。 One of the main drawbacks of this technique is that at least half of the photons are blocked by the CFA, which reduces the optical sensitivity of the sensor. In addition, chromatic aberration occurs at the edges of the sensor microimage and can therefore affect the quality of the rendered image. In an attempt to solve these problems, US Patent Application Publication No. 2014/0146201 (A1) (Patent Document 1) discloses a CFA that covers only a part of a sensor microimage. However, it is insufficient to improve the optical sensitivity of the sensor.

従って、背景技術に対する改善を示すセンサを提供することが望ましい。 Therefore, it is desirable to provide a sensor that indicates an improvement over the background technology.

特に、満足な色感度を保ち且つ色収差の出現のリスクを制限しながら、より良い光感度を特色とする斯様なセンサを提供することが望ましい。 In particular, it is desirable to provide such a sensor that features better light sensitivity while maintaining satisfactory color sensitivity and limiting the risk of the appearance of chromatic aberration.

米国特許出願公開第2014/0146201(A1)号明細書U.S. Patent Application Publication No. 2014/0146201 (A1)

「一実施形態」、「実施形態」、「例となる実施形態」との明細書での言及は、記載されている実施形態が特定の機構、構造、又は特性を有してよいが、あらゆる実施形態が必ずしもその特定の機構、構造又は特性を有さなくてよいことを示す。更には、そのようなフレーズは、必ずしも同じ実施形態に言及しているわけではない。更には、特定の機構、構造、又は特性が実施形態に関連して記載される場合に、明示的に記載されていようとなかろうと、他の実施形態に関連してそのような機構、構造、又は特性に作用することは、当業者の知識範囲内にあることが提示される。 References herein to "one embodiment," "embodiment," and "exemplary embodiment" are made in any way, although the described embodiments may have specific mechanisms, structures, or properties. Indicates that the embodiments do not necessarily have to have that particular mechanism, structure or properties. Moreover, such phrases do not necessarily refer to the same embodiment. Furthermore, when a particular mechanism, structure, or property is described in relation to an embodiment, such mechanism, structure, in connection with another embodiment, whether explicitly described or not. Alternatively, it is suggested that acting on the property is within the knowledge of one of ordinary skill in the art.

当該技術の1つの特定の実施形態において、プレンオプティックカメラに取り付けられることを対象としたセンサが開示される。センサは、マイクロレンズアレイによって屈折されたマイクロイメージを検知することを対象とした少なくとも1つのマイクロイメージエリアを有する。マイクロイメージエリアは、カラーフィルタアレイによって少なくとも部分的に覆われている。カラーフィルタアレイの色飽和は、マイクロイメージエリアの重心から遠ざかる場合に低下する。 In one particular embodiment of the technique, a sensor intended to be attached to a Plenoptic camera is disclosed. The sensor has at least one microimage area intended to detect the microimage refracted by the microlens array. The microimage area is at least partially covered by the color filter array. The color saturation of the color filter array decreases as it moves away from the center of gravity of the microimage area.

以下の記載において、表現“部分的に覆われる”は、センサマイクロイメージ(マイクロイメージエリア)と比較されるCFAのポジションを指す。一実施形態において、そのようなCFAは、センサマイクロイメージの全体を覆う。他の実施形態において、CFAは、センサマイクロイメージの一部分のみを覆う。その部分は、マイクロイメージエリアの重心を含み、あるいは、含まない。考えられるべきCFAの点とセンサマイクロイメージの重心との間の距離に基づき、この点の色飽和は、この距離が大きくなる場合に低下する。 In the following description, the expression "partially covered" refers to the position of the CFA compared to the sensor microimage (microimage area). In one embodiment, such CFA covers the entire sensor microimage. In other embodiments, the CFA covers only a portion of the sensor microimage. That part includes or does not include the center of gravity of the microimage area. Based on the distance between the CFA point to be considered and the centroid of the sensor microimage, the color saturation of this point decreases as this distance increases.

CFAの色飽和の低下は、センサマイクロイメージの境界へ近づく場合に、背景技術のCFAよりも多く光子を捕捉することを可能にする。従って、そのようなセンサは、改善された光感度を特徴とする。加えて、重心にあるピクセルは、メインレンズの瞳境界を通る光子と比較して収差が小さい光子によって照射されるので、そのようなセンサは更に、その色感度を飽和レベルに保ちながら、色収差の出現のリスクを制限することを可能にする。 The reduced color saturation of the CFA makes it possible to capture more photons than the background technology CFA when approaching the boundaries of the sensor microimage. Therefore, such sensors are characterized by improved light sensitivity. In addition, since the pixels at the center of gravity are illuminated by photons that have less aberration than the photons that pass through the pupil boundary of the main lens, such sensors further maintain their color sensitivity at saturation levels while maintaining chromatic aberration. Allows you to limit the risk of emergence.

一実施形態において、カラーフィルタアレイの重心は、マイクロイメージエリアの重心に対応する。 In one embodiment, the centroid of the color filter array corresponds to the centroid of the microimage area.

色収差現象に起因して、センサマイクロイメージの重心にあるピクセルは、センサマイクロイメージの境界に位置するピクセルよりも鮮明なディテール及び色をもたらす。よって、等しい値を持つCFA表面に関し、センサマイクロイメージの重心においてCFAを位置付けることは、レンダリングされるマイクロレンズイメージの品質を改善することを可能にする。 Due to the chromatic aberration phenomenon, the pixels at the center of gravity of the sensor microimage provide sharper detail and color than the pixels located at the boundaries of the sensor microimage. Thus, positioning the CFA at the center of gravity of the sensor microimage with respect to CFA surfaces with equal values makes it possible to improve the quality of the rendered microlens image.

実施形態に従って、カラーフィルタアレイの色飽和は、マイクロイメージエリアの重心(xi,j,yi,j)から該マイクロイメージエリアの境界へ向かって低下する。 According to the embodiment, the color saturation of the color filter array decreases from the center of gravity (xi, j , y i, j ) of the micro image area toward the boundary of the micro image area.

一実施形態において、カラーフィルタアレイの色飽和は、マイクロイメージエリアの重心での1からマイクロイメージエリアの境界での0まで変化する。 In one embodiment, the color saturation of the color filter array varies from 1 at the center of gravity of the microimage area to 0 at the boundary of the microimage area.

一実施形態において、CFAはベイヤーフィルタであり、色成分は、次の数1のように、HSV色空間において与えられる: In one embodiment, the CFA is a Bayer filter and the color components are given in the HSV color space as in Equation 1 below:

Figure 0006887223
このとき、(x,y)は、マイクロレンズ(i,j)の下にあるピクセルの座標であり、(xi,j,yi,j)は、マイクロイメージエリアの重心の座標であり、pは、2つの隣接したマイクロイメージエリアの夫々の重心の間の距離である。
Figure 0006887223
At this time, (x, y) is the coordinates of the pixels under the microlens (i, j), and (x i, j , y i, j ) is the coordinates of the center of gravity of the micro image area. p is the distance between the respective centers of gravity of the two adjacent microimage areas.

マイクロイメージエリアの重心(xi,j,yi,j)から境界への飽和のそのような滑らかな変化は、リフォーカシングされたイメージの色飽和における階段効果を防ぐ。 Such a smooth change in saturation from the center of gravity (xi , j , y i, j ) of the microimage area to the boundary prevents the staircase effect in color saturation of the refocused image.

一実施形態において、マイクロイメージエリアは、カラーフィルタアレイによって部分的にのみ覆われる。 In one embodiment, the microimage area is only partially covered by the color filter array.

この特定のCFAレイアウトに従って、光子の総数と比較される記録された光子の数に対応する比は、CFAによって覆われるピクセルが少ないほど高くなる。よって、センサは、センサマイクロイメージの全体を覆うCFAと比較して光に敏感である。 According to this particular CFA layout, the ratio corresponding to the number of recorded photons compared to the total number of photons increases as the number of pixels covered by the CFA decreases. Therefore, the sensor is light sensitive compared to the CFA that covers the entire sensor microimage.

一実施形態において、カラーフィルタアレイは、マイクロイメージエリアの重心にある4×4のピクセルエリアのみを覆う。 In one embodiment, the color filter array covers only the 4x4 pixel area at the center of gravity of the microimage area.

この特定のレイアウトに従って、夫々のマイクロレンズイメージは50.26個のピクセルを覆い、16個のピクセルのみがより少ない光を受ける。センサマイクロイメージは、16個のピクセルからは個数を減らされた光子を、そして、残りのピクセルからは全ての可視的な光子を収集する。従って、そのようなセンサは、84%よりも多い光子を捕捉した。これは、先行技術のCFAと比較して相当な改善である。実例として、全てのピクセルを覆う一般的なベイヤーパターンに関し、この比は約50%になる。 According to this particular layout, each microlens image covers 50.26 pixels and only 16 pixels receive less light. The sensor microimage collects a reduced number of photons from 16 pixels and all visible photons from the remaining pixels. Therefore, such a sensor captured more than 84% of photons. This is a significant improvement over the prior art CFA. As an example, for a typical Bayer pattern covering all pixels, this ratio is about 50%.

当該技術の1つの特定の実施形態において、カラーフィルタアレイによって部分的に覆われているマイクロイメージエリアの少なくとも1つのリフォーカシングされたイメージの色成分Rを決定する方法が開示される。そのような方法は、
前記カラーフィルタアレイによって覆われている前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージRa,bを決定するステップであり、前記カラーフィルタアレイの色飽和は、前記マイクロイメージエリアの重心(xi,j,yi,j)から遠ざかる場合に低下する、ステップと、
前記カラーフィルタアレイによって覆われていない前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージRを決定するステップと、
前記リフォーカシングされたイメージRa,bと前記リフォーカシングされたイメージRとを結合することで前記色成分Rを決定するステップと
を有し、
前記色成分Rを決定するステップは、前記リフォーカシングされたイメージRに対して重みを導入する。
In one particular embodiment of the technique, a method of determining the color component Rx of at least one refocused image of a microimage area partially covered by a color filter array is disclosed. Such a method
Refocusing been image R a of the micro-image area of the pixel covered by the color filter array, a step of determining the b, color saturation of the color filter array, the center of gravity (x i of the micro image area , J , y i, j ) Decreased as you move away from the steps and
A step of determining a refocused image RT of pixels in the microimage area that is not covered by the color filter array.
It has a step of determining the color component R x by combining the refocused images R a and b and the refocused image R T.
The step of determining the color component R x introduces a weight to the refocused image RT.

そのような重みの導入は、メインレンズの光収差によってほとんど影響を受けない光子を、より大きい光収差を受ける光子と区別するという利点を有する。当業者であれば、表現“色成分”が、実装されるCFAの如何なる色成分もさすことを理解するであろう。例えば、ベイヤーフィルタによって覆われているセンサを考えたとき、決定される色成分は赤色、緑色又は青色成分であることができる。 The introduction of such weights has the advantage of distinguishing photons that are largely unaffected by the photon aberration of the main lens from photons that are subject to greater photoaberration. Those skilled in the art will appreciate that the expression "color component" refers to any color component of the CFA implemented. For example, when considering a sensor covered by a Bayer filter, the determined color component can be a red, green or blue component.

当該技術の1つの特定の実施形態において、本開示は、通信ネットワークからダウンロード可能であり、且つ/あるいは、コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体において記録されているコンピュータプログラム製品に関連する。そのようなコンピュータプログラム製品は、方法を実施するプログラムコード命令を有する。 In one particular embodiment of the technique, the present disclosure relates to a computer program product that is downloadable from a communication network and / or recorded on a computer-readable and / or processor-executable medium. Related. Such computer program products have program code instructions that implement the method.

当該技術の1つの特定の実施形態において、本開示は、プロセッサによって実行されることが可能であり、方法を実施するプログラムコード命令を含むコンピュータプログラム製品が記録されている非一時的なコンピュータ読み出し可能なキャリア媒体に関連する。 In one particular embodiment of the technique, the present disclosure can be performed by a processor and is non-transient computer readable in which a computer program product containing program code instructions that implement the method is recorded. Related to various carrier media.

明示的には記載されていないが、本実施形態は、如何なる組み合わせ又は部分組み合わせにおいても用いられてよい。 Although not explicitly stated, the present embodiment may be used in any combination or partial combination.

本開示は、保護の適用範囲を制限することなしに一例として与えられている以下の記載及び図面を参照して、より良く理解され得る。
一般的なベイヤーフィルタを表す概略図である。 HSV色空間を表す概略図である。 様々なカラーフィルタのピクセル応答を表すダイアグラムである。 プレンオプティックカメラを表す概略図である。 プレンオプティックカメラのセンサによって記録されるライトフィールドデータを表す概略図である。 W>Pを有するプレンオプティックカメラを表す概略図である。 W<Pを有するプレンオプティックカメラを表す概略図である。 色収差現象の概略図である。 プレンオプティックカメラを表す概略図である。 様々な光線波長について、プレンオプティックカメラのセンサによって記録されるライトフィールドデータを表す概略図である。 プレンオプティックカメラの、ベイヤーフィルタによって覆われているセンサによって記録されるライトフィールドデータを表す概略図である。 本開示の一実施形態に従って、プレンオプティックカメラのセンサによって記録されるライトフィールドデータを表す概略図である。 CFAによって部分的に覆われているセンサによって記録されるライトフィールドデータを表す概略図である。 本開示の一実施形態に従う方法を実行する場合に実施される一連のステップのフローチャートである。 本開示の一実施形態に従って、リフォーカシングされたイメージの色成分を決定する装置を表す略ブロック図である。 図中のコンポーネントは必ずしも実寸通りではなく、代わりに、本開示の原理を説明するために強調されている。
The present disclosure may be better understood with reference to the following description and drawings given as an example without limiting the scope of protection.
It is the schematic which shows the general Bayer filter. It is the schematic which shows the HSV color space. It is a diagram showing the pixel response of various color filters. It is the schematic which shows the Plen optic camera. It is the schematic which shows the light field data recorded by the sensor of a Plen optic camera. It is the schematic which shows the Plen optic camera which has W> P. It is the schematic which shows the Plen optic camera which has W <P. It is a schematic diagram of the chromatic aberration phenomenon. It is the schematic which shows the Plen optic camera. FIG. 6 is a schematic representation of light field data recorded by a Plenoptic camera sensor for various ray wavelengths. FIG. 6 is a schematic representation of light field data recorded by a sensor covered by a Bayer filter in a Plenoptic camera. FIG. 5 is a schematic representation of light field data recorded by a sensor in a Plenoptic camera according to an embodiment of the present disclosure. FIG. 6 is a schematic representation of light field data recorded by a sensor partially covered by a CFA. FIG. 5 is a flow chart of a series of steps performed when performing a method according to an embodiment of the present disclosure. It is a schematic block diagram which shows the apparatus which determines the color component of the refocused image according to one Embodiment of this disclosure. The components in the figure are not necessarily in their actual size and are instead highlighted to illustrate the principles of the present disclosure.

本開示の特定の実施形態の一般概念及び具体的な詳細は、そのような実施形態の完全な理解を提供するよう、以下の記載において、及び図1乃至13において、示されている。なお、当業者であれば、本開示は、更なる実施形態を有してよく、あるいは、以下の記載において記載されている詳細の幾つかによらずとも実施されてよいことが理解されるであろう。 General concepts and specific details of certain embodiments of the present disclosure are shown in the following description and in FIGS. 1-13 to provide a complete understanding of such embodiments. It will be appreciated by those skilled in the art that the present disclosure may have additional embodiments or may be implemented without any of the details described in the description below. There will be.

[1 一般概念]
[1.1 カラーフィルタアレイ]
カラーイメージは、通常は、ピクセルごとに3つの色成分を用いて形成される。一般的な成分は、目の色感度に若干対応する赤(Red)、緑(Green)及び青(Blue)である。あいにく、センサの大部分は、光子波長と無関係に、ピクセルに入る可視光子を記録する。グレーレベルセンサをカラー対応のセンサにするよう、カラーフィルタアレイ(CFA)が一般的にセンサに取り付けられる。最も一般的なCFAは、2×2のピクセルから成り、図1で表されるようにセンサにわたって複製されるいわゆるベイヤーパターン(フィルタ)である。
[1 General concept]
[1.1 Color filter array]
Color images are typically formed using three color components per pixel. Common components are red, green, and blue, which correspond slightly to the color sensitivity of the eye. Unfortunately, most sensors record visible photons entering a pixel, regardless of the photon wavelength. A color filter array (CFA) is commonly attached to the sensor to make the gray level sensor a color-enabled sensor. The most common CFA consists of 2x2 pixels and is a so-called Bayer pattern (filter) that is replicated across the sensors as shown in FIG.

CFAを用いて記録されたイメージは、ピクセルごとに1つの色しか記録されないので、不完全である。所与のピクセルの2つの他の色の計算は、ベイヤーパターンの場合に、“Adaptive color plan interpolation in single sensor color electronic camera”と題された米国特許第5506619(A)号明細書において記載されるように、いわゆるデモザイキングアルゴリズムに従い周囲の色を用いて補間により行われる。そのようなアルゴリズムは、イメージ品質に影響を与え、重い計算負荷を必要とし得る。 Images recorded using CFA are incomplete as only one color is recorded per pixel. Calculations of two other colors of a given pixel are described in US Pat. No. 5,506,619 (A) entitled "Adaptive color plan interpolation in single sensor color electronic camera" in the case of the Bayer pattern. As described above, it is performed by interpolation using the surrounding colors according to the so-called demosaiking algorithm. Such algorithms can affect image quality and require heavy computational load.

[1.2 RGB及びHSV色空間に関する考え]
RGB(Red-Green-Blue)は、3つの色成分によりピクセルの色を特性化するために使用される色空間である。それら3つの値は、例えば、色相−彩度−明度(HSV;Hue Saturation Value)色空間のような、他の色空間に変換され得る。HSV空間は、図2に表されているように、純粋色(最大値に設定された所与の色相、彩度及び明度)から白(同じ色相、0に設定された彩度、及び最大値に設定された明度)までの色こう配を定義することを可能にする。
[1.2 Thoughts on RGB and HSV color space]
RGB (Red-Green-Blue) is a color space used to characterize the color of a pixel with three color components. These three values can be converted to other color spaces, such as the Hue Saturation Value (HSV) color space. The HSV space is from pure color (given hue, saturation and lightness set to maximum) to white (same hue, saturation set to 0, and maximum), as shown in FIG. Allows you to define a color gradient up to (brightness set in).

RGB色空間からHSV空間への変換は、次の式(数2)によって実行される: The conversion from RGB color space to HSV space is performed by the following equation (Equation 2):

Figure 0006887223
HSV色空間からRGB色空間への変換は、次の数3によって実行される:
Figure 0006887223
The conversion from the HSV color space to the RGB color space is performed by the following equation 3:

Figure 0006887223
このとき、{H}はH′の小数部分を表す。トリプレット(P,V,Q)から、H′よりも小さい最大整数
(外1)
Figure 0006887223
に応じて、値(R,G,B)が定義される。I=0の場合に(R,G,B)=(V,T,P)、I=1の場合に(R,G,B)=(Q,V,P)、I=2の場合に(R,G,B)=(P,V,T)、I=3の場合に(R,G,B)=(P,Q,V)、I=4の場合に(R,G,B)=(T,P,V)、I=5の場合に(R,G,B)=(V,P,Q)。
Figure 0006887223
At this time, {H} represents the fractional part of H'. From triplet (P, V, Q), maximum integer smaller than H'(outside 1)
Figure 0006887223
Values (R, G, B) are defined accordingly. When I = 0, (R, G, B) = (V, T, P), when I = 1, (R, G, B) = (Q, V, P), when I = 2. When (R, G, B) = (P, V, T), I = 3, (R, G, B) = (P, Q, V), when I = 4, (R, G, B) ) = (T, P, V), I = 5, (R, G, B) = (V, P, Q).

上記の式は、3つの色成分が0から1の間の実数であると仮定する。見返りとして、成分S及びVは0から1の間の実数であり、Hは0から360度の間の実数である。 The above equation assumes that the three color components are real numbers between 0 and 1. In return, the components S and V are real numbers between 0 and 1, and H is a real number between 0 and 360 degrees.

ここで先に指摘されたように、CFAの重要な欠点は、一部の光子がカラーフィルタによってブロックされ、結果として、センサの感度が下げられることである。例えば、ベイヤーパターンによれば、光子の少なくとも半分はフィルタにおいて失われる。図3は、Kodakのセンサの様々なカラーフィルタについて、ピクセルに入る光子の総数に対してどの程度の光子が収集されるのかを表す。センサの効率は、カラーフィルタによって大いに影響を及ぼされる。 As pointed out earlier, an important drawback of CFA is that some photons are blocked by color filters, resulting in reduced sensor sensitivity. For example, according to the Bayer pattern, at least half of the photons are lost in the filter. FIG. 3 shows how many photons are collected relative to the total number of photons entering a pixel for various color filters in Kodak's sensor. The efficiency of the sensor is greatly influenced by the color filter.

[1.3 プレンオプティックカメラの説明]
図4は、メインレンズ2、マイクロレンズ3、及びセンサ4を有する概要のプレンオプティックカメラ1を表す。メインレンズ2は、そのオブジェクトフィールドにおいて捕捉される場面からの光を受け、光をマイクロレンズアレイ3を通してレンダリングする。マイクロレンズアレイ3は、メインレンズのイメージフィールドに位置する。一実施形態において、このマイクロレンズアレイ3は、2次元(2D)アレイにおいて配置されている複数の円形のマイクロレンズを含む。他の実施形態において、そのようなマイクロレンズは、本開示の適用範囲から逸脱することなしに、種々の形状、例えば、楕円形状を有する。夫々のマイクロレンズは、対応するマイクロイメージの光をセンサ4上の専用のエリア、すなわち、センサマイクロイメージ5に向けるレンズ特性を有する。
[1.3 Description of Plenoptic Camera]
FIG. 4 represents an overview Plenoptic camera 1 having a main lens 2, a microlens 3, and a sensor 4. The main lens 2 receives the light from the scene captured in its object field and renders the light through the microlens array 3. The microlens array 3 is located in the image field of the main lens. In one embodiment, the microlens array 3 includes a plurality of circular microlenses arranged in a two-dimensional (2D) array. In other embodiments, such microlenses have various shapes, eg, elliptical shapes, without departing from the scope of the present disclosure. Each microlens has a lens characteristic that directs the light of the corresponding microimage to a dedicated area on the sensor 4, i.e., the sensor microimage 5.

一実施形態において、夫々のレンズの周囲でマイクロレンズアレイ3とセンサ4との間には何らかのスペーサが置かれ、1つのレンズからの光がセンサ側で他のレンズの光と重なり合うことを防ぐ。 In one embodiment, some spacer is placed between the microlens array 3 and the sensor 4 around each lens to prevent light from one lens from overlapping with light from another lens on the sensor side.

[1.4 4Dライトフィールドデータ]
センサ4で捕捉されるイメージは、2Dイメージ内で配置される2Dの小イメージの集合から成る。夫々の小イメージは、マイクロレンズアレイ3の中のマイクロレンズ(i,j)によって生成される。図5は、センサ4によって記録されるイメージの例を表す。夫々のマイクロレンズ(i,j)は、円によって表されているマイクロイメージを生成する(小イメージの形状は、通常円形であるマイクロレンズの形状に依存する。)。ピクセル座標は(x,y)と標示されている。pは2つの連続したマイクロイメージ5の間の距離である。マイクロレンズ(i,j)は、pがピクセルサイズδよりも大きいように選択される。マイクロレンズイメージエリア5は、それらの座標(i,j)によって参照される。幾つかのピクセル(x,y)は、如何なるマイクロレンズ(i,j)からの如何なる光も受けないことがある。そのようなピクセル(X)は捨てられる。実際に、マイクロレンズ間の空間は、光子がマイクロレンズから外へ出ることを防ぐようマスクされる(マイクロレンズが四角形状を有する場合には、マスキングは不要である。)。マイクロレンズイメージ(i,j)の中心(xi,j,yi,j)は、座標(xi,j,yi,j)でセンサ4において位置する。θは、ピクセルの正方格子とマイクロレンズの正方格子との間の角度である。(xi,j,yi,j)は、マイクロレンズイメージ(0,0)のピクセル座標を(zx0,0,y0,0)として、次の式1(数4)によって計算され得る:
[1.4 4D light field data]
The image captured by the sensor 4 consists of a set of 2D small images arranged within the 2D image. Each small image is generated by the microlenses (i, j) in the microlens array 3. FIG. 5 shows an example of an image recorded by the sensor 4. Each microlens (i, j) produces a microimage represented by a circle (the shape of the small image depends on the shape of the microlens, which is usually circular). Pixel coordinates are labeled as (x, y). p is the distance between two consecutive microimages 5. The microlens (i, j) is selected so that p is greater than the pixel size δ. The microlens image area 5 is referred to by their coordinates (i, j). Some pixels (x, y) may not receive any light from any microlens (i, j). Such pixels (X) are discarded. In fact, the space between the microlenses is masked to prevent photons from exiting the microlens (no masking is required if the microlens has a quadrangular shape). The center (xi, j , y i, j ) of the microlens image (i, j) is located at the sensor 4 in coordinates (xi, j , y i, j). θ is the angle between the square grid of pixels and the square grid of microlenses. (X i, j , y i, j ) can be calculated by the following equation 1 (Equation 4) with the pixel coordinates of the microlens image ( 0 , 0 ) as (zx 0, 0, y 0, 0). :

Figure 0006887223
この式は、マイクロレンズアレイ3が正方格子に従って配置されると仮定する。なお、本開示は、この格子に制限されず、六方格子又は不規則格子に等しく当てはまる。
Figure 0006887223
This equation assumes that the Microlens Arrays 3 are arranged according to a square grid. It should be noted that the present disclosure is not limited to this grid and applies equally to hexagonal grids or irregular grids.

図5は、場面からのオブジェクトが幾つかの隣接したマイクロレンズイメージ(黒点)において可視的であることを更に表す。オブジェクトの2つの連続したビューの間の距離はwであり、この距離は語“視差(disparity)”とも呼ばれる。 FIG. 5 further shows that objects from the scene are visible in several adjacent microlens images (black dots). The distance between two consecutive views of an object is w, and this distance is also called the word "disparity".

[1.5 ライトフィールドカメラの光学的性質]
先のサブセクション1.4において導入された距離p及びwは、ピクセル単位で与えられる。それらは、ピクセルサイズδを乗じることによって、夫々物理的な単位距離P及びW(メートル)に変換される:

W=δw 及び P=δp

それらの距離は、ライトフィールドカメラの特性に依存する。
[1.5 Optical properties of light field camera]
The distances p and w introduced in subsection 1.4 above are given in pixels. They are converted to physical unit distances P and W (meters), respectively, by multiplying by the pixel size δ:

W = δw and P = δp

Their distance depends on the characteristics of the light field camera.

図6及び図7は、完ぺきな薄型レンズモデルを仮定して、概略のライトフィールドを表す。メインレンズは焦点長さF及び開口Φを有する。マイクロレンズアレイは、焦点長さfを有するマイクロレンズを有する。マイクロレンズアレイのピッチはφである。マイクロレンズアレイは、メインレンズからの距離D、及びセンサからの距離dに位置する。オブジェクト(図中見えない。)は、メインレンズ(左)からの距離zに位置する。このオブジェクトは、メインレンズ(右)からの距離z′でメインレンズによってフォーカシングされる。図6及び図7は、夫々、D>z′及びD<z′の場合を表す。いずれの場合にも、マイクロレンズイメージは、d及びfに応じて焦点が合うことができる。 6 and 7 represent a schematic light field, assuming a perfect thin lens model. The main lens has a focal length F and an aperture Φ. The microlens array has a microlens having a focal length f. The pitch of the microlens array is φ. The microlens array is located at a distance D from the main lens and a distance d from the sensor. The object (not visible in the figure) is located at a distance z from the main lens (left). This object is focused by the main lens at a distance z'from the main lens (right). 6 and 7 represent the cases of D> z'and D <z', respectively. In either case, the microlens image can be focused according to d and f.

視差Wは、オブジェクトの距離zによって異なる。 The parallax W differs depending on the distance z of the object.

[1.6 イメージのリフォーカシング]
ライトフィールドカメラの主たる特性は、リフォーカシング距離が自由に調整可能である場合に2Dのリフォーカシングされたイメージを計算する可能性である。4Dライトフィールドデータは、マイクロレンズイメージを単にシフトし且つズームし、次いでそれらを2Dイメージへと加算することによって、2Dイメージ内に投影される。シフトの量は、リフォーカシング距離を制御する。リフォーカシングされた2Dイメージ座標(X,Y)への4Dライトフィールドピクセル(x,y,i,j)の投影は、次の式2(数5)によって定義される:
[1.6 Image Refocusing]
The main characteristic of a light field camera is the possibility of calculating a 2D refocused image if the refocusing distance is freely adjustable. The 4D light field data is projected into the 2D image by simply shifting and zooming the microlens image and then adding them to the 2D image. The amount of shift controls the refocusing distance. The projection of 4D lightfield pixels (x, y, i, j) onto the refocused 2D image coordinates (X, Y) is defined by Equation 2 (Equation 5):

Figure 0006887223
このとき、sは、2Dのリフォーカシングされたイメージのサイズを制御し、gは、リフォーカシングされたイメージの焦点調整距離を制御する。
Figure 0006887223
At this time, s controls the size of the 2D refocused image, and g controls the focus adjustment distance of the refocused image.

[1.7 色収差問題]
図8によって表されるように、色収差問題はレンズの不完全さに由来する。これは、同じイメージ平面における点源の全ての色の焦点を合わせることを妨げる。
[1.7 Chromatic Aberration Problem]
As represented by FIG. 8, the chromatic aberration problem stems from the imperfections of the lens. This prevents focusing all colors of the point source in the same image plane.

図9及び図10によって表されるようにプレンオプティックカメラシステムにおける色収差の影響を検討するとき、波長に依存した収束平面の変動が、同じく波長に依存した視差Wの変動に変わることが観測され得る。 When examining the effects of chromatic aberration in a Plenoptic camera system as represented by FIGS. 9 and 10, it can be observed that wavelength-dependent fluctuations in the convergence plane change to wavelength-dependent parallax W fluctuations as well. ..

このことに関して、当業者であれば、メインレンズ2の境界で入る光子が、瞳の中央で入る光子よりもずっと大きく色収差によって影響を及ぼされることに気付く。このとき、メインレンズ瞳の中央及び境界を通る光子は、センサマイクロイメージ5の中心(xi,j,yi,j)及び境界で夫々収集される光子である。よって、センサマイクロイメージ5の境界で収集される光子は、その中心(xi,j,yi,j)の近くで収集される光子よりもずっと大きく色収差によって影響を及ぼされる。 In this regard, one of ordinary skill in the art will notice that the photons entering at the boundary of the main lens 2 are affected by chromatic aberration much larger than the photons entering at the center of the pupil. At this time, the photons passing through the center and the boundary of the pupil of the main lens are the photons collected at the center (xi, j , y i, j) and the boundary of the sensor microimage 5, respectively. Thus, the photons collected at the boundary of the sensor microimage 5 are much more affected by chromatic aberration than the photons collected near their center (xi, j , y i, j).

すなわち、夫々のマイクロレンズイメージのイメージ品質は、中心(xi,j,yi,j)から境界まで変化する。センサマイクロイメージ5の中心にあるピクセルは、センサマイクロイメージ5の境界に位置するピクセルよりも鮮明なディテール及び色をもたらす。 That is, the image quality of each microlens image changes from the center (xi, j , y i, j ) to the boundary. The pixel in the center of the sensor microimage 5 provides sharper detail and color than the pixel located at the boundary of the sensor microimage 5.

[1.8 プレンオプティックカメラに取り付けられるCFA]
カラー4Dライトフィールドを記録するよう、CFAはセンサに置かれる。センサは4Dライトフィールドを記録する。例えば、CFAは、(a,b)∈[0,M]として、座標(a,b)のM×Mのピクセルから成るとする。4Dライトフィールドに色パラメータを加えたものは、5Dライトフィールド(x,y,i,j,ca,b)になる。このとき、ca,bは、CFA座標(a,b)の色である。図11は、4Dライトフィールドを記録するセンサの上にセットされたベイヤーパターン(M=2)を表す。
[1.8 CFA attached to Plenoptic camera]
The CFA is placed on the sensor to record a color 4D light field. The sensor records a 4D light field. For example, suppose the CFA consists of M × M pixels at coordinates (a, b) with (a, b) ∈ [0, M] 2. A 4D light field plus a color parameter is a 5D light field (x, y, i, j, ca , b ). At this time, c a and b are the colors of the CFA coordinates (a and b). FIG. 11 represents a Bayer pattern (M = 2) set on a sensor that records a 4D light field.

5Dライトフィールドのリフォーカシングは、式2により実行されるが、CFAの夫々の色ca,bとは無関係に適用される。このようにして、M個のリフォーカシングされたイメージRa,bが得られた。それらのイメージは、次いで、リフォーカシングされたRGBイメージの3つの色成分Rred、Rgreen及びRblueを計算するよう結合される。 Refocusing of the 5D light field is performed by Equation 2, but is applied independently of the CFA colors ca and b, respectively. In this way, M 2 refocused images Ra and b were obtained. The images are then combined to calculate the three color components R red , R green and R blue of the refocused RGB image.

例えば、ベイヤーパターンの場合に、M=2、c 赤(Red)、c=青(blue)、c =c=緑(Green)。リフォーカシングされたRGBイメージの3つの色成分は、Rred=R、Rgree =(R+R)/2及びRblue=Rに等しい。
For example, in the case of the Bayer pattern, M = 2, c 0 , 0 = red (Red), c 1 , 1 = blue (blue), c 0 , 1 = c 1 , 0 = green (Green). The three color components of the refocused RGB image are equal to R red = R 0 , 0 , R green = (R 0 , 1 + R 1 , 0 ) / 2 and R blue = R 1 , 1 .

[2 本開示の第1実施形態の説明]
図12は、本開示の一実施形態に従うセンサ4を表す。このセンサ4は、プレンオプティックカメラ1に取り付けられ得、複数のマイクロイメージエリア5を有する。マイクロイメージエリア5の夫々は、CFA6によって覆われている。
[2 Description of First Embodiment of the present Disclosure]
FIG. 12 represents a sensor 4 according to an embodiment of the present disclosure. The sensor 4 can be attached to the Plenoptic camera 1 and has a plurality of microimage areas 5. Each of the microimage areas 5 is covered by CFA6.

センサ4は、CMOS(相補型金属酸化膜半導体;Complementary Metal Oxide Semiconductor)技術を用いたCCD(電荷結合デバイス;Charge-Coupled Device)タイプである。なお、当業者であれば、そのようなセンサ4は、ニューロモーフィック・スパイク(neuromorphic spike)に基づくセンサ(例えば、人工網膜)、あるいは、背景技術から知られている何らかの他のタイプの光センサを代替的に有してよいことが理解されるであろう。 The sensor 4 is a CCD (Charge-Coupled Device) type using CMOS (Complementary Metal Oxide Semiconductor) technology. If you are skilled in the art, such a sensor 4 may be a sensor based on a neuromorphic spike (eg, an artificial retina), or some other type of optical sensor known from background technology. It will be understood that may have as an alternative.

図12によって表されているCFA6はベイヤーフィルタである。なお、当業者であれば、そのようなCFA6は、本開示の適用範囲から逸脱することなしに、RGBEフィルタ、CYYMフィルタ、あるいは、背景技術から知られている何らかの他のタイプのCFAを代替的に有してよいことが理解されるであろう。 The CFA 6 represented by FIG. 12 is a Bayer filter. It should be noted that those skilled in the art will substitute such CFA6 for RGBE filters, CYYM filters, or any other type of CFA known from the background art, without departing from the scope of the present disclosure. It will be understood that it may be possessed by.

本開示の一実施形態において、CFA6の色飽和は、センサマイクロイメージ5の中心(X)から境界に向かって低下している。図12の上部分は色飽和のそのような低下を表す。色飽和は、中心(xi,j,yi,j)に、並びに中心(xi,j,yi,j)から1、2及び3ピクセル離れて、夫々位置するピクセルについて、100%、50%、25%及び12.5%に設定されている。 In one embodiment of the present disclosure, the color saturation of CFA 6 decreases from the center (X) of the sensor microimage 5 towards the boundary. The upper part of FIG. 12 represents such a decrease in color saturation. Color saturation, the center (x i, j, y i , j) , the well center (x i, j, y i , j) away 1,2 and 3 pixels from the pixels respectively located, 100% It is set to 50%, 25% and 12.5%.

本開示の他の実施形態において、図12の下部分によって表されるように、色の飽和は、関数fに従って、次の数6のように与えられる。関数fは、[0.0,1.0]の間の値を返し、f(d=0)からf(p/2)まで低下する: In another embodiment of the present disclosure, as represented by the lower part of FIG. 12, color saturation is given according to the function f as in Equation 6. The function f returns a value between [0.0,1.0] and drops from f (d = 0) to f (p / 2):

Figure 0006887223
この特定の実施形態において、色の飽和は、センサマイクロイメージ5の中心(xi,j,yi,j)での1からその境界での0まで線形に変化する。色成分は、次の数7のように、HSV色空間において与えられる:
Figure 0006887223
In this particular embodiment, the color saturation varies linearly from 1 at the center (xi, j , y i, j) of the sensor microimage 5 to 0 at its boundary. The color components are given in the HSV color space, as in Equation 7 below:

Figure 0006887223
マイクロイメージエリア5の中間(xi,j,yi,j)から境界への飽和のそのような滑らかな変化は、リフォーカシングされた画像の色飽和における階段効果を防ぐ。
Figure 0006887223
Such a smooth change in saturation from the middle (xi , j , y i, j ) of the microimage area 5 to the boundary prevents the staircase effect in color saturation of the refocused image.

このCFAにおける飽和の低下は、一般的なベイヤーフィルタよりも多く光子を捕捉することを可能にし、従って、センサ4の光感度を改善する。加えて、中心(xi,j,yi,j)にあるピクセルは、メインレンズの瞳境界を通る光子と比較して収差が小さい光子によって照射されるので、そのようなセンサ4は、満足な色感度を保ちながら、色収差の出現のリスクを制限することを可能にする。 This reduction in saturation in the CFA allows more photons to be captured than a typical Bayer filter and thus improves the photosensitivity of the sensor 4. In addition, such a sensor 4 is satisfactory because the pixels in the center (xi , j , y i, j ) are illuminated by photons that have less aberration than the photons that pass through the pupil boundary of the main lens. It makes it possible to limit the risk of the appearance of chromatic aberration while maintaining a high color sensitivity.

[3 本開示の第2実施形態の説明]
本開示の第2実施形態に従って、CFA6は、センサマイクロイメージ5の一部分にのみ適用される。図13は、正方格子及びピッチφ=8δ(8ピクセル)を有するマイクロレンズアレイ3を備えたプレンオプティックカメラ1によって捕捉された4Dライトフィールドを表す。ベイヤーパターンは、夫々のセンサマイクロイメージ5の中心(xi,j,yi,j)にある4×4のピクセルでのみ複製される。マイクロレンズイメージの直径pは、p=φ(D+d)/Dに等しい。なお、(D+d)/Dは1.0に極めて近いので、マイクロレンズイメージの直径はマイクロレンズアレイのピッチによって与えられると考えられてよい。
[3 Description of the Second Embodiment of the Present Disclosure]
According to the second embodiment of the present disclosure, the CFA 6 is applied only to a part of the sensor microimage 5. FIG. 13 represents a 4D light field captured by a Plenoptic camera 1 equipped with a square grid and a microlens array 3 having a pitch φ = 8δ (8 pixels). The Bayer pattern is duplicated only at the 4x4 pixels in the center (xi, j , y i, j) of each sensor microimage 5. The diameter p of the microlens image is equal to p = φ (D + d) / D. Since (D + d) / D is extremely close to 1.0, it may be considered that the diameter of the microlens image is given by the pitch of the microlens array.

この特定の設計は、センサマイクロイメージ5の全体を覆うCFA6と比較して、センサ4が光より敏感であることを可能にする。 This particular design allows the sensor 4 to be more sensitive to light as compared to the CFA 6 which covers the entire sensor microimage 5.

実例として、第2実施形態に従うが、図13によって表されるCFA6の一定の色飽和を有するセンサ4は、動作条件において試験される。そのようなセンサ4に関し、夫々のマイクロレンズイメージは50.26個のピクセルを覆い、16個のピクセル(すなわち、ベイヤーパターンによって覆われている4×4のピクセル)のみがより少ない光を受ける。センサマイクロイメージ5は、16個のピクセルからは半分の光子を、そして、残りのピクセルからは全ての可視的な光子を収集する。光子の総数と比較される記録された光子の数は、{(50.26−16×0.5)/50.26}×100=84%である。この比は、全てのピクセルを覆うベイヤーパターンの約50%よりも大きい。 As an example, according to the second embodiment, the sensor 4 having a constant color saturation of CFA 6 represented by FIG. 13 is tested under operating conditions. For such a sensor 4, each microlens image covers 50.26 pixels, and only 16 pixels (ie, the 4x4 pixels covered by the Bayer pattern) receive less light. The sensor microimage 5 collects half the photons from 16 pixels and all visible photons from the remaining pixels. The number of recorded photons compared to the total number of photons is {(50.26-16 x 0.5) /50.26} x 100 = 84%. This ratio is greater than about 50% of the Bayer pattern covering all pixels.

当業者であれば、CFAの色飽和がセンサマイクロイメージ5の中心(xi,j,yi,j)から境界へ向かって低下する、第2実施形態に従うセンサ4の場合に、光子の総数と比較される記録された光子の数に対応する比は、相当により高く、センサ4の光感度を更に改善することが理解されるであろう。 For those skilled in the art, the total number of photons in the case of the sensor 4 according to the second embodiment, in which the color saturation of the CFA decreases from the center (xi, j , y i, j) of the sensor microimage 5 toward the boundary. It will be appreciated that the ratio corresponding to the number of recorded photons compared to is considerably higher, further improving the optical sensitivity of the sensor 4.

[4 リフォーカシングされたRGBイメージの計算]
以下の段落は、本開示の第2実施形態に従うセンサ4に関連する。当業者であれば、そのような実施は、本開示の適用範囲から逸脱することなしに、本開示の第1実施形態に従うセンサ4に適用され得ることが理解されるであろう。
[4 Calculation of refocused RGB image]
The following paragraph relates to the sensor 4 according to the second embodiment of the present disclosure. Those skilled in the art will appreciate that such implementation may be applied to the sensor 4 according to the first embodiment of the present disclosure without departing from the scope of the present disclosure.

これより、本開示の第2実施形態に従うセンサ4を考えると、CFAパターンのM個のフィルタに対応するM個のリフォーカシングされた画像Ra,bと、カラーフィルタ6によって覆われていないピクセルに対応する単一のリフォーカシングされたイメージRとを計算することが可能である。 Than this, considering the sensor 4 according to the second embodiment of the present disclosure, CFA pattern of M 2 pieces of corresponding to the filter M 2 pieces of refocusing image R a, and b, covered by the color filter 6 It is possible to calculate with a single refocused image RT corresponding to no pixels.

幾つかの方法が、M個のリフォーカシングされたイメージR及びリフォーカシングされたイメージRを、リフォーカシングされたイメージの3つの色成分Rred、Rgreen及びRblueに変換するために使用され得る。例えば、ベイヤーパターンの場合に、M=2、c 赤(Red)、c=青(blue)、c =c=緑(Green)。リフォーカシングされたRGBイメージの3つの色成分は、Rred=(R+R)/2、Rgree =(R/2+R/2+R)/2及びRblue=(R+R)/2によって計算され得る。明らかに、他の組み合わせは、本開示の適用範囲から逸脱することなしに、使用されてよい。
Several methods to convert M 2 pieces of refocusing is image R a, b and refocusing is image R T, 3 one color component R red refocusing by image, the R green and R blue Can be used for. For example, in the case of the Bayer pattern, M = 2, c 0 , 0 = red (Red), c 1 , 1 = blue (blue), c 0 , 1 = c 1 , 0 = green (Green). Three color components refocusing been RGB image, R red = (R 0, 0 + R T) / 2, R gree n = (R 0, 1/2 + R 1, 0/2 + R T) / 2 and R blue It can be calculated by = (R 1 , 1 + RT) / 2. Obviously, other combinations may be used without departing from the scope of this disclosure.

図14によって表されるように、本開示の一実施形態に従う本方法は:
・カラーフィルタアレイ6によって覆われているマイクロイメージエリアピクセル(i,j)のリフォーカシングされたイメージRa,bを決定するステップ7と、
・カラーフィルタアレイ6によって覆われていないマイクロイメージエリアピクセル(i,j)のリフォーカシングされたイメージRを決定するステップ8と、
・リフォーカシングされたイメージRa,b及びリフォーカシングされたイメージRを結合することで色成分Rを決定するステップ9と
を有する。Rを決定するステップ9は、リフォーカシングされたイメージRに対して重み(W)を導入する。
As represented by FIG. 14, the method according to one embodiment of the present disclosure is:
Step 7 to determine the refocused images Ra, b of the microimage area pixels (i, j) covered by the color filter array 6 and
Step 8 to determine the refocused image RT of the microimage area pixels (i, j) not covered by the color filter array 6 and
It has step 9 of determining the color component R x by combining the refocused images R a and b and the refocused image RT. Step 9 of determining R x introduces a weight (W) into the refocused image RT.

当業者であれば、表現“色成分”は、実装されるCFAの如何なる色成分もさすと理解するであろう。例えば、ベイヤーフィルタによって覆われているセンサを考えたとき、決定される色成分は赤R、緑R、又は青R成分である。 Those skilled in the art will appreciate that the expression "color component" refers to any color component of the CFA implemented. For example, when considering a sensor covered by a Bayer filter, the determined color components are red R r , green R g , or blue R b component.

リフォーカシングされたイメージRは、メインレンズ2の光収差によってより影響を及ぼされた光子を収集するので、他のリフォーカシングされたイメージRa,bよりも低いイメージ品質を有する。このイメージ特性を考慮に入れるよう、R及びRa,bの値は、局所的なコントラストに応じて混合される。例えば、Ra,bに対するRの重み(W)は、Ra,bにおいて局所的に識別されたテスクチャの周囲で下げられる。 The refocused image RT has lower image quality than the other refocused images R a, b because it collects photons more affected by the photoaberration of the main lens 2. To take this image characteristic into account, the values of RT and Ra, b are mixed according to the local contrast. For example, the weight of R a, b for R T (W) is, R a, lowered around locally identified Tesukucha in b.

a,b及びRの組み合わせへの、Ra,bに対するRのそのような重みWの導入は、メインレンズの光収差によってそれほど影響を及ぼされない光子を、より大きい光収差を受ける光子と区別するという利点を有する。 The introduction of such a weight W of RT to Ra, b into the combination of R a, b and RT causes photons that are less affected by the photon aberration of the main lens to undergo greater photoaberration. Has the advantage of distinguishing from.

図15は、本開示の実施形態に従って、カラーフィルタアレイ6によって部分的に覆われているマイクロイメージエリア5の少なくとも1つのリフォーカシングされたイメージの色成分Rを決定する装置10の例を表す略ブロック図である。そのような装置10は、バス14によって接続されているプロセッサ11、記憶ユニット12、インターフェイスユニット13及びセンサ4を含む。当然、コンピュータ装置10の構成要素は、バス14によるバス接続以外の他の接続によって接続されてよい。 FIG. 15 represents an example of a device 10 that determines the color component Rx of at least one refocused image of a microimage area 5 partially covered by a color filter array 6 according to an embodiment of the present disclosure. It is a schematic block diagram. Such a device 10 includes a processor 11, a storage unit 12, an interface unit 13 and a sensor 4 connected by a bus 14. Of course, the components of the computer device 10 may be connected by a connection other than the bus connection by the bus 14.

プロセッサ11は、装置10の動作を制御する。記憶ユニット12は、プロセッサ11によって実行される少なくとも1つのプログラムと、プレンオプティックイメージのデータ、プロセッサ11によって実行される計算で使用されるパラメータ、プロセッサ11によって実行される計算の中間データ、などを含む様々なデータとを記憶する。プロセッサ11は、あらゆる既知の適切なハードウェア若しくはソフトウェアによって、又はハードウェアとソフトウェアとの組み合わせによって、形成されてよい。例えば、プロセッサ11は、プロセッシングユニットのような専用のハードウェアによって、あるいは、そのメモリに記憶されているプログラムを実行するCPUのようなプログラム可能なプロセッシングユニットによって、形成されてよい。 The processor 11 controls the operation of the device 10. The storage unit 12 includes at least one program executed by the processor 11, data of the Plenoptic image, parameters used in the calculation performed by the processor 11, intermediate data of the calculation executed by the processor 11, and the like. Stores various data. Processor 11 may be formed by any known suitable hardware or software, or by a combination of hardware and software. For example, the processor 11 may be formed by dedicated hardware such as a processing unit, or by a programmable processing unit such as a CPU that executes a program stored in its memory.

記憶ユニット12は、プログラム、データ、又は同様のものをコンピュータ読出可能な様態で記憶することができる如何なる適切なストレージ又は手段によっても形成されてよい。記憶ユニット12の例には、半導体メモリデバイス並びに、リード及びライトユニットにロードされた磁気、光、又は光学磁気記録媒体のような、非一時的なコンピュータ読出可能な記憶媒体が含まれる。プログラムは、プロセッサ11に、図14を参照して上述されたような本開示の実施形態に従って、カラーフィルタアレイ6によって部分的に覆われているマイクロイメージエリア5の少なくとも1つのリフォーカシングされたイメージの色成分Rを決定するためのプロセスを実行させる。 The storage unit 12 may be formed by any suitable storage or means capable of storing programs, data, or the like in a computer-readable manner. Examples of the storage unit 12 include semiconductor memory devices and non-transitory computer readable storage media such as magnetic, optical, or optical magnetic recording media loaded on read and write units. The program tells processor 11 at least one refocused image of the microimage area 5 partially covered by the color filter array 6 according to embodiments of the present disclosure as described above with reference to FIG. The process for determining the color component R x of is executed.

インターフェイスユニット13は、装置10と外部装置との間のインターフェイスを提供する。インターフェイスユニット13は、ケーブル又は無線通信を介して外部装置と通信してよい。この実施形態において、外部装置はプレンオプティックカメラであってよい。この場合に、プレンオプティックイメージは、プレンオプティックカメラから装置1へインターフェイスユニット13を通じて入力され、次いで、記憶ユニット12において記憶され得る。 The interface unit 13 provides an interface between the device 10 and the external device. The interface unit 13 may communicate with an external device via cable or wireless communication. In this embodiment, the external device may be a Plenoptic camera. In this case, the Plen optic image can be input from the Plen optic camera to the device 1 through the interface unit 13 and then stored in the storage unit 12.

装置10及びプレンオプティックカメラは、ケーブル又は無線通信を介して互いと通信してよい。 The device 10 and the Plenoptic camera may communicate with each other via cable or wireless communication.

たとえ図15においてプロセッサ11が1つしか示されていないとしても、当業者であれば、そのようなプロセッサは、本開示の実施形態に従う装置10によって実行される機能を具現する種々のモジュール及びユニットを有してよい。例えば:
・カラーフィルタアレイ6によって覆われているマイクロイメージピクセル(i,j)のリフォーカシングされたイメージRa,bを決定するモジュール;
・カラーフィルタアレイ6によって覆われていないマイクロイメージピクセル(i,j)のリフォーカシングされたイメージRを決定するモジュール;
・リフォーカシングされたイメージRa,b及びリフォーカシングされたイメージRを結合することで色成分Rを決定するモジュール。
Even if only one processor 11 is shown in FIG. 15, those skilled in the art would appreciate such processors as various modules and units that embody the functionality performed by the device 10 according to embodiments of the present disclosure. May have. For example:
A module that determines the refocused images Ra, b of the microimage pixels (i, j) covered by the color filter array 6;
A module that determines the refocused image RT of microimage pixels (i, j) that are not covered by the color filter array 6;
A module that determines the color component R x by combining the refocused images R a and b and the refocused image RT.

それらのモジュールは、互いに通信し且つ協働する幾つかのプロセッサ9においても具現されてよい。 These modules may also be embodied in several processors 9 that communicate and cooperate with each other.

当業者に明らかなように、本原理の態様は、システム、方法又はコンピュータ読出可能な媒体として具現され得る。然るに、本原理の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード、などを含む。)、又はソフトウェア及びハードウェア態様を組み合わせた実施形態の形をとることができる。 As will be apparent to those skilled in the art, aspects of this principle may be embodied as a system, method or computer readable medium. However, aspects of this Principle may be in the form of a fully hardware embodiment, a fully software embodiment (including firmware, resident software, microcode, etc.), or a combination of software and hardware embodiments. Can be taken.

本原理が1つ以上のハードウェアコンポーネントによって実装される場合に、ハードウェアコンポーネントは、中央演算処理装置のような集積回路であるプロセッサ、及び/又はマイクロプロセッサ、及び/又は特定用途向け集積回路(ASIC)、及び/又は特定用途向け命令セットプロセッサ(ASIP)、及び/又はグラフィクス処理ユニット(GPU)、及び/又は物理処理ユニット(PPU)、及び/又は浮動小数点ユニット、及び/又はネットワークプロセッサ、及び/又はオーディオプロセッサ、及び/又はマルチコアプロセッサを有する。更には、ハードウェアコンポーネントは、ベースバンドプロセッサ(例えば、メモリユニット及びファームウェアを有する。)、及び/又は無線信号を送受信可能な無線電子回路(アンテナを有することができる。)を更に有することができる。一実施形態において、ハードウェアコンポーネントは、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、グローバルプラットフォーム(すなわち、セキュアエレメント)のような1つ以上の標準に従う。変形例において、ハードウェアコンポーネントは、無線周波数識別(RFID)タグである。一実施形態において、ハードウェアコンポーネントは、Bluetooth(登録商標)通信、及び/又はWi−Fi(登録商標)通信、及び/又はZigbee(登録商標)通信、及び/又はUSB通信、及び/又はファイアワイヤ通信、及び/又はNFC(近距離)通信を可能にする回路を有する。 When this principle is implemented by one or more hardware components, the hardware components are processors that are integrated circuits such as central processing units and / or microprocessors, and / or application-specific integrated circuits ( ASIC), and / or application set processor (ASIP), and / or graphics processing unit (GPU), and / or physical processing unit (PPU), and / or floating point unit, and / or network processor, and / Or have an audio processor and / or a multi-core processor. Further, the hardware component may further have a baseband processor (eg, having a memory unit and firmware) and / or a wireless electronic circuit (which may have an antenna) capable of transmitting and receiving radio signals. .. In one embodiment, the hardware components are such as ISO / IEC18092 / ECMA-340, ISO / IEC21481 / ECMA-352, GSMA, StoLPaN, ETSI / SCP (smart card platform), global platform (ie, secure element). Follow one or more standards. In a variant, the hardware component is a radio frequency identification (RFID) tag. In one embodiment, the hardware components are Bluetooth® communication and / or Wi-Fi® communication and / or Zigbee® communication and / or USB communication and / or firewire. It has a circuit that enables communication and / or NFC (near field) communication.

更には、本原理の態様は、コンピュータ読出可能な記憶媒体の形をとることができる。1つ以上のコンピュータ読出可能な記憶媒体の如何なる組み合わせも利用されてよい。 Furthermore, aspects of this principle can take the form of computer readable storage media. Any combination of one or more computer-readable storage media may be utilized.

よって、例えば、如何なるフローチャート、フロー図、状態遷移図、擬似コード、及び同様のものも、コンピュータ読出可能な記憶媒体において実質的に表され、故に、コンピュータ又はプロセッサによって、そのようなコンピュータ又はプロセッサが明示的に示されていようとなかろうと実行され得る様々なプロセスを表す。 Thus, for example, any flowchart, flow diagram, state transition diagram, pseudocode, and the like are substantially represented in a computer-readable storage medium, and thus, by a computer or processor, such a computer or processor Represents various processes that can be performed, whether explicitly stated or not.

本開示は1つ以上の例を参照して記載されてきたが、当業者に認識されるように、本開示及び/又は添付の特許請求の範囲の適用範囲から逸脱することなしに、形態及び詳細において変更がなされてよい。
[付記1]
プレンオプティックカメラに取り付けられることを対象としたセンサであって、
マイクロレンズアレイによって屈折されたマイクロイメージを検知することを対象とした少なくとも1つのマイクロイメージエリアを有し、
前記マイクロイメージエリアは、カラーフィルタアレイによって少なくとも部分的に覆われており、
前記カラーフィルタアレイの色飽和は、前記マイクロイメージエリアの重心から遠ざかる場合に低下する、
センサ。
[付記2]
前記カラーフィルタアレイの重心は、前記マイクロイメージエリアの重心に対応する、
付記1に記載のセンサ。
[付記3]
前記カラーフィルタアレイの前記色飽和は、前記マイクロイメージエリアの重心から該マイクロイメージエリアの境界へ向かって低下する、
付記1又は2に記載のセンサ。
[付記4]
前記カラーフィルタアレイの前記色飽和は、前記マイクロイメージエリアの重心での1から前記マイクロイメージエリアの境界での0まで変化する、
付記1乃至3のうちいずれか一項に記載のセンサ。
[付記5]
前記カラーフィルタアレイはベイヤーフィルタであり、色成分は、

Figure 0006887223

のように、HSV色空間において与えられ、このとき、(x,y)は、マイクロレンズ(i,j)の下にあるピクセルの座標であり、(x i,j ,y i,j )は、前記マイクロイメージエリアの重心の座標であり、pは、2つの隣接したマイクロイメージエリアの夫々の重心(x i,j ,y i,j )の間の距離である、
付記4に記載のセンサ。
[付記6]
前記マイクロイメージエリアは、前記カラーフィルタアレイによって部分的にのみ覆われる、
付記1乃至5のうちいずれか一項に記載のセンサ。
[付記7]
前記カラーフィルタアレイは、前記マイクロイメージエリアの重心にある4×4のピクセルエリアのみを覆う、
付記6に記載のセンサ。
[付記8]
カラーフィルタアレイによって部分的に覆われているマイクロイメージエリアの少なくとも1つのリフォーカシングされたイメージの色成分R を決定する方法であって、
前記カラーフィルタアレイによって覆われている前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージR a,b を決定するステップであり、前記カラーフィルタアレイの色飽和は、前記マイクロイメージエリアの重心から遠ざかる場合に低下する、ステップと、
前記カラーフィルタアレイによって覆われていない前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージR を決定するステップと、
前記リフォーカシングされたイメージR a,b と前記リフォーカシングされたイメージR とを結合することで前記色成分R を決定するステップと
を有し、
前記色成分R を決定するステップは、前記リフォーカシングされたイメージR に対して重みを導入する、方法。
[付記9]
センサを有し、該センサは、マイクロレンズアレイによって屈折されるマイクロイメージを検知することを対象とした少なくとも1つのマイクロイメージエリアを有し、
前記マイクロイメージエリアは、カラーフィルタアレイによって少なくとも部分的に覆われており、
前記カラーフィルタアレイの色飽和は、前記マイクロイメージエリアの重心から遠ざかる場合に低下する、
ライトフィールドデータ収集デバイス。
[付記10]
通信ネットワークからダウンロード可能であり、且つ/あるいは、コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体において記録されているコンピュータプログラムであって、
付記8に記載の方法を実施するプログラムコード命令を含むコンピュータプログラム。
[付記11]
プロセッサによって実行されることが可能であり、付記8に記載の方法を実施するプログラムコード命令を含むコンピュータプログラムが記録されている非一時的なコンピュータ読み出し可能なキャリア媒体。 The present disclosure has been described with reference to one or more examples, but as will be appreciated by those skilled in the art, without departing from the scope of this disclosure and / or the appended claims. Changes may be made in the details.
[Appendix 1]
It is a sensor intended to be attached to a Plenoptic camera.
It has at least one microimage area intended to detect the microimage refracted by the microlens array.
The microimage area is at least partially covered by a color filter array.
The color saturation of the color filter array decreases as it moves away from the center of gravity of the microimage area.
Sensor.
[Appendix 2]
The center of gravity of the color filter array corresponds to the center of gravity of the micro image area.
The sensor according to Appendix 1.
[Appendix 3]
The color saturation of the color filter array decreases from the center of gravity of the microimage area toward the boundary of the microimage area.
The sensor according to Appendix 1 or 2.
[Appendix 4]
The color saturation of the color filter array varies from 1 at the center of gravity of the microimage area to 0 at the boundary of the microimage area.
The sensor according to any one of Appendix 1 to 3.
[Appendix 5]
The color filter array is a Bayer filter, and the color components are
Figure 0006887223

Given in the HSV color space, where (x, y) is the coordinates of the pixels under the microlens (i, j), (x i, j , y i, j ) is , The coordinates of the center of gravity of the microimage area, where p is the distance between the respective centers of gravity (xi, j , yi, j) of the two adjacent microimage areas.
The sensor according to Appendix 4.
[Appendix 6]
The microimage area is only partially covered by the color filter array.
The sensor according to any one of Appendix 1 to 5.
[Appendix 7]
The color filter array covers only the 4x4 pixel area at the center of gravity of the microimage area.
The sensor according to Appendix 6.
[Appendix 8]
A method of determining the color component R x of at least one refocused image of a microimage area partially covered by a color filter array.
A step of determining the refocused images Ra, b of the pixels of the microimage area covered by the color filter array, where the color saturation of the color filter array moves away from the center of gravity of the microimage area. Steps down to
A step of determining a refocused image RT of pixels in the microimage area that is not covered by the color filter array.
A step of determining the color component R x by combining the refocused images R a and b and the refocused image R T.
Have,
The step of determining the color component R x is a method of introducing weights into the refocused image RT.
[Appendix 9]
Having a sensor, the sensor has at least one microimage area intended to detect the microimage refracted by the microlens array.
The microimage area is at least partially covered by a color filter array.
The color saturation of the color filter array decreases as it moves away from the center of gravity of the microimage area.
Lightfield data acquisition device.
[Appendix 10]
A computer program that is downloadable from a communication network and / or recorded on a computer-readable and / or processor-executable medium.
A computer program that includes program code instructions that implement the method described in Appendix 8.
[Appendix 11]
A non-temporary computer-readable carrier medium on which a computer program containing program code instructions that can be executed by a processor and implements the method described in Appendix 8 is recorded.

Claims (11)

プレンオプティックカメラに取り付けられることを対象としたセンサであって、
マイクロレンズアレイによって屈折されたマイクロイメージを検知することを対象とした少なくとも1つのマイクロイメージエリアを有し、
前記マイクロイメージエリアは、カラーフィルタアレイによって少なくとも部分的に覆われており、
前記カラーフィルタアレイの色成分の点での色飽和は、前記マイクロイメージエリアの重心から前記カラーフィルタアレイの前記色成分の前記点まで、距離が増加するにつれて低下する、
センサ。
It is a sensor intended to be attached to a Plenoptic camera.
It has at least one microimage area intended to detect the microimage refracted by the microlens array.
The microimage area is at least partially covered by a color filter array.
The color saturation in terms of color components of the color filter array decreases as the micro image centroid of the area until the point of the color components of the color filter array, the distance is increased,
Sensor.
前記カラーフィルタアレイの重心は、前記マイクロイメージエリアの重心に対応する、
請求項1に記載のセンサ。
The center of gravity of the color filter array corresponds to the center of gravity of the micro image area.
The sensor according to claim 1.
前記カラーフィルタアレイの前記色飽和は、前記マイクロイメージエリアの重心から該マイクロイメージエリアの境界へ向かって低下する、
請求項1又は2に記載のセンサ。
The color saturation of the color filter array decreases from the center of gravity of the microimage area toward the boundary of the microimage area.
The sensor according to claim 1 or 2.
前記カラーフィルタアレイの前記色飽和は、前記マイクロイメージエリアの重心での1から前記マイクロイメージエリアの境界での0まで変化する、
請求項1乃至3のうちいずれか一項に記載のセンサ。
The color saturation of the color filter array varies from 1 at the center of gravity of the microimage area to 0 at the boundary of the microimage area.
The sensor according to any one of claims 1 to 3.
前記カラーフィルタアレイはベイヤーフィルタであり、色成分は、
Figure 0006887223

のように、HSV色空間において与えられ、このとき、(x,y)は、マイクロレンズ(i,j)の下にあるピクセルの座標であり、(xi,j,yi,j)は、前記マイクロイメージエリアの重心の座標であり、pは、2つの隣接したマイクロイメージエリアの夫々の重心(xi,j,yi,j)の間の距離である、
請求項4に記載のセンサ。
The color filter array is a Bayer filter, and the color components are
Figure 0006887223

Given in the HSV color space, where (x, y) is the coordinates of the pixels under the microlens (i, j), (x i, j , y i, j ) is , The coordinates of the center of gravity of the microimage area, where p is the distance between the respective centers of gravity (xi, j , yi, j) of the two adjacent microimage areas.
The sensor according to claim 4.
前記マイクロイメージエリアは、前記カラーフィルタアレイによって部分的にのみ覆われ、
前記マイクロイメージエリアは、前記カラーフィルタアレイの前記エリアより大きい、
請求項1乃至5のうちいずれか一項に記載のセンサ。
The microimage area is only partially covered by the color filter array .
The microimage area is larger than the area of the color filter array.
The sensor according to any one of claims 1 to 5.
前記カラーフィルタアレイは、前記マイクロイメージエリアの重心にある4×4のピクセルエリアのみを覆
前記マイクロイメージエリアは、前記カラーフィルタアレイの前記エリアより大きい、
請求項6に記載のセンサ。
The color filter array is not covered only 4 pixels area × 4 in the center of gravity of the micro image area,
The microimage area is larger than the area of the color filter array.
The sensor according to claim 6.
カラーフィルタアレイによって部分的に覆われているマイクロイメージエリアの少なくとも1つのリフォーカシングされたイメージの色成分Rを決定する方法であって、
前記カラーフィルタアレイによって覆われている前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージRa,bを決定するステップであり、前記カラーフィルタアレイの色成分の点での色飽和は、前記マイクロイメージエリアの重心から前記カラーフィルタアレイの前記色成分の前記点まで、距離が増加するにつれて低下する、ステップと、
前記カラーフィルタアレイによって覆われていない前記マイクロイメージエリアのピクセルのリフォーカシングされたイメージRを決定するステップと、
前記リフォーカシングされたイメージRa,bと前記リフォーカシングされたイメージRとを結合することで前記色成分Rを決定するステップと
を有し、
前記色成分Rを決定するステップは、前記リフォーカシングされたイメージRに対して重みを導入する、方法。
A method of determining the color component R x of at least one refocused image of a microimage area partially covered by a color filter array.
It is a step of determining the refocused images Ra, b of the pixels of the microimage area covered by the color filter array, and the color saturation in terms of the color components of the color filter array is the microimage. From the center of gravity of the area to the point of the color component of the color filter array , the step decreases as the distance increases.
A step of determining a refocused image RT of pixels in the microimage area that is not covered by the color filter array.
It has a step of determining the color component R x by combining the refocused images R a and b and the refocused image R T.
The step of determining the color component R x is a method of introducing weights into the refocused image RT.
センサを有し、該センサは、マイクロレンズアレイによって屈折されるマイクロイメージを検知することを対象とした少なくとも1つのマイクロイメージエリアを有し、
前記マイクロイメージエリアは、カラーフィルタアレイによって少なくとも部分的に覆われており、
前記カラーフィルタアレイの色成分の点での色飽和は、前記マイクロイメージエリアの重心から前記カラーフィルタアレイの前記色成分の前記点まで、距離が増加するにつれて低下する、
ライトフィールドデータ収集デバイス。
Having a sensor, the sensor has at least one microimage area intended to detect the microimage refracted by the microlens array.
The microimage area is at least partially covered by a color filter array.
The color saturation in terms of color components of the color filter array decreases as the micro image centroid of the area until the point of the color components of the color filter array, the distance is increased,
Lightfield data acquisition device.
通信ネットワークからダウンロード可能であり、且つ/あるいは、コンピュータによって読み出し可能な及び/又はプロセッサによって実行可能な媒体において記録されているコンピュータプログラムであって、
請求項8に記載の方法を実施するプログラムコード命令を含むコンピュータプログラム。
A computer program that is downloadable from a communication network and / or recorded on a computer-readable and / or processor-executable medium.
A computer program comprising a program code instruction that implements the method of claim 8.
プロセッサによって実行されることが可能であり、請求項8に記載の方法を実施するプログラムコード命令を含むコンピュータプログラムが記録されている非一時的なコンピュータ読み出し可能なキャリア媒体。
A non-transitory computer-readable carrier medium on which a computer program containing program code instructions that can be executed by a processor and that implements the method of claim 8 is recorded.
JP2016125154A 2015-06-30 2016-06-24 Plenoptic Forbidden Camera Active JP6887223B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15306053.8 2015-06-30
EP15306053.8A EP3113478A1 (en) 2015-06-30 2015-06-30 Plenoptic foveated camera

Publications (3)

Publication Number Publication Date
JP2017017690A JP2017017690A (en) 2017-01-19
JP2017017690A5 JP2017017690A5 (en) 2019-07-25
JP6887223B2 true JP6887223B2 (en) 2021-06-16

Family

ID=53724155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016125154A Active JP6887223B2 (en) 2015-06-30 2016-06-24 Plenoptic Forbidden Camera

Country Status (6)

Country Link
US (1) US9900582B2 (en)
EP (2) EP3113478A1 (en)
JP (1) JP6887223B2 (en)
KR (1) KR20170003423A (en)
CN (1) CN106331445B (en)
TW (1) TWI699117B (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502452B1 (en) * 2016-02-15 2023-02-22 삼성전자주식회사 Image sensor and method for generating restoration image
US20170332000A1 (en) * 2016-05-10 2017-11-16 Lytro, Inc. High dynamic range light-field imaging
US10830879B2 (en) * 2017-06-29 2020-11-10 Apple Inc. Time-of-flight depth mapping with parallax compensation
EP3486866A1 (en) 2017-11-15 2019-05-22 Thomson Licensing A method for processing a light field video based on the use of a super-rays representation
CN111670576B (en) * 2017-12-05 2022-10-25 艾瑞3D有限公司 Light field image processing method for depth acquisition
WO2019125349A1 (en) 2017-12-18 2019-06-27 Montrose Laboratories Llc Time-of-flight sensing using an addressable array of emitters
EP3540499A1 (en) 2018-03-13 2019-09-18 Thomson Licensing Image sensor comprising a color splitter with two different refractive indexes
EP3540479A1 (en) 2018-03-13 2019-09-18 Thomson Licensing Diffraction grating comprising double-materials structures
EP3591700A1 (en) 2018-07-02 2020-01-08 Thomson Licensing Image sensor comprising a color splitter with two different refractive indexes, and different height
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
CN110595365B (en) * 2019-09-19 2021-06-25 上海兰宝传感科技股份有限公司 Self-adaptive algorithm for reducing detection chromatic aberration of laser triangular displacement sensor
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5506619A (en) 1995-03-17 1996-04-09 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
US6882364B1 (en) 1997-12-02 2005-04-19 Fuji Photo Film Co., Ltd Solid-state imaging apparatus and signal processing method for transforming image signals output from a honeycomb arrangement to high quality video signals
US7012643B2 (en) * 2002-05-08 2006-03-14 Ball Aerospace & Technologies Corp. One chip, low light level color camera
SE0402576D0 (en) * 2004-10-25 2004-10-25 Forskarpatent I Uppsala Ab Multispectral and hyperspectral imaging
US7978240B2 (en) * 2005-10-03 2011-07-12 Konica Minolta Photo Imaging, Inc. Enhancing image quality imaging unit and image sensor
JP2007311447A (en) * 2006-05-17 2007-11-29 Sanyo Electric Co Ltd Photoelectric converter
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP5239417B2 (en) 2008-03-14 2013-07-17 凸版印刷株式会社 Microlens array manufacturing method, density distribution mask and design method thereof
US8358365B2 (en) * 2009-05-01 2013-01-22 Samsung Electronics Co., Ltd. Photo detecting device and image pickup device and method thereon
US8179457B2 (en) * 2009-06-23 2012-05-15 Nokia Corporation Gradient color filters for sub-diffraction limit sensors
US8228417B1 (en) 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
US8284293B2 (en) * 2010-07-07 2012-10-09 Aptina Imaging Corporation Image sensors with graded refractive index microlenses
JP5713816B2 (en) * 2011-03-16 2015-05-07 株式会社東芝 Solid-state imaging device and camera module
US20130076966A1 (en) * 2011-09-22 2013-03-28 John Norvold Border Digital imaging system with refocusable imaging mode
US8831377B2 (en) * 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
US8948545B2 (en) * 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
JP5591851B2 (en) * 2012-03-15 2014-09-17 株式会社東芝 Solid-state imaging device and portable information terminal
US9300932B2 (en) 2012-05-09 2016-03-29 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
JP5537618B2 (en) 2012-08-01 2014-07-02 キヤノン株式会社 Imaging device
JP2015060067A (en) * 2013-09-18 2015-03-30 株式会社東芝 Imaging lens and solid-state imaging device

Also Published As

Publication number Publication date
CN106331445B (en) 2021-01-12
EP3113479B1 (en) 2020-10-21
TWI699117B (en) 2020-07-11
TW201713108A (en) 2017-04-01
JP2017017690A (en) 2017-01-19
CN106331445A (en) 2017-01-11
US9900582B2 (en) 2018-02-20
EP3113479A1 (en) 2017-01-04
EP3113478A1 (en) 2017-01-04
KR20170003423A (en) 2017-01-09
US20170006278A1 (en) 2017-01-05

Similar Documents

Publication Publication Date Title
JP6887223B2 (en) Plenoptic Forbidden Camera
US10560684B2 (en) System and methods for calibration of an array camera
CN107105141B (en) Imaging sensor, image processing method, imaging device and mobile terminal
CN108141571B (en) Maskless phase detection autofocus
KR102354260B1 (en) Method and device for processing lightfield data
US9338380B2 (en) Image processing methods for image sensors with phase detection pixels
US9432568B2 (en) Pixel arrangements for image sensors with phase detection pixels
CN103403494B (en) Camera head
US10334229B2 (en) Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
US9383548B2 (en) Image sensor for depth estimation
US10708486B2 (en) Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge
CN106469431A (en) Image processing apparatus and photographic attachment
US10366478B2 (en) Method and device for obtaining a HDR image by graph signal processing
US20190110028A1 (en) Method for correcting aberration affecting light-field data
CN109493283A (en) A kind of method that high dynamic range images ghost is eliminated
CN103098480B (en) Image processing apparatus and method, three-dimensional image pickup device
US9807368B2 (en) Plenoptic camera comprising a shuffled color filter array
CN107431754A (en) Image processing method, image processing apparatus and picture pick-up device
JP6370348B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
CN112492194B (en) Image processing method and image processing apparatus
US20240127407A1 (en) Image sensor apparatus for capturing depth information

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190618

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210518

R150 Certificate of patent or registration of utility model

Ref document number: 6887223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250