JP5904281B2 - Image processing method, image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing method, image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP5904281B2
JP5904281B2 JP2014529320A JP2014529320A JP5904281B2 JP 5904281 B2 JP5904281 B2 JP 5904281B2 JP 2014529320 A JP2014529320 A JP 2014529320A JP 2014529320 A JP2014529320 A JP 2014529320A JP 5904281 B2 JP5904281 B2 JP 5904281B2
Authority
JP
Japan
Prior art keywords
parallax
image
pixel
image data
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014529320A
Other languages
Japanese (ja)
Other versions
JPWO2014024500A1 (en
Inventor
石賀 健一
健一 石賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Application granted granted Critical
Publication of JP5904281B2 publication Critical patent/JP5904281B2/en
Publication of JPWO2014024500A1 publication Critical patent/JPWO2014024500A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は、画像処理方法、画像処理装置、撮像装置および画像処理プログラムに関する。   The present invention relates to an image processing method, an image processing device, an imaging device, and an image processing program.

単一の撮像光学系を用いて、互いに視差を有する複数の視差画像を一度の撮影で生成する撮像装置が知られている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2003−7994号公報
2. Description of the Related Art An imaging apparatus that generates a plurality of parallax images having parallax with each other using a single imaging optical system is known.
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2003-7994

特許文献1には、一台のカメラによる新しい立体撮像方式を採用した場合、実際に撮像データから高精細な立体カラー画像を生成する具体的な方法が開示されていない。通常、一台のカメラで2D撮像する場合の2Dカラー画像生成では、色補間をし、その後にノイズ除去、エッジ強調等を施して、高精細な2D画像を得る手法が知られている。しかしながら、新しい3D撮像方式では、どのような手続きを経れば、最終的に高精細な立体画像を得ることができるのか、未知の状況にある。例えば、この種の撮像装置において、生成した視差画像を用いてより高解像な視差画像を生成する場合がある。この場合に、生成した複数の視差画像に対して個別にエッジ強調、ノイズ除去等のフィルタリング処理を施すと、各々の視差画素のサンプリング密度の不足に伴って、かえって各々の視差画像においてモアレ・偽解像を発生させるおそれがある。   Patent Document 1 does not disclose a specific method for actually generating a high-definition stereoscopic color image from imaging data when a new stereoscopic imaging method using a single camera is employed. In general, in 2D color image generation when 2D imaging is performed with one camera, a technique is known in which high-definition 2D images are obtained by performing color interpolation and then performing noise removal and edge enhancement. However, in the new 3D imaging method, it is unknown what procedure can be used to finally obtain a high-definition stereoscopic image. For example, in this type of imaging apparatus, a higher-resolution parallax image may be generated using the generated parallax image. In this case, if filtering processing such as edge enhancement and noise removal is individually performed on the plurality of generated parallax images, moiré / false in each parallax image instead due to insufficient sampling density of each parallax pixel. May cause resolution.

本発明の第1の態様における画像処理方法は、1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、第1の画像の少なくとも視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、基準視点画像に対して、エッジ強調処理を行って、エッジ強調された基準視点画像を生成する手順と、エッジ強調された基準視点画像と仮の左視点画像と仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順とを備える。   An image processing method according to a first aspect of the present invention includes a non-parallax pixel including an aperture mask that generates a viewpoint in a reference direction, which includes a plurality of pixels having one aperture mask in one pixel, and a reference direction. An imaging device comprising a pixel array in which at least three types of pixels are arranged: a left parallax pixel having an aperture mask that generates a parallax in the left direction and a right parallax pixel having an aperture mask that generates a parallax in the right direction with respect to a reference direction A first image obtained by capturing a subject image through a single optical system in a different pixel at the same time, a viewpoint in the reference direction, a viewpoint in the left direction, and a viewpoint in the right direction, and an image related to the viewpoint in the left direction; An image processing method for converting to an image related to a right-direction viewpoint, wherein a procedure for generating a temporary left viewpoint image for each pixel using a pixel value of a left parallax pixel of the first image, right A procedure for generating a provisional right viewpoint image for each pixel using the pixel value of the difference pixel, and a procedure for generating a reference viewpoint image for each pixel using the pixel value of at least the non-parallax pixel of the first image; , Based on the procedure for performing edge enhancement processing on the reference viewpoint image to generate the edge-enhanced reference viewpoint image, the edge-enhanced reference viewpoint image, the temporary left viewpoint image, and the temporary right viewpoint image, Each pixel includes a procedure for generating an image relating to the left viewpoint and an image relating to the right viewpoint.

本発明の第2の態様における画像処理方法は、1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、第1の画像の視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、基準視点画像に対して、ノイズ除去処理を行って、ノイズ除去された基準視点画像を生成する手順と、ノイズ除去された基準視点画像と仮の左視点画像と仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順とを備える。   An image processing method according to a second aspect of the present invention includes a non-parallax pixel including an aperture mask that generates a viewpoint in a reference direction, the pixel including a plurality of pixels each having one aperture mask per pixel, and the reference direction. An imaging device comprising a pixel array in which at least three types of pixels are arranged: a left parallax pixel having an aperture mask that generates a parallax in the left direction and a right parallax pixel having an aperture mask that generates a parallax in the right direction with respect to a reference direction A first image obtained by capturing a subject image through a single optical system in a different pixel at the same time, a viewpoint in the reference direction, a viewpoint in the left direction, and a viewpoint in the right direction, and an image related to the viewpoint in the left direction; An image processing method for converting to an image related to a right-direction viewpoint, wherein a procedure for generating a temporary left viewpoint image for each pixel using a pixel value of a left parallax pixel of the first image, right A procedure for generating a temporary right viewpoint image for each pixel using the pixel value of the difference pixel, a procedure for generating a reference viewpoint image for each pixel using the pixel value of the non-parallax pixel of the first image, Each step is performed based on a procedure for generating a noise-removed reference viewpoint image by performing noise removal processing on the reference viewpoint image, and the noise-removed reference viewpoint image, the temporary left viewpoint image, and the temporary right viewpoint image. The pixel includes a procedure for generating an image related to the left viewpoint and an image related to the right viewpoint.

本発明の第3の態様における画像処理装置は、基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、基準方向に対して第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得部と、基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得部と、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理部と、フィルタリング処理が施された基準画像データ、第1視差画像データおよび第2視差画像データを用いて、第1方向にずれた視点に対応する第3視差画像データと、第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成部とを備える。   The image processing apparatus according to the third aspect of the present invention includes first parallax image data corresponding to a viewpoint shifted in the first direction with respect to the reference direction, and a second direction opposite to the first direction with respect to the reference direction. A parallax image data acquisition unit that acquires the second parallax image data corresponding to the viewpoint shifted to, and the resolution corresponding to the reference direction and higher than the spatial frequency resolution of the first parallax image data and the second parallax image data A reference image data acquisition unit that acquires the reference image data, a filter processing unit that performs filtering processing of at least one of edge adjustment and noise removal on the reference image data, reference image data subjected to filtering processing, Using the first parallax image data and the second parallax image data, the third parallax image data corresponding to the viewpoint shifted in the first direction and the fourth corresponding to the viewpoint shifted in the second direction. And a parallax image data generating unit that generates a difference image data.

本発明の第4の態様における撮像装置は、第1視差画像データおよび第2視差画像データの少なくともいずれかを出力する撮像素子と、上記の画像処理装置とを備える。   An imaging device according to a fourth aspect of the present invention includes an imaging device that outputs at least one of first parallax image data and second parallax image data, and the above-described image processing device.

本発明の第5の態様における画像処理プログラムは、基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、基準方向に対して第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データステップと、基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データステップと、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理ステップと、フィルタリング処理が施された基準画像データ、第1視差画像データおよび第2視差画像データを用いて、第1方向にずれた視点に対応する第3視差画像データと、第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成ステップとをコンピュータに実行させる。   An image processing program according to a fifth aspect of the present invention includes: first parallax image data corresponding to a viewpoint shifted in the first direction with respect to the reference direction; and a second direction opposite to the first direction with respect to the reference direction. A parallax image data step for acquiring the second parallax image data corresponding to the viewpoint shifted to the first position, and a resolution corresponding to the reference direction and higher than the spatial frequency resolution of the first parallax image data and the second parallax image data. A reference image data step for obtaining reference image data, a filter processing step for performing filtering processing of at least one of edge adjustment and noise removal on the reference image data, reference image data subjected to filtering processing, and first parallax Using the image data and the second parallax image data, the third parallax image data corresponding to the viewpoint shifted in the first direction and the view shifted in the second direction Fourth to perform the parallax image data generating step of generating the parallax image data to the computer that corresponds to.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

デジタルカメラ10の構成を説明する図である。1 is a diagram illustrating a configuration of a digital camera 10. FIG. 撮像素子100の断面の構成を説明する図である。2 is a diagram illustrating a cross-sectional configuration of an image sensor 100. FIG. 視差なし画素におけるデフォーカスの概念を説明する図である。It is a figure explaining the concept of defocus in a pixel without parallax. 視差画素におけるデフォーカスの概念を説明する図である。It is a figure explaining the concept of defocus in a parallax pixel. 視差なし画素と視差画素の光強度分布を示す図である。It is a figure which shows the light intensity distribution of a parallax pixel and a parallax pixel. 視差画素の種類が2つである場合における開口部104の開口形状を説明する図である。It is a figure explaining the opening shape of the opening part 104 in case there are two types of parallax pixels. Bayer型G視差画素配列およびこの配列の周波数空間における分解能を示す図である。It is a figure which shows the resolution in the frequency space of a Bayer type | mold G parallax pixel array and this arrangement | sequence. 視差画像のモアレを説明する図である。It is a figure explaining the moire of a parallax image. 画素配列図およびこの配列の周波数空間における分解能を示す図である。It is a figure which shows the pixel arrangement | sequence figure and the resolution in the frequency space of this arrangement | sequence. 画素配列図およびこの配列の周波数空間における分解能を示す図である。It is a figure which shows the pixel arrangement | sequence figure and the resolution in the frequency space of this arrangement | sequence. 視差画素の種類が2つである場合の繰り返しパターン110のバリエーションの一例を示す図である。It is a figure which shows an example of the variation of the repeating pattern 110 in case there are two types of parallax pixels. ゲイン値の算出を説明するための図である。It is a figure for demonstrating calculation of a gain value. ゲイン補正を説明するための図である。It is a figure for demonstrating gain correction. 仮の視差画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a temporary parallax image. ゲイン値の算出を説明するための図である。It is a figure for demonstrating calculation of a gain value. ローカル・ゲイン補正を説明するための図である。It is a figure for demonstrating local gain correction. G成分の補間を説明する図である。It is a figure explaining interpolation of G component. カラー視差プレーンデータの生成処理を説明する図である。It is a figure explaining the production | generation process of color parallax plane data. 画素値の補間の一例を示す図である。It is a figure which shows an example of the interpolation of a pixel value.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

画像処理装置および撮像装置の一形態である本実施形態に係るデジタルカメラは、1つのシーンについて左視点および右視点の画像を一度の撮影により生成できるように構成されている。互いに視点の異なるそれぞれの画像を視差画像と呼ぶ。   The digital camera according to the present embodiment, which is one form of the image processing apparatus and the imaging apparatus, is configured to generate a left viewpoint image and a right viewpoint image for one scene by one shooting. Each image having a different viewpoint is called a parallax image.

図1は、デジタルカメラ10の構成を説明する図である。デジタルカメラ10は、撮影光学系としての撮影レンズ20を備え、光軸21に沿って入射する被写体光束を撮像素子100へ導く。撮影レンズ20は、デジタルカメラ10に対して着脱できる交換式レンズであっても構わない。デジタルカメラ10は、撮像素子100、制御部201、A/D変換回路202、メモリ203、駆動部204、画像処理部205、メモリカードIF207、操作部208、表示部209、LCD駆動回路210およびAFセンサ211を備える。   FIG. 1 is a diagram illustrating the configuration of the digital camera 10. The digital camera 10 includes a photographic lens 20 as a photographic optical system, and guides a subject light beam incident along the optical axis 21 to the image sensor 100. The photographing lens 20 may be an interchangeable lens that can be attached to and detached from the digital camera 10. The digital camera 10 includes an image sensor 100, a control unit 201, an A / D conversion circuit 202, a memory 203, a drive unit 204, an image processing unit 205, a memory card IF 207, an operation unit 208, a display unit 209, an LCD drive circuit 210, and an AF. A sensor 211 is provided.

なお、図示するように、撮像素子100へ向かう光軸21に平行な方向を+Z軸方向と定め、Z軸と直交する平面において紙面奥へ向かう方向を+X軸方向、紙面上方向+Y軸と定める。撮影における構図との関係は、X軸が水平方向、Y軸が垂直方向となる。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, the direction parallel to the optical axis 21 toward the image sensor 100 is defined as the + Z-axis direction, and the direction toward the back of the sheet on the plane orthogonal to the Z-axis is defined as the + X-axis direction and the upward direction on the sheet + Y-axis. . Regarding the relationship with composition in photographing, the X axis is the horizontal direction and the Y axis is the vertical direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮影レンズ20は、複数の光学レンズ群から構成され、シーンからの被写体光束をその焦点面近傍に結像させる。なお、図1では撮影レンズ20を説明の都合上、瞳近傍に配置された仮想的な1枚のレンズで代表して表している。撮像素子100は、撮影レンズ20の焦点面近傍に配置されている。撮像素子100は、二次元的に複数の光電変換素子が配列された、例えばCCD、CMOSセンサ等のイメージセンサである。撮像素子100は、駆動部204によりタイミング制御されて、受光面上に結像された被写体像を画像信号に変換してA/D変換回路202へ出力する。   The taking lens 20 is composed of a plurality of optical lens groups, and forms an image of a subject light flux from the scene in the vicinity of its focal plane. In FIG. 1, for convenience of explanation, the photographic lens 20 is represented by a single virtual lens arranged in the vicinity of the pupil. The image sensor 100 is disposed near the focal plane of the photographic lens 20. The image sensor 100 is an image sensor such as a CCD or CMOS sensor in which a plurality of photoelectric conversion elements are two-dimensionally arranged. The image sensor 100 is controlled in timing by the drive unit 204, converts the subject image formed on the light receiving surface into an image signal, and outputs the image signal to the A / D conversion circuit 202.

A/D変換回路202は、撮像素子100が出力する画像信号をデジタル画像信号に変換してメモリ203へ出力する。画像処理部205は、メモリ203をワークスペースとして種々の画像処理を施し、画像データを生成する。特に、画像処理部205は、補間処理部231、基準画像データ生成部232、フィルタ処理部233、および視差画像データ生成部234を有する。   The A / D conversion circuit 202 converts the image signal output from the image sensor 100 into a digital image signal and outputs the digital image signal to the memory 203. The image processing unit 205 performs various image processing using the memory 203 as a work space, and generates image data. In particular, the image processing unit 205 includes an interpolation processing unit 231, a reference image data generation unit 232, a filter processing unit 233, and a parallax image data generation unit 234.

補間処理部231は、撮像素子100の出力に基づいて左視点の左視差画像データおよび右視点の右視差画像データを生成する。補間処理部231により生成される左視差画像データおよび右視差画像データは、基準画像データ生成部232および視差画像データ生成部234の処理に利用されるデータである。補間処理部231により生成される左視差画像データおよび右視差画像データそのものが最終的な左視差画像データおよび右視差画像データとして出力されるわけではないので、当該左視差画像データおよび当該右視差画像データは、最終的な視差画像データを生成するための仮の視差画像データといえる。補間処理部231により生成される左視差画像データおよび右視差画像データの空間周波数解像度は、視差画像データ生成部234により生成される左視差画像データおよび右視差画像データの空間周波数解像度より低い。   The interpolation processing unit 231 generates left parallax image data for the left viewpoint and right parallax image data for the right viewpoint based on the output of the image sensor 100. The left parallax image data and the right parallax image data generated by the interpolation processing unit 231 are data used for processing of the reference image data generation unit 232 and the parallax image data generation unit 234. Since the left parallax image data and the right parallax image data themselves generated by the interpolation processing unit 231 are not output as final left parallax image data and right parallax image data, the left parallax image data and the right parallax image are not output. The data can be said to be temporary parallax image data for generating final parallax image data. The spatial frequency resolution of the left parallax image data and right parallax image data generated by the interpolation processing unit 231 is lower than the spatial frequency resolution of the left parallax image data and right parallax image data generated by the parallax image data generation unit 234.

基準画像データ生成部232は、補間処理部231により生成された左視差画像データおよび右視差画像データの画素値を用いて基準画像データを生成する。基準画像データの詳細は後述する。基準画像データの空間周波数解像度は、補間処理部231により生成された左視差画像データおよび右視差画像データの空間周波数解像度より高い。   The reference image data generation unit 232 generates reference image data using the pixel values of the left parallax image data and the right parallax image data generated by the interpolation processing unit 231. Details of the reference image data will be described later. The spatial frequency resolution of the reference image data is higher than the spatial frequency resolution of the left parallax image data and the right parallax image data generated by the interpolation processing unit 231.

フィルタ処理部233は、基準画像データ生成部232により生成された基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施す。以下の説明では、エッジ調整として主にエッジ強調を例に挙げて説明する。   The filter processing unit 233 performs at least one of edge adjustment and noise removal filtering processing on the reference image data generated by the reference image data generation unit 232. In the following description, edge enhancement will be mainly described as an example of edge adjustment.

視差画像データ生成部234は、補間処理部231により生成された左視差画像データおよび右視差画像データ、並びにフィルタ処理部233によりフィルタリング処理が施された基準画像データを用いて、視差画像データ生成部234により生成された左視差画像データおよび右視差画像データよりも、高解像な左視差画像データおよび高解像な右視差画像データを生成する。   The parallax image data generation unit 234 uses the left parallax image data and the right parallax image data generated by the interpolation processing unit 231, and the reference image data subjected to the filtering process by the filter processing unit 233 to use the parallax image data generation unit Higher-resolution left-parallax image data and higher-resolution right-parallax image data than the left-parallax image data and right-parallax image data generated by H.234 are generated.

画像処理部205は、他にも選択された画像フォーマットに従って画像データを調整するなどの画像処理一般の機能も担う。生成された画像データは、LCD駆動回路210により表示信号に変換され、表示部209に表示される。また、メモリカードIF207に装着されているメモリカード220に記録される。   The image processing unit 205 also has general image processing functions such as adjusting image data according to the selected image format. The generated image data is converted into a display signal by the LCD drive circuit 210 and displayed on the display unit 209. The data is recorded on the memory card 220 attached to the memory card IF 207.

AFセンサ211は、被写体空間に対して複数の測距点が設定された位相差センサであり、それぞれの測距点において被写体像のデフォーカス量を検出する。一連の撮影シーケンスは、操作部208がユーザの操作を受け付けて、制御部201へ操作信号を出力することにより開始される。撮影シーケンスに付随するAF,AE等の各種動作は、制御部201に制御されて実行される。例えば、制御部201は、AFセンサ211の検出信号を解析して、撮影レンズ20の一部を構成するフォーカスレンズを移動させる合焦制御を実行する。   The AF sensor 211 is a phase difference sensor in which a plurality of distance measuring points are set for the subject space, and detects the defocus amount of the subject image at each distance measuring point. A series of shooting sequences is started when the operation unit 208 receives a user operation and outputs an operation signal to the control unit 201. Various operations such as AF and AE accompanying the imaging sequence are executed under the control of the control unit 201. For example, the control unit 201 analyzes the detection signal of the AF sensor 211 and executes focus control for moving a focus lens that constitutes a part of the photographing lens 20.

次に、撮像素子100の構成について詳細に説明する。図2は、撮像素子100の断面を表す概略図である。   Next, the configuration of the image sensor 100 will be described in detail. FIG. 2 is a schematic diagram illustrating a cross section of the image sensor 100.

撮像素子100は、被写体側から順に、マイクロレンズ101、カラーフィルタ102、開口マスク103、配線層105および光電変換素子108が配列されて構成されている。光電変換素子108は、入射する光を電気信号に変換するフォトダイオードにより構成される。光電変換素子108は、基板109の表面に二次元的に複数配列されている。   The imaging element 100 is configured by arranging a microlens 101, a color filter 102, an aperture mask 103, a wiring layer 105, and a photoelectric conversion element 108 in order from the subject side. The photoelectric conversion element 108 is configured by a photodiode that converts incident light into an electrical signal. A plurality of photoelectric conversion elements 108 are two-dimensionally arranged on the surface of the substrate 109.

光電変換素子108により変換された画像信号、光電変換素子108を制御する制御信号等は、配線層105に設けられた配線106を介して送受信される。また、各光電変換素子108に一対一に対応して設けられ、二次元的に繰り返し配列された開口部104を有する開口マスク103が、配線層に接して設けられている。開口部104は、後述するように、対応する光電変換素子108ごとにシフトされて、相対的な位置が厳密に定められている。詳しくは後述するが、この開口部104を備える開口マスク103の作用により、光電変換素子108が受光する被写体光束に視差が生じる。   An image signal converted by the photoelectric conversion element 108, a control signal for controlling the photoelectric conversion element 108, and the like are transmitted and received through the wiring 106 provided in the wiring layer 105. In addition, an opening mask 103 having openings 104 arranged in a one-to-one correspondence with each photoelectric conversion element 108 and repeatedly arranged two-dimensionally is provided in contact with the wiring layer. As will be described later, the opening 104 is shifted for each corresponding photoelectric conversion element 108 so that the relative position is precisely determined. As will be described in detail later, parallax occurs in the subject light beam received by the photoelectric conversion element 108 by the action of the opening mask 103 including the opening 104.

一方、視差を生じさせない光電変換素子108上には、開口マスク103が存在しない。別言すれば、対応する光電変換素子108に対して入射する被写体光束を制限しない、つまり入射光束の全体を通過させる開口部104を有する開口マスク103が設けられているとも言える。視差を生じさせることはないが、実質的には配線106によって形成される開口107が入射する被写体光束を規定するので、配線106を、視差を生じさせない入射光束の全体を通過させる開口マスクと捉えることもできる。開口マスク103は、各光電変換素子108に対応して別個独立に配列しても良いし、カラーフィルタ102の製造プロセスと同様に複数の光電変換素子108に対して一括して形成しても良い。   On the other hand, the aperture mask 103 does not exist on the photoelectric conversion element 108 that does not generate parallax. In other words, it can be said that an aperture mask 103 having an aperture 104 that does not limit the subject luminous flux incident on the corresponding photoelectric conversion element 108, that is, allows the entire incident luminous flux to pass therethrough is provided. Although no parallax is generated, the aperture 107 formed by the wiring 106 defines the incident light flux that is incident, so the wiring 106 is regarded as an aperture mask that allows the entire incident light flux that does not cause parallax to pass. You can also The opening mask 103 may be arranged separately and independently corresponding to each photoelectric conversion element 108, or may be formed collectively for a plurality of photoelectric conversion elements 108 in the same manner as the manufacturing process of the color filter 102. .

カラーフィルタ102は、開口マスク103上に設けられている。カラーフィルタ102は、各光電変換素子108に対して特定の波長帯域を透過させるように着色された、光電変換素子108のそれぞれに一対一に対応して設けられるフィルタである。カラー画像を出力するには、互いに異なる少なくとも2種類のカラーフィルタが配列されれば良いが、より高画質のカラー画像を取得するには3種類以上のカラーフィルタを配列すると良い。例えば赤色波長帯を透過させる赤フィルタ(Rフィルタ)、緑色波長帯を透過させる緑フィルタ(Gフィルタ)、および青色波長帯を透過させる青フィルタ(Bフィルタ)を格子状に配列すると良い。カラーフィルタは原色RGBの組合せのみならず、YCMの補色フィルタの組合せであっても良い。   The color filter 102 is provided on the opening mask 103. The color filter 102 is a filter provided in a one-to-one correspondence with each photoelectric conversion element 108, which is colored so as to transmit a specific wavelength band to each photoelectric conversion element 108. In order to output a color image, it is only necessary to arrange at least two types of color filters that are different from each other. However, in order to obtain a higher quality color image, it is preferable to arrange three or more types of color filters. For example, a red filter (R filter) that transmits the red wavelength band, a green filter (G filter) that transmits the green wavelength band, and a blue filter (B filter) that transmits the blue wavelength band may be arranged in a grid pattern. The color filter may be not only a combination of primary colors RGB but also a combination of YCM complementary color filters.

マイクロレンズ101は、カラーフィルタ102上に設けられている。マイクロレンズ101は、入射する被写体光束のより多くを光電変換素子108へ導くための集光レンズである。マイクロレンズ101は、光電変換素子108のそれぞれに一対一に対応して設けられている。マイクロレンズ101は、撮影レンズ20の瞳中心と光電変換素子108の相対的な位置関係を考慮して、より多くの被写体光束が光電変換素子108に導かれるようにその光軸がシフトされていることが好ましい。さらには、開口マスク103の開口部104の位置と共に、後述の特定の被写体光束がより多く入射するように配置位置が調整されても良い。   The microlens 101 is provided on the color filter 102. The microlens 101 is a condensing lens for guiding more incident subject light flux to the photoelectric conversion element 108. The microlenses 101 are provided in a one-to-one correspondence with the photoelectric conversion elements 108. In consideration of the relative positional relationship between the pupil center of the taking lens 20 and the photoelectric conversion element 108, the optical axis of the microlens 101 is shifted so that more subject light flux is guided to the photoelectric conversion element 108. It is preferable. Furthermore, the arrangement position may be adjusted so that more specific subject light beam, which will be described later, is incident along with the position of the opening 104 of the opening mask 103.

このように、各々の光電変換素子108に対応して一対一に設けられる開口マスク103、カラーフィルタ102およびマイクロレンズ101の一単位を画素と呼ぶ。特に、視差を生じさせる開口マスク103が設けられた画素を視差画素、視差を生じさせる開口マスク103が設けられていない画素を視差なし画素と呼ぶ。例えば、撮像素子100の有効画素領域が24mm×16mm程度の場合、画素数は1200万程度に及ぶ。   As described above, one unit of the aperture mask 103, the color filter 102, and the microlens 101 provided in one-to-one correspondence with each photoelectric conversion element 108 is referred to as a pixel. In particular, a pixel provided with the opening mask 103 that generates parallax is referred to as a parallax pixel, and a pixel that is not provided with the opening mask 103 that generates parallax is referred to as a non-parallax pixel. For example, when the effective pixel area of the image sensor 100 is about 24 mm × 16 mm, the number of pixels reaches about 12 million.

なお、集光効率、光電変換効率が良いイメージセンサの場合は、マイクロレンズ101を設けなくても良い。また、裏面照射型イメージセンサの場合は、配線層105が光電変換素子108とは反対側に設けられる。また、開口マスク103の開口部104に色成分を持たせれば、カラーフィルタ102と開口マスク103を一体的に形成することもできる。なお、白黒画像信号を出力すればよい場合にはカラーフィルタ102は設けない。   Note that in the case of an image sensor with good light collection efficiency and photoelectric conversion efficiency, the microlens 101 may not be provided. In the case of a back-illuminated image sensor, the wiring layer 105 is provided on the side opposite to the photoelectric conversion element 108. Further, if the opening 104 of the opening mask 103 has a color component, the color filter 102 and the opening mask 103 can be formed integrally. Note that the color filter 102 is not provided when a monochrome image signal may be output.

また、本実施形態においては、開口マスク103と配線106を別体として設けているが、視差画素における開口マスク103の機能を配線106が担っても良い。すなわち、規定される開口形状を配線106により形成し、当該開口形状により入射光束を制限して特定の部分光束のみを光電変換素子108へ導く。この場合、開口形状を形成する配線106は、配線層105のうち最も光電変換素子108側であることが好ましい。   In the present embodiment, the opening mask 103 and the wiring 106 are provided separately, but the wiring 106 may serve the function of the opening mask 103 in the parallax pixels. That is, a prescribed opening shape is formed by the wiring 106, and the incident light beam is limited by the opening shape to guide only a specific partial light beam to the photoelectric conversion element 108. In this case, the wiring 106 that forms the opening shape is preferably closest to the photoelectric conversion element 108 in the wiring layer 105.

また、開口マスク103は、光電変換素子108に重ねて設けられる透過阻止膜によって形成されても良い。この場合、開口マスク103は、例えば、SiN膜とSiO膜を順次積層して透過阻止膜とし、開口部104に相当する領域をエッチングで除去して形成される。Further, the opening mask 103 may be formed by a permeation blocking film provided to overlap the photoelectric conversion element 108. In this case, the opening mask 103 is formed, for example, by sequentially laminating a SiN film and a SiO 2 film to form a permeation blocking film and removing a region corresponding to the opening 104 by etching.

次に、視差Lt画素および視差Rt画素が受光する場合のデフォーカスの概念を説明する。まず、視差なし画素におけるデフォーカスの概念について簡単に説明する図である。図3は、視差なし画素におけるデフォーカスの概念を説明する図である。図3(a)で示すように、被写体である物点が焦点位置に存在する場合、レンズ瞳を通って撮像素子受光面に到達する被写体光束は、対応する像点の画素を中心として急峻な光強度分布を示す。すなわち、レンズ瞳を通過する有効光束の全体を受光する視差なし画素が像点近傍に配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値は急激に低下する。   Next, the concept of defocusing when the parallax Lt pixel and the parallax Rt pixel receive light will be described. First, it is a figure explaining simply the concept of defocus in a pixel without parallax. FIG. 3 is a diagram for explaining the concept of defocus in a pixel without parallax. As shown in FIG. 3A, when an object point that is a subject exists at the focal position, the subject luminous flux that reaches the image sensor light receiving surface through the lens pupil is steep with the pixel at the corresponding image point as the center. The light intensity distribution is shown. That is, if non-parallax pixels that receive the entire effective luminous flux that passes through the lens pupil are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity Drops rapidly.

一方、図3(b)に示すように、物点が焦点位置からずれると、被写体光束は、物点が焦点位置に存在する場合に比べて、撮像素子受光面においてなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値が低下する上に、より周辺画素まで出力値を有する分布を示す。   On the other hand, as shown in FIG. 3B, when the object point deviates from the focal position, the subject luminous flux exhibits a gentle light intensity distribution on the light receiving surface of the image sensor as compared with the case where the object point exists at the focal position. . That is, the output value at the pixel of the corresponding image point is lowered, and a distribution having output values up to the peripheral pixels is shown.

また、図3(c)に示すように、さらに物点が焦点位置からずれると、被写体光束は、撮像素子受光面においてよりなだらかな光強度分布を示す。すなわち、対応する像点の画素における出力値がさらに低下する上に、より周辺画素まで出力値を有する分布を示す。   Further, as shown in FIG. 3C, when the object point further deviates from the focal position, the subject luminous flux exhibits a gentler light intensity distribution on the image sensor light receiving surface. In other words, the output value at the pixel of the corresponding image point further decreases, and a distribution having output values up to the surrounding pixels is shown.

図4は、視差画素におけるデフォーカスの概念を説明する図である。視差Lt画素および視差Rt画素は、レンズ瞳の部分領域としてそれぞれ光軸対象に設定された2つの視差仮想瞳のいずれかから到達する被写体光束を受光する。本明細書において、単一のレンズ瞳における互いに異なる仮想瞳から到達する被写体光束を受光することによって視差画像を撮像する方式を単眼瞳分割撮像方式という。   FIG. 4 is a diagram for explaining the concept of defocusing in the parallax pixels. The parallax Lt pixel and the parallax Rt pixel receive the subject luminous flux that arrives from one of the two parallax virtual pupils set as the optical axis target as a partial region of the lens pupil. In this specification, a method of capturing a parallax image by receiving subject light fluxes that arrive from different virtual pupils in a single lens pupil is referred to as a monocular pupil division imaging method.

図4(a)で示すように、被写体である物点が焦点位置に存在する場合、いずれの視差仮想瞳を通った被写体光束であっても、対応する像点の画素を中心として急峻な光強度分布を示す。像点付近に視差Lt画素が配列されていれば、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。また、像点付近に視差Rt画素が配列されていても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する。すなわち、被写体光束がいずれの視差仮想瞳を通過しても、像点に対応する画素の出力値が最も大きく、周辺に配列された画素の出力値が急激に低下する分布を示し、それぞれの分布は互いに一致する。   As shown in FIG. 4 (a), when an object point that is a subject exists at the focal position, steep light centering on the pixel of the corresponding image point, regardless of the parallax virtual pupil, regardless of the parallax virtual pupil. The intensity distribution is shown. If the parallax Lt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Further, even when the parallax Rt pixels are arranged in the vicinity of the image point, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. That is, even if the subject luminous flux passes through any parallax virtual pupil, the output value of the pixel corresponding to the image point is the largest, and the output value of the pixels arranged in the vicinity rapidly decreases. Match each other.

一方、図4(b)に示すように、物点が焦点位置からずれると、物点が焦点位置に存在した場合に比べて、視差Lt画素が示す光強度分布のピークは、像点に対応する画素から一方向に離れた位置に現れ、かつその出力値は低下する。また、出力値を有する画素の幅も広がる。視差Rt画素が示す光強度分布のピークは、像点に対応する画素から、視差Lt画素における一方向とは逆向きかつ等距離に離れた位置に現れ、同様にその出力値は低下する。また、同様に出力値を有する画素の幅も広がる。すなわち、物点が焦点位置に存在した場合に比べてなだらかとなった同一の光強度分布が、互いに等距離に離間して現れる。また、図4(c)に示すように、さらに物点が焦点位置からずれると、図4(b)の状態に比べて、さらになだらかとなった同一の光強度分布が、より離間して現れる。つまり、物点が焦点位置から大きくずれる程、ぼけ量と視差量が増すと言える。   On the other hand, as shown in FIG. 4B, when the object point deviates from the focal position, the peak of the light intensity distribution indicated by the parallax Lt pixel corresponds to the image point as compared to the case where the object point exists at the focal position. Appearing at a position away from the pixel in one direction, and its output value decreases. In addition, the width of the pixel having the output value is increased. The peak of the light intensity distribution indicated by the parallax Rt pixel appears at a position away from the pixel corresponding to the image point in the opposite direction to the one direction in the parallax Lt pixel and at an equal distance, and the output value similarly decreases. Similarly, the width of the pixel having the output value is increased. That is, the same light intensity distribution that is gentler than that in the case where the object point exists at the focal position appears at an equal distance from each other. Further, as shown in FIG. 4C, when the object point further deviates from the focal position, the same light intensity distribution that is more gentle than the state of FIG. . That is, it can be said that the amount of blur and the amount of parallax increase as the object point deviates from the focal position.

図3で説明した光強度分布の変化と、図4で説明した光強度分布の変化をそれぞれグラフ化すると、図5のように表される。図において、横軸は画素位置を表し、中心位置が像点に対応する画素位置である。縦軸は各画素の出力値を表し、この出力値は実質的に光強度に比例するので、図においては光強度として示す。   When the change of the light intensity distribution explained in FIG. 3 and the change of the light intensity distribution explained in FIG. 4 are respectively graphed, they are expressed as shown in FIG. In the figure, the horizontal axis represents the pixel position, and the center position is the pixel position corresponding to the image point. The vertical axis represents the output value of each pixel. Since this output value is substantially proportional to the light intensity, it is shown as the light intensity in the figure.

図5(a)は、図3で説明した光強度分布の変化を表すグラフである。分布曲線1801は、図3(a)に対応する光強度分布を表し、最も急峻な様子を示す。分布曲線1802は、図3(b)に対応する光強度分布を表し、また、分布曲線1803は、図3(c)に対応する光強度分布を表す。分布曲線1801に比較して、徐々にピーク値が下がり、広がりを持つ様子がわかる。   FIG. 5A is a graph showing changes in the light intensity distribution described in FIG. A distribution curve 1801 represents the light intensity distribution corresponding to FIG. 3A and shows the steepest state. The distribution curve 1802 represents the light intensity distribution corresponding to FIG. 3B, and the distribution curve 1803 represents the light intensity distribution corresponding to FIG. Compared with the distribution curve 1801, it can be seen that the peak value gradually decreases and has a broadening.

図5(b)は、図4で説明した光強度分布の変化を表すグラフである。分布曲線1804と分布曲線1805は、それぞれ図4(b)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布は中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1806は、図4(b)に対して同等のデフォーカス状態である図3(b)の分布曲線1802と相似形状を示す。   FIG. 5B is a graph showing changes in the light intensity distribution described in FIG. A distribution curve 1804 and a distribution curve 1805 represent the light intensity distribution of the parallax Lt pixel and the light intensity distribution of the parallax Rt pixel in FIG. 4B, respectively. As can be seen from the figure, these distributions have a line-symmetric shape with respect to the center position. Further, a combined distribution curve 1806 obtained by adding them shows a similar shape to the distribution curve 1802 of FIG. 3B which is in a defocus state equivalent to that of FIG.

分布曲線1807と分布曲線1808は、それぞれ図4(c)の視差Lt画素の光強度分布と視差Rt画素の光強度分布を表す。図からわかるように、これらの分布も中心位置に対して線対称の形状を成す。また、これらを足し合わせた合成分布曲線1809は、図4(c)に対して同等のデフォーカス状態である図3(c)の分布曲線1803と相似形状を示す。   A distribution curve 1807 and a distribution curve 1808 respectively represent the light intensity distribution of the parallax Lt pixel and the light intensity distribution of the parallax Rt pixel in FIG. As can be seen from the figure, these distributions are also symmetrical with respect to the center position. Further, a combined distribution curve 1809 obtained by adding them shows a similar shape to the distribution curve 1803 in FIG. 3C which is in a defocus state equivalent to that in FIG.

図6は、視差画素の種類が2つである場合における開口部104の開口形状を説明する図である。図6(a)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状とが、視差なし画素の開口部104nの形状を中心線322で分割したそれぞれの形状と同一である例を示している。つまり、図6(a)では、視差なし画素の開口部104nの面積は、視差Lt画素の開口部104lの面積と視差Rt画素の開口部104rの面積の和になっている。本実施形態においては、視差なし画素の開口部104nを全開口の開口部といい、開口部104lおよび開口部104rを半開口の開口部という。また、開口部が光電変換素子の中央に位置する場合に、当該開口部が基準方向に向いているという。視差Lt画素の開口部104lおよび視差Rt画素の開口部104rは、それぞれ対応する光電変換素子108の中心(画素中心)を通る仮想的な中心線322に対して、互いに反対方向に偏位している。したがって、視差Lt画素の開口部104lおよび視差Rt画素の開口部104rはそれぞれ、基準方向に対する一方向、当該一方向とは反対の他方向に視差を生じさせる。   FIG. 6 is a diagram illustrating the opening shape of the opening 104 when there are two types of parallax pixels. In FIG. 6A, the shape of the opening 104l of the parallax Lt pixel and the shape of the opening 104r of the parallax Rt pixel are respectively obtained by dividing the shape of the opening 104n of the non-parallax pixel by the center line 322. The example which is the same is shown. That is, in FIG. 6A, the area of the opening 104n of the non-parallax pixel is the sum of the area of the opening 104l of the parallax Lt pixel and the area of the opening 104r of the parallax Rt pixel. In the present embodiment, the opening 104n of the non-parallax pixel is referred to as a full-opening opening, and the opening 104l and the opening 104r are referred to as half-opening openings. In addition, when the opening is located in the center of the photoelectric conversion element, the opening is directed to the reference direction. The opening 104l of the parallax Lt pixel and the opening 104r of the parallax Rt pixel are displaced in opposite directions with respect to a virtual center line 322 passing through the center (pixel center) of the corresponding photoelectric conversion element 108. Yes. Accordingly, the opening 104l of the parallax Lt pixel and the opening 104r of the parallax Rt pixel each generate parallax in one direction with respect to the reference direction and in the other direction opposite to the one direction.

図6(b)は、図6(a)で示した各開口部を有する画素において、物点が焦点位置からずれた場合の光強度分布を示す。図中において、曲線Ltは図5(b)の分布曲線1804、曲線Rtは図5(b)の分布曲線1805にそれぞれ相当する。曲線Nは視差なし画素に対応しており、図5(b)の合成分布曲線1806と相似形状を示す。また、それぞれの開口部104n、開口部104l、開口部104rは、開口絞りの機能を有する。したがって、開口部104l(開口部104r)の倍の面積を持つ開口部104nを有する視差なし画素のボケ幅は、図5(b)の合成分布曲線1806で示される、Lt画素と視差Rt画素を足し合わせた曲線のボケ幅と同程度となる。   FIG. 6B shows the light intensity distribution when the object point is deviated from the focal position in the pixel having each opening shown in FIG. In the figure, the curve Lt corresponds to the distribution curve 1804 in FIG. 5B, and the curve Rt corresponds to the distribution curve 1805 in FIG. 5B. A curve N corresponds to a pixel without parallax, and shows a similar shape to the combined distribution curve 1806 in FIG. Each of the openings 104n, 104l, and 104r has an aperture stop function. Therefore, the blur width of the non-parallax pixel having the opening 104n having an area double the opening 104l (opening 104r) is the Lt pixel and the parallax Rt pixel indicated by the combined distribution curve 1806 in FIG. It is about the same as the blur width of the added curve.

図6(c)は、視差Lt画素の開口部104lの形状と、視差Rt画素の開口部104rの形状と、視差C画素の開口部104cの形状とが、全て同形状である例を示している。ここで、視差C画素は、偏心のない画素をいう。視差C画素は、瞳の中心部分を部分領域とする被写体光束のみを光電変換素子108へ導く点で、厳密には、視差画像を出力する視差画素である。しかしながら、ここでは、基準方向に対応する開口部を有する画素を視差なし画素と定義する。したがって、基準方向として、図6(a)の視差なし画素と同様に光電変換素子の中央に開口部を有する図6(c)の視差C画素は、視差なし画素である。また、開口部104l、開口部104r、開口部104cは、図6(a)で示した開口部104nの半分の面積である。図6(a)の場合と同様、開口部104lおよび104rのそれぞれは、光電変換素子108の中心(画素中心)を通る仮想的な中心線322と接している。   FIG. 6C shows an example in which the shape of the opening 104l of the parallax Lt pixel, the shape of the opening 104r of the parallax Rt pixel, and the shape of the opening 104c of the parallax C pixel are all the same shape. Yes. Here, the parallax C pixel is a pixel having no eccentricity. Strictly speaking, the parallax C pixel is a parallax pixel that outputs a parallax image, in that only the subject luminous flux having the central portion of the pupil as a partial region is guided to the photoelectric conversion element 108. However, here, a pixel having an opening corresponding to the reference direction is defined as a non-parallax pixel. Accordingly, as the reference direction, the parallax C pixel in FIG. 6C having an opening at the center of the photoelectric conversion element is the pixel without parallax, as in the pixel without parallax in FIG. 6A. In addition, the opening 104l, the opening 104r, and the opening 104c are half the area of the opening 104n illustrated in FIG. As in the case of FIG. 6A, each of the openings 104 l and 104 r is in contact with a virtual center line 322 that passes through the center (pixel center) of the photoelectric conversion element 108.

図6(d)は、図6(c)で示した各開口部を有する画素において、物点が焦点位置からずれた場合の光強度分布を示す。図中において、曲線Ltは図5(b)の分布曲線1804、曲線Rtは図5(b)の分布曲線1805にそれぞれ相当する。また、それぞれの開口部104c、開口部104l、開口部104rは、開口絞りの機能を有する。したがって、開口部104lおよび開口部104rと同形状、同面積である開口部104cを有する視差C画素のボケ幅は、視差Lt画素および視差Rt画素のボケ幅と同程度となる。以上のように、単眼瞳分割撮像方式では、通常の2眼式立体撮像と比べて、ボケの中に視差が含まれ、合焦位置では2D撮像と同じ光学像を取得しているという特徴がある。   FIG. 6D shows the light intensity distribution when the object point is deviated from the focal position in the pixel having each opening shown in FIG. In the figure, the curve Lt corresponds to the distribution curve 1804 in FIG. 5B, and the curve Rt corresponds to the distribution curve 1805 in FIG. 5B. Each of the openings 104c, 104l, and 104r has a function of an aperture stop. Therefore, the blur width of the parallax C pixel having the opening 104c having the same shape and the same area as the opening 104l and the opening 104r is approximately the same as the blur width of the parallax Lt pixel and the parallax Rt pixel. As described above, in the monocular pupil division imaging method, the parallax is included in the blur and the same optical image as the 2D imaging is acquired at the in-focus position as compared with the normal binocular stereoscopic imaging. is there.

特許文献1には、カラーフィルタと、左右の視差画素のみが配列された画素配列との組み合わせからなる色・視差配列が開示されている。特許文献1に示された色・視差配列に限らず、例えば、左右の視差画素の他に視差なし画素が配列された色・視差配列を用いることもできる。これら色・視差配列による撮像は、いずれも単眼瞳分割撮像方式による立体撮像と呼ぶことができる。   Patent Document 1 discloses a color / parallax arrangement formed by a combination of a color filter and a pixel arrangement in which only left and right parallax pixels are arranged. For example, a color / parallax arrangement in which pixels without parallax are arranged in addition to the left and right parallax pixels can be used. Imaging with these color / parallax arrangements can be called stereoscopic imaging with a monocular pupil division imaging system.

立体画像の生成方法として、画像処理部205が、左視差画素のみのサンプリング点(格子点)を集めて空格子点を補間することによって左視差画像を生成し、右視差画素のみのサンプリング点を集めて空格子点を補間することによって右視差画像を生成することが考えられる。しかしながら、左右の視差画像を独立に補間処理する方法では、それぞれの視差画素のサンプリング解像限界を超えた解像が得られないという問題が必然的に存在する。   As a method of generating a stereoscopic image, the image processing unit 205 generates a left parallax image by collecting sampling points (grid points) of only the left parallax pixels and interpolating the empty grid points, and sets sampling points of only the right parallax pixels. It is conceivable to generate a right parallax image by collecting and interpolating vacancies. However, the method of interpolating the left and right parallax images inevitably has a problem that a resolution exceeding the sampling resolution limit of each parallax pixel cannot be obtained.

一方で、全開口の視差なし画素を共存させた配列の場合には、一旦視差なしの2D画像を中間画像(以下、「2D中間画像」とも記す)として生成することにより、その2D中間画像は、一定の条件下で全画素サンプリングしたときの解像限界に等しいナイキスト周波数まで解像力をもつことが可能となる。すなわち、上述のように、単眼瞳分割撮像方式の固有の特性として、合焦位置の被写体像の点像分布関数は、視差なし画素も左視差画素も右視差画素も全て同じ点像分布関数となる。このため、合焦位置近辺では、2D専用センサと同じ被写体像を捉えており、その解像を最大限に導きだすことができる。   On the other hand, in the case of an array in which pixels with no parallax of all apertures coexist, a 2D image without parallax is once generated as an intermediate image (hereinafter also referred to as “2D intermediate image”). It is possible to have a resolution up to the Nyquist frequency equal to the resolution limit when all pixels are sampled under a certain condition. That is, as described above, as a characteristic characteristic of the monocular pupil division imaging method, the point spread function of the subject image at the in-focus position is the same point spread function for all the non-parallax pixels, the left parallax pixels, and the right parallax pixels. Become. For this reason, the same subject image as the 2D dedicated sensor is captured in the vicinity of the focus position, and the resolution can be derived to the maximum.

そうして得られた2D中間画像を用いて、左右の視差画素を独立に仮補間した低解像の左視差画像と低解像の右視差画像に対して、後述する視差変調によって2D中間画像の高周波成分を重畳すると、各視差画素のサンプリング限界を超える高解像の左視差画像と高解像の右視差画像を得ることができる。   Using the 2D intermediate image thus obtained, a low-resolution left parallax image and a low-resolution right parallax image obtained by independently temporarily interpolating left and right parallax pixels are subjected to parallax modulation described later to generate a 2D intermediate image. By superimposing the high-frequency components, a high-resolution left parallax image and a high-resolution right parallax image exceeding the sampling limit of each parallax pixel can be obtained.

ここで注意が必要なのは、視差変調によって得られた高解像な左視差画像と高解像な右視差画像にも、合焦位置から外れた非合焦域の被写体像になると、2D中間画像の高周波解像が反映されつつも、元の低解像の左視差画像と低解像の右視差画像に存在していた解像限界以上の高周波成分が低周波モアレとなって現れてしまうという問題である。一方、2D中間画像には、非合焦域でもそのようなモアレ成分は現れない。すなわち、2D中間画像では、安定的に高解像を実現できる。   It should be noted here that if a high-resolution left parallax image and a high-resolution right parallax image obtained by parallax modulation also become a subject image in an out-of-focus area out of the focus position, the 2D intermediate image While high-frequency resolution is reflected, high-frequency components that existed in the original low-resolution left-parallax image and low-resolution right-parallax image above the resolution limit appear as low-frequency moire. It is a problem. On the other hand, such a moire component does not appear in the 2D intermediate image even in the out-of-focus region. That is, the 2D intermediate image can stably achieve high resolution.

したがって、このような事実を踏まえれば、3D画像でエッジ強調処理を行うには、次のように結論することができる。まず、左視差画像と右視差画像に個別にエッジ強調処理をするのではなく、一旦高解像な2D中間画像を生成した上で、その2D画像に対してエッジ強調処理を行う。その後、視差変調を加えることによって、エッジ強調処理の行われた3D画像を生成する。このような画像処理手順を経ると、視差画素のサンプリング限界を超えるエイリアジング・モアレを強調することなく、高精細で自然なエッジ強調立体画像を得ることができる。   Therefore, in view of such a fact, in order to perform edge enhancement processing with a 3D image, it can be concluded as follows. First, instead of individually performing edge enhancement processing on the left parallax image and right parallax image, once a high-resolution 2D intermediate image is generated, edge enhancement processing is performed on the 2D image. Then, a 3D image subjected to edge enhancement processing is generated by applying parallax modulation. Through such an image processing procedure, a high-definition and natural edge-enhanced stereoscopic image can be obtained without enhancing aliasing moire that exceeds the sampling limit of the parallax pixels.

図7は、Bayer型G視差画素配列およびこの配列の周波数空間における分解能を示す図である。図7に示す配列では、左視差画素(Lt)と右視差画素(Rt)と視差なし画素(N)が混在している。カラーフィルタ配列はBayer配列構造をとり、一方のG画素には左開口の視差画素が、もう一方のG画素には右開口の視差画素が開口マスクとして設けられている。さらに、R画素とB画素には全開口の視差なし画素が設けられている。これは、後述する実施形態1で説明する配列に対応する。また、図7では、各色成分とそれぞれの視差に対応するサンプリング解像限界を表す周波数空間図(k空間図)が併せて示されている。ただし、解像周波数f[本/mm]と波数kとの間にはk=2πfの関係がある。   FIG. 7 is a diagram illustrating a Bayer-type G parallax pixel array and the resolution in the frequency space of this array. In the arrangement shown in FIG. 7, the left parallax pixel (Lt), the right parallax pixel (Rt), and the non-parallax pixel (N) are mixed. The color filter array has a Bayer array structure, and one G pixel is provided with a left-opening parallax pixel, and the other G pixel is provided with a right-opening parallax pixel as an opening mask. Further, the R pixel and the B pixel are provided with a pixel with no parallax of all openings. This corresponds to the arrangement described in the first embodiment described later. FIG. 7 also shows a frequency space diagram (k space diagram) representing the sampling resolution limit corresponding to each color component and each parallax. However, there is a relationship of k = 2πf between the resolution frequency f [lines / mm] and the wave number k.

合焦位置におけるモノクロ被写体(例えば、サーキュラー・ゾーン・プレート)は、前述の2D中間画像が生成されると、一番外側のナイキスト周波数限界にまで解像され得る。他方、非合焦域では、基本的に内側の正方領域に解像周波数は制限される。   A monochrome subject (eg, a circular zone plate) at the in-focus position can be resolved to the outermost Nyquist frequency limit when the aforementioned 2D intermediate image is generated. On the other hand, in the out-of-focus area, the resolution frequency is basically limited to the inner square area.

図8は、視差画像のモアレを説明する図である。図8(a)は視差なし画像、図8(b)は左視差画像、図8(c)は右視差画像を示す。図8(b)、(c)に示す画像は、後述する実施形態1に示すエッジ強調処理の部分を除いた過程を経て生成されている。前述の合焦位置から少しだけ外れた被写体像について、2D中間画像を経て3D画像を得た場合には、図8(b)、(c)に示すように、視差画素のサンプリング限界に伴うモアレ成分が左右の視差画像に現れてしまう。したがって、左視差画像と右視差画像で個別にエッジ強調すると、偽解像のモアレ成分を強調してしまって画質を損なう。2D中間画像に対してエッジ強調を行えば、モアレ成分を強調することなく、高精細な3Dエッジ強調処理が可能となる。   FIG. 8 is a diagram illustrating the moire of the parallax image. 8A shows an image without parallax, FIG. 8B shows a left parallax image, and FIG. 8C shows a right parallax image. The images shown in FIGS. 8B and 8C are generated through a process excluding the part of edge enhancement processing shown in Embodiment 1 described later. When a 3D image is obtained through a 2D intermediate image for a subject image slightly deviated from the above-described in-focus position, as shown in FIGS. The component appears in the left and right parallax images. Therefore, if edge enhancement is performed separately for the left parallax image and the right parallax image, the moire component of the false resolution is emphasized and the image quality is impaired. If edge enhancement is performed on the 2D intermediate image, high-definition 3D edge enhancement processing can be performed without enhancing the moire component.

左視差画素(Lt)と右視差画素(Rt)と視差なし画素(N)が混在するような色・視差配列として、他の配列を用いることもできる。例えば、後述する実施形態2で説明する視差画素を疎な密度にした配列、後述する実施形態3で説明する視差画素を疎な密度にし、かつモノクロの配列を用いることもできる。   As the color / parallax arrangement in which the left parallax pixel (Lt), the right parallax pixel (Rt), and the non-parallax pixel (N) are mixed, other arrangements may be used. For example, an array in which parallax pixels described in Embodiment 2 described later have a sparse density, a parallax pixel described in Embodiment 3 described later in a sparse density, and a monochrome array can also be used.

以下に示す実施形態では、上述したように、まず高解像な2D中間画像を生成し、生成した2D中間画像を3D画像に重畳して2D、3D共に高解像な出力画像を得る。視差画素と視差なし画素の色情報を相互に参照して、その相関関係を利用する工夫を導入している。   In the embodiment described below, as described above, a high-resolution 2D intermediate image is first generated, and the generated 2D intermediate image is superimposed on the 3D image to obtain a high-resolution output image for both 2D and 3D. A technique has been introduced in which color information of parallax pixels and non-parallax pixels is referred to each other and their correlation is used.

次に、ノイズ除去について説明する。ノイズ除去フィルタは、画像の解像度が高ければ高いほど、エッジ構造を保存する必要がある領域か高精度で判定できる。これにより、エッジ構造を保存すべき領域において、画像構造に関する情報が排除され難くなる。したがって、エッジ強調の場合と同様に、高解像な2D中間画像に対してノイズ除去処理を施すことが望ましい。フィルタとしては、公知のedge-preserving smoothing filterを用いることができる。   Next, noise removal will be described. The higher the resolution of the image, the higher the accuracy of the noise removal filter, the more it can be determined whether the region needs to store the edge structure. As a result, in the region where the edge structure is to be stored, it is difficult to exclude information regarding the image structure. Therefore, as in the case of edge enhancement, it is desirable to perform noise removal processing on a high-resolution 2D intermediate image. A known edge-preserving smoothing filter can be used as the filter.

ところで、ノイズ除去の場合は、エッジ強調の場合と違って、仮補間された低解像の左視差画像と右視差画像にも同様にノイズのゆらぎ成分が現れる。視差変調の段階でノイズが伝播しないように、視差変調を行う前の低解像の左視差画像と右視差画像の段階でノイズのゆらぎ成分を取り払っておくのが望ましい。   By the way, in the case of noise removal, unlike the case of edge enhancement, a noise fluctuation component also appears in the low-parity left parallax image and right parallax image that have been temporarily interpolated. In order to prevent noise from being propagated at the stage of parallax modulation, it is desirable to remove noise fluctuation components at the stage of low-resolution left parallax image and right parallax image before parallax modulation.

ところが、後述する実施形態2および実施形態3のような疎な視差画素配列の構造を考えた場合には、視差なし画素の数が最も多く、疎な視差画素は飛び飛びの位置にしか存在しない。このため、それらの間の点を平均補間によって算出された補間値には、元々高周波のノイズ成分は含まれ得ないという特質を持つ。したがって、疎な視差画素配列の場合には、ISO800〜ISO6400程度の常用高感度領域程度であれば、中間2D画像のみに対してノイズ除去処理をするだけでよい。詳しくは後述する実施形態4で説明する。超高感度のISO12800〜ISO409600の領域では、たとえ疎な視差画素であってもそのゆらぎ成分は目立つ。したがって、ゆらぎ成分を取り除く必要がある。   However, when considering the structure of a sparse parallax pixel array as in Embodiments 2 and 3 to be described later, the number of non-parallax pixels is the largest, and the sparse parallax pixels exist only at the positions where they are skipped. For this reason, the interpolated value calculated by the average interpolation between the points between them has a characteristic that it cannot originally contain a high-frequency noise component. Accordingly, in the case of a sparse parallax pixel array, it is only necessary to perform noise removal processing on only the intermediate 2D image as long as it is about the common high sensitivity region of about ISO 800 to ISO 6400. Details will be described in a fourth embodiment described later. In the ultra-high sensitivity region of ISO 12800 to ISO 409600, the fluctuation component is conspicuous even if it is a sparse parallax pixel. Therefore, it is necessary to remove the fluctuation component.

しかしながら、実解像度の全ての画素に対し、ゆらぎ成分を取り除く処理を行わなくてもよい。撮像素子でサンプリングされた左視差画素、あるいは右視差画素が一画素に一つだけ含まれる程度にまでダウンサンプリングした縮小画像でノイズ成分を抽出しておいて、それを変倍拡大処理して実解像度に戻し、減算処理するだけでよい。例えば、本出願人と同一発明者の特開2006‐309749号公報に示される多重解像度ノイズ除去技術を用いることができる。具体的には、高解像度から低解像度に多重解像度変換で順次縮小し、それらの各解像度でノイズ成分を抽出し、それらを逐次統合して実解像度のノイズ成分に戻す処理を、高解像度側の数段分を省いて行えばよい。したがって、仮補間された視差画像に対しては、ノイズ除去処理の最も演算規模の大きい高解像度側の処理を全て省くことができる。よって、極めて簡便に、すなわち、ソフトウェアの場合は高速に、ハードウェアの場合は回路規模が少なく演算することができる。   However, it is not necessary to perform the process of removing the fluctuation component for all pixels of the actual resolution. A noise component is extracted from a reduced image downsampled to such an extent that only one left parallax pixel or right parallax pixel sampled by the image sensor is included in one pixel. It is only necessary to return to the resolution and perform the subtraction process. For example, a multi-resolution noise removal technique disclosed in Japanese Patent Laid-Open No. 2006-309749 by the same inventor as the present applicant can be used. Specifically, the process of reducing the high resolution to the low resolution sequentially by multi-resolution conversion, extracting the noise components at each of those resolutions, and sequentially integrating them to return to the real resolution noise components is performed on the high resolution side. It is sufficient to omit several steps. Therefore, for the temporarily interpolated parallax image, it is possible to omit all processing on the high resolution side, which has the largest computation scale of noise removal processing. Therefore, the calculation can be performed very simply, that is, in the case of software at high speed and in the case of hardware with a small circuit scale.

<実施形態1>
‐‐‐Bayer型G視差画素配列、エッジ強調‐‐‐
画像処理の手順は、およそ以下の通りである。
1)色・視差多重化モザイク画像データ入力
2)色・視差モザイク画像のグローバル・ゲインバランス補正
3)仮の視差画像の生成
4)左右の局所照度分布補正による視差なし色モザイク画像の生成
(ローカル・ゲインバランス補正)
5)視差なし基準画像の生成
6)視差なし基準画像に対するエッジ強調処理
7)実際の視差画像の生成
8)出力色空間への変換
以下、順に説明する。
<Embodiment 1>
--- Bayer G parallax pixel array, edge enhancement ---
The image processing procedure is approximately as follows.
1) Color / parallax multiplexed mosaic image data input 2) Global gain balance correction of color / parallax mosaic image 3) Temporary parallax image generation 4) Generation of parallax-free color mosaic image by right and left local illuminance distribution correction (Local・ Gain balance correction
5) Generation of reference image without parallax 6) Edge enhancement processing for reference image without parallax 7) Generation of actual parallax image 8) Conversion to output color space

1)色・視差多重化モザイク画像データ入力
図7の色と視差の多重化された単板式モザイク画像:M(x,y)
階調はA/D変換によって出力された線形階調であるものとする。すなわち、光量に比例した画素値を持つ。これをRAWデータと呼ぶこともある。
1) Color / parallax multiplexed mosaic image data input Single plate mosaic image with color and parallax multiplexed as shown in FIG. 7: M (x, y)
It is assumed that the gradation is a linear gradation output by A / D conversion. That is, it has a pixel value proportional to the amount of light. This is sometimes called RAW data.

本実施形態では、相加平均を採用する。こうして左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。なお、本ステップはステップ4のローカル・ゲイン補正を行うだけでも同時に実現できるので、場合によっては省いてもよい。   In this embodiment, an arithmetic average is employed. In this way, a mosaic image in which the left parallax pixel is corrected with one gain coefficient and the right parallax pixel is corrected with one gain coefficient is output as M ′ (x, y). Note that this step can be realized at the same time by performing only the local gain correction in step 4, and may be omitted in some cases.

3)仮の視差画像の生成
空間周波数解像度の低い分解能の左視差画像と右視差画像を生成する。
左視差画素ばかりを集めたG色面内の単純平均補間を行う。隣接に存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めたG色面内の単純平均補間を行う。すなわち、Ltmosaic(x,y)からLt(x,y)を、Rtmosaic(x,y)からRt(x,y)を生成する。
仮の左視差画像:Lt(x,y)
仮の右視差画像:Rt(x,y)
なお、仮の左視差画像Lt(x,y)と仮の右視差画像Rt(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
3) Generation of temporary parallax image A left parallax image and a right parallax image with low spatial frequency resolution are generated.
Performs simple average interpolation in the G color plane, where only the left parallax pixels are collected. Linear interpolation is performed according to the ratio of distances using adjacent pixel values. Similarly, simple average interpolation in the G color plane in which only the right parallax pixels are collected is performed. That, Lt mosaic (x, y) Lt from (x, y) and, Rt mosaic (x, y) from the Rt (x, y) to produce a.
Temporary left parallax image: Lt (x, y)
Temporary right parallax image: Rt (x, y)
When creating the temporary left parallax image Lt (x, y) and the temporary right parallax image Rt (x, y), high-definition may be performed by introducing direction determination in the signal plane.

4)左右の照度分布補正による視差なし色モザイク画像の生成
(ローカル・ゲインバランス補正)
次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、画面内の左視差画素と画面内の右視差画素の照度を合わせる。そうして、ゲイン整合のとれた新しいBayer面を作成する。これは平均値と置き換えることと等価であり、視差の消滅したBayer面が出来上がる。これをMN(x,y)と書くことにする。
この場合も、各画素の基準点として揃える目標値の設定方法に、相加平均を選ぶ方法と相乗平均を選ぶ方法の2種類が存在する。
4) Generation of parallax-free color mosaic image by correcting left and right illumination distribution (local gain balance correction)
Next, in accordance with the same idea as the global gain correction performed in step 1, local gain correction is performed in units of pixels to match the illuminance of the left parallax pixel in the screen and the right parallax pixel in the screen. Then, a new Bayer surface with gain matching is created. This is equivalent to replacing with an average value, and a Bayer surface in which the parallax disappears is created. This is written as M N (x, y).
In this case as well, there are two types of target value setting methods to be used as reference points for each pixel: a method of selecting an arithmetic mean and a method of selecting a geometric mean.

各画素にローカル・ゲイン補正を掛けている処理は、実際には最初に求めた各画素の平均値を代入するだけでよい。この意味で、ローカル・ゲイン補正は視差消滅させるための変調処理であるということができる。本実施形態では、相加平均を採用する。このように左視点の画像と右視点の画像の平均値を新たなG画素位置の視差なし画素値として、Bayer面のデータを書き換え、視差なしBayer面の画像MN(x,y)を出力する。The process of applying local gain correction to each pixel is actually only necessary to substitute the average value of each pixel obtained first. In this sense, it can be said that the local gain correction is a modulation process for eliminating the parallax. In this embodiment, an arithmetic average is employed. In this way, the Bayer plane data is rewritten using the average value of the left viewpoint image and the right viewpoint image as the non-parallax pixel value of the new G pixel position, and the Bayer plane image M N (x, y) without parallax is output. To do.

5)視差なし基準画像の生成
こうしてG成分の照度バランスが揃い、視差の消滅したBayer面MN(x,y)から、従来の色補間の技術を用いてセンサが持つ画素数相当のナイキスト周波数にまで分解能をもつ視差なしのカラー画像を中間画像として生成することができる。例えば、公知のBayer補間技術の最も優れた例として、本出願人と同一発明者のUS公開2010/021853に示される補間アルゴリズムがある。この技術には、本出願人と同一発明者の方向判定の分解能を上げて縦横のナイキスト周波数を解像する技術USP6,836,572、補間値算出時の斜め方向の分解能を上げる技術USP7,236,628、色判定法による適応的偽色対策技術と方向判定の分解能を上げる技術USP7,565,007、色勾配判定法による適応的偽色対策技術USP7,391,903と方向判定の分解能を上げる技術への適用が総合的に用いられた最良の高性能デモザイク技術が導入されている。
5) Generation of reference image without parallax Nyquist frequency equivalent to the number of pixels of the sensor using the conventional color interpolation technique from the Bayer plane M N (x, y) where the illuminance balance of the G component is aligned and parallax disappears It is possible to generate a color image with no resolution and without parallax as an intermediate image. For example, as the best example of the known Bayer interpolation technique, there is an interpolation algorithm shown in US publication 2010/021853 of the same inventor as the present applicant. This technology includes technology USP6,836,572 that increases the resolution of direction determination by the same inventor and the same inventor to resolve vertical and horizontal Nyquist frequencies, technology USP7,236,628 that increases the resolution in the diagonal direction when calculating interpolation values, color Applicable to adaptive false color countermeasure technology USP7,565,007 that improves the resolution of direction judgment and adaptive false color countermeasure technology USP7,391,903 that uses the color gradient judgment method and technology that increases resolution of direction judgment The best high performance demosaic technology used has been introduced.

以下ではそれらの全てを示さずに、輝度を担うG成分の縦横ナイキスト解像と斜め解像を上げていく部分とR,B成分の分解能を上げる目的で色差補間を用いる部分だけを取り出して記述する。   In the following, not all of them are shown, but only the part that increases the vertical and horizontal Nyquist resolution and diagonal resolution of the G component responsible for luminance and the part that uses color difference interpolation to increase the resolution of the R and B components are described. To do.

5‐1)階調変換によるガンマ空間への移行
上述の高解像なBayer補間を行うことを目的として、更に均等ノイズ空間を実現する階調変換を行って、補間用のガンマ空間(画像処理空間)で、補間値の予測を行う。これは本出願人と同一発明者のUSP7,957,588によって導入された方法である。
5-1) Transition to gamma space by gradation conversion For the purpose of performing the above-described high-resolution Bayer interpolation, gradation conversion that further realizes a uniform noise space is performed, and the gamma space for interpolation (image processing) Prediction of the interpolated value in (space). This is the method introduced by USP 7,957,588, the same inventor as the present applicant.

入力信号をx、出力信号をyとし、入力信号の階調と出力信号の階調が共に、[0,1]の範囲で定義されるものとする。入出力特性は(x,y)=(0,0)と(1,1)を通るように階調曲線(ガンマ曲線)を定義する。実際の入力階調Xの最大値をXmax、出力階調Yの最大値をYmaxとすると、x=X/Xmax、y=Y/Ymaxであり、階調変換は、
によって行われる。
ここに、y=f(x)の階調特性は、
である。正のオフセット値εは、暗電流ノイズ成分が増える高感度の撮影条件になるほど大きな値を設定する。
Assume that the input signal is x, the output signal is y, and both the gradation of the input signal and the gradation of the output signal are defined in the range [0, 1]. The gradation curve (gamma curve) is defined so that the input / output characteristics pass through (x, y) = (0, 0) and (1, 1). Assuming that the maximum value of the actual input gradation X is Xmax and the maximum value of the output gradation Y is Ymax, x = X / Xmax, y = Y / Ymax, and gradation conversion is
Is done by.
Here, the gradation characteristic of y = f (x) is
It is. The positive offset value ε is set to a larger value as the imaging condition with higher sensitivity increases the dark current noise component.

5‐2)色補間処理
色補間処理の部分については、本出願人と同一発明者のUSP7,957,588(WO2006/006373)に示された簡易な処理だけをもう一度、書き写す。ただし、(x,y)は[i,j]の記号を用いて説明する。また、階調変換後のMN面上のG成分はG、R,B成分はZの記号を用いて参照する。
5-2) Color interpolation process For the color interpolation process, only the simple process shown in USP 7,957,588 (WO2006 / 006373) of the same inventor as the present applicant is copied once again. However, (x, y) will be described using the symbol [i, j]. Further, the G component on the MN plane after gradation conversion is referred to using the symbol G, and the R and B components are referred to using the symbol Z.

ステップS4において、CPUは以下のように補間処理を行う。ここで、R成分の色情報を有する画素をR画素、B成分の色情報を有する画素をB画素、G成分の色情報を有する画素をG画素と呼び、補間処理用の空間における画素位置[i,j]で示される画素に対応するR成分の信号値をR[i,j]、G成分の信号値をG[i,j]、B成分の信号値をB[i,j]で表すことにする。   In step S4, the CPU performs an interpolation process as follows. Here, a pixel having R component color information is referred to as an R pixel, a pixel having B component color information is referred to as a B pixel, and a pixel having G component color information is referred to as a G pixel. The signal value of the R component corresponding to the pixel indicated by i, j] is R [i, j], the signal value of the G component is G [i, j], and the signal value of the B component is B [i, j]. I will represent it.

(方向判定)
CPUは、画素位置[i,j]で示されるG画素でない画素(R画素もしくはB画素)に関して、縦方向の類似度CvN[i,j]、および横方向の類似度ChN[i,j]をそれぞれ次式(3)、(4)により算出する。
ただし、Z[i,j]は画素位置[i,j]で示されるR成分またはB成分の信号値である。第一項は、2画素間隔の同色間の類似度を表す同色間類似度を、第二項は、隣接画素間隔の異色間の類似度を表す異色間類似度である。異色間類似度は、縦横のナイキスト周波数を解像する能力がある。
(Direction judgment)
The CPU determines the vertical similarity CvN [i, j] and the horizontal similarity ChN [i, j] for the pixel (R pixel or B pixel) that is not the G pixel indicated by the pixel position [i, j]. Are calculated by the following equations (3) and (4), respectively.
However, Z [i, j] is the signal value of the R component or B component indicated by the pixel position [i, j]. The first term is the similarity between the same colors that represents the similarity between the same colors at two pixel intervals, and the second term is the similarity between the different colors that represents the similarity between the different colors at the adjacent pixel intervals. The similarity between different colors has the ability to resolve vertical and horizontal Nyquist frequencies.

上式(3)、(4)における第1項の絶対値は、G色成分同士で比較して大まかな方向性を検出する。上式(3)、(4)の第2項および第3項の絶対値は、第1項では検出できない細かな類似性を検出する。CPUは、上式(3)、(4)により得られた縦方向の類似度および横方向の類似度を各座標ごとに算出し、対象とする座標[i,j]における縦横の類似度に基づいて次式(5)により類似性の方向を判定する。
The absolute value of the first term in the above formulas (3) and (4) detects the rough directionality by comparing the G color components. The absolute values of the second and third terms of the above formulas (3) and (4) detect fine similarities that cannot be detected by the first term. The CPU calculates the vertical similarity and the horizontal similarity obtained by the above formulas (3) and (4) for each coordinate, and calculates the vertical and horizontal similarity in the target coordinates [i, j]. Based on the following equation (5), the direction of similarity is determined.

ただし、Thは信号値に含まれるノイズによる誤判定を避ける目的で用いられる判定閾値であり、上記ISO感度に応じて変化させる。HV[i,j]は画素位置[i,j]に関する類似性の方向を示し、HV[i,j]=0の場合は縦横両方向類似、HV[i,j]=1の場合は縦方向類似、HV[i,j]=-1の場合は横方向類似である。   However, Th is a determination threshold value used for the purpose of avoiding erroneous determination due to noise included in the signal value, and is changed according to the ISO sensitivity. HV [i, j] indicates the direction of similarity with respect to the pixel position [i, j]. When HV [i, j] = 0, the vertical and horizontal directions are similar, and when HV [i, j] = 1, the vertical direction Similar, HV [i, j] =-1 is similar in the horizontal direction.

(G補間)
CPUは、判定した類似方向に基づき、R成分もしくはB成分の凸凹情報を利用してG成分の補間を行う。すなわち、周辺のG成分の内分点補間だけでは予測できない外分点に補間すべきか否かの情報を補間対象位置に存在する他の色成分の情報と近傍に位置するそれと同じ色成分の情報を見て、画像構造が上に凸なのか下に凸なのかを判断することによって得ることができる。すなわち、他の色成分のサンプリングによって得られた高周波成分の情報を補間対象色成分に重畳する。G色補完は、WO2006/006373のたとえば図4で示される中央のR画素の位置[i,j]に対して、縦方向類似の場合は次式(6)および(9)により算出し、横方向類似の場合は次式(7)および(10)により算出する。B画素の位置に対してG色補間を行う場合の画素位置は、WO2006/006373の図5によって示される。
(G interpolation)
Based on the determined similar direction, the CPU interpolates the G component using the unevenness information of the R component or the B component. That is, information on whether or not to interpolate to an external dividing point that cannot be predicted only by interpolation of the inner G component of the surrounding G component, information on the same color component that is located in the vicinity of information on other color components existing at the interpolation target position And determining whether the image structure is convex upward or downward. That is, the information of the high frequency component obtained by sampling other color components is superimposed on the interpolation target color component. The G color complement is calculated by the following formulas (6) and (9) when the vertical direction is similar to the position [i, j] of the center R pixel shown in FIG. 4 of WO2006 / 006373, for example. When the directions are similar, calculation is performed using the following equations (7) and (10). The pixel position when G color interpolation is performed on the position of the B pixel is shown in FIG. 5 of WO2006 / 006373.

ただし、Z[i,j]は画素位置[i,j]で示されるR成分またはB成分の信号値である。第一項の補間対象の色成分の平均値に対して、第二項の他の色成分による二次微分の補正項を加えることによって、斜め方向の空間分解能を上げる作用をする。   However, Z [i, j] is the signal value of the R component or B component indicated by the pixel position [i, j]. By adding a correction term of the second derivative by the other color components of the second term to the average value of the color components to be interpolated in the first term, the spatial resolution in the oblique direction is increased.

上式(9)における第1項は、画素位置[i,j]に対して縦に並ぶG成分の信号値G[i,j-1]およびG[i,j+1]から算出される平均値を表す。上式(9)における第2項は、縦に並ぶR成分の信号値R[i,j]、R[i,j-2]およびR[i,j+2]から算出される変化量を表す。G成分の信号値の平均値にR成分の信号値の変化量を加えることにより、G成分の補間値G[i,j]が得られる。このような補間をG成分の内分点以外も予測可能なことから、便宜的に外挿補間と呼ぶことにする。   The first term in the above equation (9) is calculated from the G component signal values G [i, j-1] and G [i, j + 1] arranged vertically with respect to the pixel position [i, j]. Represents an average value. The second term in the above equation (9) is the amount of change calculated from the R component signal values R [i, j], R [i, j-2] and R [i, j + 2] arranged vertically. Represent. By adding the amount of change in the R component signal value to the average value of the G component signal value, the G component interpolation value G [i, j] is obtained. Since such interpolation can be predicted except for the internal dividing point of the G component, it will be referred to as extrapolation for convenience.

上式(10)は、上述した縦方向の外挿補間の場合と同様に、画素位置[i,j]に対して横に並ぶ画素の信号値を用いて横方向に外挿補間を行う。CPUは、類似の方向が縦横両方向と分類されている場合は、上式(9)および(10)によりG色補間値をそれぞれ算出し、算出された2つのG色補間値の平均をとってG色補間値とする。   The above equation (10) performs extrapolation in the horizontal direction using the signal values of the pixels arranged horizontally with respect to the pixel position [i, j], as in the case of the extrapolation in the vertical direction described above. When the similar direction is classified as both the vertical and horizontal directions, the CPU calculates the G color interpolation values by the above formulas (9) and (10), and takes the average of the two calculated G color interpolation values. Let it be a G color interpolation value.

(R補間)
R色補間は、WO2006/006373のたとえば図6で示されるR画素の位置[i,j]以外の画素位置[i+1,j]、[i,j+1]、[i+1,j+1]に対して、それぞれ次式(11)〜(13)により算出される。このとき、上述したG補間により得られた全ての画素位置に対応するG成分信号値(WO2006/006373の図7)の凸凹情報が利用される。
(R interpolation)
For R color interpolation, pixel positions [i + 1, j], [i, j + 1], [i + 1, j other than the R pixel position [i, j] shown in FIG. +1] is calculated by the following equations (11) to (13), respectively. At this time, unevenness information of G component signal values (FIG. 7 of WO2006 / 006373) corresponding to all pixel positions obtained by the G interpolation described above is used.

上式(11)〜(13)における第1項は、R成分補間の対象とする座標に隣接するR成分信号値から算出される平均値を表し、上式(11)〜(13)における第2項は、R成分補間の対象とする座標およびこの座標に隣接するG成分信号値から算出される変化量を表す。すなわち、G補間で行われた外挿補間と同様に、R成分信号値の平均値にG成分の信号値の変化量を加えてR成分の補間値を得る。これは、R位置で色差Cr=R−Gを生成し、この色差面内で平均補間する方式と等価である。   The first term in the above equations (11) to (13) represents an average value calculated from the R component signal value adjacent to the coordinates to be subjected to the R component interpolation, and the first term in the above equations (11) to (13). The second term represents the amount of change calculated from the coordinates subject to R component interpolation and the G component signal value adjacent to the coordinates. That is, similarly to the extrapolation performed in the G interpolation, the change amount of the G component signal value is added to the average value of the R component signal values to obtain an R component interpolation value. This is equivalent to a method in which a color difference Cr = RG is generated at the R position and average interpolation is performed in this color difference plane.

(B補間)
B成分補間についてもR成分と同様に補間処理を行う。WO2006/006373のたとえば図8で示されるB画素の位置[i,j]以外の画素位置[i+1,j]、[i,j+1]、[i+1,j+1]に対して、それぞれ次式(14)〜(16)により算出される。このとき、上述したG補間により得られた全ての画素位置に対応するG成分信号値(WO2006/006373の図9)の凸凹情報が利用される。
(B interpolation)
For the B component interpolation, interpolation processing is performed in the same manner as the R component. For example, for pixel positions [i + 1, j], [i, j + 1], [i + 1, j + 1] other than the position [i, j] of the B pixel shown in FIG. 8 of WO2006 / 006373 Are calculated by the following equations (14) to (16), respectively. At this time, the unevenness information of the G component signal values (FIG. 9 of WO2006 / 006373) corresponding to all the pixel positions obtained by the G interpolation described above is used.

上式(14)〜(16)によれば、B成分信号値の平均値にG成分の信号値の変化量を加えてB成分の補間値を得る。これは、B位置で色差Cb=B−Gを生成し、この色差面内で平均補間する方式と等価である。R成分およびB成分は、G成分に比べてサンプル周波数が低いので、色差R−G、色差B−Gを利用してG成分信号値が有する高周波数成分を反映させる。よって、このようなクロマ成分に対する補間を便宜的に色差補間と呼ぶことにする。   According to the above formulas (14) to (16), the amount of change in the G component signal value is added to the average value of the B component signal value to obtain the B component interpolation value. This is equivalent to a method of generating a color difference Cb = B−G at the B position and performing an average interpolation in the color difference plane. Since the sample frequency of the R component and the B component is lower than that of the G component, the high frequency component of the G component signal value is reflected using the color difference RG and the color difference BG. Therefore, such interpolation for the chroma component will be referred to as color difference interpolation for convenience.

6)視差なし基準画像に対するエッジ強調処理
6‐1)色空間変換処理
ステップ5のBayer補間で得られた視差なしのRGBカラー画像をRN Γ(x,y)、GN Γ(x,y)、BN Γ(x,y)によって表す。これらは補間ガンマ空間の階調で表されたRGBデータである。これらのRGBデータを輝度と色差で表される表色系のYCbCr空間へ変換する。
Y(x,y)=0.2990RN Γ(x,y)+0.5870GN Γ(x,y)+0.1140BN Γ(x,y)
Cb(x,y)=-0.1684RN Γ(x,y)-0.3316GN Γ(x,y)+0.5000BN Γ(x,y)
Cr(x,y)=0.5000RN Γ(x,y)-0.4187GN Γ(x,y)-0.0813BN Γ(x,y)
6) Edge enhancement processing for reference image without parallax 6-1) Color space conversion processing RGB color images without parallax obtained by Bayer interpolation in step 5 are converted to R N Γ (x, y), G N Γ (x, y ), B N Γ (x, y). These are RGB data represented by the gradation of the interpolated gamma space. These RGB data are converted to the YCbCr space of the color system expressed by luminance and color difference.
Y (x, y) = 0.2990R N Γ (x, y) + 0.5870G N Γ (x, y) + 0.1140B N Γ (x, y)
Cb (x, y) =-0.1684R N Γ (x, y) -0.3316G N Γ (x, y) + 0.5000B N Γ (x, y)
Cr (x, y) = 0.5000R N Γ (x, y) -0.4187G N Γ (x, y) -0.0813B N Γ (x, y)

6‐2)エッジ強調処理
輝度Y面に対して、エッジ強調処理を行う。
Y'(x,y)=Y(x,y)+k*△Y(x,y)
ここに、△は2次微分を表すラプラシアンフィルタを表す。定数kは、エッジ強調の度合いを調整するパラメータである。ラプラシアンフィルタとして、例えば、以下のようなフィルタ係数が考えられるが、これに限らない。
6-2) Edge enhancement processing Edge enhancement processing is performed on the luminance Y plane.
Y '(x, y) = Y (x, y) + k * △ Y (x, y)
Here, Δ represents a Laplacian filter representing a second order differential. The constant k is a parameter for adjusting the degree of edge enhancement. As a Laplacian filter, for example, the following filter coefficients can be considered, but the present invention is not limited to this.

6‐3)逆色空間変換処理
エッジ強調された輝度成分Y'(x,y)とそのままの色差成分Cb(x,y)、Cr(x,y)を用いて、YCbCr空間からRGB空間に戻す。ステップ6‐1)の逆行列を掛けるだけでよい。JPEGで採用されている定義と同じであるので、ここでは説明を省略する。
6-3) Inverse color space conversion processing From YCbCr space to RGB space using edge-enhanced luminance component Y '(x, y) and raw color difference components Cb (x, y), Cr (x, y) return. It is only necessary to multiply the inverse matrix of step 6-1). Since the definition is the same as that used in JPEG, the description is omitted here.

6‐4)逆階調変換による元の線形階調空間への移行
Bayer補間とエッジ強調処理されたRGB各色面に対して、ステップ5‐1の逆階調変換を施し、線形階調のRGBデータに戻す。
こうして、得られた視差なしのRGBカラー画像をRN(x,y)、GN(x,y)、BN(x,y)によって表す。これらは線形階調で表されたRGBデータである。
6-4) Transition to the original linear gradation space by inverse gradation conversion
The RGB color planes subjected to Bayer interpolation and edge enhancement are subjected to inverse gradation conversion in step 5-1 to return to linear gradation RGB data.
Thus, the obtained RGB color image without parallax is represented by R N (x, y), G N (x, y), and B N (x, y). These are RGB data expressed in linear gradation.

7)実際の視差画像の生成
ステップ3で生成した解像力の低い仮の左視差画像Lt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差画像Rt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)を生成する。これは、仮の視差画像が持つ視差成分を重畳することによって変位処理を実現するため、視差変調と呼ぶことができる。
7) Generation of actual parallax image Temporary left parallax image Lt (x, y) generated in step 3 and low-parity color image R N (x, y) generated as intermediate processing in step 5 ), G N (x, y), B N (x, y), the left-parallax color image R Lt (x, y), G Lt (x, y), B Generate Lt (x, y). Similarly, a temporary right parallax image Rt (x, y) generated in step 3 with low resolving power and a color image R N (x, y), G N ( x, y), B N (x, y), and the right resolution parallax color image R Rt (x, y), G Rt (x, y), B Rt (x, y) ) Is generated. This can be called parallax modulation because the displacement processing is realized by superimposing the parallax components of the temporary parallax image.

視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用するのがよい。したがって、本実施形態では相加平均を基準点とする方式を用いる。   There are two possible parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. It is better to adopt a method using the geometric mean as a reference point when the same half aperture is used. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.

このように、ステップ7で定義した視差変調演算式と、ステップ4で定義した左右間の照度ムラ補正のための視差消滅演算式(ローカル・ゲインバランス補正)とがちょうど逆比の関係にある項を掛けて変調を加えていることがわかる。したがって、ステップ7では視差が加わる方向に働き、ステップ4では視差が消滅する方向に働く。   Thus, the parallax modulation calculation formula defined in step 7 and the parallax extinction calculation formula (local gain balance correction) for correcting illuminance unevenness between the left and right defined in step 4 are just in inverse relationship. It can be seen that modulation is applied by multiplying. Therefore, in step 7, it works in the direction in which the parallax is applied, and in step 4, it works in the direction in which the parallax disappears.

8)出力色空間への変換
こうして得られた高解像な視差なしの中間カラー画像RN(x,y)、GN(x,y)、BN(x,y)と高解像の左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)、高解像の右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)のそれぞれをセンサの分光特性のカメラRGBから標準的なsRGB色空間へ色マトリックス変換とガンマ変換を行って出力色空間の画像として出力する。以上により、エッジ強調がなされた高精細な2D画像および3D画像が生成される。
8) Conversion to output color space The high resolution non-parallax intermediate color images R N (x, y), G N (x, y), B N (x, y) obtained in this way and the high resolution Left parallax color image R Lt (x, y), G Lt (x, y), B Lt (x, y), High resolution right parallax color image R Rt (x, y), G Rt (x , y) and B Rt (x, y) are subjected to color matrix conversion and gamma conversion from the camera RGB of the spectral characteristics of the sensor to the standard sRGB color space, and output as an image in the output color space. As described above, high-definition 2D images and 3D images with edge enhancement are generated.

<実施形態1の追加説明>
図11は、視差画素の種類が2つである場合の繰り返しパターン110の一例を示す図である。デジタルカメラ10の座標系は、X軸、Y軸、Z軸で定義したが、撮像素子100においては、左端かつ上端の画素を基準に右方向にx軸を、下方向にy軸を定義する。図の例においては、ベイヤー配列と同じ4画素を繰り返しパターン110とする。この繰り返しパターン110は、撮像素子100の有効画素領域を上下左右に周期的に配列されている。すなわち、撮像素子100は、図の太線で示す繰り返しパターン110を基本格子とする。R画素とB画素は視差なし画素であり、Gb画素を視差L画素に、Gr画素を視差R画素に割り当てる。この場合、同一の繰り返しパターン110に含まれる視差Lt画素と視差Rt画素が、被写体が合焦位置に存在するときに、同じ微小領域から放射される光束を受光するように開口部104が定められる。また、この例では、図6(a)で説明したように、視差なし画素が全開口の開口部であり、視差Lt画素および視差Rt画素が半開口の開口部であるとする。なお、画素ピッチをaとする。
<Additional description of Embodiment 1>
FIG. 11 is a diagram illustrating an example of the repetitive pattern 110 when there are two types of parallax pixels. The coordinate system of the digital camera 10 is defined by the X axis, the Y axis, and the Z axis. However, in the image sensor 100, the x axis is defined in the right direction and the y axis is defined in the lower direction with reference to the left and upper end pixels. . In the example of the figure, the same four pixels as the Bayer array are used as the repeated pattern 110. In the repeating pattern 110, the effective pixel area of the image sensor 100 is periodically arranged in the vertical and horizontal directions. In other words, the imaging device 100 uses a repetitive pattern 110 indicated by a thick line in the drawing as a basic lattice. The R pixel and the B pixel are non-parallax pixels, and the Gb pixel is assigned to the parallax L pixel and the Gr pixel is assigned to the parallax R pixel. In this case, the opening 104 is defined so that the parallax Lt pixel and the parallax Rt pixel included in the same repetitive pattern 110 receive the light beam emitted from the same minute region when the subject is in the in-focus position. . Further, in this example, as described with reference to FIG. 6A, it is assumed that the non-parallax pixel is the opening portion of the full opening, and the parallax Lt pixel and the parallax Rt pixel are the opening portions of the half opening. Note that the pixel pitch is a.

図の例においては、視感度の高い緑画素であるGb画素およびGr画素を視差画素として用いるので、コントラストの高い視差画像を得ることが期待できる。また、同じ緑色画素であるGb画素およびGr画素を視差画素として用いるので、これら2つの出力から視差のない出力に変換演算がし易く、視差なし画素であるR画素およびB画素の出力と共に、高画質の2D画像データを生成できる。   In the example of the figure, Gb pixels and Gr pixels, which are green pixels with high visibility, are used as parallax pixels, so that it is expected to obtain a parallax image with high contrast. In addition, since the Gb pixel and the Gr pixel which are the same green pixels are used as the parallax pixels, it is easy to perform a conversion operation from these two outputs to an output having no parallax, and the output of the R pixel and the B pixel which are non-parallax pixels is high. High-quality 2D image data can be generated.

図7(下段)は、図11に示す繰り返しパターン110が採用された撮像素子で撮像された画像の空間周波数に関する分解能を示す図である。図7(下段)では、空間周波数に関する分解能は、k=2πfで表される波数kのk空間(k−space)で記述されている。ただし、fは周波数を示す。周波数解像域は、逆格子空間の単位胞(ウィグナー・ザイツ・セル)を表す第一ブリルアンゾーンによって記述される。   FIG. 7 (lower stage) is a diagram illustrating the resolution related to the spatial frequency of the image captured by the image sensor in which the repetitive pattern 110 illustrated in FIG. 11 is employed. In FIG. 7 (lower stage), the resolution related to the spatial frequency is described in the k-space (k-space) of the wave number k represented by k = 2πf. However, f shows a frequency. The frequency resolution region is described by a first Brillouin zone representing a unit cell (Wigner-Zeilz cell) in a reciprocal lattice space.

上述のように画素ピッチをaとすると、カラーフィルタおよび開口マスクが配置されていなければ、撮像された画像は、点線で囲われたナイキスト周波数k=[−π/a,+π/a]、k=[−π/a,+π/a]の範囲の解像力を持つ。つまり、点線で囲われた範囲が、画像が持つ限界解像周波数となる。ただし、本実施の形態においては、カラーフィルタと開口マスクが、1つのセンサ面に重ね合わせて配置されている。1つのセンサ面で捉えられる情報は一定であるので、機能を分けることによってそれぞれの情報量が減ることになる。例えば、開口マスクによって視差画素が形成されることにより、相対的に視差なし画素数は減少するので、視差なし画素により得られる情報量は減ることになる。カラーフィルタについても同様であり、R,G,Bの3つに分けた分だけ、個々の情報量は減ることになる。Assuming that the pixel pitch is a as described above, if the color filter and the aperture mask are not arranged, the captured image is the Nyquist frequency k x = [− π / a, + π / a] surrounded by a dotted line, k y = [− π / a, + π / a]. That is, the range surrounded by the dotted line is the limit resolution frequency of the image. However, in the present embodiment, the color filter and the aperture mask are arranged so as to overlap one sensor surface. Since the information captured by one sensor surface is constant, the amount of information is reduced by dividing the functions. For example, when the parallax pixels are formed by the opening mask, the number of pixels without parallax is relatively reduced, and thus the amount of information obtained by the pixels without parallax is reduced. The same applies to the color filter, and the amount of individual information is reduced by the amount of R, G, B.

したがって、特定の開口マスクにおける特定色の画像に着目すると、当該画像の限界解像周波数は、本来有するナイキスト周波数に達しない。具体的には、図示するように、例えば左側視点のG成分の画像GLtは、k軸、k軸の両方向に対して、本来有するナイキスト周波数の半分の領域である、k=[−π/(2a),+π/(2a)]、k=[−π/(2a),+π/(2a)]の範囲の解像力しか持たない。右側視点のG成分の画像GRt、視差がない中間視点のR成分の画像R、視差がない中間視点のB成分の画像Bについても同様である。Therefore, when focusing on an image of a specific color in a specific aperture mask, the limit resolution frequency of the image does not reach the inherent Nyquist frequency. Specifically, as shown in the drawing, for example, the G component image G Lt at the left viewpoint is an area half the original Nyquist frequency with respect to both the k x axis and the k y axis, k x = [ -π / (2a), + π / (2a)], k y = [- π / (2a), + π / (2a)] not only have a range of resolution of. Image G Rt of the G component of the right-side perspective, the image R N of the R component of no parallax intermediate viewpoint, the image B N of the B component of intermediate viewpoint no disparity is the same.

したがって、このままでは、左側視点のRGBのカラー画像と右側視点のRGBのカラー画像を生成したとしても、これらの画像の解像力は、k=[−π/(2a),+π/(2a)]、k=[−π/(2a),+π/(2a)]の範囲である。つまり、これらの画像は、本来有するナイキスト周波数k=[−π/a,+π/a]、k=[−π/a,+π/a]の範囲の解像力を持たない。Accordingly, even if an RGB color image of the left viewpoint and an RGB color image of the right viewpoint are generated as they are, the resolving power of these images is k x = [− π / (2a), + π / (2a)]. , K y = [− π / (2a), + π / (2a)]. That is, these images do not have the resolving power in the ranges of the inherent Nyquist frequencies k x = [− π / a, + π / a] and k y = [− π / a, + π / a].

本実施の形態においては、画像処理部205が、機能を分けることによって減少した情報量を補うべく、解像度を上げるための処理を行う。具体的には、視差画素であるGLt画素およびGRt画素を、仮想的な視差なし画素Gで置き換えることで、視差なし画素のみからなるベイヤー配列を生成する。そうすると、既存のベイヤー補間の技術を利用して、視差がない中間画像として、本来のナイキスト周波数k=[−π/a,+π/a]、k=[−π/a,+π/a]の範囲の解像力を持つカラー画像を生成することができる。さらにその後、周波数空間において小さな解像力しか持たない左側視点の画像と視差がない中間画像を重畳することによって、最終的には、本来のナイキスト周波数の範囲の解像力を持つ左側視点のカラー画像を生成することができる。右側視点のカラー画像についても同様のことが言える。In the present embodiment, the image processing unit 205 performs processing for increasing the resolution in order to compensate for the amount of information reduced by dividing the functions. Specifically, the G Lt pixel and G Rt pixel is parallax pixels, by replacing a virtual parallax without pixel G N, to produce a Bayer array of no parallax pixels only. Then, using the existing Bayer interpolation technique, an original Nyquist frequency k x = [− π / a, + π / a], k y = [− π / a, + π / a) as an intermediate image without parallax. ] Can be generated. After that, by superimposing the left viewpoint image having only a small resolving power in the frequency space and the intermediate image having no parallax, a color image of the left viewpoint having a resolving power within the range of the original Nyquist frequency is finally generated. be able to. The same can be said for the right-side color image.

なお、図11に示した画素配列における各画素は、開口部104に着目した場合の視差画素と視差なし画素、およびカラーフィルタ102に着目した場合のR画素、G画素、B画素が、さまざまに組み合わされて特徴付けられる。したがって、撮像素子100の出力をその画素配列に一致させてそのまま羅列しても、特定の像を表す画像データにはならない。すなわち、撮像素子100の画素出力を、同一に特徴付けられた画素グループごとに分離して寄せ集めてはじめて、その特徴に即した一つの像を表す画像データが形成される。例えば、視差画素の出力をその開口部の種類ごとに寄せ集めると、互いに視差を有する複数の視差画像データが得られる。このように、同一に特徴付けられた画素グループごとに分離して寄せ集められたそれぞれの画像データを、プレーンデータと呼ぶ。   Each pixel in the pixel array shown in FIG. 11 includes various parallax pixels and non-parallax pixels when focusing on the opening 104, and various R pixels, G pixels, and B pixels when focusing on the color filter 102. Characterized in combination. Therefore, even if the outputs of the image sensor 100 are aligned with the pixel arrangement, they are not image data representing a specific image. That is, only when the pixel outputs of the image sensor 100 are separated and collected for each pixel group characterized by the same, image data representing one image corresponding to the feature is formed. For example, when the outputs of the parallax pixels are collected for each type of opening, a plurality of parallax image data having parallax can be obtained. In this way, each piece of image data separated and collected for each identically characterized pixel group is referred to as plane data.

画像処理部205の補間処理部231は、撮像素子100の画素配列順にその出力値が羅列されたRAW元画像データであるモザイク画像データMmosaic(x,y)を受け取る。ここで、各画素においてR、G、Bの少なくとも一つの情報が欠けている画像をモザイク画像といい、モザイク画像を形成するデータをモザイク画像データという。ただし、各画素においてR、G、Bの少なくとも一つの情報が欠けていたとしても、そもそも画像として扱わない場合、例えば画像データが単色の画素の画素値によって構成させる場合には、モザイク画像として扱わない。なお、各出力値は、撮像素子100の各光電変換素子が受光する受光量に比例した線形階調の値である。The interpolation processing unit 231 of the image processing unit 205 receives mosaic image data M mosaic (x, y), which is RAW original image data whose output values are arranged in the pixel arrangement order of the image sensor 100. Here, an image lacking at least one of R, G, and B information in each pixel is referred to as a mosaic image, and data forming the mosaic image is referred to as mosaic image data. However, even if at least one piece of information of R, G, and B is missing in each pixel, if it is not handled as an image in the first place, for example, if image data is composed of pixel values of monochrome pixels, it is treated as a mosaic image. Absent. Each output value is a linear gradation value proportional to the amount of light received by each photoelectric conversion element of the image sensor 100.

本実施の形態においては、画像処理部205の補間処理部231が、この段階で左右間の全体的な明るさの整合をとるためのゲイン補正を行う。左視差画素に入射する光の照度と右視差画素に入射する光の照度には、開口絞りを絞るほど、左右間の相対的な分布だけではなく、画像全体の平均信号レベルとしても大きな差が生じるためである。本実施形態において、左右間の全体的な明るさの整合をとるためのゲイン補正を、グローバル・ゲイン補正という。   In the present embodiment, the interpolation processing unit 231 of the image processing unit 205 performs gain correction for matching the overall brightness between the left and right at this stage. As the aperture stop is reduced, the illuminance of light incident on the left parallax pixel and the illuminance of light incident on the right parallax pixel have a large difference not only in the relative distribution between the left and right but also in the average signal level of the entire image. This is because it occurs. In the present embodiment, the gain correction for matching the overall brightness between the left and right is called global gain correction.

図12は、ゲイン値の算出を説明するための図である。便宜的に、モザイク画像データMmosaic(x,y)の内、G成分の左視差画素のモザイク画像データをLtmosaic(x,y)、G成分の右視差画素のモザイク画像データをRtmosaic(x,y)と表し、図12においても、左右の視差画素のみを抽出して図示している。ただし、図においては、図11の例に則して画素の種類が理解されるように記載するが、実際には各画素に対応した出力値が並ぶ。FIG. 12 is a diagram for explaining calculation of the gain value. For convenience, among the mosaic image data M mosaic (x, y), the mosaic image data of the left parallax pixel of the G component is Lt mosaic (x, y), and the mosaic image data of the right parallax pixel of the G component is Rt mosaic ( x, y), and also in FIG. 12, only the left and right parallax pixels are extracted and illustrated. However, in the figure, the pixel types are described so that the types of pixels can be understood in accordance with the example of FIG. 11, but output values corresponding to the respective pixels are actually arranged.

図13は、ゲイン補正を説明するための図である。画像処理部205の補間処理部231は、左右の視差画素に対するゲイン値を算出すると、図示するように、Ltmosaic(x,y)およびRtmosaic(x,y)の各画素に対して、算出したゲイン値を用いてゲイン補正を行う。具体的には、以下の(数1)により左視差画素に対するゲイン補正を、(数2)により右視差画素に対するゲイン補正を行う。なお、便宜的に、モザイク画像データM' mosaic(x,y)の内、G成分の左視差画素のモザイク画像データをLt'mosaic(x,y)、G成分の右視差画素のモザイク画像データをRt'mosaic(x,y)と表す。
これにより、画像処理部205の補間処理部231は、図示するように、Mmosaic(x,y)内の左視差画素および右視差画素がそれぞれ1つのゲイン係数で補正されたモザイク画像データM'mosaic(x,y)を生成することができる。次に、画像処理部205の補間処理部231は、仮の視差画像として、空間周波数解像度の低い左視差画像と右視差画像を生成する。
FIG. 13 is a diagram for explaining the gain correction. When the interpolation processing unit 231 of the image processing unit 205 calculates the gain values for the left and right parallax pixels, as illustrated, the interpolation processing unit 231 calculates the Lt mosaic (x, y) and Rt mosaic (x, y) pixels. Gain correction is performed using the gain value obtained. Specifically, gain correction for the left parallax pixel is performed by the following (Equation 1), and gain correction for the right parallax pixel is performed by (Equation 2). For convenience, among the mosaic image data M ′ mosaic (x, y), the mosaic image data of the G component left parallax pixel is the Lt ′ mosaic (x, y), the mosaic image data of the G component right parallax pixel. Is represented as Rt ′ mosaic (x, y).
As a result, the interpolation processing unit 231 of the image processing unit 205 performs mosaic image data M ′ in which the left parallax pixel and the right parallax pixel in M mosaic (x, y) are each corrected with one gain coefficient, as illustrated. mosaic (x, y) can be generated. Next, the interpolation processing unit 231 of the image processing unit 205 generates a left parallax image and a right parallax image with low spatial frequency resolution as temporary parallax images.

図14は、仮の視差画像の生成を説明するための図である。画像処理部205の補間処理部231は、まず、モザイク画像データM'mosaic(x,y)を複数のプレーンデータに分離する。この時点における各プレーンデータは、RAW元画像データにおいて出力値が存在する画素位置にのみ出力値が存在する。そこで、画像処理部205の補間処理部231は、各プレーンデータを基に補間処理を行い、空格子が埋められたプレーンデータを生成する。FIG. 14 is a diagram for explaining the generation of a temporary parallax image. The interpolation processing unit 231 of the image processing unit 205 first separates the mosaic image data M ′ mosaic (x, y) into a plurality of plane data. Each plane data at this point has an output value only at a pixel position where the output value exists in the RAW original image data. Therefore, the interpolation processing unit 231 of the image processing unit 205 performs interpolation processing based on each plane data, and generates plane data in which the empty grid is filled.

図14において、上図の左側は、モザイク画像データM'mosaic(x,y)から左視差画素のみを抽出したプレーンデータであるLt'mosaic(x,y)を示す図、右側は、右視差画素のみを抽出したプレーンデータであるRt'mosaic(x,y)を示す図である。各図においては、図11の例に則して画素の種類が理解されるように記載するが、実際には各画素に対応した出力値が並ぶ。In FIG. 14, the left side of the upper diagram shows Lt ′ mosaic (x, y), which is plane data obtained by extracting only the left parallax pixel from the mosaic image data M ′ mosaic (x, y), and the right side shows the right parallax. It is a figure which shows Rt'mosaic (x, y) which is the plane data which extracted only the pixel. In each figure, it describes so that the kind of pixel may be understood according to the example of FIG. 11, but actually the output value corresponding to each pixel is arranged.

空間周波数解像度の低い左視差画像データであるLt'(x,y)を生成するにあたり、画像処理部205の補間処理部231は、空格子となった画素値を、周辺の左視差画素の画素値を用いて補間処理により算出する。例えば、空格子PL1の画素値は、斜め方向に隣接する4つの左視差画素の画素値を平均化演算して算出される。画像処理部205の補間処理部231は、全ての空格子に対して、周辺の左視差画素の画素値を平均化演算し補間処理を行うことによって、図14の下左図に示すように、空格子が埋められたプレーンデータであるLt'(x,y)を生成する。なお、画像処理部205の補間処理部231は、補間処理により算出された画素値を用いて、さらに補間処理を行ってもよいし、RAW元画像データの段階で存在する出力値のみを用いて補間処理を行ってもよい。In generating Lt ′ (x, y), which is left parallax image data having a low spatial frequency resolution, the interpolation processing unit 231 of the image processing unit 205 uses the pixel values that have become empty grids as pixels of the surrounding left parallax pixels. The value is calculated by interpolation processing. For example, the pixel value of the empty lattice P L1 is calculated by averaging pixel values of four left parallax pixels adjacent in the diagonal direction. As shown in the lower left diagram of FIG. 14, the interpolation processing unit 231 of the image processing unit 205 performs an averaging process on the pixel values of the surrounding left parallax pixels for all the empty lattices, and performs interpolation processing. Lt ′ (x, y), which is plane data in which vacancies are filled, is generated. Note that the interpolation processing unit 231 of the image processing unit 205 may further perform interpolation processing using the pixel values calculated by the interpolation processing, or use only output values that exist at the stage of the RAW original image data. Interpolation processing may be performed.

同様に、空間周波数解像度の低い右視差画像データであるRt'(x,y)を生成するにあたり、画像処理部205の補間処理部231は、空格子となった画素値を、周辺の右視差画素の画素値を用いて補間処理により算出する。例えば、空格子PR1の画素値は、斜め方向に隣接する4つの右視差画素の画素値を平均化演算して算出される。画像処理部205の補間処理部231は、全ての空格子に対して、周辺の右視差画素の画素値を平均化演算し補間処理を行うことによって、図14の下右図に示すように、空格子が埋められたプレーンデータであるRt'(x,y)を生成する。Similarly, when generating Rt ′ (x, y), which is right parallax image data with a low spatial frequency resolution, the interpolation processing unit 231 of the image processing unit 205 converts the pixel value that has become an empty lattice into the peripheral right parallax. Calculation is performed by interpolation using the pixel value of the pixel. For example, the pixel value of the empty grid PR1 is calculated by averaging pixel values of four right parallax pixels adjacent in the diagonal direction. As shown in the lower right diagram of FIG. 14, the interpolation processing unit 231 of the image processing unit 205 performs an interpolation process by averaging pixel values of surrounding right parallax pixels with respect to all the empty lattices. Rt ′ (x, y), which is plane data in which vacancies are filled, is generated.

次に、画像処理部205の基準画像データ生成部232は、Lt'(x,y)の各画素に対して、それぞれ算出されたゲイン値を用いてゲイン補正を行い、同様に、Rt'(x,y)の各画素に対して、それぞれ算出されたゲイン値を用いてゲイン補正を行う。これにより、同一の画素位置における左視差画素と右視差画素の照度を合わせる。本実施形態において、このように、画素単位に算出されたゲイン値を用いたゲイン補正を、上述のグローバル・ゲイン補正に対し、ローカル・ゲイン補正という。   Next, the reference image data generation unit 232 of the image processing unit 205 performs gain correction for each pixel of Lt ′ (x, y) using the calculated gain value, and similarly, Rt ′ (x Gain correction is performed on each pixel x, y) using the calculated gain value. Thereby, the illuminances of the left parallax pixel and the right parallax pixel at the same pixel position are matched. In the present embodiment, gain correction using the gain value calculated for each pixel in this way is referred to as local gain correction in contrast to the above-described global gain correction.

図15は、ゲイン値の算出を説明するための図である。図示するように、画像処理部205の基準画像データ生成部232は、Lt'(x,y)およびRt'(x,y)から、画素毎の平均値を算出する。ローカル・ゲイン補正を行うにあたり、ここでも、平均値の算出方法として相加平均と相乗平均の2通りが考えられる。ここでは、視差が消滅したG成分の視差なし画素における被写体像のボケ幅を、視差なし画素の被写体像のボケ幅に一致させるべく、相加平均を採用する。この場合、具体的には、画像処理部205の基準画像データ生成部232は、以下の(数3)により平均値を算出する。
FIG. 15 is a diagram for explaining the calculation of the gain value. As illustrated, the reference image data generation unit 232 of the image processing unit 205 calculates an average value for each pixel from Lt ′ (x, y) and Rt ′ (x, y). In performing the local gain correction, there are two methods for calculating the average value, namely, arithmetic mean and geometric mean. Here, an arithmetic average is employed so that the blur width of the subject image in the non-parallax pixel of the G component where the parallax disappears matches the blur width of the subject image of the pixel without parallax. In this case, specifically, the reference image data generation unit 232 of the image processing unit 205 calculates the average value by the following (Equation 3).

図16は、ローカル・ゲイン補正を説明するための図である。上述のように、各画素に対してローカル・ゲイン補正を行う処理によって平均値が得られる。したがって、画像処理部205の基準画像データ生成部232は、図示するように、繰り返しパターン110の左右の視差画素の画素値をそれぞれ、(数3)で算出したm(x、y)、m(xm+1、yn+1)に置き換えるだけで、ローカル・ゲイン補正を行うことができる。この意味で、ローカル・ゲイン補正は、視差を消滅させるための変調処理であると言える。これにより、視差Gb画素および視差Gr画素の画素値が視差なしG画素の画素値に置き換えられたベイヤー配列を得ることができる。FIG. 16 is a diagram for explaining local gain correction. As described above, the average value is obtained by performing the local gain correction on each pixel. Therefore, the reference image data generation unit 232 of the image processing unit 205 includes m (x m , y n ) calculated by (Equation 3) for the pixel values of the left and right parallax pixels of the repetitive pattern 110, as shown in the figure. Local gain correction can be performed only by replacing with m (x m + 1 , y n + 1 ). In this sense, it can be said that the local gain correction is a modulation process for eliminating the parallax. Thereby, it is possible to obtain a Bayer array in which the pixel values of the parallax Gb pixel and the parallax Gr pixel are replaced with the pixel values of the non-parallax G pixel.

画像処理部205の基準画像データ生成部232は、全ての左右の視差画素の画素値を(数3)で算出した対応する平均値に置き換えることによって、M(x、y)を生成する。なお、ローカル・ゲイン補正は、Lt'(x,y)およびRt'(x,y)の全ての画素ではなく、ベイヤー配列における左視差画素および右視差画素の位置に対応する画素について行ってもよい。The reference image data generation unit 232 of the image processing unit 205 generates M N (x, y) by replacing the pixel values of all the left and right parallax pixels with the corresponding average values calculated in (Equation 3). Note that local gain correction may be performed not on all the pixels of Lt ′ (x, y) and Rt ′ (x, y) but on the pixels corresponding to the positions of the left parallax pixel and the right parallax pixel in the Bayer array. Good.

次に、画像処理部205の基準画像データ生成部232は、既存の色補間の技術を用いて、M(x、y)から、各画素がナイキスト周波数までの分解能を持つ視差なしのカラー画像データを、中間画像データとして生成する。Next, the reference image data generation unit 232 of the image processing unit 205 uses an existing color interpolation technique, and a color image without parallax having a resolution from M N (x, y) to each Nyquist frequency. Data is generated as intermediate image data.

図17は、G成分の補間を説明する図である。G色補間は、図17左図で示される中央のR画素の位置[i,j]に対して、図中の画素を参照して算出する。B画素の位置に対してG色補間を行う場合の画素位置は、図17右図によって示される。   FIG. 17 is a diagram for explaining interpolation of the G component. The G color interpolation is calculated with reference to the pixel in the drawing with respect to the position [i, j] of the center R pixel shown in the left diagram of FIG. The pixel position when G color interpolation is performed on the position of the B pixel is shown in the right diagram of FIG.

本実施形態においては、画像処理部205のフィルタ処理部233は、中間画像データに対してエッジ強調処理を施す。画像処理部205の視差画像データ生成部234は、Lt'(x、y)、Rt'(x、y)、R(x、y)、G(x、y)、B(x、y)の5つのプレーンデータを用いて、左側視点のカラー画像データおよび右側視点のカラー画像データを生成する。具体的には、画像処理部205の視差画像データ生成部234は、仮の視差画像が持つ視差成分を視差なし画像に重畳することによって、左右のカラー画像データを生成する。この生成処理を視差変調処理という。In the present embodiment, the filter processing unit 233 of the image processing unit 205 performs edge enhancement processing on the intermediate image data. The parallax image data generation unit 234 of the image processing unit 205 includes Lt ′ (x, y), Rt ′ (x, y), R N (x, y), G N (x, y), B N (x, The left viewpoint color image data and the right viewpoint color image data are generated using the five plane data of y). Specifically, the parallax image data generation unit 234 of the image processing unit 205 generates left and right color image data by superimposing parallax components of the temporary parallax image on the non-parallax image. This generation process is called parallax modulation process.

左側視点のカラー画像データは、左側視点に対応する赤色プレーンデータであるRLt(x、y)、緑色プレーンデータであるGLt(x、y)、および青色プレーンデータであるBLt(x、y)の3つのカラー視差プレーンデータによって構成される。同様に、右側視点のカラー画像データは、右側視点に対応する赤色プレーンデータであるRRt(x、y)、緑色プレーンデータであるGRt(x、y)、および青色プレーンデータであるBRt(x、y)の3つのカラー視差プレーンデータによって構成される。The color image data of the left viewpoint includes R Lt (x, y) that is red plane data corresponding to the left viewpoint, G Lt (x, y) that is green plane data, and B Lt (x, y) that is blue plane data. y) three color parallax plane data. Similarly, the color image data of the right viewpoint is red plane data R Rt (x, y) corresponding to the right viewpoint, green plane data G Rt (x, y), and blue plane data B Rt. It is composed of three color parallax plane data of (x, y).

図18は、カラー視差プレーンデータの生成処理を説明する図である。特に、カラー視差プレーンのうち赤色視差プレーンである、RLt(x、y)とRRt(x、y)の生成処理について示す。FIG. 18 is a diagram for explaining color parallax plane data generation processing. In particular, a process for generating R Lt (x, y) and R Rt (x, y), which are red parallax planes among the color parallax planes, will be described.

以上のように、本実施形態のデジタルカメラ10によれば、高解像な視差なしの2D中間画像に対してエッジ強調することにより、立体画像において、モアレ成分(エイリアジング)が強調されることなく、視差画像の高周波成分を実際に解像した高周波解像のままの状態でエッジ強調できる。さらに、高解像な視差なしの2D中間画像に対しノイズ除去することにより、edge‐preserving性能の高いノイズ除去結果が得られる。視差画素のサンプリング密度に伴うモアレの影響を抑制できるので、複数の視差画像間に、同一被写体像の不一致といった不整合が顕著に現れるといった不具合を回避できる。   As described above, according to the digital camera 10 of the present embodiment, moire components (aliasing) are enhanced in a stereoscopic image by performing edge enhancement on a 2D intermediate image without high parallax. Instead, edge enhancement can be performed with the high-frequency resolution obtained by actually resolving the high-frequency component of the parallax image. Furthermore, noise removal results with high edge-preserving performance can be obtained by removing noise from a high-resolution 2D intermediate image without parallax. Since the influence of moiré associated with the sampling density of the parallax pixels can be suppressed, it is possible to avoid a problem that inconsistency such as inconsistency of the same subject image appears between a plurality of parallax images.

<実施形態2>
‐‐‐Bayer型RGB疎な視差画素配列、エッジ強調‐‐‐
図9の上段の配列図を基本格子として、周期的に配置された撮像素子を用いた例を示す。その逆格子空間の周波数解像領域も各色と各視差の組み合わせについて示す。この配列は、単眼瞳分割方式のボケた被写体領域にしか視差を生じないという性質を捉えて、視差画素の密度を疎な配置にし、残りの画素を視差なし画素にできるだけ割り当てた構造をした撮像素子である。視差なし画素も視差あり画素もBayer配列を基本構造としており、左視差画素にも右視差画素にもR:G:B=1:2:1のカラーフィルタを配置した構造をしている。すなわち、実施形態1よりも更に原信号で捉える視差なしの中間画像の解像力を重視し、その高周波成分を視差変調によって、左視差画素と右視差画素に重畳することによって高解像な立体画像を得ようとする。したがって、非合焦域においても高解像な2D画像と3D画像を得る能力をもつ色・視差配列である。
画像処理の手順は、実施形態1と同じである。以下、順に説明する。
<Embodiment 2>
--- Bayer type RGB sparse parallax pixel array, edge enhancement ---
The example using the image pick-up element arrange | positioned periodically by making the arrangement | sequence figure of the upper stage of FIG. 9 into a basic lattice is shown. The frequency resolution region of the reciprocal lattice space is also shown for each color and each parallax combination. This arrangement captures the property that parallax occurs only in the blurred subject area of the monocular pupil division method, imaging with a structure in which the density of parallax pixels is sparsely arranged and the remaining pixels are assigned to non-parallax pixels as much as possible It is an element. Both the non-parallax pixel and the parallax pixel have a Bayer arrangement as a basic structure, and have a structure in which R: G: B = 1: 2: 1 color filters are arranged in both the left parallax pixel and the right parallax pixel. That is, the resolution of an intermediate image without parallax captured by the original signal is more important than Embodiment 1, and a high-resolution three-dimensional image is obtained by superimposing the high-frequency component on the left parallax pixel and the right parallax pixel by parallax modulation. Try to get. Therefore, the color / parallax arrangement has the ability to obtain a high-resolution 2D image and 3D image even in the out-of-focus region.
The procedure of image processing is the same as in the first embodiment. Hereinafter, it demonstrates in order.

1)色・視差多重化モザイク画像データ入力
図9の色と視差の多重化された単板式モザイク画像:M(x,y)
階調はA/D変換によって出力された線形階調であるものとする。
1) Color / parallax multiplexed mosaic image data input Single plate mosaic image with color and parallax multiplexed as shown in FIG. 9: M (x, y)
It is assumed that the gradation is a linear gradation output by A / D conversion.

便宜的にモザイク画像M(x,y)の内、
R成分の視差なし画素の信号面をRN_mosaic(x,y)、
R成分の左視差画素の信号面をRLt_mosaic(x,y)、
R成分の右視差画素の信号面をRRt_mosaic(x,y)、
G成分の左視差画素の信号面をGN_mosaic(x,y)、
G成分の視差なし画素の信号面をGLt_mosaic(x,y)、
G成分の右視差画素の信号面をGRt_mosaic(x,y)、
B成分の視差なし画素の信号面をBN_mosaic(x,y)、
B成分の左視差画素の信号面をBLt_mosaic(x,y)、
B成分の右視差画素の信号面をBRt_mosaic(x,y)
と表すことにする。
For convenience, in the mosaic image M (x, y),
R N_mosaic (x, y)
R Lt_mosaic (x, y), the signal surface of the left parallax pixel of R component,
R Rt_mosaic (x, y), the signal surface of the right parallax pixel of the R component,
G N_mosaic (x, y), the signal plane of the left parallax pixel of G component,
G Lt_mosaic (x, y)
G Rt_mosaic (x, y), the signal plane of the right parallax pixel of G component,
B N_mosaic (x, y)
Let B Lt_mosaic (x, y) be the signal surface of the left parallax pixel of the B component,
B Rt_mosaic (x, y)
It will be expressed as

全ての視差なし画素が全開口のマスクを持っているとき相加平均型の方式を採用する。全ての視差なし画素が半開口のマスクを持っているとき相乗平均型の方式を採用する。従って、本実施形態では相加平均型を採用する。こうして視差なし画素が1つのゲイン係数で、左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。 When all the non-parallax pixels have a full-opening mask, an arithmetic average method is adopted. When all non-parallax pixels have a half-aperture mask, the geometric average method is adopted. Therefore, the arithmetic average type is adopted in the present embodiment. In this way, a mosaic image in which the non-parallax pixel is corrected with one gain coefficient, the left parallax pixel with one gain coefficient, and the right parallax pixel with one gain coefficient is output as M ′ (x, y).

3)仮の視差画像の生成
空間周波数解像度の低い分解能の仮の左視差画像と仮の右視差画像を生成する。左視差画素ばかりを集めたG色面内の単純平均補間を行う。近接して存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めたG色面内の単純平均補間を行う。同様に、視差なし画素ばかりを集めたG色面内の単純平均補間を行う。同様の処理をR,G,Bの各々について行う。すなわち、RLt_mosaic(x,y)からRLt(x,y)を、RRt_mosaic(x,y)からRRt(x,y)を、RN_mosaic(x,y)からRN(x,y)を、GLt_mosaic(x,y)からGLt(x,y)を、GRt_mosaic(x,y)からGRt(x,y)を、GN_mosaic(x,y)からGN(x,y)を、BLt_mosaic(x,y)からBLt(x,y)を、BRt_mosaic(x,y)からGRt(x,y)を、BN_mosaic(x,y)からGN(x,y)を生成する。
仮のR成分の視差なし画像:RN(x,y)
仮のG成分の視差なし画像:GN(x,y)
仮のB成分の視差なし画像:BN(x,y)
仮のR成分の左視差画像:RLt(x,y)
仮のG成分の左視差画像:GLt(x,y)
仮のB成分の左視差画像:BLt(x,y)
仮のR成分の右視差画像:RRt(x,y)
仮のG成分の右視差画像:GRt(x,y)
仮のB成分の右視差画像:BRt(x,y)
なお、仮の視差なし画像RN(x,y)、GN(x,y)、BN(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
3) Generation of temporary parallax image A temporary left parallax image and a temporary right parallax image with low spatial frequency resolution are generated. Performs simple average interpolation in the G color plane, where only the left parallax pixels are collected. Linear interpolation is performed according to the distance ratio using pixel values that are close to each other. Similarly, simple average interpolation in the G color plane in which only the right parallax pixels are collected is performed. Similarly, simple average interpolation in the G color plane in which only non-parallax pixels are collected is performed. Similar processing is performed for each of R, G, and B. That is, R Lt_mosaic (x, y) to R Lt (x, y), R Rt_mosaic (x, y) to R Rt (x, y), R N_mosaic (x, y) to R N (x, y) ), G Lt_mosaic (x, y) to G Lt (x, y), G Rt_mosaic (x, y) to G Rt (x, y), G N_mosaic (x, y) to G N (x, y) y), B Lt_mosaic (x, y) to B Lt (x, y), B Rt_mosaic (x, y) to G Rt (x, y), B N_mosaic (x, y) to G N (x , y).
Temporary R component-free parallax image: R N (x, y)
Temporary G component parallax-free image: G N (x, y)
Temporary B component non-parallax image: B N (x, y)
Temporary R component left parallax image: R Lt (x, y)
Temporary G component left parallax image: G Lt (x, y)
Temporary B component left parallax image: B Lt (x, y)
Temporary R component right parallax image: R Rt (x, y)
Temporary G component right parallax image: G Rt (x, y)
Temporary B component right parallax image: B Rt (x, y)
When creating temporary non-parallax images R N (x, y), G N (x, y), and B N (x, y), high-definition is performed by introducing direction determination in the signal plane. May be.

4)左右の照度分布補正による視差なし色モザイク画像の生成
(ローカル・ゲインバランス補正)
次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、まず画面内の左視差画素と画面内の右視差画素の照度を合わせる。この操作によって左右間の視差を消滅させる。その上で左右平均をとった信号面と視差なし画素の撮像信号面との間で更に照度を合わせる。そうして、全ての画素でゲイン整合のとれた新しいBayer面を作成する。これは平均値と置き換えることと等価であり、視差の消滅したBayer面が出来上がる。これをMN(x,y)と書くことにする。
4) Generation of parallax-free color mosaic image by correcting left and right illumination distribution (local gain balance correction)
Next, by performing local gain correction in units of pixels in the same manner as the global gain correction performed in step 1, first, the illuminances of the left parallax pixel in the screen and the right parallax pixel in the screen are matched. This operation eliminates the parallax between the left and right. Then, the illuminance is further adjusted between the signal plane obtained by taking the left-right average and the imaging signal plane of the non-parallax pixel. Then, a new Bayer surface with gain matching is created for all pixels. This is equivalent to replacing with an average value, and a Bayer surface in which the parallax disappears is created. This is written as M N (x, y).

この場合も、各画素の基準点として揃える目標値の設定方法に、左右間の視差を消滅させる方法に、相加平均を選ぶ方法と相乗平均を選ぶ方法の2種類が存在する。全ての視差なし画素が全開口のマスク面積を持っているとき、左右間で視差消滅させた被写体像のボケ幅が全開口のボケ幅と一致させる目的で相加平均型を選ぶ必要がある。一方、全ての視差なし画素が半開口のマスク面積を持っているとき、左右間で視差消滅させた被写体像のボケ幅が半開口のボケ幅と一致させる目的で相乗平均型を選ぶ必要がある。   In this case as well, there are two types of methods for setting the target value to be aligned as the reference point for each pixel: a method for selecting the arithmetic mean and a method for selecting the geometric mean as the method for eliminating the parallax between the left and right. When all non-parallax pixels have the mask area of the entire aperture, it is necessary to select an arithmetic average type in order to make the blur width of the subject image whose parallax disappeared between the left and right coincide with the blur width of the entire aperture. On the other hand, when all the non-parallax pixels have a half-aperture mask area, it is necessary to select a geometric average type in order to make the blur width of the subject image whose parallax disappeared between the left and right coincide with the blur width of the half aperture .

さらに、左右間で視差消滅させた信号面と視差なし画素の撮像信号面との間で平均をとる操作は、両者が既に同じボケ幅の被写体像に揃えられているから、そのボケ幅を保存する必要がある。したがって、このときには共通に相乗平均をとらなければならない。そのときに撮像素子配列における視差なし画素と視差画素の密度比を考慮に入れた相乗平均をとる。すなわち、実施形態2で用いている視差なし画素(N)と左視差画素(Lt)と右視差画素(Rt)の比はN:L:R=14:1:1、すなわち、N:(L+R)=7:1であるので、視差なし画素には7/8乗の重みを、視差画素には1/8乗の重みを与えて、密度の高い視差なし画素を重視した配分とする。つまり、基準画像データ生成部232は、視差なし画素、左視差画素、および右視差画素の数に応じて重み付けを施す。以下にそれらの具体式を挙げる。   In addition, the operation of averaging between the signal plane where the parallax disappeared between the left and right and the imaging signal plane of the non-parallax pixel is already aligned with the subject image of the same blur width, so the blur width is saved. There is a need to. Therefore, at this time, a common geometric average must be taken. At that time, a geometric average is taken in consideration of the density ratio between the non-parallax pixel and the parallax pixel in the image sensor array. That is, the ratio of the non-parallax pixel (N), the left parallax pixel (Lt), and the right parallax pixel (Rt) used in the second embodiment is N: L: R = 14: 1: 1, that is, N: (L Since + R) = 7: 1, a 7 / 8th power is given to non-parallax pixels and a 1 / 8th power is given to parallax pixels, giving a distribution that emphasizes high density non-parallax pixels. . That is, the reference image data generation unit 232 performs weighting according to the number of non-parallax pixels, left parallax pixels, and right parallax pixels. The specific formulas are given below.

このように左視点の画像と右視点の画像の平均値を更に視差のない基準視点の画像との平均値をとった画素値を新たな視差なし画素値として、Bayer面のデータを書き換え、視差なしBayer面の画像MN(x,y)を出力する。 In this way, the Bayer plane data is rewritten by using the pixel value obtained by averaging the average value of the left viewpoint image and the right viewpoint image with the reference viewpoint image having no parallax as a new non-parallax pixel value. None Outputs the Bayer plane image M N (x, y).

5)視差なし基準画像の生成
実施形態1と同様である。
6)視差なし基準画像に対するエッジ強調処理
実施形態1と同様である。
5) Generation of reference image without parallax The same as in the first embodiment.
6) Edge enhancement processing for reference image without parallax The same as in the first embodiment.

7)実際の視差画像の生成
ステップ3で生成した解像力の低い仮の左視差のカラー画像RLt(x,y)、GLt(x,y)、BLt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い左視差のカラー画像R'Lt(x,y)、G'Lt(x,y)、B'Lt(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差のカラー画像RRt(x,y)、GRt(x,y)、BRt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのカラー画像RN(x,y)、GN(x,y)、BN(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像R'Rt(x,y)、G'Rt(x,y)、B'Rt(x,y)を生成する。
7) Real parallax image generation Temporary left parallax color images R Lt (x, y), G Lt (x, y), B Lt (x, y) generated in step 3 and in step 5 Using the high-resolution color images R N (x, y), G N (x, y), B N (x, y) with high resolving power generated as intermediate processing, Color images R ′ Lt (x, y), G ′ Lt (x, y), and B ′ Lt (x, y) are generated. Similarly, the provisional right parallax color images R Rt (x, y), G Rt (x, y), B Rt (x, y) generated in step 3 and intermediate processing in step 5 are generated. color image R N without high resolution parallax (x, y), G N (x, y), using B N (x, y), color image actually output to high right parallax resolving power R 'Rt (x, y), G ′ Rt (x, y), and B ′ Rt (x, y) are generated.

視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用する。したがって、本実施形態では相加平均を基準点とする方式を用いる。   There are two possible parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. A method using the geometric mean as the reference point for the same half aperture is adopted. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.

視差変調を行うときも、撮像素子配列における各視差画素同士の間でのRGBの密度比を考慮に入れた相乗平均をとる。すなわち、左視差画素同士の間ではR:G:B=1:2:1であり、右視差画素同士の間でもR:G:B=1:2:1であるので、R成分による視差変調に1/4乗の重みを、G成分による視差変調に1/2乗の重みを、B成分による視差変調に1/4乗の重みを与えて、密度の高いG成分による視差変調を重視した配分をとる。   When parallax modulation is performed, a geometric average is taken in consideration of the RGB density ratio between parallax pixels in the image sensor array. That is, R: G: B = 1: 2: 1 between the left parallax pixels and R: G: B = 1: 2: 1 between the right parallax pixels, so that the parallax modulation by the R component Giving a weight of 1/4 to the power, a weight of 1/2 to the parallax modulation by the G component, and a weight of 1/4 to the parallax modulation by the B component, emphasizing the parallax modulation by the dense G component Take distribution.

8)出力色空間への変換
実施形態1と同様である。
8) Conversion to output color space The same as in the first embodiment.

<実施形態3>
‐‐‐モノクロ疎な視差画素配列、エッジ強調‐‐‐
図10の上段の配列図を基本格子として、周期的に配置された撮像素子を用いた例を示す。その逆格子空間の周波数解像領域も各視差の組み合わせについて示す。この配列は、単眼瞳分割方式のボケた被写体領域にしか視差を生じないという性質を捉えて、視差画素の密度を疎な配置にし、残りの画素を視差なし画素にできるだけ割り当てた構造をしたモノクロ撮像素子である。
<Embodiment 3>
---- Monochromatic sparse parallax pixel array, edge enhancement ---
An example in which imaging elements arranged periodically are used with the upper arrangement diagram of FIG. 10 as a basic lattice. The frequency resolution area of the reciprocal lattice space is also shown for each parallax combination. This arrangement captures the property that parallax occurs only in the blurred subject area of the monocular pupil division method, and has a structure in which the density of parallax pixels is sparsely arranged and the remaining pixels are assigned to non-parallax pixels as much as possible. It is an image sensor.

画像処理の手順は、およそ以下の通りである。
1)視差多重化モザイク画像データ入力
2)視差モザイク画像のグローバル・ゲインバランス補正
3)仮の視差画像の生成
4)左右の局所照度分布補正による視差なし基準画像の生成
(ローカル・ゲインバランス補正)
5)視差なし基準画像の生成
6)視差なし基準画像に対するエッジ強調処理
7)実際の視差画像の生成
8)出力空間への変換
The image processing procedure is approximately as follows.
1) Input of parallax multiplexed mosaic image data 2) Global gain balance correction of parallax mosaic image 3) Generation of temporary parallax image 4) Generation of parallax-free reference image by left and right local illuminance distribution correction (local gain balance correction)
5) Generation of reference image without parallax 6) Edge enhancement processing for reference image without parallax 7) Generation of actual parallax image 8) Conversion to output space

全ての視差なし画素が全開口のマスクを持っているとき相加平均型の方式を採用する。全ての視差なし画素が半開口のマスクを持っているとき相乗平均型の方式を採用する。従って、本実施形態では相加平均型を採用する。こうして視差なし画素が1つのゲイン係数で、左視差画素が1つのゲイン係数で、右視差画素が1つのゲイン係数で補正されたモザイク画像をM'(x,y)として出力する。   When all the non-parallax pixels have a full-opening mask, an arithmetic average method is adopted. When all non-parallax pixels have a half-aperture mask, the geometric average method is adopted. Therefore, the arithmetic average type is adopted in the present embodiment. In this way, a mosaic image in which the non-parallax pixel is corrected with one gain coefficient, the left parallax pixel with one gain coefficient, and the right parallax pixel with one gain coefficient is output as M ′ (x, y).

3)仮の視差画像の生成
空間周波数解像度の低い分解能の仮の左視差画像と仮の右視差画像を生成する。左視差画素ばかりを集めた信号面内の単純平均補間を行う。近接して存在する画素値を用いて、距離の比に応じて線形補間を行う。同様に、右視差画素ばかりを集めた信号面内の単純平均補間を行う。同様に、視差なし画素ばかりを集めた信号面内の単純平均補間を行う。すなわち、Ltmosaic(x,y)からLt(x,y)を、Rtmosaic(x,y)からRt(x,y)を、Nmosaic(x,y)から N(x,y)を生成する。
仮の視差なし画像:N(x,y)
仮の左視差画像:Lt(x,y)
仮の右視差画像:Rt(x,y)
なお、仮の視差なし画像N(x,y)を作るときは、信号面内での方向判定を導入して高精細に行ってもよい。
3) Generation of temporary parallax image A temporary left parallax image and a temporary right parallax image with low spatial frequency resolution are generated. Simple average interpolation is performed in the signal plane that collects only the left parallax pixels. Linear interpolation is performed according to the distance ratio using pixel values that are close to each other. Similarly, simple average interpolation is performed in the signal plane in which only the right parallax pixels are collected. Similarly, simple average interpolation is performed in the signal plane in which only non-parallax pixels are collected. That is, generation Lt mosaic (x, y) from Lt (x, y) and, Rt mosaic (x, y) from the Rt (x, y) and, N mosaic (x, y) from the N (x, y) and To do.
Temporary non-parallax image: N (x, y)
Temporary left parallax image: Lt (x, y)
Temporary right parallax image: Rt (x, y)
Note that when creating the temporary non-parallax image N (x, y), high-definition may be performed by introducing direction determination in the signal plane.

4)左右の照度分布補正による視差なし基準画像の生成
(ローカル・ゲインバランス補正)
次にステップ1で行ったグローバル・ゲイン補正と同様の考え方で、画素単位のローカル・ゲイン補正を行うことによって、まず画面内の左視差画素と画面内の右視差画素の照度を合わせる。この操作によって左右間の視差を消滅させる。その上で左右平均をとった信号面と視差なし画素の撮像信号面との間で更に照度を合わせる。そうして、全ての画素でゲイン整合のとれた新しい視差なしの基準画像面を作成する。これは平均値と置き換えることと等価であり、視差の消滅した中間画像面が出来上がる。これをN(x,y)と書くことにする。
4) Generation of parallax-free reference images by correcting left and right illuminance distribution (local gain balance correction)
Next, by performing local gain correction in units of pixels in the same manner as the global gain correction performed in step 1, first, the illuminances of the left parallax pixel in the screen and the right parallax pixel in the screen are matched. This operation eliminates the parallax between the left and right. Then, the illuminance is further adjusted between the signal plane obtained by taking the left-right average and the imaging signal plane of the non-parallax pixel. In this way, a new parallax-free reference image plane in which gain matching is achieved in all pixels is created. This is equivalent to replacing with an average value, and an intermediate image plane in which the parallax disappears is completed. This is written as N (x, y).

このときも撮像素子配列における視差なし画素と視差画素の密度比を考慮に入れた相乗平均をとる。すなわち、実施形態3で用いている視差なし画素(N)と左視差画素(Lt)と右視差画素(Rt)の比はN:L:R=14:1:1、すなわち、N:(L+R)=7:1であるので、視差画素には7/8乗の重みを、視差なし画素には1/8乗の重みを与えて、密度の高い視差なし画素を重視した配分とする。   Also at this time, a geometric average is taken in consideration of the density ratio between the non-parallax pixels and the parallax pixels in the image sensor array. That is, the ratio of the non-parallax pixel (N), the left parallax pixel (Lt), and the right parallax pixel (Rt) used in the third embodiment is N: L: R = 14: 1: 1, that is, N: (L Since + R) = 7: 1, the 7 / 8th power is given to the parallax pixels, and the 1 / 8th power is given to the non-parallax pixels, giving a distribution that emphasizes the high density non-parallax pixels. .

このように左視点の画像と右視点の画像の平均値を更に視差のない基準視点の画像との平均値をとった画素値を新たな視差なし画素値として、モノクロ面のデータを書き換え、視差なしモノクロ面の画像N(x,y)を出力する。   In this way, the pixel value obtained by taking the average value of the average value of the left viewpoint image and the right viewpoint image and the reference viewpoint image without parallax as a new pixel value without parallax is rewritten, and the parallax is rewritten. None Output monochrome image N (x, y).

5)視差なし基準画像の生成
実施形態1と同様である。
5) Generation of reference image without parallax The same as in the first embodiment.

6)視差なし基準画像に対するエッジ強調処理
実施形態1のステップ6‐2)の記号Yを記号Nに置き換えた演算を行うだけでよい。すなわち、
N'(x,y)=N(x,y)+k*△N(x,y)
なお、以下では記号N'のことを記号Nに置き換えて表記する。
6) Edge enhancement processing for reference image without parallax It is only necessary to perform the calculation in which symbol Y in step 6-2) of Embodiment 1 is replaced with symbol N. That is,
N '(x, y) = N (x, y) + k * △ N (x, y)
In the following, the symbol N ′ is replaced with the symbol N.

7)実際の視差画像の生成
ステップ3で生成した解像力の低い仮の左視差画像Lt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのモノクロ画像N(x,y)を用いて、実際に出力する解像力の高い左視差のモノクロ画像Lt'(x,y)を生成する。同様に、ステップ3で生成した解像力の低い仮の右視差画像Rt(x,y)とステップ5で中間処理として生成した解像力の高い視差なしのモノクロ画像N(x,y)を用いて、実際に出力する解像力の高い右視差のカラー画像Rt'(x,y)を生成する。
7) Generation of actual parallax image Temporary left parallax image Lt (x, y) generated in step 3 and low-resolution monochrome image N (x, y) generated as intermediate processing in step 5 Is used to generate a left-parallax monochrome image Lt ′ (x, y) with high resolving power that is actually output. Similarly, using the temporary right parallax image Rt (x, y) generated in step 3 with low resolution and the monochrome image N (x, y) without parallax generated as intermediate processing in step 5 with actual resolution, To generate a right-parallax color image Rt ′ (x, y) with high resolving power.

視差変調の方式として、相加平均を基準点にとる方法と相乗平均を基準点にとる方法の2通りが考えられる。どちらも視差変調効果を得ることができるが、撮像素子の視差なし画素の開口マスクが全開口のとき相加平均を基準点とした方式を採用し、視差なし画素の開口マスクが視差あり画素と同じ半開口のとき相乗平均を基準点とした方式を採用する。したがって、本実施形態では相加平均を基準点とする方式を用いる。   There are two possible parallax modulation methods: a method using an arithmetic average as a reference point and a method using a geometric average as a reference point. Both can obtain a parallax modulation effect, but when the aperture mask of pixels without parallax of the image sensor is full aperture, a method using an arithmetic average as a reference point is adopted, and the aperture mask of pixels without parallax is a pixel with parallax. A method using the geometric mean as the reference point for the same half aperture is adopted. Therefore, in this embodiment, a method using an arithmetic mean as a reference point is used.

7)出力色空間への変換
こうして得られた高解像な視差なしの中間モノクロ画像N(x,y)と高解像の左視差のモノクロ画像Lt'(x,y)、高解像の右視差のモノクロ画像Rt'(x,y)のそれぞれを適当なガンマ変換を行って出力空間の画像として出力する。これらはいずれの2D、3D画像も高精細なエッジ強調がなされた画像が生成される。
7) Conversion to output color space The high-resolution non-parallax intermediate monochrome image N (x, y) and the high-resolution left-parallax monochrome image Lt '(x, y) obtained in this way Each right-parallax monochrome image Rt ′ (x, y) is subjected to appropriate gamma conversion and output as an output space image. As for these, all 2D and 3D images are generated with high-definition edge enhancement.

<実施形態4>
‐‐‐Bayer型RGB疎な視差画素配列、ノイズ除去‐‐‐
画像処理の手順は、およそ以下の通りである。
1)色・視差多重化モザイク画像データ入力
2)色・視差モザイク画像のグローバル・ゲインバランス補正
3)仮の視差画像の生成
4)左右の局所照度分布補正による視差なし色モザイク画像の生成
(ローカル・ゲインバランス補正)
5)視差なし基準画像の生成
6)視差なし基準画像に対するノイズ除去処理
7)実際の視差画像の生成
8)出力色空間への変換
ここで、ステップ1)〜6)、及びステップ7)〜8)は実施形成2と同様であるので、その説明を省略する。ここでは、視差なし基準画像に対するノイズ除去処理について説明する。
<Embodiment 4>
--- Bayer type RGB sparse parallax pixel array, noise removal ---
The image processing procedure is approximately as follows.
1) Color / parallax multiplexed mosaic image data input 2) Global gain balance correction of color / parallax mosaic image 3) Temporary parallax image generation 4) Generation of parallax-free color mosaic image by right and left local illuminance distribution correction (Local・ Gain balance correction
5) Generation of reference image without parallax 6) Noise removal processing for reference image without parallax 7) Generation of actual parallax image 8) Conversion to output color space Here, steps 1) to 6) and steps 7) to 8 are performed. ) Is the same as that of Embodiment 2, and the description thereof is omitted. Here, the noise removal process for the reference image without parallax will be described.

6)視差なし基準画像に対するノイズ除去処理
6‐1)色空間変換処理
実施形態1と同様である。
6‐2)ノイズ除去処理
輝度Y面に対して、ノイズ除去処理を行う。前述の本出願人と同一発明者の特開2006-309749号公報等、公知の高性能なノイズ除去処理を用いるとよい。ここでは、本出願人と同一発明者のWO2006/068025に開示される2引数積バイラテラル・フィルタを示しておく。
ここに、σthはノイズの揺らぎ幅である。rthはフィルタ半径で、対象とするノイズの広がり幅に応じて任意の大きさに設定することができる。なお、フィルタ処理部233は、左視差画像データおよび右視差画像データに対してはノイズ除去のフィルタリング処理を施さなくてもよい。
6) Noise removal processing for reference image without parallax 6-1) Color space conversion processing The same as in the first embodiment.
6-2) Noise removal processing Noise removal processing is performed on the luminance Y plane. A known high-performance noise removal process such as Japanese Patent Laid-Open No. 2006-309749 of the same inventor as the above-mentioned applicant may be used. Here, a two-argument product bilateral filter disclosed in WO2006 / 068025 of the same inventor as the present applicant is shown.
Here, σth is the noise fluctuation width. rth is a filter radius and can be set to an arbitrary size according to the spread width of the target noise. Note that the filter processing unit 233 may not perform noise removal filtering processing on the left parallax image data and the right parallax image data.

6‐3)逆色空間変換処理
ノイズ除去された輝度成分Y'(x,y)と色差成分Cb'(x,y)、Cr'(x,y)を用いて、YCbCr空間からRGB空間に戻す。
6‐4)逆階調変換による元の線形階調空間への移行
実施形態1と同様である。
6-3) Inverse color space conversion processing Using the luminance component Y '(x, y) and the color difference components Cb' (x, y) and Cr '(x, y) from which noise has been removed, the YCbCr space is converted into the RGB space. return.
6-4) Transition to the original linear gradation space by inverse gradation conversion The same as in the first embodiment.

<なお書き>
実施形態2のエッジ強調と実施形態4のノイズ除去を併用する場合は、実施形態4のステップ6のノイズ除去処理を先に行ってから、実施形態2のステップ6のエッジ強調処理を行うとよい。また、実施形態3の疎なモノクロ視差画素配列に対してノイズ除去処理を行う場合は、実施形態4に示したノイズ除去処理の輝度成分に対して行ったものと同様の手続きを、モノクロ面に対して行えばよい。
<Notes>
When the edge enhancement of the second embodiment and the noise removal of the fourth embodiment are used in combination, the edge enhancement processing of step 6 of the second embodiment may be performed after the noise removal processing of step 6 of the fourth embodiment is performed first. . When performing noise removal processing on the sparse monochrome parallax pixel array of the third embodiment, the same procedure as that performed for the luminance component of the noise removal processing shown in the fourth embodiment is applied to the monochrome surface. You can do this.

以上の説明では、被写体像のカラーを構成する原色として、赤色、緑色および青色の3つを用いた。しかし、翠色などを加えた4つ以上を原色としても良い。また、赤色、緑色および青色に代えて、イエロー、マゼンタ、シアンの組み合わせによる補色の3原色を採用することもできる。   In the above description, three primary colors, red, green and blue, are used as the primary colors constituting the color of the subject image. However, four or more colors including amber color may be used as primary colors. Instead of red, green, and blue, three primary colors that are complementary colors of yellow, magenta, and cyan can be used.

上述した補間処理部231、基準画像データ生成部232、フィルタ処理部233、および視差画像データ生成部234の機能は、補間処理ステップ、基準画像データ取得ステップ、フィルタ処理ステップ、視差画像データ生成ステップを含む画像処理プログラムをコンピュータに実行させることにより実現できる。補間処理ステップは、撮像素子100の出力に基づいて左視点の仮の左視差画像データおよび右視点の仮の右視差画像データを生成する。基準画像データ取得ステップは、仮の左視差画像データおよび仮の右視差画像データの画素値を用いて、仮の左視差画像データおよび仮の右視差画像データより高解像な基準画像データを生成する。フィルタ処理ステップは、基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施す。視差画像データ生成ステップは、フィルタリング処理が施された基準画像データ、並びに仮の左視差画像データおよび仮の右視差画像データを用いて、仮の左視差画像データおよび仮の右視差画像データより高解像な左視差画像データおよび高解像な右視差画像データを生成する。   The functions of the interpolation processing unit 231, the reference image data generation unit 232, the filter processing unit 233, and the parallax image data generation unit 234 described above include an interpolation processing step, a reference image data acquisition step, a filter processing step, and a parallax image data generation step. This can be realized by causing a computer to execute an image processing program including the image processing program. In the interpolation processing step, temporary left parallax image data for the left viewpoint and temporary right parallax image data for the right viewpoint are generated based on the output of the image sensor 100. The reference image data acquisition step generates reference image data having higher resolution than the temporary left parallax image data and the temporary right parallax image data using the pixel values of the temporary left parallax image data and the temporary right parallax image data. To do. In the filter processing step, at least one of edge adjustment and noise removal is applied to the reference image data. The parallax image data generation step is higher than the temporary left parallax image data and the temporary right parallax image data using the reference image data subjected to the filtering process, the temporary left parallax image data, and the temporary right parallax image data. Resolution left parallax image data and high resolution right parallax image data are generated.

パーソナルコンピュータなどの機器が画像処理装置として機能してもよい。画像処理装置は、カメラ等の他の装置から画像データを取り込んでもよい。この場合には、補間処理部ではなく視差画像データ取得部としての役割を担う。基準画像データ生成部ではなく基準画像データ取得部としての役割を担う。なお、補間処理部が視差画像データを、基準画像データ生成部が基準画像データをそれぞれ自ら生成する場合も、自ら生成することによって視差画像データおよび基準画像データをそれぞれ取得しているといえる。また、基準画像データ生成部232は、仮の左視差画像データおよび仮の右視差画像データの画素値の画素値に加えて、一部の画素が欠落した仮の基準画像データの画素値を用いて2D中間画像である基準画像データを生成してもよい。   A device such as a personal computer may function as the image processing apparatus. The image processing apparatus may capture image data from another apparatus such as a camera. In this case, it plays a role as a parallax image data acquisition unit rather than an interpolation processing unit. It plays a role as a reference image data acquisition unit rather than a reference image data generation unit. In addition, even when the interpolation processing unit generates the parallax image data and the reference image data generation unit generates the reference image data, it can be said that the parallax image data and the reference image data are acquired by generating the parallax image data. Further, the reference image data generation unit 232 uses the pixel values of the temporary reference image data in which some pixels are missing in addition to the pixel values of the pixel values of the temporary left parallax image data and the temporary right parallax image data. Thus, reference image data that is a 2D intermediate image may be generated.

以上の説明では、フィルタ処理部233は、基準画像データに対してエッジ調整処理としてエッジ強調処理を施したが、例えば画像を縮小する場合等には、エッジ抑制処理を施してもよい。なお、以上の説明において画像は、画像データを指す場合もあれば、フォーマットに従って展開され可視化された被写体像そのものを指す場合もある。   In the above description, the filter processing unit 233 performs the edge enhancement process as the edge adjustment process on the reference image data. However, for example, when the image is reduced, an edge suppression process may be performed. In the above description, an image may refer to image data, or may refer to a subject image itself developed and visualized according to a format.

以上の説明では、視差画像データ生成部234は、仮の左視差画像データと同一視点に対応する左視差画像データを生成した。同様に、視差画像データ生成部234は、仮の右視差画像データと同一視点に対応する右視差画像データを生成した。この場合には、左右の視差画素の視点が変化しないので、仮の左視差画像データおよび仮の右視差画像データの視差量と、最終的に生成された高解像な左視差画像データおよび高解像な右視差画像データの視差量とは同一になる。しかしながら、視差変調をするときの変調量をパラメータ化することによって、視差量を制御することができる。視差量が変化すると、左視差画像データの視点と左視差画像データの視点も変化することになる。したがって、視差画像データ生成部234は、仮の左視差画像データの視点とは異なる視点の左視差画像データを生成するということもできる。同様に、仮の右視差画像データの視点とは異なる視点の右視差画像データを生成するということもできる。下記に示すように、パラメータCによって立体効果を可変にすることができる。
In the above description, the parallax image data generation unit 234 generates left parallax image data corresponding to the same viewpoint as the temporary left parallax image data. Similarly, the parallax image data generation unit 234 generates right parallax image data corresponding to the same viewpoint as the temporary right parallax image data. In this case, since the viewpoints of the left and right parallax pixels do not change, the parallax amounts of the temporary left parallax image data and the temporary right parallax image data, and the finally generated high-resolution left parallax image data and high The parallax amount of the resolved right parallax image data is the same. However, the amount of parallax can be controlled by parameterizing the amount of modulation when performing parallax modulation. When the amount of parallax changes, the viewpoint of the left parallax image data and the viewpoint of the left parallax image data also change. Therefore, it can also be said that the parallax image data generation unit 234 generates left parallax image data with a viewpoint different from the viewpoint of the temporary left parallax image data. Similarly, it can also be said that right parallax image data with a different viewpoint from the viewpoint of temporary right parallax image data is generated. As shown below, the stereoscopic effect can be made variable by the parameter C.

図19は、画素値の補間の一例を示す図である。図19の上段は、図7で示した画素配列におけるRの視差なし画素の画素値のみを抽出した図である。R0画像データにおいて画素値を有する画素の画素値を用いて、図19の下段に示すように、画素値を有しない画素の画素値が補間される。すなわち、視差画像データ生成部234は、視差なし画素の画素値を用いて欠落した画素値を補間することによって、2D中間画像データを生成している。例えば上下、左右、または上下および左右の最隣接する画素であって画素値を有するものを平均して補間の画素値とする。   FIG. 19 is a diagram illustrating an example of pixel value interpolation. The upper part of FIG. 19 is a diagram in which only pixel values of R non-parallax pixels in the pixel array shown in FIG. 7 are extracted. Using the pixel values of pixels having pixel values in the R0 image data, the pixel values of pixels having no pixel values are interpolated as shown in the lower part of FIG. That is, the parallax image data generation unit 234 generates 2D intermediate image data by interpolating the missing pixel values using the pixel values of the non-parallax pixels. For example, the pixel values for interpolation are averaged from the top and bottom, left and right, or the top and bottom and left and right adjacent pixels having pixel values.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。例えば、上述の撮像素子を90°回転した場合は上下視差への変形例に、45°回転した場合には斜め視差の変形例になる。また画素配列が正方格子状に並んでいないハニカム配列に対して左右の視差を設定できるようにしてもよい。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. For example, when the above-described image sensor is rotated by 90 °, it is a modified example of vertical parallax, and when it is rotated by 45 °, a modified example of oblique parallax is obtained. Further, left and right parallax may be set for a honeycomb arrangement in which the pixel arrangement is not arranged in a square lattice pattern.

請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior”. It should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.

10 デジタルカメラ、20 撮影レンズ、21 光軸、100 撮像素子、101 マイクロレンズ、102 カラーフィルタ、103 開口マスク、104 開口部、105 配線層、106 配線、107 開口、108 光電変換素子、109 基板、110 繰り返しパターン、201 制御部、202 A/D変換回路、203 メモリ、204 駆動部、205 画像処理部、207 メモリカードIF、208 操作部、209 表示部、210 LCD駆動回路、211 AFセンサ、220 メモリカード、231 補間処理部、232 基準画像データ生成部、233 フィルタ処理部、234 視差画像データ生成部、322 中心線、1801 分布曲線、1802 分布曲線、1803 分布曲線、1804 分布曲線、1805 分布曲線、1806 合成分布曲線、1807 分布曲線、1808 分布曲線、1809 合成分布曲線 DESCRIPTION OF SYMBOLS 10 Digital camera, 20 Shooting lens, 21 Optical axis, 100 Image sensor, 101 Micro lens, 102 Color filter, 103 Aperture mask, 104 Aperture, 105 Wiring layer, 106 Wiring, 107 Aperture, 108 Photoelectric conversion element, 109 Substrate 110 repetitive pattern, 201 control unit, 202 A / D conversion circuit, 203 memory, 204 drive unit, 205 image processing unit, 207 memory card IF, 208 operation unit, 209 display unit, 210 LCD drive circuit, 211 AF sensor, 220 Memory card, 231 interpolation processing unit, 232 reference image data generation unit, 233 filter processing unit, 234 parallax image data generation unit, 322 center line, 1801 distribution curve, 1802 distribution curve, 1803 distribution curve, 1804 distribution curve, 1805 distribution Curve, 1806 composite distribution curve, 1807 distribution curve, 1808 distribution curve, 1809 composite distribution curve

Claims (17)

1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、
左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、
前記第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、
前記第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、
前記第1の画像の少なくとも視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、
前記基準視点画像に対して、エッジ強調処理を行って、エッジ強調された基準視点画像を生成する手順と、
前記エッジ強調された基準視点画像と前記仮の左視点画像と前記仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順と
を備えたことを特徴とする画像処理方法。
Left parallax comprising a plurality of pixels having one aperture mask in one pixel and having a parallax-free pixel having an aperture mask that generates a viewpoint in the reference direction and an aperture mask that generates parallax in the left direction with respect to the reference direction A subject image is referenced through one optical system using an image sensor comprising a pixel array and at least three types of pixels, a right parallax pixel having an aperture mask that produces a parallax in the right direction with respect to a reference direction. Input a first image in which a directional viewpoint, a left viewpoint, and a right viewpoint are simultaneously captured on different pixels,
An image processing method for converting an image related to a left viewpoint and an image related to a right viewpoint,
Using the pixel value of the left parallax pixel of the first image to generate a temporary left viewpoint image for each pixel;
Using the pixel value of the right parallax pixel of the first image to generate a temporary right viewpoint image for each pixel;
Generating a reference viewpoint image for each pixel using a pixel value of at least a non-parallax pixel of the first image;
A step of performing edge enhancement processing on the reference viewpoint image to generate an edge-enhanced reference viewpoint image;
And a procedure for generating, for each pixel, an image relating to the left viewpoint and an image relating to the right viewpoint based on the edge-enhanced reference viewpoint image, the provisional left viewpoint image, and the provisional right viewpoint image. An image processing method characterized by the above.
1つの画素に1つの開口マスクを有する複数の画素からなり、基準方向の視点を生み出す開口マスクを備えた視差なし画素と、基準方向に対して左方向の視差を生み出す開口マスクを備えた左視差画素と、基準方向に対して右方向の視差を生み出す開口マスクを備えた右視差画素の少なくとも3種類の画素を配置した画素配列からなる撮像素子を用いて、1つの光学系を通して被写体像を基準方向の視点と左方向の視点と右方向の視点を同時にそれぞれ異なる画素に撮像した第1の画像を入力し、
左方向の視点に関する画像と、右方向の視点に関する画像に変換する画像処理方法であって、
前記第1の画像の左視差画素の画素値を用いて、各画素に仮の左視点画像を生成する手順と、
前記第1の画像の右視差画素の画素値を用いて、各画素に仮の右視点画像を生成する手順と、
前記第1の画像の視差なし画素の画素値を用いて、各画素に基準視点画像を生成する手順と、
前記基準視点画像に対して、ノイズ除去処理を行って、ノイズ除去された基準視点画像を生成する手順と、
前記ノイズ除去された基準視点画像と前記仮の左視点画像と前記仮の右視点画像に基づき、各画素に左方向の視点に関する画像と右方向の視点に関する画像のそれぞれを生成する手順と
を備えたことを特徴とする画像処理方法。
Left parallax comprising a plurality of pixels having one aperture mask in one pixel and having a parallax-free pixel having an aperture mask that generates a viewpoint in the reference direction and an aperture mask that generates parallax in the left direction with respect to the reference direction A subject image is referenced through one optical system using an image sensor comprising a pixel array and at least three types of pixels, a right parallax pixel having an aperture mask that produces a parallax in the right direction with respect to a reference direction. Input a first image in which a directional viewpoint, a left viewpoint, and a right viewpoint are simultaneously captured on different pixels,
An image processing method for converting an image related to a left viewpoint and an image related to a right viewpoint,
Using the pixel value of the left parallax pixel of the first image to generate a temporary left viewpoint image for each pixel;
Using the pixel value of the right parallax pixel of the first image to generate a temporary right viewpoint image for each pixel;
Using a pixel value of a non-parallax pixel of the first image to generate a reference viewpoint image for each pixel;
A procedure for performing noise removal processing on the reference viewpoint image to generate a noise-removed reference viewpoint image;
A procedure for generating an image related to the left viewpoint and an image related to the right viewpoint for each pixel based on the reference viewpoint image from which the noise has been removed, the temporary left viewpoint image, and the temporary right viewpoint image. An image processing method characterized by the above.
前記基準視点画像を生成する手順は、前記第1の画像の視差なし画素の画素値の他に、左視差画素の画素値と右視差画素の画素値も用いて、基準視点画像の画素値を生成する請求項1または2に記載の画像処理方法。   The procedure for generating the reference viewpoint image includes the pixel value of the reference viewpoint image using the pixel value of the left parallax pixel and the pixel value of the right parallax pixel in addition to the pixel value of the non-parallax pixel of the first image. The image processing method according to claim 1, wherein the image processing method is generated. 前記第1の画像が複数の色成分からなるとき、
前記基準視点画像を生成する手順は、前記複数の色成分に対して基準視点画像を生成し、前記エッジ強調された基準視点画像を生成する手順は、前記基準視点画像の輝度成分に対してエッジ強調処理を行う請求項1に記載の画像処理方法。
When the first image is composed of a plurality of color components,
The procedure of generating the reference viewpoint image generates a reference viewpoint image for the plurality of color components, and the procedure of generating the edge-enhanced reference viewpoint image includes an edge for the luminance component of the reference viewpoint image. The image processing method according to claim 1, wherein enhancement processing is performed.
前記第1の画像が複数の色成分からなるとき、
前記基準視点画像を生成する手順は、前記複数の色成分に対して基準視点画像を生成し、前記ノイズ除去された基準視点画像を生成する手順は、前記基準視点画像の輝度成分と色差成分に対してノイズ除去処理を行う請求項2に記載の画像処理方法。
When the first image is composed of a plurality of color components,
The procedure of generating the reference viewpoint image generates a reference viewpoint image for the plurality of color components, and the procedure of generating the noise-removed reference viewpoint image includes a luminance component and a color difference component of the reference viewpoint image. The image processing method according to claim 2, wherein noise removal processing is performed on the image processing.
前記第1の画像は、視差なし画素の密度を左視差画素と右視差画素を合わせた画素の密度よりも高く配置した画素配列からなる撮像素子により撮像された画像である請求項2に記載の画像処理方法。   3. The image according to claim 2, wherein the first image is an image picked up by an image pickup element having a pixel arrangement in which a density of pixels without parallax is higher than a density of pixels including a left parallax pixel and a right parallax pixel. Image processing method. 基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、前記基準方向に対して前記第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得部と、
前記基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得部と、
前記基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理部と、
前記フィルタリング処理が施された前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを用いて、前記第1方向にずれた視点に対応する第3視差画像データと、前記第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成部と
を備える画像処理装置。
First parallax image data corresponding to a viewpoint shifted in a first direction with respect to a reference direction, and a second parallax image corresponding to a viewpoint shifted in a second direction opposite to the first direction with respect to the reference direction Parallax image data acquisition unit for acquiring data;
A reference image data acquisition unit for acquiring reference image data corresponding to the reference direction and having higher resolution than the spatial frequency resolution of the first parallax image data and the second parallax image data;
A filter processing unit that performs at least one of edge adjustment and noise removal filtering on the reference image data;
Using the reference image data, the first parallax image data, and the second parallax image data on which the filtering process has been performed, third parallax image data corresponding to a viewpoint shifted in the first direction, and the second parallax image data An image processing apparatus comprising: a parallax image data generation unit that generates fourth parallax image data corresponding to a viewpoint shifted in a direction.
前記基準画像データ取得部は、一部の画素値が欠落した仮の基準画像データを取得し、前記基準方向に対応した基準画素の画素値を用いて欠落した画素値を補間することによって、前記基準画像データを生成する請求項7に記載の画像処理装置。   The reference image data acquisition unit acquires temporary reference image data in which some pixel values are missing, and interpolates the missing pixel values using pixel values of reference pixels corresponding to the reference direction, thereby The image processing apparatus according to claim 7, wherein the image processing apparatus generates reference image data. 前記基準画像データ取得部は、前記第1視差画像データおよび前記第2視差画像データの画素値を用いて欠落した画素値を補間することによって、前記基準画像データを生成する請求項7または8に記載の画像処理装置。   The said reference image data acquisition part produces | generates the said reference image data by interpolating the missing pixel value using the pixel value of said 1st parallax image data and said 2nd parallax image data. The image processing apparatus described. 前記基準画像データ取得部は、前記基準画像データに対応する基準画素、前記第1視差画像データに対応する第1画素、および前記第2視差画像データに対応する第2画素の数に応じて重み付けを施す請求項9に記載の画像処理装置。   The reference image data acquisition unit weights according to the number of reference pixels corresponding to the reference image data, first pixels corresponding to the first parallax image data, and second pixels corresponding to the second parallax image data. The image processing apparatus according to claim 9. 前記基準画像データ取得部は、それぞれの画素に対応付けられたカラーフィルタの色成分毎に前記基準画像データを生成する請求項7から10のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the reference image data acquisition unit generates the reference image data for each color component of a color filter associated with each pixel. 前記視差画像データ生成部は、前記第1視差画像データの視点とは異なる視点の前記第3視差画像データを生成し、前記第2視差画像データの視点とは異なる視点の前記第4視差画像データを生成する請求項7から11のいずれか1項に記載の画像処理装置。   The parallax image data generation unit generates the third parallax image data with a viewpoint different from the viewpoint of the first parallax image data, and the fourth parallax image data with a viewpoint different from the viewpoint of the second parallax image data. The image processing device according to claim 7, wherein the image processing device generates the image. 前記第1視差画像データおよび前記第2視差画像データの少なくともいずれかを出力する撮像素子と、
請求項7から12のいずれか1項に記載の画像処理装置と
を備える撮像装置。
An image sensor that outputs at least one of the first parallax image data and the second parallax image data;
An imaging device comprising: the image processing device according to claim 7.
前記撮像素子は、前記基準画像データも共に出力する請求項13に記載の撮像装置。   The imaging apparatus according to claim 13, wherein the imaging element outputs the reference image data together. 前記撮像素子は、前記基準画像データに対応する画素、前記第1視差画像データに対応する画素、および前記第2視差画像データに対応する画素の中で、前記基準画像データに対応する画素を最も多く有する請求項14に記載の撮像装置。   The imaging device selects the pixel corresponding to the reference image data among the pixel corresponding to the reference image data, the pixel corresponding to the first parallax image data, and the pixel corresponding to the second parallax image data. The imaging device according to claim 14, which has a large amount. 前記フィルタ処理部は、前記第1視差画像データおよび前記第2視差画像データに対してノイズ除去のフィルタリング処理を施さない請求項15に記載の撮像装置。   The imaging device according to claim 15, wherein the filter processing unit does not perform a noise removal filtering process on the first parallax image data and the second parallax image data. 基準方向に対して第1方向にずれた視点に対応する第1視差画像データと、前記基準方向に対して前記第1方向とは反対の第2方向にずれた視点に対応する第2視差画像データとを取得する視差画像データ取得ステップと、
前記基準方向に対応し、かつ、第1視差画像データおよび第2視差画像データの空間周波数解像度より高解像な基準画像データを取得する基準画像データ取得ステップと、
前記基準画像データに対してエッジ調整およびノイズ除去の少なくともいずれかのフィルタリング処理を施すフィルタ処理ステップと、
前記フィルタリング処理が施された前記基準画像データ、前記第1視差画像データおよび前記第2視差画像データを用いて、前記第1方向にずれた視点に対応する第3視差画像データと、前記第2方向にずれた視点に対応する第4視差画像データとを生成する視差画像データ生成ステップと
をコンピュータに実行させる画像処理プログラム。
First parallax image data corresponding to a viewpoint shifted in a first direction with respect to a reference direction, and a second parallax image corresponding to a viewpoint shifted in a second direction opposite to the first direction with respect to the reference direction Parallax image data acquisition step for acquiring data;
A reference image data acquisition step for acquiring reference image data corresponding to the reference direction and having higher resolution than the spatial frequency resolution of the first parallax image data and the second parallax image data;
A filtering process step of applying at least one of edge adjustment and noise removal filtering to the reference image data;
Using the reference image data, the first parallax image data, and the second parallax image data on which the filtering process has been performed, third parallax image data corresponding to a viewpoint shifted in the first direction, and the second parallax image data An image processing program for causing a computer to execute a parallax image data generation step for generating fourth parallax image data corresponding to a viewpoint shifted in a direction.
JP2014529320A 2012-08-10 2013-08-08 Image processing method, image processing apparatus, imaging apparatus, and image processing program Active JP5904281B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012179038 2012-08-10
JP2012179038 2012-08-10
PCT/JP2013/004798 WO2014024500A1 (en) 2012-08-10 2013-08-08 Image processing method, image processing device, imaging device, and image processing program

Publications (2)

Publication Number Publication Date
JP5904281B2 true JP5904281B2 (en) 2016-04-13
JPWO2014024500A1 JPWO2014024500A1 (en) 2016-07-25

Family

ID=50067750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014529320A Active JP5904281B2 (en) 2012-08-10 2013-08-08 Image processing method, image processing apparatus, imaging apparatus, and image processing program

Country Status (4)

Country Link
US (1) US9509978B2 (en)
JP (1) JP5904281B2 (en)
CN (1) CN104429056B (en)
WO (1) WO2014024500A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557087B1 (en) * 2016-10-20 2023-07-20 삼성전자주식회사 Electronic device for generating images and storage medium

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013190814A1 (en) * 2012-06-22 2013-12-27 株式会社ニコン Image processing device, imaging device, and image processing program
DE112013006596B4 (en) * 2013-02-05 2019-10-02 Fujifilm Corporation Image processing apparatus, image pickup apparatus, image processing method and program
JP6288088B2 (en) * 2013-07-05 2018-03-07 株式会社ニコン Imaging device
JP6135490B2 (en) 2013-12-12 2017-05-31 ソニー株式会社 Movie image processing system and movie image processing method
WO2015186439A1 (en) * 2014-06-03 2015-12-10 株式会社 日立メディコ Image processing device and three-dimensional display method
JP6494328B2 (en) * 2015-03-02 2019-04-03 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6516510B2 (en) * 2015-03-02 2019-05-22 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2017076899A (en) * 2015-10-15 2017-04-20 ソニー株式会社 Solid-state image sensor and electronic device
US10614555B2 (en) * 2016-01-13 2020-04-07 Sony Corporation Correction processing of a surgical site image
CN105631810B (en) * 2016-01-20 2018-09-11 北京邮电大学 A kind of printing process and system based on the multiplexing of pixel site
CN107040724B (en) 2017-04-28 2020-05-15 Oppo广东移动通信有限公司 Dual-core focusing image sensor, focusing control method thereof and imaging device
JP2019021991A (en) * 2017-07-12 2019-02-07 オリンパス株式会社 Imaging element, imaging apparatus, imaging program and imaging method
CN111614959B (en) * 2019-02-26 2023-02-03 北京嘀嘀无限科技发展有限公司 Video coding method and device and electronic equipment
CN111260768B (en) * 2020-02-07 2022-04-26 腾讯科技(深圳)有限公司 Picture processing method and device, storage medium and electronic device
KR102148127B1 (en) * 2020-02-14 2020-08-26 재단법인 다차원 스마트 아이티 융합시스템 연구단 Camera system with complementary pixlet structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device
JP2011259211A (en) * 2010-06-09 2011-12-22 Sony Corp Image processing apparatus, image processing method, and program
WO2012073491A1 (en) * 2010-11-29 2012-06-07 株式会社ニコン Imaging element and imaging device

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836572B2 (en) 1998-06-01 2004-12-28 Nikon Corporation Interpolation processing apparatus and recording medium having interpolation processing program recorded therein
JP2001177731A (en) 1999-12-15 2001-06-29 Canon Inc Image processing method, image processor and storage medium
US6980326B2 (en) 1999-12-15 2005-12-27 Canon Kabushiki Kaisha Image processing method and apparatus for color correction of an image
JP4164215B2 (en) 1999-12-27 2008-10-15 キヤノン株式会社 Image processing method, apparatus, and recording medium
JP4599672B2 (en) 1999-12-21 2010-12-15 株式会社ニコン Interpolation processing apparatus and recording medium recording interpolation processing program
US7565007B2 (en) 2001-01-25 2009-07-21 Nikon Corporation Image processing method, image processing program, and image processing apparatus
JP2003007994A (en) 2001-06-27 2003-01-10 Konica Corp Solid-state image pickup element, stereoscopic camera apparatus, and range finder
WO2004112401A1 (en) 2003-06-12 2004-12-23 Nikon Corporation Image processing method, image processing program, image processor
JP4910699B2 (en) 2004-07-07 2012-04-04 株式会社ニコン Image processing device
EP1840830B1 (en) 2004-12-20 2011-11-02 Nikon Corporation Image processing method
JP5352942B2 (en) 2005-03-31 2013-11-27 株式会社ニコン Image processing method, image processing program, and image processing apparatus
JP4807499B2 (en) * 2006-02-23 2011-11-02 セイコーエプソン株式会社 Image processing system, display device, program, and information storage medium
JP4798358B2 (en) * 2006-03-14 2011-10-19 セイコーエプソン株式会社 Image processing system, display device, and image processing method
WO2007116543A1 (en) 2006-03-31 2007-10-18 Nikon Corporation Image processing method
WO2009066770A1 (en) 2007-11-22 2009-05-28 Nikon Corporation Digital camera and digital camera system
JP4763827B2 (en) * 2009-11-26 2011-08-31 富士フイルム株式会社 Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2011203811A (en) * 2010-03-24 2011-10-13 Fujifilm Corp Image processing apparatus, image processing method, image processing program, and compound eye digital camera
JP2011205374A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Display apparatus
JP4783465B1 (en) * 2010-03-26 2011-09-28 富士フイルム株式会社 Imaging device and display device
CN102972032A (en) * 2010-06-30 2013-03-13 富士胶片株式会社 Three-dimensional image display device, three-dimensional image display method, three-dimensional image display program, and recording medium
JP5594067B2 (en) * 2010-11-02 2014-09-24 ソニー株式会社 Image processing apparatus and image processing method
JP5625887B2 (en) * 2010-12-22 2014-11-19 ソニー株式会社 Imaging apparatus, control method thereof, and program
US8742309B2 (en) 2011-01-28 2014-06-03 Aptina Imaging Corporation Imagers with depth sensing capabilities
CN103385005B (en) * 2011-05-03 2015-10-21 奥林巴斯映像株式会社 Stereoscopic image processing device and stereoscopic image processing method
EP2760209B1 (en) * 2011-09-21 2017-07-12 FUJIFILM Corporation Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
JP6131545B2 (en) 2012-03-16 2017-05-24 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP6131546B2 (en) 2012-03-16 2017-05-24 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
CN104185983B (en) 2012-03-16 2016-10-26 株式会社尼康 Imaging apparatus, camera head and camera system
WO2013161313A1 (en) 2012-04-25 2013-10-31 株式会社ニコン Image processing device, imaging device, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device
JP2011259211A (en) * 2010-06-09 2011-12-22 Sony Corp Image processing apparatus, image processing method, and program
WO2012073491A1 (en) * 2010-11-29 2012-06-07 株式会社ニコン Imaging element and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557087B1 (en) * 2016-10-20 2023-07-20 삼성전자주식회사 Electronic device for generating images and storage medium

Also Published As

Publication number Publication date
JPWO2014024500A1 (en) 2016-07-25
WO2014024500A1 (en) 2014-02-13
CN104429056A (en) 2015-03-18
US9509978B2 (en) 2016-11-29
CN104429056B (en) 2017-11-14
US20150264333A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
JP5904281B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP6131546B2 (en) Image processing apparatus, imaging apparatus, and image processing program
EP3261328B1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP5398346B2 (en) Imaging apparatus and signal processing apparatus
JP4905326B2 (en) Imaging device
JP6036829B2 (en) Image processing apparatus, imaging apparatus, and control program for image processing apparatus
JP5804055B2 (en) Image processing apparatus, image processing method, and program
JP6131545B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US20140078346A1 (en) Imaging device and image generation method
WO2014192300A1 (en) Imaging element, imaging device, and image processing device
US9706186B2 (en) Imaging apparatus for generating parallax image data
JP6370348B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
JP6692749B2 (en) Multispectral camera
WO2016111175A1 (en) Image processing device, image processing method, and program
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
TWI450594B (en) Cross-color image processing systems and methods for sharpness enhancement
JP2014107594A (en) Image pick-up device and imaging apparatus
JP5978737B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2017118293A (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
WO2016063316A1 (en) Image processing unit, image pickup device, image processing program, and image processing method
JP5978735B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2015108710A (en) Image capturing device, control method therefor, and control program
JP2009047733A (en) Imaging apparatus and image processing program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160229

R150 Certificate of patent or registration of utility model

Ref document number: 5904281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250