JP2013162347A - Image processor, image processing method, program, and device - Google Patents

Image processor, image processing method, program, and device Download PDF

Info

Publication number
JP2013162347A
JP2013162347A JP2012023049A JP2012023049A JP2013162347A JP 2013162347 A JP2013162347 A JP 2013162347A JP 2012023049 A JP2012023049 A JP 2012023049A JP 2012023049 A JP2012023049 A JP 2012023049A JP 2013162347 A JP2013162347 A JP 2013162347A
Authority
JP
Japan
Prior art keywords
pixel
image
pixels
saturated
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012023049A
Other languages
Japanese (ja)
Inventor
Masaharu Matsudo
正春 松戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012023049A priority Critical patent/JP2013162347A/en
Publication of JP2013162347A publication Critical patent/JP2013162347A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To realize a wide dynamic range.SOLUTION: A saturated pixel detector detects a saturated pixel from an image obtained via an imaging element in which plural elements different in exposure time are arrayed regularly. A surrounding pixel identifier identifies surrounding pixels positioned near the saturated pixels and including pixels of elements different from the elements which the saturated pixel belongs to. A prediction arithmetic unit performs prediction arithmetic processing of the image on the basis of the identified surrounding pixels. This technique can be applied to an image processor, for example.

Description

本技術は、画像処理装置、画像処理方法、プログラム、および装置に関し、特に、広ダイナミックレンジを実現することができるようにする画像処理装置、画像処理方法、プログラム、および装置に関する。   The present technology relates to an image processing apparatus, an image processing method, a program, and an apparatus, and more particularly, to an image processing apparatus, an image processing method, a program, and an apparatus that can realize a wide dynamic range.

一般的なイメージセンサの撮影では、全画素同一の露光時間で撮影される。しかし、このような撮影方法では、撮像範囲として、室内と窓の外などのように暗い被写体と明るい被写体が共存するような撮影が難しい。   In general image sensor shooting, all pixels are shot with the same exposure time. However, in such a photographing method, it is difficult to photograph in such a manner that a dark subject and a bright subject coexist as an imaging range such as indoors and outside a window.

例えば、図1Bに示されるような、室内と窓の外の両方を含む被写体を、図1Aに示されるベイヤ配列のイメージセンサで撮影する場合を考える。ベイヤ配列は、2つのR画素と、G画素およびB画素で構成される2×2(垂直方向×水平方向)の計4画素が、垂直方向及び水平方向に繰り返し配置される配列方法である。図中、「R」で示されるR画素は、赤色の画素信号を出力する画素であり、「G」で示されるG画素は、緑色の画素信号を出力する画素であり、「B」で示されるB画素は、青色の画素信号を出力する画素である。   For example, consider a case where a subject including both a room and the outside of a window as shown in FIG. 1B is photographed by a Bayer array image sensor shown in FIG. 1A. The Bayer arrangement is an arrangement method in which a total of four pixels of 2 × 2 (vertical direction × horizontal direction) composed of two R pixels and G pixels and B pixels are repeatedly arranged in the vertical direction and the horizontal direction. In the figure, the R pixel indicated by “R” is a pixel that outputs a red pixel signal, the G pixel indicated by “G” is a pixel that outputs a green pixel signal, and is indicated by “B”. The B pixel is a pixel that outputs a blue pixel signal.

室内の暗い被写体に合わせて撮影を行うには、図2Aに示されるように、各画素の露光時間を長く設定する必要がある。図2Aにおいて、「LR」は、長い露光時間が設定されたR画素、「LG」は、長い露光時間が設定されたG画素、「LB」は、長い露光時間が設定されたB画素を示す。このような条件で撮影が行われた場合、撮影画像は、図2Bに示されるように、明るい被写体部分の画素値が飽和して、いわゆる「白とび」した状態となる。   In order to shoot in accordance with a dark subject in the room, it is necessary to set a long exposure time for each pixel as shown in FIG. 2A. In FIG. 2A, “LR” indicates an R pixel with a long exposure time set, “LG” indicates a G pixel with a long exposure time set, and “LB” indicates a B pixel with a long exposure time set. . When photographing is performed under such conditions, the photographed image is in a so-called “overexposed” state, as shown in FIG.

一方、窓の外の明るい被写体に合わせて撮影を行うには、図3Aに示されるように、各画素の露光時間を短く設定する必要がある。図3Aにおいて、「SR」は、短い露光時間が設定されたR画素、「SG」は、短い露光時間が設定されたG画素、「SB」は、短い露光時間が設定されたB画素を示す。このような条件で撮影が行われた場合、撮影画像は、図3Bに示されるように、暗い被写体部分が表現されず、いわゆる「黒つぶれ」した状態となる。   On the other hand, in order to shoot in accordance with a bright subject outside the window, it is necessary to set the exposure time of each pixel short as shown in FIG. 3A. In FIG. 3A, “SR” indicates an R pixel for which a short exposure time is set, “SG” indicates a G pixel for which a short exposure time is set, and “SB” indicates a B pixel for which a short exposure time is set. . When shooting is performed under such conditions, the shot image does not represent a dark subject portion and is in a so-called “blackout” state, as shown in FIG. 3B.

したがって、図4に示されるような、暗い被写体の部分と、明るい被写体の部分の両方が表現されるような画像は得られない。   Therefore, it is not possible to obtain an image that expresses both a dark subject portion and a bright subject portion as shown in FIG.

そこで、露光時間を変えて撮影した複数枚の画像を用意し、その複数枚の画像を合成する方法、非飽和画素を用いて飽和画素を補間するなどして、広ダイナミックレンジを実現する方法が提案されている(例えば、特許文献1,2参照)。   Therefore, there are a method for preparing a plurality of images taken with different exposure times, a method for combining the images, and a method for realizing a wide dynamic range by interpolating saturated pixels using unsaturated pixels. It has been proposed (see, for example, Patent Documents 1 and 2).

特開2009−201094号公報JP 2009-201094 A 特開2006−333313号公報JP 2006-333313 A

しかしながら、飽和画素を間違いなく補間する技術は存在しておらず、広ダイナミックレンジを実現するための研究が進められている。   However, there is no technique for interpolating saturated pixels, and research for realizing a wide dynamic range is underway.

本技術は、このような状況に鑑みてなされたものであり、広ダイナミックレンジを実現することができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to realize a wide dynamic range.

本技術の一側面の画像処理装置は、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部とを備える。   An image processing apparatus according to an aspect of the present technology includes a saturation pixel detection unit that detects a saturation pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation A surrounding pixel specifying unit for specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and a prediction calculation for performing an image prediction calculation process based on the surrounding pixel A part.

本技術の一側面の画像処理方法は、画像処理装置が、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、前記周囲画素に基づいて、画像の予測演算処理を行うステップを含む。   According to an image processing method of one aspect of the present technology, an image processing apparatus detects a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation A step of specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and performing an image prediction calculation process based on the surrounding pixel.

本技術の一側面のプログラムは、コンピュータを、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部として機能させるためのものである。   A program according to one aspect of the present technology includes a saturation pixel detection unit that detects a saturation pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged; A surrounding pixel specifying unit for specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and a prediction that performs an image prediction calculation process based on the surrounding pixel It is for functioning as an arithmetic unit.

本技術の一側面の装置は、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、コンピュータで実行可能な前記指示を記録するメモリとを備える。   An apparatus according to one aspect of the present technology detects a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, is located in the vicinity of the saturated pixel, and A processor capable of specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and executing an instruction to perform an image prediction calculation process based on the surrounding pixel, and the instruction executable by a computer And a memory for recording.

本技術の一側面においては、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素が検出され、飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素が特定され、前記周囲画素に基づいて、画像の予測演算処理が行われる。   In one aspect of the present technology, a saturated pixel is detected from an image acquired via an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation pixel is located near the saturated pixel. A surrounding pixel including a pixel of an element group different from the element group to which the pixel belongs is specified, and an image prediction calculation process is performed based on the surrounding pixel.

なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。   The program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.

画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。   The image processing apparatus may be an independent apparatus, or may be an internal block constituting one apparatus.

本技術の一側面によれば、広ダイナミックレンジを実現することができる。   According to one aspect of the present technology, a wide dynamic range can be realized.

従来の撮影を説明する図である。It is a figure explaining the conventional imaging | photography. 露光時間を長くした従来の撮影を説明する図である。It is a figure explaining the conventional imaging | photography which lengthened exposure time. 露光時間を短くした従来の撮影を説明する図である。It is a figure explaining the conventional imaging | photography which shortened exposure time. 撮影で求めたい理想的な画像例を説明する図である。It is a figure explaining the example of an ideal image to obtain | require by imaging | photography. 本技術が適用された撮像装置の第1の実施の形態のブロック図である。It is a block diagram of a 1st embodiment of an imaging device to which this art is applied. 図5のイメージセンサの例を示す図である。It is a figure which shows the example of the image sensor of FIG. 露光時間と信号レベルの関係を示す図である。It is a figure which shows the relationship between exposure time and a signal level. ゲイン調整回路の処理を説明する図である。It is a figure explaining the process of a gain adjustment circuit. デモザイク処理回路の第1の構成を示すブロック図である。It is a block diagram which shows the 1st structure of a demosaic processing circuit. クラスタップおよび予測タップの例を示す図である。It is a figure which shows the example of a class tap and a prediction tap. 飽和画素の例を示す図である。It is a figure which shows the example of a saturation pixel. 飽和画素が存在する場合のクラスタップと予測タップの例を示す図である。It is a figure which shows the example of a class tap in case a saturated pixel exists, and a prediction tap. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. デモザイク処理回路の処理を説明する図である。It is a figure explaining the process of a demosaic processing circuit. 撮像装置によるデモザイク画像生成処理を説明するフローチャートである。It is a flowchart explaining the demosaic image generation process by an imaging device. 学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a learning apparatus. 学習用画像信号生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image signal generation part for learning. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. デモザイク処理回路の第2の構成を示すブロック図である。It is a block diagram which shows the 2nd structure of a demosaic processing circuit. デモザイク処理回路の第2の構成におけるクラスタップと予測タップの例を示す図である。It is a figure which shows the example of the class tap in the 2nd structure of a demosaic processing circuit, and a prediction tap. 第2の実施の形態におけるデモザイク画像生成処理を説明するフローチャートである。It is a flowchart explaining the demosaic image generation process in 2nd Embodiment. 本技術が適用されたコンピュータの一実施の形態の構成例を示すブロック図である。And FIG. 18 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.

以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(長畜画素を除外する構成例)
2.第2の実施の形態(飽和画素のみを除外する構成例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1st Embodiment (configuration example which excludes long livestock pixels)
2. Second embodiment (configuration example in which only saturated pixels are excluded)

<1.第1の実施の形態>
[撮像装置の構成例]
図5は、本技術を適用した撮像装置の第1の実施の形態の構成例を示すブロック図である。
<1. First Embodiment>
[Configuration example of imaging device]
FIG. 5 is a block diagram illustrating a configuration example of the first embodiment of the imaging apparatus to which the present technology is applied.

図5の撮像装置1は、レンズ11、イメージセンサ12、ゲイン調整回路13、デモザイク処理回路14、圧縮処理回路15、記録回路16、および表示装置17から構成される。撮像装置1は、被写体からの光(被写体光)を受光し、被写体に対応する画像信号を記録媒体に記録したり、その画像信号から得られる画像を表示する。この撮像装置1は、例えば、ビデオカメラ、デジタルスチルカメラ、携帯電話機などに適用することができる。   5 includes a lens 11, an image sensor 12, a gain adjustment circuit 13, a demosaic processing circuit 14, a compression processing circuit 15, a recording circuit 16, and a display device 17. The imaging device 1 receives light from a subject (subject light), records an image signal corresponding to the subject on a recording medium, and displays an image obtained from the image signal. The imaging apparatus 1 can be applied to, for example, a video camera, a digital still camera, a mobile phone, and the like.

レンズ11は、被写体光をイメージセンサ12に集光する。イメージセンサ12は、CCDやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子で構成され、被写体光を受光し、その受光量に応じたアナログの電気信号をA/D(Analog to Digital)変換し、デジタルの画像信号としてゲイン調整回路13に供給する。   The lens 11 condenses subject light on the image sensor 12. The image sensor 12 is composed of an image sensor such as a CCD or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image sensor 12 receives subject light and converts an analog electrical signal corresponding to the amount of received light into A / D (Analog to Digital). Then, it is supplied to the gain adjustment circuit 13 as a digital image signal.

イメージセンサ12の色配列は、図1に示したベイヤ配列とするが、各画素の露光時間は同一ではなく、長い露光時間で受光する画素(以下、長畜画素という。)と、それより短い露光時間で受光する画素(以下、短畜画素という。)の組み合わせで構成されている。ここで、イメージセンサ12の長畜画素と短畜画素の露光時間の比率は、N:1(Nは1より大の整数)であるとする。   The color array of the image sensor 12 is the Bayer array shown in FIG. 1, but the exposure time of each pixel is not the same, and the pixel that receives light with a long exposure time (hereinafter referred to as a long pixel) is shorter. It is composed of a combination of pixels that receive light during the exposure time (hereinafter referred to as short-lived pixels). Here, it is assumed that the ratio of the exposure time of the long pixel and the short pixel of the image sensor 12 is N: 1 (N is an integer greater than 1).

図6は、イメージセンサ12の画素の一部を示している。   FIG. 6 shows a part of the pixels of the image sensor 12.

図6では、イメージセンサ12の各画素の露光時間の違いが、図2および図3と同様に表現されている。すなわち、撮像装置1イメージセンサ12では、R画素とB画素は、短畜画素に設定されている。また、G画素は、その位置によって、短畜画素または長畜画素のどちらかに設定されている。換言すれば、規則的に配列される2×2からなる4画素のうち、R画素およびB画素が短畜画素(SR画素,SB画素)に割り当てられるとともに、2つのG画素については、長畜画素(LG画素)と短畜画素(SG画素)に1つずつ割り当てられている。   In FIG. 6, the difference in the exposure time of each pixel of the image sensor 12 is expressed in the same manner as in FIGS. That is, in the imaging device 1 image sensor 12, the R pixel and the B pixel are set as short pixels. The G pixel is set to either a short pixel or a long pixel depending on its position. In other words, among the 4 pixels of 2 × 2 regularly arranged, the R pixel and the B pixel are assigned to the short pixel (SR pixel, SB pixel), and the two G pixels are long One pixel (LG pixel) and one short pixel (SG pixel) are allocated.

図7は、画素の露光時間と信号レベル(画素値)との関係を示している。   FIG. 7 shows the relationship between the pixel exposure time and the signal level (pixel value).

信号レベルと露光時間は比例関係にあり、例えば、露光時間が2倍になれば、信号レベルも2倍になる。ただし、イメージセンサ12の画素(素子)が8ビット出力であれば、信号レベル(画素値)は、8ビットの最大値、すなわち、255で飽和する。   The signal level and the exposure time are in a proportional relationship. For example, if the exposure time is doubled, the signal level is also doubled. However, if the pixel (element) of the image sensor 12 has an 8-bit output, the signal level (pixel value) is saturated at an 8-bit maximum value, that is, 255.

ここで、例えば、長畜画素と短畜画素の露光時間の比率が10:1であり、イメージセンサ12に入射された被写体光の信号レベルが、10ビットカウントで1000となるような受光量であったとする。この場合、長畜画素の画素値は255で飽和するが、短畜画素の画素値は、露光時間が短いため、100となり、8ビットの範囲内に収まる。そして、短畜画素の画素値である100を露光比に応じて10倍することで、被写体の真の画素値(=1000)を得ることができる。したがって、イメージセンサ12に短畜画素を設けることにより、広ダイナミックレンジを実現することができる。   Here, for example, the ratio of the exposure time of the long livestock pixel to the short livestock pixel is 10: 1, and the received light quantity is such that the signal level of the subject light incident on the image sensor 12 is 1000 in 10-bit count. Suppose there was. In this case, the pixel value of the long lived pixel is saturated at 255, but the pixel value of the short lived pixel becomes 100 because the exposure time is short, and falls within the 8-bit range. Then, the true pixel value (= 1000) of the subject can be obtained by multiplying 100, which is the pixel value of the short pixel, by 10 according to the exposure ratio. Therefore, a wide dynamic range can be realized by providing short pixels in the image sensor 12.

しかしながら、ノイズに関しては、ノイズがもつランダム性のため、信号レベルと露光時間の間に比例関係は存在せず、露光時間が長いほど有利になる。換言すれば、ノイズに関しては、短畜画素は長畜画素に比べて不利となる。一般的には、露光時間を2倍にすると、ノイズ量は1/√2となる。したがって、イメージセンサ12の全てを短畜画素とすることはできない。   However, regarding noise, because of the random nature of noise, there is no proportional relationship between the signal level and the exposure time, and the longer the exposure time, the more advantageous. In other words, with respect to noise, short livestock pixels are disadvantageous compared to long livestock pixels. Generally, when the exposure time is doubled, the noise amount becomes 1 / √2. Therefore, all of the image sensors 12 cannot be short pixels.

以上の理由から、撮像装置1のイメージセンサ12では、露光時間の異なる複数の素子群(短畜の画素群、長畜の画素群)が規則的に配列された構成が採用されている。   For the above reasons, the image sensor 12 of the imaging apparatus 1 employs a configuration in which a plurality of element groups (short pixel groups and long pixel groups) having different exposure times are regularly arranged.

なお、本実施の形態では、R画素、B画素、G画素の一部を短畜画素、G画素の残りの一部を長畜画素としたが、その他、例えば、R画素、B画素、G画素の一部を長畜画素、G画素の残りの一部を短畜画素としてもよい。すなわち、どの画素を短畜画素、長畜画素に設定するかは適宜決定することができる。また、色配列についても、ベイヤ配列に限定されず、その他のRGB配列や、R,G,Bの画素に、感度向上のためのホワイト画素を加えた配列などでもよい。すなわち、色の選択および組み合わせ並びにそれらの配列方法は任意である。   In the present embodiment, a part of the R pixel, B pixel, and G pixel is a short pixel, and the remaining part of the G pixel is a long pixel. Some of the pixels may be long livestock pixels, and the remaining part of the G pixels may be short livestock pixels. That is, it is possible to appropriately determine which pixels are set as short livestock pixels and long livestock pixels. Also, the color arrangement is not limited to the Bayer arrangement, and other RGB arrangements, an arrangement in which white pixels for improving sensitivity are added to R, G, and B pixels may be used. That is, the selection and combination of colors and the arrangement method thereof are arbitrary.

図5に戻り、ゲイン調整回路13は、短畜画素の画素値(画素信号)に対して、露光時間の比率であるN倍のゲインをかけ、短畜画素と長畜画素の信号レベルを合わせる。   Returning to FIG. 5, the gain adjustment circuit 13 multiplies the pixel value (pixel signal) of the short-lived pixel by a gain N times that is the ratio of the exposure time to match the signal levels of the short-lived pixel and the long-lived pixel. .

図8は、ゲイン調整回路13によるゲイン処理を概念的に示した図である。図8左側に示される太枠のSR画素、SG画素、およびSB画素は、ゲイン調整回路13によるゲイン処理前の状態を示しており、図8右側に示される細枠のSR画素、SG画素、およびSB画素は、長畜画素の信号レベルに調整された、ゲイン処理後の状態を示している。図9以降の図についても同様に、細枠のSR画素、SG画素、およびSB画素は、ゲイン処理後の画素値であることを示す。   FIG. 8 is a diagram conceptually showing gain processing by the gain adjustment circuit 13. The thick SR, SG, and SB pixels shown on the left side of FIG. 8 indicate a state before gain processing by the gain adjustment circuit 13, and the SR, SG, And SB pixel has shown the state after the gain process adjusted to the signal level of the long livestock pixel. Similarly in FIG. 9 and subsequent figures, the SR, SG, and SB pixels in the narrow frame indicate pixel values after gain processing.

図5に戻り、デモザイク処理回路14は、ゲイン調整回路13から供給される、R、G,Bのいずれかの色成分の画素信号に基づいて、各画素がR、G,Bの全ての色成分の画素信号を持つように、色成分を補完するデモザイク処理を実行する。   Returning to FIG. 5, the demosaic processing circuit 14 uses all the R, G, and B colors for each pixel based on the pixel signal of any one of the R, G, and B color components supplied from the gain adjustment circuit 13. A demosaic process for complementing the color component is executed so as to have the pixel signal of the component.

ここで、デモザイク処理回路14は、ゲイン調整回路13から供給される画像を構成する画素のなかに、信号レベルが飽和している画素(以下、飽和画素ともいう。)が存在する場合、その飽和画素を用いずにデモザイク処理を実行する。換言すれば、デモザイク処理回路14は、ゲイン調整回路13から供給される画像を構成する画素のなかに、飽和画素が存在する場合、飽和していない画素(以下、非飽和画素ともいう。)の画素値から、飽和画素の画素値を予測演算して、出力する。   Here, the demosaic processing circuit 14 saturates a pixel whose signal level is saturated (hereinafter also referred to as a saturated pixel) among the pixels constituting the image supplied from the gain adjustment circuit 13. The demosaic process is executed without using pixels. In other words, the demosaic processing circuit 14 is a pixel that is not saturated (hereinafter also referred to as a non-saturated pixel) when a saturated pixel exists in the pixels that constitute the image supplied from the gain adjustment circuit 13. A pixel value of a saturated pixel is predicted from the pixel value and output.

なお、本実施の形態において、画素値の飽和は長畜画素のみに発生し、短畜画素では飽和することがないものとする。換言すれば、イメージセンサ12では、短畜画素では飽和することがないように、長畜画素と短畜画素の露光比Nが決定されている。   In this embodiment, it is assumed that the saturation of the pixel value occurs only in the long livestock pixel and does not saturate in the short livestock pixel. In other words, in the image sensor 12, the exposure ratio N between the long livestock pixel and the short livestock pixel is determined so that the short livestock pixel is not saturated.

デモザイク処理回路14は、デモザイク処理後の画像信号を、圧縮処理回路15と表示装置17に供給する。   The demosaic processing circuit 14 supplies the image signal after the demosaic processing to the compression processing circuit 15 and the display device 17.

圧縮処理回路15は、JPEG(Joint Photographic Experts Group)などの所定のフォーマットに従い、指定された圧縮比で画像信号を圧縮符号化し、記録回路16に供給する。また、圧縮処理回路15は、撮像された画像のサイズを縮小または拡大する、画像信号の解像度変換処理なども併せて行ってもよい。   The compression processing circuit 15 compresses and encodes an image signal at a specified compression ratio in accordance with a predetermined format such as JPEG (Joint Photographic Experts Group), and supplies the image signal to the recording circuit 16. The compression processing circuit 15 may also perform resolution conversion processing of an image signal that reduces or enlarges the size of the captured image.

記録回路16は、圧縮符号化された画像信号を、記録媒体としての半導体メモリに記録(記憶)する。なお、画像信号を記録する記録媒体としては、半導体メモリの他、DVD(Digital Versatile Disc)などの光ディスク、またはハードディスク等とすることもできる。   The recording circuit 16 records (stores) the compression-encoded image signal in a semiconductor memory as a recording medium. The recording medium for recording the image signal may be a semiconductor memory, an optical disc such as a DVD (Digital Versatile Disc), a hard disk, or the like.

表示装置17は、LCD(Liquid Crystal display)などにより構成され、デモザイク処理回路14から供給される画像信号に対応する画像を表示する。   The display device 17 is configured by an LCD (Liquid Crystal display) or the like, and displays an image corresponding to the image signal supplied from the demosaic processing circuit 14.

従って、図5の撮像装置1によれば、イメージセンサ12が被写体光を受光して画像信号を出力し、デモザイク処理回路14が、その画像信号を対象としてデモザイク処理を行い、その処理結果としての画像信号を後段の圧縮処理回路15に出力する。   Therefore, according to the imaging device 1 of FIG. 5, the image sensor 12 receives the subject light and outputs an image signal, and the demosaic processing circuit 14 performs the demosaic processing on the image signal as a result of the processing. The image signal is output to the subsequent compression processing circuit 15.

[デモザイク処理回路の詳細構成例]
図9は、図5のデモザイク処理回路14の詳細な構成を示すブロック図である。
[Detailed configuration example of demosaic processing circuit]
FIG. 9 is a block diagram showing a detailed configuration of the demosaic processing circuit 14 of FIG.

デモザイク処理回路14は、飽和画素存在判定部21、予測タップ抽出部22、クラス分類部23、係数発生部24、および予測演算部25から構成され、クラス分類部23は、クラスタップ抽出部31とクラスコード発生部32で構成される。   The demosaic processing circuit 14 includes a saturated pixel presence determination unit 21, a prediction tap extraction unit 22, a class classification unit 23, a coefficient generation unit 24, and a prediction calculation unit 25. The class classification unit 23 includes a class tap extraction unit 31, The class code generating unit 32 is configured.

ゲイン調整回路13(図5)が出力する、短畜画素に対してゲインが調整された後の画像信号は、飽和画素存在判定部21、予測タップ抽出部22、および、クラスタップ抽出部31に供給される。   The image signal output from the gain adjustment circuit 13 (FIG. 5) and adjusted in gain for the short pixels is sent to the saturated pixel presence determination unit 21, the prediction tap extraction unit 22, and the class tap extraction unit 31. Supplied.

なお、以下では、ゲイン調整回路13から出力される、短畜画素に対してゲインが調整された後の画像信号をモザイク画像、デモザイク処理回路14が出力するデモザイク処理後の画像を、デモザイク画像ともいう。   In the following description, the image signal output from the gain adjustment circuit 13 after the gain adjustment is performed on the short pixel is referred to as a mosaic image, and the image after demosaic processing output from the demosaic processing circuit 14 is referred to as a demosaic image. Say.

デモザイク処理回路14は、クラス分類適応処理を用いて、モザイク画像から、デモザイク画像を予測演算により求め、出力する。クラス分類適応処理では、予測演算して求めるデモザイク画像の各画素を順次、注目画素とし、注目画素の画像信号を求める処理が、全ての画素について実行する。   The demosaic processing circuit 14 obtains and outputs a demosaic image from the mosaic image by a prediction calculation using the class classification adaptation process. In the class classification adaptive processing, each pixel of the demosaic image obtained by the prediction calculation is sequentially set as the target pixel, and the processing for obtaining the image signal of the target pixel is executed for all the pixels.

具体的には、デモザイク処理回路14は、注目画素に対して複数の画素を予測タップとして抽出し、その予測タップの画素値と、教師画像および生徒画像を用いた学習(図26等で後述)により予め求めておいた予測係数を用いた所定の予測演算により、デモザイク画像を生成する。   Specifically, the demosaic processing circuit 14 extracts a plurality of pixels as a prediction tap with respect to the target pixel, and learns using the pixel value of the prediction tap, a teacher image, and a student image (described later in FIG. 26 and the like). A demosaic image is generated by a predetermined prediction calculation using a prediction coefficient obtained in advance.

飽和画素存在判定部21は、飽和画素を検出し、検出結果を出力する。具体的には、飽和画素存在判定部21は、飽和画素が存在するか否かを、予測タップ抽出部22において予測タップとして抽出される複数の画素、および、クラスタップ抽出部31においてクラスタップとして抽出される複数の画素のそれぞれについて判定する。そして、飽和画素存在判定部21は、予測タップとして抽出される複数の画素のいずれかに飽和画素が存在すると判定された場合、その判定結果を示す検出信号を、予測タップ抽出部22に供給する。また、クラスタップとして抽出される複数の画素のいずれかに飽和画素が存在すると判定された場合、飽和画素存在判定部21は、その判定結果を示す検出信号を、クラスタップ抽出部31に供給する。   The saturated pixel presence determination unit 21 detects a saturated pixel and outputs a detection result. Specifically, the saturated pixel presence determination unit 21 determines whether or not a saturated pixel exists as a plurality of pixels extracted as prediction taps by the prediction tap extraction unit 22 and a class tap by the class tap extraction unit 31. Each of the plurality of extracted pixels is determined. Then, when it is determined that a saturated pixel exists in any of the plurality of pixels extracted as the prediction tap, the saturated pixel presence determination unit 21 supplies a detection signal indicating the determination result to the prediction tap extraction unit 22. . When it is determined that a saturated pixel exists in any of the plurality of pixels extracted as the class tap, the saturated pixel presence determination unit 21 supplies a detection signal indicating the determination result to the class tap extraction unit 31. .

予測タップ抽出部22は、デモザイク画像の注目画素の画素値を予測するのに用いる、モザイク画像を構成する画素(の画素値)を、予測タップとして抽出する。   The prediction tap extraction unit 22 extracts, as a prediction tap, a pixel (a pixel value) constituting the mosaic image used for predicting the pixel value of the target pixel of the demosaic image.

具体的には、予測タップ抽出部22は、注目画素に対応するモザイク画像の画素(例えば、注目画素に対して空間的に最も近い位置にあるモザイク画像の画素)に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、予測タップとして抽出する。   Specifically, the prediction tap extraction unit 22 is spatially close to the pixel of the mosaic image corresponding to the target pixel (for example, the pixel of the mosaic image that is spatially closest to the target pixel). A plurality of pixels of the mosaic image at the position (near) are extracted as prediction taps.

また、予測タップ抽出部22は、飽和画素存在判定部21から、飽和画素が存在する旨の判定結果が供給された場合、予測タップとして抽出するモザイク画像の複数の画素のうち、長畜画素を除いた短畜画素のみを、予測タップとして抽出する。   Moreover, when the determination result that the saturated pixel exists is supplied from the saturated pixel presence determination unit 21, the prediction tap extraction unit 22 selects the long livestock pixel from among the plurality of pixels of the mosaic image to be extracted as the prediction tap. Only the removed short pixels are extracted as prediction taps.

クラス分類部23は、注目画素を、幾つかのクラスのうちのいずれかのクラスにクラス分けするクラス分類を行う。   The class classification unit 23 performs class classification for classifying the target pixel into any one of several classes.

クラスタップ抽出部31は、注目画素のクラス分類を行うのに用いるモザイク画像の複数の画素を、クラスタップとして抽出する。具体的には、クラスタップ抽出部31は、注目画素に対応するモザイク画像の画素に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、クラスタップとして抽出する。   The class tap extraction unit 31 extracts a plurality of pixels of the mosaic image used for classifying the target pixel as class taps. Specifically, the class tap extraction unit 31 extracts, as class taps, a plurality of pixels of the mosaic image that are spatially close (near) to the pixels of the mosaic image corresponding to the target pixel.

また、クラスタップ抽出部31は、飽和画素存在判定部21から、飽和画素が存在する旨の判定結果が供給された場合、クラスタップとして抽出するモザイク画像の複数の画素のうち、長畜画素を除いた短畜画素のみを、クラスタップとして抽出する。   In addition, when the determination result that the saturated pixel exists is supplied from the saturated pixel presence determination unit 21, the class tap extraction unit 31 selects the long livestock pixel from among the plurality of pixels of the mosaic image to be extracted as the class tap. Only the removed short pixels are extracted as class taps.

図10は、注目画素に対してクラスタップおよび予測タップとして抽出される画素の例を示している。   FIG. 10 illustrates an example of pixels extracted as a class tap and a prediction tap with respect to the target pixel.

図10Aは、クラスタップの例を示しており、図10Bは、予測タップの例を示している。図10Aおよび図10Bにおいて、5×5の25画素の中央の画素に示されるバツ(×)印は、注目画素であることを示し、丸(○)印が、クラスタップまたは予測タップを示している。   FIG. 10A shows an example of a class tap, and FIG. 10B shows an example of a prediction tap. 10A and 10B, the cross (x) mark shown in the center pixel of 25 pixels of 5 × 5 indicates that it is a pixel of interest, and the circle (◯) indicates a class tap or a prediction tap. Yes.

図10Aの例では、クラスタップは、注目画素に対して、自分自身と、隣接する8画素、および、注目画素から水平・垂直の4方向に2画素離れた画素の、計13画素で構成されている。   In the example of FIG. 10A, the class tap is composed of a total of 13 pixels, that is, 8 pixels adjacent to the target pixel, and 2 pixels away from the target pixel in four horizontal and vertical directions. ing.

図10Bの例では、予測タップは、注目画素に対して、自分自身を中心とする5×5の計25画素で構成されている。   In the example of FIG. 10B, the prediction tap is composed of a total of 25 pixels of 5 × 5 centered on itself with respect to the target pixel.

このように、予測タップ抽出部22およびクラスタップ抽出部31では、注目画素に対して、どの位置の画素をクラスタップまたは予測タップとして抽出するかが予め決められている。   As described above, in the prediction tap extraction unit 22 and the class tap extraction unit 31, it is determined in advance which pixel to extract as a class tap or a prediction tap with respect to the target pixel.

なお、図10は、予測タップとクラスタップのタップ構造の一例であり、これ以外のタップ構造を採用することも勿論可能である。また、予測タップとクラスタップは、同一のタップ構造としてもよいし、異なるタップ構造としてもよい。   Note that FIG. 10 is an example of a tap structure of prediction taps and class taps, and it is of course possible to employ other tap structures. Further, the prediction tap and the class tap may have the same tap structure or different tap structures.

ここで、例えば、注目画素を中心とする5×5の25画素のうち、図11に示されるように、一番上の行の最も左側の画素と、それから右方向に2画素移動した画素の2つが飽和画素となっており、その旨の検出信号が予測タップ抽出部22と、クラスタップ抽出部31に供給されたとする。   Here, for example, among the 25 pixels of 5 × 5 centered on the target pixel, as shown in FIG. 11, the leftmost pixel in the top row and the pixel moved by two pixels rightward from that pixel Assume that two are saturated pixels, and detection signals to that effect are supplied to the prediction tap extraction unit 22 and the class tap extraction unit 31.

図12は、図11のように飽和画素が検出された場合の、クラスタップと予測タップの例を示している。   FIG. 12 shows an example of class taps and prediction taps when saturated pixels are detected as shown in FIG.

図12Aは、クラスタップの例を示しており、図12Bは、予測タップの例を示している。   FIG. 12A shows an example of a class tap, and FIG. 12B shows an example of a prediction tap.

飽和画素が存在する場合、長畜画素はクラスタップから除外されるので、クラスタップは、図12Aに示されるように、注目画素に対して、自分自身に隣接する8画素のみで構成される。   When the saturated pixel exists, the long live pixel is excluded from the class tap. Therefore, as shown in FIG. 12A, the class tap is composed of only 8 pixels adjacent to the target pixel.

また、予測タップは、図12Bに示されるように、自分自身を中心とする5×5の25画素のうち、長畜画素を除いた16画素で構成される。   Moreover, as shown in FIG. 12B, the prediction tap is composed of 16 pixels excluding long livestock pixels among 5 × 5 25 pixels centered on itself.

予測タップ抽出部22で得られた予測タップは、図9の予測演算部25に供給され、クラスタップ抽出部31で得られたクラスタップは、図9のクラスコード発生部32に供給される。   The prediction tap obtained by the prediction tap extraction unit 22 is supplied to the prediction calculation unit 25 of FIG. 9, and the class tap obtained by the class tap extraction unit 31 is supplied to the class code generation unit 32 of FIG.

クラスコード発生部32は、クラスタップ抽出部31から供給されるクラスタップを構成する画素に基づき、クラス分類を行い、その結果得られるクラスに対応するクラスコードを発生して、係数発生部24に供給する。   The class code generation unit 32 performs class classification based on the pixels constituting the class tap supplied from the class tap extraction unit 31, generates a class code corresponding to the class obtained as a result, and outputs the class code to the coefficient generation unit 24. Supply.

クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。   As a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.

ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。   In the method using ADRC, the pixel values of the pixels constituting the class tap are subjected to ADRC processing, and the class of the target pixel is determined according to the ADRC code obtained as a result.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。クラスコード発生部32は、例えば、クラスタップをADRC処理して得られるADRCコードを、クラスコードとして発生(出力)する。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX−MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel values constituting the class tap are requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, the pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code. For example, the class code generation unit 32 generates (outputs) an ADRC code obtained by performing ADRC processing on a class tap as a class code.

なお、クラスコード発生部32は、クラス分類を行う方法として、その他、例えば、DCT(Discrete Cosine Transform)、VQ(ベクトル量子化)、DPCM(Differential Pulse Code Modulation:予測符号化)などのデータ圧縮方式を応用し、クラスタップを構成する画素をデータ圧縮した結果のデータ量をクラス分類結果とするなどの方法を用いても良い。   Note that the class code generation unit 32 is a data classification method such as DCT (Discrete Cosine Transform), VQ (Vector Quantization), DPCM (Differential Pulse Code Modulation), etc. , And the data amount obtained as a result of data compression on the pixels constituting the class tap may be used as a class classification result.

係数発生部24は、図26乃至図28を参照して後述する学習によって予め求められたクラスごとの予測係数を記憶している。そして、係数発生部24は、記憶している予測係数のうちの、クラスコード発生部32から供給されるクラスコードに対応するアドレスに記憶されている予測係数(クラスコード発生部32から供給されるクラスコードが表すクラスの予測係数)を、予測演算部25に供給する。   The coefficient generation unit 24 stores a prediction coefficient for each class that is obtained in advance by learning described later with reference to FIGS. 26 to 28. The coefficient generation unit 24 then stores the prediction coefficient stored in the address corresponding to the class code supplied from the class code generation unit 32 among the stored prediction coefficients (supplied from the class code generation unit 32). The prediction coefficient of the class represented by the class code) is supplied to the prediction calculation unit 25.

予測演算部25は、予測タップ抽出部22が出力する予測タップと、係数発生部24が出力する予測係数とを取得し、その予測タップと予測係数とを用いて、注目画素のデモザイク画像の画素値を求める所定の予測演算を行う。ここで得られるデモザイク画像の画素値とは、R、G,Bの全ての色成分の画素信号を表す。   The prediction calculation unit 25 acquires a prediction tap output from the prediction tap extraction unit 22 and a prediction coefficient output from the coefficient generation unit 24, and uses the prediction tap and the prediction coefficient to generate a pixel of the demosaic image of the target pixel. A predetermined prediction calculation for obtaining a value is performed. The pixel value of the demosaic image obtained here represents pixel signals of all the color components of R, G, and B.

[デモザイク処理回路の処理]
次に、図13乃至図24を参照して、従来の処理と比較しつつ、デモザイク処理回路14によるデモザイク画像の画素値の求め方について説明する。
[Processing of demosaic processing circuit]
Next, how to determine the pixel value of the demosaic image by the demosaic processing circuit 14 will be described with reference to FIGS.

従来、撮影された画像に飽和画素が存在し、飽和画素に対する対策(の処理)が入っていない場合には、飽和画素の画素値がそのまま利用されることになる。   Conventionally, in the case where a saturated pixel exists in a captured image and no countermeasure (processing) for the saturated pixel is included, the pixel value of the saturated pixel is used as it is.

例えば、図13に示されるような被写体を撮影する場合について考える。   For example, consider the case of shooting a subject as shown in FIG.

図13左側の図は、被写体を説明する画像であり、被写体は、垂直方向の上側が明るく、下側に行くほど暗い輝度を有している。   The figure on the left side of FIG. 13 is an image for explaining the subject. The subject has a brighter brightness on the upper side in the vertical direction and a darker brightness on the lower side.

図13右側の図は、左側の被写体のラインa上の各位置(垂直方向位置)における被写体の真の輝度値を示している。図13右側の図の縦軸は、ラインa上の垂直方向位置を示し、横軸は、被写体の真の輝度値(明るさ)を示している。   The diagram on the right side of FIG. 13 shows the true luminance value of the subject at each position (vertical direction position) on the line a of the left subject. The vertical axis in the diagram on the right side of FIG. 13 indicates the vertical position on the line a, and the horizontal axis indicates the true luminance value (brightness) of the subject.

被写体の真の輝度値は、ラインa上の垂直方向位置Vbより下側では、イメージセンサ12の長畜画素の飽和レベルSV未満となっているが、ラインa上の垂直方向位置Vb以上では、飽和レベルSV以上の輝度値となっている。   The true luminance value of the subject is lower than the saturation level SV of the long pixel of the image sensor 12 below the vertical position Vb on the line a, but at or above the vertical position Vb on the line a, The luminance value is higher than the saturation level SV.

図13の被写体のラインaが、図14左側に示される、イメージセンサ12の、長畜画素のLG画素と短畜画素のSB画素が交互に配列されたラインa’の5画素で撮影されたとする。   The subject line a in FIG. 13 is captured by five pixels of the line a ′ in which the long pixels LG pixels and the short pixels SB pixels are alternately arranged in the image sensor 12 shown on the left side of FIG. To do.

この場合、図14右側に示されるように、2つのSB画素の画素値は、飽和レベルSV以下の画素値に対して、露光比Nに応じたゲインがかけられることにより、被写体の真の輝度値と等しい値となっている。一方、3つのLG画素の画素値は、飽和レベルSVの値となる。   In this case, as shown on the right side of FIG. 14, the pixel values of the two SB pixels are multiplied by a gain corresponding to the exposure ratio N with respect to the pixel value of the saturation level SV or lower, so that the true luminance of the subject The value is equal to the value. On the other hand, the pixel values of the three LG pixels are values of the saturation level SV.

したがって、飽和画素対策が施されない撮像装置では、LG画素については飽和レベルSVの画素値を出力することになるので、図15Aの実線で示されるように被写体の真の輝度値からずれた画素値が得られる。   Therefore, in an imaging device that does not take measures against saturated pixels, the pixel value of the saturation level SV is output for the LG pixel, so that the pixel value deviated from the true luminance value of the subject as shown by the solid line in FIG. 15A. Is obtained.

これに対して、デモザイク処理回路14は、飽和レベルSVに達したLG画素の画素値は用いずに、短畜画素であるSB画素のゲイン処理後の画素値のみを用いてデモザイク画像を求めるので、図15Bの実線で示されるように、被写体の真の輝度値と一致した、正しい画素値を得ることができる。すなわち、撮像装置1によれば、被写体に対応した正確な画像を出力することができる。   On the other hand, the demosaic processing circuit 14 obtains a demosaic image using only the pixel value after the gain processing of the SB pixel, which is a short pixel, without using the pixel value of the LG pixel that has reached the saturation level SV. As shown by the solid line in FIG. 15B, a correct pixel value that matches the true luminance value of the subject can be obtained. That is, according to the imaging device 1, an accurate image corresponding to the subject can be output.

また、従来、飽和画素対策として、飽和画素の画素値を、その周辺の画素の画素値で補間して求める方法がある。   Conventionally, as a countermeasure against saturated pixels, there is a method of obtaining a pixel value of a saturated pixel by interpolating with pixel values of surrounding pixels.

例えば、図16に示されるように、明部と暗部が、ある境界(エッジ)で急峻に切り替わるような被写体を撮影する場合について考える。図16右側の図は、図16左側の被写体のラインb上の各位置(垂直方向位置)における被写体の真の輝度値を示しており、暗部の真の輝度値がP、明部の真の輝度値がPであるとする。 For example, as shown in FIG. 16, consider a case where a subject in which a bright part and a dark part are sharply switched at a certain boundary (edge) is photographed. The diagram on the right side of FIG. 16 shows the true luminance value of the subject at each position (vertical direction position) on the line b of the subject on the left side of FIG. 16. The true luminance value of the dark portion is P 1 , and the true portion of the bright portion is true. luminance value is assumed to be P 2.

図16の被写体のラインbが、図17左側に示されるように、イメージセンサ12の、長畜画素のLG画素と短畜画素のSB画素が交互に配列されたラインb’の5画素で撮影されたとする。   The line b of the subject in FIG. 16 is photographed by five pixels of the line b ′ in which the LG pixels of the long pixels and the SB pixels of the short pixels are alternately arranged in the image sensor 12, as shown on the left side of FIG. Suppose that

この場合、図17右側に示されるように、2つのSB画素の画素値は、飽和レベルSV以下の画素値に対して、露光比Nに応じたゲインがかけられた画素値となっており、被写体の真の輝度値と等しい値となっている。一方、3つのLG画素の画素値のうち、図中一番下のLG画素の画素値は、飽和レベルSV以下の値であるので、被写体の真の輝度値と一致しているが、図中上側の2つのLG画素の画素値は、真の輝度値が飽和レベルSVより大きい値であるので、飽和レベルSVでクリップされている。   In this case, as shown on the right side of FIG. 17, the pixel values of the two SB pixels are pixel values obtained by multiplying the pixel value below the saturation level SV by a gain according to the exposure ratio N. The value is equal to the true luminance value of the subject. On the other hand, among the three LG pixel values, the pixel value of the bottom LG pixel in the figure is a value equal to or lower than the saturation level SV, and therefore matches the true luminance value of the subject. The pixel values of the upper two LG pixels are clipped at the saturation level SV because the true luminance value is larger than the saturation level SV.

このようにして得られたイメージセンサ12のラインb’における5画素の画素値に対して、従来、飽和レベルSVでクリップされた2つのLG画素の画素値が、その周辺の画素の画素値で補間して求められる。   For the pixel value of 5 pixels in the line b ′ of the image sensor 12 obtained in this way, the pixel values of two LG pixels clipped at the saturation level SV are conventionally the pixel values of the surrounding pixels. Obtained by interpolation.

図18は、飽和レベルSVでクリップされた2つのLG画素の補間後の状態を示している。   FIG. 18 shows a state after interpolation of two LG pixels clipped at the saturation level SV.

図18に示されるように、一番上のLG画素は、明部の画素値Pに修正されるが、上から2番目のLG画素は、明部の画素値Pと、暗部の画素値Pの中間値((P+P)/2)に修正される。その結果、図19に示されるような、エッジ部分が明部と暗部の中間色となり、エッジがぼやけた画像になってしまう。 As shown in FIG. 18, the top LG pixel is corrected to the bright pixel value P 2 , but the second LG pixel from the top is the bright pixel value P 2 and the dark pixel. The value is corrected to an intermediate value ((P 1 + P 2 ) / 2) of the value P 1 . As a result, as shown in FIG. 19, the edge portion becomes an intermediate color between the bright portion and the dark portion, resulting in an image with blurred edges.

ここで、従来においても、上から2番目のLG画素がエッジ上の画素であることを考慮して、明部と暗部の画素値の中間値((P+P)/2)を、明部の画素値Pか、または、暗部の画素値Pのどちらかに切り分ける処理を追加的に行うことが考えられる。 Here, also in the past, considering that the second LG pixel from the top is the pixel on the edge, an intermediate value ((P 1 + P 2 ) / 2) of the pixel values of the bright part and the dark part is set to part of the pixel values P 2, or, it is conceivable to perform processing to isolate either of the dark part of the pixel value P 1 additionally.

しかしながら、明部の画素値Pおよび暗部の画素値P自体もノイズ等によりばらつきがある。そして、補間により求められる2番目のLG画素の画素値は、それらにばらつきによって、図20に示されるように明部側の画素値Pとなる場合や、図21に示されるように暗部側の画素値Pとなる場合がある。その結果、図22に示されるように、最終的に出力される画像は、エッジ部分の画素値が画素ごとに揺れた画像となることがある。 However, there are variations in the pixel values P 2 and dark pixel value P 1 itself noises light portion. Then, the pixel value of the second LG pixel obtained by interpolation becomes a pixel value P 2 on the bright side as shown in FIG. 20 due to variations in them, or on the dark side as shown in FIG. it may become the pixel value P 1. As a result, as shown in FIG. 22, the image that is finally output may be an image in which the pixel value of the edge portion fluctuates for each pixel.

これに対して、デモザイク処理回路14は、飽和レベルSVに達したLG画素の画素値は用いずに、短畜画素であるSB画素のゲイン処理後の画素値のみを用いて各画素の画素値を求める。そのため、図23に示されるように、エッジが画素ごとに揺れることがない。図23の例では、エッジ部分の画素値が、明部側の画素値Pとして出力されている。したがって、デモザイク処理回路14では、図24に示されるように、被写体の真の輝度値と一致した、正しい画素値を得ることができる。すなわち、撮像装置1によれば、被写体に対応した正確な画像を出力することができる。 On the other hand, the demosaic processing circuit 14 does not use the pixel value of the LG pixel that has reached the saturation level SV, but uses only the pixel value after gain processing of the SB pixel, which is a short-lived pixel, for each pixel. Ask for. Therefore, as shown in FIG. 23, the edge does not shake for each pixel. In the example of FIG. 23, the pixel value of the edge portion, is output as the pixel value P 2 of the bright portion. Therefore, the demosaic processing circuit 14 can obtain a correct pixel value that matches the true luminance value of the subject, as shown in FIG. That is, according to the imaging device 1, an accurate image corresponding to the subject can be output.

[予測演算と予測係数の学習について]
次に、デモザイク処理回路14の予測演算部25における予測演算と、その予測演算に用いられる予測係数の学習について説明する。
[Prediction calculation and prediction coefficient learning]
Next, prediction calculation in the prediction calculation unit 25 of the demosaic processing circuit 14 and learning of a prediction coefficient used for the prediction calculation will be described.

いま、飽和画素が補間された画像信号を高画質画像信号とするとともに、その飽和画素がそのまま含まれた画像信号を低画質画像信号として、低画質画像信号から予測タップを抽出し、その予測タップと予測係数を用いて、高画質画像信号の画素(以下、適宜、高画質画素という。)の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, an image signal in which saturated pixels are interpolated is used as a high-quality image signal, and an image signal including the saturated pixels as it is is used as a low-quality image signal, and a prediction tap is extracted from the low-quality image signal. It is assumed that the pixel value of a pixel of a high-quality image signal (hereinafter, appropriately referred to as a high-quality pixel) is obtained (predicted) by a predetermined prediction calculation using the prediction coefficient.

いま、所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。   Assuming that, for example, linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.

Figure 2013162347
Figure 2013162347

但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像信号の画素(以下、適宜、低画質画素という。)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目の予測係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 In Equation (1), x n represents the pixel value of the pixel of the n-th low-quality image signal (hereinafter referred to as “low-quality pixel” as appropriate) that constitutes the prediction tap for the high-quality pixel y. w n represents the n th prediction coefficient to be multiplied by the n th low image quality pixel (its pixel value). In equation (1), the prediction tap is assumed to be composed of N low image quality pixels x 1 , x 2 ,..., X N.

高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   The pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.

Figure 2013162347
Figure 2013162347

いま、式(2)の予測値yk’は、式(1)にしたがって求められるため、式(2)のyk’を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).

Figure 2013162347
Figure 2013162347

但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (3), x n, k represents the nth low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.

式(3)(または式(2))の予測誤差ekを0とする予測係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような予測係数wnを求めることは、一般には困難である。 Prediction coefficient w n of the prediction error e k and 0 of the formula (3) (or Equation (2)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a correct prediction coefficient w n .

そこで、予測係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な予測係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for representing that the prediction coefficient w n is optimal, for example, when adopting the method of least squares, optimal prediction coefficient w n is the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 2013162347
Figure 2013162347

但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high image quality pixel y k and the low image quality pixels x 1, k , x 2, k ,..., X N constituting the prediction tap for the high image quality pixel y k. , k represents the number of samples (the number of learning samples).

式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eを予測係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that the sum E partially differentiated by the prediction coefficient w n by w n to 0.

Figure 2013162347
Figure 2013162347

そこで、上述の式(3)を予測係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (3) by the prediction coefficient w n, the following equation is obtained.

Figure 2013162347
Figure 2013162347

式(5)と式(6)から、次式(7)が得られる。   From the equations (5) and (6), the following equation (7) is obtained.

Figure 2013162347
Figure 2013162347

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).

Figure 2013162347
Figure 2013162347

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、予測係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the prediction coefficient w n.

式(8)の正規方程式をクラスごとにたてて解くことにより、最適な予測係数(ここでは、自乗誤差の総和Eを最小にする予測係数)wnを、クラスごとに求めることができる。 By solving each normal equation class of formula (8), the optimum prediction coefficient (here, a prediction coefficient that minimizes the sum E of square errors) to w n, can be found for each class.

[撮像処理のフローチャート]
図25のフローチャートを参照して、撮像装置1によるデモザイク画像生成処理について説明する。
[Flowchart of imaging processing]
With reference to the flowchart of FIG. 25, the demosaic image generation process by the imaging device 1 will be described.

初めに、ステップS1において、イメージセンサ12は、被写体を撮像する。即ち、イメージセンサ12は、被写体光を受光し、その受光量に応じたアナログの電気信号をデジタルの電気信号に変換して、画像信号としてゲイン調整回路13に供給する。イメージセンサ12では、図6に示したように、画素位置によって長畜画素かまたは短畜画素かが予め決められており、各画素は、長畜画素かまたは短畜画素かに応じて予め決められた露光時間で受光している。   First, in step S1, the image sensor 12 images a subject. That is, the image sensor 12 receives subject light, converts an analog electrical signal corresponding to the received light amount into a digital electrical signal, and supplies the digital electrical signal to the gain adjustment circuit 13 as an image signal. In the image sensor 12, as shown in FIG. 6, whether the pixel is a long pixel or a short pixel is determined in advance depending on the pixel position, and each pixel is determined in advance depending on whether the pixel is a long pixel or a short pixel. Light is received with the specified exposure time.

ステップS2において、ゲイン調整回路13は、短畜画素の画素値に対して、露光比であるN倍のゲインをかけ、短畜画素と長畜画素の信号レベルを合わせる。ゲイン調整後の画像信号は、デモザイク処理回路14に出力される。   In step S <b> 2, the gain adjustment circuit 13 multiplies the pixel value of the short livestock pixel by N times as an exposure ratio to match the signal levels of the short livestock pixel and the long livestock pixel. The image signal after gain adjustment is output to the demosaic processing circuit 14.

ステップS3において、デモザイク処理回路14の飽和画素存在判定部21は、注目画素を設定する。すなわち、飽和画素存在判定部21は、予測演算により求めるデモザイク画像を構成する所定の画素を、予測演算対象の画素として注目する注目画素に設定する。   In step S3, the saturated pixel presence determination unit 21 of the demosaic processing circuit 14 sets a target pixel. That is, the saturated pixel presence determination unit 21 sets a predetermined pixel constituting a demosaic image obtained by prediction calculation as a target pixel to be noted as a prediction calculation target pixel.

ステップS4において、飽和画素存在判定部21は、予測タップおよびクラスタップとなる複数の画素のなかに飽和画素があるか否かを判定する。予測タップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部21は、飽和画素が存在する旨の検出信号を予測タップ抽出部22に供給する。また、クラスタップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部21は、飽和画素が存在する旨の検出信号をクラスタップ抽出部31に供給する。   In step S4, the saturated pixel presence determination unit 21 determines whether there is a saturated pixel among the plurality of pixels that are the prediction tap and the class tap. When a saturated pixel is detected among a plurality of pixels serving as a prediction tap, the saturation pixel presence determination unit 21 supplies a detection signal indicating that a saturation pixel exists to the prediction tap extraction unit 22. When a saturated pixel is detected among a plurality of pixels serving as class taps, the saturated pixel presence determination unit 21 supplies a detection signal indicating that a saturated pixel exists to the class tap extraction unit 31.

ステップS5において、クラスタップ抽出部31は、注目画素に対して設定するクラスタップのなかに飽和画素が存在するか、すなわち、飽和画素が存在した旨の検出信号が飽和画素存在判定部21から供給されたかを判定する。   In step S5, the class tap extraction unit 31 supplies from the saturated pixel presence determination unit 21 a detection signal indicating that a saturated pixel exists in the class tap set for the target pixel, that is, a saturated pixel exists. Determine whether it was done.

ステップS5で、飽和画素が存在しないと判定された場合、処理はステップS6に進み、クラスタップ抽出部31は、注目画素近傍の所定の位置の複数の画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。ここでクラスタップとして抽出される複数の画素には、長畜画素と短畜画素の両方が含まれている。   If it is determined in step S5 that no saturated pixel exists, the process proceeds to step S6, and the class tap extraction unit 31 extracts a plurality of pixels at predetermined positions near the target pixel as class taps, and class codes are obtained. Supply to the generator 32. Here, the plurality of pixels extracted as class taps include both long and short livestock pixels.

一方、ステップS5で、飽和画素が存在すると判定された場合、処理はステップS7に進み、クラスタップ抽出部31は、クラスタップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、長畜画素を除外した短畜画素のみを、クラスタップとして抽出し、クラスコード発生部32に供給する。   On the other hand, if it is determined in step S5 that a saturated pixel exists, the process proceeds to step S7, and the class tap extraction unit 31 selects a class tap as a class tap from a plurality of pixels in a predetermined position near the target pixel of setting. Only the short livestock pixels excluding the long livestock pixels are extracted as class taps and supplied to the class code generating unit 32.

ステップS8において、クラスコード発生部32は、クラスタップ抽出部31から供給されるクラスタップを1ビットADRC処理することによって、注目画素のクラスコードを求め、係数発生部24に供給する。   In step S <b> 8, the class code generation unit 32 performs a 1-bit ADRC process on the class tap supplied from the class tap extraction unit 31 to obtain the class code of the pixel of interest and supplies it to the coefficient generation unit 24.

ステップS9において、係数発生部24は、クラスコード発生部32から供給される注目画素のクラスコードが表すクラスの予測係数を予測演算部25に供給する。   In step S <b> 9, the coefficient generation unit 24 supplies the prediction calculation unit 25 with the prediction coefficient of the class represented by the class code of the target pixel supplied from the class code generation unit 32.

ステップS10において、予測タップ抽出部22は、注目画素に対して設定する予測タップのなかに飽和画素が存在するか、すなわち、飽和画素が存在した旨の検出信号が飽和画素存在判定部21から供給されたかを判定する。   In step S <b> 10, the prediction tap extraction unit 22 supplies, from the saturation pixel presence determination unit 21, a detection signal indicating that a saturation pixel exists in the prediction tap set for the target pixel, that is, a saturation pixel exists. Determine whether it was done.

ステップS10で、飽和画素が存在しないと判定された場合、処理はステップS11に進み、予測タップ抽出部22は、注目画素近傍の所定の位置の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。ここで予測タップとして抽出される複数の画素には、長畜画素と短畜画素の両方が含まれている。   If it is determined in step S10 that no saturated pixel exists, the process proceeds to step S11, and the prediction tap extraction unit 22 extracts a plurality of pixels at a predetermined position near the target pixel as prediction taps, and performs prediction calculation. To the unit 25. The plurality of pixels extracted as prediction taps here include both long and short livestock pixels.

一方、ステップS10で、飽和画素が存在しないと判定された場合、処理はステップS12に進み、予測タップ抽出部22は、予測タップとして予め設定されている注目画素近傍の所定の位置の複数の画素のうち、長畜画素を除外した短畜画素のみを、予測タップとして抽出し、予測演算部25に供給する。   On the other hand, when it is determined in step S10 that no saturated pixel exists, the process proceeds to step S12, and the prediction tap extraction unit 22 sets a plurality of pixels at a predetermined position in the vicinity of the target pixel set in advance as the prediction tap. Among them, only the short livestock pixels excluding the long livestock pixels are extracted as prediction taps and supplied to the prediction calculation unit 25.

ステップS13において、予測演算部25は、予測タップ抽出部22から供給された予測タップと、係数発生部24から供給された予測係数とを用い、式(1)の演算(予測演算)を行うことにより、注目画素の画素値を求める。   In step S <b> 13, the prediction calculation unit 25 performs the calculation (prediction calculation) of Expression (1) using the prediction tap supplied from the prediction tap extraction unit 22 and the prediction coefficient supplied from the coefficient generation unit 24. Thus, the pixel value of the target pixel is obtained.

ステップS14において、予測演算部25は、生成画像としてのデモザイク画像の全画素を注目画素として求めたか否かを判定する。   In step S <b> 14, the prediction calculation unit 25 determines whether all the pixels of the demosaic image as the generated image have been obtained as the target pixel.

ステップS14で、全画素をまだ注目画素としていないと判定された場合、処理がステップS3に戻され、注目画素にまだ設定されていない画素を次の注目画素として、上述したステップS3乃至ステップS14の処理が繰り返される。   If it is determined in step S14 that all the pixels have not yet been set as the target pixel, the process returns to step S3, and a pixel that has not yet been set as the target pixel is set as the next target pixel to perform the above-described steps S3 to S14. The process is repeated.

一方、ステップS14で、全画素を注目画素としたと判定された場合、処理は終了する。   On the other hand, if it is determined in step S14 that all the pixels are the target pixel, the process ends.

以上の処理が、イメージセンサ12で被写体が撮像され、イメージセンサ12からフレーム画像(フィールド画像)の画像信号が出力される度、繰り返し実行される。   The above processing is repeatedly executed whenever a subject is imaged by the image sensor 12 and an image signal of a frame image (field image) is output from the image sensor 12.

[学習装置の構成例]
図26は、式(8)の正規方程式をたてて解くことによりクラスごとの予測係数wnを求める学習を行う学習装置51の構成例を示している。
[Configuration example of learning device]
Figure 26 shows an example of the configuration of a learning apparatus 51 performs learning for obtaining prediction coefficients w n for each class by solving the normal equations in equation (8).

学習装置51の学習用画像信号生成部61は、予測係数wnの学習に用いられる学習用画像信号としての教師データと生徒データを生成する。 Learning image signal generating unit 61 of the learning apparatus 51 generates tutor data and student data serving as learning image signal used for learning of prediction coefficients w n.

図27を参照して、学習用画像信号としての教師データと生徒データの生成について説明する。図27は、学習用画像信号生成部61の詳細構成例を示している。なお、以下の学習用画像信号の生成の説明において、露光比Nは10(長畜画素の露光時間:短畜画素の露光時間=10:1)であるとする。   The generation of teacher data and student data as learning image signals will be described with reference to FIG. FIG. 27 shows a detailed configuration example of the learning image signal generation unit 61. In the following description of the generation of the learning image signal, it is assumed that the exposure ratio N is 10 (exposure time for long lived pixels: exposure time for short lived pixels = 10: 1).

学習用画像信号生成部61は、積算部71、合成部72、ゲイン調整回路73、およびクリップ部74を少なくとも有する。   The learning image signal generation unit 61 includes at least an integration unit 71, a synthesis unit 72, a gain adjustment circuit 73, and a clip unit 74.

初めに、全画素同一露光時間のイメージセンサで所定の被写体を撮影して得られた1枚の画像が積算部71に入力される。積算部71に入力される画像は、これから生成する教師画像と生徒画像のもととなる画像であり、基本画像と称する。   First, one image obtained by photographing a predetermined subject with an image sensor having the same exposure time for all pixels is input to the integrating unit 71. The image input to the accumulating unit 71 is an image that is the basis of a teacher image and a student image to be generated from now on, and is referred to as a basic image.

積算部71は、入力された1枚の基本画像を、露光比Nに応じて積算した画像を生成し、教師画像として出力する。すなわち、積算部71は、基本画像の各画素の画素値を10倍する処理を行い、その結果得られる画像を、教師画像として出力する。   The integrating unit 71 generates an image obtained by integrating the input basic image according to the exposure ratio N, and outputs it as a teacher image. That is, the integrating unit 71 performs a process of multiplying the pixel value of each pixel of the basic image by 10 and outputs the resulting image as a teacher image.

合成部72には、入力された1枚の基本画像と、積算部71で生成された教師画像が供給される。合成部72は、予測演算を行う撮像装置1のイメージセンサ12の長畜画素及び短畜画素の位置に対応するように、基本画像の画素値、または、教師画像の画素値を選択して、合成した合成画像を生成する。すなわち、合成部72は、イメージセンサ12の長畜画素の位置の画素値には、教師画像の対応する位置の画素値を選択し、イメージセンサ12の短畜画素の位置の画素値には、基本画像の対応する位置の画素値を選択した画像を、合成画像として生成する。生成した合成画像は、ゲイン調整回路73に供給される。   The composition unit 72 is supplied with one input basic image and the teacher image generated by the integration unit 71. The combining unit 72 selects the pixel value of the basic image or the pixel value of the teacher image so as to correspond to the positions of the long pixel and the short pixel of the image sensor 12 of the imaging device 1 that performs the prediction calculation, A synthesized composite image is generated. That is, the combining unit 72 selects the pixel value at the position corresponding to the teacher image as the pixel value at the position of the long pixel of the image sensor 12, and the pixel value at the position of the short pixel of the image sensor 12 as An image in which pixel values at corresponding positions in the basic image are selected is generated as a composite image. The generated composite image is supplied to the gain adjustment circuit 73.

ゲイン調整回路73は、図5の撮像装置1において短畜画素と長畜画素の信号レベルを合わせるため短畜画素の画素値にゲインがかけられるのと同様に、短畜画素の位置の画素値に、露光比Nのゲインをかける処理を実行する。   The gain adjustment circuit 73 is similar to the case where the gain is applied to the pixel value of the short livestock pixel in order to match the signal level of the short livestock pixel and the long livestock pixel in the imaging apparatus 1 of FIG. Then, a process of multiplying the exposure ratio N gain is executed.

クリップ部74は、ゲイン調整回路73から供給される、ゲイン処理後の合成画像の所定の1以上の長畜画素の画素値を、予め設定した飽和レベルでクリップさせる。飽和レベルでクリップされた長畜画素は、撮像装置1のイメージセンサ12で撮影した場合の飽和画素に対応する。したがって、以下では、合成画像の飽和レベルでクリップされた画素も、飽和画素と呼ぶことにする。クリップ部74は、クリップ処理後の画像を、生徒画像として出力する。   The clip unit 74 causes the pixel value of one or more predetermined long pixels of the composite image after gain processing supplied from the gain adjustment circuit 73 to be clipped at a preset saturation level. The long-lived pixels clipped at the saturation level correspond to saturated pixels when the image sensor 12 of the imaging device 1 captures an image. Therefore, hereinafter, a pixel clipped at the saturation level of the composite image is also referred to as a saturation pixel. The clip unit 74 outputs the clip-processed image as a student image.

クリップ部74の後段には、クリップ部74で生成された生徒画像に、ランダムノイズを付加する処理、撮像装置1に特有の画像ボケや歪みを付加する処理などを行う付加処理部75を設けることができる。   An additional processing unit 75 that performs processing for adding random noise to the student image generated by the clip unit 74, processing for adding image blur and distortion peculiar to the imaging device 1, and the like is provided at the subsequent stage of the clip unit 74. Can do.

学習用画像信号生成部61は、被写体を変える、クリップさせる画素位置を変える、などして、多数の教師画像と生徒画像の組を生成する。生成された多数の教師画像が、教師データとして教師データ記憶部62に記憶され、生成された多数の生徒画像が、生徒データとして生徒データ記憶部63に記憶される。   The learning image signal generation unit 61 generates a large number of sets of teacher images and student images by changing a subject or changing a pixel position to be clipped. A large number of generated teacher images are stored as teacher data in the teacher data storage unit 62, and a large number of generated student images are stored as student data in the student data storage unit 63.

図26の教師データ記憶部62は、教師データを記憶する。教師データ記憶部62に記憶されている教師画像を構成する画素が、順次、注目教師画素とされる。生徒データ記憶部63は、生徒データを記憶する。   The teacher data storage unit 62 in FIG. 26 stores teacher data. The pixels constituting the teacher image stored in the teacher data storage unit 62 are sequentially set as the target teacher pixel. The student data storage unit 63 stores student data.

飽和画素存在判定部64は、図9の飽和画素存在判定部21と同様の飽和画素の存在判定を行う。すなわち、飽和画素存在判定部64は、注目教師画素に対して設定される予測タップとクラスタップの画素に、飽和画素が存在するか否かを判定し、判定結果を、予測タップ抽出部65とクラスタップ抽出部66に出力する。   The saturated pixel presence determination unit 64 performs the presence determination of the saturated pixel similar to the saturated pixel presence determination unit 21 in FIG. That is, the saturated pixel presence determination unit 64 determines whether or not there is a saturated pixel in the prediction tap and class tap pixels set for the teacher pixel of interest, and the determination result is compared with the prediction tap extraction unit 65. The data is output to the class tap extraction unit 66.

予測タップ抽出部65は、生徒データ記憶部63から供給される、注目教師画素に対応する生徒画像の画素近傍の複数の画素を、予測タップとして抽出し、足し込み部68に供給する。ここで、予測タップ抽出部65が抽出する予測タップの位置は、図9の予測タップ抽出部22が抽出する予測タップの位置と同一の位置である。また、予測タップ抽出部65は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給された場合には、図9の予測タップ抽出部22と同様に、短畜画素に対応する位置の複数の画素のみを抽出する。   The prediction tap extraction unit 65 extracts a plurality of pixels in the vicinity of the pixel of the student image corresponding to the teacher pixel of interest supplied from the student data storage unit 63 as a prediction tap and supplies the extracted pixel to the addition unit 68. Here, the position of the prediction tap extracted by the prediction tap extraction unit 65 is the same position as the position of the prediction tap extracted by the prediction tap extraction unit 22 of FIG. Further, when a detection signal indicating that a saturated pixel is present is supplied from the saturated pixel presence determination unit 64, the prediction tap extraction unit 65 applies a short pixel to the short-lived pixel as in the prediction tap extraction unit 22 of FIG. Only a plurality of pixels at corresponding positions are extracted.

クラスタップ抽出部66は、生徒データ記憶部63から供給される、注目教師画素に対応する生徒画像の画素近傍の複数の画素を、クラスタップとして抽出し、クラスコード発生部67に供給する。ここで、クラスタップ抽出部66が抽出するクラスタップの位置は、図9のクラスタップ抽出部31が抽出するクラスタップの位置と同一の位置である。また、クラスタップ抽出部66は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給された場合には、図9のクラスタップ抽出部31と同様に、短畜画素に対応する位置の複数の画素のみを抽出する。   The class tap extraction unit 66 extracts a plurality of pixels in the vicinity of the pixel of the student image corresponding to the teacher image of interest supplied from the student data storage unit 63 as class taps and supplies the class tap to the class code generation unit 67. Here, the position of the class tap extracted by the class tap extraction unit 66 is the same position as the position of the class tap extracted by the class tap extraction unit 31 of FIG. Further, when a detection signal indicating that a saturated pixel exists is supplied from the saturated pixel presence determination unit 64, the class tap extraction unit 66 converts the short tap pixel into a short live pixel as in the class tap extraction unit 31 of FIG. Only a plurality of pixels at corresponding positions are extracted.

クラスコード発生部67は、クラスタップ抽出部66が出力するクラスタップに基づき、図9のクラスコード発生部32と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部68に出力する。   The class code generation unit 67 performs the same class classification as the class code generation unit 32 of FIG. 9 based on the class tap output from the class tap extraction unit 66, and adds the class code corresponding to the resulting class. To the unit 68.

足し込み部68は、教師データ記憶部62から、注目教師画素を読み出し、その注目教師画素と、予測タップ抽出部65から供給される、注目教師画素について構成された予測タップを構成する生徒データとを対象とした足し込みを、クラスコード発生部67から供給されるクラスコードごとに行う。   The adding unit 68 reads the target teacher pixel from the teacher data storage unit 62, the target teacher pixel, and the student data constituting the prediction tap configured for the target teacher pixel supplied from the prediction tap extraction unit 65 Is added for each class code supplied from the class code generation unit 67.

即ち、足し込み部68には、教師データ記憶部62に記憶された教師データyk、予測タップ抽出部65が出力する予測タップxn,k、クラスコード発生部67が出力するクラスコードが供給される。 That is, the adder 68 is supplied with the teacher data y k stored in the teacher data storage 62, the prediction tap x n, k output from the prediction tap extractor 65, and the class code output from the class code generator 67. Is done.

そして、足し込み部68は、クラスコード発生部67から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 68 uses the prediction tap (student data) x n, k for each class corresponding to the class code supplied from the class code generating unit 67 , and uses the student data in the matrix on the left side of equation (8). An operation corresponding to multiplication (x n, k x n ′, k ) and summation (Σ) is performed.

さらに、足し込み部68は、やはり、クラスコード発生部67から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Further, the adding unit 68 also uses the prediction tap (student data) x n, k and the teacher data y k for each class corresponding to the class code supplied from the class code generating unit 67, and the equation (8). Is multiplied by the student data x n, k and the teacher data y k (x n, k y k ) in the vector on the right side of , and an operation corresponding to summation (Σ) is performed.

即ち、足し込み部68は、前回、注目教師画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目教師画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 That is, the adding unit 68 performs the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component in Equation (8) previously obtained for the teacher data set as the target teacher pixel. (Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y) k ), the corresponding component x n, k + 1 calculated using the teacher data y k + 1 and the student data x n, k + 1 for the teacher data newly selected as the teacher pixel of interest. x n ′, k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of Expression (8) is performed).

そして、足し込み部68は、教師データ記憶部62に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、予測係数算出部69に供給する。   Then, the addition unit 68 performs the above-described addition using all the teacher data stored in the teacher data storage unit 62 as the target teacher pixel, thereby obtaining the normal equation shown in Expression (8) for each class. Then, the normal equation is supplied to the prediction coefficient calculation unit 69.

予測係数算出部69は、足し込み部68から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適な予測係数wnを求めて出力する。 Prediction coefficient calculation unit 69 solves the normal equations for each class supplied from the adder 68, for each class, and outputs the determined optimal prediction coefficients w n.

図9のデモザイク処理回路14の係数発生部24には、以上のようにして求められたクラスごとの予測係数wmが記憶されている。 The coefficient generation unit 24 of the demosaic processing circuit 14 in FIG. 9 stores the prediction coefficient w m for each class obtained as described above.

なお、上述の場合には、教師画像が、飽和画素が存在しない画像、生徒画像が、長畜画素に対応する所定の画素の画素値が所定の飽和レベルでクリップされた画像とされている。これにより、学習装置51で生成される予測係数としては、撮像装置1による撮影において、イメージセンサ12の長畜画素が飽和していた場合であっても、短畜画素のみを用いて適切に補間した画素値を生成するものを得ることができる。   In the above case, the teacher image is an image in which no saturated pixel exists, and the student image is an image in which the pixel value of a predetermined pixel corresponding to the long-lived pixel is clipped at a predetermined saturation level. Thereby, as a prediction coefficient produced | generated by the learning apparatus 51, even if it is a case where the long livestock pixel of the image sensor 12 was saturated in imaging | photography by the imaging device 1, it interpolates appropriately using only the short livestock pixel To generate a pixel value obtained.

さらに、図27の学習用画像信号生成部61において、ランダムノイズを付加する付加処理部75が追加された構成とされている場合には、飽和画素を適切に補間し、かつ、ランダムノイズを除去(低減)した画素値を生成する予測係数を生成することができる。   Further, in the case of the learning image signal generation unit 61 in FIG. 27, when an addition processing unit 75 for adding random noise is added, saturated pixels are appropriately interpolated and random noise is removed. A prediction coefficient for generating a (reduced) pixel value can be generated.

また、図27の学習用画像信号生成部61において、撮像装置1に特有の画像ボケや歪みを付加する処理などを行う付加処理部75が追加された構成とされている場合には、飽和画素を適切に補間し、かつ、画像ボケや歪みを除去(低減)した画素値を生成する予測係数を生成することができる。   In addition, in the learning image signal generation unit 61 in FIG. 27, when an additional processing unit 75 that performs processing such as adding image blur and distortion peculiar to the imaging device 1 is added, Can be appropriately interpolated, and a prediction coefficient for generating a pixel value from which image blur and distortion are removed (reduced) can be generated.

[学習処理のフローチャート]
次に、図28のフローチャートを参照して、学習装置51の学習処理について説明する。
[Flowchart of learning process]
Next, the learning process of the learning device 51 will be described with reference to the flowchart of FIG.

最初に、ステップS41において、学習用画像信号生成部61は、学習用画像信号としての教師データと生徒データを生成し、生成した教師データを教師データ記憶部62に、生成した生徒データを生徒データ記憶部63にそれぞれ記憶させる。   First, in step S41, the learning image signal generation unit 61 generates teacher data and student data as learning image signals, the generated teacher data is stored in the teacher data storage unit 62, and the generated student data is stored as student data. It memorize | stores in the memory | storage part 63, respectively.

ステップS42において、予測タップ抽出部65は、教師データ記憶部62に記憶された教師データのうち、まだ、注目教師画素としていないものを、注目教師画素とする。   In step S <b> 42, the prediction tap extraction unit 65 sets the teacher data stored in the teacher data storage unit 62 as notable teacher pixels that have not yet been noted teacher pixels.

ステップS43において、飽和画素存在判定部64は、注目教師画素に対応して予測タップおよびクラスタップとする生徒データの画素のなかに、飽和画素が存在するか否かを検出する。飽和画素存在判定部64は、予測タップとなる画素に飽和画素が存在する場合には、検出信号を予測タップ抽出部65に供給し、クラスタップとなる画素に飽和画素が存在する場合には、検出信号をクラスタップ抽出部66に供給する。   In step S43, the saturated pixel presence determination unit 64 detects whether there is a saturated pixel among the student data pixels that are the prediction tap and the class tap corresponding to the teacher pixel of interest. The saturated pixel presence determination unit 64 supplies a detection signal to the prediction tap extraction unit 65 when a saturated pixel exists in a pixel that becomes a prediction tap, and when a saturated pixel exists in a pixel that becomes a class tap, The detection signal is supplied to the class tap extraction unit 66.

ステップS44において、予測タップ抽出部65は、注目教師画素について、生徒データ記憶部63に記憶された生徒データから予測タップを抽出し、足し込み部68に供給する。ここで、予測タップ抽出部65は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給されている場合には、長畜画素を除いた短畜画素のみを用いて予測タップを構成する。   In step S <b> 44, the prediction tap extraction unit 65 extracts a prediction tap from the student data stored in the student data storage unit 63 for the teacher pixel of interest and supplies the prediction tap to the adding unit 68. Here, when the detection signal indicating that a saturated pixel exists is supplied from the saturated pixel presence determination unit 64, the prediction tap extraction unit 65 performs prediction using only the short livestock pixels excluding the long livestock pixels. Configure taps.

ステップS45において、クラスタップ抽出部66は、注目教師画素について、生徒データ記憶部63に記憶された生徒データからクラスタップを抽出し、クラスコード発生部67に供給する。ここで、クラスタップ抽出部66は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給されている場合には、長畜画素を除いた短畜画素のみを用いてクラスタップを構成する。   In step S <b> 45, the class tap extraction unit 66 extracts the class tap from the student data stored in the student data storage unit 63 for the teacher pixel of interest and supplies the class tap to the class code generation unit 67. Here, when a detection signal indicating that a saturated pixel is present is supplied from the saturated pixel presence determining unit 64, the class tap extracting unit 66 uses only the short lived pixels excluding the long lived pixels. Configure taps.

そして、ステップS46において、クラスコード発生部67は、注目教師画素についてのクラスタップに基づき、注目教師画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部68に出力する。   In step S46, the class code generator 67 classifies the focused teacher pixel based on the class tap for the focused teacher pixel, and outputs the class code corresponding to the resulting class to the adding unit 68. To do.

ステップS47において、足し込み部68は、教師データ記憶部62から、注目教師画素を読み出し、その注目教師画素と、予測タップ抽出部65から供給される注目教師画素について構成された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラスコード発生部67から供給されるクラスコード(クラス)ごとに行う。   In step S <b> 47, the adding unit 68 reads the target teacher pixel from the teacher data storage unit 62, and configures the prediction tap configured for the target teacher pixel and the target teacher pixel supplied from the prediction tap extraction unit 65. The addition of the equation (8) for the student data is performed for each class code (class) supplied from the class code generation unit 67.

ステップS48において、予測タップ抽出部65は、教師データ記憶部62に、まだ注目教師画素としていない教師データが記憶されているかどうかを判定する。ステップS48で、注目教師画素としていない教師データが、教師データ記憶部62にまだ記憶されていると判定された場合、処理はステップS42に戻り、予測タップ抽出部65は、まだ注目教師画素としていない教師データを、新たに注目教師画素として、以下、同様の処理が繰り返される。   In step S <b> 48, the prediction tap extraction unit 65 determines whether teacher data that has not yet been focused on as a teacher pixel is stored in the teacher data storage unit 62. If it is determined in step S48 that the teacher data that is not the attention teacher pixel is still stored in the teacher data storage unit 62, the process returns to step S42, and the prediction tap extraction unit 65 has not yet selected the teacher data. Hereinafter, the same processing is repeated with the teacher data as a new focused teacher pixel.

一方、ステップS48で、注目教師画素としていない教師データが、教師データ記憶部62に記憶されていないと判定された場合、処理はステップS49に進む。ステップS49おいて、足し込み部68は、いままでの処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、予測係数算出部69に供給する。   On the other hand, if it is determined in step S48 that the teacher data that is not the attention teacher pixel is not stored in the teacher data storage unit 62, the process proceeds to step S49. In step S49, the adding unit 68 supplies the matrix on the left side and the vector on the right side in Equation (8) for each class obtained by the processing so far to the prediction coefficient calculating unit 69.

また、ステップS49では、予測係数算出部69は、足し込み部68から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに予測係数wnを求めて、処理を終了する。 In step S49, the prediction coefficient calculation unit 69 solves the normal equation for each class constituted by the matrix on the left side and the vector on the right side in the equation (8) for each class supplied from the addition unit 68, seeking a prediction coefficient w n for each class, the process is terminated.

以上の学習処理が学習装置51で実行されることにより、図9のデモザイク処理回路14の係数発生部24に記憶されるクラスごとの予測係数が求められる。   When the learning process described above is executed by the learning device 51, the prediction coefficient for each class stored in the coefficient generation unit 24 of the demosaic processing circuit 14 in FIG. 9 is obtained.

なお、学習用画像信号の数が十分でないこと等に起因して、予測係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、予測係数算出部69は、例えば、デフォルトの予測係数を出力するようになっている。   It should be noted that due to the number of learning image signals being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining a prediction coefficient cannot be obtained. For example, the prediction coefficient calculation unit 69 outputs a default prediction coefficient.

<2.第2の実施の形態>
次に、本技術を適用した撮像装置の第2の実施の形態について説明する。
<2. Second Embodiment>
Next, a second embodiment of an imaging apparatus to which the present technology is applied will be described.

撮像装置1の第2の実施の形態は、図5の撮像装置1に対してデモザイク処理回路14の構成のみが異なる。そこで、第2の実施の形態のデモザイク処理回路14の構成について説明する。以下では、第1の実施の形態のデモザイク処理回路14を、デモザイク処理回路14の第1の構成と称し、第2の実施の形態のデモザイク処理回路14を、デモザイク処理回路14の第2の構成と称する。   The second embodiment of the imaging apparatus 1 differs from the imaging apparatus 1 of FIG. 5 only in the configuration of the demosaic processing circuit 14. Therefore, the configuration of the demosaic processing circuit 14 of the second embodiment will be described. Hereinafter, the demosaic processing circuit 14 of the first embodiment is referred to as a first configuration of the demosaic processing circuit 14, and the demosaic processing circuit 14 of the second embodiment is referred to as a second configuration of the demosaic processing circuit 14. Called.

[デモザイク処理回路の構成例]
図29は、デモザイク処理回路14の第2の構成を示すブロック図である。
[Configuration example of demosaic processing circuit]
FIG. 29 is a block diagram showing a second configuration of the demosaic processing circuit 14.

図29のデモザイク処理回路14は、上述したデモザイク処理回路14の第1の構成と比較すると、飽和画素存在判定部81、予測タップ抽出部82、および、クラスタップ抽出部83が異なる。図29のデモザイク処理回路14のうち、第1の構成と同一部分についての説明は適宜省略する。   The demosaic processing circuit 14 in FIG. 29 differs from the above-described first configuration of the demosaic processing circuit 14 in a saturated pixel presence determination unit 81, a prediction tap extraction unit 82, and a class tap extraction unit 83. In the demosaic processing circuit 14 of FIG. 29, the description of the same part as the first configuration will be omitted as appropriate.

上述した第1の構成の飽和画素存在判定部21は、注目画素に対して予測タップおよびクラスタップとなる画素に、飽和画素が存在するか否かを判定し、判定結果を出力する。   The saturated pixel presence determination unit 21 having the first configuration described above determines whether or not a saturated pixel exists in a pixel serving as a prediction tap and a class tap with respect to the target pixel, and outputs a determination result.

図29の第2の構成では、飽和画素存在判定部81は、注目画素に対して予測タップおよびクラスタップとなる画素に、飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報を出力する。   In the second configuration of FIG. 29, the saturated pixel presence determination unit 81 determines whether a saturated pixel exists in a pixel that is a prediction tap and a class tap with respect to the target pixel, and determines that a saturated pixel exists. If so, saturated pixel position information indicating the position of the saturated pixel is output.

すなわち、飽和画素存在判定部81は、予測タップ抽出部82で予測タップとして抽出される複数の画素に飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報を予測タップ抽出部82に出力する。また、飽和画素存在判定部81は、クラスタップとして抽出される複数の画素のいずれかに飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報をクラスタップ抽出部83に出力する。   That is, the saturated pixel presence determination unit 81 determines whether or not there is a saturated pixel in a plurality of pixels extracted as prediction taps by the prediction tap extraction unit 82. Saturated pixel position information indicating the pixel position is output to the prediction tap extraction unit 82. Further, the saturated pixel presence determination unit 81 determines whether or not a saturated pixel exists in any of the plurality of pixels extracted as the class tap, and when it is determined that the saturated pixel exists, the position of the saturated pixel Is output to the class tap extraction unit 83.

飽和画素位置情報は、例えば、予測タップまたはクラスタップとされる(予定の)複数の画素を、所定の順番(例えば、ラスター走査の順番)に、飽和画素を「1」、非飽和画素を「0」として表した情報とすることができる。また、「1」または「0」が画素数だけ連続する飽和画素位置情報に対して、DPCM(予測符号化)などのデータ圧縮技術を使用すれば、さらに、データ量を削減して、予測タップ抽出部82およびクラスタップ抽出部83に提供することができる。   The saturated pixel position information includes, for example, a plurality of (scheduled) pixels to be predicted taps or class taps in a predetermined order (for example, raster scanning order), saturated pixels “1”, and unsaturated pixels “ Information represented as “0” can be used. In addition, if a data compression technique such as DPCM (predictive coding) is used for saturated pixel position information in which “1” or “0” continues for the number of pixels, the amount of data can be further reduced and prediction taps can be made. The data can be provided to the extraction unit 82 and the class tap extraction unit 83.

予測タップ抽出部82は、第1の構成の予測タップ抽出部22と同様に、予測するデモザイク画像の注目画素の画素値を予測するのに用いる、モザイク画像を構成する画素(の画素値)を、予測タップとして抽出し、予測演算部25に供給する。   Similar to the prediction tap extraction unit 22 having the first configuration, the prediction tap extraction unit 82 determines pixels (pixel values) constituting the mosaic image used to predict the pixel value of the target pixel of the demosaic image to be predicted. , Extracted as a prediction tap, and supplied to the prediction calculation unit 25.

具体的には、予測タップ抽出部82は、飽和画素存在判定部81から飽和画素が存在しないことを示す飽和画素位置情報が供給された場合、モザイク画像の注目画素近傍の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。この場合、予測タップとして抽出される複数の画素は、第1の構成の予測タップ抽出部22と同一となる。   Specifically, when the saturated pixel position information indicating that no saturated pixel exists is supplied from the saturated pixel presence determination unit 81, the prediction tap extraction unit 82 predicts a plurality of pixels near the target pixel of the mosaic image. This is extracted as a tap and supplied to the prediction calculation unit 25. In this case, the plurality of pixels extracted as prediction taps are the same as the prediction tap extraction unit 22 of the first configuration.

一方、飽和画素存在判定部81から飽和画素が存在していることを示す飽和画素位置情報が供給された場合、予測タップ抽出部82は、モザイク画像の注目画素近傍の複数の画素のうち、飽和画素位置情報で飽和画素と示された画素を除いた画素を、予測タップとして抽出し、予測演算部25に供給する。   On the other hand, when saturated pixel position information indicating that a saturated pixel exists is supplied from the saturated pixel presence determination unit 81, the prediction tap extraction unit 82 selects a saturated pixel from a plurality of pixels near the target pixel of the mosaic image. Pixels excluding the pixels indicated as saturated pixels in the pixel position information are extracted as prediction taps and supplied to the prediction calculation unit 25.

クラスタップ抽出部83は、第1の構成のクラスタップ抽出部31と同様に、注目画素のクラス分類を行うのに用いるモザイク画像の複数の画素を、クラスタップとして抽出する。飽和画素存在判定部81から飽和画素が存在しないことを示す飽和画素位置情報が供給された場合、クラスタップ抽出部83は、注目画素に対応するモザイク画像の画素に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、クラスタップとして抽出する。この場合、クラスタップとして抽出される複数の画素は、第1の構成のクラスタップ抽出部31と同一となる。   Similar to the class tap extraction unit 31 having the first configuration, the class tap extraction unit 83 extracts a plurality of pixels of the mosaic image used for classifying the target pixel as class taps. When saturated pixel position information indicating that no saturated pixel exists is supplied from the saturated pixel presence determination unit 81, the class tap extraction unit 83 is a spatially close position to the pixel of the mosaic image corresponding to the target pixel. A plurality of pixels of the mosaic image in the vicinity are extracted as class taps. In this case, the plurality of pixels extracted as class taps are the same as the class tap extraction unit 31 of the first configuration.

一方、飽和画素存在判定部81から飽和画素が存在していることを示す飽和画素位置情報が供給された場合、クラスタップ抽出部83は、クラスタップとして抽出するモザイク画像の複数の画素のうち、飽和画素位置情報で飽和画素と示された画素を除いた画素を、クラスタップとして抽出する。   On the other hand, when the saturated pixel position information indicating that a saturated pixel exists is supplied from the saturated pixel presence determination unit 81, the class tap extraction unit 83, among a plurality of pixels of the mosaic image to be extracted as a class tap, Pixels excluding the pixels indicated as saturated pixels in the saturated pixel position information are extracted as class taps.

図10を参照して説明したクラスタップ及び予測タップの例で、予測タップ抽出部82とクラスタップ抽出部83の動作について説明する。   The operations of the prediction tap extraction unit 82 and the class tap extraction unit 83 will be described using the example of the class tap and the prediction tap described with reference to FIG.

クラスタップの抽出対象画素として、図10Aに示される画素が、予測タップの抽出対象画素として、図10Bに示される画素が、それぞれ決められている。また、そのうち、図11に示される、一番上の行の最も左側の画素と、それから右方向に2画素移動した画素の2つが飽和画素として検出され、その飽和画素位置情報が予測タップ抽出部82およびクラスタップ抽出部83に供給されたとする。   The pixel shown in FIG. 10A is determined as the class tap extraction target pixel, and the pixel shown in FIG. 10B is determined as the prediction tap extraction target pixel. Of these, two pixels, the leftmost pixel in the top row and the pixel moved two pixels to the right from the uppermost row shown in FIG. 11, are detected as saturated pixels, and the saturated pixel position information is the prediction tap extraction unit. 82 and the class tap extraction unit 83.

この場合、クラスタップと予測タップは、図30に示されるようになる。図30Aは、クラスタップ抽出部83により抽出されるクラスタップの例を示しており、図30Bは、予測タップ抽出部82により抽出される予測タップの例を示している。   In this case, the class tap and the prediction tap are as shown in FIG. FIG. 30A shows an example of class taps extracted by the class tap extraction unit 83, and FIG. 30B shows an example of prediction taps extracted by the prediction tap extraction unit 82.

クラスタップ抽出部83では、図12Aと比較して明らかなように、飽和画素ではないLG画素も、クラスタップとして抽出される。予測タップ抽出部82でも同様に、図12Bと比較して明らかなように、飽和画素ではないLG画素も、予測タップとして抽出される。   As apparent from the comparison with FIG. 12A, the class tap extraction unit 83 also extracts LG pixels that are not saturated pixels as class taps. Similarly, in the prediction tap extraction unit 82, LG pixels that are not saturated pixels are also extracted as prediction taps, as is clear as compared with FIG. 12B.

係数発生部24には、第1の実施の形態と同様に、学習装置51の学習処理により得られたクラスごとの予測係数が記憶される。ただし、第2の実施の形態のための学習処理では、飽和画素の検出、クラスタップの抽出、および予測タップの抽出が、飽和画素存在判定部81、予測タップ抽出部82、およびクラスタップ抽出部83と同様に行われる点が第1の実施の形態のための学習処理と異なる。   Similar to the first embodiment, the coefficient generation unit 24 stores the prediction coefficient for each class obtained by the learning process of the learning device 51. However, in the learning process for the second embodiment, saturated pixel detection, class tap extraction, and prediction tap extraction are performed by a saturated pixel presence determination unit 81, a prediction tap extraction unit 82, and a class tap extraction unit. This is different from the learning process for the first embodiment in that it is performed in the same manner as 83.

なお、本実施の形態では、飽和画素位置情報が予測タップ抽出部82に供給され、予測タップ抽出部82が、飽和画素の画素値を予測演算部25に出力しないことにより、予測演算部25では、式(1)の予測演算の飽和画素部分が省略される。しかし、飽和画素位置情報が予測演算部25に供給されるようにして、予測演算部25が、式(1)の予測演算の飽和画素部分の予測係数を「0」に置き換えるなどして省略するようにしてもよい。この場合、予測タップ抽出部82は、飽和画素が存在するか否かに関わらず、注目画素に対する所定位置の複数画素の画素値を常に予測演算部25に出力することになる。   In the present embodiment, saturation pixel position information is supplied to the prediction tap extraction unit 82, and the prediction tap extraction unit 82 does not output the pixel value of the saturated pixel to the prediction calculation unit 25. , The saturated pixel portion of the prediction calculation of equation (1) is omitted. However, the prediction calculation unit 25 is omitted by replacing the prediction coefficient of the saturated pixel portion of the prediction calculation of Expression (1) with “0” so that the saturated pixel position information is supplied to the prediction calculation unit 25. You may do it. In this case, the prediction tap extraction unit 82 always outputs the pixel values of a plurality of pixels at a predetermined position with respect to the target pixel to the prediction calculation unit 25 regardless of whether there is a saturated pixel.

[撮像処理のフローチャート]
図31のフローチャートを参照して、第2の実施の形態におけるデモザイク画像生成処理について説明する。
[Flowchart of imaging processing]
A demosaic image generation process according to the second embodiment will be described with reference to the flowchart of FIG.

ステップS61乃至S63は、上述した図25のステップS1乃至S3と同様であるので、その説明は省略する。   Steps S61 to S63 are the same as steps S1 to S3 in FIG.

ステップS64において、飽和画素存在判定部81は、予測タップおよびクラスタップとなる複数の画素のなかに飽和画素があるか否かを判定する。予測タップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部81は、飽和画素の位置を示す飽和画素位置情報を予測タップ抽出部82に供給する。また、クラスタップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部81は、飽和画素の位置を示す飽和画素位置情報をクラスタップ抽出部83に供給する。   In step S64, the saturated pixel presence determination unit 81 determines whether there is a saturated pixel among the plurality of pixels that are the prediction tap and the class tap. When a saturated pixel is detected among a plurality of pixels serving as a prediction tap, the saturated pixel presence determination unit 81 supplies saturated pixel position information indicating the position of the saturation pixel to the prediction tap extraction unit 82. When a saturated pixel is detected among a plurality of pixels serving as class taps, the saturated pixel presence determining unit 81 supplies saturated pixel position information indicating the position of the saturated pixel to the class tap extracting unit 83.

ステップS65において、クラスタップ抽出部83は、注目画素に対して設定するクラスタップのなかに飽和画素が存在するか、すなわち、飽和画素の存在を示す飽和画素位置情報が飽和画素存在判定部81から供給されたかを判定する。   In step S65, the class tap extraction unit 83 determines whether there is a saturated pixel in the class tap set for the target pixel, that is, saturated pixel position information indicating the presence of the saturated pixel is received from the saturated pixel presence determination unit 81. Determine if it was supplied.

ステップS65で、飽和画素が存在しないと判定された場合、処理はステップS66に進み、クラスタップ抽出部83は、注目画素近傍の所定の位置の複数の画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。   If it is determined in step S65 that no saturated pixel exists, the process proceeds to step S66, and the class tap extraction unit 83 extracts a plurality of pixels at predetermined positions near the target pixel as class taps, and class codes are obtained. Supply to the generator 32.

一方、ステップS65で、飽和画素が存在すると判定された場合、処理はステップS67に進む。ステップS67では、クラスタップ抽出部83は、クラスタップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、飽和画素を除いた画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。   On the other hand, if it is determined in step S65 that a saturated pixel exists, the process proceeds to step S67. In step S67, the class tap extraction unit 83 extracts, from the plurality of pixels at predetermined positions near the target pixel to be set as the class tap, the pixel excluding the saturated pixel as the class tap, and the class code generation unit 32. To supply.

次のステップS68およびS69では、図25のステップS8およびS9と同様に、クラスコード発生部32が注目画素のクラスコードを求め、係数発生部24が、クラスコードに対応する予測係数を予測演算部25に供給する。   In the next steps S68 and S69, as in steps S8 and S9 of FIG. 25, the class code generation unit 32 obtains the class code of the pixel of interest, and the coefficient generation unit 24 calculates the prediction coefficient corresponding to the class code. 25.

ステップS70において、予測タップ抽出部82は、注目画素に対して設定する予測タップのなかに飽和画素が存在するか、すなわち、飽和画素の存在を示す飽和画素位置情報が飽和画素存在判定部81から供給されたかを判定する。   In step S <b> 70, the prediction tap extraction unit 82 determines whether saturated pixel exists in the prediction tap set for the target pixel, that is, saturated pixel position information indicating the presence of the saturated pixel is received from the saturated pixel presence determination unit 81. Determine if it was supplied.

ステップS70で、飽和画素が存在しないと判定された場合、処理はステップS71に進み、予測タップ抽出部82は、注目画素近傍の所定の位置の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。   If it is determined in step S70 that no saturated pixel exists, the process proceeds to step S71, and the prediction tap extraction unit 82 extracts a plurality of pixels at a predetermined position near the target pixel as prediction taps, and performs prediction calculation. To the unit 25.

一方、ステップS70で、飽和画素が存在しないと判定された場合、処理はステップS72に進む。ステップS72では、予測タップ抽出部22は、予測タップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、飽和画素を除いた画素を、予測タップとして抽出し、予測演算部25に供給する。   On the other hand, if it is determined in step S70 that no saturated pixel exists, the process proceeds to step S72. In step S <b> 72, the prediction tap extraction unit 22 extracts a pixel excluding a saturated pixel from a plurality of pixels at a predetermined position near the target pixel to be set as a prediction tap as a prediction tap, and outputs the prediction tap to the prediction calculation unit 25. Supply.

ステップS73およびS74の処理は、上述した図25のステップS13およびS14の処理と同様であるので、説明は省略する。   The processing in steps S73 and S74 is the same as the processing in steps S13 and S14 in FIG.

以上の処理が、イメージセンサ12で被写体が撮像され、イメージセンサ12からフレーム画像(フィールド画像)の画像信号が出力される度、繰り返し実行される。   The above processing is repeatedly executed whenever a subject is imaged by the image sensor 12 and an image signal of a frame image (field image) is output from the image sensor 12.

以上のように、第1の実施の形態では、デモザイク処理回路14は、飽和画素が検出された場合に、クラスタップまたは予測タップの対象画素のうち、長畜画素の全ての画素値を除いた画素を、クラスタップまたは予測タップとした。   As described above, in the first embodiment, the demosaic processing circuit 14 excludes all pixel values of the long pixel from the target pixels of the class tap or the prediction tap when the saturated pixel is detected. Pixels were class taps or prediction taps.

一方、第2の実施の形態では、デモザイク処理回路14は、飽和画素が検出された場合に、クラスタップまたは予測タップの対象画素のうち、飽和画素のみを除いた画素を、クラスタップまたは予測タップとした。   On the other hand, in the second embodiment, the demosaic processing circuit 14 uses the class tap or the prediction tap as a pixel excluding only the saturated pixel among the target pixels of the class tap or the prediction tap when the saturation pixel is detected. It was.

第1の実施の形態および第2の実施の形態のいずれを採用した場合でも、飽和画素を含まない注目画素近傍の複数の画素を用いてクラスコードを決定するので、クラス分類部23では、注目画素を、間違ったクラスにクラス分類することを防止(低減)することができる。また、予測演算部25では、飽和画素の画素値を用いずに予測演算を行うことができるので、撮像装置1では、飽和画素を適切に補間したデモザイク画像を生成することができる。すなわち、撮像装置1では、広ダイナミックレンジを実現したデモザイク画像を生成することができる。   In either case of adopting the first embodiment or the second embodiment, the class code is determined using a plurality of pixels in the vicinity of the target pixel not including the saturated pixel. Pixels can be prevented (reduced) from being classified into the wrong class. In addition, since the prediction calculation unit 25 can perform prediction calculation without using the pixel value of the saturated pixel, the imaging device 1 can generate a demosaic image in which saturated pixels are appropriately interpolated. That is, the imaging device 1 can generate a demosaic image that realizes a wide dynamic range.

なお、撮像装置1では、上述したデモザイク処理回路14の第1の実施の形態と第2の実施の形態を選択的に実行させるようにすることも可能である。   Note that the imaging apparatus 1 can selectively execute the first and second embodiments of the demosaic processing circuit 14 described above.

また、従来、飽和画素の画素値を非飽和画素から補間して求める場合、補間の精度は回路規模とトレードオフの関係にあり、補間の精度を向上させようとすると、補間処理の回路規模が大きくなる。撮像装置1では、回路規模を増大させることなく、飽和画素を正しく補間したデモザイク処理を実行することができる。   Conventionally, when the pixel value of a saturated pixel is obtained by interpolation from a non-saturated pixel, the accuracy of the interpolation is in a trade-off relationship with the circuit scale. growing. The imaging apparatus 1 can execute a demosaic process in which saturated pixels are correctly interpolated without increasing the circuit scale.

なお、上述した実施の形態では、イメージセンサ12は、長い露光時間で受光する画素と、それより短い露光時間で受光する画素の2種類の露光時間の画素の組み合わせとされていた。   In the above-described embodiment, the image sensor 12 is a combination of pixels having two types of exposure time, a pixel that receives light with a long exposure time and a pixel that receives light with a shorter exposure time.

しかし、本技術は、2種類の異なる露光時間の画素(画素群)の組み合わせに限らず、3種類以上の露光時間の画素(画素群)の組み合わせでもよい。例えば、イメージセンサ12を、露光時間の長い方から、長畜画素、中畜画素、短畜画素(長畜画素>中畜画素>短畜画素)の3種類の露光時間の画素(画素群)の組み合わせとして、長畜画素の飽和画素を検出して、上述のデモザイク画像生成処理を実行することができる。この場合、長畜画素の飽和画素が検出された場合、予測タップおよびクラスタップとして中畜画素と短畜画素のみを用いるようにしてもよいし、中畜画素及び短畜画素と非飽和の長畜画素を用いるようにしてもよい。また、長畜画素と中畜画素の飽和画素を検出して、予測タップおよびクラスタップとして短畜画素のみを用いるようにしてもよいし、短畜画素と非飽和の長畜画素及び中畜画素を用いるようにしてもよい。   However, the present technology is not limited to a combination of two types of pixels (pixel groups) having different exposure times, and may be a combination of pixels (pixel groups) having three or more types of exposure times. For example, the image sensor 12 is a pixel (pixel group) having three types of exposure times from the longest exposure time, the long livestock pixel, the middle livestock pixel, and the short livestock pixel (long livestock pixel> medium livestock pixel> short livestock pixel). As a combination of the above, it is possible to detect the saturated pixels of the long-lived pixels and execute the above-described demosaic image generation process. In this case, when the saturated pixel of the long livestock pixel is detected, only the livestock pixel and the short livestock pixel may be used as the prediction tap and the class tap. Livestock pixels may be used. Further, it is possible to detect saturated pixels of long livestock pixels and medium livestock pixels and use only short livestock pixels as prediction taps and class taps, or short livestock pixels and unsaturated long livestock pixels and livestock pixels. May be used.

上述した例では、デモザイク処理回路14が、撮像装置1の一部として組み込まれた構成として説明したが、露光時間の異なる複数の画素群が規則的に配列された撮像素子から出力される画像信号を、上述のようにデモザイク処理する画像処理装置として独立して構成することができる。この場合、デモザイク処理回路14は、それ単独で、または、必要に応じてゲイン調整回路13や圧縮処理回路15などを加えた形で、1チップ(SOC :System On Chip)で構成することができる。   In the example described above, the demosaic processing circuit 14 has been described as a configuration that is incorporated as a part of the imaging apparatus 1, but an image signal output from an imaging element in which a plurality of pixel groups having different exposure times are regularly arranged. Can be configured independently as an image processing apparatus that performs demosaic processing as described above. In this case, the demosaic processing circuit 14 can be configured as a single chip (SOC: System On Chip) by itself, or by adding a gain adjustment circuit 13 and a compression processing circuit 15 as necessary. .

また、上述した例は、イメージセンサ12が出力する画像信号から飽和画素を検出し、検出された飽和画素を除いたクラスタップおよび予測タップを用いるクラス分類適応処理を、デモザイク処理に適用した例である。しかし、デモザイク処理以外の処理に、上述のクラス分類適応処理を適用してもよい。例えば、R,G,Bの画素配列を、R,G,B+W(ホワイト)の画素配列へ変換するリデモザイク処理、画像のスケールを変換するスケール変換処理、画像の解像度を高解像度に変換する高解像度処理(超解像処理)などに適用してもよい。また、上述のクラス分類適応処理を適用したデモザイク処理、リデモザイク処理、スケール変換処理、および高解像度処理の2以上を直列または並列に実行してもよい。   The above-described example is an example in which a saturated pixel is detected from the image signal output from the image sensor 12, and the class classification adaptive process using the class tap and the prediction tap excluding the detected saturated pixel is applied to the demosaic process. is there. However, the class classification adaptive process described above may be applied to processes other than the demosaic process. For example, a rede-mosaic process that converts an R, G, B pixel array into an R, G, B + W (white) pixel array, a scale conversion process that converts the image scale, and a high resolution that converts the image resolution to a high resolution You may apply to a process (super-resolution process) etc. Further, two or more of the demosaic process, the redemosaic process, the scale conversion process, and the high resolution process to which the above-described class classification adaptive process is applied may be executed in series or in parallel.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 32 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other via a bus 104.

バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。   An input / output interface 105 is further connected to the bus 104. An input unit 106, an output unit 107, a storage unit 108, a communication unit 109, and a drive 110 are connected to the input / output interface 105.

入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性の半導体メモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。   The input unit 106 includes a keyboard, a mouse, a microphone, and the like. The output unit 107 includes a display, a speaker, and the like. The storage unit 108 is composed of a hard disk, a nonvolatile semiconductor memory, or the like. The communication unit 109 includes a network interface or the like. The drive 110 drives a removable recording medium 111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、処理プロセッサとしてのCPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 101 as a processing processor loads, for example, a program stored in the storage unit 108 to the RAM 103 via the input / output interface 105 and the bus 104 and executes the program. The series of processes described above is performed.

コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 108 via the input / output interface 105 by attaching the removable recording medium 111 to the drive 110. Further, the program can be received by the communication unit 109 and installed in the storage unit 108 via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting. In addition, the program can be installed in the ROM 102 or the storage unit 108 in advance.

なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。   In the present specification, the steps described in the flowcharts are performed in parallel or in a call even if they are not necessarily processed in time series, as well as in time series in the order described. It may be executed at a necessary timing such as when.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

なお、本技術は以下のような構成も取ることができる。
(1)
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部と
を備える画像処理装置。
(2)
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素のみからなる周囲画素を特定する
前記(1)に記載の画像処理装置。
(3)
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素からなる周囲画素を特定する
前記(1)乃至(2)のいずれかに記載の画像処理装置。
(4)
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素と、前記飽和画素の属する素子群の前記飽和画素以外の画素からなる周囲画素を特定する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素と、前記飽和画素以外の前記第1の素子群の画素からなる周囲画素を特定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記露光時間の異なる複数の素子群は、色成分に応じて規則的に配列されており、前記第2の素子群は、複数の色成分のうちの一つの色成分である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記色成分の配列はベイヤ配列であり、前記第2の素子群の色成分は緑色である
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記露光時間の異なる複数の素子群の信号レベルを合わせるレベル調整部をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記撮像素子を介して取得された画像がモザイク画像であり、
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(10)
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された低解像度の画像から、それより高解像度の画像を生成し、出力する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された第1の色配列の画像から、それと異なる第2の色配列の画像を生成し、出力する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群を少なくとも含む画素からなる周囲画素に基づいて、予測演算する画像の画素を所定のクラスに分類するクラス分類部をさらに備え、
前記予測演算部は、前記クラス分類部により分類された前記所定のクラスに対応する予測係数と、前記周囲画素特定部により特定された前記周囲画素の画素値とを用いて、前記画像の予測演算処理を行う
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
画像処理装置が、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う
ステップを含む画像処理方法。
(14)
コンピュータを、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部
として機能させるためのプログラム。
(15)
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、
コンピュータで実行可能な前記指示を記録するメモリと
を備える装置。
In addition, this technique can also take the following structures.
(1)
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing apparatus comprising: a prediction calculation unit that performs an image prediction calculation process based on the surrounding pixels.
(2)
The image processing apparatus according to (1), wherein the surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes only pixels of an element group different from the element group to which the saturated pixel belongs.
(3)
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes pixels of the second element group different from the first element group to which the saturated pixel belongs. The image processing apparatus according to any one of (2).
(4)
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, and is a surrounding pixel composed of a pixel other than the element group to which the saturated pixel belongs and a pixel other than the saturated pixel of the element group to which the saturated pixel belongs. The image processing apparatus according to any one of (1) to (3).
(5)
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, the pixel of the second element group different from the first element group to which the saturated pixel belongs, and the first element other than the saturated pixel The image processing apparatus according to any one of (1) to (4), wherein surrounding pixels including a group of pixels are specified.
(6)
The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. The image processing apparatus according to any one of (5).
(7)
The image processing apparatus according to any one of (1) to (6), wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
(8)
The image processing apparatus according to any one of (1) to (7), further including a level adjustment unit that adjusts signal levels of a plurality of element groups having different exposure times.
(9)
The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to any one of (1) to (7), wherein the prediction calculation unit performs prediction calculation processing of an image after demosaicing.
(10)
The prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging device by the prediction calculation process. Any one of (1) to (9) An image processing apparatus according to 1.
(11)
The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired via the image sensor by the prediction calculation processing. The image processing apparatus according to any one of (10).
(12)
A class classification unit that classifies pixels of an image to be predicted into a predetermined class based on surrounding pixels that are located in the vicinity of the saturated pixel and that include pixels that include at least an element group different from the element group to which the saturated pixel belongs. In addition,
The prediction calculation unit uses the prediction coefficient corresponding to the predetermined class classified by the class classification unit and the pixel value of the surrounding pixel specified by the surrounding pixel specifying unit, to predict the image The image processing device according to any one of (1) to (11), wherein processing is performed.
(13)
The image processing device
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing method including a step of performing an image prediction calculation process based on the surrounding pixels.
(14)
Computer
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
The program for functioning as a prediction calculation part which performs the prediction calculation process of an image based on the said surrounding pixel.
(15)
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
A processor capable of executing an instruction to perform prediction calculation processing of an image based on the surrounding pixels;
And a memory for recording the instructions executable by a computer.

1 撮像装置, 12 イメージセンサ, 13 ゲイン調整回路, 14 デモザイク処理回路, 21 飽和画素存在判定部, 22 予測タップ抽出部, 23 クラス分類部, 24 係数発生部, 25 予測演算部, 31 クラスタップ抽出部, 32 クラスコード発生部, 81 飽和画素存在判定部, 82 予測タップ抽出部, 83 クラスタップ抽出部   DESCRIPTION OF SYMBOLS 1 Imaging device, 12 Image sensor, 13 Gain adjustment circuit, 14 Demosaic processing circuit, 21 Saturation pixel presence determination part, 22 Prediction tap extraction part, 23 Class classification part, 24 Coefficient generation part, 25 Prediction calculation part, 31 Class tap extraction Section, 32 class code generation section, 81 saturated pixel presence determination section, 82 prediction tap extraction section, 83 class tap extraction section

Claims (20)

露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部と
を備える画像処理装置。
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing apparatus comprising: a prediction calculation unit that performs an image prediction calculation process based on the surrounding pixels.
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素のみからなる周囲画素を特定する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes only pixels of an element group different from the element group to which the saturated pixel belongs.
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素からなる周囲画素を特定する
請求項2に記載の画像処理装置。
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes pixels of the second element group different from the first element group to which the saturated pixel belongs. Image processing apparatus.
前記露光時間の異なる複数の素子群は、色成分に応じて規則的に配列されており、前記第2の素子群は、複数の色成分のうちの一つの色成分である
請求項3に記載の画像処理装置。
The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. Image processing apparatus.
前記色成分の配列はベイヤ配列であり、前記第2の素子群の色成分は緑色である
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
前記露光時間の異なる複数の素子群の信号レベルを合わせるレベル調整部をさらに備える
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a level adjustment unit that adjusts signal levels of the plurality of element groups having different exposure times.
前記撮像素子を介して取得された画像がモザイク画像であり、
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
請求項1に記載の画像処理装置。
The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to claim 1, wherein the prediction calculation unit performs a prediction calculation process on the demosaiced image.
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された低解像度の画像から、それより高解像度の画像を生成し、出力する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging element by the prediction calculation process.
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された第1の色配列の画像から、それと異なる第2の色配列の画像を生成し、出力する
請求項1に記載の画像処理装置。
The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired through the imaging device by the prediction calculation processing. Image processing apparatus.
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素に基づいて、予測演算する画像の画素を所定のクラスに分類するクラス分類部をさらに備え、
前記予測演算部は、前記クラス分類部により分類された前記所定のクラスに対応する予測係数と、前記周囲画素特定部により特定された前記周囲画素の画素値とを用いて、前記画像の予測演算処理を行う
請求項1に記載の画像処理装置。
The image processing apparatus further includes a class classification unit that classifies pixels of an image to be predicted and calculated into a predetermined class based on surrounding pixels that are located in the vicinity of the saturated pixel and include pixels of a device group different from the device group to which the saturated pixel belongs ,
The prediction calculation unit uses the prediction coefficient corresponding to the predetermined class classified by the class classification unit and the pixel value of the surrounding pixel specified by the surrounding pixel specifying unit, to predict the image The image processing apparatus according to claim 1, wherein processing is performed.
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素と、前記飽和画素の属する素子群の前記飽和画素以外の画素からなる周囲画素を特定する
請求項1に記載の画像処理装置。
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, and is a surrounding pixel composed of a pixel other than the element group to which the saturated pixel belongs and a pixel other than the saturated pixel of the element group to which the saturated pixel belongs. The image processing apparatus according to claim 1.
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素と、前記飽和画素以外の前記第1の素子群の画素からなる周囲画素を特定する
請求項11に記載の画像処理装置。
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, the pixel of the second element group different from the first element group to which the saturated pixel belongs, and the first element other than the saturated pixel The image processing apparatus according to claim 11, wherein a surrounding pixel composed of a group of pixels is specified.
前記露光時間の異なる複数の素子群は、色成分に応じて規則的に配列されており、前記第2の素子群は、複数の色成分のうちの一つの色成分である
請求項12に記載の画像処理装置。
The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. Image processing apparatus.
前記色成分の配列はベイヤ配列であり、前記第2の素子群の色成分は緑色である
請求項13に記載の画像処理装置。
The image processing apparatus according to claim 13, wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
前記撮像素子を介して取得された画像がモザイク画像であり、
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
請求項1に記載の画像処理装置。
The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to claim 1, wherein the prediction calculation unit performs a prediction calculation process on the demosaiced image.
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された低解像度の画像から、それより高解像度の画像を生成し、出力する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging element by the prediction calculation process.
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された第1の色配列の画像から、それと異なる第2の色配列の画像を生成し、出力する
請求項1に記載の画像処理装置。
The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired through the imaging device by the prediction calculation processing. Image processing apparatus.
画像処理装置が、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う
ステップを含む画像処理方法。
The image processing device
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing method including a step of performing an image prediction calculation process based on the surrounding pixels.
コンピュータを、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部
として機能させるためのプログラム。
Computer
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
The program for functioning as a prediction calculation part which performs the prediction calculation process of an image based on the said surrounding pixel.
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、
コンピュータで実行可能な前記指示を記録するメモリと
を備える装置。
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
A processor capable of executing an instruction to perform prediction calculation processing of an image based on the surrounding pixels;
And a memory for recording the instructions executable by a computer.
JP2012023049A 2012-02-06 2012-02-06 Image processor, image processing method, program, and device Pending JP2013162347A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012023049A JP2013162347A (en) 2012-02-06 2012-02-06 Image processor, image processing method, program, and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012023049A JP2013162347A (en) 2012-02-06 2012-02-06 Image processor, image processing method, program, and device

Publications (1)

Publication Number Publication Date
JP2013162347A true JP2013162347A (en) 2013-08-19

Family

ID=49174259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012023049A Pending JP2013162347A (en) 2012-02-06 2012-02-06 Image processor, image processing method, program, and device

Country Status (1)

Country Link
JP (1) JP2013162347A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015065620A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Image reading device and image forming apparatus
WO2017141544A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Image processing device, image processing method, and program
WO2017149932A1 (en) * 2016-03-03 2017-09-08 ソニー株式会社 Medical image processing device, system, method, and program
KR20180128802A (en) * 2017-05-24 2018-12-04 삼성전자주식회사 Pixel circuit and image sensor including thereof
WO2020153630A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Image processing method and electronic device for supporting same
WO2020255242A1 (en) * 2019-06-18 2020-12-24 日本電信電話株式会社 Restoration device, restoration method, and program
CN115118870A (en) * 2021-03-19 2022-09-27 爱思开海力士有限公司 Image processing apparatus and method of operating the same
JP7463186B2 (en) 2020-05-26 2024-04-08 キヤノン株式会社 Information processing device, information processing method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015065620A (en) * 2013-09-26 2015-04-09 京セラドキュメントソリューションズ株式会社 Image reading device and image forming apparatus
JP7000861B2 (en) 2016-02-16 2022-02-04 ソニーグループ株式会社 How to operate image processing equipment and medical equipment and programs
US10523874B2 (en) 2016-02-16 2019-12-31 Sony Corporation Image processing apparatus, image processing method, and program
WO2017141544A1 (en) * 2016-02-16 2017-08-24 ソニー株式会社 Image processing device, image processing method, and program
JPWO2017141544A1 (en) * 2016-02-16 2018-12-13 ソニー株式会社 Image processing apparatus, image processing method, and program
JPWO2017149932A1 (en) * 2016-03-03 2018-12-27 ソニー株式会社 Medical image processing apparatus, system, method and program
WO2017149932A1 (en) * 2016-03-03 2017-09-08 ソニー株式会社 Medical image processing device, system, method, and program
US11244478B2 (en) 2016-03-03 2022-02-08 Sony Corporation Medical image processing device, system, method, and program
US11184566B2 (en) 2017-05-24 2021-11-23 Samsung Electronics Co., Ltd. Pixel circuit and image sensor including thereof
KR102354991B1 (en) * 2017-05-24 2022-01-24 삼성전자주식회사 Pixel circuit and image sensor including thereof
KR20180128802A (en) * 2017-05-24 2018-12-04 삼성전자주식회사 Pixel circuit and image sensor including thereof
US11778344B2 (en) 2017-05-24 2023-10-03 Samsung Electronics Co., Ltd. Pixel circuit and image sensor including thereof
WO2020153630A1 (en) * 2019-01-24 2020-07-30 삼성전자 주식회사 Image processing method and electronic device for supporting same
WO2020255242A1 (en) * 2019-06-18 2020-12-24 日本電信電話株式会社 Restoration device, restoration method, and program
JPWO2020255242A1 (en) * 2019-06-18 2020-12-24
JP7188589B2 (en) 2019-06-18 2022-12-13 日本電信電話株式会社 Restoration device, restoration method and program
JP7463186B2 (en) 2020-05-26 2024-04-08 キヤノン株式会社 Information processing device, information processing method, and program
CN115118870A (en) * 2021-03-19 2022-09-27 爱思开海力士有限公司 Image processing apparatus and method of operating the same

Similar Documents

Publication Publication Date Title
US7548689B2 (en) Image processing method
KR101205842B1 (en) Method of forming an image based on a plurality of image frames, image processing system and digital camera
US8896712B2 (en) Determining and correcting for imaging device motion during an exposure
JP2013162347A (en) Image processor, image processing method, program, and device
JP5713752B2 (en) Image processing apparatus and control method thereof
US7973827B2 (en) Image data generating apparatus, method and program for generating an image having high spatial and high temporal resolution
KR101594292B1 (en) A digital photographing device a method for controlling a digital photographing device and a computer-readable storage medium
JP5408053B2 (en) Image processing apparatus and image processing method
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
JP5672796B2 (en) Image processing apparatus and image processing method
JP2012235332A (en) Imaging apparatus, imaging apparatus control method and program
JP6312487B2 (en) Image processing apparatus, control method therefor, and program
CN102629976A (en) Image processing apparatus, and control method thereof
US7868925B2 (en) Device, method, and program for generating high-resolution image data at a low data transfer rate
JP4494505B1 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium
US8237829B2 (en) Image processing device, image processing method, and imaging apparatus
JP7297406B2 (en) Control device, imaging device, control method and program
JP7463640B2 (en) Method, apparatus and storage medium for spatially multiplexed exposure
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP2008294524A (en) Image processor and image processing method
JP2008219230A (en) Imaging apparatus, and image processing method
JP6245847B2 (en) Image processing apparatus and image processing method
CN102186020A (en) Image processing apparatus and image processing method
JP2003052051A (en) Image signal processing method, image signal processor, imaging apparatus and recording medium
JP5721552B2 (en) Imaging apparatus and image composition method