JP2013162347A - Image processor, image processing method, program, and device - Google Patents
Image processor, image processing method, program, and device Download PDFInfo
- Publication number
- JP2013162347A JP2013162347A JP2012023049A JP2012023049A JP2013162347A JP 2013162347 A JP2013162347 A JP 2013162347A JP 2012023049 A JP2012023049 A JP 2012023049A JP 2012023049 A JP2012023049 A JP 2012023049A JP 2013162347 A JP2013162347 A JP 2013162347A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- pixels
- saturated
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本技術は、画像処理装置、画像処理方法、プログラム、および装置に関し、特に、広ダイナミックレンジを実現することができるようにする画像処理装置、画像処理方法、プログラム、および装置に関する。 The present technology relates to an image processing apparatus, an image processing method, a program, and an apparatus, and more particularly, to an image processing apparatus, an image processing method, a program, and an apparatus that can realize a wide dynamic range.
一般的なイメージセンサの撮影では、全画素同一の露光時間で撮影される。しかし、このような撮影方法では、撮像範囲として、室内と窓の外などのように暗い被写体と明るい被写体が共存するような撮影が難しい。 In general image sensor shooting, all pixels are shot with the same exposure time. However, in such a photographing method, it is difficult to photograph in such a manner that a dark subject and a bright subject coexist as an imaging range such as indoors and outside a window.
例えば、図1Bに示されるような、室内と窓の外の両方を含む被写体を、図1Aに示されるベイヤ配列のイメージセンサで撮影する場合を考える。ベイヤ配列は、2つのR画素と、G画素およびB画素で構成される2×2(垂直方向×水平方向)の計4画素が、垂直方向及び水平方向に繰り返し配置される配列方法である。図中、「R」で示されるR画素は、赤色の画素信号を出力する画素であり、「G」で示されるG画素は、緑色の画素信号を出力する画素であり、「B」で示されるB画素は、青色の画素信号を出力する画素である。 For example, consider a case where a subject including both a room and the outside of a window as shown in FIG. 1B is photographed by a Bayer array image sensor shown in FIG. 1A. The Bayer arrangement is an arrangement method in which a total of four pixels of 2 × 2 (vertical direction × horizontal direction) composed of two R pixels and G pixels and B pixels are repeatedly arranged in the vertical direction and the horizontal direction. In the figure, the R pixel indicated by “R” is a pixel that outputs a red pixel signal, the G pixel indicated by “G” is a pixel that outputs a green pixel signal, and is indicated by “B”. The B pixel is a pixel that outputs a blue pixel signal.
室内の暗い被写体に合わせて撮影を行うには、図2Aに示されるように、各画素の露光時間を長く設定する必要がある。図2Aにおいて、「LR」は、長い露光時間が設定されたR画素、「LG」は、長い露光時間が設定されたG画素、「LB」は、長い露光時間が設定されたB画素を示す。このような条件で撮影が行われた場合、撮影画像は、図2Bに示されるように、明るい被写体部分の画素値が飽和して、いわゆる「白とび」した状態となる。 In order to shoot in accordance with a dark subject in the room, it is necessary to set a long exposure time for each pixel as shown in FIG. 2A. In FIG. 2A, “LR” indicates an R pixel with a long exposure time set, “LG” indicates a G pixel with a long exposure time set, and “LB” indicates a B pixel with a long exposure time set. . When photographing is performed under such conditions, the photographed image is in a so-called “overexposed” state, as shown in FIG.
一方、窓の外の明るい被写体に合わせて撮影を行うには、図3Aに示されるように、各画素の露光時間を短く設定する必要がある。図3Aにおいて、「SR」は、短い露光時間が設定されたR画素、「SG」は、短い露光時間が設定されたG画素、「SB」は、短い露光時間が設定されたB画素を示す。このような条件で撮影が行われた場合、撮影画像は、図3Bに示されるように、暗い被写体部分が表現されず、いわゆる「黒つぶれ」した状態となる。 On the other hand, in order to shoot in accordance with a bright subject outside the window, it is necessary to set the exposure time of each pixel short as shown in FIG. 3A. In FIG. 3A, “SR” indicates an R pixel for which a short exposure time is set, “SG” indicates a G pixel for which a short exposure time is set, and “SB” indicates a B pixel for which a short exposure time is set. . When shooting is performed under such conditions, the shot image does not represent a dark subject portion and is in a so-called “blackout” state, as shown in FIG. 3B.
したがって、図4に示されるような、暗い被写体の部分と、明るい被写体の部分の両方が表現されるような画像は得られない。 Therefore, it is not possible to obtain an image that expresses both a dark subject portion and a bright subject portion as shown in FIG.
そこで、露光時間を変えて撮影した複数枚の画像を用意し、その複数枚の画像を合成する方法、非飽和画素を用いて飽和画素を補間するなどして、広ダイナミックレンジを実現する方法が提案されている(例えば、特許文献1,2参照)。
Therefore, there are a method for preparing a plurality of images taken with different exposure times, a method for combining the images, and a method for realizing a wide dynamic range by interpolating saturated pixels using unsaturated pixels. It has been proposed (see, for example,
しかしながら、飽和画素を間違いなく補間する技術は存在しておらず、広ダイナミックレンジを実現するための研究が進められている。 However, there is no technique for interpolating saturated pixels, and research for realizing a wide dynamic range is underway.
本技術は、このような状況に鑑みてなされたものであり、広ダイナミックレンジを実現することができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to realize a wide dynamic range.
本技術の一側面の画像処理装置は、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部とを備える。 An image processing apparatus according to an aspect of the present technology includes a saturation pixel detection unit that detects a saturation pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation A surrounding pixel specifying unit for specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and a prediction calculation for performing an image prediction calculation process based on the surrounding pixel A part.
本技術の一側面の画像処理方法は、画像処理装置が、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、前記周囲画素に基づいて、画像の予測演算処理を行うステップを含む。 According to an image processing method of one aspect of the present technology, an image processing apparatus detects a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation A step of specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and performing an image prediction calculation process based on the surrounding pixel.
本技術の一側面のプログラムは、コンピュータを、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部として機能させるためのものである。 A program according to one aspect of the present technology includes a saturation pixel detection unit that detects a saturation pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged; A surrounding pixel specifying unit for specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and a prediction that performs an image prediction calculation process based on the surrounding pixel It is for functioning as an arithmetic unit.
本技術の一側面の装置は、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、コンピュータで実行可能な前記指示を記録するメモリとを備える。 An apparatus according to one aspect of the present technology detects a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged, is located in the vicinity of the saturated pixel, and A processor capable of specifying a surrounding pixel including a pixel of an element group different from the element group to which the saturated pixel belongs, and executing an instruction to perform an image prediction calculation process based on the surrounding pixel, and the instruction executable by a computer And a memory for recording.
本技術の一側面においては、露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素が検出され、飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素が特定され、前記周囲画素に基づいて、画像の予測演算処理が行われる。 In one aspect of the present technology, a saturated pixel is detected from an image acquired via an image sensor in which a plurality of element groups having different exposure times are regularly arranged, and the saturation pixel is located near the saturated pixel. A surrounding pixel including a pixel of an element group different from the element group to which the pixel belongs is specified, and an image prediction calculation process is performed based on the surrounding pixel.
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。 The program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。 The image processing apparatus may be an independent apparatus, or may be an internal block constituting one apparatus.
本技術の一側面によれば、広ダイナミックレンジを実現することができる。 According to one aspect of the present technology, a wide dynamic range can be realized.
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(長畜画素を除外する構成例)
2.第2の実施の形態(飽和画素のみを除外する構成例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1st Embodiment (configuration example which excludes long livestock pixels)
2. Second embodiment (configuration example in which only saturated pixels are excluded)
<1.第1の実施の形態>
[撮像装置の構成例]
図5は、本技術を適用した撮像装置の第1の実施の形態の構成例を示すブロック図である。
<1. First Embodiment>
[Configuration example of imaging device]
FIG. 5 is a block diagram illustrating a configuration example of the first embodiment of the imaging apparatus to which the present technology is applied.
図5の撮像装置1は、レンズ11、イメージセンサ12、ゲイン調整回路13、デモザイク処理回路14、圧縮処理回路15、記録回路16、および表示装置17から構成される。撮像装置1は、被写体からの光(被写体光)を受光し、被写体に対応する画像信号を記録媒体に記録したり、その画像信号から得られる画像を表示する。この撮像装置1は、例えば、ビデオカメラ、デジタルスチルカメラ、携帯電話機などに適用することができる。
5 includes a
レンズ11は、被写体光をイメージセンサ12に集光する。イメージセンサ12は、CCDやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子で構成され、被写体光を受光し、その受光量に応じたアナログの電気信号をA/D(Analog to Digital)変換し、デジタルの画像信号としてゲイン調整回路13に供給する。
The
イメージセンサ12の色配列は、図1に示したベイヤ配列とするが、各画素の露光時間は同一ではなく、長い露光時間で受光する画素(以下、長畜画素という。)と、それより短い露光時間で受光する画素(以下、短畜画素という。)の組み合わせで構成されている。ここで、イメージセンサ12の長畜画素と短畜画素の露光時間の比率は、N:1(Nは1より大の整数)であるとする。
The color array of the
図6は、イメージセンサ12の画素の一部を示している。
FIG. 6 shows a part of the pixels of the
図6では、イメージセンサ12の各画素の露光時間の違いが、図2および図3と同様に表現されている。すなわち、撮像装置1イメージセンサ12では、R画素とB画素は、短畜画素に設定されている。また、G画素は、その位置によって、短畜画素または長畜画素のどちらかに設定されている。換言すれば、規則的に配列される2×2からなる4画素のうち、R画素およびB画素が短畜画素(SR画素,SB画素)に割り当てられるとともに、2つのG画素については、長畜画素(LG画素)と短畜画素(SG画素)に1つずつ割り当てられている。
In FIG. 6, the difference in the exposure time of each pixel of the
図7は、画素の露光時間と信号レベル(画素値)との関係を示している。 FIG. 7 shows the relationship between the pixel exposure time and the signal level (pixel value).
信号レベルと露光時間は比例関係にあり、例えば、露光時間が2倍になれば、信号レベルも2倍になる。ただし、イメージセンサ12の画素(素子)が8ビット出力であれば、信号レベル(画素値)は、8ビットの最大値、すなわち、255で飽和する。
The signal level and the exposure time are in a proportional relationship. For example, if the exposure time is doubled, the signal level is also doubled. However, if the pixel (element) of the
ここで、例えば、長畜画素と短畜画素の露光時間の比率が10:1であり、イメージセンサ12に入射された被写体光の信号レベルが、10ビットカウントで1000となるような受光量であったとする。この場合、長畜画素の画素値は255で飽和するが、短畜画素の画素値は、露光時間が短いため、100となり、8ビットの範囲内に収まる。そして、短畜画素の画素値である100を露光比に応じて10倍することで、被写体の真の画素値(=1000)を得ることができる。したがって、イメージセンサ12に短畜画素を設けることにより、広ダイナミックレンジを実現することができる。
Here, for example, the ratio of the exposure time of the long livestock pixel to the short livestock pixel is 10: 1, and the received light quantity is such that the signal level of the subject light incident on the
しかしながら、ノイズに関しては、ノイズがもつランダム性のため、信号レベルと露光時間の間に比例関係は存在せず、露光時間が長いほど有利になる。換言すれば、ノイズに関しては、短畜画素は長畜画素に比べて不利となる。一般的には、露光時間を2倍にすると、ノイズ量は1/√2となる。したがって、イメージセンサ12の全てを短畜画素とすることはできない。
However, regarding noise, because of the random nature of noise, there is no proportional relationship between the signal level and the exposure time, and the longer the exposure time, the more advantageous. In other words, with respect to noise, short livestock pixels are disadvantageous compared to long livestock pixels. Generally, when the exposure time is doubled, the noise amount becomes 1 / √2. Therefore, all of the
以上の理由から、撮像装置1のイメージセンサ12では、露光時間の異なる複数の素子群(短畜の画素群、長畜の画素群)が規則的に配列された構成が採用されている。
For the above reasons, the
なお、本実施の形態では、R画素、B画素、G画素の一部を短畜画素、G画素の残りの一部を長畜画素としたが、その他、例えば、R画素、B画素、G画素の一部を長畜画素、G画素の残りの一部を短畜画素としてもよい。すなわち、どの画素を短畜画素、長畜画素に設定するかは適宜決定することができる。また、色配列についても、ベイヤ配列に限定されず、その他のRGB配列や、R,G,Bの画素に、感度向上のためのホワイト画素を加えた配列などでもよい。すなわち、色の選択および組み合わせ並びにそれらの配列方法は任意である。 In the present embodiment, a part of the R pixel, B pixel, and G pixel is a short pixel, and the remaining part of the G pixel is a long pixel. Some of the pixels may be long livestock pixels, and the remaining part of the G pixels may be short livestock pixels. That is, it is possible to appropriately determine which pixels are set as short livestock pixels and long livestock pixels. Also, the color arrangement is not limited to the Bayer arrangement, and other RGB arrangements, an arrangement in which white pixels for improving sensitivity are added to R, G, and B pixels may be used. That is, the selection and combination of colors and the arrangement method thereof are arbitrary.
図5に戻り、ゲイン調整回路13は、短畜画素の画素値(画素信号)に対して、露光時間の比率であるN倍のゲインをかけ、短畜画素と長畜画素の信号レベルを合わせる。
Returning to FIG. 5, the
図8は、ゲイン調整回路13によるゲイン処理を概念的に示した図である。図8左側に示される太枠のSR画素、SG画素、およびSB画素は、ゲイン調整回路13によるゲイン処理前の状態を示しており、図8右側に示される細枠のSR画素、SG画素、およびSB画素は、長畜画素の信号レベルに調整された、ゲイン処理後の状態を示している。図9以降の図についても同様に、細枠のSR画素、SG画素、およびSB画素は、ゲイン処理後の画素値であることを示す。
FIG. 8 is a diagram conceptually showing gain processing by the
図5に戻り、デモザイク処理回路14は、ゲイン調整回路13から供給される、R、G,Bのいずれかの色成分の画素信号に基づいて、各画素がR、G,Bの全ての色成分の画素信号を持つように、色成分を補完するデモザイク処理を実行する。
Returning to FIG. 5, the
ここで、デモザイク処理回路14は、ゲイン調整回路13から供給される画像を構成する画素のなかに、信号レベルが飽和している画素(以下、飽和画素ともいう。)が存在する場合、その飽和画素を用いずにデモザイク処理を実行する。換言すれば、デモザイク処理回路14は、ゲイン調整回路13から供給される画像を構成する画素のなかに、飽和画素が存在する場合、飽和していない画素(以下、非飽和画素ともいう。)の画素値から、飽和画素の画素値を予測演算して、出力する。
Here, the
なお、本実施の形態において、画素値の飽和は長畜画素のみに発生し、短畜画素では飽和することがないものとする。換言すれば、イメージセンサ12では、短畜画素では飽和することがないように、長畜画素と短畜画素の露光比Nが決定されている。
In this embodiment, it is assumed that the saturation of the pixel value occurs only in the long livestock pixel and does not saturate in the short livestock pixel. In other words, in the
デモザイク処理回路14は、デモザイク処理後の画像信号を、圧縮処理回路15と表示装置17に供給する。
The
圧縮処理回路15は、JPEG(Joint Photographic Experts Group)などの所定のフォーマットに従い、指定された圧縮比で画像信号を圧縮符号化し、記録回路16に供給する。また、圧縮処理回路15は、撮像された画像のサイズを縮小または拡大する、画像信号の解像度変換処理なども併せて行ってもよい。
The
記録回路16は、圧縮符号化された画像信号を、記録媒体としての半導体メモリに記録(記憶)する。なお、画像信号を記録する記録媒体としては、半導体メモリの他、DVD(Digital Versatile Disc)などの光ディスク、またはハードディスク等とすることもできる。
The
表示装置17は、LCD(Liquid Crystal display)などにより構成され、デモザイク処理回路14から供給される画像信号に対応する画像を表示する。
The display device 17 is configured by an LCD (Liquid Crystal display) or the like, and displays an image corresponding to the image signal supplied from the
従って、図5の撮像装置1によれば、イメージセンサ12が被写体光を受光して画像信号を出力し、デモザイク処理回路14が、その画像信号を対象としてデモザイク処理を行い、その処理結果としての画像信号を後段の圧縮処理回路15に出力する。
Therefore, according to the
[デモザイク処理回路の詳細構成例]
図9は、図5のデモザイク処理回路14の詳細な構成を示すブロック図である。
[Detailed configuration example of demosaic processing circuit]
FIG. 9 is a block diagram showing a detailed configuration of the
デモザイク処理回路14は、飽和画素存在判定部21、予測タップ抽出部22、クラス分類部23、係数発生部24、および予測演算部25から構成され、クラス分類部23は、クラスタップ抽出部31とクラスコード発生部32で構成される。
The
ゲイン調整回路13(図5)が出力する、短畜画素に対してゲインが調整された後の画像信号は、飽和画素存在判定部21、予測タップ抽出部22、および、クラスタップ抽出部31に供給される。
The image signal output from the gain adjustment circuit 13 (FIG. 5) and adjusted in gain for the short pixels is sent to the saturated pixel
なお、以下では、ゲイン調整回路13から出力される、短畜画素に対してゲインが調整された後の画像信号をモザイク画像、デモザイク処理回路14が出力するデモザイク処理後の画像を、デモザイク画像ともいう。
In the following description, the image signal output from the
デモザイク処理回路14は、クラス分類適応処理を用いて、モザイク画像から、デモザイク画像を予測演算により求め、出力する。クラス分類適応処理では、予測演算して求めるデモザイク画像の各画素を順次、注目画素とし、注目画素の画像信号を求める処理が、全ての画素について実行する。
The
具体的には、デモザイク処理回路14は、注目画素に対して複数の画素を予測タップとして抽出し、その予測タップの画素値と、教師画像および生徒画像を用いた学習(図26等で後述)により予め求めておいた予測係数を用いた所定の予測演算により、デモザイク画像を生成する。
Specifically, the
飽和画素存在判定部21は、飽和画素を検出し、検出結果を出力する。具体的には、飽和画素存在判定部21は、飽和画素が存在するか否かを、予測タップ抽出部22において予測タップとして抽出される複数の画素、および、クラスタップ抽出部31においてクラスタップとして抽出される複数の画素のそれぞれについて判定する。そして、飽和画素存在判定部21は、予測タップとして抽出される複数の画素のいずれかに飽和画素が存在すると判定された場合、その判定結果を示す検出信号を、予測タップ抽出部22に供給する。また、クラスタップとして抽出される複数の画素のいずれかに飽和画素が存在すると判定された場合、飽和画素存在判定部21は、その判定結果を示す検出信号を、クラスタップ抽出部31に供給する。
The saturated pixel
予測タップ抽出部22は、デモザイク画像の注目画素の画素値を予測するのに用いる、モザイク画像を構成する画素(の画素値)を、予測タップとして抽出する。
The prediction
具体的には、予測タップ抽出部22は、注目画素に対応するモザイク画像の画素(例えば、注目画素に対して空間的に最も近い位置にあるモザイク画像の画素)に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、予測タップとして抽出する。
Specifically, the prediction
また、予測タップ抽出部22は、飽和画素存在判定部21から、飽和画素が存在する旨の判定結果が供給された場合、予測タップとして抽出するモザイク画像の複数の画素のうち、長畜画素を除いた短畜画素のみを、予測タップとして抽出する。
Moreover, when the determination result that the saturated pixel exists is supplied from the saturated pixel
クラス分類部23は、注目画素を、幾つかのクラスのうちのいずれかのクラスにクラス分けするクラス分類を行う。
The
クラスタップ抽出部31は、注目画素のクラス分類を行うのに用いるモザイク画像の複数の画素を、クラスタップとして抽出する。具体的には、クラスタップ抽出部31は、注目画素に対応するモザイク画像の画素に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、クラスタップとして抽出する。
The class
また、クラスタップ抽出部31は、飽和画素存在判定部21から、飽和画素が存在する旨の判定結果が供給された場合、クラスタップとして抽出するモザイク画像の複数の画素のうち、長畜画素を除いた短畜画素のみを、クラスタップとして抽出する。
In addition, when the determination result that the saturated pixel exists is supplied from the saturated pixel
図10は、注目画素に対してクラスタップおよび予測タップとして抽出される画素の例を示している。 FIG. 10 illustrates an example of pixels extracted as a class tap and a prediction tap with respect to the target pixel.
図10Aは、クラスタップの例を示しており、図10Bは、予測タップの例を示している。図10Aおよび図10Bにおいて、5×5の25画素の中央の画素に示されるバツ(×)印は、注目画素であることを示し、丸(○)印が、クラスタップまたは予測タップを示している。 FIG. 10A shows an example of a class tap, and FIG. 10B shows an example of a prediction tap. 10A and 10B, the cross (x) mark shown in the center pixel of 25 pixels of 5 × 5 indicates that it is a pixel of interest, and the circle (◯) indicates a class tap or a prediction tap. Yes.
図10Aの例では、クラスタップは、注目画素に対して、自分自身と、隣接する8画素、および、注目画素から水平・垂直の4方向に2画素離れた画素の、計13画素で構成されている。 In the example of FIG. 10A, the class tap is composed of a total of 13 pixels, that is, 8 pixels adjacent to the target pixel, and 2 pixels away from the target pixel in four horizontal and vertical directions. ing.
図10Bの例では、予測タップは、注目画素に対して、自分自身を中心とする5×5の計25画素で構成されている。 In the example of FIG. 10B, the prediction tap is composed of a total of 25 pixels of 5 × 5 centered on itself with respect to the target pixel.
このように、予測タップ抽出部22およびクラスタップ抽出部31では、注目画素に対して、どの位置の画素をクラスタップまたは予測タップとして抽出するかが予め決められている。
As described above, in the prediction
なお、図10は、予測タップとクラスタップのタップ構造の一例であり、これ以外のタップ構造を採用することも勿論可能である。また、予測タップとクラスタップは、同一のタップ構造としてもよいし、異なるタップ構造としてもよい。 Note that FIG. 10 is an example of a tap structure of prediction taps and class taps, and it is of course possible to employ other tap structures. Further, the prediction tap and the class tap may have the same tap structure or different tap structures.
ここで、例えば、注目画素を中心とする5×5の25画素のうち、図11に示されるように、一番上の行の最も左側の画素と、それから右方向に2画素移動した画素の2つが飽和画素となっており、その旨の検出信号が予測タップ抽出部22と、クラスタップ抽出部31に供給されたとする。
Here, for example, among the 25 pixels of 5 × 5 centered on the target pixel, as shown in FIG. 11, the leftmost pixel in the top row and the pixel moved by two pixels rightward from that pixel Assume that two are saturated pixels, and detection signals to that effect are supplied to the prediction
図12は、図11のように飽和画素が検出された場合の、クラスタップと予測タップの例を示している。 FIG. 12 shows an example of class taps and prediction taps when saturated pixels are detected as shown in FIG.
図12Aは、クラスタップの例を示しており、図12Bは、予測タップの例を示している。 FIG. 12A shows an example of a class tap, and FIG. 12B shows an example of a prediction tap.
飽和画素が存在する場合、長畜画素はクラスタップから除外されるので、クラスタップは、図12Aに示されるように、注目画素に対して、自分自身に隣接する8画素のみで構成される。 When the saturated pixel exists, the long live pixel is excluded from the class tap. Therefore, as shown in FIG. 12A, the class tap is composed of only 8 pixels adjacent to the target pixel.
また、予測タップは、図12Bに示されるように、自分自身を中心とする5×5の25画素のうち、長畜画素を除いた16画素で構成される。 Moreover, as shown in FIG. 12B, the prediction tap is composed of 16 pixels excluding long livestock pixels among 5 × 5 25 pixels centered on itself.
予測タップ抽出部22で得られた予測タップは、図9の予測演算部25に供給され、クラスタップ抽出部31で得られたクラスタップは、図9のクラスコード発生部32に供給される。
The prediction tap obtained by the prediction
クラスコード発生部32は、クラスタップ抽出部31から供給されるクラスタップを構成する画素に基づき、クラス分類を行い、その結果得られるクラスに対応するクラスコードを発生して、係数発生部24に供給する。
The class
クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。 As a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.
ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。 In the method using ADRC, the pixel values of the pixels constituting the class tap are subjected to ADRC processing, and the class of the target pixel is determined according to the ADRC code obtained as a result.
なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。クラスコード発生部32は、例えば、クラスタップをADRC処理して得られるADRCコードを、クラスコードとして発生(出力)する。
In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX−MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel values constituting the class tap are requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, the pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code. For example, the class
なお、クラスコード発生部32は、クラス分類を行う方法として、その他、例えば、DCT(Discrete Cosine Transform)、VQ(ベクトル量子化)、DPCM(Differential Pulse Code Modulation:予測符号化)などのデータ圧縮方式を応用し、クラスタップを構成する画素をデータ圧縮した結果のデータ量をクラス分類結果とするなどの方法を用いても良い。
Note that the class
係数発生部24は、図26乃至図28を参照して後述する学習によって予め求められたクラスごとの予測係数を記憶している。そして、係数発生部24は、記憶している予測係数のうちの、クラスコード発生部32から供給されるクラスコードに対応するアドレスに記憶されている予測係数(クラスコード発生部32から供給されるクラスコードが表すクラスの予測係数)を、予測演算部25に供給する。
The
予測演算部25は、予測タップ抽出部22が出力する予測タップと、係数発生部24が出力する予測係数とを取得し、その予測タップと予測係数とを用いて、注目画素のデモザイク画像の画素値を求める所定の予測演算を行う。ここで得られるデモザイク画像の画素値とは、R、G,Bの全ての色成分の画素信号を表す。
The
[デモザイク処理回路の処理]
次に、図13乃至図24を参照して、従来の処理と比較しつつ、デモザイク処理回路14によるデモザイク画像の画素値の求め方について説明する。
[Processing of demosaic processing circuit]
Next, how to determine the pixel value of the demosaic image by the
従来、撮影された画像に飽和画素が存在し、飽和画素に対する対策(の処理)が入っていない場合には、飽和画素の画素値がそのまま利用されることになる。 Conventionally, in the case where a saturated pixel exists in a captured image and no countermeasure (processing) for the saturated pixel is included, the pixel value of the saturated pixel is used as it is.
例えば、図13に示されるような被写体を撮影する場合について考える。 For example, consider the case of shooting a subject as shown in FIG.
図13左側の図は、被写体を説明する画像であり、被写体は、垂直方向の上側が明るく、下側に行くほど暗い輝度を有している。 The figure on the left side of FIG. 13 is an image for explaining the subject. The subject has a brighter brightness on the upper side in the vertical direction and a darker brightness on the lower side.
図13右側の図は、左側の被写体のラインa上の各位置(垂直方向位置)における被写体の真の輝度値を示している。図13右側の図の縦軸は、ラインa上の垂直方向位置を示し、横軸は、被写体の真の輝度値(明るさ)を示している。 The diagram on the right side of FIG. 13 shows the true luminance value of the subject at each position (vertical direction position) on the line a of the left subject. The vertical axis in the diagram on the right side of FIG. 13 indicates the vertical position on the line a, and the horizontal axis indicates the true luminance value (brightness) of the subject.
被写体の真の輝度値は、ラインa上の垂直方向位置Vbより下側では、イメージセンサ12の長畜画素の飽和レベルSV未満となっているが、ラインa上の垂直方向位置Vb以上では、飽和レベルSV以上の輝度値となっている。
The true luminance value of the subject is lower than the saturation level SV of the long pixel of the
図13の被写体のラインaが、図14左側に示される、イメージセンサ12の、長畜画素のLG画素と短畜画素のSB画素が交互に配列されたラインa’の5画素で撮影されたとする。
The subject line a in FIG. 13 is captured by five pixels of the line a ′ in which the long pixels LG pixels and the short pixels SB pixels are alternately arranged in the
この場合、図14右側に示されるように、2つのSB画素の画素値は、飽和レベルSV以下の画素値に対して、露光比Nに応じたゲインがかけられることにより、被写体の真の輝度値と等しい値となっている。一方、3つのLG画素の画素値は、飽和レベルSVの値となる。 In this case, as shown on the right side of FIG. 14, the pixel values of the two SB pixels are multiplied by a gain corresponding to the exposure ratio N with respect to the pixel value of the saturation level SV or lower, so that the true luminance of the subject The value is equal to the value. On the other hand, the pixel values of the three LG pixels are values of the saturation level SV.
したがって、飽和画素対策が施されない撮像装置では、LG画素については飽和レベルSVの画素値を出力することになるので、図15Aの実線で示されるように被写体の真の輝度値からずれた画素値が得られる。 Therefore, in an imaging device that does not take measures against saturated pixels, the pixel value of the saturation level SV is output for the LG pixel, so that the pixel value deviated from the true luminance value of the subject as shown by the solid line in FIG. 15A. Is obtained.
これに対して、デモザイク処理回路14は、飽和レベルSVに達したLG画素の画素値は用いずに、短畜画素であるSB画素のゲイン処理後の画素値のみを用いてデモザイク画像を求めるので、図15Bの実線で示されるように、被写体の真の輝度値と一致した、正しい画素値を得ることができる。すなわち、撮像装置1によれば、被写体に対応した正確な画像を出力することができる。
On the other hand, the
また、従来、飽和画素対策として、飽和画素の画素値を、その周辺の画素の画素値で補間して求める方法がある。 Conventionally, as a countermeasure against saturated pixels, there is a method of obtaining a pixel value of a saturated pixel by interpolating with pixel values of surrounding pixels.
例えば、図16に示されるように、明部と暗部が、ある境界(エッジ)で急峻に切り替わるような被写体を撮影する場合について考える。図16右側の図は、図16左側の被写体のラインb上の各位置(垂直方向位置)における被写体の真の輝度値を示しており、暗部の真の輝度値がP1、明部の真の輝度値がP2であるとする。 For example, as shown in FIG. 16, consider a case where a subject in which a bright part and a dark part are sharply switched at a certain boundary (edge) is photographed. The diagram on the right side of FIG. 16 shows the true luminance value of the subject at each position (vertical direction position) on the line b of the subject on the left side of FIG. 16. The true luminance value of the dark portion is P 1 , and the true portion of the bright portion is true. luminance value is assumed to be P 2.
図16の被写体のラインbが、図17左側に示されるように、イメージセンサ12の、長畜画素のLG画素と短畜画素のSB画素が交互に配列されたラインb’の5画素で撮影されたとする。
The line b of the subject in FIG. 16 is photographed by five pixels of the line b ′ in which the LG pixels of the long pixels and the SB pixels of the short pixels are alternately arranged in the
この場合、図17右側に示されるように、2つのSB画素の画素値は、飽和レベルSV以下の画素値に対して、露光比Nに応じたゲインがかけられた画素値となっており、被写体の真の輝度値と等しい値となっている。一方、3つのLG画素の画素値のうち、図中一番下のLG画素の画素値は、飽和レベルSV以下の値であるので、被写体の真の輝度値と一致しているが、図中上側の2つのLG画素の画素値は、真の輝度値が飽和レベルSVより大きい値であるので、飽和レベルSVでクリップされている。 In this case, as shown on the right side of FIG. 17, the pixel values of the two SB pixels are pixel values obtained by multiplying the pixel value below the saturation level SV by a gain according to the exposure ratio N. The value is equal to the true luminance value of the subject. On the other hand, among the three LG pixel values, the pixel value of the bottom LG pixel in the figure is a value equal to or lower than the saturation level SV, and therefore matches the true luminance value of the subject. The pixel values of the upper two LG pixels are clipped at the saturation level SV because the true luminance value is larger than the saturation level SV.
このようにして得られたイメージセンサ12のラインb’における5画素の画素値に対して、従来、飽和レベルSVでクリップされた2つのLG画素の画素値が、その周辺の画素の画素値で補間して求められる。
For the pixel value of 5 pixels in the line b ′ of the
図18は、飽和レベルSVでクリップされた2つのLG画素の補間後の状態を示している。 FIG. 18 shows a state after interpolation of two LG pixels clipped at the saturation level SV.
図18に示されるように、一番上のLG画素は、明部の画素値P2に修正されるが、上から2番目のLG画素は、明部の画素値P2と、暗部の画素値P1の中間値((P1+P2)/2)に修正される。その結果、図19に示されるような、エッジ部分が明部と暗部の中間色となり、エッジがぼやけた画像になってしまう。 As shown in FIG. 18, the top LG pixel is corrected to the bright pixel value P 2 , but the second LG pixel from the top is the bright pixel value P 2 and the dark pixel. The value is corrected to an intermediate value ((P 1 + P 2 ) / 2) of the value P 1 . As a result, as shown in FIG. 19, the edge portion becomes an intermediate color between the bright portion and the dark portion, resulting in an image with blurred edges.
ここで、従来においても、上から2番目のLG画素がエッジ上の画素であることを考慮して、明部と暗部の画素値の中間値((P1+P2)/2)を、明部の画素値P2か、または、暗部の画素値P1のどちらかに切り分ける処理を追加的に行うことが考えられる。 Here, also in the past, considering that the second LG pixel from the top is the pixel on the edge, an intermediate value ((P 1 + P 2 ) / 2) of the pixel values of the bright part and the dark part is set to part of the pixel values P 2, or, it is conceivable to perform processing to isolate either of the dark part of the pixel value P 1 additionally.
しかしながら、明部の画素値P2および暗部の画素値P1自体もノイズ等によりばらつきがある。そして、補間により求められる2番目のLG画素の画素値は、それらにばらつきによって、図20に示されるように明部側の画素値P2となる場合や、図21に示されるように暗部側の画素値P1となる場合がある。その結果、図22に示されるように、最終的に出力される画像は、エッジ部分の画素値が画素ごとに揺れた画像となることがある。 However, there are variations in the pixel values P 2 and dark pixel value P 1 itself noises light portion. Then, the pixel value of the second LG pixel obtained by interpolation becomes a pixel value P 2 on the bright side as shown in FIG. 20 due to variations in them, or on the dark side as shown in FIG. it may become the pixel value P 1. As a result, as shown in FIG. 22, the image that is finally output may be an image in which the pixel value of the edge portion fluctuates for each pixel.
これに対して、デモザイク処理回路14は、飽和レベルSVに達したLG画素の画素値は用いずに、短畜画素であるSB画素のゲイン処理後の画素値のみを用いて各画素の画素値を求める。そのため、図23に示されるように、エッジが画素ごとに揺れることがない。図23の例では、エッジ部分の画素値が、明部側の画素値P2として出力されている。したがって、デモザイク処理回路14では、図24に示されるように、被写体の真の輝度値と一致した、正しい画素値を得ることができる。すなわち、撮像装置1によれば、被写体に対応した正確な画像を出力することができる。
On the other hand, the
[予測演算と予測係数の学習について]
次に、デモザイク処理回路14の予測演算部25における予測演算と、その予測演算に用いられる予測係数の学習について説明する。
[Prediction calculation and prediction coefficient learning]
Next, prediction calculation in the
いま、飽和画素が補間された画像信号を高画質画像信号とするとともに、その飽和画素がそのまま含まれた画像信号を低画質画像信号として、低画質画像信号から予測タップを抽出し、その予測タップと予測係数を用いて、高画質画像信号の画素(以下、適宜、高画質画素という。)の画素値を、所定の予測演算によって求める(予測する)ことを考える。 Now, an image signal in which saturated pixels are interpolated is used as a high-quality image signal, and an image signal including the saturated pixels as it is is used as a low-quality image signal, and a prediction tap is extracted from the low-quality image signal. It is assumed that the pixel value of a pixel of a high-quality image signal (hereinafter, appropriately referred to as a high-quality pixel) is obtained (predicted) by a predetermined prediction calculation using the prediction coefficient.
いま、所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。 Assuming that, for example, linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.
但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像信号の画素(以下、適宜、低画質画素という。)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目の予測係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 In Equation (1), x n represents the pixel value of the pixel of the n-th low-quality image signal (hereinafter referred to as “low-quality pixel” as appropriate) that constitutes the prediction tap for the high-quality pixel y. w n represents the n th prediction coefficient to be multiplied by the n th low image quality pixel (its pixel value). In equation (1), the prediction tap is assumed to be composed of N low image quality pixels x 1 , x 2 ,..., X N.
高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。 The pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.
いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.
いま、式(2)の予測値yk’は、式(1)にしたがって求められるため、式(2)のyk’を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).
但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (3), x n, k represents the nth low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.
式(3)(または式(2))の予測誤差ekを0とする予測係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような予測係数wnを求めることは、一般には困難である。 Prediction coefficient w n of the prediction error e k and 0 of the formula (3) (or Equation (2)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a correct prediction coefficient w n .
そこで、予測係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な予測係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for representing that the prediction coefficient w n is optimal, for example, when adopting the method of least squares, optimal prediction coefficient w n is the sum E of square errors expressed by the following formula It can be obtained by minimizing.
但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high image quality pixel y k and the low image quality pixels x 1, k , x 2, k ,..., X N constituting the prediction tap for the high image quality pixel y k. , k represents the number of samples (the number of learning samples).
式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eを予測係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that the sum E partially differentiated by the prediction coefficient w n by w n to 0.
そこで、上述の式(3)を予測係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (3) by the prediction coefficient w n, the following equation is obtained.
式(5)と式(6)から、次式(7)が得られる。 From the equations (5) and (6), the following equation (7) is obtained.
式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).
式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、予測係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the prediction coefficient w n.
式(8)の正規方程式をクラスごとにたてて解くことにより、最適な予測係数(ここでは、自乗誤差の総和Eを最小にする予測係数)wnを、クラスごとに求めることができる。 By solving each normal equation class of formula (8), the optimum prediction coefficient (here, a prediction coefficient that minimizes the sum E of square errors) to w n, can be found for each class.
[撮像処理のフローチャート]
図25のフローチャートを参照して、撮像装置1によるデモザイク画像生成処理について説明する。
[Flowchart of imaging processing]
With reference to the flowchart of FIG. 25, the demosaic image generation process by the
初めに、ステップS1において、イメージセンサ12は、被写体を撮像する。即ち、イメージセンサ12は、被写体光を受光し、その受光量に応じたアナログの電気信号をデジタルの電気信号に変換して、画像信号としてゲイン調整回路13に供給する。イメージセンサ12では、図6に示したように、画素位置によって長畜画素かまたは短畜画素かが予め決められており、各画素は、長畜画素かまたは短畜画素かに応じて予め決められた露光時間で受光している。
First, in step S1, the
ステップS2において、ゲイン調整回路13は、短畜画素の画素値に対して、露光比であるN倍のゲインをかけ、短畜画素と長畜画素の信号レベルを合わせる。ゲイン調整後の画像信号は、デモザイク処理回路14に出力される。
In step S <b> 2, the
ステップS3において、デモザイク処理回路14の飽和画素存在判定部21は、注目画素を設定する。すなわち、飽和画素存在判定部21は、予測演算により求めるデモザイク画像を構成する所定の画素を、予測演算対象の画素として注目する注目画素に設定する。
In step S3, the saturated pixel
ステップS4において、飽和画素存在判定部21は、予測タップおよびクラスタップとなる複数の画素のなかに飽和画素があるか否かを判定する。予測タップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部21は、飽和画素が存在する旨の検出信号を予測タップ抽出部22に供給する。また、クラスタップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部21は、飽和画素が存在する旨の検出信号をクラスタップ抽出部31に供給する。
In step S4, the saturated pixel
ステップS5において、クラスタップ抽出部31は、注目画素に対して設定するクラスタップのなかに飽和画素が存在するか、すなわち、飽和画素が存在した旨の検出信号が飽和画素存在判定部21から供給されたかを判定する。
In step S5, the class
ステップS5で、飽和画素が存在しないと判定された場合、処理はステップS6に進み、クラスタップ抽出部31は、注目画素近傍の所定の位置の複数の画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。ここでクラスタップとして抽出される複数の画素には、長畜画素と短畜画素の両方が含まれている。
If it is determined in step S5 that no saturated pixel exists, the process proceeds to step S6, and the class
一方、ステップS5で、飽和画素が存在すると判定された場合、処理はステップS7に進み、クラスタップ抽出部31は、クラスタップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、長畜画素を除外した短畜画素のみを、クラスタップとして抽出し、クラスコード発生部32に供給する。
On the other hand, if it is determined in step S5 that a saturated pixel exists, the process proceeds to step S7, and the class
ステップS8において、クラスコード発生部32は、クラスタップ抽出部31から供給されるクラスタップを1ビットADRC処理することによって、注目画素のクラスコードを求め、係数発生部24に供給する。
In step S <b> 8, the class
ステップS9において、係数発生部24は、クラスコード発生部32から供給される注目画素のクラスコードが表すクラスの予測係数を予測演算部25に供給する。
In step S <b> 9, the
ステップS10において、予測タップ抽出部22は、注目画素に対して設定する予測タップのなかに飽和画素が存在するか、すなわち、飽和画素が存在した旨の検出信号が飽和画素存在判定部21から供給されたかを判定する。
In step S <b> 10, the prediction
ステップS10で、飽和画素が存在しないと判定された場合、処理はステップS11に進み、予測タップ抽出部22は、注目画素近傍の所定の位置の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。ここで予測タップとして抽出される複数の画素には、長畜画素と短畜画素の両方が含まれている。
If it is determined in step S10 that no saturated pixel exists, the process proceeds to step S11, and the prediction
一方、ステップS10で、飽和画素が存在しないと判定された場合、処理はステップS12に進み、予測タップ抽出部22は、予測タップとして予め設定されている注目画素近傍の所定の位置の複数の画素のうち、長畜画素を除外した短畜画素のみを、予測タップとして抽出し、予測演算部25に供給する。
On the other hand, when it is determined in step S10 that no saturated pixel exists, the process proceeds to step S12, and the prediction
ステップS13において、予測演算部25は、予測タップ抽出部22から供給された予測タップと、係数発生部24から供給された予測係数とを用い、式(1)の演算(予測演算)を行うことにより、注目画素の画素値を求める。
In step S <b> 13, the
ステップS14において、予測演算部25は、生成画像としてのデモザイク画像の全画素を注目画素として求めたか否かを判定する。
In step S <b> 14, the
ステップS14で、全画素をまだ注目画素としていないと判定された場合、処理がステップS3に戻され、注目画素にまだ設定されていない画素を次の注目画素として、上述したステップS3乃至ステップS14の処理が繰り返される。 If it is determined in step S14 that all the pixels have not yet been set as the target pixel, the process returns to step S3, and a pixel that has not yet been set as the target pixel is set as the next target pixel to perform the above-described steps S3 to S14. The process is repeated.
一方、ステップS14で、全画素を注目画素としたと判定された場合、処理は終了する。 On the other hand, if it is determined in step S14 that all the pixels are the target pixel, the process ends.
以上の処理が、イメージセンサ12で被写体が撮像され、イメージセンサ12からフレーム画像(フィールド画像)の画像信号が出力される度、繰り返し実行される。
The above processing is repeatedly executed whenever a subject is imaged by the
[学習装置の構成例]
図26は、式(8)の正規方程式をたてて解くことによりクラスごとの予測係数wnを求める学習を行う学習装置51の構成例を示している。
[Configuration example of learning device]
Figure 26 shows an example of the configuration of a learning apparatus 51 performs learning for obtaining prediction coefficients w n for each class by solving the normal equations in equation (8).
学習装置51の学習用画像信号生成部61は、予測係数wnの学習に用いられる学習用画像信号としての教師データと生徒データを生成する。
Learning image
図27を参照して、学習用画像信号としての教師データと生徒データの生成について説明する。図27は、学習用画像信号生成部61の詳細構成例を示している。なお、以下の学習用画像信号の生成の説明において、露光比Nは10(長畜画素の露光時間:短畜画素の露光時間=10:1)であるとする。
The generation of teacher data and student data as learning image signals will be described with reference to FIG. FIG. 27 shows a detailed configuration example of the learning image
学習用画像信号生成部61は、積算部71、合成部72、ゲイン調整回路73、およびクリップ部74を少なくとも有する。
The learning image
初めに、全画素同一露光時間のイメージセンサで所定の被写体を撮影して得られた1枚の画像が積算部71に入力される。積算部71に入力される画像は、これから生成する教師画像と生徒画像のもととなる画像であり、基本画像と称する。
First, one image obtained by photographing a predetermined subject with an image sensor having the same exposure time for all pixels is input to the integrating
積算部71は、入力された1枚の基本画像を、露光比Nに応じて積算した画像を生成し、教師画像として出力する。すなわち、積算部71は、基本画像の各画素の画素値を10倍する処理を行い、その結果得られる画像を、教師画像として出力する。
The integrating
合成部72には、入力された1枚の基本画像と、積算部71で生成された教師画像が供給される。合成部72は、予測演算を行う撮像装置1のイメージセンサ12の長畜画素及び短畜画素の位置に対応するように、基本画像の画素値、または、教師画像の画素値を選択して、合成した合成画像を生成する。すなわち、合成部72は、イメージセンサ12の長畜画素の位置の画素値には、教師画像の対応する位置の画素値を選択し、イメージセンサ12の短畜画素の位置の画素値には、基本画像の対応する位置の画素値を選択した画像を、合成画像として生成する。生成した合成画像は、ゲイン調整回路73に供給される。
The
ゲイン調整回路73は、図5の撮像装置1において短畜画素と長畜画素の信号レベルを合わせるため短畜画素の画素値にゲインがかけられるのと同様に、短畜画素の位置の画素値に、露光比Nのゲインをかける処理を実行する。
The
クリップ部74は、ゲイン調整回路73から供給される、ゲイン処理後の合成画像の所定の1以上の長畜画素の画素値を、予め設定した飽和レベルでクリップさせる。飽和レベルでクリップされた長畜画素は、撮像装置1のイメージセンサ12で撮影した場合の飽和画素に対応する。したがって、以下では、合成画像の飽和レベルでクリップされた画素も、飽和画素と呼ぶことにする。クリップ部74は、クリップ処理後の画像を、生徒画像として出力する。
The
クリップ部74の後段には、クリップ部74で生成された生徒画像に、ランダムノイズを付加する処理、撮像装置1に特有の画像ボケや歪みを付加する処理などを行う付加処理部75を設けることができる。
An
学習用画像信号生成部61は、被写体を変える、クリップさせる画素位置を変える、などして、多数の教師画像と生徒画像の組を生成する。生成された多数の教師画像が、教師データとして教師データ記憶部62に記憶され、生成された多数の生徒画像が、生徒データとして生徒データ記憶部63に記憶される。
The learning image
図26の教師データ記憶部62は、教師データを記憶する。教師データ記憶部62に記憶されている教師画像を構成する画素が、順次、注目教師画素とされる。生徒データ記憶部63は、生徒データを記憶する。
The teacher
飽和画素存在判定部64は、図9の飽和画素存在判定部21と同様の飽和画素の存在判定を行う。すなわち、飽和画素存在判定部64は、注目教師画素に対して設定される予測タップとクラスタップの画素に、飽和画素が存在するか否かを判定し、判定結果を、予測タップ抽出部65とクラスタップ抽出部66に出力する。
The saturated pixel
予測タップ抽出部65は、生徒データ記憶部63から供給される、注目教師画素に対応する生徒画像の画素近傍の複数の画素を、予測タップとして抽出し、足し込み部68に供給する。ここで、予測タップ抽出部65が抽出する予測タップの位置は、図9の予測タップ抽出部22が抽出する予測タップの位置と同一の位置である。また、予測タップ抽出部65は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給された場合には、図9の予測タップ抽出部22と同様に、短畜画素に対応する位置の複数の画素のみを抽出する。
The prediction
クラスタップ抽出部66は、生徒データ記憶部63から供給される、注目教師画素に対応する生徒画像の画素近傍の複数の画素を、クラスタップとして抽出し、クラスコード発生部67に供給する。ここで、クラスタップ抽出部66が抽出するクラスタップの位置は、図9のクラスタップ抽出部31が抽出するクラスタップの位置と同一の位置である。また、クラスタップ抽出部66は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給された場合には、図9のクラスタップ抽出部31と同様に、短畜画素に対応する位置の複数の画素のみを抽出する。
The class
クラスコード発生部67は、クラスタップ抽出部66が出力するクラスタップに基づき、図9のクラスコード発生部32と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部68に出力する。
The class
足し込み部68は、教師データ記憶部62から、注目教師画素を読み出し、その注目教師画素と、予測タップ抽出部65から供給される、注目教師画素について構成された予測タップを構成する生徒データとを対象とした足し込みを、クラスコード発生部67から供給されるクラスコードごとに行う。
The adding
即ち、足し込み部68には、教師データ記憶部62に記憶された教師データyk、予測タップ抽出部65が出力する予測タップxn,k、クラスコード発生部67が出力するクラスコードが供給される。
That is, the
そして、足し込み部68は、クラスコード発生部67から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kxn',k)と、サメーション(Σ)に相当する演算を行う。
Then, the adding
さらに、足し込み部68は、やはり、クラスコード発生部67から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kyk)と、サメーション(Σ)に相当する演算を行う。
Further, the adding
即ち、足し込み部68は、前回、注目教師画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kxn',k)と、右辺のベクトルのコンポーネント(Σxn,kyk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kxn',k)またはベクトルのコンポーネント(Σxn,kyk)に対して、新たに注目教師画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1xn',k+1またはxn,k+1yk+1を足し込む(式(8)のサメーションで表される加算を行う)。
That is, the adding
そして、足し込み部68は、教師データ記憶部62に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、予測係数算出部69に供給する。
Then, the
予測係数算出部69は、足し込み部68から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適な予測係数wnを求めて出力する。
Prediction
図9のデモザイク処理回路14の係数発生部24には、以上のようにして求められたクラスごとの予測係数wmが記憶されている。
The
なお、上述の場合には、教師画像が、飽和画素が存在しない画像、生徒画像が、長畜画素に対応する所定の画素の画素値が所定の飽和レベルでクリップされた画像とされている。これにより、学習装置51で生成される予測係数としては、撮像装置1による撮影において、イメージセンサ12の長畜画素が飽和していた場合であっても、短畜画素のみを用いて適切に補間した画素値を生成するものを得ることができる。
In the above case, the teacher image is an image in which no saturated pixel exists, and the student image is an image in which the pixel value of a predetermined pixel corresponding to the long-lived pixel is clipped at a predetermined saturation level. Thereby, as a prediction coefficient produced | generated by the learning apparatus 51, even if it is a case where the long livestock pixel of the
さらに、図27の学習用画像信号生成部61において、ランダムノイズを付加する付加処理部75が追加された構成とされている場合には、飽和画素を適切に補間し、かつ、ランダムノイズを除去(低減)した画素値を生成する予測係数を生成することができる。
Further, in the case of the learning image
また、図27の学習用画像信号生成部61において、撮像装置1に特有の画像ボケや歪みを付加する処理などを行う付加処理部75が追加された構成とされている場合には、飽和画素を適切に補間し、かつ、画像ボケや歪みを除去(低減)した画素値を生成する予測係数を生成することができる。
In addition, in the learning image
[学習処理のフローチャート]
次に、図28のフローチャートを参照して、学習装置51の学習処理について説明する。
[Flowchart of learning process]
Next, the learning process of the learning device 51 will be described with reference to the flowchart of FIG.
最初に、ステップS41において、学習用画像信号生成部61は、学習用画像信号としての教師データと生徒データを生成し、生成した教師データを教師データ記憶部62に、生成した生徒データを生徒データ記憶部63にそれぞれ記憶させる。
First, in step S41, the learning image
ステップS42において、予測タップ抽出部65は、教師データ記憶部62に記憶された教師データのうち、まだ、注目教師画素としていないものを、注目教師画素とする。
In step S <b> 42, the prediction
ステップS43において、飽和画素存在判定部64は、注目教師画素に対応して予測タップおよびクラスタップとする生徒データの画素のなかに、飽和画素が存在するか否かを検出する。飽和画素存在判定部64は、予測タップとなる画素に飽和画素が存在する場合には、検出信号を予測タップ抽出部65に供給し、クラスタップとなる画素に飽和画素が存在する場合には、検出信号をクラスタップ抽出部66に供給する。
In step S43, the saturated pixel
ステップS44において、予測タップ抽出部65は、注目教師画素について、生徒データ記憶部63に記憶された生徒データから予測タップを抽出し、足し込み部68に供給する。ここで、予測タップ抽出部65は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給されている場合には、長畜画素を除いた短畜画素のみを用いて予測タップを構成する。
In step S <b> 44, the prediction
ステップS45において、クラスタップ抽出部66は、注目教師画素について、生徒データ記憶部63に記憶された生徒データからクラスタップを抽出し、クラスコード発生部67に供給する。ここで、クラスタップ抽出部66は、飽和画素存在判定部64から、飽和画素が存在する旨の検出信号が供給されている場合には、長畜画素を除いた短畜画素のみを用いてクラスタップを構成する。
In step S <b> 45, the class
そして、ステップS46において、クラスコード発生部67は、注目教師画素についてのクラスタップに基づき、注目教師画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部68に出力する。
In step S46, the
ステップS47において、足し込み部68は、教師データ記憶部62から、注目教師画素を読み出し、その注目教師画素と、予測タップ抽出部65から供給される注目教師画素について構成された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラスコード発生部67から供給されるクラスコード(クラス)ごとに行う。
In step S <b> 47, the adding
ステップS48において、予測タップ抽出部65は、教師データ記憶部62に、まだ注目教師画素としていない教師データが記憶されているかどうかを判定する。ステップS48で、注目教師画素としていない教師データが、教師データ記憶部62にまだ記憶されていると判定された場合、処理はステップS42に戻り、予測タップ抽出部65は、まだ注目教師画素としていない教師データを、新たに注目教師画素として、以下、同様の処理が繰り返される。
In step S <b> 48, the prediction
一方、ステップS48で、注目教師画素としていない教師データが、教師データ記憶部62に記憶されていないと判定された場合、処理はステップS49に進む。ステップS49おいて、足し込み部68は、いままでの処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、予測係数算出部69に供給する。
On the other hand, if it is determined in step S48 that the teacher data that is not the attention teacher pixel is not stored in the teacher
また、ステップS49では、予測係数算出部69は、足し込み部68から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、クラスごとに予測係数wnを求めて、処理を終了する。
In step S49, the prediction
以上の学習処理が学習装置51で実行されることにより、図9のデモザイク処理回路14の係数発生部24に記憶されるクラスごとの予測係数が求められる。
When the learning process described above is executed by the learning device 51, the prediction coefficient for each class stored in the
なお、学習用画像信号の数が十分でないこと等に起因して、予測係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、予測係数算出部69は、例えば、デフォルトの予測係数を出力するようになっている。
It should be noted that due to the number of learning image signals being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining a prediction coefficient cannot be obtained. For example, the prediction
<2.第2の実施の形態>
次に、本技術を適用した撮像装置の第2の実施の形態について説明する。
<2. Second Embodiment>
Next, a second embodiment of an imaging apparatus to which the present technology is applied will be described.
撮像装置1の第2の実施の形態は、図5の撮像装置1に対してデモザイク処理回路14の構成のみが異なる。そこで、第2の実施の形態のデモザイク処理回路14の構成について説明する。以下では、第1の実施の形態のデモザイク処理回路14を、デモザイク処理回路14の第1の構成と称し、第2の実施の形態のデモザイク処理回路14を、デモザイク処理回路14の第2の構成と称する。
The second embodiment of the
[デモザイク処理回路の構成例]
図29は、デモザイク処理回路14の第2の構成を示すブロック図である。
[Configuration example of demosaic processing circuit]
FIG. 29 is a block diagram showing a second configuration of the
図29のデモザイク処理回路14は、上述したデモザイク処理回路14の第1の構成と比較すると、飽和画素存在判定部81、予測タップ抽出部82、および、クラスタップ抽出部83が異なる。図29のデモザイク処理回路14のうち、第1の構成と同一部分についての説明は適宜省略する。
The
上述した第1の構成の飽和画素存在判定部21は、注目画素に対して予測タップおよびクラスタップとなる画素に、飽和画素が存在するか否かを判定し、判定結果を出力する。
The saturated pixel
図29の第2の構成では、飽和画素存在判定部81は、注目画素に対して予測タップおよびクラスタップとなる画素に、飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報を出力する。
In the second configuration of FIG. 29, the saturated pixel
すなわち、飽和画素存在判定部81は、予測タップ抽出部82で予測タップとして抽出される複数の画素に飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報を予測タップ抽出部82に出力する。また、飽和画素存在判定部81は、クラスタップとして抽出される複数の画素のいずれかに飽和画素が存在するか否かを判定し、飽和画素が存在すると判定された場合、その飽和画素の位置を示す飽和画素位置情報をクラスタップ抽出部83に出力する。
That is, the saturated pixel
飽和画素位置情報は、例えば、予測タップまたはクラスタップとされる(予定の)複数の画素を、所定の順番(例えば、ラスター走査の順番)に、飽和画素を「1」、非飽和画素を「0」として表した情報とすることができる。また、「1」または「0」が画素数だけ連続する飽和画素位置情報に対して、DPCM(予測符号化)などのデータ圧縮技術を使用すれば、さらに、データ量を削減して、予測タップ抽出部82およびクラスタップ抽出部83に提供することができる。
The saturated pixel position information includes, for example, a plurality of (scheduled) pixels to be predicted taps or class taps in a predetermined order (for example, raster scanning order), saturated pixels “1”, and unsaturated pixels “ Information represented as “0” can be used. In addition, if a data compression technique such as DPCM (predictive coding) is used for saturated pixel position information in which “1” or “0” continues for the number of pixels, the amount of data can be further reduced and prediction taps can be made. The data can be provided to the
予測タップ抽出部82は、第1の構成の予測タップ抽出部22と同様に、予測するデモザイク画像の注目画素の画素値を予測するのに用いる、モザイク画像を構成する画素(の画素値)を、予測タップとして抽出し、予測演算部25に供給する。
Similar to the prediction
具体的には、予測タップ抽出部82は、飽和画素存在判定部81から飽和画素が存在しないことを示す飽和画素位置情報が供給された場合、モザイク画像の注目画素近傍の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。この場合、予測タップとして抽出される複数の画素は、第1の構成の予測タップ抽出部22と同一となる。
Specifically, when the saturated pixel position information indicating that no saturated pixel exists is supplied from the saturated pixel
一方、飽和画素存在判定部81から飽和画素が存在していることを示す飽和画素位置情報が供給された場合、予測タップ抽出部82は、モザイク画像の注目画素近傍の複数の画素のうち、飽和画素位置情報で飽和画素と示された画素を除いた画素を、予測タップとして抽出し、予測演算部25に供給する。
On the other hand, when saturated pixel position information indicating that a saturated pixel exists is supplied from the saturated pixel
クラスタップ抽出部83は、第1の構成のクラスタップ抽出部31と同様に、注目画素のクラス分類を行うのに用いるモザイク画像の複数の画素を、クラスタップとして抽出する。飽和画素存在判定部81から飽和画素が存在しないことを示す飽和画素位置情報が供給された場合、クラスタップ抽出部83は、注目画素に対応するモザイク画像の画素に対して、空間的に近い位置(近傍)にあるモザイク画像の複数の画素を、クラスタップとして抽出する。この場合、クラスタップとして抽出される複数の画素は、第1の構成のクラスタップ抽出部31と同一となる。
Similar to the class
一方、飽和画素存在判定部81から飽和画素が存在していることを示す飽和画素位置情報が供給された場合、クラスタップ抽出部83は、クラスタップとして抽出するモザイク画像の複数の画素のうち、飽和画素位置情報で飽和画素と示された画素を除いた画素を、クラスタップとして抽出する。
On the other hand, when the saturated pixel position information indicating that a saturated pixel exists is supplied from the saturated pixel
図10を参照して説明したクラスタップ及び予測タップの例で、予測タップ抽出部82とクラスタップ抽出部83の動作について説明する。
The operations of the prediction
クラスタップの抽出対象画素として、図10Aに示される画素が、予測タップの抽出対象画素として、図10Bに示される画素が、それぞれ決められている。また、そのうち、図11に示される、一番上の行の最も左側の画素と、それから右方向に2画素移動した画素の2つが飽和画素として検出され、その飽和画素位置情報が予測タップ抽出部82およびクラスタップ抽出部83に供給されたとする。
The pixel shown in FIG. 10A is determined as the class tap extraction target pixel, and the pixel shown in FIG. 10B is determined as the prediction tap extraction target pixel. Of these, two pixels, the leftmost pixel in the top row and the pixel moved two pixels to the right from the uppermost row shown in FIG. 11, are detected as saturated pixels, and the saturated pixel position information is the prediction tap extraction unit. 82 and the class
この場合、クラスタップと予測タップは、図30に示されるようになる。図30Aは、クラスタップ抽出部83により抽出されるクラスタップの例を示しており、図30Bは、予測タップ抽出部82により抽出される予測タップの例を示している。
In this case, the class tap and the prediction tap are as shown in FIG. FIG. 30A shows an example of class taps extracted by the class
クラスタップ抽出部83では、図12Aと比較して明らかなように、飽和画素ではないLG画素も、クラスタップとして抽出される。予測タップ抽出部82でも同様に、図12Bと比較して明らかなように、飽和画素ではないLG画素も、予測タップとして抽出される。
As apparent from the comparison with FIG. 12A, the class
係数発生部24には、第1の実施の形態と同様に、学習装置51の学習処理により得られたクラスごとの予測係数が記憶される。ただし、第2の実施の形態のための学習処理では、飽和画素の検出、クラスタップの抽出、および予測タップの抽出が、飽和画素存在判定部81、予測タップ抽出部82、およびクラスタップ抽出部83と同様に行われる点が第1の実施の形態のための学習処理と異なる。
Similar to the first embodiment, the
なお、本実施の形態では、飽和画素位置情報が予測タップ抽出部82に供給され、予測タップ抽出部82が、飽和画素の画素値を予測演算部25に出力しないことにより、予測演算部25では、式(1)の予測演算の飽和画素部分が省略される。しかし、飽和画素位置情報が予測演算部25に供給されるようにして、予測演算部25が、式(1)の予測演算の飽和画素部分の予測係数を「0」に置き換えるなどして省略するようにしてもよい。この場合、予測タップ抽出部82は、飽和画素が存在するか否かに関わらず、注目画素に対する所定位置の複数画素の画素値を常に予測演算部25に出力することになる。
In the present embodiment, saturation pixel position information is supplied to the prediction
[撮像処理のフローチャート]
図31のフローチャートを参照して、第2の実施の形態におけるデモザイク画像生成処理について説明する。
[Flowchart of imaging processing]
A demosaic image generation process according to the second embodiment will be described with reference to the flowchart of FIG.
ステップS61乃至S63は、上述した図25のステップS1乃至S3と同様であるので、その説明は省略する。 Steps S61 to S63 are the same as steps S1 to S3 in FIG.
ステップS64において、飽和画素存在判定部81は、予測タップおよびクラスタップとなる複数の画素のなかに飽和画素があるか否かを判定する。予測タップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部81は、飽和画素の位置を示す飽和画素位置情報を予測タップ抽出部82に供給する。また、クラスタップとなる複数の画素のなかに飽和画素を検出した場合、飽和画素存在判定部81は、飽和画素の位置を示す飽和画素位置情報をクラスタップ抽出部83に供給する。
In step S64, the saturated pixel
ステップS65において、クラスタップ抽出部83は、注目画素に対して設定するクラスタップのなかに飽和画素が存在するか、すなわち、飽和画素の存在を示す飽和画素位置情報が飽和画素存在判定部81から供給されたかを判定する。
In step S65, the class
ステップS65で、飽和画素が存在しないと判定された場合、処理はステップS66に進み、クラスタップ抽出部83は、注目画素近傍の所定の位置の複数の画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。
If it is determined in step S65 that no saturated pixel exists, the process proceeds to step S66, and the class
一方、ステップS65で、飽和画素が存在すると判定された場合、処理はステップS67に進む。ステップS67では、クラスタップ抽出部83は、クラスタップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、飽和画素を除いた画素を、クラスタップとして抽出し、クラスコード発生部32に供給する。
On the other hand, if it is determined in step S65 that a saturated pixel exists, the process proceeds to step S67. In step S67, the class
次のステップS68およびS69では、図25のステップS8およびS9と同様に、クラスコード発生部32が注目画素のクラスコードを求め、係数発生部24が、クラスコードに対応する予測係数を予測演算部25に供給する。
In the next steps S68 and S69, as in steps S8 and S9 of FIG. 25, the class
ステップS70において、予測タップ抽出部82は、注目画素に対して設定する予測タップのなかに飽和画素が存在するか、すなわち、飽和画素の存在を示す飽和画素位置情報が飽和画素存在判定部81から供給されたかを判定する。
In step S <b> 70, the prediction
ステップS70で、飽和画素が存在しないと判定された場合、処理はステップS71に進み、予測タップ抽出部82は、注目画素近傍の所定の位置の複数の画素を、予測タップとして抽出し、予測演算部25に供給する。
If it is determined in step S70 that no saturated pixel exists, the process proceeds to step S71, and the prediction
一方、ステップS70で、飽和画素が存在しないと判定された場合、処理はステップS72に進む。ステップS72では、予測タップ抽出部22は、予測タップとして設定対象の注目画素近傍の所定の位置の複数の画素のうち、飽和画素を除いた画素を、予測タップとして抽出し、予測演算部25に供給する。
On the other hand, if it is determined in step S70 that no saturated pixel exists, the process proceeds to step S72. In step S <b> 72, the prediction
ステップS73およびS74の処理は、上述した図25のステップS13およびS14の処理と同様であるので、説明は省略する。 The processing in steps S73 and S74 is the same as the processing in steps S13 and S14 in FIG.
以上の処理が、イメージセンサ12で被写体が撮像され、イメージセンサ12からフレーム画像(フィールド画像)の画像信号が出力される度、繰り返し実行される。
The above processing is repeatedly executed whenever a subject is imaged by the
以上のように、第1の実施の形態では、デモザイク処理回路14は、飽和画素が検出された場合に、クラスタップまたは予測タップの対象画素のうち、長畜画素の全ての画素値を除いた画素を、クラスタップまたは予測タップとした。
As described above, in the first embodiment, the
一方、第2の実施の形態では、デモザイク処理回路14は、飽和画素が検出された場合に、クラスタップまたは予測タップの対象画素のうち、飽和画素のみを除いた画素を、クラスタップまたは予測タップとした。
On the other hand, in the second embodiment, the
第1の実施の形態および第2の実施の形態のいずれを採用した場合でも、飽和画素を含まない注目画素近傍の複数の画素を用いてクラスコードを決定するので、クラス分類部23では、注目画素を、間違ったクラスにクラス分類することを防止(低減)することができる。また、予測演算部25では、飽和画素の画素値を用いずに予測演算を行うことができるので、撮像装置1では、飽和画素を適切に補間したデモザイク画像を生成することができる。すなわち、撮像装置1では、広ダイナミックレンジを実現したデモザイク画像を生成することができる。
In either case of adopting the first embodiment or the second embodiment, the class code is determined using a plurality of pixels in the vicinity of the target pixel not including the saturated pixel. Pixels can be prevented (reduced) from being classified into the wrong class. In addition, since the
なお、撮像装置1では、上述したデモザイク処理回路14の第1の実施の形態と第2の実施の形態を選択的に実行させるようにすることも可能である。
Note that the
また、従来、飽和画素の画素値を非飽和画素から補間して求める場合、補間の精度は回路規模とトレードオフの関係にあり、補間の精度を向上させようとすると、補間処理の回路規模が大きくなる。撮像装置1では、回路規模を増大させることなく、飽和画素を正しく補間したデモザイク処理を実行することができる。
Conventionally, when the pixel value of a saturated pixel is obtained by interpolation from a non-saturated pixel, the accuracy of the interpolation is in a trade-off relationship with the circuit scale. growing. The
なお、上述した実施の形態では、イメージセンサ12は、長い露光時間で受光する画素と、それより短い露光時間で受光する画素の2種類の露光時間の画素の組み合わせとされていた。
In the above-described embodiment, the
しかし、本技術は、2種類の異なる露光時間の画素(画素群)の組み合わせに限らず、3種類以上の露光時間の画素(画素群)の組み合わせでもよい。例えば、イメージセンサ12を、露光時間の長い方から、長畜画素、中畜画素、短畜画素(長畜画素>中畜画素>短畜画素)の3種類の露光時間の画素(画素群)の組み合わせとして、長畜画素の飽和画素を検出して、上述のデモザイク画像生成処理を実行することができる。この場合、長畜画素の飽和画素が検出された場合、予測タップおよびクラスタップとして中畜画素と短畜画素のみを用いるようにしてもよいし、中畜画素及び短畜画素と非飽和の長畜画素を用いるようにしてもよい。また、長畜画素と中畜画素の飽和画素を検出して、予測タップおよびクラスタップとして短畜画素のみを用いるようにしてもよいし、短畜画素と非飽和の長畜画素及び中畜画素を用いるようにしてもよい。
However, the present technology is not limited to a combination of two types of pixels (pixel groups) having different exposure times, and may be a combination of pixels (pixel groups) having three or more types of exposure times. For example, the
上述した例では、デモザイク処理回路14が、撮像装置1の一部として組み込まれた構成として説明したが、露光時間の異なる複数の画素群が規則的に配列された撮像素子から出力される画像信号を、上述のようにデモザイク処理する画像処理装置として独立して構成することができる。この場合、デモザイク処理回路14は、それ単独で、または、必要に応じてゲイン調整回路13や圧縮処理回路15などを加えた形で、1チップ(SOC :System On Chip)で構成することができる。
In the example described above, the
また、上述した例は、イメージセンサ12が出力する画像信号から飽和画素を検出し、検出された飽和画素を除いたクラスタップおよび予測タップを用いるクラス分類適応処理を、デモザイク処理に適用した例である。しかし、デモザイク処理以外の処理に、上述のクラス分類適応処理を適用してもよい。例えば、R,G,Bの画素配列を、R,G,B+W(ホワイト)の画素配列へ変換するリデモザイク処理、画像のスケールを変換するスケール変換処理、画像の解像度を高解像度に変換する高解像度処理(超解像処理)などに適用してもよい。また、上述のクラス分類適応処理を適用したデモザイク処理、リデモザイク処理、スケール変換処理、および高解像度処理の2以上を直列または並列に実行してもよい。
The above-described example is an example in which a saturated pixel is detected from the image signal output from the
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 32 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 are connected to each other via a
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
An input /
入力部106は、キーボード、マウス、マイクロホンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性の半導体メモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
The
以上のように構成されるコンピュータでは、処理プロセッサとしてのCPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータでは、プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。 In the present specification, the steps described in the flowcharts are performed in parallel or in a call even if they are not necessarily processed in time series, as well as in time series in the order described. It may be executed at a necessary timing such as when.
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
なお、本技術は以下のような構成も取ることができる。
(1)
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部と
を備える画像処理装置。
(2)
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素のみからなる周囲画素を特定する
前記(1)に記載の画像処理装置。
(3)
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素からなる周囲画素を特定する
前記(1)乃至(2)のいずれかに記載の画像処理装置。
(4)
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素と、前記飽和画素の属する素子群の前記飽和画素以外の画素からなる周囲画素を特定する
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記露光時間の異なる複数の素子群として、第1の露光時間の第1の素子群と、前記第1の露光時間より短い第2の露光時間の第2の素子群があり、
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素と、前記飽和画素以外の前記第1の素子群の画素からなる周囲画素を特定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記露光時間の異なる複数の素子群は、色成分に応じて規則的に配列されており、前記第2の素子群は、複数の色成分のうちの一つの色成分である
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記色成分の配列はベイヤ配列であり、前記第2の素子群の色成分は緑色である
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記露光時間の異なる複数の素子群の信号レベルを合わせるレベル調整部をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記撮像素子を介して取得された画像がモザイク画像であり、
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(10)
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された低解像度の画像から、それより高解像度の画像を生成し、出力する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)
前記予測演算部は、前記予測演算処理により、前記撮像素子を介して取得された第1の色配列の画像から、それと異なる第2の色配列の画像を生成し、出力する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群を少なくとも含む画素からなる周囲画素に基づいて、予測演算する画像の画素を所定のクラスに分類するクラス分類部をさらに備え、
前記予測演算部は、前記クラス分類部により分類された前記所定のクラスに対応する予測係数と、前記周囲画素特定部により特定された前記周囲画素の画素値とを用いて、前記画像の予測演算処理を行う
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
画像処理装置が、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う
ステップを含む画像処理方法。
(14)
コンピュータを、
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部
として機能させるためのプログラム。
(15)
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、
コンピュータで実行可能な前記指示を記録するメモリと
を備える装置。
In addition, this technique can also take the following structures.
(1)
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing apparatus comprising: a prediction calculation unit that performs an image prediction calculation process based on the surrounding pixels.
(2)
The image processing apparatus according to (1), wherein the surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes only pixels of an element group different from the element group to which the saturated pixel belongs.
(3)
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes pixels of the second element group different from the first element group to which the saturated pixel belongs. The image processing apparatus according to any one of (2).
(4)
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, and is a surrounding pixel composed of a pixel other than the element group to which the saturated pixel belongs and a pixel other than the saturated pixel of the element group to which the saturated pixel belongs. The image processing apparatus according to any one of (1) to (3).
(5)
The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, the pixel of the second element group different from the first element group to which the saturated pixel belongs, and the first element other than the saturated pixel The image processing apparatus according to any one of (1) to (4), wherein surrounding pixels including a group of pixels are specified.
(6)
The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. The image processing apparatus according to any one of (5).
(7)
The image processing apparatus according to any one of (1) to (6), wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
(8)
The image processing apparatus according to any one of (1) to (7), further including a level adjustment unit that adjusts signal levels of a plurality of element groups having different exposure times.
(9)
The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to any one of (1) to (7), wherein the prediction calculation unit performs prediction calculation processing of an image after demosaicing.
(10)
The prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging device by the prediction calculation process. Any one of (1) to (9) An image processing apparatus according to 1.
(11)
The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired via the image sensor by the prediction calculation processing. The image processing apparatus according to any one of (10).
(12)
A class classification unit that classifies pixels of an image to be predicted into a predetermined class based on surrounding pixels that are located in the vicinity of the saturated pixel and that include pixels that include at least an element group different from the element group to which the saturated pixel belongs. In addition,
The prediction calculation unit uses the prediction coefficient corresponding to the predetermined class classified by the class classification unit and the pixel value of the surrounding pixel specified by the surrounding pixel specifying unit, to predict the image The image processing device according to any one of (1) to (11), wherein processing is performed.
(13)
The image processing device
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing method including a step of performing an image prediction calculation process based on the surrounding pixels.
(14)
Computer
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
The program for functioning as a prediction calculation part which performs the prediction calculation process of an image based on the said surrounding pixel.
(15)
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
A processor capable of executing an instruction to perform prediction calculation processing of an image based on the surrounding pixels;
And a memory for recording the instructions executable by a computer.
1 撮像装置, 12 イメージセンサ, 13 ゲイン調整回路, 14 デモザイク処理回路, 21 飽和画素存在判定部, 22 予測タップ抽出部, 23 クラス分類部, 24 係数発生部, 25 予測演算部, 31 クラスタップ抽出部, 32 クラスコード発生部, 81 飽和画素存在判定部, 82 予測タップ抽出部, 83 クラスタップ抽出部
DESCRIPTION OF
Claims (20)
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部と
を備える画像処理装置。 A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing apparatus comprising: a prediction calculation unit that performs an image prediction calculation process based on the surrounding pixels.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes only pixels of an element group different from the element group to which the saturated pixel belongs.
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素からなる周囲画素を特定する
請求項2に記載の画像処理装置。 The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes pixels of the second element group different from the first element group to which the saturated pixel belongs. Image processing apparatus.
請求項3に記載の画像処理装置。 The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. Image processing apparatus.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a level adjustment unit that adjusts signal levels of the plurality of element groups having different exposure times.
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
請求項1に記載の画像処理装置。 The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to claim 1, wherein the prediction calculation unit performs a prediction calculation process on the demosaiced image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging element by the prediction calculation process.
請求項1に記載の画像処理装置。 The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired through the imaging device by the prediction calculation processing. Image processing apparatus.
前記予測演算部は、前記クラス分類部により分類された前記所定のクラスに対応する予測係数と、前記周囲画素特定部により特定された前記周囲画素の画素値とを用いて、前記画像の予測演算処理を行う
請求項1に記載の画像処理装置。 The image processing apparatus further includes a class classification unit that classifies pixels of an image to be predicted and calculated into a predetermined class based on surrounding pixels that are located in the vicinity of the saturated pixel and include pixels of a device group different from the device group to which the saturated pixel belongs ,
The prediction calculation unit uses the prediction coefficient corresponding to the predetermined class classified by the class classification unit and the pixel value of the surrounding pixel specified by the surrounding pixel specifying unit, to predict the image The image processing apparatus according to claim 1, wherein processing is performed.
請求項1に記載の画像処理装置。 The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, and is a surrounding pixel composed of a pixel other than the element group to which the saturated pixel belongs and a pixel other than the saturated pixel of the element group to which the saturated pixel belongs. The image processing apparatus according to claim 1.
前記周囲画素特定部は、前記飽和画素の近傍に位置し、前記飽和画素の属する前記第1の素子群とは異なる前記第2の素子群の画素と、前記飽和画素以外の前記第1の素子群の画素からなる周囲画素を特定する
請求項11に記載の画像処理装置。 The plurality of element groups having different exposure times include a first element group having a first exposure time and a second element group having a second exposure time shorter than the first exposure time,
The surrounding pixel specifying unit is located in the vicinity of the saturated pixel, the pixel of the second element group different from the first element group to which the saturated pixel belongs, and the first element other than the saturated pixel The image processing apparatus according to claim 11, wherein a surrounding pixel composed of a group of pixels is specified.
請求項12に記載の画像処理装置。 The plurality of element groups having different exposure times are regularly arranged according to color components, and the second element group is one color component of the plurality of color components. Image processing apparatus.
請求項13に記載の画像処理装置。 The image processing apparatus according to claim 13, wherein the arrangement of the color components is a Bayer arrangement, and the color component of the second element group is green.
前記予測演算部は、デモザイク後の画像の予測演算処理を行う
請求項1に記載の画像処理装置。 The image acquired through the image sensor is a mosaic image,
The image processing apparatus according to claim 1, wherein the prediction calculation unit performs a prediction calculation process on the demosaiced image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the prediction calculation unit generates and outputs a higher-resolution image from a low-resolution image acquired through the imaging element by the prediction calculation process.
請求項1に記載の画像処理装置。 The prediction calculation unit generates and outputs an image of a second color arrangement different from the image of the first color arrangement acquired through the imaging device by the prediction calculation processing. Image processing apparatus.
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出し、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う
ステップを含む画像処理方法。 The image processing device
A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
An image processing method including a step of performing an image prediction calculation process based on the surrounding pixels.
露光時間の異なる複数の素子群が規則的に配列された撮像素子を介して取得された画像から、飽和画素を検出する飽和画素検出部と、
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定する周囲画素特定部と、
前記周囲画素に基づいて、画像の予測演算処理を行う予測演算部
として機能させるためのプログラム。 Computer
A saturated pixel detection unit for detecting a saturated pixel from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged;
A surrounding pixel specifying unit that specifies a surrounding pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
The program for functioning as a prediction calculation part which performs the prediction calculation process of an image based on the said surrounding pixel.
前記飽和画素の近傍に位置し、前記飽和画素の属する素子群とは異なる素子群の画素を含む周囲画素を特定し、
前記周囲画素に基づいて、画像の予測演算処理を行う指示を実行可能なプロセッサと、
コンピュータで実行可能な前記指示を記録するメモリと
を備える装置。 A saturated pixel is detected from an image acquired through an image sensor in which a plurality of element groups having different exposure times are regularly arranged,
A peripheral pixel that is located in the vicinity of the saturated pixel and includes a pixel of an element group different from the element group to which the saturated pixel belongs;
A processor capable of executing an instruction to perform prediction calculation processing of an image based on the surrounding pixels;
And a memory for recording the instructions executable by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012023049A JP2013162347A (en) | 2012-02-06 | 2012-02-06 | Image processor, image processing method, program, and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012023049A JP2013162347A (en) | 2012-02-06 | 2012-02-06 | Image processor, image processing method, program, and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013162347A true JP2013162347A (en) | 2013-08-19 |
Family
ID=49174259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012023049A Pending JP2013162347A (en) | 2012-02-06 | 2012-02-06 | Image processor, image processing method, program, and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013162347A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015065620A (en) * | 2013-09-26 | 2015-04-09 | 京セラドキュメントソリューションズ株式会社 | Image reading device and image forming apparatus |
WO2017141544A1 (en) * | 2016-02-16 | 2017-08-24 | ソニー株式会社 | Image processing device, image processing method, and program |
WO2017149932A1 (en) * | 2016-03-03 | 2017-09-08 | ソニー株式会社 | Medical image processing device, system, method, and program |
KR20180128802A (en) * | 2017-05-24 | 2018-12-04 | 삼성전자주식회사 | Pixel circuit and image sensor including thereof |
WO2020153630A1 (en) * | 2019-01-24 | 2020-07-30 | 삼성전자 주식회사 | Image processing method and electronic device for supporting same |
WO2020255242A1 (en) * | 2019-06-18 | 2020-12-24 | 日本電信電話株式会社 | Restoration device, restoration method, and program |
CN115118870A (en) * | 2021-03-19 | 2022-09-27 | 爱思开海力士有限公司 | Image processing apparatus and method of operating the same |
JP7463186B2 (en) | 2020-05-26 | 2024-04-08 | キヤノン株式会社 | Information processing device, information processing method, and program |
-
2012
- 2012-02-06 JP JP2012023049A patent/JP2013162347A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015065620A (en) * | 2013-09-26 | 2015-04-09 | 京セラドキュメントソリューションズ株式会社 | Image reading device and image forming apparatus |
JP7000861B2 (en) | 2016-02-16 | 2022-02-04 | ソニーグループ株式会社 | How to operate image processing equipment and medical equipment and programs |
US10523874B2 (en) | 2016-02-16 | 2019-12-31 | Sony Corporation | Image processing apparatus, image processing method, and program |
WO2017141544A1 (en) * | 2016-02-16 | 2017-08-24 | ソニー株式会社 | Image processing device, image processing method, and program |
JPWO2017141544A1 (en) * | 2016-02-16 | 2018-12-13 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JPWO2017149932A1 (en) * | 2016-03-03 | 2018-12-27 | ソニー株式会社 | Medical image processing apparatus, system, method and program |
WO2017149932A1 (en) * | 2016-03-03 | 2017-09-08 | ソニー株式会社 | Medical image processing device, system, method, and program |
US11244478B2 (en) | 2016-03-03 | 2022-02-08 | Sony Corporation | Medical image processing device, system, method, and program |
US11184566B2 (en) | 2017-05-24 | 2021-11-23 | Samsung Electronics Co., Ltd. | Pixel circuit and image sensor including thereof |
KR102354991B1 (en) * | 2017-05-24 | 2022-01-24 | 삼성전자주식회사 | Pixel circuit and image sensor including thereof |
KR20180128802A (en) * | 2017-05-24 | 2018-12-04 | 삼성전자주식회사 | Pixel circuit and image sensor including thereof |
US11778344B2 (en) | 2017-05-24 | 2023-10-03 | Samsung Electronics Co., Ltd. | Pixel circuit and image sensor including thereof |
WO2020153630A1 (en) * | 2019-01-24 | 2020-07-30 | 삼성전자 주식회사 | Image processing method and electronic device for supporting same |
WO2020255242A1 (en) * | 2019-06-18 | 2020-12-24 | 日本電信電話株式会社 | Restoration device, restoration method, and program |
JPWO2020255242A1 (en) * | 2019-06-18 | 2020-12-24 | ||
JP7188589B2 (en) | 2019-06-18 | 2022-12-13 | 日本電信電話株式会社 | Restoration device, restoration method and program |
JP7463186B2 (en) | 2020-05-26 | 2024-04-08 | キヤノン株式会社 | Information processing device, information processing method, and program |
CN115118870A (en) * | 2021-03-19 | 2022-09-27 | 爱思开海力士有限公司 | Image processing apparatus and method of operating the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7548689B2 (en) | Image processing method | |
KR101205842B1 (en) | Method of forming an image based on a plurality of image frames, image processing system and digital camera | |
US8896712B2 (en) | Determining and correcting for imaging device motion during an exposure | |
JP2013162347A (en) | Image processor, image processing method, program, and device | |
JP5713752B2 (en) | Image processing apparatus and control method thereof | |
US7973827B2 (en) | Image data generating apparatus, method and program for generating an image having high spatial and high temporal resolution | |
KR101594292B1 (en) | A digital photographing device a method for controlling a digital photographing device and a computer-readable storage medium | |
JP5408053B2 (en) | Image processing apparatus and image processing method | |
KR100745386B1 (en) | Image signal processor, image signal processing method, learning device, learning method, and recorded medium | |
JP5672796B2 (en) | Image processing apparatus and image processing method | |
JP2012235332A (en) | Imaging apparatus, imaging apparatus control method and program | |
JP6312487B2 (en) | Image processing apparatus, control method therefor, and program | |
CN102629976A (en) | Image processing apparatus, and control method thereof | |
US7868925B2 (en) | Device, method, and program for generating high-resolution image data at a low data transfer rate | |
JP4494505B1 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and recording medium | |
US8237829B2 (en) | Image processing device, image processing method, and imaging apparatus | |
JP7297406B2 (en) | Control device, imaging device, control method and program | |
JP7463640B2 (en) | Method, apparatus and storage medium for spatially multiplexed exposure | |
JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
JP2008294524A (en) | Image processor and image processing method | |
JP2008219230A (en) | Imaging apparatus, and image processing method | |
JP6245847B2 (en) | Image processing apparatus and image processing method | |
CN102186020A (en) | Image processing apparatus and image processing method | |
JP2003052051A (en) | Image signal processing method, image signal processor, imaging apparatus and recording medium | |
JP5721552B2 (en) | Imaging apparatus and image composition method |