JP2016071808A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2016071808A
JP2016071808A JP2014203556A JP2014203556A JP2016071808A JP 2016071808 A JP2016071808 A JP 2016071808A JP 2014203556 A JP2014203556 A JP 2014203556A JP 2014203556 A JP2014203556 A JP 2014203556A JP 2016071808 A JP2016071808 A JP 2016071808A
Authority
JP
Japan
Prior art keywords
pixel
target pixel
difference
smoothing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014203556A
Other languages
Japanese (ja)
Inventor
哲平 栗田
Teppei Kurita
哲平 栗田
光永 知生
Tomoo Mitsunaga
知生 光永
亨 西
Toru Nishi
亨 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014203556A priority Critical patent/JP2016071808A/en
Priority to PCT/JP2015/069881 priority patent/WO2016051911A1/en
Publication of JP2016071808A publication Critical patent/JP2016071808A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Abstract

PROBLEM TO BE SOLVED: To improve the image quality of images after image processing to remove noises.SOLUTION: The image processor includes: a difference acquisition part; and a smoothing processing part. The difference acquisition part sequentially acquires a difference of pixel value as pixels of interest in a pair of input pixels with respect to each of plural input pixels which are disposed in a two dimensional grid, and which are in a point-symmetrical relationship with respect to the pixel of interest within a predetermined range of a certain distance from the pixel of interest. A smoothing processing part performs a smoothing processing, within the predetermined range, in which the smaller difference, the higher degree of smoothing.SELECTED DRAWING: Figure 3

Description

本技術は、画像処理装置、画像処理方法、および、当該方法をコンピュータに実行させるためのプログラムに関する。詳しくは、ノイズを除去する画像処理装置、画像処理方法、および、当該方法をコンピュータに実行させるためのプログラムに関する。   The present technology relates to an image processing apparatus, an image processing method, and a program for causing a computer to execute the method. Specifically, the present invention relates to an image processing apparatus, an image processing method, and a program for causing a computer to execute the method.

従来より、撮像装置などの画像処理装置においては、画像の画質を向上させるために、各種のノイズ除去フィルタが用いられている。例えば、ノイズ除去フィルタとしてバイラテラルフィルタを用いる撮像装置が提案されている(例えば、特許文献1参照。)。このバイラテラルフィルタでは、注目した注目画素と、その注目画素の周辺の周辺画素とのそれぞれの画素値の差分が大きいほど小さい重み係数が算出され、その重み係数により画素値が重み付け加算される。   2. Description of the Related Art Conventionally, in an image processing apparatus such as an imaging apparatus, various noise removal filters have been used to improve image quality. For example, an imaging apparatus using a bilateral filter as a noise removal filter has been proposed (see, for example, Patent Document 1). In this bilateral filter, the larger the difference between the pixel values of the focused pixel of interest and the surrounding pixels around the focused pixel, the smaller the weight coefficient is calculated, and the pixel value is weighted and added by the weight coefficient.

特開2006−180268号公報JP 2006-180268 A

しかしながら、上述の従来技術では、エッジに滲みやボケが生じるおそれがある。例えば、注目画素を通過するエッジの濃度勾配が小さいと、周辺画素と注目画素との間の画素値の差分が、あまり大きくならず、その結果、周辺画素に対する重み係数が比較的高くなり、エッジに滲みやボケが生じてしまう。この滲みやボケの発生を抑制するには、周辺画素に対する重み係数が小さくなるようにフィルタの設定を変更すればよいが、そのような設定では、ノイズの除去率が低下するおそれがある。したがって、上述の従来技術では、ノイズの除去とボケの発生の抑制とを両立して、画質を向上させることが困難である。   However, in the above-described conventional technique, there is a possibility that bleeding or blurring occurs at the edge. For example, when the density gradient of the edge passing through the target pixel is small, the difference in pixel value between the peripheral pixel and the target pixel does not become so large, and as a result, the weighting factor for the peripheral pixel becomes relatively high, and the edge Bleeding and blurring will occur. In order to suppress the occurrence of blurring and blurring, the setting of the filter may be changed so that the weighting coefficient for the surrounding pixels is small. However, with such a setting, there is a possibility that the noise removal rate may be reduced. Therefore, with the above-described conventional technology, it is difficult to improve image quality while achieving both noise removal and suppression of blurring.

本技術はこのような状況に鑑みて生み出されたものであり、ノイズを除去する画像処理を行った画像の画質を向上させることを目的とする。   The present technology has been created in view of such a situation, and an object thereof is to improve the image quality of an image subjected to image processing for removing noise.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部とを具備する画像処理装置、および、その画像処理方法、ならびに、当該方法をコンピュータに実行させるためのプログラムである。これにより、注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分が小さいほど平滑化の度合いの高い平滑化処理が行われるという作用をもたらす。   The present technology has been made to solve the above-described problems. The first aspect of the present technology is that a plurality of input pixels arranged in a two-dimensional grid are sequentially set as target pixels in order from the target pixel. A difference acquisition unit that obtains a difference between pixel values of a pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined range of distance, and a smoothing process that has a higher degree of smoothing as the difference is smaller An image processing apparatus including a smoothing processing unit that performs the processing within the predetermined range, an image processing method thereof, and a program for causing a computer to execute the method. This brings about the effect that a smoothing process with a higher degree of smoothing is performed as the difference between the pixel values of the pair of input pixels located in point symmetry with respect to the target pixel is smaller.

また、この第1の側面において、前記差分取得部は、前記差分を求めて当該差分が大きいほど小さい係数を周辺画素重み係数として前記差分から生成する周辺画素重み係数生成部と、前記注目画素に対する係数を注目画素重み係数として前記周辺画素重み係数から生成する注目画素重み係数生成部とを備え、前記平滑化処理部は、前記周辺画素重み係数および前記注目画素重み係数による前記一対の入力画素と前記注目画素とに対する重み付け加算を前記平滑化処理として行ってもよい。これにより、周辺画素重み係数および注目画素重み係数による一対の入力画素と注目画素とに対する重み付け加算が平滑化処理として行われるという作用をもたらす。   Further, in the first aspect, the difference acquisition unit obtains the difference and generates a peripheral pixel weight coefficient generation unit based on the difference using a smaller coefficient as the peripheral pixel weight coefficient as the difference is larger. A target pixel weight coefficient generation unit that generates a coefficient as a target pixel weight coefficient from the peripheral pixel weight coefficient, and the smoothing processing unit includes the pair of input pixels based on the peripheral pixel weight coefficient and the target pixel weight coefficient; You may perform the weighting addition with respect to the said attention pixel as the said smoothing process. This brings about the effect that the weighted addition for the pair of input pixels and the target pixel by the peripheral pixel weight coefficient and the target pixel weight coefficient is performed as a smoothing process.

また、この第1の側面において、前記周辺画素重み係数生成部は、前記差分が大きいほど小さく、前記注目画素と前記一対の入力画素のいずれかとの間の距離が短いほど大きい係数を前記周辺画素重み係数として生成してもよい。これにより、前記差分が大きいほど小さく、注目画素と一対の入力画素のいずれかとの間の距離が短いほど大きい係数が周辺画素重み係数として生成されるという作用をもたらす。   In the first aspect, the peripheral pixel weight coefficient generation unit may increase the coefficient as the peripheral pixel decreases as the difference increases and as the distance between the target pixel and one of the pair of input pixels decreases. It may be generated as a weighting coefficient. Accordingly, there is an effect that a larger coefficient is generated as a peripheral pixel weight coefficient as the difference is larger and smaller as the distance between the target pixel and one of the pair of input pixels is shorter.

また、この第1の側面において、前記複数の入力画素のそれぞれについて順に着目画素として当該着目画素から前記一定距離より長い距離の範囲内において平滑化処理を広範囲平滑化処理として行う広範囲平滑化処理部をさらに具備し、前記差分取得部は、前記広範囲平滑化処理の後の前記一対の入力画素のそれぞれの画素値の差分を求め、前記平滑化処理部は、前記広範囲平滑化処理の後の前記所定範囲内において前記平滑化処理を行ってもよい。これにより、広範囲平滑化処理の後の所定範囲内において平滑化処理が行われるという作用をもたらす。   Further, in the first aspect, a wide-ranging smoothing processing unit that performs smoothing processing as wide-ranging smoothing processing within the range of a distance longer than the certain distance from the target pixel as the target pixel in order for each of the plurality of input pixels. The difference obtaining unit obtains a difference between the pixel values of the pair of input pixels after the wide range smoothing process, and the smoothing unit is configured to obtain the difference after the wide range smoothing process. The smoothing process may be performed within a predetermined range. This brings about the effect that the smoothing process is performed within a predetermined range after the wide area smoothing process.

また、この第1の側面において、前記画素値は、輝度信号および色差信号を含んでもよい。これにより、輝度信号および色差信号を含む画素値の差分が小さいほど平滑化の度合いの高い平滑化処理が行われるという作用をもたらす。   In the first aspect, the pixel value may include a luminance signal and a color difference signal. As a result, the smaller the difference between the pixel values including the luminance signal and the color difference signal, the more smoothing processing is performed with a higher degree of smoothing.

また、この第1の側面において、前記画素値は、複数の色情報を含んでもよい。これにより、複数の色情報を含む画素値の差分が小さいほど平滑化の度合いの高い平滑化処理が行われるという作用をもたらす。   In the first aspect, the pixel value may include a plurality of color information. As a result, the smaller the difference between pixel values including a plurality of color information is, the more smoothing processing is performed with a higher degree of smoothing.

また、この第1の側面において、複数の色情報のうちの1つを前記画素値とする前記複数の入力画素のそれぞれにおいて前記複数の色情報のうち足りない色情報を補間する色情報補間部をさらに具備し、前記重み係数生成部は、前記色情報が補間された前記複数の入力画素のそれぞれについて順に注目画素としてもよい。これにより、複数の入力画素のそれぞれにおいて複数の色情報のうち足りない色情報が補間されるという作用をもたらす。   In this first aspect, a color information interpolation unit that interpolates missing color information among the plurality of color information in each of the plurality of input pixels having one of the plurality of color information as the pixel value. The weight coefficient generation unit may sequentially set each of the plurality of input pixels interpolated with the color information as a target pixel. This brings about the effect that the missing color information among the plurality of color information is interpolated in each of the plurality of input pixels.

また、本技術の第2の側面は、二次元格子状に配列された複数の入力画素を含む画像を撮像する撮像部と、前記複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部とを具備する撮像装置である。これにより、注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分が小さいほど平滑化の度合いの高い平滑化処理が行われるという作用をもたらす。   In addition, according to a second aspect of the present technology, an imaging unit that captures an image including a plurality of input pixels arranged in a two-dimensional grid, and a fixed pixel from the target pixel as the target pixel in order for each of the plurality of input pixels. A difference acquisition unit that obtains a difference between pixel values of a pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined range of distance, and a smoothing process that has a higher degree of smoothing as the difference is smaller And a smoothing processing unit that performs the processing within the predetermined range. This brings about the effect that a smoothing process with a higher degree of smoothing is performed as the difference between the pixel values of the pair of input pixels located in point symmetry with respect to the target pixel is smaller.

本技術によれば、ノイズを除去する画像処理を行った画像の画質を向上させることができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   According to the present technology, it is possible to achieve an excellent effect that the image quality of an image subjected to image processing for removing noise can be improved. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

第1の実施の形態における撮像装置の一構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment. 第1の実施の形態における撮像素子の一構成例を示すブロック図である。It is a block diagram showing an example of 1 composition of an image sensor in a 1st embodiment. 第1の実施の形態における画像処理部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the image process part in 1st Embodiment. 第1の実施の形態における入力画像データの一例を示す図である。It is a figure which shows an example of the input image data in 1st Embodiment. 第1の実施の形態における重み係数算出部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the weighting coefficient calculation part in 1st Embodiment. 第1の実施の形態における周辺画素重み係数算出部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the surrounding pixel weighting coefficient calculation part in 1st Embodiment. 第1の実施の形態における注目画素重み係数算出部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the attention pixel weighting coefficient calculation part in 1st Embodiment. 第1の実施の形態における重み付け加算部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the weighting addition part in 1st Embodiment. 第1の実施の形態における平滑化前後のエッジの一例を示すグラフである。It is a graph which shows an example of the edge before and behind smoothing in a 1st embodiment. 第1の実施の形態における平滑化前後のノイズの一例を示すグラフである。It is a graph which shows an example of the noise before and behind smoothing in a 1st embodiment. 第1の実施の形態における撮像装置の動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation of the imaging apparatus according to the first embodiment. 第2の実施の形態における画像処理部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the image process part in 2nd Embodiment. 第2の実施の形態におけるローパスフィルタに設定される重み係数の一例を示す図である。It is a figure which shows an example of the weighting coefficient set to the low pass filter in 2nd Embodiment. 第2の実施の形態における撮像装置の動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of the imaging apparatus according to the second embodiment. 第3の実施の形態における撮像素子の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the image pick-up element in 3rd Embodiment. 第3の実施の形態における画像処理部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the image process part in 3rd Embodiment. 第3の実施の形態におけるデモザイク処理部の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the demosaic process part in 3rd Embodiment. 第3の実施の形態における入力画像データの一例を示す図である。It is a figure which shows an example of the input image data in 3rd Embodiment. 第3の実施の形態におけるRローパスフィルタ、GローパスフィルタおよびBローパスフィルタに設定される重み係数の一例を示す図である。It is a figure which shows an example of the weighting coefficient set to the R low-pass filter, G low-pass filter, and B low-pass filter in 3rd Embodiment. 第3の実施の形態におけるR周辺Wローパスフィルタ、G周辺WローパスフィルタおよびB周辺Wローパスフィルタに設定される重み係数の一例を示す図である。It is a figure which shows an example of the weighting coefficient set to R periphery W low-pass filter, G periphery W low-pass filter, and B periphery W low-pass filter in 3rd Embodiment. 第3の実施の形態におけるデモザイク処理後の画像データの一例を示す図である。It is a figure which shows an example of the image data after a demosaic process in 3rd Embodiment. 第3の実施の形態における重み付け加算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the weighting addition part in 3rd Embodiment. 第3の実施の形態における撮像装置の動作の一例を示すフローチャートである。14 is a flowchart illustrating an example of an operation of the imaging apparatus according to the third embodiment. 第3の実施の形態の変形例における画像処理部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image process part in the modification of 3rd Embodiment.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(一対の画素対の差分に応じた度合いで平滑化する例)
2.第2の実施の形態(ローパスフィルタ通過後に一対の画素対の差分に応じた度合いで平滑化する例)
3.第3の実施の形態(デモザイク処理後に一対の画素対の差分に応じた度合いで平滑化する)
4.変形例
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (an example of smoothing to a degree corresponding to the difference between a pair of pixels)
2. Second Embodiment (Example in which smoothing is performed to a degree corresponding to the difference between a pair of pixels after passing through a low-pass filter)
3. Third embodiment (smoothing to a degree corresponding to the difference between a pair of pixels after demosaic processing)
4). Modified example

<1.第1の実施の形態>
[撮像装置の構成例]
図1は、第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置は、画像を撮像する装置であり、撮像レンズ110、撮像素子120、制御部130、記録部140および画像処理部200を備える。
<1. First Embodiment>
[Configuration example of imaging device]
FIG. 1 is a block diagram illustrating a configuration example of the imaging apparatus 100 according to the first embodiment. This imaging apparatus is an apparatus that captures an image, and includes an imaging lens 110, an imaging element 120, a control unit 130, a recording unit 140, and an image processing unit 200.

撮像レンズ110は、被写体からの光を集光して撮像素子120に導くレンズである。   The imaging lens 110 is a lens that collects light from the subject and guides it to the imaging device 120.

撮像素子120は、制御信号に従って撮像レンズ110からの光を電気信号に変換して、画像データを生成するものである。この撮像素子120には、例えば、R(Red)画素、G(Green)画素、B(Blue)画素およびW(White)画素のそれぞれが二次元格子状に設けられる。撮像素子120は、これらの画素のそれぞれで光電変換したアナログの電気信号をAD(Analog to Digital)変換して、画像データを生成する。撮像素子120としては、例えば、CCD(Charge Coupled Device)センサーやCMOS(Complementary Metal Oxide Semiconductor)センサーが用いられる。撮像素子120は、生成した画像データを入力画像データとして、信号線129を介して画像処理部200に供給する。なお、撮像素子120は、特許請求の範囲に記載の撮像部の一例である。また、撮像素子120に、R画素、G画素、B画素およびW画素を配列しているが、W画素を設けず、R画素、G画素およびB画素のみを配列してもよい。また、撮像素子120は、特許請求の範囲に記載の撮像部の一例である。   The image sensor 120 converts the light from the imaging lens 110 into an electric signal according to a control signal, and generates image data. For example, each of the R (Red) pixel, the G (Green) pixel, the B (Blue) pixel, and the W (White) pixel is provided in the imaging element 120 in a two-dimensional lattice pattern. The image sensor 120 performs analog to digital (AD) conversion on an analog electrical signal photoelectrically converted by each of these pixels to generate image data. As the image sensor 120, for example, a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor is used. The image sensor 120 supplies the generated image data as input image data to the image processing unit 200 via the signal line 129. The imaging element 120 is an example of an imaging unit described in the claims. In addition, although the R pixel, the G pixel, the B pixel, and the W pixel are arranged on the image sensor 120, only the R pixel, the G pixel, and the B pixel may be arranged without providing the W pixel. The imaging element 120 is an example of an imaging unit described in the claims.

画像処理部200は、入力画像データに対して、平滑化処理を含む所定の画像処理を行うものである。この平滑化処理において、画像処理部200は、タイミング信号に従って、画素に順に注目して、注目した画素から一定距離の範囲(以下、「フィルタ範囲」と称する。)内において重み付け加算を行う。画像処理部200は、画像処理後の画像データを出力画像データとして記録部140に信号線209を介して供給する。   The image processing unit 200 performs predetermined image processing including smoothing processing on input image data. In this smoothing process, the image processing unit 200 pays attention to the pixels in order according to the timing signal, and performs weighted addition within a range of a certain distance from the focused pixel (hereinafter referred to as “filter range”). The image processing unit 200 supplies the image data after the image processing to the recording unit 140 via the signal line 209 as output image data.

制御部130は、撮像装置100全体を制御するものである。この制御部130は、ユーザの操作などに従って制御信号を生成し、撮像素子120に信号線139を介して供給する。この制御信号は、例えば、垂直同期信号を含む。また、制御部130は、画素のそれぞれに注目するタイミングを示すタイミング信号を生成し、信号線138を介して画像処理部200に供給する。記録部140は、出力画像データを記録するものである。   The control unit 130 controls the entire imaging apparatus 100. The control unit 130 generates a control signal according to a user operation or the like, and supplies the control signal to the image sensor 120 via the signal line 139. This control signal includes, for example, a vertical synchronization signal. Further, the control unit 130 generates a timing signal indicating the timing at which each pixel is focused, and supplies the timing signal to the image processing unit 200 via the signal line 138. The recording unit 140 records output image data.

なお、撮像装置100は、表示部をさらに備え、その表示部に出力画像データを表示してもよい。また、撮像装置100は、インターフェースをさらに備え、そのインターフェースを介して、出力画像データを外部の装置に出力してもよい。   Note that the imaging apparatus 100 may further include a display unit and display output image data on the display unit. The imaging device 100 may further include an interface, and output image data may be output to an external device via the interface.

また、撮像レンズ110、撮像素子120、制御部130、画像処理部200、記録部140を同一の装置内に設ける構成としているが、これらを別々の装置に設ける構成としてもよい。例えば、撮像素子120などを撮像装置100に設け、画像処理部200を情報処理装置等に設ける構成としてもよい。   In addition, although the imaging lens 110, the imaging element 120, the control unit 130, the image processing unit 200, and the recording unit 140 are provided in the same device, these may be provided in separate devices. For example, the imaging device 120 or the like may be provided in the imaging device 100 and the image processing unit 200 may be provided in the information processing device or the like.

[撮像素子の構成例]
図2は、第1の実施の形態における撮像素子120の一構成例を示すブロック図である。この撮像素子120は、行走査回路121、画素アレイ部122、タイミング制御回路124、AD変換部125、列走査回路126、デモザイク処理部127およびYUV変換部128を備える。画素アレイ部122には、2次元格子状に複数の画素123が設けられる。
[Configuration example of image sensor]
FIG. 2 is a block diagram illustrating a configuration example of the image sensor 120 according to the first embodiment. The image sensor 120 includes a row scanning circuit 121, a pixel array unit 122, a timing control circuit 124, an AD conversion unit 125, a column scanning circuit 126, a demosaic processing unit 127, and a YUV conversion unit 128. The pixel array unit 122 is provided with a plurality of pixels 123 in a two-dimensional grid.

タイミング制御回路124は、行および列の走査のタイミングを制御するものである。ここで、行は画素アレイ部122において、ある一方向に複数の画素123が配列されたものであり、ラインとも呼ばれる。また、列は画素アレイ部122において行と直交する方向に複数の画素123が配列されたものである。   The timing control circuit 124 controls the scanning timing of rows and columns. Here, a row is a pixel array unit 122 in which a plurality of pixels 123 are arranged in a certain direction, and is also called a line. The column is a pixel array unit 122 in which a plurality of pixels 123 are arranged in a direction orthogonal to the row.

タイミング制御回路124は、制御部130からの垂直同期信号VSYNCに同期して、水平同期信号HSYNCを生成し、行走査回路121に供給する。また、タイミング制御回路124は、列を走査するタイミングを指示する列走査信号を水平同期信号HSYNCに同期して生成し、列走査回路126に供給する。   The timing control circuit 124 generates a horizontal synchronization signal HSYNC in synchronization with the vertical synchronization signal VSYNC from the control unit 130 and supplies it to the row scanning circuit 121. Further, the timing control circuit 124 generates a column scanning signal instructing the timing for scanning the column in synchronization with the horizontal synchronization signal HSYNC, and supplies it to the column scanning circuit 126.

行走査回路121は、水平同期信号HSYNCに同期して行(ライン)の各々を順に選択するものである。この行走査回路121は、設定された露光期間に亘って、選択した行を露光させる。   The row scanning circuit 121 sequentially selects each row (line) in synchronization with the horizontal synchronization signal HSYNC. The row scanning circuit 121 exposes the selected row over a set exposure period.

画素123は、光を電気信号に変換して画素信号として出力するものである。画素123は、生成した画素信号をAD変換部125に供給する。それぞれの画素信号は、R信号、G信号、B信号およびW信号のいずれかの色情報を含む。   The pixel 123 converts light into an electrical signal and outputs it as a pixel signal. The pixel 123 supplies the generated pixel signal to the AD conversion unit 125. Each pixel signal includes color information of any one of an R signal, a G signal, a B signal, and a W signal.

AD変換部125は、画素信号をAD変換して画素データを生成するものである。AD変換部125は、列ごとに設けられる。列走査回路126により選択された列のAD変換部125は、生成した画素データをデモザイク処理部127へ供給する。列走査回路126は、タイミング制御回路124の制御に従って、列の各々を選択するものである。   The AD conversion unit 125 performs pixel conversion on the pixel signal to generate pixel data. The AD conversion unit 125 is provided for each column. The AD conversion unit 125 of the column selected by the column scanning circuit 126 supplies the generated pixel data to the demosaic processing unit 127. The column scanning circuit 126 selects each column according to the control of the timing control circuit 124.

デモザイク処理部127は、画素ごとに、R信号、G信号およびB信号のうち足りない信号を周囲の画素から補間するデモザイク処理を行うものである。デモザイク処理部127は、補間後の画素データのそれぞれをYUV変換部128に供給する。   The demosaic processing unit 127 performs demosaic processing for interpolating a missing signal from the surrounding pixels among the R signal, the G signal, and the B signal for each pixel. The demosaic processing unit 127 supplies each of the interpolated pixel data to the YUV conversion unit 128.

YUV変換部128は、R信号、G信号およびB信号を、輝度信号Yと色差信号UおよびVとに変換するYUV変換処理を画素毎に行うものである。YUV変換処理は、例えば、次の式により行われる。YUV変換部128は、YUV変換後の画素データからなる画像データを入力画像データとして画像処理部200へ供給する。

Figure 2016071808
The YUV conversion unit 128 performs YUV conversion processing for converting each of the R signal, the G signal, and the B signal into a luminance signal Y and color difference signals U and V for each pixel. The YUV conversion process is performed by the following equation, for example. The YUV conversion unit 128 supplies image data including pixel data after YUV conversion to the image processing unit 200 as input image data.
Figure 2016071808

なお、AD変換部125、デモザイク処理部127およびYUV変換部128を全て撮像素子120に設ける構成としているが、これらの少なくとも一部を撮像素子120の外部に設けてもよい。   Note that although the AD conversion unit 125, the demosaic processing unit 127, and the YUV conversion unit 128 are all provided in the image sensor 120, at least some of them may be provided outside the image sensor 120.

また、撮像素子120は、YUV変換を行う構成としているが、YUV変換を行わずに、デモザイク処理後の画像データをそのまま画像処理部200に供給する構成としてもよい。   The image sensor 120 is configured to perform YUV conversion. However, the image sensor 120 may be configured to supply the image data after demosaic processing to the image processing unit 200 as it is without performing YUV conversion.

図3は、第1の実施の形態における画像処理部200の一構成例を示すブロック図である。この画像処理部200は、データバッファ210、注目画素選択部220、重み係数算出部230および重み付け加算部260を備える。   FIG. 3 is a block diagram illustrating a configuration example of the image processing unit 200 according to the first embodiment. The image processing unit 200 includes a data buffer 210, a target pixel selection unit 220, a weight coefficient calculation unit 230, and a weighting addition unit 260.

データバッファ210は、複数の画素データを保持するものである。例えば、重み付け加算部260が注目画素を中心として3×3のフィルタ範囲内で重み付け加算を行う際には、少なくとも3ライン分の画素データが保持される。なお、フィルタ範囲は、注目画素から一定距離の範囲であれば、3×3の範囲に限定されず、例えば、5×5の範囲であってもよい。   The data buffer 210 holds a plurality of pixel data. For example, when the weighted addition unit 260 performs weighted addition within a 3 × 3 filter range centering on the pixel of interest, pixel data for at least three lines is held. Note that the filter range is not limited to the 3 × 3 range as long as it is within a certain distance from the target pixel, and may be, for example, a 5 × 5 range.

注目画素選択部220は、タイミング信号に従って、入力画像データ内の画素のそれぞれを順に選択するものである。選択された画素を以下、「注目画素」と称する。注目画素選択部220は、選択した注目画素の座標を注目座標(x、y)として重み係数算出部230および重み付け加算部260に信号線229を介して供給する。   The target pixel selection unit 220 sequentially selects each pixel in the input image data according to the timing signal. The selected pixel is hereinafter referred to as “target pixel”. The target pixel selection unit 220 supplies the coordinates of the selected target pixel as the target coordinates (x, y) to the weighting coefficient calculation unit 230 and the weighting addition unit 260 via the signal line 229.

重み係数算出部230は、注目画素から一定距離のフィルタ範囲内の画素のそれぞれに対する重み係数を算出するものである。そのフィルタ範囲内において、注目画素以外の画素を以下、「周辺画素」と称する。重み係数算出部230は、フィルタ範囲内において、注目画素に対して点対称の位置にある一対の周辺画素のそれぞれの画素値をデータバッファ210から読み出して、それらの差分を求める。そして、重み係数算出部230は、その差分が小さいほど大きな重み係数を周辺画素重み係数として算出する。また、重み係数算出部230は、周辺画素重み係数の合計値と「1」との差分を注目画素重み係数として算出する。重み係数算出部230は、周辺画素重み係数および注目画素重み係数のそれぞれを重み付け加算部260に信号線239を介して供給する。なお、重み係数算出部230は、特許請求の範囲に記載の差分取得部の一例である。   The weighting factor calculation unit 230 calculates a weighting factor for each of the pixels within a filter range of a certain distance from the target pixel. In the filter range, pixels other than the target pixel are hereinafter referred to as “peripheral pixels”. The weighting factor calculation unit 230 reads out the pixel values of the pair of neighboring pixels that are point-symmetric with respect to the target pixel in the filter range from the data buffer 210, and obtains a difference between them. Then, the weighting factor calculation unit 230 calculates a larger weighting factor as the surrounding pixel weighting factor as the difference is smaller. In addition, the weight coefficient calculation unit 230 calculates a difference between the total value of the peripheral pixel weight coefficients and “1” as the target pixel weight coefficient. The weighting factor calculation unit 230 supplies each of the surrounding pixel weighting factor and the target pixel weighting factor to the weighting addition unit 260 via the signal line 239. The weighting factor calculation unit 230 is an example of a difference acquisition unit described in the claims.

重み付け加算部260は、平滑化処理として重み付け加算を行うものである。この重み付け加算部260は、周辺画素重み係数および注目画素重み係数により、周辺画素および注目画素のそれぞれの画素値に対して重み付け加算を行う。フィルタ範囲内の画素数の合計は、フィルタサイズやタップ数と呼ばれる。周辺画素重み係数には、前述したように、一対の周辺画素の画素値の差分が小さいほど、大きな係数が設定される。このため、差分が小さいほど平滑化の度合いの高い平滑化処理が行われる。重み付け加算部260は、重み付け加算の加算結果を、出力画像データにおける注目座標(x、y)の画素値として記録部140に出力する。なお、重み付け加算部260は、特許請求の範囲に記載の平滑化処理部の一例である。   The weighted addition unit 260 performs weighted addition as the smoothing process. The weighted addition unit 260 performs weighted addition on the respective pixel values of the peripheral pixel and the target pixel using the peripheral pixel weight coefficient and the target pixel weight coefficient. The total number of pixels in the filter range is called the filter size or the number of taps. As described above, a larger coefficient is set for the peripheral pixel weighting coefficient as the difference between the pixel values of the pair of peripheral pixels is smaller. For this reason, the smoothing process with a higher degree of smoothing is performed as the difference is smaller. The weighted addition unit 260 outputs the addition result of the weighted addition to the recording unit 140 as the pixel value of the target coordinate (x, y) in the output image data. The weighting addition unit 260 is an example of a smoothing processing unit described in the claims.

なお、画像処理部200は、平滑化処理(重み付け加算)の他、ホワイトバランス処理やガンマ補正処理などの各種の画像処理をさらに行ってもよい。   Note that the image processing unit 200 may further perform various types of image processing such as white balance processing and gamma correction processing in addition to the smoothing processing (weighted addition).

図4は、第1の実施の形態における入力画像データの一例を示す図である。この入力画像データには、輝度信号Yと色差信号UおよびVとをそれぞれが含む複数の画素データが配列される。同図において、太い実線で囲まれた画素は、注目画素の一例であり、一点鎖線で囲まれた範囲は、重み付け加算の行われるフィルタ範囲の一例である。同図に例示するように、画像処理部200は、注目画素を中心として3×3のフィルタ範囲内において重み付け加算を行う。   FIG. 4 is a diagram illustrating an example of input image data according to the first embodiment. In this input image data, a plurality of pixel data each including a luminance signal Y and color difference signals U and V are arranged. In the figure, pixels surrounded by a thick solid line are examples of a target pixel, and a range surrounded by a one-dot chain line is an example of a filter range in which weighted addition is performed. As illustrated in the figure, the image processing unit 200 performs weighted addition within a 3 × 3 filter range centering on the target pixel.

[重み係数算出部の構成例]
図5は、第1の実施の形態における重み係数算出部230の一構成例を示すブロック図である。この重み係数算出部230は、周辺画素重み係数算出部240および注目画素重み係数算出部250を備える。
[Configuration example of weighting factor calculation unit]
FIG. 5 is a block diagram illustrating a configuration example of the weighting factor calculation unit 230 according to the first embodiment. The weight coefficient calculation unit 230 includes a peripheral pixel weight coefficient calculation unit 240 and a target pixel weight coefficient calculation unit 250.

周辺画素重み係数算出部240は、周辺画素重み係数を算出するものである。この周辺画素重み係数算出部240は、周辺画素のそれぞれの画素データをデータバッファ210から読み出す。これらの画素データは、それぞれ、色差信号UおよびVを含む。そして、周辺画素重み係数算出部240は、注目画素に対して点対称の位置にある一対の周辺画素のそれぞれの色差信号から、次の式を使用して係数wghtを算出する。

Figure 2016071808
The peripheral pixel weight coefficient calculation unit 240 calculates a peripheral pixel weight coefficient. The peripheral pixel weight coefficient calculation unit 240 reads out pixel data of each peripheral pixel from the data buffer 210. These pixel data include color difference signals U and V, respectively. Then, the peripheral pixel weight coefficient calculation unit 240 calculates a coefficient wgh using the following equation from the color difference signals of the pair of peripheral pixels that are point-symmetric with respect to the target pixel.
Figure 2016071808

上式において、uは、一対の周辺画素のうち一方の色差信号Uであり、u’は、一対の周辺画素のうち他方の色差信号Uである。vは、一対の周辺画素のうち一方の色差信号Vであり、v’は、一対の周辺画素のうち他方の色差信号Vである。例えば、一対の周辺画素の各色差信号がU(x−1,y)およびU(x+1,y)である場合、uにU(x−1,y)が設定され、u’にU(x+1,y)が設定される。また、kは、係数wghtを算出する際に、画素値の類似度をどの程度厳しく判定するかを示す固定のパラメータである。kを大きくするほど係数が大きくなり、平滑化の度合いが高くなる。一方、kを小さくするほど係数が小さくなり、平滑化の度合いが低くなる。なお、固定値をkに設定しているが、周辺画素のそれぞれの画素値の分散をkに設定してもよい。   In the above equation, u is one color difference signal U of the pair of peripheral pixels, and u ′ is the other color difference signal U of the pair of peripheral pixels. v is the color difference signal V of one of the pair of peripheral pixels, and v ′ is the color difference signal V of the other of the pair of peripheral pixels. For example, when the color difference signals of the pair of peripheral pixels are U (x−1, y) and U (x + 1, y), U (x−1, y) is set in u, and U (x + 1) is set in u ′. , Y) is set. K is a fixed parameter indicating how severely the similarity of pixel values is determined when calculating the coefficient wght. As k increases, the coefficient increases and the degree of smoothing increases. On the other hand, the smaller the k, the smaller the coefficient and the lower the degree of smoothing. Although the fixed value is set to k, the variance of the pixel values of the peripheral pixels may be set to k.

そして、周辺画素重み係数算出部240は、式1により求めた係数wghtに対して、注目画素および周辺画素の距離が長いほど小さな所定の係数を乗算して、周辺画素重み係数を算出する。例えば、注目画素と、一対の周辺画素のいずれかとのユークリッド距離が「1」である場合には、「1/8(=0.125)」の係数がwghtに乗算される。また、ユークリッド距離が「21/2」である場合には「1/16(=0.0625)」の係数がwghtに乗算される。 Then, the surrounding pixel weighting coefficient calculation unit 240 calculates the surrounding pixel weighting coefficient by multiplying the coefficient wght obtained by Equation 1 by a smaller predetermined coefficient as the distance between the target pixel and the surrounding pixel is longer. For example, when the Euclidean distance between the target pixel and one of the pair of surrounding pixels is “1”, the coefficient “1/8 (= 0.125)” is multiplied by wght. When the Euclidean distance is “2 1/2 ”, the coefficient “1/16 (= 0.0625)” is multiplied by wght.

ここで、3×3のフィルタ範囲内において重み付け加算を行う際は、注目画素の上下、左右、斜めに位置する画素対のそれぞれについて周辺画素重み係数が算出される。注目画素の上下の画素対の周辺画素重み係数を以下、「W1」と称し、左右の画素対の周辺画素重み係数を以下、「W2」と称する。また、斜め方向にある画素対は2組あるが、その一方の周辺画素重み係数の一方を以下、「W3」、他方を「W4」と称する。周辺画素重み係数算出部240は、これらの周辺画素重み係数のそれぞれを注目画素重み係数算出部250および重み付け加算部260へ供給する。   Here, when performing weighted addition within the 3 × 3 filter range, the peripheral pixel weighting coefficient is calculated for each of the pixel pairs located above, below, left, and right of the target pixel. The peripheral pixel weighting factors of the upper and lower pixel pairs of the target pixel are hereinafter referred to as “W1”, and the peripheral pixel weighting factors of the left and right pixel pairs are hereinafter referred to as “W2”. In addition, there are two pairs of pixels in the oblique direction. One of the peripheral pixel weighting coefficients is hereinafter referred to as “W3” and the other as “W4”. The surrounding pixel weight coefficient calculation unit 240 supplies each of these surrounding pixel weight coefficients to the target pixel weight coefficient calculation unit 250 and the weighting addition unit 260.

注目画素重み係数算出部250は、周辺画素重み係数から注目画素重み係数W0を算出するものである。この注目画素重み係数算出部250は、周辺画素重み係数の合計値と「1」との差分を注目画素重み係数W0として算出する。注目画素に対して点対称の位置にある一対の周辺画素には、いずれも同じ周辺画素重み係数が適用される。このため、W1、W2、W3およびW4の周辺画素重み係数が求められた場合、注目画素重み係数算出部250は、それぞれを2倍して加算し、その加算値と「1」との差分を求めればよい。注目画素重み係数算出部250は、求めた注目画素重み係数W0を重み付け加算部260へ供給する。   The target pixel weight coefficient calculation unit 250 calculates the target pixel weight coefficient W0 from the peripheral pixel weight coefficients. The target pixel weight coefficient calculation unit 250 calculates a difference between the total value of the peripheral pixel weight coefficients and “1” as the target pixel weight coefficient W0. The same peripheral pixel weighting coefficient is applied to a pair of peripheral pixels that are point-symmetric with respect to the target pixel. For this reason, when the surrounding pixel weight coefficients of W1, W2, W3, and W4 are obtained, the pixel weight coefficient calculation unit 250 of interest adds each of them by doubling each other, and the difference between the added value and “1” is calculated. Find it. The target pixel weight coefficient calculation unit 250 supplies the calculated target pixel weight coefficient W0 to the weighting addition unit 260.

なお、重み係数算出部230は、演算により重み係数を算出しているが、重み係数を生成することができるのであれば、この構成に限定されない。例えば、差分がとりうる値ごとに、式1などにより周辺画素重み係数および注目画素重み係数を予め算出してテーブルに保持しておき、重み係数算出部230が、そのテーブルから、差分に対応する重み係数を読み出す構成としてもよい。   Note that the weighting factor calculation unit 230 calculates the weighting factor by calculation, but is not limited to this configuration as long as the weighting factor can be generated. For example, for each possible value of the difference, the peripheral pixel weighting coefficient and the target pixel weighting coefficient are calculated in advance using Equation 1 and held in a table, and the weighting coefficient calculation unit 230 corresponds to the difference from the table. It is good also as a structure which reads a weighting coefficient.

[周辺画素重み係数算出部の構成例]
図6は、第1の実施の形態における周辺画素重み係数算出部240の一構成例を示すブロック図である。この周辺画素重み係数算出部240は、左右対重み係数算出部241と、上下対重み係数算出部242と、斜め対重み係数算出部243および244と、乗算器245、246、247および248とを備える。
[Configuration example of peripheral pixel weight coefficient calculation unit]
FIG. 6 is a block diagram illustrating a configuration example of the peripheral pixel weight coefficient calculation unit 240 according to the first embodiment. The peripheral pixel weighting factor calculating unit 240 includes a left / right paired weighting factor calculating unit 241, an upper / lower pairing weighting factor calculating unit 242, an oblique paired weighting factor calculating unit 243 and 244, and multipliers 245, 246, 247 and 248. Prepare.

左右対重み係数算出部241は、注目画素の左右の周辺画素対に対する係数wghtを算出するものである。この左右対重み係数算出部241は、注目画素(x、y)の左の画素値P(x−1、y)と、右の画素値P(x+1、y)とをデータバッファ210から読み出す。これらの画素値は、それぞれ、色差信号UおよびVを含む。つまり、U(x−1、y)、U(x+1、y)、V(x−1、y)およびV(x+1、y)の画素値が読み出される。左右対重み係数算出部241は、式1を使用して、これらの画素値から係数wghtを算出し、乗算器245へ供給する。   The left / right pair weight coefficient calculation unit 241 calculates a coefficient wght for the left and right peripheral pixel pairs of the target pixel. The left / right pair weight coefficient calculation unit 241 reads the left pixel value P (x−1, y) and the right pixel value P (x + 1, y) of the target pixel (x, y) from the data buffer 210. These pixel values include color difference signals U and V, respectively. That is, the pixel values of U (x−1, y), U (x + 1, y), V (x−1, y), and V (x + 1, y) are read out. The left / right pair weight coefficient calculation unit 241 calculates the coefficient wght from these pixel values using Equation 1 and supplies the coefficient wght to the multiplier 245.

上下対重み係数算出部242は、注目画素の上下の周辺画素対に対する係数wghtを算出するものである。この上下対重み係数算出部242は、注目画素(x、y)の上の画素値P(x、y−1)と、下の画素値P(x、y+1)とをデータバッファ210から読み出す。上下対重み係数算出部242は、式1を使用して、これらの画素値から係数wghtを算出し、乗算器246へ供給する。   The upper / lower pair weight coefficient calculation unit 242 calculates the coefficient wght for the upper and lower peripheral pixel pairs of the target pixel. The upper / lower paired weight coefficient calculation unit 242 reads out the pixel value P (x, y−1) above the target pixel (x, y) and the lower pixel value P (x, y + 1) from the data buffer 210. The upper / lower pair weight coefficient calculation unit 242 calculates the coefficient wght from these pixel values using Equation 1 and supplies the coefficient wght to the multiplier 246.

斜め対重み係数算出部243は、注目画素の右上および左下にある周辺画素対に対する係数wghtを算出するものである。この斜め対重み係数算出部243は、注目画素(x、y)の右上の画素値P(x+1、y−1)と、左下の画素値P(x−1、y+1)とをデータバッファ210から読み出す。斜め対重み係数算出部243は、式1を使用して、これらの画素値から係数wghtを算出し、乗算器247へ供給する。   The diagonal pair weight coefficient calculation unit 243 calculates a coefficient wgh for the peripheral pixel pairs at the upper right and lower left of the target pixel. The diagonal pair weight coefficient calculation unit 243 obtains the upper right pixel value P (x + 1, y−1) and the lower left pixel value P (x−1, y + 1) of the target pixel (x, y) from the data buffer 210. read out. The diagonal pair weight coefficient calculation unit 243 calculates the coefficient wght from these pixel values using Expression 1 and supplies the coefficient wght to the multiplier 247.

斜め対重み係数算出部244は、注目画素の左上および右下にある周辺画素対に対する係数wghtを算出するものである。この斜め対重み係数算出部244は、注目画素(x、y)の左上の画素値P(x−1、y−1)と、右下の画素値P(x+1、y+1)とをデータバッファ210から読み出す。斜め対重み係数算出部244は、式1を使用して、これらの画素値から係数wghtを算出し、乗算器248へ供給する。   The diagonal pair weight coefficient calculation unit 244 calculates the coefficient wght for the peripheral pixel pairs at the upper left and lower right of the target pixel. The diagonal pair weight coefficient calculation unit 244 uses the upper left pixel value P (x−1, y−1) and the lower right pixel value P (x + 1, y + 1) of the target pixel (x, y) as the data buffer 210. Read from. The diagonal pair weight coefficient calculation unit 244 calculates the coefficient wght from these pixel values using Equation 1 and supplies the coefficient wght to the multiplier 248.

乗算器245は、係数wghtに対して、距離に応じた係数「0.125」を乗算するものである。この乗算器245は、左右対重み係数算出部241からのwghtに対して「0.125」を乗算し、周辺画素重み係数W1として出力する。   The multiplier 245 multiplies the coefficient wght by a coefficient “0.125” corresponding to the distance. The multiplier 245 multiplies wght from the left / right paired weight coefficient calculation unit 241 by “0.125” and outputs the result as a peripheral pixel weight coefficient W1.

乗算器246は、係数wghtに対して、距離に応じた係数「0.125」を乗算するものである。この乗算器246は、上下対重み係数算出部242からのwghtに対して「0.125」を乗算し、周辺画素重み係数W2として出力する。   The multiplier 246 multiplies the coefficient wght by a coefficient “0.125” corresponding to the distance. The multiplier 246 multiplies wght from the upper / lower pair weight coefficient calculation unit 242 by “0.125” and outputs the result as a peripheral pixel weight coefficient W2.

乗算器247は、係数wghtに対して、距離に応じた係数「0.0625」を乗算するものである。この乗算器247は、斜め対重み係数算出部243からのwghtに対して「0.0625」を乗算し、周辺画素重み係数W3として出力する。   The multiplier 247 multiplies the coefficient wght by a coefficient “0.0625” corresponding to the distance. The multiplier 247 multiplies wght from the diagonal pair weight coefficient calculation unit 243 by “0.0625”, and outputs the result as a peripheral pixel weight coefficient W3.

乗算器248は、係数wghtに対して、距離に応じた係数「0.0625」を乗算するものである。この乗算器248は、斜め対重み係数算出部244からのwghtに対して「0.0625」を乗算し、周辺画素重み係数W4として出力する。   The multiplier 248 multiplies the coefficient wght by a coefficient “0.0625” corresponding to the distance. The multiplier 248 multiplies wght from the diagonal pair weight coefficient calculation unit 244 by “0.0625” and outputs the result as a peripheral pixel weight coefficient W4.

このように、周辺画素重み係数算出部240は、周辺画素対ごとに重み係数を算出するため、周辺画素ごとに重み係数を算出するバイラテラルフィルタなどと比較して、計算量や回路規模を削減することができる。例えば、バイラテラルフィルタでは、周辺画素が8個の場合、8つの重み係数を算出しなければならないのに対し、周辺画素重み係数算出部240では、W1乃至W4の4つしか算出する必要がない。   As described above, the peripheral pixel weighting coefficient calculation unit 240 calculates the weighting coefficient for each pair of peripheral pixels, so that the calculation amount and the circuit scale are reduced as compared with a bilateral filter that calculates the weighting coefficient for each peripheral pixel. can do. For example, in the bilateral filter, when there are eight neighboring pixels, eight weighting factors must be calculated, whereas the neighboring pixel weighting factor calculating unit 240 needs to calculate only four of W1 to W4. .

[注目画素重み係数算出部の構成例]
図7は、第1の実施の形態における注目画素重み係数算出部250の一構成例を示すブロック図である。この注目画素重み係数算出部250は、乗算器251、252、253および254と、加算器255と、減算器256とを備える。
[Configuration Example of Pixel Weight Factor Calculation Unit of Interest]
FIG. 7 is a block diagram illustrating a configuration example of the pixel-of-interest weight coefficient calculation unit 250 according to the first embodiment. The target pixel weight coefficient calculation unit 250 includes multipliers 251, 252, 253, and 254, an adder 255, and a subtracter 256.

乗算器251は、周辺画素重み係数W1に「2」を乗算するものである。この乗算器251は、乗算結果を加算器255に供給する。乗算器252は、周辺画素重み係数W2に「2」を乗算するものである。この乗算器252は、乗算結果を加算器255に供給する。乗算器253は、周辺画素重み係数W3に「2」を乗算するものである。この乗算器253は、乗算結果を加算器255に供給する。乗算器254は、周辺画素重み係数W4に「2」を乗算するものである。この乗算器254は、乗算結果を加算器255に供給する。   The multiplier 251 multiplies the peripheral pixel weighting coefficient W1 by “2”. The multiplier 251 supplies the multiplication result to the adder 255. The multiplier 252 multiplies the peripheral pixel weighting coefficient W2 by “2”. The multiplier 252 supplies the multiplication result to the adder 255. The multiplier 253 multiplies the peripheral pixel weighting coefficient W3 by “2”. The multiplier 253 supplies the multiplication result to the adder 255. The multiplier 254 multiplies the peripheral pixel weighting coefficient W4 by “2”. The multiplier 254 supplies the multiplication result to the adder 255.

加算器255は、乗算器251乃至254の乗算結果の全てを加算するものである。この加算器255は、加算結果を減算器256へ供給する。   The adder 255 adds all the multiplication results of the multipliers 251 to 254. The adder 255 supplies the addition result to the subtracter 256.

減算器256は、「1」から、加算器255の加算結果を減算するものである。この減算器256は、減算結果を注目画素重み係数W0として出力する。   The subtracter 256 subtracts the addition result of the adder 255 from “1”. The subtracter 256 outputs the subtraction result as a target pixel weight coefficient W0.

このように、周辺画素重み係数の合計と「1」との差分を求めることにより、全ての重み係数の和が「1」となり、また、重み係数の和が「1」となるように除算を行う必要がなくなる。これにより、重み係数の和が「1」となるように除算を行うローパスフィルタなどと比較して、計算量や回路規模を削減することができる。   Thus, by calculating the difference between the sum of the peripheral pixel weighting factors and “1”, the division is performed so that the sum of all weighting factors becomes “1” and the sum of the weighting factors becomes “1”. There is no need to do it. As a result, the amount of calculation and the circuit scale can be reduced as compared with a low-pass filter that performs division so that the sum of the weighting coefficients becomes “1”.

[重み付け加算部の構成例]
図8は、第1の実施の形態における重み付け加算部260の一構成例を示すブロック図である。この重み付け加算部260は、読出し部261と、加算器262、263、264、265および266と、乗算器267、268、269および270と、加算部271とを備える。
[Configuration example of weighted addition unit]
FIG. 8 is a block diagram illustrating a configuration example of the weighted addition unit 260 in the first embodiment. The weighting addition unit 260 includes a reading unit 261, adders 262, 263, 264, 265 and 266, multipliers 267, 268, 269 and 270, and an addition unit 271.

読出し部261は、注目画素および周辺画素のそれぞれの色差信号を読み出すものである。この読出し部261は、注目画素の左右の周辺画素対のそれぞれの色差信号U(x−1、y)および色差信号U(x−1、y)を加算器262に供給し、次に、それらの色差信号V(x−1、y)および色差信号V(x−1、y)を加算器262に供給する。   The reading unit 261 reads out the color difference signals of the target pixel and the peripheral pixels. The reading unit 261 supplies the color difference signals U (x−1, y) and the color difference signals U (x−1, y) of the left and right peripheral pixel pairs of the target pixel to the adder 262, and then The color difference signal V (x−1, y) and the color difference signal V (x−1, y) are supplied to the adder 262.

また、読出し部261は、注目画素の上下の周辺画素対のそれぞれの色差信号U(x、y−1)および色差信号U(x、y+1)を加算器263に供給し、次に、それらの色差信号V(x、y−1)および色差信号V(x、y+1)を加算器263に供給する。   Further, the reading unit 261 supplies the color difference signals U (x, y−1) and the color difference signals U (x, y + 1) of the upper and lower peripheral pixel pairs of the target pixel to the adder 263, and then The color difference signal V (x, y−1) and the color difference signal V (x, y + 1) are supplied to the adder 263.

また、読出し部261は、注目画素の右上および左下の周辺画素対のそれぞれの色差信号U(x+1、y−1)および色差信号U(x−1、y+1)を加算器264に供給する。次いで読出し部261は、それらの色差信号V(x+1、y−1)および色差信号V(x−1、y+1)を加算器264に供給する。   Further, the reading unit 261 supplies the adder 264 with the color difference signal U (x + 1, y−1) and the color difference signal U (x−1, y + 1) of each of the upper right and lower left peripheral pixel pairs of the target pixel. Next, the reading unit 261 supplies the color difference signal V (x + 1, y−1) and the color difference signal V (x−1, y + 1) to the adder 264.

また、読出し部261は、注目画素の左上および右下の周辺画素対のそれぞれの色差信号U(x−1、y−1)および色差信号U(x+1、y+1)を加算器265に供給する。次いで読出し部261は、それらの色差信号V(x−1、y−1)および色差信号V(x+1、y+1)を加算器265に供給する。   Further, the reading unit 261 supplies the adder 265 with the color difference signals U (x−1, y−1) and the color difference signals U (x + 1, y + 1) of the upper left and lower right peripheral pixel pairs of the target pixel. Next, the reading unit 261 supplies the color difference signal V (x−1, y−1) and the color difference signal V (x + 1, y + 1) to the adder 265.

さらに読出し部261は、注目画素の色差信号U(x、y)およびV(x、y)を順に乗算器266に供給する。   Further, the reading unit 261 supplies the color difference signals U (x, y) and V (x, y) of the target pixel to the multiplier 266 in order.

加算器262は、左右の周辺画素対のそれぞれの色差信号を加算するものである。この加算器262は、加算結果を乗算器267に供給する。加算器263は、上下の周辺画素対のそれぞれの色差信号を加算するものである。この加算器263は、加算結果を乗算器268に供給する。加算器264は、右上および左下の周辺画素対のそれぞれの色差信号を加算するものである。この加算器264は、加算結果を乗算器269に供給する。加算器265は、左上および右下の周辺画素対のそれぞれの色差信号を加算するものである。この加算器265は、加算結果を乗算器270に供給する。   The adder 262 adds the color difference signals of the left and right peripheral pixel pairs. The adder 262 supplies the addition result to the multiplier 267. The adder 263 adds the color difference signals of the upper and lower peripheral pixel pairs. The adder 263 supplies the addition result to the multiplier 268. The adder 264 adds the color difference signals of the upper right and lower left peripheral pixel pairs. The adder 264 supplies the addition result to the multiplier 269. The adder 265 adds the color difference signals of the upper left and lower right peripheral pixel pairs. The adder 265 supplies the addition result to the multiplier 270.

乗算器267は、加算器262の加算結果に周辺画素重み係数W1を乗算するものである。この乗算器267は、乗算結果を加算部271に供給する。乗算器268は、加算器263の加算結果に周辺画素重み係数W2を乗算するものである。この乗算器268は、乗算結果を加算部271に供給する。乗算器269は、加算器264の加算結果に周辺画素重み係数W3を乗算するものである。この乗算器269は、乗算結果を加算部271に供給する。乗算器270は、加算器265の加算結果に周辺画素重み係数W4を乗算するものである。この乗算器270は、乗算結果を加算部271に供給する。   The multiplier 267 multiplies the addition result of the adder 262 by the peripheral pixel weight coefficient W1. The multiplier 267 supplies the multiplication result to the adder 271. The multiplier 268 multiplies the addition result of the adder 263 by the peripheral pixel weight coefficient W2. The multiplier 268 supplies the multiplication result to the adder 271. The multiplier 269 multiplies the addition result of the adder 264 by the peripheral pixel weight coefficient W3. The multiplier 269 supplies the multiplication result to the adder 271. The multiplier 270 multiplies the addition result of the adder 265 by the peripheral pixel weight coefficient W4. The multiplier 270 supplies the multiplication result to the adder 271.

乗算器266は、注目画素の色差信号に注目画素重み係数W0を乗算するものである。この乗算器266は、乗算結果を加算部271に供給する。   The multiplier 266 multiplies the color difference signal of the target pixel by the target pixel weight coefficient W0. The multiplier 266 supplies the multiplication result to the adder 271.

加算部271は、乗算器266、267、268、269および270のそれぞれの乗算結果を加算するものである。この加算部271は、加算結果を出力画像データ内の座標(x、y)の色差信号U’およびV’として出力する。一方、入力画像データ内の輝度信号Y(x、y)は、そのまま出力画像データにおける輝度信号Y(x、y)として出力される。   The adding unit 271 adds the multiplication results of the multipliers 266, 267, 268, 269, and 270. The adder 271 outputs the addition result as color difference signals U ′ and V ′ at coordinates (x, y) in the output image data. On the other hand, the luminance signal Y (x, y) in the input image data is output as it is as the luminance signal Y (x, y) in the output image data.

図9は、第1の実施の形態における平滑化前後のエッジの一例を示すグラフである。同図において縦軸は、画素値を示し、横軸は座標を示す。また、黒丸は注目画素を示し、白丸は周辺画素を示す。同図におけるaは、平滑化前のエッジの一例を示すグラフである。同図におけるbは、式1を用いた平滑化後のエッジの一例を示すグラフである。同図におけるcは、バイラテラルフィルタによる平滑化後のエッジの一例を示すグラフである。   FIG. 9 is a graph illustrating an example of edges before and after smoothing according to the first embodiment. In the figure, the vertical axis indicates pixel values, and the horizontal axis indicates coordinates. A black circle indicates a target pixel, and a white circle indicates a peripheral pixel. A in the same figure is a graph which shows an example of the edge before smoothing. B in the figure is a graph showing an example of an edge after smoothing using Expression 1. C in the same figure is a graph which shows an example of the edge after smoothing by a bilateral filter.

図9におけるaに例示したように、エッジの濃度勾配が緩やかである場合には、注目画素の画素値P(x、y)と周辺画素の画素値P(x−1、y)およびP(x+1、y)とのそれぞれの差分が比較的小さくなる。ここで、仮にバイラテラルフィルタを用いた場合、画素値P(x、y)と画素値P(x−1、y)およびP(x+1、y)との差分から、その差分が小さいほど大きな重み係数が算出される。このため、バイラテラルフィルタでは、エッジの濃度勾配が緩やかであるほど周辺画素に対する重み係数が大きくなり、平滑化の度合いが大きくなる。したがって、同図におけるcに例示するように勾配がさらに小さくなり、エッジにおいてボケや滲みが生じるおそれがある。   As illustrated in a in FIG. 9, when the edge density gradient is gentle, the pixel value P (x, y) of the target pixel and the pixel values P (x−1, y) and P ( The respective differences from x + 1, y) are relatively small. Here, if a bilateral filter is used, the smaller the difference, the greater the weight from the difference between the pixel value P (x, y) and the pixel values P (x-1, y) and P (x + 1, y). A coefficient is calculated. For this reason, in the bilateral filter, the gentler the edge density gradient, the larger the weighting factor for the surrounding pixels and the greater the degree of smoothing. Therefore, as illustrated in c in the figure, the gradient is further reduced, and blurring or blurring may occur at the edge.

これに対して、画像処理部200では、式1により、周辺画素の画素値P(x−1、y)と画素値P(x+1、y)との差分から、その差分が小さいほど大きな周辺画素重み係数が算出される。エッジが注目画素を通過する場合、周辺画素対のそれぞれの画素値の差分は、注目画素および周辺画素のそれぞれの画素値の差分よりも大きくなる。このため、式1による周辺画素重み係数は、バイラテラルフィルタにおける重み係数よりも小さくなり、平滑化の度合いが低くなる。したがって、図9におけるcに例示したように、平滑化後においてもエッジの勾配が維持され、エッジのボケや滲みの発生を抑制することができる。   On the other hand, in the image processing unit 200, the smaller the difference from the difference between the pixel value P (x−1, y) and the pixel value P (x + 1, y) of the peripheral pixel, the larger the peripheral pixel, A weighting factor is calculated. When the edge passes through the target pixel, the difference between the pixel values of the peripheral pixel pair is larger than the difference between the pixel values of the target pixel and the peripheral pixels. For this reason, the peripheral pixel weighting coefficient according to Equation 1 is smaller than the weighting coefficient in the bilateral filter, and the degree of smoothing is low. Therefore, as illustrated in FIG. 9c, the gradient of the edge is maintained even after smoothing, and the occurrence of blurring and blurring of the edge can be suppressed.

図10は、第1の実施の形態における平滑化前後のノイズの一例を示すグラフである。同図において縦軸は、画素値を示し、横軸は座標を示す。また、黒丸は注目画素を示し、白丸は周辺画素を示す。同図におけるaは、平滑化前のノイズの一例を示すグラフである。同図におけるbは、平滑化後のノイズの一例を示すグラフである。   FIG. 10 is a graph illustrating an example of noise before and after smoothing in the first embodiment. In the figure, the vertical axis indicates pixel values, and the horizontal axis indicates coordinates. A black circle indicates a target pixel, and a white circle indicates a peripheral pixel. A in the same figure is a graph which shows an example of the noise before smoothing. B in the figure is a graph showing an example of noise after smoothing.

図10におけるaに例示するように、注目画素においてノイズが生じた際には、周辺画素対の画素値の差分が比較的小さくなり、周辺画素重み係数が大きくなる。したがって、平滑化の度合いが高くなって、同図におけるbに例示するように、ノイズが除去される。   As illustrated in a in FIG. 10, when noise occurs in the target pixel, the difference between the pixel values of the peripheral pixel pair is relatively small, and the peripheral pixel weighting coefficient is large. Therefore, the degree of smoothing is increased, and noise is removed as illustrated in FIG.

図9および図10に例示したように、画像処理部200は、エッジの滲みやボケの発生を抑制しつつ、ノイズを除去することができる。これにより、出力画像データの画質を向上させることができる。また、点対称の一対の画素のそれぞれに対する重み係数を同一にしているため、重み係数が対称性を持ち、重み付け加算部260により構成されるフィルタは、直線位相特性を持つ。これにより、エッジに歪みが生じにくくなる。   As illustrated in FIGS. 9 and 10, the image processing unit 200 can remove noise while suppressing the occurrence of edge blurring and blurring. Thereby, the image quality of output image data can be improved. In addition, since the weighting coefficients for the pair of point-symmetrical pixels are the same, the weighting coefficients have symmetry, and the filter configured by the weighted addition unit 260 has linear phase characteristics. This makes it difficult for distortion to occur at the edge.

[撮像装置の動作例]
図11は、第1の実施の形態における撮像装置100の動作の一例を示すフローチャートである。この動作は、例えば、撮像のための所定の操作(シャッターボタンの押下など)が行われたときに開始される。
[Operation example of imaging device]
FIG. 11 is a flowchart illustrating an example of the operation of the imaging apparatus 100 according to the first embodiment. This operation is started, for example, when a predetermined operation for imaging (pressing a shutter button or the like) is performed.

撮像装置100内の撮像素子120は、画像データを生成し(ステップS901)、デモザイク処理(ステップS902)およびYUV変換処理(ステップS903)を行う。   The image sensor 120 in the imaging device 100 generates image data (step S901), and performs demosaic processing (step S902) and YUV conversion processing (step S903).

そして、撮像装置100内の画像処理部200は、選択されていない注目画素を選択し(ステップS905)、注目画素に対して点対称の位置にある周辺画素対の画素値の差分から重み係数を算出する(ステップS906)。また、画像処理部200は、注目画素および周辺画素のそれぞれの画素値に対して重み付け加算を行う(ステップS907)。画像処理部200は、全画素を選択したか否かを判断する(ステップS908)。全画素を選択していない場合には(ステップS908:No)、画像処理部200は、ステップS905に戻る。一方、全画素を選択した場合には(ステップS908:Yes)、画像処理部200は、撮像および画像処理の動作を終了する。   Then, the image processing unit 200 in the imaging apparatus 100 selects a target pixel that has not been selected (step S905), and calculates a weighting coefficient from the difference between the pixel values of peripheral pixel pairs that are point-symmetric with respect to the target pixel. Calculate (step S906). In addition, the image processing unit 200 performs weighted addition on the pixel values of the target pixel and the peripheral pixels (step S907). The image processing unit 200 determines whether all the pixels have been selected (step S908). If all the pixels have not been selected (step S908: No), the image processing unit 200 returns to step S905. On the other hand, when all the pixels have been selected (step S908: Yes), the image processing unit 200 ends the imaging and image processing operations.

このように、本技術の第1の実施の形態によれば、画像処理部200は、注目画素に対して点対称の位置にある一対の画素のそれぞれの画素値の差分が大きいほど平滑化の度合いを高くするため、注目画素をエッジが通過する際に平滑化の度合いが小さくなる。このため、エッジにおいて、滲みやボケの発生を抑制することができ、画像データの画質を向上させることができる。   As described above, according to the first embodiment of the present technology, the image processing unit 200 performs smoothing as the difference between the pixel values of the pair of pixels located in point symmetry with respect to the target pixel increases. In order to increase the degree, the degree of smoothing decreases when the edge passes through the target pixel. For this reason, it is possible to suppress the occurrence of bleeding and blurring at the edge, and to improve the image quality of the image data.

<2.第2の実施の形態>
第1の実施の形態では、重み係数算出部230および重み付け加算部260により、注目画素から一定距離のフィルタ範囲内で重み付け加算を行い、ノイズを除去していた。しかし、重み付け加算部260より広いフィルタ範囲で重み付け加算を行うローパスフィルタをさらに追加してもよい。このローパスフィルタの追加により、より広い周波数帯域のノイズを除去して、画質を向上させることができる。第2の実施の形態の画像処理部200は、重み付け加算部260より広いフィルタ範囲で重み付け加算を行うローパスフィルタを追加した点において第1の実施の形態と異なる。
<2. Second Embodiment>
In the first embodiment, the weighting factor calculation unit 230 and the weighting addition unit 260 perform weighting addition within a filter range of a certain distance from the target pixel to remove noise. However, a low-pass filter that performs weighted addition in a wider filter range than the weighted addition unit 260 may be further added. By adding this low-pass filter, noise in a wider frequency band can be removed and the image quality can be improved. The image processing unit 200 according to the second embodiment is different from the first embodiment in that a low-pass filter that performs weighted addition in a wider filter range than the weighted addition unit 260 is added.

図12は、第2の実施の形態における画像処理部200の一構成例を示すブロック図である。第2の実施の形態の画像処理部200は、ローパスフィルタ280およびデータバッファ290をさらに備える点において第1の実施の形態と異なる。   FIG. 12 is a block diagram illustrating a configuration example of the image processing unit 200 according to the second embodiment. The image processing unit 200 according to the second embodiment is different from the first embodiment in that it further includes a low-pass filter 280 and a data buffer 290.

ローパスフィルタ280は、重み付け加算部260より広いフィルタ範囲で重み付け加算を行うものである。この広範囲の平滑化処理(重み付け加算)により、重み付け加算部260より広い周波数帯域のノイズが除去される。ローパスフィルタ280は、データバッファ210から色差信号UおよびVを読み出して平滑化処理を行い、処理後の信号(U’およびV’)と、輝度信号Yとをデータバッファ290に保持させる。なお、ローパスフィルタ280は、特許請求の範囲に記載の広範囲平滑化処理部の一例である。   The low-pass filter 280 performs weighted addition in a wider filter range than the weighted addition unit 260. By this wide-ranging smoothing process (weighted addition), noise in a wider frequency band than the weighted addition unit 260 is removed. The low-pass filter 280 reads the color difference signals U and V from the data buffer 210 and performs a smoothing process, and causes the data buffer 290 to hold the processed signals (U ′ and V ′) and the luminance signal Y. The low-pass filter 280 is an example of a wide-range smoothing processing unit described in the claims.

また、第2の実施の形態の重み係数算出部230および重み付け加算部260は、データバッファ290から画素データを読み出す。   In addition, the weighting coefficient calculation unit 230 and the weighting addition unit 260 of the second embodiment read pixel data from the data buffer 290.

図13は、第2の実施の形態におけるローパスフィルタ280に設定される重み係数の一例を示す図である。同図において太い実線で囲まれた画素は着目画素を示す。画素に記載された数値は、重み係数を示す。   FIG. 13 is a diagram illustrating an example of weighting factors set in the low-pass filter 280 according to the second embodiment. In the figure, pixels surrounded by a thick solid line indicate the target pixel. The numerical value described in the pixel indicates a weighting factor.

ローパスフィルタ280は、入力画像データ内の画素を順に着目画素として選択する。この着目画素を中心として5×5のフィルタ範囲内の各画素について、着目画素からの距離が長いほど小さい重み係数が設定される。着目画素と、その上下左右、左上、右上、左下および右下の9個の画素については、「4」の重み係数が乗算される。また、着目画素からの距離が2以上、2×21/2未満の画素については、「2」の重み係数が乗算される。残りの画素については「1」の重み係数が設定される。ローパスフィルタ280は、これらの係数を対応する画素値(UおよびV)に乗算し、乗算結果の合計値を「64」で除算してデータバッファ290に保持させる。なお、輝度信号Yは、ローパスフィルタ280を通過せずに、そのままデータバッファ290に保持される。 The low pass filter 280 sequentially selects the pixels in the input image data as the target pixel. For each pixel in the 5 × 5 filter range centered on this pixel of interest, a smaller weight coefficient is set as the distance from the pixel of interest is longer. A weighting factor of “4” is multiplied for the pixel of interest and its nine pixels, top, bottom, left, right, top left, top right, bottom left, and bottom right. For a pixel whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 , a weighting factor of “2” is multiplied. A weighting factor of “1” is set for the remaining pixels. The low-pass filter 280 multiplies the corresponding pixel values (U and V) by these coefficients, divides the total value of the multiplication results by “64”, and stores the result in the data buffer 290. The luminance signal Y is held in the data buffer 290 as it is without passing through the low-pass filter 280.

図14は、第2の実施の形態における撮像装置100の動作の一例を示すフローチャートである。第2の実施の形態の撮像装置100の動作は、ステップS904をさらに実行する点において第1の実施の形態と異なる。   FIG. 14 is a flowchart illustrating an example of the operation of the imaging apparatus 100 according to the second embodiment. The operation of the imaging apparatus 100 of the second embodiment is different from that of the first embodiment in that step S904 is further executed.

YUV変換処理(ステップS903)の後、画像処理部200は、ローパスフィルタ280によりノイズを除去し(ステップS904)、ステップS905以降の処理を行う。   After the YUV conversion process (step S903), the image processing unit 200 removes noise by the low-pass filter 280 (step S904), and performs the processes after step S905.

このように、本技術の第2の実施の形態によれば、画像処理部200は、ローパスフィルタ280において重み付け加算部260よりも広い範囲で重み付け加算を行うため、より広い周波数帯域のノイズを除去して画像データの画質を向上させることができる。   As described above, according to the second embodiment of the present technology, the image processing unit 200 performs weighted addition in a wider range than the weighting addition unit 260 in the low-pass filter 280, and thus removes noise in a wider frequency band. Thus, the image quality of the image data can be improved.

<3.第3の実施の形態>
第1の実施の形態では、デモザイク処理を撮像素子120において行っていたが、このデモザイク処理を画像処理部200が行ってもよい。第3の実施の形態の画像処理部200は、デモザイク処理をさらに行う点において第1の実施の形態と異なる。
<3. Third Embodiment>
In the first embodiment, the demosaic process is performed in the image sensor 120, but the demosaic process may be performed by the image processing unit 200. The image processing unit 200 according to the third embodiment is different from the first embodiment in that demosaic processing is further performed.

図15は、第3の実施の形態における撮像素子120の一構成例を示すブロック図である。第3の実施の形態の撮像素子120は、デモザイク処理部127およびYUV変換部128を備えない点において第1の実施の形態と異なる。第3の実施の形態のAD変換部125は、デモザイク前の画像データを入力画像データとして画像処理部200に供給する。   FIG. 15 is a block diagram illustrating a configuration example of the image sensor 120 according to the third embodiment. The image sensor 120 according to the third embodiment is different from the first embodiment in that the demosaic processing unit 127 and the YUV conversion unit 128 are not provided. The AD conversion unit 125 according to the third embodiment supplies image data before demosaic to the image processing unit 200 as input image data.

図16は、第3の実施の形態における画像処理部200の一構成例を示すブロック図である。第3の実施の形態の画像処理部200は、デモザイク処理部300およびデータバッファ290をさらに備える点において第1の実施の形態と異なる。   FIG. 16 is a block diagram illustrating a configuration example of the image processing unit 200 according to the third embodiment. The image processing unit 200 according to the third embodiment is different from the first embodiment in that it further includes a demosaic processing unit 300 and a data buffer 290.

デモザイク処理部300は、入力画像データに対してデモザイク処理を行うものである。このデモザイク処理部300は、データバッファ210から画素データを読み出してデモザイク処理を行い、処理後の画像データをデータバッファ290に保持させる。なお、デモザイク処理部300は、特許請求の範囲に記載の色情報補間部の一例である。   The demosaic processing unit 300 performs demosaic processing on the input image data. The demosaic processing unit 300 reads out pixel data from the data buffer 210, performs demosaic processing, and stores the processed image data in the data buffer 290. The demosaic processing unit 300 is an example of a color information interpolation unit described in the claims.

また、第3の実施の形態の重み係数算出部230および重み付け加算部260は、データバッファ290から画素データを読み出す。ただし、第3の実施の形態の重み係数算出部230は、式1の代わりに次の式を使用して係数wghtを算出する。

Figure 2016071808
In addition, the weighting coefficient calculation unit 230 and the weighting addition unit 260 of the third embodiment read pixel data from the data buffer 290. However, the weighting coefficient calculation unit 230 according to the third embodiment calculates the coefficient wght using the following expression instead of the expression 1.
Figure 2016071808

上式において、rは、一対の周辺画素のうち一方のr信号であり、r’は、一対の周辺画素のうち他方のr信号である。gは、一対の周辺画素のうち一方のg信号であり、g’は、一対の周辺画素のうち他方のg信号である。また、bは、一対の周辺画素のうち一方のb信号であり、b’は、一対の周辺画素のうち他方のb信号である。   In the above equation, r is one r signal of the pair of peripheral pixels, and r ′ is the other r signal of the pair of peripheral pixels. g is a g signal of one of the pair of peripheral pixels, and g ′ is a g signal of the other of the pair of peripheral pixels. Further, b is one b signal of the pair of peripheral pixels, and b ′ is the other b signal of the pair of peripheral pixels.

なお、画像処理部200は、YUV変換処理をさらに実行してもよい。この場合には、デモザイク処理後の画像データに対してYUV変換を行うYUV変換処理部が画像処理部200にさらに設けられる。   Note that the image processing unit 200 may further execute YUV conversion processing. In this case, the image processing unit 200 is further provided with a YUV conversion processing unit that performs YUV conversion on the image data after the demosaic processing.

図17は、第3の実施の形態におけるデモザイク処理部300の一構成例を示すブロック図である。このデモザイク処理部300は、R補間フィルタ301と、G補間フィルタ302、B補間フィルタ303と、W補間フィルタ304、305および306とを備える。また、デモザイク処理部300は、減算器307、308および309を備える。   FIG. 17 is a block diagram illustrating a configuration example of the demosaic processing unit 300 according to the third embodiment. The demosaic processing unit 300 includes an R interpolation filter 301, a G interpolation filter 302, a B interpolation filter 303, and W interpolation filters 304, 305, and 306. The demosaic processing unit 300 includes subtracters 307, 308, and 309.

R補間フィルタ301は、複数の画素を順に対象画素として選択し、対象画素においてR信号を補間するものである。例えば、R補間フィルタ301は、対象画素を中心として5×5のフィルタ範囲内のR信号のそれぞれに対して、距離に応じた係数による重み付け加算を行う。R補間フィルタ301は、加算結果をR’信号として減算器307に供給する。   The R interpolation filter 301 sequentially selects a plurality of pixels as target pixels, and interpolates R signals at the target pixels. For example, the R interpolation filter 301 performs weighted addition with a coefficient corresponding to the distance for each of the R signals within the 5 × 5 filter range centering on the target pixel. The R interpolation filter 301 supplies the addition result to the subtracter 307 as an R ′ signal.

G補間フィルタ302は、対象画素においてG信号を補間するものである。例えば、G補間フィルタ302は、対象画素を中心として5×5のフィルタ範囲内のG信号のそれぞれに対して、距離に応じた係数による重み付け加算を行う。G補間フィルタ302は、加算結果をG’信号として減算器308に供給する。   The G interpolation filter 302 interpolates the G signal in the target pixel. For example, the G interpolation filter 302 performs weighted addition with a coefficient corresponding to the distance for each of the G signals in the 5 × 5 filter range centering on the target pixel. The G interpolation filter 302 supplies the addition result to the subtracter 308 as a G ′ signal.

B補間フィルタ303は、対象画素においてB信号を補間するものである。例えば、B補間フィルタ303は、対象画素を中心として5×5のフィルタ範囲内のB信号のそれぞれに対して、距離に応じた係数による重み付け加算を行う。B補間フィルタ303は、加算結果をB’信号として減算器309に供給する。   The B interpolation filter 303 interpolates the B signal in the target pixel. For example, the B interpolation filter 303 performs weighted addition with a coefficient corresponding to the distance for each of the B signals in the 5 × 5 filter range centering on the target pixel. The B interpolation filter 303 supplies the addition result to the subtractor 309 as a B ′ signal.

W補間フィルタ304は、対象画素から一定範囲内のR画素の上下左右のW画素から、対象画素についてW信号を補間するものである。例えば、W補間フィルタ304は、対象画素を中心として5×5のフィルタ範囲内のR信号の上下左右のW信号の平均値のそれぞれに対して、距離に応じた係数による重み付け加算を行う。W補間フィルタ304は、加算結果をW’信号として減算器307に供給する。   The W interpolation filter 304 interpolates the W signal for the target pixel from the upper, lower, left, and right W pixels of the R pixel within a certain range from the target pixel. For example, the W interpolation filter 304 performs weighted addition using a coefficient corresponding to the distance to each of the average values of the upper, lower, left, and right W signals of the R signal within the 5 × 5 filter range with the target pixel as the center. The W interpolation filter 304 supplies the addition result to the subtracter 307 as a W ′ signal.

W補間フィルタ305は、対象画素から一定範囲内のG画素の上下左右のW画素から、対象画素についてW信号を補間するものである。例えば、W補間フィルタ305は、対象画素を中心として5×5のフィルタ範囲内のG信号の上下左右のW信号の平均値のそれぞれに対して、距離に応じた係数による重み付け加算を行う。W補間フィルタ305は、加算結果をW’信号として減算器308に供給する。   The W interpolation filter 305 interpolates the W signal for the target pixel from the upper, lower, left, and right W pixels of the G pixel within a certain range from the target pixel. For example, the W interpolation filter 305 performs weighted addition with a coefficient corresponding to the distance to each of the average values of the upper, lower, left, and right W signals of the G signal within the 5 × 5 filter range with the target pixel as the center. The W interpolation filter 305 supplies the addition result to the subtracter 308 as a W ′ signal.

W補間フィルタ306は、対象画素から一定範囲内のB画素の上下左右のW画素から、対象画素についてW信号を補間するものである。例えば、W補間フィルタ306は、対象画素を中心として5×5のフィルタ範囲内のB信号の上下左右のW信号の平均値のそれぞれに対して、距離に応じた係数による重み付け加算を行う。W補間フィルタ306は、加算結果をW’信号として減算器309に供給する。   The W interpolation filter 306 interpolates the W signal for the target pixel from the upper, lower, left, and right W pixels of the B pixel within a certain range from the target pixel. For example, the W interpolation filter 306 performs weighted addition with a coefficient corresponding to the distance to each of the average values of the upper, lower, left, and right W signals of the B signal within the 5 × 5 filter range with the target pixel as the center. The W interpolation filter 306 supplies the addition result to the subtracter 309 as a W ′ signal.

減算器307は、R補間フィルタ301からのR’信号から、W補間フィルタ304からのW’信号を減算するものである。減算器307は、減算結果をr信号として出力する。減算器308は、G補間フィルタ302からのG’信号から、W補間フィルタ305からのW’信号を減算するものである。減算器308は、減算結果をg信号として出力する。減算器309は、B補間フィルタ303からのB’信号から、W補間フィルタ306からのW’信号を減算するものである。減算器309は、減算結果をb信号として出力する。   The subtractor 307 subtracts the W ′ signal from the W interpolation filter 304 from the R ′ signal from the R interpolation filter 301. The subtracter 307 outputs the subtraction result as an r signal. The subtracter 308 subtracts the W ′ signal from the W interpolation filter 305 from the G ′ signal from the G interpolation filter 302. The subtracter 308 outputs the subtraction result as a g signal. The subtractor 309 subtracts the W ′ signal from the W interpolation filter 306 from the B ′ signal from the B interpolation filter 303. The subtractor 309 outputs the subtraction result as a b signal.

図18は、第3の実施の形態における入力画像データ530の一例を示す図である。同図に例示するように、入力画像データにおいて、R信号、G信号、B信号およびW信号のいずれかの色情報を画素値とする複数の画素が二次元格子状に配列される。   FIG. 18 is a diagram illustrating an example of the input image data 530 according to the third embodiment. As illustrated in the figure, in the input image data, a plurality of pixels whose pixel values are any of color information of R signal, G signal, B signal, and W signal are arranged in a two-dimensional lattice pattern.

このように、W画素を含む画像データをデモザイクした場合、W画素を含まないベイヤ配列の画像データをデモザイクした場合と比較して明るさが向上するものの、色情報が少ないために色ノイズや滲みが多く発生してしまう傾向がある。式1による平滑化処理により、これらのノイズの発生を効果的に抑制することができる。なお、撮像素子120がベイヤ配列の入力画像データを生成し、画像処理部200が、その入力画像データをデモザイクする構成としてもよい。   As described above, when demosaicing image data including W pixels, brightness is improved as compared to demosaicing Bayer array image data not including W pixels, but color noise and blurring are reduced due to less color information. Tends to occur. Generation of these noises can be effectively suppressed by the smoothing process according to Equation 1. Note that the image sensor 120 may generate Bayer array input image data, and the image processing unit 200 may demosaic the input image data.

図19は、第3の実施の形態におけるR補間フィルタ301、G補間フィルタ302およびB補間フィルタ303に設定される重み係数の一例を示す図である。   FIG. 19 is a diagram illustrating an example of weighting factors set in the R interpolation filter 301, the G interpolation filter 302, and the B interpolation filter 303 according to the third embodiment.

図19におけるaは、R補間フィルタ301に設定される重み係数の一例を示す図である。このR補間フィルタ301は、入力画像データ内の画素を順に対象画素として選択する。この対象画素を中心として5×5の範囲内のR信号について、対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるR画素については、「4」の重み係数が乗算される。また、対象画素からの距離が2以上、2×21/2未満のR画素については、「2」の重み係数が乗算される。残りのR画素については「1」の重み係数が設定される。R補間フィルタ301は、これらの係数を対応するR信号に乗算し、合計値が「1」になるように、所定値で除算してR’信号を生成する。 In FIG. 19, “a” is a diagram illustrating an example of a weighting coefficient set in the R interpolation filter 301. The R interpolation filter 301 sequentially selects pixels in the input image data as target pixels. For the R signal within the range of 5 × 5 with the target pixel as the center, a smaller weight coefficient is set as the distance from the target pixel is longer. The target pixel and the R pixels located in the upper, lower, left, right, upper left, upper right, lower left, and lower right are multiplied by a weighting factor of “4”. For R pixels whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 , a weighting factor of “2” is multiplied. A weighting factor of “1” is set for the remaining R pixels. The R interpolation filter 301 multiplies the corresponding R signal by these coefficients, and generates an R ′ signal by dividing by a predetermined value so that the total value becomes “1”.

図19におけるbは、G補間フィルタ302に設定される重み係数の一例を示す図である。このG補間フィルタ302では、対象画素を中心として5×5の範囲内のG信号について、対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるG画素については、「4」の重み係数が乗算される。また、対象画素からの距離が2以上、2×21/2未満のG画素については、「2」の重み係数が乗算される。残りのG画素については「1」の重み係数が設定される。G補間フィルタ302は、これらの係数を対応するG信号に乗算し、合計値が「1」になるように、所定値で除算してG’信号を生成する。 B in FIG. 19 is a diagram illustrating an example of a weighting coefficient set in the G interpolation filter 302. In this G interpolation filter 302, a smaller weighting factor is set for a G signal within a 5 × 5 range centering on the target pixel as the distance from the target pixel is longer. The target pixel and the G pixels located in the upper, lower, right, left, upper left, upper right, lower left, and lower right are multiplied by a weighting factor of “4”. For a G pixel whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 , a weighting factor of “2” is multiplied. A weighting factor of “1” is set for the remaining G pixels. The G interpolation filter 302 multiplies the corresponding G signal by these coefficients and divides by a predetermined value so that the total value becomes “1” to generate a G ′ signal.

図19におけるcは、B補間フィルタ303に設定される重み係数の一例を示す図である。このB補間フィルタ303では、対象画素を中心として5×5の範囲内のB信号について、対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるB画素については、「4」の重み係数が乗算される。また、対象画素からの距離が2以上、2×21/2未満のB画素については、「2」の重み係数が乗算される。残りのB画素については「1」の重み係数が設定される。B補間フィルタ303は、これらの係数を対応するB信号に乗算し、合計値が「1」になるように、所定値で除算してB’信号を生成する。 C in FIG. 19 is a diagram illustrating an example of a weighting factor set in the B interpolation filter 303. In the B interpolation filter 303, a smaller weighting factor is set for a B signal within a 5 × 5 range centering on the target pixel as the distance from the target pixel is longer. For the target pixel and its B pixels located at the top, bottom, left, right, top left, top right, bottom left and bottom right, a weighting factor of “4” is multiplied. For the B pixel whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 , a weighting factor of “2” is multiplied. A weighting factor of “1” is set for the remaining B pixels. The B interpolation filter 303 multiplies the corresponding B signal by these coefficients and divides by a predetermined value so that the total value becomes “1” to generate a B ′ signal.

図20は、第3の実施の形態におけるW補間フィルタ304、305および306に設定される重み係数の一例を示す図である。   FIG. 20 is a diagram illustrating an example of weighting factors set in the W interpolation filters 304, 305, and 306 according to the third embodiment.

図20におけるaは、W補間フィルタ304に設定される重み係数の一例を示す図である。このW補間フィルタ304では、対象画素を中心として5×5の範囲内のR画素の上下左右のW信号について、そのR画素の対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるR画素の上下左右のW画素については、「4」の重み係数が乗算される。この場合、フィルタ範囲は、7×7の範囲である。また、対象画素からの距離が2以上、2×21/2未満のR画素の上下左右のW画素については、「2」の重み係数が乗算される。残りのR画素の上下左右のW画素については「1」の重み係数が設定される。同図におけるaの斜線部分は、R画素を示す。W補間フィルタ304は、これらの係数を対応するW信号の平均値に乗算し、合計値が「1」になるように、所定値で除算してW’信号を生成する。 In FIG. 20, “a” is a diagram illustrating an example of a weighting factor set in the W interpolation filter 304. In the W interpolation filter 304, a smaller weight coefficient is set for the upper, lower, left, and right W signals of the R pixel within the range of 5 × 5 around the target pixel as the distance from the target pixel of the R pixel is longer. The target pixel and the upper, lower, left, and right W pixels of the upper, lower, left, right, upper left, upper right, lower left, and lower right pixels are multiplied by a weighting factor of “4”. In this case, the filter range is a 7 × 7 range. In addition, a weighting factor of “2” is multiplied for the W pixels on the upper, lower, left, and right sides of the R pixel that is 2 or more and less than 2 × 2 1/2 from the target pixel. A weighting factor of “1” is set for the upper, lower, left, and right W pixels of the remaining R pixels. A hatched portion of a in the figure indicates an R pixel. The W interpolation filter 304 multiplies these coefficients by the average value of the corresponding W signal, and divides by a predetermined value so that the total value becomes “1” to generate a W ′ signal.

図20におけるbは、W補間フィルタ305に設定される重み係数の一例を示す図である。このW補間フィルタ305では、対象画素を中心として5×5の範囲内のG画素の上下左右のW信号について、そのG画素の対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるG画素の上下左右のW画素については、「4」の重み係数が乗算される。また、対象画素からの距離が2以上、2×21/2未満のG画素の上下左右のW画素については、「2」の重み係数が乗算される。残りのG画素の上下左右のW画素については「1」の重み係数が設定される。同図におけるaの斜線部分は、G画素を示す。W補間フィルタ305は、これらの係数を対応するW信号の平均値に乗算し、合計値が「1」になるように、所定値で除算してW’信号を生成する。 B in FIG. 20 is a diagram illustrating an example of a weighting factor set in the W interpolation filter 305. In this W interpolation filter 305, a smaller weighting factor is set for the upper, lower, left, and right W signals of the G pixel within the 5 × 5 range with the target pixel as the center, as the distance from the target pixel of the G pixel is longer. The target pixel and the upper, lower, left, and right W pixels of the G pixel that are in the upper, lower, left, right, upper left, upper right, lower left, and lower right are multiplied by a weighting factor of “4”. Further, a weighting factor of “2” is multiplied for the upper, lower, left, and right W pixels of the G pixel whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 . A weighting factor of “1” is set for the upper, lower, left, and right W pixels of the remaining G pixels. A hatched portion of a in the figure indicates a G pixel. The W interpolation filter 305 multiplies these coefficients by the average value of the corresponding W signal, and divides by a predetermined value so that the total value becomes “1” to generate a W ′ signal.

図20におけるcは、W補間フィルタ306に設定される重み係数の一例を示す図である。このW補間フィルタ306では、対象画素を中心として5×5の範囲内のB画素の上下左右のW信号について、そのB画素の対象画素からの距離が長いほど小さい重み係数が設定される。対象画素と、その上下左右、左上、右上、左下および右下にあるB画素の上下左右のW画素については、「4」の重み係数が乗算される。また、対象画素からの距離が2以上、2×21/2未満のB画素の上下左右のW画素については、「2」の重み係数が乗算される。残りのB画素の上下左右のW画素については「1」の重み係数が設定される。同図におけるaの斜線部分は、B画素を示す。W補間フィルタ306は、これらの係数を対応するW信号の平均値に乗算し、合計値が「1」になるように、所定値で除算してW’信号を生成する。 20 is a diagram illustrating an example of a weighting factor set in the W interpolation filter 306. In the W interpolation filter 306, a lower weight coefficient is set as the distance from the target pixel of the B pixel to the upper, lower, left, and right W signals of the B pixel within the 5 × 5 range with the target pixel as the center is longer. A weighting factor of “4” is multiplied for the target pixel and the upper, lower, left, right, upper, lower left, upper right, lower left, and lower right B pixels of the B pixel. In addition, the W pixel on the top, bottom, left, and right of the B pixel whose distance from the target pixel is 2 or more and less than 2 × 2 1/2 is multiplied by a weighting factor of “2”. A weighting factor of “1” is set for the upper, lower, left, and right W pixels of the remaining B pixels. A hatched portion of a in the figure indicates a B pixel. The W interpolation filter 306 multiplies these coefficients by the average value of the corresponding W signal, and divides by a predetermined value so that the total value becomes “1” to generate a W ′ signal.

図21は、第3の実施の形態におけるデモザイク処理後の画像データ540の一例を示す図である。同図に例示するように、デモザイク処理により、画素ごとに足りない色情報が補間された結果、画素ごとに、r信号、g信号およびb信号を含む画像データ540が生成される。   FIG. 21 is a diagram illustrating an example of image data 540 after demosaic processing according to the third embodiment. As illustrated in the figure, as a result of interpolation of insufficient color information for each pixel by demosaic processing, image data 540 including an r signal, a g signal, and a b signal is generated for each pixel.

図22は、第3の実施の形態における重み付け加算部260の一構成例を示すブロック図である。第3の実施の形態の読出し部261は、色差信号UおよびVの代わりに、注目画素および周辺画素のそれぞれのr信号、g信号およびb信号を読み出す点において第1の実施の形態と異なる。   FIG. 22 is a block diagram illustrating a configuration example of the weighted addition unit 260 according to the third embodiment. The reading unit 261 of the third embodiment is different from the first embodiment in that instead of the color difference signals U and V, the r signal, g signal, and b signal of the pixel of interest and the surrounding pixels are read.

図23は、第3の実施の形態における撮像装置100の動作の一例を示すフローチャートである。第3の実施の形態の撮像装置100の動作は、画像処理部200がデモザイク処理(ステップS902)を実行し、YUV変換処理(ステップS903)を実行しない点において第1の実施の形態と異なる。   FIG. 23 is a flowchart illustrating an example of the operation of the imaging apparatus 100 according to the third embodiment. The operation of the imaging apparatus 100 of the third embodiment is different from that of the first embodiment in that the image processing unit 200 executes the demosaic process (step S902) and does not execute the YUV conversion process (step S903).

このように、本技術の第3の実施の形態によれば、画像処理部200は、デモザイク処理をさらに行うため、撮像素子120がデモザイク処理を行う必要がなくなる。これにより、撮像素子120の回路規模を削減することができる。   As described above, according to the third embodiment of the present technology, the image processing unit 200 further performs the demosaic process, and thus it is not necessary for the image sensor 120 to perform the demosaic process. Thereby, the circuit scale of the image sensor 120 can be reduced.

[変形例]
第3の実施の形態では、画像処理部200は、デモザイク処理および平滑化処理後の画像データをそのまま出力しているが、デモザイク処理により除去された高周波成分を取り出して、平滑化処理後に、その高周波成分を復元してもよい。これにより、画像データの画質がさらに向上する。変形例の画像処理部200は、高周波成分を復元する点において第1の実施の形態と異なる。
[Modification]
In the third embodiment, the image processing unit 200 outputs the image data after the demosaic process and the smoothing process as it is, but takes out the high-frequency component removed by the demosaic process, The high frequency component may be restored. This further improves the image quality of the image data. The image processing unit 200 according to the modified example is different from the first embodiment in that the high frequency component is restored.

図24は、第3の実施の形態の変形例における画像処理部200の一構成例を示すブロック図である。変形例の画像処理部200は、W補間フィルタ310および高周波成分復元部320をさらに備える点において第3の実施の形態と異なる。   FIG. 24 is a block diagram illustrating a configuration example of the image processing unit 200 according to the modification of the third embodiment. The image processing unit 200 according to the modified example is different from the third embodiment in that a W interpolation filter 310 and a high-frequency component restoration unit 320 are further provided.

W補間フィルタ310は、デモザイク処理部300における補間フィルタよりもタップ数の小さいフィルタにより、画素ごとに足りないW信号を補間するフィルタである。例えば、デモザイク処理部300において7×7のタップ数の補間フィルタを用いた場合、3×3のタップ数のW補間フィルタ310が設けられる。このW補間フィルタ310は、補間後のW信号を高周波成分として高周波成分復元部320に供給する。   The W interpolation filter 310 is a filter that interpolates an insufficient W signal for each pixel with a filter having a smaller number of taps than the interpolation filter in the demosaic processing unit 300. For example, when an interpolation filter having a tap number of 7 × 7 is used in the demosaic processing unit 300, a W interpolation filter 310 having a tap number of 3 × 3 is provided. The W interpolation filter 310 supplies the interpolated W signal to the high frequency component restoration unit 320 as a high frequency component.

高周波成分復元部320は、平滑化処理後の画像データにおいて、高周波成分を復元するものである。この高周波成分復元部320は、重み付け加算部260からの画像データに、W補間フィルタ310からの高周波成分を合成して出力画像データとして出力する。これにより、高周波成分が復元される。   The high frequency component restoration unit 320 restores a high frequency component in the image data after the smoothing process. The high frequency component restoration unit 320 synthesizes the high frequency component from the W interpolation filter 310 with the image data from the weighted addition unit 260 and outputs the resultant as output image data. Thereby, the high frequency component is restored.

このように、変形例によれば、デモザイク処理により取り除かれた高周波成分を、平滑化処理後に復元するため、画像データの画質をさらに向上させることができる。   Thus, according to the modification, the high-frequency component removed by the demosaic process is restored after the smoothing process, so that the image quality of the image data can be further improved.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.
Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

なお、本技術は以下のような構成もとることができる。
(1)二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、
前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する画像処理装置。
(2)前記差分取得部は、
前記差分を求めて当該差分が大きいほど小さい係数を周辺画素重み係数として前記差分から生成する周辺画素重み係数生成部と、
前記注目画素に対する係数を注目画素重み係数として前記周辺画素重み係数から生成する注目画素重み係数生成部と
を備え、
前記平滑化処理部は、前記周辺画素重み係数および前記注目画素重み係数による前記一対の入力画素と前記注目画素とに対する重み付け加算を前記平滑化処理として行う
前記(1)記載の画像処理装置。
(3)前記周辺画素重み係数生成部は、前記差分が大きいほど小さく、前記注目画素と前記一対の入力画素のいずれかとの間の距離が短いほど大きい係数を前記周辺画素重み係数として生成する
前記(2)記載の画像処理装置。
(4)前記複数の入力画素のそれぞれについて順に着目画素として当該着目画素から前記一定距離より長い距離の範囲内において平滑化処理を広範囲平滑化処理として行う広範囲平滑化処理部をさらに具備し、
前記差分取得部は、前記広範囲平滑化処理の後の前記一対の入力画素のそれぞれの画素値の差分を求め、
前記平滑化処理部は、前記広範囲平滑化処理の後の前記所定範囲内において前記平滑化処理を行う
前記(1)から(3)のいずれかに記載の画像処理装置。
(5)前記画素値は、輝度信号および色差信号を含む
前記(1)から(4)のいずれかに記載の画像処理装置。
(6)前記画素値は、複数の色情報を含む
前記(1)から(4)のいずれかに記載の画像処理装置。
(7)複数の色情報のうちの1つを前記画素値とする前記複数の入力画素のそれぞれにおいて前記複数の色情報のうち足りない色情報を補間する色情報補間部をさらに具備し、
前記重み係数生成部は、前記色情報が補間された前記複数の入力画素のそれぞれについて順に注目画素とする
前記(1)から(4)のいずれかに記載の画像処理装置。
(8)二次元格子状に配列された複数の入力画素を含む画像を撮像する撮像部と、
前記複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、
前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する撮像装置。
(9)差分取得部が、二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得手順と、
平滑化処理部が、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する画像処理方法。
(10)差分取得部が、二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得手順と、
平滑化処理部が、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
をコンピュータに実行させるためのプログラム。
In addition, this technique can also take the following structures.
(1) A pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined range from the target pixel as a target pixel in order for each of the plurality of input pixels arranged in a two-dimensional grid. A difference acquisition unit for obtaining a difference between the respective pixel values;
An image processing apparatus comprising: a smoothing processing unit that performs smoothing processing with a higher degree of smoothing within the predetermined range as the difference is smaller.
(2) The difference acquisition unit
A peripheral pixel weight coefficient generation unit that determines the difference and generates a smaller coefficient as a peripheral pixel weight coefficient from the difference as the difference is larger;
A target pixel weight coefficient generation unit that generates a coefficient for the target pixel from the peripheral pixel weight coefficient as a target pixel weight coefficient;
The image processing apparatus according to (1), wherein the smoothing processing unit performs weighted addition on the pair of input pixels and the target pixel based on the peripheral pixel weighting coefficient and the target pixel weighting coefficient as the smoothing process.
(3) The peripheral pixel weight coefficient generation unit generates a coefficient that is smaller as the difference is larger and larger as the distance between the target pixel and one of the pair of input pixels is shorter as the peripheral pixel weight coefficient. (2) The image processing apparatus according to (2).
(4) A wide-area smoothing processing unit that performs smoothing processing as wide-ranging smoothing processing within a range longer than the fixed distance from the target pixel as the target pixel in order for each of the plurality of input pixels,
The difference acquisition unit obtains a difference between the pixel values of the pair of input pixels after the wide area smoothing process,
The image processing apparatus according to any one of (1) to (3), wherein the smoothing processing unit performs the smoothing process within the predetermined range after the wide-area smoothing process.
(5) The image processing device according to any one of (1) to (4), wherein the pixel value includes a luminance signal and a color difference signal.
(6) The image processing device according to any one of (1) to (4), wherein the pixel value includes a plurality of pieces of color information.
(7) a color information interpolation unit that interpolates missing color information among the plurality of color information in each of the plurality of input pixels having one of a plurality of color information as the pixel value;
The image processing apparatus according to any one of (1) to (4), wherein the weight coefficient generation unit sequentially sets each of the plurality of input pixels interpolated with the color information as a target pixel.
(8) an imaging unit that captures an image including a plurality of input pixels arranged in a two-dimensional lattice;
Difference acquisition for obtaining a difference between respective pixel values of a pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined distance from the target pixel as a target pixel in order for each of the plurality of input pixels. And
An imaging apparatus comprising: a smoothing processing unit that performs smoothing processing with a higher degree of smoothing within the predetermined range as the difference is smaller.
(9) The difference acquisition unit is in a point-symmetrical position with respect to the target pixel within a predetermined range of a certain distance from the target pixel as the target pixel in order for each of the plurality of input pixels arranged in a two-dimensional grid. A difference acquisition procedure for obtaining a difference between respective pixel values of the pair of input pixels;
An image processing method comprising: a smoothing processing unit that performs a smoothing process having a higher degree of smoothing within the predetermined range as the difference is smaller.
(10) The difference acquisition unit is in a point-symmetrical position with respect to the target pixel within a predetermined range of a certain distance from the target pixel as the target pixel in order for each of the plurality of input pixels arranged in a two-dimensional grid. A difference acquisition procedure for obtaining a difference between respective pixel values of the pair of input pixels;
A program for causing a computer to execute a smoothing processing unit that performs a smoothing process with a higher degree of smoothing within the predetermined range as the difference is smaller.

100 撮像装置
110 撮像レンズ
120 撮像素子
121 行走査回路
122 画素アレイ部
123 画素
124 タイミング制御回路
125 AD変換部
126 列走査回路
127 デモザイク処理部
128 YUV変換部
130 制御部
140 記録部
200 画像処理部
210、290 データバッファ
220 注目画素選択部
230 重み係数算出部
240 周辺画素重み係数算出部
241 左右対重み係数算出部
242 上下対重み係数算出部
243、244 斜め対重み係数算出部
245、246、247、248、251、252、253、254、266、267、268、269、270 乗算器
250 注目画素重み係数算出部
255、262、263、264、265 加算器
256、307、308、309 減算器
260 重み付け加算部
261 読出し部
271 加算部
280 ローパスフィルタ
300 デモザイク処理部
301 R補間フィルタ
302 G補間フィルタ
303 B補間フィルタ
304、305、306 W補間フィルタ
310 W補間フィルタ
320 高周波成分復元部
DESCRIPTION OF SYMBOLS 100 Image pick-up device 110 Imaging lens 120 Image pick-up element 121 Row scanning circuit 122 Pixel array part 123 Pixel 124 Timing control circuit 125 AD conversion part 126 Column scanning circuit 127 Demosaic processing part 128 YUV conversion part 130 Control part 140 Recording part 200 Image processing part 210 290 Data buffer 220 Target pixel selection unit 230 Weight coefficient calculation unit 240 Peripheral pixel weight coefficient calculation unit 241 Left / right pair weight coefficient calculation unit 242 Up / down pair weight coefficient calculation unit 243, 244 Diagonal pair weight coefficient calculation unit 245, 246, 247, 248, 251, 252, 253, 254, 266, 267, 268, 269, 270 Multiplier 250 Target pixel weight coefficient calculation unit 255, 262, 263, 264, 265 Adder 256, 307, 308, 309 Subtractor 260 Weight Only adding unit 261 reads unit 271 adding unit 280 lowpass filter 300 demosaic processing unit 301 R interpolation filter 302 G interpolation filter 303 B interpolation filters 304, 305, 306 W interpolation filter 310 W interpolation filter 320 the high frequency component restoring portion

Claims (10)

二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、
前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する画像処理装置。
Each of a plurality of input pixels arranged in a two-dimensional grid as a target pixel in order, as a target pixel, each of a pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined distance from the target pixel A difference acquisition unit for obtaining a difference between values;
An image processing apparatus comprising: a smoothing processing unit that performs smoothing processing with a higher degree of smoothing within the predetermined range as the difference is smaller.
前記差分取得部は、
前記差分を求めて当該差分が大きいほど小さい係数を周辺画素重み係数として前記差分から生成する周辺画素重み係数生成部と、
前記注目画素に対する係数を注目画素重み係数として前記周辺画素重み係数から生成する注目画素重み係数生成部と
を備え、
前記平滑化処理部は、前記周辺画素重み係数および前記注目画素重み係数による前記一対の入力画素と前記注目画素とに対する重み付け加算を前記平滑化処理として行う
請求項1記載の画像処理装置。
The difference acquisition unit
A peripheral pixel weight coefficient generation unit that determines the difference and generates a smaller coefficient as a peripheral pixel weight coefficient from the difference as the difference is larger;
A target pixel weight coefficient generation unit that generates a coefficient for the target pixel from the peripheral pixel weight coefficient as a target pixel weight coefficient;
The image processing apparatus according to claim 1, wherein the smoothing processing unit performs weighted addition on the pair of input pixels and the target pixel based on the peripheral pixel weight coefficient and the target pixel weight coefficient as the smoothing process.
前記周辺画素重み係数生成部は、前記差分が大きいほど小さく、前記注目画素と前記一対の入力画素のいずれかとの間の距離が短いほど大きい係数を前記周辺画素重み係数として生成する
請求項2記載の画像処理装置。
The peripheral pixel weight coefficient generation unit generates a coefficient that is smaller as the difference is larger and larger as the distance between the target pixel and one of the pair of input pixels is shorter as the peripheral pixel weight coefficient. Image processing apparatus.
前記複数の入力画素のそれぞれについて順に着目画素として当該着目画素から前記一定距離より長い距離の範囲内において平滑化処理を広範囲平滑化処理として行う広範囲平滑化処理部をさらに具備し、
前記差分取得部は、前記広範囲平滑化処理の後の前記一対の入力画素のそれぞれの画素値の差分を求め、
前記平滑化処理部は、前記広範囲平滑化処理の後の前記所定範囲内において前記平滑化処理を行う
請求項1記載の画像処理装置。
A wide range smoothing processing unit that performs smoothing processing as a wide range smoothing process within a range of a distance longer than the fixed distance from the target pixel as a target pixel in order for each of the plurality of input pixels,
The difference acquisition unit obtains a difference between the pixel values of the pair of input pixels after the wide area smoothing process,
The image processing apparatus according to claim 1, wherein the smoothing processing unit performs the smoothing process within the predetermined range after the wide area smoothing process.
前記画素値は、輝度信号および色差信号を含む
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the pixel value includes a luminance signal and a color difference signal.
前記画素値は、複数の色情報を含む
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the pixel value includes a plurality of pieces of color information.
複数の色情報のうちの1つを前記画素値とする前記複数の入力画素のそれぞれにおいて前記複数の色情報のうち足りない色情報を補間する色情報補間部をさらに具備し、
前記重み係数生成部は、前記色情報が補間された前記複数の入力画素のそれぞれについて順に注目画素とする
請求項1記載の画像処理装置。
A color information interpolation unit that interpolates missing color information among the plurality of color information in each of the plurality of input pixels having one of a plurality of color information as the pixel value;
The image processing apparatus according to claim 1, wherein the weight coefficient generation unit sequentially sets each of the plurality of input pixels interpolated with the color information as a target pixel.
二次元格子状に配列された複数の入力画素を含む画像を撮像する撮像部と、
前記複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得部と、
前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する撮像装置。
An imaging unit that captures an image including a plurality of input pixels arranged in a two-dimensional lattice;
Difference acquisition for obtaining a difference between respective pixel values of a pair of input pixels that are point-symmetric with respect to the target pixel within a predetermined distance from the target pixel as a target pixel in order for each of the plurality of input pixels. And
An imaging apparatus comprising: a smoothing processing unit that performs smoothing processing with a higher degree of smoothing within the predetermined range as the difference is smaller.
差分取得部が、二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得手順と、
平滑化処理部が、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
を具備する画像処理方法。
The difference acquisition unit sequentially inputs a pair of inputs that are point-symmetric with respect to the target pixel within a predetermined range from the target pixel as the target pixel for each of the plurality of input pixels arranged in a two-dimensional grid. A difference acquisition procedure for obtaining a difference between respective pixel values of the pixels;
An image processing method comprising: a smoothing processing unit that performs a smoothing process having a higher degree of smoothing within the predetermined range as the difference is smaller.
差分取得部が、二次元格子状に配列された複数の入力画素のそれぞれについて順に注目画素として当該注目画素から一定距離の所定範囲内において前記注目画素に対して点対称の位置にある一対の入力画素のそれぞれの画素値の差分を求める差分取得手順と、
平滑化処理部が、前記差分が小さいほど平滑化の度合いの高い平滑化処理を前記所定範囲内において行う平滑化処理部と
をコンピュータに実行させるためのプログラム。
The difference acquisition unit sequentially inputs a pair of inputs that are point-symmetric with respect to the target pixel within a predetermined range from the target pixel as the target pixel for each of the plurality of input pixels arranged in a two-dimensional grid. A difference acquisition procedure for obtaining a difference between respective pixel values of the pixels;
A program for causing a computer to execute a smoothing processing unit that performs a smoothing process with a higher degree of smoothing within the predetermined range as the difference is smaller.
JP2014203556A 2014-10-02 2014-10-02 Image processor, image processing method and program Pending JP2016071808A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014203556A JP2016071808A (en) 2014-10-02 2014-10-02 Image processor, image processing method and program
PCT/JP2015/069881 WO2016051911A1 (en) 2014-10-02 2015-07-10 Image processing device, imaging device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014203556A JP2016071808A (en) 2014-10-02 2014-10-02 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016071808A true JP2016071808A (en) 2016-05-09

Family

ID=55629963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014203556A Pending JP2016071808A (en) 2014-10-02 2014-10-02 Image processor, image processing method and program

Country Status (2)

Country Link
JP (1) JP2016071808A (en)
WO (1) WO2016051911A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862686B (en) * 2021-02-19 2023-10-27 杭州国科微电子有限公司 Demosaicing method, device, equipment and medium based on bright and dark lines

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262094A (en) * 2001-02-27 2002-09-13 Konica Corp Image processing method and image processor
JP4415650B2 (en) * 2003-11-14 2010-02-17 株式会社リコー Image processing method and image processing apparatus

Also Published As

Publication number Publication date
WO2016051911A1 (en) 2016-04-07

Similar Documents

Publication Publication Date Title
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP5128207B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009021962A (en) Image processor and imaging apparatus, image processing method and imaging method, and image processing program
JP5041886B2 (en) Image processing apparatus, image processing program, and image processing method
JP5169994B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2014017153A1 (en) Image processing device, image processing method, and program
JP2011171885A (en) Image processing apparatus and image processing method
JP2013055623A (en) Image processing apparatus, image processing method, information recording medium, and program
JP2008258932A (en) Image processing device
JP2009044594A (en) Image processing device, program, method
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009021756A (en) Noise rejection circuit, noise rejection method, imaging apparatus, and program
JP5291788B2 (en) Imaging device
JP5948167B2 (en) Imaging device
WO2016051911A1 (en) Image processing device, imaging device, image processing method, and program
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
JP2014090359A (en) Image processing apparatus, image processing method and program
JP7183015B2 (en) Image processing device, image processing method, and program
JP2011151597A (en) Apparatus and program for processing image, and electronic camera
JP5454820B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013055622A (en) Image processing apparatus, image processing method, information recording medium, and program
JP4471748B2 (en) Image signal processing device
JP2009017583A (en) Image processing device
JP2006245916A (en) Circuit and method for processing color separation
TWI609351B (en) Image processing apparatus, camera apparatus, image processing method, and program for executing the method on a computer