JP5024632B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP5024632B2
JP5024632B2 JP2008240335A JP2008240335A JP5024632B2 JP 5024632 B2 JP5024632 B2 JP 5024632B2 JP 2008240335 A JP2008240335 A JP 2008240335A JP 2008240335 A JP2008240335 A JP 2008240335A JP 5024632 B2 JP5024632 B2 JP 5024632B2
Authority
JP
Japan
Prior art keywords
focus information
pixel
saturation
depth value
luminance signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008240335A
Other languages
Japanese (ja)
Other versions
JP2010072983A (en
JP2010072983A5 (en
Inventor
信一郎 五味
泰成 畠澤
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008240335A priority Critical patent/JP5024632B2/en
Priority to US12/561,566 priority patent/US8265418B2/en
Priority to CN2009101738712A priority patent/CN101677408B/en
Publication of JP2010072983A publication Critical patent/JP2010072983A/en
Publication of JP2010072983A5 publication Critical patent/JP2010072983A5/ja
Application granted granted Critical
Publication of JP5024632B2 publication Critical patent/JP5024632B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、画像における被写体の奥行値を正確に求め、求められた奥行値に基づいて画像を処理できるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly to an image processing apparatus, method, and program capable of accurately obtaining a depth value of a subject in an image and processing the image based on the obtained depth value. About.

画像の中で、被写体毎に奥行値を設定し、奥行値に応じて画像を処理する技術が提案されている(特許文献1)。また、画像より被写体の奥行値を抽出して、抽出された奥行値に対応して、上述した画像処理を施す処理が提案されている。   There has been proposed a technique for setting a depth value for each subject in an image and processing the image according to the depth value (Patent Document 1). Further, a process for extracting the depth value of the subject from the image and performing the above-described image processing in accordance with the extracted depth value has been proposed.

特開2002−197486号公報JP 2002-197486 A

しかしながら、画像の輪郭成分、または高周波成分から奥行値を検出する場合、輝度の情報のみに基づいたものであることが多いため、平坦部分では輪郭、および高周波成分が微小であることから、奥行値が正確に得られないことがあり、画像処理を適正に行うことができない恐れがあった。また、暗い領域においても、輪郭、および高周波成分が小さくなることから、正確な奥行値を求めることができないことがあり、やはり画像処理を適正に行うことができない恐れがあった。   However, when the depth value is detected from the contour component or the high frequency component of the image, the depth value is often based only on the luminance information, and therefore the depth and the high frequency component are very small in the flat portion. May not be obtained accurately, and image processing may not be performed properly. Even in a dark region, the contour and the high-frequency component are small, so that an accurate depth value may not be obtained, and there is a possibility that image processing cannot be performed properly.

本発明はこのような状況に鑑みてなされたものであり、特に、画像における暗い部分などの平坦部分においても正確に奥行値を設定することができるようにするものである。   The present invention has been made in view of such a situation. In particular, the depth value can be accurately set even in a flat portion such as a dark portion in an image.

本発明の一側面の画像処理装置は、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出手段と、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合手段と、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理手段と、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出手段と、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合手段と、前記画素毎の奥行値を正規化する正規化手段と、前記正規化手段により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御手段と、前記画素毎に彩度を検出する彩度検出手段と、前記トーンカーブ制御手段により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御手段とを含む。   An image processing apparatus according to an aspect of the present invention integrates focus information extraction means for extracting high-frequency components as focus information from luminance signals of peripheral pixels for each pixel of an input image, and focus information of peripheral pixels for each pixel. The region integration means for generating the integrated focus information and replacing the input for each pixel with a value obtained based on focus information larger than its own focus information among the focus information of surrounding pixels. Dark part processing means for generating dark part focus information of an image, illumination component extraction means for extracting an illumination component by integrating the luminance signal of each pixel with the luminance signal of surrounding pixels, the integrated focus information, and the dark part focus A light / dark integration unit that calculates a depth value for each pixel by a product-sum operation with a coefficient using the illumination component, a normalization unit that normalizes the depth value for each pixel, and the normalization unit Tone curve control means for controlling the normalized depth value by a tone curve, saturation detection means for detecting the saturation for each pixel, and the depth value controlled by the tone curve by the tone curve control means And a saturation control means for controlling the brightness according to the saturation.

前記彩度制御手段により前記トーンカーブで制御された前記奥行値に基づいた係数により、前記入力画像の画素毎の輝度、および色差信号を制御する遠近感制御手段をさらに含ませるようにすることができる。   Perspective control means for controlling luminance and color difference signals for each pixel of the input image by a coefficient based on the depth value controlled by the tone curve by the saturation control means may be further included. it can.

前記輝度のシャープネスを制御するシャープネス制御手段と、前記輝度のコントラストを制御するコントラスト制御手段と、前記画素毎の色差信号を制御する色差制御手段とをさらに含ませるようにすることができ、前記遠近感制御手段には、前記画素毎の輝度に加えて、前記シャープネス制御手段により制御された輝度、および前記コントラスト制御手段により制御された輝度を用いて、前記係数により輝度を制御させ、前記色差信号、および前記色差制御手段により制御された色差信号を用いて、前記奥行値に基づいた係数により前記色差信号を制御させるようにする。   A sharpness control means for controlling the brightness sharpness, a contrast control means for controlling the brightness contrast, and a color difference control means for controlling a color difference signal for each pixel may be further included. The sensation control means uses the brightness controlled by the sharpness control means and the brightness controlled by the contrast control means in addition to the brightness for each pixel to control the brightness by the coefficient, and the color difference signal The color difference signal is controlled by a coefficient based on the depth value using the color difference signal controlled by the color difference control means.

本発明の一側面の画像処理方法は、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、前記画素毎の奥行値を正規化する正規化ステップと、前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、前記画素毎に彩度を検出する彩度検出ステップと、前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップとを含む。   An image processing method according to one aspect of the present invention integrates focus information of a peripheral pixel for each pixel, and a focus information extraction step for extracting a high-frequency component as focus information from a luminance signal of the peripheral pixel for each pixel of an input image. Region integration step for generating the integrated focus information, and for each pixel, by replacing the focus information of peripheral pixels with a value obtained based on focus information larger than its own focus information, the input A dark portion processing step for generating dark portion focus information of an image, an illumination component extraction step for extracting an illumination component by integrating the luminance signal of each pixel with a luminance signal of surrounding pixels, the integrated focus information, and the dark portion focus And a light and dark integration step of calculating a depth value for each pixel by a product-sum operation with a coefficient using the illumination component, and a normalization step for normalizing the depth value for each pixel. And a tone curve control step for controlling the depth value normalized by the normalization step processing by a tone curve, a saturation detection step for detecting saturation for each pixel, and the tone curve control step processing. And a saturation control step of controlling the depth value controlled by the tone curve based on the saturation.

本発明の一側面のプログラムは、入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、前記画素毎の奥行値を正規化する正規化ステップと、前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、前記画素毎に彩度を検出する彩度検出ステップと、前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップとを含む処理をコンピュータに実行させる。   A program according to one aspect of the present invention integrates focus information of a peripheral pixel for each pixel, and a focus information extraction step that extracts a high-frequency component from the luminance signal of the peripheral pixel as focus information for each pixel of the input image. In the region integration step for generating the integrated focus information, and for each pixel, by replacing the focus information of peripheral pixels with a value obtained based on focus information larger than its own focus information, the input image A dark portion processing step for generating dark portion focus information, an illumination component extraction step for extracting an illumination component by integrating the luminance signal of each pixel with a luminance signal of surrounding pixels, the integrated focus information, and the dark portion focus information, And a light-dark integration step for calculating a depth value for each pixel by a product-sum operation using a coefficient using the illumination component, and a normalization step for normalizing the depth value for each pixel. The tone curve control step for controlling the depth value normalized by the normalization step processing with a tone curve, the saturation detection step for detecting the saturation for each pixel, and the tone curve control step processing, Causing the computer to execute processing including a saturation control step of controlling the depth value controlled by the tone curve based on the saturation.

本発明の一側面においては、入力画像の画素毎に、周辺画素の輝度信号より高周波成分が焦点情報として抽出され、前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報が生成され、前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えられることで、前記入力画像の暗部焦点情報が生成され、前記画素毎の輝度信号が、周辺画素の輝度信号に統合されることで照明成分が抽出され、前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値が計算され、前記画素毎の奥行値が正規化され、正規化された奥行値がトーンカーブにより制御され、前記画素毎に彩度が検出され、前記トーンカーブにより制御された前記奥行値が前記彩度により制御される。   In one aspect of the present invention, for each pixel of the input image, a high frequency component is extracted as focus information from the luminance signal of the peripheral pixels, and the integrated focus information is obtained by integrating the focus information of the peripheral pixels for each pixel. For each of the pixels, the dark portion focus information of the input image is generated by replacing the focus information of the surrounding pixels with a value obtained based on focus information larger than its own focus information, and the pixels Illumination components are extracted by integrating each luminance signal with the luminance signal of surrounding pixels, and a product-sum operation using a coefficient using the illumination components of the integrated focus information and the dark portion focus information is performed for each pixel. The depth value is calculated, the depth value for each pixel is normalized, the normalized depth value is controlled by a tone curve, the saturation is detected for each pixel, and is controlled by the tone curve Serial depth value is controlled by the saturation.

本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。   The image processing apparatus of the present invention may be an independent apparatus or a block that performs image processing.

本発明の一側面によれば、画像における被写体の奥行値を正確に求めることが可能となる。   According to one aspect of the present invention, the depth value of a subject in an image can be accurately obtained.

[画像処理装置の構成例]
図1は、本発明を適用した一実施の形態の構成例を示す画像処理装置である。
[Configuration example of image processing apparatus]
FIG. 1 is an image processing apparatus showing a configuration example of an embodiment to which the present invention is applied.

図1の画像処理装置1は、YUV分離部11、統合部12、シャープネス制御部13、コントラスト制御部14、彩度制御部15、および奥行検出部16より構成される。画像処理装置1は、入力画像より画像内における広がり、すなわち、画素単位での奥行値を求めて、求められた奥行値に応じた処理を入力画像に施し、高画質化させるものである。   The image processing apparatus 1 in FIG. 1 includes a YUV separation unit 11, an integration unit 12, a sharpness control unit 13, a contrast control unit 14, a saturation control unit 15, and a depth detection unit 16. The image processing apparatus 1 obtains a spread in the image from the input image, that is, a depth value in units of pixels, and performs a process corresponding to the obtained depth value on the input image to improve the image quality.

YUV分離部11は、例えば、RGB信号などから構成される入力画像をYUV(輝度、および色差信号)に画素単位で変換して分離し、輝度信号Yを統合部12、シャープネス制御部13、コントラスト制御部14、および奥行検出部16に供給する。またYUV分離部11は、入力画像より分離した色差信号U,Vを彩度制御部15、および奥行検出部16に供給する。尚、入力画像がYUV信号より構成される場合、YUV分離部11は、単に輝度信号Yと色差信号U,Vとを分離するのみである。   The YUV separation unit 11 converts, for example, an input image composed of RGB signals into YUV (brightness and color difference signals) in units of pixels, and separates the luminance signal Y into an integration unit 12, a sharpness control unit 13, and a contrast. It supplies to the control part 14 and the depth detection part 16. The YUV separation unit 11 supplies the color difference signals U and V separated from the input image to the saturation control unit 15 and the depth detection unit 16. When the input image is composed of YUV signals, the YUV separation unit 11 merely separates the luminance signal Y and the color difference signals U and V.

シャープネス制御部13は、入力された輝度信号Yの高周波成分を画素単位で強調するように制御することで、シャープネスを制御した輝度信号Ysを生成して統合部12に供給する。   The sharpness control unit 13 generates a luminance signal Ys in which sharpness is controlled by controlling the high frequency component of the input luminance signal Y to be emphasized in units of pixels, and supplies the luminance signal Ys to the integration unit 12.

コントラスト制御部14は、入力された輝度信号のコントラストを画素単位で強調するように制御することにより、コントラストが強調された輝度信号Ycを生成して統合部12に供給する。 The contrast control unit 14 performs control so as to enhance the contrast of the input luminance signal Y in units of pixels, thereby generating the luminance signal Yc with enhanced contrast and supplying the luminance signal Yc to the integration unit 12.

彩度制御部15は、画素毎に色差信号U,Vに対して所定の係数を乗じることにより彩度を強調した色差信号Uc,Vcを生成して統合部12に供給する。   The saturation control unit 15 generates the color difference signals Uc and Vc in which the saturation is emphasized by multiplying the color difference signals U and V by a predetermined coefficient for each pixel, and supplies them to the integration unit 12.

奥行検出部16は、輝度信号Yおよび色差信号U,Vより画素単位で奥行値dを求めて統合部12に供給する。尚、奥行検出部16については、図2を参照して、詳細な構成例について後述する。   The depth detection unit 16 obtains a depth value d for each pixel from the luminance signal Y and the color difference signals U and V, and supplies the depth value d to the integration unit 12. The depth detection unit 16 will be described in detail later with reference to FIG.

統合部12は、奥行値dに基づいて、輝度信号Y,Yc,Ys、および色差信号Uc,Vcを遠近感を強調するように統合して出力画像P’として出力する。   Based on the depth value d, the integration unit 12 integrates the luminance signals Y, Yc, Ys and the color difference signals Uc, Vc so as to emphasize perspective, and outputs the result as an output image P ′.

[奥行検出部の構成例]
次に、図2を参照して、奥行検出部16の詳細な構成例について説明する。
[Configuration example of depth detector]
Next, a detailed configuration example of the depth detection unit 16 will be described with reference to FIG.

奥行検出部16は、焦点情報抽出部31、領域統合部32、暗部処理部33、奥行生成部34、照明成分抽出部35、および彩度検出部36より構成されており、輝度信号Yおよび色差信号U,Vより画素単位で奥行値dを求め、統合部12に供給する。   The depth detection unit 16 includes a focus information extraction unit 31, a region integration unit 32, a dark processing unit 33, a depth generation unit 34, an illumination component extraction unit 35, and a saturation detection unit 36, and includes a luminance signal Y and a color difference. The depth value d is obtained in units of pixels from the signals U and V and supplied to the integration unit 12.

焦点情報抽出部31は、輝度信号Yに水平HPF(High Pass Filter)および垂直HPFを掛けることにより高周波成分を抽出して焦点情報Fとして領域統合部32、および暗部処理部33に供給する。尚、焦点情報抽出部31の構成例については、図3を参照して詳細を後述する。   The focus information extraction unit 31 extracts a high frequency component by multiplying the luminance signal Y by a horizontal HPF (High Pass Filter) and a vertical HPF, and supplies it as focus information F to the region integration unit 32 and the dark part processing unit 33. The configuration example of the focus information extraction unit 31 will be described in detail later with reference to FIG.

領域統合部32は、LPF(Low Pass Filter)より構成されており、焦点情報Fを平滑化することにより、画素毎に周辺画素の焦点情報Fの値に近付けるように統合することで、焦点情報FLを生成し、奥行生成部34に供給する。尚、領域統合部32は、焦点情報Fを周辺の焦点情報Fの値に近付けられように統合処理ができるものであればよいので、LPFなどの他、FIR(Finite Impulse Response Filter)、IIR(Infinite Impulse Response Filter)、εフィルタ、またはメディアンフィルタなどでもよいものである。   The region integration unit 32 is configured by an LPF (Low Pass Filter), and smoothes the focus information F so as to bring the focus information F closer to the value of the focus information F of the surrounding pixels for each pixel. FL is generated and supplied to the depth generation unit 34. The region integration unit 32 only needs to be able to perform integration processing so that the focus information F is brought close to the value of the peripheral focus information F. Therefore, in addition to the LPF, the region integration unit 32 can perform FIR (Finite Impulse Response Filter), IIR ( Infinite Impulse Response Filter), ε filter, or median filter may be used.

暗部処理部33は、画素毎に周辺画素の焦点情報Fとの比較により、注目画素の焦点情報Fよりも大きな値の平均値を求める。そして、暗部処理部33は、求められた平均値で注目画素の焦点情報Fを置き換えることにより、暗部を明るするように処理することで焦点情報FDを生成し、奥行生成部34に供給する。   The dark part processing unit 33 obtains an average value larger than the focus information F of the target pixel by comparing with the focus information F of the peripheral pixel for each pixel. Then, the dark part processing unit 33 generates focus information FD by processing the dark part to be bright by replacing the focus information F of the target pixel with the obtained average value, and supplies the focus information FD to the depth generation unit 34.

照明成分抽出部35は、LPFより構成されており、輝度信号Yを平滑化することで、周辺の画素の輝度信号Yに近付けるように処理して、照明成分LFを抽出して奥行生成部34に供給する。   The illumination component extraction unit 35 is configured by an LPF. The illumination component extraction unit 35 extracts the illumination component LF by smoothing the luminance signal Y so as to approach the luminance signal Y of the surrounding pixels, and the depth generation unit 34. To supply.

彩度検出部36は、色差信号U,Vより彩度Sを検出し、検出した彩度Sを奥行生成部34に供給する。   The saturation detection unit 36 detects the saturation S from the color difference signals U and V, and supplies the detected saturation S to the depth generation unit 34.

奥行生成部34は、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成して出力する。尚、奥行生成部34については、図5を参照して詳細を後述する。   The depth generation unit 34 generates and outputs a depth value d based on the focus information FL, FD, the illumination component LF, and the saturation S. The depth generator 34 will be described in detail later with reference to FIG.

[焦点情報抽出部の構成例]
次に、図3を参照して、焦点情報抽出部31の詳細な構成例について説明する。
[Configuration example of focus information extraction unit]
Next, a detailed configuration example of the focus information extraction unit 31 will be described with reference to FIG.

焦点情報抽出部31は、水平方向HPF51、絶対値処理部52、最大値抽出部53、垂直方向HPF54、および絶対値処理部55から構成されており、輝度信号Yの高周波成分を抽出し、焦点情報Fとして出力する。   The focus information extraction unit 31 includes a horizontal direction HPF 51, an absolute value processing unit 52, a maximum value extraction unit 53, a vertical direction HPF 54, and an absolute value processing unit 55. Output as information F.

水平方向HPF51は、例えば、図4の左部で示されるような、水平方向の高周波成分を抽出するHPFであり、入力される輝度信号Yの水平方向の高周波成分YHを抽出して絶対値処理部52に供給する。   The horizontal HPF 51 is, for example, an HPF that extracts a high-frequency component in the horizontal direction as shown in the left part of FIG. 4, and extracts the high-frequency component YH in the horizontal direction of the input luminance signal Y to perform absolute value processing. To the unit 52.

絶対値処理部52は、水平方向の高周波成分として抽出された高周波成分YHの絶対値を求めて最大値抽出部53に供給する。   The absolute value processing unit 52 obtains the absolute value of the high frequency component YH extracted as the high frequency component in the horizontal direction and supplies it to the maximum value extracting unit 53.

垂直方向HPF54は、例えば、図4の右部で示されるような、垂直方向の高周波成分を抽出するHPFであり、入力される輝度信号Yの垂直方向の高周波成分YVを抽出して絶対値処理部52に供給する。   The vertical HPF 54 is an HPF that extracts a high-frequency component in the vertical direction as shown in the right part of FIG. 4, for example, and extracts the high-frequency component YV in the vertical direction of the input luminance signal Y to perform absolute value processing. To the unit 52.

絶対値処理部55は、垂直方向の高周波成分として抽出された高周波成分YVの絶対値を求めて最大値抽出部53に供給する。   The absolute value processing unit 55 obtains the absolute value of the high frequency component YV extracted as the high frequency component in the vertical direction and supplies it to the maximum value extracting unit 53.

最大値抽出部53は、高周波成分YH,YVの最大値を抽出し、焦点情報Fとして出力する。   The maximum value extraction unit 53 extracts the maximum values of the high frequency components YH and YV and outputs them as focus information F.

[奥行生成部の構成例]
次に、図5を参照して、奥行生成部34の詳細な構成例について説明する。
[Configuration example of depth generator]
Next, a detailed configuration example of the depth generation unit 34 will be described with reference to FIG.

奥行生成部34は、明暗統合部71、正規化部72、トーンカーブ制御部73、および彩度制御部74より構成されており、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成して出力する。   The depth generation unit 34 includes a light / dark integration unit 71, a normalization unit 72, a tone curve control unit 73, and a saturation control unit 74, and is based on the focus information FL, FD, the illumination component LF, and the saturation S. The depth value d is generated and output.

明暗統合部71は、領域統合部32からの輝度信号YLと、暗部処理部33からの輝度信号YDとを、照明成分抽出部35より供給されてくる照明成分LFに基づいた比率で合成することで、輝度信号の明部と暗部とを統合し、合成信号gを正規化部72に供給する。   The light / dark integration unit 71 combines the luminance signal YL from the region integration unit 32 and the luminance signal YD from the dark processing unit 33 at a ratio based on the illumination component LF supplied from the illumination component extraction unit 35. Thus, the bright part and the dark part of the luminance signal are integrated, and the synthesized signal g is supplied to the normalizing unit 72.

正規化部72は、明暗統合部71より供給されてくる合成信号gを正規化し、正規化された合成信号g’としてトーンカーブ制御部73に供給する。   The normalization unit 72 normalizes the synthesized signal g supplied from the light / dark integration unit 71 and supplies the normalized signal to the tone curve control unit 73 as a normalized synthesized signal g ′.

トーンカーブ制御部73は、予め設定されているトーンカーブにしたがって、合成信号g’を制御して奥行値dgを生成し、彩度制御部74に供給する。   The tone curve control unit 73 generates a depth value dg by controlling the synthesized signal g ′ according to a preset tone curve, and supplies the depth value dg to the saturation control unit 74.

彩度制御部74は、トーンカーブ制御部73より供給されてくる奥行値dgに、彩度検出部36より供給されてくる彩度Sに基づいて設定される係数を乗じることにより奥行値dを生成し統合部12に供給する。   The saturation control unit 74 multiplies the depth value dg supplied from the tone curve control unit 73 by the coefficient set based on the saturation S supplied from the saturation detection unit 36 to obtain the depth value d. Generate and supply to the integration unit 12.

[画像処理装置による画像処理]
次に、図6のフローチャートを参照して、図1の画像処理装置1による画像処理について説明する。
[Image processing by image processing device]
Next, image processing by the image processing apparatus 1 in FIG. 1 will be described with reference to the flowchart in FIG.

ステップS11において、YUV分離部11は、新たな画像が供給されてきたか否かを判定し、新たな画像が供給されてくるまで、同様の処理を繰り返す。ステップS1において、例えば、新たな画像が入力されてきた場合、処理は、ステップS12に進む。   In step S11, the YUV separation unit 11 determines whether a new image has been supplied, and repeats the same processing until a new image is supplied. In step S1, for example, when a new image is input, the process proceeds to step S12.

ステップS12において、YUV分離部11は、画素単位でYUV信号に変換して分離し、輝度信号Yを、統合部12、シャープネス制御部13、コントラスト制御部14、および奥行検出部16に供給すると共に、色差信号U,Vを彩度制御部15、および奥行検出部16に供給する。 In step S12, the YUV separation unit 11 converts and separates the YUV signal into pixel units, and supplies the luminance signal Y to the integration unit 12, the sharpness control unit 13, the contrast control unit 14, and the depth detection unit 16. The color difference signals U and V are supplied to the saturation control unit 15 and the depth detection unit 16.

ステップS13において、シャープネス制御部13は、入力画像の輝度信号Yを、画素単位で、輪郭強調処理などによりシャープネスを強調するように制御し、輝度信号Ysとして統合部12に供給する。   In step S <b> 13, the sharpness control unit 13 controls the luminance signal Y of the input image so as to enhance the sharpness by pixel enhancement in units of pixels, and supplies the luminance signal Ys to the integration unit 12.

ステップS14において、コントラスト制御部14は、入力画像の輝度信号Yを、以下の式(1)で示される演算処理により、画素単位でコントラストを高めるように制御し、輝度信号Ycを生成して統合部12に供給する。   In step S14, the contrast control unit 14 controls the luminance signal Y of the input image so as to increase the contrast in units of pixels by the arithmetic processing represented by the following formula (1), and generates and integrates the luminance signal Yc. To the unit 12.

Yc=(Y−Ymin)/(Ymax−Ymin)
・・・(1)
Yc = (Y−Ymin) / (Ymax−Ymin)
... (1)

式(1)において、Yは入力画像の各画素の輝度信号であり、Yminは、入力画像内の輝度信号Yの最小値であり、Ymaxは、入力画像内の輝度信号Yの最大値であり、Ycは、コントラスト制御された輝度信号である。   In equation (1), Y is the luminance signal of each pixel of the input image, Ymin is the minimum value of the luminance signal Y in the input image, and Ymax is the maximum value of the luminance signal Y in the input image. , Yc are brightness signals subjected to contrast control.

すなわち、ステップS14の処理により、コントラスト制御部14は、輝度信号Yを、輝度信号Yと最小値Yminとの差分の、最大値Ymaxと最小値Yminとの差分に対する比率に変換することで、コントラストを強調する。   That is, by the process of step S14, the contrast control unit 14 converts the luminance signal Y into a ratio of the difference between the luminance signal Y and the minimum value Ymin to the difference between the maximum value Ymax and the minimum value Ymin. To emphasize.

ステップS15において、彩度制御部15は、供給されてくる色差信号U,Vのそれぞれに対して、所定の係数κを乗じることにより彩度を強調するように制御し、色差信号Uc(=κU),Vc(=κV)を統合部に供給する。尚、所定の係数κは、任意に設定することが可能である。   In step S15, the saturation control unit 15 performs control so as to enhance the saturation by multiplying each of the supplied color difference signals U and V by a predetermined coefficient κ, and the color difference signal Uc (= κU). ), Vc (= κV) is supplied to the integration unit. The predetermined coefficient κ can be set arbitrarily.

ステップS16において、奥行検出部16は、輝度信号Yおよび色差信号U,Vに基づいて、奥行検出処理を実行し、奥行値dを画素単位で求め、統合部12に供給する。   In step S <b> 16, the depth detection unit 16 performs a depth detection process based on the luminance signal Y and the color difference signals U and V, obtains the depth value d in units of pixels, and supplies it to the integration unit 12.

[奥行検出処理]
ここで、図7のフローチャートを参照して奥行検出処理について説明する。
[Depth detection processing]
Here, the depth detection processing will be described with reference to the flowchart of FIG.

ステップS31において、彩度検出部36は、供給されてきた色差信号U,Vより彩度Sを以下の式(2)を演算することにより求め、奥行生成部34に供給する。   In step S <b> 31, the saturation detection unit 36 calculates the saturation S from the supplied color difference signals U and V by calculating the following equation (2), and supplies it to the depth generation unit 34.

S=√(U2+V2
・・・(2)
S = √ (U 2 + V 2 )
... (2)

ここで、U,Vは、色差信号である。すなわち、彩度Sは、色差信号U,Vの二乗和の平方根として求められる。   Here, U and V are color difference signals. That is, the saturation S is obtained as the square root of the sum of squares of the color difference signals U and V.

ステップS32において、照明成分抽出部35は、各画素の周辺の輝度信号Yにより平滑化することにより、周辺の画素の輝度信号Yに近付けるように処理し、照明成分LFを抽出して奥行生成部34に供給する。すなわち、明るい領域は、焦点が合っている状態でも高周波成分が小さくなるため、周辺の画素の輝度信号Yに近い値が照明成分LFとして抽出される。   In step S <b> 32, the illumination component extraction unit 35 performs processing so as to approach the luminance signal Y of the surrounding pixels by smoothing with the luminance signal Y around each pixel, and extracts the illumination component LF to extract the depth generation unit. 34. That is, since a high frequency component is small in a bright region even in a focused state, a value close to the luminance signal Y of surrounding pixels is extracted as the illumination component LF.

ステップS33において、焦点情報抽出部31は、各画素について焦点情報抽出処理を実行し、輝度信号Yより焦点情報Fを求めて領域統合部32、および暗部処理部33に供給する。   In step S <b> 33, the focus information extraction unit 31 performs focus information extraction processing for each pixel, obtains focus information F from the luminance signal Y, and supplies the focus information F to the region integration unit 32 and the dark part processing unit 33.

[焦点情報抽出処理]
ここで、図8のフローチャートを参照して、焦点情報抽出処理について説明する。
[Focus information extraction processing]
Here, the focus information extraction processing will be described with reference to the flowchart of FIG.

ステップS51において、水平方向HPF51は、入力される輝度信号Yに、例えば、図4の左部で示されるような水平方向のフィルタ処理を施し、高周波成分YHを抽出して絶対値処理部52に供給する。   In step S51, the horizontal HPF 51 subjects the input luminance signal Y to horizontal filter processing as shown in the left part of FIG. 4, for example, and extracts the high frequency component YH to the absolute value processing unit 52. Supply.

ステップS52において、絶対値処理部52は、水平方向の高周波成分として抽出された高周波成分YHの絶対値を求めて最大値抽出部53に供給する。   In step S52, the absolute value processing unit 52 calculates the absolute value of the high frequency component YH extracted as the high frequency component in the horizontal direction and supplies the absolute value to the maximum value extracting unit 53.

ステップS53において、垂直方向HPF54は、入力される輝度信号Yに、例えば、図4の右部で示されるような垂直方向のフィルタ処理を施し、高周波成分YVを抽出して絶対値処理部55に供給する。 In step S53, the vertical HPF 54 subjects the input luminance signal Y to vertical filtering as shown in the right part of FIG. 4, for example, and extracts the high frequency component YV to the absolute value processing unit 55 . Supply.

ステップS54において、絶対値処理部55は、垂直方向の高周波成分として抽出された高周波成分YVの絶対値を求めて最大値抽出部53に供給する。   In step S54, the absolute value processing unit 55 obtains the absolute value of the high frequency component YV extracted as the high frequency component in the vertical direction and supplies the absolute value to the maximum value extracting unit 53.

ステップS55において、最大値抽出部53は、高周波成分YH,YVの最大値、すなわち、いずれか大きな値を抽出し、焦点情報Fとして領域統合部32、および暗部処理部33に出力する。   In step S <b> 55, the maximum value extraction unit 53 extracts the maximum value of the high frequency components YH and YV, that is, any larger value, and outputs the maximum value to the region integration unit 32 and the dark part processing unit 33.

以上の処理により、入力画像Pの各画素について輝度信号Yの水平方向、または、垂直方向の高周波成分のうち、いずれか大きな値が焦点情報Fとして出力される。   Through the above processing, the larger value of the high-frequency components in the horizontal direction or the vertical direction of the luminance signal Y is output as the focus information F for each pixel of the input image P.

ここで、図7のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS34において、領域統合部32は、焦点情報Fを平滑化することにより、周辺の画素の焦点情報Fの値に近づけて焦点情報FLを生成し、奥行生成部34に供給する。すなわち、この処理により、領域統合部32は、焦点情報Fを、全体が高周波成分の画像であるものとして、平滑化して処理し、焦点情報FLを生成して奥行生成部34に供給する。   In step S <b> 34, the region integration unit 32 smoothes the focus information F, generates the focus information FL close to the value of the focus information F of the surrounding pixels, and supplies the focus information FL to the depth generation unit 34. That is, by this process, the region integration unit 32 smoothes and processes the focus information F, assuming that the entire image is a high-frequency component image, generates the focus information FL, and supplies the focus information FL to the depth generation unit 34.

ステップS35において、暗部処理部33は、画素毎に画素周辺の焦点情報Fとの比較により、処理対照となる画素の焦点情報Fよりも大きな周辺画素の焦点情報Fの平均値を求める。すなわち、暗部処理部33は、例えば、図9で示されるように、図中の黒丸で示される処理対象の画素を中心とした垂直方向、または、水平方向などの1次元の範囲Wにおける焦点情報Fのうち、太線で示される注目画素の焦点情報Fよりも大きな値の平均値FA(図9の白丸)を求める。そして、暗部処理部33は、処理対象となる画素の焦点情報Fを、求めた平均値FAで置き換えることにより焦点情報FDを生成する。この処理により、画素毎に、周辺画素の焦点情報Fのうち、自らよりも明るいものの平均値FAに置換されて、焦点情報FDが生成されることになるので、明るくなるように処理される。すなわち、例えば、画像内で暗い範囲に存在するような画素については、明るく処理されることになる。尚、暗部処理部33の処理については、処理対象の画素の近傍の所定範囲の平均値を用いるようにすればよく、例えば、処理対象の画素を中心とした2次元の範囲における焦点情報Fよりも大きな値の平均値で、焦点情報Fを置き換えるようにしてもよい。   In step S <b> 35, the dark part processing unit 33 obtains an average value of the focus information F of the peripheral pixels larger than the focus information F of the pixel to be processed by comparing with the focus information F of the pixel periphery for each pixel. That is, for example, as shown in FIG. 9, the dark part processing unit 33 performs focus information in a one-dimensional range W such as a vertical direction or a horizontal direction centering on a pixel to be processed indicated by a black circle in the drawing. Among F, an average value FA (white circle in FIG. 9) having a value larger than the focus information F of the target pixel indicated by a bold line is obtained. Then, the dark part processing unit 33 generates the focus information FD by replacing the focus information F of the pixel to be processed with the obtained average value FA. As a result of this processing, the focus information FD is generated by replacing the focus information F of the surrounding pixels with the average value FA of the focus information F of the surrounding pixels that is brighter than itself. That is, for example, pixels that are in a dark range in the image are processed brightly. For the processing of the dark part processing unit 33, an average value in a predetermined range near the pixel to be processed may be used. For example, from the focus information F in a two-dimensional range centered on the pixel to be processed. Alternatively, the focus information F may be replaced with an average value of larger values.

ステップS36において、奥行生成部34は、奥行生成処理を実行し、焦点情報FL,FD、照明成分LF、および彩度Sに基づいて、奥行値dを生成して統合部12に出力する。   In step S <b> 36, the depth generation unit 34 executes depth generation processing, generates a depth value d based on the focus information FL, FD, the illumination component LF, and the saturation S, and outputs the depth value d to the integration unit 12.

[奥行生成処理]
ここで、図10のフローチャートを参照して、奥行生成処理について説明する。
[Depth generation processing]
Here, the depth generation processing will be described with reference to the flowchart of FIG.

ステップS71において、明暗統合部71は、焦点情報FLと焦点情報FDとを用いて、以下の式(3)を演算することにより、照明成分LFに基づいた比率で合成し、合成信号gを生成し、合成信号gを正規化部72に供給する。  In step S71, the light / dark integration unit 71 calculates the following equation (3) using the focus information FL and the focus information FD, and combines them at a ratio based on the illumination component LF to generate a combined signal g. Then, the synthesized signal g is supplied to the normalizing unit 72.

g=A×FD+(1−A)×FL
・・・(3)
g = A * FD + (1-A) * FL
... (3)

ここで、gは合成信号を示し、FDは暗部の輝度信号を示し、YLは明部の輝度信号を示し、Aは、図11で示されるように、照明成分LFに基づいて決定される係数である。すなわち、係数Aは、0乃至1.0の値であり、照明成分LFが0近傍であるとき1.0を取り、照明成分LFが所定の値までは1.0であるが、所定の値より大きくなると、照明成分LFが大きくなるに従って線形的に小さくなり、所定の値を超えると0となる。   Here, g represents a combined signal, FD represents a dark portion luminance signal, YL represents a bright portion luminance signal, and A is a coefficient determined based on the illumination component LF as shown in FIG. It is. That is, the coefficient A is a value from 0 to 1.0, and takes 1.0 when the illumination component LF is close to 0, and is 1.0 until the illumination component LF reaches a predetermined value. When it becomes larger, the illumination component LF becomes linearly smaller as it becomes larger, and when it exceeds a predetermined value, it becomes zero.

従って、明暗統合部71は、明部の輝度信号YLと暗部の輝度信号YDとを、照明成分LFが大きく、全体として明るい画像に対しては、明部の輝度信号YLの割合を高めるように合成する。逆に、明暗統合部71は、明部の輝度信号YLと暗部の輝度信号YDとを、照明成分LFが小さく、全体として暗い画像に対しては、暗部の輝度信号YDの割合を高めるように合成する。   Therefore, the bright / dark integration unit 71 increases the ratio of the bright portion luminance signal YL to the bright portion luminance signal YL and the dark portion luminance signal YD with respect to an image having a large illumination component LF and overall bright. Synthesize. Conversely, the light / dark integration unit 71 increases the ratio of the dark portion luminance signal YD to the dark portion luminance signal YD and the dark portion luminance signal YD with respect to a dark image as a whole. Synthesize.

結果として、焦点情報Fは、入力画像Pが全体として明るい場合、高周波成分の高い輝度信号YLに追従して調整され、逆に、全体として暗い場合、暗部処理された輝度信号YDに追従して調整される。   As a result, the focus information F is adjusted so as to follow the luminance signal YL having a high frequency component when the input image P is bright as a whole, and conversely, when the input image P is dark as a whole, the focus information F follows the luminance signal YD subjected to the dark portion processing. Adjusted.

ステップS72において、正規化部72は、合成信号gを、例えば、以下の式(4)で示されるような演算を実行することにより、正規化し、正規化した合成信号g’をトーンカーブ制御部73に供給する。   In step S72, the normalization unit 72 normalizes the synthesized signal g by, for example, performing an operation as shown in the following expression (4), and the normalized synthesized signal g ′ is a tone curve control unit. 73.

g’=(g−gmin)/(gmax−gmin)
・・・(4)
g ′ = (g−gmin) / (gmax−gmin)
... (4)

ここで、g’は正規化された合成信号を、gは正規化される前の合成信号を、gmaxは、入力画像における各画素の合成信号gのうち最大値を、gminは、入力画像における各画素の合成信号gのうち最小値を、それぞれ表している。   Here, g ′ is a normalized synthesized signal, g is a synthesized signal before being normalized, gmax is a maximum value among synthesized signals g of each pixel in the input image, and gmin is in the input image. The minimum value of the combined signal g of each pixel is represented.

ステップS73において、トーンカーブ制御部73は、例えば、図12で示されるようなトーンカーブにしたがって、合成信号g’を制御して奥行値dgを生成し、彩度制御部74に供給する。すなわち、図12で示されるように、予め設定されたトーンカーブにおいては、合成信号g’が0近傍、または1近傍の値においては、奥行値dgが緩やかに増加し、合成信号g’が0.4近傍においては、奥行値dgが急峻に増加する。このため、合成信号g’が大きい場合、奥行値dgが小さく設定され、合成信号g’が小さい場合は、奥行値dgが大きく設定される。また、合成信号g’の大きさにより奥行値dgは、0または1.0のいずれかの値に近い値となり、奥行について、手前に位置するものであるのか、または、奥に位置するものであるのかが、比較的鮮明に分けられ易く制御される。   In step S <b> 73, the tone curve control unit 73 generates a depth value dg by controlling the composite signal g ′ according to, for example, a tone curve as illustrated in FIG. 12 and supplies the depth value dg to the saturation control unit 74. That is, as shown in FIG. 12, in the preset tone curve, when the composite signal g ′ is near 0 or a value near 1, the depth value dg gradually increases and the composite signal g ′ is 0. In the vicinity of .4, the depth value dg increases sharply. For this reason, when the synthesized signal g ′ is large, the depth value dg is set small, and when the synthesized signal g ′ is small, the depth value dg is set large. Further, the depth value dg becomes a value close to either 0 or 1.0 depending on the magnitude of the composite signal g ′, and the depth value is located at the front or the depth value. Whether or not there is is controlled so that it can be divided relatively clearly.

ステップS74において、彩度制御部74は、トーンカーブ制御部73より供給されてくる奥行値dgに、彩度検出部36より供給されてくる図13で示される彩度Sにより設定される係数Bを乗じることで、彩度Sにより制御された奥行値dを生成する。より具体的には、彩度制御部74は、以下の式(5)で示される演算を実行することにより、奥行値dを計算し、計算した奥行値dを統合部12に供給する。   In step S74, the saturation control unit 74 uses the coefficient B set by the saturation S shown in FIG. 13 supplied from the saturation detection unit 36 to the depth value dg supplied from the tone curve control unit 73. Is used to generate the depth value d controlled by the saturation S. More specifically, the saturation control unit 74 calculates the depth value d by executing the calculation represented by the following expression (5), and supplies the calculated depth value d to the integration unit 12.

d=B×dg
・・・(5)
d = B × dg
... (5)

ここで、dは彩度Sにより制御された奥行値を、Bは図13で示されるように彩度Sにより設定される係数を、dgは彩度Sにより制御される前の奥行値をそれぞれ表している。   Here, d is a depth value controlled by the saturation S, B is a coefficient set by the saturation S as shown in FIG. 13, and dg is a depth value before being controlled by the saturation S, respectively. Represents.

図13で示されるように、係数Bは、予め設定される係数Bの最小値Bmin乃至最大値Bmaxの範囲における値をとり、入力画像における彩度Sの最小値Sminと最大値Smaxとの間で線形変換される値である。すなわち、奥行値dは、彩度Sが大きいほど、制御される前の奥行値dgが大きな値となるように制御され、逆に、彩度Sが小さいほど、制御される前の奥行値dgが小さな値となるように制御される。このため、彩度Sが大きいほど奥行値dが大きくなり、より奥行をはっきりと識別できる値に設定することが可能なり、彩度Sが小さいほど、奥行値dが小さくなり、より奥行を識別し難い値に設定することが可能となる。   As shown in FIG. 13, the coefficient B takes a value in a range from a preset minimum value Bmin to a maximum value Bmax of the coefficient B, and is between the minimum value Smin and the maximum value Smax of the saturation S in the input image. It is a value that is linearly transformed by. That is, the depth value d is controlled such that the greater the saturation S, the greater the depth value dg before the control is, and conversely, the smaller the saturation S, the depth value dg before the control. Is controlled to be a small value. For this reason, the depth value d increases as the saturation S increases, and the depth can be set to a value that can be clearly identified. The depth value d decreases as the saturation S decreases, and the depth is further identified. It is possible to set a difficult value.

以上の処理により、入力画像における画素単位での明暗に応じて設定される合成係数g、照明成分LF、および彩度Sに基づいて、奥行値dが設定されるので、適切に奥行値dを計算することが可能となる。   With the above processing, the depth value d is set based on the synthesis coefficient g, the illumination component LF, and the saturation S that are set according to the brightness of the input image in units of pixels. It becomes possible to calculate.

ここで、図6のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

すなわち、図7のフローチャートにおけるステップS36の奥行生成処理が終了すると、図6のフローチャートにおけるステップS16の奥行検出処理が終了し、処理は、ステップS17に進む。   That is, when the depth generation process of step S36 in the flowchart of FIG. 7 ends, the depth detection process of step S16 in the flowchart of FIG. 6 ends, and the process proceeds to step S17.

ステップS17において、統合部12は、奥行値dに基づいて、入力画像の輝度信号Y、シャープネスが強調された輝度信号Ys、コントラストが強調された輝度信号Yc、および彩度が強調された色差信号Uc,Vcを統合して出力する。より具体的には、統合部12は、以下の式(6)乃至式(8)で示されるように演算し、奥行値dに対応した新たな輝度信号Y’、および色差信号U’,V’からなる出力画像P’を生成して出力する。   In step S17, the integration unit 12 determines the luminance signal Y of the input image, the luminance signal Ys with enhanced sharpness, the luminance signal Yc with enhanced contrast, and the color difference signal with enhanced saturation based on the depth value d. Uc and Vc are integrated and output. More specifically, the integration unit 12 performs calculations as shown in the following formulas (6) to (8), a new luminance signal Y ′ corresponding to the depth value d, and color difference signals U ′, V. An output image P consisting of 'is generated and output.

Y’=(1−α)×Y+α×(β×Ys+γ×Yc)
・・・(6)
U’=(1−α)×U+α×Uc
・・・(7)
V’=(1−α)×V+α×Vc
・・・(8)
Y ′ = (1−α) × Y + α × (β × Ys + γ × Yc)
... (6)
U ′ = (1−α) × U + α × Uc
... (7)
V ′ = (1−α) × V + α × Vc
... (8)

ここで、αは図14の上部で示されるように奥行値dに対応して設定される係数であり、βは図14の中部で示されるように奥行値dに対応して設定される係数であり、γは図14の下部で示されるように奥行値dに対応して設定される係数である。   Here, α is a coefficient set corresponding to the depth value d as shown in the upper part of FIG. 14, and β is a coefficient set corresponding to the depth value d as shown in the middle part of FIG. Γ is a coefficient set corresponding to the depth value d as shown in the lower part of FIG.

すなわち、係数αは、0乃至1.0の値を取り、奥行値dの入力画像における最小値dminから最大値dmaxの範囲において、線形的に変化する。係数βは、係数βの最小値βmin乃至最大値βmaxの値を取り、奥行値dの入力画像における最小値dminから最大値dmaxの範囲において、線形的に変化する。係数γは、係数γの最小値γmin乃至最大値γmaxの値を取り、奥行値dの入力画像における最小値dminから最大値dmaxの範囲において、線形的に変化する。   That is, the coefficient α takes a value of 0 to 1.0 and linearly changes in the range from the minimum value dmin to the maximum value dmax in the input image of the depth value d. The coefficient β takes a value from the minimum value βmin to the maximum value βmax of the coefficient β, and linearly changes in the range from the minimum value dmin to the maximum value dmax in the input image of the depth value d. The coefficient γ takes a value from a minimum value γmin to a maximum value γmax of the coefficient γ, and linearly changes in a range from the minimum value dmin to the maximum value dmax in the input image of the depth value d.

画素単位で奥行値dが大きくなるほど、係数α,β,γがいずれも大きな値となるため、輝度信号Y’は、シャープネスが強調された輝度信号Ys、およびコントラストが強調された輝度信号Ycによる影響が大きくなる。また、色差信号U’,V’は、いずれも彩度が制御された色差信号Uc,Vcの影響が大きくなる。このため、画像処理装置1は、入力画像Pを処理することにより、コントラストやシャープネスが強調された、メリハリのある奥行感の大きな出力画像P’として出力される。   Since the coefficients α, β, and γ all increase as the depth value d increases in pixel units, the luminance signal Y ′ is based on the luminance signal Ys with enhanced sharpness and the luminance signal Yc with enhanced contrast. The impact will increase. Further, the color difference signals U 'and V' are both greatly influenced by the color difference signals Uc and Vc whose saturation is controlled. Therefore, by processing the input image P, the image processing apparatus 1 outputs the output image P ′ having a clear and deep feeling with enhanced contrast and sharpness.

一方、画素単位で奥行値dが小さくなるほど、係数α,β,γがいずれも小さな値となるため、輝度信号Y’は、入力画像Pにおける輝度信号Yによる影響が大きくなる。また、色差信号U’,V’は、いずれも入力画像Pにおける色差信号U,Vの影響が大きくなる。このため、画像処理装置1は、入力画像Pに加える処理が小さな、ほぼそのままの画像として出力画像P’が出力される。   On the other hand, as the depth value d decreases in units of pixels, the coefficients α, β, and γ all have smaller values. Therefore, the luminance signal Y ′ is more influenced by the luminance signal Y in the input image P. Further, the color difference signals U ′ and V ′ are both greatly affected by the color difference signals U and V in the input image P. For this reason, the image processing apparatus 1 outputs the output image P ′ as an almost intact image with a small process applied to the input image P.

結果として、奥行値dに応じて、入力画像を適切な奥行感に制御して処理することが可能となる。   As a result, according to the depth value d, the input image can be processed while being controlled to an appropriate depth feeling.

また、係数β,γは、図15で示されるように、それぞれの最小値βmin,γmin、および最大値βmax,γmaxとして異なる値に設定することで、シャープネスが強調された輝度信号Ysおよびコントラストが強調された輝度信号Ycの輝度信号Y’への影響の程度を調整するようにしても良い。尚、図15においては、例えば、最小値βmin=0.2,γmin=0.1、および最大値βmax=0.6,γmax=0.4である場合の例を示している。   Further, as shown in FIG. 15, the coefficients β and γ are set to different values as the minimum values βmin and γmin and the maximum values βmax and γmax, respectively, so that the luminance signal Ys and the contrast with enhanced sharpness are obtained. The degree of influence of the emphasized luminance signal Yc on the luminance signal Y ′ may be adjusted. FIG. 15 shows an example where the minimum value βmin = 0.2, γmin = 0.1, and the maximum value βmax = 0.6, γmax = 0.4.

さらに、係数β,γは、例えば、γ=1−βとして定義することにより、係数β,γとの関係を連携するようにしてもよく、このように設定することで、シャープネスが強調された輝度信号Ysおよびコントラストが強調された輝度信号Ycの輝度信号Y’への影響の程度をある程度規制することが可能となる。   Furthermore, the coefficients β and γ may be defined as γ = 1−β, for example, so that the relationship with the coefficients β and γ may be linked. By setting in this way, sharpness is emphasized. It becomes possible to regulate to some extent the degree of influence of the luminance signal Ys and the luminance signal Yc with enhanced contrast on the luminance signal Y ′.

本発明によれば、明部および暗部の輝度信号、および色差信号による彩度に基づいて、画像における画素単位での奥行値を適切に設定することが可能となる。このため、例えば、画像中における暗い部分や平坦部分についても適切に奥行値を設定することが可能となり、奥行値に応じた画素単位での処理が可能となる。   According to the present invention, it is possible to appropriately set the depth value in units of pixels in an image based on the luminance signal of the bright part and the dark part and the saturation by the color difference signal. For this reason, for example, it is possible to appropriately set the depth value for a dark portion or a flat portion in the image, and it is possible to perform processing in units of pixels corresponding to the depth value.

ところで、上述した一連の情報処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   By the way, the series of information processing described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図16は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。   FIG. 16 shows a configuration example of a general-purpose personal computer. This personal computer incorporates a CPU (Central Processing Unit) 1001. An input / output interface 1005 is connected to the CPU 1001 via the bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。   An input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of a processing result to a display device, a program and various data A storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like, and a communication unit 1009 for performing communication processing via a network represented by the Internet are connected. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.

CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program. The RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.

尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。   In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.

本発明を適用した画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus to which this invention is applied. 図1の奥行検出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the depth detection part of FIG. 図2の焦点情報抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the focus information extraction part of FIG. 水平方向HPFおよび垂直方向HPFの構成例を示すブロック図である。It is a block diagram which shows the structural example of horizontal direction HPF and vertical direction HPF. 図2の奥行生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the depth production | generation part of FIG. 図1の画像処理装置による画像処理を説明するフローチャートである。3 is a flowchart illustrating image processing by the image processing apparatus in FIG. 1. 奥行検出処理を説明するフローチャートである。It is a flowchart explaining a depth detection process. 焦点情報抽出処理を説明するフローチャートである。It is a flowchart explaining a focus information extraction process. 暗部処理部の動作を説明する図である。It is a figure explaining operation | movement of a dark part process part. 奥行生成処理を説明するフローチャートである。It is a flowchart explaining a depth production | generation process. 奥行生成処理を説明する図である。It is a figure explaining depth generation processing. トーンカーブを説明する図である。It is a figure explaining a tone curve. 彩度Sと係数Bとの関係を説明する図である。It is a figure explaining the relationship between the saturation S and the coefficient B. 奥行値dと係数α,β,γとの関係を説明する図である。It is a figure explaining the relationship between depth value d and coefficients (alpha), (beta), and (gamma). 奥行値dと係数β,γとのその他の関係を説明する図である。It is a figure explaining the other relationship between depth value d and coefficients (beta) and (gamma). パーソナルコンピュータの構成例を説明する図である。And FIG. 11 is a diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 画像処理装置, 11 YUV分離部, 12 統合部, 13 シャープネス制御部, 14 コントラスト制御部, 15 彩度制御部, 16 奥行検出部, 31 焦点情報抽出部, 32 領域統合部, 33 暗部処理部, 34 奥行生成部, 35 照明成分抽出部, 36 彩度検出部, 51 水平方向HPF, 52 絶対値処理部, 52, 53 最大値抽出部, 54 垂直方向HPF, 55 絶対値処理部, 71 明暗統合部, 72 正規化部, 73 トーンカーブ制御部, 74 彩度制御部   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 YUV separation part, 12 Integration part, 13 Sharpness control part, 14 Contrast control part, 15 Saturation control part, 16 Depth detection part, 31 Focus information extraction part, 32 Area | region integration part, 33 Dark part processing part , 34 Depth generation unit, 35 Illumination component extraction unit, 36 Saturation detection unit, 51 Horizontal HPF, 52 Absolute value processing unit, 52, 53 Maximum value extraction unit, 54 Vertical HPF, 55 Absolute value processing unit, 71 Brightness Integration unit, 72 normalization unit, 73 tone curve control unit, 74 saturation control unit

Claims (5)

入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出手段と、
前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合手段と、
前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理手段と、
前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出手段と、
前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合手段と、
前記画素毎の奥行値を正規化する正規化手段と、
前記正規化手段により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御手段と、
前記画素毎に彩度を検出する彩度検出手段と、
前記トーンカーブ制御手段により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御手段と
を含む画像処理装置。
Focus information extracting means for extracting high frequency components as focus information from luminance signals of surrounding pixels for each pixel of the input image;
For each pixel, a region integration unit that generates the integrated focus information by integrating the focus information of surrounding pixels;
For each pixel, a dark part processing unit that generates dark part focus information of the input image by replacing the focus information of peripheral pixels with a value obtained based on focus information larger than its own focus information;
Illumination component extraction means for extracting an illumination component by integrating the luminance signal for each pixel with the luminance signal of surrounding pixels;
Brightness and darkness integration means for calculating a depth value for each pixel by a product-sum operation using a coefficient using the illumination component of the integrated focus information and the dark portion focus information;
Normalizing means for normalizing the depth value for each pixel;
A tone curve control means for controlling the depth value normalized by the normalization means by a tone curve;
Saturation detecting means for detecting saturation for each pixel;
An image processing apparatus comprising: saturation control means for controlling the depth value controlled by the tone curve by the tone curve control means based on the saturation.
前記彩度制御手段により前記トーンカーブで制御された前記奥行値に基づいた係数により、前記入力画像の画素毎の輝度、および色差信号を制御する遠近感制御手段をさらに含む
請求項1に記載の画像処理装置。
The perspective control means for controlling luminance and color difference signals for each pixel of the input image by a coefficient based on the depth value controlled by the tone curve by the saturation control means. Image processing device.
前記輝度のシャープネスを制御するシャープネス制御手段と、
前記輝度のコントラストを制御するコントラスト制御手段と、
前記画素毎の色差信号を制御する色差制御手段とをさらに含み、
前記遠近感制御手段は、前記画素毎の輝度に加えて、前記シャープネス制御手段により制御された輝度、および前記コントラスト制御手段により制御された輝度を用いて、前記係数により輝度を制御し、前記色差信号、および前記色差制御手段により制御された色差信号を用いて、前記奥行値に基づいた係数により前記色差信号を制御する
請求項2に記載の画像処理装置。
Sharpness control means for controlling the sharpness of the brightness;
Contrast control means for controlling the brightness contrast;
Color difference control means for controlling a color difference signal for each pixel,
The perspective control means uses the brightness controlled by the sharpness control means and the brightness controlled by the contrast control means in addition to the brightness for each pixel to control the brightness by the coefficient, and the color difference The image processing apparatus according to claim 2, wherein the color difference signal is controlled by a coefficient based on the depth value, using the signal and the color difference signal controlled by the color difference control unit.
入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、
前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、
前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、
前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、
前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、
前記画素毎の奥行値を正規化する正規化ステップと、
前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、
前記画素毎に彩度を検出する彩度検出ステップと、
前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップと
を含む画像処理方法。
For each pixel of the input image, a focus information extraction step for extracting a high frequency component as focus information from the luminance signal of the surrounding pixels;
For each pixel, a region integration step for generating the integrated focus information by integrating the focus information of surrounding pixels;
For each pixel, a dark part processing step for generating dark part focus information of the input image by replacing the focus information of peripheral pixels with a value obtained based on focus information larger than its own focus information;
Illumination component extraction step of extracting the illumination component by integrating the luminance signal for each pixel with the luminance signal of surrounding pixels;
A light and dark integration step of calculating a depth value for each pixel by a product-sum operation using a coefficient using the illumination component of the integrated focus information and the dark portion focus information;
A normalization step of normalizing the depth value for each pixel;
A tone curve control step for controlling the depth value normalized by the processing of the normalization step by a tone curve;
A saturation detection step for detecting saturation for each pixel;
An image processing method comprising: a saturation control step of controlling the depth value controlled by the tone curve by the saturation by the processing of the tone curve control step.
入力画像の画素毎に、周辺画素の輝度信号より高周波成分を焦点情報として抽出する焦点情報抽出ステップと、
前記画素毎に、周辺画素の焦点情報を統合することで前記統合焦点情報を生成する領域統合ステップと、
前記画素毎に、周辺画素の焦点情報のうち、自らの焦点情報よりも大きな焦点情報に基づいて得られる値に置き換えることで、前記入力画像の暗部焦点情報を生成する暗部処理ステップと、
前記画素毎の輝度信号を、周辺画素の輝度信号に統合することで照明成分を抽出する照明成分抽出ステップと、
前記統合焦点情報と前記暗部焦点情報との、前記照明成分を用いた係数による積和演算により画素毎の奥行値を計算する明暗統合ステップと、
前記画素毎の奥行値を正規化する正規化ステップと、
前記正規化ステップの処理により正規化された奥行値をトーンカーブにより制御するトーンカーブ制御ステップと、
前記画素毎に彩度を検出する彩度検出ステップと、
前記トーンカーブ制御ステップの処理により、前記トーンカーブにより制御された前記奥行値を前記彩度により制御する彩度制御ステップと
を含む処理をコンピュータに実行させるプログラム。
For each pixel of the input image, a focus information extraction step for extracting a high frequency component as focus information from the luminance signal of the surrounding pixels;
For each pixel, a region integration step for generating the integrated focus information by integrating the focus information of surrounding pixels;
For each pixel, a dark part processing step for generating dark part focus information of the input image by replacing the focus information of peripheral pixels with a value obtained based on focus information larger than its own focus information;
Illumination component extraction step of extracting the illumination component by integrating the luminance signal for each pixel with the luminance signal of surrounding pixels;
A light and dark integration step of calculating a depth value for each pixel by a product-sum operation using a coefficient using the illumination component of the integrated focus information and the dark portion focus information;
A normalization step of normalizing the depth value for each pixel;
A tone curve control step for controlling the depth value normalized by the processing of the normalization step by a tone curve;
A saturation detection step for detecting saturation for each pixel;
A program that causes a computer to execute processing including: a saturation control step of controlling the depth value controlled by the tone curve by the saturation by the processing of the tone curve control step.
JP2008240335A 2008-09-19 2008-09-19 Image processing apparatus and method, and program Expired - Fee Related JP5024632B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008240335A JP5024632B2 (en) 2008-09-19 2008-09-19 Image processing apparatus and method, and program
US12/561,566 US8265418B2 (en) 2008-09-19 2009-09-17 Image processing apparatus, image processing method, and computer-readable storage medium for calculating a depth value of a subject in an image
CN2009101738712A CN101677408B (en) 2008-09-19 2009-09-18 Image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008240335A JP5024632B2 (en) 2008-09-19 2008-09-19 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2010072983A JP2010072983A (en) 2010-04-02
JP2010072983A5 JP2010072983A5 (en) 2011-09-22
JP5024632B2 true JP5024632B2 (en) 2012-09-12

Family

ID=42029785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008240335A Expired - Fee Related JP5024632B2 (en) 2008-09-19 2008-09-19 Image processing apparatus and method, and program

Country Status (3)

Country Link
US (1) US8265418B2 (en)
JP (1) JP5024632B2 (en)
CN (1) CN101677408B (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI355856B (en) * 2006-12-14 2012-01-01 Au Optronics Corp Method and related apparatus of compensating color
KR101198320B1 (en) * 2010-06-21 2012-11-06 (주)아이아이에스티 Method and apparatus for converting 2d image into 3d image
JP5150698B2 (en) * 2010-09-30 2013-02-20 株式会社東芝 Depth correction apparatus and method
JP2012120057A (en) * 2010-12-02 2012-06-21 Sony Corp Image processing device, image processing method, and program
JP2013012820A (en) * 2011-06-28 2013-01-17 Sony Corp Image processing apparatus, image processing apparatus control method, and program for causing computer to execute the method
KR101849696B1 (en) 2011-07-19 2018-04-17 삼성전자주식회사 Method and apparatus for obtaining informaiton of lighting and material in image modeling system
US9712847B2 (en) * 2011-09-20 2017-07-18 Microsoft Technology Licensing, Llc Low-complexity remote presentation session encoder using subsampling in color conversion space
US8824778B2 (en) * 2012-01-13 2014-09-02 Cyberlink Corp. Systems and methods for depth map generation
JP5998820B2 (en) * 2012-10-09 2016-09-28 セイコーエプソン株式会社 Imaging device, focus state display method, focus state display program
KR101970563B1 (en) 2012-11-23 2019-08-14 엘지디스플레이 주식회사 Device for correcting depth map of three dimensional image and method for correcting the same
KR20140088465A (en) * 2013-01-02 2014-07-10 삼성전자주식회사 Display method and display apparatus
JP2014207110A (en) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ Observation apparatus and observation method
US9664507B2 (en) * 2014-09-17 2017-05-30 Canon Kabushiki Kaisha Depth value measurement using illumination by pixels
EP3195251B1 (en) * 2014-09-19 2019-01-23 Barco N.V. Method to enhance contrast with reduced visual artifacts
JP6569176B2 (en) * 2015-08-26 2019-09-04 オリンパス株式会社 Image processing apparatus, imaging apparatus, and image processing method
KR20180048654A (en) 2015-09-02 2018-05-10 톰슨 라이센싱 Method and apparatus for quantization in video encoding and decoding
CN115018736A (en) * 2022-07-22 2022-09-06 广州市保伦电子有限公司 Image brightness uniformity processing method and processing terminal

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3276931B2 (en) * 1996-08-07 2002-04-22 三洋電機株式会社 3D image adjustment method and 3D image adjustment apparatus
JP2000209614A (en) * 1999-01-14 2000-07-28 Sony Corp Stereoscopic video system
EP1148411A3 (en) * 2000-04-21 2005-09-14 Sony Corporation Information processing apparatus and method for recognising user gesture
JP3428581B2 (en) * 2000-12-22 2003-07-22 株式会社スクウェア Video game apparatus and control method thereof, and computer-readable recording medium on which video game program is recorded.
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
KR100659206B1 (en) * 2002-08-20 2006-12-19 가즈나리 에라 Method and device for creating 3-dimensional view image
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8164594B2 (en) * 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
KR101062202B1 (en) * 2007-02-06 2011-09-05 삼성전자주식회사 Image processing apparatus, image processing method and recording medium thereof
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
JP4655238B2 (en) * 2008-09-19 2011-03-23 ソニー株式会社 Image processing apparatus and method, and program
US8059911B2 (en) * 2008-09-30 2011-11-15 Himax Technologies Limited Depth-based image enhancement
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing

Also Published As

Publication number Publication date
JP2010072983A (en) 2010-04-02
CN101677408A (en) 2010-03-24
US20100074521A1 (en) 2010-03-25
CN101677408B (en) 2012-03-21
US8265418B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
JP5024632B2 (en) Image processing apparatus and method, and program
JP4655238B2 (en) Image processing apparatus and method, and program
US8265409B2 (en) Edge preservation image processing device and image processing method
JP5411706B2 (en) Apparatus and method for enhancing the dynamic range of digital images
JP4746575B2 (en) Image processing apparatus and method
KR101318556B1 (en) Apparatus and method for processing signal, and recording medium
JP2005332130A (en) Image processor, image processing method, program for image processing method and recording medium with its program recorded thereon
JP4320572B2 (en) Signal processing apparatus and method, recording medium, and program
JP4992433B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
KR102355329B1 (en) Image processing apparatus, image processing method, and image processing program
WO2005055588A1 (en) Image processing device for controlling intensity of noise removal in a screen, image processing program, image processing method, and electronic camera
KR20180031154A (en) Display apparatus and method for processing image thereof
US8223225B2 (en) Image processing apparatus, method, and recording medium for reducing noise in an image
JP2016086347A (en) Image processing system, image processing method and program
JP5975213B2 (en) Image processing apparatus and image processing program
JP5024574B2 (en) Image processing apparatus and image processing program
US11810281B2 (en) Image processing apparatus, image processing method, and storage medium
JP2006311378A (en) Image processor and image processing method
JP4996554B2 (en) Image quality improvement device, method and program
JP2005338418A (en) Device and method for display, and program
JP2018073248A (en) Image processing apparatus, display apparatus, and image processing method
JP4329391B2 (en) Signal processing apparatus and method, recording medium, and program
KR20220148080A (en) Image data processing system for vehicles
JP2021005753A (en) Image processing system and method, and image display device
JP2009071589A (en) Image processing device and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees