JP2014191430A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2014191430A
JP2014191430A JP2013064201A JP2013064201A JP2014191430A JP 2014191430 A JP2014191430 A JP 2014191430A JP 2013064201 A JP2013064201 A JP 2013064201A JP 2013064201 A JP2013064201 A JP 2013064201A JP 2014191430 A JP2014191430 A JP 2014191430A
Authority
JP
Japan
Prior art keywords
depth
pixel
input image
amount
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013064201A
Other languages
Japanese (ja)
Inventor
Junya Yamamoto
純也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013064201A priority Critical patent/JP2014191430A/en
Publication of JP2014191430A publication Critical patent/JP2014191430A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of performing image quality processing to ensure a sensation of depth.SOLUTION: The image processing system includes: a feature amount detection section 10; a depth information acquisition section 20; a determination section 30; and a processing section 40. The feature amount detection section 10 detects a feature amount of each pixel included in an input image. The depth information acquisition section 20 acquires a depth amount which represents a position of each pixel included in the input image in a depth direction. The determination section 30 determines the blur level of each pixel included in the input image based on a difference in the depth amount with respect to a depth amount of a pixel which has the largest feature amount. The processing section 40 performs an image quality processing on each pixel included in the input image based on the blur level, which is different from each other.

Description

本開示は、画像処理装置及び画像処理方法に関するものである。   The present disclosure relates to an image processing apparatus and an image processing method.

特許文献1は、入力画像の画素毎に奥行値を検出し、奥行値に基づき構図を特定する。そして、構図の情報に基づいて、入力画像を高画質化処理する。   Patent Document 1 detects a depth value for each pixel of an input image and specifies a composition based on the depth value. Then, based on the composition information, the input image is subjected to high image quality processing.

特開2010−72982号公報JP 2010-72982 A

本開示は、入力画像の画素の中から特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき入力画像の各画素のボヤケ度合いを決定し、決定したボヤケ度合いに基づき入力画像の画素毎に異なる画質処理を行うので、奥行き感を損ねることを軽減した画質処理することができる画像処理装置および画像処理方法を提供する。   In the present disclosure, the degree of blur of each pixel of the input image is determined based on the difference in depth from the depth of the pixel having the largest feature amount among the pixels of the input image, and the pixel of the input image is determined based on the determined degree of blur. An image processing apparatus and an image processing method capable of performing image quality processing that reduces the loss of depth are provided because different image quality processing is performed for each image.

本開示の画像処理装置は、入力画像の各画素の特徴量を検出する特徴量検出部と、前記入力画像の各画素の奥行き方向の位置を表す奥行き量を取得する奥行き情報取得部と、前記特徴量が最も大きい画素の前記奥行き量との奥行き量の差に基づき、前記入力画像の各画素のボヤケ度合いを決定する決定部と、前記ボヤケ度合いに基づき、前記入力画像の画素毎に異なる画質処理を行う処理部と、を備える。   The image processing apparatus according to the present disclosure includes a feature amount detection unit that detects a feature amount of each pixel of the input image, a depth information acquisition unit that acquires a depth amount representing a position in the depth direction of each pixel of the input image, A determining unit that determines the degree of blur of each pixel of the input image based on a difference in depth from the depth amount of the pixel having the largest feature amount, and an image quality that differs for each pixel of the input image based on the degree of blur A processing unit that performs processing.

また、本開示の画像処理方法は、入力画像の各画素の特徴量を検出する特徴量検出ステップと、前記入力画像の各画素の奥行き方向の位置を表す奥行き量を取得する奥行き情報取得ステップと、前記特徴量が最も大きい画素の前記奥行き量との奥行き量の差に基づき、前記入力画像の各画素のボヤケ度合いを決定する決定ステップと、前記ボヤケ度合いに基づき、前記入力画像の画素毎に異なる画質処理を行う処理ステップと、を備える。   Further, the image processing method of the present disclosure includes a feature amount detection step for detecting a feature amount of each pixel of the input image, and a depth information acquisition step for acquiring a depth amount representing a position in the depth direction of each pixel of the input image. Determining the degree of blur of each pixel of the input image based on the difference in depth from the depth of the pixel having the largest feature amount; and for each pixel of the input image based on the degree of blur Processing steps for performing different image quality processing.

本開示の画像処理装置及び画像処理方法によれば、入力画像の画素の中から特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき入力画像の各画素のボヤケ度合いを決定し、決定したボヤケ度合いに基づき入力画像の画素毎に異なる画質処理を行うので、奥行き感を損ねることを軽減した画質処理することができる。   According to the image processing device and the image processing method of the present disclosure, the degree of blur of each pixel of the input image is determined based on the difference in depth amount from the depth amount of the pixel having the largest feature amount among the pixels of the input image, Since different image quality processing is performed for each pixel of the input image based on the determined degree of blur, it is possible to perform image quality processing that reduces the loss of depth.

本開示の画像処理装置及び画像処理方法によれば、入力画像の画素の中から特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき入力画像の各画素のボヤケ度合いを決定し、決定したボヤケ度合いに基づき入力画像の画素毎に異なる画質処理を行うので、奥行き感を損ねることを軽減した画質処理することができる。   According to the image processing device and the image processing method of the present disclosure, the degree of blur of each pixel of the input image is determined based on the difference in depth amount from the depth amount of the pixel having the largest feature amount among the pixels of the input image, Since different image quality processing is performed for each pixel of the input image based on the determined degree of blur, it is possible to perform image quality processing that reduces the loss of depth.

実施の形態1における画像処理装置の構成を示すブロック図。2 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 1. FIG. 実施の形態1における画像処理装置の画像処理を説明するフローチャート。5 is a flowchart for describing image processing of the image processing apparatus according to Embodiment 1; 実施の形態1における特徴量検出部の特徴量検出処理の説明図。Explanatory drawing of the feature-value detection process of the feature-value detection part in Embodiment 1. FIG. 実施の形態1における決定部のボヤケ度合い決定処理の説明図。Explanatory drawing of the blur degree determination process of the determination part in Embodiment 1. FIG. 実施の形態1における決定部のボヤケ度合い決定処理の説明図。Explanatory drawing of the blur degree determination process of the determination part in Embodiment 1. FIG. 実施の形態1における決定部のボヤケ度合い決定処理の説明図。Explanatory drawing of the blur degree determination process of the determination part in Embodiment 1. FIG. 実施の形態1における処理部の画質処理の説明図。FIG. 3 is an explanatory diagram of image quality processing of a processing unit in the first embodiment. 実施の形態1における奥行き情報取得部の奥行き境界画素特定処理の説明図。Explanatory drawing of the depth boundary pixel specific process of the depth information acquisition part in Embodiment 1. FIG. 実施の形態2における画像処理装置の構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of an image processing apparatus according to Embodiment 2. 実施の形態2における奥行き情報補正部の奥行き情報補正処理の説明図。Explanatory drawing of the depth information correction process of the depth information correction part in Embodiment 2. FIG. その他の実施の形態における画像処理装置の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus in other embodiment. その他の実施の形態における領域特定部の領域特定処理の説明図。Explanatory drawing of the area | region specific process of the area | region specific part in other embodiment. その他の実施の形態における画像処理装置の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus in other embodiment.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
[1−1.構成]
図1は、実施の形態1における画像処理装置の構成を示すブロック図である。
The inventor (s) provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is intended to limit the subject matter described in the claims. Not what you want.
(Embodiment 1)
[1-1. Constitution]
FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment.

図1において、画像処理装置1は、特徴量検出部10、奥行き情報取得部20、決定部30および処理部40を備える。   In FIG. 1, the image processing apparatus 1 includes a feature amount detection unit 10, a depth information acquisition unit 20, a determination unit 30, and a processing unit 40.

特徴量検出部10は、入力画像の各画素の特徴量を検出し、決定部30に出力する。   The feature amount detection unit 10 detects the feature amount of each pixel of the input image and outputs it to the determination unit 30.

奥行き情報取得部20は、入力画像の各画素の奥行き方向の位置を表す奥行き量を取得し、決定部30に出力する。   The depth information acquisition unit 20 acquires a depth amount representing the position in the depth direction of each pixel of the input image, and outputs the acquired depth amount to the determination unit 30.

なお、奥行き情報取得部20は、入力画像に基づき各画素の奥行き量を算出しても良いし、予め各画素の奥行き量が与えられる場合は、そのまま与えられた奥行き量を用いても良い。   The depth information acquisition unit 20 may calculate the depth amount of each pixel based on the input image, or when the depth amount of each pixel is given in advance, the depth amount given as it is may be used.

決定部30は、特徴量検出部10で検出された入力画像の各画素の特徴量と奥行き情報取得部20で取得された入力画像の各画素の奥行き量を受ける。決定部30は、入力画像の画素の中から特徴量が最も大きい画素を特定する。決定部30は、特徴量が最も大きい画素の奥行き量と入力画像のその他の画素の奥行き量の差を求め、その差に基づき、入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。つまり、決定部30は、特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき、入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。   The determination unit 30 receives the feature amount of each pixel of the input image detected by the feature amount detection unit 10 and the depth amount of each pixel of the input image acquired by the depth information acquisition unit 20. The determination unit 30 specifies the pixel having the largest feature amount from the pixels of the input image. The determination unit 30 obtains the difference between the depth amount of the pixel having the largest feature amount and the depth amount of the other pixels of the input image, determines the degree of blur of each pixel of the input image based on the difference, and Output. That is, the determination unit 30 determines the degree of blur of each pixel of the input image based on the depth amount difference from the depth amount of the pixel having the largest feature amount, and outputs the determined degree to the processing unit 40.

処理部40は、決定部30で決定された入力画像の各画素のボヤケ度合いに基づき、入力画像の画素毎に異なる画質処理を行う。   The processing unit 40 performs different image quality processing for each pixel of the input image based on the degree of blur of each pixel of the input image determined by the determination unit 30.

[1−2.動作]
以上のように構成された画像処理装置1について、その動作を以下に説明する。
[1-2. Operation]
The operation of the image processing apparatus 1 configured as described above will be described below.

図2は、実施の形態1における画像処理装置の画像処理を説明するフローチャートである。   FIG. 2 is a flowchart illustrating image processing of the image processing apparatus according to the first embodiment.

[特徴量検出処理]
特徴量検出部10は、入力画像の各画素の特徴量を検出し、決定部30に出力する(ステップS21)。
[Feature detection processing]
The feature amount detection unit 10 detects the feature amount of each pixel of the input image and outputs it to the determination unit 30 (step S21).

図3は、実施の形態1における特徴量検出部の特徴量検出処理の説明図である。   FIG. 3 is an explanatory diagram of the feature amount detection processing of the feature amount detection unit according to the first embodiment.

図3の(a)は、入力画像の各画素の特徴量を検出するためのSobelフィルタ係数(垂直、水平)および特徴量検出部10の構成を示すブロック図である。図3の(b)は、入力画像の各画素の特徴量を検出するためのLaplacianフィルタ係数および特徴量検出部10の別の構成を示すブロック図である。   FIG. 3A is a block diagram illustrating the configuration of the Sobel filter coefficient (vertical and horizontal) and the feature amount detection unit 10 for detecting the feature amount of each pixel of the input image. FIG. 3B is a block diagram showing another configuration of the Laplacian filter coefficient and feature quantity detection unit 10 for detecting the feature quantity of each pixel of the input image.

特徴量検出部10は、入力画像の各画素に対して、例えば、図3に示すフィルタ処理を施すことにより、入力画像の各画素の特徴量を検出する。入力画像の各画素の特徴量の値として、例えば、入力画像の輝度成分における一次微分値(図3(a))や、二次微分値(図3(b))が上げられる。以下、各々の場合の入力画像の各画素の特徴量検出処理について説明する。   The feature amount detection unit 10 detects the feature amount of each pixel of the input image by performing, for example, the filtering process illustrated in FIG. 3 on each pixel of the input image. As the feature value of each pixel of the input image, for example, a primary differential value (FIG. 3A) or a secondary differential value (FIG. 3B) in the luminance component of the input image is raised. Hereinafter, the feature amount detection processing of each pixel of the input image in each case will be described.

図3(a)において、一次微分フィルタ(垂直)11および一次微分フィルタ(水平)12は、入力画像の着目画素および周辺8画素に対し、図3(a)に示すSobelフィルタをかけることにより、水平方向の微分値dx、垂直方向の微分値dyを算出する。一次微分値算出部13は、一次微分フィルタ(垂直)11で算出した微分値dx、一次微分フィルタ(水平)12で算出した微分値dyから、二乗の平方根で出力する着目画素の特徴量を求める。また、一次微分値算出部13は、簡易的に、微分値dx、dyの絶対値の和から、出力する着目画素の特徴量を求めても良い。   In FIG. 3A, the primary differential filter (vertical) 11 and the primary differential filter (horizontal) 12 apply the Sobel filter shown in FIG. 3A to the pixel of interest and the surrounding 8 pixels of the input image. A differential value dx in the horizontal direction and a differential value dy in the vertical direction are calculated. The primary differential value calculation unit 13 obtains the feature amount of the pixel of interest output by the square root of the square from the differential value dx calculated by the primary differential filter (vertical) 11 and the differential value dy calculated by the primary differential filter (horizontal) 12. . Further, the primary differential value calculation unit 13 may simply obtain the feature amount of the target pixel to be output from the sum of the absolute values of the differential values dx and dy.

次に、図3(b)において、二次微分フィルタ14は、入力画像の着目画素および周辺8画素に対し、図3(b)に示すLaplacianフィルタをかけることにより、着目画素の二次微分値を算出する。その後、絶対値算出部15は、二次微分値の絶対値を着目画素の特徴量として算出する。   Next, in FIG. 3B, the secondary differential filter 14 applies the Laplacian filter shown in FIG. 3B to the pixel of interest and the surrounding 8 pixels of the input image, thereby obtaining the secondary differential value of the pixel of interest. Is calculated. Thereafter, the absolute value calculation unit 15 calculates the absolute value of the secondary differential value as the feature amount of the pixel of interest.

[奥行き情報取得処理]
奥行き情報取得部20は、入力画像の各画素の奥行き方向の位置を表す奥行き量を取得し、決定部30に出力する(ステップS22)。
[Depth information acquisition processing]
The depth information acquisition unit 20 acquires a depth amount representing the position in the depth direction of each pixel of the input image, and outputs the acquired depth amount to the determination unit 30 (step S22).

奥行き情報取得部20は、入力画像の各画素について、その奥行き量を取得する。奥行量を取得する処理は、例えば、入力画像が複数視点の画像を持つ三次元画像の場合、入力画像の左目用フレームと右目用フレームのブロックマッチングによって入力画像の各画素の奥行き量を算出する。入力画像が二次元画像の場合、入力画像の構図解析や輝度情報などから擬似的に入力画像の各画素の奥行き量を算出する。   The depth information acquisition unit 20 acquires the depth amount of each pixel of the input image. For example, when the input image is a three-dimensional image having a plurality of viewpoint images, the depth amount of the pixels of the input image is calculated by block matching between the left-eye frame and the right-eye frame. . When the input image is a two-dimensional image, the depth amount of each pixel of the input image is calculated in a pseudo manner from composition analysis of the input image, luminance information, and the like.

なお、奥行き情報取得部20による奥行き情報取得処理は、必ずしも特徴量検出部10による特徴量検出処理の後に行う必要はなく、特徴量検出部10による特徴量検出処理よりも前または同時に行っても良い。   The depth information acquisition process by the depth information acquisition unit 20 is not necessarily performed after the feature amount detection process by the feature amount detection unit 10, and may be performed before or simultaneously with the feature amount detection process by the feature amount detection unit 10. good.

なお、奥行き情報取得部20は、上述のように入力画像に基づき各画素の奥行き量を算出しても良いし、予め各画素の奥行き量が与えられる場合は、そのまま与えられた奥行き量を用いても良い。   The depth information acquisition unit 20 may calculate the depth amount of each pixel based on the input image as described above. When the depth amount of each pixel is given in advance, the depth amount given as it is is used. May be.

なお、本実施の形態において、入力画像の各画素の奥行き量については、視聴者からの距離が遠いほど値が大きくなるものとして以降の説明を行う。   In the present embodiment, the depth amount of each pixel of the input image will be described below assuming that the value increases as the distance from the viewer increases.

[ボヤケ度合い決定処理]
決定部30は、特徴量検出部10で検出された入力画像の各画素の特徴量と奥行き情報取得部20で取得された入力画像の各画素の奥行き量を受ける。決定部30は、入力画像の画素の中から特徴量が最も大きい画素を特定する。決定部30は、特徴量が最も大きい画素の奥行き量と入力画像のその他の画素の奥行き量の差を求め、その差に基づき、入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。つまり、決定部30は、特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき、入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する(ステップS23)。
[Bokeh degree determination process]
The determination unit 30 receives the feature amount of each pixel of the input image detected by the feature amount detection unit 10 and the depth amount of each pixel of the input image acquired by the depth information acquisition unit 20. The determination unit 30 specifies the pixel having the largest feature amount from the pixels of the input image. The determination unit 30 obtains the difference between the depth amount of the pixel having the largest feature amount and the depth amount of the other pixels of the input image, determines the degree of blur of each pixel of the input image based on the difference, and Output. That is, the determination unit 30 determines the degree of blur of each pixel of the input image based on the depth amount difference from the depth amount of the pixel having the largest feature amount, and outputs it to the processing unit 40 (step S23).

図4から図6は、実施の形態1における決定部のボヤケ度合い決定処理の説明図である。   4 to 6 are explanatory diagrams of the blur degree determination process of the determination unit according to the first embodiment.

図4において、決定部30は、特徴量分布算出部31、特徴量分布正規化部32およびボヤケ度合い算出部33を備える。   In FIG. 4, the determination unit 30 includes a feature amount distribution calculation unit 31, a feature amount distribution normalization unit 32, and a blur degree calculation unit 33.

特徴量分布算出部31は、特徴量検出部10で検出された入力画像の各画素の特徴量と奥行き情報取得部20で取得された入力画像の各画素の奥行き量を受け、入力画像の各画素の奥行き量に対する特徴量の分布を生成し、特徴量分布正規化部32に出力する。   The feature amount distribution calculation unit 31 receives the feature amount of each pixel of the input image detected by the feature amount detection unit 10 and the depth amount of each pixel of the input image acquired by the depth information acquisition unit 20. A distribution of the feature amount with respect to the depth amount of the pixel is generated and output to the feature amount distribution normalization unit 32.

以下、図5を用いて、特徴量分布算出部31による入力画像の各画素の奥行き量に対する特徴量の分布の算出処理について説明する。   Hereinafter, the feature amount distribution calculation process for the depth amount of each pixel of the input image by the feature amount distribution calculation unit 31 will be described with reference to FIG.

図5(a)は、入力画像の各画素(ここでは全25画素)について、その奥行き量によって5段階(0〜50、51〜100、101〜150、151〜200、201〜255)に分類した例である。   In FIG. 5A, each pixel of the input image (here, all 25 pixels) is classified into five levels (0 to 50, 51 to 100, 101 to 150, 151 to 200, 201 to 255) according to the depth amount. This is an example.

例えば、奥行き量として0〜50の値を有する5画素が、それぞれ特徴量として、10、5、7、9、4を有していることを示している。   For example, five pixels having values of 0 to 50 as depth amounts have 10, 5, 7, 9, 4 as feature amounts, respectively.

特徴量分布算出部31は、図5(a)に示すように、入力画像の全25画素を、各画素が有する奥行き量によって5段階に分類する。   As shown in FIG. 5A, the feature amount distribution calculation unit 31 classifies all 25 pixels of the input image into five levels according to the depth amount of each pixel.

図5(b)は、奥行き量によって5段階に分類された画素の特徴量から、各奥行き量の段階で代表となる特徴量を1つ設定した例である。   FIG. 5B shows an example in which one representative feature amount is set at each depth amount step from the pixel feature amounts classified into five steps according to the depth amount.

各奥行き量の段階における特徴量の代表値の設定方法については、例えば、以下に示すような方法を用いることができる。   As a method for setting the representative value of the feature value at each depth level, for example, the following method can be used.

各奥行き量の段階における特徴量の代表値の設定方法の1つは、各奥行き量の段階に属する画素の特徴量の平均値を算出する方法である。例えば、奥行き量として0〜50の値を有する5画素の特徴量(10、5、6、9、4)の平均値として、特徴量の代表値7を算出する。   One method for setting the representative value of the feature amount at each depth amount stage is a method of calculating the average value of the feature amounts of the pixels belonging to each depth amount stage. For example, the representative value 7 of the feature quantity is calculated as an average value of the feature quantities (10, 5, 6, 9, 4) of five pixels having a value of 0 to 50 as the depth quantity.

各奥行き量の段階における特徴量の代表値の設定方法の別の方法は、上述の各奥行き量の段階に属する画素の特徴量の平均値を算出する方法にコアリングを併用したものである。これは、一定値未満の特徴量を持つ画素が存在しないものとして、各奥行き量の段階に属する画素の特徴量の平均値を算出する方法である。例えば、一定値を1として、奥行き量として51〜100の値を有する5画素の特徴量のうち、特徴量0の画素は存在しないものとみなし、奥行き量として51〜100の値を有する4画素の特徴量(13、14、7、9)の平均値として、特徴量の代表値10.75を算出する。   Another method of setting the representative value of the feature amount at each depth amount stage is a method in which coring is used in combination with the above-described method for calculating the average value of the feature amounts of pixels belonging to each depth amount stage. This is a method of calculating an average value of feature amounts of pixels belonging to each depth amount stage, assuming that there is no pixel having a feature amount less than a certain value. For example, assuming that a constant value is 1 and a feature amount of 5 pixels having a value of 51 to 100 as a depth amount is considered to be a pixel having a feature amount of 0, 4 pixels having a value of 51 to 100 as a depth amount As a mean value of the feature amounts (13, 14, 7, 9), a representative value 10.75 of the feature amount is calculated.

各奥行き量の段階における特徴量の代表値の設定方法の別の方法は、各奥行き量の段階に属する画素の特徴量の最大値を算出する方法である。例えば、奥行き量として101〜150の値を有する5画素の特徴量(21、18、20、0、14)の最大値として、特徴量の代表値21を算出する。この際、ノイズの影響を排するため、各奥行き量の段階に属する画素の特徴量の上位数%の画素を除外して、残った画素の特徴量の最大値を代表値としても良い。   Another method of setting the representative value of the feature amount at each depth amount stage is a method of calculating the maximum value of the feature amount of the pixels belonging to each depth amount stage. For example, the representative value 21 of the feature amount is calculated as the maximum value of the feature amounts (21, 18, 20, 0, 14) of five pixels having values of 101 to 150 as the depth amount. At this time, in order to eliminate the influence of noise, the top few percent of the feature amounts of the pixels belonging to each depth amount stage may be excluded, and the maximum value of the feature amount of the remaining pixels may be used as the representative value.

特徴量分布算出部31は、図5(b)に示すように、各奥行き量の段階に属する画素の特徴量の代表値を算出する。   As shown in FIG. 5B, the feature amount distribution calculation unit 31 calculates the representative value of the feature amount of the pixel belonging to each depth amount stage.

図5(c)は、入力画像の各画素の奥行き量と特徴量の関係をグラフ化した例である。ここで、図5(c)に示す×印は各奥行き量の段階に属する画素の代表値を示したものであり、この×印を基に、入力画像の各画素の奥行き量と特徴量の関係をグラフ化する。このとき、入力画像の各画素の奥行き量と特徴量の関係を示すグラフは×印を全て通るように設定しても良いし、最小二乗法などを用いて二次関数に近似しても良い。   FIG. 5C is an example in which the relationship between the depth amount and the feature amount of each pixel of the input image is graphed. Here, the x mark shown in FIG. 5C indicates the representative value of the pixel belonging to each depth amount stage, and the depth amount and the feature amount of each pixel of the input image are based on the x mark. Graph the relationship. At this time, the graph indicating the relationship between the depth amount and the feature amount of each pixel of the input image may be set so as to pass through all the x marks, or may be approximated to a quadratic function using a least square method or the like. .

特徴量分布算出部31は、図5(c)に示すように、各奥行き量の段階に属する画素の特徴量の代表値を算出した後、入力画像の各画素の奥行き量と特徴量の関係をグラフ化する。   As shown in FIG. 5C, the feature amount distribution calculation unit 31 calculates the representative value of the feature amount of the pixel belonging to each depth amount stage, and then the relationship between the depth amount of each pixel of the input image and the feature amount. Is graphed.

特徴量分布正規化部32は、特徴量分布算出部31から入力画像の各画素の奥行き量に対する特徴量の分布を受け、入力画像の画素の中から特徴量が最も大きい画素の特徴量が上限となるように特徴量の分布を正規化し、ボヤケ度合い算出部33に出力する。   The feature amount distribution normalization unit 32 receives the feature amount distribution with respect to the depth amount of each pixel of the input image from the feature amount distribution calculation unit 31, and the feature amount of the pixel having the largest feature amount among the pixels of the input image is limited to the upper limit. The feature amount distribution is normalized so as to be output to the blur degree calculation unit 33.

ボヤケ度合い算出部33は、特徴量分布正規化部32から正規化された入力画像の各画素の特徴量の分布を受け、各画素のボヤケ度合いを決定する。詳細には、ボヤケ度合い算出部33は、正規化された入力画像の各画素の特徴量の分布に基づき、特徴量が最も大きい画素のボヤケ度合いを最も低く、特徴量が最も大きい画素の奥行き量との奥行き量の差が大きくなる画素ほど、ボヤケ度合いを高く決定する。   The blur degree calculation unit 33 receives the distribution of the feature amount of each pixel of the input image normalized from the feature amount distribution normalization unit 32, and determines the blur degree of each pixel. Specifically, the blur degree calculation unit 33 is based on the distribution of the feature amount of each pixel of the normalized input image, and the depth amount of the pixel having the lowest feature amount and the largest feature amount of the pixel having the largest feature amount. The degree of blur is determined to be higher as the pixel has a larger difference in depth.

以下、図6を用いて、特徴量分布正規化部32による入力画像の各画素の奥行き量に対する特徴量の分布の正規化処理およびボヤケ度合い算出部33による正規化された入力画像の各画素の奥行き量に対する特徴量の分布に基づく入力画像の各画素のボヤケ度合い算出処理について説明する。   Hereinafter, with reference to FIG. 6, the feature amount distribution normalization unit 32 normalizes the distribution of the feature amount with respect to the depth amount of each pixel of the input image and the blur degree calculation unit 33 normalizes each pixel of the input image. A blur degree calculation process for each pixel of the input image based on the distribution of the feature amount with respect to the depth amount will be described.

図6(a)は、入力画像の各画素の奥行き量に対する特徴量の分布を正規化した例である。図6(b)は、正規化された入力画像の各画素の奥行き量に対する特徴量の分布に基づく入力画像の各画素のボヤケ度合い算出した例である。   FIG. 6A is an example in which the distribution of the feature amount with respect to the depth amount of each pixel of the input image is normalized. FIG. 6B is an example in which the degree of blur of each pixel of the input image is calculated based on the distribution of the feature amount with respect to the depth amount of each pixel of the normalized input image.

特徴量分布正規化部32は、入力画像の画素の中から特徴量が最も大きいる画素の特徴量が上限となるように特徴量の分布グラフ全体を正規化する。例えば、特徴量分布正規化部32は、入力画像の画素の特徴量の値域が0〜255、入力画像の画素の最大特徴量が150だった場合、入力画像の各画素の奥行き量に対する特徴量の分布グラフの特徴量の値に対し、255/150を乗じて、入力画像の各画素の奥行き量に対する特徴量の分布グラフの特徴量が0〜255の範囲の値をとるように正規化を行う。   The feature amount distribution normalization unit 32 normalizes the entire feature amount distribution graph so that the feature amount of the pixel having the largest feature amount among the pixels of the input image becomes the upper limit. For example, the feature amount distribution normalization unit 32, when the value range of the feature amount of the pixel of the input image is 0 to 255 and the maximum feature amount of the pixel of the input image is 150, the feature amount with respect to the depth amount of each pixel of the input image Is normalized so that the feature value of the distribution graph of the feature value with respect to the depth value of each pixel of the input image takes a value in the range of 0 to 255. Do.

次に、ボヤケ度合い算出部33は、入力画像の各画素の奥行き量に対応する特徴量を算出し、入力画像の各画素の特徴量のとりうる最大値から入力画像の各画素の特徴量を引いた値をボヤケ度合いとして算出する。例えば、ボヤケ度合い算出部33は、入力画像の画素の特徴量の値域が0〜255、入力画像のある画素の奥行き量が50、その奥行き量に対応する特徴量が80だったとすると、その画素のボヤケ度合いは255−80=175となる。   Next, the blur degree calculation unit 33 calculates a feature amount corresponding to the depth amount of each pixel of the input image, and calculates the feature amount of each pixel of the input image from the maximum value that can be taken by the feature amount of each pixel of the input image. The subtracted value is calculated as the degree of blur. For example, assuming that the range of the feature amount of the pixel of the input image is 0 to 255, the depth amount of a pixel of the input image is 50, and the feature amount corresponding to the depth amount is 80, the blur degree calculation unit 33 The degree of blur is 255−80 = 175.

[画質処理]
処理部40は、決定部30で決定された入力画像の各画素のボヤケ度合いに基づき、入力画像の画素毎に異なる画質処理を行う(ステップS24)。
[Image quality processing]
The processing unit 40 performs different image quality processing for each pixel of the input image based on the degree of blur of each pixel of the input image determined by the determination unit 30 (step S24).

図7は、実施の形態1における処理部の画質処理の説明図である。   FIG. 7 is an explanatory diagram of the image quality processing of the processing unit in the first embodiment.

図7は、(1)エッジ強調処理(ゲイン、強調帯域)、(2)平滑化処理(ゲイン、平滑化帯域)、(3)コントラスト処理(ゲイン)の各処理において、ボヤケ度合いに応じて処理の程度を変更することを示している。   FIG. 7 shows processing in accordance with the degree of blur in each of (1) edge enhancement processing (gain, enhancement band), (2) smoothing processing (gain, smoothing band), and (3) contrast processing (gain). Indicates that the degree of change.

処理部40は、(1)エッジ強調処理において、ゲイン(処理量)と強調帯域の2つをボヤケ度合いに応じて変更する。処理部40は、エッジ強調処理におけるゲイン(処理量)については、ボヤケ度合いが大きい(ピントが合っていない)画素に強調処理を施してしまうと、ボヤケが軽減されてしまい奥行き感を損なわれてしまうため、ボヤケ度合いが大きい画素ほどゲイン(処理量)を小さくするよう処理する。また、処理部40は、エッジ強調処理における強調周波数帯域については、ボヤケ度合いが小さい(ピントが合っている)画素では細かい絵柄(高域周波数成分)が存在するが、ボヤケ度合いが高い(ピントが合っていない)画素では本来細かい絵柄は存在しないため、ボヤケ度合いが小さいところほど高周波領域にエッジ強調処理を行う。以上により、処理部40は、入力画像の奥行き感を損ねることなく適切に画質処理(エッジ強調処理)を行うことができる。   The processing unit 40 (1) changes two gains (processing amount) and enhancement band in accordance with the degree of blur in the edge enhancement process. Regarding the gain (processing amount) in the edge enhancement process, if the enhancement process is performed on a pixel having a large degree of blur (not in focus), the blur is reduced and the sense of depth is impaired. Therefore, processing is performed so that the gain (processing amount) is reduced as the degree of blur increases. Further, the processing unit 40 has a fine pattern (high frequency component) in a pixel with a low degree of blur (focused) in the enhanced frequency band in the edge enhancement process, but has a high degree of blur (high focus). Pixels that are not matched do not inherently have fine patterns, so edge enhancement processing is performed in the high frequency region as the degree of blur is smaller. As described above, the processing unit 40 can appropriately perform image quality processing (edge enhancement processing) without impairing the sense of depth of the input image.

また、処理部40は、(2)平滑化処理(ノイズ除去処理を含む)において、ゲイン(処理量)と平滑化帯域の2つをボヤケ度合いに応じて変更する。処理部40は、平滑化処理におけるゲイン(処理量)については、ボヤケ度合いが小さい(ピントが合っている)画素に強く平滑化処理を施してしまうと場合、画像がボヤケてしまいフォーカス感が失われるため、ボヤケ度合いが小さい画素ほどゲイン(処理量)を小さくするよう処理する。また、処理部40は、平滑化処理における平滑化周波数帯域については、ボヤケ度合いが小さい(ピントが合っている)画素に低域周波数帯域まで平滑化を行うとフォーカス感が失われてしまうため、ボヤケ度合いが小さい画素ほど高域周波数に平滑化処理を行う。以上により、処理部40は、入力画像の奥行き感を損ねることなく適切に画質処理(平滑化処理)を行うことができる。   Further, the processing unit 40 changes two of the gain (processing amount) and the smoothing band according to the degree of blur in (2) smoothing processing (including noise removal processing). When the gain (processing amount) in the smoothing process is strongly applied to a pixel with a low degree of blurring (in focus), the processing unit 40 blurs the image and loses a feeling of focus. Therefore, processing is performed so that the gain (processing amount) is decreased as the degree of blur is reduced. Further, since the processing unit 40 smoothes the smoothed frequency band in the smoothing process to a low frequency band on a pixel with a low degree of blur (in focus), the focus feeling is lost. Smoothing processing is performed at a higher frequency for pixels with a lower degree of blur. As described above, the processing unit 40 can appropriately perform image quality processing (smoothing processing) without impairing the sense of depth of the input image.

また、処理部40は、(3)コントラスト処理(ゲイン)については、ボヤケ度合いが小さい(ピントが合っている)画素ほどコントラスト処理を強く掛ける。以上により、処理部40は、ボヤケ度合いが小さい注目する画素(=ピントの合っている画素)を際立たせ、奥行き感を強調することができる。   In addition, regarding the (3) contrast processing (gain), the processing unit 40 applies the contrast processing more strongly to a pixel having a smaller degree of blur (in focus). As described above, the processing unit 40 can emphasize a sense of depth by highlighting a pixel of interest (= focused pixel) with a low degree of blur.

[その他の処理]
[奥行き境界画素特定処理]
奥行き情報取得部20は、入力画像の各画素の奥行き方向の位置を表す奥行き量を取得し、決定部30に出力することに加え、入力画像の各画素間の奥行き量の差に基づき、入力画像の前景と背景の境界に位置する奥行き境界画素を特定し、決定部30に出力しても良い。
[Other processing]
[Depth boundary pixel identification processing]
The depth information acquisition unit 20 acquires a depth amount representing the position in the depth direction of each pixel of the input image and outputs the depth amount to the determination unit 30. In addition, the depth information acquisition unit 20 performs input based on the difference in depth amount between each pixel of the input image. A depth boundary pixel located at the boundary between the foreground and the background of the image may be specified and output to the determination unit 30.

図8は、実施の形態1における奥行き情報取得部の奥行き境界画素特定処理の説明図である。   FIG. 8 is an explanatory diagram of the depth boundary pixel specifying process of the depth information acquisition unit in the first embodiment.

図8(a)は、入力画像として、奥行き量20を有する前景と、奥行き量60を有する背景がある場合を示している。図8(b)は、図8(a)の破線で囲んだ領域に位置する画素と各画素が有する奥行き量を示している。   FIG. 8A shows a case where the input image includes a foreground having a depth amount 20 and a background having a depth amount 60. FIG. 8B shows the pixels located in the area surrounded by the broken line in FIG. 8A and the depth amount of each pixel.

奥行き情報取得部20は、入力画像の着目画素と周辺8画素との差分が一定以上になる画素を特定し、入力画像の前景と背景の境界に位置する奥行き境界画素として、決定部30に出力する。図8(b)に示す画素においては、奥行き量30を有する4つの画素が奥行き境界画素として特定される。   The depth information acquisition unit 20 identifies a pixel in which the difference between the target pixel of the input image and the surrounding eight pixels is equal to or greater than a certain level, and outputs the pixel to the determination unit 30 as a depth boundary pixel located at the foreground / background boundary of the input image. To do. In the pixel shown in FIG. 8B, four pixels having a depth amount 30 are specified as depth boundary pixels.

決定部30は、特徴量検出部10で検出された入力画像の各画素の特徴量と奥行き情報取得部20で取得された入力画像の各画素の奥行き量に加え、奥行き情報取得部20から奥行き境界画素を受ける。決定部30は、入力画像の画素の中から特徴量が最も大きい画素を特定する。決定部30は、特徴量が最も大きい画素の奥行き量と入力画像のその他の画素の奥行き量の差を求め、その差に基づき、入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。ここで、決定部30は、奥行き情報取得部20で特定された奥行き境界画素で囲まれた領域内にある画素を特定し、奥行き境界画素のボヤケ度合いを、奥行き境界画素で囲まれた領域内にある画素のボヤケ度合いよりも高くまたは低くする。   In addition to the feature amount of each pixel of the input image detected by the feature amount detection unit 10 and the depth amount of each pixel of the input image acquired by the depth information acquisition unit 20, the determination unit 30 receives the depth from the depth information acquisition unit 20. Receive border pixels. The determination unit 30 specifies the pixel having the largest feature amount from the pixels of the input image. The determination unit 30 obtains the difference between the depth amount of the pixel having the largest feature amount and the depth amount of the other pixels of the input image, determines the degree of blur of each pixel of the input image based on the difference, and Output. Here, the determination unit 30 identifies pixels in the area surrounded by the depth boundary pixels specified by the depth information acquisition unit 20, and determines the degree of blur of the depth boundary pixels in the area surrounded by the depth boundary pixels. Higher or lower than the degree of blur of the pixel in the pixel.

処理部40は、決定部30で決定された入力画像の各画素のボヤケ度合いに基づき、入力画像の画素毎に異なる画質処理を行う。   The processing unit 40 performs different image quality processing for each pixel of the input image based on the degree of blur of each pixel of the input image determined by the determination unit 30.

決定部30において、奥行き情報取得部20で特定された奥行き境界画素で囲まれた領域内にある画素を特定し、奥行き境界画素のボヤケ度合いを、奥行き境界画素で囲まれた領域内にある画素のボヤケ度合いよりも高くまたは低くし、処理部40において、決定部30で決定された入力画像の各画素のボヤケ度合いに基づき、入力画像の画素毎に異なる画質処理を行うことで、物体間の分離間を制御して奥行き感に与える影響を調節することができる。例えば、処理部40は、奥行き境界画素のみにエッジ強調ゲイン(処理量)を大きくすると、奥行きの異なる物体同士がより分離されて見えるため、奥行き感を損ねることを軽減できる。一方、処理部40は、奥行き境界画素のみにエッジ強調ゲイン(処理量)を大きくしすぎると、必要以上に物体同士が分離されて別々に取られた絵を合成したかのような違和感(書き割り感)が生じることがあるため、エッジ強調ゲインを小さくし、書き割り感を軽減することができる。   In the determination unit 30, the pixels in the region surrounded by the depth boundary pixels specified by the depth information acquisition unit 20 are specified, and the degree of blur of the depth boundary pixels is determined by the pixels in the region surrounded by the depth boundary pixels. The processing unit 40 performs different image quality processing for each pixel of the input image based on the degree of blur of each pixel of the input image determined by the determination unit 30. It is possible to adjust the influence on the feeling of depth by controlling the separation. For example, if the edge enhancement gain (processing amount) is increased only for the depth boundary pixels, the processing unit 40 can reduce the sense of depth because objects with different depths appear to be separated from each other. On the other hand, if the edge enhancement gain (processing amount) is increased too much only for the depth boundary pixels, the processing unit 40 feels uncomfortable as if the objects were separated more than necessary and the pictures taken separately were combined (writing Since there is a possibility that a split feeling may occur, it is possible to reduce the edge emphasis gain and reduce the split feeling.

[1−3.効果等]
本開示の画像処理装置及び画像処理方法によれば、入力画像の画素の中から特徴量が最も大きい画素の奥行き量との奥行き量の差に基づき入力画像の各画素のボヤケ度合いを決定し、決定したボヤケ度合いに基づき入力画像の画素毎に異なる画質処理を行うので、奥行き感を損ねることを軽減した画質処理することができる。また、入力画像の前景と背景の境界に位置する奥行き境界画素と奥行き境界画素で囲まれた領域内にある画素を特定し、奥行き境界画素のボヤケ度合いを、奥行き境界画素で囲まれた領域内にある画素のボヤケ度合いよりも高くまたは低くするので、物体間の分離間を制御して奥行き感に与える影響を調節することが出来る。
[1-3. Effect]
According to the image processing device and the image processing method of the present disclosure, the degree of blur of each pixel of the input image is determined based on the difference in depth amount from the depth amount of the pixel having the largest feature amount among the pixels of the input image, Since different image quality processing is performed for each pixel of the input image based on the determined degree of blur, it is possible to perform image quality processing that reduces the loss of depth. In addition, the pixels in the area surrounded by the depth boundary pixels and the depth boundary pixels located at the boundary between the foreground and the background of the input image are identified, and the degree of blur of the depth boundary pixels is determined in the area surrounded by the depth boundary pixels. Therefore, it is possible to adjust the influence on the sense of depth by controlling the separation between objects.

実施の形態1において、特徴量検出部10が特徴量検出部の一例に対応し、奥行き情報取得部20が奥行き情報取得部の一例に対応し、決定部30が決定部の一例に対応し、処理部40が処理部の一例に対応する。また、特徴量分布算出部31が特徴量分布算出部の一例に対応し、ボヤケ度合い算出部33がボヤケ度合い算出部の一例に対応する。
(実施の形態2)
[2−1.構成]
図9は、実施の形態2における画像処理装置の構成を示すブロック図である。
In the first embodiment, the feature amount detection unit 10 corresponds to an example of a feature amount detection unit, the depth information acquisition unit 20 corresponds to an example of a depth information acquisition unit, the determination unit 30 corresponds to an example of a determination unit, The processing unit 40 corresponds to an example of a processing unit. The feature amount distribution calculating unit 31 corresponds to an example of a feature amount distribution calculating unit, and the blur degree calculating unit 33 corresponds to an example of a blur degree calculating unit.
(Embodiment 2)
[2-1. Constitution]
FIG. 9 is a block diagram illustrating a configuration of the image processing apparatus according to the second embodiment.

図1の画像処理装置1と異なる点は、奥行き情報補正部50をさらに備える点である。   A difference from the image processing apparatus 1 of FIG. 1 is that a depth information correction unit 50 is further provided.

奥行き情報補正部50は、奥行き情報取得部20で取得された入力画像の各画素の奥行き量と奥行き境界画素を受け、奥行き境界画素を含めた奥行き境界画素の周辺画素の奥行き量を、奥行き境界画素を含めた奥行き境界画素の周辺画素の奥行き量のうち最小の奥行き量で置き換え、決定部30に出力する。   The depth information correction unit 50 receives the depth amount and depth boundary pixel of each pixel of the input image acquired by the depth information acquisition unit 20, and determines the depth amount of the peripheral pixels of the depth boundary pixel including the depth boundary pixel as the depth boundary. The pixel is replaced with the minimum depth amount among the depth amounts of the peripheral pixels including the depth boundary pixel, and is output to the determination unit 30.

[2−2.動作]
図10は、実施の形態2における奥行き情報補正部の奥行き情報補正処理の説明図である。
[2-2. Operation]
FIG. 10 is an explanatory diagram of depth information correction processing of the depth information correction unit according to the second embodiment.

図10(a1)は、入力画像として、奥行き量20を有する前景と、奥行き量60を有する背景がある場合を示している。図10(a2)は、図10(a1)の破線で囲んだ領域に位置する画素と各画素が有する奥行き量を示している。   FIG. 10A1 illustrates a case where there are a foreground having a depth amount 20 and a background having a depth amount 60 as an input image. FIG. 10 (a2) shows the pixels located in the area surrounded by the broken line in FIG. 10 (a1) and the depth amount each pixel has.

図10(b1)は、図10(a1)に示す奥行き量20を有する前景の範囲を拡大した様子を示している。図10(b2)は、図10(b1)の破線で囲んだ領域に位置する画素と各画素が有する補正された奥行き量を示している。   FIG. 10 (b1) shows a state where the range of the foreground having the depth amount 20 shown in FIG. 10 (a1) is enlarged. FIG. 10B2 shows the pixels located in the area surrounded by the broken line in FIG. 10B1 and the corrected depth amount of each pixel.

奥行き情報補正部50は、奥行き情報取得部20で取得された入力画像の各画素の奥行き量と奥行き境界画素を受け、奥行き境界画素1画素およびその周辺8画素を含めた9画素のうち最小の奥行き量を検出し、奥行き境界画素1画素およびその周辺8画素を含めた9画素の奥行き量を検出した最小の奥行き値に補正し、決定部30に出力する。   The depth information correction unit 50 receives the depth amount and the depth boundary pixel of each pixel of the input image acquired by the depth information acquisition unit 20, and is the smallest of the nine pixels including the depth boundary pixel 1 pixel and the surrounding 8 pixels. The depth amount is detected, and the depth amount of nine pixels including one depth boundary pixel and the surrounding eight pixels is corrected to the detected minimum depth value, and is output to the determination unit 30.

[2−3.効果等]
これは、境界部の特徴量は、手前側の物体の奥行き値に応じて変化するためである。決定部30において、境界画素を手前側の物体として算出することで、正確にボヤケ度合いを求めることができる。
[2-3. Effect]
This is because the feature amount of the boundary portion changes according to the depth value of the near object. By calculating the boundary pixel as an object on the front side in the determination unit 30, the degree of blur can be accurately obtained.

実施の形態2において、奥行き情報補正部50が奥行き補正部の一例に対応する。
(その他の実施の形態)
図11は、その他の実施の形態における画像処理装置の構成を示すブロック図である。
In the second embodiment, the depth information correction unit 50 corresponds to an example of a depth correction unit.
(Other embodiments)
FIG. 11 is a block diagram illustrating a configuration of an image processing apparatus according to another embodiment.

図1の画像処理装置1と異なる点は、領域特定部60をさらに備える点である。   The difference from the image processing apparatus 1 of FIG. 1 is that an area specifying unit 60 is further provided.

領域特定部60は、入力画像の画質処理を行う対象領域を特定し、決定部30に出力する。決定部30は、領域特定部60から入力画像の画質処理を行う対象領域を受け、対象領域において、前述の入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。   The area specifying unit 60 specifies a target area to be subjected to image quality processing of the input image, and outputs the target area to the determining unit 30. The determination unit 30 receives a target area on which the image quality processing of the input image is performed from the area specifying unit 60, determines the degree of blur of each pixel of the input image in the target area, and outputs it to the processing unit 40.

図12は、その他の実施の形態における領域特定部の領域特定処理の説明図である。   FIG. 12 is an explanatory diagram of region specifying processing of the region specifying unit according to another embodiment.

図12は、入力画像の右上および下に、字幕など撮影画像以外の情報がある場合の例である。   FIG. 12 is an example in the case where there is information other than the captured image, such as captions, in the upper right and lower of the input image.

一般的に、入力画像が字幕と撮影画像から構成される場合、字幕は撮像画像の撮影後に画像処理によって撮像画像に重畳されるため、そのボヤケ度合いは撮影画像に比べて小さい。そのため、処理部40は、撮像画像領域に位置する画素のほとんどをボヤケ度が大きい画素として画質処理を行うことになる。   In general, when an input image is composed of a caption and a captured image, the caption is superimposed on the captured image by image processing after capturing the captured image, and thus the degree of blur is smaller than that of the captured image. Therefore, the processing unit 40 performs image quality processing with most of the pixels located in the captured image area as pixels with a high degree of blur.

そのため、領域特定部60は、入力画像の画質処理を行う対象領域を特定し、決定部30に出力する。決定部30は、領域特定部60から入力画像の画質処理を行う対象領域を受け、対象領域において、前述の入力画像の各画素のボヤケ度合いを決定し、処理部40に出力する。そして処理部40は、決定部30で決定された入力画像の各画素のボヤケ度合いに基づき、入力画像の各画素に異なる画質処理を行うことにより、奥行き感を損ねることを軽減した画質処理をすることができる。   For this reason, the region specifying unit 60 specifies a target region on which the image quality processing of the input image is to be performed, and outputs the target region to the determining unit 30. The determination unit 30 receives a target area on which the image quality processing of the input image is performed from the area specifying unit 60, determines the degree of blur of each pixel of the input image in the target area, and outputs it to the processing unit 40. The processing unit 40 performs image quality processing that reduces the sense of depth by performing different image quality processing on each pixel of the input image based on the degree of blur of each pixel of the input image determined by the determination unit 30. be able to.

なお、字幕等の入力画像の画質処理を行う対象領域外の領域を検出する方法は、公知の種々の方法を適用することができる。   Note that various known methods can be applied as a method for detecting an area outside the target area for performing image quality processing of an input image such as captions.

その他の実施の形態において、領域特定部60が領域特定部の一例に対応する。   In other embodiments, the region specifying unit 60 corresponds to an example of a region specifying unit.

図13は、その他の実施の形態における画像処理装置の構成を示すブロック図である。   FIG. 13 is a block diagram illustrating a configuration of an image processing apparatus according to another embodiment.

図1の画像処理装置1と異なる点は、画像切替検出部70をさらに備える点である。   The difference from the image processing apparatus 1 of FIG. 1 is that an image switching detection unit 70 is further provided.

画像切替検出部70は、入力画像の切り替わりを検出し、検出結果を決定部30に出力する。ここで言う入力画像の切り替わりとは、DVDのようなSD映像から、BDのようなHD映像への切り替わり、シーンチェンジ等を意味する。   The image switching detection unit 70 detects switching of the input image and outputs the detection result to the determination unit 30. The switching of input images referred to here means switching from SD video such as DVD to HD video such as BD, scene change, and the like.

決定部30は、入力画像の1フレームの中で、特徴量が最も大きい画素の奥行き量と該1フレームのその他の画素の奥行き量の差を求め、その差に基づき、該1フレームの各画素のボヤケ度合いを決定し、処理部40に出力しても良い。   The determining unit 30 obtains a difference between the depth amount of the pixel having the largest feature amount in one frame of the input image and the depth amount of the other pixels of the one frame, and based on the difference, each pixel of the one frame The degree of blur may be determined and output to the processing unit 40.

また、決定部30は、入力画像の複数フレームの中で、特徴量が最も大きい画素の奥行き量と該複数フレームのその他の画素の奥行き量の差を求め、その差に基づき、該複数フレームの各画素のボヤケ度合いを決定しても良い。後者の場合、決定部30は、入力画像の切り替わりに基づき、入力画像の複数フレームの中の特徴量が最も大きい画素の特徴量をリセットしても良い。前者の場合、入力画像の全てのフレームでボヤケ度合いが小さい画素があるとは限らない。仮にある1フレームで全ての画素でボヤケ度合いが高い場合、該1フレームの全ての画素でボヤケ度合いを小さく決定してしまう可能性がある。したがって、入力画像の複数フレームの中の特徴量が最も大きい画素の特徴量を記憶しておき、その特徴量を基準に各フレームのボヤケ度合いを決定しても良い。   Further, the determination unit 30 obtains a difference between the depth amount of the pixel having the largest feature amount and the depth amounts of the other pixels of the plurality of frames in the plurality of frames of the input image, and based on the difference, The degree of blur of each pixel may be determined. In the latter case, the determination unit 30 may reset the feature amount of the pixel having the largest feature amount in a plurality of frames of the input image based on the switching of the input image. In the former case, there is not always a pixel with a small degree of blur in all frames of the input image. If the degree of blur is high in all pixels in one frame, there is a possibility that the degree of blur is determined to be small in all pixels in the one frame. Therefore, the feature amount of the pixel having the largest feature amount in a plurality of frames of the input image may be stored, and the degree of blur of each frame may be determined based on the feature amount.

その他の実施の形態において、画像切替検出部70が画像切替検出部の一例に対応する。   In other embodiments, the image switching detection unit 70 corresponds to an example of an image switching detection unit.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記実装を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above implementation. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this indication, a various change, replacement, addition, abbreviation, etc. can be performed in a claim or its equivalent range.

本開示は、奥行き感を損ねることを軽減した画質処理することができる画像処理技術として有用である。   The present disclosure is useful as an image processing technique that can perform image quality processing that reduces the loss of depth.

1、2、3、4 画像処理装置
10 特徴量検出部
11 一次微分フィルタ(垂直)
12 一次微分フィルタ(水平)
13 一次微分値算出部
14 二次微分フィルタ
15 絶対値算出部
20 奥行き情報取得部
30 決定部
31 特徴量分布算出部
32 特徴量分布正規化部
33 ボヤケ度合い算出部
40 処理部
50 奥行き情報補正部
60 領域特定部
70 画像切替検出部
1, 2, 3, 4 Image processing device 10 Feature amount detection unit 11 First-order differential filter (vertical)
12 First derivative filter (horizontal)
DESCRIPTION OF SYMBOLS 13 Primary differential value calculation part 14 Secondary differential filter 15 Absolute value calculation part 20 Depth information acquisition part 30 Determination part 31 Feature quantity distribution calculation part 32 Feature quantity distribution normalization part 33 Blur degree calculation part 40 Processing part 50 Depth information correction part 60 area specifying unit 70 image switching detecting unit

Claims (9)

入力画像の各画素の特徴量を検出する特徴量検出部と、
前記入力画像の各画素の奥行き方向の位置を表す奥行き量を取得する奥行き情報取得部と、
前記特徴量が最も大きい画素の前記奥行き量との奥行き量の差に基づき、前記入力画像の各画素のボヤケ度合いを決定する決定部と、
前記ボヤケ度合いに基づき、前記入力画像の画素毎に異なる画質処理を行う処理部と、
を備える画像処理装置。
A feature amount detector that detects a feature amount of each pixel of the input image;
A depth information acquisition unit for acquiring a depth amount representing a position in the depth direction of each pixel of the input image;
A determining unit that determines a degree of blur of each pixel of the input image based on a difference in depth amount from the depth amount of the pixel having the largest feature amount;
A processing unit that performs different image quality processing for each pixel of the input image based on the degree of blur;
An image processing apparatus comprising:
前記決定部は、
前記入力画像の各画素の前記奥行き量に対する前記特徴量の分布を生成する特徴量分布生成部と、
前記特徴量の分布に基づき、前記特徴量が最も大きい画素のボヤケ度合いを最も低く、前記特徴量が最も大きい画素の前記奥行き量との奥行き量の差が大きくなる画素ほど、ボヤケ度合いを高く決定するボヤケ度合い決定部と、
を備えることを特徴とする請求項1記載の画像処理装置。
The determination unit
A feature amount distribution generation unit that generates a distribution of the feature amount with respect to the depth amount of each pixel of the input image;
Based on the distribution of the feature amount, the pixel having the largest feature amount has the lowest blur degree, and the pixel having the largest difference in depth amount from the depth amount of the pixel having the largest feature amount determines the blur degree higher. A blur degree determination unit to perform,
The image processing apparatus according to claim 1, further comprising:
前記奥行き情報取得部は、
前記入力画像の各画素間の奥行き量の差に基づき、前記入力画像の前景と背景の境界に位置する奥行き境界画素を特定し、
前記決定部は、
前記奥行き境界画素で囲まれた領域内にある画素を特定し、
前記奥行き境界画素のボヤケ度合いを、前記奥行き境界画素で囲まれた領域内にある画素のボヤケ度合いよりも高くまたは低くする、
ことを特徴とする請求項1記載の画像処理装置。
The depth information acquisition unit
Based on the difference in depth amount between each pixel of the input image, the depth boundary pixel located at the boundary between the foreground and the background of the input image is identified,
The determination unit
Identify pixels within the area bounded by the depth boundary pixels;
The degree of blur of the depth boundary pixels is set higher or lower than the degree of blur of pixels in the area surrounded by the depth boundary pixels;
The image processing apparatus according to claim 1.
前記入力画像の画質処理を行う対象領域を特定する領域特定部を備え、
前記決定部は、前記対象領域における前記入力画像の各画素のボヤケ度合いを決定する、
ことを特徴とする請求項1記載の画像処理装置。
An area specifying unit for specifying a target area for image quality processing of the input image;
The determining unit determines a degree of blur of each pixel of the input image in the target region;
The image processing apparatus according to claim 1.
奥行き情報補正部を更に備え、
前記奥行き情報取得部は、
前記入力画像の各画素間の奥行き量の差に基づき前記入力画像の前景と背景の境界に位置する奥行き境界画素を検出し、
前記奥行き情報補正部は、
前記奥行き境界画素を含めた前記奥行き境界画素の周辺画素の奥行き量を、前記奥行き境界画素を含めた前記奥行き境界画素の周辺画素の奥行き量のうち最小の奥行き量で置き換える、
ことを特徴とする請求項1記載の画像処理装置。
A depth information correction unit;
The depth information acquisition unit
Detecting a depth boundary pixel located at a boundary between the foreground and the background of the input image based on a difference in depth amount between each pixel of the input image;
The depth information correction unit
Replacing the depth amount of the peripheral pixels of the depth boundary pixel including the depth boundary pixel with the minimum depth amount among the depth amounts of the peripheral pixels of the depth boundary pixel including the depth boundary pixel;
The image processing apparatus according to claim 1.
前記決定部は、
前記特徴量が最も大きい画素の前記奥行き量を、前記入力画像の1フレーム毎にリセットする、
ことを特徴とする請求項1記載の画像処理装置。
The determination unit
Resetting the depth amount of the pixel having the largest feature amount for each frame of the input image;
The image processing apparatus according to claim 1.
前記決定部は、
前記特徴量が最も大きい画素の前記奥行き量を、前記入力画像の複数フレーム間、更新しながら維持する、
ことを特徴とする請求項1記載の画像処理装置。
The determination unit
Maintaining the depth amount of the pixel having the largest feature amount while updating the plurality of frames of the input image;
The image processing apparatus according to claim 1.
前記入力画像のシーンチェンジを検出する画像切替検出部を更に備え、
前記決定部は、
前記入力画像のシーンチェンジが検出されると、前記特徴量が最も大きい画素の前記奥行き量をリセットする、
ことを特徴とする請求項1記載の画像処理装置。
An image switching detection unit for detecting a scene change of the input image;
The determination unit
When the scene change of the input image is detected, the depth amount of the pixel having the largest feature amount is reset.
The image processing apparatus according to claim 1.
入力画像の各画素の特徴量を検出する特徴量検出ステップと、
前記入力画像の各画素の奥行き方向の位置を表す奥行き量を取得する奥行き情報取得ステップと、
前記特徴量が最も大きい画素の前記奥行き量との奥行き量の差に基づき、前記入力画像の各画素のボヤケ度合いを決定する決定ステップと、
前記ボヤケ度合いに基づき、前記入力画像の画素毎に異なる画質処理を行う処理ステップと、
を備える画像処理方法。
A feature amount detection step for detecting a feature amount of each pixel of the input image;
A depth information acquisition step of acquiring a depth amount representing a position in the depth direction of each pixel of the input image;
A determination step of determining a degree of blur of each pixel of the input image based on a difference in depth amount from the depth amount of the pixel having the largest feature amount;
A processing step of performing different image quality processing for each pixel of the input image based on the degree of blur;
An image processing method comprising:
JP2013064201A 2013-03-26 2013-03-26 Image processing system and image processing method Pending JP2014191430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013064201A JP2014191430A (en) 2013-03-26 2013-03-26 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013064201A JP2014191430A (en) 2013-03-26 2013-03-26 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2014191430A true JP2014191430A (en) 2014-10-06

Family

ID=51837663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013064201A Pending JP2014191430A (en) 2013-03-26 2013-03-26 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2014191430A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112313700A (en) * 2019-11-26 2021-02-02 深圳市大疆创新科技有限公司 Image processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112313700A (en) * 2019-11-26 2021-02-02 深圳市大疆创新科技有限公司 Image processing method and device
WO2021102702A1 (en) * 2019-11-26 2021-06-03 深圳市大疆创新科技有限公司 Image processing method and apparatus

Similar Documents

Publication Publication Date Title
WO2012096163A1 (en) Image processing device, image processing method, and program therefor
US20200258196A1 (en) Image processing apparatus, image processing method, and storage medium
KR101901184B1 (en) Apparatus and method for processing color image using depth image
US9652855B2 (en) Image processing apparatus that identifies image area, and image processing method
US10762649B2 (en) Methods and systems for providing selective disparity refinement
CN105046655B (en) A kind of automatic sharpening method of video image and device
US20130258138A1 (en) Apparatus for generating an image with defocused background and method thereof
US8189947B2 (en) Image edge correction apparatus and method
JP2016505186A (en) Image processor with edge preservation and noise suppression functions
JP6715864B2 (en) Method and apparatus for determining a depth map for an image
US20190110040A1 (en) Method for enhancing viewing comfort of a multi-view content, corresponding computer program product, computer readable carrier medium and device
JP5175910B2 (en) Image processing apparatus, image processing method, and program
JP2010152521A (en) Apparatus and method for performing stereographic processing to image
US20140078321A1 (en) Motion blur estimation and restoration using light trails
KR20160056729A (en) Video quality enhancement device and method for extremely low-light video
JP2015207090A (en) Image processor, and control method thereof
CN106027853B (en) Image processing apparatus, photographic device and image processing method
KR102183518B1 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
JP2014191430A (en) Image processing system and image processing method
US9589324B1 (en) Overshoot protection of upscaled images
KR101760463B1 (en) Method and Apparatus for correcting a depth map
JP6140478B2 (en) Object detection device, program, and integrated circuit
KR101619776B1 (en) RGB deblurring method using IR information at depth map system using 4 color sensor
US20200342575A1 (en) Image processing apparatus, control method of same, and non-transitory computer-readable storage medium
JP6378496B2 (en) Image processing apparatus, control method, and recording medium