JP2015142260A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2015142260A
JP2015142260A JP2014014271A JP2014014271A JP2015142260A JP 2015142260 A JP2015142260 A JP 2015142260A JP 2014014271 A JP2014014271 A JP 2014014271A JP 2014014271 A JP2014014271 A JP 2014014271A JP 2015142260 A JP2015142260 A JP 2015142260A
Authority
JP
Japan
Prior art keywords
depth
image
luminance
value
cut surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014014271A
Other languages
Japanese (ja)
Inventor
郁子 椿
Ikuko Tsubaki
郁子 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014014271A priority Critical patent/JP2015142260A/en
Publication of JP2015142260A publication Critical patent/JP2015142260A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a depth range while keeping depth distribution within a subject even in the case of an image which has almost uniform existence frequency of a depth.SOLUTION: An image processing system which reduces the depth range of a depth image comprises: an area division unit which divides the depth image into two areas; and a depth change unit which changes the depth of at least one of the two areas by a predetermined amount.

Description

本発明は、深度情報を処理する画像処理技術に関する。   The present invention relates to an image processing technique for processing depth information.

例えば、画像表示装置により立体画像を表示するために用いられている技術では、人間の左右の目に異なる映像を提示することで立体表示を実現しており、左右目用画像内の物体のずれである視差により奥行きを再現している。再現可能な奥行きの範囲は表示装置の仕様に依存し、表示装置に入力される画像の奥行き範囲が再現可能な奥行き範囲よりも広い場合は、奥行き範囲を変換してから表示する必要がある。   For example, in the technology used to display a stereoscopic image by an image display device, stereoscopic display is realized by presenting different images to the left and right eyes of a human, and the displacement of an object in the left and right eye image The depth is reproduced by the parallax. The reproducible depth range depends on the specifications of the display device. When the depth range of an image input to the display device is wider than the reproducible depth range, the depth range needs to be converted before being displayed.

特許文献1には、再現可能な奥行き範囲内でより良好な奥行き感を得られるように、画像内の奥行きの存在頻度を用いて奥行きマップを変換するマップ変換方法が示されている。奥行きマップとは各画素に奥行き値を保持した画像である。   Patent Document 1 discloses a map conversion method for converting a depth map using the presence frequency of depth in an image so that a better sense of depth can be obtained within a reproducible depth range. A depth map is an image in which a depth value is held in each pixel.

図6は、奥行きの存在頻度(度数)を示すヒストグラムの例である。図6(A)は入力画像の画素毎の奥行きの存在頻度を示すヒストグラムの例を示す図である。縦軸が度数、横軸が階級値である。図6(A)は双峰性のグラフになっており、二つの山の間には頻度が0となる奥行きの範囲がある。例えば、画像内に2つの被写体があり、一方が手前に、他方が奥に位置する場合にこのようなヒストグラムとなる。以下では、被写体が手前に位置するほど奥行き値が大きく、被写体が奥に位置するほど奥行き値が小さいと表わすことにする。右の山(ピーク)が手前の被写体による値であり、左の山(ピーク)が奥の被写体による値である。奥行き範囲に相当するピークの裾間の階級値の差はW1である。   FIG. 6 is an example of a histogram showing the presence frequency (frequency) of depth. FIG. 6A is a diagram illustrating an example of a histogram indicating the presence frequency of the depth for each pixel of the input image. The vertical axis is frequency and the horizontal axis is class value. FIG. 6A is a bimodal graph, and there is a range of depth where the frequency is zero between the two mountains. For example, such a histogram is obtained when there are two subjects in the image and one is located in front and the other is located in the back. In the following description, the depth value is larger as the subject is closer to the front, and the depth value is smaller as the subject is farther away. The right mountain (peak) is the value for the subject in the foreground, and the left mountain (peak) is the value for the subject in the back. The difference in the class value between the tails of the peaks corresponding to the depth range is W1.

図6(B)は、図6(A)のヒストグラムに対して奥行き変換を行った後の奥行きの存在頻度を示すヒストグラムである。図6(B)の奥行きの最小値は図6(A)と同じであるが、最大値を図6(A)よりも小さくしたものである。左側の山の位置はAと同じであるが、右側の山を左方にずらし、二つの山を隙間なく付けたことで最大値が小さくなっている。つまり、2つの被写体のうち、奥の被写体をそのままにして手前の被写体の位置を奥側に移動させている。このように変換することで、各被写体内部の奥行き変化を保ったまま、全体の奥行き範囲を縮小することができる(W1>W2)。   FIG. 6B is a histogram showing the presence frequency of the depth after the depth conversion is performed on the histogram of FIG. The minimum value of the depth in FIG. 6B is the same as that in FIG. 6A, but the maximum value is smaller than that in FIG. 6A. The position of the left mountain is the same as A, but the maximum value is reduced by shifting the right mountain to the left and attaching the two peaks without any gaps. That is, of the two subjects, the position of the subject in the foreground is moved to the back side while keeping the subject in the back as it is. By converting in this way, the entire depth range can be reduced while maintaining the depth change inside each subject (W1> W2).

また、奥行きの変換とは異なり、画像の輝度値の範囲を変換するトーンマッピングにおいても、画像における画素毎の輝度値の存在頻度を用いた変換方法が用いられている。トーンマッピングとは、ダイナミックレンジの広い画像からダイナミックンレンジの狭い画像に変換する処理である。特許文献2には、輝度値のヒストグラムを用いて生成したマッピング関数による変換方法が示されている。   In contrast to depth conversion, tone mapping that converts the range of luminance values of an image also uses a conversion method that uses the frequency of luminance values for each pixel in the image. Tone mapping is a process of converting an image with a wide dynamic range into an image with a narrow dynamic range. Patent Document 2 discloses a conversion method using a mapping function generated using a histogram of luminance values.

特開2012−134881号公報JP 2012-134881 A 特開2007−310887号公報JP 2007-310887 A

しかしながら、奥行き変換処理において、奥行きの頻度がほぼ一様となる奥行きマップの場合、ヒストグラムを用いた従来の奥行き変換方法では効率よく奥行き範囲を縮小することが困難であった。図6(C)は入力画像の奥行きの存在頻度がほぼ一様となる場合のヒストグラムの例である。   However, in the depth conversion process, in the case of a depth map in which the frequency of the depth is substantially uniform, it is difficult to efficiently reduce the depth range by the conventional depth conversion method using the histogram. FIG. 6C is an example of a histogram when the depth existence frequency of the input image is substantially uniform.

また、画像の輝度値の範囲を変換するトーンマッピング処理についても、奥行き変換処理と同様の課題を有し、入力画像の輝度値の存在頻度がほぼ一様となる場合は、ヒストグラムを用いた従来の変換方法では効率よく輝度値の範囲を縮小することが困難であった。   Also, the tone mapping process that converts the range of the brightness value of the image has the same problem as the depth conversion process. If the frequency of the brightness value of the input image is almost uniform, the conventional technique using a histogram is used. With this conversion method, it has been difficult to efficiently reduce the range of luminance values.

本明細書では、奥行きマップを構成する各画素の奥行き値、輝度画像を構成する各画素の輝度値などの、画像の各画素に割り当てられた数値を深度と総称する。ヒストグラムでいえば、階級値の値が深度に相当する。深度画像とは、深度をパラメータとして有する画像である。   In this specification, numerical values assigned to each pixel of the image, such as the depth value of each pixel constituting the depth map and the luminance value of each pixel constituting the luminance image, are collectively referred to as depth. In terms of the histogram, the value of the class value corresponds to the depth. A depth image is an image having depth as a parameter.

本発明は、上述のような実状に鑑みてなされたものであり、その目的は、例えば、深度の存在頻度(度数)がほぼ一様な画像の場合でも、被写体内の深度分布を保ったまま深度範囲を縮小することが可能な画像処理方法を提供することにある。   The present invention has been made in view of the above-described actual situation, and an object of the present invention is to maintain the depth distribution in the subject even in the case of an image having a substantially uniform depth existence frequency (frequency). An object of the present invention is to provide an image processing method capable of reducing the depth range.

本発明は、深度画像の深度範囲を縮小する画像処理装置であって、前記深度画像を二つの領域に分割する領域分割部と、前記二つの領域の少なくとも一方において深度を所定の量だけ変更する深度変更部と、を有することを特徴とする画像処理装置である。   The present invention is an image processing apparatus for reducing a depth range of a depth image, and an area dividing unit that divides the depth image into two areas, and a depth is changed by a predetermined amount in at least one of the two areas. And a depth changing unit.

前記領域分割部は、前記深度画像を変換して隣接する画素間で連続した値をもつ切断面画像を生成する切断面画像生成部とし、前記深度画像と前記切断面画像の画素値を対応する各画素において比較し、前記深度画像の画素値が前記切断面画像の画素値より大きい画素を抽出することで前記深度画像を二つの領域に分割する切断処理部とを有することを特徴とする。   The region dividing unit is a cut surface image generating unit that converts the depth image to generate a cut surface image having a continuous value between adjacent pixels, and corresponds the pixel values of the depth image and the cut surface image. The image processing apparatus includes a cutting processing unit that divides the depth image into two regions by comparing each pixel and extracting a pixel having a pixel value of the depth image larger than the pixel value of the cut surface image.

さらに、前記深度画像から3次元の深度構造マップを生成する深度構造マップ生成部を有し、前記切断面画像生成部は、すべての画素において前記深度構造マップの値の和が最小となる深度値を求めることを特徴とする。   Furthermore, it has a depth structure map generation unit that generates a three-dimensional depth structure map from the depth image, and the cut surface image generation unit has a depth value that minimizes the sum of the values of the depth structure map in all pixels. It is characterized by calculating | requiring.

本発明によれば、深度の存在頻度がほぼ一様な画像の場合でも、被写体内の深度分布を保ったまま深度範囲を縮小することが可能な画像処理技術を提供することができる。   According to the present invention, it is possible to provide an image processing technique capable of reducing the depth range while maintaining the depth distribution in the subject even in the case of an image having a substantially uniform depth existence frequency.

本発明の第1の実施形態に係る画像処理装置の一構成例を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration example of an image processing apparatus according to a first embodiment of the present invention. 切断面を説明する図である。It is a figure explaining a cut surface. 式(5)の概要を説明する図である。It is a figure explaining the outline | summary of Formula (5). 本発明の第1の実施形態に係る画像処理方法を示すフロー図である。It is a flowchart which shows the image processing method which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理方法を示すフロー図である。It is a flowchart which shows the image processing method which concerns on the 2nd Embodiment of this invention. 奥行きの存在頻度を示すヒストグラムの例を示す図である。It is a figure which shows the example of the histogram which shows the presence frequency of depth.

以下、添付図面を参照しながら本発明の一実施形態について詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理装置の構成例を示すブロック図である。本実施形態の画像処理装置10は、奥行きマップを入力し、奥行き変換処理を行い、変換後奥行きマップを出力する。図1で示したように、画像処理装置10は、奥行きマップ入力部11と、奥行き変換量算出部12と、奥行き変換部13と、出力部14とを有している。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to the first embodiment of the present invention. The image processing apparatus 10 of the present embodiment inputs a depth map, performs depth conversion processing, and outputs a converted depth map. As illustrated in FIG. 1, the image processing apparatus 10 includes a depth map input unit 11, a depth conversion amount calculation unit 12, a depth conversion unit 13, and an output unit 14.

以下、画像処理装置10における各部の詳細を説明する。奥行きマップ入力部11は、奥行きマップを入力し、奥行き変換量算出部12へ出力する。ここで入力される奥行きマップの値は、画素ごとの奥行きが取得できる測距カメラにより得られるカメラから被写体までの距離でもよいし、ステレオカメラで撮影された画像から画像処理によって生成される視差もしくは視差から算出したステレオカメラと被写体間の距離であってもよい。   Details of each unit in the image processing apparatus 10 will be described below. The depth map input unit 11 inputs a depth map and outputs it to the depth conversion amount calculation unit 12. The depth map value input here may be a distance from the camera to the subject obtained by a ranging camera that can acquire the depth for each pixel, or a parallax generated by image processing from an image captured by a stereo camera, or It may be the distance between the stereo camera and the subject calculated from the parallax.

奥行き変換量算出部12は、まず、奥行きマップから奥行きの最小値と最大値を算出し、それぞれ入力奥行き最小値pmin、入力奥行き最大値pmaxとする。次に、入力奥行き最大値pmaxと入力奥行き最小値pminから次式で奥行き変換量kを算出する。   First, the depth conversion amount calculation unit 12 calculates the minimum value and the maximum value of the depth from the depth map, and sets them as the input depth minimum value pmin and the input depth maximum value pmax, respectively. Next, the depth conversion amount k is calculated from the maximum input depth value pmax and the minimum input depth value pmin by the following equation.

Figure 2015142260
Figure 2015142260

式(1)において、qmax、qminはそれぞれ出力奥行き最大値、出力奥行き最小値であり、それぞれ予め定めた定数である。ここで、出力奥行き最大値と出力奥行き最小値はそれぞれ、本画像処理装置の出力する奥行きマップの最大値と最小値を示す。それらの値は、例えば、表示装置が再生可能な奥行き範囲によって予め定められても良いし、ユーザが個別に設定しても良い。そして、奥行き変換量算出部12は奥行きマップ、入力奥行き最小値、出力奥行き最小値、奥行き変換量を奥行き変換部13へ出力する。   In Expression (1), qmax and qmin are the maximum output depth value and the minimum output depth value, respectively, and are predetermined constants. Here, the maximum output depth value and the minimum output depth value indicate the maximum value and the minimum value of the depth map output from the image processing apparatus, respectively. These values may be determined in advance according to a depth range that can be reproduced by the display device, or may be set individually by the user. Then, the depth conversion amount calculation unit 12 outputs the depth map, the input depth minimum value, the output depth minimum value, and the depth conversion amount to the depth conversion unit 13.

奥行き変換部13は、奥行き構造マップ生成部131と、切断面画像生成部132と、切断処理部133とを備える。奥行き構造マップ生成部131は、奥行きマップP(x,y)から奥行き構造マップZ(x,y,d)を生成する。(x,y)は画素の位置座標を示し、dはその画素の奥行きを示す。m、nをそれぞれ奥行きマップの横画素数、縦画素数とすると、奥行き構造マップZ(x,y,d)は、0≦x≦m−1、0≦y≦n−1、pmin≦d≦pmaxの範囲で定義される3次元配列である。   The depth conversion unit 13 includes a depth structure map generation unit 131, a cut surface image generation unit 132, and a cutting processing unit 133. The depth structure map generation unit 131 generates a depth structure map Z (x, y, d) from the depth map P (x, y). (X, y) indicates the position coordinate of the pixel, and d indicates the depth of the pixel. If m and n are the number of horizontal pixels and the number of vertical pixels, respectively, the depth structure map Z (x, y, d) is 0 ≦ x ≦ m−1, 0 ≦ y ≦ n−1, and pmin ≦ d. It is a three-dimensional array defined in the range of ≦ pmax.

奥行き構造マップZ(x,y,d)は次式で算出され、座標(x,y)の画素とその近傍に、奥行きがdである画素が存在する頻度を表すものである。ただし、頻度そのものではなく、g(i,j)による重みづけを行っている。   The depth structure map Z (x, y, d) is calculated by the following equation, and represents the frequency with which a pixel having a depth of d exists in the vicinity of the pixel at the coordinate (x, y) and the vicinity thereof. However, weighting is performed not by the frequency itself but by g (i, j).

Figure 2015142260
Figure 2015142260

w1、w2、σは予め定めた正の定数である。奥行き構造マップ生成部131は、得られた奥行き構造マップZ(x,y,d)を切断面画像生成部132に出力する。   w1, w2, and σ are predetermined positive constants. The depth structure map generation unit 131 outputs the obtained depth structure map Z (x, y, d) to the cut surface image generation unit 132.

切断面画像生成部132は切断面の位置を表わす画像である切断面画像を生成する。切断面とは、奥行き構造マップZ(x,y,d)をd軸と垂直方向の面で切断する面である。   The cut surface image generation unit 132 generates a cut surface image that is an image representing the position of the cut surface. The cutting plane is a plane that cuts the depth structure map Z (x, y, d) along a plane perpendicular to the d-axis.

図2Aは切断面の例を示す図であり、符号21は奥行き構造マップが存在する範囲、符号22は切断面である。切断面は平面である必要はなく、各座標(x,y)について1つのdの位置を通り、座標(x,y)によって異なるdの位置を通ってよい。ただし、座標(x,y)の画素とそれに隣接する画素の間では、切断面が通るdの値の差分絶対値が閾値以下であるという条件を満たすものとする。   FIG. 2A is a diagram illustrating an example of a cut surface. Reference numeral 21 denotes a range where a depth structure map exists, and reference numeral 22 denotes a cut surface. The cutting plane does not need to be a plane, and may pass through one d position for each coordinate (x, y) and different d positions depending on the coordinates (x, y). However, it is assumed that the condition that the difference absolute value of the value of d passing through the cut surface is equal to or less than the threshold value between the pixel at the coordinate (x, y) and the pixel adjacent thereto.

この条件のもとで、全ての(x,y)での奥行き構造マップZ(x,y,d)の値の和が最も小さくなるように切断面を算出する。すなわち、(x,y)とその近傍に奥行きdを持つ画素が存在する頻度が少ないdを通るように切断面を算出する。   Under this condition, the cutting plane is calculated so that the sum of the values of the depth structure map Z (x, y, d) at all (x, y) is minimized. That is, the cutting plane is calculated so that it passes through (x, y) and d where the frequency of pixels having the depth d exists in the vicinity thereof.

なお、切断面を算出するとは、各座標(x,y)について切断面が通るdの値を求めることである。各座標(x,y)について切断面が通るdの値を保持した画像を切断面画像A(x,y)とする。切断面画像の生成はまずy=0について行い、その後y=1からn−1まで順に行う。各yについて評価値U(x,y,d)を求め、動的計画法を用いて切断面画像を生成する。   Note that calculating the cut plane means obtaining a value of d through which the cut plane passes for each coordinate (x, y). An image holding the value of d through which the cut surface passes for each coordinate (x, y) is defined as a cut surface image A (x, y). The cut surface image is first generated for y = 0 and then sequentially from y = 1 to n-1. An evaluation value U (x, y, d) is obtained for each y, and a cut surface image is generated using dynamic programming.

y=0における処理は以下のように行う。まず、評価値U(x,0,d)をx=0から順にx=m−1まで次式で算出する。   The process at y = 0 is performed as follows. First, the evaluation value U (x, 0, d) is calculated by the following equation from x = 0 to x = m−1 in order.

Figure 2015142260
Figure 2015142260

このとき、minで最小を与えたd’の値を配列B(x,y,d)に保存しておく。α、βは正の定数である。次に、x=m−1についてU(m−1,0,d)の中から最小の値を与えるdをδとし、δを座標(m−1,0)での切断面とする。つまり、A(m−1,0)=δとする。そして、x=m−2からx=0まで順にA(x,0)=B(x−1,0,A(x−1,0))によって切断面を算出する。   At this time, the value of d 'given the minimum value in min is stored in the array B (x, y, d). α and β are positive constants. Next, d that gives the minimum value from U (m−1, 0, d) for x = m−1 is δ, and δ is a cut surface at coordinates (m−1, 0). That is, A (m-1, 0) = δ. Then, the cutting plane is calculated by A (x, 0) = B (x-1, 0, A (x-1, 0)) in order from x = m-2 to x = 0.

y>0における処理は以下のように行う。まず、評価値U(x,y,d)をx=0から順にx=m−1まで次式で算出する。   The process at y> 0 is performed as follows. First, the evaluation value U (x, y, d) is calculated by the following equation from x = 0 to x = m−1 in order.

Figure 2015142260
Figure 2015142260

Cは無限大とみなせる大きい定数である。このとき、minで最小をとったd’の値を配列B(x,y,d)に保存しておく。次に、x=m−1についてU(m−1,y,d)の中から最小の値を与えるdをδとし、δを座標(m−1,y)での切断面とする。つまり、A(m−1,y)=δとする。そして、x=m−2からx=0まで順にA(x,y)=B(x−1,y,A(x−1,y))によって切断面を算出する。   C is a large constant that can be regarded as infinite. At this time, the value of d ′ that is the minimum in min is stored in the array B (x, y, d). Next, d that gives the minimum value from U (m−1, y, d) for x = m−1 is δ, and δ is a cut surface at coordinates (m−1, y). That is, A (m−1, y) = δ. Then, the cutting plane is calculated by A (x, y) = B (x-1, y, A (x-1, y)) in order from x = m-2 to x = 0.

この手順を各yについて順に行うことで、全ての座標(x,y)について切断面画像A(x,y)の値が算出される。最後に、奥行き構造マップZ(x,y,d)に対し、d=A(x,y)を満たす全ての(x,y,d)についてZ(x,y,d)=Cとする。Cは無限大とみなせる大きい定数である。   By performing this procedure in order for each y, the value of the cut surface image A (x, y) is calculated for all coordinates (x, y). Finally, with respect to the depth structure map Z (x, y, d), Z (x, y, d) = C is set for all (x, y, d) satisfying d = A (x, y). C is a large constant that can be regarded as infinite.

このようにして得られた切断面画像は、各座標(x,y)について、A(x,y)とA(x−1,y)との差分絶対値がα以下になっている。これは、式(3)、(4)において、minをとる範囲をd+α≦d’≦d−αに制限したことによる効果である。また、各座標(x,y)について、A(x,y)とA(x,y−1)との差分絶対値がα以下になっている。これは、式(4)において、|d−A(x,y−1)|>αの場合に評価値をCとしたことによる効果である。つまり、このようにして得られた切断面画像は、隣接する画素間で連続した値をもつという性質をもつ。   In the cut surface image thus obtained, the absolute value of the difference between A (x, y) and A (x-1, y) is not more than α for each coordinate (x, y). This is an effect obtained by limiting the range in which min is taken to d + α ≦ d ′ ≦ d−α in the equations (3) and (4). For each coordinate (x, y), the absolute difference between A (x, y) and A (x, y-1) is less than or equal to α. This is an effect obtained by setting the evaluation value to C when | d−A (x, y−1) |> α in Expression (4). That is, the cut surface image obtained in this way has a property of having continuous values between adjacent pixels.

以上で説明した切断面画像生成部132の処理は、奥行き変換量kが1の場合のものである。k>1の場合は、この処理をk回繰り返し、k枚の切断面画像を算出する。そして、得られたk枚の切断面画像を切断処理部133へ出力する。   The processing of the cut surface image generation unit 132 described above is for the case where the depth conversion amount k is 1. If k> 1, this process is repeated k times to calculate k cut surface images. Then, the obtained k cut surface images are output to the cutting processing unit 133.

切断処理部133では、奥行きマップP(x,y)から変換後奥行きマップQ(x,y)を算出する。k=1の場合は、次式を用いて算出する。   The cutting processing unit 133 calculates a converted depth map Q (x, y) from the depth map P (x, y). When k = 1, calculation is performed using the following equation.

Figure 2015142260
Figure 2015142260

図2Bは、式(5)の概要を説明するための図である。(a)は、y=yの時、(b)はy=yのときの図面である。この図では、それぞれy=y、y=yの場合のP(x、y)とA(x、y)およびQ(x、y)との関係の2次元図を示す。本実施の形態では、P(x、y)がA(x、y)によって分けられた2つ領域X(ハッチを付した領域),Y(ハッチが付されていない領域)において異なる処理が行われ、上記の式(5)では領域Yに存在するP(x、y)はd=1だけ変化してQ(x,y)となることが示されている。尚、図2Bにおいて、●はP(x,y)を、▲はQ(x、y)を、×はA(x、y)をそれぞれ示しており、x,yは、それぞれの画素の座標を示している。このように、連続的な値は取らず離散的な値となる。 FIG. 2B is a diagram for explaining the outline of Expression (5). (A) is a drawing when y = y 1 and (b) is a drawing when y = y 2 . This figure shows a two-dimensional diagram of the relationship between P (x, y) and A (x, y) and Q (x, y) when y = y 1 and y = y 2 , respectively. In the present embodiment, different processing is performed in two areas X (hatched area) and Y (unhatched area) where P (x, y) is divided by A (x, y). In the above equation (5), it is shown that P (x, y) existing in the region Y changes by d = 1 to become Q (x, y). In FIG. 2B, ● represents P (x, y), ▲ represents Q (x, y), x represents A (x, y), and x and y represent the coordinates of each pixel. Is shown. Thus, a continuous value is not taken and it becomes a discrete value.

k>1の場合は、まず1枚目の切断面画像を式(5)のA(x,y)に入力してQ(x,y)を算出する。そして、得られたQ(x,y)を式(5)のP(x,y)に代入し、2枚目の切断面画像を式(5)のA(x,y)に代入して再度Q(x,y)を算出する。この処理を繰り返し、k枚の切断面画像を用いて式(5)の計算をk回行う。これにより、奥行きの最大値がkだけ小さくなる。   In the case of k> 1, first, the first cut surface image is input to A (x, y) of Expression (5) to calculate Q (x, y). Then, the obtained Q (x, y) is substituted into P (x, y) in equation (5), and the second cut surface image is substituted into A (x, y) in equation (5). Q (x, y) is calculated again. This process is repeated, and the calculation of Expression (5) is performed k times using k cut surface images. As a result, the maximum depth value is reduced by k.

切断処理部133では最後に、得られたQ(x,y)について、全ての座標(x,y)において、qmin−pminを加算する。これにより、最小値と最大値がそれぞれqminとqmaxになる変換後奥行きマップQ(x,y)が生成される。   Finally, the cutting processing unit 133 adds qmin−pmin to all the coordinates (x, y) for the obtained Q (x, y). As a result, a post-conversion depth map Q (x, y) is generated in which the minimum value and the maximum value are qmin and qmax, respectively.

上記の式(5)を用いた処理により、奥行きマップにおいて、切断面画像における同じ座標の画素の値より奥行き値が大きい画素の奥行き値を変更することで奥行きマップの奥行き範囲が縮小される。なお、式(5)の代わりに式(6)を用いてもよい。   By the processing using the above formula (5), the depth range of the depth map is reduced by changing the depth value of a pixel having a depth value larger than the pixel value of the same coordinate in the cut surface image in the depth map. Note that equation (6) may be used instead of equation (5).

Figure 2015142260
Figure 2015142260

式(6)の場合、奥行きの最小値を1だけ大きくする効果がある。奥行きマップにおいて、切断面画像における同じ座標の画素の値より奥行き値が小さい画素の奥行き値を変更することで奥行きマップの奥行き範囲が縮小される。k>1の場合は式(6)の処理をk回行った後、得られたQ(x,y)について、全ての座標(x,y)において、qmax−pmaxを加算する。これにより、最小値と最大値がそれぞれqminとqmaxになる変換後奥行きマップQ(x,y)が生成される。   In the case of Expression (6), there is an effect of increasing the minimum value of depth by 1. In the depth map, the depth range of the depth map is reduced by changing the depth value of a pixel whose depth value is smaller than the pixel value of the same coordinate in the cut surface image. In the case of k> 1, after performing the process of Expression (6) k times, qmax−pmax is added to all the coordinates (x, y) for the obtained Q (x, y). As a result, a post-conversion depth map Q (x, y) is generated in which the minimum value and the maximum value are qmin and qmax, respectively.

最後に、奥行き変換部13は生成した変換後奥行きマップQ(x,y)を出力部14に出力する。出力部14は、変換後奥行きマップQ(x,y)を画像処理装置10から出力する。   Finally, the depth conversion unit 13 outputs the generated post-conversion depth map Q (x, y) to the output unit 14. The output unit 14 outputs the converted depth map Q (x, y) from the image processing apparatus 10.

なお、切断処理部133の式(5)において、P(x,y)から1を引いてP(x,y)−1としているが、引く量は1に限定するものではなく、予め定めた所定の量rを引いてP(x,y)−rとしてもよい。同様に式(6)において、P(x,y)に1を加えてP(x,y)+1としているが、加える量は1に限定するものではなく、予め定めた所定の量rを加えてP(x,y)+rとしてもよい。このようにrを用いる場合は、切断面画像生成部132の処理を繰り返す回数はk/r回とし、k/r枚の切断面画像を生成する。また、切断処理部133の処理を繰り返す回数をk/r回とする。   In Expression (5) of the cutting processing unit 133, 1 is subtracted from P (x, y) to obtain P (x, y) -1, but the amount to be subtracted is not limited to 1 and is determined in advance. A predetermined amount r may be subtracted to obtain P (x, y) -r. Similarly, in equation (6), P (x, y) is incremented by 1 to obtain P (x, y) +1, but the amount to be added is not limited to 1, and a predetermined amount r is added. P (x, y) + r may be used. When r is used in this way, the number of times the process of the cut surface image generation unit 132 is repeated is k / r times, and k / r cut surface images are generated. In addition, the number of times the processing of the cutting processing unit 133 is repeated is k / r times.

次に、本実施形態の画像処理装置10が行う画像処理の手順について図3を用いて説明する。画像処理装置10は、奥行きマップ入力部11の機能により、奥行きマップの入力を受け付けると(ステップS1)、奥行き変換量算出部12の機能により奥行き変換量を算出する(ステップS2)。次に、奥行き構造マップ生成部131の機能により奥行き構造マップを生成する(ステップS3)。そして、切断面画像生成部132の機能により奥行き変換量で定められた枚数だけ切断面画像を算出する(ステップS4)。その後、切断処理部133の機能により切断処理を実行し、変換後奥行きマップを算出する(ステップS5)。最後に、出力部14の機能により変換後奥行きマップを出力する(ステップS6)。   Next, the procedure of image processing performed by the image processing apparatus 10 according to the present embodiment will be described with reference to FIG. When receiving the input of the depth map by the function of the depth map input unit 11 (step S1), the image processing apparatus 10 calculates the depth conversion amount by the function of the depth conversion amount calculation unit 12 (step S2). Next, a depth structure map is generated by the function of the depth structure map generation unit 131 (step S3). Then, the number of cut surface images calculated by the depth conversion amount is calculated by the function of the cut surface image generation unit 132 (step S4). Thereafter, the cutting process is executed by the function of the cutting processing unit 133, and a post-conversion depth map is calculated (step S5). Finally, a post-conversion depth map is output by the function of the output unit 14 (step S6).

以上、本実施形態によれば、奥行きの存在頻度がほぼ一様な画像の場合でも、奥行き範囲を縮小することが可能である。近傍にその奥行き値をもつ画素が存在する頻度が小さい奥行き値として生成された切断面画像を用いるため、被写体内の奥行き分布への影響が小さく、被写体内の奥行き分布を保つことができる。さらに、隣接する画素間で連続した値をもつ切断面画像を用いるため、奥行きマップの局所的な変化への影響が小さく、被写体内の奥行き分布を保つことができる。本実施形態による画像処理装置は、例えば表示装置の特性に合わせた立体表示を行うための奥行き変換に用いることができる。   As described above, according to the present embodiment, the depth range can be reduced even in the case of an image having a substantially uniform depth existence frequency. Since a cut surface image generated as a depth value with a low frequency of pixels having the depth value in the vicinity is used, the influence on the depth distribution in the subject is small, and the depth distribution in the subject can be maintained. Furthermore, since a cut surface image having continuous values between adjacent pixels is used, the influence on the local change in the depth map is small, and the depth distribution in the subject can be maintained. The image processing apparatus according to the present embodiment can be used for depth conversion for performing stereoscopic display in accordance with the characteristics of the display device, for example.

本実施形態において、切断処理部133の式(5)の中で、奥行きマップP(x,y)と切断面画像A(x,y)の画素値を各画素において比較して場合分けを行っている。この、場合分けによって奥行きマップの画素値が切断面画像の画素値よりも大きい画素を抽出する処理は、奥行きマップを二つの領域に分割する領域分割に相当する。なお、奥行きは深度の一例であり、奥行きマップは深度画像に相当する。奥行き構造マップ生成部131と切断面画像生成部132と、切断処理部133の式(5)または(6)で場合分けを行うまでの部分が、本実施形態による画像処理装置の領域分割手段であり、切断処理部133の式(5)または(6)で奥行きを所定の量だけ変更する部分が深度変更手段に相当する。   In the present embodiment, in Expression (5) of the cutting processing unit 133, the pixel values of the depth map P (x, y) and the cut surface image A (x, y) are compared for each pixel to perform case classification. ing. The process of extracting pixels whose pixel values of the depth map are larger than the pixel values of the cut surface image according to the case division corresponds to region division that divides the depth map into two regions. Depth is an example of depth, and the depth map corresponds to a depth image. The part of the depth structure map generation unit 131, the cut surface image generation unit 132, and the cutting processing unit 133 until the case is divided by the expression (5) or (6) is the area dividing unit of the image processing apparatus according to this embodiment. Yes, the part where the depth is changed by a predetermined amount in the expression (5) or (6) of the cutting processing unit 133 corresponds to the depth changing means.

尚、深度(奥行き等)の変更に関しては、下記(7)式のように、二つの領域の少なくともいずれか一方において深度を所定の量だけ変更することができるようにしてもよい。   Regarding the change of the depth (depth, etc.), the depth may be changed by a predetermined amount in at least one of the two areas as in the following equation (7).

Figure 2015142260
Figure 2015142260

また、本実施形態に係る画像処理装置の変形例として、奥行きマップ入力部11において、奥行きマップと同じ領域の被写体の輝度値を記した輝度画像I(x,y)をさらに入力してもよい。輝度画像と奥行きマップの画像サイズが異なる場合は、予め輝度画像のサイズを奥行きマップのサイズと同じになるように変換しておく。そして、輝度画像I(x,y)を奥行きマップと共に奥行き変換部13へ出力する。奥行き構造マップ生成部131において、奥行き構造マップZ(x,y,d)を生成する際に、式(2)の代わりに次式を用いる。   As a modification of the image processing apparatus according to the present embodiment, the depth map input unit 11 may further input a luminance image I (x, y) describing the luminance value of the subject in the same area as the depth map. . When the luminance image and the depth map have different image sizes, the luminance image size is converted in advance to be the same as the depth map size. The luminance image I (x, y) is output to the depth conversion unit 13 together with the depth map. When the depth structure map generation unit 131 generates the depth structure map Z (x, y, d), the following expression is used instead of the expression (2).

Figure 2015142260
Figure 2015142260

f(x,y,d)とg(i,j)は式(2)と同様であり、式(8)のh(x,y)は輝度画像のエッジの強さを表わすものである。このようにして得られた奥行き構造マップZ(x,y,d)を用いて、切断面画像生成部132と切断処理部133で上述した処理と同じ処理を行う。このように輝度画像のエッジを用いることで、エッジの近傍領域において奥行きマップの局所的な変化への影響をさらに小さくすることができる。   f (x, y, d) and g (i, j) are the same as in equation (2), and h (x, y) in equation (8) represents the intensity of the edge of the luminance image. Using the depth structure map Z (x, y, d) obtained in this way, the same processing as that described above is performed by the cut surface image generation unit 132 and the cutting processing unit 133. By using the edge of the luminance image in this way, it is possible to further reduce the influence on the local change in the depth map in the region near the edge.

(第2の実施形態)
本発明の第2の実施形態は、輝度値の範囲を変換する輝度変換処理に関するものである。図4は、本発明の第2の実施形態に係る画像処理装置の一構成例を示す機能ブロック図である。本実施形態の画像処理装置40は輝度画像を入力し、輝度変換処理を行い、変換後輝度画像を出力する。図4で示したように、画像処理装置40は、輝度画像入力部41と、輝度変換量算出部42と、輝度変換部43と、出力部44とを有している。第一の実施形態の画像処理装置に対して入力を奥行きマップから輝度画像に置きかえたものであり、処理の内容は同様である。
(Second Embodiment)
The second embodiment of the present invention relates to a luminance conversion process for converting a range of luminance values. FIG. 4 is a functional block diagram showing a configuration example of an image processing apparatus according to the second embodiment of the present invention. The image processing apparatus 40 according to the present embodiment inputs a luminance image, performs luminance conversion processing, and outputs a converted luminance image. As illustrated in FIG. 4, the image processing apparatus 40 includes a luminance image input unit 41, a luminance conversion amount calculation unit 42, a luminance conversion unit 43, and an output unit 44. In the image processing apparatus of the first embodiment, the input is replaced with a luminance image from the depth map, and the contents of the processing are the same.

以下、画像処理装置40における各部の詳細を説明する。輝度画像入力部41は、輝度画像を入力し、輝度変換量算出部42へ出力する。   Hereinafter, details of each unit in the image processing apparatus 40 will be described. The luminance image input unit 41 inputs a luminance image and outputs it to the luminance conversion amount calculation unit 42.

輝度変換量算出部42は、まず、輝度画像から輝度の最小値と最大値を算出し、それぞれ入力輝度最小値pmin、入力輝度最大値pmaxとする。次に、入力輝度最大値pmaxと入力輝度最小値pminから次式で輝度変換量kを算出する。   First, the luminance conversion amount calculating unit 42 calculates the minimum value and the maximum value of luminance from the luminance image, and sets the minimum value pmin and the maximum input luminance value pmax, respectively. Next, the luminance conversion amount k is calculated from the maximum input luminance value pmax and the minimum input luminance value pmin by the following equation.

Figure 2015142260
Figure 2015142260

ここでqmax、qminはそれぞれ出力輝度最大値、出力輝度最小値である。出力輝度最大値、出力輝度最小値はそれぞれ予め定めた定数である。そして、輝度変換量算出部42は輝度画像、入力輝度最小値、出力輝度最小値、輝度変換量を輝度変換部43へ出力する。   Here, qmax and qmin are an output luminance maximum value and an output luminance minimum value, respectively. The maximum output luminance value and the minimum output luminance value are predetermined constants. Then, the luminance conversion amount calculation unit 42 outputs the luminance image, the input luminance minimum value, the output luminance minimum value, and the luminance conversion amount to the luminance conversion unit 43.

輝度変換部43は、輝度構造マップ生成部431と、切断面画像生成部432と、切断処理部433とを備える。輝度構造マップ生成部431は、輝度画像P(x,y)から輝度構造マップZ(x,y,d)を生成する。(x,y)は画素の座標を示し、dはその画素の輝度値を示す。m、nをそれぞれ輝度画像の横画素数、縦画素数とすると、輝度構造マップZ(x,y,d)は、0≦x≦m−1、0≦y≦n−1、pmin≦d≦pmaxの範囲で定義される3次元配列である。   The luminance conversion unit 43 includes a luminance structure map generation unit 431, a cut surface image generation unit 432, and a cutting processing unit 433. The luminance structure map generation unit 431 generates a luminance structure map Z (x, y, d) from the luminance image P (x, y). (X, y) indicates the coordinates of the pixel, and d indicates the luminance value of the pixel. When m and n are the number of horizontal pixels and the number of vertical pixels, respectively, the luminance structure map Z (x, y, d) is 0 ≦ x ≦ m−1, 0 ≦ y ≦ n−1, and pmin ≦ d. It is a three-dimensional array defined in the range of ≦ pmax.

輝度構造マップZ(x,y,d)は式(2)で算出され、座標(x,y)の画素とその近傍に、輝度がdである画素が存在する頻度を表すものである。輝度構造マップ生成部431は、得られた輝度構造マップZ(x,y,d)を切断面画像生成部432に出力する。   The luminance structure map Z (x, y, d) is calculated by the equation (2), and represents the frequency of the pixel having the luminance d in the vicinity of the pixel at the coordinate (x, y) and the vicinity thereof. The luminance structure map generation unit 431 outputs the obtained luminance structure map Z (x, y, d) to the cut surface image generation unit 432.

切断面画像生成部432は切断面の位置を表わす画像である切断面画像を生成する。切断面とは、輝度構造マップZ(x,y,d)をd軸と垂直方向の面で切断する面である。実施形態1の切断面と同様に、切断面は平面である必要はなく、各座標(x,y)について1つのdの位置を通り、座標(x,y)によって異なるdの位置を通ってよい。ただし、座標(x,y)の画素とそれに隣接する画素の間では、切断面が通るdの値の差分絶対値が閾値以下であるという条件を満たすものとする。   The cut surface image generation unit 432 generates a cut surface image that is an image representing the position of the cut surface. The cut plane is a plane that cuts the luminance structure map Z (x, y, d) along a plane perpendicular to the d axis. Similar to the cut surface of the first embodiment, the cut surface does not have to be a plane, and passes through one d position for each coordinate (x, y) and passes through a different d position depending on the coordinates (x, y). Good. However, it is assumed that the condition that the difference absolute value of the value of d passing through the cut surface is equal to or less than the threshold value between the pixel at the coordinate (x, y) and the pixel adjacent thereto.

この条件のもとで、全ての(x,y)での輝度構造マップZ(x,y,d)の値の和が最も小さくなるように切断面を算出する。すなわち、(x,y)とその近傍に輝度値dを持つ画素が存在する頻度が少ないdを通るように切断面を算出する。   Under this condition, the cutting plane is calculated so that the sum of the values of the luminance structure map Z (x, y, d) at all (x, y) is minimized. That is, the cutting plane is calculated so that (x, y) and a pixel having a luminance value d in the vicinity thereof pass through d where the frequency is low.

次に、第1の実施形態と同様の処理によって切断面画像A(x,y)をk枚生成する。このようにして得られた切断面画像は、実施形態1の切断面画像と同様、隣接する画素間で連続した値をもつという性質をもつ。そして、得られたk枚の切断面画像を切断処理部433へ出力する。   Next, k cut surface images A (x, y) are generated by the same processing as in the first embodiment. The cut surface image obtained in this way has the property of having continuous values between adjacent pixels, like the cut surface image of the first embodiment. Then, the obtained k cut surface images are output to the cutting processing unit 433.

切断処理部433では、輝度マップP(x,y)から変換後輝度マップQ(x,y)を算出する。実施形態1と同様の手法で行い、式(5)を用いた場合は、輝度画像において、切断面画像における同じ座標の画素の値より輝度が大きい画素の輝度を変更することで輝度画像の輝度範囲が縮小される。一方、式(6)を用いた場合は、輝度画像において、切断面画像における同じ座標の画素の値より輝度が小さい画素の輝度を変更することで輝度画像の輝度範囲が縮小される。   The cutting processing unit 433 calculates a converted luminance map Q (x, y) from the luminance map P (x, y). When the same method as that of the first embodiment is used and Expression (5) is used, the luminance of the luminance image is changed by changing the luminance of the pixel whose luminance is larger than the value of the pixel at the same coordinate in the cut surface image. The range is reduced. On the other hand, when Expression (6) is used, the luminance range of the luminance image is reduced by changing the luminance of the pixel whose luminance is lower than the pixel value of the same coordinate in the cut surface image in the luminance image.

最後に、輝度変換部43は生成した変換後輝度画像Q(x,y)を出力部44に出力する。出力部44は、変換後輝度画像Q(x,y)を画像処理装置40から出力する。   Finally, the luminance conversion unit 43 outputs the generated converted luminance image Q (x, y) to the output unit 44. The output unit 44 outputs the converted luminance image Q (x, y) from the image processing device 40.

次に、本実施形態の画像処理装置40が行う画像処理の手順について図5を用いて説明する。画像処理装置40は、輝度画像入力部41の機能により、輝度画像の入力を受け付けると(ステップS1)、輝度変換量算出部42の機能により輝度変換量を算出する(ステップS2)。次に、輝度構造マップ生成部431の機能により輝度構造マップを生成する(ステップS3)。そして、切断面画像生成部432の機能により輝度変換量で定められた枚数だけ切断面画像を算出する(ステップS4)。その後、切断処理部433の機能により切断処理を実行し、変換後輝度画像を算出する(ステップS5)。最後に、出力部44の機能により変換後輝度画像を出力する(ステップS6)。   Next, the procedure of image processing performed by the image processing apparatus 40 according to the present embodiment will be described with reference to FIG. When receiving the input of the luminance image by the function of the luminance image input unit 41 (Step S1), the image processing apparatus 40 calculates the luminance conversion amount by the function of the luminance conversion amount calculation unit 42 (Step S2). Next, a luminance structure map is generated by the function of the luminance structure map generation unit 431 (step S3). Then, the cut surface image is calculated by the number of sheets determined by the luminance conversion amount by the function of the cut surface image generation unit 432 (step S4). Thereafter, a cutting process is executed by the function of the cutting processing unit 433, and a converted luminance image is calculated (step S5). Finally, the converted luminance image is output by the function of the output unit 44 (step S6).

以上、本実施形態によれば、輝度の存在頻度がほぼ一様な画像の場合でも、輝度範囲を縮小することが可能である。近傍にその輝度値をもつ画素が存在する頻度が小さい輝度値として生成された切断面画像を用いるため、被写体内の輝度分布への影響が小さく、被写体内の輝度分布を保つことができる。さらに、隣接する画素間で連続した値をもつ切断面画像を用いるため、輝度画像の局所的な変化への影響が小さく、被写体内の輝度分布を保つことができる。本装置は例えば表示装置の特性に合わせた画像表示を行うための輝度変換に用いることができる。   As described above, according to the present embodiment, it is possible to reduce the luminance range even in the case of an image having a substantially uniform luminance frequency. Since a cut surface image generated as a luminance value with a low frequency of pixels having the luminance value in the vicinity is used, the influence on the luminance distribution in the subject is small, and the luminance distribution in the subject can be maintained. Furthermore, since a cut surface image having a continuous value between adjacent pixels is used, the influence on the local change of the luminance image is small, and the luminance distribution in the subject can be maintained. This apparatus can be used, for example, for luminance conversion for displaying an image in accordance with the characteristics of the display apparatus.

本実施形態において、切断処理部433の式(5)の中で、輝度画像P(x,y)と切断面画像A(x,y)の画素値を各画素において比較して場合分けを行っている。この、場合分けによって輝度画像の画素値が切断面画像の画素値よりも大きい画素を抽出する処理は、輝度画像を二つの領域に分割する領域分割に相当する。なお、輝度は深度の一つであり、輝度画像は深度画像に相当する。   In the present embodiment, in Expression (5) of the cutting processing unit 433, the pixel values of the luminance image P (x, y) and the cut surface image A (x, y) are compared for each pixel to perform case classification. ing. This process of extracting a pixel whose pixel value of the luminance image is larger than the pixel value of the cut surface image by dividing into cases corresponds to area division that divides the luminance image into two areas. Note that the luminance is one of the depths, and the luminance image corresponds to the depth image.

また、輝度構造マップ生成部431と切断面画像生成部432と、切断処理部433の式(5)または(6)で場合分けを行うまでの部分が、本画像処理装置の領域分割手段であり、切断処理部433の式(5)または(6)輝度を所定の量だけ変更する部分が深度変更手段に相当する。   In addition, the area dividing unit of the image processing apparatus is a part of the luminance structure map generation unit 431, the cut surface image generation unit 432, and the cutting processing unit 433 until the case is divided by the expression (5) or (6). The part of the cutting processing unit 433 that changes the brightness by the predetermined amount corresponds to the depth changing means.

尚、第1の実施形態の変形例の内容は、第2の実施形態にも適用可能である。   Note that the content of the modification of the first embodiment can also be applied to the second embodiment.

以上に説明したように、本実施の形態によれば、深度の存在頻度がほぼ一様な画像の場合でも、被写体内の深度分布を保ったまま深度範囲を縮小することができる。   As described above, according to the present embodiment, it is possible to reduce the depth range while maintaining the depth distribution in the subject even in the case of an image having a substantially uniform depth frequency.

本明細書では、奥行きマップを構成する各画素の奥行き値、輝度画像を構成する各画素の輝度値を例にして説明したが、本発明は、これらに限定されることはなく、画像の各画素に割り当てられた数値を対象とすることができる。また、深度の縮小のほかに拡大などの調整に利用することも可能である。   In this specification, the depth value of each pixel constituting the depth map and the luminance value of each pixel constituting the luminance image have been described as examples. However, the present invention is not limited thereto, and each of the image Numerical values assigned to pixels can be targeted. It can also be used for adjustments such as enlargement in addition to depth reduction.

また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。   Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.

上記の処理および制御は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)によるソフトウェア処理、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)によるハードウェア処理によって実現することができる。   The above processing and control can be performed by software processing using a CPU (Central Processing Unit) or GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), or FPGA (Field Programmable Gate) hardware.

また、上記の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。   In the above-described embodiment, the configuration and the like illustrated in the accompanying drawings are not limited to these, and can be changed as appropriate within the scope of the effects of the present invention. In addition, various modifications can be made without departing from the scope of the object of the present invention.

また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention. In addition, a program for realizing the functions described in the present embodiment is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute processing of each unit. May be performed. The “computer system” here includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the above-described functions, or may be a program that can realize the above-described functions in combination with a program already recorded in a computer system. At least a part of the functions may be realized by hardware such as an integrated circuit.

本発明は、以下の開示を含む。   The present invention includes the following disclosure.

(付記)
(1)深度画像の深度範囲を縮小する画像処理装置であって、前記深度画像を二つの領域に分割する領域分割部と、前記二つの領域の少なくとも一方において深度を所定の量だけ変更する深度変更部と、を有することを特徴とする画像処理装置。
(Appendix)
(1) An image processing apparatus that reduces a depth range of a depth image, and an area dividing unit that divides the depth image into two areas, and a depth that changes a depth by a predetermined amount in at least one of the two areas. An image processing apparatus comprising: a changing unit;

上記によれば、深度画像を、深度を適切に低減することができる。   According to the above, the depth of the depth image can be appropriately reduced.

(2)前記領域分割部は、前記深度画像を変換して隣接する画素間で連続した値をもつ切断面画像を生成する切断面画像生成部と、前記深度画像と前記切断面画像の画素値を対応する各画素において比較し、前記深度画像の画素値が前記切断面画像の画素値より大きい画素を抽出することで前記深度画像を二つの領域に分割する切断処理部とを有する ことを特徴とする(1)に記載の画像処理装置。 (2) The area dividing unit converts the depth image to generate a cut surface image having a continuous value between adjacent pixels, and the pixel values of the depth image and the cut surface image And a cutting processing unit that divides the depth image into two regions by extracting pixels whose pixel value of the depth image is larger than the pixel value of the cut surface image. The image processing apparatus according to (1).

上記により、切断面画像を適切に生成することができる。また、切断面画像により分割した領域を簡単に結合することができる。   As described above, the cut surface image can be appropriately generated. In addition, the regions divided by the cut surface image can be easily combined.

(3)さらに、前記深度画像から3次元の深度構造マップを生成する深度構造マップ生成部を有し、前記切断面画像生成部は、すべての画素において前記深度構造マップの値の和が最小となる深度値を求めることを特徴とする(2)に記載の画像処理装置。 (3) Further, it has a depth structure map generation unit that generates a three-dimensional depth structure map from the depth image, and the cut surface image generation unit has a minimum sum of values of the depth structure map in all pixels. The image processing apparatus according to (2), wherein a depth value is calculated.

(4)前記深度が立体画像の奥行きを表わすことを特徴とする(1)から(3)までのいずれか1に記載の画像処理装置。 (4) The image processing apparatus according to any one of (1) to (3), wherein the depth represents a depth of a stereoscopic image.

(5)前記深度が画像の輝度値を表わすことを特徴とする(1)から(3)までのいずれか1に記載の画像処理装置。 (5) The image processing apparatus according to any one of (1) to (3), wherein the depth represents a luminance value of the image.

(6)深度画像の深度範囲を縮小する画像処理方法であって、領域分割部手段が、前記深度画像を二つの領域に分割するステップと、深度変更手段部が、前記二つの領域の少なくとも一方において深度を所定の量だけ変更するステップと、を有することを特徴とする画像処理方法。 (6) An image processing method for reducing a depth range of a depth image, in which a region dividing unit divides the depth image into two regions, and a depth changing unit includes at least one of the two regions. And a step of changing the depth by a predetermined amount.

(7)コンピュータに(6)に記載の画像処理方法を実行させるためのプログラム。 (7) A program for causing a computer to execute the image processing method according to (6).

本発明は、画像処理装置に用いることができる。   The present invention can be used in an image processing apparatus.

10:画像処理装置
11:奥行きマップ入力部
12:奥行き変換量算出部
13: 奥行き変換部
14: 出力部
131:奥行き構造マップ生成部
132:切断面画像生成部
133:切断処理部
21:奥行き構造マップの範囲
22:切断面
40:画像処理装置
41:輝度画像入力部
42:輝度変換量算出部
43: 輝度変換部
44: 出力部
431:輝度構造マップ生成部
432:切断面画像生成部
433:切断処理部
10: Image processing device 11: Depth map input unit 12: Depth conversion amount calculation unit 13: Depth conversion unit 14: Output unit 131: Depth structure map generation unit 132: Cut surface image generation unit 133: Cut processing unit 21: Depth structure Map range 22: cut surface 40: image processing device 41: luminance image input unit 42: luminance conversion amount calculation unit 43: luminance conversion unit 44: output unit 431: luminance structure map generation unit 432: cut surface image generation unit 433: Cutting processing section

Claims (5)

深度画像の深度範囲を縮小する画像処理装置であって、
前記深度画像を二つの領域に分割する領域分割部と、
前記二つの領域の少なくとも一方において深度を所定の量だけ変更する深度変更部と、
を有することを特徴とする画像処理装置。
An image processing apparatus for reducing a depth range of a depth image,
An area dividing unit for dividing the depth image into two areas;
A depth changing unit that changes a depth by a predetermined amount in at least one of the two regions;
An image processing apparatus comprising:
前記領域分割部は、前記深度画像を変換して隣接する画素間で連続した値をもつ切断面画像を生成する切断面画像生成部と、前記深度画像と前記切断面画像の画素値を対応する各画素において比較し、前記深度画像の画素値が前記切断面画像の画素値より大きい画素を抽出することで前記深度画像を二つの領域に分割する切断処理部とを有する
ことを特徴とする請求項1に記載の画像処理装置。
The region dividing unit corresponds to a pixel value of the depth image and the cut surface image, and a cut surface image generation unit that converts the depth image to generate a cut surface image having a continuous value between adjacent pixels. And a cutting processing unit that divides the depth image into two regions by comparing each pixel and extracting a pixel whose pixel value of the depth image is larger than the pixel value of the cutting plane image. Item 8. The image processing apparatus according to Item 1.
さらに、前記深度画像から3次元の深度構造マップを生成する深度構造マップ生成部を有し、
前記切断面画像生成部は、すべての画素において前記深度構造マップの値の和が最小となる深度値を求めることを特徴とする請求項2に記載の画像処理装置。
And a depth structure map generating unit that generates a three-dimensional depth structure map from the depth image,
The image processing apparatus according to claim 2, wherein the cut surface image generation unit obtains a depth value that minimizes a sum of values of the depth structure map in all pixels.
前記深度が立体画像の奥行きを表わすことを特徴とする請求項1から3までのいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the depth represents a depth of a stereoscopic image. 前記深度が画像の輝度値を表わすことを特徴とする請求項1から3までのいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the depth represents a luminance value of the image.
JP2014014271A 2014-01-29 2014-01-29 Image processing system Pending JP2015142260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014014271A JP2015142260A (en) 2014-01-29 2014-01-29 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014014271A JP2015142260A (en) 2014-01-29 2014-01-29 Image processing system

Publications (1)

Publication Number Publication Date
JP2015142260A true JP2015142260A (en) 2015-08-03

Family

ID=53772351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014014271A Pending JP2015142260A (en) 2014-01-29 2014-01-29 Image processing system

Country Status (1)

Country Link
JP (1) JP2015142260A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812767A (en) * 2016-03-17 2016-07-27 北京邮电大学 Three-dimensional display depth adjusting method and device based on multi-frequency decomposition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812767A (en) * 2016-03-17 2016-07-27 北京邮电大学 Three-dimensional display depth adjusting method and device based on multi-frequency decomposition

Similar Documents

Publication Publication Date Title
US9875547B2 (en) Method and apparatus for adjusting stereoscopic image parallax
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
JP6147275B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
KR101502362B1 (en) Apparatus and Method for Image Processing
US8213708B2 (en) Adjusting perspective for objects in stereoscopic images
JP5665135B2 (en) Image display device, image generation device, image display method, image generation method, and program
US20140015830A1 (en) Image processing apparatus and method
TWI485646B (en) Map converting method, map converting apparatus, and computer program product for map conversion
JP2013005259A (en) Image processing apparatus, image processing method, and program
JP2016535353A (en) Object detection and segmentation method, apparatus, and computer program product
JP5886242B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017021759A (en) Image processor, image processing method and program
RU2020103459A (en) DEVICE AND METHOD FOR IMAGE FORMATION
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
JP6558365B2 (en) Image processing apparatus, image processing method, and program
US20150249812A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and recording medium
JP2015142260A (en) Image processing system
Islam et al. Warping-based stereoscopic 3d video retargeting with depth remapping
KR102122523B1 (en) Device for correcting depth map of three dimensional image and method for correcting the same
US20160148415A1 (en) Depth of field synthesis using ray tracing approximation
US20150215602A1 (en) Method for ajdusting stereo image and image processing device using the same
KR102469228B1 (en) Apparatus and method for generating virtual viewpoint image
US8842114B1 (en) System, method, and computer program product for adjusting a depth of displayed objects within a region of a display
KR101521213B1 (en) Apparatus for correcting stereoscopic image using visual discomfort model and method thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160816

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160822