JP2011216076A - Image processor, image processing method, and image display device - Google Patents

Image processor, image processing method, and image display device Download PDF

Info

Publication number
JP2011216076A
JP2011216076A JP2011024192A JP2011024192A JP2011216076A JP 2011216076 A JP2011216076 A JP 2011216076A JP 2011024192 A JP2011024192 A JP 2011024192A JP 2011024192 A JP2011024192 A JP 2011024192A JP 2011216076 A JP2011216076 A JP 2011216076A
Authority
JP
Japan
Prior art keywords
depth
image
information
depth information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011024192A
Other languages
Japanese (ja)
Other versions
JP5087684B2 (en
Inventor
Sunao Mishima
島 直 三
Yuji Mita
田 雄 志 三
Kenichi Shimoyama
山 賢 一 下
Ryusuke Hirai
井 隆 介 平
Masahiro Baba
場 雅 裕 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011024192A priority Critical patent/JP5087684B2/en
Publication of JP2011216076A publication Critical patent/JP2011216076A/en
Application granted granted Critical
Publication of JP5087684B2 publication Critical patent/JP5087684B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To generate a depth calculation method to be used to generate a parallax image representing unevenness of an object with a three-dimensional effect by depth distribution in a screen calculated by a plurality of methods.SOLUTION: A parallax image generation device includes a first depth calculating part, a second depth calculating part and a third combining part. The first depth calculating part includes a first estimating part for estimating distribution information in accordance with a specific pixel value pattern, a second estimating part for estimating distribution information on the basis of the movement of a first image, and a first combining part for combining the distribution information estimated by the first estimating part with the distribution information estimated by the second estimating part to generate first depth information. The second depth calculating part generates second depth information showing relative unevenness of each object in the first image. The third combining part combines the first depth information with the second depth information by a method different from the first combining part to generate third depth information.

Description

本開示は、画像処理装置、画像処理方法および画像表示装置に関する。   The present disclosure relates to an image processing device, an image processing method, and an image display device.

2次元画像(静止画像、動画像を含む)を元に画面内の奥行き情報を推定し、推定された奥行き情報に従って視差画像を生成する技術がある。   There is a technique for estimating depth information in a screen based on a two-dimensional image (including a still image and a moving image) and generating a parallax image according to the estimated depth information.

画像の高域成分に応じて複数の画面全体の奥行きを表したモデルをブレンドし、ブレンドされた奥行きモデルに画像の色信号の1つである赤信号を加算して最終的な奥行きを求める方法が開示されている(例えば、特許文献1)。また、3つの方法で画面全体の奥行きを推定し、推定された3つの奥行きを重み付き平均して最終的な奥行きを求める方法が開示されている(例えば、非特許文献1)。   A method of blending models representing the depth of the entire screen according to the high frequency components of the image, and adding the red signal that is one of the color signals of the image to the blended depth model to obtain the final depth Is disclosed (for example, Patent Document 1). Further, a method is disclosed in which the depth of the entire screen is estimated by three methods, and the final depth is obtained by weighted averaging of the three estimated depths (for example, Non-Patent Document 1).

特開2005-151534号JP 2005-151534 A

C.-C. Cheng, C.-T. Li, Y.-M. Tsai and L.-G. Chen, "A Quality-Scalable Depth-Aware Video Processing System", SID2009C.-C. Cheng, C.-T. Li, Y.-M.Tsai and L.-G. Chen, "A Quality-Scalable Depth-Aware Video Processing System", SID2009

複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像を生成するために用いられる奥行き情報を生成することを目的とする。   An object of the present invention is to generate depth information used to generate a parallax image representing the unevenness of an object while maintaining a stereoscopic effect due to the depth distribution in the screen obtained by a plurality of methods.

上記課題を解決するために本発明の一態様に係る視差画像生成装置は、第1奥行き算出部と、第2奥行き算出部と、第3合成部とを備える。第1奥行き算出部は、特定の画素値パターンに応じて分布情報を推定する第1推定部と、前記第1画像の動きに基づいて分布情報を推定する第2推定部と、前記第1および第2の推定部により推定された分布情報を合成して第1奥行き情報を生成する第1合成部と、を有する。第2奥行き算出部は、前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する。第3合成部は、前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する。   In order to solve the above problem, a parallax image generation device according to an aspect of the present invention includes a first depth calculation unit, a second depth calculation unit, and a third synthesis unit. A first depth calculating unit configured to estimate distribution information according to a specific pixel value pattern; a second estimating unit configured to estimate distribution information based on a motion of the first image; and A first combining unit that combines the distribution information estimated by the second estimating unit to generate first depth information. The second depth calculation unit generates second depth information indicating relative unevenness for each object in the first image. The third synthesis unit generates the third depth information by synthesizing the first depth information and the second depth information by a method different from that of the first synthesis unit.

第1の実施形態の視差画像生成装置を示す図。The figure which shows the parallax image generation apparatus of 1st Embodiment. 第1の実施形態の視差画像生成装置の動作を示す図。The figure which shows operation | movement of the parallax image generation apparatus of 1st Embodiment. (a)分布情報の奥行きモデルの例を示す図(b)凹凸情報の奥行きモデルの例を示す図。(A) The figure which shows the example of the depth model of distribution information (b) The figure which shows the example of the depth model of uneven | corrugated information. 奥行き情報から視差ベクトルを算出する方法を説明する図。The figure explaining the method of calculating a parallax vector from depth information. 視差ベクトルから、視差画像を生成する方法を説明する図である。It is a figure explaining the method to produce | generate a parallax image from a parallax vector. 奥行き情報の例を示す図。The figure which shows the example of depth information. 第1奥行き情報および第2奥行き情報の例を示す図。The figure which shows the example of 1st depth information and 2nd depth information. 第3奥行き情報の例を示す図。The figure which shows the example of 3rd depth information. 奥行き情報から視差への変換モデルの例を示す図。The figure which shows the example of the conversion model from depth information to parallax.

以下、図面を参照しながら本発明の各実施形態について詳細に説明する。なお、以下の実施形態中では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that, in the following embodiments, the same numbered portions are assumed to perform the same operation, and repeated description is omitted.

(第1の実施形態)
本実施形態は、2次元画像(静止画像、動画像を含む)である第1画像から、相互に視差のある少なくとも1枚の視差画像を生成する装置に関する。なお、以下の実施形態では、視差画像を2枚生成する方法について例示するが、これに限られるものではない。例えば、裸眼で立体視させる等の用途の場合には、視点数に対応する数の視差画像を生成しても構わない。
(First embodiment)
The present embodiment relates to an apparatus that generates at least one parallax image having parallax from a first image that is a two-dimensional image (including a still image and a moving image). In the following embodiment, a method for generating two parallax images is illustrated, but the present invention is not limited to this. For example, in the case of applications such as stereoscopic viewing with the naked eye, the number of parallax images corresponding to the number of viewpoints may be generated.

図1(a)は、本実施形態の視差画像生成装置を示す図である。視差画像生成装置は、第1奥行き算出部100と、第2奥行き算出部200と、合成部300、生成部400とを備える。
第1奥行き算出部101は、N(N≧2)個以上の推定部101(1)〜101(N)と、合成部103とを備える。
推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める。
第2奥行き算出部200は、第1画像内のオブジェクト領域内での相対的な凹凸を示す第2奥行き情報を求める。オブジェクト領域とは、第1画面内でオブジェクトが存在する領域を示す。
FIG. 1A is a diagram illustrating a parallax image generation device according to the present embodiment. The parallax image generation device includes a first depth calculation unit 100, a second depth calculation unit 200, a synthesis unit 300, and a generation unit 400.
The first depth calculation unit 101 includes N (N ≧ 2) or more estimation units 101 (1) to 101 (N) and a synthesis unit 103.
The estimation units 101 (1) to 101 (N) are distributions indicating the distribution of the depth in the first image in the reproduction range in the three-dimensional space for each of the estimation units 101 (1) to 101 (N) by different methods. Estimate information.
The synthesizing unit 103 obtains first depth information by synthesizing a plurality of distribution information estimated by the estimating units 101 (1) to 101 (N).
The second depth calculation unit 200 obtains second depth information indicating relative unevenness in the object region in the first image. The object area indicates an area where an object exists in the first screen.

分布情報は、画面全体での奥行き再現範囲内での絶対的な奥行きを示すのに対して、凹凸情報はオブジェクト内での相対的な奥行きの関係を示すものである。つまり、分布情報が再現する奥行きの範囲は、再現範囲内であればいずれでもいいのに対し、凹凸情報が再現する奥行きの範囲は再現範囲に比べ狭い範囲となる。   The distribution information indicates an absolute depth within the depth reproduction range of the entire screen, while the unevenness information indicates a relative depth relationship within the object. In other words, the depth range in which the distribution information is reproduced may be any as long as it is within the reproduction range, whereas the depth range in which the unevenness information is reproduced is narrower than the reproduction range.

合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める。なお、合成部300は、合成部103とは異なる方法で奥行きを合成する。詳細については後述する。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する。奥行きから視差画像を生成する手法は既存の如何なる手法であっても構わない。
The synthesizing unit 300 synthesizes the first depth information and the second depth information to obtain third depth information. Note that the synthesis unit 300 synthesizes the depth by a method different from that of the synthesis unit 103. Details will be described later.
The generation unit 400 generates a parallax image based on the third depth information and the first image. Any existing method may be used as the method for generating the parallax image from the depth.

図1(b)は、本実施形態の視差画像生成装置の変形例を示す図である。第2奥行き算出部200が、第2奥行き算出部201は、M(M≧2)個以上の推定部201(1)〜201(M)と、合成部203とを備える点が、図1(a)の例とは異なる。
推定部201(m)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(1≦m≦M)。また、推定部201(1)〜201(M)は共通のオブジェクトをM種類の手法で検出し、検出されたオブジェクトの凹凸情報を同じ方法で推定するものであっても構わない。また、推定部201(1)〜201(M)は共通のオブジェクトを共通の手法で検出し、検出されたオブジェクトの凹凸情報をM種類の手法で推定するものであってもよい。
FIG. 1B is a diagram illustrating a modification of the parallax image generation device according to the present embodiment. The second depth calculation unit 200 is different from the second depth calculation unit 201 in that it includes M (M ≧ 2) or more estimation units 201 (1) to 201 (M) and a synthesis unit 203 (see FIG. 1). It is different from the example of a).
The estimation unit 201 (m) detects a target object in the first image, and estimates unevenness information according to the type of the detected object for each detected object (1 ≦ m ≦ M). Further, the estimation units 201 (1) to 201 (M) may detect a common object by M types of methods and estimate unevenness information of the detected object by the same method. In addition, the estimation units 201 (1) to 201 (M) may detect a common object by a common method and estimate unevenness information of the detected object by M types of methods.

合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成する。   The synthesizing unit 203 synthesizes the plurality of unevenness information estimated by the estimating units 201 (1) to 201 (M).

次に、本実施形態の視差画像生成装置の動作を説明するが、簡便のために図1(b)の例について述べる。
図2は、本実施形態の視差画像生成装置の動作を示す図である。以下の各ステップで生成する視差画像によって再現する3次元空間における奥行きの再現範囲を0≦z≦Zとする。ここでzは奥行き情報を表す。z=0が再現範囲内で最も手前側(奥行きが小さい)を表し、z=Zが再現範囲内で最も奥側(奥行きが大きい)を表す。
Next, the operation of the parallax image generation device according to the present embodiment will be described, but the example of FIG.
FIG. 2 is a diagram illustrating an operation of the parallax image generating device according to the present embodiment. A depth reproduction range in a three-dimensional space reproduced by a parallax image generated in each of the following steps is 0 ≦ z ≦ Z. Here, z represents depth information. z = 0 represents the foremost side (the depth is small) within the reproduction range, and z = Z represents the farthest side (the depth is large) within the reproduction range.

推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する(S21(1)〜(N))。なお、S21(n)では推定部101(n)が分布情報を推定する(1≦n≦N)。分布情報を推定する方法としては、あらかじめ定められた奥行きモデルを用意しておき、第1画像に応じてそれらを適宜用いる方法でもよい。   The estimation units 101 (1) to 101 (N) are distributions indicating the distribution of the depth in the first image in the reproduction range in the three-dimensional space for each of the estimation units 101 (1) to 101 (N) by different methods. Information is estimated (S21 (1) to (N)). In S21 (n), the estimation unit 101 (n) estimates distribution information (1 ≦ n ≦ N). As a method of estimating the distribution information, a method of preparing a predetermined depth model and appropriately using them according to the first image may be used.

図3(a)は、分布情報の奥行きモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また、第1画像と、第1画像とは異なる時間に表示すべき第2の画像との間の動きを検出し、検出された動きに基づいて分布情報を推定する方法でもよい。また、特定の画素値パターンに応じて分布情報を推定する方法でも良い。S21(n)における分布情報の推定手法は、第1画像の画面全体での奥行きの分布情報を推定することが出来るものであればいずれの方法でもよい。ここでn番目(1≦n≦N)のS21(n)によって推定された分布情報における、画素位置(x,y)での奥行きznを以下のように定義する。なお、0≦zn(x,y)≦Zである。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める(S22)。奥行き合成ステップでは、N個の奥行き情報を合成して、一つの第1奥行き情報を求める。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。ここでも同様に手前側の奥行きを選択して合成する。奥行きの値が小さい程、手前側を表すため、次式のように最小値を選択することにより第1奥行き情報を求める。
zc(x,y)=min{z1(x,y),・・・,zN(x,y)}
ここでzc(x,y)は画素位置(x,y)における第1奥行き情報である。また、min{a,b,c…}、{a,b,c…}の中から最小値を選択する操作を意味する。また光線追跡的には好ましくはないが、N個の奥行き情報の平均によって、第1奥行き情報を求めても良い。
FIG. 3A is a diagram illustrating an example of a depth model of distribution information. The x axis and the y axis indicate positions in the image. Moreover, the area hatched in white indicates that the depth is on the far side, and that the depth is closer to the near side as it approaches black. Moreover, the method of detecting the motion between the 1st image and the 2nd image which should be displayed at the time different from a 1st image, and estimating distribution information based on the detected motion may be used. Also, a method of estimating distribution information according to a specific pixel value pattern may be used. The distribution information estimation method in S21 (n) may be any method as long as it can estimate the depth distribution information in the entire screen of the first image. Here, the depth zn at the pixel position (x, y) in the distribution information estimated by the nth (1 ≦ n ≦ N) S21 (n) is defined as follows. Note that 0 ≦ zn (x, y) ≦ Z.
The synthesizing unit 103 synthesizes a plurality of distribution information estimated by the estimating units 101 (1) to 101 (N) to obtain first depth information (S22). In the depth synthesis step, N pieces of depth information are synthesized to obtain one first depth information. In computer graphics, when combining two depths, the one close to the camera is selected and combined. This is based on the concept of ray tracing, and is based on the principle that the light entering the eye is not finally shielded. Here too, the depth on the near side is selected and synthesized in the same manner. The smaller the depth value, the closer to the front, the first depth information is obtained by selecting the minimum value as in the following equation.
zc (x, y) = min {z1 (x, y),..., zN (x, y)}
Here, zc (x, y) is the first depth information at the pixel position (x, y). Further, it means an operation of selecting a minimum value from min {a, b, c ...} and {a, b, c ...}. Although not preferable in terms of ray tracing, the first depth information may be obtained by averaging N pieces of depth information.

推定部201(1)〜(M)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(S23(1)〜S23(M))。なお、S23(m)では推定部201(m)が凹凸情報を推定する(1≦m≦M)。推定部201は、第1画像内で検出対象のオブジェクトを検出する。検出されたオブジェクトの種類に応じてあらかじめ定めてあった相対的な凹凸モデルをオブジェクト領域内に割り当てることで第2奥行き情報を算出する。なお、本実施形態では第1画像中に存在する顔の位置と大きさを検出し、検出された位置にあらかじめ定めておいた相対的な奥行きモデルを割り当てる手法について例示する。こうすることによって、オブジェクトの領域に適切な凹凸を設定することができる。   The estimation units 201 (1) to (M) detect a target object in the first image, and estimate unevenness information according to the type of the detected object for each detected object (S23 (1) ) To S23 (M)). In S23 (m), the estimation unit 201 (m) estimates unevenness information (1 ≦ m ≦ M). The estimation unit 201 detects an object to be detected in the first image. The second depth information is calculated by assigning a relative unevenness model determined in advance according to the type of the detected object in the object region. In the present embodiment, a method of detecting the position and size of a face existing in the first image and assigning a predetermined relative depth model to the detected position will be exemplified. By doing so, it is possible to set appropriate unevenness in the object region.

図3(b)は、顔及び胴のモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また顔だけでなく、のオブジェクトを検出してそれらに応じた奥行きモデルを割り当ててもよい。なお、検出するオブジェクトは顔によらず、例えば人物、動物、車等であっても構わない。本実施形態では、顔以外に車を検出する例について述べる。   FIG. 3B is a diagram illustrating an example of a face and torso model. The x axis and the y axis indicate positions in the image. Moreover, the area hatched in white indicates that the depth is on the far side, and that the depth is closer to the near side as it approaches black. Further, not only the face but also objects may be detected and a depth model corresponding to them may be assigned. Note that the object to be detected may be, for example, a person, an animal, a car, etc., regardless of the face. In this embodiment, an example of detecting a vehicle other than a face will be described.

ここでS23(m)によって推定された画素位置(x,y)における凹凸情報を以下のように定義する。−Zr≦rm(x,y)≦Zrここでrm(x,y)=0が相対的な凹凸がない状態であり、−Zrがオブジェクト領域内で相対的に手前側に凸な状態、Zrが相対的に奥側に凹な状態とする。ここでZrは検出されたオブジェクトの大きさに基づいて決定することができる。例えば大きなオブジェクトほど相対的な奥行きも大きく見えるため、Zrを大きくし、小さなオブジェクトはZrを小さくするなどである。またオブジェクトの位置における第1奥行き情報に基づいてZrを決定しても良い。第1奥行き情報が手前を示している場合にはZrを大きくし、第1奥行き情報が奥のものはZrを小さくする。   Here, the unevenness information at the pixel position (x, y) estimated by S23 (m) is defined as follows. −Zr ≦ rm (x, y) ≦ Zr where rm (x, y) = 0 is a state in which there is no relative unevenness, and −Zr is a state in which the object region is relatively convex toward the near side, Zr Is relatively concave on the back side. Here, Zr can be determined based on the size of the detected object. For example, since the relative depth of a larger object looks larger, Zr is increased, and a smaller object is decreased. Alternatively, Zr may be determined based on the first depth information at the position of the object. When the first depth information indicates the near side, Zr is increased, and when the first depth information is the back, Zr is decreased.

合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成して第2奥行き情報を求める(S24)。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。S24でも、S22と同様に手前側の奥行きを選択して合成する。奥行き情報は小さい値が手前側を表すため、以下のように最小値を選択することにより達成できる。rc(x,y)=min{r1(x,y),・・・,rM(x,y)}ここでrc(x,y)は画素位置(x,y)における第2奥行き情報である。また光線追跡的には正しくはないが、M個の凹凸情報の平均を用いても良い。   The synthesizing unit 203 synthesizes a plurality of unevenness information estimated by the estimating units 201 (1) to 201 (M) to obtain second depth information (S24). In computer graphics, when combining two depths, the one close to the camera is selected and combined. This is based on the concept of ray tracing, and is based on the principle that the light entering the eye is not finally shielded. Also in S24, the depth on the near side is selected and combined as in S22. The depth information can be achieved by selecting the minimum value as follows because a small value represents the near side. rc (x, y) = min {r1 (x, y),..., rM (x, y)} where rc (x, y) is the second depth information at the pixel position (x, y). . Although not correct in terms of ray tracing, an average of M unevenness information may be used.

また第1奥行き情報に基づいて凹凸情報の合成をしても良い。凹凸情報を与えているそれぞれのオブジェクトの重心位置における第1奥行き情報を重心奥行き情報とすると、オブジェクト間(例えば、人と車等)で重なり合いが発生している領域において、重心奥行き情報が最も手前になる凹凸情報を選択するようにしても良い。   Further, the unevenness information may be synthesized based on the first depth information. If the first depth information at the centroid position of each object giving unevenness information is the centroid depth information, the centroid depth information is the foremost in the region where the overlap occurs between the objects (for example, a person and a car). You may make it select the uneven | corrugated information which becomes.

合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める(S24)。なお、合成部300は、合成部103及び合成部203とは異なる方法で奥行きを合成する。   The synthesizer 300 synthesizes the first depth information and the second depth information to obtain third depth information (S24). Note that the synthesis unit 300 synthesizes the depth by a method different from that of the synthesis unit 103 and the synthesis unit 203.

第1画像内の奥行きの絶対的な分布を示す第1奥行き情報に、オブジェクト領域内での相対的な凹凸を付加して奥行きを表現するために、第1奥行き情報と第2奥行き情報を加算することで第3奥行き情報を求める。
zf(x,y)=zc(x,y)+rc(x,y)
ここでzf(x,y)は画素位置(x,y)における第3奥行き情報である。また加算ではなく乗算でも構わない。zf(x,y)=zc(x,y)・rc(x,y)
第1奥行き情報と第2奥行き情報を合成したことにより再現したい3次元空間における奥行きの再現範囲0≦z≦Zを逸脱してしまうことがあり得る。そこで再現範囲内に収まるように第3奥行き情報を調節することが好ましい。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する(S25)。まずは第3奥行き情報から視差ベクトルを算出する。以下、視差画像の生成方法の一例について詳述する。
The first depth information and the second depth information are added to express the depth by adding relative unevenness in the object area to the first depth information indicating the absolute distribution of the depth in the first image. Thus, the third depth information is obtained.
zf (x, y) = zc (x, y) + rc (x, y)
Here, zf (x, y) is the third depth information at the pixel position (x, y). Further, multiplication may be used instead of addition. zf (x, y) = zc (x, y) · rc (x, y)
By combining the first depth information and the second depth information, the depth reproduction range 0 ≦ z ≦ Z in the three-dimensional space to be reproduced may be deviated. Therefore, it is preferable to adjust the third depth information so as to be within the reproduction range.
The generation unit 400 generates a parallax image based on the third depth information and the first image (S25). First, a disparity vector is calculated from the third depth information. Hereinafter, an example of a method for generating a parallax image will be described in detail.

図4は、奥行き情報から視差ベクトルを算出する方法を説明する図である。右目・左目・物体を結ぶ三角形と、画面上での右視差・左視差・物体、二つの三角形の相似性を利用して、視差ベクトルが算出できる。ここでzfは最終的な奥行き情報、d[cm]は視差ベクトルの大きさ、b[cm]は眼間距離、zs[cm]は画面までの距離、z0[cm]、実空間での奥行きの距離Lz[cm]を示す。   FIG. 4 is a diagram illustrating a method for calculating a disparity vector from depth information. A disparity vector can be calculated using the triangle connecting the right eye, the left eye, and the object, and the right disparity / left disparity / object on the screen and the similarity of the two triangles. Here, zf is the final depth information, d [cm] is the magnitude of the parallax vector, b [cm] is the interocular distance, zs [cm] is the distance to the screen, z0 [cm], and the depth in real space Distance Lz [cm].

画素サイズから実空間[cm]への変換を以下に従い行う。
dpixel=(画面解像度[pixel]/画面サイズ[cm])・d[cm]
奥行き情報zfは0〜Zの範囲であり(0〜1でも良い)、0が手前、Zが奥を表しているとする。しかしこの値は、仮想的なものであり実際の距離に換算する必要がある。実空間での距離Lzを用いて奥行き情報から実空間の距離へ変換する。奥行きから実空間へは、以下の変換式によって変換する。γ=Lz/zmax[cm]ここでzmax=Zである。すると画面から対象物までの距離z’は以下のようになる。z’=γzf−z0
三角形の相似性から以下の関係が成り立つ。
d:b=(z’):(zs+z’) ・・・式(1)
d(zs+z’)=bz’ ・・・式(2)
z={(b−d)z0+dzs}/{γ(b−d)} ・・・式(3)
Conversion from pixel size to real space [cm] is performed as follows.
dpixel = (screen resolution [pixel] / screen size [cm]) · d [cm]
The depth information zf is in the range of 0 to Z (may be 0 to 1), where 0 represents the near side and Z represents the back. However, this value is virtual and needs to be converted into an actual distance. The depth information is converted into the real space distance using the real space distance Lz. Conversion from depth to real space is performed using the following conversion formula. γ = Lz / zmax [cm] where zmax = Z. Then, the distance z ′ from the screen to the object is as follows. z ′ = γzf−z0
The following relationship holds from the similarity of triangles.
d: b = (z ′): (zs + z ′) Formula (1)
d (zs + z ′) = bz ′ (2)
z = {(b−d) z0 + dzs} / {γ (b−d)} (3)

上記奥行き変換モデルは視差ベクトルと反比例の関係にあるモデルだったが、例えば反比例の関係を部分的な比例関係で近似した関数のモデルでも良い。   The depth conversion model is an inversely proportional model to the disparity vector. However, for example, a model of a function that approximates an inversely proportional relationship by a partial proportional relationship may be used.

立体視のパラメータb,zs,z0,Lzは、提供したい立体視に基づいて任意に決定できる。例えば、実際の画面の位置に従ってzsを決定し、飛び出しを大きくしたい場合にはz0を大きくする。また奥行きの深さはLZによって決定できる。
立体視のパラメータが決まれば、式(1)〜(3)を変形した以下の奥行き視差ベクトル変換モデルに従って、奥行き情報から視差ベクトルを算出できる。dの単位は[cm]
d:b=(z’):(zs+z’)
d=b{z’/(zs+z’)}
Stereoscopic parameters b, zs, z0, and Lz can be arbitrarily determined based on the stereoscopic vision desired to be provided. For example, zs is determined according to the actual screen position, and z0 is increased when it is desired to increase the pop-out. The depth can be determined by LZ.
If the stereoscopic parameter is determined, the disparity vector can be calculated from the depth information according to the following depth disparity vector conversion model obtained by modifying Expressions (1) to (3). The unit of d is [cm]
d: b = (z ′): (zs + z ′)
d = b {z ′ / (zs + z ′)}

図5は、算出された視差ベクトルから、視差画像を生成する方法を説明する図である。第1画像は左目・右目の中間の視点から得られたものだとすると、左視差画像と右視差画像は視差ベクトルdに−1/2,1/2を乗じた視差ベクトルdL,dRから生成できる。
dL=(−1/2)d、 dR=(1/2)d
FIG. 5 is a diagram illustrating a method of generating a parallax image from the calculated parallax vector. If the first image is obtained from an intermediate viewpoint between the left eye and the right eye, the left parallax image and the right parallax image can be generated from parallax vectors dL and dR obtained by multiplying the parallax vector d by -1/2 and 1/2.
dL = (− 1/2) d, dR = (1/2) d

左視差画像は、第1画像の画素値It(x,y)をdLに従って移動させることにより生成できる。右視差画像は、第1画像の画素値It(x,y)をdRに従って移動させることにより生成できる。単純に移動しただけでは画素値が割り当てられていない領域(以下、穴と記載)が発生してしまう場合がある。そのため、穴には周辺の画素値を割り当てる等すればよい。ここでは2つ視差画像を生成する例について述べたが、多視差の場合も同様に処理すればよい。   The left parallax image can be generated by moving the pixel value It (x, y) of the first image according to dL. The right parallax image can be generated by moving the pixel value It (x, y) of the first image according to dR. A region that is not assigned a pixel value (hereinafter referred to as a hole) may occur by simply moving. Therefore, peripheral pixel values may be assigned to the holes. Although an example of generating two parallax images has been described here, the same processing may be performed for multi-parallax images.

次に、本実施形態の視差画像生成装置による、第3奥行き情報について詳細に説明する。
例えば、部屋の中に人が存在する画像が第1画像の場合を考える。その場合、例えば部屋の奥行きのモデルを当てはめる、動きベクトルを求める等して複数の分布情報を推定し、これらを合成し第1奥行き情報を取得する。また、第1画像内の人を検出して顔の凹凸情報(第2奥行き情報)を推定する。推定された第1奥行き情報と第2奥行き情報を合成する必要がある。しかし凹凸情報の再現範囲は、画面全体の奥行きの分布情報よりも大幅に狭い。従って、第1奥行き情報および第2奥行き情報を、第1奥行き情報及び/又は第2奥行き情報を求める際の合成方法と同様の手法で合成してしまうと、画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現することができない。
Next, the third depth information by the parallax image generating device of the present embodiment will be described in detail.
For example, consider a case where an image in which a person is present in a room is the first image. In that case, for example, a plurality of distribution information is estimated by applying a model of the depth of the room, obtaining a motion vector, and the like, and these are combined to obtain the first depth information. Further, a person in the first image is detected to estimate facial unevenness information (second depth information). It is necessary to synthesize the estimated first depth information and second depth information. However, the reproduction range of the uneven information is significantly narrower than the depth distribution information of the entire screen. Therefore, if the first depth information and the second depth information are synthesized by a method similar to the synthesis method used when obtaining the first depth information and / or the second depth information, a stereoscopic effect due to the depth distribution in the screen is obtained. Unevenness of the object cannot be expressed while holding it.

以下の図6〜図8の横軸は、画素位置を示し、縦軸は、奥行き情報を示す
図6は、奥行き情報の例を示す図である。図6(a)に奥行き情報のテストパターンを示す。なお、図6では0が最も奥側、10が最も手前側を示している。上述した奥行き情報とは奥側と手前側の大小関係が逆転している。分布情報1、分布情報2は、それぞれ推定部101(n)が求めた分布情報の例を示す。凹凸情報1、凹凸情報2は、推定部201(m)が求めた凹凸情報の例を示す。
6 to 8 below, the horizontal axis indicates the pixel position, and the vertical axis indicates the depth information.
FIG. 6 is a diagram illustrating an example of depth information. FIG. 6A shows a test pattern for depth information. In FIG. 6, 0 indicates the farthest side, and 10 indicates the foremost side. The depth information described above reverses the magnitude relationship between the back side and the near side. Distribution information 1 and distribution information 2 show examples of distribution information obtained by the estimation unit 101 (n), respectively. The unevenness information 1 and the unevenness information 2 indicate examples of unevenness information obtained by the estimation unit 201 (m).

図6(b)は、図6(a)のテストパターンの分布情報1、分布情報2、凹凸情報1、凹凸情報2の平均を取ったものと、図6(a)のテストパターンのうち同位置で最大値を選択して合成したものを示す。平均を取った場合には分布情報が示す奥行きのダイナミックレンジが圧縮されてしまい、凹凸情報は全体に埋もれてしまっている。それに対して最大値を取った場合には、部屋全体の奥行きのダイナミックレンジは保持されるが、顔の奥行きは完全に埋もれてしまっている。これは、画面全体での絶対的な奥行きの分布情報と、オブジェクト内での相対的な奥行きの凹凸情報を一緒に合成したことが原因である。「絶対的」は、奥行き再現範囲0≦z≦Zに対して絶対的な奥行きを意味する。「相対的」は、画面内での局所的なオブジェクト領域内での相対的な奥行きを意味する。相対的な奥行き情報の再現範囲は絶対的な奥行き情報の再現範囲とは異なる。そのため絶対的な奥行き情報と相対的な奥行き情報を同じ手法で合成しようとすると、相互の持っている値の意味が異なるために合成が失敗してしまう。   FIG. 6B shows an average of the distribution information 1, distribution information 2, unevenness information 1, and unevenness information 2 of the test pattern of FIG. This shows the result of selecting the maximum value by position and compositing. When the average is taken, the dynamic range of the depth indicated by the distribution information is compressed, and the unevenness information is buried in the whole. On the other hand, when the maximum value is taken, the dynamic range of the depth of the entire room is maintained, but the depth of the face is completely buried. This is because the absolute depth distribution information in the entire screen and the uneven depth information in the object are combined together. “Absolute” means an absolute depth with respect to the depth reproduction range 0 ≦ z ≦ Z. “Relative” means a relative depth in a local object area on the screen. The reproduction range of relative depth information is different from the reproduction range of absolute depth information. Therefore, if the absolute depth information and the relative depth information are combined by the same method, the combination fails because the meanings of the mutual values are different.

図7(a)は、図6(a)に示す奥行き情報のテストパターンから、分布情報1及び分布情報2を合成した第1奥行き情報を示す図である。図7(b)は、凹凸情報1及び凹凸情報2から合成した第2奥行き情報の例を示す図である。合成方法は、第1奥行き情報および第2奥行き情報共に同位置で奥行きが最も手前側の奥行き情報を選択して合成したものを示す。   FIG. 7A is a diagram illustrating first depth information obtained by combining the distribution information 1 and the distribution information 2 from the depth information test pattern illustrated in FIG. FIG. 7B is a diagram illustrating an example of the second depth information synthesized from the unevenness information 1 and the unevenness information 2. The combining method indicates that the first depth information and the second depth information are combined by selecting depth information having the closest depth at the same position.

図8は、図7で示した第1奥行き情報および第2奥行き情報を合成した第3奥行き情報を示す。第3奥行き情報は、第1奥行き情報と第2奥行き情報とを加算して合成した。
第1奥行き情報および第2奥行き情報を求める際の合成方法と、第1奥行き情報と第2奥行き情報を合成する際の合成方法とで異なる方法を用いることで、複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像の生成をすることが出来る。
FIG. 8 shows third depth information obtained by combining the first depth information and the second depth information shown in FIG. The third depth information was synthesized by adding the first depth information and the second depth information.
Screens obtained by a plurality of methods by using different methods for the synthesis method for obtaining the first depth information and the second depth information and the synthesis method for synthesizing the first depth information and the second depth information. It is possible to generate a parallax image that expresses the unevenness of the object while maintaining the stereoscopic effect due to the depth distribution.

(第2の実施形態)
図9は、本実施形態の視差画像生成装置を示す図である。本実施形態の視差画像生成装置は、図1(b)の視差画像生成装置に対して、奥行き情報を調節する機能を備える点が異なる。
(Second Embodiment)
FIG. 9 is a diagram illustrating the parallax image generating device of the present embodiment. The parallax image generation device of this embodiment is different from the parallax image generation device of FIG. 1B in that it has a function of adjusting depth information.

調整部102(n)は、推定部101(n)が推定した分布情報を調節する。例えば、推定部101(1)では0≦z≦Zの範囲の分布情報を推定するが、推定部101(2)では100≦z≦Zの範囲の値を出力するといったように、出力される奥行き情報の範囲が異なる場合に、それらを調節して同じ範囲にする必要がある。そのため、調整部102(n)は、例えば奥行き情報の一点(以下、固定点と記載)を固定して(例えばZ)奥行き範囲の幅を広くしたり狭くしたり、といった調節をする。また、ある推定部101(n)信頼性が低い場合には、奥行き範囲を奥側に狭める調節を行い、信頼性の低い奥行き情報の影響を少なくすることもできる。   The adjustment unit 102 (n) adjusts the distribution information estimated by the estimation unit 101 (n). For example, the estimation unit 101 (1) estimates the distribution information in the range of 0 ≦ z ≦ Z, but the estimation unit 101 (2) outputs the value in the range of 100 ≦ z ≦ Z. If the depth information ranges are different, they need to be adjusted to the same range. Therefore, the adjustment unit 102 (n) adjusts, for example, by fixing one point of depth information (hereinafter referred to as a fixed point) (for example, Z) to widen or narrow the depth range. In addition, when the reliability of a certain estimation unit 101 (n) is low, it is possible to reduce the influence of depth information with low reliability by adjusting the depth range to the back side.

調整部202(m)は、推定部201(m)が推定した第2奥行き情報を調節する。調整の仕方は、調整部102(n)と同様の手法であって良い。奥行き情報調節ステップと同様に調節を行うことができる。なお、固定点を0にすることにより相対的な凹凸情報の特性を有効に活用することができる。   The adjustment unit 202 (m) adjusts the second depth information estimated by the estimation unit 201 (m). The method of adjustment may be the same method as that of the adjustment unit 102 (n). Adjustment can be performed in the same manner as the depth information adjustment step. In addition, the characteristic of relative uneven | corrugated information can be effectively utilized by making a fixed point into 0.

第1奥行き算出部100、推定部101(n)、調整部102(n)、調整部202(m)、第2奥行き算出部200、合成部300、生成部400 First depth calculation unit 100, estimation unit 101 (n), adjustment unit 102 (n), adjustment unit 202 (m), second depth calculation unit 200, synthesis unit 300, and generation unit 400

Claims (21)

特定の画素値パターンに応じて分布情報を推定する第1推定部と、第1画像の動きに基づいて分布情報を推定する第2推定部と、前記第1および第2の推定部により推定された分布情報を合成して第1奥行き情報を生成する第1合成部と、を有する第1奥行き算出部と、
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する第2奥行き算出部と、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する第3合成部と、
を備えることを特徴とする画像処理装置。
Estimated by a first estimation unit that estimates distribution information according to a specific pixel value pattern, a second estimation unit that estimates distribution information based on the motion of the first image, and the first and second estimation units. A first depth calculating unit comprising: a first combining unit that combines the distribution information to generate first depth information;
A second depth calculation unit that generates second depth information indicating relative unevenness of each object in the first image;
A third combining unit that combines the first depth information and the second depth information by a method different from the first combining unit to generate third depth information;
An image processing apparatus comprising:
前記第2奥行き算出部は、顔をオブジェクトとして検出し、前記検出した顔の相対的な凹凸を示す第2奥行き情報を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second depth calculation unit detects a face as an object and generates second depth information indicating a relative unevenness of the detected face. 前記第2奥行き算出部は、前記顔の位置を検出し、検出された位置に応じて予め定められた相対的な奥行きモデルを割り当てて、前記第2奥行き生成部を生成することを特徴とする請求項2に記載の画像処理装置。   The second depth calculation unit detects the position of the face, assigns a relative depth model determined in advance according to the detected position, and generates the second depth generation unit. The image processing apparatus according to claim 2. 前記第2奥行き算出部は、人物、動物および車のうちの少なくとも1つをオブジェクトと検出し、前記検出されたオブジェクトの相対的な凹凸を示す第2奥行き情報を生成することを特徴とする請求項1に記載の画像処理装置。   The second depth calculation unit detects at least one of a person, an animal, and a car as an object, and generates second depth information indicating a relative unevenness of the detected object. Item 8. The image processing apparatus according to Item 1. 前記第2推定部は、前記第1画像と、前記第1画像とは異なる時間に表示すべき第2画像との間の動きを検出し、前記検出された動きに基づいて分布情報を推定することを特徴とする請求項1乃至4のいずれかに記載の画像処理装置。   The second estimation unit detects a motion between the first image and a second image to be displayed at a time different from the first image, and estimates distribution information based on the detected motion. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記第3奥行き情報と、前記第1画像とに基づいて視差画像を生成する生成部を更に有する請求項1乃至5のいずれか記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a generation unit that generates a parallax image based on the third depth information and the first image. 前記生成部は、左目用および右目用の前記視差画像を生成することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the generation unit generates the parallax images for left eye and right eye. 前記分布情報は、前記視差画像が表示される画面全体での奥行再現範囲内での絶対的な奥行きを示すことを特徴とする請求項6または7に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the distribution information indicates an absolute depth within a depth reproduction range in an entire screen on which the parallax image is displayed. 前記第1合成部は、前記第1および第2推定部により推定された分布情報のうち、前記第1画像内の同じ位置における奥行きが手前側の前記分布情報を選択することを特徴とする請求項1乃至8のいずれかに記載の画像処理装置。   The first combining unit selects the distribution information having a depth closer to the same position in the first image from the distribution information estimated by the first and second estimation units. Item 9. The image processing apparatus according to any one of Items 1 to 8. 前記第1奥行き算出部は、
前記第1推定部により推定された分布情報を調整する第1調整部と、
前記第2推定部により推定された分布情報を調整する第2調整部と、を有することを特徴とする請求項1乃至9のいずれかに記載の画像処理装置。
The first depth calculator is
A first adjustment unit that adjusts the distribution information estimated by the first estimation unit;
The image processing apparatus according to claim 1, further comprising: a second adjustment unit that adjusts the distribution information estimated by the second estimation unit.
前記第3合成部は、前記第1奥行き情報と、前記第2奥行き情報とを加算して前記第3奥行き情報を生成することを特徴とする請求項1乃至10のいずれか記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the third synthesis unit generates the third depth information by adding the first depth information and the second depth information. . 第1画像を用いて相互に視差のある少なくとも1つの視差画像を生成し、前記生成された視差画像を表示する画像表示装置であって、
特定の画素値パターンに応じて分布情報を推定する第1推定部と、前記第1画像の動きに基づいて分布情報を推定する第2推定部と、前記第1および第2の推定部により推定された分布情報を合成して第1奥行き情報を生成する第1合成部と、を有する第1奥行き算出部と、
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する第2奥行き算出部と、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する第3合成部と、
前記第3奥行き情報と、前記第1画像とに基づいて、前記視差画像を生成する生成部と、
前記生成された視差画像を表示する表示部と、を備えることを特徴とする画像表示装置。
An image display device that generates at least one parallax image having parallax with each other using a first image and displays the generated parallax image,
Estimated by a first estimation unit that estimates distribution information according to a specific pixel value pattern, a second estimation unit that estimates distribution information based on the motion of the first image, and the first and second estimation units A first synthesis unit that synthesizes the distributed information to generate first depth information;
A second depth calculation unit that generates second depth information indicating relative unevenness of each object in the first image;
A third combining unit that combines the first depth information and the second depth information by a method different from the first combining unit to generate third depth information;
A generating unit configured to generate the parallax image based on the third depth information and the first image;
An image display device comprising: a display unit that displays the generated parallax image.
前記第2奥行き算出部は、顔をオブジェクトとして検出し、前記検出した顔の相対的な凹凸を示す第2奥行き情報を生成することを特徴とする請求項12に記載の画像表示装置。   The image display device according to claim 12, wherein the second depth calculation unit detects a face as an object and generates second depth information indicating a relative unevenness of the detected face. 前記第2奥行き算出部は、前記顔の位置を検出し、検出された位置に応じて予め定められた相対的な奥行きモデルを割り当てて、前記第2奥行き生成部を生成することを特徴とする請求項13に記載の画像表示装置。   The second depth calculation unit detects the position of the face, assigns a relative depth model determined in advance according to the detected position, and generates the second depth generation unit. The image display device according to claim 13. 前記第2奥行き算出部は、人物、動物および車のうちの少なくとも1つをオブジェクトと検出し、前記検出されたオブジェクトの相対的な凹凸を示す第2奥行き情報を生成することを特徴とする請求項12に記載の画像表示装置。   The second depth calculation unit detects at least one of a person, an animal, and a car as an object, and generates second depth information indicating a relative unevenness of the detected object. Item 13. The image display device according to Item 12. 前記第2推定部は、前記第1画像と、前記第1画像とは異なる時間に表示すべき第2画像との間の動きを検出し、前記検出された動きに基づいて分布情報を推定することを特徴とする請求項12乃至15のいずれかに記載の画像表示装置。   The second estimation unit detects a motion between the first image and a second image to be displayed at a time different from the first image, and estimates distribution information based on the detected motion. The image display device according to claim 12, wherein the image display device is an image display device. 前記分布情報は、前記視差画像が表示される画面全体での奥行再現範囲内での絶対的な奥行きを示すことを特徴とする請求項12乃至16のいずれかに記載の画像表示装置。   The image display device according to any one of claims 12 to 16, wherein the distribution information indicates an absolute depth within a depth reproduction range in the entire screen on which the parallax image is displayed. 前記第1合成部は、前記第1および第2推定部により推定された分布情報のうち、前記第1画像内の同じ位置における奥行きが手前側の前記分布情報を選択することを特徴とする請求項12乃至17のいずれかに記載の画像表示装置。   The first combining unit selects the distribution information having a depth closer to the same position in the first image from the distribution information estimated by the first and second estimation units. Item 18. The image display device according to any one of Items 12 to 17. 前記第1奥行き算出部は、
前記第1推定部により推定された分布情報を調整する第1調整部と、
前記第2推定部により推定された分布情報を調整する第2調整部と、を有することを特徴とする請求項12乃至18のいずれかに記載の画像表示装置。
The first depth calculator is
A first adjustment unit that adjusts the distribution information estimated by the first estimation unit;
The image display device according to claim 12, further comprising: a second adjustment unit that adjusts the distribution information estimated by the second estimation unit.
前記第3合成部は、前記第1奥行き情報と、前記第2奥行き情報とを加算して前記第3奥行き情報を生成することを特徴とする請求項12乃至19のいずれかに記載の画像表示装置。   The image display according to claim 12, wherein the third combining unit generates the third depth information by adding the first depth information and the second depth information. apparatus. 特定の画素値パターンに応じて分布情報を推定するステップと、
第1画像の動きに基づいて分布情報を推定するステップと、
前記推定された分布情報を合成して第1奥行き情報を生成するステップと、
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成するステップと、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成するステップと、を備えることを特徴とする画像処理方法。
Estimating distribution information according to a specific pixel value pattern;
Estimating distribution information based on movement of the first image;
Combining the estimated distribution information to generate first depth information;
Generating second depth information indicating relative irregularities for each object in the first image;
An image processing method comprising: combining the first depth information and the second depth information by a method different from the first combining unit to generate third depth information.
JP2011024192A 2011-02-07 2011-02-07 Image processing apparatus, image processing method, and image display apparatus Expired - Fee Related JP5087684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024192A JP5087684B2 (en) 2011-02-07 2011-02-07 Image processing apparatus, image processing method, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024192A JP5087684B2 (en) 2011-02-07 2011-02-07 Image processing apparatus, image processing method, and image display apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010084326A Division JP5227993B2 (en) 2010-03-31 2010-03-31 Parallax image generation apparatus and method thereof

Publications (2)

Publication Number Publication Date
JP2011216076A true JP2011216076A (en) 2011-10-27
JP5087684B2 JP5087684B2 (en) 2012-12-05

Family

ID=44945691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024192A Expired - Fee Related JP5087684B2 (en) 2011-02-07 2011-02-07 Image processing apparatus, image processing method, and image display apparatus

Country Status (1)

Country Link
JP (1) JP5087684B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP2014013988A (en) * 2012-07-04 2014-01-23 National Institute Of Information & Communication Technology Resampling device and method for depth map, program and resampling system for depth map

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (en) * 1999-03-04 2000-09-22 Toshiba Corp Stereoscopic video image generating method
JP2001320731A (en) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd Device for converting two-dimensional image into there dimensional image and its method
JP2004102689A (en) * 2002-09-10 2004-04-02 Toppan Printing Co Ltd Display control device
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
JP2006185033A (en) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd Pseudo three-dimensional image generating device, pseudo three-dimensional image generating program, and pseudo three-dimensional image display system
JP2007219765A (en) * 2006-02-15 2007-08-30 Toyota Motor Corp Image processor, method therefor, and imaging processing program
JP2007264722A (en) * 2006-03-27 2007-10-11 Victor Co Of Japan Ltd Image processor
JP2007299070A (en) * 2006-04-27 2007-11-15 Toshiba Corp Face shape model generation apparatus and method
WO2009008864A1 (en) * 2007-07-12 2009-01-15 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (en) * 1999-03-04 2000-09-22 Toshiba Corp Stereoscopic video image generating method
JP2001320731A (en) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd Device for converting two-dimensional image into there dimensional image and its method
JP2004102689A (en) * 2002-09-10 2004-04-02 Toppan Printing Co Ltd Display control device
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
JP2006185033A (en) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd Pseudo three-dimensional image generating device, pseudo three-dimensional image generating program, and pseudo three-dimensional image display system
JP2007219765A (en) * 2006-02-15 2007-08-30 Toyota Motor Corp Image processor, method therefor, and imaging processing program
JP2007264722A (en) * 2006-03-27 2007-10-11 Victor Co Of Japan Ltd Image processor
JP2007299070A (en) * 2006-04-27 2007-11-15 Toshiba Corp Face shape model generation apparatus and method
WO2009008864A1 (en) * 2007-07-12 2009-01-15 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
JP2014013988A (en) * 2012-07-04 2014-01-23 National Institute Of Information & Communication Technology Resampling device and method for depth map, program and resampling system for depth map

Also Published As

Publication number Publication date
JP5087684B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5227993B2 (en) Parallax image generation apparatus and method thereof
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US20180192033A1 (en) Multi-view scene flow stitching
JP4828506B2 (en) Virtual viewpoint image generation device, program, and recording medium
KR101334187B1 (en) Apparatus and method for rendering
JP5402483B2 (en) Pseudo stereoscopic image creation device and pseudo stereoscopic image display system
CN102395036A (en) Apparatus and method for providing 3D augmented reality
JP2005235211A (en) Image compositing method of intermediate point in time, and 3d-display device with the method applied
JP2013003848A (en) Virtual object display device
WO2012157540A1 (en) Image processing apparatus, image processing method, and program
KR20150121127A (en) Binocular fixation imaging method and apparatus
JP2014203462A (en) Apparatus and method for forming light field image
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5087684B2 (en) Image processing apparatus, image processing method, and image display apparatus
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP5304758B2 (en) Multi-viewpoint image creation apparatus, multi-viewpoint image creation method, and multi-viewpoint image display system
JP2013090129A (en) Image processing apparatus, image processing method and program
JP5786807B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
Song et al. Real-time depth map generation using hybrid multi-view cameras
WO2014130039A1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
EP4030752A1 (en) Image generation system and method
WO2023013130A1 (en) Information processing device, information processing method, and recording medium
JP5627798B2 (en) Image processing apparatus, image processing method, image processing program, image display apparatus, and image display method
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP2014138306A (en) Image generation method, image generation device, and image generation program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees