JP5431393B2 - Stereo image generating apparatus and method - Google Patents

Stereo image generating apparatus and method Download PDF

Info

Publication number
JP5431393B2
JP5431393B2 JP2011044128A JP2011044128A JP5431393B2 JP 5431393 B2 JP5431393 B2 JP 5431393B2 JP 2011044128 A JP2011044128 A JP 2011044128A JP 2011044128 A JP2011044128 A JP 2011044128A JP 5431393 B2 JP5431393 B2 JP 5431393B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
viewpoints
parallax
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011044128A
Other languages
Japanese (ja)
Other versions
JP2012034339A (en
Inventor
井 隆 介 平
田 雄 志 三
島 直 三
山 賢 一 下
場 雅 裕 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011044128A priority Critical patent/JP5431393B2/en
Publication of JP2012034339A publication Critical patent/JP2012034339A/en
Application granted granted Critical
Publication of JP5431393B2 publication Critical patent/JP5431393B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の実施形態は、視差画像生成装置及び方法に関する。   Embodiments described herein relate generally to a parallax image generation apparatus and method.

近年、民生用の立体表示デバイスの開発が活発化している一方で、多くの映像は2次元画像である。そこで、2次元画像から立体画像を生成する方法が提案されている。立体画像を生成するために、元の画像に含まれない視点の画像を生成する必要が生じる場合がある。その場合、原画像では物体の陰になって見えない部分(以下、陰面領域と記載)には、画素を補間する等する必要がある。   In recent years, development of consumer-use stereoscopic display devices has become active, while many images are two-dimensional images. Therefore, a method for generating a stereoscopic image from a two-dimensional image has been proposed. In order to generate a stereoscopic image, it may be necessary to generate a viewpoint image that is not included in the original image. In that case, it is necessary to interpolate a pixel or the like in a portion (hereinafter referred to as a hidden surface area) that is hidden behind an object in the original image.

そこで、陰面領域の画素値を補間する方法が提案されている。2次元画像から3次元画像を生成する際に生じる陰面領域の画素値を、陰面領域に隣接する部分画像の端部の画素に対応する画素値に基づいて生成する技術がある。上記した従来技術では、視差画像における陰面領域の画素値を補間する際、陰面領域が奥側の領域であるにも関わらず、手前側の物体を表す画素値を補間してしまう場合があった。   Therefore, a method for interpolating the pixel values of the hidden surface area has been proposed. There is a technique for generating a pixel value of a hidden surface area generated when generating a three-dimensional image from a two-dimensional image based on a pixel value corresponding to a pixel at an end of a partial image adjacent to the hidden surface area. In the above-described prior art, when interpolating the pixel value of the hidden surface area in the parallax image, the pixel value representing the object on the near side may be interpolated even though the hidden surface area is the back side area. .

特開2004−295859号公報JP 2004-295859 A

本発明が解決しようとする課題は、陰面の影響がより少ない視差画像を生成することにある。   The problem to be solved by the present invention is to generate a parallax image with less influence of the hidden surface.

上記課題を解決するために、実施形態の立体画像生成装置は、少なくとも1枚の画像と、前記画像に対応する奥行き情報から、前記画像とは異なる視点の視差画像を生成するために、2つ以上の視点を含む組毎に、視差画像を作成した場合に生じる陰面領域が大きくなる程、大きな値となる評価値を、前記奥行き情報から算出する算出部と、前記視点の組に対して算出された前記評価値が最小となる前記視点の組を選択する選択部と、前記画像が動画像である場合に動画像でない場合に比べて時間軸上での視点の変化を抑制するように 選択された前記視点の組と、前記画像の少なくとも前のフレームを含む前記画像より前の連続した複数フレームにおいてそれぞれ選択された複数の視点の組とを用いて、前記画像に対する修正された視点の組を生成して出力する視点制御部と、前記視点制御部から出力された前記修正された視点の組に対応する視点の視差画像を、前記画像から生成する成部と、を備えるIn order to solve the above-described problem, the stereoscopic image generation apparatus according to the embodiment includes two units for generating a parallax image having a viewpoint different from the image from at least one image and depth information corresponding to the image. For each set including the above viewpoints, a larger evaluation value is calculated from the depth information as the hidden surface area generated when the parallax image is created is larger, and is calculated for the viewpoint set. A selection unit that selects the set of viewpoints with which the evaluation value is minimized, and so as to suppress a change in viewpoint on the time axis when the image is a moving image compared to a case where the image is not a moving image , Using the selected set of viewpoints and the set of viewpoints respectively selected in a plurality of consecutive frames before the image including at least the previous frame of the image, the corrected viewpoint of the image Comprising a viewpoint control unit for generating and outputting a set, the parallax image of the view corresponding to the combination of the viewpoint, which is the modified output from the viewpoint control unit, and generate unit that generates from the image.

第1の実施形態の立体画像生成装置を示す図。The figure which shows the stereo image production | generation apparatus of 1st Embodiment. 画像の画素位置と水平・垂直方向の座標との関係について説明する図。The figure explaining the relationship between the pixel position of an image, and the coordinate of a horizontal / vertical direction. 視差量と奥行き値の関係を示す概念図。The conceptual diagram which shows the relationship between parallax amount and a depth value. 視点軸を説明する図。The figure explaining a viewpoint axis. 縦横に複数台のカメラが並べて撮影された場合の視点軸を示す図。The figure which shows a viewpoint axis | shaft at the time of image | photographing a some camera side by side vertically and horizontally. 入力画像とそれに対応する奥行き情報の一例を表す図。The figure showing an example of an input image and the depth information corresponding to it. 線分MNを通る平面における奥行きの分布と視点の組を示す図。The figure which shows the distribution of the depth in the plane which passes along line segment MN, and the group of a viewpoint. 入力画像から生成した、視差画像の例を示す図。The figure which shows the example of the parallax image produced | generated from the input image. 立体画像生成装置の動作を示す図。The figure which shows operation | movement of a stereo image production | generation apparatus. 算出部が行う詳細な動作の一例を示す図。The figure which shows an example of the detailed operation | movement which a calculation part performs. 算出部が行う詳細な動作の変更例を示す図。The figure which shows the example of a change of the detailed operation | movement which a calculation part performs. 視点と陰面面積の関係を示す概念図。The conceptual diagram which shows the relationship between a viewpoint and a hidden surface area. 視点と陰面面積の関係を示す概念図。The conceptual diagram which shows the relationship between a viewpoint and a hidden surface area. 算出部が行う詳細な動作の変更例を示す図。The figure which shows the example of a change of the detailed operation | movement which a calculation part performs. 第2の実施形態の立体画像生成装置を示す図。The figure which shows the stereo image production | generation apparatus of 2nd Embodiment. 第3の実施形態の立体画像生成装置を示す図。The figure which shows the three-dimensional image generation apparatus of 3rd Embodiment.

以下、本発明の実施形態について説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described. In addition, the same code | symbol is attached | subjected to the structure and process which mutually perform the same operation | movement, and the overlapping description is abbreviate | omitted.

(第1の実施形態)
本実施形態の立体画像生成装置は、少なくとも1枚の入力画像と、入力画像に対応する奥行き情報から、入力画像とは異なる視点の視差画像を生成する。本実施形態の立体画像生成装置が生成する視差画像は、立体表示可能であればいずれの方式のいずれであっても構わない。フィールドシーケンシャル、フレームシーケンシャルのどちらでも構わないが、本実施形態では、フレームシーケンシャル場合について例示する。また、入力画像は、二次元画像だけでなく立体画像であっても構わない。
(First embodiment)
The stereoscopic image generation apparatus according to the present embodiment generates a parallax image at a viewpoint different from the input image from at least one input image and depth information corresponding to the input image. The parallax image generated by the stereoscopic image generating apparatus according to the present embodiment may be any method as long as stereoscopic display is possible. Either field sequential or frame sequential may be used, but in this embodiment, a frame sequential case is illustrated. Further, the input image may be not only a two-dimensional image but also a stereoscopic image.

奥行き情報は画像提供者があらかじめ用意しておいた奥行き情報であってもよい。また、入力画像から、何らかの推定手法によって推定された奥行き情報であってもよい。   The depth information may be depth information prepared in advance by the image provider. Further, it may be depth information estimated from an input image by some estimation method.

さらに、奥行き情報は、そのダイナミックレンジを圧縮・伸長などの加工が施されたものであってもよい。入力画像と奥行き情報が供給される方法は、種々の方法であって構わない。例えば、チューナーを介して、または光ディスクに記憶された情報の読み込みによって、少なくとも1枚の入力画像と、入力画像に対応する奥行き情報を取得する方法がある。また、外部から2次元画像や、視差のある立体画像が供給され、立体画像生成装置に入力される前段において奥行き値を推定する方法であっても構わない。   Further, the depth information may be information obtained by processing the dynamic range such as compression / decompression. There are various methods for supplying the input image and the depth information. For example, there is a method of acquiring at least one input image and depth information corresponding to the input image through a tuner or by reading information stored on an optical disc. Further, a method may be used in which a depth value is estimated at a stage before a two-dimensional image or a stereoscopic image with parallax is supplied from the outside and input to the stereoscopic image generation apparatus.

図1は、本実施形態の立体画像生成装置を示す図である。立体画像生成装置は、算出部101、選択部102および視差画像生成部103を備える。立体画像生成装置は、入力画像に対応する奥行き情報から、入力画像とは異なる視点の視差画像を生成する。互いに視差のある視差画像を表示することで視聴者は立体画像として知覚することが出来る。   FIG. 1 is a diagram illustrating a stereoscopic image generating apparatus according to the present embodiment. The stereoscopic image generation apparatus includes a calculation unit 101, a selection unit 102, and a parallax image generation unit 103. The stereoscopic image generation device generates a parallax image with a viewpoint different from that of the input image from the depth information corresponding to the input image. A viewer can perceive a stereoscopic image by displaying parallax images having parallax.

算出部101は、奥行き情報(だけ)を使って複数の候補視点の組毎に、視差画像を作成した場合に生じる陰面領域が大きくなる程、大きな値となる評価値を算出する。算出した評価値は、組合せの情報と対応させて選択部102に送られる。なお、算出部101は実際に視差画像を作成する必要はなく、仮定した視点の組で生じる陰面領域の面積が試算できればよい。本実施形態では、陰面面積の大きさは陰面領域に属する画素数の合計を示す。1つの組に含まれる視点の数は2以上であればいくつであっても構わない。候補視点とは、画像を撮像する位置を予め仮想的に定めたものを示す。   The calculation unit 101 calculates an evaluation value that increases as the hidden surface area generated when a parallax image is created for each set of candidate viewpoints using depth information (only). The calculated evaluation value is sent to the selection unit 102 in association with the combination information. Note that the calculation unit 101 does not need to actually create a parallax image, and only needs to be able to estimate the area of the hidden surface area generated by the set of assumed viewpoints. In the present embodiment, the size of the hidden surface area indicates the total number of pixels belonging to the hidden surface region. Any number of viewpoints may be included in one set as long as the number is two or more. The candidate viewpoint indicates a virtual position where an image is captured in advance.

選択部102は、算出部101が組毎に算出した評価値に基づいて、1つの候補視点の組を選択する。選択方法は、評価値が最小の候補視点の組を選択するのが好ましい。複数の候補視点のなかで、視差画像を作成した場合に生じる陰影面積が最小になるようなものを視差画像生成の視点として選択することとなる。   The selection unit 102 selects one candidate viewpoint set based on the evaluation value calculated by the calculation unit 101 for each set. As a selection method, it is preferable to select a set of candidate viewpoints having the smallest evaluation value. Among the plurality of candidate viewpoints, the viewpoint that generates the smallest shade area when the parallax image is created is selected as the viewpoint for generating the parallax image.

視差画像生成部103は、選択部102において選択された視点の組に対応する視点の視差画像を生成する。   The parallax image generation unit 103 generates a parallax image of a viewpoint corresponding to the set of viewpoints selected by the selection unit 102.

以降、入力画像が撮影された仮想的な視点を第1の視点と呼ぶ。なお、入力画像が複数の視点から撮像された複数の画像を有する場合など、第1の視点に複数の視点が含まれる場合もある。また、選択部102が選択した視点の組に含まれる視点を第2の視点の組と呼ぶ。視差画像生成部103は、第2の視点の位置から撮影された仮想的な画像を生成する。   Hereinafter, the virtual viewpoint where the input image is taken is referred to as a first viewpoint. Note that the first viewpoint may include a plurality of viewpoints, such as when the input image has a plurality of images captured from a plurality of viewpoints. A viewpoint included in the viewpoint set selected by the selection unit 102 is referred to as a second viewpoint set. The parallax image generation unit 103 generates a virtual image taken from the position of the second viewpoint.

図2は、画像(入力画像、視差画像を含む)の画素位置と水平・垂直方向の座標との関係について説明する図である。画像の画素位置を灰色の丸で表示し、また水平方向、垂直方向の軸を記載したものである。このように、各画素位置は、水平・垂直方向座標の整数位置にとるものとする。以降、特に断らない限り、ベクトルは画像の左上端(0,0)を起点とする。   FIG. 2 is a diagram illustrating the relationship between the pixel position of an image (including an input image and a parallax image) and the horizontal and vertical coordinates. The pixel positions of the image are displayed as gray circles, and the horizontal and vertical axes are described. In this way, each pixel position is assumed to be an integer position in horizontal and vertical coordinates. Hereinafter, unless otherwise specified, the vector starts from the upper left corner (0, 0) of the image.

図3は、視差量と奥行き値の関係を示す概念図である。x軸は、画面の水平方向に沿う軸である。z軸は、奥行き方向に沿う軸である。奥行きの大きさが大きくなる程、撮像位置から奥まった位置となる。z=0は、表示面の仮想的な位置を示す。直線DEは、表示面上にある。点Bは、第1の視点を示す。点Cは、第2の視点を示す。図3では、視聴する位置は、画面に対して平行に視聴していると仮定しているため、直線DEと直線BCは平行である。点BC間の距離をbとする。対象物は、奥行きZaの点Aに配置されている。ここで、奥行きZaは奥行き方向を正とするベクトルである。点Dは、対象物が入力画像上に表示される位置を示している。点Dの画面上での画素位置をベクトルiで表わす。点Eは、対象物が生成される視差画像上に表示されている場合の位置を示している。つまり、線分DEの長さが視差量である。   FIG. 3 is a conceptual diagram illustrating the relationship between the amount of parallax and the depth value. The x axis is an axis along the horizontal direction of the screen. The z axis is an axis along the depth direction. The greater the depth, the deeper the position from the imaging position. z = 0 indicates a virtual position on the display surface. The straight line DE is on the display surface. Point B indicates the first viewpoint. Point C indicates the second viewpoint. In FIG. 3, since it is assumed that the viewing position is viewed in parallel to the screen, the straight line DE and the straight line BC are parallel. Let b be the distance between points BC. The object is disposed at a point A having a depth Za. Here, the depth Za is a vector whose depth direction is positive. A point D indicates a position where the object is displayed on the input image. The pixel position on the screen of the point D is represented by a vector i. Point E indicates a position when the object is displayed on the generated parallax image. That is, the length of the line segment DE is the amount of parallax.

図3(a)は、画面よりも奥側の対象物を表示する際の奥行き値と視差量の関係を示す図である。また、図3(b)は、画面よりも手前側の対象物を表示する際の奥行き値と視差量の関係を示す図である。図3(a)と、(b)とでは、点Dと点Eのx軸上での位置関係が逆転している。点Dと点Eの位置関係を反映するため、点Dを始点とし、点Eを終点とする視差ベクトルd(i)を定義する。視差ベクトルの要素値は、x軸に従う。図3の様に視差ベクトルを定義すれば、画素位置iの視差量はベクトルd(i)で表わされる。   FIG. 3A is a diagram illustrating a relationship between a depth value and a parallax amount when an object behind the screen is displayed. FIG. 3B is a diagram illustrating the relationship between the depth value and the amount of parallax when an object on the near side of the screen is displayed. In FIGS. 3A and 3B, the positional relationship between the point D and the point E on the x-axis is reversed. In order to reflect the positional relationship between the point D and the point E, a disparity vector d (i) starting from the point D and ending at the point E is defined. The element value of the disparity vector follows the x axis. If the parallax vector is defined as shown in FIG. 3, the parallax amount at the pixel position i is represented by a vector d (i).

いま、視聴者から画面に向かうベクトルをZsとすれば、三角形ABCと三角形ADEが相似関係にあるため、|Za+Zs|:|Za|=b:|d(i)|が成り立つ。これをd(i)について解くと、図3のようにx軸、z軸を設定するため、以下の式が成り立つ。
つまり、画素位置iの奥行きZa(i)から視差ベクトルd(i)は、一意に定まる。よって、以降の説明において、視差ベクトルと記載されている部分は奥行き値と読み替えることが可能である。
Now, assuming that the vector from the viewer to the screen is Zs, the triangle ABC and the triangle ADE are similar to each other, so | Za + Zs |: | Za | = b: | d (i) | When this is solved for d (i), the following equations are established to set the x-axis and z-axis as shown in FIG.
That is, the disparity vector d (i) is uniquely determined from the depth Za (i) at the pixel position i. Therefore, in the following description, a portion described as a disparity vector can be read as a depth value.

次に、図4,図5を用いて視点について説明する。   Next, the viewpoint will be described with reference to FIGS.

図4は、視点軸を説明する図である。図4(a)は、図3と同様の方向から見た画面と視点の関係を示す。点Lは左目の位置、点Rは右目の位置、点Bは入力画像の撮影位置を示している。点L、B、Rを通る図の右方向に正となり、原点を点Bとする視点軸を定義する。   FIG. 4 is a diagram illustrating the viewpoint axis. FIG. 4A shows the relationship between the screen and the viewpoint viewed from the same direction as in FIG. Point L indicates the position of the left eye, point R indicates the position of the right eye, and point B indicates the shooting position of the input image. A viewpoint axis that is positive in the right direction in the figure passing through the points L, B, and R and whose origin is the point B is defined.

また、図4(b)も同様に、図3と同様の方向から見た画面と視点の関係を示す。この場合、点Sと点Tの2つの視点から撮影されたそれぞれの画像が入力されたときの視点軸は、図4(a)と同様に、図の右方向に正とし、撮影した視点の中間、つまり、点Sと点Tの中点を原点とする軸となる。この軸は、図3における直線BCと平行をなす。視点軸上では実空間の距離ではなく、人間の平均的な眼間距離を1に正規化した座標(scale)を用いる。そのように定義すると図4において、点Rは視点軸上で0.5、点Lは-0.5に位置する。以降の説明では、視点を視点軸上の座標で表すことにする。このようにすれば、式(1)を視点(scale)に応じた関数として式(2)の様に書くことができる。
4B also shows the relationship between the screen and the viewpoint viewed from the same direction as in FIG. In this case, the viewpoint axis when the images taken from the two viewpoints of the point S and the point T are input is positive in the right direction of the figure as in FIG. It is the axis with the origin at the middle, that is, the midpoint between points S and T. This axis is parallel to the straight line BC in FIG. On the viewpoint axis, coordinates obtained by normalizing the average human interocular distance to 1 instead of the real space distance are used. In such a definition, in FIG. 4, the point R is located at 0.5 on the viewpoint axis, and the point L is located at -0.5. In the following description, the viewpoint is represented by coordinates on the viewpoint axis. In this way, Expression (1) can be written as Expression (2) as a function corresponding to the viewpoint (scale).

このようにすれば、たとえば視点0.5から見た画像の画素位置iにおける画素値I(i,0.5)は、式(3)のように表せる。
In this way, for example, the pixel value I (i, 0.5) at the pixel position i of the image viewed from the viewpoint 0.5 can be expressed as in Expression (3).

また、入力画像が1視点による映像である場合について例示したが、2以上の視差画像が提供された場合でも同様に視点軸を設定することが出来る。左目用の画像は視点軸上では-0.5、右目用の画像は0.5から撮影されたと想定した視点軸を設定することができる。また、図5のように縦横に複数台のカメラが並べて撮影された画像が入力された場合においても、図5のv軸,h軸のように視点軸を定めることも可能である。   Moreover, although the case where the input image is a video from one viewpoint has been illustrated, the viewpoint axis can be set similarly even when two or more parallax images are provided. The viewpoint axis can be set assuming that the image for the left eye is taken from -0.5 on the viewpoint axis and the image for the right eye is taken from 0.5. Further, even when an image captured by arranging a plurality of cameras in the vertical and horizontal directions as shown in FIG. 5 is input, it is possible to determine viewpoint axes such as the v-axis and h-axis in FIG.

陰面領域に属する画素数と視点との関係について、図6〜図9を用いて説明する。   The relationship between the number of pixels belonging to the hidden surface area and the viewpoint will be described with reference to FIGS.

図6は入力画像とそれに対応する奥行き情報の一例を表す図である。奥行き情報は、黒ければ黒いほど視聴者側に近い位置を示す。   FIG. 6 is a diagram illustrating an example of an input image and depth information corresponding to the input image. The depth information indicates a position closer to the viewer side as it is blacker.

図7は、図6の入力画像上に仮定した線分MNを通る平面における奥行きの分布と視点の組を示す図である。太線で示した線は、奥行き値を表している。(L、R)、(L’、R’)の2つの視点の組を仮定する。L、L'は左目の視点、R、R'は右目の視点を表している。LとRとの間の距離、及びL’とR’との間の距離は、それぞれ平均的な眼間距離であることが好ましい。視点の組(L,R)から見た場合の視差画像を生成すると、視点Rから見た場合において図7中に示したように幾何的に陰面領域701が発生する。陰面領域とは、ある視点からは別の物体や面の陰になって入力画像では見えない部分にある領域を示す。   FIG. 7 is a diagram showing a set of depth distribution and viewpoints in a plane passing through the line segment MN assumed on the input image of FIG. A line indicated by a bold line represents a depth value. Assume a set of two viewpoints (L, R) and (L ', R'). L and L ′ represent the left eye viewpoint, and R and R ′ represent the right eye viewpoint. The distance between L and R and the distance between L 'and R' are preferably average interocular distances, respectively. When the parallax image viewed from the viewpoint set (L, R) is generated, the hidden surface area 701 is geometrically generated when viewed from the viewpoint R as shown in FIG. The hidden surface area is an area that is behind another object or surface from a certain viewpoint and is not visible in the input image.

図8(a)は、図6の入力画像から生成した、視点L、Rにおける視差画像を示す図である。陰面領域701を含む視差画像が生成される。入力画像には、陰面領域の情報が含まれないために、何らかの方法で推定した画素値を補間する必要がある。しかしながら、陰面領域の画素値を正しく予想することは困難であり、画質劣化が生じる可能性が高い。   FIG. 8A is a diagram showing parallax images at viewpoints L and R generated from the input image of FIG. A parallax image including the hidden surface area 701 is generated. Since the input image does not include information on the hidden surface area, it is necessary to interpolate pixel values estimated by some method. However, it is difficult to correctly predict the pixel value of the hidden surface area, and there is a high possibility that image quality degradation will occur.

図8(b)は、図6の入力画像から生成した、視点L’、R’における視差画像を示す図である。図7の例の場合、視点の組(L’、R’)から見た場合の視差画像を生成すると、陰面領域が発生しない。したがって、図8(b)に示すように陰面領域を含まずに視差画像を生成することが可能になる。つまり、入力された奥行き情報に応じて、適応的に視点の組を変更することによって、陰面領域に属する画素数の合計が変化することがわかる。   FIG. 8B is a diagram illustrating parallax images at the viewpoints L ′ and R ′ generated from the input image in FIG. 6. In the case of the example in FIG. 7, when a parallax image viewed from the viewpoint set (L ′, R ′) is generated, a hidden surface area does not occur. Therefore, it is possible to generate a parallax image without including the hidden surface area as shown in FIG. That is, it can be seen that the total number of pixels belonging to the hidden area changes by adaptively changing the set of viewpoints according to the input depth information.

図9は、立体画像生成装置の動作を説明する図である。   FIG. 9 is a diagram for explaining the operation of the stereoscopic image generating apparatus.

算出部101が、候補となる視点の組を、視点軸に従って設定する(S901)。たとえば、左目用の視差画像と右目用の視差画像を生成するときは、各組が2視点から成る。集合Ωは、候補となる視点の組を示す。なお、あらかじめ候補となる視点の組を定めておいても良い。集合Ωを以下の場合で設定した例について説明する。
Ω={ (-0.5, 0.5), (-1.0, 0.0), (0.0, 1.0)}
3つの視点の組を候補とする例を述べたが、複数であれば任意の数でよい。なお、候補の数が多くなるほど演算量が必要になる。そのため、許容される演算量に応じて候補の数を設定するのが好ましい。また、視点の組の要素の1つに入力画像が撮影された視点と同じ視点を含めることで、後段の視差画像生成においての演算量を削減することが可能である。例えば、前述の例の(-1.0, 0.0),(0.0, 1.0)は、入力画像が撮影された視点と同じ視点を含む。
The calculation unit 101 sets a set of candidate viewpoints according to the viewpoint axis (S901). For example, when generating a parallax image for the left eye and a parallax image for the right eye, each set consists of two viewpoints. The set Ω indicates a set of candidate viewpoints. Note that a set of candidate viewpoints may be determined in advance. An example in which the set Ω is set in the following case will be described.
Ω = {(-0.5, 0.5), (-1.0, 0.0), (0.0, 1.0)}
Although an example in which a set of three viewpoints is used as a candidate has been described, any number may be used as long as it is a plurality. Note that the amount of calculation is required as the number of candidates increases. Therefore, it is preferable to set the number of candidates according to the allowable calculation amount. In addition, by including the same viewpoint as the viewpoint from which the input image was captured in one of the viewpoint set elements, it is possible to reduce the amount of computation in the subsequent stage parallax image generation. For example, (−1.0, 0.0) and (0.0, 1.0) in the above example include the same viewpoint as the viewpoint from which the input image was captured.

算出部101が、集合Ωのそれぞれの視点の組ωに対して評価値E(ω)を算出する(S902)。評価値E(ω)は、先に述べたように陰面領域に属する画素数が大きくなればなるほど大きくなるような値を用いる。評価値E(ω)の算出方法は、様々な方法が考えられる。1つは、前に述べた視差ベクトルを利用して、視差ベクトルの指し示す位置に入力画素値を割り当て、画素値が割り当てられない画素数を算出すればよい。具体的な算出方法は、図10を用いて後述する。   The calculating unit 101 calculates the evaluation value E (ω) for each viewpoint set ω of the set Ω (S902). As described above, the evaluation value E (ω) is a value that increases as the number of pixels belonging to the hidden surface area increases. There are various methods for calculating the evaluation value E (ω). One is to use the disparity vector described above, assign an input pixel value to the position indicated by the disparity vector, and calculate the number of pixels to which no pixel value is assigned. A specific calculation method will be described later with reference to FIG.

算出部101は、S901で設定した視点の組全ての評価値を算出したか判定し(S903)、算出していない場合(S903,No)、S902に戻り評価値を算出していない視点の組の評価値E(ω)を算出する。S901で設定した視点の組全ての評価値を算出した場合(S903,Yes)、S904に進む。   The calculation unit 101 determines whether or not the evaluation values of all the viewpoint sets set in S901 have been calculated (S903). If not calculated (S903, No), the process returns to S902 and the viewpoint sets for which evaluation values have not been calculated. The evaluation value E (ω) is calculated. When the evaluation values of all the viewpoint sets set in S901 have been calculated (S903, Yes), the process proceeds to S904.

選択部102は、S902で算出した評価値に基づいて視差画像の生成に使用する視点の組を選択する(S904)。評価値が最小の視点の組を選択するのが好ましい。   The selection unit 102 selects a set of viewpoints used for generating a parallax image based on the evaluation value calculated in S902 (S904). It is preferable to select a set of viewpoints having the smallest evaluation value.

視差画像生成部103は、S904で選択された視点の組に対応する視差画像を生成する。例えば、S904で選択された視点の組が(0.0, 1.0)の場合には、視点1.0に対応する視差画像を生成する(S905)。なお、視点0.0に対応する画像は入力画像なので改めてS905で生成する必要はない。   The parallax image generation unit 103 generates a parallax image corresponding to the set of viewpoints selected in S904. For example, if the viewpoint set selected in S904 is (0.0, 1.0), a parallax image corresponding to the viewpoint 1.0 is generated (S905). Note that since the image corresponding to the viewpoint 0.0 is an input image, there is no need to generate it again in S905.

S905で生成した視差画像を出力し、1つの入力画像に対する処理を終了する。   The parallax image generated in S905 is output, and the process for one input image is terminated.

図10は、算出部101が行うS902の詳細な動作の一例を示す図である。   FIG. 10 is a diagram illustrating an example of a detailed operation of S902 performed by the calculation unit 101.

算出部101は、E(ω)を0に初期化する(S9021)。入力された奥行き情報を用いて、処理対象の視点の組ωのうちのある視点ωjの画像内の各画素が陰面領域であるか否かを表すマップ関数Map(i,ωj)を作成する。視点ωjに対応する画像上の画素i∈Pに対して、Map(i,ωj)=OCCLUDEを初期値として設定する(S9022)。ここで、Pは入力画像のすべての画素を示す。OCCLUDEとは、左辺で示される画素が陰面領域に属することを意味する。 The calculation unit 101 initializes E (ω) to 0 (S9021). Using the input depth information, create a map function Map (i, ω j ) that represents whether each pixel in the image of a certain viewpoint ωj in the set of viewpoints ω to be processed is a hidden surface area . Map (i, ω j ) = OCCLUDE is set as an initial value for the pixel i∈P on the image corresponding to the viewpoint ωj (S9022). Here, P indicates all the pixels of the input image. OCCLUDE means that the pixel indicated on the left side belongs to the hidden area.

次に、画素i∈Pに対して、奥行き情報を変換した視差ベクトルd(i,ωj)分シフトさせた位置の値をMap(i+d(i,ωj),ωj)=NOT_OCCLUDEと書き換える(S9023)。ここで、NOT_OCCLUDEとは、左辺で示される画素が陰面領域に属しないことを意味する。 Next, the value of the position shifted by the disparity vector d (i, ω j ) obtained by converting the depth information with respect to the pixel i∈P is calculated as Map (i + d (i, ω j ), ω j ) = NOT_OCCLUDE (S9023). Here, NOT_OCCLUDE means that the pixel indicated by the left side does not belong to the hidden surface area.

そして、全てのωの要素ωjについてステップS9022〜S9023の処理が終了したか否かを判定する(S9024)。全てのωの要素ωjについてS9022〜S9023の処理が終了していない場合(S9024,NO)は、ステップS9022に遷移する。 Then, it is determined whether the processing in step S9022~S9023 the elements omega j of all omega has been completed (S9024). If the processing of S9022 to S9023 has not been completed for all ω elements ω j (S9024, NO), the process proceeds to step S9022.

全てのωの要素ωjについてS9022〜S9023の処理が終了した場合(S9024,YES)、Map(i,ωj)のすべての画素i∈Pに対して、Map(i,ωj)=OCCLUDEであるか否かを判定する(S9025)。Map(i,ωj)=OCCLUDEの場合(S9025,Yes)、E(ω)に当該画素の数を加算する(S9026)。すなわち、マップ関数Map(i,ωj)の全ての画素i∈Pの中で、Map(i,ωj)=OCCLUDEである画素の数をE(ω)に加算する。Map(i,ωj)=OCCLUDEでない場合(Map(i,ωj)=NOT_OCCLUDEの場合)は(S9025,NO)、ステップS9026の処理は行わず、ステップS9027遷移する。 If the processing of S9022~S9023 has ended the elements omega j for all ω (S9024, YES), for all pixels i∈P the Map (i, ω j), Map (i, ω j) = OCCLUDE It is determined whether or not (S9025). If Map (i, ω j ) = OCCLUDE (S9025, Yes), the number of pixels is added to E (ω) (S9026). That is, among all the pixels iεP of the map function Map (i, ω j ), the number of pixels with Map (i, ω j ) = OCCLUDE is added to E (ω). If Map (i, ωj) = OCCLUDE is not satisfied (Map (i, ωj) = NOT_OCCLUDE) (S9025, NO), the process of step S9026 is not performed, and the process proceeds to step S9027.

これにより、視差画像I(i,ωj)において、視差ベクトルによって画素値が割り当てられない、つまり陰面領域に属する画素数を示す評価値E(ω)が得られる。 As a result, in the parallax image I (i, ω j ), an evaluation value E (ω) indicating that the pixel value is not assigned by the parallax vector, that is, the number of pixels belonging to the hidden surface area is obtained.

ステップS9027では、全ての画素iについてステップS9025〜S9026の処理が終了したか否かを判定する(S9027)。全ての画素iについてステップS9025〜S9026の処理が終了していない場合(S9027,NO)は、ステップS9025に遷移する。   In step S9027, it is determined whether or not the processing of steps S9025 to S9026 has been completed for all pixels i (S9027). If the processing of steps S9025 to S9026 has not been completed for all the pixels i (S9027, NO), the process proceeds to step S9025.

全ての画素iについてステップS9025〜S9026の処理が終了した場合(S9027,YES)は、全てのωの要素ωjについてステップS9025〜S9026の処理が終了したか否かを判定する(S9028)。全てのωの要素ωjについてS9025〜S9026の処理が終了していない場合(S9028,NO)は、ステップS9025に遷移する。 When the process of step S9025~S9026 is for all pixels i finished (S9027, YES), it is determined whether or not the processing of steps S9025~S9026 the elements omega j of all omega has been completed (S9028). If the processing of S9025 to S9026 has not been completed for all ω elements ω j (S9028, NO), the process proceeds to step S9025.

全てのωの要素ωjについてS9025〜S9026の処理が終了した場合(S9028,YES)、ステップS902の処理を終了する。 When the processing of S9025 to S9026 has been completed for all ω elements ω j (S9028, YES), the processing of step S902 is terminated.

(変更例1)
図11は、算出部101が行う評価値の算出方法の別の例について述べる図である。図10の処理においては、陰面領域画素数を単純に算出していた。陰面領域画素の周辺に画素値が割り当てられている場合は、内挿補間が行える。そのため陰面領域の画素が大きな画質劣化を引き起こさない場合がある。逆に、陰面領域画素が集中した場合は内挿補間などの手段がとれないために、陰面領域の画素値の推定が困難となる。この困難さを考慮した評価値の算出方法を図11に示す。図10のS9025〜S9028のステップをS1101〜S1108に置き換えて算出部101が処理すればよい。
(Modification 1)
FIG. 11 is a diagram describing another example of the evaluation value calculation method performed by the calculation unit 101. In the process of FIG. 10, the number of hidden area pixels is simply calculated. When pixel values are assigned around the hidden surface area pixels, interpolation can be performed. For this reason, the pixels in the hidden surface area may not cause large image quality degradation. Conversely, when hidden surface area pixels are concentrated, it is difficult to estimate the pixel value of the hidden surface area because measures such as interpolation cannot be taken. An evaluation value calculation method taking this difficulty into account is shown in FIG. The calculation unit 101 may perform processing by replacing steps S9025 to S9028 in FIG. 10 with steps S1101 to S1108.

まず、内部変数weightを0に初期化する(S1101)。Map(i,ωj)のすべての画素i∈Pに対して、Map(i,ωj)=OCCLUDEであるか否かを判定する(S1102)。画素i∈Pに対して、Map(i,ωj)がOCCLUDEのとき(S1102,Yes)、weightをインクリメントし、次に、E(ω)にweightを足しこむ(S1103)。また、Map(i,ωj)がOCCLUDEではないとき(S1102,NO)、weightを0にする(S1104)。このとき、画素iの選ばれる順番はラスタスキャン走査順に従う。つまり、この操作は、S1102において、ラスタスキャン走査順で選択された各画素が連続して、陰面領域に属すると判定されればされるほど、weightの値が大きくなり、S1103におけるE(ω)の増加量が大きくなる。 First, the internal variable weight is initialized to 0 (S1101). Map (i, ω j) for all pixels i∈P of, Map (i, ω j) = determines a whether OCCLUDE (S1102). When Map (i, ω j ) is OCCLUDE for the pixel iεP (S1102, Yes), the weight is incremented, and then the weight is added to E (ω) (S1103). When Map (i, ω j ) is not OCCLUDE (S1102, NO), the weight is set to 0 (S1104). At this time, the order in which the pixel i is selected follows the raster scan scanning order. That is, in this operation, the weight value increases as it is determined in S1102 that the pixels selected in the raster scan scan order are consecutively belonging to the hidden surface area, and E (ω) in S1103. The amount of increase increases.

そして、全ての画素iについてステップS1102〜S1104の処理が終了したか否かを判定する(S1105)。全ての画素iについてステップS1102〜S1104の処理が終了していない場合(S1105,NO)は、ステップS1102に遷移する。全ての画素iについてステップS1102〜S1104の処理が終了した場合(S1105,YES)は、全てのωの要素ωjについてステップS1102〜S1104の処理が終了したか否かを判定する(S1106)。全てのωの要素ωjについてS1102〜S1104の処理が終了していない場合(S1106,NO)は、ステップS1102に遷移する。 Then, it is determined whether or not the processing of steps S1102 to S1104 has been completed for all the pixels i (S1105). If the processing of steps S1102 to S1104 has not been completed for all the pixels i (S1105, NO), the process proceeds to step S1102. When the process of step S1102~S1104 has been completed for all pixels i (S1105, YES), the processing of step S1102~S1104 the elements omega j of all omega determines whether or not it is completed (S1106). If the processing of S1102 to S1104 has not been completed for all ω elements ω j (S1106, NO), the process proceeds to step S1102.

全てのωの要素ωjについてS1102〜S1104の処理が終了した場合(S1106,YES)は、処理を終了する。 When the processing of S1102 to S1104 is completed for all ω elements ω j (S1106, YES), the processing ends.

なお、ここでは、ラスタスキャン順を挙げたが、その他にヒルベルト走査など画像内の領域を一筆書きで走査する順番に変更してもよい。さらに、S1103におけるE(ω)+=weightの代わりに、E(ω)+=2^weightのようにして、陰面領域が連続すればするほどより評価値が大きくなるようにしてもよい。   Although the raster scan order is described here, other areas such as Hilbert scanning may be changed to the order of scanning with a single stroke. Further, instead of E (ω) + = weight in S1103, E (ω) + = 2 ^ weight may be used so that the evaluation value becomes larger as the hidden surface region continues.

また、陰面領域は画面の中央付近に出現すると、主観的に画質劣化が目立ちやすい。このことを考慮すると、図11のS1103におけるE(ω)++の代わりに、E(ω)+=exp(-(Norm(i-c)))として、画素位置iが画面中央に近ければ近いほど評価値を大きくすることも可能である。ここで、cは画面の中央位置を表すベクトルである。また、Norm()は、ベクトルのノルム値を表す関数であり、一般的なL1ノルムやL2ノルムを使用する。同様に、図11のS1103におけるE(ω)+=weightの代わりにE(ω)+=weight*exp(-Norm((i-c)))のようにして、同様の効果を持たせてもよい。   In addition, when the hidden surface area appears near the center of the screen, the image quality deterioration tends to be noticeable subjectively. In consideration of this, instead of E (ω) ++ in S1103 in FIG. 11, E (ω) + = exp (− (Norm (ic))) is used, and the closer the pixel position i is to the center of the screen, the more evaluation is performed. It is also possible to increase the value. Here, c is a vector representing the center position of the screen. Norm () is a function representing a vector norm value, and uses a general L1 norm or L2 norm. Similarly, E (ω) + = weight * exp (−Norm ((ic))) may be given in place of E (ω) + = weight in S1103 in FIG. .

(変更例2)
また、視点の組は時間的に不連続であると、それによる映像の時間的つながりがなくなるために、主観的に大きな画質劣化につながる。そこで、時間的に1フレーム前において視差画像を作成した場合の視点の組ωt-1となるべく近い視点の組が後述する選択部102において選択されるようにするような評価値E(ω)の導出法も考えられる。具体的には、図10のS9026におけるE(ω)++の代わりに、E(ω)+=(1-exp(-(Norm(ω-ωt-1))))として、視点の組ωが前フレーム作成時に選択された視点の組ωt-1に近ければ近いほど評価値を小さくすることも可能である。Norm()は、先に述べたように、一般的なL1ノルムやL2ノルムを使用する。同様に、図11のS1103におけるE(ω)+=weightの代わりにE(ω)+=weight*(1-exp(-(Norm(ω-ωt-1))))のようにして、同様の効果を持たせてもよい。
(Modification 2)
In addition, if the set of viewpoints is discontinuous in time, the temporal connection of the video is lost, which leads to a significant deterioration in image quality subjectively. Therefore, an evaluation value E (ω) that allows a selection unit 102 (to be described later) to select a viewpoint set as close as possible to the viewpoint set ω t-1 when a parallax image is created one frame before in time. The derivation method of can also be considered. Specifically, instead of E (ω) ++ in S9026 of FIG. 10, E (ω) + = (1-exp (− (Norm (ω−ω t−1 ))))) It is also possible to make the evaluation value smaller as is closer to the viewpoint set ω t−1 selected at the time of creating the previous frame. As described above, Norm () uses a general L1 norm or L2 norm. Similarly, instead of E (ω) + = weight in S1103 in FIG. 11, E (ω) + = weight * (1-exp (-(Norm (ω-ω t-1 )))) You may give the same effect.

陰面領域の大きさは、与えられた奥行き情報において、隣接画素の奥行き値の1次微分から求められることが幾何的な関係からわかる。以下では、そのことを説明する。   It can be seen from the geometric relationship that the size of the hidden surface area can be obtained from the first derivative of the depth value of the adjacent pixel in the given depth information. This will be described below.

図12は、図3などと同様に、鉛直方向から見た場合の図を表している。点Aは、視点軸上でαの位置にある視点とする。つまり線分AEの長さは、眼間距離をbとすればbαとなる。点Cおよび点Dは画素位置を表していて、この場合点C及び点Dは隣接している画素とする。また、奥行き値が従う座標z軸の原点に画面を配置する。ここで、z軸の負の値は、−Zs以下にはならないことを仮定する。これは、視聴者の位置よりも飛び出してくることはないためである。このz軸に従って、点Cの奥行き値z(C)、点Dの奥行き値z(D)で表わす。視点軸の原点は点Eである。太線は、与えられた奥行き値を表している。この場合、線分BCの長さが陰面領域の大きさになることがわかる。この線分BCの長さは、△AEFと△BCFの相似関係を用いると、
のように書ける。ただし、αは0以上の場合である。なぜなら、図で示すようにz(C)とz(D)の勾配z(C)-z(D)が負のときの陰面領域は、α>1のとき発生するためである。
FIG. 12 shows a view when viewed from the vertical direction, similarly to FIG. 3 and the like. Point A is the viewpoint at the position α on the viewpoint axis. That is, the length of the line segment AE is bα when the interocular distance is b. Point C and point D represent pixel positions, and in this case, point C and point D are adjacent pixels. Also, the screen is arranged at the origin of the coordinate z axis that the depth value follows. Here, it is assumed that the negative value of the z-axis does not fall below −Zs. This is because it will not jump out of the viewer's position. According to the z-axis, the depth value z (C) of the point C and the depth value z (D) of the point D are represented. The origin of the viewpoint axis is point E. A bold line represents a given depth value. In this case, it can be seen that the length of the line segment BC becomes the size of the hidden surface area. The length of this line segment BC is obtained by using the similar relationship between ΔAEF and ΔBCF.
It can be written as However, α is 0 or more. This is because, as shown in the figure, the hidden surface region when the gradient z (C) -z (D) of z (C) and z (D) is negative occurs when α> 1.

図13は、視点と陰面面積の関係を示す別の概念図である。図12を左右反転した場合の図を示す。ただし、点Cと点Dの位置関係を図12と同じにするために、点Cと点Dの位置は入れ替えている。つまり、奥行き値の勾配z(C)-z(D)>0となる場合を示す。この場合、先ほどと同様に幾何的な関係を用いれば、線分BDの長さは、
のように書ける。ただし、α<0となる。これらの関係をまとめると、陰面領域の大きさを表す線分の長さL(α,i,j)は
と書ける。画素位置i,jは隣接した画素である。
FIG. 13 is another conceptual diagram showing the relationship between the viewpoint and the hidden surface area. The figure at the time of turning right and left in FIG. 12 is shown. However, the positions of the points C and D are interchanged in order to make the positional relationship between the points C and D the same as in FIG. That is, the depth value gradient z (C) -z (D)> 0 is shown. In this case, if the geometric relationship is used as before, the length of the line segment BD is
It can be written as However, α <0. To summarize these relationships, the length L (α, i, j) of the line segment representing the size of the hidden surface area is
Can be written. Pixel positions i and j are adjacent pixels.

図14は、Lを用いた際の評価値E(ω)の算出方法を説明する図である。図14のステップS501〜ステップS503に示すように、算出部101は、集合Ωの要素ωに含まれる視点すべてに対し、及びすべての画素i∈Pに対し、
によって評価値を算出することもできる。その場合、ただし、jはラスタスキャン順にiを走査していった場合の次の位置の画素位置を示す。また、数7は、陰面領域の大きさが大きくなればなるほど評価値E(ω)が大きくなるように、
のようにしてもよい。ただし、Pow(x,y) はxのy乗の値を返す関数である。さらに、画面の中央にある陰面領域であればあるほど、評価値E(ω)が大きくなるように、画面の中心位置を示す位置ベクトルcを用いて
のようにしてもよい。また、選ばれる視点の組が時間的に大きな変化を起こさないように
などの式を用いてもよい。
FIG. 14 is a diagram for explaining a method of calculating the evaluation value E (ω) when L is used. As shown in step S501 to step S503 in FIG. 14, the calculation unit 101 calculates all the viewpoints included in the element ω of the set Ω and all the pixels iεP.
The evaluation value can also be calculated by. In this case, however, j indicates the pixel position of the next position when i is scanned in the raster scan order. Further, Equation 7 is such that the evaluation value E (ω) increases as the size of the hidden surface region increases.
It may be as follows. Here, Pow (x, y) is a function that returns the value of x raised to the power of y. Furthermore, the position vector c indicating the center position of the screen is used so that the evaluation value E (ω) increases as the hidden surface area in the center of the screen increases.
It may be as follows. Also, make sure that the set of viewpoints selected does not change significantly over time.
An expression such as may be used.

選択部102は、算出部101において定義された集合Ωの要素それぞれの評価値E(ω)を入力とし、ひとつの視点の組ω_selを決定する。ω_selは、
のように、集合Ωのそれぞれの視点において評価値E(ω)が最小になる視点の組とする。または、所定の閾値Thに対してE(ω)<Thとなる視点の組の中から、ωt-1にもっとも近いωをω_selとする。ここで、所定の閾値Thとは、画面全体の画素数に対して陰面領域に属する画素数が0.1%となるように定めることが好ましい。
The selection unit 102 receives the evaluation value E (ω) of each element of the set Ω defined by the calculation unit 101 as input, and determines one viewpoint set ω_sel. ω_sel is
In this way, a set of viewpoints having the smallest evaluation value E (ω) at each viewpoint of the set Ω is set. Alternatively, ω_sel is set to ω closest to ω t−1 from a set of viewpoints where E (ω) <Th with respect to a predetermined threshold Th. Here, the predetermined threshold Th is preferably determined such that the number of pixels belonging to the hidden surface area is 0.1% with respect to the number of pixels of the entire screen.

視差画像生成部103は、奥行き情報と入力画像と選択部102において、決定された視点の組ω_selを取得し、視点の組に応じた視差ベクトルに従って視差画像を生成して出力する。この際、評価値が0でない限り陰面領域が発生する。発生した陰面領域に対して画素値を与える方法は、既存の如何なる方法であっても構わない。   The parallax image generation unit 103 acquires the determined viewpoint set ω_sel in the depth information, the input image, and the selection unit 102, generates a parallax image according to the parallax vector corresponding to the viewpoint set, and outputs the parallax image. At this time, a hidden surface area is generated unless the evaluation value is zero. Any existing method may be used as a method for giving a pixel value to the generated hidden surface area.

第1の実施形態によれば、あらかじめ設定した複数の第2の視点の組から視差画像を生成した場合に現れる陰面領域の画素数が大きくなればなるほど大きくなる評価値を算出し、評価値が最小になる第2の視点の組を選択し、その第2の視点の組から仮想的に撮影した場合の視差画像を生成することで、陰面領域に属する画素数を低減させることが可能となり、視差画像をより高画質化することが可能となる。   According to the first embodiment, an evaluation value that increases as the number of pixels of the hidden surface area that appears when a parallax image is generated from a plurality of second viewpoint sets set in advance is increased. By selecting the second set of viewpoints to be minimized and generating a parallax image when virtually taken from the set of second viewpoints, it becomes possible to reduce the number of pixels belonging to the hidden surface area, It becomes possible to improve the quality of parallax images.

また、上記例は2次元の画像1枚が入力された場合であるが、提供者側があらかじめ用意している左目用と右目用の視差画像が入力された場合に対しても、撮影時とは異なる撮影位置からの画像を生成する用途がある。それは、入力された視差画像は、提供者側ですでに定められた視差量によって立体映像を出力せざるを得ない一方で、視聴者側ではより視差量をつけて迫力のある立体映像を視聴したい、または視差量を弱めて立体映像の視聴による疲労を低減させたいなどのニーズに対しての用途である。そのために、入力左右視差画像に対してステレオマッチングなどの手法によって奥行き情報を生成し、奥行きのダイナミックレンジを大きく、または小さくした視差画像を生成することで、上記視聴者のニーズに応えることも可能になる。   In addition, the above example is a case where one two-dimensional image is input. However, when a parallax image for left eye and right eye prepared in advance by the provider is input, There are uses for generating images from different shooting positions. That is, the input parallax image has to output a stereoscopic image with the amount of parallax already determined on the provider side, while the viewer side can view a powerful stereoscopic image with a larger amount of parallax. This is an application for needs such as wanting to reduce the amount of parallax or reducing fatigue caused by viewing a stereoscopic image. Therefore, it is possible to meet the above needs of viewers by generating depth information for input left and right parallax images by methods such as stereo matching and generating parallax images with a large or small dynamic range of depth. become.

(第2の実施形態)
第1の実施形態では、あらかじめ設定した複数の第2の視点の組から視差画像を生成した場合に現れる陰面領域の画素数が大きくなればなるほど大きくなる評価値を算出し、評価値が最小になる第2の視点の組を選択していた。その場合、視点が時系列に急激な変化を起こす可能性がある。動画像が入力されている場合において、視点の急激な変化が起こると、立体映像の時間的なつながりがなくなり、視聴者に違和感を与える。本実施形態では、視点の変化を緩やかにすることで、上記問題を解消する。
(Second Embodiment)
In the first embodiment, an evaluation value that increases as the number of pixels of a hidden surface area that appears when a parallax image is generated from a set of a plurality of second viewpoints set in advance is increased, and the evaluation value is minimized. The second viewpoint set was selected. In that case, the viewpoint may change rapidly in time series. When a moving image is input, if a sudden change in viewpoint occurs, the temporal connection of stereoscopic video is lost, giving the viewer a sense of discomfort. In the present embodiment, the above problem is solved by gradual change of the viewpoint.

図15は、本実施形態の立体画像生成装置を示す図である。第1の実施形態とは、本実施形態の立体画像生成装置は、視点制御部201をさらに備える点が異なる。   FIG. 15 is a diagram illustrating a stereoscopic image generating apparatus according to the present embodiment. The stereoscopic image generating apparatus according to the present embodiment is different from the first embodiment in that the viewpoint control unit 201 is further provided.

視点制御部201は、選択部102が選択した視点の組ω_selを取得し、内部的に保持している過去の視差画像の作成時の視点の組を利用して、補正した視点の組ω_corを視差画像生成部103に送る。補正した視点の組ω_corの導出方法について説明する。   The viewpoint control unit 201 acquires the viewpoint set ω_sel selected by the selection unit 102, and uses the viewpoint set at the time of creation of the past parallax image that is internally held, thereby correcting the corrected viewpoint set ω_cor. It is sent to the parallax image generation unit 103. A method of deriving the corrected viewpoint set ω_cor will be described.

nフレーム前に作成した視差画像の視点の組をω(n)で表わすことにする。ここで、ω(0)はω_selとする。ω_corは、次のFIRフィルタによって導出する。
ただし、aiは、フィルタ係数であり、上記FIRフィルタがローパスフィルタになる特性をもつ係数を設定する。
A set of viewpoints of parallax images created n frames before is represented by ω (n) . Here, ω (0) is ω_sel. ω_cor is derived by the following FIR filter.
Here, a i is a filter coefficient, and a coefficient having a characteristic that the FIR filter becomes a low-pass filter is set.

また、ω_corは、1次遅れを用いて次式によって導出することができる。
ω_cor = h*ω(0)+(1-h)ω(1)
hは時定数を表している。その範囲は、0<h<1である。
Further, ω_cor can be derived by the following equation using a first-order delay.
ω_cor = h * ω (0) + (1-h) ω (1)
h represents a time constant. The range is 0 <h <1.

また、演算量を低減するために、ω_colの視点のうち少なくとも1つは入力画像の撮影位置に固定することも考えられる。   In order to reduce the amount of calculation, it is conceivable that at least one of the viewpoints of ω_col is fixed at the shooting position of the input image.

このように第2の実施形態では、視点の急激な変化を抑えることで、立体映像の時間的なつながりを持たせ、視聴者に違和感を与えない立体映像生成装置を実現できる。   As described above, in the second embodiment, it is possible to realize a stereoscopic video generation apparatus that suppresses a sudden change in the viewpoint to provide a temporal connection of stereoscopic video and does not give the viewer a sense of incongruity.

(第3の実施形態)
第2の実施形態では、陰面領域に属する画素数が小さくなる視点の組になるまでは緩やかに変化するため、この遷移の間は陰面領域に属する画素数が必ずしも小さくならない。一方で、シーンチェンジのタイミングにおいては、視差位置を急激に変化させても視聴者に違和感を与えることはない。そこで、本実施形態では、動画のシーンが変化するタイミングにおいては、視差位置の変化を大きくすることで、より適切な視点の組による立体映像生成方法を提供する。
(Third embodiment)
In the second embodiment, since the number of pixels belonging to the hidden surface area changes gradually until the viewpoint set becomes smaller, the number of pixels belonging to the hidden surface area does not necessarily decrease during this transition. On the other hand, at the timing of the scene change, even if the parallax position is changed abruptly, the viewer does not feel uncomfortable. Therefore, in the present embodiment, a stereoscopic video generation method with a more appropriate set of viewpoints is provided by increasing the change in the parallax position at the timing when the moving image scene changes.

図16は、本実施形態の構成を示す図である。図1と比較して、検出部301と視点制御部302を更に有する点が異なる。   FIG. 16 is a diagram illustrating a configuration of the present embodiment. Compared to FIG. 1, the difference is that it further includes a detection unit 301 and a viewpoint control unit 302.

検出部301は、入力画像内のシーンチェンジを検出する。検出対象のフレームの前においてシーンチェンジの発生を検出した場合にDETECT信号を視点制御部302に送る。また、シーンチェンジの発生を検出しなかった場合に、NONE信号を視点制御部302に送る。   The detection unit 301 detects a scene change in the input image. When the occurrence of a scene change is detected before the detection target frame, a DETECT signal is sent to the viewpoint control unit 302. If no occurrence of a scene change is detected, a NONE signal is sent to the viewpoint control unit 302.

視点制御部302は、検出部301からNONE信号を受信した場合は、視差位置制御部201と同様の処理を行う。一方で、DETECT信号を受信した場合は、FIRフィルタの出力ではなく、ω(0)をω_corとする。また、1次遅れ系でω_colを導出する場合、時定数をh1にする。ただし、1>h1>hである。 When the viewpoint control unit 302 receives a NONE signal from the detection unit 301, the viewpoint control unit 302 performs the same processing as the parallax position control unit 201. On the other hand, when the DETECT signal is received, ω (0) is set to ω_cor instead of the output of the FIR filter. When deriving ω_col in a first-order lag system, the time constant is set to h 1 . However, 1> h 1 > h.

このように第3の実施形態では、動画のシーンが変化するタイミングにおいては、視差位置の変化を大きくすることで、より適切な視点の組による立体映像生成装置を実現できる。 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As described above, in the third embodiment, at the timing when the moving image scene changes, it is possible to realize a stereoscopic video generation apparatus with a more appropriate set of viewpoints by increasing the change in the parallax position. Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

101…算出部、102…選択部、103…視差画像生成部、
201、302…視点制御部、
301…検出部
101 ... calculation unit, 102 ... selection unit, 103 ... parallax image generation unit,
201, 302 ... viewpoint control unit,
301... Detection unit

Claims (5)

少なくとも1枚の画像と、前記画像に対応する奥行き情報から、前記画像とは異なる視点の視差画像を生成する装置において、
2つ以上の視点を含む組毎に、視差画像を作成した場合に生じる陰面領域が大きくなる程、大きな値となる評価値を、前記奥行き情報から算出する算出部と、
前記視点の組に対して算出された前記評価値が最小となる前記視点の組を選択する選択部と、
前記画像が動画像である場合に動画像でない場合に比べて時間軸上での視点の変化を抑制するように選択された前記視点の組と、前記画像の少なくとも前のフレームを含む前記画像より前の連続した複数フレームにおいてそれぞれ選択された複数の視点の組とを用いて、前記画像に対する修正された視点の組を生成して出力する視点制御部と、
前記視点制御部から出力された前記修正された視点の組に対応する視点の視差画像を、前記画像から生成する生成部と、
を備える立体画像生成装置。
In an apparatus for generating a parallax image of a viewpoint different from the image from at least one image and depth information corresponding to the image,
For each set including two or more viewpoints, a calculation unit that calculates an evaluation value that becomes a larger value from the depth information as the hidden surface area generated when a parallax image is created increases;
A selection unit that selects the viewpoint set that minimizes the evaluation value calculated for the viewpoint set;
When the image is a moving image, the image includes the selected set of viewpoints and at least a previous frame of the image so as to suppress changes in the viewpoint on the time axis compared to a case where the image is not a moving image. A viewpoint control unit that generates and outputs a set of corrected viewpoints for the image using a plurality of viewpoint sets respectively selected in a plurality of previous consecutive frames;
A generation unit that generates a parallax image of a viewpoint corresponding to the corrected set of viewpoints output from the viewpoint control unit, from the image;
A three-dimensional image generating apparatus.
前記視点制御部は、記画像が動画像である場合に、前記画像の少なくとも前のフレームを含む前記画像より前の連続した複数フレームにおいてそれぞれ選択された複数の視点の組と、前記画像に対して選択された前記視点の組との線形和を前記修正された視点の組として導出する請求項1記載の立体画像生成装置。 The viewpoint control unit, when before Symbol image is a moving image, a set of a plurality of viewpoints that are respectively selected in a plurality of frames of the image from the previous contiguous containing at least previous frame of the image, the image The stereoscopic image generation apparatus according to claim 1, wherein a linear sum of the viewpoint set selected for the viewpoint is derived as the corrected viewpoint set. 前記線形和の係数はローパスフィルタになる特性を有している請求項2記載の立体画像生成装置。   The stereoscopic image generating apparatus according to claim 2, wherein the coefficient of the linear sum has a characteristic of becoming a low-pass filter. 前記画像が動画像である場合に、シーンチェンジを検出する検出部をさらに備え、
検出された前記シーンチェンジの前後における視点の変化を大きくする請求項1乃至のいずかに1項に記載の立体画像生成装置。
When the image is a moving image, further comprising a detection unit for detecting a scene change,
Stereoscopic image generating apparatus according to claim 1 to 3 noise crab 1 wherein increasing the change in aspect before and after said detected scene change.
少なくとも1枚の画像と、前記画像に対応する奥行き情報から、前記画像とは異なる視点の視差画像を生成する方法において、
2つ以上の視点を含む組毎に、視差画像を作成した場合に生じる陰面領域が大きくなる程、大きな値となる評価値を、前記奥行き情報から算出するステップと、
前記視点の組に対して算出された前記評価値が最小となる前記視点の組を選択するステップと、
前記画像が動画像である場合に動画像でない場合に比べて時間軸上での視点の変化を抑制するように、選択された前記視点の組と、前記画像の少なくとも前のフレームを含む前記画像より前の連続した複数フレームにおいてそれぞれ選択された複数の視点の組とを用いて、前記画像に対する修正された視点の組を生成して出力するステップと、
前記修正された視点の組に対応する視点の視差画像を、前記画像から生成するステップと、
を有する立体画像生成方法。
In a method for generating a parallax image of a viewpoint different from the image from at least one image and depth information corresponding to the image,
For each set including two or more viewpoints, calculating an evaluation value that becomes a larger value from the depth information as the hidden surface area generated when a parallax image is created increases;
Selecting the viewpoint set that minimizes the evaluation value calculated for the viewpoint set;
When the image is a moving image, the image includes the selected set of viewpoints and at least a previous frame of the image so as to suppress changes in the viewpoint on the time axis compared to a case where the image is not a moving image. Generating and outputting a modified set of viewpoints for the image using a set of viewpoints each selected in a plurality of previous consecutive frames;
Generating a parallax image of a viewpoint corresponding to the modified set of viewpoints from the image;
A method for generating a stereoscopic image.
JP2011044128A 2010-07-08 2011-03-01 Stereo image generating apparatus and method Active JP5431393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011044128A JP5431393B2 (en) 2010-07-08 2011-03-01 Stereo image generating apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010156136 2010-07-08
JP2010156136 2010-07-08
JP2011044128A JP5431393B2 (en) 2010-07-08 2011-03-01 Stereo image generating apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011027420A Division JP5627498B2 (en) 2010-07-08 2011-02-10 Stereo image generating apparatus and method

Publications (2)

Publication Number Publication Date
JP2012034339A JP2012034339A (en) 2012-02-16
JP5431393B2 true JP5431393B2 (en) 2014-03-05

Family

ID=45847170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011044128A Active JP5431393B2 (en) 2010-07-08 2011-03-01 Stereo image generating apparatus and method

Country Status (1)

Country Link
JP (1) JP5431393B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941139B2 (en) * 1993-03-11 1999-08-25 凸版印刷株式会社 Parallax image creation method and device
JP3485764B2 (en) * 1997-09-18 2004-01-13 三洋電機株式会社 Apparatus and method for converting 2D image to 3D image
JP2001320731A (en) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd Device for converting two-dimensional image into there dimensional image and its method
JP4242318B2 (en) * 2004-04-26 2009-03-25 任天堂株式会社 3D image generation apparatus and 3D image generation program
JP2006041811A (en) * 2004-07-26 2006-02-09 Kddi Corp Free visual point picture streaming method
JP2006191357A (en) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd Reproduction device and reproduction program

Also Published As

Publication number Publication date
JP2012034339A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
JP6147275B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP6027034B2 (en) 3D image error improving method and apparatus
JP4056154B2 (en) 2D continuous video 3D video conversion apparatus and method, and 3D video post-processing method
US8116557B2 (en) 3D image processing apparatus and method
JP6021541B2 (en) Image processing apparatus and method
US20110304708A1 (en) System and method of generating stereo-view and multi-view images for rendering perception of depth of stereoscopic image
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
JP5879713B2 (en) Image processing apparatus, image processing method, and program
TWI493505B (en) Image processing method and image processing apparatus thereof
JP2013527646A5 (en)
JP2013005259A (en) Image processing apparatus, image processing method, and program
JPWO2012056686A1 (en) 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
TW201242335A (en) Image processing device, image processing method, and program
JP6128442B2 (en) Method and apparatus for stereo-based expansion of stereoscopic images and image sequences {METHOD AND DEVICE FOR STREEO BASE EXTENSION OF STREOSSCOPIC IMAGES AND IMAGE SEQUENCES}
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6033625B2 (en) Multi-viewpoint image generation device, image generation method, display device, program, and recording medium
JP5627498B2 (en) Stereo image generating apparatus and method
JP6148154B2 (en) Image processing apparatus and image processing program
JP5931062B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP5127973B1 (en) Video processing device, video processing method, and video display device
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
JP2012105172A (en) Image generation device, image generation method, computer program, and record medium
JP4815004B2 (en) Multi-view image encoding device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131204

R151 Written notification of patent or utility model registration

Ref document number: 5431393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250