JP2013156955A - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2013156955A JP2013156955A JP2012019222A JP2012019222A JP2013156955A JP 2013156955 A JP2013156955 A JP 2013156955A JP 2012019222 A JP2012019222 A JP 2012019222A JP 2012019222 A JP2012019222 A JP 2012019222A JP 2013156955 A JP2013156955 A JP 2013156955A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- depth map
- image
- value
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、2D画像を立体視のための3D画像に変換する処理を実行する画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for executing processing for converting a 2D image into a 3D image for stereoscopic viewing.
近年、3D映画、3D放送などの3D映像コンテンツが普及してきている。観察者に立体視させるためには、視差を持つ右眼画像と左眼画像が必要である。3D映像を表示する際、右眼画像と左眼画像を時分割に表示し、シャッタメガネや偏光メガネなどの映像分離用メガネにより右眼画像と左眼画像を分離する。これにより観察者は右眼画像を右眼のみで、左眼画像を左眼のみで観察でき立体視できる。なお右眼画像と左眼画像を時分割ではなく空間分割すればメガネは必要なくなるが解像度が低下する。メガネ方式にしてもメガネレス方式にしても右眼画像と左眼画像が必要な点では共通する。 In recent years, 3D video contents such as 3D movies and 3D broadcasts have become widespread. In order to make an observer stereoscopically view, a right eye image and a left eye image having parallax are required. When displaying a 3D image, the right eye image and the left eye image are displayed in a time-sharing manner, and the right eye image and the left eye image are separated by image separation glasses such as shutter glasses and polarized glasses. Thus, the observer can observe the right eye image only with the right eye and the left eye image only with the left eye and can perform stereoscopic viewing. Note that if the right eye image and the left eye image are divided not by time division but by space division, glasses are not necessary, but the resolution is lowered. Both the glasses method and the glassesless method are common in that a right eye image and a left eye image are required.
3D映像を製作するには大きく2つの方法があり、2台のカメラを用いて右眼画像と左眼画像を同時に撮影する方法と、1台のカメラで撮影された2D画像を後に編集して視差画像を生成する方法がある。本発明は後者の方法に関するものであり、2D3D変換技術に関するものである。 There are two main methods for producing 3D video. A method for simultaneously capturing a right eye image and a left eye image using two cameras, and a later editing of a 2D image captured by one camera. There is a method for generating a parallax image. The present invention relates to the latter method, and to 2D3D conversion technology.
図1は、2D3D変換の基本処理プロセスを説明するための図である。まず2D入力画像からデプスマップ(奥行き情報ともいう)を生成する(ステップS10)。そして2D入力画像とデプスマップを用いて3D画像を生成する(ステップS30)。図1では2D入力画像を3D出力画像の右眼画像とし、2D入力画像をデプスマップを用いて画素シフトした画像を3D出力画像の左眼画像としている。以下、所定の視差を持つ右眼画像と左眼画像の組みを3D画像または視差画像という。 FIG. 1 is a diagram for explaining a basic processing process of 2D3D conversion. First, a depth map (also referred to as depth information) is generated from the 2D input image (step S10). Then, a 3D image is generated using the 2D input image and the depth map (step S30). In FIG. 1, a 2D input image is a right eye image of a 3D output image, and an image obtained by pixel shifting the 2D input image using a depth map is a left eye image of the 3D output image. Hereinafter, a combination of a right eye image and a left eye image having a predetermined parallax is referred to as a 3D image or a parallax image.
従来から、2D画像で表現されたシーン構造を推定してデプスマップを生成する様々な手法が提案されている。本出願人は画面内の所定領域における画素値の統計量を算定してシーン構造を推定し、それに応じて複数の基本奥行きモデルの合成比率を決定し、その合成比率に応じてデプスマップを生成する手法を提案している。この手法を用いれば、2D画像から比較的違和感が小さい3D画像を簡易かつ高速に生成できる。 Conventionally, various methods for estimating a scene structure expressed by a 2D image and generating a depth map have been proposed. The applicant calculates the statistic of pixel values in a predetermined area on the screen to estimate the scene structure, determines the composition ratio of multiple basic depth models accordingly, and generates a depth map according to the composition ratio We propose a method to do this. If this method is used, a 3D image with relatively little discomfort can be easily and quickly generated from a 2D image.
3D映画などの映像製作の分野では高品質な3D画像が求められる。上述の手法で生成できる3D画像の品質には限界がある。高品質な3D画像を製作するには膨大な人的作業が必要となる。例えば、画面内の多数のオブジェクトの各々の膨らみやオブジェクト間の位置関係の設定や調整、グラデーションの付加など細かな作業が必要となる。このような作業を全てのフレームに対して実施する手間と費用は膨大なものである。 High quality 3D images are required in the field of video production such as 3D movies. There is a limit to the quality of 3D images that can be generated by the above-described method. Enormous human work is required to produce high-quality 3D images. For example, detailed operations such as setting and adjusting the bulge of each of a large number of objects on the screen, the positional relationship between the objects, and adding gradation are required. The effort and cost for performing such operations on all frames is enormous.
本発明はこうした状況に鑑みてなされたものであり、その目的は、2D画像から3D画像を生成する際に、製作者の手間を軽減しつつ高品質な3D画像を生成できる技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technology capable of generating a high-quality 3D image while reducing the effort of the producer when generating a 3D image from a 2D image. It is in.
上記課題を解決するために、本発明のある態様の画像処理装置は、入力画像とデプスモデルをもとに、前記入力画像のデプスマップを生成するデプスマップ生成部(10)と、前記デプスマップ生成部(10)により生成されたデプスマップを、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに加工するデプスマップ加工部(20)と、前記入力画像、及び前記デプスマップ加工部(20)により加工されたデプスマップをもとに、別視点の画像を生成する画像生成部(30)と、前記デプスマップ加工部(20)によりそれぞれ加工された、デプスマップ内における複数の指定領域内のデプスの状態を表すデータをディスプレイにグラフで表示させる表示制御部(50)と、を備える。 In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes a depth map generation unit (10) that generates a depth map of the input image based on the input image and a depth model, and the depth map. A depth map processing unit (20) that processes the depth map generated by the generation unit (10) for each of a plurality of regions in a screen specified by a plurality of mask patterns set externally; the input image; and Based on the depth map processed by the depth map processing unit (20), the image generation unit (30) for generating an image of another viewpoint, and the depth map processed by the depth map processing unit (20), respectively. And a display control unit (50) for displaying data representing the state of depth in a plurality of designated areas in a graph on a display.
本発明の別の態様は、画像処理方法である。この方法は、入力画像とデプスモデルをもとに、前記入力画像のデプスマップを生成するステップと、生成されたデプスマップを、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに加工するステップと、それぞれ加工された、デプスマップ内における複数の指定領域内のデプスの状態を表すデータをディスプレイにグラフで表示させるステップと、前記入力画像、及び加工されたデプスマップをもとに、別視点の画像を生成するステップと、を備える。 Another aspect of the present invention is an image processing method. The method includes a step of generating a depth map of the input image based on the input image and a depth model, and the generated depth map is converted into a plurality of images in a screen specified by a plurality of externally set mask patterns. A step of processing for each region, a step of displaying on the display data representing the state of depth in each of the plurality of specified regions in the depth map, the input image, and the processed depth map Originally, generating an image of a different viewpoint.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.
本発明によれば、2D画像から3D画像を生成する際に、製作者の手間を軽減しつつ高品質な3D画像を生成できる。 According to the present invention, when generating a 3D image from a 2D image, it is possible to generate a high-quality 3D image while reducing the labor of the producer.
図2は、本発明の実施の形態に係る画像編集システム500の構成を示す図である。実施の形態に係る画像編集システム500は、画像処理装置100及びコンソール端末装置200を備える。 FIG. 2 is a diagram showing a configuration of an image editing system 500 according to the embodiment of the present invention. An image editing system 500 according to the embodiment includes an image processing device 100 and a console terminal device 200.
コンソール端末装置200は画像製作者(以下、ユーザという)が画像を製作、編集するために使用する端末装置である。コンソール端末装置200は操作部60および表示部70を備える。操作部60はキーボード、マウス等の入力デバイスであり、表示部70はディスプレイ等の出力デバイスである。なお入出力が一体となったデバイスであるタッチパネルディスプレイが用いられてもよい。またコンソール端末装置200はプリンタ、スキャナ等の印刷物を媒体として用いるユーザインタフェースを含んでよい。操作部60はユーザ操作を受け付け、そのユーザ操作に起因した信号を生成し、画像処理装置100に出力する。表示部70は画像処理装置100により生成された画像を表示する。 The console terminal device 200 is a terminal device used by an image producer (hereinafter referred to as a user) to produce and edit an image. The console terminal device 200 includes an operation unit 60 and a display unit 70. The operation unit 60 is an input device such as a keyboard and a mouse, and the display unit 70 is an output device such as a display. Note that a touch panel display which is a device in which input and output are integrated may be used. The console terminal device 200 may include a user interface that uses a printed material such as a printer or a scanner as a medium. The operation unit 60 receives a user operation, generates a signal resulting from the user operation, and outputs the signal to the image processing apparatus 100. The display unit 70 displays an image generated by the image processing apparatus 100.
画像処理装置100はデプスマップ生成部10、デプスマップ加工部20、3D画像生成部30、操作受付部40、表示制御部50を含む。これらの構成はハードウエア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。例えばデプスマップ生成部10、デプスマップ加工部20、3D画像生成部30について、その機能を全てソフトウェアで実現してもよいし、デプスマップ生成部10および3D画像生成部30の機能を専用のロジック回路で構成しデプスマップ加工部20をソフトウェアで実現してもよい。 The image processing apparatus 100 includes a depth map generation unit 10, a depth map processing unit 20, a 3D image generation unit 30, an operation reception unit 40, and a display control unit 50. These configurations can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and can be realized by a program loaded into the memory in terms of software, but here by their cooperation. Draw functional blocks. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof. For example, all the functions of the depth map generation unit 10, the depth map processing unit 20, and the 3D image generation unit 30 may be realized by software, and the functions of the depth map generation unit 10 and the 3D image generation unit 30 are dedicated logic. The depth map processing unit 20 may be configured by software and configured by a circuit.
デプスマップ生成部10は、入力される2D画像とデプスモデルをもとに当該2D画像のデプスマップを生成する。デプスマップは、デプス値(奥行き値ともいう)を輝度値で表したグレースケール画像である。デプスマップ生成部10はシーン構造を推定して、そのシーン構造に適合的なデプスモデルを使用してデプスマップを生成する。本実施の形態ではデプスマップ生成部10は複数の基本デプスモデルを合成してデプスマップ生成に使用する。その際、当該2D画像のシーン構造に応じて複数の基本デプスモデルの合成比率を変化させる。 The depth map generation unit 10 generates a depth map of the 2D image based on the input 2D image and the depth model. The depth map is a grayscale image in which depth values (also referred to as depth values) are represented by luminance values. The depth map generation unit 10 estimates a scene structure and generates a depth map using a depth model suitable for the scene structure. In the present embodiment, the depth map generation unit 10 combines a plurality of basic depth models and uses them for depth map generation. At that time, the composition ratio of a plurality of basic depth models is changed according to the scene structure of the 2D image.
図3は、本発明の実施の形態に係るデプスマップ生成部10の構成例を示す図である。デプスマップ生成部10は、画面上部高域成分評価部11、画面下部高域成分評価部12、合成比率決定部13、第1基本デプスモデル用フレームメモリ14、第2基本デプスモデル用フレームメモリ15、第3基本デプスモデル用フレームメモリ16、合成部17、加算部18を含む。 FIG. 3 is a diagram illustrating a configuration example of the depth map generation unit 10 according to the embodiment of the present invention. The depth map generation unit 10 includes an upper screen high-frequency component evaluation unit 11, a lower screen high-frequency component evaluation unit 12, a composition ratio determination unit 13, a first basic depth model frame memory 14, and a second basic depth model frame memory 15. , A third basic depth model frame memory 16, a synthesis unit 17, and an addition unit 18.
画面上部高域成分評価部11は、処理すべき2D画像の画面上部において高域成分を有する画素の割合を算出する。その割合を画面上部の高域成分評価値とする。なお画面全体に対する画面上部の割合は略20%に設定するとよい。画面下部高域成分評価部12は当該2D画像の画面下部において高域成分を有する画素の割合を算出する。その割合を画面下部の高域成分評価値とする。なお画面全体に対する画面下部の割合は略20%に設定するとよい。 The screen upper high frequency component evaluation unit 11 calculates the ratio of pixels having a high frequency component in the upper screen of the 2D image to be processed. The ratio is used as the high frequency component evaluation value at the top of the screen. The ratio of the upper part of the screen to the entire screen is preferably set to approximately 20%. The lower screen high frequency component evaluation unit 12 calculates the ratio of pixels having a high frequency component in the lower screen of the 2D image. The ratio is used as the high frequency component evaluation value at the bottom of the screen. The ratio of the lower part of the screen to the entire screen is preferably set to approximately 20%.
第1基本デプスモデル用フレームメモリ14は第1基本デプスモデルを保持し、第2基本デプスモデル用フレームメモリ15は第2基本デプスモデルを保持し、第3基本デプスモデル用フレームメモリ16は第3デプスモデルを保持する。第1基本デプスモデルは画面上部及び画面下部をそれぞれ凹状の球面とするモデルである。第2基本デプスモデルは画面上部を縦方向に軸線を有する円筒面、画面下部を凹状の球面とするモデルである。第3基本デプスモデルは画面上部を平面、画面下部を横方向に軸線を有する円筒面とするモデルである。 The first basic depth model frame memory 14 holds the first basic depth model, the second basic depth model frame memory 15 holds the second basic depth model, and the third basic depth model frame memory 16 stores the third basic depth model. Holds the depth model. The first basic depth model is a model in which the upper part of the screen and the lower part of the screen are concave spherical surfaces. The second basic depth model is a model in which the upper part of the screen is a cylindrical surface having an axis in the vertical direction and the lower part of the screen is a concave spherical surface. The third basic depth model is a model in which the upper part of the screen is a plane and the lower part of the screen is a cylindrical surface having an axis in the horizontal direction.
合成比率決定部13は、画面上部高域成分評価部11および画面下部高域成分評価部12によりそれぞれ算出された、画面上部および画面下部の高域成分評価値をもとに第1基本デプスモデル、第2基本デプスモデル、第3基本デプスモデルの合成比率k1,k2,k3(ただし、k1+k2+k3=1)を決定する。合成部17はこれらの合成比率k1,k2,k3と、第1基本デプスモデル、第2基本デプスモデル、第3基本デプスモデルをそれぞれ乗算し、それぞれの乗算結果を加算する。この演算結果が合成基本デプスモデルとなる。 The composition ratio determination unit 13 is a first basic depth model based on the high-frequency component evaluation values of the upper screen portion and the lower screen portion calculated by the upper screen region high-frequency component evaluation unit 11 and the lower screen region high-frequency component evaluation unit 12, respectively. The combination ratios k1, k2, and k3 (where k1 + k2 + k3 = 1) of the second basic depth model and the third basic depth model are determined. The synthesizing unit 17 multiplies the synthesis ratios k1, k2, and k3 by the first basic depth model, the second basic depth model, and the third basic depth model, and adds the multiplication results. This calculation result becomes a synthetic basic depth model.
例えば合成比率決定部13は、画面上部の高域成分評価値が小さい場合は画面上部に空もしくは平坦な壁が存在するシーンと認識して、画面上部の奥行きを深くした第2基本デプスモデルの比率を増加させる。また画面下部の高域成分評価値が小さい場合は画面下部に平坦な地面もしくは水面が手前に連続的に広がるシーンと認識して、第3基本デプスモデルの比率を増加させる。第3基本デプスモデルでは、画面上部は遠景として平面近似し、画面下部は下に行くほど奥行きを小さくしている。 For example, when the high frequency component evaluation value at the upper part of the screen is small, the composition ratio determining unit 13 recognizes that the scene has an empty or flat wall at the upper part of the screen, and the second basic depth model with a deeper depth at the upper part of the screen. Increase the ratio. If the high-frequency component evaluation value at the bottom of the screen is small, it is recognized as a scene in which the flat ground or water surface continuously spreads at the bottom of the screen, and the ratio of the third basic depth model is increased. In the third basic depth model, the upper part of the screen is approximated as a distant view, and the depth is reduced toward the bottom of the lower part of the screen.
加算部18は、合成部17により生成された合成基本デプスモデルに上記2D画像の赤成分(R)信号を重畳してデプスマップを生成する。R信号を使用する理由は、R信号の大きさが順光に近い環境で、かつテクスチャの明度が大きく異ならないような条件において、被写体の凹凸と一致する確率が高いという経験則によるものである。また赤色および暖色は色彩学における前進色であり、寒色系よりも奥行きが手前に認識され、立体感が強調されるためである。 The adding unit 18 generates a depth map by superimposing the red component (R) signal of the 2D image on the combined basic depth model generated by the combining unit 17. The reason for using the R signal is based on an empirical rule that there is a high probability of matching with the unevenness of the subject in an environment in which the magnitude of the R signal is close to direct light and the brightness of the texture is not significantly different. . Further, red and warm colors are forward colors in chromatics, and the depth is recognized in front of the cold color system, and the stereoscopic effect is emphasized.
図2に戻る。デプスマップ加工部20は、デプスマップ生成部10により生成されたデプスマップを加工する。本実施の形態ではデプスマップ加工部20は、外部設定される複数のマスクパターン(以下、単にマスクという)により指定される画面内の複数の領域ごとに、デプスマップ生成部10により生成されたデプスマップを個別または独立に加工する。例えばゲイン調整、オフセット調整、グラデーション処理などの加工を行う。デプスマップ加工部20による処理の詳細は後述する。 Returning to FIG. The depth map processing unit 20 processes the depth map generated by the depth map generation unit 10. In the present embodiment, the depth map processing unit 20 generates the depth map generated by the depth map generation unit 10 for each of a plurality of areas in the screen specified by a plurality of mask patterns (hereinafter simply referred to as masks) set externally. Process maps individually or independently. For example, processing such as gain adjustment, offset adjustment and gradation processing is performed. Details of the processing by the depth map processing unit 20 will be described later.
3D画像生成部30は、上述の2D画像およびデプスマップ加工部20により加工されたデプスマップをもとに別視点の2D画像を生成する。3D画像生成部30は、オリジナル視点の2D画像と別視点の2D画像を右眼画像と左眼画像として出力する。 The 3D image generation unit 30 generates a 2D image of another viewpoint based on the above-described 2D image and the depth map processed by the depth map processing unit 20. The 3D image generation unit 30 outputs the 2D image of the original viewpoint and the 2D image of the different viewpoint as the right eye image and the left eye image.
以下、オリジナル視点の2D画像とデプスマップを用いて当該2D画像と視差を持つ別視点の2D画像を生成する具体例を説明する。この具体例ではオリジナル視点の2D画像を画面表示させた場合の視点を基準にして、左に視点移動した別視点の2D画像を生成する。その場合、観察者に対してテクスチャを近景として表示させるときは画面に向かって左側へオリジナル視点の2D画像のテクスチャを所定量移動させ、テクスチャを観察者に遠景として表示させるときは画面に向かって右側へテクスチャを所定量移動させる。 Hereinafter, a specific example of generating a 2D image of another viewpoint having a parallax with the 2D image using the 2D image of the original viewpoint and the depth map will be described. In this specific example, a 2D image of another viewpoint that is moved to the left is generated based on the viewpoint when the 2D image of the original viewpoint is displayed on the screen. In that case, when displaying the texture as a foreground for the observer, move the texture of the 2D image of the original viewpoint to the left side toward the screen by a predetermined amount, and toward the screen when displaying the texture as a distant view for the observer. Move the texture to the right by a predetermined amount.
デプスマップの各画素の輝度値をYd、飛び出し感を表す輻輳値をm、立体感を表す奥行き値をnとする。3D画像生成部30は輝度値Ydの小さい値から順に、その輝度値Ydに対応するオリジナル視点の2D画像のテクスチャを画素ごとに(Yd−m)/n画素分左にシフトする。(Yd−m)/nの値が負の場合、(m−Yd)/n画素分右にシフトする。なお観察者には、デプスマップの輝度値Ydの小さいテクスチャは画面奥側に見え、輝度値Ydの大きいテクスチャは画面手前に見える。輝度値Yd、輻輳値m、奥行き値nは0〜255の範囲の値であり、例えば、輻輳値m=200、奥行き値n=20に設定される。 Let Yd be the luminance value of each pixel in the depth map, m be the convergence value representing the pop-out feeling, and n be the depth value representing the stereoscopic effect. The 3D image generation unit 30 sequentially shifts the texture of the 2D image at the original viewpoint corresponding to the luminance value Yd to the left by (Yd−m) / n pixels in order from the smallest luminance value Yd. If the value of (Yd−m) / n is negative, shift to the right by (m−Yd) / n pixels. For the observer, a texture with a small luminance value Yd of the depth map appears on the back side of the screen, and a texture with a large luminance value Yd appears on the front side of the screen. The luminance value Yd, the convergence value m, and the depth value n are values in the range of 0 to 255. For example, the convergence value m = 200 and the depth value n = 20 are set.
なお、デプスマップ生成部10によるデプスマップ生成、および3D画像生成部30による3D画像生成のより詳細な説明は、本出願人が先に出願した特開2005−151534号公報、特開2009−44722号公報に開示されている。 A more detailed description of the depth map generation by the depth map generation unit 10 and the 3D image generation by the 3D image generation unit 30 will be described in Japanese Patent Application Laid-Open Nos. 2005-151534 and 2009-44722 previously filed by the present applicant. It is disclosed in the gazette.
操作受付部40は、コンソール端末装置200の操作部60から入力される信号を受け付ける。表示制御部50はコンソール端末装置200の表示部70を制御する。なお本明細書ではデプスマップ加工部20の処理に注目するため、図2では操作受付部40および表示制御部50のそれぞれと、デプスマップ加工部20との間のみを線で結んでいるが、操作受付部40および表示制御部50がデプスマップ加工部20の処理への使用に限定されるものではない。 The operation reception unit 40 receives a signal input from the operation unit 60 of the console terminal device 200. The display control unit 50 controls the display unit 70 of the console terminal device 200. In this specification, in order to pay attention to the processing of the depth map processing unit 20, in FIG. 2, only the line between the operation receiving unit 40 and the display control unit 50 and the depth map processing unit 20 is connected. The operation receiving unit 40 and the display control unit 50 are not limited to use for the processing of the depth map processing unit 20.
図4は、本発明の実施の形態に係る画像編集システム500の全体処理プロセスを説明するための図である。一般的に2D画像には複数のオブジェクトが含まれる。図4の2D入力画像は3つのオブジェクトを含む。具体的には人物、木、背景のオブジェクトを含む。まずデプスマップ生成部10は、2D入力画像からデプスマップを生成する(ステップS10)。デプスマップは白に近いほど輝度が高く観察者との距離が近いことを示し、黒に近いほど輝度が低く観察者との距離が遠いことを示す。3D画像を生成する場合、デプスマップの白に近い領域ほど飛び出し量が大きくなり、黒に近い領域ほど引っ込み量が大きくなる。 FIG. 4 is a diagram for explaining the overall processing process of the image editing system 500 according to the embodiment of the present invention. In general, a 2D image includes a plurality of objects. The 2D input image of FIG. 4 includes three objects. Specifically, it includes people, trees, and background objects. First, the depth map generation unit 10 generates a depth map from the 2D input image (step S10). In the depth map, the closer to white, the higher the luminance and the closer to the observer, and the closer to black, the lower the luminance and the farther the observer. When a 3D image is generated, the pop-out amount increases as the area is closer to white in the depth map, and the retraction amount increases as the area is closer to black.
本実施の形態では画像内の複数のオブジェクトに対して個別に奥行き感を調整するために、デプスマップ内の個々のオブジェクト領域に対して独立にエフェクト調整する。具体的には、画像中の個々のオブジェクト領域を表す複数のマスクを用いて、デプスマップ内に、個々のオブジェクト領域を特定する。そして特定されたオブジェクト領域ごとに個別にエフェクト調整し、エフェクト調整された複数のデプスマップを得る。そして、この複数のデプスマップを合成して一つのデプスマップを生成する。このデプスマップは、オリジナル視点の2D画像から別視点の2D画像を生成する際に使用される。 In the present embodiment, in order to individually adjust the sense of depth for a plurality of objects in an image, effect adjustment is performed independently for each object area in the depth map. Specifically, each object area is specified in the depth map using a plurality of masks representing each object area in the image. Then, effect adjustment is performed individually for each identified object region, and a plurality of depth maps adjusted for effect are obtained. Then, one depth map is generated by combining the plurality of depth maps. This depth map is used when generating a 2D image of another viewpoint from a 2D image of the original viewpoint.
デプスマップ生成部10は2D入力画像のデプスマップを自動的に生成する(S10)。生成されたデプスマップは、デプスマップ加工部20に入力される。デプスマップ加工部20には、2D入力画像内の複数のオブジェクト領域をそれぞれ表す複数のマスクも入力される。これらのマスクはユーザによりトレースされたオブジェクト領域の輪郭をもとに生成される。例えば、表示制御部50は表示部70に2D入力画像を表示させ、ユーザはその2D入力画像内においてオブジェクト領域とすべき領域の輪郭を、操作部60を使用してトレースする。操作受付部40は操作部60からの信号により、個々のオブジェクト領域の輪郭情報を生成し、マスクとしてデプスマップ加工部20に出力する。なおユーザが印刷物上に描いた輪郭をスキャナにより読み取ることによりマスクを画像処理装置100に読み込ませてもよい。 The depth map generator 10 automatically generates a depth map of the 2D input image (S10). The generated depth map is input to the depth map processing unit 20. The depth map processing unit 20 also receives a plurality of masks respectively representing a plurality of object regions in the 2D input image. These masks are generated based on the outline of the object area traced by the user. For example, the display control unit 50 displays a 2D input image on the display unit 70, and the user traces the outline of the region to be an object region in the 2D input image using the operation unit 60. The operation receiving unit 40 generates contour information of each object region based on a signal from the operation unit 60 and outputs the contour information to the depth map processing unit 20 as a mask. Note that the mask may be read by the image processing apparatus 100 by reading the outline drawn on the printed matter by the scanner.
図4では各マスクの有効領域を白で無効領域を黒で描いている。人物のマスクは人物の領域のみを有効とし、他の領域を無効とするパターンである。木のマスクは木の領域のみを有効とし、他の領域を無効とするパターンである。背景のマスクは背景のみを有効とし、他の領域を無効とするパターンである。 In FIG. 4, the effective area of each mask is drawn in white and the ineffective area is drawn in black. The mask of the person is a pattern in which only the person area is valid and the other areas are invalid. The tree mask is a pattern in which only the tree area is valid and the other areas are invalid. The background mask is a pattern in which only the background is valid and other areas are invalid.
1画面あたりのマスクの数に制約はなく、ユーザが任意に設定できる。またオブジェクト領域はユーザが1つのオブジェクト領域にすべきと決定した領域に設定できる。例えば、図4に示すように1人の人物に1つのオブジェクト領域を設定しもよいし、人物の部位ごと、さらに各部位の部分ごとにオブジェクト領域を設定してもよい。特に高品質な3D画像を生成する際には、1人の人物に対しても多数のオブジェクト領域を設定し、部位ごと、さらに各部位の部分ごとに厚みや奥行き方向の位置を調整することもある。 There is no restriction on the number of masks per screen, and the user can arbitrarily set it. The object area can be set to an area determined by the user to be one object area. For example, as shown in FIG. 4, one object area may be set for one person, or an object area may be set for each part of the person and for each part. In particular, when generating a high-quality 3D image, a large number of object regions can be set for one person, and the position in the thickness and depth direction can be adjusted for each part and for each part. is there.
デプスマップ加工部20は、デプスマップ生成部10から入力されるデプスマップ(以下、入力デプスマップという)を、ユーザインタフェースを介して入力される複数のマスクを用いて加工する(S20)。デプスマップ加工部20は各マスクで特定される領域ごとに、個別にデプスマップを加工する。以下、この領域別のデプスマップの加工をデプスマップのレイヤ処理と呼ぶ。またレイヤ処理されたデプスマップをレイヤデプスマップと呼ぶ。本明細書ではレイヤを、マスクの有効領域に対する処理の単位を示す概念として使用している。 The depth map processing unit 20 processes the depth map (hereinafter referred to as input depth map) input from the depth map generation unit 10 using a plurality of masks input via the user interface (S20). The depth map processing unit 20 processes the depth map individually for each area specified by each mask. Hereinafter, this depth map processing for each region is referred to as depth map layer processing. A depth map that has been subjected to layer processing is called a layer depth map. In this specification, a layer is used as a concept indicating a unit of processing for an effective area of a mask.
図4では、一例としてデプスマップ加工部20は入力デプスマップから、人物のマスク(レイヤ1のマスク)を用いて人物の領域を特定してレイヤ処理している(S21a)。同様に入力デプスマップから、木のマスク(レイヤ2のマスク)を用いて木の領域を特定してレイヤ処理している(S21b)。同様に入力デプスマップから、背景のマスク(レイヤ3のマスク)を用いて背景の領域を特定してレイヤ処理している(S21c)。 In FIG. 4, as an example, the depth map processing unit 20 performs layer processing by specifying a person region from the input depth map using a person mask (layer 1 mask) (S <b> 21 a). Similarly, from the input depth map, a tree region is identified using a tree mask (layer 2 mask) and layer processing is performed (S21b). Similarly, a background region is identified from the input depth map using a background mask (layer 3 mask) and layer processing is performed (S21c).
デプスマップ加工部20は、レイヤ1〜3のレイヤデプスマップの各オブジェクト領域のデプスマップを合成する(S22)。この合成されたデプスマップを合成デプスマップと呼ぶ。3D画像生成部30は、この合成デプスマップを用いて2D入力画像の画素をシフトし、2D入力画像に対して視差を持つ画像を生成する(S30)。3D画像生成部30は2D入力画像を3D出力画像の右眼画像(R)とし、生成した画像を左眼画像(L)として出力する。 The depth map processing unit 20 synthesizes the depth maps of the object areas of the layer depth maps of layers 1 to 3 (S22). This combined depth map is referred to as a combined depth map. The 3D image generation unit 30 shifts the pixels of the 2D input image using the composite depth map, and generates an image having a parallax with respect to the 2D input image (S30). The 3D image generation unit 30 outputs the 2D input image as the right eye image (R) of the 3D output image and the generated image as the left eye image (L).
(ゲイン調整)
まず、デプスマップ加工部20によるレイヤ処理としてゲイン調整する例を説明する。ゲイン調整はオブジェクトの奥行き方向の厚みを調整する処理である。ゲインを上げるとオブジェクトが厚くなり、ゲインを下げるとオブジェクトが薄くなる。
(Gain adjustment)
First, an example of gain adjustment as layer processing by the depth map processing unit 20 will be described. Gain adjustment is a process of adjusting the thickness of the object in the depth direction. Increasing the gain makes the object thicker and lowering the gain makes the object thinner.
図5は、入力デプスマップのゲイン調整プロセスを説明するための図である。デプスマップ加工部20は、加工前のデプスマップである入力デプスマップに対して、人物のマスクの有効領域だけにゲインを乗算して、入力デプスマップ内の人物の部分のみデプス値の振幅を大きくする(S21a)。図5において加工後のデプスマップであるレイヤデプスマップは人物の部分の振幅が大きくなっている(符号a参照)。 FIG. 5 is a diagram for explaining the gain adjustment process of the input depth map. The depth map processing unit 20 multiplies the input depth map, which is a depth map before processing, by a gain only in the effective area of the person's mask, and increases the amplitude of the depth value only in the portion of the person in the input depth map. (S21a). In FIG. 5, the amplitude of the person portion of the layer depth map, which is a depth map after processing, is large (see symbol a).
図6は、レイヤデプスマップの合成処理プロセスを説明するための図である。デプスマップ加工部20は、レイヤ1のレイヤデプスマップ(人物のデプスマップ)のうち、レイヤ1のマスク(人物のマスク)の有効領域のみを切り出す。同様にレイヤ2のレイヤデプスマップ(木のデプスマップ)のうち、レイヤ2のマスク(木のマスク)の有効領域のみを切り出す。同様にレイヤ3のレイヤデプスマップ(背景のデプスマップ)のうち、レイヤ3のマスク(背景のマスク)の有効領域のみを切り出す。デプスマップ加工部20は、切り出した3つのデプスマップを組み合わせて合成デプスマップを生成する。 FIG. 6 is a diagram for explaining a layer depth map synthesis process. The depth map processing unit 20 cuts out only the effective area of the layer 1 mask (person's mask) from the layer 1 layer depth map (person's depth map). Similarly, only the effective area of the layer 2 mask (tree mask) is cut out from the layer 2 layer depth map (tree depth map). Similarly, only the effective area of the layer 3 mask (background mask) is cut out from the layer 3 layer depth map (background depth map). The depth map processing unit 20 generates a combined depth map by combining the three extracted depth maps.
図7は、マスクを使用しない入力デプスマップのゲイン調整プロセスを説明するための図である。レイヤデプスマップの合成の際、各レイヤデプスマップのマスクの有効領域のみを用いて合成するのであれば、各レイヤデプスマップのマスクの無効領域は合成デプスマップに反映されないことになる。よって、デプスマップ加工部20は入力デプスマップ全体にゲインを乗算して、入力デプスマップ全体のデプス値の振幅を大きくする(S21a)。図7においてレイヤデプスマップは全体の振幅が大きくなっている(符号b参照)。 FIG. 7 is a diagram for explaining an input depth map gain adjustment process without using a mask. If the layer depth map is synthesized by using only the effective area of the mask of each layer depth map, the invalid area of the mask of each layer depth map is not reflected in the synthesized depth map. Therefore, the depth map processing unit 20 multiplies the entire input depth map by the gain to increase the amplitude of the depth value of the entire input depth map (S21a). In FIG. 7, the entire amplitude of the layer depth map is large (see symbol b).
図8は、3D画像生成部30による3D画像生成プロセスを説明するための図である。3D画像生成部30は合成デプスマップをもとに2D入力画像の画素をシフトし、2D入力画像に対して視差を持つ画像を生成する(S30)。図8では2D入力画像内の人物部分の画素を左にシフトする例を示している。3D画像生成部30は合成デプスマップの人物部分のデプス値にオフセット値を加算してデプス値を大きくする。なおオフセット調整の詳細は後述する。人物部分のデプス値が大きくなると、3D画像の人物部分の飛び出し量が大きくなる。 FIG. 8 is a diagram for explaining a 3D image generation process by the 3D image generation unit 30. The 3D image generation unit 30 shifts the pixels of the 2D input image based on the combined depth map, and generates an image having a parallax with respect to the 2D input image (S30). FIG. 8 shows an example of shifting the pixel of the human part in the 2D input image to the left. The 3D image generation unit 30 increases the depth value by adding an offset value to the depth value of the person portion of the combined depth map. Details of the offset adjustment will be described later. When the depth value of the person portion increases, the pop-out amount of the person portion of the 3D image increases.
人物部分の周囲の背景部分を画素シフトせずに人物部分のみを画素シフトすると、画素が存在しない欠落画素部分が発生する(補正前の画素シフト画像の符号c参照)。3D画像生成部30は、この欠落画素部分をその周辺画素から生成した画素で補間して欠落画素部分を補正する。画素補間には様々な方法があるが、例えば人物部分の境界の画素で補間する(補正後の画素シフト画像の符号d参照)。 If only the person portion is pixel-shifted without shifting the background portion around the person portion, a missing pixel portion in which no pixel exists is generated (see reference symbol c of the pixel-shifted image before correction). The 3D image generation unit 30 corrects the missing pixel portion by interpolating the missing pixel portion with a pixel generated from the surrounding pixels. There are various methods for pixel interpolation. For example, interpolation is performed using pixels at the boundary of the person portion (see reference numeral d of the pixel shifted image after correction).
デプスマップ内のデプス値にゲインを掛けて、デプス値の振幅を伸張または圧縮する目的は、生成する3D画像における奥行き感の振幅を調整することにある。従って、デプス値にゲインを掛ける際の中心レベルは適切に設定される必要がある。 The purpose of multiplying the depth value in the depth map to expand or compress the amplitude of the depth value is to adjust the amplitude of the sense of depth in the generated 3D image. Therefore, the center level for multiplying the depth value by gain needs to be set appropriately.
図9は、任意レベルを中心にゲイン調整する例を示す図である。図9ではデプスマップのオブジェクト領域内におけるデプス値の平均値より低い値に任意レベルを設定している。上述したようにデプスマップのオブジェクト領域は、マスクの有効領域により指定される。当該任意レベルを中心にゲイン調整すると、デプス値の平均値が変動してデプスマップに意図しないオフセットが発生する。このオフセットにより、生成する3D画像の奥行き感の振幅だけでなく奥行きの重心も変化する。この重心の変化はユーザにとって意図しない調整である。図9ではゲイン調整後に、デプス値の平均値が高くなり奥行きの重心が手前にずれてしまう。 FIG. 9 is a diagram illustrating an example of gain adjustment centering on an arbitrary level. In FIG. 9, an arbitrary level is set to a value lower than the average value of the depth values in the object area of the depth map. As described above, the object area of the depth map is specified by the effective area of the mask. When the gain is adjusted around the arbitrary level, the average value of the depth values fluctuates and an unintended offset occurs in the depth map. This offset changes not only the amplitude of the sense of depth of the generated 3D image but also the center of gravity of the depth. This change in the center of gravity is an unintended adjustment for the user. In FIG. 9, after the gain adjustment, the average value of the depth value becomes high, and the center of gravity of the depth shifts to the near side.
図10は、デプス値の平均値を中心にゲイン調整する例を示す図である。デプスマップ加工部20は、ゲイン調整する際の中心レベルを、デプスマップのオブジェクト領域内におけるデプス値の平均値に設定する。なおゲイン調整する際に使用するゲイン値は外部から設定される。ユーザは操作部60を使用して所望のゲイン値を入力し、操作受付部40は操作部60から入力されるゲイン値を受け付けてデプスマップ加工部20に設定する。 FIG. 10 is a diagram illustrating an example in which gain adjustment is performed centering on an average value of depth values. The depth map processing unit 20 sets the center level for gain adjustment to the average value of the depth values in the object area of the depth map. The gain value used for gain adjustment is set from the outside. The user inputs a desired gain value using the operation unit 60, and the operation reception unit 40 receives the gain value input from the operation unit 60 and sets it in the depth map processing unit 20.
図10に示すようにデプス値の平均値を中心レベルとしてゲイン調整すると、調整前後でデプス値の平均値が変動しないためデプスマップに意図しないオフセットが発生することがない。従って、生成する3D画像の奥行き感の振幅だけが変化し奥行きの重心は変化しないため、ユーザにとって意図した調整となる。 As shown in FIG. 10, when the gain adjustment is performed with the average value of the depth values as the center level, the average value of the depth values does not vary before and after the adjustment, so that an unintended offset does not occur in the depth map. Therefore, only the amplitude of the sense of depth of the generated 3D image changes, and the center of gravity of the depth does not change.
デプス値の平均値は、以下の手順で求めることができる。まずデプスマップのオブジェクト領域内におけるデプス値の総和を算出する。次にオブジェクト領域内の面積、即ち画素数をカウントする。最後にオブジェクト領域内におけるデプス値の総和を、オブジェクト領域内の画素数で除算する。これにより、オブジェクト領域内におけるデプス値の平均値が算出される。 The average depth value can be obtained by the following procedure. First, the sum of depth values in the object area of the depth map is calculated. Next, the area in the object region, that is, the number of pixels is counted. Finally, the sum of the depth values in the object area is divided by the number of pixels in the object area. Thereby, the average value of the depth values in the object area is calculated.
デプスマップ内のデプス値にゲインを掛けて、デプス値の振幅を伸張または圧縮する場合において、飛び出し側と引っ込み側で独立してゲイン調整したい場合がある。 When the depth value in the depth map is multiplied by a gain to expand or compress the amplitude of the depth value, it may be desired to adjust the gain independently on the protruding side and the retracting side.
図11は、デプス値の平均値を中心に上下で異なる値のゲインを掛ける例を示す図である。デプスマップ加工部20は、中心レベルの上下で独立にゲイン調整する。より具体的には、デプスマップのオブジェクト領域内におけるデプス値の平均値を中心レベルとして、当該平均値よりも大きいデプス値に乗算する第1ゲイン値と、当該平均値よりも小さいデプス値に乗算する第2ゲイン値を独立に設定する。図11では第1ゲイン値を第2ゲイン値より大きく設定している(符号e、f参照)。 FIG. 11 is a diagram illustrating an example in which gains of different values are multiplied up and down around the average value of depth values. The depth map processing unit 20 adjusts the gain independently above and below the center level. More specifically, with the average value of the depth values in the object area of the depth map as the central level, the first gain value that multiplies the depth value that is larger than the average value and the depth value that is smaller than the average value are multiplied. The second gain value to be set is set independently. In FIG. 11, the first gain value is set larger than the second gain value (see symbols e and f).
デプスマップ加工部20は対象画素のデプス値が当該平均値よりも大きい場合、当該デプス値に第1ゲイン値を乗算し、対象画素のデプス値が当該平均値よりも小さい場合、当該デプス値に第2ゲイン値を乗算する。これにより、飛び出し側と奥行き側で、独立してゲイン調整できる。図11では飛び出し側の厚みが大きくなる。 When the depth value of the target pixel is larger than the average value, the depth map processing unit 20 multiplies the depth value by the first gain value. When the depth value of the target pixel is smaller than the average value, the depth map processing unit 20 sets the depth value to the depth value. Multiply the second gain value. Thereby, the gain can be adjusted independently on the protruding side and the depth side. In FIG. 11, the thickness on the protruding side is increased.
図10、図11では演算により求めたデプス値の平均値を中心レベルとして、ゲイン調整する例を示した。この点、ゲイン調整する際の中心レベルを外部から与えてもよい。 FIGS. 10 and 11 show examples in which gain adjustment is performed using the average value of depth values obtained by calculation as the center level. In this regard, the center level for gain adjustment may be given from the outside.
図12は、外部設定された値を中心にゲイン調整する例を示す図である。デプスマップ加工部20はゲイン調整する際の中心レベルを、外部から入力される指定基準レベルに設定する。ユーザは操作部60を使用して指定基準レベルを入力し、操作受付部40は操作部60から入力される指定基準レベルを受け付けてデプスマップ加工部20に出力する。これにより、ユーザはゲイン調整する際の中心レベルを任意に指定できる。 FIG. 12 is a diagram illustrating an example of gain adjustment centering on an externally set value. The depth map processing unit 20 sets the center level for gain adjustment to a designated reference level input from the outside. The user inputs the designated reference level using the operation unit 60, and the operation receiving unit 40 receives the designated reference level input from the operation unit 60 and outputs it to the depth map processing unit 20. As a result, the user can arbitrarily designate the center level for gain adjustment.
なお図10〜図12に示した方法を、デプスマップのオブジェクト領域ごとに選択可能である。即ちゲイン調整する際の中心レベルの設定方法、中心レベルの上下でゲイン値を変える方法を、デプスマップのオブジェクト領域ごとに選択可能である。また図10〜図12ではデプスマップのオブジェクト領域にそれらの方法を適用する例を説明したが、合成デプスマップにそれらの方法を適用してもよい。 10 to 12 can be selected for each object area of the depth map. In other words, a method for setting the center level for gain adjustment and a method for changing the gain value above and below the center level can be selected for each object area of the depth map. Although FIGS. 10 to 12 illustrate examples in which these methods are applied to the object region of the depth map, these methods may be applied to the synthesized depth map.
(オフセット調整)
次に、デプスマップ加工部20によるレイヤ処理としてオフセット調整する例を説明する。オフセット調整はオブジェクトの奥行き方向の位置を調整する処理である。正のオフセット値を加算するとオブジェクトが飛び出し方向に移動し、負のオフセット値を加算すると引っ込み方向に移動する。
(Offset adjustment)
Next, an example in which offset adjustment is performed as layer processing by the depth map processing unit 20 will be described. Offset adjustment is a process of adjusting the position of the object in the depth direction. When a positive offset value is added, the object moves in the pop-out direction, and when a negative offset value is added, the object moves in the retracting direction.
図13は、入力デプスマップのオフセット調整プロセスを説明するための図である。デプスマップ加工部20は、加工前のデプスマップである入力デプスマップに対して、木のマスクの有効領域だけにオフセットを加算して、入力デプスマップ内の木の部分のみデプス値のレベルを高くする(S21b)。図13において加工後のデプスマップであるレイヤデプスマップは木の部分のレベルが高くなっている(符号g参照)。 FIG. 13 is a diagram for explaining the offset adjustment process of the input depth map. The depth map processing unit 20 adds an offset only to the effective area of the tree mask to the input depth map, which is the depth map before processing, and increases the level of the depth value only for the portion of the tree in the input depth map. (S21b). In FIG. 13, the layer depth map, which is the depth map after processing, has a high level of the tree portion (see symbol g).
図14は、マスクを使用しない入力デプスマップのオフセット調整プロセスを説明するための図である。レイヤデプスマップの合成の際、各レイヤデプスマップのマスクの有効領域のみを用いて合成するのであれば、各レイヤデプスマップのマスクの無効領域は合成デプスマップに反映されないことになる。よって、デプスマップ加工部20は入力デプスマップ全体にオフセットを加算して、入力デプスマップ全体のデプス値のレベルを高くする(S21b)。図14においてレイヤデプスマップは全体のレベルが高くなっている(符号h参照)。 FIG. 14 is a diagram for explaining an offset adjustment process of an input depth map that does not use a mask. If the layer depth map is synthesized by using only the effective area of the mask of each layer depth map, the invalid area of the mask of each layer depth map is not reflected in the synthesized depth map. Therefore, the depth map processing unit 20 adds an offset to the entire input depth map to increase the level of the depth value of the entire input depth map (S21b). In FIG. 14, the overall level of the layer depth map is high (see symbol h).
オフセット調整する際に使用するオフセット値は外部から設定される。ユーザは操作部60を使用して所望のオフセット値を入力し、操作受付部40は操作部60から入力されるオフセット値を受け付けてデプスマップ加工部20に設定する。以上の説明ではデプスマップのオブジェクト領域にオフセット値を加算する例を示したが、合成デプスマップにオフセット値を加算してもよい。 The offset value used for offset adjustment is set from the outside. The user inputs a desired offset value using the operation unit 60, and the operation reception unit 40 receives the offset value input from the operation unit 60 and sets it in the depth map processing unit 20. In the above description, the offset value is added to the object area of the depth map. However, the offset value may be added to the composite depth map.
デプスマップのオフセット領域ではなく合成デプスマップをゲイン調整すると、意図どおりのゲイン調整ができない場合がある。以下、デプスマップのデプス値のダイナミックレンジを拡大または縮小し、画面全体の奥行き感を強めたり弱めたりする場合を想定する。以下の説明では、奥行き感を強める場合について説明するが、逆に奥行き感を弱める場合についても同様である。 If the gain of the composite depth map is adjusted instead of the offset area of the depth map, gain adjustment as intended may not be possible. Hereinafter, it is assumed that the dynamic range of the depth value of the depth map is enlarged or reduced to increase or decrease the depth feeling of the entire screen. In the following description, a case where the feeling of depth is increased will be described, but the same applies to the case where the feeling of depth is weakened.
画面全体の奥行き感を強めるための方法として、合成デプスマップに対して均一にゲインを掛ける方法が考えられる。しかしながら、この方法ではデプス値のダイナミックレンジが拡大されると同時に、個々のオブジェクトの凹凸感の振幅も拡大される。後者の拡大も調整の意図に適っていればよいが、そうでない場合もある。 As a method for enhancing the sense of depth of the entire screen, a method of applying a uniform gain to the synthesized depth map can be considered. However, in this method, the dynamic range of the depth value is expanded, and at the same time, the amplitude of the unevenness of each object is also expanded. The latter enlargement may also be suitable for the purpose of adjustment, but it may not be.
以下、デプス値のダイナミックレンジは拡大するが、個々のオブジェクトの凹凸感の振幅は変化しない調整方法について説明する。デプスマップ加工部20は、デプスマップ全体のデプス値の平均値と、デプスマップ内の各オブジェクト領域内におけるデプス値の平均値との各差分に、デプスマップ全体のダイナミックレンジを調整するための共通の係数を掛ける。各演算結果は各オブジェクト領域内におけるデプス値のオフセット値となる。デプスマップ加工部20は、各オブジェクト領域内におけるデプス値に、対応する各オフセット値を加算する。 Hereinafter, an adjustment method in which the dynamic range of the depth value is expanded but the amplitude of the unevenness of each object is not changed will be described. The depth map processing unit 20 is common for adjusting the dynamic range of the entire depth map to each difference between the average value of the depth value of the entire depth map and the average value of the depth value in each object region in the depth map. Multiply by a factor of. Each calculation result becomes an offset value of the depth value in each object area. The depth map processing unit 20 adds each corresponding offset value to the depth value in each object region.
以下、具体例を挙げて説明する。合成デプスマップのデプス値が−X〜+Xに分布しているとし、このデプス値の分布−X〜+Xをデプス値のダイナミックレンジとする。以下デプス値のダイナミックレンジを拡大する例を考える。例えばデプス値のダイナミックレンジを1.5倍にして、デプス値の分布を−X〜+Xから−1.5X〜+1.5Xに変更する。個々のオブジェクトの凹凸感の振幅を変化させずに、デプス値のダイナミックレンジを拡大させるために以下の処理を実行する。 Hereinafter, a specific example will be described. It is assumed that the depth values of the combined depth map are distributed in −X to + X, and this depth value distribution −X to + X is set as a dynamic range of the depth values. Consider an example of expanding the dynamic range of depth values. For example, the dynamic range of the depth value is increased by a factor of 1.5, and the depth value distribution is changed from -X to + X to -1.5X to + 1.5X. The following processing is executed in order to expand the dynamic range of the depth value without changing the amplitude of the unevenness of each object.
まずデプスマップ加工部20はデプスマップ全体におけるデプス値の最小値、最大値、平均値をそれぞれ算出する。当該最小値と当該最大値の差が、デプス値のダイナミックレンジである。次にデプスマップ加工部20はデプスマップの各オブジェクト領域内におけるデプス値の平均値を算出する。次にデプスマップ加工部20は各オブジェクト領域内におけるデプス値の平均値から、デプスマップ全体におけるデプス値の平均値を減算する。この減算結果をレイヤデプスの平均差分と呼ぶ。 First, the depth map processing unit 20 calculates the minimum value, the maximum value, and the average value of the depth values in the entire depth map. The difference between the minimum value and the maximum value is the dynamic range of the depth value. Next, the depth map processing unit 20 calculates an average value of the depth values in each object area of the depth map. Next, the depth map processing unit 20 subtracts the average value of the depth values in the entire depth map from the average value of the depth values in each object region. This subtraction result is called an average difference of layer depths.
以下、デプス値のダイナミックレンジをa倍に拡大したい場合を考える。デプスマップ加工部20は、各レイヤデプスの平均差分をa倍する。次にa倍した各レイヤデプスの平均差分から、各レイヤデプスの平均差分を減算する。この減算結果を、各レイヤデプスの平均差分のオフセット値と呼ぶ。最後にデプスマップ加工部20は、各レイヤデプスの平均差分のオフセット値を、デプスマップの各オブジェクト領域内におけるデプス値に加算する。 In the following, let us consider a case where the dynamic range of the depth value is to be expanded a times. The depth map processing unit 20 multiplies the average difference of each layer depth by a. Next, the average difference of each layer depth is subtracted from the average difference of each layer depth multiplied by a. This subtraction result is referred to as an average difference offset value for each layer depth. Finally, the depth map processing unit 20 adds the offset value of the average difference of each layer depth to the depth value in each object area of the depth map.
これにより、各レイヤデプスマップではデプス値のオフセット値だけが変化し、デプス値の振幅値は変化しない。従って個々のオブジェクトの凹凸感の振幅を変化させずに、デプス値のダイナミックレンジを拡大できる。 Thereby, only the offset value of the depth value changes in each layer depth map, and the amplitude value of the depth value does not change. Therefore, the dynamic range of the depth value can be expanded without changing the amplitude of the unevenness of each object.
図15(a)−(c)は、デプスマップ全体のダイナミックレンジ調整を説明するための図である。ここまで2D入力画像内のレイヤ数が3の例を説明してきたが、図15(a)−(c)ではレイヤ数が5(レイヤ0〜レイヤ4)の例を示している。観察者から見てレイヤ0のオブジェクトが最も引っ込んで見え、レイヤ4のオブジェクトが最も飛び出して見える。 FIGS. 15A to 15C are diagrams for explaining the dynamic range adjustment of the entire depth map. The example in which the number of layers in the 2D input image is 3 has been described so far, but FIGS. 15A to 15C show examples in which the number of layers is 5 (layer 0 to layer 4). When viewed from the observer, the layer 0 object appears most retracted, and the layer 4 object appears most popped out.
図15(a)は、ダイナミックレンジ調整前の各レイヤのデプスの一例を示す。各レイヤにおいて矢印(符号l参照)は、各レイヤのオブジェクト領域におけるデプス値の最小値(符号j参照)と、最大値(符号k参照)により規定される。即ち矢印(符号l参照)は各レイヤのダイナミックレンジを示している。各矢印を結ぶ線は、各レイヤのオブジェクト領域におけるデプス値の平均値(符号i参照)を結んだ線である。 FIG. 15A shows an example of the depth of each layer before dynamic range adjustment. An arrow (see symbol 1) in each layer is defined by a minimum value (see symbol j) and a maximum value (see symbol k) in the object area of each layer. That is, the arrow (see symbol 1) indicates the dynamic range of each layer. A line connecting the arrows is a line connecting the average values of the depth values (see symbol i) in the object areas of the layers.
図15(b)は、図15(a)の各レイヤのデプスに、均一に2倍のゲイン調整を適用した後の各レイヤのデプスを示す。デプスマップ全体のダイナミックレンジが2倍に拡大されると同時に、各レイヤのオブジェクト領域のダイナミックレンジ、即ち各レイヤの凹凸感の振幅も2倍に拡大されている。 FIG. 15 (b) shows the depth of each layer after applying twice the gain adjustment uniformly to the depth of each layer of FIG. 15 (a). The dynamic range of the entire depth map is doubled, and at the same time, the dynamic range of the object area of each layer, that is, the amplitude of the unevenness of each layer is doubled.
図15(c)は、図15(a)の各レイヤのデプスに、上述したオフセット調整を適用した後の各レイヤのデプスを示す。デプスマップ全体のダイナミックレンジは2倍に拡大されるが、各レイヤのオブジェクト領域のダイナミックレンジ、即ち各レイヤの凹凸感の振幅は変化しない。例えばオブジェクトとして複数の人物が画面に存在する場合において、各人物の厚みは変化させずに各人物間の距離を調整することにより、奥行き感を強めることができる。 FIG.15 (c) shows the depth of each layer after applying the offset adjustment mentioned above to the depth of each layer of Fig.15 (a). Although the dynamic range of the entire depth map is doubled, the dynamic range of the object area of each layer, that is, the amplitude of the unevenness of each layer does not change. For example, when there are a plurality of persons as objects on the screen, the depth feeling can be enhanced by adjusting the distance between the persons without changing the thickness of each person.
(グラデーション付加)
次に、デプスマップ加工部20によるレイヤ処理としてグラデーションを付加する例を説明する。グラデーションの付加は、個々のオブジェクトの奥行きに傾斜を付ける処理である。
(Gradation added)
Next, an example in which gradation is added as a layer process by the depth map processing unit 20 will be described. The addition of gradation is a process for inclining the depth of each object.
図16は、入力デプスマップのグラデーション付加プロセスを説明するための図である。デプスマップ加工部20は、加工前のデプスマップである入力デプスマップに対して、背景のマスクの有効領域だけ(図16では地面だけ)に、グラデーションを付加して背景の部分のみデプス値に傾斜を付けている(S21c)。図16において加工後のデプスマップであるレイヤデプスマップは地面の奥行きに傾斜がついている(符号m参照)。 FIG. 16 is a diagram for explaining the gradation addition process of the input depth map. The depth map processing unit 20 adds a gradation to only the effective area of the background mask (only the ground in FIG. 16) with respect to the input depth map which is the depth map before processing, and only the background portion is inclined to the depth value. (S21c). In FIG. 16, the layer depth map which is the depth map after processing has an inclination in the depth of the ground (see symbol m).
以下より具体的に説明する。図示しないグラデーションパターン保持部はあらかじめ生成された少なくとも一つのグラデーションパターンを保持している。グラデーションパターン保持部は、図16に示すように平面のグラデーションパターンだけでなく、球面、円筒など様々な形状のグラデーションパターンを保持してもよい。また同じ形状のグラデーションパターンであっても、傾斜角度および/または傾斜方向が異なる複数のグラデーションパターンを保持してもよい。 More specific description will be given below. A gradation pattern holding unit (not shown) holds at least one gradation pattern generated in advance. As shown in FIG. 16, the gradation pattern holding unit may hold not only a flat gradation pattern but also various shapes such as a spherical surface and a cylindrical shape. Even if the gradation pattern has the same shape, a plurality of gradation patterns having different inclination angles and / or inclination directions may be held.
ユーザは操作部60を使用して、当該グラデーションパターン保持部に保持される複数のグラデーションパターンを表示部70に表示させ、その中から1つを選択できる。操作受付部40は操作部60からの入力を受け付けて、その入力に対応するグラデーションパターンを取得してデプスマップ加工部20に出力する。 The user can use the operation unit 60 to display a plurality of gradation patterns held in the gradation pattern holding unit on the display unit 70 and select one of them. The operation receiving unit 40 receives an input from the operation unit 60, acquires a gradation pattern corresponding to the input, and outputs the gradation pattern to the depth map processing unit 20.
デプスマップ加工部20には、デプスマップ生成部10から入力デプスマップ、外部からマスク、グラデーションパターン保持部からグラデーションパラメータがそれぞれ入力される。デプスマップ加工部20は入力デプスマップ内のマスクの有効領域に、グラデーションパターンを加算する。 The depth map processing unit 20 receives an input depth map from the depth map generation unit 10, a mask from the outside, and a gradation parameter from the gradation pattern holding unit. The depth map processing unit 20 adds a gradation pattern to the effective area of the mask in the input depth map.
図17は、マスクを使用しない入力デプスマップのグラデーション付加プロセスを説明するための図である。レイヤデプスマップの合成の際、各レイヤデプスマップのマスクの有効領域のみを用いて合成するのであれば、各レイヤデプスマップのマスクの無効領域は合成デプスマップに反映されないことになる。よって、デプスマップ加工部20は入力デプスマップ全体にグラデーションを付加して、入力デプスマップ全体のデプス値に傾斜をつける(S21c)。図17においてレイヤデプスマップは全体に傾斜がついている(符号n参照)。 FIG. 17 is a diagram for explaining a gradation addition process of an input depth map that does not use a mask. If the layer depth map is synthesized by using only the effective area of the mask of each layer depth map, the invalid area of the mask of each layer depth map is not reflected in the synthesized depth map. Therefore, the depth map processing unit 20 adds gradation to the entire input depth map, and inclines the depth value of the entire input depth map (S21c). In FIG. 17, the layer depth map is inclined as a whole (see symbol n).
上記の説明では、デプスマップに付加すべきグラデーションパターンを、あらかじめ生成された典型的なグラデーションパターンから選択する例を説明した。以下、デプスマップに付加すべきグラデーションパターンを、制御パラメータにより指定する例を説明する。デプスマップ加工部20は、外部設定される、それぞれ独立に調整可能なグラデーションの傾斜パラメータ及び方向パラメータをもとに、デプスマップのオブジェクト領域にグラデーションを付加する。さらに外部設定されるオフセットパラメータをもとに、デプスマップの指定領域をオフセット調整しつつグラデーションを付加することもできる。 In the above description, the example in which the gradation pattern to be added to the depth map is selected from typical gradation patterns generated in advance has been described. Hereinafter, an example in which the gradation pattern to be added to the depth map is specified by the control parameter will be described. The depth map processing unit 20 adds a gradation to the object area of the depth map based on the gradient parameter and the direction parameter of the gradation that can be independently adjusted. Furthermore, gradation can be added while adjusting the offset of the designated area of the depth map based on the offset parameter set externally.
ユーザは操作部60を使用して、当該グラデーションの傾斜パラメータ、方向パラメータ、オフセットパラメータを入力できる。操作受付部40は操作部60からの入力を受け付けてデプスマップ加工部20に出力する。 The user can input the gradation parameter, direction parameter, and offset parameter of the gradation using the operation unit 60. The operation reception unit 40 receives an input from the operation unit 60 and outputs the input to the depth map processing unit 20.
デプスマップにグラデーションを付加する処理は、デプスマップの各画素に対してグラデーションの角度と傾斜に応じた、グラデーションデプス値を加算することで実現できる。この処理を行うための制御パラメータとして、Slope、Angleを使用する。Slopeは1画素あたりのデプス値の変化値で規定される。以下、説明を単純化するためデプス値が比例関数的に変化する傾斜モデルを考える。なおデプス値が指数関数的に変化する等、傾斜モデルには他にも様々な種類がある。
Slope:グラデーションの傾斜 [デプス値/画素]
Angle:グラデーションの画像に対する角度 [degree]
The process of adding gradation to the depth map can be realized by adding a gradation depth value corresponding to the angle and inclination of the gradation to each pixel of the depth map. Slope and Angle are used as control parameters for performing this processing. Slope is defined by a change value of the depth value per pixel. Hereinafter, in order to simplify the explanation, an inclination model in which the depth value changes in a proportional function will be considered. There are various other types of gradient models, such as the depth value changing exponentially.
Slope: Gradient slope [depth value / pixel]
Angle: Angle relative to the gradation image [degree]
グラデーションは、画面の中心を基準に付加するとし、画面の中心の座標を(x,y)=(0,0)とする。これを基準とした、画像上の任意の画素の座標を(x,y)=(x_base,y_base)とする。X軸方向、Y軸方向それぞれのグラデーションの傾斜値をslope_x、slope_yとすると、slope_x、slope_yは下記式(1)、式(2)で表される。
slope_x=slope*cosθ=slope*cos(2π*(Angle/360)) …式(1)
slope_y=slope*sinθ=slope*sin(2π*(Angle/360)) …式(2)
The gradation is added with the center of the screen as a reference, and the coordinates of the center of the screen are (x, y) = (0, 0). Based on this, the coordinates of an arbitrary pixel on the image are (x, y) = (x_base, y_base). If the gradient slope values in the X-axis direction and Y-axis direction are slope_x and slope_y, slope_x and slope_y are expressed by the following formulas (1) and (2).
slope_x = slope * cosθ = slope * cos (2π * (Angle / 360)) ... Formula (1)
slope_y = slope * sinθ = slope * sin (2π * (Angle / 360)) ... Formula (2)
ある座標における、X軸方向、Y軸方向それぞれのグラデーションデプス値をgrad_depth_x、grad_depth_yとすると、grad_depth_x、grad_depth_yは下記式(3)、式(4)で表される。
grad_depth_x=Slope_x*x_base …式(3)
grad_depth_y=Slope_y*y_base …式(4)
Assuming that the gradation depth values in the X-axis direction and Y-axis direction at a certain coordinate are grad_depth_x and grad_depth_y, grad_depth_x and grad_depth_y are expressed by the following equations (3) and (4).
grad_depth_x = Slope_x * x_base (3)
grad_depth_y = Slope_y * y_base (4)
デプスマップにグラデーションを付加するために、各画素のデプス値に加算するグラデーションデプス値をgrad_depthとすると、grad_depthは下記式(5)で表される。
grad_depth=grad_depth_x+grad_depth_y …式(5)
In order to add gradation to the depth map, assuming that the gradation depth value added to the depth value of each pixel is grad_depth, grad_depth is expressed by the following equation (5).
grad_depth = grad_depth_x + grad_depth_y (5)
上記式(5)により求めたグラデーションデプス値を、デプスマップの各画素に加算することにより、デプスマップにグラデーションを付加することができる。グラデーションの傾斜は上記Slopeの値を、グラデーションの画像に対する角度は上記Angleの値を変化させることにより自在に設定できる。 The gradation can be added to the depth map by adding the gradation depth value obtained by the above equation (5) to each pixel of the depth map. The gradient slope can be freely set by changing the Slope value, and the angle of the gradation image by changing the Angle value.
以上、式(1)〜式(5)を用いてデプスマップにグラデーションを付加する方法について説明した。この方法ではグラデーションデプス値は画面の中心を基準に付加されるため、画面中心ではデプスマップのデプス値は変化しない。以下、デプスマップにグラデーションを付加すると同時にオフセットも加算し、任意ポジションにおいて任意レベルのグラデーションを付加する方法について説明する。 As described above, the method for adding gradation to the depth map using the equations (1) to (5) has been described. In this method, since the gradation depth value is added based on the center of the screen, the depth value of the depth map does not change at the center of the screen. Hereinafter, a method of adding a gradation to an arbitrary position by adding an offset at the same time as adding a gradation to the depth map will be described.
加算するオフセット値を制御するパラメータとしてOffsetを使用する。
Offset:グラデーションのオフセット
Offset is used as a parameter to control the offset value to be added.
Offset: Gradient offset
デプスマップにグラデーションを付加する際に各画素に加算する、オフセット値も含むグラデーションデプス値をgrad_offset_depthとすると、grad_offset_depthは下記式(6)で表される。
grad_offset_depth=grad_depth_x+grad_depth_y+Offset …式(6)
When a gradation depth value including an offset value to be added to each pixel when adding gradation to the depth map is grad_offset_depth, grad_offset_depth is expressed by the following equation (6).
grad_offset_depth = grad_depth_x + grad_depth_y + Offset Equation (6)
これにより、画面の任意ポジションにおいて任意レベルのグラデーションを付加することができる。以上の説明では、デプスマップのオブジェクト領域にグラデーションを付加する例を場合を示したが、合成デプスマップにグラデーションを付加してもよい。 Thereby, an arbitrary level of gradation can be added at an arbitrary position on the screen. In the above description, an example in which gradation is added to the object area of the depth map has been shown. However, gradation may be added to the combined depth map.
(ユーザインタフェース)
3D画像を生成する作業を行う際には、生成する3D画像のオブジェクトの前後関係が正しくなるように、生成する3D画像に正しい視差を与える必要がある。そのためには、視差生成の基準となる視差情報を保持するデプスマップを正しく加工する必要がある。ユーザは、ディスプレイにデプスマップを表示させて画像のどの部分がどの程度の視差量を持つかを確認しながら作業している。
(User interface)
When performing the operation of generating a 3D image, it is necessary to give a correct parallax to the generated 3D image so that the object context of the generated 3D image is correct. For this purpose, it is necessary to correctly process a depth map that holds disparity information that is a reference for generating disparity. The user is working while displaying which depth map is displayed on the display and checking which part of the image has a certain amount of parallax.
この場合、デプスマップ上で隣り合う部分または近接する部分の視差量の差を確認することは比較的容易である。これに対し離れた部分について視差量の差を確認することは困難なことが多い。視差量を数値で表示してこれを読み取ることも考えられるが、画像のデータ量は非常に多いため画像上で視差量を確認する場合に比べて、確認作業の効率が低下する懸念がある。 In this case, it is relatively easy to check the difference in the amount of parallax between adjacent portions or adjacent portions on the depth map. On the other hand, it is often difficult to confirm the difference in the amount of parallax for the distant portions. Although it is conceivable to display the parallax amount as a numerical value and read it, there is a concern that the efficiency of the confirmation work may be reduced as compared with the case where the parallax amount is confirmed on the image because the data amount of the image is very large.
また合成デプスマップだけを観測したのでは、デプスマップのどのエリアがどのレイヤに相当するのかを判別することはできない。各レイヤのマスクを同時に観測する必要がある。レイヤのマスクは複数あるため、複数のレイヤのマスクと合成デプスマップを同時に観測する必要がある。ただしこの観測によっても離れた部分についての視差量の差を明確に確認することは困難である。このように事実上、合成デプスマップのどのエリアがどのレイヤに相当するのかを明確に把握することは困難な状況にある。 In addition, by observing only the combined depth map, it is not possible to determine which area of the depth map corresponds to which layer. It is necessary to observe the mask of each layer simultaneously. Since there are a plurality of layer masks, it is necessary to observe a plurality of layer masks and a combined depth map at the same time. However, even by this observation, it is difficult to clearly confirm the difference in the amount of parallax between the distant parts. Thus, in practice, it is difficult to clearly grasp which area of the composite depth map corresponds to which layer.
本発明者は、全てのレイヤのデプス値を把握したり他のレイヤとの差異を把握したりするのに適したユーザインタフェースを開発した。このユーザインタフェースは、合成デプスマップを表示するユーザインタフェースに代えて、または加えて使用することができる。 The present inventor has developed a user interface suitable for grasping depth values of all layers and grasping differences from other layers. This user interface can be used instead of or in addition to a user interface that displays a composite depth map.
表示制御部50は、デプスマップ加工部20によりそれぞれ加工された、デプスマップ内における複数のオブジェクト領域内のデプスの状態を表すデータを表示部70にグラフで表示させる。その際、デプスマップ内のオブジェクト間の位置関係が直感的に認識可能な態様で当該データを表示させる。 The display control unit 50 causes the display unit 70 to display data representing the depth states in the plurality of object regions in the depth map, which are respectively processed by the depth map processing unit 20. At that time, the data is displayed in such a manner that the positional relationship between the objects in the depth map can be intuitively recognized.
具体的には表示制御部50は、デプスマップ内の各オブジェクト領域内のデプス値の平均値、最小値、最大値をレイヤ毎のグラフで一覧表示させる。また表示制御部50は各オブジェクト領域内のデプス値をヒストグラムで表示させてもよい。 Specifically, the display control unit 50 displays a list of the average value, the minimum value, and the maximum value of the depth values in each object area in the depth map in a graph for each layer. The display control unit 50 may display the depth value in each object area as a histogram.
図18は、レイヤ毎のデプスの状態を表示するグラフの一例を示す図である。図18のグラフの縦軸はレイヤの番号を表し、横軸はデプス値のスケールを表す。この例では2D入力画像内のレイヤ数が16(レイヤ0〜レイヤ15)である。図18では観察者から見てレイヤ0のオブジェクトが最も引っ込んで見え、レイヤ12のオブジェクトが最も飛び出して見える。 FIG. 18 is a diagram illustrating an example of a graph displaying the depth state for each layer. The vertical axis of the graph in FIG. 18 represents the layer number, and the horizontal axis represents the depth value scale. In this example, the number of layers in the 2D input image is 16 (layer 0 to layer 15). In FIG. 18, the layer 0 object appears most retracted when viewed from the observer, and the layer 12 object appears most popped out.
各レイヤにおいて矢印(符号r参照)の両端は、各レイヤのオブジェクト領域におけるデプス値の最小値(符号p参照)と、最大値(符号q参照)を示している。即ち矢印(符号r参照)は各レイヤのオブジェクト領域におけるデプス値の振幅およびダイナミックレンジを示している。各矢印を結ぶ線は、各レイヤのオブジェクト領域におけるデプス値の平均値(符号o参照)を結んだ線である。 In each layer, both ends of arrows (see symbol r) indicate the minimum value (see symbol p) and the maximum value (see symbol q) of the depth value in the object area of each layer. That is, the arrows (see symbol r) indicate the amplitude and dynamic range of the depth value in the object area of each layer. The line connecting the arrows is a line connecting the average values of the depth values (see symbol o) in the object areas of the layers.
ユーザは、表示部70に表示される全レイヤのデプスの状態を示すグラフを観察して、レイヤ毎に個別にデプスマップを編集または加工する。なおユーザはキーボードからゲイン値、オフセット値などを数値で入力してもよいし、表示されるグラフを直接操作してもよい。表示制御部50はデプスマップ加工部20により加工されるデプスマップの状態が変化すると、その変化を表示部70に反映させる。 The user observes a graph indicating the depth states of all layers displayed on the display unit 70, and edits or processes the depth map individually for each layer. Note that the user may input numerical values such as a gain value and an offset value from the keyboard, or may directly operate the displayed graph. When the state of the depth map processed by the depth map processing unit 20 changes, the display control unit 50 reflects the change on the display unit 70.
表示制御部50は各レイヤの識別記号(図18では数字)の近傍に、そのレイヤのオブジェクトのサムネイル画像を表示させてもよい。これにより、各レイヤのデプスの状態を示すデータとオブジェクトの画像を直感的に関連づけできる。また表示制御部50は表示部70に、全レイヤのデプスの状態を示すグラフ、合成デプスマップ、2D入力画像、3D入力画像の4種類の画像を表示させてもよい。 The display control unit 50 may display the thumbnail image of the object of the layer in the vicinity of the identification symbol (number in FIG. 18) of each layer. As a result, the data indicating the depth state of each layer can be intuitively associated with the object image. The display control unit 50 may cause the display unit 70 to display four types of images: a graph indicating the depth state of all layers, a combined depth map, a 2D input image, and a 3D input image.
図19は、レイヤのデプスの状態をヒストグラムで表示する例を示す図である。このヒストグラムは図18の矢印一つを置き換えたものである。図18の矢印表示ではユーザは、各レイヤのオブジェクト領域内におけるデプス値の分布までは認識できないが、ヒストグラム表示ではその分布も認識できる。また図18の矢印表示と同様にヒストグラム表示でも、レイヤのオブジェクト領域におけるデプス値の最小値(符号t参照)、最大値(符号u参照)、平均値(符号s参照)を表示できる。また、図19に示すようなヒストグラムを、レイヤ毎に並べて表示させてもよい。 FIG. 19 is a diagram illustrating an example of displaying the depth state of a layer as a histogram. This histogram is obtained by replacing one arrow in FIG. In the arrow display of FIG. 18, the user cannot recognize the distribution of the depth value in the object area of each layer, but can also recognize the distribution in the histogram display. Similarly to the arrow display of FIG. 18, the minimum value (see symbol t), maximum value (see symbol u), and average value (see symbol s) of the depth value in the object area of the layer can be displayed in the histogram display. Further, a histogram as shown in FIG. 19 may be displayed side by side for each layer.
以下、各レイヤのオブジェクト領域内におけるデプス値の平均値、最大値、及び最小値の算出方法について説明する。まずオブジェクト領域内におけるデプス値の平均値の算出方法について説明する。まずデプスマップ加工部20はオブジェクト領域内の全画素数をカウントする。次にオブジェクト領域内における全画素分のデプス値の総和を算出する。最後に算出した総和をカウントした全画素数で除算する。 Hereinafter, a method of calculating the average value, the maximum value, and the minimum value of the depth values in the object area of each layer will be described. First, a method for calculating the average value of the depth values in the object area will be described. First, the depth map processing unit 20 counts the total number of pixels in the object area. Next, the sum of depth values for all pixels in the object area is calculated. The sum calculated at the end is divided by the total number of pixels counted.
次にオブジェクト領域内におけるデプス値の最小値の算出方法について説明する。まずデプスマップ加工部20は、当該デプス値の最小値を格納するためのワークエリアに、初期値としてワークエリアに格納可能な最大値を書き込む。次にオブジェクト領域内の全画素分のデプス値を順に参照する。参照した画素のデプス値と、その時点におけるワークエリア内の値を比較する。前者の値が後者の値より小さければ、前者の値をワークエリアに上書きする。前者の値が後者の値以上であれば、この上書きをスキップする。この処理をオブジェクト領域内の全画素分について繰り返す。全画素分について終了した時点でワークエリア内に格納されている値を、オブジェクト領域内におけるデプス値の最小値に決定する。 Next, a method for calculating the minimum value of the depth value in the object area will be described. First, the depth map processing unit 20 writes the maximum value that can be stored in the work area as an initial value in the work area for storing the minimum value of the depth value. Next, the depth values for all the pixels in the object area are referred to in order. The depth value of the referenced pixel is compared with the value in the work area at that time. If the former value is smaller than the latter value, the former value is overwritten in the work area. If the former value is greater than or equal to the latter value, this overwriting is skipped. This process is repeated for all pixels in the object area. The value stored in the work area at the time when the processing is completed for all pixels is determined as the minimum value of the depth value in the object area.
最後にオブジェクト領域内におけるデプス値の最大値の算出方法について説明する。まずデプスマップ加工部20は、当該デプス値の最大値を格納するためのワークエリアに、初期値としてワークエリアに格納可能な最小値を書き込む。次にオブジェクト領域内の全画素分のデプス値を順に参照する。参照した画素のデプス値と、その時点におけるワークエリア内の値を比較する。前者の値が後者の値より大きければ、前者の値をワークエリアに上書きする。前者の値が後者の値以下であれば、この上書きをスキップする。この処理をオブジェクト領域内の全画素分について繰り返す。全画素分について終了した時点でワークエリア内に格納されている値を、オブジェクト領域内におけるデプス値の最大値に決定する。 Finally, a method for calculating the maximum depth value in the object area will be described. First, the depth map processing unit 20 writes the minimum value that can be stored in the work area as an initial value in the work area for storing the maximum value of the depth value. Next, the depth values for all the pixels in the object area are referred to in order. The depth value of the referenced pixel is compared with the value in the work area at that time. If the former value is larger than the latter value, the former value is overwritten in the work area. If the former value is less than or equal to the latter value, this overwriting is skipped. This process is repeated for all pixels in the object area. The value stored in the work area at the time when the processing is completed for all pixels is determined as the maximum depth value in the object area.
以上説明したように本実施の形態によれば、2D画像から3D画像を生成する際に、ユーザの手間を軽減しつつ高品質な3D画像を生成できる。即ちデプスマップ生成部10によりシーン構造を推定して複数の基本デプスモデルの合成比率を変化させることにより、自動処理によりシーン構造を反映させたデプスマップを生成できる。さらに、ユーザの指示を反映させたデプスマップ加工部20により、当該デプスマップ内のオブジェクト毎に個別にデプスマップを加工する。これにより高品質な3D画像を生成できるとともに、同様の品質の3D画像を2D画像からユーザが一から生成する場合と比較し、大幅に作業量を削減できる。 As described above, according to the present embodiment, when generating a 3D image from a 2D image, a high-quality 3D image can be generated while reducing the user's trouble. That is, a depth map reflecting the scene structure can be generated by automatic processing by estimating the scene structure by the depth map generation unit 10 and changing the composition ratio of a plurality of basic depth models. Further, the depth map processing unit 20 reflecting the user's instruction processes the depth map individually for each object in the depth map. As a result, a high-quality 3D image can be generated, and the amount of work can be greatly reduced as compared to a case where a user generates a 3D image of similar quality from the 2D image from scratch.
図1に示す2D3D変換で使用されるデプスマップは、画面全体に対するデプス値を保持する。このデプスマップに対してゲイン調整またはオフセット調整することにより、画面全体の奥行き感を自在に調整できる。またこのデプスマップに対してグラデーションを付加することにより、画面全体の奥行き度合いの傾斜を自在に調整できる。 The depth map used in the 2D3D conversion shown in FIG. 1 holds the depth value for the entire screen. By adjusting the gain or offset with respect to the depth map, the depth feeling of the entire screen can be freely adjusted. Further, by adding gradation to the depth map, the inclination of the depth degree of the entire screen can be freely adjusted.
しかしながら、一般に画像中には複数のオブジェクトが存在する。本明細書の例では人物、木、背景が存在する。仮に人物部分の奥行き感を調整するために、デプスマップをゲイン調整して人物部分の奥行き感を強調したとすると、これに伴い人物以外の木や背景の奥行き感も同時に変化してしまう。従って人物部分の奥行き感だけを独立して調整することは困難である。また仮に、木の部分の奥行き感を調整するために、デプスマップをオフセット調整して木の部分の奥行き感を強調したとすると、これに伴い木以外の人物や背景の奥行き感も同時に変化してしまう。従って木の部分の奥行き感だけを独立して調整することは困難である。また仮に、背景部分の奥行きに傾斜をつけるために、デプスマップにグラデーションを付加すると、これに伴い背景以外の人物や木の部分の奥行きにも同時に傾斜がついてしまう。従って背景部分の奥行きだけに傾斜をつけることは困難である。 However, generally, there are a plurality of objects in an image. In the example of the present specification, there are a person, a tree, and a background. If the depth map is gain-adjusted to enhance the depth feeling of the person portion to adjust the depth feeling of the person portion, the depth feeling of trees and backgrounds other than the person will also change at the same time. Therefore, it is difficult to independently adjust only the sense of depth of the person portion. Also, if you adjust the depth map to emphasize the depth of the tree by adjusting the depth map to adjust the depth of the tree, the depth of the person other than the tree and the background will change at the same time. End up. Therefore, it is difficult to independently adjust only the sense of depth of the tree portion. Further, if gradation is added to the depth map in order to incline the depth of the background portion, the depth of the person other than the background and the portion of the tree is also inclined at the same time. Therefore, it is difficult to incline only the depth of the background portion.
これに対して実施の形態に係る画像編集システム500によれば、画像中の個々のオブジェクトの凹凸度合い及びその傾斜を自由に独立に可変できる。従ってユーザは、実施の形態に係る2D3D変換で使用されるデプスマップをもとに生成される3D画像の遠近感を、画像中の個々のオブジェクト毎に自由に独立して制御できる。よって高品質な3D画像を生成できる。 On the other hand, according to the image editing system 500 according to the embodiment, the unevenness degree and the inclination of each object in the image can be freely changed independently. Therefore, the user can freely and independently control the perspective of the 3D image generated based on the depth map used in the 2D3D conversion according to the embodiment for each individual object in the image. Therefore, a high-quality 3D image can be generated.
またデプスマップ内における複数のオブジェクト領域内のデプスの状態を表すデータをグラフで表示することにより、複数のレイヤ間の奥行きの関係が容易に把握でき、デプスのレイヤ処理の作業効率を大幅に改善できる。即ち視差生成の基準となる視差情報を保持するデプスマップを加工する際の基準が把握しやすくなるため、生成する画像に適切な視差を与えることができ、生成する3D画像のオブジェクトの前後関係を適切に調整できる。また本来困難な、デプスマップとレイヤの同時観測による、デプスマップのオブジェクト領域の把握等を行うことなく、レイヤ毎のデプス値を把握できる。またレイヤ毎のデプス値の目安が、エンボスやグラデーションによる局所的な濃淡に惑わされることなく、明確に識別できる。 In addition, by displaying the data representing the depth state in multiple object areas in the depth map in a graph, the depth relationship between multiple layers can be easily grasped, greatly improving the efficiency of depth layer processing. it can. In other words, since it becomes easy to grasp the reference for processing the depth map that holds the disparity information that is the reference for generating the disparity, it is possible to give an appropriate disparity to the generated image, and to determine the object context of the generated 3D image. Can be adjusted appropriately. Further, it is possible to grasp the depth value for each layer without grasping the object area of the depth map by the simultaneous observation of the depth map and the layer, which is inherently difficult. Further, the depth value for each layer can be clearly identified without being confused by local shading due to embossing or gradation.
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .
500 画像編集システム、 100 画像処理装置、 10 デプスマップ生成部、 11 画面上部高域成分評価部、 12 画面下部高域成分評価部、 13 合成比率決定部、 14 第1基本デプスモデル用フレームメモリ、 15 第2基本デプスモデル用フレームメモリ、 16 第3基本デプスモデル用フレームメモリ、 17 合成部、 18 加算部、 20 デプスマップ加工部、 30 3D画像生成部、 40 操作受付部、 50 表示制御部、 200 コンソール端末装置、 60 操作部、 70 表示部。 500 image editing system, 100 image processing apparatus, 10 depth map generation unit, 11 upper screen high frequency component evaluation unit, 12 lower screen high frequency component evaluation unit, 13 synthesis ratio determination unit, 14 frame memory for first basic depth model, 15 Frame memory for 2nd basic depth model, 16 Frame memory for 3rd basic depth model, 17 Composition part, 18 Adder part, 20 Depth map processing part, 30 3D image generation part, 40 Operation reception part, 50 Display control part, 200 console terminal device, 60 operation unit, 70 display unit.
Claims (6)
前記デプスマップ生成部により生成されたデプスマップを、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに加工するデプスマップ加工部と、
前記入力画像、及び前記デプスマップ加工部により加工されたデプスマップをもとに、別視点の画像を生成する画像生成部と、
前記デプスマップ加工部によりそれぞれ加工された、デプスマップ内における複数の指定領域内のデプスの状態を表すデータをディスプレイにグラフで表示させる表示制御部と、
を備えることを特徴とする画像処理装置。 A depth map generating unit that generates a depth map of the input image based on the input image and the depth model;
A depth map processing unit that processes the depth map generated by the depth map generation unit for each of a plurality of regions in a screen specified by a plurality of mask patterns set externally;
Based on the input image and the depth map processed by the depth map processing unit, an image generation unit that generates an image of another viewpoint;
A display control unit that displays the data representing the state of depth in a plurality of designated areas in the depth map, each processed by the depth map processing unit, in a graph on a display;
An image processing apparatus comprising:
前記デプスマップ生成部は、入力画像のシーン構造に応じて複数の基本デプスモデルの合成比率を変化させることを特徴とする請求項1から3のいずれかに記載の画像処理装置。 The depth map generation unit generates a depth model to be used for depth map generation by combining a plurality of basic depth models,
The image processing apparatus according to claim 1, wherein the depth map generation unit changes a synthesis ratio of a plurality of basic depth models according to a scene structure of an input image.
生成されたデプスマップを、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに加工するステップと、
それぞれ加工された、デプスマップ内における複数の指定領域内のデプスの状態を表すデータをディスプレイにグラフで表示させるステップと、
前記入力画像、及び加工されたデプスマップをもとに、別視点の画像を生成するステップと、
を備えることを特徴とする画像処理方法。 Generating a depth map of the input image based on the input image and the depth model;
Processing the generated depth map for each of a plurality of areas in a screen specified by a plurality of externally set mask patterns;
A step of displaying data representing depth states in a plurality of designated areas in the depth map on the display in a graph, each processed;
Generating a different viewpoint image based on the input image and the processed depth map;
An image processing method comprising:
生成されたデプスマップを、外部設定される複数のマスクパターンにより指定される画面内の複数の領域ごとに加工する処理と、
それぞれ加工された、デプスマップ内における複数の指定領域内のデプスの状態を表すデータをディスプレイにグラフで表示させる処理と、
前記入力画像、及び加工されたデプスマップをもとに、別視点の画像を生成する処理と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 A process of generating a depth map of the input image based on the input image and the depth model;
Processing the generated depth map for each of a plurality of areas in the screen specified by a plurality of mask patterns set externally;
Processing each of the data that represents the state of the depth in a plurality of designated areas in the depth map processed in a graph on the display,
Based on the input image and the processed depth map, processing for generating an image of another viewpoint;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019222A JP5807569B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012019222A JP5807569B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013156955A true JP2013156955A (en) | 2013-08-15 |
JP5807569B2 JP5807569B2 (en) | 2015-11-10 |
Family
ID=49052041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012019222A Active JP5807569B2 (en) | 2012-01-31 | 2012-01-31 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5807569B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030169A1 (en) * | 2016-08-10 | 2018-02-15 | ソニー株式会社 | Image processing device and image processing method |
WO2018030168A1 (en) * | 2016-08-10 | 2018-02-15 | ソニー株式会社 | Image processing device and image processing method |
CN110473296A (en) * | 2019-08-15 | 2019-11-19 | 浙江中国轻纺城网络有限公司 | Chart pasting method and device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191397A (en) * | 1996-12-27 | 1998-07-21 | Sanyo Electric Co Ltd | Intention adaptive device for converting two-dimensional video into three-dimensional video |
JP2005151534A (en) * | 2003-09-24 | 2005-06-09 | Victor Co Of Japan Ltd | Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system |
JP2009044722A (en) * | 2007-07-19 | 2009-02-26 | Victor Co Of Japan Ltd | Pseudo-3d-image generating device, image-encoding device, image-encoding method, image transmission method, image-decoding device and image image-decoding method |
CN102223553A (en) * | 2011-05-27 | 2011-10-19 | 山东大学 | Method for converting two-dimensional video into three-dimensional video automatically |
US20120020548A1 (en) * | 2010-07-20 | 2012-01-26 | Meng-Chao Kao | Method for Generating Images of Multi-Views |
-
2012
- 2012-01-31 JP JP2012019222A patent/JP5807569B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191397A (en) * | 1996-12-27 | 1998-07-21 | Sanyo Electric Co Ltd | Intention adaptive device for converting two-dimensional video into three-dimensional video |
JP2005151534A (en) * | 2003-09-24 | 2005-06-09 | Victor Co Of Japan Ltd | Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system |
JP2009044722A (en) * | 2007-07-19 | 2009-02-26 | Victor Co Of Japan Ltd | Pseudo-3d-image generating device, image-encoding device, image-encoding method, image transmission method, image-decoding device and image image-decoding method |
US20120020548A1 (en) * | 2010-07-20 | 2012-01-26 | Meng-Chao Kao | Method for Generating Images of Multi-Views |
CN102223553A (en) * | 2011-05-27 | 2011-10-19 | 山东大学 | Method for converting two-dimensional video into three-dimensional video automatically |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030169A1 (en) * | 2016-08-10 | 2018-02-15 | ソニー株式会社 | Image processing device and image processing method |
WO2018030168A1 (en) * | 2016-08-10 | 2018-02-15 | ソニー株式会社 | Image processing device and image processing method |
JPWO2018030168A1 (en) * | 2016-08-10 | 2019-06-06 | ソニー株式会社 | Image processing apparatus and image processing method |
JPWO2018030169A1 (en) * | 2016-08-10 | 2019-06-27 | ソニー株式会社 | Image processing apparatus and image processing method |
US10950029B2 (en) | 2016-08-10 | 2021-03-16 | Sony Corporation | Image processing apparatus and image processing method |
US11069120B2 (en) | 2016-08-10 | 2021-07-20 | Sony Corporation | Image processing apparatus and image processing method |
CN110473296A (en) * | 2019-08-15 | 2019-11-19 | 浙江中国轻纺城网络有限公司 | Chart pasting method and device |
CN110473296B (en) * | 2019-08-15 | 2023-09-26 | 浙江中国轻纺城网络有限公司 | Mapping method and device |
Also Published As
Publication number | Publication date |
---|---|
JP5807569B2 (en) | 2015-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5962393B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6040838B2 (en) | Depth estimation apparatus, depth estimation method, depth estimation program, image processing apparatus, image processing method, and image processing program | |
JP4966431B2 (en) | Image processing device | |
JP7387434B2 (en) | Image generation method and image generation device | |
JP2013235537A (en) | Image creation device, image creation program and recording medium | |
CN111047709B (en) | Binocular vision naked eye 3D image generation method | |
JP2015022458A (en) | Image processing device, image processing method, and image processing program | |
JP5303692B1 (en) | Stereoscopic image processing apparatus and stereoscopic image processing method | |
JP2007264722A (en) | Image processor | |
JP2009251141A (en) | Stereoscopic image display | |
JP2011087100A (en) | Pseudo-stereoscopic image generation device and pseudo-stereoscopic image display system | |
JP5755571B2 (en) | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device | |
JP5862635B2 (en) | Image processing apparatus, three-dimensional data generation method, and program | |
JP2009211513A (en) | Image processing apparatus and method therefor | |
JP5807569B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4541397B2 (en) | Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program | |
JP5887966B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5971017B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5807571B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5807570B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5900321B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7119854B2 (en) | Changed pixel region extraction device, image processing system, changed pixel region extraction method, image processing method and program | |
JP2015103960A (en) | Method, program and apparatus for specifying image depth | |
JP5867128B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Huang et al. | Generation of stereo oil paintings from RGBD images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5807569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |