JP5780214B2 - Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device - Google Patents

Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device Download PDF

Info

Publication number
JP5780214B2
JP5780214B2 JP2012144147A JP2012144147A JP5780214B2 JP 5780214 B2 JP5780214 B2 JP 5780214B2 JP 2012144147 A JP2012144147 A JP 2012144147A JP 2012144147 A JP2012144147 A JP 2012144147A JP 5780214 B2 JP5780214 B2 JP 5780214B2
Authority
JP
Japan
Prior art keywords
screen
data
frequency component
unit
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012144147A
Other languages
Japanese (ja)
Other versions
JP2014007715A (en
Inventor
晋吾 木田
晋吾 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012144147A priority Critical patent/JP5780214B2/en
Publication of JP2014007715A publication Critical patent/JP2014007715A/en
Application granted granted Critical
Publication of JP5780214B2 publication Critical patent/JP5780214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、通常の画像のように奥行き情報が明示的に与えておらず、ステレオ画像のように奥行き情報が暗示的にも与えられていない非立体画像から奥行き情報を生成する奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、奥行き情報を用いて擬似的な立体画像を生成する擬似立体画像生成装置に関する。   The present invention relates to a depth information generation device that generates depth information from a non-stereo image that is not given depth information explicitly as in a normal image and that is not given depth information like a stereo image. The present invention relates to a depth information generation method, a depth information generation program, and a pseudo stereoscopic image generation apparatus that generates a pseudo stereoscopic image using depth information.

近年、立体画像の普及に伴って、奥行き情報が明示的にも暗示的にも与えられていない非立体画像を擬似的な立体画像に変換することが行われるようになってきた。非立体画像を擬似的な立体画像に変換するための擬似立体画像生成装置が種々提案されている。   In recent years, with the widespread use of stereoscopic images, non-stereo images that are not given depth information either explicitly or implicitly have been converted into pseudo stereoscopic images. Various pseudo-stereoscopic image generation apparatuses for converting a non-stereoscopic image into a pseudo-stereoscopic image have been proposed.

一例として、特許文献1には、基本となる複数種類のシーン構造のそれぞれについて奥行き値を示す複数種類の基本奥行きモデルを用いて奥行き推定データを生成する擬似立体画像生成装置が記載されている。   As an example, Patent Literature 1 describes a pseudo stereoscopic image generation device that generates depth estimation data using a plurality of types of basic depth models indicating depth values for each of a plurality of types of basic scene structures.

特開2005−151534号公報JP 2005-151534 A

特許文献1に記載の擬似立体画像生成装置が備える奥行き情報生成装置においては、画面の中央部に人物等の注目被写体がある画像では十分な立体効果が得られる奥行き情報を生成することができないという問題点があった。   In the depth information generation device included in the pseudo-stereoscopic image generation device described in Patent Literature 1, it is impossible to generate depth information that can provide a sufficient stereoscopic effect with an image having a subject of interest such as a person in the center of the screen. There was a problem.

本発明はこのような問題点に鑑み、画面の中央部に注目被写体がある画像に対して十分な立体効果が得られる奥行き情報を生成することができる奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラムを提供することを目的とする。また、画面の中央部に注目被写体がある画像に対して十分な立体効果を得ることができる擬似立体画像生成装置を提供することを目的とする。   In view of such a problem, the present invention provides a depth information generation device, a depth information generation method, a depth information, and a depth information generation method capable of generating depth information that provides a sufficient stereoscopic effect for an image having a subject of interest in the center of the screen. An object is to provide an information generation program. It is another object of the present invention to provide a pseudo-stereoscopic image generation apparatus that can obtain a sufficient stereoscopic effect for an image having a subject of interest at the center of the screen.

本発明は、上述した従来の技術の課題を解決するため、画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生する視差データ発生部(114〜117)と、非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出する中央部分布割合算出部(84)と、前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を出力する振幅補正部(86,87)と、前記視差データ発生部が発生した視差データと、前記振幅補正部より出力された補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成する加算器(119)とを備えることを特徴とする奥行き情報生成装置(1)を提供する。   In order to solve the above-described problems of the conventional technology, the present invention uses a basic depth model for determining the parallax value of the entire screen and generates parallax data indicating the parallax value of each pixel in the screen. The generation unit (114 to 117) and a center for calculating central part distribution ratio data indicating the degree to which the target subject included in the non-stereoscopic image signal is concentrated and distributed in the first central part excluding the peripheral part of the screen The amplitude of the non-stereoscopic image signal in the second central portion that is the same as or different from the first central portion of the screen is increased according to the size of the partial distribution ratio calculating unit (84) and the central portion distribution ratio data. An amplitude correction unit (86, 87) that outputs a corrected non-stereoscopic image signal, parallax data generated by the parallax data generation unit, and a corrected non-stereoscopic image signal output from the amplitude correction unit Add Te, provides depth information generating device (1), characterized in that it comprises an adder (119) for generating a depth estimation data for each pixel within the screen.

上記の奥行き情報生成装置において、前記視差データ発生部は、複数の基本奥行きモデルそれぞれの画面全体の視差値を示す視差データを、前記非立体画像信号が有する特徴に基づいて合成する合成部(117)を有することが好ましい。   In the depth information generation apparatus, the disparity data generation unit combines disparity data indicating disparity values of the entire screen of each of the plurality of basic depth models based on the characteristics of the non-stereoscopic image signal (117). ).

上記の奥行き情報生成装置において、画面における上部の所定の領域に含まれる高域成分の量を評価して上部高域成分評価値を生成する上部高域成分評価部(112)と、画面における下部の所定の領域に含まれる高域成分の量を評価して下部高域成分評価値を生成する下部高域成分評価部(113)とをさらに備え、前記合成部は、前記上部高域成分評価値と前記下部高域成分評価値とに応じて、前記複数の基本奥行きモデルそれぞれの画面全体の視差値を示す視差データを合成することが好ましい。   In the depth information generating apparatus, an upper high-frequency component evaluation unit (112) that evaluates the amount of a high-frequency component included in a predetermined region on the screen and generates an upper high-frequency component evaluation value, and a lower portion on the screen A lower high-frequency component evaluation unit (113) that generates a lower high-frequency component evaluation value by evaluating an amount of the high-frequency component included in the predetermined region, and the combining unit evaluates the upper high-frequency component evaluation It is preferable to combine disparity data indicating disparity values of the entire screen of each of the plurality of basic depth models according to the value and the lower high-frequency component evaluation value.

上記の奥行き情報生成装置において、前記中央部分布割合算出部は、前記周辺部に含まれる高周波成分の頻度を示す高周波成分頻度データと、前記第1の中央部に含まれる高周波成分の頻度を示す高周波成分頻度データとを用いて、前記中央部分布割合データを算出することが好ましい。   In the depth information generating apparatus, the central portion distribution ratio calculating unit indicates high frequency component frequency data indicating the frequency of high frequency components included in the peripheral portion, and indicates the frequency of high frequency components included in the first central portion. It is preferable to calculate the central portion distribution ratio data using high frequency component frequency data.

上記の奥行き情報生成装置において、前記非立体画像信号は、3原色信号のうちの赤色信号であることが好ましい。   In the depth information generating apparatus, the non-stereoscopic image signal is preferably a red signal among the three primary color signals.

また、本発明は、上述した従来の技術の課題を解決するため、上記のいずれかの構成を有する奥行き情報生成装置と、前記奥行き推定データに基づいて、複数の視点の画像データを生成する複数視点画像データ生成部(2)とを備えることを特徴とする擬似立体画像生成装置を提供する。   In order to solve the above-described problems of the related art, the present invention provides a depth information generation apparatus having any one of the above configurations and a plurality of image data for a plurality of viewpoints based on the depth estimation data. Provided is a pseudo-stereoscopic image generation device including a viewpoint image data generation unit (2).

さらに、本発明は、上述した従来の技術の課題を解決するため、画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生し、非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出し、前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を生成し、前記視差データと前記補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成することを特徴とする奥行き情報生成方法を提供する。   Furthermore, the present invention generates disparity data indicating the disparity value of each pixel in the screen using a basic depth model for determining the disparity value of the entire screen in order to solve the above-described problems of the conventional technology. The central portion distribution ratio data indicating the degree to which the subject of interest included in the non-stereoscopic image signal is concentrated and distributed in the first central portion excluding the peripheral portion of the screen is calculated, and the size of the central portion distribution ratio data is calculated. Accordingly, correction is performed to increase the amplitude of the non-stereoscopic image signal in a second central portion that is the same as or different from the first central portion of the screen to generate a corrected non-stereoscopic image signal, and the parallax data And a corrected non-stereoscopic image signal are added to generate depth estimation data for each pixel in the screen.

さらにまた、本発明は、上述した従来の技術の課題を解決するため、コンピュータに、画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生するステップと、非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出するステップと、前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を生成するステップと、前記視差データと前記補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成するステップとを実行させることを特徴とする奥行き情報生成プログラムを提供する。   Furthermore, in order to solve the above-described problems of the conventional technology, the present invention uses a basic depth model for determining the parallax value of the entire screen in the computer, and the parallax indicating the parallax value of each pixel in the screen. Generating data, calculating center portion distribution ratio data indicating the degree to which the target subject included in the non-stereoscopic image signal is concentrated and distributed in the first center portion excluding the peripheral portion of the screen, A corrected non-stereo image is corrected by increasing the amplitude of the non-stereo image signal in a second central portion that is the same as or different from the first central portion of the screen according to the size of the central portion distribution ratio data. Generating a signal, and adding the parallax data and the corrected non-stereoscopic image signal to generate depth estimation data for each pixel in the screen. Providing depth information generating program according to claim.

本発明の奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラムによれば、画面の中央部に注目被写体がある画像に対して十分な立体効果が得られる奥行き情報を生成することができる。また、本発明の擬似立体画像生成装置によれば、画面の中央部に注目被写体がある画像に対して十分な立体効果を得ることができる。   According to the depth information generation device, the depth information generation method, and the depth information generation program of the present invention, it is possible to generate depth information that provides a sufficient stereoscopic effect for an image having a subject of interest at the center of the screen. In addition, according to the pseudo stereoscopic image generation device of the present invention, it is possible to obtain a sufficient stereoscopic effect for an image having a subject of interest in the center of the screen.

本発明の擬似立体画像生成装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the pseudo | simulation stereoscopic image generation apparatus of this invention. 図1中の奥行き推定部11の具体的な構成例であり、本発明の奥行き情報生成装置の一実施形態を示すブロック図である。It is a specific structural example of the depth estimation part 11 in FIG. 1, and is a block diagram which shows one Embodiment of the depth information generation apparatus of this invention. 図2中のフレームメモリ114が保持する基本奥行きモデル(タイプ1)の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of the basic depth model (type 1) which the frame memory 114 in FIG. 2 hold | maintains. 図2中のフレームメモリ115が保持する基本奥行きモデル(タイプ2)の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of the basic depth model (type 2) which the frame memory 115 in FIG. 2 hold | maintains. 図2中のフレームメモリ116が保持する基本奥行きモデル(タイプ3)の立体構造の一例を示す図である。It is a figure which shows an example of the three-dimensional structure of the basic depth model (type 3) which the frame memory 116 in FIG. 2 hold | maintains. 図2中の合成部117による合成比率決定条件の一例を示す図である。It is a figure which shows an example of the synthetic | combination ratio determination conditions by the synthetic | combination part 117 in FIG. 図2中のオブジェクト信号補正部118の具体的な構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a specific configuration example of an object signal correction unit 118 in FIG. 2. 図7中の高周波成分頻度検出部81,82がそれぞれ高周波成分の頻度を検出する領域の一例を示す図である。It is a figure which shows an example of the area | region where the high frequency component frequency detection parts 81 and 82 in FIG. 7 each detect the frequency of a high frequency component. 図7中の高周波成分頻度検出部81,82の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the high frequency component frequency detection parts 81 and 82 in FIG. 図9中のハイパスフィルタ801による高周波成分の検出位相を説明するための図である。It is a figure for demonstrating the detection phase of the high frequency component by the high pass filter 801 in FIG. 図7中の中央部分布割合算出部84の具体的な構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a specific configuration example of a central portion distribution ratio calculation unit 84 in FIG. 7. 図7中のリーク型積分回路85の具体的な構成例を示すブロック図である。FIG. 8 is a block diagram illustrating a specific configuration example of a leaky integration circuit 85 in FIG. 7. 図7中のゲイン算出部86で算出するゲインの特性図である。FIG. 8 is a characteristic diagram of a gain calculated by a gain calculation unit 86 in FIG. 7. 図13の(b)に示すゲインの制限値limの特性図である。FIG. 14 is a characteristic diagram of a gain limit value lim shown in FIG. 一実施形態による効果を説明するための擬似立体画像の表示例を示す図である。It is a figure which shows the example of a display of the pseudo | simulation stereo image for demonstrating the effect by one Embodiment.

以下、本発明の奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置の一実施形態について、添付図面を参照して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment of a depth information generation device, a depth information generation method, a depth information generation program, and a pseudo stereoscopic image generation device according to the present invention will be described with reference to the accompanying drawings.

図1において、R,G,B信号である入力信号(オブジェクト信号)は、擬似的な奥行き情報を生成する奥行き情報生成部1に入力される。奥行き情報生成部1は、一実施形態の奥行き情報生成装置を構成する。R,G,B信号は、3原色信号の赤色信号,緑色信号,青色信号である。   In FIG. 1, input signals (object signals) that are R, G, and B signals are input to a depth information generation unit 1 that generates pseudo depth information. The depth information generation unit 1 constitutes a depth information generation apparatus according to an embodiment. The R, G, and B signals are a red signal, a green signal, and a blue signal of the three primary color signals.

奥行き情報生成部1に入力されるR,G,B信号は、奥行き情報が明示的にも暗示的にも与えられていない非立体画像を表す画像信号である。奥行き情報生成部1は、奥行き推定データを生成する奥行き推定部11を有する。奥行き推定部11の具体的な構成及び動作については後に詳述する。   The R, G, and B signals input to the depth information generation unit 1 are image signals representing non-stereoscopic images to which depth information is not given explicitly or implicitly. The depth information generation unit 1 includes a depth estimation unit 11 that generates depth estimation data. The specific configuration and operation of the depth estimation unit 11 will be described in detail later.

ステレオペア生成部2には、奥行き情報生成部1への入力信号であるR,G,B信号と、奥行き推定部11によって生成された奥行き推定データとが入力される。ステレオペア生成部2は、右目画像データと左目画像データとのステレオペアを生成する。   The stereo pair generation unit 2 receives the R, G, B signals that are input signals to the depth information generation unit 1 and the depth estimation data generated by the depth estimation unit 11. The stereo pair generation unit 2 generates a stereo pair of right eye image data and left eye image data.

ステレオペア生成部2は、非立体画像信号に基づいて複数の視点の画像データを生成する複数視点画像データ生成部の一例である。奥行き情報生成部1とステレオペア生成部2とは、一実施形態の擬似立体画像生成装置を構成する。   The stereo pair generation unit 2 is an example of a multi-viewpoint image data generation unit that generates image data of a plurality of viewpoints based on a non-stereo image signal. The depth information generation unit 1 and the stereo pair generation unit 2 constitute a pseudo stereoscopic image generation apparatus according to an embodiment.

ステレオペア生成部2は、入力されたR,G,B信号をそのまま右目画像データとする。ステレオペア生成部2は、右目画像データ(R,G,B信号)に基づいて左目画像データを生成する。   The stereo pair generation unit 2 uses the input R, G, B signal as it is as the right-eye image data. The stereo pair generation unit 2 generates left eye image data based on the right eye image data (R, G, B signals).

画素シフト部21には、R,G,B信号と奥行き推定データとが入力される。画素シフト部21は、奥行き推定データに基づいてR,G,B信号それぞれの画素をシフトする。   The pixel shift unit 21 receives R, G, and B signals and depth estimation data. The pixel shift unit 21 shifts the pixels of the R, G, and B signals based on the depth estimation data.

例えば左に視点移動する場合、画面より手前に表示するものは近いものほど画像を見る者の内側(鼻側)に見える。そこで、画素シフト部21は、対応部分の画素を奥行き推定データが示す奥行きに応じた量だけ、内側(右側)に移動させる。画面より奥に表示するものは近いものほど画像を見る者の外側に見える。そこで、画素シフト部21は、対応部分の画素を奥行きに応じた量だけ、外側(左側)に移動させる。   For example, when moving the viewpoint to the left, the closer the object displayed in front of the screen is, the closer it is to the inside (nose side) of the person viewing the image. Therefore, the pixel shift unit 21 moves the corresponding part of the pixel to the inside (right side) by an amount corresponding to the depth indicated by the depth estimation data. The closer to the back of the screen, the closer it is to the outside of the viewer. Therefore, the pixel shift unit 21 moves the corresponding part of the pixel to the outside (left side) by an amount corresponding to the depth.

画素シフト部21によって画素をシフトすると、画像内に、画素が存在しない、いわゆるオクルージョンが発生する場合がある。オクルージョン補償部22は、画素シフト部21より出力されたR,G,B信号のオクルージョンを補償する。   When pixels are shifted by the pixel shift unit 21, so-called occlusion may occur in which no pixels exist in the image. The occlusion compensation unit 22 compensates for the occlusion of the R, G, and B signals output from the pixel shift unit 21.

オクルージョン補償部22は、オクルージョンの周辺の画素を用いて画素を補間する等の公知の方法によってオクルージョンを補償する。   The occlusion compensation unit 22 compensates for occlusion by a known method such as interpolation of pixels using pixels around the occlusion.

オクルージョン補償部22より出力されたR,G,B信号は、ポスト処理部23に入力される。ポスト処理部23は、入力されたR,G,B信号に対して平滑化処理等のポスト処理を施す。ポスト処理部23によってポスト処理を施すことにより、オクルージョン補償された画像が滑らかとなり、ノイズが軽減される。   The R, G and B signals output from the occlusion compensation unit 22 are input to the post processing unit 23. The post processing unit 23 performs post processing such as smoothing processing on the input R, G, and B signals. By performing the post processing by the post processing unit 23, the occlusion-compensated image becomes smooth and noise is reduced.

ポスト処理部23より出力されたR,G,B信号は、左目画像データとなる。左目画像出力部24は左目画像データを出力し、右目画像出力部25は右目画像データを出力する。   The R, G, and B signals output from the post processing unit 23 become left eye image data. The left eye image output unit 24 outputs left eye image data, and the right eye image output unit 25 outputs right eye image data.

ステレオペア生成部2には、ステレオ画像表示装置3が接続されている。ステレオ画像表示装置3には、左目画像出力部24より出力された左目画像データと、右目画像出力部25より出力された右目画像データとのステレオペアが入力される。ステレオ画像表示装置3は、入力されたステレオペアに基づいてステレオ画像(立体画像)を表示する。   A stereo image display device 3 is connected to the stereo pair generation unit 2. A stereo pair of the left eye image data output from the left eye image output unit 24 and the right eye image data output from the right eye image output unit 25 is input to the stereo image display device 3. The stereo image display device 3 displays a stereo image (stereoscopic image) based on the input stereo pair.

ステレオペア生成部2は、入力されたR,G,B信号をそのまま左目画像データとし、左目画像データ(R,G,B信号)を画素シフトすることによって右目画像データを生成してもよい。   The stereo pair generation unit 2 may generate the right-eye image data by shifting the left-eye image data (R, G, and B signals) by using the input R, G, and B signals as they are as the left-eye image data.

ステレオペア生成部2は、右目画像データと左目画像データのいずれも、入力されたR,G,B信号をそのまま用いるのではなく、画素シフト部21によって画素をシフトさせた左右の別視点の画像データをステレオペアとしてもよい。   The stereo pair generation unit 2 does not use the input R, G, and B signals as they are for both the right-eye image data and the left-eye image data, but the left and right viewpoint images obtained by shifting the pixels by the pixel shift unit 21. The data may be a stereo pair.

図2を用いて、奥行き推定部11の具体的構成例及びその動作について説明する。画像入力部111には、R,G,B信号が入力される。画像入力部111は、R,G,B信号のうちのR信号のみを、上部高域成分評価部112と下部高域成分評価部113とオブジェクト信号補正部118とに供給する。   A specific configuration example and the operation of the depth estimation unit 11 will be described with reference to FIG. The image input unit 111 receives R, G, and B signals. The image input unit 111 supplies only the R signal of the R, G, and B signals to the upper high frequency component evaluation unit 112, the lower high frequency component evaluation unit 113, and the object signal correction unit 118.

上部高域成分評価部112は、それぞれのフレームの上部約20%の領域に高域成分がどの程度含まれているかを評価する。例えば、上部高域成分評価部112は、上部約20%の領域を水平8画素、垂直8画素のブロックに分割する。上部高域成分評価部112は、それぞれのブロックにおいて次の式(1)を計算し、ブロックの平均を上部高域成分評価値top_actとする。上部高域成分評価値top_actは、合成部117に入力される。   The upper high-frequency component evaluation unit 112 evaluates how much high-frequency components are included in an upper 20% region of each frame. For example, the upper high frequency component evaluation unit 112 divides the upper 20% region into blocks of 8 horizontal pixels and 8 vertical pixels. The upper high frequency component evaluation unit 112 calculates the following expression (1) in each block, and sets the average of the blocks as the upper high frequency component evaluation value top_act. The upper high frequency component evaluation value top_act is input to the synthesis unit 117.

下部高域成分評価部113は、それぞれのフレームの下部約20%の領域に高域成分がどの程度含まれているかを評価する。例えば、下部高域成分評価部113は、下部約20%の領域を水平8画素、垂直8画素のブロックに分割する。下部高域成分評価部113は、それぞれのブロックにおいて上記の式(1)を計算し、ブロックの平均を下部高域成分評価値bottom_actとする。下部高域成分評価値bottom_actは、合成部117に入力される。   The lower high-frequency component evaluation unit 113 evaluates how much high-frequency components are included in the lower 20% region of each frame. For example, the lower high frequency component evaluation unit 113 divides the lower 20% region into blocks of 8 horizontal pixels and 8 vertical pixels. The lower high frequency component evaluation unit 113 calculates the above equation (1) in each block, and sets the average of the blocks as the lower high frequency component evaluation value bottom_act. The lower high-frequency component evaluation value bottom_act is input to the synthesis unit 117.

フレームメモリ114〜116は、擬似立体画像を生成する際の基本となる基本奥行きモデルを記憶している。フレームメモリ114,115,116が記憶している基本奥行きモデルをそれぞれタイプ1,タイプ2,タイプ3とする。図3,図4,図5は、それぞれ、基本奥行きモデルのタイプ1,タイプ2,タイプ3の立体構造の一例を示している。   The frame memories 114 to 116 store a basic depth model that is a basis for generating a pseudo stereoscopic image. The basic depth models stored in the frame memories 114, 115, and 116 are referred to as Type 1, Type 2, and Type 3, respectively. 3, FIG. 4 and FIG. 5 show examples of three-dimensional structures of type 1, type 2 and type 3 of the basic depth model, respectively.

基本奥行きモデルとは画面全体の視差値を決定するためのモデルである。基本奥行きモデルは、平面上のそれぞれの画素を、図3〜図5に示すような非平面形状の特性が有する飛び出し方向または奥行き方向にシフトさせるテーブルまたは計算式にて構成することができる。   The basic depth model is a model for determining the parallax value of the entire screen. The basic depth model can be configured by a table or a calculation formula that shifts each pixel on a plane in the pop-out direction or the depth direction, which has a non-planar shape characteristic as shown in FIGS.

合成部117は、上部高域成分評価値top_act及び下部高域成分評価値bottom_actそれぞれの値に応じて、フレームメモリ114〜116より出力されるタイプ1〜3の基本奥行きモデルを所定の合成比率で合成する。   The synthesizing unit 117 performs basic depth models of types 1 to 3 output from the frame memories 114 to 116 at a predetermined synthesis ratio according to the values of the upper high-frequency component evaluation value top_act and the lower high-frequency component evaluation value bottom_act. Synthesize.

合成部117は、図6に示す合成比率決定条件に従ってタイプ1〜3の基本奥行きモデルを合成する。図6の横軸は上部高域成分評価値top_act、縦軸は下部高域成分評価値bottom_actである。   The synthesizer 117 synthesizes the basic depth models of types 1 to 3 according to the synthesis ratio determination condition shown in FIG. The horizontal axis in FIG. 6 is the upper high-frequency component evaluation value top_act, and the vertical axis is the lower high-frequency component evaluation value bottom_act.

図6に示すように、下部高域成分評価値bottom_actが所定の値bms以下であれば、合成部117は、上部高域成分評価値top_actの値にかかわらず、タイプ3の基本奥行きモデルを用いる。即ち、タイプ1,2の合成比率を0にする。   As illustrated in FIG. 6, if the lower high-frequency component evaluation value bottom_act is equal to or less than the predetermined value bms, the synthesis unit 117 uses the type 3 basic depth model regardless of the value of the upper high-frequency component evaluation value top_act. . That is, the composition ratio of types 1 and 2 is set to zero.

下部高域成分評価値bottom_actが値bmsより大きく、所定の値bml以下であれば、合成部117は、上部高域成分評価値top_actの値に応じてタイプ1〜3を次のように合成する。上部高域成分評価値top_actが所定の値tps以下であれば、合成部117は、タイプ1の合成比率を0にして、タイプ2とタイプ3とを合成する。   If the lower high frequency component evaluation value bottom_act is greater than the value bms and less than or equal to the predetermined value bml, the synthesis unit 117 synthesizes types 1 to 3 according to the value of the upper high frequency component evaluation value top_act as follows. . If the upper high-frequency component evaluation value top_act is equal to or less than the predetermined value tps, the combining unit 117 sets the combining ratio of type 1 to 0 and combines type 2 and type 3.

上部高域成分評価値top_actが値tpsより大きく、所定の値tpl以下であれば、合成部117は、タイプ1〜3を合成する。上部高域成分評価値top_actが値tplより大きければ、合成部117は、タイプ2の合成比率を0にして、タイプ1とタイプ3とを合成する。   If the upper high-frequency component evaluation value top_act is greater than the value tps and less than or equal to the predetermined value tpl, the synthesizer 117 synthesizes types 1 to 3. If the upper high frequency component evaluation value top_act is larger than the value tpl, the synthesizing unit 117 synthesizes the type 1 and the type 3 by setting the type 2 synthesis ratio to 0.

下部高域成分評価値bottom_actが値bmlより大きければ、合成部117は、上部高域成分評価値top_actの値に応じてタイプ1〜3を次のように合成する。上部高域成分評価値top_actが値tps以下であれば、合成部117は、タイプ1,3の合成比率を0にして、タイプ2の基本奥行きモデルを用いる。   If the lower high frequency component evaluation value bottom_act is larger than the value bml, the synthesis unit 117 synthesizes types 1 to 3 according to the value of the upper high frequency component evaluation value top_act as follows. If the upper high frequency component evaluation value top_act is equal to or less than the value tps, the synthesis unit 117 sets the synthesis ratio of types 1 and 3 to 0 and uses the type 2 basic depth model.

上部高域成分評価値top_actが値tpsより大きく、値tpl以下であれば、合成部117は、タイプ3の合成比率を0にして、タイプ1とタイプ2とを合成する。上部高域成分評価値top_actが値tplより大きければ、合成部117は、タイプ2,3の合成比率を0にして、タイプ1の基本奥行きモデルを用いる。   If the upper high-frequency component evaluation value top_act is greater than the value tps and less than or equal to the value tpl, the synthesizer 117 synthesizes type 1 and type 2 with the synthesis ratio of type 3 set to 0. If the upper high frequency component evaluation value top_act is larger than the value tpl, the synthesizing unit 117 sets the synthesis ratio of types 2 and 3 to 0 and uses the type 1 basic depth model.

合成部117によって図6に示す合成比率決定条件に従って合成した画面全体の視差値を示すデータは、加算器119に入力される。   Data indicating the parallax value of the entire screen synthesized by the synthesis unit 117 according to the synthesis ratio determination condition shown in FIG. 6 is input to the adder 119.

複数のタイプの基本奥行きモデルを上部高域成分評価値top_act及び下部高域成分評価値bottom_actに応じて合成する構成は必須の構成ではないが、好ましい構成である。少なくとも1つのタイプの基本奥行きモデルを用いて、画面全体の視差値を示すデータを発生する構成であればよい。   A configuration in which a plurality of types of basic depth models are combined according to the upper high-frequency component evaluation value top_act and the lower high-frequency component evaluation value bottom_act is not an essential configuration, but is a preferable configuration. Any configuration that generates data indicating the parallax value of the entire screen using at least one type of basic depth model may be used.

オブジェクト信号補正部118は、オブジェクト信号のうちのR信号を後述するように補正してR’信号として出力する。R’信号は、合成部117より出力されたデータが示す画面全体の視差値に対して付加される付加的な視差値のデータである。   The object signal correction unit 118 corrects the R signal of the object signal as described later and outputs it as an R ′ signal. The R ′ signal is additional parallax value data added to the parallax value of the entire screen indicated by the data output from the synthesis unit 117.

R信号を用いる理由の1つは、順光に近い環境で、かつ、画面内の明度が大きく異ならない条件で、R信号の大きさが被写体の凹凸の程度と一致する確立が高いからである。他の理由の1つは、赤色等の暖色は色彩学における前進色であり、寒色よりも奥行き方向の手前に認識されやすいからである。   One reason for using the R signal is that there is a high probability that the magnitude of the R signal matches the degree of unevenness of the subject in an environment that is close to direct light and under the condition that the brightness in the screen does not differ greatly. . One of the other reasons is that warm colors such as red are progressive colors in chromaticity and are more easily recognized in the depth direction than cold colors.

図7を用いて、オブジェクト信号補正部118の具体的構成例及びその動作について説明する。図7において、画像特徴検出部80にはR信号が入力される。画像特徴検出部80は、高周波成分頻度検出部81,82を有する。   A specific configuration example and the operation of the object signal correction unit 118 will be described with reference to FIG. In FIG. 7, an R signal is input to the image feature detection unit 80. The image feature detection unit 80 includes high frequency component frequency detection units 81 and 82.

高周波成分頻度検出部81は、図8に示すように、1フレームの画面全体である領域RnAにおける高周波成分の頻度を検出する。領域RnAは有効映像期間でよい。高周波成分頻度検出部82は、図8に示すように、領域RnAよりも狭い画面中央の領域RnBにおける高周波成分の頻度を検出する。領域RnBの大きさは適宜設定すればよい。   As shown in FIG. 8, the high frequency component frequency detection unit 81 detects the frequency of the high frequency component in the region RnA that is the entire screen of one frame. The area RnA may be an effective video period. As shown in FIG. 8, the high frequency component frequency detection unit 82 detects the frequency of the high frequency component in the region RnB in the center of the screen that is narrower than the region RnA. The size of the region RnB may be set as appropriate.

高周波成分頻度検出部81,82は、具体的に、図9に示すように構成される。図9において、ハイパスフィルタ(HPF)801には、R信号が入力される。   Specifically, the high frequency component frequency detection units 81 and 82 are configured as shown in FIG. In FIG. 9, an R signal is input to a high pass filter (HPF) 801.

HPF801は、水平方向においては、図10の(a)に示すように、ハッチングを付した現在の画素に対し、左右方向に1画素ずつ離れた位置の白で示す画素x_m,x_pの差分を算出する。HPF801は、垂直方向においては、図10の(b)に示すように、ハッチングを付した現在の画素に対し、上下方向に1画素ずつ離れた位置の白で示す画素y_m,y_pの差分を算出する。   In the horizontal direction, the HPF 801 calculates the difference between the pixels x_m and x_p indicated by white at positions one pixel apart in the left-right direction with respect to the hatched current pixel as shown in FIG. To do. In the vertical direction, the HPF 801 calculates the difference between white pixels y_m and y_p that are separated by one pixel in the vertical direction with respect to the current pixel that is hatched, as shown in FIG. 10B. To do.

HPF801は、図10の(a),(b)に白で示す画素x_m,x_p,y_m,y_pのデータを生成するための水平方向及び垂直方向の遅延器と、差分を算出する減算器を有する。図10の(a),(b)より分かるように、ハッチングを付した現在の画素に対する差分値は、水平方向では1画素、垂直方向では1ライン遅れて生成されることになる。水平方向の差分値は水平方向の高周波成分を示し、垂直方向の差分値は垂直方向の高周波成分を示す。   The HPF 801 includes horizontal and vertical delay units for generating data of pixels x_m, x_p, y_m, and y_p shown in white in FIGS. 10A and 10B, and a subtractor that calculates a difference. . As can be seen from FIGS. 10A and 10B, the difference value for the current pixel with hatching is generated with a delay of one pixel in the horizontal direction and one line in the vertical direction. The difference value in the horizontal direction indicates a high frequency component in the horizontal direction, and the difference value in the vertical direction indicates a high frequency component in the vertical direction.

絶対値演算部802は、HPF801より入力された差分値を式(2),式(3)に示す計算式によって絶対値化する。Act_Hは水平差分絶対値であり、Act_Vは垂直差分絶対値である。絶対値演算部802は、式(4)に示す計算式によって高周波成分Act_HVを算出する。   The absolute value calculation unit 802 converts the difference value input from the HPF 801 into an absolute value according to the calculation formulas shown in Expressions (2) and (3). Act_H is the horizontal difference absolute value, and Act_V is the vertical difference absolute value. The absolute value calculation unit 802 calculates the high frequency component Act_HV by the calculation formula shown in Formula (4).

Act_H=abs(x_m-x_p) …(2)
Act_V=abs(y_m-y_p) …(3)
Act_HV=Act_H+Act_V …(4)
Act_H = abs (x_m-x_p) (2)
Act_V = abs (y_m-y_p) (3)
Act_HV = Act_H + Act_V (4)

2値化演算部803は、絶対値演算部802より入力された高周波成分Act_HVが所定の閾値より大きければ“1”を出力し、閾値以下であれば“0”を出力する。2値化演算部803の出力が“1”であれば、注目画素である現在の画素が高周波成分を有するということである。   The binarization calculation unit 803 outputs “1” if the high-frequency component Act_HV input from the absolute value calculation unit 802 is greater than a predetermined threshold value, and outputs “0” if it is equal to or less than the threshold value. If the output of the binarization operation unit 803 is “1”, it means that the current pixel as the target pixel has a high frequency component.

高周波成分頻度検出部81においては、累積カウンタ804は、領域RnAの期間、2値化演算部803の出力を累積してカウントする。累積カウンタ804のカウント値は、領域RnA内で、2値化演算部803によって高周波成分Act_HVが閾値より大きいと判定された画素の総数を示す。   In the high frequency component frequency detection unit 81, the accumulation counter 804 accumulates and counts the output of the binarization calculation unit 803 for the period of the region RnA. The count value of the accumulation counter 804 indicates the total number of pixels in the region RnA that have been determined by the binarization calculation unit 803 that the high frequency component Act_HV is greater than the threshold value.

高周波成分頻度検出部82においては、累積カウンタ804は、領域RnBの期間、2値化演算部803の出力を累積してカウントする。累積カウンタ804のカウント値は、領域RnB内で、2値化演算部803によって高周波成分Act_HVが閾値より大きいと判定された画素の総数を示す。   In the high frequency component frequency detection unit 82, the accumulation counter 804 accumulates and counts the output of the binarization calculation unit 803 for the period of the region RnB. The count value of the accumulation counter 804 indicates the total number of pixels in the region RnB that have been determined by the binarization calculation unit 803 that the high frequency component Act_HV is greater than the threshold value.

高周波成分頻度検出部81においては、レジスタ805は、累積カウンタ804からのカウント値を保持して、高周波成分頻度データAct_Num_Aとして出力する。高周波成分頻度検出部82においては、レジスタ805は、累積カウンタ804からのカウント値を保持して、高周波成分頻度データAct_Num_Bとして出力する。   In the high frequency component frequency detection unit 81, the register 805 holds the count value from the accumulation counter 804 and outputs it as high frequency component frequency data Act_Num_A. In the high frequency component frequency detection unit 82, the register 805 holds the count value from the accumulation counter 804 and outputs it as high frequency component frequency data Act_Num_B.

本実施形態では、それぞれのフレームで高周波成分頻度データAct_Num_A,Act_Num_Bを生成しているが、複数フレーム毎に高周波成分頻度データAct_Num_A,Act_Num_Bを生成してもよい。画像特徴検出部80は、画面の所定単位(時間単位)毎に高周波成分頻度データAct_Num_A,Act_Num_Bを生成すればよい。但し、1フレーム毎に高周波成分頻度データAct_Num_A,Act_Num_Bを生成することが好ましい。   In the present embodiment, the high frequency component frequency data Act_Num_A and Act_Num_B are generated in each frame, but the high frequency component frequency data Act_Num_A and Act_Num_B may be generated for each of a plurality of frames. The image feature detection unit 80 may generate the high frequency component frequency data Act_Num_A and Act_Num_B for each predetermined unit (time unit) of the screen. However, it is preferable to generate the high-frequency component frequency data Act_Num_A and Act_Num_B for each frame.

ここでは、画像データの画面の単位をフレームとして説明したが、インターレース走査によるフィールドを単位とすることもある。この場合、本実施形態におけるフレームをフィールドと読み替えることとする。   Here, the unit of the screen of image data has been described as a frame, but a field by interlace scanning may be used as a unit. In this case, the frame in this embodiment is read as a field.

図7に戻り、高周波成分頻度検出部81より出力された高周波成分頻度データAct_Num_Aは、減算器83に入力される。高周波成分頻度検出部82より出力された高周波成分頻度データAct_Num_Bは、減算器83及び中央部分布割合算出部84に入力される。   Returning to FIG. 7, the high frequency component frequency data Act_Num_A output from the high frequency component frequency detector 81 is input to the subtractor 83. The high frequency component frequency data Act_Num_B output from the high frequency component frequency detection unit 82 is input to the subtractor 83 and the central part distribution ratio calculation unit 84.

減算器83は、式(5)に示す計算式によって高周波成分頻度データAct_Num_Aから高周波成分頻度データAct_Num_Bを減算して、それぞれのフレームの領域RnAのうち、画面中央の領域RnBを除いた周辺部の高周波成分頻度データAct_Num_(A-B)を算出する。周辺部の高周波成分頻度データAct_Num_(A-B)は、中央部分布割合算出部84に入力される。   The subtracter 83 subtracts the high-frequency component frequency data Act_Num_B from the high-frequency component frequency data Act_Num_A according to the calculation formula shown in the equation (5), and out of the region RnA of each frame, excludes the region RnB at the center of the screen. High frequency component frequency data Act_Num_ (AB) is calculated. High frequency component frequency data Act_Num_ (A-B) of the peripheral part is input to the central part distribution ratio calculation unit 84.

Act_Num_(A-B)=Act_Num_A-Act_Num_B …(5)   Act_Num_ (A-B) = Act_Num_A-Act_Num_B (5)

中央部分布割合算出部84は、画面中央の領域RnBの高周波成分頻度データAct_Num_Bと、周辺部の高周波成分頻度データAct_Num_(A-B)とに基づいて、画面の中央部に注目被写体が存在している程度を示す中央部分布割合データAct_Centerを算出する。   The central part distribution ratio calculation unit 84 has the subject of interest in the center of the screen based on the high frequency component frequency data Act_Num_B of the region RnB in the center of the screen and the high frequency component frequency data Act_Num_ (AB) of the peripheral part. Center part distribution ratio data Act_Center indicating the degree is calculated.

本実施形態では、画像特徴検出部80において高周波成分が多く検出される部分は背景のような平坦な画像ではなく、所定の絵柄(テクスチャ)を有する画像であるから、高周波成分が多く検出される部分を注目被写体としている。   In the present embodiment, the portion where the high-frequency component is detected in the image feature detection unit 80 is not a flat image such as a background but an image having a predetermined pattern (texture), and thus a large amount of high-frequency component is detected. The part is the subject of interest.

図11に示すように、中央部分布割合算出部84は、減算器841と下限リミッタ842とを有する。減算器841は、式(6)に示す計算式によって、高周波成分頻度データAct_Num_Bから高周波成分頻度データAct_Num_(A-B)を減算して、中央部分布割合データAct_Centerを算出する。   As shown in FIG. 11, the central part distribution ratio calculation unit 84 includes a subtracter 841 and a lower limiter 842. The subtractor 841 subtracts the high-frequency component frequency data Act_Num_ (A-B) from the high-frequency component frequency data Act_Num_B according to the calculation formula shown in Formula (6) to calculate the central portion distribution ratio data Act_Center.

Act_Center=Act_Num_B-Act_Num_(A-B) …(6)   Act_Center = Act_Num_B-Act_Num_ (A-B) (6)

下限リミッタ842は、減算器841より出力された中央部分布割合データAct_Centerが0未満の値であれば0にする。下限リミッタ842からは、0以上の所定の値をとる中央部分布割合データAct_Centerが出力される。中央部分布割合データAct_Centerは、高周波成分を有する被写体が画面の周囲よりも中央部に位置している程度が大きいほど、大きな値を示すことになる。   The lower limiter 842 sets the center part distribution ratio data Act_Center output from the subtractor 841 to 0 if the value is less than 0. From the lower limiter 842, center part distribution ratio data Act_Center having a predetermined value of 0 or more is output. The central portion distribution ratio data Act_Center shows a larger value as the degree to which a subject having a high frequency component is located in the central portion than the periphery of the screen is larger.

中央部分布割合データAct_Centerは、リーク型積分回路85に入力される。リーク型積分回路85は、図12に示すように、加算器851と、レジスタ852と、乗算器853,854を有する。リーク型積分回路85は、図12に示す構成によって、中央部分布割合データAct_Centerに対して、時間方向にリーク型の積分処理を施す。   The central portion distribution ratio data Act_Center is input to the leak type integration circuit 85. As shown in FIG. 12, the leaky integration circuit 85 includes an adder 851, a register 852, and multipliers 853 and 854. The leak type integration circuit 85 performs leak type integration processing in the time direction on the central portion distribution ratio data Act_Center with the configuration shown in FIG.

加算器851は、入力された中央部分布割合データAct_Centerと乗算器853の出力とを加算する。レジスタ852は、加算器851の出力を保持する。乗算器853は、レジスタ852の出力に15/16を乗算して、加算器851へと出力する。乗算器854は、レジスタ852の出力に1/16を乗算して、リーク型の積分処理を施した中央部分布割合データAct_Center_Leakを出力する。   The adder 851 adds the input center distribution ratio data Act_Center and the output of the multiplier 853. The register 852 holds the output of the adder 851. Multiplier 853 multiplies the output of register 852 by 15/16 and outputs the result to adder 851. The multiplier 854 multiplies the output of the register 852 by 1/16, and outputs center part distribution ratio data Act_Center_Leak that has been subjected to leaky integration processing.

リーク型積分回路85によって中央部分布割合データAct_Centerに対してリーク型の積分処理を施すことにより、オブジェクト信号補正部118によって生成されるR’信号は、画像の変化によって急激には変化しない。従って、ステレオペア生成部2によって生成されるステレオペアによるステレオ画像は緩やかに変化することになり、より自然な画質とすることができる。   By applying leak type integration processing to the central portion distribution ratio data Act_Center by the leak type integration circuit 85, the R ′ signal generated by the object signal correction unit 118 does not change abruptly due to image changes. Accordingly, the stereo image generated by the stereo pair generated by the stereo pair generation unit 2 changes gradually, and a more natural image quality can be obtained.

リーク型積分回路85を設けることは必須ではないが、設けることが好ましい。   Although it is not essential to provide the leak-type integrating circuit 85, it is preferable to provide it.

リーク型積分回路85より出力された中央部分布割合データAct_Center_Leakは、ゲイン算出部86に入力される。ゲイン算出部86には、画像情報として、奥行き情報生成部1に入力される画像データの水平幅データH_widthと垂直幅データV_widthも入力される。   The central portion distribution ratio data Act_Center_Leak output from the leak type integration circuit 85 is input to the gain calculation unit 86. The gain calculation unit 86 also receives horizontal width data H_width and vertical width data V_width of image data input to the depth information generation unit 1 as image information.

ゲイン算出部86は、画面の位置に応じて、また、中央部分布割合データAct_Center_Leakの値に応じて、ゲインを算出する。図13を用いて、画面の位置に応じたゲインの設定について説明する。図13は、画面の水平方向の位置に応じたゲインの特性を示している。図13の(a),(b)において、H_Numは水平の画素番号である。   The gain calculation unit 86 calculates the gain according to the position of the screen and according to the value of the central portion distribution ratio data Act_Center_Leak. The setting of the gain according to the screen position will be described with reference to FIG. FIG. 13 shows gain characteristics according to the horizontal position of the screen. In FIGS. 13A and 13B, H_Num is a horizontal pixel number.

図13の(a)は比較のため従来におけるゲインの特性を示している。横軸の左端部が画面の左端部であり、従来は、水平方向の左端部からH_widthで示す右端部まで一定のゲイン1である。   FIG. 13A shows a conventional gain characteristic for comparison. The left end of the horizontal axis is the left end of the screen. Conventionally, the gain is constant from the left end in the horizontal direction to the right end indicated by H_width.

これに対して、本実施形態では、図13の(b)に示すように、水平方向の左端部からH_widthで示す右端部まで太い破線で示す一定のゲイン1の状態と、画面中央部のp1〜p2の範囲で実線で示す1を超えるゲインをとる状態とのいずれかとなる。画面中央部のp1〜p2の範囲のゲインの制限値limは、中央部分布割合データAct_Center_Leakの値に応じて1〜r2の範囲で可変される。即ち、画面中央部のp1〜p2の範囲のゲインは、最大で太い一点鎖線で示す状態となる。   On the other hand, in this embodiment, as shown in FIG. 13B, a constant gain 1 state indicated by a thick broken line from the left end in the horizontal direction to the right end indicated by H_width, and p1 at the center of the screen A state in which a gain exceeding 1 indicated by a solid line in the range of ~ p2 is obtained. The limit value lim of the gain in the range of p1 to p2 in the center of the screen is variable in the range of 1 to r2 according to the value of the center distribution ratio data Act_Center_Leak. In other words, the gain in the range of p1 to p2 in the center of the screen is in a state indicated by a maximum thick dotted line.

図13の(b)に示すゲイン(Gain)の特性を計算式で表すと、式(7)となる。   When the gain characteristic shown in (b) of FIG. 13 is expressed by a calculation formula, Formula (7) is obtained.

If(H_Num<p1) Gain=(lim-1)×H_Num/p1+1;
If(H_Num<p2) Gain=lim;
If(H_Num<H_width) Gain=(lim-1)×(H_width-H_Num)/(H_width-p2)+1;
…(7)
If (H_Num <p1) Gain = (lim-1) × H_Num / p1 + 1;
If (H_Num <p2) Gain = lim;
If (H_Num <H_width) Gain = (lim-1) × (H_width-H_Num) / (H_width-p2) +1;
... (7)

画面中央部のp1,p2の位置は適宜設定すればよい。領域RnBの左端部をp1、右端部をp2としてもよい。即ち、ここでの画面中央部とは、図8に示す画面中央の領域RnBと同じでもよいし、同じでなくてもよい。   The positions of p1 and p2 in the center of the screen may be set as appropriate. The left end portion of the region RnB may be p1, and the right end portion may be p2. That is, the screen center portion here may or may not be the same as the screen center region RnB shown in FIG.

図14は、中央部分布割合データAct_Center_Leakの値とゲインの制限値limとの関係を示している。図14に示すように、中央部分布割合データAct_Center_Leakの値が0であれば制限値limは1である。中央部分布割合データAct_Center_Leakの値が大きくになるに従って、制限値limも順次大きくなる。   FIG. 14 shows the relationship between the value of the central portion distribution ratio data Act_Center_Leak and the gain limit value lim. As shown in FIG. 14, the limit value lim is 1 if the value of the central portion distribution ratio data Act_Center_Leak is 0. As the value of the central distribution ratio data Act_Center_Leak increases, the limit value lim also increases sequentially.

中央部分布割合データAct_Center_Leakの値がr1のとき、制限値limは最大のr2となる。中央部分布割合データAct_Center_Leakの値がr1以上では、制限値limは最大のr2で一定となる。   When the value of the central portion distribution ratio data Act_Center_Leak is r1, the limit value lim is the maximum r2. When the value of the central portion distribution ratio data Act_Center_Leak is equal to or greater than r1, the limit value lim is constant at the maximum r2.

図13では、画面の水平方向の位置に応じてゲインを異ならせるように設定しているが、画面の垂直方向の位置に応じてゲインを異ならせるように設定してもよい。垂直方向の位置に応じてゲインを異ならせる場合も、図13と同様、中央部分布割合データAct_Center_Leakの値が大きくなるほど、垂直方向の中央部のゲインを大きくすればよい。画面の水平方向及び垂直方向の双方で、位置に応じてゲインを異ならせるように設定してもよい。   In FIG. 13, the gain is set to be different according to the position in the horizontal direction of the screen, but may be set to be different according to the position in the vertical direction of the screen. Also in the case where the gain is varied according to the position in the vertical direction, the gain in the central portion in the vertical direction may be increased as the value of the central portion distribution ratio data Act_Center_Leak increases as in FIG. The gain may be set to be different depending on the position in both the horizontal direction and the vertical direction of the screen.

図7に戻り、乗算器87には、R信号と、ゲイン算出部86によって算出されたゲインとが入力される。乗算器87は、R信号に対して、ゲイン算出部86から入力されたゲインを乗算して、R’信号として出力する。R’信号は、オブジェクト信号であるR信号を補正した補正オブジェクト信号である。   Returning to FIG. 7, the multiplier 87 receives the R signal and the gain calculated by the gain calculation unit 86. The multiplier 87 multiplies the R signal by the gain input from the gain calculator 86 and outputs the result as an R ′ signal. The R ′ signal is a corrected object signal obtained by correcting the R signal that is an object signal.

以上より分かるように、オブジェクト信号補正部118(特に、ゲイン算出部86及び乗算器87)は、中央部分布割合算出部84で算出された中央部分布割合データAct_Center(Act_Center_Leak)の大きさに応じて、画面中央部における非立体画像信号(R信号)の振幅を増大させるよう補正して、補正非立体画像信号(R’信号)を出力する振幅補正部として動作している。   As can be seen from the above, the object signal correction unit 118 (in particular, the gain calculation unit 86 and the multiplier 87) corresponds to the size of the central part distribution ratio data Act_Center (Act_Center_Leak) calculated by the central part distribution ratio calculation unit 84. Thus, the correction is performed so that the amplitude of the non-stereoscopic image signal (R signal) in the central portion of the screen is increased and the corrected non-stereoscopic image signal (R ′ signal) is output.

以上のようにして生成されたR’信号は、図2の加算器119に入力される。加算器119は、合成部117より出力された画面全体の視差値を示すデータとR’信号とを加算して、奥行き推定データとして出力する。   The R ′ signal generated as described above is input to the adder 119 shown in FIG. The adder 119 adds the data indicating the parallax value of the entire screen output from the combining unit 117 and the R ′ signal, and outputs the result as depth estimation data.

図15を用いて、本実施形態による効果について説明する。図15において、(a)は従来の処理による擬似立体画像であり、(b)は本実施形態の処理による擬似立体画像である。図15の(a)の擬似立体画像は、特許文献1に記載されている画面全体の視差値を示すデータに対してR信号をそのまま加算する処理による画像である。   The effect by this embodiment is demonstrated using FIG. In FIG. 15, (a) is a pseudo stereoscopic image obtained by a conventional process, and (b) is a pseudo stereoscopic image obtained by the process of the present embodiment. The pseudo stereoscopic image in FIG. 15A is an image obtained by adding the R signal as it is to the data indicating the parallax value of the entire screen described in Patent Document 1.

図15の(a),(b)は、シフト量0〜255を黒から白までのグレースケールで表現している。シフト量0は視差が0の状態であり、シフト量255は飛び出し方向の視差が最大の状態である。   (A) and (b) of FIG. 15 express the shift amount 0 to 255 in a gray scale from black to white. The shift amount 0 is a state where the parallax is 0, and the shift amount 255 is a state where the parallax in the pop-out direction is the maximum.

図15の(a),(b)は、画面の中央部に注目被写体が集中して配置されている画像の例である。従来では、図15の(a)に示すように、注目被写体(特に花の画像)の立体の程度が限定的である。   FIGS. 15A and 15B are examples of images in which the subject of interest is concentrated in the center of the screen. Conventionally, as shown in FIG. 15A, the degree of solidity of a subject of interest (particularly a flower image) is limited.

これに対して、本実施形態によれば、図15の(b)に示すように、注目被写体(特に花の画像)のシフト量が大きくなり、より飛び出して見えることから、立体の程度が大きく改善されていることが分かる。   On the other hand, according to the present embodiment, as shown in FIG. 15B, the shift amount of the subject of interest (particularly the flower image) increases and appears to pop out, so that the degree of the solid is large. It turns out that it is improving.

図13の(b)に示すゲインの特性より分かるように、画面の周辺部から中央部へとゲインが順次増大し、中央部から周辺部へとゲインが順次減少していくので、擬似立体画像の奥行きはなだらかに変化する。従って、違和感を生じさせることはない。本実施形態によれば、画面中央部に向かってオブジェクト(被写体)の奥行きがなだらかに変化し、丸みを帯びたような立体効果を得ることができる。   As can be seen from the gain characteristics shown in FIG. 13B, the gain increases sequentially from the periphery to the center of the screen, and the gain decreases sequentially from the center to the periphery. The depth of the changes gently. Therefore, there is no sense of incongruity. According to the present embodiment, the depth of an object (subject) changes gradually toward the center of the screen, and a three-dimensional effect that is rounded can be obtained.

本実施形態によれば、画面の中央部に注目被写体が存在している程度に応じて画面中央部を飛び出させることができ、画像の絵柄に応じて適切な飛び出しの程度とすることができる。   According to the present embodiment, the center of the screen can be popped out according to the degree to which the subject of interest is present at the center of the screen, and the appropriate amount of popping out can be achieved according to the pattern of the image.

以上説明した本実施形態においては、ステレオペア生成部2が2視点の画像データを生成し、ステレオ画像表示装置3が2視点の画像データに基づいて立体画像を表示する構成を示している。3視点以上の画像データを生成し、3視点以上の画像データに基づいて立体画像を表示するいわゆる多視点画像表示装置によって立体画像を表示してもよい。   In the present embodiment described above, a configuration in which the stereo pair generation unit 2 generates two-viewpoint image data and the stereo image display device 3 displays a stereoscopic image based on the two-viewpoint image data is shown. A stereoscopic image may be displayed by a so-called multi-viewpoint image display device that generates image data of three or more viewpoints and displays a stereoscopic image based on the image data of three or more viewpoints.

ステレオ画像表示装置3は、偏光めがねを用いたプロジェクションシステム、時分割表示と液晶シャッタめがねとを組み合わせたプロジェクションシステムもしくはディスプレイシステム、レンチキュラ方式のステレオディスプレイ、アナグリフ方式のステレオディスプレイ、ヘッドマウントディスプレイ等のいずれでもよい。   The stereo image display device 3 includes any of a projection system using polarized glasses, a projection system or a display system combining time-division display and liquid crystal shutter glasses, a lenticular stereo display, an anaglyph stereo display, a head mounted display, etc. But you can.

プロジェクタシステムは、ステレオペアのそれぞれの画像データを投射する2台のプロジェクタで構成することができる。   The projector system can be composed of two projectors that project respective image data of a stereo pair.

本実施形態の奥行き情報生成装置または擬似立体画像生成装置をハードウェアによって構成してもよいし、コンピュータプログラムによるソフトウェアによって構成してもよい。   The depth information generation apparatus or pseudo-stereoscopic image generation apparatus of the present embodiment may be configured by hardware, or may be configured by software by a computer program.

コンピュータに以上説明した奥行き情報生成装置及び方法、や似立体画像生成装置及び方法と同様の処理を実行させる場合、奥行き情報生成プログラムや擬似立体画像生成プログラムを記録媒体より読み出してコンピュータにインストールさせてもよいし、奥行き情報生成プログラムや擬似立体画像生成プログラムを、ネットワークを介してコンピュータにインストールさせてもよい。   When a computer performs the same processing as the above-described depth information generation apparatus and method and similar stereoscopic image generation apparatus and method, the depth information generation program and the pseudo stereoscopic image generation program are read from the recording medium and installed in the computer. Alternatively, the depth information generation program and the pseudo stereoscopic image generation program may be installed in the computer via a network.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention.

1 奥行き情報生成部(奥行き情報生成装置)
2 ステレオペア生成部
3 ステレオ画像表示装置
11 奥行き推定部
21 画素シフト部
84 中央部分布割合算出部
86 ゲイン算出部(振幅補正部)
87 乗算器(振幅補正部)
112 上部高域成分評価部
113 下部高域成分評価部
114〜116 フレームメモリ(視差データ発生部)
117 合成部(視差データ発生部)
118 オブジェクト信号補正部
119 加算器
1 Depth information generator (depth information generator)
2 Stereo Pair Generation Unit 3 Stereo Image Display Device 11 Depth Estimation Unit 21 Pixel Shift Unit 84 Center Part Distribution Ratio Calculation Unit 86 Gain Calculation Unit (Amplitude Correction Unit)
87 Multiplier (Amplitude Correction Unit)
112 Upper high-frequency component evaluation unit 113 Lower high-frequency component evaluation unit 114 to 116 Frame memory (parallax data generation unit)
117 Synthesizer (parallax data generator)
118 Object Signal Correction Unit 119 Adder

Claims (8)

画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生する視差データ発生部と、
非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出する中央部分布割合算出部と、
前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を出力する振幅補正部と、
前記視差データ発生部が発生した視差データと、前記振幅補正部より出力された補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成する加算器と、
を備えることを特徴とする奥行き情報生成装置。
Using a basic depth model for determining the parallax value of the entire screen, a parallax data generating unit for generating parallax data indicating the parallax value of each pixel in the screen;
A central part distribution ratio calculating unit that calculates central part distribution ratio data indicating the degree to which the subject of interest included in the non-stereoscopic image signal is concentrated and distributed in the first central part excluding the peripheral part of the screen;
A corrected non-stereo image is corrected by increasing the amplitude of the non-stereo image signal in a second central portion that is the same as or different from the first central portion of the screen according to the size of the central portion distribution ratio data. An amplitude correction unit for outputting a signal;
An adder that adds the parallax data generated by the parallax data generation unit and the corrected non-stereoscopic image signal output from the amplitude correction unit to generate depth estimation data for each pixel in the screen;
A depth information generating apparatus comprising:
前記視差データ発生部は、複数の基本奥行きモデルそれぞれの画面全体の視差値を示す視差データを、前記非立体画像信号が有する特徴に基づいて合成する合成部を有することを特徴とする請求項1記載の奥行き情報生成装置。   The parallax data generation unit includes a synthesis unit that synthesizes parallax data indicating parallax values of the entire screen of each of a plurality of basic depth models based on characteristics of the non-stereoscopic image signal. Depth information generating apparatus described. 画面における上部の所定の領域に含まれる高域成分の量を評価して上部高域成分評価値を生成する上部高域成分評価部と、
画面における下部の所定の領域に含まれる高域成分の量を評価して下部高域成分評価値を生成する下部高域成分評価部と、
をさらに備え、
前記合成部は、前記上部高域成分評価値と前記下部高域成分評価値とに応じて、前記複数の基本奥行きモデルそれぞれの画面全体の視差値を示す視差データを合成する
ことを特徴とする請求項2記載の奥行き情報生成装置。
An upper high-frequency component evaluation unit that generates an upper high-frequency component evaluation value by evaluating the amount of a high-frequency component included in a predetermined region on the upper part of the screen;
A lower high-frequency component evaluation unit that generates a lower high-frequency component evaluation value by evaluating the amount of a high-frequency component included in a predetermined lower area on the screen;
Further comprising
The combining unit combines disparity data indicating disparity values of the entire screen of each of the plurality of basic depth models according to the upper high-frequency component evaluation value and the lower high-frequency component evaluation value. The depth information generation device according to claim 2.
前記中央部分布割合算出部は、前記周辺部に含まれる高周波成分の頻度を示す高周波成分頻度データと、前記第1の中央部に含まれる高周波成分の頻度を示す高周波成分頻度データとを用いて、前記中央部分布割合データを算出することを特徴とする請求項1〜3のいずれか1項に記載の奥行き情報生成装置。   The central part distribution ratio calculating unit uses high frequency component frequency data indicating the frequency of high frequency components included in the peripheral part and high frequency component frequency data indicating the frequency of high frequency components included in the first central part. The depth information generating apparatus according to claim 1, wherein the central part distribution ratio data is calculated. 前記非立体画像信号は、3原色信号のうちの赤色信号であることを特徴とする請求項1〜4のいずれか1項に記載の奥行き情報生成装置。   The depth information generating apparatus according to claim 1, wherein the non-stereoscopic image signal is a red signal of three primary color signals. 請求項1〜5のいずれか1項に記載の奥行き情報生成装置と、
前記奥行き推定データに基づいて、複数の視点の画像データを生成する複数視点画像データ生成部と、
を備えることを特徴とする擬似立体画像生成装置。
The depth information generation device according to any one of claims 1 to 5,
A multi-viewpoint image data generating unit that generates image data of a plurality of viewpoints based on the depth estimation data;
A pseudo-stereoscopic image generation apparatus comprising:
画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生し、
非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出し、
前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を生成し、
前記視差データと前記補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成する
ことを特徴とする奥行き情報生成方法。
Using a basic depth model for determining the parallax value of the entire screen, generating parallax data indicating the parallax value of each pixel in the screen,
Calculating central portion distribution ratio data indicating the degree to which the subject of interest included in the non-stereoscopic image signal is concentrated and distributed in the first central portion excluding the peripheral portion of the screen;
A corrected non-stereo image is corrected by increasing the amplitude of the non-stereo image signal in a second central portion that is the same as or different from the first central portion of the screen according to the size of the central portion distribution ratio data. Generate a signal,
A depth information generation method characterized by adding the parallax data and the corrected non-stereoscopic image signal to generate depth estimation data for each pixel in the screen.
コンピュータに、
画面全体の視差値を決定するための基本奥行きモデルを用いて、画面内それぞれの画素の視差値を示す視差データを発生するステップと、
非立体画像信号に含まれる注目被写体が画面の周辺部を除く第1の中央部に集中して分布している程度を示す中央部分布割合データを算出するステップと、
前記中央部分布割合データの大きさに応じて、画面の前記第1の中央部と同一または異なる第2の中央部における前記非立体画像信号の振幅を増大させるよう補正して、補正非立体画像信号を生成するステップと、
前記視差データと前記補正非立体画像信号とを加算して、画面内それぞれの画素に対する奥行き推定データを生成するステップと、
を実行させることを特徴とする奥行き情報生成プログラム。
On the computer,
Generating disparity data indicating the disparity value of each pixel in the screen using a basic depth model for determining the disparity value of the entire screen;
Calculating central part distribution ratio data indicating a degree to which a subject of interest included in the non-stereoscopic image signal is concentrated and distributed in the first central part excluding the peripheral part of the screen;
A corrected non-stereo image is corrected by increasing the amplitude of the non-stereo image signal in a second central portion that is the same as or different from the first central portion of the screen according to the size of the central portion distribution ratio data. Generating a signal;
Adding the parallax data and the corrected non-stereoscopic image signal to generate depth estimation data for each pixel in the screen;
A depth information generation program characterized in that
JP2012144147A 2012-06-27 2012-06-27 Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device Active JP5780214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012144147A JP5780214B2 (en) 2012-06-27 2012-06-27 Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012144147A JP5780214B2 (en) 2012-06-27 2012-06-27 Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device

Publications (2)

Publication Number Publication Date
JP2014007715A JP2014007715A (en) 2014-01-16
JP5780214B2 true JP5780214B2 (en) 2015-09-16

Family

ID=50105049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012144147A Active JP5780214B2 (en) 2012-06-27 2012-06-27 Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device

Country Status (1)

Country Link
JP (1) JP5780214B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109769110B (en) * 2019-01-22 2020-07-14 影石创新科技股份有限公司 Method and device for generating 3D asteroid dynamic graph and portable terminal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214976B2 (en) * 2003-09-24 2009-01-28 日本ビクター株式会社 Pseudo-stereoscopic image creation apparatus, pseudo-stereoscopic image creation method, and pseudo-stereoscopic image display system
JP4273428B2 (en) * 2006-01-31 2009-06-03 ソニー株式会社 Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences

Also Published As

Publication number Publication date
JP2014007715A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
CN102474644B (en) Stereo image display system, parallax conversion equipment, parallax conversion method
JP5402483B2 (en) Pseudo stereoscopic image creation device and pseudo stereoscopic image display system
TWI493505B (en) Image processing method and image processing apparatus thereof
JP5692051B2 (en) Depth estimation data generation apparatus, generation method and generation program, and pseudo stereoscopic image generation apparatus, generation method and generation program
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
US9210396B2 (en) Stereoscopic image generation apparatus and stereoscopic image generation method
WO2012050089A1 (en) Depth signal generating device, pseudo-stereoscopic image signal generating device, depth signal generating method, pseudo-stereoscopic image signal generating method, depth signal generating program, pseudo stereoscopic image signal generating program
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP5304758B2 (en) Multi-viewpoint image creation apparatus, multi-viewpoint image creation method, and multi-viewpoint image display system
JP5780214B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP2013090129A (en) Image processing apparatus, image processing method and program
JP5786807B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5500092B2 (en) Depth estimation data generation device, depth estimation data generation program, and pseudo-stereoscopic image display device
JP6028427B2 (en) Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device
JP5691966B2 (en) Depth estimation data generation apparatus, generation method and generation program, and pseudo stereoscopic image generation apparatus, generation method and generation program
JP2012084961A (en) Depth signal generation device, pseudo stereoscopic image signal generation device, depth signal generation method, pseudo stereoscopic image signal generation method, depth signal generation program, and pseudo stereoscopic image signal generation program
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
JP5888140B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP6056459B2 (en) Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program
JP6217485B2 (en) Stereo image generating apparatus, stereo image generating method, and stereo image generating program
JP6217486B2 (en) Stereo image generating apparatus, stereo image generating method, and stereo image generating program
Doyen et al. Towards a free viewpoint and 3D intensity adjustment on multi-view display
JP2014072640A (en) Depth estimation data generation device, pseudo three-dimensional image generation device, depth estimation data generation method and depth estimation data generation program
JP2013016040A (en) Depth signal generating device, pseudo-stereoscopic image generating device, depth signal generating method, and pseudo-stereoscopic image generating method
JP2013017052A (en) Depth signal generating apparatus, pseudo stereoscopic image generating apparatus, depth signal generating method, and pseudo stereoscopic image generating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R150 Certificate of patent or registration of utility model

Ref document number: 5780214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150