JP3454684B2 - Apparatus for converting 2D video to 3D video - Google Patents

Apparatus for converting 2D video to 3D video

Info

Publication number
JP3454684B2
JP3454684B2 JP25652397A JP25652397A JP3454684B2 JP 3454684 B2 JP3454684 B2 JP 3454684B2 JP 25652397 A JP25652397 A JP 25652397A JP 25652397 A JP25652397 A JP 25652397A JP 3454684 B2 JP3454684 B2 JP 3454684B2
Authority
JP
Japan
Prior art keywords
image
phase amount
parallax
signal
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25652397A
Other languages
Japanese (ja)
Other versions
JPH1198530A (en
Inventor
周悟 山下
幸夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP25652397A priority Critical patent/JP3454684B2/en
Priority to US09/152,328 priority patent/US6584219B1/en
Publication of JPH1198530A publication Critical patent/JPH1198530A/en
Application granted granted Critical
Publication of JP3454684B2 publication Critical patent/JP3454684B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、2次元映像を3
次元映像に変換する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention
The present invention relates to a device for converting a three-dimensional image.

【0002】[0002]

【従来の技術】2次元映像を3次元映像に変換する方法
として、2次元映像信号から、複数のフィールドメモリ
を用いて、主映像信号と主映像信号に対して時間的に遅
延された副映像信号とを生成し、主映像信号と副映像信
号のうち、一方を左目用映像信号として出力し、他方を
右目用映像信号として出力する方法が知られている。
2. Description of the Related Art As a method for converting a two-dimensional image into a three-dimensional image, a two-dimensional image signal is used by using a plurality of field memories and a main image signal and a sub-image delayed with respect to the main image signal in time. A signal is generated and one of the main video signal and the sub video signal is output as a left-eye video signal, and the other is output as a right-eye video signal.

【0003】主映像信号に対する副映像信号の時間的な
遅れ(以下、遅延量)は、主映像の水平方向の動きの速
度に基づいて、決定される。つまり、主映像の水平方向
の動きの速度が大きい程、遅延量は小さくなる。また、
主映像と副映像とのうち、いずれを左目用映像信号と
し、いずれを右目用映像信号とするかは、主映像の水平
方向の動きの方向(左または右)に基づいて決定され
る。
The time delay of the sub video signal with respect to the main video signal (hereinafter referred to as the delay amount) is determined based on the speed of horizontal movement of the main video signal. That is, the larger the horizontal movement speed of the main image, the smaller the delay amount. Also,
Which of the main image and the sub-image is the left-eye image signal and which is the right-eye image signal is determined based on the horizontal movement direction (left or right) of the main image.

【0004】このような方法は、動きのある2次元映像
のみしか3次元映像に変換することができないので、こ
の方法を動画用2D/3D映像変換方法ということにす
る。
Since such a method can convert only a moving two-dimensional image into a three-dimensional image, this method will be referred to as a moving image 2D / 3D image converting method.

【0005】本出願人は、動きのない2次元映像を3次
元映像に変換するための方法(以下、静止画用2D/3
D映像変換方法という)を既に開発して出願している
(特願平8−208173号、特願平9−159949
号)。ただし、これらの出願は未だ公開されていない。
The applicant of the present invention has developed a method for converting a non-moving two-dimensional image into a three-dimensional image (hereinafter referred to as a still image 2D / 3).
D video conversion method) has already been developed and applied (Japanese Patent Application No. 8-208173, Japanese Patent Application No. 9-159949).
issue). However, these applications have not been published yet.

【0006】この静止画用2D/3D映像変換方法は、
2次元入力映像信号に基づいて、各フィールドごとに、
1フィールド画面内に設定された複数の視差算出領域の
それぞれに対して、映像の遠近に関する画像特徴量を抽
出し、各視差算出領域ごとに抽出された画像特徴量に基
づいて、1フィールド画面内の所定単位領域ごとの視差
情報を生成し、2次元入力映像信号の各所定単位領域内
の信号から、その所定単位領域に対応する視差情報に応
じた水平位相差を有する第1映像信号と第2映像信号と
をそれぞれ生成するものである。
This 2D / 3D video conversion method for still images is
Based on the 2D input video signal, for each field,
For each of the plurality of parallax calculation areas set in the one-field screen, the image feature amount relating to the perspective of the video is extracted, and based on the image feature amount extracted for each parallax calculation region, the one-field screen is displayed. Parallax information for each predetermined unit area of the two-dimensional input video signal is generated, and the first video signal and the first video signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit area from the signal in each predetermined unit area of the two-dimensional input video signal. Two video signals are generated respectively.

【0007】図1〜図34を用いて、静止画用2D/3
D映像変換方法の一例について説明する。
2D / 3 for a still image with reference to FIGS.
An example of the D image conversion method will be described.

【0008】図1は、2次元映像を3次元映像に変換す
るための2D/3D映像変換装置の全体的な構成を示し
ている。
FIG. 1 shows the overall structure of a 2D / 3D image conversion apparatus for converting a 2D image into a 3D image.

【0009】2次元映像信号を構成する輝度信号Y、色
差信号R−Yおよび色差信号B−Yは、AD変換回路1
(ADC)によってそれぞれディジタルのY信号、R−
Y信号およびB−Y信号に変換される。
A luminance signal Y, a color difference signal RY and a color difference signal B-Y, which form a two-dimensional video signal, are converted into an AD conversion circuit 1.
(ADC) digital Y signal, R-
It is converted into a Y signal and a BY signal.

【0010】Y信号は、高周波成分積算回路8および輝
度コントラスト算出回路9に送られるとともに、第1の
左映像用任意画素遅延FIFO11および第1の右映像
用任意画素遅延FIFO21に送られる。R−Y信号
は、R−Y成分積算回路31に送られるとともに、第2
の左映像用任意画素遅延FIFO12および第2の右映
像用任意画素遅延FIFO22に送られる。B−Y信号
は、B−Y成分積算回路32に送られるとともに、第3
の左映像用任意画素遅延FIFO13および第3の右映
像用任意画素遅延FIFO23に送られる。
The Y signal is sent to the high frequency component integrating circuit 8 and the brightness contrast calculating circuit 9 and also to the first left image arbitrary pixel delay FIFO 11 and the first right image arbitrary pixel delay FIFO 21. The RY signal is sent to the RY component integrating circuit 31, and the second
To the left image arbitrary pixel delay FIFO 12 and the second right image arbitrary pixel delay FIFO 22. The BY signal is sent to the BY component integrating circuit 32, and the
Are sent to the left image arbitrary pixel delay FIFO 13 and the third right image arbitrary pixel delay FIFO 23.

【0011】高周波成分積算回路8は、1フィールド毎
に、図2に示すように、1フィールド画面内に予め設定
された複数個の視差算出領域E1〜E12それぞれに対
する高周波成分の積算値を算出する。輝度コントラスト
算出回路9は、1フィールド毎に、各視差算出領域E1
〜E12それぞれに対する輝度コントラストを算出す
る。R−Y成分積算回路31は、1フィールド毎に、各
視差算出領域E1〜E12それぞれに対するR−Y成分
の積算値を算出する。B−Y成分積算回路32は、1フ
ィールド毎に、各視差算出領域E1〜E12それぞれに
対するB−Y成分の積算値を算出する。
The high-frequency component integrating circuit 8 calculates the integrated value of the high-frequency component for each field, as shown in FIG. 2, for each of the plurality of parallax calculation areas E1 to E12 preset in the one-field screen. . The brightness contrast calculation circuit 9 is configured to detect each parallax calculation area E1 for each field.
The brightness contrast for each of E12 to E12 is calculated. The RY component integrating circuit 31 calculates the integrated value of the RY components for each of the parallax calculation regions E1 to E12 for each field. The BY component integration circuit 32 calculates the integrated value of the BY component for each of the parallax calculation regions E1 to E12 for each field.

【0012】各視差算出領域E1〜E12それぞれに対
する高周波成分の積算値、各視差算出領域E1〜E12
それぞれに対する輝度コントラスト、各視差算出領域E
1〜E12それぞれに対するR−Y成分の積算値および
各視差算出領域E1〜E12それぞれに対するB−Y成
分の積算値は、視差算出領域E1〜E12ごとの映像の
遠近に関する画像特徴量として用いられる。
Integrated values of high-frequency components for the respective parallax calculation areas E1 to E12, and the respective parallax calculation areas E1 to E12.
Luminance contrast for each, each parallax calculation area E
The integrated value of the RY component for each of the parallax calculation areas E1 to E12 and the integrated value of the BY component for each of the parallax calculation areas E1 to E12 are used as image feature amounts regarding the perspective of the image for each of the parallax calculation areas E1 to E12.

【0013】なお、1フィールド画面内には、実際に
は、図13に示すように6行10列の計60個の視差算
出領域が設定されているが、説明の便宜上、図2に示す
ように、1フィールド画面内に、3行4列の計12個の
視差算出領域E1〜E12が設定されているものとす
る。
Actually, a total of 60 parallax calculation regions of 6 rows and 10 columns are set in the 1-field screen as shown in FIG. 13, but for convenience of explanation, as shown in FIG. In addition, it is assumed that a total of 12 parallax calculation areas E1 to E12 of 3 rows and 4 columns are set in one field screen.

【0014】CPU3は、高周波成分積算回路8、輝度
コントラスト算出回路9、R−Y成分積算回路31およ
びB−Y成分積算回路32から送られてきた情報に基づ
いて、各視差算出領域E1〜E12に対する視差情報を
生成する。この例では、被写体のように前側にある物体
ほど視差量が少なく、背景のように後ろ側にある物体ほ
ど視差量が大きくなるように視差情報が生成される。こ
の視差情報の生成方法の詳細については、後述する。
Based on the information sent from the high frequency component integrating circuit 8, the brightness contrast calculating circuit 9, the RY component integrating circuit 31, and the BY component integrating circuit 32, the CPU 3 calculates the parallax calculation areas E1 to E12. Disparity information for the. In this example, parallax information is generated such that an object on the front side such as a subject has a smaller parallax amount, and an object on the back side such as a background has a larger parallax amount. Details of the method of generating the parallax information will be described later.

【0015】CPU3によって算出された各視差算出領
域E1〜E12に対する視差情報は、視差制御回路4に
送られる。視差制御回路4は、各視差算出領域E1〜E
12に対する視差情報に基づいて、各フィールドの各画
素位置ごとの視差情報を生成する。そして、得られた各
画素位置ごとの視差情報に基づいて、各FIFO11〜
13、21〜23から映像信号(Y信号、R−Y信号、
B−Y信号)を読み出す際の読み出しアドレスが左映像
用任意画素遅延FIFO11〜13と右映像用任意画素
遅延FIFO21〜23との間でずれるように、各FI
FO11〜13、21〜23の読み出しアドレスを制御
する。したがって、左映像用任意画素遅延FIFO11
〜13から読み出された左映像信号の水平位相と、右映
像用任意画素遅延FIFO21〜23から読み出された
右映像信号の水平位相が異なるようになる。
The parallax information for each parallax calculation area E1 to E12 calculated by the CPU 3 is sent to the parallax control circuit 4. The parallax control circuit 4 uses the parallax calculation areas E1 to E.
Based on the parallax information for 12, the parallax information for each pixel position in each field is generated. Then, based on the obtained parallax information for each pixel position, each FIFO 11 to
13, 21 to 23 to video signals (Y signal, RY signal,
Each FI is arranged such that the read address when reading the (B-Y signal) is deviated between the left video arbitrary pixel delay FIFOs 11 to 13 and the right video arbitrary pixel delay FIFOs 21 to 23.
The read addresses of the FOs 11 to 13 and 21 to 23 are controlled. Therefore, the left image arbitrary pixel delay FIFO 11
The horizontal phase of the left video signal read from each of the image data sets 13 to 13 and the horizontal phase of the right video signal read from each of the right image arbitrary pixel delay FIFOs 21 to 23 become different.

【0016】左映像用任意画素遅延FIFO11〜13
から読み出された左映像信号(YL信号、(R−Y)L
信号、(B−Y)L信号)は、DA変換回路(DAC)
5によってアナログ信号に変換された後、図示しない立
体表示装置に送られる。右映像用任意画素遅延FIFO
21〜23から読み出された右映像信号(YR信号、
(R−Y)R信号、(B−Y)R信号)は、DA変換回
路(DAC)6によってアナログ信号に変換された後、
図示しない立体表示装置に送られる。
Left image arbitrary pixel delay FIFOs 11 to 13
Left video signal (YL signal, (RY) L read from
Signal, (BY) L signal) is a DA conversion circuit (DAC)
After being converted into an analog signal by 5, it is sent to a stereoscopic display device (not shown). Arbitrary pixel delay FIFO for right image
The right video signal (YR signal,
The (RY) R signal and the (BY) R signal) are converted into analog signals by the DA conversion circuit (DAC) 6 and then,
It is sent to a stereoscopic display device (not shown).

【0017】左映像信号の水平位相と、右映像信号の水
平位相は異なっているので、左映像と右映像との間に視
差が発生する。この結果、左映像を左目のみで観察し、
右映像を右目のみで観察すると、被写体が背景に対して
前方位置にあるような立体映像が得られる。
Since the horizontal phase of the left video signal is different from the horizontal phase of the right video signal, parallax occurs between the left video and the right video. As a result, the left image is observed only with the left eye,
If the right image is observed only by the right eye, a stereoscopic image in which the subject is in the front position with respect to the background is obtained.

【0018】図3は、R−Y成分積算回路31の構成を
示している。
FIG. 3 shows the configuration of the RY component integrating circuit 31.

【0019】図2においては、各視差算出領域E1〜E
12の水平方向の画素数をm、各視差算出領域E1〜E
12の垂直方向の画素数をn、第1の視差算出領域E1
の左上の座標を(a,b)として、水平位置(HAD)
および垂直位置(VAD)が表されている。
In FIG. 2, the parallax calculation areas E1 to E are shown.
The number of horizontal pixels of 12 is m, and each of the parallax calculation areas E1 to E
The number of 12 vertical pixels is n, and the first parallax calculation region E1
The horizontal position (HAD) with the upper left coordinates of (a, b)
And the vertical position (VAD) is represented.

【0020】R−Y成分積算回路31は、タイミング信
号発生回路201、加算回路202およびR−Y成分積
算レジスタ群203および選択回路(SEL)204を
備えている。R−Y成分積算レジスタ群203は、各視
差算出領域E1〜E12にそれぞれ対応した第1〜第1
2のR−Y成分積算レジスタ211〜222を備えてい
る。
The RY component integrating circuit 31 includes a timing signal generating circuit 201, an adding circuit 202, an RY component integrating register group 203, and a selecting circuit (SEL) 204. The RY component integration register group 203 includes first to first corresponding parallax calculation areas E1 to E12, respectively.
Two RY component integration registers 211 to 222 are provided.

【0021】タイミング信号発生回路201には、入力
映像信号の水平同期信号Hsyncおよび垂直同期信号
Vsyncならびに各水平期間の水平アドレスを検出す
るためのクロック信号CLKが入力している。
To the timing signal generation circuit 201, the horizontal synchronizing signal Hsync and the vertical synchronizing signal Vsync of the input video signal and the clock signal CLK for detecting the horizontal address of each horizontal period are input.

【0022】タイミング信号発生回路201は、水平同
期信号Hsync、垂直同期信号Vsyncおよびクロ
ック信号CLKに基づいて、第1〜第12のイネーブル
信号EN1〜EN12、リセット信号RSTおよび出力
タイミング信号DOUTを出力する。
The timing signal generating circuit 201 outputs first to twelfth enable signals EN1 to EN12, a reset signal RST and an output timing signal DOUT based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync and the clock signal CLK. .

【0023】各イネーブル信号EN1〜EN12は、そ
れぞれ各視差算出領域E1〜E12に対応しており、常
時はLレベルであり、入力映像信号の水平垂直位置が対
応する領域内にあるときに、Hレベルとなる。第1〜第
12のイネーブル信号EN1〜EN12は、それぞれ第
1〜第12の輝度積算レジスタ211〜222に、書き
込み信号として入力している。また、第1〜第12のイ
ネーブル信号EN1〜EN12は、選択回路204にも
送られる。選択回路204は、Hレベルのイネーブル信
号に対応する入力データを選択して出力する。
The enable signals EN1 to EN12 respectively correspond to the parallax calculation areas E1 to E12, are normally at the L level, and are H when the horizontal and vertical positions of the input video signal are within the corresponding areas. It becomes a level. The first to twelfth enable signals EN1 to EN12 are input as write signals to the first to twelfth luminance integration registers 211 to 222, respectively. The first to twelfth enable signals EN1 to EN12 are also sent to the selection circuit 204. The selection circuit 204 selects and outputs the input data corresponding to the H level enable signal.

【0024】リセット信号RSTは、入力映像信号にお
ける各フィールドの有効映像開始タイミングで出力さ
れ、各R−Y成分積算レジスタ211〜222に送られ
る。各R−Y成分積算レジスタ211〜222にリセッ
ト信号RSTが入力されると、その内容が0にされる。
The reset signal RST is output at the effective video start timing of each field in the input video signal and sent to each RY component integration register 211-222. When the reset signal RST is input to each of the RY component integration registers 211 to 222, the content thereof is set to 0.

【0025】出力タイミング信号DOUTは、図2に示
すように、入力映像信号の垂直位置が、最下段の視差算
出領域E12の下端の垂直位置を越えた時点から一定期
間だけ、Hレベルとなる。出力タイミング信号DOUT
は、CPU3に送られる。
As shown in FIG. 2, the output timing signal DOUT becomes the H level for a certain period from the time when the vertical position of the input video signal exceeds the vertical position of the lower end of the parallax calculation area E12 at the bottom. Output timing signal DOUT
Is sent to the CPU 3.

【0026】入力映像信号における有効映像開始タイミ
ングにリセット信号が出力され、各R−Y成分積算レジ
スタ211〜222の内容が0にされる。入力映像信号
の水平垂直位置が第1の視差算出領域E1内である場合
には、第1のイネーブル信号EN1がHレベルとなるの
で、第1のR−Y成分積算レジスタ211に保持されて
いるR−Y値が選択回路204を介して加算回路202
に送られるとともに、入力映像信号におけるR−Y信号
が加算回路202に入力する。
A reset signal is output at the effective image start timing of the input image signal, and the contents of the respective RY component integration registers 211 to 222 are set to zero. When the horizontal and vertical positions of the input video signal are within the first parallax calculation area E1, the first enable signal EN1 is at the H level, and therefore is held in the first RY component integration register 211. The RY value is added to the addition circuit 202 via the selection circuit 204.
And the RY signal in the input video signal is input to the adding circuit 202.

【0027】したがって、第1の輝度積算レジスタ21
1に保持されていたR−Y値と、入力映像信号における
R−Y信号とが加算回路202によって加算され、その
加算結果が第1のR−Y成分積算レジスタ211に格納
される。つまり、入力映像信号の水平垂直位置が第1の
視差算出領域E1内である場合においては、第1の視差
算出領域E1内の画素のR−Y値が積算されていき、そ
の積算結果が第1のR−Y成分積算レジスタ211に蓄
積される。
Therefore, the first brightness integrating register 21
The RY value held at 1 and the RY signal in the input video signal are added by the adder circuit 202, and the addition result is stored in the first RY component integration register 211. That is, when the horizontal and vertical positions of the input video signal are within the first parallax calculation area E1, the RY values of the pixels within the first parallax calculation area E1 are integrated, and the integration result is the 1 is stored in the R-Y component integration register 211.

【0028】このようにして、各視差算出領域E1〜E
12ごとのR−Y成分積算値が、対応するR−Y成分積
算レジスタ211〜222に蓄積される。そして、出力
タイミング信号DOUTがHレベルとなると、各R−Y
成分積算レジスタ211〜222に蓄積されている各視
差算出領域E1〜E12ごとのR−Y成分積算値が、C
PU3にデータバス(DATA−BUS)を介して送ら
れる。
In this way, the parallax calculation areas E1 to E
The RY component integrated value for each 12 is stored in the corresponding RY component integration registers 211 to 222. Then, when the output timing signal DOUT becomes H level, each R-Y
The RY component integrated value for each parallax calculation region E1 to E12 accumulated in the component integrating registers 211 to 222 is C
It is sent to PU3 via a data bus (DATA-BUS).

【0029】B−Y成分積算回路32の構成も、図3の
R−Y成分積算回路31の構成と同様なので、その説明
を省略する。
The configuration of the BY component integrating circuit 32 is similar to that of the RY component integrating circuit 31 of FIG.

【0030】図4は、高周波成分積算回路8の構成を示
している。
FIG. 4 shows the configuration of the high frequency component integrating circuit 8.

【0031】高周波成分積算回路8は、タイミング信号
発生回路231、ハイパスフィルタ(HPF)232、
絶対値化回路233、スライス処理回路234、加算回
路235および高周波成分積算レジスタ群236および
選択回路237を備えている。高周波成分積算レジスタ
群236は、各視差算出領域E1〜E12にそれぞれ対
応した第1〜第12の高周波成分積算レジスタ241〜
252を備えている。
The high frequency component integrating circuit 8 includes a timing signal generating circuit 231, a high pass filter (HPF) 232,
An absolute value conversion circuit 233, a slice processing circuit 234, an addition circuit 235, a high frequency component integration register group 236 and a selection circuit 237 are provided. The high frequency component integration register group 236 includes the first to twelfth high frequency component integration registers 241 to 241 respectively corresponding to the parallax calculation areas E1 to E12.
252 is provided.

【0032】タイミング信号発生回路231の入力信号
および出力信号は、図3のタイミング信号発生回路20
1の入力信号および出力信号と同じである。
The input signal and the output signal of the timing signal generation circuit 231 are the same as the timing signal generation circuit 20 of FIG.
1 is the same as the input signal and the output signal.

【0033】ハイパスフィルタ232としては、たとえ
ば、図5に示すように、5つのDフリップフロップ26
1〜265、入力値の2倍の出力を得るためのビットシ
フト回路266、加算器267および減算器268から
なる、−1、0、2、0および−1のタップ係数を持つ
ハイパスフィルタが用いられる。
As the high pass filter 232, for example, as shown in FIG. 5, five D flip-flops 26 are provided.
1 to 265, a high-pass filter having tap coefficients of -1, 0, 2, 0, and -1, which includes a bit shift circuit 266 for obtaining an output twice the input value, an adder 267, and a subtracter 268, is used. To be

【0034】また、スライス処理回路234としては、
図6に示すような入出力特性を有する回路が用いられ
る。0〜Iaまでの入力に対しては、出力を0としてい
るのは、ノイズが高周波成分として抽出されないように
するためである。
As the slice processing circuit 234,
A circuit having an input / output characteristic as shown in FIG. 6 is used. The output is set to 0 for the input of 0 to Ia in order to prevent noise from being extracted as a high frequency component.

【0035】したがって、入力映像信号におけるY信号
の高周波成分がハイパスフィルタ232によって抽出さ
れ、その絶対値が絶対値化回路233により得られ、ス
ライス処理回路234によって高周波成分の絶対値から
ノイズが除去される。
Therefore, the high frequency component of the Y signal in the input video signal is extracted by the high pass filter 232, the absolute value thereof is obtained by the absolute value conversion circuit 233, and the noise is removed from the absolute value of the high frequency component by the slice processing circuit 234. It

【0036】入力映像信号における有効映像開始タイミ
ングにリセット信号が出力され、各高周波成分積算レジ
スタ241〜252の内容が0にされる。入力映像信号
の水平垂直位置が第1の視差算出領域E1内である場合
には、第1のイネーブル信号EN1がHレベルとなるの
で、第1の高周波成分積算レジスタ241に保持されて
いる高周波成分が選択回路237を介して加算回路23
5に送られるとともに、入力映像信号におけるY信号の
高周波成分(スライス処理回路234の出力)が加算回
路235に入力する。
A reset signal is output at the effective video start timing in the input video signal, and the contents of the respective high frequency component integration registers 241 to 252 are set to zero. When the horizontal and vertical positions of the input video signal are within the first parallax calculation area E1, the first enable signal EN1 is at the H level, so the high frequency component held in the first high frequency component integration register 241. Via the selection circuit 237
5, and the high frequency component of the Y signal in the input video signal (the output of the slice processing circuit 234) is input to the adding circuit 235.

【0037】したがって、第1の高周波成分積算レジス
タ241に保持されていた高周波成分と、入力映像信号
におけるY信号の高周波成分とが加算回路235によっ
て加算され、その加算結果が第1の高周波成分積算レジ
スタ241に格納される。つまり、入力映像信号の水平
垂直位置が第1の視差算出領域E1内である場合におい
ては、第1の視差算出領域E1内の画素の高周波成分が
積算されていき、その積算結果が第1の高周波成分積算
レジスタ241に蓄積される。
Therefore, the high frequency component held in the first high frequency component integration register 241 and the high frequency component of the Y signal in the input video signal are added by the addition circuit 235, and the addition result is the first high frequency component integration. It is stored in the register 241. That is, when the horizontal and vertical positions of the input video signal are in the first parallax calculation area E1, the high frequency components of the pixels in the first parallax calculation area E1 are integrated, and the integration result is the first It is stored in the high frequency component integration register 241.

【0038】このようにして、各視差算出領域E1〜E
12ごとの高周波成分の積算値が、対応する高周波成分
積算レジスタ241〜252に蓄積される。そして、出
力タイミング信号DOUTがHレベルとなると、各高周
波成分積算レジスタ241〜252に蓄積されている各
視差算出領域E1〜E12ごとの高周波成分の積算値
が、CPU3にデータバスを介して送られる。
In this way, the parallax calculation areas E1 to E
The integrated value of the high frequency component for each 12 is stored in the corresponding high frequency component integration registers 241 to 252. Then, when the output timing signal DOUT becomes H level, the integrated value of the high frequency components for each of the parallax calculation regions E1 to E12 accumulated in the respective high frequency component integration registers 241-252 is sent to the CPU 3 via the data bus. .

【0039】図7は、高周波成分積算回路8の他の例を
示している。
FIG. 7 shows another example of the high frequency component integrating circuit 8.

【0040】この高周波成分積算回路8は、タイミング
信号発生回路238、ハイパスフィルタ232、ピーク
検出回路239、加算回路235、高周波成分積算レジ
スタ群236および選択回路237を備えている。
The high frequency component integrating circuit 8 includes a timing signal generating circuit 238, a high pass filter 232, a peak detecting circuit 239, an adding circuit 235, a high frequency component integrating register group 236 and a selecting circuit 237.

【0041】タイミング信号発生回路238は、図3の
タイミング信号発生回路201とほぼ同じであるが、図
2に示すように、入力映像信号の水平位置が、視差算出
領域E1、E5、E9の直前の水平位置および各視差算
出領域E1〜E12の最後尾の水平位置に達したとき
に、トリガパルス(領域境界信号RST1) が出力され
る点が、図3のタイミング信号発生回路201と異なっ
ている。領域境界信号RST1は、ピーク検出回路23
9に送られる。
The timing signal generation circuit 238 is almost the same as the timing signal generation circuit 201 in FIG. 3, but as shown in FIG. 2, the horizontal position of the input video signal is immediately before the parallax calculation areas E1, E5, E9. 3 is different from the timing signal generation circuit 201 in FIG. 3 in that a trigger pulse (region boundary signal RST1) is output when the horizontal position and the last horizontal position of each parallax calculation region E1 to E12 are reached. . The area boundary signal RST1 is supplied to the peak detection circuit 23.
Sent to 9.

【0042】ハイパスフィルタ232によって抽出され
たY信号の高周波成分は、ピーク検出回路239に送ら
れる。ピーク検出回路239は、各視差算出領域E1〜
E12内の各水平ラインごとに、高周波成分の最大値を
検出する。ピーク検出回路239としては、図8に示す
ように、比較回路271、最大値レジスタ272および
ゲート273を備えたものが用いられる。図9は、入力
映像信号の水平同期信号Hsync、領域境界信号RS
T1、ゲート273等の出力を示している。
The high frequency component of the Y signal extracted by the high pass filter 232 is sent to the peak detection circuit 239. The peak detection circuit 239 uses the parallax calculation areas E1 to E1.
The maximum value of the high frequency component is detected for each horizontal line in E12. As the peak detection circuit 239, as shown in FIG. 8, a circuit including a comparison circuit 271, a maximum value register 272 and a gate 273 is used. FIG. 9 shows the horizontal synchronizing signal Hsync of the input video signal and the area boundary signal RS.
The outputs of T1, the gate 273, etc. are shown.

【0043】最大値レジスタ272には、ハイパスフィ
ルタ232によって抽出されたY信号の高周波成分、領
域境界信号RST1、比較回路271の判定結果信号L
aおよびクロック信号CLKが入力される。比較回路2
71は、最大値レジスタ272の出力と入力映像信号に
おけるY信号の高周波成分とを比較し、Y信号の高周波
成分が最大値レジスタ272の出力より大きいときに、
判定結果信号LaをHレベルにする。
The maximum value register 272 has a high frequency component of the Y signal extracted by the high pass filter 232, a region boundary signal RST1, and a judgment result signal L of the comparison circuit 271.
a and the clock signal CLK are input. Comparison circuit 2
Reference numeral 71 compares the output of the maximum value register 272 with the high frequency component of the Y signal in the input video signal, and when the high frequency component of the Y signal is larger than the output of the maximum value register 272,
The determination result signal La is set to H level.

【0044】領域境界信号RST1がHレベルになる
と、最大値レジスタ272の内容は0にされる。領域境
界信号RST1がLレベルである状態において、比較回
路271からの判定結果信号LaがHレベルであれば、
Y信号の高周波成分が最大値レジスタ272に格納され
る。つまり、最大値レジスタ272の内容が更新され
る。したがって、最大値レジスタ272には、領域境界
信号RST1がLレベルである期間ごとに、入力映像信
号の水平垂直位置に対応する視差算出領域E1〜E12
内の1水平ラインの各画素に対するY信号の高周波成分
のうちの最大値が蓄積される。
When the region boundary signal RST1 becomes H level, the content of the maximum value register 272 is set to 0. If the determination result signal La from the comparison circuit 271 is at H level when the region boundary signal RST1 is at L level,
The high frequency component of the Y signal is stored in the maximum value register 272. That is, the content of the maximum value register 272 is updated. Therefore, in the maximum value register 272, the parallax calculation regions E1 to E12 corresponding to the horizontal and vertical positions of the input video signal are stored in the maximum value register 272 every period when the region boundary signal RST1 is at the L level.
The maximum value of the high frequency components of the Y signal for each pixel on one horizontal line is stored.

【0045】ゲート273は、領域境界信号RST1が
Hレベルになると、最大値レジスタ272の出力値を出
力し、領域境界信号RST1がLレベルのときには0を
出力する。つまり、ゲート回路273からは、領域境界
信号RST1がHレベルになるごとに、最大値レジスタ
272に蓄積されていた所定の視差算出領域E1〜E1
2内の1水平ラインに対するY信号の高周波成分の最大
値が出力される。したがって、各高周波成分積算レジス
タ241〜252(図7参照)には、対応する視差算出
領域内の各水平ラインに対するY信号の高周波成分の最
大値の積算値が蓄積されることになる。
The gate 273 outputs the output value of the maximum value register 272 when the area boundary signal RST1 becomes H level, and outputs 0 when the area boundary signal RST1 is L level. That is, from the gate circuit 273, each time the area boundary signal RST1 becomes H level, the predetermined parallax calculation areas E1 to E1 stored in the maximum value register 272 are stored.
The maximum value of the high frequency components of the Y signal for one horizontal line in 2 is output. Therefore, in each of the high frequency component integration registers 241-252 (see FIG. 7), the integrated value of the maximum values of the high frequency components of the Y signal for each horizontal line in the corresponding parallax calculation area is accumulated.

【0046】図10は、輝度コントラスト算出回路9の
構成を示している。
FIG. 10 shows the configuration of the brightness contrast calculation circuit 9.

【0047】輝度コントラスト算出回路9は、タイミン
グ信号発生回路301および輝度コントラスト検出回路
群302を備えている。輝度コントラスト検出回路群3
02は、各視差算出領域E1〜E12にそれぞれ対応し
た第1〜第12の輝度コントラスト検出回路311〜3
22を備えている。
The brightness contrast calculation circuit 9 includes a timing signal generation circuit 301 and a brightness contrast detection circuit group 302. Brightness contrast detection circuit group 3
Reference numeral 02 denotes the first to twelfth luminance contrast detection circuits 311 to 312 corresponding to the parallax calculation areas E1 to E12, respectively.
22 is provided.

【0048】タイミング信号発生回路301の入力信号
および出力信号は、図3のタイミング信号発生回路20
1の入力信号および出力信号と同じである。
The input signal and the output signal of the timing signal generation circuit 301 are the same as the timing signal generation circuit 20 of FIG.
1 is the same as the input signal and the output signal.

【0049】各輝度コントラスト検出回路311〜32
2は、図11に示すように、第1の比較回路331、最
大値レジスタ332、第2の比較回路333、最小値レ
ジスタ334および減算器335を備えている。
Brightness contrast detection circuits 311 to 32
As shown in FIG. 11, the second circuit 2 includes a first comparison circuit 331, a maximum value register 332, a second comparison circuit 333, a minimum value register 334, and a subtractor 335.

【0050】最大値レジスタ332には、入力映像信号
におけるY信号、当該輝度コントラスト検出回路に対応
する領域E1〜E12のイネーブル信号EN(N=1、
2…12)、リセット信号RST、第1の比較回路33
1から出力される判定信号Lbおよびクロック信号CL
Kが入力している。第1の比較回路331は、最大値レ
ジスタ332の出力値と入力映像信号におけるY信号と
を比較し、入力映像信号におけるY信号が最大値レジス
タ332の出力値より大きいときに判定信号LbをHレ
ベルにする。
In the maximum value register 332, the Y signal in the input video signal and the enable signals EN (N = 1, N = 1, for the areas E1 to E12 corresponding to the luminance contrast detection circuit) are stored.
2 ... 12), reset signal RST, first comparison circuit 33
1 output from the determination signal Lb and the clock signal CL
K is inputting. The first comparison circuit 331 compares the output value of the maximum value register 332 with the Y signal of the input video signal, and when the Y signal of the input video signal is larger than the output value of the maximum value register 332, the determination signal Lb is set to H. To level.

【0051】リセット信号RSTがHレベルになると、
最大値レジスタ332の内容は0にされる。当該輝度コ
ントラスト検出回路に対応する領域E1〜E12のイネ
ーブル信号ENがHレベルでありかつ判定信号LbがH
レベルのときに、Y信号が最大値レジスタ332に格納
される。つまり、最大値レジスタ332の内容が更新さ
れる。したがって、出力タイミング信号DOUTが出力
される直前においては、最大値レジスタ332には、当
該輝度コントラスト検出回路に対応する視差算出領域E
1〜E12内の各画素の輝度値のうちの最大値が蓄積さ
れる。
When the reset signal RST goes high,
The content of the maximum value register 332 is set to 0. The enable signal EN of the areas E1 to E12 corresponding to the brightness contrast detection circuit is at H level and the determination signal Lb is at H level.
At the level, the Y signal is stored in the maximum value register 332. That is, the contents of the maximum value register 332 are updated. Therefore, immediately before the output timing signal DOUT is output, the maximum value register 332 stores the parallax calculation area E corresponding to the luminance contrast detection circuit.
The maximum value of the brightness values of each pixel in 1 to E12 is accumulated.

【0052】最小値レジスタ334には、入力映像信号
におけるY信号、当該輝度コントラスト検出回路に対応
する領域E1〜E12のイネーブル信号EN(N=1、
2…12)、リセット信号RST、第2の比較回路33
3から出力される判定信号Lcおよびクロック信号CL
Kが入力している。第2の比較回路333は、最小値レ
ジスタ334の出力値と入力映像信号におけるY信号と
を比較し、入力映像信号におけるY信号が最小値レジス
タ334の出力値より小さいときに判定信号LcをHレ
ベルにする。
In the minimum value register 334, the Y signal in the input video signal and the enable signals EN (N = 1, N = 1,
2 ... 12), reset signal RST, second comparison circuit 33
The determination signal Lc and the clock signal CL output from 3
K is inputting. The second comparison circuit 333 compares the output value of the minimum value register 334 with the Y signal of the input video signal, and when the Y signal of the input video signal is smaller than the output value of the minimum value register 334, sets the determination signal Lc to H level. To level.

【0053】リセット信号RSTがHレベルになると、
最小値レジスタ334に、予め定められた最大値が設定
される。当該輝度コントラスト検出回路に対応する領域
E1〜E12のイネーブル信号ENがHレベルでありか
つ判定信号LcがHレベルのときに、Y信号が最小値レ
ジスタ334に格納される。つまり、最小値レジスタ3
34の内容が更新される。したがって、出力タイミング
信号DOUTが出力される直前においては、最小値レジ
スタ334には、当該輝度コントラスト検出回路に対応
する視差算出領域E1〜E12内の各画素の輝度値のう
ちの最小値が蓄積される。
When the reset signal RST goes high,
A predetermined maximum value is set in the minimum value register 334. When the enable signal EN of the areas E1 to E12 corresponding to the luminance contrast detection circuit is at H level and the determination signal Lc is at H level, the Y signal is stored in the minimum value register 334. That is, the minimum value register 3
The contents of 34 are updated. Therefore, immediately before the output timing signal DOUT is output, the minimum value register 334 stores the minimum value of the brightness values of the pixels in the parallax calculation areas E1 to E12 corresponding to the brightness contrast detection circuit. It

【0054】この結果、出力タイミング信号DOUTが
出力される時点においては、減算器335の出力は、対
応する視差算出領域E1〜E12内の各画素の輝度値の
うちの最大値と最小値との差(輝度コントラスト)に対
応した値となる。そして、出力タイミング信号DOUT
が出力されると、減算器335の出力(輝度コントラス
ト)がCPU3に送られる。
As a result, at the time when the output timing signal DOUT is output, the output of the subtractor 335 is the maximum value and the minimum value of the luminance values of the pixels in the corresponding parallax calculation areas E1 to E12. The value corresponds to the difference (luminance contrast). Then, the output timing signal DOUT
Is output, the output of the subtractor 335 (luminance contrast) is sent to the CPU 3.

【0055】図12は、CPU3によって行なわれる視
差算出領域毎の視差情報生成処理手順を示している。
FIG. 12 shows a procedure of parallax information generation processing for each parallax calculation area performed by the CPU 3.

【0056】分割領域毎の視差情報生成処理において
は、グループ分け処理(ステップ1)、空間分離処理
(ステップ2)、特異点処理(ステップ3)、グループ
間結合処理(ステップ4)、グループ毎の奥行き情報生
成処理(ステップ5)、全領域に対する奥行き情報補正
処理(ステップ6)、グループ境界に対する奥行き情報
補正処理(ステップ7)、グループ内部に対する奥行き
情報補正処理(ステップ8)および視差情報算出処理
(ステップ9)が行なわれる。
In the parallax information generation processing for each divided area, grouping processing (step 1), spatial separation processing (step 2), singular point processing (step 3), inter-group coupling processing (step 4), and group-by-group processing are performed. Depth information generation processing (step 5), depth information correction processing for all areas (step 6), depth information correction processing for group boundaries (step 7), depth information correction processing for inside groups (step 8), and disparity information calculation processing ( Step 9) is performed.

【0057】1フィールドに対して実際に設定されてい
る60個の視差算出領域を例にとって、視差情報生成処
理を説明する。図13は、1フィールドに対して実際に
設定されている60個の視差算出領域F1〜F60を示
している。
The parallax information generation process will be described by taking as an example the 60 parallax calculation regions actually set for one field. FIG. 13 shows 60 parallax calculation areas F1 to F60 that are actually set for one field.

【0058】(1)グループ分け処理の説明(1) Description of grouping process

【0059】ステップ1のグループ分け処理は、1枚の
画像を構成する全領域を、その画像に含まれている物体
ごとにグループ分けすることを目的として行なわれる最
初の処理である。
The grouping process of step 1 is the first process carried out for the purpose of grouping all the regions forming one image for each object included in the image.

【0060】グループ分けの方法には次に述べるように
2つの方法がある。
There are two methods for grouping as described below.

【0061】(1−1)第1方法 まず、視差算出領域F1〜F60毎に得られた高周波積
算値を、所定範囲(たとえば、0〜20)の値に正規化
する。そして、高周波積算値の各正規化値に属する視差
算出領域の数の分布(ヒストグラム)を生成する。図1
4に、生成されたヒストグラムの一例を示す。そして、
ヒストグラムの谷と谷との間の山に含まれている視差算
出領域どうしを、1つのグループとする。高周波積算値
の代わりに輝度コントラストを用いてもよい。図15
は、このようにして各視差算出領域F1〜F60が、グ
ループ分けされた結果を示している。図15において、
G1〜G4の数字は、グループ番号を示している。
(1-1) First Method First, the high frequency integrated value obtained for each of the parallax calculation areas F1 to F60 is normalized to a value within a predetermined range (for example, 0 to 20). Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the high frequency integrated value is generated. Figure 1
4 shows an example of the generated histogram. And
Parallax calculation areas included in a mountain between valleys of the histogram are set as one group. Luminance contrast may be used instead of the high frequency integrated value. Figure 15
Indicates the result of grouping the parallax calculation regions F1 to F60 in this way. In FIG.
The numbers G1 to G4 indicate group numbers.

【0062】(1−2)第2方法 視差算出領域F1〜F60毎に得られたR−Y成分の積
算値を、0〜20の範囲の値に正規化する。そして、R
−Y成分積算値の各正規化値に属する視差算出領域の数
の分布(ヒストグラム)を生成する。このヒストグラム
に基づいて、R−Y成分積算値の正規化値の中から、グ
ループ間の境界値を求める。
(1-2) Second Method The integrated value of the RY components obtained for each of the parallax calculation regions F1 to F60 is normalized to a value in the range of 0 to 20. And R
Generate a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the Y component integrated value. Based on this histogram, the boundary value between the groups is obtained from the normalized value of the R-Y component integrated value.

【0063】また、視差算出領域F1〜F60毎に得ら
れたB−Y成分の積算値を、0〜10の範囲の値に正規
化する。そして、B−Y成分積算値の各正規化値に属す
る視差算出領域の数の分布(ヒストグラム)を生成す
る。このヒストグラムに基づいて、B−Y成分積算値の
正規化値の中から、グループ間の境界値を求める。
The integrated value of the BY component obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 10. Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the BY component integrated value is generated. Based on this histogram, the boundary value between the groups is obtained from the normalized value of the BY component integrated value.

【0064】そして、図16に示すように、このように
して得られた2種類の境界値を用いて、全視差算出領域
をグループ化する。図17および図18は、このように
して各視差算出領域F1〜F60が、グループ分けされ
た結果を示している。図17および図18において、G
1〜G5は、グループ番号を示している。
Then, as shown in FIG. 16, the two types of boundary values thus obtained are used to group all parallax calculation regions. 17 and 18 show the results of grouping the parallax calculation regions F1 to F60 in this way. 17 and 18, G
1 to G5 indicate group numbers.

【0065】この例では、第2方法によってグループ分
け処理が行なわれたものとする。
In this example, it is assumed that the grouping process is performed by the second method.

【0066】(2)空間分離処理の説明(2) Description of space separation processing

【0067】ステップ2の空間分離処理では、ステップ
1の処理によって同一のグループに属している視差算出
領域のうち、空間的に隣接している視差算出領域どうし
が1つのグループとされる。つまり、ステップ1の処理
によって同一のグループに属している視差算出領域であ
っても、空間的に他のグループによって分離されている
視差算出領域どうしは、別々のグループとされる。
In the spatial separation processing of step 2, among the parallax calculation areas belonging to the same group by the processing of step 1, spatially adjacent parallax calculation areas are made into one group. That is, even in the parallax calculation areas that belong to the same group by the process of step 1, the parallax calculation areas that are spatially separated by another group are separated into different groups.

【0068】具体的には、図19に示すように、ステッ
プ1において、グループ3(G3)に属するとされた視
差算出領域は、グループ31(G31)、グループ32
(G32)およびグループ33(G33)の3つのグル
ープに分離される。
Specifically, as shown in FIG. 19, in step 1, the parallax calculation areas that are determined to belong to group 3 (G3) are group 31 (G31) and group 32.
(G32) and group 33 (G33) are separated into three groups.

【0069】(3)特異点処理の説明(3) Description of singular point processing

【0070】この特異点処理では、1つの視差算出領域
のみで構成されているグループが存在する場合に、その
1つの視差算出領域が隣接する他のグループとは別の物
体に対応しているのか、隣接する他のグループの物体と
同じ物体に対応しているのかが判定される。
In this singular point processing, when there is a group composed of only one parallax calculation area, does this one parallax calculation area correspond to an object different from other adjacent groups? , It is determined whether or not it corresponds to the same object as another adjacent object.

【0071】たとえば、図20に示すように、あるグル
ープが1つの視差算出領域Aのみで構成されているグル
ープであるとする。視差算出領域Aの上方向にある2つ
の視差算出領域を、視差算出領域Aに近いものからU
1、U2とする。視差算出領域Aの下方向にある2つの
視差算出領域を、視差算出領域Aに近いものからD1、
D2とする。視差算出領域Aの左方向にある2つの視差
算出領域を、視差算出領域Aに近いものからL1、L2
とする。視差算出領域Aの右方向にある2つの視差算出
領域を、視差算出領域Aに近いものからR1、R2とす
る。
For example, as shown in FIG. 20, it is assumed that a certain group is composed of only one parallax calculation area A. The two parallax calculation areas in the upward direction of the parallax calculation area A are selected from the one closest to the parallax calculation area A to U.
1 and U2. The two parallax calculation areas in the lower direction of the parallax calculation area A are selected from the one closest to the parallax calculation area A to D1,
D2. The two parallax calculation areas to the left of the parallax calculation area A are L1 and L2 in order from the one closest to the parallax calculation area A.
And The two parallax calculation areas to the right of the parallax calculation area A are set to R1 and R2 from the one that is closer to the parallax calculation area A.

【0072】この場合に、領域Aを中心とする上下左右
のそれぞれの方向について、領域Aとそれの1つ外側の
領域U1、D1、L1、R1との色距離が、領域Aより
1つ外側の領域U1、D1、L1、R1とさらにその1
つ外側の領域U2、D2、L2、R2との色距離より大
きい場合には、領域Aのみで構成されているグループは
単独で1つのグループを形成すると判別される。そうで
ない場合には、領域Aはその周囲のグループに属すると
判別される。つまり、グループ分けが修正される。
In this case, the color distance between the region A and the regions U1, D1, L1, and R1 which are one outside the region A is one outside the region A in each of the up, down, left, and right directions centering on the region A. Areas U1, D1, L1, R1 and more
If it is larger than the color distances to the outer regions U2, D2, L2, and R2, it is determined that the group formed of only the region A forms one group independently. Otherwise, the area A is determined to belong to the surrounding groups. That is, the grouping is corrected.

【0073】色距離の定義について説明する。ある視差
算出領域Faに対するB−Y成分積算値、R−Y成分積
算値をそれぞれFa(B−Y)、Fa(R−Y)で表
し、ある視差算出領域Fbに対するB−Y成分積算値、
R−Y成分積算値をそれぞれFb(B−Y)、Fb(R
−Y)で表すと、領域Faと領域Fbとの間の色距離di
stは、次の数式1で定義される。
The definition of the color distance will be described. The BY component integrated value and the RY component integrated value with respect to a certain parallax calculation region Fa are represented by Fa (BY) and Fa (RY), respectively, and the BY component integrated value with respect to a certain parallax calculation region Fb.
The R-Y component integrated values are Fb (B-Y) and Fb (R
-Y), the color distance di between the area Fa and the area Fb
st is defined by the following mathematical formula 1.

【0074】[0074]

【数1】 [Equation 1]

【0075】例えば、図20の領域Aの(B−Y成分積
算値、R−Y成分積算値)が(−4,5)で、領域U1
の(B−Y成分積算値、R−Y成分積算値)が(−5,
4)で、領域U2の(B−Y成分積算値、R−Y成分積
算値)が(−7,2)であるとする。領域Aと領域U1
との色距離distは”2”となり、領域U1と領域U2と
の色距離distは”4”となる。
For example, if the (BY component integrated value, RY component integrated value) of the region A in FIG. 20 is (-4, 5), the region U1
((B-Y component integrated value, RY component integrated value)) is (-5,
4), it is assumed that the (BY component integrated value, RY component integrated value) of the region U2 is (−7, 2). Area A and area U1
And the color distance dist between the areas U1 and U2 is "4".

【0076】図19のグループ31(G31)が1つの
視差算出領域のみで構成されており、上記のような特異
点処理により、グループ1(G1)に属すると判別され
たとすると、図21に示すようにグループ分けが修正さ
れる。
If the group 31 (G31) in FIG. 19 is composed of only one parallax calculation area and it is determined by the singular point processing as described above that the group 31 (G31) belongs to the group 1 (G1), it is shown in FIG. The grouping is modified as follows.

【0077】(4)グループ間結合処理の説明(4) Description of intergroup connection processing

【0078】ステップ4のグループ間結合処理では、ま
ず、各グループ毎に、そのグループを構成する視差算出
領域のR−Y成分積算値の平均値およびB−Y成分積算
値の平均値が算出される。
In the inter-group coupling process of step 4, first, for each group, the average value of the R-Y component integrated values and the average value of the BY component integrated values of the parallax calculation regions forming the group are calculated. It

【0079】次に、隣接している2つのグループどうし
間の色距離が算出される。つまり、隣接している2つの
グループをGa、Gbとする。グループGaがn個の視
差算出領域a1、a2、…anで構成されているとする
と、グループGaのB−Y成分積算値の平均値*Ga
(B−Y)およびR−Y成分積算値の平均値*Ga(R
−Y)は、次の数式2で求められる。
Next, the color distance between two adjacent groups is calculated. That is, two adjacent groups are Ga and Gb. If the group Ga is composed of n parallax calculation regions a1, a2, ... An, the average value of the BY component integrated values of the group Ga * Ga
Average value of (BY) and RY component integrated values * Ga (R
-Y) is calculated by the following Equation 2.

【0080】[0080]

【数2】 [Equation 2]

【0081】また、グループGbがm個の視差算出領域
b1、b2、…bmで構成されているとすると、グルー
プGbのB−Y成分積算値の平均値*Gb(B−Y)お
よびR−Y成分積算値の平均値*Gb(R−Y)は、次
の数式3で求められる。
If the group Gb is composed of m pieces of parallax calculation areas b1, b2, ... Bm, the mean value * Gb (BY) and R- of the BY component integrated values of the group Gb. The average value * Gb (RY) of the Y component integrated value is obtained by the following mathematical formula 3.

【0082】[0082]

【数3】 [Equation 3]

【0083】グループGaとグループGbとの間の色距
離distは、次の数式4によって定義される。
The color distance dist between the group Ga and the group Gb is defined by the following mathematical formula 4.

【0084】[0084]

【数4】 [Equation 4]

【0085】そして、隣り合う2つのグループ間の色距
離がしきい値より小さいか否かが判別され、色距離がし
きい値より小さいときには、これらの2つのグループが
結合される。つまり、これらの2つのグループが1つの
グループにまとめられる。
Then, it is judged whether or not the color distance between two adjacent groups is smaller than the threshold value. When the color distance is smaller than the threshold value, these two groups are combined. That is, these two groups are combined into one group.

【0086】(5)グループ毎の奥行き情報生成処理の
説明
(5) Description of depth information generation processing for each group

【0087】ステップ5のグループ毎の奥行き情報生成
処理では、まず、視差算出領域F1〜F60毎に得られ
た高周波成分の積算値が、0〜10の範囲の値に正規化
される。また、視差算出領域F1〜F60毎に得られた
輝度コントラストが、0〜10の範囲の値に正規化され
る。
In the depth information generation processing for each group in step 5, first, the integrated value of the high frequency components obtained for each of the parallax calculation regions F1 to F60 is normalized to a value in the range of 0 to 10. The brightness contrast obtained for each of the parallax calculation regions F1 to F60 is normalized to a value in the range of 0 to 10.

【0088】そして、得られた高周波成分の積算値の正
規化値と、輝度コントラストの正規化値と、図22に示
すように各視差算出領域F1〜F60毎に予め与えられ
た背景重み成分に基づいて、グループ毎の奥行き情報が
生成される。
Then, the normalized value of the obtained integrated value of the high frequency components, the normalized value of the luminance contrast, and the background weight component given in advance for each of the parallax calculation regions F1 to F60 are obtained as shown in FIG. Based on this, depth information for each group is generated.

【0089】任意の1つのグループに対する奥行き情報
の生成方法について説明する。まず、当該グループに属
している視差算出領域数nが求められる。また、当該グ
ループに属している視差算出領域に対する高周波成分の
積算値の正規化値aの総和Σaが算出される。また、当
該グループに属している視差算出領域に対する輝度コン
トラストの正規化値bの総和Σbが算出される。また、
当該グループに属している視差算出領域に対する背景重
み成分cの総和Σcが算出される。
A method of generating depth information for any one group will be described. First, the number n of parallax calculation areas belonging to the group is calculated. Further, the sum Σa of the normalized value a of the integrated value of the high frequency components for the parallax calculation region belonging to the group is calculated. In addition, the sum Σb of the normalization values b of the brightness contrast for the parallax calculation area belonging to the group is calculated. Also,
The sum Σc of the background weight components c for the parallax calculation area belonging to the group is calculated.

【0090】そして、次の数式5に基づいて、当該グル
ープに対する奥行き情報Hが生成される。
Then, based on the following equation 5, depth information H for the group is generated.

【0091】[0091]

【数5】 [Equation 5]

【0092】数式5において、K1、K2およびK3は
係数であり、たとえば、K1=3/8、K2=1/8、
K3=4/8に設定されている。
In Equation 5, K1, K2 and K3 are coefficients, for example, K1 = 3/8, K2 = 1/8,
K3 is set to 4/8.

【0093】(6)全領域に対する奥行き情報補正処理
の説明
(6) Description of depth information correction processing for all areas

【0094】ステップ5のグループ毎の奥行き情報補正
処理では、まず、視差算出領域F1〜F60の各行ごと
に、奥行き情報の平均値が算出される。各視差算出領域
F1〜F60ごとの奥行き情報が、たとえば、図23に
示すような値であった場合には、第1〜第6行目ごとの
奥行き情報の平均値は、1.2、3.6、6.0、7.
2、4.0、1.2となる。
In the depth information correction processing for each group in step 5, first, the average value of the depth information is calculated for each row of the parallax calculation areas F1 to F60. If the depth information for each of the parallax calculation regions F1 to F60 has a value as shown in FIG. 23, for example, the average value of the depth information for each of the first to sixth rows is 1.2, 3. .6, 6.0, 7.
It becomes 2, 4.0 and 1.2.

【0095】次に、視差算出領域の各行のうち、手前位
置の物体が多く映っている領域が抽出される。つまり、
奥行き情報の平均値が最も大きい行が抽出される。図2
3の例では、第4行目の領域が抽出される。
Next, of each line of the parallax calculation region, a region in which many objects at the front position are reflected is extracted. That is,
The row with the largest average depth information is extracted. Figure 2
In the example of No. 3, the area of the fourth row is extracted.

【0096】次に、抽出された行より下段にある行の各
領域については、直上の領域に対して、急激に奥行き情
報が小さくならないように、抽出された行より下段にあ
る行の各領域の奥行き情報が調整される。具体的には、
抽出された行より下段にある行の各領域の奥行き情報が
直上の領域に対して3以上小さい領域に対しては、直上
の領域の奥行き情報より2だけ小さい値に、その領域の
奥行き情報が変更せしめられる。
Next, regarding each area of the row below the extracted row, each area of the row below the extracted row is prevented so that the depth information does not suddenly become smaller than the area immediately above. Depth information is adjusted. In particular,
For a region where the depth information of each region in the row below the extracted line is 3 or more smaller than the region immediately above, the depth information of that region is set to a value that is 2 smaller than the depth information of the region immediately above. Can be changed.

【0097】図23の例では、図24に示すように、ま
ず、第5行の各領域F41〜F50のうち、その奥行き
情報が直上の領域の奥行き情報に対して3以上小さい領
域F42〜F49に対して、奥行き情報が補正される。
この後、第6行の各領域F51〜F60のうち、その奥
行き情報が直上の領域の奥行き情報(補正後の奥行き情
報)に対して3以上小さい領域F53〜F58に対し
て、奥行き情報が補正される。
In the example of FIG. 23, as shown in FIG. 24, first of all, among the areas F41 to F50 in the fifth row, the depth information is smaller than the depth information of the area immediately above by three or more areas F42 to F49. , The depth information is corrected.
Thereafter, of the regions F51 to F60 in the sixth row, the depth information is corrected for the regions F53 to F58 whose depth information is smaller than the depth information of the region immediately above (corrected depth information) by 3 or more. To be done.

【0098】つまり、任意の水平位置における画面の高
さに対する奥行き情報の関係が、図25に曲線U1で示
すような関係である場合には、奥行き補正によって、画
面の高さに対する奥行き情報の関係が、図25に曲線U
2に示すような関係となるように補正される。
That is, when the relationship of the depth information with respect to the height of the screen at an arbitrary horizontal position is as shown by the curve U1 in FIG. 25, the relationship between the depth information and the height of the screen is corrected by the depth correction. However, in Fig. 25, the curve U
It is corrected so that the relationship shown in FIG.

【0099】このように、視差算出領域の各行のうち、
手前位置の物体が多く映っている領域より下段の領域の
奥行き情報が補正されているのは次の理由による。
In this way, of each line in the parallax calculation area,
The depth information in the lower region than the region in which many objects at the front position are reflected is corrected for the following reason.

【0100】一般的には、画面の下側には前方に存在す
る物体が映っていることが多い。また、画面の下側に映
っている物体は、地面等のように変化の少ない画像であ
ることが多い。地面等のように変化の少ない画像は、高
周波成分が低いため、前方にあるにも係わらず、奥行き
情報の値は小さくなる。そこで、奥行き補正により、前
方にある物体であって高周波成分が低い映像に対する奥
行き情報を、その直上の領域の奥行き情報の値より大き
くならない程度に大きくしているのである。
In general, an object existing in front is often reflected on the lower side of the screen. In addition, the object displayed on the lower side of the screen is often an image with little change such as the ground. An image with little change such as the ground has a low high-frequency component, and therefore has a small depth information value even though it is in front. Therefore, by depth correction, the depth information for an image in front of which the high-frequency component is low is made large enough not to become larger than the value of the depth information of the region immediately above.

【0101】(7)グループ境界に対する奥行き情報補
正処理の説明
(7) Description of depth information correction processing for group boundaries

【0102】隣り合う2つのグループ間の境界部におい
ては、正しくグループ分けが行なわれていないことがあ
る。また、隣り合う2つのグループ間の境界部におい
て、グループ毎の奥行き推定値が大きく異なると、画像
歪みが顕著となる。
At the boundary between two adjacent groups, grouping may not be performed correctly. Further, when the depth estimation value for each group greatly differs at the boundary between two adjacent groups, image distortion becomes remarkable.

【0103】そこで、ステップ7のグループ境界に対す
る奥行き情報補正処理では、まず、隣り合う2つのグル
ープ間の境界部毎に、一方のグループの視差算出領域の
奥行き情報と、他方のグループの視差算出領域の奥行き
情報との差が、予め定められた所定値以上か否かが判別
される。そして、両者の奥行き情報の差が所定値以上で
ある場合には、両者の奥行き情報の差が所定値より小さ
くなるように、奥行き情報が小さい方(つまり、後方に
位置している方)の視差算出領域に対する奥行き情報を
増加させる。
Therefore, in the depth information correction processing for the group boundary in step 7, first, for each boundary portion between two adjacent groups, the depth information of the parallax calculation area of one group and the parallax calculation area of the other group are first described. It is determined whether or not the difference between the depth information and the depth information is greater than or equal to a predetermined value. If the difference in depth information between the two is greater than or equal to a predetermined value, the depth information with the smaller depth information (that is, the one positioned rearward) is set so that the difference in depth information between the two is smaller than the predetermined value. Increase the depth information for the parallax calculation area.

【0104】(8)グループ内部に対する奥行き情報補
正処理の説明
(8) Description of depth information correction processing for the inside of the group

【0105】上記ステップ6および7の補正処理によっ
て、同一グループ内においても領域によって奥行き情報
に差が生じる。この差が大きくなると、画像歪みが顕著
となる。そこで、ステップ8のグループ内部に対する奥
行き情報補正処理では、各グループ毎に、グループ内の
奥行き推定値が平滑化される。
By the correction processing in steps 6 and 7, the depth information varies depending on the regions even within the same group. When this difference becomes large, the image distortion becomes remarkable. Therefore, in the depth information correction process for the inside of the group in step 8, the depth estimated value within the group is smoothed for each group.

【0106】つまり、図26に示すように、同じグルー
プ内において、注目領域をA、それに対する奥行き情報
をHAとし、それに隣接する4つの領域をU、D、L、
R、それらに対する奥行き情報をHU、HD、HL、H
Rとすると、注目領域Aに対する奥行き推定値HAは次
の数式6により、補正される。
That is, as shown in FIG. 26, in the same group, the attention area is A, the depth information for the attention area is HA, and the four adjacent areas are U, D, L, and
R, depth information for them is HU, HD, HL, H
When R is set, the depth estimation value HA for the attention area A is corrected by the following Expression 6.

【0107】[0107]

【数6】 [Equation 6]

【0108】このようにして得られた各視差算出領域F
1〜F60ごとの奥行き情報は、再度、0〜10の範囲
内で正規化される。
Each parallax calculation region F obtained in this way
The depth information for each of 1 to F60 is normalized again within the range of 0 to 10.

【0109】(9)視差情報算出処理の説明(9) Description of parallax information calculation processing

【0110】ステップ9の視差情報算出処理では、各視
差算出領域F1〜F60ごとの奥行き情報が各領域F1
〜F60ごとの視差情報に変換される。
In the parallax information calculation processing in step 9, the depth information for each parallax calculation area F1 to F60 is calculated for each area F1.
~ Converted into parallax information for each F60.

【0111】つまり、予め設定された奥行き情報に対す
る視差情報との関係に基づいて、各領域F1〜F60ご
とに、奥行き情報を視差情報に変換する。奥行き情報に
対する視差情報との関係は、図27に直線S1またはS
2で示されるように、反比例の関係である。
That is, the depth information is converted into the parallax information for each of the areas F1 to F60 based on the relationship between the depth information and the parallax information set in advance. The relationship between depth information and disparity information is shown in FIG.
As shown by 2, the relationship is inversely proportional.

【0112】図27において、直線S1で示される奥行
き情報に対する視差情報との関係は、立体感が比較的強
い立体映像を得たい場合に用いられる。直線S2で示さ
れる奥行き情報に対する視差情報との関係は、立体感が
比較的弱い立体映像を得たい場合に用いられる。奥行き
情報に対する視差情報との関係を、直線S1と直線S2
との間で調整することにより、立体感を調整することが
可能である。
In FIG. 27, the relationship between the depth information and the parallax information indicated by the straight line S1 is used when it is desired to obtain a stereoscopic image having a relatively strong stereoscopic effect. The relationship between the depth information and the parallax information indicated by the straight line S2 is used when it is desired to obtain a stereoscopic image with a relatively weak stereoscopic effect. The relationship between the depth information and the parallax information is shown by a straight line S1 and a straight line S2.
It is possible to adjust the stereoscopic effect by adjusting between and.

【0113】このようにして得られた各視差算出領域ご
との視差情報は、視差制御回路4(図1参照)に送られ
る。
The parallax information for each parallax calculation region thus obtained is sent to the parallax control circuit 4 (see FIG. 1).

【0114】図28は、主として、図1の視差制御回路
および任意画素遅延FIFOの構成を示している。以下
においては、視差算出領域が、図2に示すように、E1
〜E12であるとして説明する。
FIG. 28 mainly shows the configuration of the parallax control circuit and the arbitrary pixel delay FIFO shown in FIG. In the following, the parallax calculation area is set to E1 as shown in FIG.
~ E12 will be described.

【0115】図28には、任意画素遅延FIFO11〜
13、21〜23のうち、Y信号に対する左映像用任意
画素遅延FIFO11および右映像用任意画素遅延FI
FO21しか示されていないが、他の任意画素遅延FI
FO12、13、22、23も同様な構成でありかつ同
様な制御が行なわれるので、他の任意画素遅延FIFO
12、13、22、23の構成および制御方法について
は、その説明を省略する。
FIG. 28 shows the arbitrary pixel delay FIFOs 11 to 11.
13, 21 to 23, the left video arbitrary pixel delay FIFO 11 and the right video arbitrary pixel delay FI with respect to the Y signal
Only FO21 is shown, but other arbitrary pixel delays FI
Since the FOs 12, 13, 22, and 23 have the same configuration and the same control is performed, other arbitrary pixel delay FIFOs are also provided.
The description of the configurations and control methods of 12, 13, 22, and 23 will be omitted.

【0116】ところで、CPU3によって算出された視
差情報は、各視差算出領域E1〜E12の中心位置に対
する視差情報である。視差制御回路4では、各視差算出
領域E1〜E12の中心位置に対する視差情報に基づい
て、1フィールド画面の各画素位置に対する視差情報が
求められる。そして、各画素位置に対する2次元映像信
号から、その画素位置に対する視差情報に応じた視差を
有する左映像と右映像とを生成するために、各画素位置
に対する視差情報に基づいて、左映像用任意画素遅延F
IFO11〜13および右映像用任意画素遅延FIFO
21〜23の読み出しアドレスが制御される。
By the way, the parallax information calculated by the CPU 3 is the parallax information for the center position of each of the parallax calculation areas E1 to E12. The parallax control circuit 4 obtains the parallax information for each pixel position on the one-field screen based on the parallax information for the center positions of the parallax calculation regions E1 to E12. Then, in order to generate a left image and a right image having parallax according to the parallax information for the pixel position from the two-dimensional image signal for each pixel position, an arbitrary left image for the left image is generated based on the parallax information for each pixel position. Pixel delay F
IFO 11 to 13 and arbitrary pixel delay FIFO for right image
The read addresses 21 to 23 are controlled.

【0117】1フィールド画面の各画素位置に対する視
差情報は、タイミング信号発生回路51、視差補間係数
発生回路52、視差情報記憶手段60、視差選択回路8
0、第1〜第4乗算器81〜84および加算回路85に
よって、生成される。
The parallax information for each pixel position on the one-field screen is the timing signal generation circuit 51, the parallax interpolation coefficient generation circuit 52, the parallax information storage means 60, and the parallax selection circuit 8.
0, the first to fourth multipliers 81 to 84, and the adder circuit 85.

【0118】入力映像信号の水平同期信号Hsyncお
よび垂直同期信号Vsyncは、タイミング信号発生回
路51に入力している。また、各水平期間の水平アドレ
スを検出するためのクロック信号CLKもタイミング信
号発生回路51に入力している。
The horizontal synchronizing signal Hsync and the vertical synchronizing signal Vsync of the input video signal are input to the timing signal generating circuit 51. The clock signal CLK for detecting the horizontal address of each horizontal period is also input to the timing signal generation circuit 51.

【0119】タイミング信号発生回路51は、水平同期
信号Hsync、垂直同期信号Vsyncおよびクロッ
ク信号CLKに基づいて、入力映像信号の絶対的水平位
置を表す水平アドレス信号HAD、入力映像信号の絶対
的垂直位置を表す垂直アドレス信号VAD、入力映像信
号の相対的水平位置を表す相対的水平位置信号HPOS
および入力映像信号の相対的垂直位置を表す相対的垂直
位置信号VPOSを生成して出力する。
The timing signal generating circuit 51, based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync and the clock signal CLK, outputs a horizontal address signal HAD indicating the absolute horizontal position of the input video signal and an absolute vertical position of the input video signal. And a relative horizontal position signal HPOS indicating a relative horizontal position of the input video signal.
And a relative vertical position signal VPOS representing the relative vertical position of the input video signal is generated and output.

【0120】入力映像信号の相対的水平位置および相対
的垂直位置について説明する。
The relative horizontal position and relative vertical position of the input video signal will be described.

【0121】図29に示すように、図2の視差算出領域
E1〜E12は、次のように設定されている。画面全体
が図29に点線で示すように、4行5列の20個の領域
(以下、第1分割領域という)に分割されている。そし
て、左上端の第1分割領域の中心、右上端の第1分割領
域の中心、左下端の第1分割領域の中心および右下端の
第1分割領域の中心を4頂点とする四角形領域が3行4
列の12個の領域(以下、第2分割領域という)に分割
され、各第2分割領域が視差算出領域E1〜E12とし
て設定されている。
As shown in FIG. 29, the parallax calculation areas E1 to E12 in FIG. 2 are set as follows. The entire screen is divided into 20 areas of 4 rows and 5 columns (hereinafter referred to as the first divided areas), as shown by the dotted lines in FIG. Then, there are three quadrilateral regions having four vertices at the center of the first divided region at the upper left end, the center of the first divided region at the upper right end, the center of the first divided region at the lower left end, and the center of the first divided region at the lower right end. Line 4
It is divided into 12 regions (hereinafter referred to as second divided regions) in a row, and each second divided region is set as parallax calculation regions E1 to E12.

【0122】第1分割領域および第2分割領域の水平方
向の画素数がmで表され、第1分割領域および第2分割
領域の垂直方向の画素数がnとして表されている。入力
映像信号の相対的水平位置は、各第1分割領域の左端を
0とし、右端をmとして、0〜(m−1)で表される。
入力映像信号の相対的垂直位置は、各第1分割領域の上
端を0とし、下端をnとして、0〜(n−1)で表され
る。
The number of pixels in the horizontal direction of the first divided area and the second divided area is represented by m, and the number of pixels in the vertical direction of the first divided area and the second divided area is represented by n. The relative horizontal position of the input video signal is represented by 0 to (m-1) where the left end of each first divided area is 0 and the right end is m.
The relative vertical position of the input video signal is represented by 0 to (n-1), where the upper end of each first divided area is 0 and the lower end is n.

【0123】入力映像信号の相対的水平位置信号HPO
Sおよび相対的垂直位置VPOSは、視差補間係数発生
回路52に送られる。視差補間係数発生回路52は、相
対的水平位置信号HPOS、相対的垂直位置VPOSお
よび次の数式7に基づいて、第1視差補間係数KUL、
第2視差補間係数KUR、第3視差補間係数KDLおよ
び第4視差補間係数KDRを生成して出力する。
Relative horizontal position signal HPO of input video signal
The S and the relative vertical position VPOS are sent to the parallax interpolation coefficient generating circuit 52. The parallax interpolation coefficient generating circuit 52 calculates the first parallax interpolation coefficient KUL, based on the relative horizontal position signal HPOS, the relative vertical position VPOS, and the following Expression 7.
The second parallax interpolation coefficient KUR, the third parallax interpolation coefficient KDL, and the fourth parallax interpolation coefficient KDR are generated and output.

【0124】[0124]

【数7】 [Equation 7]

【0125】1フィールド画面の各画素位置に対する視
差情報を生成する方法の基本的な考え方について、図3
0を用いて説明する。水平アドレス信号HADおよび垂
直アドレス信号VADによって表されている水平垂直位
置(以下、注目位置という)が図30のPxyであると
する。注目位置Pxyに対する視差情報を求める場合に
ついて説明する。
FIG. 3 shows the basic idea of the method of generating the parallax information for each pixel position on the 1-field screen.
It will be described using 0. It is assumed that the horizontal / vertical position (hereinafter referred to as the attention position) represented by the horizontal address signal HAD and the vertical address signal VAD is Pxy in FIG. A case where parallax information for the attention position Pxy is obtained will be described.

【0126】(1)まず、CPU3によって算出された
各視差算出領域E1〜E12に対する視差情報のうちか
ら、注目位置Pxyが含まれる第1分割領域の4頂点、
この例ではPE1、PE2、PE5、PE6を中心とす
る視差算出領域E1、E2、E5、E6に対する視差情
報が、それぞれUL、UR、DL、DRとして抽出され
る。つまり、注目位置Pxyが含まれる第1分割領域の
4頂点のうち、左上の頂点を中心とする領域E1の視差
情報が第1視差情報ULとして、右上の頂点を中心とす
る領域E2の視差情報が第2視差情報URとして、左下
の頂点を中心とする領域E5の視差情報が第3視差情報
DLとして、右下の頂点を中心とする領域E6の視差情
報が第4視差情報DRとして抽出される。
(1) First, among the parallax information for each of the parallax calculation regions E1 to E12 calculated by the CPU 3, the four vertices of the first divided region including the target position Pxy,
In this example, the parallax information for the parallax calculation areas E1, E2, E5, E6 centered on PE1, PE2, PE5, PE6 is extracted as UL, UR, DL, DR, respectively. That is, of the four vertices of the first divided region including the attention position Pxy, the parallax information of the region E1 centered on the upper left vertex is the first parallax information UL, and the parallax information of the region E2 centered on the upper right vertex is set. Is extracted as the second disparity information UR, the disparity information of the area E5 centered on the lower left apex is extracted as the third disparity information DL, and the disparity information of the area E6 centered on the lower right apex is extracted as the fourth disparity information DR. It

【0127】ただし、注目位置が含まれる第1分割領域
が、左上端の第1分割領域である場合のように、注目位
置が含まれる第1分割領域の4頂点のうち1つの頂点の
みが視差検出領域の中心に該当するような場合には、そ
の視差算出領域の視差情報が、第1〜第4の視差情報U
L、UR、DL、DRとして抽出される。
However, as in the case where the first divided area including the attention position is the first divided area at the upper left end, only one of the four vertices of the first divided area including the attention position has parallax. When it corresponds to the center of the detection region, the parallax information of the parallax calculation region is the first to fourth parallax information U.
It is extracted as L, UR, DL, DR.

【0128】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の右隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち下側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち上側の2つの頂点に対応する視差情
報UL、URとしては、その下側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided area including the attention position is the first divided area on the right side of the first divided area at the upper left end, the four vertices of the first divided area including the attention position. In the case where only the lower two vertices of the parallax calculation region correspond to the center of the parallax calculation region, the parallax information UL corresponding to the upper two vertices of the four vertices of the first divided region including the attention position, As the UR, the parallax information of the parallax calculation region centered on the lower vertex is extracted.

【0129】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の下隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち右側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち左側の2つの頂点に対応する視差情
報UL、DLとしては、その右側の頂点を中心とする視
差算出領域の視差情報が抽出される。
In addition, as in the case where the first divided area including the attention position is the first divided area below and adjacent to the first divided area at the upper left end, the four vertices of the first divided area including the attention position If only the two vertices on the right side correspond to the center of the parallax calculation region, the parallax information UL, DL corresponding to the two vertices on the left side among the four vertices of the first divided region including the attention position As, the parallax information of the parallax calculation region centered on the right vertex is extracted.

【0130】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の左隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち上側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち下側の2つの頂点に対応する視差情
報DL、DRとしては、その上側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided area including the attention position is the first divided area adjacent to the left of the first divided area at the lower right corner, the four vertices of the first divided area including the attention position. If only the upper two vertices of the four vertices correspond to the center of the parallax calculation region, the parallax information DL corresponding to the two lower vertices of the four vertices of the first divided region including the attention position, As DR, the parallax information of the parallax calculation region centered on the upper vertex is extracted.

【0131】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の上隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち左側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち右側の2つの頂点に対応する視差情
報UR、DRとしては、その左側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided area including the attention position is the first divided area above and adjacent to the first divided area at the lower right corner, the four vertices of the first divided area including the attention position are included. If only the two vertices on the left side correspond to the center of the parallax calculation region, the parallax information UR, DR corresponding to the two vertices on the right side among the four vertices of the first divided region including the attention position. As, the parallax information of the parallax calculation region centered on the left vertex is extracted.

【0132】(2)次に、第1〜第4の視差補間係数K
UL、KUR、KDLおよびKDRが求められる。
(2) Next, the first to fourth parallax interpolation coefficients K
UL, KUR, KDL and KDR are required.

【0133】第1の視差補間係数KULは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの下辺までの距離ΔYDとの比{(n−VPO
S)/n}との積によって求められる。すなわち、第1
の視差補間係数KULは、注目位置Pxyを含む第1分
割領域eの左上頂点PE1と注目位置Pxyとの距離が
小さいほど大きくなる。
The first parallax interpolation coefficient KUL is the position P of interest.
The distance ΔX from the attention position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy.
Ratio with R {(m-HPOS) / m} and first divided area e
Of the distance ΔYD from the target position Pxy to the lower side of the first divided area e with respect to the vertical width n of {{n-VPO.
S) / n}. That is, the first
The parallax interpolation coefficient KUL becomes larger as the distance between the upper left apex PE1 of the first divided area e including the target position Pxy and the target position Pxy is smaller.

【0134】第2の視差補間係数KURは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m}と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
下辺までの距離ΔYDとの比{(n−VPOS)/n}
との積によって求められる。すなわち、第2の視差補間
係数KURは、注目位置Pxyを含む第1分割領域eの
右上頂点PE2と注目位置Pxyとの距離が小さいほど
大きくなる。
The second parallax interpolation coefficient KUR is the target position P
The distance ΔX from the position of interest Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e including xy.
The ratio (HPOS / m} of L to the vertical width n of the first divided area e and the distance ΔYD from the position of interest Pxy to the lower side of the first divided area e {(n-VPOS) / n}.
It is calculated by the product of That is, the second parallax interpolation coefficient KUR increases as the distance between the attention position Pxy and the upper right apex PE2 of the first divided region e including the attention position Pxy increases.

【0135】第3の視差補間係数KDLは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの上辺までの距離ΔYUとの比(VPOS/n)
との積によって求められる。すなわち、第3の視差補間
係数KDLは、注目位置Pxyを含む第1分割領域eの
左下頂点PE5と注目位置Pxyとの距離が小さいほど
大きくなる。
The third parallax interpolation coefficient KDL is the target position P
The distance ΔX from the attention position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy.
Ratio with R {(m-HPOS) / m} and first divided area e
Of the distance ΔYU from the position of interest Pxy to the upper side of the first divided region e with respect to the vertical width n of the (VPOS / n)
It is calculated by the product of That is, the third parallax interpolation coefficient KDL increases as the distance between the lower left apex PE5 of the first divided region e including the target position Pxy and the target position Pxy decreases.

【0136】第4の視差補間係数KDRは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m)と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
上辺までの距離ΔYUとの比(VPOS/n)との積に
よって求められる。すなわち、第4の視差補間係数KD
Rは、注目位置Pxyを含む第1分割領域eの右下頂点
PE6と注目位置Pxyとの距離が小さいほど大きくな
る。
The fourth parallax interpolation coefficient KDR is the position P of interest.
The distance ΔX from the position of interest Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e including xy.
By the product of the ratio with L (HPOS / m) and the ratio (VPOS / n) with respect to the vertical width n of the first divided region e and the distance ΔYU from the target position Pxy to the upper side of the first divided region e. Desired. That is, the fourth parallax interpolation coefficient KD
R increases as the distance between the lower right apex PE6 of the first divided area e including the target position Pxy and the target position Pxy decreases.

【0137】(3)上記(1)で抽出された第1〜第4
の視差情報UL、UR、DL、DRに、それぞれ上記
(2)で算出された第1〜第4の視差補間係数KUL、
KUR、KDL、KDRがそれぞれ乗算される。そし
て、得られた4つの乗算値が加算されることにより、注
目位置Pxyに対する視差情報が生成される。
(3) First to fourth extracted in (1) above
Of the parallax information UL, UR, DL, and DR of the first to fourth parallax interpolation coefficients KUL calculated in (2) above, respectively.
Each of KUR, KDL, and KDR is multiplied. Then, the obtained four multiplication values are added to generate parallax information for the target position Pxy.

【0138】視差情報記憶手段60は、領域E1〜E1
2にそれぞれ対応して設けられた第1〜第12の視差レ
ジスタ61〜72を備えている。第1〜第12の視差レ
ジスタ61〜72には、CPU3によって生成された各
領域E1〜E12に対する視差情報が格納される。
The parallax information storage means 60 stores areas E1 to E1.
The first to twelfth parallax registers 61 to 72 are provided corresponding to the No. 2 and No. 2, respectively. The first to twelfth parallax registers 61 to 72 store parallax information for the respective areas E1 to E12 generated by the CPU 3.

【0139】視差情報記憶手段60の後段には、視差選
択回路80が設けられている。視差選択回路80には、
各視差レジスタ61〜72から視差情報がそれぞれ送ら
れる。さらに、視差選択回路80には、タイミング信号
発生回路51から水平アドレス信号HADおよび垂直ア
ドレス信号VADが送られている。
A parallax selection circuit 80 is provided at the subsequent stage of the parallax information storage means 60. In the parallax selection circuit 80,
Parallax information is sent from each of the parallax registers 61 to 72. Further, the horizontal address signal HAD and the vertical address signal VAD are sent from the timing signal generation circuit 51 to the parallax selection circuit 80.

【0140】視差選択回路80は、図31(a)に示さ
れている規則にしたがって、水平アドレス信号HADお
よび垂直アドレス信号VADに対応する領域(図30の
例では、注目位置を含む第1領域の左上頂点を中心とす
る視差算出領域)に対する視差情報を、第1視差情報U
Lとして選択して出力する。さらに、視差選択回路80
は、図31(b)に示されている規則にしたがって、水
平アドレス信号HADおよび垂直アドレス信号VADに
対応する領域(図30の例では、注目位置を含む第1領
域の右上頂点を中心とする視差算出領域)に対する視差
情報を、第2視差情報URとして選択して出力する。
According to the rule shown in FIG. 31A, the parallax selection circuit 80 has an area corresponding to the horizontal address signal HAD and the vertical address signal VAD (the first area including the target position in the example of FIG. 30). The parallax information for the parallax calculation area centered on the upper left apex of the
Select as L and output. Furthermore, the parallax selection circuit 80
According to the rule shown in FIG. 31B, the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, the upper right corner of the first area including the target position is centered). The parallax information for the parallax calculation region) is selected and output as the second parallax information UR.

【0141】さらに、視差選択回路80は、図31
(c)に示されている規則にしたがって、水平アドレス
信号HADおよび垂直アドレス信号VADに対応する領
域(図30の例では、注目位置を含む第1領域の左下頂
点を中心とする視差算出領域)に対する視差情報を、第
3視差情報DLとして選択して出力する。さらに、視差
選択回路80は、図31(d)に示されている規則にし
たがって、水平アドレス信号HADおよび垂直アドレス
信号VADに対応する領域(図30の例では、注目位置
を含む第1領域の右下頂点を中心とする視差算出領域)
に対する視差情報を、第4視差情報DRとして選択して
出力する。図31において、たとえば、0〜mのよう
に、a〜bで表現されている記号”〜”は、a以上b未
満を意味する記号として用いられている。
Furthermore, the parallax selection circuit 80 is shown in FIG.
According to the rule shown in (c), a region corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, a parallax calculation region centered on the lower left apex of the first region including the attention position). The parallax information for is selected and output as the third parallax information DL. Further, the parallax selection circuit 80 follows the rule shown in FIG. 31 (d), and the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, the first area including the target position). Parallax calculation area centered on the lower right vertex)
The parallax information for is selected and output as the fourth parallax information DR. In FIG. 31, for example, the symbols “to” represented by a to b such as 0 to m are used as symbols indicating a to a but less than b.

【0142】視差選択回路80によって選択された第1
視差情報UL、第2視差情報UR、第3視差情報DLお
よび第4視差情報DRは、それぞれ第1、第2、第3お
よび第4の乗算器81、82、83、84に入力する。
The first selected by the parallax selection circuit 80
The parallax information UL, the second parallax information UR, the third parallax information DL, and the fourth parallax information DR are input to the first, second, third, and fourth multipliers 81, 82, 83, 84, respectively.

【0143】第1、第2、第3および第4の乗算器8
1、82、83、84には、それぞれ視差補間係数発生
回路52からの第1視差補間係数KUL、第2視差補間
係数KUR、第3視差補間係数KDLおよび第4視差補
間係数KDRも入力している。
First, second, third and fourth multiplier 8
The first parallax interpolation coefficient KUL, the second parallax interpolation coefficient KUR, the third parallax interpolation coefficient KDL, and the fourth parallax interpolation coefficient KDR from the parallax interpolation coefficient generation circuit 52 are also input to 1, 82, 83, and 84, respectively. There is.

【0144】第1乗算器81は、第1視差情報ULに第
1視差補間係数KULを乗算する。第2乗算器82は、
第2視差情報URに第2視差補間係数KURを乗算す
る。第3乗算器83は、第3視差情報DLに第3視差補
間係数KDLを乗算する。第4乗算器84は、第4視差
情報DRに第4視差補間係数KDRを乗算する。
The first multiplier 81 multiplies the first parallax information UL by the first parallax interpolation coefficient KUL. The second multiplier 82 is
The second parallax information UR is multiplied by the second parallax interpolation coefficient KUR. The third multiplier 83 multiplies the third parallax information DL by the third parallax interpolation coefficient KDL. The fourth multiplier 84 multiplies the fourth parallax information DR by the fourth parallax interpolation coefficient KDR.

【0145】各乗算器81、82、83、84の出力
は、加算回路85によって加算される。これにより、注
目位置に対する視差情報PRが得られる。
The outputs of the multipliers 81, 82, 83 and 84 are added by the adder circuit 85. Thereby, the parallax information PR for the position of interest is obtained.

【0146】各任意画素遅延FIFO11、21は、1
画素より小さい単位での水平位相制御を行なうために、
ぞれぞれ2つのラインメモリ11a、11b、21a、
21bを備えている。各任意画素遅延FIFO11、2
1内の2つのラインメモリ11a、11b、21a、2
1bには、それぞれY信号が入力されているとともにク
ロック信号CLKが入力している。
Each arbitrary pixel delay FIFO 11, 21 has a value of 1
In order to perform horizontal phase control in units smaller than pixels,
Two line memories 11a, 11b, 21a,
21b is provided. Each arbitrary pixel delay FIFO 11, 2
Two line memories 11a, 11b, 21a, 2 in 1
The Y signal and the clock signal CLK are input to 1b, respectively.

【0147】タイミング信号発生回路51から出力され
ている水平アドレス信号HADは、標準アドレス発生回
路90にも入力している。標準アドレス発生回路90
は、各任意画素遅延FIFO11、21内の2つのライ
ンメモリ11a、11b、21a、21bに対する標準
書き込みアドレスWADおよび標準読み出しアドレスR
ADを生成して出力する。また、標準アドレス発生回路
90は、2D/3D映像変換装置によって得られる左映
像信号および右映像信号に付加される同期信号Csyn
cをも出力する。この同期信号Csyncによって表さ
れる水平同期信号は、入力映像信号の水平同期信号Hs
yncより、所定クロック数分遅れた信号となる。
The horizontal address signal HAD output from the timing signal generation circuit 51 is also input to the standard address generation circuit 90. Standard address generation circuit 90
Is a standard write address WAD and a standard read address R for the two line memories 11a, 11b, 21a, 21b in each arbitrary pixel delay FIFO 11, 21.
Generate and output AD. Further, the standard address generation circuit 90 uses the sync signal Csyn added to the left video signal and the right video signal obtained by the 2D / 3D video conversion device.
Also output c. The horizontal synchronizing signal represented by the synchronizing signal Csync is the horizontal synchronizing signal Hs of the input video signal.
The signal is delayed by a predetermined number of clocks from ync.

【0148】標準読み出しアドレスRADは、標準読み
出しアドレスによって規定される基準水平位相に対し
て、各任意画素遅延FIFO11、21に入力される映
像信号の水平位相を進めたり遅らしたりできるようにす
るために、標準書き込みアドレスWADに対して、所定
クロック数分遅れている。標準アドレス発生回路90か
ら出力される標準書き込みアドレスWADは、各任意画
素遅延FIFO11、21内の2つのラインメモリ11
a、11b、21a、21bに、書き込みアドレスを示
す書き込み制御信号として入力する。
The standard read address RAD is for enabling the horizontal phase of the video signal input to each arbitrary pixel delay FIFO 11, 21 to be advanced or delayed with respect to the reference horizontal phase defined by the standard read address. In addition, the standard write address WAD is delayed by a predetermined number of clocks. The standard write address WAD output from the standard address generation circuit 90 is the two line memories 11 in each arbitrary pixel delay FIFO 11, 21.
A write control signal indicating a write address is input to a, 11b, 21a, and 21b.

【0149】標準アドレス発生回路90から出力される
標準読み出しアドレスRADは、加算器91および減算
器92にそれぞれ入力する。加算器91および減算器9
2には、加算回路85から出力される注目位置の視差情
報PRも入力している。
The standard read address RAD output from the standard address generation circuit 90 is input to the adder 91 and the subtractor 92, respectively. Adder 91 and subtractor 9
2 also receives the parallax information PR of the position of interest output from the adder circuit 85.

【0150】加算器91では、標準読み出しアドレスR
ADに視差情報PRが加算される。これにより、左映像
用読み出しアドレスPRLが得られる。
In the adder 91, the standard read address R
The parallax information PR is added to AD. As a result, the left video read address PRL is obtained.

【0151】左映像用読み出しアドレスPRLの整数部
PRL1は、左映像用任意画素遅延FIFO11内の第
1のラインメモリ11aに読み出しアドレスRADL1
として入力する。したがって、第1のラインメモリ11
aのアドレスRADL1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の左映像
用乗算器101に入力する。
The integer part PRL1 of the left video read address PRL is stored in the first line memory 11a in the left video arbitrary pixel delay FIFO 11 as a read address RADL1.
Enter as. Therefore, the first line memory 11
The Y signal is read from the address corresponding to the address RADL1 of a. The read Y signal is input to the first left video multiplier 101.

【0152】左映像用読み出しアドレスPRLの整数部
PRL1に1が加算されたアドレス値は、左映像用任意
画素遅延FIFO11内の第2のラインメモリ11bに
読み出しアドレスRADL2として入力する。したがっ
て、第2のラインメモリ11bのアドレスRADL2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の左映像用乗算器102に入力す
る。
The address value obtained by adding 1 to the integer part PRL1 of the left video read address PRL is input to the second line memory 11b in the left video arbitrary pixel delay FIFO 11 as the read address RADL2. Therefore, the Y signal is read from the address corresponding to the address RADL2 of the second line memory 11b. The read Y signal is input to the second left video multiplier 102.

【0153】第1のラインメモリ11aに対する読み出
しアドレスRADL1と、第2のラインメモリ11bに
対する読み出しアドレスRADL2とは、1だけ異なっ
ているので、第1のラインメモリ11aから読み出され
たY信号と、第2のラインメモリ11bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
Since the read address RADL1 for the first line memory 11a and the read address RADL2 for the second line memory 11b differ by one, the Y signal read from the first line memory 11a, The horizontal position of the Y signal read from the second line memory 11b is shifted by 1.

【0154】左映像用読み出しアドレスPRLの小数部
PRL2は、第2の左映像補間係数として第2の左映像
用乗算器102に入力する。左映像用読み出しアドレス
PRLの小数部PRL2を1から減算した値(1−PR
L2)は、第1の左映像補間係数として第1の左映像用
乗算器101に入力する。
The fractional part PRL2 of the left video read address PRL is input to the second left video multiplier 102 as the second left video interpolation coefficient. A value obtained by subtracting the fractional part PRL2 of the left video read address PRL from 1 (1-PR
L2) is input to the first left video multiplier 101 as a first left video interpolation coefficient.

【0155】したがって、第1の左映像用乗算器101
では、第1のラインメモリ11aから読み出されたY信
号に第1の左映像補間係数(1−PRL2)が乗算され
る。第2の左映像用乗算器102では、第2のラインメ
モリ11bから読み出されたY信号に第2の左映像補間
係数PRL2が乗算される。そして、各乗算器101、
102によって得られたY信号は加算器103で加算さ
れた後、左映像用Y信号YL−OUTとして、出力され
る。
Therefore, the first left video multiplier 101
Then, the Y signal read from the first line memory 11a is multiplied by the first left video interpolation coefficient (1-PRL2). In the second left video multiplier 102, the Y signal read from the second line memory 11b is multiplied by the second left video interpolation coefficient PRL2. Then, each multiplier 101,
The Y signal obtained by 102 is added by the adder 103, and then output as the left video Y signal YL-OUT.

【0156】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ遅れた左映
像用Y信号が得られる。
As a result, the standard read address RAD
A left image Y signal whose horizontal phase amount is delayed by an amount corresponding to the parallax information for the position of interest with respect to the reference horizontal phase defined by

【0157】減算器92では、標準読み出しアドレスR
ADから視差情報PRが減算される。これにより、右映
像用読み出しアドレスPRRが得られる。
In the subtractor 92, the standard read address R
The parallax information PR is subtracted from AD. As a result, the right video read address PRR is obtained.

【0158】右映像用読み出しアドレスPRRの整数部
PRR1は、右映像用任意画素遅延FIFO21内の第
1のラインメモリ21aに読み出しアドレスRADR1
として入力する。したがって、第1のラインメモリ21
aのアドレスRADR1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の右映像
用乗算器111に入力する。
The integer part PRR1 of the right video read address PRR is stored in the first line memory 21a in the right video arbitrary pixel delay FIFO 21 as the read address RADR1.
Enter as. Therefore, the first line memory 21
The Y signal is read from the address corresponding to the address RADR1 of a. The read Y signal is input to the first right video multiplier 111.

【0159】右映像用読み出しアドレスPRRの整数部
PRR1に1が加算されたアドレス値は、右映像用任意
画素遅延FIFO21内の第2のラインメモリ21bに
読み出しアドレスRADR2として入力する。したがっ
て、第2のラインメモリ21bのアドレスRADR2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の右映像用乗算器112に入力す
る。
The address value obtained by adding 1 to the integer part PRR1 of the right video read address PRR is input to the second line memory 21b in the right video arbitrary pixel delay FIFO 21 as the read address RADR2. Therefore, the Y signal is read from the address corresponding to the address RADR2 of the second line memory 21b. The read Y signal is input to the second right video multiplier 112.

【0160】第1のラインメモリ21aに対する読み出
しアドレスRADR1と、第2のラインメモリ21bに
対する読み出しアドレスRADR2とは、1だけ異なっ
ているので、第1のラインメモリ21aから読み出され
たY信号と、第2のラインメモリ21bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
Since the read address RADR1 for the first line memory 21a and the read address RADR2 for the second line memory 21b differ by one, the Y signal read from the first line memory 21a, The horizontal position of the Y signal read from the second line memory 21b is shifted by 1.

【0161】右映像用読み出しアドレスPRRの小数部
PRR2は、第2の右映像補間係数として第2の右映像
用乗算器112に入力する。右映像用読み出しアドレス
PRRの小数部PRR2を1から減算した値(1−PR
R2)は、第1の右映像補間係数として第1の右映像用
乗算器111に入力する。
The fractional part PRR2 of the right video read address PRR is input to the second right video multiplier 112 as the second right video interpolation coefficient. A value obtained by subtracting the fractional part PRR2 of the right video read address PRR from 1 (1-PR
R2) is input to the first right video multiplier 111 as a first right video interpolation coefficient.

【0162】したがって、第1の右映像用乗算器111
では、第1のラインメモリ21aから読み出されたY信
号に第1の右映像補間係数(1−PRR2)が乗算され
る。第2の右映像用乗算器112では、第2のラインメ
モリ21bから読み出されたY信号に第2の右映像補間
係数PRR2が乗算される。そして、各乗算器111、
112によって得られたY信号は加算器113で加算さ
れた後、右映像用Y信号YR−OUTとして、出力され
る。
Therefore, the first right video multiplier 111
Then, the Y signal read from the first line memory 21a is multiplied by the first right video interpolation coefficient (1-PRR2). In the second right video multiplier 112, the Y signal read from the second line memory 21b is multiplied by the second right video interpolation coefficient PRR2. Then, each multiplier 111,
The Y signal obtained by 112 is added by the adder 113, and then output as the right image Y signal YR-OUT.

【0163】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ進んだ右映
像用Y信号が得られる。
As a result, the standard read address RAD
A right image Y signal in which the horizontal phase amount is advanced by an amount corresponding to the parallax information with respect to the position of interest with respect to the reference horizontal phase defined by

【0164】図32は、注目位置に対する視差情報が0
の場合の、各部の信号を示している。
In FIG. 32, the parallax information for the position of interest is 0.
In the case of, the signal of each part is shown.

【0165】視差情報が0の場合には、加算器91から
出力される左映像用読み出しアドレスPRLと、減算器
92から出力される右映像用読み出しアドレスPRR
は、ともに標準読み出しアドレスRADと等しい小数部
のない整数部のみからなるアドレスとなる。
When the parallax information is 0, the left video read address PRL output from the adder 91 and the right video read address PRR output from the subtractor 92.
Are both addresses that are equal to the standard read address RAD and consist of only an integer part without a decimal part.

【0166】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1と、右映像用任意画素遅延FIFO
21内の第1のラインメモリ21aに対する読み出しア
ドレスRADR1は、標準読み出しアドレスRADと等
しいアドレスとなる。
Therefore, the left image arbitrary pixel delay FIF
Read address RADL1 for the first line memory 11a in O11 and right image arbitrary pixel delay FIFO
The read address RADR1 for the first line memory 21a in 21 becomes an address equal to the standard read address RAD.

【0167】また、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bに対する読み出しアドレ
スRADL2と、右映像用任意画素遅延FIFO21内
の第2のラインメモリ21bに対する読み出しアドレス
RADR2は、標準読み出しアドレスRADより1だけ
大きい値となる。
Further, the left image arbitrary pixel delay FIFO 11
The read address RADL2 for the second line memory 11b in the inside and the read address RADR2 for the second line memory 21b in the right video arbitrary pixel delay FIFO 21 are one larger than the standard read address RAD.

【0168】また、第1の左映像補間係数(1−PRL
2)および第1の右映像補間係数(1−PRR2)は1
となり、第2の左映像補間係数PRL2および第2の右
映像補間係数PRR2は0となる。
The first left video interpolation coefficient (1-PRL)
2) and the first right video interpolation coefficient (1-PRR2) is 1
Therefore, the second left video interpolation coefficient PRL2 and the second right video interpolation coefficient PRR2 are zero.

【0169】この結果、左映像用任意画素遅延FIFO
11内の第1のラインメモリ11aの標準アドレスRA
Dに対応するアドレスから読み出されたY信号が加算器
103から左映像用Y信号YL−OUTとして出力さ
れ、右映像用任意画素遅延FIFO21内の第1のライ
ンメモリ21aの標準アドレスRADに対応するアドレ
スから読み出されたY信号が加算器113から右映像用
Y信号YR−OUTとして出力される。つまり、水平方
向の位相ずれ量が同じ2つのY信号、すなわち視差のな
い2つのY信号が左映像用Y信号および右映像用Y信号
として出力される。
As a result, the left image arbitrary pixel delay FIFO
Standard address RA of the first line memory 11a in 11
The Y signal read from the address corresponding to D is output from the adder 103 as the left image Y signal YL-OUT and corresponds to the standard address RAD of the first line memory 21a in the right image arbitrary pixel delay FIFO 21. The Y signal read from the address to be output is output from the adder 113 as the Y signal YR-OUT for the right image. That is, two Y signals having the same amount of phase shift in the horizontal direction, that is, two Y signals having no parallax are output as the left image Y signal and the right image Y signal.

【0170】図33は、ある注目位置に対する標準書き
込みアドレスWADが20であり、上記注目位置に対す
る標準読み出しアドレスRADが10であり、上記注目
位置に対する視差情報が1.2の場合の、各アドレス値
の具体例を示している。図34は、その際の各部の信号
を示している。
FIG. 33 shows each address value when the standard write address WAD for a certain target position is 20, the standard read address RAD for the target position is 10, and the parallax information for the target position is 1.2. Shows a specific example of. FIG. 34 shows the signals of the respective parts at that time.

【0171】この場合には、加算器91から出力される
左映像用読み出しアドレスPRLは、11.2となり、
その整数部PRL1は11となり、その小数部PRL2
は0.2となる。
In this case, the left video read address PRL output from the adder 91 is 11.2.
The integer part PRL1 becomes 11, and the decimal part PRL2
Is 0.2.

【0172】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1は11となり、第2のラインメモリ
11bに対する読み出しアドレスRADL2は12とな
る。また、第1の左映像補間係数KL1{=(1−PR
L2)}は0.8となり、第2の左映像補間係数KL2
(=PRL2)は0.2となる。
Therefore, the left image arbitrary pixel delay FIF
The read address RADL1 for the first line memory 11a in O11 is 11, and the read address RADL2 for the second line memory 11b is 12. Also, the first left image interpolation coefficient KL1 {= (1-PR
L2)} becomes 0.8, and the second left image interpolation coefficient KL2
(= PRL2) is 0.2.

【0173】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aのアドレス11か
らY信号(Y11)が読み出され、第1乗算器101から
は読み出されたY信号(Y11)の0.8倍の信号(0.
8*Y11)が出力される。
Therefore, the left-picture arbitrary pixel delay FIF
The Y signal (Y 11 ) is read from the address 11 of the first line memory 11a in the O11, and the signal (0 that is 0.8 times the read Y signal (Y 11 ) is read from the first multiplier 101. .
8 * Y 11 ) is output.

【0174】一方、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bのアドレス12からY信
号(Y12)が読み出され、第2乗算器102からは読み
出されたY信号(Y12)の0.2倍の信号(0.2*Y
12)が出力される。そして、加算器103からは、0.
8*Y11+0.2*Y12に相当する左映像用Y信号YL
−OUTが出力される。つまり、読み出しアドレス1
1.2に相当するY信号が、左映像用Y信号YL−OU
Tとして出力される。
On the other hand, the left image arbitrary pixel delay FIFO 11
Second Y signal from the address 12 of the line memory 11b of the inner (Y 12) is read, 0.2 times of the signals from the second multiplier 102 read Y signal (Y 12) (0. 2 * Y
12 ) is output. Then, from the adder 103, 0.
Left image Y signal YL corresponding to 8 * Y 11 + 0.2 * Y 12
-OUT is output. That is, read address 1
The Y signal corresponding to 1.2 is the Y signal YL-OU for the left image.
It is output as T.

【0175】減算器92から出力される右映像用読み出
しアドレスPRRは、8.8となり、その整数部PRR
1は8となり、その小数部PRR2は0.8となる。
The right video read address PRR output from the subtractor 92 is 8.8, and its integer part PRR
1 becomes 8 and its fractional part PRR2 becomes 0.8.

【0176】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aに対する読み出し
アドレスRADR1は8となり、第2のラインメモリ2
1bに対する読み出しアドレスRADR2は9となる。
また、第1の右映像補間係数KR1{=(1−PRR
2)}は0.2となり、第2の右映像補間係数KR2
(=PRR2)は0.8となる。
Therefore, the right pixel arbitrary pixel delay FIF
The read address RADR1 for the first line memory 21a in O21 becomes 8 and the second line memory 2
The read address RADR2 for 1b is 9.
In addition, the first right image interpolation coefficient KR1 {= (1-PRR
2)} becomes 0.2, and the second right video interpolation coefficient KR2
(= PRR2) is 0.8.

【0177】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aのアドレス8から
Y信号(Y8 )が読み出され、第1乗算器111からは
読み出されたY信号(Y8 )の0.2倍の信号(0.2
*Y8 )が出力される。
Therefore, the right pixel arbitrary pixel delay FIF
The Y signal (Y 8 ) is read from the address 8 of the first line memory 21a in the O21, and the signal (0) that is 0.2 times the read Y signal (Y 8 ) is read from the first multiplier 111. .2
* Y 8 ) is output.

【0178】一方、右映像用任意画素遅延FIFO21
内の第2のラインメモリ21bのアドレス9からY信号
(Y9 )が読み出され、第2乗算器112からは読み出
されたY信号(Y9 )の0.8倍の信号(0.8*
9 )が出力される。そして、加算器113からは、
0.2*Y8 +0.8*Y9 に相当する右映像用Y信号
YR−OUTが出力される。つまり、読み出しアドレス
8.8に相当するY信号が、右映像用Y信号YR−OU
Tとして出力される。
On the other hand, the right image arbitrary pixel delay FIFO 21
Y signal from the address 9 of the second line memory 21b of the inner (Y 9) is read, 0.8 times the signal from the second multiplier 112 read Y signal (Y 9) (0. 8 *
Y 9 ) is output. Then, from the adder 113,
0.2 * Y 8 + 0.8 * Y signal for the right image corresponding to Y 9 YR-OUT is output. That is, the Y signal corresponding to the read address 8.8 is the Y signal YR-OU for the right image.
It is output as T.

【0179】この結果、11.2−8.8=2.4の視
差、つまり、視差情報1.2の2倍の視差を互いに有す
る左映像および右映像が得られる。
As a result, a left image and a right image having a parallax of 11.2-8.8 = 2.4, that is, a parallax twice as large as the parallax information 1.2 are obtained.

【0180】[0180]

【発明が解決しようとする課題】上記の静止画用2D/
3D映像変換方法では、一画面内での各領域間の視差量
が大きくなることがあるとともに、フィールド間での視
差量の変動が大きくなることがあり、このため、得られ
た3次元映像がみずらいという問題がある。
2D / for still images described above
In the 3D image conversion method, the amount of parallax between regions in one screen may be large, and the amount of parallax between fields may be large. There is a problem of being difficult.

【0181】この発明は、画像歪みの少ない3次元映像
が得られる2次元映像を3次元映像に変換する装置を提
供することを目的とする。
An object of the present invention is to provide a device for converting a two-dimensional image into a three-dimensional image, which can obtain a three-dimensional image with less image distortion.

【0182】[0182]

【課題を解決するための手段】この発明による第1の2
次元映像を3次元映像に変換する装置は、2次元入力映
像に基づいて、1フィールド画面内に設定された複数の
視差算出領域のそれぞれに対して映像の遠近に関する画
像特徴量を抽出し、抽出した画像特徴量に基づいて、各
視差算出領域ごとの奥行き情報を生成する奥行き情報生
成手段、予め設定された目標位相量のダイナミックレン
ジと奥行き情報生成手段によって生成された所定単位領
域ごとの奥行き情報とに基づいて、各視差算出領域に基
づいた所定単位領域の目標位相量を算出する目標位相量
算出手段、前記所定単位領域ごとに、前回の実位相量
基づき前記目標位相量算出手段にて算出した目標位相量
に徐々に近づくように今回の実位相量を求める実位相
量算出手段、ならびに2次元入力映像の各所定単位領域
内の信号から、その所定単位領域に対応する今回の実位
相量に応じた水平位相差を有する第1映像信号と第2映
像信号とをそれぞれ生成する位相制御手段、を備えてい
ることを特徴とする。
Means for Solving the Problems The first two according to the present invention
An apparatus for converting a three-dimensional image into a three-dimensional image extracts image feature amounts related to the perspective of the image for each of a plurality of parallax calculation regions set in a one-field screen based on the two-dimensional input image, and extracts the image feature amount. Based on the image feature amount, depth information generating means for generating depth information for each parallax calculation area, depth range for a predetermined target phase amount and depth information for each predetermined unit area generated by the depth information generating means Based on the
Target phase amount calculating means for calculating a target amount of phase Zui predetermined unit regions, for each of the predetermined unit regions, the actual phase of the previous
So as to approach gradually the target phase quantity calculated by said target phase amount calculating means based, the actual phase amount calculating means for determining an actual amount of phase current, and a signal of each predetermined unit area of the two-dimensional input image, the It is characterized by further comprising phase control means for respectively generating a first video signal and a second video signal having a horizontal phase difference corresponding to a current actual phase amount corresponding to a predetermined unit area.

【0183】この発明による第2の2次元映像を3次元
映像に変換する装置は、2次元入力映像に基づいて、1
フィールド画面内に設定された複数の視差算出領域のそ
れぞれに対して映像の遠近に関する画像特徴量を抽出
し、抽出した画像特徴量に基づいて、各視差算出領域ご
との奥行き情報を生成する奥行き情報生成手段、各隣接
領域間の奥行き情報の差のうちの最大値が基準値より大
きい場合には、予め設定された目標位相量のダイナミッ
クレンジが小さくなるように目標位相量のダイナミック
レンジを補正する補正手段、補正手段によって得られた
目標位相量のダイナミックレンジと奥行き情報生成手
段によって生成された各視差算出領域に基づいた所定単
位領域ごとの奥行き情報とに基づいて、各視差算出領域
ごとの目標位相量を算出する目標位相量算出手段、前記
所定単位領域ごとに、前回の実位相量に基づき前記目標
位相量算出手段にて算出した目標位相量に徐々に近づく
ように、今回の実位相量を求める実位相量算出手段、な
らびに2次元入力映像の各所定単位領域内の信号から、
その所定単位領域に対応する今回の実位相量に応じた水
平位相差を有する第1映像信号と第2映像信号とをそれ
ぞれ生成する位相制御手段、を備えていることを特徴と
する。
A device for converting a second two-dimensional image into a three-dimensional image according to the present invention is based on a two-dimensional input image.
Depth information that extracts the image feature amount related to the perspective of the video for each of the plurality of parallax calculation regions set in the field screen, and generates depth information for each parallax calculation region based on the extracted image feature amount When the maximum value of the difference in the depth information between the adjacent areas is larger than the reference value, the dynamic range of the target phase amount is corrected so that the preset dynamic range of the target phase amount becomes smaller. Based on the correction unit, the dynamic range of the target phase amount obtained by the correction unit, and the depth information for each predetermined unit region based on each parallax calculation region generated by the depth information generation unit, for each parallax calculation region target phase amount calculating means for calculating a target phase amount, the
For each predetermined unit area, the target based on the previous actual phase amount
Gradually approaches the target phase amount calculated by the phase amount calculation means
As described above, from the actual phase amount calculating means for obtaining the actual phase amount this time, and the signal in each predetermined unit area of the two-dimensional input image,
It is characterized by further comprising phase control means for respectively generating a first video signal and a second video signal having a horizontal phase difference corresponding to the current actual phase amount corresponding to the predetermined unit area.

【0184】この発明による第3の2次元映像を3次元
映像に変換する装置は、2次元入力映像に基づいて、基
準となる主映像および主映像に対して時間的に遅れた副
映像を生成し、主映像および副映像のうち、一方を左目
用映像として出力し、他方を右目用映像として出力する
映像変換手段、2次元入力映像が動画であるか、静止画
であるかを判定する動画/静止画判定手段、動画/静止
画判定手段の判定結果に基づいて、静止画比率を算出す
る静止画比率算出手段、2次元入力映像に基づいて、1
フィールド画面内に設定された複数の視差算出領域のそ
れぞれに対して映像の遠近に関する画像特徴量を抽出
し、抽出した画像特徴量に基づいて、各視差算出領域ご
との奥行き情報を生成する奥行き情報生成手段、予め設
定された目標位相量のダイナミックレンジに静止画比率
を乗算することにより、目標位相量のダイナミックレン
ジを補正する補正手段、補正手段によって得られた目標
位相量のダイナミックレンジと奥行き情報生成手段に
よって生成された各視差算出領域に基づいた所定単位領
域ごとの奥行き情報とに基づいて、各視差算出領域ごと
の目標位相量を算出する目標位相量算出手段、前記所定
単位領域ごとに、前回の実位相量に基づき前記目標位相
量算出手段にて算出した目標位相量に徐々に近づくよう
に、今回の実位相量を求める実位相量算出手段、ならび
に映像変換手段から出力される右目用映像および左目用
映像の各所定単位領域内の信号に対して、実位相量算出
手段によって得られた当該所定単位領域に対応する実位
相量に応じた水平位相制御を行う位相制御手段、を備え
ていることを特徴とする。
A third apparatus for converting a two-dimensional image into a three-dimensional image according to the present invention generates a reference main image and a sub-image delayed in time with respect to the main image, based on the two-dimensional input image. A video conversion unit that outputs one of the main video and the sub-video as a left-eye video and the other as a right-eye video, and a video for determining whether the two-dimensional input video is a video or a still video. / Still image ratio calculating means for calculating the still image ratio based on the determination results of the still image determining means and the moving image / still image determining means, and 1 based on the two-dimensional input image
Depth information that extracts the image feature amount related to the perspective of the video for each of the plurality of parallax calculation regions set in the field screen, and generates depth information for each parallax calculation region based on the extracted image feature amount generating means, by multiplying the still image ratio on the dynamic range of a preset target phase amount, correcting means for correcting the dynamic range of the target phase amount, the dynamic range of the target phase amount obtained by the correction means, the depth Target phase amount calculation means for calculating a target phase amount for each parallax calculation area based on depth information for each predetermined unit area based on each parallax calculation area generated by the information generation means, the predetermined
For each unit area, the target phase based on the previous actual phase amount
Gradually approach the target phase amount calculated by the amount calculation means
In addition, the actual phase amount calculating means for obtaining the actual phase amount at this time, and the signal in each predetermined unit area of the right-eye image and the left-eye image output from the image converting means are obtained by the actual phase amount calculating means In addition, a phase control unit that performs horizontal phase control according to the actual phase amount corresponding to the predetermined unit area is provided.

【0185】この発明による第4の2次元映像を3次元
映像に変換する装置は、2次元入力映像に基づいて、基
準となる主映像および主映像に対して時間的に遅れた副
映像を生成し、主映像および副映像のうち、一方を左目
用映像として出力し、他方を右目用映像として出力する
映像変換手段、2次元入力映像が動画であるか、静止画
であるかを判定する動画/静止画判定手段、動画/静止
画判定手段の判定結果に基づいて、静止画比率を算出す
る静止画比率算出手段、2次元入力映像に基づいて、1
フィールド画面内に設定された複数の視差算出領域のそ
れぞれに対して映像の遠近に関する画像特徴量を抽出
し、抽出した画像特徴量に基づいて、各視差算出領域ご
との奥行き情報を生成する奥行き情報生成手段、各隣接
領域間の奥行き情報の差のうちの最大値が基準値より大
きい場合には、予め設定された目標位相量のダイナミッ
クレンジが小さくなるように目標位相量のダイナミック
レンジを補正する第1補正手段、第1補正手段によって
得られた目標位相量のダイナミックレンジに静止画比率
を乗算することにより、目標位相量のダイナミックレン
ジを補正する第2補正手段、第2補正手段によって得ら
れた目標位相量のダイナミックレンジと奥行き情報生
成手段によって生成された各視差算出領域に基づいた
定単位領域ごとの奥行き情報とに基づいて、各視差算出
領域ごとの目標位相量を算出する目標位相量算出手段、
前記所定単位領域ごとに、前回の実位相量に基づき前記
目標位相量算出手段にて算出した目標位相量に徐々に近
づくように、今回の実位相量を求める実位相量算出手
段、ならびに映像変換手段から出力される右目用映像お
よび左目用映像の各所定単位領域内の信号に対して、実
位相量算出手段によって得られた当該所定単位領域に対
応する実位相量に応じた水平位相制御を行う位相制御手
段、を備えていることを特徴とする。
A fourth apparatus for converting a two-dimensional image into a three-dimensional image according to the present invention generates a reference main image and a sub-image delayed with respect to the main image based on the two-dimensional input image. A video conversion unit that outputs one of the main video and the sub-video as a left-eye video and the other as a right-eye video, and a video for determining whether the two-dimensional input video is a video or a still video. / Still image ratio calculating means for calculating the still image ratio based on the determination results of the still image determining means and the moving image / still image determining means, and 1 based on the two-dimensional input image
Depth information that extracts the image feature amount related to the perspective of the video for each of the plurality of parallax calculation regions set in the field screen, and generates depth information for each parallax calculation region based on the extracted image feature amount When the maximum value of the difference in the depth information between the adjacent areas is larger than the reference value, the dynamic range of the target phase amount is corrected so that the preset dynamic range of the target phase amount becomes smaller. The first correction unit and the second correction unit and the second correction unit correct the dynamic range of the target phase amount by multiplying the dynamic range of the target phase amount obtained by the first correction unit by the still image ratio. and the dynamic range of the target phase amount, <br/> place based on the parallax calculation regions generated by the depth information generating unit constant unit per area Based on the depth information, the target phase amount calculating means for calculating a target phase of each parallax calculation region,
For each of the predetermined unit areas, based on the previous actual phase amount,
Gradually approaches the target phase amount calculated by the target phase amount calculation means.
As described below, the actual phase amount calculating means for obtaining the actual phase amount this time, and the signal in each predetermined unit area of the right eye image and the left eye image output from the image converting means Phase control means for performing horizontal phase control according to the obtained actual phase amount corresponding to the predetermined unit area is provided.

【0186】上記静止画比率算出手段としては、たとえ
ば、動画/静止画判定手段によって2次元入力映像が動
画であると判定されたときには静止画比率として0を設
定し、2次元入力映像が静止画であると判定されたとき
には静止画比率として100を設定する手段、ならびに
設定された静止画比率をフィールド間で平滑化する手段
を備えているものが用いられる。
As the still picture ratio calculating means, for example, when the moving picture / still picture judging means judges that the two-dimensional input video is a moving picture, 0 is set as the still picture ratio, and the two-dimensional input picture is a still picture. If it is determined that the ratio is 100, a unit having means for setting 100 as the still image ratio and a means for smoothing the set still image ratio between fields are used.

【0187】上記実位相量算出手段としては、たとえ
ば、2次元入力映像に基づいて各視差算出領域の映像の
動き量を算出し、映像の動き量が大きい視差算出領域ほ
ど、その領域の実位相量がより早くその領域の目標位相
量に近づくように、各視差算出領域ごとの今回の実位相
量を算出し、得られた各視差算出領域ごとの今回の実位
相量に基づいて、1フィールド画面内の所定単位領域ご
との今回の実位相量を求めるものが用いられる。
As the actual phase amount calculating means, for example, the amount of motion of the image in each parallax calculation region is calculated based on the two-dimensional input image, and the actual phase of the region is larger as the amount of motion of the image is larger. The actual phase amount of this time for each parallax calculation region is calculated so that the amount approaches the target phase amount of that region faster, and one field is calculated based on the obtained actual phase amount of each parallax calculation region. The one that finds the actual phase amount this time for each predetermined unit area in the screen is used.

【0188】[0188]

【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0189】図35は、2D/3D映像変換装置の構成
を示している。
FIG. 35 shows the structure of a 2D / 3D video conversion device.

【0190】2D/3D映像変換装置は、集積回路(L
SI)510と、集積回路510に接続された複数のフ
ィールドメモリ521〜524と、CPU530とから
構成されている。
The 2D / 3D video converter is an integrated circuit (L
SI) 510, a plurality of field memories 521 to 524 connected to the integrated circuit 510, and a CPU 530.

【0191】集積回路510は、動きベクトル検出回路
511、各種画面内データ算出回路512、メモリ制御
部513、右目用映像選択回路514、左目用映像選択
回路515、右目用視差生成回路516、左目用視差生
成回路517、視差制御回路518、CPUインタフェ
ース519等を備えている。
The integrated circuit 510 includes a motion vector detection circuit 511, various in-screen data calculation circuits 512, a memory control section 513, a right-eye image selection circuit 514, a left-eye image selection circuit 515, a right-eye parallax generation circuit 516, a left-eye image generation circuit. A parallax generation circuit 517, a parallax control circuit 518, a CPU interface 519 and the like are provided.

【0192】動きベクトル検出回路511は、代表点マ
ッチング法に基づいて、1フィールド毎に動きベクトル
を検出する。動きベクトル検出回路511によって検出
された動きベクトルは、CPUインタフェース519を
介して、CPU530に送られる。
The motion vector detection circuit 511 detects a motion vector for each field based on the representative point matching method. The motion vector detected by the motion vector detection circuit 511 is sent to the CPU 530 via the CPU interface 519.

【0193】各種画面内データ算出回路512は、図1
の高周波成分積算回路8、輝度コントラスト算出回路
9、R−Y成分積算回路31およびB−Y成分積算回路
32を含んでおり、各フィールドごとに、1フィールド
画面内に設定された複数個の視差算出領域のそれぞれに
対して、映像の遠近に関する画像特徴量を算出するもの
である。
The in-screen data calculation circuit 512 is shown in FIG.
The high-frequency component integrating circuit 8, the brightness contrast calculating circuit 9, the RY component integrating circuit 31, and the BY component integrating circuit 32 are included, and a plurality of parallaxes set in one field screen for each field. The image feature amount relating to the perspective of the image is calculated for each of the calculation regions.

【0194】高周波成分積算回路8は、1フィールド毎
に、図2に示すように、1フィールド画面内に予め設定
された複数個の視差算出領域E1〜E12それぞれに対
する高周波成分の積算値を算出する。輝度コントラスト
算出回路9は、1フィールド毎に、各視差算出領域E1
〜E12それぞれに対する輝度コントラストを算出す
る。R−Y成分積算回路31は、1フィールド毎に、各
視差算出領域E1〜E12それぞれに対するR−Y成分
の積算値を算出する。B−Y成分積算回路32は、1フ
ィールド毎に、各視差算出領域E1〜E12それぞれに
対するB−Y成分の積算値を算出する。各種画面内デー
タ算出回路512によって算出された映像の遠近に関す
る画像特徴量は、CPUインタフェース519を介し
て、CPU530に送られる。
The high-frequency component integrating circuit 8 calculates the integrated value of the high-frequency components for each of the plurality of parallax calculation areas E1 to E12 preset in the one-field screen, as shown in FIG. 2, for each field. . The brightness contrast calculation circuit 9 is configured to detect each parallax calculation area E1 for each field.
The brightness contrast for each of E12 to E12 is calculated. The RY component integrating circuit 31 calculates the integrated value of the RY components for each of the parallax calculation regions E1 to E12 for each field. The BY component integration circuit 32 calculates the integrated value of the BY component for each of the parallax calculation regions E1 to E12 for each field. The image feature amount relating to the perspective of the image calculated by the various in-screen data calculation circuit 512 is sent to the CPU 530 via the CPU interface 519.

【0195】図36は、CPU530によって実行され
る処理を示している。
FIG. 36 shows the processing executed by the CPU 530.

【0196】CPU530は、動きベクトル検出回路5
11によって検出された動きベクトルの水平成分に基づ
いて、1フィールド毎に、動画用2D/3D映像変換方
法に用いられる遅延量を算出する(ステップ11)。こ
の際、CPU530は、動きベクトルの水平成分の方向
(右または左)に基づいて、動画用2D/3D映像変換
方法における基準となる主映像と主映像に対して時間的
に遅延した副映像とのうち、いずれを左目用映像とし、
いずれを右目用映像とするかを決定し、この決定結果を
遅延量の符号(正負)として反映せしめる。
The CPU 530 is the motion vector detecting circuit 5
Based on the horizontal component of the motion vector detected by 11, the delay amount used in the moving image 2D / 3D image conversion method is calculated for each field (step 11). At this time, the CPU 530 determines, based on the direction (right or left) of the horizontal component of the motion vector, a main image that serves as a reference in the moving image 2D / 3D image conversion method and a sub image that is temporally delayed with respect to the main image. Which of these is the image for the left eye,
Which one is to be the image for the right eye is determined, and the result of this determination is reflected as the sign (positive or negative) of the delay amount.

【0197】遅延量の決定方法としては、たとえば、特
開平8−149513号公報の図3に示されているアル
ゴリズムを用いることができる。なお、フィールド間で
の遅延量の変動を小さくするために、特開平8−149
513号公報の図3に示されているアルゴリズムを用い
て得られた遅延量に対して平滑化処理を行うようにして
もよい。CPU530によって算出された遅延量は、メ
モリ制御部513に送られる。
As a method of determining the delay amount, for example, the algorithm shown in FIG. 3 of Japanese Patent Laid-Open No. 8-149513 can be used. It should be noted that, in order to reduce the variation in the delay amount between fields, the method disclosed in Japanese Patent Laid-Open No. 8-149
The smoothing process may be performed on the delay amount obtained by using the algorithm shown in FIG. The delay amount calculated by the CPU 530 is sent to the memory control unit 513.

【0198】また、CPU530は、各種画面内データ
算出回路512によって算出された映像の遠近に関する
画像特徴量に基づいて、1フィールド毎に、1フィール
ド画面内の視差算出領域ごとの奥行き情報を算出する
(ステップ12)。奥行き情報の算出方法としては、図
12のステップ1〜8のアルゴリズムを用いることがで
きる。
Further, the CPU 530 calculates depth information for each field for each parallax calculation region in each field based on the image feature amount relating to the perspective of the image calculated by the various in-screen data calculation circuit 512. (Step 12). As a method of calculating the depth information, the algorithm of steps 1 to 8 in FIG. 12 can be used.

【0199】さらに、CPU530は、動きベクトル検
出回路511によって検出された動きベクトルの水平成
分に基づいて、1フィールド毎に、現フィールドが動き
のある映像(動画)であるか、現フィールドが動きのな
い映像(静止画)であるかを判定する(ステップ1
3)。動画であると判定された場合には、静止画比率を
0に設定する(ステップ14)。静止画であると判定さ
れた場合には、静止画比率を100に設定する(ステッ
プ15)。そして、フィールド間での静止画比率の変動
を小さくするために、静止画比率の平滑化処理が行われ
る(ステップ16)。この静止画比率の平滑化処理とし
ては、本願の出願人によって既に提案されている特願平
9−253878号に記載の技術で実現可能である。
Further, based on the horizontal component of the motion vector detected by the motion vector detection circuit 511, the CPU 530, for each field, shows that the current field is a moving image (moving image) or the current field is moving. Determine if there is no video (still image) (Step 1
3). If it is determined to be a moving image, the still image ratio is set to 0 (step 14). When it is determined that the image is a still image, the still image ratio is set to 100 (step 15). Then, in order to reduce the fluctuation of the still image ratio between fields, the still image ratio smoothing process is performed (step 16). As a smoothing process of this still image ratio
Japanese Patent Application No.
It can be realized by the technique described in 9-253878.

【0200】静止画比率の平滑化処理は、実際はソフト
ウエアによって実行されるが、説明の便宜上、図38の
ブロック図を用いて説明する。
The still image ratio smoothing process is actually executed by software, but for convenience of description, it will be described using the block diagram of FIG.

【0201】つまり、ステップ14または15で静止画
比率が設定されると、設定された静止画比率に乗算器6
01によって係数Kが乗算される。この係数としては、
たとえば、1/4、1/8、1/16等の値に設定され
る。この乗算結果は、加算器602に送られる。
That is, when the still image ratio is set in step 14 or 15, the multiplier 6 is added to the set still image ratio.
The coefficient K is multiplied by 01. As this coefficient,
For example, it is set to a value such as 1/4, 1/8, 1/16. The multiplication result is sent to the adder 602.

【0202】加算器602には、遅延メモリ603およ
び係数(1−K)を乗算する乗算器604によって加算
器602に供給される、1つ前のフィールドにおける加
算器602の加算結果に(1−K)が乗算された値が送
られる。このため、加算器602では、今回設定された
静止画比率に係数Kが乗算された値と、遅延メモリ60
3および係数(1−K)を乗算する乗算器604によっ
て加算器602に供給される、1つ前のフィールドにお
ける加算器602の加算結果に(1−K)が乗算された
値とが加算される。
The adder 602 is supplied to the adder 602 by the delay memory 603 and the multiplier 604 that multiplies the coefficient (1-K), and the addition result of the adder 602 in the previous field is (1- The value multiplied by K) is sent. Therefore, in the adder 602, the still image ratio set this time is multiplied by the coefficient K and the delay memory 60
3 and a value obtained by adding (1-K) to the addition result of the adder 602 in the immediately preceding field, which is supplied to the adder 602 by the multiplier 604 that multiplies the coefficient (1-K). It

【0203】この加算結果は、遅延メモリ603に格納
される。遅延メモリ603に格納された加算結果は、次
のフィールドにおいて、平滑化処理後の静止画比率とし
て出力される。
The result of this addition is stored in the delay memory 603. The addition result stored in the delay memory 603 is output as the still image ratio after the smoothing process in the next field.

【0204】このような静止画比率の平滑化処理によれ
ば、入力映像が動画と静止画との間で切り替わっても、
平滑化処理後の静止画比率はフィールド間で徐々に変化
する。
According to such a still image ratio smoothing process, even if the input image is switched between a moving image and a still image,
The still image ratio after the smoothing process gradually changes between fields.

【0205】さらに、CPU530は、奥行き情報算出
処理によって得られた1フィールド画面内の各視差算出
領域ごとの奥行き情報に基づいて、各視差算出領域ごと
の位相量を算出する位相量算出処理を行う(ステップ1
7)。
Further, the CPU 530 performs a phase amount calculation process for calculating a phase amount for each parallax calculation region based on the depth information for each parallax calculation region in the one-field screen obtained by the depth information calculation process. (Step 1
7).

【0206】図37は、位相量算出処理手順を示してい
る。
FIG. 37 shows the phase amount calculation processing procedure.

【0207】ここでは、奥行き情報は、0(奥)〜10
0(手前)の範囲内で生成されているものとする。図1
2のステップ1〜8のアルゴリズムによって得られた1
フィールド画面内の各視差算出領域ごとの奥行き情報を
目標位相量に変換する方法としては、次のような方法が
考えられる。
Here, the depth information is 0 (back) to 10
It is assumed that it is generated within the range of 0 (front). Figure 1
1 obtained by the algorithm of steps 1 to 8 of 2
The following method can be considered as a method of converting the depth information for each parallax calculation region in the field screen into the target phase amount.

【0208】位相量は、管面より前に映像を飛び出させ
る場合の目標位相量の限界値をfront 〔画素〕、管面よ
り奥に映像を引っ込ます場合の目標位相量の限界値をre
ar〔画素〕とすると、位相のダイナミックレンジはfron
t − rear 〔画素〕となる。このfront 〔画素〕の値
は、たとえば、10〔画素〕であり、rear〔画素〕の値
は、たとえば、−10〔画素〕である。front 〔画素〕
およびrear〔画素〕の値としては、ユーザがボリューム
によって設定した値が用いられる。
As for the phase amount, the limit value of the target phase amount when the image is projected in front of the tube surface is front [pixels], and the limit value of the target phase amount when the image is retracted behind the tube surface is re.
If ar [pixels], then the dynamic range of the phase is fron
t-rear [pixel]. The value of front [pixel] is, for example, 10 [pixel], and the value of rear [pixel] is, for example, −10 [pixel]. front [pixel]
The values set by the user by the volume are used as the values of and rear [pixels].

【0209】奥行き情報をdepth とし、目標位相量をtp
haseとすると、目標位相量tphaseは、次の数式8で表さ
れる。
[0209] The depth information is depth, and the target phase amount is tp
Assuming hase, the target phase amount tphase is expressed by the following formula 8.

【0210】[0210]

【数8】 [Equation 8]

【0211】上記数式8により、ダイナミックレンジ
(front − rear )が大きくなってくると、目標位相量
が大きくなることが分かる。目標位相量が大きくなる
と、必然的に隣接する視差算出領域間の位相差が大きく
なることは明らかである。隣接領域間の位相差が大きく
なると、それらの領域間において画像の歪みが大きくな
る。
From the above equation 8, it can be seen that the target phase amount increases as the dynamic range (front-rear) increases. Obviously, the larger the target phase amount, the larger the phase difference between the adjacent parallax calculation regions. As the phase difference between adjacent regions increases, the image distortion increases between those regions.

【0212】そこで、位相量算出処理では、このような
歪みを補正するための歪み補正処理が行われる(ステッ
プ21)。
Therefore, in the phase amount calculation processing, distortion correction processing for correcting such distortion is performed (step 21).

【0213】歪み補正処理においては、隣接領域間の位
相差の最大値が所定値PHASETH 以上であれば、位相差を
小さくするために、目標位相量のダイナミックレンジが
変更せしめられる。
In the distortion correction process, if the maximum value of the phase difference between adjacent regions is equal to or larger than the predetermined value PHASETH, the dynamic range of the target phase amount is changed in order to reduce the phase difference.

【0214】実際には、各隣接領域間の奥行き情報の差
のうちの最大値dvmax が所定値DEPTHTH 以上で有る場合
に、ユーザによって設定された目標位相量のダイナミッ
クレンジdvrange (=front − rear )が変更せしめら
れる。
[0214] Actually, when the maximum value dvmax of the depth information differences between adjacent areas is equal to or greater than the predetermined value DEPTHTH, the dynamic range dvrange (= front-rear) of the target phase amount set by the user. Can be changed.

【0215】所定値DEPTHTH は、次の数式9により求め
られる。
The predetermined value DEPTHTH is calculated by the following expression 9.

【0216】[0216]

【数9】 [Equation 9]

【0217】各隣接領域間の奥行き情報の差のうちの最
大値dvmax が所定値DEPTHTH 以上で有る場合には、次の
数式10によって目標位相量のダイナミックレンジdvra
ngeが変更せしめられる。
If the maximum value dvmax of the differences in depth information between adjacent areas is greater than or equal to the predetermined value DEPTHTH, the dynamic range dvra of the target phase amount is calculated by the following expression 10.
nge can be changed.

【0218】[0218]

【数10】 [Equation 10]

【0219】数式10において、dvrange'は、歪み補正
により補正された後のダイナミックレンジである。ま
た、front'および rear'は、それぞれ歪み補正により補
正された後の、管面より前に映像を飛び出させる場合の
目標位相量の限界値および管面より奥に映像を引っ込ま
す場合の目標位相量の限界値であり、次の数式11によ
り定義される。
In Expression 10, dvrange 'is the dynamic range after being corrected by the distortion correction. Also, front 'and rear' are the target phase amount limit values when projecting the image in front of the tube surface and the target phase when retracting the image behind the tube surface after being corrected by distortion correction, respectively. This is the limit value of the quantity and is defined by the following formula 11.

【0220】[0220]

【数11】 [Equation 11]

【0221】なお、上記の例では、所定値DEPTHTH は固
定値であるが、図39に示すように、ユーザによって設
定されたダイナミックレンジdvrange が大きくなるほ
ど、小さくなる可変値としてもよい。このようにする
と、ユーザによって設定されたダイナミックレンジdvra
nge に最適な立体感を提供することが可能となる。図3
9において、ユーザによって設定されたダイナミックレ
ンジdvrange が小さいときにDEPTHTH が飽和しているの
は、ユーザによって設定されたダイナミックレンジdvra
nge が小さい場合には隣接領域間の奥行き情報の差が大
きくても画像の歪みが認知されにくいからである。
In the above example, the predetermined value DEPTHTH is a fixed value, but as shown in FIG. 39, it may be a variable value that decreases as the dynamic range dvrange set by the user increases. This will set the dynamic range dvra set by the user.
It is possible to provide an optimal stereoscopic effect for nge. Figure 3
In Fig. 9, DEPTHTH is saturated when the dynamic range dvrange set by the user is small because the dynamic range dvra set by the user is large.
This is because when nge is small, image distortion is difficult to be recognized even if the difference in depth information between adjacent regions is large.

【0222】歪み補正処理が行われると、次に、上記ス
テップ16によって得られた静止画比率に基づく補正処
理(以下、比率補正処理という)が行われる(ステップ
22)。
When the distortion correction process is performed, a correction process based on the still image ratio obtained in step 16 (hereinafter referred to as a ratio correction process) is then performed (step 22).

【0223】上記ステップ16によって得られた静止画
比率をrateとすると、歪み補正処理によって得られたdv
range'、front'および rear'は、次の数式12によっ
て、dvrange'' 、front'' および rear'' に変換せしめ
られる。
If the still image ratio obtained in step 16 above is rate, the dv obtained by the distortion correction process is calculated.
Range ', front', and rear 'are converted into dvrange'',front'', and rear''by the following formula 12.

【0224】[0224]

【数12】 [Equation 12]

【0225】なお、上記ステップ21の歪み補正に用い
られる数式10、11におけるDEPTHTH の代わりに、次
の数式13で表される、静止画比率rateを考慮したDEPT
HTH'' を用いてもよい。
It should be noted that instead of DEPTHTH in the equations 10 and 11 used for the distortion correction in the step 21, the DEPT considering the still image ratio rate represented by the following equation 13 is used.
HTH '' may be used.

【0226】[0226]

【数13】 [Equation 13]

【0227】歪み補正処理および比率補正処理が終了す
ると、目標位相量算出処理が行われる(ステップ2
3)。つまり、比率補正処理の後に得られたダイナミッ
クレンジdvrange'' (=front'' − rear'' )を用い
て、次の数式14により、各奥行き情報depth が目標位
相量tphaseに変換せしめられる。
When the distortion correction process and the ratio correction process are completed, the target phase amount calculation process is performed (step 2).
3). That is, using the dynamic range dvrange ″ (= front ″ −rear ″) obtained after the ratio correction processing, each depth information depth is converted into the target phase amount tphase by the following Expression 14.

【0228】[0228]

【数14】 [Equation 14]

【0229】このようにして得られた目標位相量tphase
は、奥行き情報の生成処理、歪み補正処理および比率補
正処理の影響をまともに受けるため、その値は非常に変
動しやすくなる。この変動を緩和するために、位相変動
抑圧処理が行われる(ステップ24)。
[0229] The target phase amount tphase thus obtained
Is directly affected by the depth information generation process, the distortion correction process, and the ratio correction process, so that its value is very likely to change. In order to alleviate this fluctuation, phase fluctuation suppression processing is performed (step 24).

【0230】位相変動抑圧処理においては、各視差算出
領域毎の目標位相量tphaseと、各視差算出領域毎の実際
の位相量(実位相量)phase との大小比較が行われ、差
異がある場合には所定の位相量変動量VT( >0)分だけ
実位相量に加減算が行われる。つまり、所定値VT( >
0)分ずつ実位相量が目標位相量に近づけられる。
In the phase fluctuation suppression processing, the target phase amount tphase for each parallax calculation region and the actual phase amount (actual phase amount) phase for each parallax calculation region are compared, and if there is a difference, In addition, the actual phase amount is added / subtracted by a predetermined phase amount variation amount VT (> 0). That is, the predetermined value VT (>
The actual phase amount is brought closer to the target phase amount by 0) minutes.

【0231】位相変動抑圧処理の内容は、次の数式15
の条件式によって表される。
The contents of the phase fluctuation suppression processing are as shown in the following mathematical formula 15.
It is represented by the conditional expression.

【0232】[0232]

【数15】 [Equation 15]

【0233】所定値VTとしては、たとえば1/32〔画
素〕程度が好ましい。所定値VT=1/32〔画素〕であ
る場合には、位相量を1〔画素〕変化させるためには、
32フィールドかかることになる。
The predetermined value VT is preferably about 1/32 [pixel], for example. When the predetermined value VT = 1/32 [pixel], in order to change the phase amount by 1 [pixel],
It will take 32 fields.

【0234】上記の例では、位相変動抑圧処理に用いら
れる所定値VTは固定値であるが、図40に示すように静
止画比率rateが50%程度のときにVTが最大となるよう
にVTを可変としてもよいし、図41に示すように目標位
相量tphaseと実位相量phaseとの差の絶対値が大きいほ
どVTが大きくなるようにVTを可変としてもよい。
In the above example, the predetermined value VT used for the phase fluctuation suppression processing is a fixed value, but as shown in FIG. 40, VT is maximized when the still image ratio rate is about 50%. 41 may be variable, or as shown in FIG. 41, VT may be variable such that VT increases as the absolute value of the difference between the target phase amount tphase and the actual phase amount phase increases.

【0235】図40および図41において、BASEはVTの
下限値であり、MAX はVTの上限値である。VTに上限値を
規定しているのは、VTを大きくしすぎると、実位相量の
変動に応じて画像が歪んで行く様子を観察者が認知して
しまうからである。VTを1〔画素〕以上に設定すると、
画像が歪んで行く様子が観察者に認知されることが多
い。
40 and 41, BASE is the lower limit value of VT and MAX is the upper limit value of VT. The upper limit of VT is specified because if the VT is made too large, the observer will perceive that the image is distorted according to the fluctuation of the actual phase amount. When VT is set to 1 [pixel] or more,
An observer often recognizes that the image is distorted.

【0236】さらに、各視差算出領域毎に、各視差算出
領域の画像の動きに応じてVTを変更するようにしてもよ
い。つまり、各視差算出領域毎に画像の動き量を検出
し、図42に示すように、画像の動き量が大きい領域ほ
どVTを大きくする。画像の動き量が大きい領域ほどVTを
大きくしているのは、動きのない映像に比べて、動きの
ある映像の方が、画像の歪んで行く過程が認知され難い
からである。
Further, VT may be changed for each parallax calculation region in accordance with the movement of the image in each parallax calculation region. That is, the amount of movement of the image is detected for each parallax calculation region, and as shown in FIG. 42, VT is increased in the region where the amount of movement of the image is large. The reason why the VT is made larger in the region where the amount of motion of the image is larger is that it is difficult to recognize the distorting process of the image in the moving image as compared with the image without moving.

【0237】また、図42に示すように画像の動き量が
大きい領域ほどVTを大きくする方法によれば、画質の劣
化が起こりやすい動画領域においてより早く実位相量を
0にすることが可能となる。これは、位相制御により、
画像を歪ませる際に発生する解像度劣化を、動画領域に
おいてより迅速に解消することを意味する。一般に立体
感は、解像度が高いほど大きいので、動画領域の立体感
の向上が図れるようになる。
Further, as shown in FIG. 42, according to the method of increasing the VT in the region where the amount of movement of the image is large, it is possible to set the actual phase amount to 0 earlier in the moving image region where the deterioration of the image quality is likely to occur. Become. This is due to the phase control
This means that resolution deterioration that occurs when the image is distorted is eliminated more quickly in the moving image area. Generally, the higher the resolution, the greater the three-dimensional effect, so that the three-dimensional effect in the moving image area can be improved.

【0238】通常時においては、位相変動抑圧処理によ
って得られた各視差算出領域ごとの実位相量phase が視
差制御回路518に送られる。
In normal times, the actual phase amount phase for each parallax calculation area obtained by the phase fluctuation suppression processing is sent to the parallax control circuit 518.

【0239】ただし、シーンチェンジがあったときに
は、シーンチェンジ検出および制御処理によって、奥行
き情報、目標位相量tphase、実位相量phase およびVTが
次のように制御される(ステップ25)。
However, when there is a scene change, the depth information, the target phase amount tphase, the actual phase amount phase and VT are controlled as follows by the scene change detection and control processing (step 25).

【0240】つまり、シーンチェンジが検出されると、
奥行き情報、目標位相量tphase、および実位相量phase
が強制的にゼロリセットされる。つまり、奥行き情報、
目標位相量tphase、および実位相量phase が零にされ
る。シーンチェンジの検出方法としては、たとえば、特
開平8−149514号公報に開示されている方法を用
いることができる。
[0240] That is, when a scene change is detected,
Depth information, target phase amount tphase, and actual phase amount phase
Is forcibly reset to zero. That is, depth information,
The target phase amount tphase and the actual phase amount phase are set to zero. As a method for detecting a scene change, for example, the method disclosed in Japanese Patent Laid-Open No. 8-149514 can be used.

【0241】シーンチェンジから目標位相量決定までの
所要時間が数フィールド未満というシステムにおいて
は、シーンチェンジ直後に最初に決定された目標位相量
が実位相量に設定される。
In a system in which the time required from the scene change to the determination of the target phase amount is less than several fields, the target phase amount initially determined immediately after the scene change is set as the actual phase amount.

【0242】シーンチェンジから目標位相量決定までの
所要時間が数フィールド以上というシステムにおいて
は、実位相量は所定値VTに応じて徐々に目標位相量に近
づくことになる。しかし、位相変動抑圧処理に用いられ
るVTの値が小さい場合には、シーンチェンジ後に、立体
感が得られるまでに時間がかかるため、シーンチェンジ
検出後の数十フィールド期間においては、ステップ24
の位相変動抑圧処理に用いられるVTが通常時のVTより大
きな値に設定せしめられる。
In a system in which the time required from the scene change to the determination of the target phase amount is several fields or more, the actual phase amount gradually approaches the target phase amount according to the predetermined value VT. However, when the value of VT used for the phase fluctuation suppression process is small, it takes time until a stereoscopic effect is obtained after the scene change.
The VT used for the phase fluctuation suppression processing of is set to a value larger than the VT under normal conditions.

【0243】図35に示すメモリ制御部513は、CP
U530から送られてきた遅延量に基づいて、入力映像
を書き込むべきフィールドメモリおよび映像信号を読み
出すべきフィールドメモリを決定する。また、メモリ制
御部513は、遅延量の符号に基づいて、右目用映像選
択回路514および左目用映像選択回路515に選択制
御信号を出力する。
The memory control unit 513 shown in FIG.
Based on the delay amount sent from U530, the field memory to write the input video and the field memory to read the video signal are determined. The memory control unit 513 also outputs a selection control signal to the right-eye video selection circuit 514 and the left-eye video selection circuit 515 based on the sign of the delay amount.

【0244】ここでは、説明の便宜上、入力映像そのも
のを主映像とし、フィールドメモリから読み出される映
像を主映像に対して時間的に遅延された副映像であると
する。主映像は、右目用映像選択回路514の第1入力
端子および左目用映像選択回路515の第1入力端子に
送られる。副映像は、右目用映像選択回路514の第2
入力端子および左目用映像選択回路515の第2入力端
子に送られる。
Here, for convenience of explanation, it is assumed that the input video itself is the main video and the video read from the field memory is the sub-video delayed with respect to the main video. The main image is sent to the first input terminal of the right-eye image selection circuit 514 and the first input terminal of the left-eye image selection circuit 515. The sub-picture is the second picture of the right-eye picture selection circuit 514.
It is sent to the input terminal and the second input terminal of the left-eye image selection circuit 515.

【0245】各選択回路514、515は、メモリ制御
部513からの選択制御信号に基づいて、第1および第
2入力端子に入力されている映像信号のうち、一方を選
択して出力する。これにより、両選択回路514、51
5のうち、一方から主映像が出力され、他方から副映像
が出力される。
Each of the selection circuits 514 and 515 selects and outputs one of the video signals input to the first and second input terminals based on the selection control signal from the memory control unit 513. As a result, both selection circuits 514, 51
One of the 5 outputs the main video and the other outputs the sub video.

【0246】図35に示す視差制御回路518は、CP
U530から得られた各視差算出領域ごとの実位相量ph
ase に基づいて各画素ごとの実位相量を生成する。図3
5に示す視差制御回路518は、図1の視差制御回路4
に相当する回路であり、より具体的には図28に符号7
01で示す部分に相当する回路である。ただし、図35
の視差制御回路518には、上述した位相量算出処理
(図38参照)によって得られた各視差算出領域ごとの
実位相量phase が入力される点が、図1の視差制御回路
4と異なっている。この点を除いては、図35に示す視
差制御回路518の動作は、図28に符号701で示す
部分に相当する回路の動作と同じなので、その説明を省
略する。
The parallax control circuit 518 shown in FIG.
Actual phase amount ph for each parallax calculation region obtained from U530
The actual phase amount for each pixel is generated based on ase. Figure 3
The parallax control circuit 518 shown in FIG.
28, and more specifically, a circuit 7
This is a circuit corresponding to the part indicated by 01. However, in FIG.
1 is different from the parallax control circuit 4 of FIG. 1 in that the actual phase amount phase for each parallax calculation region obtained by the above-described phase amount calculation processing (see FIG. 38) is input to the parallax control circuit 518 of FIG. There is. Except for this point, the operation of the parallax control circuit 518 shown in FIG. 35 is the same as the operation of the circuit corresponding to the portion indicated by reference numeral 701 in FIG. 28, and therefore description thereof will be omitted.

【0247】また、図35に示す右目用視差生成回路5
16および左目用視差生成回路517は、動画用2D/
3D映像変換方法によって得られた右目用映像信号およ
び左目用映像信号の各画素に対して、視差制御回路51
8によって得られたその画素に対応する実位相量に応じ
た水平位相制御を行う。
Also, the right-eye parallax generation circuit 5 shown in FIG.
16 and the parallax generation circuit 517 for the left eye are 2D / for moving images.
For each pixel of the right-eye video signal and the left-eye video signal obtained by the 3D video conversion method, the parallax control circuit 51 is provided.
The horizontal phase control is performed according to the actual phase amount corresponding to the pixel obtained in step 8.

【0248】図35に示す右目用視差生成回路516
は、図28に符号702で示す回路に相当し、図35に
示す左目用視差生成回路517は、図28に符号703
で示す回路に相当する。ただし、図35に示す右目用視
差生成回路516に入力される映像信号は、動画用2D
/3D映像変換方法によって得られた右目用映像信号お
よび左目用映像信号である点が、図28に符号702、
703で示されている回路に入力される映像信号と異な
っている。その点を除いては、図35に示す右目用視差
生成回路516の動作は、図28に符号702で示す回
路の動作と同じであり、図35に示す左目用視差生成回
路517の動作は、図28に符号703で示す回路の動
作と同じなので、その詳細な説明を省略する。
The right-eye parallax generation circuit 516 shown in FIG.
28 corresponds to the circuit denoted by reference numeral 702, and the left-eye parallax generation circuit 517 shown in FIG. 35 is denoted by reference numeral 703 in FIG.
Corresponds to the circuit indicated by. However, the video signal input to the parallax generation circuit 516 for the right eye shown in FIG.
In FIG. 28, reference numeral 702 denotes a right-eye video signal and a left-eye video signal obtained by the 3D video conversion method.
It is different from the video signal input to the circuit indicated by 703. Except for that point, the operation of the right-eye parallax generation circuit 516 shown in FIG. 35 is the same as the operation of the circuit shown by reference numeral 702 in FIG. 28, and the operation of the left-eye parallax generation circuit 517 shown in FIG. Since the operation is the same as that of the circuit denoted by reference numeral 703 in FIG. 28, detailed description thereof will be omitted.

【0249】上記実施の形態では、常に、動画用2D/
3D映像変換方法によって右目用映像および左目用映像
とが生成されている。そして、動画用2D/3D映像変
換方法によって生成された右目用映像および左目用映像
に対して、静止画用2D/3D映像変換方法と基本的に
は同様な考え方によって生成された画素毎の実位相量に
基づく位相制御が行われている。
In the above embodiment, 2D / for moving images is always
The right-eye image and the left-eye image are generated by the 3D image conversion method. Then, with respect to the right-eye video and left-eye video generated by the moving-picture 2D / 3D video conversion method, the actual pixel-by-pixel realization generated by the same idea as the still-picture 2D / 3D video conversion method. Phase control is performed based on the phase amount.

【0250】この実施の形態では、歪み補正処理(図3
7のステップ21参照)によって、1画面内の各視差算
出領域間において画像歪みが生じない大きさに目標位相
量の大きさが決定される。また、比率補正処理(図37
のステップ22参照)によって目標位相量は、静止画比
率が小さいときには小さくなるように決定される。さら
に、位相変動抑圧処理(図37のステップ24参照)に
よって、フィールド間において画像歪みが生じないよう
に実位相量が決定される。このため、最終的に得られた
3次元映像が見やすくなる。なお、歪み補正処理(図3
7のステップ21参照)を省略してもよい。
In this embodiment, the distortion correction processing (see FIG.
In step 21 of 7), the size of the target phase amount is determined such that image distortion does not occur between the parallax calculation regions in one screen. In addition, the ratio correction process (see FIG.
The target phase amount is determined to be small when the still image ratio is small by the step 22). Furthermore, the actual phase amount is determined by the phase fluctuation suppression process (see step 24 in FIG. 37) so that image distortion does not occur between fields. Therefore, the finally obtained three-dimensional image becomes easy to see. Note that the distortion correction process (see FIG.
Step 21 of 7) may be omitted.

【0251】上記実施の形態では、動画用2D/3D映
像変換方法によって生成された右目用映像および左目用
映像とに対して、実位相量に基づく位相制御が行われて
いるが、動画用2D/3D映像変換方法による2D/3
D変換処理を行わずに、2次元入力信号に対して実位相
量に基づく位相制御のみを行うようにしてもよい。この
場合には、比率補正処理(図37のステップ22参照)
は省略される。また、この場合に、歪み補正処理(図3
7のステップ21参照)を省略してもよい。
In the above embodiment, the phase control based on the actual phase amount is performed on the right-eye image and the left-eye image generated by the moving image 2D / 3D image conversion method. 2D / 3 by 3D video conversion method
Instead of performing the D conversion processing, only the phase control based on the actual phase amount may be performed on the two-dimensional input signal. In this case, the ratio correction process (see step 22 in FIG. 37)
Is omitted. In this case, the distortion correction process (see FIG.
Step 21 of 7) may be omitted.

【0252】[0252]

【発明の効果】この発明によれば、画像歪みの小さい3
次元映像が得られる。
According to the present invention, the image distortion is small.
A three-dimensional image is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】2D/3D映像変換装置の全体構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing an overall configuration of a 2D / 3D video conversion device.

【図2】視差算出領域を示す模式図である。FIG. 2 is a schematic diagram showing a parallax calculation region.

【図3】R−Y成分積算回路の構成を示すブロック図で
ある。
FIG. 3 is a block diagram showing a configuration of an RY component integrating circuit.

【図4】高周波成分積算回路の構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing a configuration of a high frequency component integrating circuit.

【図5】図4のハイパスフィルタ232の具体例を示す
回路図である。
5 is a circuit diagram showing a specific example of a high pass filter 232 of FIG.

【図6】図4のスライス処理回路234の入出力特性を
示すグラフである。
6 is a graph showing the input / output characteristics of the slice processing circuit 234 of FIG.

【図7】高周波成分積算回路の他の例を示すブロック図
である。
FIG. 7 is a block diagram showing another example of a high frequency component integrating circuit.

【図8】図7のピーク検出回路239の具体例を示す回
路図である。
8 is a circuit diagram showing a specific example of the peak detection circuit 239 of FIG.

【図9】ピーク検出回路239の各部の信号を示すタイ
ムチャートである。
FIG. 9 is a time chart showing signals of respective parts of the peak detection circuit 239.

【図10】輝度コントラスト算出回路の構成を示すブロ
ック図である。
FIG. 10 is a block diagram showing a configuration of a brightness contrast calculation circuit.

【図11】図10の輝度コントラスト検出回路の構成を
示す回路図である。
11 is a circuit diagram showing a configuration of the brightness contrast detection circuit of FIG.

【図12】CPUによる視差情報の生成処理手順を示す
フローチャートである。
[Fig. 12] Fig. 12 is a flowchart illustrating a procedure for generating disparity information by a CPU.

【図13】実際に設定される視差算出領域を示す模式図
である。
FIG. 13 is a schematic diagram showing a parallax calculation area that is actually set.

【図14】高周波成分積算値の各正規化値に対する視差
算出領域の数を示すヒストグラムである。
FIG. 14 is a histogram showing the number of parallax calculation areas for each normalized value of a high frequency component integrated value.

【図15】図14のヒストグラムに基づいて得られたグ
ループ分け結果を示す模式図である。
15 is a schematic diagram showing a grouping result obtained based on the histogram of FIG.

【図16】R−Y成分積算値の正規化値を縦軸にとり、
B−Y成分積算値の正規化値を横軸にとって、視差算出
領域の分布を表したグラフである。
FIG. 16 shows the normalized value of the R-Y component integrated value on the vertical axis,
6 is a graph showing the distribution of parallax calculation regions with the normalized value of the BY component integrated value as the horizontal axis.

【図17】図16のグラフに基づいて得られたグループ
分け結果を示す模式図である。
17 is a schematic diagram showing a grouping result obtained based on the graph of FIG.

【図18】図16のグラフに基づいて得られたグループ
分け結果を示す模式図である。
FIG. 18 is a schematic diagram showing a grouping result obtained based on the graph of FIG.

【図19】空間分離処理によって修正されたグループ分
け結果を示す模式図である。
FIG. 19 is a schematic diagram showing a grouping result corrected by the space separation processing.

【図20】特異点処理を説明するための模式図である。FIG. 20 is a schematic diagram for explaining singular point processing.

【図21】特異点処理によって修正されたグループ分け
結果を示す模式図である。
FIG. 21 is a schematic diagram showing a grouping result corrected by singularity processing.

【図22】各視差算出領域毎に予め設定された背景重み
成分を示す模式図である。
[Fig. 22] Fig. 22 is a schematic diagram illustrating a background weight component preset for each parallax calculation region.

【図23】奥行き補正前における各視差算出領域の奥行
き情報の一例を示す模式図である。
[Fig. 23] Fig. 23 is a schematic diagram illustrating an example of depth information of each parallax calculation region before depth correction.

【図24】奥行き補正後における各視差算出領域の奥行
き情報を示す模式図である。
[Fig. 24] Fig. 24 is a schematic diagram illustrating depth information of each parallax calculation region after depth correction.

【図25】奥行き補正前における画面の高さ位置に対す
る奥行き情報との関係および奥行き補正後における画面
の高さ位置に対する奥行き情報との関係を示すグラフで
ある。
FIG. 25 is a graph showing a relationship between depth information with respect to a screen height position before depth correction and a relationship with depth information with respect to a screen height position after depth correction.

【図26】グループ内部に対する奥行き情報補正処理を
説明するための模式図である。
FIG. 26 is a schematic diagram for explaining depth information correction processing for the inside of a group.

【図27】奥行き情報と視差情報との関係を示すグラフ
である。
FIG. 27 is a graph showing the relationship between depth information and disparity information.

【図28】主として、視差制御回路および任意画素遅延
FIFOの構成を示すブロック図である。
FIG. 28 is a block diagram mainly showing configurations of a parallax control circuit and an arbitrary pixel delay FIFO.

【図29】相対的水平位置および相対的垂直位置等を示
す模式図である。
FIG. 29 is a schematic diagram showing a relative horizontal position, a relative vertical position, and the like.

【図30】注目画素に対する視差情報を生成する方法を
説明するための説明図である。
FIG. 30 is an explanatory diagram illustrating a method of generating disparity information for a pixel of interest.

【図31】視差選択回路による選択規則を示す図であ
る。
[Fig. 31] Fig. 31 is a diagram illustrating a selection rule by a parallax selection circuit.

【図32】視差情報が0の場合の各部の信号を示すタイ
ムチャートである。
[Fig. 32] Fig. 32 is a time chart illustrating signals of respective units when parallax information is 0.

【図33】視差情報が1.2の場合の各アドレス値を視
差制御回路に付記したブロック図である。
FIG. 33 is a block diagram in which each address value when the disparity information is 1.2 is added to the disparity control circuit.

【図34】視差情報が1.2の場合の各部の信号を示す
タイムチャートである。
[Fig. 34] Fig. 34 is a time chart illustrating signals of respective units when the disparity information is 1.2.

【図35】この発明の実施の形態である2D/3D映像
変換装置の構成を示すブロック図である。
FIG. 35 is a block diagram showing a configuration of a 2D / 3D video conversion device which is an embodiment of the present invention.

【図36】CPU530が実行する処理を示すフローチ
ャートである。
FIG. 36 is a flowchart showing processing executed by CPU 530.

【図37】位相量算出処理手順を示すフローチャートで
ある。
FIG. 37 is a flowchart showing a phase amount calculation processing procedure.

【図38】静止画比率の平滑化処理を説明するためのブ
ロック図である。
[Fig. 38] Fig. 38 is a block diagram for describing the smoothing processing of the still image ratio.

【図39】ユーザによって設定されたダイナミックレン
ジdvrange に応じて歪み補正処理に用いられるDEPTHTH
を変化させる場合の、ダイナミックレンジdvrange とDE
PTHTH との関係を示すグラフである。
[FIG. 39] DEPTHTH used for distortion correction processing according to the dynamic range dvrange set by the user
Dynamic range dvrange and DE when changing
It is a graph which shows the relationship with PTHTH.

【図40】静止画比率rateに応じて位相変動抑圧処理に
用いられるVTを変化させる場合の、静止画比率rateとVT
との関係を示すグラフである。
FIG. 40 is a still image ratio rate and VT when VT used for phase fluctuation suppression processing is changed according to the still image ratio rate.
It is a graph which shows the relationship with.

【図41】目標位相量tphaseと実位相量phase との差の
絶対値に応じて位相変動抑圧処理に用いられるVTを変化
させる場合の、目標位相量tphaseと実位相量phase との
差の絶対値とVTとの関係を示すグラフである。
FIG. 41 is an absolute difference between the target phase amount tphase and the actual phase amount phase when VT used for phase fluctuation suppression processing is changed according to the absolute value of the difference between the target phase amount tphase and the actual phase amount phase. It is a graph which shows the relationship between a value and VT.

【図42】各視差算出領域の動き量に応じて位相変動抑
圧処理に用いられるVTを各視差算出領域ごとに変化させ
る場合の、視差算出領域の動き量とVTとの関係を示すグ
ラフである。
[Fig. 42] Fig. 42 is a graph illustrating the relationship between the motion amount of the parallax calculation region and VT when the VT used for the phase variation suppression process is changed for each parallax calculation region according to the motion amount of each parallax calculation region. .

【符号の説明】[Explanation of symbols]

511 動きベクトル検出回路 512 各種画面内データ算出回路 513 メモリ制御部 514、515 選択回路 516、517 視差生成回路 518 視差制御回路 519 CPUインタフェース 521〜524 フィールドメモリ 530 CPU 511 motion vector detection circuit 512 Various screen data calculation circuits 513 memory control unit 514, 515 selection circuit 516 and 517 parallax generation circuit 518 Parallax control circuit 519 CPU interface 521 to 524 field memory 530 CPU

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 2次元入力映像に基づいて、1フィール
ド画面内に設定された複数の視差算出領域のそれぞれに
対して映像の遠近に関する画像特徴量を抽出し、抽出し
た画像特徴量に基づいて、各視差算出領域ごとの奥行き
情報を生成する奥行き情報生成手段、 予め設定された目標位相量のダイナミックレンジと奥行
き情報生成手段によって生成された所定単位領域ごとの
奥行き情報とに基づいて、各視差算出領域に基づいた所
定単位領域の目標位相量を算出する目標位相量算出手
段、前記所定単位領域ごとに、 前回の実位相量に基づき前記
目標位相量算出手段にて算出した目標位相量に徐々に近
づくように今回の実位相量を求める実位相量算出手
段、ならびに2次元入力映像の各所定単位領域内の信号
から、その所定単位領域に対応する今回の実位相量に応
じた水平位相差を有する第1映像信号と第2映像信号と
をそれぞれ生成する位相制御手段、 を備えている2次元映像を3次元映像に変換する装置。
1. An image feature amount relating to perspective of an image is extracted for each of a plurality of parallax calculation regions set in a one-field screen based on a two-dimensional input image, and based on the extracted image feature amount. A depth information generating unit that generates depth information for each parallax calculation region, each parallax based on a dynamic range of a preset target phase amount and depth information for each predetermined unit region generated by the depth information generating unit Place based on calculation area
Target phase amount calculating means for calculating a target phase of the constant unit area, for each of the predetermined unit area, based on said actual phase of the previous
Gradually as closer to the target phase amount calculated by the target phase amount calculating means, the actual phase amount calculating means for determining an actual amount of phase current, and a signal of each predetermined unit area of the two-dimensional input image, the predetermined unit A device for converting a two-dimensional image into a three-dimensional image, comprising phase control means for respectively generating a first image signal and a second image signal having a horizontal phase difference corresponding to an actual phase amount of this time corresponding to a region. .
【請求項2】 2次元入力映像に基づいて、1フィール
ド画面内に設定された複数の視差算出領域のそれぞれに
対して映像の遠近に関する画像特徴量を抽出し、抽出し
た画像特徴量に基づいて、各視差算出領域ごとの奥行き
情報を生成する奥行き情報生成手段、 各隣接領域間の奥行き情報の差のうちの最大値が基準値
より大きい場合には、予め設定された目標位相量のダイ
ナミックレンジが小さくなるように目標位相量のダイナ
ミックレンジを補正する補正手段、 補正手段によって得られた目標位相量のダイナミックレ
ンジと奥行き情報生成手段によって生成された各視差
算出領域に基づいた所定単位領域ごとの奥行き情報とに
基づいて、各視差算出領域ごとの目標位相量を算出する
目標位相量算出手段、前記所定単位領域ごとに、前回の実位相量に基づき前記
目標位相量算出手段にて算出した目標位相量に徐々に近
づくように、 今回の実位相量を求める実位相量算出手
段、ならびに2次元入力映像の各所定単位領域内の信号
から、その所定単位領域に対応する今回の実位相量に応
じた水平位相差を有する第1映像信号と第2映像信号と
をそれぞれ生成する位相制御手段、 を備えている2次元映像を3次元映像に変換する装置。
2. An image feature amount relating to the perspective of the image is extracted for each of a plurality of parallax calculation regions set in one field screen based on the two-dimensional input image, and based on the extracted image feature amount. A depth information generation unit that generates depth information for each parallax calculation region, and a dynamic range of a preset target phase amount when a maximum value of differences in depth information between adjacent regions is larger than a reference value. each parallax produced by the correction means for correcting the dynamic range of the target phase amount to be smaller, the dynamic range of the target phase amount obtained by the correction means, the depth information generating unit
Based on the depth information for each predetermined unit area based on the calculation area, a target phase amount calculation means for calculating the target phase amount for each parallax calculation area, for each predetermined unit area, based on the previous actual phase amount
Gradually approaches the target phase amount calculated by the target phase amount calculation means.
As described above, the actual phase amount calculating means for calculating the actual phase amount of this time, and the horizontal phase difference corresponding to the actual phase amount of this time corresponding to the predetermined unit area from the signal in each predetermined unit area of the two-dimensional input image. An apparatus for converting a two-dimensional image into a three-dimensional image, comprising: phase control means for respectively generating a first image signal and a second image signal having the above.
【請求項3】 2次元入力映像に基づいて、基準となる
主映像および主映像に対して時間的に遅れた副映像を生
成し、主映像および副映像のうち、一方を左目用映像と
して出力し、他方を右目用映像として出力する映像変換
手段、 2次元入力映像が動画であるか、静止画であるかを判定
する動画/静止画判定手段、 動画/静止画判定手段の判定結果に基づいて、静止画比
率を算出する静止画比率算出手段、 2次元入力映像に基づいて、1フィールド画面内に設定
された複数の視差算出領域のそれぞれに対して映像の遠
近に関する画像特徴量を抽出し、抽出した画像特徴量に
基づいて、各視差算出領域ごとの奥行き情報を生成する
奥行き情報生成手段、 予め設定された目標位相量のダイナミックレンジに静止
画比率を乗算することにより、目標位相量のダイナミッ
クレンジを補正する補正手段、 補正手段によって得られた目標位相量のダイナミックレ
ンジと奥行き情報生成手段によって生成された各視差
算出領域に基づいた所定単位領域ごとの奥行き情報とに
基づいて、各視差算出領域ごとの目標位相量を算出する
目標位相量算出手段、前記所定単位領域ごとに、前回の実位相量に基づき前記
目標位相量算出手段にて算出した目標位相量に徐々に近
づくように、 今回の実位相量を求める実位相量算出手
段、ならびに映像変換手段から出力される右目用映像お
よび左目用映像の各所定単位領域内の信号に対して、実
位相量算出手段によって得られた当該所定単位領域に対
応する実位相量に応じた水平位相制御を行う位相制御手
段、 を備えている2次元映像を3次元映像に変換する装置。
3. A main image serving as a reference and a sub-image delayed in time with respect to the main image are generated based on a two-dimensional input image, and one of the main image and the sub-image is output as a left-eye image. Then, the image conversion means for outputting the other as the image for the right eye, the moving picture / still picture judging means for judging whether the two-dimensional input picture is a moving picture or a still picture, based on the judgment result of the moving picture / still picture judging means. A still image ratio calculating means for calculating a still image ratio, and based on the two-dimensional input image, extracts image feature amounts relating to the perspective of the image for each of the plurality of parallax calculation regions set in the one-field screen. , Depth information generating means for generating depth information for each parallax calculation region based on the extracted image feature amount, by multiplying a still image ratio by a dynamic range of a preset target phase amount, Correcting means for correcting the dynamic range of the phase amount, and the dynamic range of the target phase amount obtained by the correction means, the parallax generated by the depth information generating unit
Based on the depth information for each predetermined unit area based on the calculation area, a target phase amount calculation means for calculating the target phase amount for each parallax calculation area, for each predetermined unit area, based on the previous actual phase amount
Gradually approaches the target phase amount calculated by the target phase amount calculation means.
As described below, the actual phase amount calculating means for obtaining the actual phase amount this time, and the signal in each predetermined unit area of the right eye image and the left eye image output from the image converting means An apparatus for converting a two-dimensional image into a three-dimensional image, comprising phase control means for performing horizontal phase control according to the obtained actual phase amount corresponding to the predetermined unit area.
【請求項4】 2次元入力映像に基づいて、基準となる
主映像および主映像に対して時間的に遅れた副映像を生
成し、主映像および副映像のうち、一方を左目用映像と
して出力し、他方を右目用映像として出力する映像変換
手段、 2次元入力映像が動画であるか、静止画であるかを判定
する動画/静止画判定手段、 動画/静止画判定手段の判定結果に基づいて、静止画比
率を算出する静止画比率算出手段、 2次元入力映像に基づいて、1フィールド画面内に設定
された複数の視差算出領域のそれぞれに対して映像の遠
近に関する画像特徴量を抽出し、抽出した画像特徴量に
基づいて、各視差算出領域ごとの奥行き情報を生成する
奥行き情報生成手段、 各隣接領域間の奥行き情報の差のうちの最大値が基準値
より大きい場合には、予め設定された目標位相量のダイ
ナミックレンジが小さくなるように目標位相量のダイナ
ミックレンジを補正する第1補正手段、 第1補正手段によって得られた目標位相量のダイナミッ
クレンジに静止画比率を乗算することにより、目標位相
量のダイナミックレンジを補正する第2補正手段、 第2補正手段によって得られた目標位相量のダイナミッ
クレンジと奥行き情報生成手段によって生成された
視差算出領域に基づいた所定単位領域ごとの奥行き情報
とに基づいて、各視差算出領域ごとの目標位相量を算出
する目標位相量算出手段、前記所定単位領域ごとに、前回の実位相量に基づき前記
目標位相量算出手段にて算出した目標位相量に徐々に近
づくように、 今回の実位相量を求める実位相量算出手
段、ならびに映像変換手段から出力される右目用映像お
よび左目用映像の各所定単位領域内の信号に対して、実
位相量算出手段によって得られた当該所定単位領域に対
応する実位相量に応じた水平位相制御を行う位相制御手
段、 を備えている2次元映像を3次元映像に変換する装置。
4. A main image serving as a reference and a sub-image delayed in time from the main image are generated based on a two-dimensional input image, and one of the main image and the sub-image is output as a left-eye image. Then, the image conversion means for outputting the other as the image for the right eye, the moving picture / still picture judging means for judging whether the two-dimensional input picture is a moving picture or a still picture, based on the judgment result of the moving picture / still picture judging means. A still image ratio calculating means for calculating a still image ratio, and based on the two-dimensional input image, extracts image feature amounts relating to the perspective of the image for each of the plurality of parallax calculation regions set in the one-field screen. , Depth information generating means for generating depth information for each parallax calculation region based on the extracted image feature amount, if the maximum value of the differences in depth information between adjacent regions is larger than a reference value, Set The first correction unit that corrects the dynamic range of the target phase amount so that the dynamic range of the target phase amount becomes smaller, and the dynamic range of the target phase amount obtained by the first correction unit is multiplied by the still image ratio, second correction means for correcting the dynamic range of the target phase amount, the dynamic range of the target phase amount obtained by the second correction means, each generated by the depth information generating unit
Based on depth information for each predetermined unit area based on the parallax calculation area, a target phase amount calculation means for calculating the target phase amount for each parallax calculation area, for each of the predetermined unit areas, based on the previous actual phase amount The above
Gradually approaches the target phase amount calculated by the target phase amount calculation means.
As described below, the actual phase amount calculating means for obtaining the actual phase amount this time, and the signal in each predetermined unit area of the right eye image and the left eye image output from the image converting means An apparatus for converting a two-dimensional image into a three-dimensional image, comprising phase control means for performing horizontal phase control according to the obtained actual phase amount corresponding to the predetermined unit area.
【請求項5】 静止画比率算出手段は、動画/静止画判
定手段によって2次元入力映像が動画であると判定され
たときには静止画比率として0を設定し、2次元入力映
像が静止画であると判定されたときには静止画比率とし
て100を設定する手段、ならびに設定された静止画比
率をフィールド間で平滑化する手段、 を備えている請求項3および4のいずれかに記載の2次
元映像を3次元映像に変換する装置。
5. The still image ratio calculating means sets 0 as the still image ratio when the moving image / still image determining means determines that the two-dimensional input image is a moving image, and the two-dimensional input image is a still image. The two-dimensional image according to any one of claims 3 and 4, further comprising: means for setting 100 as a still image ratio when it is determined, and means for smoothing the set still image ratio between fields. A device that converts 3D images.
【請求項6】 実位相量算出手段は、2次元入力映像に
基づいて各視差算出領域の映像の動き量を算出し、映像
の動き量が大きい視差算出領域ほど、その領域の実位相
量がより早くその領域の目標位相量に近づくように、各
視差算出領域ごとの今回の実位相量を算出し、得られた
各視差算出領域ごとの今回の実位相量に基づいて、1フ
ィールド画面内の前記所定単位領域ごとの今回の実位相
量を求めるものである請求項1、2、3、4および5の
いずれかに記載の2次元映像を3次元映像に変換する装
置。
6. The actual phase amount calculation means calculates the amount of motion of the image in each parallax calculation region based on the two-dimensional input image, and the greater the amount of motion of the image, the greater the amount of actual phase of that region. The actual phase amount of this time for each parallax calculation region is calculated so as to approach the target phase amount of that region earlier, and based on the obtained actual phase amount of each parallax calculation region, the 1-field screen The apparatus for converting a two-dimensional image into a three-dimensional image according to any one of claims 1, 2, 3, 4 and 5, wherein the present actual phase amount is calculated for each of the predetermined unit areas.
JP25652397A 1997-09-18 1997-09-22 Apparatus for converting 2D video to 3D video Expired - Fee Related JP3454684B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25652397A JP3454684B2 (en) 1997-09-22 1997-09-22 Apparatus for converting 2D video to 3D video
US09/152,328 US6584219B1 (en) 1997-09-18 1998-09-14 2D/3D image conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25652397A JP3454684B2 (en) 1997-09-22 1997-09-22 Apparatus for converting 2D video to 3D video

Publications (2)

Publication Number Publication Date
JPH1198530A JPH1198530A (en) 1999-04-09
JP3454684B2 true JP3454684B2 (en) 2003-10-06

Family

ID=17293813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25652397A Expired - Fee Related JP3454684B2 (en) 1997-09-18 1997-09-22 Apparatus for converting 2D video to 3D video

Country Status (1)

Country Link
JP (1) JP3454684B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7161614B1 (en) 1999-11-26 2007-01-09 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP4412720B2 (en) 2004-06-24 2010-02-10 キヤノン株式会社 Video processing method and apparatus
KR101291071B1 (en) * 2010-06-08 2013-08-01 주식회사 에스칩스 Method And Apparatus for Impoving Stereoscopic Image Error

Also Published As

Publication number Publication date
JPH1198530A (en) 1999-04-09

Similar Documents

Publication Publication Date Title
KR100445619B1 (en) Device and method for converting two-dimensional video into three-dimensional video
US6584219B1 (en) 2D/3D image conversion system
US6466255B1 (en) Stereoscopic video display method and apparatus, stereoscopic video system, and stereoscopic video forming method
KR101856805B1 (en) Image processing device, image processing method, and program
JP3005474B2 (en) Apparatus and method for converting 2D image to 3D image
JP2013534742A (en) 3D image conversion method and apparatus using depth map information
WO2001039512A1 (en) Device and method for converting two-dimensional video to three-dimensional video
JP2013225740A (en) Image formation device, image display device, and image formation method and image formation program
JP2001320731A (en) Device for converting two-dimensional image into there dimensional image and its method
US20130342529A1 (en) Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method
JP3276931B2 (en) 3D image adjustment method and 3D image adjustment apparatus
JP3235776B2 (en) Stereoscopic effect adjusting method and stereoscopic effect adjusting device
JP2951291B2 (en) Apparatus and method for converting 2D image to 3D image
JP3500056B2 (en) Apparatus and method for converting 2D image to 3D image
JPH10191397A (en) Intention adaptive device for converting two-dimensional video into three-dimensional video
JP3540626B2 (en) Apparatus and method for converting 2D image to 3D image
JP3485764B2 (en) Apparatus and method for converting 2D image to 3D image
JP3454684B2 (en) Apparatus for converting 2D video to 3D video
JP3957343B2 (en) Apparatus and method for converting 2D video to 3D video
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
JPH10178594A (en) Three-dimensional video transmitting method, digital broadcast system and user side terminal
KR101523169B1 (en) Apparatus for compensating stereo image and method thereof
JPH11127452A (en) Picture processor, picture processing medium and transmitting medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080725

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080725

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees