JPH118862A - Two-dimentional-to-three-dimensional image conversion device and method - Google Patents

Two-dimentional-to-three-dimensional image conversion device and method

Info

Publication number
JPH118862A
JPH118862A JP9159949A JP15994997A JPH118862A JP H118862 A JPH118862 A JP H118862A JP 9159949 A JP9159949 A JP 9159949A JP 15994997 A JP15994997 A JP 15994997A JP H118862 A JPH118862 A JP H118862A
Authority
JP
Japan
Prior art keywords
image
perspective
parallax calculation
video
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9159949A
Other languages
Japanese (ja)
Other versions
JP2951291B2 (en
Inventor
Shiyuugo Yamashita
周悟 山下
Yukio Mori
幸夫 森
Seiji Okada
誠司 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP9159949A priority Critical patent/JP2951291B2/en
Priority to PCT/JP1997/002471 priority patent/WO1998004087A1/en
Priority to EP97930812A priority patent/EP0918439B1/en
Priority to KR10-1999-7000337A priority patent/KR100445619B1/en
Priority to DE69739179T priority patent/DE69739179D1/en
Priority to US09/147,518 priority patent/US6445833B1/en
Publication of JPH118862A publication Critical patent/JPH118862A/en
Application granted granted Critical
Publication of JP2951291B2 publication Critical patent/JP2951291B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To inexpensively convert a two-dimensional still image into a three- dimensional image by dividing a full area included in a single field into groups for each object included in the image and generating the information on the distance of the image of every group. SOLUTION: A field is divided into 60 areas, for example, and the integration value is calculated by the circuits 8, 9, 31 and 32 for the high frequency component, the luminance contrast and the color differences R-Y and B-Y of a luminance signal Y respectively and inputted to a CPU 3. The CPU 3 divides a full area of a single field into groups so as to include the areas whose image feature values are approximate to each other in the same group and generates the distance information on the image of each group based on the image feature value concerning the distance of image of every parallax calculation area. Furthermore, the image vertical position information is added for generation of the information on the distance of image of every parallax calculation area. Then the pixel delay FIFO 11 to 23 are controlled for every parallax calculation area via a parallax control circuit 4, and the distance information is converted into the right-left parallax information in every area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、2次元映像を3
次元映像に変換する装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention
The present invention relates to an apparatus and a method for converting into a two-dimensional image.

【0002】[0002]

【従来の技術】2次元映像を3次元映像に変換する方法
として、フィールドメモリを用いて、元の2次元映像信
号に対して、時間的に遅延された映像信号(以下、遅延
映像信号という)を生成し、元の2次元映像信号と遅延
映像信号のうち、一方を左目用映像信号として出力し、
他方を右目用映像信号として出力する方法が知られてい
る。しかしながら、この方法では、元の2次元映像信号
に対して時間的に遅延された映像信号を生成するために
フィールドメモリが必要となるため、コストが高いとい
う問題がある。また、この方法では、動きのある2次元
映像のみしか3次元映像に変換することができない。
2. Description of the Related Art As a method of converting a two-dimensional video into a three-dimensional video, a video signal which is temporally delayed from an original two-dimensional video signal using a field memory (hereinafter referred to as a delayed video signal). And outputs one of the original two-dimensional video signal and the delayed video signal as a left-eye video signal,
A method of outputting the other as a right-eye video signal is known. However, this method has a problem that the cost is high because a field memory is required to generate a video signal delayed in time with respect to the original two-dimensional video signal. Further, according to this method, only a moving two-dimensional image can be converted into a three-dimensional image.

【0003】[0003]

【発明が解決しようとする課題】この発明は、元の2次
元映像信号に対して時間的に遅延された映像信号を生成
するためのフィールドメモリが不要となり、コストの低
廉化が図れる2次元映像を3次元映像に変換する装置お
よび方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention eliminates the need for a field memory for generating a video signal that is temporally delayed from the original two-dimensional video signal, thereby reducing the cost of a two-dimensional video signal. It is an object of the present invention to provide an apparatus and a method for converting an image into a three-dimensional image.

【0004】また、この発明は、元の2次元映像信号に
よって表される映像が静止映像であっても立体映像が得
られる、2次元映像を3次元映像に変換する装置および
方法を提供することを目的とする。
Another object of the present invention is to provide an apparatus and a method for converting a two-dimensional video into a three-dimensional video, whereby a stereoscopic video can be obtained even if the video represented by the original two-dimensional video signal is a still video. With the goal.

【0005】[0005]

【課題を解決するための手段】この発明による2次元映
像を3次元映像に変換する装置は、2次元入力映像信号
に基づいて、各フィールドごとに、1フィールド画面内
に設定された複数の視差算出領域のそれぞれに対して、
映像の遠近に関する画像特徴量を抽出する特徴量抽出手
段、各視差算出領域ごとに抽出された画像特徴量に基づ
いて、1フィールド画面内の所定単位領域ごとの視差情
報を生成する視差情報生成手段、ならびに2次元入力映
像信号の各所定単位領域内の信号から、その所定単位領
域に対応する視差情報に応じた水平位相差を有する第1
映像信号と第2映像信号とをそれぞれ生成する位相制御
手段を備えており、視差情報生成手段は、視差算出領域
ごとの映像の遠近に関する画像特徴量に基づいて、1フ
ィールド画面内の全領域をその画面に含まれている物体
毎にグループ分けを行なう第1手段、第1手段によるグ
ループ分け結果と、視差算出領域ごとの映像の遠近に関
する画像特徴量とに基づいて、各グループ毎の映像の遠
近に関する情報を生成する第2手段、各グループ毎の映
像の遠近に関する情報に基づいて、各視差算出領域毎の
映像の遠近に関する情報を生成する第3手段、ならびに
各視差算出領域毎の映像の遠近に関する情報を、各視差
算出領域ごとの視差情報に変換する第4手段を備えてい
ることを特徴とする。
An apparatus for converting a two-dimensional image into a three-dimensional image according to the present invention includes a plurality of parallaxes set in one field screen for each field based on a two-dimensional input image signal. For each of the calculation areas,
A feature amount extracting unit that extracts an image feature amount related to the perspective of a video, and a disparity information generating unit that generates disparity information for each predetermined unit area in a one-field screen based on the image feature amount extracted for each disparity calculation area. And a first signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit area from a signal in each predetermined unit area of the two-dimensional input video signal.
Phase control means for generating a video signal and a second video signal, respectively, wherein the parallax information generating means determines the entire area in one field screen based on the image feature amount relating to the perspective of the video for each parallax calculation area. First means for performing grouping for each object included in the screen, a grouping result obtained by the first means, and an image feature amount relating to perspective of the video for each parallax calculation area, and a video of each group. Second means for generating information about perspective, third means for generating information about perspective of video for each parallax calculation area based on information about perspective for video for each group, and video processing for video for each parallax calculation area. Fourth means for converting information on perspective into parallax information for each parallax calculation area is provided.

【0006】所定単位領域は、たとえば、1画素単位の
領域である。
[0006] The predetermined unit area is, for example, an area of one pixel unit.

【0007】第1手段としては、たとえば、次のような
ものが用いられる。
As the first means, for example, the following is used.

【0008】(1)映像の遠近に関する画像特徴量の大
きさに対する視差算出領域数を表す度数分布に基づい
て、映像の遠近に関する画像特徴量の大きさの近似して
いる領域が同一グループとなるように1フィールド画面
内の全領域をグループ分けを行なうもの。
(1) On the basis of a frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount related to the perspective of the image, the regions where the size of the image feature amount related to the perspective of the image are in the same group. In this way, all areas in one field screen are grouped.

【0009】(2)映像の遠近に関する画像特徴量の大
きさに対する視差算出領域数を表す度数分布に基づい
て、映像の遠近に関する画像特徴量の大きさの近似して
いる領域が同一グループとなるように1フィールド画面
内の全領域をグループ分けを行なう手段、および同じグ
ループ内に互いに空間的に離れている複数の領域が存在
する場合には、それらの領域がそれぞれ異なるグループ
となるように、グループ分けを行なう手段を備えている
もの。
(2) Based on a frequency distribution indicating the number of parallax calculation areas with respect to the magnitude of image features related to the perspective of the video, areas where the magnitudes of the image features related to the perspective of the video are in the same group. Means for grouping all areas in one field screen as described above, and when there are a plurality of areas spatially separated from each other in the same group, the areas are formed into different groups. Those that have means for grouping.

【0010】(3)映像の遠近に関する画像特徴量の大
きさに対する視差算出領域数を表す度数分布に基づい
て、映像の遠近に関する画像特徴量の大きさの近似して
いる領域が同一グループとなるように1フィールド画面
内の全領域をグループ分けを行なう手段、同じグループ
内に互いに空間的に離れている複数の領域が存在する場
合には、それらの領域がそれぞれ異なるグループとなる
ように、グループ分けを行なう手段、および所定数以下
の視差算出領域から構成されているグループが存在する
場合には、そのグループ内のおよびその周辺の視差算出
領域に対する映像の遠近に関する画像特徴量に基づい
て、そのグループを周囲のグループに属させるべきか否
かを判別し、そのグループを周囲のグループに属させる
べきと判別した場合には、そのグループを周囲のグルー
プに属させる手段を備えているもの。
(3) On the basis of a frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount related to the perspective of the image, the regions where the size of the image feature amount related to the perspective of the image are in the same group. Means for grouping all the areas in one field screen as described above. If there are a plurality of areas spatially separated from each other in the same group, the group is set so that these areas are respectively different groups. If there is a group consisting of a means for performing the division and a predetermined number or less of the parallax calculation areas, the group based on the image feature amount relating to the perspective of the video with respect to the parallax calculation areas in and around the group, Determines whether a group should belong to a surrounding group, and if it determines that the group should belong to a surrounding group. , Which comprises means for causing belong to that group to a group of the surroundings.

【0011】(4)映像の遠近に関する画像特徴量の大
きさに対する視差算出領域数を表す度数分布に基づい
て、映像の遠近に関する画像特徴量の大きさの近似して
いる領域が同一グループとなるように1フィールド画面
内の全領域をグループ分けを行なう手段、同じグループ
内に互いに空間的に離れている複数の領域が存在する場
合には、それらの領域がそれぞれ異なるグループとなる
ように、グループ分けを行なう手段、所定数以下の視差
算出領域から構成されているグループが存在する場合に
は、そのグループ内のおよびその周辺の視差算出領域に
対する映像の遠近に関する画像特徴量に基づいて、その
グループを周囲のグループに属させるべきか否かを判別
し、そのグループを周囲のグループに属させるべきと判
別した場合には、そのグループを周囲のグループに属さ
せる手段、および隣接する2つのグループのうち、一方
のグループ内および他方のグループ内の視差算出領域に
対する映像の遠近に関する画像特徴量に基づいて、両グ
ループを結合させるべきか否かを判別し、両グループを
結合させるべきと判別した場合には、両グループを結合
させる手段を備えているもの。
(4) On the basis of the frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount relating to the perspective of the image, the regions where the magnitude of the image feature amount relating to the perspective of the image are in the same group. Means for grouping all the areas in one field screen as described above. If there are a plurality of areas spatially separated from each other in the same group, the group is set so that these areas are respectively different groups. Means for performing classification, if there is a group including a predetermined number or less of parallax calculation areas, the group based on the image feature amount related to the perspective of the video with respect to the parallax calculation areas in and around the group; Is determined to belong to the surrounding group, and if it is determined that the group should belong to the surrounding group, The two groups should be combined based on the means for causing the group to belong to the surrounding group, and the image characteristics related to the perspective of the video with respect to the parallax calculation areas in one group and the other group among the two adjacent groups. If it is determined whether or not the two groups should be combined, a means for combining the two groups is provided.

【0012】第2手段としては、たとえば、各グループ
内の視差算出領域ごとの映像の遠近に関する画像特徴量
および各視差算出領域毎に予め設定された重み係数に基
づいて、各グループ毎に映像の遠近に関する情報を算出
するものが用いられる。
As the second means, for example, based on the image feature amount relating to the perspective of the video for each parallax calculation area in each group and the weighting factor preset for each parallax calculation area, the video of each group is determined. A device that calculates information regarding perspective is used.

【0013】第3手段としては、たとえば、次のような
ものが用いられる。
As the third means, for example, the following is used.

【0014】(1)画面の高さ位置のうち、映像の遠近
に関する情報によって表される遠近位置が最も近い高さ
位置より下側の各視差算出領域のうち、その視差算出領
域に対する映像の遠近に関する情報によって表される遠
近位置が、その直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置より所定値以上
遠い位置である視差算出領域については、その視差算出
領域に対する映像の遠近に関する情報によって表される
遠近位置がその直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置に接近するよう
に、その視差算出領域に対する映像の遠近に関する情報
を補正する手段を備えているもの。
(1) Among the parallax calculation areas below the height position where the perspective position represented by the information on the perspective of the video is lower than the height position of the screen, the perspective of the video with respect to the parallax calculation area. For a parallax calculation area in which the perspective position represented by the information regarding the parallax calculation area is a position that is more than a predetermined value more than the perspective position represented by the information regarding the perspective of the parallax calculation area immediately above the parallax calculation area, Means for correcting the information related to the perspective of the image with respect to the parallax calculation area so that the perspective position represented by the information about the parallax calculation area approaches the perspective position represented by the information related to the perspective of the image immediately above the parallax calculation area. What you have.

【0015】(2)画面の高さ位置のうち、映像の遠近
に関する情報によって表される遠近位置が最も近い高さ
位置より下側の各視差算出領域のうち、その視差算出領
域に対する映像の遠近に関する情報によって表される遠
近位置が、その直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置より所定値以上
遠い位置である視差算出領域については、その視差算出
領域に対する映像の遠近に関する情報によって表される
遠近位置がその直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置に接近するよう
に、その視差算出領域に対する映像の遠近に関する情報
を補正する手段、および隣合う2つのグループの境界部
において、映像の遠近に関する情報が両グループ間で所
定範囲以内となるように、隣合う2つのグループの境界
部の視差算出領域に対する映像の遠近に関する情報を補
正する手段を備えているもの。
(2) Perspective position of the image with respect to the parallax calculation region among the parallax calculation regions among the parallax calculation regions below the height position where the perspective position represented by the information regarding the perspective of the image is among the height positions of the screen. For a parallax calculation area in which the perspective position represented by the information regarding the parallax calculation area is a position that is more than a predetermined value more than the perspective position represented by the information regarding the perspective of the parallax calculation area immediately above the parallax calculation area, Means for correcting the information related to the perspective of the video with respect to the parallax calculation area so that the perspective position represented by the information about the parallax calculation area approaches the perspective position represented by the information regarding the perspective of the video immediately above the parallax calculation area; At the boundary between the two groups that match each other, the information regarding the perspective of the video is within a predetermined range between the two groups. Sea urchin, which comprises means for correcting the information on the perspective of the image with respect to the parallax calculation region of the boundary portion of the two groups adjacent.

【0016】(3)画面の高さ位置のうち、映像の遠近
に関する情報によって表される遠近位置が最も近い高さ
位置より下側の各視差算出領域のうち、その視差算出領
域に対する映像の遠近に関する情報によって表される遠
近位置が、その直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置より所定値以上
遠い位置である視差算出領域については、その視差算出
領域に対する映像の遠近に関する情報によって表される
遠近位置がその直上の視差算出領域に対する映像の遠近
に関する情報によって表される遠近位置に接近するよう
に、その視差算出領域に対する映像の遠近に関する情報
を補正する手段、隣合う2つのグループの境界部におい
て、映像の遠近に関する情報が両グループ間で所定範囲
以内となるように、隣合う2つのグループの境界部の視
差算出領域に対する映像の遠近に関する情報を補正する
手段、および同じグループ内の各視差算出領域間におい
て、映像の遠近に関する情報の差が所定範囲以内となる
ように、各グループ内の映像の遠近に関する情報を平滑
化させる手段を備えているもの。
(3) Perspective position of the image with respect to the parallax calculation region, among the parallax calculation regions below the height position where the perspective position represented by the information regarding the perspective of the image is lower than the height position of the screen. For a parallax calculation area in which the perspective position represented by the information regarding the parallax calculation area is a position that is more than a predetermined value more than the perspective position represented by the information regarding the perspective of the parallax calculation area immediately above the parallax calculation area, Means for correcting the information related to the perspective of the video with respect to the parallax calculation area so that the perspective position represented by the information about the parallax calculation area approaches the perspective position represented by the information related to the perspective of the video immediately above the parallax calculation area, At the boundary between the two groups, information on the perspective of the video is set within a predetermined range between the two groups. Means for correcting the information regarding the perspective of the video with respect to the parallax calculation area at the boundary between two adjacent groups, and the difference between the information regarding the perspective of the video between the respective parallax calculation areas within the same group is within a predetermined range. And a means for smoothing information regarding the perspective of the video in each group.

【0017】位相制御手段としては、たとえば、2次元
入力映像信号を1水平ライン分以下の複数画素数分記憶
できる容量を有し、かつ2次元入力映像信号を一次的に
記憶する第1の記憶手段、2次元入力映像信号を1水平
ライン分以下の複数画素数分記憶できる容量を有し、か
つ2次元入力映像信号を一次的に記憶する第2の記憶手
段、第1の記憶手段の読み出しアドレスを、2次元入力
映像信号の水平垂直位置に応じて決定された標準読み出
しアドレスに対して、2次元入力映像信号の水平垂直位
置が属する所定単位領域に対応する視差情報に基づいて
制御することにより、上記標準読み出しアドレスによっ
て規定される基準水平位相に対して上記視差情報に応じ
た量だけ水平位相が進んだ第1映像信号を生成する第1
の読み出しアドレス制御手段、ならびに第2の記憶手段
の読み出しアドレスを、上記標準読み出しアドレスに対
して、2次元入力映像信号の水平垂直位置が属する所定
単位領域に対応する視差情報に基づいて制御することに
より、上記標準読み出しアドレスによって規定される基
準水平位相に対して上記視差情報に応じた量だけ水平位
相が遅れた第2映像信号を生成する第2の読み出しアド
レス制御手段を備えているものが用いられる。
The phase control means has, for example, a first storage which has a capacity capable of storing a two-dimensional input video signal for a plurality of pixels equal to or less than one horizontal line and temporarily stores the two-dimensional input video signal. Means for storing two-dimensional input video signals for a plurality of pixels equal to or less than one horizontal line, and for reading out two-dimensional input video signals temporarily from the second storage means and the first storage means Controlling an address based on disparity information corresponding to a predetermined unit area to which the horizontal and vertical position of the two-dimensional input video signal belongs with respect to a standard read address determined according to the horizontal and vertical position of the two-dimensional input video signal; A first video signal that generates a first video signal whose horizontal phase is advanced by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address
And controlling the read address of the second storage means based on the parallax information corresponding to the predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong with respect to the standard read address. A second read address control means for generating a second video signal whose horizontal phase is delayed by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address is used. Can be

【0018】映像の遠近に関する画像特徴量としては、
たとえば、高周波成分の積算値、輝度コントラスト、R
−Y成分の積算値、B−Y成分の積算値のうちから選択
された任意の1つまたは任意の組み合わせが用いられ
る。
The image features relating to the perspective of the video include:
For example, the integrated value of the high frequency component, the luminance contrast, R
Any one or any combination selected from the integrated value of the -Y component and the integrated value of the BY component is used.

【0019】[0019]

【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0020】図1は、2次元映像を3次元映像に変換す
るための2D/3D映像変換装置の全体的な構成を示し
ている。
FIG. 1 shows the overall configuration of a 2D / 3D video converter for converting a 2D video into a 3D video.

【0021】2次元映像信号を構成する輝度信号Y、色
差信号R−Yおよび色差信号B−Yは、AD変換回路1
(ADC)によってそれぞれディジタルのY信号、R−
Y信号およびB−Y信号に変換される。
A luminance signal Y, a color difference signal RY, and a color difference signal BY constituting a two-dimensional video signal are supplied to an AD conversion circuit 1.
(ADC), the digital Y signal, R-
It is converted into a Y signal and a BY signal.

【0022】Y信号は、高周波成分積算回路8および輝
度コントラスト算出回路9に送られるとともに、第1の
左映像用任意画素遅延FIFO11および第1の右映像
用任意画素遅延FIFO21に送られる。R−Y信号
は、R−Y成分積算回路31に送られるとともに、第2
の左映像用任意画素遅延FIFO12および第2の右映
像用任意画素遅延FIFO22に送られる。B−Y信号
は、B−Y成分積算回路32に送られるとともに、第3
の左映像用任意画素遅延FIFO13および第3の右映
像用任意画素遅延FIFO23に送られる。
The Y signal is sent to a high-frequency component integrating circuit 8 and a luminance contrast calculating circuit 9, and is sent to a first left image arbitrary pixel delay FIFO 11 and a first right image arbitrary pixel delay FIFO 21. The RY signal is sent to the RY component integrating circuit 31 and the second
To the left image arbitrary pixel delay FIFO 12 and the second right image arbitrary pixel delay FIFO 22. The BY signal is sent to the BY component integration circuit 32 and
To the left image arbitrary pixel delay FIFO 13 and the third right image arbitrary pixel delay FIFO 23.

【0023】高周波成分積算回路8は、1フィールド毎
に、図2に示すように、1フィールド画面内に予め設定
された複数個の視差算出領域E1〜E12それぞれに対
する高周波成分の積算値を算出する。輝度コントラスト
算出回路9は、1フィールド毎に、各視差算出領域E1
〜E12それぞれに対する輝度コントラストを算出す
る。R−Y成分積算回路31は、1フィールド毎に、各
視差算出領域E1〜E12それぞれに対するR−Y成分
の積算値を算出する。B−Y成分積算回路32は、1フ
ィールド毎に、各視差算出領域E1〜E12それぞれに
対するB−Y成分の積算値を算出する。
As shown in FIG. 2, the high-frequency component integrating circuit 8 calculates the integrated value of the high-frequency component for each of a plurality of parallax calculation areas E1 to E12 set in one field screen, as shown in FIG. . The brightness contrast calculation circuit 9 calculates each parallax calculation area E1 for each field.
The brightness contrast for each of E12 to E12 is calculated. The RY component integrating circuit 31 calculates the integrated value of the RY component for each of the parallax calculation areas E1 to E12 for each field. The BY component integration circuit 32 calculates the integrated value of the BY component for each of the parallax calculation areas E1 to E12 for each field.

【0024】各視差算出領域E1〜E12それぞれに対
する高周波成分の積算値、各視差算出領域E1〜E12
それぞれに対する輝度コントラスト、各視差算出領域E
1〜E12それぞれに対するR−Y成分の積算値および
各視差算出領域E1〜E12それぞれに対するB−Y成
分の積算値は、視差算出領域E1〜E12ごとの映像の
遠近に関する画像特徴量として用いられる。
The integrated value of the high-frequency component for each of the parallax calculation areas E1 to E12, and each of the parallax calculation areas E1 to E12
Brightness contrast for each, each parallax calculation area E
The integrated value of the RY component for each of the parallax calculation areas E1 to E12 and the integrated value of the BY component for each of the parallax calculation areas E1 to E12 are used as image feature amounts relating to perspective of the video for each of the parallax calculation areas E1 to E12.

【0025】なお、1フィールド画面内には、実際に
は、図13に示すように6行10列の計60個の視差算
出領域が設定されているが、説明の便宜上、図2に示す
ように、1フィールド画面内に、3行4列の計12個の
視差算出領域E1〜E12が設定されているものとす
る。
Note that a total of 60 parallax calculation areas of 6 rows and 10 columns are actually set in the one-field screen as shown in FIG. 13, but for convenience of explanation, as shown in FIG. It is assumed that a total of 12 parallax calculation areas E1 to E12 of 3 rows and 4 columns are set in one field screen.

【0026】CPU3は、高周波成分積算回路8、輝度
コントラスト算出回路9、R−Y成分積算回路31およ
びB−Y成分積算回路32から送られてきた情報に基づ
いて、各視差算出領域E1〜E12に対する視差情報を
生成する。この例では、被写体のように前側にある物体
ほど視差量が少なく、背景のように後ろ側にある物体ほ
ど視差量が大きくなるように視差情報が生成される。こ
の視差情報の生成方法の詳細については、後述する。
Based on the information sent from the high frequency component integrating circuit 8, the luminance contrast calculating circuit 9, the RY component integrating circuit 31, and the BY component integrating circuit 32, the CPU 3 calculates the parallax calculating areas E1 to E12. Is generated. In this example, the parallax information is generated such that the front-side object such as the subject has a smaller parallax amount, and the back-side object such as the background has a larger parallax amount. The details of the method of generating the parallax information will be described later.

【0027】CPU3によって算出された各視差算出領
域E1〜E12に対する視差情報は、視差制御回路4に
送られる。視差制御回路4は、各視差算出領域E1〜E
12に対する視差情報に基づいて、各フィールドの各画
素位置ごとの視差情報を生成する。そして、得られた各
画素位置ごとの視差情報に基づいて、各FIFO11〜
13、21〜23から映像信号(Y信号、R−Y信号、
B−Y信号)を読み出す際の読み出しアドレスが左映像
用任意画素遅延FIFO11〜13と右映像用任意画素
遅延FIFO21〜23との間でずれるように、各FI
FO11〜13、21〜23の読み出しアドレスを制御
する。したがって、左映像用任意画素遅延FIFO11
〜13から読み出された左映像信号の水平位相と、右映
像用任意画素遅延FIFO21〜23から読み出された
右映像信号の水平位相が異なるようになる。
The parallax information for each of the parallax calculation areas E1 to E12 calculated by the CPU 3 is sent to the parallax control circuit 4. The parallax control circuit 4 controls the parallax calculation areas E1 to E
Based on the disparity information for No. 12, disparity information for each pixel position in each field is generated. Then, based on the obtained parallax information for each pixel position, each of the FIFOs 11 to
13, 21 to 23, video signals (Y signal, RY signal,
Each of the FIs is adjusted so that the read address when reading the (BY signal) is shifted between the arbitrary pixel delay FIFOs 11 to 13 for the left image and the arbitrary pixel delay FIFOs 21 to 23 for the right image.
The read addresses of the FOs 11 to 13 and 21 to 23 are controlled. Accordingly, the left image arbitrary pixel delay FIFO 11
13 is different from the horizontal phase of the right video signal read from the right video arbitrary pixel delay FIFOs 21 to 23.

【0028】左映像用任意画素遅延FIFO11〜13
から読み出された左映像信号(YL信号、(R−Y)L
信号、(B−Y)L信号)は、DA変換回路(DAC)
5によってアナログ信号に変換された後、図示しない立
体表示装置に送られる。右映像用任意画素遅延FIFO
21〜23から読み出された右映像信号(YR信号、
(R−Y)R信号、(B−Y)R信号)は、DA変換回
路(DAC)6によってアナログ信号に変換された後、
図示しない立体表示装置に送られる。
Arbitrary pixel delay FIFO 11-13 for left image
From the left video signal (YL signal, (RY) L
Signal, (BY) L signal) is a DA conversion circuit (DAC)
After being converted into an analog signal by 5, it is sent to a three-dimensional display device (not shown). Arbitrary pixel delay FIFO for right image
Right video signal (YR signal,
The (RY) R signal and the (BY) R signal are converted into analog signals by a DA conversion circuit (DAC) 6,
It is sent to a three-dimensional display device (not shown).

【0029】左映像信号の水平位相と、右映像信号の水
平位相は異なっているので、左映像と右映像との間に視
差が発生する。この結果、左映像を左目のみで観察し、
右映像を右目のみで観察すると、被写体が背景に対して
前方位置にあるような立体映像が得られる。
Since the horizontal phase of the left video signal is different from the horizontal phase of the right video signal, a parallax occurs between the left video and the right video. As a result, the left image is observed only with the left eye,
When the right image is observed only with the right eye, a three-dimensional image in which the subject is located in front of the background is obtained.

【0030】図3は、R−Y成分積算回路31の構成を
示している。
FIG. 3 shows the configuration of the RY component integrating circuit 31.

【0031】図2においては、各視差算出領域E1〜E
12の水平方向の画素数をm、各視差算出領域E1〜E
12の垂直方向の画素数をn、第1の視差算出領域E1
の左上の座標を(a,b)として、水平位置(HAD)
および垂直位置(VAD)が表されている。
In FIG. 2, each of the parallax calculation areas E1 to E
12, the number of pixels in the horizontal direction is m, and each of the parallax calculation areas E1 to E
12, the number of pixels in the vertical direction is n, and the first parallax calculation area E1
The horizontal position (HAD), where the coordinates of the upper left of
And the vertical position (VAD).

【0032】R−Y成分積算回路31は、タイミング信
号発生回路201、加算回路202およびR−Y成分積
算レジスタ群203および選択回路(SEL)204を
備えている。R−Y成分積算レジスタ群203は、各視
差算出領域E1〜E12にそれぞれ対応した第1〜第1
2のR−Y成分積算レジスタ211〜222を備えてい
る。
The RY component integrating circuit 31 includes a timing signal generating circuit 201, an adding circuit 202, an RY component integrating register group 203, and a selecting circuit (SEL) 204. The RY component accumulation register group 203 includes first to first pixels corresponding to the respective parallax calculation areas E1 to E12.
Two RY component integration registers 211 to 222 are provided.

【0033】タイミング信号発生回路201には、入力
映像信号の水平同期信号Hsyncおよび垂直同期信号
Vsyncならびに各水平期間の水平アドレスを検出す
るためのクロック信号CLKが入力している。
The timing signal generating circuit 201 receives a horizontal synchronizing signal Hsync and a vertical synchronizing signal Vsync of an input video signal and a clock signal CLK for detecting a horizontal address in each horizontal period.

【0034】タイミング信号発生回路201は、水平同
期信号Hsync、垂直同期信号Vsyncおよびクロ
ック信号CLKに基づいて、第1〜第12のイネーブル
信号EN1〜EN12、リセット信号RSTおよび出力
タイミング信号DOUTを出力する。
The timing signal generating circuit 201 outputs first to twelfth enable signals EN1 to EN12, a reset signal RST and an output timing signal DOUT based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync and the clock signal CLK. .

【0035】各イネーブル信号EN1〜EN12は、そ
れぞれ各視差算出領域E1〜E12に対応しており、常
時はLレベルであり、入力映像信号の水平垂直位置が対
応する領域内にあるときに、Hレベルとなる。第1〜第
12のイネーブル信号EN1〜EN12は、それぞれ第
1〜第12の輝度積算レジスタ211〜222に、書き
込み信号として入力している。また、第1〜第12のイ
ネーブル信号EN1〜EN12は、選択回路204にも
送られる。選択回路204は、Hレベルのイネーブル信
号に対応する入力データを選択して出力する。
Each of the enable signals EN1 to EN12 corresponds to each of the parallax calculation areas E1 to E12, and is always at the L level. When the horizontal and vertical positions of the input video signal are in the corresponding areas, the enable signals EN1 to EN12 are set to the H level. Level. The first to twelfth enable signals EN1 to EN12 are input as write signals to the first to twelfth luminance integration registers 211 to 222, respectively. Further, the first to twelfth enable signals EN1 to EN12 are also sent to the selection circuit 204. The selection circuit 204 selects and outputs input data corresponding to the H-level enable signal.

【0036】リセット信号RSTは、入力映像信号にお
ける各フィールドの有効映像開始タイミングで出力さ
れ、各R−Y成分積算レジスタ211〜222に送られ
る。各R−Y成分積算レジスタ211〜222にリセッ
ト信号RSTが入力されると、その内容が0にされる。
The reset signal RST is output at the effective video start timing of each field in the input video signal and sent to each of the RY component integration registers 211 to 222. When the reset signal RST is input to each of the RY component integration registers 211 to 222, the content is set to 0.

【0037】出力タイミング信号DOUTは、図2に示
すように、入力映像信号の垂直位置が、最下段の視差算
出領域E12の下端の垂直位置を越えた時点から一定期
間だけ、Hレベルとなる。出力タイミング信号DOUT
は、CPU3に送られる。
As shown in FIG. 2, the output timing signal DOUT is at the H level for a certain period from the time when the vertical position of the input video signal exceeds the vertical position at the lower end of the parallax calculation area E12 at the bottom. Output timing signal DOUT
Is sent to the CPU 3.

【0038】入力映像信号における有効映像開始タイミ
ングにリセット信号が出力され、各R−Y成分積算レジ
スタ211〜222の内容が0にされる。入力映像信号
の水平垂直位置が第1の視差算出領域E1内である場合
には、第1のイネーブル信号EN1がHレベルとなるの
で、第1のR−Y成分積算レジスタ211に保持されて
いるR−Y値が選択回路204を介して加算回路202
に送られるとともに、入力映像信号におけるR−Y信号
が加算回路202に入力する。
A reset signal is output at the effective video start timing of the input video signal, and the contents of the RY component integration registers 211 to 222 are set to 0. When the horizontal / vertical position of the input video signal is within the first parallax calculation area E1, the first enable signal EN1 is at the H level, and is held in the first RY component integration register 211. The RY value is added to the addition circuit 202 via the selection circuit 204.
And the RY signal in the input video signal is input to the addition circuit 202.

【0039】したがって、第1の輝度積算レジスタ21
1に保持されていたR−Y値と、入力映像信号における
R−Y信号とが加算回路202によって加算され、その
加算結果が第1のR−Y成分積算レジスタ211に格納
される。つまり、入力映像信号の水平垂直位置が第1の
視差算出領域E1内である場合においては、第1の視差
算出領域E1内の画素のR−Y値が積算されていき、そ
の積算結果が第1のR−Y成分積算レジスタ211に蓄
積される。
Therefore, the first luminance integrating register 21
The RY value held at 1 and the RY signal in the input video signal are added by the adding circuit 202, and the addition result is stored in the first RY component integration register 211. That is, when the horizontal / vertical position of the input video signal is within the first parallax calculation area E1, the RY values of the pixels within the first parallax calculation area E1 are integrated, and the integration result is calculated as the first value. One RY component accumulation register 211 is stored.

【0040】このようにして、各視差算出領域E1〜E
12ごとのR−Y成分積算値が、対応するR−Y成分積
算レジスタ211〜222に蓄積される。そして、出力
タイミング信号DOUTがHレベルとなると、各R−Y
成分積算レジスタ211〜222に蓄積されている各視
差算出領域E1〜E12ごとのR−Y成分積算値が、C
PU3にデータバス(DATA−BUS)を介して送ら
れる。
In this manner, the parallax calculation areas E1 to E
The RY component integrated values for each 12 are stored in the corresponding RY component integrated registers 211 to 222. When the output timing signal DOUT becomes H level, each RY
The RY component integrated value for each of the parallax calculation areas E1 to E12 stored in the component integration registers 211 to 222 is C
It is sent to PU3 via a data bus (DATA-BUS).

【0041】B−Y成分積算回路32の構成も、図3の
R−Y成分積算回路31の構成と同様なので、その説明
を省略する。
The configuration of the BY component integration circuit 32 is also the same as the configuration of the RY component integration circuit 31 of FIG. 3, and a description thereof will be omitted.

【0042】図4は、高周波成分積算回路8の構成を示
している。
FIG. 4 shows the configuration of the high frequency component integrating circuit 8.

【0043】高周波成分積算回路8は、タイミング信号
発生回路231、ハイパスフィルタ(HPF)232、
絶対値化回路233、スライス処理回路234、加算回
路235および高周波成分積算レジスタ群236および
選択回路237を備えている。高周波成分積算レジスタ
群236は、各視差算出領域E1〜E12にそれぞれ対
応した第1〜第12の高周波成分積算レジスタ241〜
252を備えている。
The high-frequency component integrating circuit 8 includes a timing signal generating circuit 231, a high-pass filter (HPF) 232,
An absolute value conversion circuit 233, a slice processing circuit 234, an addition circuit 235, a high frequency component integration register group 236, and a selection circuit 237 are provided. The high-frequency component accumulation register group 236 includes first to twelfth high-frequency component accumulation registers 241 to 241 corresponding to the parallax calculation areas E1 to E12, respectively.
252.

【0044】タイミング信号発生回路231の入力信号
および出力信号は、図3のタイミング信号発生回路20
1の入力信号および出力信号と同じである。
The input signal and the output signal of the timing signal generation circuit 231 correspond to the timing signal generation circuit 20 shown in FIG.
1 is the same as the input signal and the output signal.

【0045】ハイパスフィルタ232としては、たとえ
ば、図5に示すように、5つのDフリップフロップ26
1〜265、入力値の2倍の出力を得るためのビットシ
フト回路266、加算器267および減算器268から
なる、−1、0、2、0および−1のタップ係数を持つ
ハイパスフィルタが用いられる。
As the high-pass filter 232, for example, as shown in FIG.
A high-pass filter having tap coefficients of −1, 0, 2, 0 and −1 including a bit shift circuit 266 for obtaining an output twice as large as the input value, an adder 267 and a subtractor 268 is used. Can be

【0046】また、スライス処理回路234としては、
図6に示すような入出力特性を有する回路が用いられ
る。0〜Iaまでの入力に対しては、出力を0としてい
るのは、ノイズが高周波成分として抽出されないように
するためである。
Further, as the slice processing circuit 234,
A circuit having input / output characteristics as shown in FIG. 6 is used. The output is set to 0 for inputs from 0 to Ia in order to prevent noise from being extracted as a high-frequency component.

【0047】したがって、入力映像信号におけるY信号
の高周波成分がハイパスフィルタ232によって抽出さ
れ、その絶対値が絶対値化回路233により得られ、ス
ライス処理回路234によって高周波成分の絶対値から
ノイズが除去される。
Therefore, the high-frequency component of the Y signal in the input video signal is extracted by the high-pass filter 232, the absolute value thereof is obtained by the absolute value conversion circuit 233, and noise is removed from the absolute value of the high-frequency component by the slice processing circuit 234. You.

【0048】入力映像信号における有効映像開始タイミ
ングにリセット信号が出力され、各高周波成分積算レジ
スタ241〜252の内容が0にされる。入力映像信号
の水平垂直位置が第1の視差算出領域E1内である場合
には、第1のイネーブル信号EN1がHレベルとなるの
で、第1の高周波成分積算レジスタ241に保持されて
いる高周波成分が選択回路237を介して加算回路23
5に送られるとともに、入力映像信号におけるY信号の
高周波成分(スライス処理回路234の出力)が加算回
路235に入力する。
A reset signal is output at the effective video start timing of the input video signal, and the contents of each of the high frequency component integration registers 241 to 252 are set to 0. When the horizontal / vertical position of the input video signal is within the first parallax calculation area E1, the first enable signal EN1 is at the H level, so that the high-frequency component held in the first high-frequency component integration register 241 is stored. Is added through the selection circuit 237 to the addition circuit 23.
5 and the high frequency component of the Y signal in the input video signal (the output of the slice processing circuit 234) is input to the addition circuit 235.

【0049】したがって、第1の高周波成分積算レジス
タ241に保持されていた高周波成分と、入力映像信号
におけるY信号の高周波成分とが加算回路235によっ
て加算され、その加算結果が第1の高周波成分積算レジ
スタ241に格納される。つまり、入力映像信号の水平
垂直位置が第1の視差算出領域E1内である場合におい
ては、第1の視差算出領域E1内の画素の高周波成分が
積算されていき、その積算結果が第1の高周波成分積算
レジスタ241に蓄積される。
Therefore, the high-frequency component held in the first high-frequency component integration register 241 and the high-frequency component of the Y signal in the input video signal are added by the addition circuit 235, and the addition result is added to the first high-frequency component integration. It is stored in the register 241. That is, when the horizontal and vertical positions of the input video signal are within the first parallax calculation area E1, the high-frequency components of the pixels in the first parallax calculation area E1 are integrated, and the integration result is the first. It is stored in the high frequency component integration register 241.

【0050】このようにして、各視差算出領域E1〜E
12ごとの高周波成分の積算値が、対応する高周波成分
積算レジスタ241〜252に蓄積される。そして、出
力タイミング信号DOUTがHレベルとなると、各高周
波成分積算レジスタ241〜252に蓄積されている各
視差算出領域E1〜E12ごとの高周波成分の積算値
が、CPU3にデータバスを介して送られる。
In this manner, each of the parallax calculation areas E1 to E
The integrated value of the high frequency component for each 12 is stored in the corresponding high frequency component integration registers 241-252. Then, when the output timing signal DOUT becomes H level, the integrated value of the high frequency component for each of the parallax calculation areas E1 to E12 stored in each of the high frequency component integration registers 241 to 252 is sent to the CPU 3 via the data bus. .

【0051】図7は、高周波成分積算回路8の他の例を
示している。
FIG. 7 shows another example of the high frequency component integrating circuit 8.

【0052】この高周波成分積算回路8は、タイミング
信号発生回路238、ハイパスフィルタ232、ピーク
検出回路239、加算回路235、高周波成分積算レジ
スタ群236および選択回路237を備えている。
The high frequency component integrating circuit 8 includes a timing signal generating circuit 238, a high pass filter 232, a peak detecting circuit 239, an adding circuit 235, a high frequency component integrating register group 236, and a selecting circuit 237.

【0053】タイミング信号発生回路238は、図3の
タイミング信号発生回路201とほぼ同じであるが、図
2に示すように、入力映像信号の水平位置が、視差算出
領域E1、E5、E9の直前の水平位置および各視差算
出領域E1〜E12の最後尾の水平位置に達したとき
に、トリガパルス(領域境界信号RST1) が出力され
る点が、図3のタイミング信号発生回路201と異なっ
ている。領域境界信号RST1は、ピーク検出回路23
9に送られる。
The timing signal generation circuit 238 is almost the same as the timing signal generation circuit 201 of FIG. 3, but as shown in FIG. 2, the horizontal position of the input video signal is immediately before the parallax calculation areas E1, E5, E9. 3 is different from the timing signal generating circuit 201 in FIG. 3 in that a trigger pulse (region boundary signal RST1) is output when the horizontal position of the image and the horizontal position at the end of each of the parallax calculation regions E1 to E12 are reached. . The region boundary signal RST1 is supplied to the peak detection circuit 23
9

【0054】ハイパスフィルタ232によって抽出され
たY信号の高周波成分は、ピーク検出回路239に送ら
れる。ピーク検出回路239は、各視差算出領域E1〜
E12内の各水平ラインごとに、高周波成分の最大値を
検出する。ピーク検出回路239としては、図8に示す
ように、比較回路271、最大値レジスタ272および
ゲート273を備えたものが用いられる。図9は、入力
映像信号の水平同期信号Hsync、領域境界信号RS
T1、ゲート273等の出力を示している。
The high frequency component of the Y signal extracted by the high-pass filter 232 is sent to a peak detection circuit 239. The peak detection circuit 239 controls each of the parallax calculation areas E1 to E1.
The maximum value of the high frequency component is detected for each horizontal line in E12. As shown in FIG. 8, a peak detection circuit 239 having a comparison circuit 271, a maximum value register 272, and a gate 273 is used. FIG. 9 shows a horizontal synchronization signal Hsync of an input video signal and an area boundary signal RS.
The output of T1, the gate 273, etc. is shown.

【0055】最大値レジスタ272には、ハイパスフィ
ルタ232によって抽出されたY信号の高周波成分、領
域境界信号RST1、比較回路271の判定結果信号L
aおよびクロック信号CLKが入力される。比較回路2
71は、最大値レジスタ272の出力と入力映像信号に
おけるY信号の高周波成分とを比較し、Y信号の高周波
成分が最大値レジスタ272の出力より大きいときに、
判定結果信号LaをHレベルにする。
The maximum value register 272 includes a high-frequency component of the Y signal extracted by the high-pass filter 232, an area boundary signal RST 1, and a determination result signal L of the comparison circuit 271.
a and the clock signal CLK are input. Comparison circuit 2
71 compares the output of the maximum value register 272 with the high frequency component of the Y signal in the input video signal, and when the high frequency component of the Y signal is larger than the output of the maximum value register 272,
The determination result signal La is set to the H level.

【0056】領域境界信号RST1がHレベルになる
と、最大値レジスタ272の内容は0にされる。領域境
界信号RST1がLレベルである状態において、比較回
路271からの判定結果信号LaがHレベルであれば、
Y信号の高周波成分が最大値レジスタ272に格納され
る。つまり、最大値レジスタ272の内容が更新され
る。したがって、最大値レジスタ272には、領域境界
信号RST1がLレベルである期間ごとに、入力映像信
号の水平垂直位置に対応する視差算出領域E1〜E12
内の1水平ラインの各画素に対するY信号の高周波成分
のうちの最大値が蓄積される。
When the region boundary signal RST1 goes high, the contents of the maximum value register 272 are set to zero. In a state where the region boundary signal RST1 is at the L level, if the determination result signal La from the comparison circuit 271 is at the H level,
The high frequency component of the Y signal is stored in the maximum value register 272. That is, the contents of the maximum value register 272 are updated. Therefore, the maximum value register 272 stores the parallax calculation areas E1 to E12 corresponding to the horizontal and vertical positions of the input video signal every time the area boundary signal RST1 is at the L level.
The maximum value of the high frequency components of the Y signal for each pixel of one horizontal line is stored.

【0057】ゲート273は、領域境界信号RST1が
Hレベルになると、最大値レジスタ272の出力値を出
力し、領域境界信号RST1がLレベルのときには0を
出力する。つまり、ゲート回路273からは、領域境界
信号RST1がHレベルになるごとに、最大値レジスタ
272に蓄積されていた所定の視差算出領域E1〜E1
2内の1水平ラインに対するY信号の高周波成分の最大
値が出力される。したがって、各高周波成分積算レジス
タ241〜252(図7参照)には、対応する視差算出
領域内の各水平ラインに対するY信号の高周波成分の最
大値の積算値が蓄積されることになる。
Gate 273 outputs the output value of maximum value register 272 when region boundary signal RST1 attains H level, and outputs 0 when region boundary signal RST1 is at L level. That is, every time the region boundary signal RST1 becomes H level, the gate circuit 273 outputs the predetermined parallax calculation regions E1 to E1 stored in the maximum value register 272.
The maximum value of the high frequency component of the Y signal for one horizontal line in 2 is output. Therefore, the integrated value of the maximum value of the high frequency component of the Y signal for each horizontal line in the corresponding parallax calculation area is accumulated in each of the high frequency component integration registers 241 to 252 (see FIG. 7).

【0058】図10は、輝度コントラスト算出回路9の
構成を示している。
FIG. 10 shows the configuration of the luminance contrast calculation circuit 9.

【0059】輝度コントラスト算出回路9は、タイミン
グ信号発生回路301および輝度コントラスト検出回路
群302を備えている。輝度コントラスト検出回路群3
02は、各視差算出領域E1〜E12にそれぞれ対応し
た第1〜第12の輝度コントラスト検出回路311〜3
22を備えている。
The luminance contrast calculation circuit 9 includes a timing signal generation circuit 301 and a luminance contrast detection circuit group 302. Brightness / contrast detection circuit group 3
02 denotes first to twelfth luminance contrast detection circuits 311 to 311 corresponding to the parallax calculation areas E1 to E12, respectively.
22.

【0060】タイミング信号発生回路301の入力信号
および出力信号は、図3のタイミング信号発生回路20
1の入力信号および出力信号と同じである。
The input signal and the output signal of the timing signal generation circuit 301 correspond to the timing signal generation circuit 20 shown in FIG.
1 is the same as the input signal and the output signal.

【0061】各輝度コントラスト検出回路311〜32
2は、図11に示すように、第1の比較回路331、最
大値レジスタ332、第2の比較回路333、最小値レ
ジスタ334および減算器335を備えている。
Each luminance contrast detecting circuit 311 to 32
2, includes a first comparison circuit 331, a maximum value register 332, a second comparison circuit 333, a minimum value register 334, and a subtractor 335, as shown in FIG.

【0062】最大値レジスタ332には、入力映像信号
におけるY信号、当該輝度コントラスト検出回路に対応
する領域E1〜E12のイネーブル信号EN(N=1、
2…12)、リセット信号RST、第1の比較回路33
1から出力される判定信号Lbおよびクロック信号CL
Kが入力している。第1の比較回路331は、最大値レ
ジスタ332の出力値と入力映像信号におけるY信号と
を比較し、入力映像信号におけるY信号が最大値レジス
タ332の出力値より大きいときに判定信号LbをHレ
ベルにする。
The maximum value register 332 stores a Y signal in the input video signal and an enable signal EN (N = 1, N = 1, E2) in the areas E1 to E12 corresponding to the luminance contrast detection circuit.
2... 12), reset signal RST, first comparison circuit 33
1 and the clock signal CL
K is input. The first comparison circuit 331 compares the output value of the maximum value register 332 with the Y signal of the input video signal, and when the Y signal of the input video signal is larger than the output value of the maximum value register 332, sets the determination signal Lb to H. To level.

【0063】リセット信号RSTがHレベルになると、
最大値レジスタ332の内容は0にされる。当該輝度コ
ントラスト検出回路に対応する領域E1〜E12のイネ
ーブル信号ENがHレベルでありかつ判定信号LbがH
レベルのときに、Y信号が最大値レジスタ332に格納
される。つまり、最大値レジスタ332の内容が更新さ
れる。したがって、出力タイミング信号DOUTが出力
される直前においては、最大値レジスタ332には、当
該輝度コントラスト検出回路に対応する視差算出領域E
1〜E12内の各画素の輝度値のうちの最大値が蓄積さ
れる。
When the reset signal RST goes high,
The contents of the maximum value register 332 are set to 0. The enable signals EN of the areas E1 to E12 corresponding to the luminance contrast detection circuit are at the H level and the determination signal Lb is at the H level.
When the signal is at the level, the Y signal is stored in the maximum value register 332. That is, the contents of the maximum value register 332 are updated. Therefore, immediately before the output timing signal DOUT is output, the maximum value register 332 stores the parallax calculation area E corresponding to the luminance contrast detection circuit.
The maximum value of the luminance values of the pixels in 1 to E12 is accumulated.

【0064】最小値レジスタ334には、入力映像信号
におけるY信号、当該輝度コントラスト検出回路に対応
する領域E1〜E12のイネーブル信号EN(N=1、
2…12)、リセット信号RST、第2の比較回路33
3から出力される判定信号Lcおよびクロック信号CL
Kが入力している。第2の比較回路333は、最小値レ
ジスタ334の出力値と入力映像信号におけるY信号と
を比較し、入力映像信号におけるY信号が最小値レジス
タ334の出力値より小さいときに判定信号LcをHレ
ベルにする。
The minimum value register 334 stores the Y signal in the input video signal and the enable signal EN (N = 1, N = 1, E2) in the areas E1 to E12 corresponding to the luminance contrast detection circuit.
2... 12), reset signal RST, second comparison circuit 33
3 and the clock signal CL output from
K is input. The second comparison circuit 333 compares the output value of the minimum value register 334 with the Y signal of the input video signal. When the Y signal of the input video signal is smaller than the output value of the minimum value register 334, the determination signal Lc is set to H. To level.

【0065】リセット信号RSTがHレベルになると、
最小値レジスタ334に、予め定められた最大値が設定
される。当該輝度コントラスト検出回路に対応する領域
E1〜E12のイネーブル信号ENがHレベルでありか
つ判定信号LcがHレベルのときに、Y信号が最小値レ
ジスタ334に格納される。つまり、最小値レジスタ3
34の内容が更新される。したがって、出力タイミング
信号DOUTが出力される直前においては、最小値レジ
スタ334には、当該輝度コントラスト検出回路に対応
する視差算出領域E1〜E12内の各画素の輝度値のう
ちの最小値が蓄積される。
When the reset signal RST goes high,
A predetermined maximum value is set in the minimum value register 334. When the enable signals EN of the areas E1 to E12 corresponding to the luminance contrast detection circuit are at the H level and the determination signal Lc is at the H level, the Y signal is stored in the minimum value register 334. That is, the minimum value register 3
34 is updated. Therefore, immediately before the output timing signal DOUT is output, the minimum value of the luminance values of the pixels in the parallax calculation areas E1 to E12 corresponding to the luminance contrast detection circuit is accumulated in the minimum value register 334. You.

【0066】この結果、出力タイミング信号DOUTが
出力される時点においては、減算器335の出力は、対
応する視差算出領域E1〜E12内の各画素の輝度値の
うちの最大値と最小値との差(輝度コントラスト)に対
応した値となる。そして、出力タイミング信号DOUT
が出力されると、減算器335の出力(輝度コントラス
ト)がCPU3に送られる。
As a result, at the point in time when the output timing signal DOUT is output, the output of the subtractor 335 is the difference between the maximum value and the minimum value of the luminance values of the pixels in the corresponding parallax calculation areas E1 to E12. The value corresponds to the difference (luminance contrast). Then, the output timing signal DOUT
Is output, the output (luminance contrast) of the subtractor 335 is sent to the CPU 3.

【0067】図12は、CPU3によって行なわれる視
差算出領域毎の視差情報生成処理手順を示している。
FIG. 12 shows a procedure of the parallax information generation processing for each parallax calculation area performed by the CPU 3.

【0068】分割領域毎の視差情報生成処理において
は、グループ分け処理(ステップ1)、空間分離処理
(ステップ2)、特異点処理(ステップ3)、グループ
間結合処理(ステップ4)、グループ毎の奥行き情報生
成処理(ステップ5)、全領域に対する奥行き情報補正
処理(ステップ6)、グループ境界に対する奥行き情報
補正処理(ステップ7)、グループ内部に対する奥行き
情報補正処理(ステップ8)および視差情報算出処理
(ステップ9)が行なわれる。
In the parallax information generation processing for each divided area, grouping processing (step 1), space separation processing (step 2), singularity processing (step 3), inter-group coupling processing (step 4), group-by-group processing Depth information generation processing (step 5), depth information correction processing for all areas (step 6), depth information correction processing for group boundaries (step 7), depth information correction processing for the inside of the group (step 8), and parallax information calculation processing (step 8) Step 9) is performed.

【0069】1フィールドに対して実際に設定されてい
る60個の視差算出領域を例にとって、視差情報生成処
理を説明する。図13は、1フィールドに対して実際に
設定されている60個の視差算出領域F1〜F60を示
している。
The parallax information generation processing will be described by taking as an example 60 parallax calculation areas actually set for one field. FIG. 13 shows 60 parallax calculation areas F1 to F60 actually set for one field.

【0070】(1)グループ分け処理の説明(1) Description of grouping process

【0071】ステップ1のグループ分け処理は、1枚の
画像を構成する全領域を、その画像に含まれている物体
ごとにグループ分けすることを目的として行なわれる最
初の処理である。
The grouping process in step 1 is the first process performed for the purpose of grouping all the regions constituting one image for each object included in the image.

【0072】グループ分けの方法には次に述べるように
2つの方法がある。
There are two grouping methods as described below.

【0073】(1−1)第1方法 まず、視差算出領域F1〜F60毎に得られた高周波積
算値を、所定範囲(たとえば、0〜20)の値に正規化
する。そして、高周波積算値の各正規化値に属する視差
算出領域の数の分布(ヒストグラム)を生成する。図1
4に、生成されたヒストグラムの一例を示す。そして、
ヒストグラムの谷と谷との間の山に含まれている視差算
出領域どうしを、1つのグループとする。高周波積算値
の代わりに輝度コントラストを用いてもよい。図15
は、このようにして各視差算出領域F1〜F60が、グ
ループ分けされた結果を示している。図15において、
G1〜G4の数字は、グループ番号を示している。
(1-1) First Method First, the high frequency integrated values obtained for each of the parallax calculation areas F1 to F60 are normalized to values within a predetermined range (for example, 0 to 20). Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the high-frequency integrated value is generated. FIG.
FIG. 4 shows an example of the generated histogram. And
The parallax calculation areas included in the peaks between the valleys of the histogram are defined as one group. Brightness contrast may be used instead of the high frequency integrated value. FIG.
Shows the result of grouping the parallax calculation areas F1 to F60 in this way. In FIG.
The numbers G1 to G4 indicate group numbers.

【0074】(1−2)第2方法 視差算出領域F1〜F60毎に得られたR−Y成分の積
算値を、0〜20の範囲の値に正規化する。そして、R
−Y成分積算値の各正規化値に属する視差算出領域の数
の分布(ヒストグラム)を生成する。このヒストグラム
に基づいて、R−Y成分積算値の正規化値の中から、グ
ループ間の境界値を求める。
(1-2) Second Method The integrated value of the RY component obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 20. And R
-Generate a distribution (histogram) of the number of parallax calculation areas belonging to each normalized value of the Y component integrated value. Based on this histogram, a boundary value between groups is determined from the normalized values of the RY component integrated values.

【0075】また、視差算出領域F1〜F60毎に得ら
れたB−Y成分の積算値を、0〜10の範囲の値に正規
化する。そして、B−Y成分積算値の各正規化値に属す
る視差算出領域の数の分布(ヒストグラム)を生成す
る。このヒストグラムに基づいて、B−Y成分積算値の
正規化値の中から、グループ間の境界値を求める。
Further, the integrated values of the BY components obtained for each of the parallax calculation areas F1 to F60 are normalized to values in the range of 0 to 10. Then, a distribution (histogram) of the number of parallax calculation regions belonging to each normalized value of the BY component integrated value is generated. Based on the histogram, a boundary value between groups is obtained from the normalized values of the BY component integrated values.

【0076】そして、図16に示すように、このように
して得られた2種類の境界値を用いて、全視差算出領域
をグループ化する。図17および図18は、このように
して各視差算出領域F1〜F60が、グループ分けされ
た結果を示している。図17および図18において、G
1〜G5は、グループ番号を示している。
Then, as shown in FIG. 16, all the parallax calculation areas are grouped using the two types of boundary values obtained in this way. FIGS. 17 and 18 show the results of grouping the parallax calculation areas F1 to F60 in this way. 17 and 18, G
1 to G5 indicate group numbers.

【0077】この実施の形態では、第2方法によってグ
ループ分け処理が行なわれたものとする。
In this embodiment, it is assumed that the grouping process has been performed by the second method.

【0078】(2)空間分離処理の説明(2) Description of space separation processing

【0079】ステップ2の空間分離処理では、ステップ
1の処理によって同一のグループに属している視差算出
領域のうち、空間的に隣接している視差算出領域どうし
が1つのグループとされる。つまり、ステップ1の処理
によって同一のグループに属している視差算出領域であ
っても、空間的に他のグループによって分離されている
視差算出領域どうしは、別々のグループとされる。
In the spatial separation processing of step 2, among the parallax calculation areas belonging to the same group by the processing of step 1, spatially adjacent parallax calculation areas are combined into one group. That is, even if the parallax calculation areas belong to the same group by the process of step 1, the parallax calculation areas spatially separated by other groups are separated into different groups.

【0080】具体的には、図19に示すように、ステッ
プ1において、グループ3(G3)に属するとされた視
差算出領域は、グループ31(G31)、グループ32
(G32)およびグループ33(G33)の3つのグル
ープに分離される。
More specifically, as shown in FIG. 19, in step 1, the parallax calculation areas belonging to group 3 (G3) are group 31 (G31), group 32 (G31).
(G32) and group 33 (G33).

【0081】(3)特異点処理の説明(3) Description of singularity processing

【0082】この特異点処理では、1つの視差算出領域
のみで構成されているグループが存在する場合に、その
1つの視差算出領域が隣接する他のグループとは別の物
体に対応しているのか、隣接する他のグループの物体と
同じ物体に対応しているのかが判定される。
In this singularity processing, if there is a group consisting of only one parallax calculation area, does one parallax calculation area correspond to another object different from the other adjacent group? Is determined as corresponding to the same object as another adjacent group.

【0083】たとえば、図20に示すように、あるグル
ープが1つの視差算出領域Aのみで構成されているグル
ープであるとする。視差算出領域Aの上方向にある2つ
の視差算出領域を、視差算出領域Aに近いものからU
1、U2とする。視差算出領域Aの下方向にある2つの
視差算出領域を、視差算出領域Aに近いものからD1、
D2とする。視差算出領域Aの左方向にある2つの視差
算出領域を、視差算出領域Aに近いものからL1、L2
とする。視差算出領域Aの右方向にある2つの視差算出
領域を、視差算出領域Aに近いものからR1、R2とす
る。
For example, as shown in FIG. 20, it is assumed that a certain group is a group composed of only one parallax calculation area A. The two parallax calculation areas in the upper direction of the parallax calculation area A are changed from those close to the parallax calculation area A to U
1, U2. The two parallax calculation areas in the lower direction of the parallax calculation area A are changed from those closer to the parallax calculation area A to D1,
D2. The two parallax calculation areas in the left direction of the parallax calculation area A are changed from those close to the parallax calculation area A to L1 and L2.
And The two parallax calculation areas on the right side of the parallax calculation area A are defined as R1 and R2 starting from the one close to the parallax calculation area A.

【0084】この場合に、領域Aを中心とする上下左右
のそれぞれの方向について、領域Aとそれの1つ外側の
領域U1、D1、L1、R1との色距離が、領域Aより
1つ外側の領域U1、D1、L1、R1とさらにその1
つ外側の領域U2、D2、L2、R2との色距離より大
きい場合には、領域Aのみで構成されているグループは
単独で1つのグループを形成すると判別される。そうで
ない場合には、領域Aはその周囲のグループに属すると
判別される。つまり、グループ分けが修正される。
In this case, the color distance between the area A and the areas U1, D1, L1, and R1 outside the area A by one in each of the up, down, left, and right directions around the area A is one area outside the area A. Areas U1, D1, L1, R1 and 1
If the color distance from the regions U2, D2, L2, and R2 on the outer side is larger than that of the regions U2, D2, L2, and R2, it is determined that the group including only the region A alone forms one group. Otherwise, the area A is determined to belong to the surrounding group. That is, the grouping is corrected.

【0085】色距離の定義について説明する。ある視差
算出領域Faに対するB−Y成分積算値、R−Y成分積
算値をそれぞれFa(B−Y)、Fa(R−Y)で表
し、ある視差算出領域Fbに対するB−Y成分積算値、
R−Y成分積算値をそれぞれFb(B−Y)、Fb(R
−Y)で表すと、領域Faと領域Fbとの間の色距離di
stは、次の数式1で定義される。
The definition of the color distance will be described. The BY component integrated value and the RY component integrated value for a certain parallax calculation area Fa are represented by Fa (BY) and Fa (RY), respectively, and the BY component integrated value for a certain parallax calculation area Fb,
The RY component integrated values are represented by Fb (BY) and Fb (R
−Y), the color distance di between the area Fa and the area Fb
st is defined by the following equation 1.

【0086】[0086]

【数1】 (Equation 1)

【0087】例えば、図20の領域Aの(B−Y成分積
算値、R−Y成分積算値)が(−4,5)で、領域U1
の(B−Y成分積算値、R−Y成分積算値)が(−5,
4)で、領域U2の(B−Y成分積算値、R−Y成分積
算値)が(−7,2)であるとする。領域Aと領域U1
との色距離distは”2”となり、領域U1と領域U2と
の色距離distは”4”となる。
For example, the (BY component integrated value, RY component integrated value) of the area A in FIG. 20 is (-4, 5) and the area U1
Of (BY component integrated value, RY component integrated value) is (-5,
In 4), it is assumed that the (BY component integrated value, RY component integrated value) of the area U2 is (−7, 2). Area A and area U1
Is the color distance dist of “2”, and the color distance dist of the area U1 and the area U2 is “4”.

【0088】図19のグループ31(G31)が1つの
視差算出領域のみで構成されており、上記のような特異
点処理により、グループ1(G1)に属すると判別され
たとすると、図21に示すようにグループ分けが修正さ
れる。
If the group 31 (G31) in FIG. 19 is composed of only one parallax calculation area, and it is determined that the group 31 (G1) belongs to the group 1 (G1) by the above-described singularity processing, FIG. Grouping is modified as follows.

【0089】(4)グループ間結合処理の説明(4) Description of Inter-Group Connection Processing

【0090】ステップ4のグループ間結合処理では、ま
ず、各グループ毎に、そのグループを構成する視差算出
領域のR−Y成分積算値の平均値およびB−Y成分積算
値の平均値が算出される。
In the inter-group combining process in step 4, first, for each group, the average value of the RY component integrated values and the average value of the BY component integrated values of the parallax calculation areas constituting the group are calculated. You.

【0091】次に、隣接している2つのグループどうし
間の色距離が算出される。つまり、隣接している2つの
グループをGa、Gbとする。グループGaがn個の視
差算出領域a1、a2、…anで構成されているとする
と、グループGaのB−Y成分積算値の平均値*Ga
(B−Y)およびR−Y成分積算値の平均値*Ga(R
−Y)は、次の数式2で求められる。
Next, the color distance between two adjacent groups is calculated. That is, two adjacent groups are defined as Ga and Gb. Assuming that the group Ga is composed of n parallax calculation areas a1, a2,... An, the average value * Ga of the integrated values of the BY components of the group Ga
Average value of (BY) and RY component integrated values * Ga (R
−Y) is obtained by the following Expression 2.

【0092】[0092]

【数2】 (Equation 2)

【0093】また、グループGbがm個の視差算出領域
b1、b2、…bmで構成されているとすると、グルー
プGbのB−Y成分積算値の平均値*Gb(B−Y)お
よびR−Y成分積算値の平均値*Gb(R−Y)は、次
の数式3で求められる。
Assuming that the group Gb is composed of m parallax calculation areas b1, b2,... Bm, the average value * Gb (BY) of the integrated values of the BY components of the group Gb and R- The average value * Gb (RY) of the Y component integrated value is obtained by the following equation (3).

【0094】[0094]

【数3】 (Equation 3)

【0095】グループGaとグループGbとの間の色距
離distは、次の数式4によって定義される。
The color distance dist between the group Ga and the group Gb is defined by the following equation (4).

【0096】[0096]

【数4】 (Equation 4)

【0097】そして、隣り合う2つのグループ間の色距
離がしきい値より小さいか否かが判別され、色距離がし
きい値より小さいときには、これらの2つのグループが
結合される。つまり、これらの2つのグループが1つの
グループにまとめられる。
Then, it is determined whether or not the color distance between two adjacent groups is smaller than a threshold value. When the color distance is smaller than the threshold value, these two groups are combined. That is, these two groups are combined into one group.

【0098】(5)グループ毎の奥行き情報生成処理の
説明
(5) Depth information generation processing for each group

【0099】ステップ5のグループ毎の奥行き情報生成
処理では、まず、視差算出領域F1〜F60毎に得られ
た高周波成分の積算値が、0〜10の範囲の値に正規化
される。また、視差算出領域F1〜F60毎に得られた
輝度コントラストが、0〜10の範囲の値に正規化され
る。
In the depth information generation processing for each group in step 5, first, the integrated value of the high frequency components obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 10. Further, the luminance contrast obtained for each of the parallax calculation areas F1 to F60 is normalized to a value in the range of 0 to 10.

【0100】そして、得られた高周波成分の積算値の正
規化値と、輝度コントラストの正規化値と、図22に示
すように各視差算出領域F1〜F60毎に予め与えられ
た背景重み成分に基づいて、グループ毎の奥行き情報が
生成される。
Then, the normalized value of the obtained integrated value of the high-frequency component, the normalized value of the luminance contrast, and the background weight component given in advance for each of the parallax calculation areas F1 to F60 as shown in FIG. Based on this, depth information for each group is generated.

【0101】任意の1つのグループに対する奥行き情報
の生成方法について説明する。まず、当該グループに属
している視差算出領域数nが求められる。また、当該グ
ループに属している視差算出領域に対する高周波成分の
積算値の正規化値aの総和Σaが算出される。また、当
該グループに属している視差算出領域に対する輝度コン
トラストの正規化値bの総和Σbが算出される。また、
当該グループに属している視差算出領域に対する背景重
み成分cの総和Σcが算出される。
A method of generating depth information for an arbitrary group will be described. First, the number n of parallax calculation areas belonging to the group is determined. Further, the sum Σa of the normalized values a of the integrated values of the high frequency components for the parallax calculation regions belonging to the group is calculated. Further, the sum Σb of the normalized values b of the brightness contrasts for the parallax calculation areas belonging to the group is calculated. Also,
The sum Σc of the background weight components c for the parallax calculation regions belonging to the group is calculated.

【0102】そして、次の数式5に基づいて、当該グル
ープに対する奥行き情報Hが生成される。
Then, based on the following equation 5, depth information H for the group is generated.

【0103】[0103]

【数5】 (Equation 5)

【0104】数式5において、K1、K2およびK3は
係数であり、たとえば、K1=3/8、K2=1/8、
K3=4/8に設定されている。
In Equation 5, K1, K2 and K3 are coefficients, for example, K1 = 3/8, K2 = 1/8,
K3 = 4/8.

【0105】(6)全領域に対する奥行き情報補正処理
の説明
(6) Depth Information Correction Processing for All Regions

【0106】ステップ5のグループ毎の奥行き情報補正
処理では、まず、視差算出領域F1〜F60の各行ごと
に、奥行き情報の平均値が算出される。各視差算出領域
F1〜F60ごとの奥行き情報が、たとえば、図23に
示すような値であった場合には、第1〜第6行目ごとの
奥行き情報の平均値は、1.2、3.6、6.0、7.
2、4.0、1.2となる。
In the depth information correction processing for each group in step 5, first, an average value of depth information is calculated for each row of the parallax calculation areas F1 to F60. If the depth information for each of the parallax calculation areas F1 to F60 has a value as shown in FIG. 23, for example, the average value of the depth information for each of the first to sixth rows is 1.2, 3 .6, 6.0, 7.
2, 4.0, and 1.2.

【0107】次に、視差算出領域の各行のうち、手前位
置の物体が多く映っている領域が抽出される。つまり、
奥行き情報の平均値が最も大きい行が抽出される。図2
3の例では、第4行目の領域が抽出される。
Next, from each row of the parallax calculation area, an area where many objects at the near position are reflected is extracted. That is,
The row having the largest average value of the depth information is extracted. FIG.
In the example of No. 3, the area of the fourth row is extracted.

【0108】次に、抽出された行より下段にある行の各
領域については、直上の領域に対して、急激に奥行き情
報が小さくならないように、抽出された行より下段にあ
る行の各領域の奥行き情報が調整される。具体的には、
抽出された行より下段にある行の各領域の奥行き情報が
直上の領域に対して3以上小さい領域に対しては、直上
の領域の奥行き情報より2だけ小さい値に、その領域の
奥行き情報が変更せしめられる。
Next, with respect to each area of the row below the extracted row, each area of the row below the extracted row is compared with the area immediately above so that the depth information does not suddenly decrease. Is adjusted. In particular,
For an area in which the depth information of each area in the row below the extracted row is smaller than the area immediately above by 3 or more, the depth information of the area is set to a value smaller by 2 than the depth information of the area immediately above. Can be changed.

【0109】図23の例では、図24に示すように、ま
ず、第5行の各領域F41〜F50のうち、その奥行き
情報が直上の領域の奥行き情報に対して3以上小さい領
域F42〜F49に対して、奥行き情報が補正される。
この後、第6行の各領域F51〜F60のうち、その奥
行き情報が直上の領域の奥行き情報(補正後の奥行き情
報)に対して3以上小さい領域F53〜F58に対し
て、奥行き情報が補正される。
In the example of FIG. 23, as shown in FIG. 24, among the regions F41 to F50 in the fifth row, first, the regions F42 to F49 whose depth information is smaller than the depth information of the region immediately above by three or more. , The depth information is corrected.
Thereafter, among the regions F51 to F60 in the sixth row, the depth information is corrected for the regions F53 to F58 whose depth information is smaller than the depth information (corrected depth information) of the region immediately above by three or more. Is done.

【0110】つまり、任意の水平位置における画面の高
さに対する奥行き情報の関係が、図25に曲線U1で示
すような関係である場合には、奥行き補正によって、画
面の高さに対する奥行き情報の関係が、図25に曲線U
2に示すような関係となるように補正される。
That is, when the relationship of the depth information with respect to the screen height at an arbitrary horizontal position is a relationship as shown by the curve U1 in FIG. 25, the relationship between the depth information and the screen height is corrected by the depth correction. However, FIG.
The correction is made so as to have the relationship shown in FIG.

【0111】このように、視差算出領域の各行のうち、
手前位置の物体が多く映っている領域より下段の領域の
奥行き情報が補正されているのは次の理由による。
As described above, in each row of the parallax calculation area,
The reason that the depth information of the area below the area where many objects at the near position are reflected is corrected for the following reason.

【0112】一般的には、画面の下側には前方に存在す
る物体が映っていることが多い。また、画面の下側に映
っている物体は、地面等のように変化の少ない画像であ
ることが多い。地面等のように変化の少ない画像は、高
周波成分が低いため、前方にあるにも係わらず、奥行き
情報の値は小さくなる。そこで、奥行き補正により、前
方にある物体であって高周波成分が低い映像に対する奥
行き情報を、その直上の領域の奥行き情報の値より大き
くならない程度に大きくしているのである。
In general, an object existing in front is often displayed on the lower side of the screen. Further, the object reflected on the lower side of the screen is often an image with little change such as the ground. An image with little change, such as the ground, has a low high-frequency component, so that the value of the depth information is small even though it is ahead. Therefore, depth information is increased by depth correction so that the depth information of an image located in front of the object and having a low high-frequency component is not larger than the value of the depth information of the area immediately above the image.

【0113】(7)グループ境界に対する奥行き情報補
正処理の説明
(7) Description of Depth Information Correction Processing for Group Boundary

【0114】隣り合う2つのグループ間の境界部におい
ては、正しくグループ分けが行なわれていないことがあ
る。また、隣り合う2つのグループ間の境界部におい
て、グループ毎の奥行き推定値が大きく異なると、画像
歪みが顕著となる。
At the boundary between two adjacent groups, grouping may not be performed correctly. In addition, if the depth estimation value for each group is significantly different at the boundary between two adjacent groups, image distortion becomes significant.

【0115】そこで、ステップ7のグループ境界に対す
る奥行き情報補正処理では、まず、隣り合う2つのグル
ープ間の境界部毎に、一方のグループの視差算出領域の
奥行き情報と、他方のグループの視差算出領域の奥行き
情報との差が、予め定められた所定値以上か否かが判別
される。そして、両者の奥行き情報の差が所定値以上で
ある場合には、両者の奥行き情報の差が所定値より小さ
くなるように、奥行き情報が小さい方(つまり、後方に
位置している方)の視差算出領域に対する奥行き情報を
増加させる。
Therefore, in the depth information correction processing for the group boundary in step 7, first, for each boundary between two adjacent groups, the depth information of the parallax calculation area of one group and the parallax calculation area of the other group are set. It is determined whether the difference from the depth information is equal to or greater than a predetermined value. When the difference between the two pieces of depth information is equal to or greater than a predetermined value, the smaller depth information (that is, the one located rearward) is set so that the difference between the two pieces of depth information becomes smaller than the predetermined value. The depth information for the parallax calculation area is increased.

【0116】(8)グループ内部に対する奥行き情報補
正処理の説明
(8) Description of Depth Information Correction Process for Inside Group

【0117】上記ステップ6および7の補正処理によっ
て、同一グループ内においても領域によって奥行き情報
に差が生じる。この差が大きくなると、画像歪みが顕著
となる。そこで、ステップ8のグループ内部に対する奥
行き情報補正処理では、各グループ毎に、グループ内の
奥行き推定値が平滑化される。
Due to the correction processing in steps 6 and 7, there is a difference in depth information depending on the region even in the same group. When this difference increases, the image distortion becomes significant. Therefore, in the depth information correction processing for the inside of the group in step 8, the estimated depth value in the group is smoothed for each group.

【0118】つまり、図26に示すように、同じグルー
プ内において、注目領域をA、それに対する奥行き情報
をHAとし、それに隣接する4つの領域をU、D、L、
R、それらに対する奥行き情報をHU、HD、HL、H
Rとすると、注目領域Aに対する奥行き推定値HAは次
の数式6により、補正される。
That is, as shown in FIG. 26, in the same group, the attention area is A, the depth information corresponding thereto is HA, and the four adjacent areas are U, D, L,
R, depth information for them HU, HD, HL, H
Assuming that R, the estimated depth value HA for the attention area A is corrected by the following Expression 6.

【0119】[0119]

【数6】 (Equation 6)

【0120】このようにして得られた各視差算出領域F
1〜F60ごとの奥行き情報は、再度、0〜10の範囲
内で正規化される。
Each of the parallax calculation areas F thus obtained
The depth information for each of 1 to F60 is normalized again within the range of 0 to 10.

【0121】(9)視差情報算出処理の説明(9) Description of parallax information calculation processing

【0122】ステップ9の視差情報算出処理では、各視
差算出領域F1〜F60ごとの奥行き情報が各領域F1
〜F60ごとの視差情報に変換される。
In the parallax information calculation processing of step 9, the depth information for each of the parallax calculation areas F1 to F60 is stored in each area F1.
Is converted into disparity information for each of F60.

【0123】つまり、予め設定された奥行き情報に対す
る視差情報との関係に基づいて、各領域F1〜F60ご
とに、奥行き情報を視差情報に変換する。奥行き情報に
対する視差情報との関係は、図27に直線S1またはS
2で示されるように、反比例の関係である。
That is, the depth information is converted into the parallax information for each of the areas F1 to F60 based on the relationship between the depth information and the parallax information set in advance. The relationship between the depth information and the disparity information is shown in FIG.
As shown by 2, the relationship is inversely proportional.

【0124】図27において、直線S1で示される奥行
き情報に対する視差情報との関係は、立体感が比較的強
い立体映像を得たい場合に用いられる。直線S2で示さ
れる奥行き情報に対する視差情報との関係は、立体感が
比較的弱い立体映像を得たい場合に用いられる。奥行き
情報に対する視差情報との関係を、直線S1と直線S2
との間で調整することにより、立体感を調整することが
可能である。
In FIG. 27, the relationship between the depth information indicated by the straight line S1 and the parallax information is used when a stereoscopic image having a relatively strong stereoscopic effect is desired to be obtained. The relationship between the depth information indicated by the straight line S2 and the parallax information is used when it is desired to obtain a stereoscopic image having a relatively weak stereoscopic effect. The relationship between the depth information and the parallax information is represented by a straight line S1 and a straight line S2.
It is possible to adjust the three-dimensional effect by adjusting between.

【0125】このようにして得られた各視差算出領域ご
との視差情報は、視差制御回路4(図1参照)に送られ
る。
The thus obtained disparity information for each disparity calculation area is sent to the disparity control circuit 4 (see FIG. 1).

【0126】図28は、主として、図1の視差制御回路
および任意画素遅延FIFOの構成を示している。以下
においては、視差算出領域が、図2に示すように、E1
〜E12であるとして説明する。
FIG. 28 mainly shows the configuration of the parallax control circuit and the arbitrary pixel delay FIFO shown in FIG. In the following, the parallax calculation area is set to E1 as shown in FIG.
To E12.

【0127】図28には、任意画素遅延FIFO11〜
13、21〜23のうち、Y信号に対する左映像用任意
画素遅延FIFO11および右映像用任意画素遅延FI
FO21しか示されていないが、他の任意画素遅延FI
FO12、13、22、23も同様な構成でありかつ同
様な制御が行なわれるので、他の任意画素遅延FIFO
12、13、22、23の構成および制御方法について
は、その説明を省略する。
FIG. 28 shows an arbitrary pixel delay FIFO 11 to 11.
13, 21 to 23, left image arbitrary pixel delay FIFO 11 and right image arbitrary pixel delay FI for Y signal
Although only FO21 is shown, other arbitrary pixel delays FI
FO12, 13, 22, and 23 have the same configuration and perform the same control, so that other arbitrary pixel delay FIFOs
Descriptions of the configurations and control methods of 12, 13, 22, and 23 are omitted.

【0128】ところで、CPU3によって算出された視
差情報は、各視差算出領域E1〜E12の中心位置に対
する視差情報である。視差制御回路4では、各視差算出
領域E1〜E12の中心位置に対する視差情報に基づい
て、1フィールド画面の各画素位置に対する視差情報が
求められる。そして、各画素位置に対する2次元映像信
号から、その画素位置に対する視差情報に応じた視差を
有する左映像と右映像とを生成するために、各画素位置
に対する視差情報に基づいて、左映像用任意画素遅延F
IFO11〜13および右映像用任意画素遅延FIFO
21〜23の読み出しアドレスが制御される。
Incidentally, the disparity information calculated by the CPU 3 is disparity information for the center position of each of the disparity calculation areas E1 to E12. The parallax control circuit 4 obtains parallax information for each pixel position on a one-field screen based on the parallax information for the center position of each of the parallax calculation areas E1 to E12. Then, in order to generate a left image and a right image having parallax corresponding to the parallax information for the pixel position from the two-dimensional video signal for each pixel position, an arbitrary left video image is generated based on the parallax information for each pixel position. Pixel delay F
IFO 11-13 and right pixel arbitrary pixel delay FIFO
The read addresses 21 to 23 are controlled.

【0129】1フィールド画面の各画素位置に対する視
差情報は、タイミング信号発生回路51、視差補間係数
発生回路52、視差情報記憶手段60、視差選択回路8
0、第1〜第4乗算器81〜84および加算回路85に
よって、生成される。
The parallax information for each pixel position on the one-field screen is stored in the timing signal generation circuit 51, the parallax interpolation coefficient generation circuit 52, the parallax information storage means 60, and the parallax selection circuit 8.
0, and is generated by the first to fourth multipliers 81 to 84 and the addition circuit 85.

【0130】入力映像信号の水平同期信号Hsyncお
よび垂直同期信号Vsyncは、タイミング信号発生回
路51に入力している。また、各水平期間の水平アドレ
スを検出するためのクロック信号CLKもタイミング信
号発生回路51に入力している。
The horizontal synchronizing signal Hsync and the vertical synchronizing signal Vsync of the input video signal are input to the timing signal generation circuit 51. Further, a clock signal CLK for detecting a horizontal address in each horizontal period is also input to the timing signal generation circuit 51.

【0131】タイミング信号発生回路51は、水平同期
信号Hsync、垂直同期信号Vsyncおよびクロッ
ク信号CLKに基づいて、入力映像信号の絶対的水平位
置を表す水平アドレス信号HAD、入力映像信号の絶対
的垂直位置を表す垂直アドレス信号VAD、入力映像信
号の相対的水平位置を表す相対的水平位置信号HPOS
および入力映像信号の相対的垂直位置を表す相対的垂直
位置信号VPOSを生成して出力する。
The timing signal generating circuit 51 generates a horizontal address signal HAD indicating an absolute horizontal position of an input video signal, an absolute vertical position of the input video signal, based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync and the clock signal CLK. And a relative horizontal position signal HPOS representing the relative horizontal position of the input video signal.
And a relative vertical position signal VPOS indicating the relative vertical position of the input video signal is generated and output.

【0132】入力映像信号の相対的水平位置および相対
的垂直位置について説明する。
The relative horizontal position and the relative vertical position of the input video signal will be described.

【0133】図29に示すように、図2の視差算出領域
E1〜E12は、次のように設定されている。画面全体
が図29に点線で示すように、4行5列の20個の領域
(以下、第1分割領域という)に分割されている。そし
て、左上端の第1分割領域の中心、右上端の第1分割領
域の中心、左下端の第1分割領域の中心および右下端の
第1分割領域の中心を4頂点とする四角形領域が3行4
列の12個の領域(以下、第2分割領域という)に分割
され、各第2分割領域が視差算出領域E1〜E12とし
て設定されている。
As shown in FIG. 29, the parallax calculation areas E1 to E12 in FIG. 2 are set as follows. As shown by the dotted line in FIG. 29, the entire screen is divided into 20 regions of 4 rows and 5 columns (hereinafter, referred to as first divided regions). Then, a quadrangular area having four vertices at the center of the first divided area at the upper left, the center of the first divided area at the upper right, the center of the first divided area at the lower left, and the center of the first divided area at the lower right is 3 Row 4
The column is divided into 12 regions (hereinafter, referred to as second divided regions), and each of the second divided regions is set as parallax calculation regions E1 to E12.

【0134】第1分割領域および第2分割領域の水平方
向の画素数がmで表され、第1分割領域および第2分割
領域の垂直方向の画素数がnとして表されている。入力
映像信号の相対的水平位置は、各第1分割領域の左端を
0とし、右端をmとして、0〜(m−1)で表される。
入力映像信号の相対的垂直位置は、各第1分割領域の上
端を0とし、下端をnとして、0〜(n−1)で表され
る。
The number of pixels in the horizontal direction of the first divided region and the second divided region is represented by m, and the number of pixels in the first divided region and the second divided region in the vertical direction is represented by n. The relative horizontal position of the input video signal is represented by 0 to (m-1), with the left end of each first divided area being 0 and the right end being m.
The relative vertical position of the input video signal is represented by 0 to (n-1), with the upper end of each first divided area being 0 and the lower end being n.

【0135】入力映像信号の相対的水平位置信号HPO
Sおよび相対的垂直位置VPOSは、視差補間係数発生
回路52に送られる。視差補間係数発生回路52は、相
対的水平位置信号HPOS、相対的垂直位置VPOSお
よび次の数式7に基づいて、第1視差補間係数KUL、
第2視差補間係数KUR、第3視差補間係数KDLおよ
び第4視差補間係数KDRを生成して出力する。
The relative horizontal position signal HPO of the input video signal
S and the relative vertical position VPOS are sent to the parallax interpolation coefficient generation circuit 52. The parallax interpolation coefficient generation circuit 52 generates a first parallax interpolation coefficient KUL based on the relative horizontal position signal HPOS, the relative vertical position VPOS, and the following equation (7).
A second parallax interpolation coefficient KUR, a third parallax interpolation coefficient KDL, and a fourth parallax interpolation coefficient KDR are generated and output.

【0136】[0136]

【数7】 (Equation 7)

【0137】1フィールド画面の各画素位置に対する視
差情報を生成する方法の基本的な考え方について、図3
0を用いて説明する。水平アドレス信号HADおよび垂
直アドレス信号VADによって表されている水平垂直位
置(以下、注目位置という)が図30のPxyであると
する。注目位置Pxyに対する視差情報を求める場合に
ついて説明する。
FIG. 3 shows the basic concept of a method for generating disparity information for each pixel position on a one-field screen.
Explanation will be made using 0. It is assumed that the horizontal and vertical position (hereinafter, referred to as a target position) represented by the horizontal address signal HAD and the vertical address signal VAD is Pxy in FIG. A case where parallax information for the target position Pxy is obtained will be described.

【0138】(1)まず、CPU3によって算出された
各視差算出領域E1〜E12に対する視差情報のうちか
ら、注目位置Pxyが含まれる第1分割領域の4頂点、
この例ではPE1、PE2、PE5、PE6を中心とす
る視差算出領域E1、E2、E5、E6に対する視差情
報が、それぞれUL、UR、DL、DRとして抽出され
る。つまり、注目位置Pxyが含まれる第1分割領域の
4頂点のうち、左上の頂点を中心とする領域E1の視差
情報が第1視差情報ULとして、右上の頂点を中心とす
る領域E2の視差情報が第2視差情報URとして、左下
の頂点を中心とする領域E5の視差情報が第3視差情報
DLとして、右下の頂点を中心とする領域E6の視差情
報が第4視差情報DRとして抽出される。
(1) First, from among the parallax information for each of the parallax calculation areas E1 to E12 calculated by the CPU 3, four vertices of the first divided area including the target position Pxy,
In this example, disparity information for the disparity calculation areas E1, E2, E5, and E6 centered on PE1, PE2, PE5, and PE6 is extracted as UL, UR, DL, and DR, respectively. That is, of the four vertices of the first divided region including the target position Pxy, the disparity information of the region E1 centered on the upper left vertex is the first disparity information UL, and the disparity information of the region E2 centered on the upper right vertex is UL. Is extracted as the second disparity information UR, the disparity information of the region E5 centered on the lower left vertex is extracted as the third disparity information DL, and the disparity information of the region E6 centered on the lower right vertex is extracted as the fourth disparity information DR. You.

【0139】ただし、注目位置が含まれる第1分割領域
が、左上端の第1分割領域である場合のように、注目位
置が含まれる第1分割領域の4頂点のうち1つの頂点の
みが視差検出領域の中心に該当するような場合には、そ
の視差算出領域の視差情報が、第1〜第4の視差情報U
L、UR、DL、DRとして抽出される。
However, only one vertex of the four vertices of the first divided region including the target position is disparity, as in the case where the first divided region including the target position is the first upper left divided region. If the parallax information corresponds to the center of the detection area, the parallax information of the parallax calculation area is the first to fourth parallax information U
Extracted as L, UR, DL, DR.

【0140】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の右隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち下側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち上側の2つの頂点に対応する視差情
報UL、URとしては、その下側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided area including the target position is the first divided area on the right of the first divided area at the upper left corner, four vertices of the first divided area including the target position are used. Among the four vertices of the first divided region including the target position, only the lower two vertices of the first divided region include the parallax information UL, As the UR, the parallax information of the parallax calculation area centered on the lower vertex is extracted.

【0141】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の下隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち右側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち左側の2つの頂点に対応する視差情
報UL、DLとしては、その右側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided area including the target position is the first divided area below the first divided area at the upper left end, the four vertices of the first divided area including the target position are used. Among the four vertices of the first divided area including the position of interest, only the two vertices on the right correspond to the center of the parallax calculation area. , The parallax information of the parallax calculation area centered on the right vertex is extracted.

【0142】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の左隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち上側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち下側の2つの頂点に対応する視差情
報DL、DRとしては、その上側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided region including the target position is the first divided region to the left of the first lower divided region at the lower right, four vertices of the first divided region including the target position are used. If only the upper two vertices of the first divisional area correspond to the center of the parallax calculation area, the parallax information DL corresponding to the lower two vertices of the four vertices of the first divided area including the target position, As DR, parallax information of a parallax calculation area centered on the upper vertex is extracted.

【0143】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の上隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち左側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち右側の2つの頂点に対応する視差情
報UR、DRとしては、その左側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Also, as in the case where the first divided region including the target position is the first divided region above and above the first divided region at the lower right, four vertices of the first divided region including the target position are used. Among the four vertices of the first divided area including the target position, only the two vertexes on the left side of the parallax calculation area correspond to the center of the parallax calculation area. , The parallax information of the parallax calculation area centered on the left vertex is extracted.

【0144】(2)次に、第1〜第4の視差補間係数K
UL、KUR、KDLおよびKDRが求められる。
(2) Next, the first to fourth parallax interpolation coefficients K
UL, KUR, KDL and KDR are required.

【0145】第1の視差補間係数KULは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの下辺までの距離ΔYDとの比{(n−VPO
S)/n}との積によって求められる。すなわち、第1
の視差補間係数KULは、注目位置Pxyを含む第1分
割領域eの左上頂点PE1と注目位置Pxyとの距離が
小さいほど大きくなる。
The first parallax interpolation coefficient KUL is determined by the target position P
xy, the distance ΔX from the target position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy
R and the ratio {(m-HPOS) / m} to the first divided region e
の (n−VPO) of the vertical width n to the distance ΔYD from the target position Pxy to the lower side of the first divided region e.
S) / n}. That is, the first
Is larger as the distance between the upper left vertex PE1 of the first divided area e including the target position Pxy and the target position Pxy is smaller.

【0146】第2の視差補間係数KURは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m}と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
下辺までの距離ΔYDとの比{(n−VPOS)/n}
との積によって求められる。すなわち、第2の視差補間
係数KURは、注目位置Pxyを含む第1分割領域eの
右上頂点PE2と注目位置Pxyとの距離が小さいほど
大きくなる。
The second parallax interpolation coefficient KUR is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e
L (HPOS / m) and the ratio {(n-VPOS) / n} of the distance ΔYD from the target position Pxy to the lower side of the first divided region e with respect to the vertical width n of the first divided region e.
And the product of That is, the second parallax interpolation coefficient KUR increases as the distance between the upper right vertex PE2 of the first divided region e including the target position Pxy and the target position Pxy decreases.

【0147】第3の視差補間係数KDLは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの上辺までの距離ΔYUとの比(VPOS/n)
との積によって求められる。すなわち、第3の視差補間
係数KDLは、注目位置Pxyを含む第1分割領域eの
左下頂点PE5と注目位置Pxyとの距離が小さいほど
大きくなる。
The third parallax interpolation coefficient KDL is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy
R and the ratio {(m-HPOS) / m} to the first divided region e
(VPOS / n) of the distance ΔYU from the target position Pxy to the upper side of the first divided area e with respect to the vertical width n of
And the product of That is, the third parallax interpolation coefficient KDL increases as the distance between the lower left vertex PE5 of the first divided region e including the target position Pxy and the target position Pxy decreases.

【0148】第4の視差補間係数KDRは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m)と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
上辺までの距離ΔYUとの比(VPOS/n)との積に
よって求められる。すなわち、第4の視差補間係数KD
Rは、注目位置Pxyを含む第1分割領域eの右下頂点
PE6と注目位置Pxyとの距離が小さいほど大きくな
る。
The fourth parallax interpolation coefficient KDR is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e
L and the ratio (VPOS / n) of the vertical width n of the first divided area e to the distance ΔYU from the target position Pxy to the upper side of the first divided area e. Desired. That is, the fourth parallax interpolation coefficient KD
R increases as the distance between the lower right vertex PE6 of the first divided area e including the target position Pxy and the target position Pxy decreases.

【0149】(3)上記(1)で抽出された第1〜第4
の視差情報UL、UR、DL、DRに、それぞれ上記
(2)で算出された第1〜第4の視差補間係数KUL、
KUR、KDL、KDRがそれぞれ乗算される。そし
て、得られた4つの乗算値が加算されることにより、注
目位置Pxyに対する視差情報が生成される。
(3) The first to fourth extracted in the above (1)
To the parallax information UL, UR, DL, DR of the first to fourth parallax interpolation coefficients KUL, calculated in (2) above, respectively.
KUR, KDL, and KDR are each multiplied. Then, the obtained four multiplication values are added to generate disparity information for the target position Pxy.

【0150】視差情報記憶手段60は、領域E1〜E1
2にそれぞれ対応して設けられた第1〜第12の視差レ
ジスタ61〜72を備えている。第1〜第12の視差レ
ジスタ61〜72には、CPU3によって生成された各
領域E1〜E12に対する視差情報が格納される。
The parallax information storage means 60 stores the areas E1 to E1.
2 are provided with first to twelfth parallax registers 61 to 72 provided correspondingly to the two. The first to twelfth disparity registers 61 to 72 store disparity information for each of the regions E1 to E12 generated by the CPU 3.

【0151】視差情報記憶手段60の後段には、視差選
択回路80が設けられている。視差選択回路80には、
各視差レジスタ61〜72から視差情報がそれぞれ送ら
れる。さらに、視差選択回路80には、タイミング信号
発生回路51から水平アドレス信号HADおよび垂直ア
ドレス信号VADが送られている。
At the subsequent stage of the parallax information storage means 60, a parallax selection circuit 80 is provided. In the parallax selection circuit 80,
Parallax information is sent from each of the parallax registers 61 to 72. Further, the horizontal address signal HAD and the vertical address signal VAD are sent from the timing signal generation circuit 51 to the parallax selection circuit 80.

【0152】視差選択回路80は、図31(a)に示さ
れている規則にしたがって、水平アドレス信号HADお
よび垂直アドレス信号VADに対応する領域(図30の
例では、注目位置を含む第1領域の左上頂点を中心とす
る視差算出領域)に対する視差情報を、第1視差情報U
Lとして選択して出力する。さらに、視差選択回路80
は、図31(b)に示されている規則にしたがって、水
平アドレス信号HADおよび垂直アドレス信号VADに
対応する領域(図30の例では、注目位置を含む第1領
域の右上頂点を中心とする視差算出領域)に対する視差
情報を、第2視差情報URとして選択して出力する。
According to the rule shown in FIG. 31 (a), the parallax selecting circuit 80 sets the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, the first area including the target position). Of the parallax calculation area centered on the upper left vertex of the
Select and output as L. Further, the parallax selection circuit 80
According to the rule shown in FIG. 31B, a region corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, the center is located at the upper right vertex of the first region including the target position) The disparity information for the disparity calculation area) is selected and output as the second disparity information UR.

【0153】さらに、視差選択回路80は、図31
(c)に示されている規則にしたがって、水平アドレス
信号HADおよび垂直アドレス信号VADに対応する領
域(図30の例では、注目位置を含む第1領域の左下頂
点を中心とする視差算出領域)に対する視差情報を、第
3視差情報DLとして選択して出力する。さらに、視差
選択回路80は、図31(d)に示されている規則にし
たがって、水平アドレス信号HADおよび垂直アドレス
信号VADに対応する領域(図30の例では、注目位置
を含む第1領域の右下頂点を中心とする視差算出領域)
に対する視差情報を、第4視差情報DRとして選択して
出力する。図31において、たとえば、0〜mのよう
に、a〜bで表現されている記号”〜”は、a以上b未
満を意味する記号として用いられている。
Further, the parallax selecting circuit 80 is provided in FIG.
According to the rule shown in (c), an area corresponding to the horizontal address signal HAD and the vertical address signal VAD (a parallax calculation area centered on the lower left vertex of the first area including the target position in the example of FIG. 30). Is selected and output as third parallax information DL. Further, the parallax selection circuit 80 determines the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 30, the first area including the target position in accordance with the rule shown in FIG. 31D). Parallax calculation area centered on the lower right vertex)
Is selected and output as fourth parallax information DR. In FIG. 31, for example, the symbols “” ”represented by a and b, such as 0 to m, are used as symbols meaning a or more and less than b.

【0154】視差選択回路80によって選択された第1
視差情報UL、第2視差情報UR、第3視差情報DLお
よび第4視差情報DRは、それぞれ第1、第2、第3お
よび第4の乗算器81、82、83、84に入力する。
The first selected by the parallax selection circuit 80
The disparity information UL, the second disparity information UR, the third disparity information DL, and the fourth disparity information DR are input to first, second, third, and fourth multipliers 81, 82, 83, 84, respectively.

【0155】第1、第2、第3および第4の乗算器8
1、82、83、84には、それぞれ視差補間係数発生
回路52からの第1視差補間係数KUL、第2視差補間
係数KUR、第3視差補間係数KDLおよび第4視差補
間係数KDRも入力している。
First, second, third and fourth multipliers 8
1, 82, 83, and 84 also receive the first parallax interpolation coefficient KUL, the second parallax interpolation coefficient KUR, the third parallax interpolation coefficient KDL, and the fourth parallax interpolation coefficient KDR from the parallax interpolation coefficient generation circuit 52, respectively. I have.

【0156】第1乗算器81は、第1視差情報ULに第
1視差補間係数KULを乗算する。第2乗算器82は、
第2視差情報URに第2視差補間係数KURを乗算す
る。第3乗算器83は、第3視差情報DLに第3視差補
間係数KDLを乗算する。第4乗算器84は、第4視差
情報DRに第4視差補間係数KDRを乗算する。
The first multiplier 81 multiplies the first disparity information UL by a first disparity interpolation coefficient KUL. The second multiplier 82
The second parallax information UR is multiplied by a second parallax interpolation coefficient KUR. The third multiplier 83 multiplies the third disparity information DL by a third disparity interpolation coefficient KDL. The fourth multiplier 84 multiplies the fourth disparity information DR by a fourth disparity interpolation coefficient KDR.

【0157】各乗算器81、82、83、84の出力
は、加算回路85によって加算される。これにより、注
目位置に対する視差情報PRが得られる。
The outputs of the multipliers 81, 82, 83, 84 are added by an adder 85. Thereby, the disparity information PR for the target position is obtained.

【0158】各任意画素遅延FIFO11、21は、1
画素より小さい単位での水平位相制御を行なうために、
ぞれぞれ2つのラインメモリ11a、11b、21a、
21bを備えている。各任意画素遅延FIFO11、2
1内の2つのラインメモリ11a、11b、21a、2
1bには、それぞれY信号が入力されているとともにク
ロック信号CLKが入力している。
Each of the arbitrary pixel delay FIFOs 11 and 21 is 1
To perform horizontal phase control in units smaller than pixels,
Each of the two line memories 11a, 11b, 21a,
21b. Each arbitrary pixel delay FIFO11, 2
1, two line memories 11a, 11b, 21a, 2
1b, a Y signal is input and a clock signal CLK is input.

【0159】タイミング信号発生回路51から出力され
ている水平アドレス信号HADは、標準アドレス発生回
路90にも入力している。標準アドレス発生回路90
は、各任意画素遅延FIFO11、21内の2つのライ
ンメモリ11a、11b、21a、21bに対する標準
書き込みアドレスWADおよび標準読み出しアドレスR
ADを生成して出力する。また、標準アドレス発生回路
90は、2D/3D変換装置によって得られる左映像信
号および右映像信号に付加される同期信号Csyncを
も出力する。この同期信号Csyncによって表される
水平同期信号は、入力映像信号の水平同期信号Hsyn
cより、所定クロック数分遅れた信号となる。
The horizontal address signal HAD output from the timing signal generation circuit 51 is also input to the standard address generation circuit 90. Standard address generation circuit 90
Is a standard write address WAD and a standard read address R for the two line memories 11a, 11b, 21a, 21b in each of the arbitrary pixel delay FIFOs 11, 21.
Generate and output AD. Further, the standard address generation circuit 90 also outputs a synchronization signal Csync added to the left video signal and the right video signal obtained by the 2D / 3D converter. The horizontal synchronization signal represented by the synchronization signal Csync is a horizontal synchronization signal Hsync of the input video signal.
The signal is delayed by a predetermined number of clocks from c.

【0160】標準読み出しアドレスRADは、標準読み
出しアドレスによって規定される基準水平位相に対し
て、各任意画素遅延FIFO11、21に入力される映
像信号の水平位相を進めたり遅らしたりできるようにす
るために、標準書き込みアドレスWADに対して、所定
クロック数分遅れている。標準アドレス発生回路90か
ら出力される標準書き込みアドレスWADは、各任意画
素遅延FIFO11、21内の2つのラインメモリ11
a、11b、21a、21bに、書き込みアドレスを示
す書き込み制御信号として入力する。
The standard read address RAD is used to advance or delay the horizontal phase of the video signal input to each of the arbitrary pixel delay FIFOs 11 and 21 with respect to the reference horizontal phase defined by the standard read address. In addition, it is delayed by a predetermined number of clocks from the standard write address WAD. The standard write address WAD output from the standard address generation circuit 90 is stored in the two line memories 11 in each of the arbitrary pixel delay FIFOs 11 and 21.
a, 11b, 21a, and 21b are input as write control signals indicating write addresses.

【0161】標準アドレス発生回路90から出力される
標準読み出しアドレスRADは、加算器91および減算
器92にそれぞれ入力する。加算器91および減算器9
2には、加算回路85から出力される注目位置の視差情
報PRも入力している。
The standard read address RAD output from the standard address generation circuit 90 is input to an adder 91 and a subtractor 92, respectively. Adder 91 and subtractor 9
2, the parallax information PR of the target position output from the adding circuit 85 is also input.

【0162】加算器91では、標準読み出しアドレスR
ADに視差情報PRが加算される。これにより、左映像
用読み出しアドレスPRLが得られる。
At the adder 91, the standard read address R
The disparity information PR is added to AD. As a result, the left video read address PRL is obtained.

【0163】左映像用読み出しアドレスPRLの整数部
PRL1は、左映像用任意画素遅延FIFO11内の第
1のラインメモリ11aに読み出しアドレスRADL1
として入力する。したがって、第1のラインメモリ11
aのアドレスRADL1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の左映像
用乗算器101に入力する。
The integer part PRL1 of the left video read address PRL is stored in the first line memory 11a in the left video arbitrary pixel delay FIFO 11 in the read address RADL1.
Enter as Therefore, the first line memory 11
The Y signal is read from the address corresponding to the address RADL1 of a. The read Y signal is input to the first left video multiplier 101.

【0164】左映像用読み出しアドレスPRLの整数部
PRL1に1が加算されたアドレス値は、左映像用任意
画素遅延FIFO11内の第2のラインメモリ11bに
読み出しアドレスRADL2として入力する。したがっ
て、第2のラインメモリ11bのアドレスRADL2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の左映像用乗算器102に入力す
る。
The address value obtained by adding 1 to the integer part PRL1 of the left video read address PRL is input to the second line memory 11b in the left video arbitrary pixel delay FIFO 11 as the read address RADL2. Therefore, the Y signal is read from the address corresponding to the address RADL2 of the second line memory 11b. The read Y signal is input to the second left video multiplier 102.

【0165】第1のラインメモリ11aに対する読み出
しアドレスRADL1と、第2のラインメモリ11bに
対する読み出しアドレスRADL2とは、1だけ異なっ
ているので、第1のラインメモリ11aから読み出され
たY信号と、第2のラインメモリ11bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
The read address RADL1 for the first line memory 11a is different from the read address RADL2 for the second line memory 11b by one, so that the Y signal read from the first line memory 11a The Y signal read from the second line memory 11b is a signal whose horizontal position is shifted by one.

【0166】左映像用読み出しアドレスPRLの小数部
PRL2は、第2の左映像補間係数として第2の左映像
用乗算器102に入力する。左映像用読み出しアドレス
PRLの小数部PRL2を1から減算した値(1−PR
L2)は、第1の左映像補間係数として第1の左映像用
乗算器101に入力する。
The fractional part PRL2 of the left video read address PRL is input to the second left video multiplier 102 as a second left video interpolation coefficient. A value obtained by subtracting the decimal part PRL2 of the read address PRL for the left image from 1 (1-PR
L2) is input to the first left video multiplier 101 as a first left video interpolation coefficient.

【0167】したがって、第1の左映像用乗算器101
では、第1のラインメモリ11aから読み出されたY信
号に第1の左映像補間係数(1−PRL2)が乗算され
る。第2の左映像用乗算器102では、第2のラインメ
モリ11bから読み出されたY信号に第2の左映像補間
係数PRL2が乗算される。そして、各乗算器101、
102によって得られたY信号は加算器103で加算さ
れた後、左映像用Y信号YL−OUTとして、出力され
る。
Therefore, the first left video multiplier 101
Then, the Y signal read from the first line memory 11a is multiplied by a first left video interpolation coefficient (1-PRL2). In the second left video multiplier 102, the Y signal read from the second line memory 11b is multiplied by a second left video interpolation coefficient PRL2. Then, each multiplier 101,
The Y signal obtained by 102 is added by the adder 103, and then output as a left video Y signal YL-OUT.

【0168】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ遅れた左映
像用Y信号が得られる。
Thus, the standard read address RAD
With respect to the reference horizontal phase defined by the above, a left image Y signal whose horizontal phase amount is delayed by an amount corresponding to the parallax information for the target position is obtained.

【0169】減算器92では、標準読み出しアドレスR
ADから視差情報PRが減算される。これにより、右映
像用読み出しアドレスPRRが得られる。
In the subtractor 92, the standard read address R
The disparity information PR is subtracted from AD. As a result, the right video read address PRR is obtained.

【0170】右映像用読み出しアドレスPRRの整数部
PRR1は、右映像用任意画素遅延FIFO21内の第
1のラインメモリ21aに読み出しアドレスRADR1
として入力する。したがって、第1のラインメモリ21
aのアドレスRADR1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の右映像
用乗算器111に入力する。
The integer part PRR1 of the read address PRR for the right image is stored in the first line memory 21a in the arbitrary pixel delay FIFO 21 for the right image in the read address RADR1.
Enter as Therefore, the first line memory 21
The Y signal is read from the address corresponding to the address RADR1 of a. The read Y signal is input to the first right video multiplier 111.

【0171】右映像用読み出しアドレスPRRの整数部
PRR1に1が加算されたアドレス値は、右映像用任意
画素遅延FIFO21内の第2のラインメモリ21bに
読み出しアドレスRADR2として入力する。したがっ
て、第2のラインメモリ21bのアドレスRADR2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の右映像用乗算器112に入力す
る。
The address value obtained by adding 1 to the integer part PRR1 of the read address PRR for the right image is input to the second line memory 21b in the arbitrary pixel delay FIFO 21 for the right image as the read address RADR2. Therefore, the Y signal is read from the address corresponding to the address RADR2 of the second line memory 21b. The read Y signal is input to the second right video multiplier 112.

【0172】第1のラインメモリ21aに対する読み出
しアドレスRADR1と、第2のラインメモリ21bに
対する読み出しアドレスRADR2とは、1だけ異なっ
ているので、第1のラインメモリ21aから読み出され
たY信号と、第2のラインメモリ21bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
Since the read address RADR1 for the first line memory 21a is different from the read address RADR2 for the second line memory 21b by one, the Y signal read from the first line memory 21a and The Y signal read from the second line memory 21b is a signal whose horizontal position is shifted by one.

【0173】右映像用読み出しアドレスPRRの小数部
PRR2は、第2の右映像補間係数として第2の右映像
用乗算器112に入力する。右映像用読み出しアドレス
PRRの小数部PRR2を1から減算した値(1−PR
R2)は、第1の右映像補間係数として第1の右映像用
乗算器111に入力する。
The decimal part PRR2 of the read address PRR for the right image is input to the second right image multiplier 112 as a second right image interpolation coefficient. A value obtained by subtracting the decimal part PRR2 of the read address PRR for the right image from 1 (1-PR
R2) is input to the first right image multiplier 111 as a first right image interpolation coefficient.

【0174】したがって、第1の右映像用乗算器111
では、第1のラインメモリ21aから読み出されたY信
号に第1の右映像補間係数(1−PRR2)が乗算され
る。第2の右映像用乗算器112では、第2のラインメ
モリ21bから読み出されたY信号に第2の右映像補間
係数PRR2が乗算される。そして、各乗算器111、
112によって得られたY信号は加算器113で加算さ
れた後、右映像用Y信号YR−OUTとして、出力され
る。
Therefore, the first right video multiplier 111
Then, the Y signal read from the first line memory 21a is multiplied by a first right video interpolation coefficient (1-PRR2). In the second right image multiplier 112, the Y signal read from the second line memory 21b is multiplied by a second right image interpolation coefficient PRR2. Then, each multiplier 111,
The Y signal obtained by 112 is added by the adder 113 and then output as a right video Y signal YR-OUT.

【0175】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ進んだ右映
像用Y信号が得られる。
As a result, the standard read address RAD
With respect to the reference horizontal phase defined by the above, a Y signal for right video is obtained in which the horizontal phase amount is advanced by an amount corresponding to the parallax information for the target position.

【0176】図32は、注目位置に対する視差情報が0
の場合の、各部の信号を示している。
FIG. 32 shows that the parallax information for the target position is 0.
3 shows the signals of the respective units.

【0177】視差情報が0の場合には、加算器91から
出力される左映像用読み出しアドレスPRLと、減算器
92から出力される右映像用読み出しアドレスPRR
は、ともに標準読み出しアドレスRADと等しい小数部
のない整数部のみからなるアドレスとなる。
When the disparity information is 0, the left video read address PRL output from the adder 91 and the right video read address PRR output from the subtractor 92 are output.
Is an address consisting of only an integer part without a decimal part equal to the standard read address RAD.

【0178】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1と、右映像用任意画素遅延FIFO
21内の第1のラインメモリ21aに対する読み出しア
ドレスRADR1は、標準読み出しアドレスRADと等
しいアドレスとなる。
Therefore, the arbitrary pixel delay FIF for the left image
Read address RADL1 for the first line memory 11a in O11 and right image arbitrary pixel delay FIFO
The read address RADR1 for the first line memory 21a in the memory 21 is equal to the standard read address RAD.

【0179】また、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bに対する読み出しアドレ
スRADL2と、右映像用任意画素遅延FIFO21内
の第2のラインメモリ21bに対する読み出しアドレス
RADR2は、標準読み出しアドレスRADより1だけ
大きい値となる。
Also, an arbitrary pixel delay FIFO 11 for the left image
The read address RADL2 for the second line memory 11b in the first and the read address RADR2 for the second line memory 21b in the right image arbitrary pixel delay FIFO 21 have a value that is one greater than the standard read address RAD.

【0180】また、第1の左映像補間係数(1−PRL
2)および第1の右映像補間係数(1−PRR2)は1
となり、第2の左映像補間係数PRL2および第2の右
映像補間係数PRR2は0となる。
The first left video interpolation coefficient (1-PRL)
2) and the first right video interpolation coefficient (1-PRR2) are 1
And the second left video interpolation coefficient PRL2 and the second right video interpolation coefficient PRR2 become zero.

【0181】この結果、左映像用任意画素遅延FIFO
11内の第1のラインメモリ11aの標準アドレスRA
Dに対応するアドレスから読み出されたY信号が加算器
103から左映像用Y信号YL−OUTとして出力さ
れ、右映像用任意画素遅延FIFO21内の第1のライ
ンメモリ21aの標準アドレスRADに対応するアドレ
スから読み出されたY信号が加算器113から右映像用
Y信号YR−OUTとして出力される。つまり、水平方
向の位相ずれ量が同じ2つのY信号、すなわち視差のな
い2つのY信号が左映像用Y信号および右映像用Y信号
として出力される。
As a result, a left image arbitrary pixel delay FIFO
11, the standard address RA of the first line memory 11a
The Y signal read from the address corresponding to D is output from the adder 103 as the left video Y signal YL-OUT, and corresponds to the standard address RAD of the first line memory 21a in the right video arbitrary pixel delay FIFO 21. The Y signal read from the address to be output is output from the adder 113 as a right video Y signal YR-OUT. That is, two Y signals having the same amount of phase shift in the horizontal direction, that is, two Y signals having no parallax are output as a left video Y signal and a right video Y signal.

【0182】図33は、ある注目位置に対する標準書き
込みアドレスWADが20であり、上記注目位置に対す
る標準読み出しアドレスRADが10であり、上記注目
位置に対する視差情報が1.2の場合の、各アドレス値
の具体例を示している。図34は、その際の各部の信号
を示している。
FIG. 33 shows each address value when the standard write address WAD for a certain target position is 20, the standard read address RAD for the target position is 10, and the disparity information for the target position is 1.2. Is shown. FIG. 34 shows signals of the respective units at that time.

【0183】この場合には、加算器91から出力される
左映像用読み出しアドレスPRLは、11.2となり、
その整数部PRL1は11となり、その小数部PRL2
は0.2となる。
In this case, the left video read address PRL output from the adder 91 is 11.2,
Its integer part PRL1 becomes 11, and its decimal part PRL2
Is 0.2.

【0184】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1は11となり、第2のラインメモリ
11bに対する読み出しアドレスRADL2は12とな
る。また、第1の左映像補間係数KL1{=(1−PR
L2)}は0.8となり、第2の左映像補間係数KL2
(=PRL2)は0.2となる。
Therefore, the arbitrary pixel delay FIF for the left image
The read address RADL1 for the first line memory 11a in O11 is 11, and the read address RADL2 for the second line memory 11b is 12. Further, the first left video interpolation coefficient KL1 {= (1-PR
L2)} is 0.8, and the second left image interpolation coefficient KL2
(= PRL2) is 0.2.

【0185】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aのアドレス11か
らY信号(Y11)が読み出され、第1乗算器101から
は読み出されたY信号(Y11)の0.8倍の信号(0.
8*Y11)が出力される。
Therefore, the left image arbitrary pixel delay FIF
The Y signal (Y 11 ) is read from the address 11 of the first line memory 11 a in O 11, and a signal (0) that is 0.8 times the read Y signal (Y 11 ) is read from the first multiplier 101. .
8 * Y 11 ) is output.

【0186】一方、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bのアドレス12からY信
号(Y12)が読み出され、第2乗算器102からは読み
出されたY信号(Y12)の0.2倍の信号(0.2*Y
12)が出力される。そして、加算器103からは、0.
8*Y11+0.2*Y12に相当する左映像用Y信号YL
−OUTが出力される。つまり、読み出しアドレス1
1.2に相当するY信号が、左映像用Y信号YL−OU
Tとして出力される。
On the other hand, a left image arbitrary pixel delay FIFO 11
, The Y signal (Y 12 ) is read from the address 12 of the second line memory 11 b, and the signal (0...) Which is 0.2 times the Y signal (Y 12 ) read from the second multiplier 102. 2 * Y
12 ) is output. Then, from the adder 103, 0.
Y signal YL for left image corresponding to 8 * Y 11 + 0.2 * Y 12
−OUT is output. That is, read address 1
The Y signal corresponding to 1.2 is a left video Y signal YL-OU.
Output as T.

【0187】減算器92から出力される右映像用読み出
しアドレスPRRは、8.8となり、その整数部PRR
1は8となり、その小数部PRR2は0.8となる。
The read address PRR for the right image output from the subtractor 92 is 8.8, and its integer part PRR
1 becomes 8, and the decimal part PRR2 becomes 0.8.

【0188】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aに対する読み出し
アドレスRADR1は8となり、第2のラインメモリ2
1bに対する読み出しアドレスRADR2は9となる。
また、第1の右映像補間係数KR1{=(1−PRR
2)}は0.2となり、第2の右映像補間係数KR2
(=PRR2)は0.8となる。
Therefore, the arbitrary pixel delay FIF for right video
The read address RADR1 for the first line memory 21a in O21 becomes 8, and the second line memory 2a
The read address RADR2 for 1b is 9.
Also, the first right video interpolation coefficient KR1 {= (1-PRR
2) と な り is 0.2, and the second right video interpolation coefficient KR2
(= PRR2) is 0.8.

【0189】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aのアドレス8から
Y信号(Y8 )が読み出され、第1乗算器111からは
読み出されたY信号(Y8 )の0.2倍の信号(0.2
*Y8 )が出力される。
Therefore, an arbitrary pixel delay FIF for right video
Y signal (Y 8) is read from the first line memory 21a of the address 8 in O21, 0.2 times the signal of the Y signal read out from the first multiplier 111 (Y 8) (0 .2
* Y 8 ) is output.

【0190】一方、右映像用任意画素遅延FIFO21
内の第2のラインメモリ21bのアドレス9からY信号
(Y9 )が読み出され、第2乗算器112からは読み出
されたY信号(Y9 )の0.8倍の信号(0.8*
9 )が出力される。そして、加算器113からは、
0.2*Y8 +0.8*Y9 に相当する右映像用Y信号
YR−OUTが出力される。つまり、読み出しアドレス
8.8に相当するY信号が、右映像用Y信号YR−OU
Tとして出力される。
On the other hand, a right image arbitrary pixel delay FIFO 21
, The Y signal (Y 9 ) is read from the address 9 of the second line memory 21 b, and the signal (0...) 0.8 times the read Y signal (Y 9 ) from the second multiplier 112. 8 *
Y 9 ) is output. Then, from the adder 113,
A right video Y signal YR-OUT corresponding to 0.2 * Y 8 + 0.8 * Y 9 is output. In other words, the Y signal corresponding to the read address 8.8 is the right video Y signal YR-OU.
Output as T.

【0191】この結果、11.2−8.8=2.4の視
差、つまり、視差情報1.2の2倍の視差を互いに有す
る左映像および右映像が得られる。
As a result, a left image and a right image having a disparity of 11.2−8.8 = 2.4, that is, a disparity twice as large as the disparity information 1.2 are obtained.

【0192】上記実施の形態による2D/3D映像変換
装置では、元の2次元映像信号に対して時間的に遅延さ
れた映像信号を生成するためのフィールドメモリが不要
であるため、コストの低廉化が図れる。また、上記実施
の形態による2D/3D映像変換装置では、元の2次元
映像信号によって表される映像が静止映像であっても立
体映像を得ることができる。
In the 2D / 3D video converter according to the above-described embodiment, a field memory for generating a video signal that is temporally delayed from the original two-dimensional video signal is unnecessary, so that the cost can be reduced. Can be achieved. Further, in the 2D / 3D video converter according to the above-described embodiment, a stereoscopic video can be obtained even if the video represented by the original two-dimensional video signal is a still video.

【0193】また、1フィールド画面内の全領域をその
画面に含まれている物体毎にグループ分けを行なって、
各グループ毎の映像の遠近に関する情報を生成している
ので、同じ物体内の各部の視差変動が抑圧される。この
結果、同じ物体内で画像歪みが軽減化され、良好な立体
視が可能となる。
Also, the entire area in one field screen is grouped for each object included in the screen, and
Since the information about the perspective of the video for each group is generated, the parallax variation of each part in the same object is suppressed. As a result, image distortion is reduced within the same object, and good stereoscopic vision is possible.

【0194】[0194]

【発明の効果】この発明によれば、元の2次元映像信号
に対して時間的に遅延された映像信号を生成するための
フィールドメモリが不要となり、コストの低廉化が図れ
る2次元映像を3次元映像に変換する装置および方法が
実現する。
According to the present invention, a field memory for generating a video signal delayed in time from the original two-dimensional video signal is not required, and a two-dimensional video whose cost can be reduced is reduced. An apparatus and method for converting to a two-dimensional image are realized.

【0195】また、この発明によれば、元の2次元映像
信号によって表される映像が静止映像であっても立体映
像が得られる、2次元映像を3次元映像に変換する装置
および方法が実現する。
Further, according to the present invention, an apparatus and a method for converting a two-dimensional video into a three-dimensional video, which can obtain a stereoscopic video even when the video represented by the original two-dimensional video signal is a still video, are realized. I do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】2D/3D映像変換装置の全体構成を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating an overall configuration of a 2D / 3D video conversion device.

【図2】視差算出領域を示す模式図である。FIG. 2 is a schematic diagram illustrating a parallax calculation area.

【図3】R−Y成分積算回路の構成を示すブロック図で
ある。
FIG. 3 is a block diagram illustrating a configuration of an RY component integrating circuit.

【図4】高周波成分積算回路の構成を示すブロック図で
ある。
FIG. 4 is a block diagram illustrating a configuration of a high-frequency component integration circuit.

【図5】図4のハイパスフィルタ232の具体例を示す
回路図である。
FIG. 5 is a circuit diagram showing a specific example of a high-pass filter 232 of FIG.

【図6】図4のスライス処理回路234の入出力特性を
示すグラフである。
FIG. 6 is a graph showing input / output characteristics of the slice processing circuit 234 of FIG.

【図7】高周波成分積算回路の他の例を示すブロック図
である。
FIG. 7 is a block diagram showing another example of the high frequency component integrating circuit.

【図8】図7のピーク検出回路239の具体例を示す回
路図である。
8 is a circuit diagram showing a specific example of the peak detection circuit 239 in FIG.

【図9】ピーク検出回路239の各部の信号を示すタイ
ムチャートである。
FIG. 9 is a time chart showing signals of respective parts of the peak detection circuit 239.

【図10】輝度コントラスト算出回路の構成を示すブロ
ック図である。
FIG. 10 is a block diagram illustrating a configuration of a luminance contrast calculation circuit.

【図11】図10の輝度コントラスト検出回路の構成を
示す回路図である。
11 is a circuit diagram illustrating a configuration of a luminance contrast detection circuit in FIG.

【図12】CPUによる視差情報の生成処理手順を示す
フローチャートである。
FIG. 12 is a flowchart illustrating a generation processing procedure of disparity information by a CPU.

【図13】実際に設定される視差算出領域を示す模式図
である。
FIG. 13 is a schematic diagram illustrating a parallax calculation area actually set.

【図14】高周波成分積算値の各正規化値に対する視差
算出領域の数を示すヒストグラムである。
FIG. 14 is a histogram showing the number of parallax calculation regions for each normalized value of the high-frequency component integrated value.

【図15】図14のヒストグラムに基づいて得られたグ
ループ分け結果を示す模式図である。
FIG. 15 is a schematic diagram showing a grouping result obtained based on the histogram of FIG. 14;

【図16】R−Y成分積算値の正規化値を縦軸にとり、
B−Y成分積算値の正規化値を横軸にとって、視差算出
領域の分布を表したグラフである。
FIG. 16 shows the normalized value of the RY component integrated value on the vertical axis,
9 is a graph showing the distribution of the parallax calculation area, with the normalized value of the BY component integrated value as the horizontal axis.

【図17】図16のグラフに基づいて得られたグループ
分け結果を示す模式図である。
FIG. 17 is a schematic diagram showing a grouping result obtained based on the graph of FIG. 16;

【図18】図16のグラフに基づいて得られたグループ
分け結果を示す模式図である。
FIG. 18 is a schematic diagram showing a grouping result obtained based on the graph of FIG.

【図19】空間分離処理によって修正されたグループ分
け結果を示す模式図である。
FIG. 19 is a schematic diagram showing a grouping result corrected by the spatial separation processing.

【図20】特異点処理を説明するための模式図である。FIG. 20 is a schematic diagram for explaining singularity processing.

【図21】特異点処理によって修正されたグループ分け
結果を示す模式図である。
FIG. 21 is a schematic diagram showing a grouping result corrected by singularity processing.

【図22】各視差算出領域毎に予め設定された背景重み
成分を示す模式図である。
FIG. 22 is a schematic diagram showing background weight components set in advance for each parallax calculation area.

【図23】奥行き補正前における各視差算出領域の奥行
き情報の一例を示す模式図である。
FIG. 23 is a schematic diagram illustrating an example of depth information of each parallax calculation area before depth correction.

【図24】奥行き補正後における各視差算出領域の奥行
き情報を示す模式図である。
FIG. 24 is a schematic diagram illustrating depth information of each parallax calculation area after depth correction.

【図25】奥行き補正前における画面の高さ位置に対す
る奥行き情報との関係および奥行き補正後における画面
の高さ位置に対する奥行き情報との関係を示すグラフで
ある。
FIG. 25 is a graph showing the relationship between the height position of the screen before depth correction and the depth information and the relationship between the height position of the screen after depth correction and the depth information.

【図26】グループ内部に対する奥行き情報補正処理を
説明するための模式図である。
FIG. 26 is a schematic diagram for describing depth information correction processing for the inside of a group.

【図27】奥行き情報と視差情報との関係を示すグラフ
である。
FIG. 27 is a graph illustrating a relationship between depth information and disparity information.

【図28】主として、視差制御回路および任意画素遅延
FIFOの構成を示すブロック図である。
FIG. 28 is a block diagram mainly illustrating a configuration of a parallax control circuit and an arbitrary pixel delay FIFO.

【図29】相対的水平位置および相対的垂直位置等を示
す模式図である。
FIG. 29 is a schematic diagram illustrating a relative horizontal position, a relative vertical position, and the like.

【図30】注目画素に対する視差情報を生成する方法を
説明するための説明図である。
FIG. 30 is an explanatory diagram for describing a method of generating disparity information for a target pixel.

【図31】視差選択回路による選択規則を示す図であ
る。
FIG. 31 is a diagram illustrating a selection rule by a parallax selection circuit.

【図32】視差情報が0の場合の各部の信号を示すタイ
ムチャートである。
FIG. 32 is a time chart illustrating signals of respective units when disparity information is 0.

【図33】視差情報が1.2の場合の各アドレス値を視
差制御回路に付記したブロック図である。
FIG. 33 is a block diagram in which each address value when the disparity information is 1.2 is added to the disparity control circuit.

【図34】視差情報が1.2の場合の各部の信号を示す
タイムチャートである。
FIG. 34 is a time chart showing signals of respective units when the disparity information is 1.2.

【符号の説明】[Explanation of symbols]

1 AD変換回路 3 CPU 4 視差制御回路 5、6 DA変換回路 8 高周波成分積算回路 9 輝度コントラスト算出回路 11、12、13 左映像用任意画素遅延FIFO 11a、11b、21a、21b ラインメモリ 21、22、23 右映像用任意画素遅延FIFO 31 R−Y成分積算回路 32 B−Y成分積算回路 51、201、231、238、301 タイミング信
号発生回路 52 視差補間係数発生回路 60 視差情報記憶手段 61〜72 視差レジスタ 80 視差選択回路 81〜84 乗算器 85 加算回路 90 標準アドレス発生回路 91 加算器 92 減算器 101、102、111、112 乗算器 103、113 加算器
REFERENCE SIGNS LIST 1 AD conversion circuit 3 CPU 4 Parallax control circuit 5, 6 DA conversion circuit 8 High frequency component integration circuit 9 Luminance contrast calculation circuit 11, 12, 13 Left pixel arbitrary pixel delay FIFO 11 a, 11 b, 21 a, 21 b Line memory 21, 22 , 23 Right pixel arbitrary pixel delay FIFO 31 RY component integration circuit 32 BY component integration circuit 51, 201, 231, 238, 301 Timing signal generation circuit 52 Parallax interpolation coefficient generation circuit 60 Parallax information storage means 61-72 Parallax register 80 Parallax selection circuit 81-84 Multiplier 85 Addition circuit 90 Standard address generation circuit 91 Adder 92 Subtractor 101, 102, 111, 112 Multiplier 103, 113 Adder

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 2次元入力映像信号に基づいて、各フィ
ールドごとに、1フィールド画面内に設定された複数の
視差算出領域のそれぞれに対して、映像の遠近に関する
画像特徴量を抽出する特徴量抽出手段、 各視差算出領域ごとに抽出された画像特徴量に基づい
て、1フィールド画面内の所定単位領域ごとの視差情報
を生成する視差情報生成手段、ならびに2次元入力映像
信号の各所定単位領域内の信号から、その所定単位領域
に対応する視差情報に応じた水平位相差を有する第1映
像信号と第2映像信号とをそれぞれ生成する位相制御手
段を備えており、 視差情報生成手段は、視差算出領域ごとの映像の遠近に
関する画像特徴量に基づいて、1フィールド画面内の全
領域をその画面に含まれている物体毎にグループ分けを
行なう第1手段、 第1手段によるグループ分け結果と、視差算出領域ごと
の映像の遠近に関する画像特徴量とに基づいて、各グル
ープ毎の映像の遠近に関する情報を生成する第2手段、 各グループ毎の映像の遠近に関する情報に基づいて、各
視差算出領域毎の映像の遠近に関する情報を生成する第
3手段、ならびに各視差算出領域毎の映像の遠近に関す
る情報を、各視差算出領域ごとの視差情報に変換する第
4手段、 を備えている2次元映像を3次元映像に変換する装置。
1. A feature amount for extracting an image feature amount related to perspective of an image for each of a plurality of parallax calculation areas set in one field screen for each field based on a two-dimensional input image signal. Extracting means, disparity information generating means for generating disparity information for each predetermined unit area in one field screen based on the image feature amount extracted for each disparity calculation area, and each predetermined unit area of the two-dimensional input video signal And a phase control unit for respectively generating a first video signal and a second video signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit region from the signals in the sub-regions. A first unit configured to group all regions in a one-field screen for each object included in the screen based on an image feature amount related to perspective of a video for each parallax calculation region; Second means for generating information on the perspective of the video for each group based on the grouping result by the first means and the image feature amount relating to the perspective of the video for each parallax calculation area, Third means for generating information about the perspective of the video for each parallax calculation area based on the information, and fourth means for converting the information about the perspective of the video for each parallax calculation area into parallax information for each parallax calculation area. An apparatus for converting a 2D image into a 3D image, comprising:
【請求項2】 第1手段は、映像の遠近に関する画像特
徴量の大きさに対する視差算出領域数を表す度数分布に
基づいて、映像の遠近に関する画像特徴量の大きさの近
似している領域が同一グループとなるように1フィール
ド画面内の全領域をグループ分けを行なうものである請
求項1に記載の2次元映像を3次元映像に変換する装
置。
2. The image processing apparatus according to claim 1, wherein, based on a frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount related to the perspective of the video, an area in which the size of the image feature amount related to the perspective of the video is approximated. 2. The apparatus for converting a two-dimensional video into a three-dimensional video according to claim 1, wherein all the areas in one field screen are grouped so as to be in the same group.
【請求項3】 第1手段は、 映像の遠近に関する画像特徴量の大きさに対する視差算
出領域数を表す度数分布に基づいて、映像の遠近に関す
る画像特徴量の大きさの近似している領域が同一グルー
プとなるように1フィールド画面内の全領域をグループ
分けを行なう手段、および同じグループ内に互いに空間
的に離れている複数の領域が存在する場合には、それら
の領域がそれぞれ異なるグループとなるように、グルー
プ分けを行なう手段、 を備えている請求項1に記載の2次元映像を3次元映像
に変換する装置。
3. The image processing apparatus according to claim 1, wherein, based on a frequency distribution indicating the number of parallax calculation areas with respect to the magnitude of the image feature amount related to the perspective of the video, an area in which the size of the image feature amount related to the perspective of the video is approximated. Means for grouping all areas in one field screen so as to be in the same group, and, when there are a plurality of areas spatially separated from each other in the same group, these areas are each assigned to a different group. The apparatus for converting a two-dimensional image into a three-dimensional image according to claim 1, further comprising: means for performing grouping.
【請求項4】 第1手段は、 映像の遠近に関する画像特徴量の大きさに対する視差算
出領域数を表す度数分布に基づいて、映像の遠近に関す
る画像特徴量の大きさの近似している領域が同一グルー
プとなるように1フィールド画面内の全領域をグループ
分けを行なう手段、 同じグループ内に互いに空間的に離れている複数の領域
が存在する場合には、それらの領域がそれぞれ異なるグ
ループとなるように、グループ分けを行なう手段、およ
び所定数以下の視差算出領域から構成されているグルー
プが存在する場合には、そのグループ内のおよびその周
辺の視差算出領域に対する映像の遠近に関する画像特徴
量に基づいて、そのグループを周囲のグループに属させ
るべきか否かを判別し、そのグループを周囲のグループ
に属させるべきと判別した場合には、そのグループを周
囲のグループに属させる手段、 を備えている請求項1に記載の2次元映像を3次元映像
に変換する装置。
4. The image processing apparatus according to claim 1, wherein, based on a frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount related to the perspective of the video, an area in which the size of the image feature amount related to the perspective of the video is approximated. Means for grouping all areas in one field screen so as to be in the same group. If there are a plurality of areas spatially separated from each other in the same group, these areas are respectively different groups As described above, when there is a group configured by the grouping and a parallax calculation area equal to or less than a predetermined number, the image feature amount related to the perspective of the video with respect to the parallax calculation areas in and around the group is determined. Based on whether the group should belong to the surrounding group and determine that the group should belong to the surrounding group. Case, device to convert the group means that belong to the group of surrounding the two-dimensional image according to the 3D image to claim 1, further comprising a.
【請求項5】 第1手段は、 映像の遠近に関する画像特徴量の大きさに対する視差算
出領域数を表す度数分布に基づいて、映像の遠近に関す
る画像特徴量の大きさの近似している領域が同一グルー
プとなるように1フィールド画面内の全領域をグループ
分けを行なう手段、 同じグループ内に互いに空間的に離れている複数の領域
が存在する場合には、それらの領域がそれぞれ異なるグ
ループとなるように、グループ分けを行なう手段、 所定数以下の視差算出領域から構成されているグループ
が存在する場合には、そのグループ内のおよびその周辺
の視差算出領域に対する映像の遠近に関する画像特徴量
に基づいて、そのグループを周囲のグループに属させる
べきか否かを判別し、そのグループを周囲のグループに
属させるべきと判別した場合には、そのグループを周囲
のグループに属させる手段、および隣接する2つのグル
ープのうち、一方のグループ内および他方のグループ内
の視差算出領域に対する映像の遠近に関する画像特徴量
に基づいて、両グループを結合させるべきか否かを判別
し、両グループを結合させるべきと判別した場合には、
両グループを結合させる手段、 を備えている請求項1に記載の2次元映像を3次元映像
に変換する装置。
5. The image processing apparatus according to claim 1, wherein, based on a frequency distribution indicating the number of parallax calculation regions with respect to the magnitude of the image feature amount related to the perspective of the video, an area where the size of the image feature amount related to the perspective of the video is approximated. Means for grouping all areas in one field screen so as to be in the same group. If there are a plurality of areas spatially separated from each other in the same group, these areas are respectively different groups In the case where there is a group composed of a predetermined number or less of parallax calculation areas, a grouping method is performed based on the image feature amount related to the perspective of the video with respect to the parallax calculation areas in and around the group. To determine whether the group should belong to the surrounding group and determine that the group should belong to the surrounding group Means for making the group belong to a surrounding group, and, of two adjacent groups, two groups based on image feature amounts relating to perspective of a video with respect to a parallax calculation region in one group and the other group. Is to be combined or not, and if it is determined that both groups should be combined,
The apparatus for converting a 2D image into a 3D image according to claim 1, further comprising: means for combining the two groups.
【請求項6】 第2手段は、 各グループ内の視差算出領域ごとの映像の遠近に関する
画像特徴量および各視差算出領域毎に予め設定された重
み係数に基づいて、各グループ毎に映像の遠近に関する
情報を算出するものである請求項1、2、3、4および
5のいずれかに記載の2次元映像を3次元映像に変換す
る装置。
6. The image processing apparatus according to claim 1, wherein the second means is configured to calculate the perspective of the video for each group based on an image feature amount relating to the perspective of the video for each parallax calculation area in each group and a weight coefficient preset for each parallax calculation area. The apparatus for converting a two-dimensional image into a three-dimensional image according to any one of claims 1, 2, 3, 4, and 5, wherein the device calculates information relating to the three-dimensional image.
【請求項7】 第3手段は、画面の高さ位置のうち、映
像の遠近に関する情報によって表される遠近位置が最も
近い高さ位置より下側の各視差算出領域のうち、その視
差算出領域に対する映像の遠近に関する情報によって表
される遠近位置が、その直上の視差算出領域に対する映
像の遠近に関する情報によって表される遠近位置より所
定値以上遠い位置である視差算出領域については、その
視差算出領域に対する映像の遠近に関する情報によって
表される遠近位置がその直上の視差算出領域に対する映
像の遠近に関する情報によって表される遠近位置に接近
するように、その視差算出領域に対する映像の遠近に関
する情報を補正する手段を備えている請求項1、2、
3、4、5および6のいずれかに記載の2次元映像を3
次元映像に変換する装置。
7. The parallax calculation area of the parallax calculation areas of the parallax calculation areas below the height position where the perspective position represented by the information regarding the perspective of the video is lower than the height position of the screen among the height positions of the screen For the parallax calculation area in which the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above the parallax calculation area is a position that is more than a predetermined value from the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above the parallax calculation area, Is corrected so that the perspective position represented by the information regarding the perspective of the image with respect to the image approaches the perspective position represented by the information regarding the perspective of the image immediately above the parallax calculation area. Claims 1 and 2, comprising means.
The two-dimensional image described in any one of 3, 4, 5, and 6 is
A device that converts to two-dimensional video.
【請求項8】 第3手段は、 画面の高さ位置のうち、映像の遠近に関する情報によっ
て表される遠近位置が最も近い高さ位置より下側の各視
差算出領域のうち、その視差算出領域に対する映像の遠
近に関する情報によって表される遠近位置が、その直上
の視差算出領域に対する映像の遠近に関する情報によっ
て表される遠近位置より所定値以上遠い位置である視差
算出領域については、その視差算出領域に対する映像の
遠近に関する情報によって表される遠近位置がその直上
の視差算出領域に対する映像の遠近に関する情報によっ
て表される遠近位置に接近するように、その視差算出領
域に対する映像の遠近に関する情報を補正する手段、お
よび隣合う2つのグループの境界部において、映像の遠
近に関する情報が両グループ間で所定範囲以内となるよ
うに、隣合う2つのグループの境界部の視差算出領域に
対する映像の遠近に関する情報を補正する手段、 を備えている請求項1、2、3、4、5および6のいず
れかに記載の2次元映像を3次元映像に変換する装置。
8. A parallax calculation area of a parallax calculation area of a parallax calculation area below a height position where a perspective position represented by information on perspective of an image is lower than a height position of the screen among the height positions of the screen. For the parallax calculation area in which the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above the parallax calculation area is a position that is more than a predetermined value from the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above the parallax calculation area, Is corrected so that the perspective position represented by the information regarding the perspective of the image with respect to the image approaches the perspective position represented by the information regarding the perspective of the image immediately above the parallax calculation area. Means and information on the perspective of the video at the boundary between two adjacent groups 7. A means for correcting information relating to perspective of an image with respect to a parallax calculation area at a boundary between two adjacent groups so that For converting 2D images into 3D images.
【請求項9】 第3手段は、 画面の高さ位置のうち、映像の遠近に関する情報によっ
て表される遠近位置が最も近い高さ位置より下側の各視
差算出領域のうち、その視差算出領域に対する映像の遠
近に関する情報によって表される遠近位置が、その直上
の視差算出領域に対する映像の遠近に関する情報によっ
て表される遠近位置より所定値以上遠い位置である視差
算出領域については、その視差算出領域に対する映像の
遠近に関する情報によって表される遠近位置がその直上
の視差算出領域に対する映像の遠近に関する情報によっ
て表される遠近位置に接近するように、その視差算出領
域に対する映像の遠近に関する情報を補正する手段、 隣合う2つのグループの境界部において、映像の遠近に
関する情報が両グループ間で所定範囲以内となるよう
に、隣合う2つのグループの境界部の視差算出領域に対
する映像の遠近に関する情報を補正する手段、および同
じグループ内の各視差算出領域間において、映像の遠近
に関する情報の差が所定範囲以内となるように、各グル
ープ内の映像の遠近に関する情報を平滑化させる手段、 を備えている請求項1、2、3、4、5および6のいず
れかに記載の2次元映像を3次元映像に変換する装置。
9. The parallax calculation area of the parallax calculation areas of the parallax calculation areas below the height position where the perspective position represented by the information regarding the perspective of the video is lower than the height position of the screen among the height positions of the screen For the parallax calculation area in which the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above the parallax calculation area is a position that is more than a predetermined value from the perspective position represented by the information regarding the perspective of the image with respect to the parallax calculation area immediately above it Is corrected so that the perspective position represented by the information regarding the perspective of the image with respect to the image approaches the perspective position represented by the information regarding the perspective of the image immediately above the parallax calculation area. Means, at the boundary between two adjacent groups, information about the perspective of the image is within a predetermined range between the two groups. As described above, the means for correcting the information regarding the perspective of the video with respect to the parallax calculation region at the boundary between two adjacent groups, and the difference between the information regarding the perspective of the video between the respective parallax calculation regions within the same group is within a predetermined range. Means for smoothing information about the perspective of the video in each group, so that the two-dimensional video according to any one of claims 1, 2, 3, 4, 5, and 6 is converted into a three-dimensional video. The device to convert.
【請求項10】 位相制御手段は、 2次元入力映像信号を1水平ライン分以下の複数画素数
分記憶できる容量を有し、かつ2次元入力映像信号を一
次的に記憶する第1の記憶手段、 2次元入力映像信号を1水平ライン分以下の複数画素数
分記憶できる容量を有し、かつ2次元入力映像信号を一
次的に記憶する第2の記憶手段、 第1の記憶手段の読み出しアドレスを、2次元入力映像
信号の水平垂直位置に応じて決定された標準読み出しア
ドレスに対して、2次元入力映像信号の水平垂直位置が
属する所定単位領域に対応する視差情報に基づいて制御
することにより、上記標準読み出しアドレスによって規
定される基準水平位相に対して上記視差情報に応じた量
だけ水平位相が進んだ第1映像信号を生成する第1の読
み出しアドレス制御手段、ならびに第2の記憶手段の読
み出しアドレスを、上記標準読み出しアドレスに対し
て、2次元入力映像信号の水平垂直位置が属する所定単
位領域に対応する視差情報に基づいて制御することによ
り、上記標準読み出しアドレスによって規定される基準
水平位相に対して上記視差情報に応じた量だけ水平位相
が遅れた第2映像信号を生成する第2の読み出しアドレ
ス制御手段、 を備えている請求項1、2、3、4、5、6、7、8お
よび9のいずれかに記載の2次元映像を3次元映像に変
換する装置。
10. A first storage means having a capacity capable of storing a two-dimensional input video signal for a plurality of pixels equal to or less than one horizontal line, and temporarily storing the two-dimensional input video signal. A second storage unit having a capacity capable of storing a two-dimensional input video signal for a plurality of pixels equal to or less than one horizontal line, and temporarily storing the two-dimensional input video signal; a read address of the first storage unit Is controlled based on disparity information corresponding to a predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong with respect to a standard read address determined according to the horizontal and vertical positions of the two-dimensional input video signal. First read address control means for generating a first video signal having a horizontal phase advanced by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address, And controlling the read address of the second storage means with respect to the standard read address based on parallax information corresponding to a predetermined unit area to which the horizontal and vertical positions of the two-dimensional input video signal belong. 2. A second read address control means for generating a second video signal whose horizontal phase is delayed by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by: An apparatus for converting a 2D image according to any one of 4, 5, 6, 7, 8 and 9 into a 3D image.
【請求項11】 映像の遠近に関する画像特徴量が、高
周波成分の積算値、輝度コントラスト、R−Y成分の積
算値、B−Y成分の積算値のうちから選択された任意の
1つまたは任意の組み合わせである請求項1、2、3、
4、5、6、7、8、9および10のいずれかに記載の
2次元映像を3次元映像に変換する装置。
11. An image feature amount relating to perspective of an image is any one or any selected from an integrated value of a high-frequency component, a luminance contrast, an integrated value of an RY component, and an integrated value of a BY component. Claims 1, 2, 3,
An apparatus for converting a 2D image according to any one of 4, 5, 6, 7, 8, 9 and 10 into a 3D image.
【請求項12】 所定単位領域が1画素単位の領域であ
る請求項1、2、3、4、5、6、7、8、9、10お
よび11のいずれかに記載の2次元映像を3次元映像に
変換する装置。
12. The two-dimensional image according to any one of claims 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 and 11, wherein the predetermined unit area is an area of one pixel unit. A device that converts to two-dimensional video.
JP9159949A 1996-07-18 1997-06-17 Apparatus and method for converting 2D image to 3D image Expired - Fee Related JP2951291B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP9159949A JP2951291B2 (en) 1997-06-17 1997-06-17 Apparatus and method for converting 2D image to 3D image
PCT/JP1997/002471 WO1998004087A1 (en) 1996-07-18 1997-07-16 Device and method for converting two-dimensional video into three-dimensional video
EP97930812A EP0918439B1 (en) 1996-07-18 1997-07-16 Device for converting two-dimensional video into three-dimensional video
KR10-1999-7000337A KR100445619B1 (en) 1996-07-18 1997-07-16 Device and method for converting two-dimensional video into three-dimensional video
DE69739179T DE69739179D1 (en) 1996-07-18 1997-07-16 EIDIMENSIONAL PICTURES
US09/147,518 US6445833B1 (en) 1996-07-18 1997-07-16 Device and method for converting two-dimensional video into three-dimensional video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9159949A JP2951291B2 (en) 1997-06-17 1997-06-17 Apparatus and method for converting 2D image to 3D image

Publications (2)

Publication Number Publication Date
JPH118862A true JPH118862A (en) 1999-01-12
JP2951291B2 JP2951291B2 (en) 1999-09-20

Family

ID=15704689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9159949A Expired - Fee Related JP2951291B2 (en) 1996-07-18 1997-06-17 Apparatus and method for converting 2D image to 3D image

Country Status (1)

Country Link
JP (1) JP2951291B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
EP1379063A1 (en) * 2002-07-03 2004-01-07 Sharp Kabushiki Kaisha Mobile device for capturing, generating and displaying three-dimensional images using a single camera
WO2006028125A1 (en) * 2004-09-10 2006-03-16 Kazunari Era 3d image reproduction device
WO2012014404A1 (en) * 2010-07-28 2012-02-02 パナソニック株式会社 Video signal processing device and video signal processing method
JP2012227798A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
JP2012227797A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
US9153032B2 (en) 2008-09-25 2015-10-06 Samsung Electronics Co., Ltd. Conversion method and apparatus with depth map generation
US9317900B2 (en) 2011-05-03 2016-04-19 Olympus Corporation Three-dimensional image processing device, and three-dimensional image processing method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123842A (en) * 2000-10-13 2002-04-26 Takumi:Kk Device for generating stereoscopic image, and medium for recording information
EP1379063A1 (en) * 2002-07-03 2004-01-07 Sharp Kabushiki Kaisha Mobile device for capturing, generating and displaying three-dimensional images using a single camera
US7889192B2 (en) 2002-07-03 2011-02-15 Sharp Kabushiki Kaisha Mobile equipment with three dimensional display function
WO2006028125A1 (en) * 2004-09-10 2006-03-16 Kazunari Era 3d image reproduction device
AU2005280997B2 (en) * 2004-09-10 2009-11-12 Mercury Systems Co., Ltd 3D image reproduction device
US7945088B2 (en) 2004-09-10 2011-05-17 Kazunari Era Stereoscopic image generation apparatus
US9153032B2 (en) 2008-09-25 2015-10-06 Samsung Electronics Co., Ltd. Conversion method and apparatus with depth map generation
WO2012014404A1 (en) * 2010-07-28 2012-02-02 パナソニック株式会社 Video signal processing device and video signal processing method
JP2012227797A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
JP2012227798A (en) * 2011-04-21 2012-11-15 M Soft:Kk Stereoscopic image generation method and stereoscopic image generation system
US9317900B2 (en) 2011-05-03 2016-04-19 Olympus Corporation Three-dimensional image processing device, and three-dimensional image processing method
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information

Also Published As

Publication number Publication date
JP2951291B2 (en) 1999-09-20

Similar Documents

Publication Publication Date Title
KR100445619B1 (en) Device and method for converting two-dimensional video into three-dimensional video
JP3005474B2 (en) Apparatus and method for converting 2D image to 3D image
US8447141B2 (en) Method and device for generating a depth map
JP6370708B2 (en) Generation of a depth map for an input image using an exemplary approximate depth map associated with an exemplary similar image
JP5879713B2 (en) Image processing apparatus, image processing method, and program
US9865083B2 (en) Apparatus and method for inpainting three-dimensional stereoscopic image
CN103081476A (en) Method and device for converting three-dimensional image using depth map information
JP3276931B2 (en) 3D image adjustment method and 3D image adjustment apparatus
JP2012019513A (en) Method and apparatus for converting 2d image to 3d image
JP3235776B2 (en) Stereoscopic effect adjusting method and stereoscopic effect adjusting device
JP2951291B2 (en) Apparatus and method for converting 2D image to 3D image
JPH10191397A (en) Intention adaptive device for converting two-dimensional video into three-dimensional video
JP3540626B2 (en) Apparatus and method for converting 2D image to 3D image
JP3500056B2 (en) Apparatus and method for converting 2D image to 3D image
JP4862004B2 (en) Depth data generation apparatus, depth data generation method, and program thereof
JP3957343B2 (en) Apparatus and method for converting 2D video to 3D video
JP3485764B2 (en) Apparatus and method for converting 2D image to 3D image
JP3454684B2 (en) Apparatus for converting 2D video to 3D video
KR20190072742A (en) Calibrated Multi-Camera based Real-time Super Multi-View Image Synthesis Method and System
JP2012060246A (en) Image processor and integrated circuit device
JP5691966B2 (en) Depth estimation data generation apparatus, generation method and generation program, and pseudo stereoscopic image generation apparatus, generation method and generation program
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
JPH10178594A (en) Three-dimensional video transmitting method, digital broadcast system and user side terminal

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees