JPH11146423A - Device and method for converting two-dimensional video image into three-dimensional video image - Google Patents

Device and method for converting two-dimensional video image into three-dimensional video image

Info

Publication number
JPH11146423A
JPH11146423A JP32529397A JP32529397A JPH11146423A JP H11146423 A JPH11146423 A JP H11146423A JP 32529397 A JP32529397 A JP 32529397A JP 32529397 A JP32529397 A JP 32529397A JP H11146423 A JPH11146423 A JP H11146423A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
parallax
frequency component
signal
dimensional image
high frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32529397A
Other languages
Japanese (ja)
Other versions
JP3500056B2 (en )
Inventor
Yukio Mori
Haruhiko Murata
治彦 村田
幸夫 森
Original Assignee
Sanyo Electric Co Ltd
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To obtain a three-dimensional video image high in resolution at a low cost. SOLUTION: An object is photographed by an image pickup device 12 to obtain two-dimensional video signals. The high frequency components of the two-dimensional video signals are detected for respective parallax calculation areas E1-E12 by a high frequency component detection part 16, and a high frequency component integrated value is obtained by integrating the high frequency components of the parallax calculation areas at the center part to a screen 18 by an MPU 20. The photographing of the object, the detection of the high frequency components for the respective parallax calculation areas and the calculation of the high frequency component integrated value are performed for respective plural focus distances between 0 and ∞. The focus distance of the maximum high frequency component integrated value is detected by the MPU 20, the object is photographed again by focusing at the focus distance and the obtained two-dimensional video signals are stored in a frame memory 22. For the respective parallax calculation areas E1-E12, an object distance is detected based on the high frequency components by the MPU 20. Based on the object distance, a parallax amount for respective prescribed unit areas inside the screen 18 is generated. By a parallax control circuit 24, left eye video signals and right eye video signals provided with a horizontal phase amount corresponding to the parallax amount are generated.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】この発明は2次元映像を3次元映像に変換する装置および方法に関し、特にたとえば、静止画像から3次元映像を生成するのに有効な、2 Relates BACKGROUND OF THE INVENTION Apparatus and Method This invention converts 2D images into 3D images, particularly for example, effective to generate a 3D image from the still image, 2
次元映像を3次元映像に変換する装置および方法に関する。 To an apparatus and method for converting a dimension image into a 3D image.

【0002】 [0002]

【従来の技術】従来、3次元映像を生成するには、異なる視点から撮影した左目映像およ右目映像が必要であり、図19(a)に示すように、2台のカメラ1aおよび1bによって異なる視点から同時に撮影する、図19 Conventionally, to generate a three-dimensional image, it is necessary to right-eye videos Oyo left-eye image taken from different viewpoints, as shown in FIG. 19 (a), the two cameras 1a and 1b At the same time to shoot from different points of view, and FIG. 19
(b)に示すように、1台のカメラ1を移動させて、異なる位置からそれぞれ左目映像と右目映像とを撮影する、図19(c)に示すように、光学レンズ2を使用し光学的な処理によって、左目映像と右目映像とを1台のカメラ1で撮影する、といった方法が用いられていた。 (B), by moving one of the camera 1, respectively from different positions taken and left-eye and right-eye videos, as shown in FIG. 19 (c), optically using optical lenses 2 the Do treatment, to shoot a left eye and right eye images in one camera 1, a method such as has been used.

【0003】 [0003]

【発明が解決しようとする課題】しかし、図19(a) The object of the invention is to be Solved However, Figure 19 (a)
に示す方法では、2台のカメラ1aおよび1bが必要となり、コストが高くなる。 In the method shown in, the two cameras 1a and 1b are required, the cost becomes high. 図19(b)に示す方法では、カメラ1を移動させるための機構がさらに必要であり、コストが高くなるばかりか、左目映像と右目映像とを同時に得ることができない。 In the method shown in FIG. 19 (b), a mechanism for moving the camera 1 is further required, not only the cost is high, it is impossible to obtain the left-eye and right-eye videos simultaneously. 図19(c)に示す方法では、カメラ1および光学レンズ2を用いて得た左目映像3aおよび右目映像3bを拡大する必要があるため、 In the method shown in FIG. 19 (c), it is necessary to enlarge the left-eye image 3a and the right-eye image 3b obtained by using the camera 1 and the optical lens 2,
映像の解像度が劣化してしまう。 The resolution of the image is deteriorated.

【0004】それゆえにこの発明の主たる目的は、低コストで解像度の高い3次元映像が得られる、2次元映像を3次元映像に変換する装置および方法を提供することである。 [0004] Therefore a primary object of the present invention is to provide an apparatus and method for converting high-resolution 3-dimensional image can be obtained at low cost, the 2D images into 3D images.

【0005】 [0005]

【課題を解決するための手段】上記目的を達成するために、請求項1に記載の2次元映像を3次元映像に変換する装置は、合焦距離を変更できかつ被写体を撮影して2 Means for Solving the Problems] To achieve the above object, a device for converting a three-dimensional video to two-dimensional image of claim 1, to change the focal length and shooting the object 2
次元映像信号を得る撮像手段、複数の合焦距離毎に、画面内に設定された複数の視差算出領域のそれぞれについて2次元映像信号の高周波成分を検出する高周波成分検出手段、複数の合焦距離毎に、所定の視差算出領域の各高周波成分を積算して高周波成分積算値を算出する積算値算出手段、高周波成分積算値が最大である合焦距離の2次元映像信号を記憶する記憶手段、各視差算出領域毎に、高周波成分に基づいて被写体距離を検出する被写体距離検出手段、検出された被写体距離に基づいて画面内の所定単位領域毎の視差情報を生成する視差情報生成手段、および記憶手段に記憶された2次元映像信号の各所定単位領域内の信号から、その所定単位領域に対応する視差情報に応じた水平位相量を有する第1映像信号と第2映像信号とを生 Imaging means for obtaining dimensional video signal, for each of the range focusing multiple engagement, the high frequency component detection means for detecting a high frequency component of the two-dimensional image signal for each of a plurality of parallax calculation areas set in the screen, a plurality of focusing distances storage means for each, the integrated value calculating means for calculating a high frequency component integration value by integrating the high frequency component of a predetermined parallax calculation region, the high-frequency component integration value stores two-dimensional image signal of the focusing distance is maximum, each parallax calculation region, the object distance detecting means for detecting the object distance on the basis of the high-frequency component, the parallax information generating means for generating parallax information in a predetermined unit for each area in the screen based on the detected subject distance, and storage from the signal of each predetermined unit area of ​​the stored two-dimensional image signal to the means, the first and second video signals having a horizontal phase amount according to the disparity information corresponding to the predetermined unit area live する位相制御手段を備える。 A phase control means for.

【0006】請求項2に記載の2次元映像を3次元映像に変換する装置は、請求項1に記載の2次元映像を3次元映像に変換する装置において、被写体距離検出手段は、高周波成分が最大である合焦距離を被写体距離とする手段を含むものである。 [0006] device for converting a three-dimensional video to two-dimensional image according to claim 2, there is provided an apparatus for converting a three-dimensional video to two-dimensional image of claim 1, the object distance detection means, high frequency components the focusing distance is the maximum is intended to include means for the object distance.

【0007】請求項3に記載の2次元映像を3次元映像に変換する装置は、請求項1または2に記載の2次元映像を3次元映像に変換する装置において、積算値算出手段は、画面の中央部分の視差算出領域の各高周波成分を積算して高周波成分積算値を算出する手段を含むものである。 [0007] The apparatus for converting 2D images into 3D images according to claim 3, in the apparatus for converting a three-dimensional video to two-dimensional image according to claim 1 or 2, integrated value calculating means, the screen it is intended to include means for calculating a high frequency component integration value by integrating the high frequency component of the disparity calculation areas of the central part of.

【0008】請求項4に記載の2次元映像を3次元映像に変換する装置は、請求項1または2に記載の2次元映像を3次元映像に変換する装置において、積算値算出手段は、画面の各視差算出領域の高周波成分を重み付けして積算し高周波成分積算値を算出する手段を含むものである。 [0008] The apparatus for converting a three-dimensional video to two-dimensional image according to claim 4, in an apparatus for converting a three-dimensional video to two-dimensional image according to claim 1 or 2, integrated value calculating means, the screen it is intended to include means for calculating an integrated high-frequency component integration value by weighting a high-frequency component of each parallax calculation region of.

【0009】請求項5に記載の2次元映像を3次元映像に変換する装置は、請求項1ないし4のいずれかに記載の2次元映像を3次元映像に変換する装置において、位相制御手段は、2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有し、かつ2次元映像信号を一次的に記憶する第1記憶手段、2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有し、かつ2次元映像信号を一次的に記憶する第2記憶手段、第1記憶手段の読み出しアドレスを、2次元映像信号の水平垂直位置に応じて決定された標準読み出しアドレスに対して、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより、標準読み出しアドレスによって規定される基準水平位相に対し [0009] device for converting a three-dimensional video to two-dimensional image of claim 5, there is provided an apparatus for converting a three-dimensional video to two-dimensional image according to any one of claims 1 to 4, the phase control means has the capacity to one horizontal line following several number of pixels storing two-dimensional image signal, and a first storage means for temporarily storing the two-dimensional image signal, the following one horizontal line of the two-dimensional image signal It has a capacity capable of storing a plurality number of pixels, and a second storage means for temporarily storing the two-dimensional image signal, the read address of the first storage unit, which is determined in accordance with the horizontal and vertical position of the two-dimensional image signal relative to a standard read address, by controlling on the basis of the disparity information corresponding to a predetermined unit region horizontal vertical position belongs 2D image signal, relative to the reference horizontal phase defined by the standard read address 視差情報に応じた量だけ水平位相が進んだ第1映像信号を生成する第1の読み出しアドレス制御手段、ならびに第2記憶手段の読み出しアドレスを、標準読み出しアドレスに対して、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が遅れた第2映像信号を生成する第2の読み出しアドレス制御手段を含むものである。 First read address control means for generating a first video signal has advanced horizontal phase by an amount corresponding to the parallax information, and the read address of the second storage means, with respect to a standard read address, a horizontal two-dimensional image signal by controlling on the basis of the disparity information corresponding to a predetermined unit region vertical position belongs, a second image signal delayed by a horizontal phase amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address it is intended to include second read address control means for generating.

【0010】請求項6に記載の2次元映像を3次元映像に変換する装置は、請求項1ないし5のいずれかに記載の2次元映像を3次元映像に変換する装置において、所定単位領域は1画素単位の領域であるものである。 [0010] The apparatus for converting a three-dimensional video to two-dimensional image according to claim 6, in an apparatus for converting a three-dimensional video to two-dimensional image according to any one of claims 1 to 5, a predetermined unit region it is those wherein the area of ​​one pixel unit.

【0011】請求項7に記載の2次元映像を3次元映像に変換する方法は、撮像手段によって複数の合焦距離毎に被写体を撮影して2次元映像信号を得る第1ステップ、複数の合焦距離毎に、画面内に設定された複数の視差算出領域のそれぞれについて2次元映像信号の高周波成分を検出する第2ステップ、複数の合焦距離毎に、所定の視差算出領域の各高周波成分を積算して高周波成分積算値を算出する第3ステップ、高周波成分積算値が最大である焦点距離の2次元映像信号を記憶手段に記憶する第4ステップ、各視差算出領域毎に、高周波成分に基づいて被写体距離を検出する第5ステップ、検出された被写体距離に基づいて画面内の所定単位領域毎の視差情報を生成する第6ステップ、および記憶手段に記憶された2次元映像信号の [0011] The method of converting the 3-dimensional image of the two-dimensional image according to claim 7, the first step to obtain a two-dimensional image signal by photographing a subject for a plurality of focusing distances by the imaging means, a plurality of engagement for each focal distance, a second step of detecting a high frequency component of the two-dimensional image signal for each of a plurality of parallax calculation areas set in the screen, for each of a plurality of focusing distances, each high-frequency components in a predetermined parallax calculation regions the by integrating third step of calculating a high frequency component integration value, a fourth step of the high-frequency component integration value stores two-dimensional image signal of the focal length is maximum in the storage means, for each parallax calculation region, the high frequency component the fifth step of detecting an object distance on the basis of the sixth step, and two-dimensional image signal stored in the storage unit to generate a disparity information of a predetermined unit each area of ​​the screen on the basis of the detected subject distance 所定単位領域内の信号から、その所定単位領域に対応する視差情報に応じた水平位相量を有する第1映像信号と第2映像信号とを生成する第7ステップを備える。 From the signal of a predetermined unit area, and a seventh step of generating the first and second video signals having a horizontal phase amount according to the disparity information corresponding to the predetermined unit area.

【0012】請求項8に記載の2次元映像を3次元映像に変換する方法は、請求項7に記載の2次元映像を3次元映像に変換する方法において、第5ステップは、高周波成分が最大である合焦距離を被写体距離とするステップを含むものである。 [0012] The method of converting 2D images into 3D images according to claim 8 is a method of converting a three-dimensional video to two-dimensional image according to claim 7, the fifth step, the high frequency components up to the focusing distance is one in which comprises the step of the object distance.

【0013】請求項9に記載の2次元映像を3次元映像に変換する方法は、請求項7または8に記載の2次元映像を3次元映像に変換する方法において、第3ステップは、画面の中央部分の視差算出領域の各高周波成分を積算して高周波成分積算値を算出するステップを含むものである。 [0013] The method of converting two-dimensional images according to a 3D image to claim 9 is a method of converting two-dimensional images according to a 3D image to claim 7 or 8, the third step, the screen it is intended to include the step of calculating a high frequency component integration value by integrating the high frequency component of the disparity calculation areas of the central portion.

【0014】請求項10に記載の2次元映像を3次元映像に変換する方法は、請求項7または8に記載の2次元映像を3次元映像に変換する方法において、第3ステップは、画面の各視差算出領域の高周波成分を重み付けして積算し高周波成分積算値を算出するステップを含むものである。 [0014] The method of converting two-dimensional images according to a 3D image to claim 10 is the method of converting two-dimensional images according to a 3D image to claim 7 or 8, the third step, the screen Sums by weighting a high-frequency component of each parallax calculation region is intended to include the step of calculating a high frequency component integration value.

【0015】請求項11に記載の2次元映像を3次元映像に変換する方法は、請求項7ないし10のいずれかに記載の2次元映像を3次元映像に変換する方法において、第7ステップは、2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有する第1記憶手段および第2記憶手段に、それぞれ2次元映像信号を一次的に記憶するステップ、第1記憶手段の読み出しアドレスを、2次元映像信号の水平垂直位置に応じて決定された標準読み出しアドレスに対して、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が進んだ第1映像信号を生成するステップ、ならびに第 [0015] The method of converting two-dimensional images according to a 3D image to claim 11 is a method of converting two-dimensional images according to a 3D image to any of claims 7 to 10, a seventh step the first storage means and second storage means has a capacity capable of storing two-dimensional image signal one horizontal line following several number of pixels, the step of temporarily storing the two-dimensional image signals, respectively, in the first storage means a read address, to a standard read address determined in accordance with the horizontal and vertical position of the two-dimensional image signal, by horizontal and vertical position of the two-dimensional image signal is controlled based on the disparity information corresponding to the predetermined unit regions belonging step to produce the amount only first video signal advanced horizontal phase corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address, and the 記憶手段の読み出しアドレスを、 The read address of the storage means,
標準読み出しアドレスに対して、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて制御することにより、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が遅れた第2映像信号を生成するステップを含むものである。 Relative to a standard read address, by controlling on the basis of the disparity information corresponding to a predetermined unit region horizontal vertical position belongs 2D image signal, according to the disparity information to the reference horizontal phase defined by the standard read address amounts only are those comprising the step of generating a second image signal delayed horizontal phase.

【0016】請求項12に記載の2次元映像を3次元映像に変換する方法は、請求項7ないし11のいずれかに記載の2次元映像を3次元映像に変換する方法において、所定単位領域は1画素単位の領域であるものである。 The method of converting two-dimensional images according to claim 12 in a three-dimensional image is a method of converting two-dimensional images according to any one of claims 7 to 11 in the three-dimensional image, a predetermined unit region it is those wherein the area of ​​one pixel unit.

【0017】請求項1に記載の2次元映像を3次元映像に変換する装置では、撮像手段によって被写体が撮影されて2次元映像信号が得られ、高周波成分検出手段によって、画面内に設定された複数の視差算出領域それぞれについて2次元映像信号の高周波成分が検出され、積算値算出手段によって、所定の視差算出領域の高周波成分が積算されて高周波成分積算値が算出される。 [0017] In the apparatus for converting a three-dimensional video to two-dimensional image of claim 1, the object is photographed two-dimensional image signal obtained by the imaging means, the high frequency component detection means is set in the screen high-frequency component of the two-dimensional video signal is detected for each of a plurality of parallax calculation regions by the integrated value calculating means, the high-frequency component integration value is calculated are accumulated high frequency components in a predetermined parallax calculation region. 被写体の撮影、視差算出領域毎の高周波成分の検出、および高周波成分積算値の算出は、それぞれ複数の合焦距離毎に行われる。 Shooting of the subject, the detection of the high frequency component of the disparity calculating each area, and calculates the high-frequency component integration value is respectively performed for each distance focus plurality of focus.

【0018】ついで、高周波成分積算値が最大である合焦距離が検出され、その合焦距離にピントを合わせて被写体を撮影して得られた2次元映像信号が記憶手段に記憶される。 [0018] Then, the high-frequency component integration value is detected focusing distance is maximum, two-dimensional image signal obtained by photographing an object to focus on the focal length is stored in the storage means.

【0019】そして、被写体距離検出手段によって、視差算出領域毎に、高周波成分に基づいて被写体距離が検出される。 [0019] Then, the object distance detection means, the disparity calculation for each region, the object distance is detected based on the high-frequency component. 請求項2に記載するように、高周波成分が最大である合焦距離が被写体距離とされることが望ましい。 As described in claim 2, focusing distance high-frequency component is maximum it is desirable that the the subject distance. 一般に、撮影すべき被写体に焦点が合ったときにその部分の高周波成分が大きくなるので、高周波成分が最大になる合焦距離がわかれば、その合焦距離において被写体に焦点が合っているとし、その合焦距離を被写体距離と判断することができる。 In general, the high frequency components of the portion in time-focus on a subject to be photographed is increased, knowing the distance focus high frequency component is maximized, and the focus on the subject is correct in its focal length, it is possible to determine the focal length and subject distance. このようにして得られた被写体距離に基づいて、視差情報生成手段によって画面内の所定単位領域毎の視差情報が生成される。 On the basis of the object distance obtained in the parallax information of a predetermined unit each area of ​​the screen by the parallax information generating means is generated.

【0020】その後、位相制御手段によって、記憶手段に記憶された2次元映像信号の各所定単位領域内の信号から、その所定単位領域に対応する視差情報に応じた水平位相量を有する第1映像信号および第2映像信号がそれぞれ生成される。 [0020] Then, the phase control means, from a signal of each predetermined unit area of ​​the stored two-dimensional image signal in the storage means, the first image having a horizontal phase amount according to the disparity information corresponding to the predetermined unit area signal and the second video signal is generated, respectively.

【0021】位相制御手段は、たとえば請求項5に記載するように構成されてもよい。 The phase control means, for example, may be configured to Claim 5.

【0022】請求項5に記載の位相制御手段では、まず、第1記憶手段および第2記憶手段に2次元映像信号が一次的に記憶される。 [0022] In phase control means according to claim 5, first, two-dimensional image signal in the first storage means and second storage means is temporarily stored.

【0023】第1の読み出しアドレス制御手段によって、第1記憶手段の読み出しアドレスが標準読み出しアドレスに対して制御される。 [0023] by a first read address control means, the read address of the first memory means is controlled to a standard read address. この制御量は、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて決定される。 The control amount is horizontal and vertical position of the two-dimensional image signal is determined based on the disparity information corresponding to a predetermined unit region belongs. その結果、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が進んだ第1映像信号が生成される。 As a result, the first video signal advanced only horizontal phase amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address is generated.

【0024】また、第2の読み出しアドレス制御手段によって、第2記憶手段の読み出しアドレスが標準読み出しアドレスに対して制御される。 Further, the second read address control means, the read address of the second memory means is controlled to a standard read address. この制御量は、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて決定される。 The control amount is horizontal and vertical position of the two-dimensional image signal is determined based on the disparity information corresponding to a predetermined unit region belongs. その結果、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が遅れた第2映像信号が生成される。 As a result, the second image signal delayed by a horizontal phase amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address is generated.

【0025】このように、所定単位領域毎に第1映像信号および第2映像信号の水平位相量が設定される。 [0025] Thus, the horizontal phase of the first video signal and second video signal is set for each predetermined unit area.

【0026】また、請求項7に記載の2次元映像を3次元映像に変換する方法では、第1ステップ〜第3ステップにおいて、撮像手段によって被写体が撮影されて2次元映像信号が得られ、高周波成分検出手段によって、画面内に設定された複数の視差算出領域それぞれについて2次元映像信号の高周波成分が検出され、積算値算出手段によって、所定の視差算出領域の高周波成分が積算されて高周波成分積算値が算出される。 [0026] In the method of converting the 3-dimensional image of the two-dimensional image according to claim 7, in the first step to third step, the object is photographed two-dimensional image signal obtained by the imaging means, the high frequency the component detecting means, the high frequency component of the two-dimensional video signal is detected for each of a plurality of parallax calculation areas set in the screen, the integrated value calculating means, are integrated high frequency components in a predetermined parallax calculation regions high frequency component integration value is calculated. 被写体の撮影、視差算出領域毎の高周波成分の検出、および高周波成分積算値の算出は、それぞれ複数の合焦距離毎に行われる。 Shooting of the subject, the detection of the high frequency component of the disparity calculating each area, and calculates the high-frequency component integration value is respectively performed for each distance focus plurality of focus.

【0027】ついで、第4ステップにおいて、高周波成分積算値が最大である合焦距離が検出され、その合焦距離にピントを合わせて被写体を撮影して得られた2次元映像信号が記憶手段に記憶される。 [0027] Next, in the fourth step, the high-frequency component integration value is detected focusing distance is maximum, a two-dimensional image signal storage means obtained by photographing an object to focus on the focal length It is stored.

【0028】そして、第5ステップにおいて、視差算出領域毎に、高周波成分に基づいて被写体距離が検出される。 [0028] Then, in the fifth step, the disparity calculation for each region, the object distance is detected based on the high-frequency component. この場合も請求項8に記載するように、高周波成分が最大である合焦距離が被写体距離とされることが望ましい。 In this case also, as described in claim 8, the focusing distance high-frequency component is maximum is the subject distance is desirable. 第6ステップでは、このようにして得られた被写体距離に基づいて画面内の所定単位領域毎の視差情報が生成される。 In the sixth step, the disparity information of a predetermined unit each area of ​​the screen on the basis of the way the object distance obtained is generated.

【0029】その後、第7ステップにおいて、記憶手段に記憶された2次元映像信号の各所定単位領域内の信号に基づいて、その所定単位領域に対応する視差情報に応じた水平位相量を有する第1映像信号および第2映像信号がそれぞれ生成される。 [0029] Thereafter, in a seventh step, the a on the basis of a signal of each predetermined unit area of ​​the two-dimensional image signal stored in the storage means, the horizontal phase amount according to the disparity information corresponding to the predetermined unit area 1 video signals and the second image signal is generated, respectively.

【0030】第7ステップでは、たとえば請求項11に記載するように処理されてもよい。 [0030] In the seventh step, for example it may be treated as described in claim 11.

【0031】請求項11に記載の第7ステップでは、まず、第1記憶手段および第2記憶手段に2次元映像信号が一次的に記憶される。 [0031] In a seventh step according to claim 11, first, two-dimensional image signal in the first storage means and second storage means is temporarily stored.

【0032】そして、第1記憶手段の読み出しアドレスが標準読み出しアドレスに対して制御される。 [0032] Then, the read address of the first memory means is controlled to a standard read address. この制御量は、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて決定される。 The control amount is horizontal and vertical position of the two-dimensional image signal is determined based on the disparity information corresponding to a predetermined unit region belongs. その結果、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が進んだ第1映像信号が生成される。 As a result, the first video signal advanced only horizontal phase amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address is generated.

【0033】また、第2記憶手段の読み出しアドレスが標準読み出しアドレスに対して制御される。 Further, the read address of the second memory means is controlled to a standard read address. この制御量は、2次元映像信号の水平垂直位置が属する所定単位領域に対応する視差情報に基づいて決定される。 The control amount is horizontal and vertical position of the two-dimensional image signal is determined based on the disparity information corresponding to a predetermined unit region belongs. その結果、標準読み出しアドレスによって規定される基準水平位相に対して視差情報に応じた量だけ水平位相が遅れた第2映像信号が生成される。 As a result, the second image signal delayed by a horizontal phase amount corresponding to the parallax information with respect to a reference horizontal phase defined by the standard read address is generated.

【0034】このように、所定単位領域毎に第1映像信号および第2映像信号の水平位相量が設定される。 [0034] Thus, the horizontal phase of the first video signal and second video signal is set for each predetermined unit area.

【0035】なお、「高周波成分積算値」は、たとえば、請求項3または9に記載するように、画面の中央部分の視差算出領域の各高周波成分を積算して算出されてもよく、また、請求項4または10に記載するように、 [0035] Incidentally, "high-frequency component integration value", for example, as described in claim 3 or 9, may be calculated by integrating the high frequency component of the disparity calculation areas of the central portion of the screen, also, as described in claim 4 or 10,
画面の各視差算出領域の高周波成分を重み付けしたのち積算して算出されてもよい。 It may be calculated by integrating After weighting a high-frequency component of each parallax calculation region of the screen. 前者では簡易に高周波成分積算値が得られ、後者ではより正確に高周波成分積算値が得られる。 The former high-frequency component integration value is obtained easily at a high frequency component integration value is obtained more accurately in the latter.

【0036】また、請求項6または12に記載するように、視差情報が生成される「所定単位領域」は、たとえば1画素単位の領域であってもよい。 Further, as described in claim 6 or 12, "predetermined unit region" disparity information is generated, for example, may be an area of ​​one pixel unit. このように所定単位領域を小さく設定することによって、視差情報をより高精度に生成でき、綿密な位相制御が可能となる。 By setting in this way reduce the predetermined unit regions, to generate parallax information with higher accuracy, it is possible to careful phase control.

【0037】 [0037]

【発明の実施の形態】以下、この発明の実施の形態について図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, will be explained with reference to the drawings showing preferred embodiments of the present invention.

【0038】図1を参照して、この発明の実施の形態の2次元映像を3次元映像に変換する装置(以下、「2D [0038] Referring to FIG. 1, a device for converting a two-dimensional image of the embodiment of the present invention in a three-dimensional image (hereinafter, "2D
/3D映像変換装置」という)10は、たとえば単眼カメラによって構成される1台の撮像装置12を含む。 / 3D video conversion apparatus "hereinafter) 10 includes an imaging device 12 of one constituted for example by a monocular camera. 撮像装置12は、合焦距離を変更できるフォーカスレンズ14を有する。 The imaging device 12 includes a focusing lens 14 that can change the focal length. フォーカスレンズ14はMPU20(後述)によって制御され、撮像装置12によって、前ピンから後ろピンまでの間の複数のポイント毎に、すなわち合焦距離0〜∞間の複数のポイント毎に被写体が撮影されることにより、複数の合焦距離毎の2次元映像信号が得られる。 Focus lens 14 is controlled by the MPU 20 (described later), the image pickup device 12, prior to each of a plurality of points between to the back pin from the pin, i.e. the subject is photographed for each of a plurality of points between focusing distance 0~∞ the Rukoto, 2D image signal for each distance focus plurality of focus is obtained. 撮像装置12によって得られた2次元映像信号は、輝度信号Y、色差信号R−Yおよび色差信号B− 2D video signal obtained by the imaging device 12, the luminance signal Y, color difference signals R-Y and color difference signals B-
Yによって構成される。 It constituted by Y. これらの輝度信号Y、色差信号R−Yおよび色差信号B−Yは、それぞれA/D変換回路(図示せず)によってY信号、R−Y信号およびB− These luminance signals Y, color difference signals R-Y and color difference signals B-Y is, Y signals by the A / D converter (not shown), respectively, R-Y signal and B-
Y信号にデジタル変換され、後続の回路に与えられる。 Digitally converted into Y signals, it is supplied to the subsequent circuit.

【0039】Y信号は高周波成分検出部16に与えられる。 The Y signal is supplied to the high frequency component detection unit 16.

【0040】図2に示すように、画面18内には複数個の視差算出領域E1〜E12が予め設定され、高周波成分検出部16は、たとえば1フィールド毎に、視差算出領域E1〜E12それぞれについて高周波成分を検出する。 As shown in FIG. 2, the screen 18 is set a plurality of parallax calculation regions E1~E12 previously, the high-frequency component detector 16, for example, every field, for each of the parallax calculation region E1~E12 detecting a high frequency component. 撮像装置12の合焦距離を変更することによって、 By changing the focal length of the image pickup device 12,
複数の合焦距離毎に高周波成分が検出される。 High-frequency component is detected for each of the plurality of focusing distances.

【0041】なお、画面18内には、実際には、6行1 [0041] It should be noted that, in the screen 18, in fact, line 6 1
0列の計60個の視差算出領域が設定されているが、説明の便宜上、図2に示すように、画面18内に、3行4 Although column 0 in total 60 pieces of the parallax calculation regions is set, for convenience of explanation, as shown in FIG. 2, on the screen 18, three rows 4
列の計12個の視差算出領域E1〜E12が設定されているものとする。 Shall total of 12 parallax calculation regions E1~E12 columns are set. 図2においては、各視差算出領域E1 In Figure 2, the parallax calculation region E1
〜E12の水平方向の画素数をm、各視差算出領域E1 m the number of pixels in the horizontal direction of ~E12, the parallax calculation region E1
〜E12の垂直方向の画素数をn、視差算出領域E1の左上の座標を(a,b)として、水平位置(HAD)および垂直位置(VAD)が表されている。 ~E12 the vertical number of pixels n, the upper left coordinates of the parallax calculation region E1 as (a, b), the horizontal position (HAD) and vertical position (VAD) is shown.

【0042】高周波成分検出部16からの高周波成分はMPU20に与えられる。 The high-frequency component from the high frequency component detection unit 16 is given to the MPU 20.

【0043】MPU20では、被写体に焦点が合うように合焦距離が調整され、撮像装置12によって被写体が再度撮影される。 [0043] In MPU 20, is adjusted focal length to focus on the subject, the subject is photographed again by the imaging device 12.

【0044】このとき、MPU20では、所定の視差算出領域の各高周波成分が積算されて高周波成分積算値が算出される。 [0044] At this time, the MPU 20, the high-frequency component integration value is calculated are accumulated each frequency component of a predetermined parallax calculation region. 高周波成分積算値の算出方法としては、画面18の中央部分の視差算出領域、すなわち視差算出領域E6、E7、E10、E11の各高周波成分を積算して、算出する方法や、画面18の各視差算出領域E1〜 The method of calculating the high-frequency component integration value, the parallax calculation region of the central portion of the screen 18, i.e. by integrating the high frequency component of the disparity calculation areas E6, E7, E10, E11, calculation and a method of, each parallax screen 18 calculation area E1~
E12の高周波成分を重み付けして積算し、算出する方法などがある。 Sums by weighting the E12 high frequency components, and a method of calculating. 高周波成分積算値は、複数の合焦距離毎に算出される。 High-frequency component integration value is calculated for each of the plurality of focusing distances.

【0045】そして、MPU20によって、高周波成分積算値が最大である合焦距離が求められ、MPU20によってフォーカスレンズ14のピントがその合焦距離に合わせられて、撮像装置12によって被写体が再度撮影される。 [0045] Then, the MPU 20, the high-frequency component integration value is determined in-focus distance is the maximum, the focus of the focus lens 14 by MPU 20 is aligned to the focal length, the object is photographed again by the image pickup device 12 . 撮影して得られた2次元映像信号のY信号、R Y signals of the two-dimensional image signal obtained by photographing, R
−Y信号およびB−Y信号は、フレームメモリ22に格納される。 -Y signal and B-Y signal is stored in the frame memory 22.

【0046】また、MPU20では、高周波成分検出部16から与えられた高周波成分に基づいて、各視差算出領域E1〜E12毎に、フォーカスレンズ14から被写体までの距離を表す被写体距離が検出される。 [0046] Also, in MPU 20, based on the high-frequency component supplied from the high frequency component detection unit 16, for each parallax calculation region E1 to E12, the object distance indicating the distance from focusing lens 14 to the object is detected. すなわち、各視差算出領域E1〜E12毎に、高周波成分が最大の合焦距離が検出され、その合焦距離が被写体距離とされる。 That is, for each parallax calculation region E1 to E12, the high-frequency component is detected distance focus maximum focus, the focus distance is the subject distance. 一般に、撮影すべき被写体に焦点が合ったときにその部分の高周波成分が大きくなるので、高周波成分が最大になる合焦距離がわかれば、その合焦距離の位置に被写体があると判断して、高周波成分が最大になる合焦距離を被写体距離とする。 In general, the high frequency components of the portion in time-focus on a subject to be photographed is increased, knowing the distance focus high frequency component is maximized, it is determined that there is an object at the position of the focusing distance , the high frequency component is the subject distance focus distance becomes maximum. したがって、被写体が前側にあるほど高周波成分が最大になる合焦距離は短くなるので被写体距離も短くなり、被写体が後方にあるほど高周波成分が最大になる合焦距離は長くなるので被写体距離も長くなる。 Accordingly, the object distance becomes shorter because the object is, the shorter focus distance high-frequency component is maximized as in the front, the object distance is also lengthened because the subject is more focusing distance high-frequency component is maximized becomes longer behind Become.

【0047】MPU20では、さらに、検出された被写体距離に基づいて、各視差算出領域E1〜E12について視差情報が生成される。 [0047] In MPU 20, further based on the detected subject distance, disparity information is generated for each parallax calculation region E1 to E12. 視差情報としては、この実施の形態では左目映像と右目映像との視差量が用いられる。 The parallax information, the parallax amount of the left-eye and right-eye image is used in this embodiment. 被写体距離と視差量との対応関係を変えることによって、視差量を大きくすることも小さくすることもできる。 By changing the correspondence between the subject distance and the parallax amount it may also be reduced by increasing the amount of parallax. また、被写体距離が最も近い視差算出領域の立体視位置(図示せず)を立体表示装置の管面位置に設定すると、被写体距離が長くなるほど視差量も大きくなり、管面位置からの奥行きも大きくなる。 Further, by setting the stereoscopic position nearest parallax calculation region is the object distance (not shown) to the tube surface position of the stereoscopic display device, the parallax amount increases as the object distance increases, also the depth from the tube surface position greatly Become. 視差量の生成方法の詳細については、後述する。 For more information on how to generate the parallax amount, described later.

【0048】MPU20によって算出された各視差算出領域E1〜E12毎の視差量は、視差制御回路24に送られる。 The parallax amount for each parallax calculation region E1~E12 calculated by MPU20 is sent to the parallax control circuit 24. 視差制御回路24には、フレームメモリ22からのY信号、R−Y信号およびB−Y信号も与えられる。 The parallax control circuit 24, Y signal from the frame memory 22, R-Y signal and B-Y signal is also provided.

【0049】視差制御回路24は、各視差算出領域E1 The parallax control circuit 24, the parallax calculation region E1
〜E12毎の視差量に基づいて、たとえば各フィールドの各画素毎の視差量を生成する。 Based on the parallax amount of each ~E12, for example to generate a parallax amount for each pixel in each field. そして、得られた各画素位置毎の視差量に基づいて、左目映像用任意画素遅延FIFOおよび右目映像任意画素遅延FIFOから映像信号(Y信号、R−Y信号およびB−Y信号)を読み出す際の読み出しアドレスが左目映像用任意画素遅延FI Then, based on the parallax amount of each pixel each position obtained, when reading the video signal (Y signal, R-Y signal and B-Y signal) from an arbitrary pixel delay FIFO and the right-eye image optional pixel delay FIFO for the left eye video image any pixel delay FI for the read address is left-eye image
FOと右目映像任意画素遅延FIFOとの間でずれるように、左目映像用任意画素遅延FIFOおよび右目映像任意画素遅延FIFOの読み出しアドレスを制御する。 As shift between the FO and right-eye image optional pixel delay FIFO, controls the reading address of any pixel delay FIFO and the right-eye image optional pixel delay FIFO for the left eye image.
したがって、左目映像用任意画素遅延FIFOから読み出された左目映像信号の水平位相と、右目映像任意画素遅延FIFOから読み出された右目映像信号の水平位相とが異なるようになる。 Thus, the horizontal phase of the left-eye image signal read from the left-eye image for any pixel delay FIFO, and the horizontal phase of the right-eye image signal read from the right eye image optional pixel delay FIFO is different. このようにして、視差制御回路24によって視差制御される。 In this manner, the parallax control by the parallax control circuit 24. なお、Y信号用の左目映像用任意画素遅延FIFOおよび右目映像任意画素遅延FIFOは、それぞれ左目映像用任意画素遅延FIFO Incidentally, any pixel delay FIFO and the right-eye image optional pixel delay FIFO for the left eye images for Y signal, an arbitrary pixel delay FIFO for the left eye image, respectively
120および右目映像任意画素遅延FIFO122で表される(図6参照)。 Represented by 120 and the right-eye image optional pixel delay FIFO 122 (see FIG. 6).

【0050】視差制御回路24から読み出された左目映像信号は、D/A変換回路(図示せず)によってアナログ信号に変換された後、立体表示装置に送られる。 The left-eye image signal read from the parallax control circuit 24 is converted into an analog signal by a D / A converter (not shown) is sent to the three-dimensional display device. また、視差制御回路24から読み出された右目映像信号は、D/A変換回路によってアナログ信号に変換された後、立体表示装置に送られる。 Also, the right-eye image signal read from the parallax control circuit 24 is converted into an analog signal by D / A conversion circuit and sent to the stereoscopic display device.

【0051】左目映像信号の水平位相と、右目映像信号の水平位相とは異なっているので、左目映像と右目映像との間に視差が発生する。 The horizontal phase of the left-eye image signal, so is different from the horizontal phase of the right-eye image signal, parallax occurs between the left-eye and right-eye videos. この結果、左目映像を左目で観察し、右目映像を右目で観察すると、被写体が背景に対して前方位置にあるような3次元映像が得られる。 Consequently, by observing the left-eye image with the left eye and observing the right-eye image with the right eye, the subject is a three-dimensional image, such as in a forward position obtained for the background.

【0052】なお、撮像装置12からタイミング制御回路26へは、2次元映像信号の垂直同期信号Vsyn [0052] Note that the image pickup device 12 to the timing control circuit 26, the vertical synchronizing signal of the two-dimensional image signal Vsyn
c、水平同期信号Hsyncおよび各水平期間の水平アドレスを検出するためのクロック信号CLKが与えられ、タイミング制御回路26は、MPU20からの書き込み制御信号および読み出し制御信号によって制御される。 c, is given a clock signal CLK for detecting the horizontal address of the horizontal synchronization signal Hsync and the horizontal period, the timing control circuit 26 is controlled by a write control signal and read control signal from the MPU 20. タイミング制御回路26によって、フレームメモリ22の書き込みおよび読み出しが制御され、また、高周波成分検出部16および視差制御回路24が制御される。 The timing control circuit 26, the writing and reading of the frame memory 22 is controlled, also, the high frequency component detection unit 16 and the parallax control circuit 24 is controlled.

【0053】図3に、高周波成分検出部16の構成を示される。 [0053] Figure 3 is shown a configuration of a high frequency component detection unit 16.

【0054】高周波成分検出部16は、タイミング制御回路26、ハイパスフィルタ(HPF)28、絶対値回路30、スライス処理回路32、加算器34および高周波成分積算レジスタ群36および選択回路38を含む。 [0054] the high frequency component detection unit 16 includes a timing control circuit 26, a high pass filter (HPF) 28, absolute value circuit 30, the slice processing circuit 32, an adder 34 and a high-frequency component integration register group 36 and the selection circuit 38.
高周波成分積算レジスタ群36は、各視差算出領域E1 High-frequency component integration register group 36, the parallax calculation region E1
〜E12にそれぞれ対応した第1〜第12の高周波成分積算レジスタ群40〜62を含む。 The first to correspond respectively to ~E12 including the first 12 of the high-frequency component integration register group 40 to 62.

【0055】タイミング制御回路26は、垂直同期信号Vsync、水平同期信号Hsyncおよびクロック信号CLKに基づいて、第1〜第12のイネーブル信号E [0055] The timing control circuit 26, a vertical synchronization signal Vsync, a based on the horizontal synchronization signal Hsync and a clock signal CLK, the first to twelfth enable signal E
N1〜EN12、リセット信号RSTおよび出力タイミング信号DOUTを出力する。 N1~EN12, outputs the reset signal RST and the output timing signal DOUT.

【0056】各イネーブル信号EN1〜EN12は、それぞれ各視差算出領域E1〜E12に対応しており、常時はLレベルであり、入力される2次元映像信号の水平垂直位置が対応する視差算出領域内にあるときに、Hレベルとなる。 [0056] Each enable signal EN1~EN12 corresponds to the parallax calculation regions E1~E12 respectively, normally is an L level, the horizontal and vertical position of the two-dimensional image signal inputted corresponding disparity calculation region when in, the H level. 第1〜第12のイネーブル信号EN1〜E First to twelfth enable signal EN1~E
N12は、それぞれ第1〜第12の高周波成分積算レジスタ40〜62に、書き込み信号として入力される。 N12 is the first to 12 high-frequency component integration registers 40 to 62 respectively, are input as a write signal. また、第1〜第12のイネーブル信号EN1〜EN12 Further, the first through twelfth enable signal EN1~EN12
は、選択回路38にも与えられる。 It is also given to the selection circuit 38. 選択回路38は、H Selection circuit 38, H
レベルのイネーブル信号に対応する入力データを選択して加算器34へ出力する。 Select the input data corresponding to the level of the enable signal output to the adder 34.

【0057】リセット信号RSTは、2次元映像信号における各フィールドの有効映像開始タイミングで出力され、各高周波成分積算レジスタ40〜62に与えられる。 [0057] reset signal RST is output at the effective video start timing of each field in the 2D image signal is supplied to the high-frequency component integration registers 40-62. 各高周波成分積算レジスタ40〜62にリセット信号RSTが入力されると、その内容が0にされる。 When the reset signal RST is input to the high-frequency component integration registers 40 to 62, its contents are zero.

【0058】出力タイミング信号DOUTは、図2に示すように、2次元映像信号の垂直位置が、最下位の視差算出領域E12の下端の垂直位置を越えた時点から一定時間だけ、Hレベルとなる。 [0058] The output timing signal DOUT, as shown in FIG. 2, the vertical position of the two-dimensional image signal, by a predetermined time from the time beyond the vertical position of the lower end of the lowest disparity calculation region E12, an H level . 出力タイミング信号DOU Output timing signal DOU
Tは、MPU20に与えられる。 T is given to MPU20.

【0059】ハイパスフィルタ28としては、たとえば、図4に示すように、5つのDフリップフロップ64 [0059] As the high-pass filter 28, for example, as shown in FIG. 4, five D flip-flops 64
〜72、入力値の2倍の出力を得るためのビットシフト回路74、加算器76および減算器78からなる、− 72, the bit shift circuit 74 to obtain a duplicate of the output of the input values, an adder 76 and a subtractor 78, -
1、0、2、0および−1のタップ係数を持つハイパスフィルタが用いられる。 High pass filter having a tap coefficient of 1,0,2,0 and -1 is used.

【0060】また、スライス処理回路32としては、図5に示すような入出力特性を有する回路が用いられる。 [0060] As the slicing circuit 32, the circuit having the input-output characteristics as shown in FIG. 5 is used.
0〜Iaまでの入力に対しては、出力を0としているのは、ノイズが高周波成分として抽出されないようにするためである。 For inputs up 0~Ia, a is are you 0 output, in order to ensure that noise is not extracted as a high-frequency component.

【0061】したがって、2次元映像信号におけるY信号の高周波成分がハイパスフィルタ28によって抽出され、その絶対値が絶対値化回路30によって得られ、スライス処理回路32によって高周波成分の絶対値からノイズが除去される。 [0061] Thus, the high frequency component of the Y signal in the two-dimensional image signal is extracted by the high-pass filter 28, the absolute value is obtained by the absolute value circuit 30, noise is removed from the absolute value of the high frequency components by the slice processing circuit 32 It is.

【0062】2次元映像信号における有効映像開始タイミングにリセット信号RSTが出力され、各高周波成分積算レジスタ40〜62の内容が0にされる。 [0062] reset signal RST enable video start timing in the two-dimensional video signal is output, the content of each high-frequency component integration register 40-62 is zero. 2次元映像信号の水平垂直位置が第1の視差算出領域E1内である場合には、第1のイネーブル信号EN1がHレベルとなるので、第1の高周波成分積算レジスタ40に保持されている高周波成分が選択回路38を介して加算器34 RF horizontal and vertical position of the two-dimensional image signal when it is within the first disparity calculation regions E1, since the first enable signal EN1 becomes H level, which is held in the first high-frequency component integration registers 40 component through the selection circuit 38 the adder 34
に与えられるとともに、2次元映像信号におけるY信号の高周波成分(スライス処理回路32の出力)が加算器34に入力される。 With given high-frequency component of the Y signal in the two-dimensional image signal (the output of the slicing circuit 32) is input to the adder 34.

【0063】したがって、第1の高周波成分積算レジスタ40に保持されていた高周波成分と、2次元映像信号におけるY信号の高周波成分とが加算器34によって加算され、その加算結果が第1の高周波成分積算レジスタ40に格納される。 [0063] Thus, a high-frequency component that has been held in the first high-frequency component integration register 40, a high frequency component of the Y signal in the two-dimensional image signal are added by the adder 34, the addition result is first high frequency component It is stored in the accumulation register 40. すなわち、2次元映像信号の水平垂直位置が視差算出領域E1内である場合においては、視差算出領域E1内の画素の高周波成分が積算されていき、その積算結果が第1の高周波成分積算レジスタ40 That is, when the horizontal and vertical position of the two-dimensional video signal is within the parallax calculation region E1 is the high frequency components of the pixels of the parallax calculation region E1 is gradually being accumulated, the multiplication result is the first high-frequency component integration registers 40
に蓄積される。 It is stored in.

【0064】このようにして、各視差算出領域E1〜E [0064] In this way, each of the parallax calculation region E1~E
12毎の高周波成分が、それぞれ対応する高周波成分積算レジスタ40〜62に蓄積される。 High-frequency component of every 12 is accumulated in the corresponding high-frequency component integration register 40-62. そして、出力タイミング信号DOUTがHレベルとなると、各高周波成分積算レジスタ40〜62に蓄積されている各視差算出領域E1〜E12毎の高周波成分が、MPU20にデータバスを介して与えられる。 The output timing signal DOUT is becomes the H level, the high frequency component of the parallax calculation regions for each E1~E12 accumulated in the high-frequency component integration register 40-62 is given through the data bus to the MPU 20.

【0065】また、図6に、視差制御回路24の主要な構成が示される。 [0065] Further, in FIG. 6, the main structure of the parallax control circuit 24 is shown.

【0066】図6では、Y信号の処理するための回路構成しか示されていないが、R−Y信号およびB−Y信号も同様に処理されるので、R−Y信号およびB−Y信号についての説明は省略する。 [0066] In FIG. 6, but shown only the circuit configuration for processing of the Y signal, the R-Y signal and B-Y signals are also processed in the same manner, the R-Y signal and B-Y signal explanations are omitted.

【0067】ところで、MPU20によって算出された視差量は、各視差算出領域E1〜E12の中心位置における視差量である。 [0067] Incidentally, the parallax amount computed by the MPU20 is a parallax amount at the center position of each parallax calculation region E1 to E12. 視差制御回路24では、各視差算出領域E1〜E12の中心位置における視差量に基づいて、画面18の各画素位置における視差量が求められる。 The parallax control circuit 24, based on the parallax amount at the center position of each parallax calculation regions E1 to E12, the parallax amount at each pixel position of the screen 18 is determined. そして、各画素位置の2次元映像信号から、その画素位置における視差量に応じた視差を有する左目映像と右目映像とを生成するために、各面素位置における視差量に基づいて、左目映像用任意画素遅延FIFO120 Then, from the 2D image signal of each pixel position, in order to generate the left-eye image and right-eye images having parallax in accordance with the parallax amount at the pixel position, based on the amount of parallax on each surface element position, the left-eye image any pixel delay FIFO120
および右目映像任意画素遅延FIFO122の読み出しアドレスが制御される。 And right read address of the video arbitrary pixel delay FIFO122 is controlled.

【0068】画面18の各画素位置における視差量は、 [0068] parallax amount at each pixel position on the screen 18,
タイミング制御回路26、視差補間係数発生回路80、 The timing control circuit 26, the parallax interpolation factor generating circuit 80,
視差量記憶手段82、視差選択回路84、第1〜第4の乗算器86〜92および加算器94によって、生成される。 Parallax amount storage unit 82, the parallax selection circuit 84, the first to fourth multipliers 86 to 92 and the adder 94 is generated.

【0069】2次元映像信号の水平同期信号Hsync [0069] the horizontal synchronizing signal of the two-dimensional image signal Hsync
および垂直同期信号Vsyncは、タイミング制御回路26に入力される。 And the vertical synchronizing signal Vsync is input to the timing control circuit 26. また、各水平期間の水平アドレスを検出するためのクロック信号CLKもタイミング制御回路26に入力される。 The clock signal CLK for detecting the horizontal address of each horizontal period is also input to the timing control circuit 26.

【0070】タイミング制御回路26は、水平同期信号Hsync、垂直同期信号Vsyncおよびクロック信号CLKに基づいて、2次元映像信号の絶対的水平位置を表す水平アドレス信号HAD、2次元映像信号の絶対的垂直位置を表す垂直アドレス信号VAD、2次元映像信号の相対的水平位置を表す相対的水平位置信号HPO [0070] The timing control circuit 26, a horizontal synchronization signal Hsync, a based on the vertical synchronization signal Vsync and the clock signal CLK, the absolute vertical horizontal address signal HAD, the 2D image signal representing the absolute horizontal position of the two-dimensional image signal the relative horizontal position signal HPO representing the relative horizontal positions of the vertical address signal VAD, 2-dimensional image signal representing the position
Sおよび2次元映像信号の相対的垂直位置を表す相対的垂直位置信号VPOSを生成して出力する。 It generates a relative vertical position signal VPOS representing the relative vertical position of S and the two-dimensional video signal output.

【0071】2次元映像信号の相対的水平位置および相対的垂直位置について説明する。 [0071] The relative horizontal position and relative vertical position of the two-dimensional image signal will be described.

【0072】図7を参照して、図2の視差算出領域E1 [0072] With reference to FIG. 7, the parallax calculation region E1 of Fig. 2
〜E12は、次のように設定されている。 ~E12 is set in the following manner. 面面16全体が図7に点線で示すように、4行5列の20個の領域(以下、第1分割領域という)に分割されている。 As shown overall surface plane 16 by a dotted line in FIG. 7, four rows and five columns 20 region (hereinafter, referred to as a first divided area) is divided into. そして、左上端の第1分割領域の中心、右上端の第1分割領域の中心、左下端の第1分割領域の中心および右下端の第1分割領域の中心を4頂点とする四角形領域が3行4 The first center of the divided regions of the upper left corner, the center of the first divided region of the upper right end, a rectangular area around the four vertices of the first divided region of the center and the right lower end of the first divided area in the lower left end 3 row 4
列の12個の領域(以下、第2分割領域という)に分割され、各第2分割領域が視差算出領域E1〜E12として設定されている。 12 region of the column (hereinafter, referred to as a second divided area) is divided into, each of the second divided region is set as the parallax calculation regions E1 to E12.

【0073】第1分割領域および第2分割領域の水平方向の画素数がmとして表され、第1分割領域および第2 [0073] the number of pixels in the horizontal direction of the first divided region and a second divided region is represented as m, the first divided region and a second
分割領域の垂直方向の画素数がnとして表されている。 Number of pixels in the vertical direction of the divided regions is represented as n.
2次元映像信号の相対的水平位置は、各第1分割領域の左端を0とし、右端をmとして、0〜(m−1)で表される。 The relative horizontal position of the two-dimensional video signal, the left end of the first divided region is set to 0, the right end as m, represented by 0~ (m-1). 2次元映像信号の相対的垂直位置は、各第1分割領域の上端を0とし、下端をnとして、0〜(n−1) The relative vertical position of the two-dimensional video signal, the upper ends of the first divided region is set to 0, the lower end as n, 0~ (n-1)
で表される。 In represented.

【0074】2次元映像信号の相対的水平位置信号HP [0074] The relative horizontal position signal HP of two-dimensional image signal
OSおよび相対的垂直位置VPOSは、視差補間係数発生回路80に与えられる。 OS and relative vertical position VPOS is supplied to the disparity interpolation coefficient generating circuit 80. 視差補間係数発生回路80 Parallax interpolation factor generating circuit 80
は、相対的水平位置信号HPOS、相対的垂直位置信号VPOSおよび次の数1に基づいて、第1の視差補間係数KUL、第2の視差補間係数KUR、第3の視差補間係数KDLおよび第4の視差補間係数KDRを生成して出力する。 The relative horizontal position signal HPOS, based on the relative vertical position signal VPOS and the next number 1, first parallax interpolation factor KUL, second parallax interpolation factor KUR, third parallax interpolation factor KDL and fourth It generates and outputs a disparity interpolation factor KDR of.

【0075】 [0075]

【数1】 [Number 1]

【0076】ここで、画面18の各画素位置における視差量を生成する方法の基本的な考え方について、図8を用いて説明する。 [0076] Here, the basic idea of ​​a method for generating a parallax amount at each pixel position on the screen 18 will be described with reference to FIG. 水平アドレス信号HADおよび垂直アドレス信号VADによって表されている水平垂直位置(以下、注目位置という)が図8のPxyであるとする。 Horizontal and vertical position, as represented by the horizontal address signal HAD and a vertical address signal VAD (hereinafter, referred to as the target position) is assumed to be Pxy of FIG. 注目位置Pxyにおける視差量を求める場合について説明する。 It will be described for obtaining the parallax amount at the target position Pxy.

【0077】(1)まず、MPU20によって算出された各視差算出領域E1〜E12における視差量のうちから、注目位置Pxyが含まれる第1分割領域の4頂点、 [0077] (1) First, from among the parallax amount of the parallax calculation region E1~E12 calculated by MPU 20, 4 vertices of the first divided area including the target position Pxy,
この例ではPE1、PE2、PE5、PE6を中心とする視差算出領域E1、E2、E5、E6における視差量が、それぞれUL、UR、DL、DRとして抽出される。 Parallax amount at PE1, PE2, PE5, the parallax calculation region E1 around the PE6, E2, E5, E6 in this example, UL respectively, UR, DL, is extracted as a DR. すなわち、注目位置Pxyが含まれる第1分割領域の4頂点のうち、左上の頂点を中心とする視差算出領域E1の視差量が第1の視差量ULとして、右上の頂点を中心とする視差算出領域E2の視差量が第2の視差量U That is, among the four vertices of the first divided area including the target position Pxy, as the parallax amount of the parallax calculation region E1 around the upper left corner of the first parallax amount UL, parallax calculating around the upper right corner of the the second parallax amount U is the amount of parallax of the region E2
Rとして、左下の頂点を中心とする視差算出領域E5の視差量が第3の視差量DLとして、右下の頂点を中心とする視差算出領域E6の視差量が第4の視差量DRとして、それぞれ抽出される。 As R, as the parallax amount is a third parallax amount DL of the parallax calculation region E5 around the lower left vertex of the parallax amount DR parallax amount of the fourth parallax calculation region E6 around the apex of the lower right, It is extracted, respectively.

【0078】ただし、注目位置が含まれる第1分割領域が、左上端の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち1つの頂点のみが視差検出領域の中心に該当するような場合には、その視差算出領域の視差量が、第1〜第4の視差量UL、 [0078] However, the first divided area including the target position is, as in the case of the first divided region of the upper left end, only one vertex of the four vertices of the first divided area including the target position parallax If such true center of the detection region, the parallax amount of the parallax calculation region, the first to fourth parallax amount UL,
UR、DLおよびDRとして抽出される。 UR, it is extracted as DL and DR.

【0079】また、注目位置が含まれる第1分割領域が、左上端の第1分割領域の右隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち下側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち上側の2つの頂点に対応する視差量UL、URとしては、その下側の頂点を中心とする視差算出領域の視差量が抽出される。 [0079] The first divided area including the target position is, as in the case of the first divided region to the right of the first divided region of the upper left corner, four vertices of the first divided area including the target position If only two vertices on the lower side as corresponding to the center of the parallax calculation regions of the parallax amount UL corresponding to the two vertices of the upper of the four vertices of the first divided area including the target position, the UR, the parallax amount of the parallax calculation region around the vertices of the lower side is extracted.

【0080】また、注目位置が含まれる第1分割領域が、左上端の第1分割領域の下隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち右側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち左側の2つの頂点に対応する視差量UL、DLとしては、その右側の頂点を中心とする視差算出領域の視差量が抽出される。 [0080] The first divided area including the target position is, as in the case of the first divided region under adjacent to the first divided region of the upper left corner, four vertices of the first divided area including the target position If only two vertices on the right, as corresponds to the center of the parallax calculation regions of the parallax amounts corresponding to the two vertices of the left of the four vertices of the first divided area including the target position UL, DL the parallax amount of the parallax calculation region around the vertices of the right are extracted.

【0081】また、注目位置が含まれる第1分割領域が、右下端の第1分割領域の左隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち上側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち下側の2つの頂点に対応する視差量DL、DRとしては、その上側の頂点を中心とする視差算出領域の視差量が抽出される。 [0081] The first divided area including the target position is, as in the case of the first divided region to the left of the first divided region of the lower right, the four vertices of the first divided area including the target position If only two vertices of upper that corresponds to the center of the parallax calculation regions of the parallax amount DL corresponding to the two vertices of the lower of the four vertices of the first divided area including the target position, the DR, the parallax amount of the parallax calculation region around the vertices of the upper is extracted.

【0082】また、注目位置が含まれる第1分割領域が、右下端の第1分割領域の上隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち左側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち右側の2つの頂点に対応する視差量UR、DRとしては、その左側の頂点を中心とする視差算出領域の視差量が抽出される。 [0082] The first divided area including the target position is, as in the case of the first divided area next above the first divided region of the lower right, the four vertices of the first divided area including the target position If only two vertices on the left so as to correspond to the center of the parallax calculation regions of the parallax amount UR corresponding to the two vertices of the right of the four vertices of the first divided area including the target position, DR the parallax amount of the parallax calculation region centering apex of the left is extracted.

【0083】(2)次に、第1〜第4の視差補間係数K [0083] (2) Next, first to fourth parallax interpolation factor K
UL、KUR、KDLおよびKDRが求められる。 UL, KUR, KDL and KDR is required.

【0084】第1の視差補間係数KULは、注目位置P [0084] The first parallax interpolation factor KUL is, the target position P
xyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの右辺までの距離△X The horizontal direction width m of the first divided area e containing xy, distance from the target position Pxy to the right side of the first divided area e △ X
Rの比{(m−HPOS)/m}と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの下辺までの距離△YDの比{(n−VPOS)/ R ratio of {(m-HPOS) / m}, with respect to the vertical direction width n of the first divided area e, the target position Pxy distance △ YD to the lower side of the first divided area e ratio {(n-VPOS) /
n)}との積によって求められる。 Determined by the product of the n)}. すなわち、第1の視差補間係数KULは、注目位置Pxyを含む第1分割領域eの左上頂点PE1と注目位置Pxyとの距離が小さいほど大きくなる。 That is, the first parallax interpolation factor KUL increases as the distance between the upper left corner PE1 and target position Pxy of the first divided area e including the target position Pxy is small.

【0085】第2の視差補間係数KURは、注目位置P [0085] The second parallax interpolation factor KUR is, the target position P
xyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの左辺までの距離△X The horizontal direction width m of the first divided area e containing xy, distance from the target position Pxy to the left side of the first divided area e △ X
Lの比(HPOS/m)と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの下辺までの距離△YDの比{(n−VPOS)/n}との積によって求められる。 L ratio of (HPOS / m), relative to the vertical width n of the first divided area e, the ratio of the distance △ YD from the target position Pxy to the lower side of the first divided area e and {(n-VPOS) / n} It is determined by the product. すなわち、第2の視差補間係数KURは、注目位置Pxyを含む第1分割領域eの右上頂点PE2と注目位置Pxyとの距離が小さいほど大きくなる。 That is, the second parallax interpolation factor KUR increases as the distance between the upper right corner PE2 and target position Pxy of the first divided area e including the target position Pxy is small.

【0086】第3の視差補間係数KDLは、注目位置P [0086] The third parallax interpolation factor KDL is, the target position P
xyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの右辺までの距離△X The horizontal direction width m of the first divided area e containing xy, distance from the target position Pxy to the right side of the first divided area e △ X
Rの比{(m−HPOS)/m}と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの上辺までの距離△YUの比(VPOS/n)との積によって求められる。 And R ratio of {(m-HPOS) / m}, with respect to the vertical direction width n of the first divided area e, the ratio of the distance △ YU from the target position Pxy to the upper side of the first divided area e (VPOS / n) and It is determined by the product. すなわち、第3の視差補間係数KDLは、注目位置Pxyを含む第1分割領域eの左下頂点PE5と注目位置Pxyとの距離が小さいほど大きくなる。 That is, the third parallax interpolation factor KDL increases as the distance between the target position Pxy and the lower left vertex PE5 of the first divided area e including the target position Pxy is small.

【0087】第4の視差補間係数KDRは、注目位置P [0087] The fourth parallax interpolation factor KDR is, the target position P
xyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの左辺までの距離△X The horizontal direction width m of the first divided area e containing xy, distance from the target position Pxy to the left side of the first divided area e △ X
Lの比(HPOS/m)と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの上辺までの距雅△YUの比(VPOS/n)との積によって求められる。 And L ratio (HPOS / m), relative to the vertical width n of the first division region e, by the product of the ratio of 距雅 △ YU from the target position Pxy to the upper side of the first divided area e (VPOS / n) Desired. すなわち、第4の視差補間係数KDR That is, the fourth parallax interpolation factor KDR
は、注目位置Pxyを含む第1分割領域eの右下頂点P The lower right vertex P of the first divided area e including the target position Pxy
E6と注目位置Pxyとの距離が小さいほど大きくなる。 As the distance between the E6 and the target position Pxy small increases.

【0088】(3)上記(1)で抽出された第1〜第4 [0088] (3) first to fourth extracted in (1)
の視差量UL、UR、DL、DRに、それぞれ上記(2)で算出された第1〜第4の視差補間係数KUL、 The parallax amount UL, UR, DL, the DR, the first to fourth parallax interpolation factor KUL calculated in each of the above (2),
KUR、KDL、KDRがそれぞれ乗算される。 KUR, KDL, KDR is multiplied, respectively. そして、得られた4つの乗算値が加算されることによって、 Then, by four multipliers values ​​obtained are summed,
注目位置Pxyにおける視差量が生成される。 Parallax amount at the target position Pxy is generated.

【0089】図6に戻って、視差量記憶手段82は、視差算出領域E1〜E12にそれぞれ対応して設けられた第1〜第12の視差レジスタ96〜118を備えている。 [0089] Returning to FIG. 6, the parallax amount storage unit 82 includes a parallax registers 96-118 of the first to twelfth provided corresponding to the parallax calculation regions E1 to E12. 第1〜第12の視差レジス夕96〜118には、それぞれ、MPU20によって生成された各視差算出領域E1〜E12における視差量が格納される。 The first to twelfth parallax Regis evening 96-118 of, respectively, the parallax amount is stored in each of the parallax calculation region E1~E12 generated by MPU 20.

【0090】視差量記憶手段82の後段には、視差選択回路84が設けられる。 [0090] The subsequent stage of the parallax amount storage unit 82, the parallax selection circuit 84 is provided. 視差選択回路84には、各視差レジスタ96〜118から視差量がそれぞれ与えられる。 The disparity circuit 84, the amount of parallax is given from each parallax register 96-118. さらに、視差選択回路84には、タイミング制御回路26から水平アドレス信号HADおよび垂直アドレス信号VADが与えられる。 Further, the disparity circuit 84 is supplied with the horizontal address signal HAD and a vertical address signal VAD from the timing control circuit 26.

【0091】視差選択回路84は、図9(a)に示される規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図8の例では、 [0091] disparity circuit 84, according to the rules shown in FIG. 9 (a), in the example of the region (Fig. 8 corresponding to a horizontal address signal HAD and a vertical address signal VAD is
注目位置を含む第1領域の左上頂点を中心とする視差算出領域)における視差量を、第1の視差量ULとして選択して出力する。 The parallax amount of the parallax calculation region) around the upper left corner of the first region including the target position, selects and outputs a first parallax amount UL. さらに、視差選択回路84は、図9 Further, the parallax selection circuit 84, FIG. 9
(b)に示される規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図8の例では、注目位置を含む第1領域の右上頂点を中心とする視差算出領域)における視差量を、第2の視差量URとして選択して出力する。 According to the rules shown in (b), (in the example of FIG. 8, the parallax calculation region centered at the top right vertex of the first region including the target position) areas corresponding to the horizontal address signal HAD and a vertical address signal VAD parallax at the amount, selects and outputs a second parallax amount UR.

【0092】さらに、視差選択回路84は、図9(c) [0092] Further, the parallax selection circuit 84, FIG. 9 (c)
に示される規則にしたがって、水平アドレス信号HAD According to the rules shown in the horizontal address signal HAD
および垂直アドレス信号VADに対応する領域(図8の例では、注目位置を含む第1領域の左下頂点を中心とする視差算出領域)における視差量を、第3の視差量DL And (in the example of FIG. 8, the parallax calculation region around lower left vertex of the first region including the target position) areas corresponding to the vertical address signal VAD the amount of parallax, a third parallax amount DL
として選択して出力する。 Select and output as. さらに、視差選択回路84 Further, the parallax selection circuit 84
は、図9(d)に示される規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図8の例では、注目位置を含む第1領域の右下頂点を中心とする視差算出領域)における視差量を、第4の視差量DRとして選択して出力する。 Parallax, according to the rules shown in FIG. 9 (d), in the example of the region (Fig. 8 corresponding to a horizontal address signal HAD and a vertical address signal VAD, around the lower right vertex of the first region including a target position the amount of parallax calculation region), selects and outputs a fourth parallax amount DR. 図9において、たとえば、0〜mのように、a〜bで表現されている記号”〜”は、a以上b未満を意味する記号として用いられている。 9, for example, as 0 to m, the symbol is expressed by to b "~" is used as a symbol to mean less than a b.

【0093】視差選択回路84によって選択された第1 [0093] The first selected by the disparity circuit 84
の視差量UL、第2の視差量UR、第3の視差量DLおよび第4の視差量DRは、それぞれ第1、第2、第3および第4の乗算器86、88、90および92に入力される。 Amount of parallax UL, the second parallax amount UR, third parallax amount DL and fourth parallax amount DR are first respectively the second, third and fourth multipliers 86, 88, 90 and 92 It is input.

【0094】第1、第2、第3および第4の乗算器8 [0094] The first, second, third and fourth multiplier 8
6、88、90および92には、それぞれ視差補間係数発生回路80からの第1の視差補間係数KUL、第2の視差補間係数KUR、第3の視差補間係数KDLおよび第4の視差補間係数KDRも入力される。 The 6,88,90 and 92, the first parallax interpolation factor KUL from each parallax interpolation factor generating circuit 80, the second parallax interpolation factor KUR, third parallax interpolation factor KDL and fourth parallax interpolation factor KDR It is also input.

【0095】第1の乗算器86は、第1の視差量ULに第1の視差補間係数KULを乗算する。 [0095] The first multiplier 86 multiplies the first parallax interpolation factor KUL to the first parallax amount UL. 第2の乗算器8 The second multiplier 8
8は、第2の視差量URに第2の視差補間係数KURを乗算する。 8 multiplies the second parallax interpolation factor KUR to the second parallax amount UR. 第3の乗算器90は、第3の視差量DLに第3の視差補間係数KDLを乗算する。 Third multiplier 90 multiplies the third parallax interpolation factor KDL the third parallax amount DL. 第4の乗算器92 Fourth multiplier 92
は、第4の視差量DRに第4の視差補間係数KDRを乗算する。 Multiplies the fourth parallax interpolation factor KDR the fourth parallax amount DR.

【0096】第1〜第4の乗算器86〜92の出力は、 [0096] The output of the first to fourth multipliers 86 to 92 are
加算器94によって加算される。 It is added by the adder 94. これにより、注目位置における視差量PRが得られる。 Thus, the parallax amount PR at the target position is obtained.

【0097】左目映像用任意画素遅延FIFO120および右目映像任意画素遅延FIFO122は、1画素より小さい単位での水平位相制御を行なうために、それぞれ、2つのラインメモリ120a、120b、および1 [0097] Any pixel delay for the left eye video FIFO120 and right-eye image optional pixel delay FIFO122, in order to perform the horizontal phase control in less than one pixel unit, respectively, two line memories 120a, 120b, and 1
22a、122bを有する。 22a, it has a 122b. ラインメモリ120a、1 Line memory 120a, 1
20b、122aおよび122bには、それぞれ、フレームメモリ22からのY信号が入力されるとともに、撮像装置12からのクロック信号CLKが入力される。 20b, the 122a and 122b, respectively, together with the Y signal from the frame memory 22 is input, the clock signal CLK from the image pickup device 12 is inputted.

【0098】タイミング制御回路26から出力される水平アドレス信号HADは、標準アドレス発生回路124 [0098] horizontal address signal HAD outputted from the timing control circuit 26, the standard address generating circuit 124
にも入力される。 It is also input to. 標準アドレス発生回路124は、ラインメモリ120a、120b、122aおよび122b Standard address generating circuit 124, a line memory 120a, 120b, 122a and 122b
における標準書き込みアドレスWADおよび標準読み出しアドレスRADを生成して出力する。 Generating and outputting a standard write address WAD and standard read address RAD at. また、標準アドレス発生回路124は、2D/3D映像変換装置10によって得られる左目映像信号および右目映像信号に付加される同期信号Csyncをも出力する。 Further, the standard address generating circuit 124 also outputs a synchronizing signal Csync is added to the left-eye image signal and the right-eye image signal obtained by the 2D / 3D video conversion apparatus 10. この同期信号Csyncによって表される水平同期信号は、2次元映像信号の水平同期信号Hsyncより、所定クロック数分遅れた信号となる。 Horizontal synchronizing signal represented by the synchronizing signal Csync is the horizontal synchronization signal Hsync of 2D image signal, a predetermined number of clocks delayed signal.

【0099】標準読み出しアドレスRADは、標準読み出しアドレスによって規定される基準水平位相に対して、左目映像用任意画素遅延FIFO120および右目映像任意画素遅延FIFO122に入力される映像信号の水平位相を進めたり遅らせたりできるようにするために、標準書き込みアドレスWADに対して、所定クロック数分遅れている。 [0099] Standard read address RAD is delayed relative to the reference horizontal phase defined by the standard read address, or advances the horizontal phase of a video signal inputted to any pixel delay FIFO120 and right-eye image optional pixel delay FIFO122 left eye image in order to be able to or, relative to the standard write address WAD, and predetermined number of clocks delayed. 標準アドレス発生回路124から出力される標準書き込みアドレスWADは、左目映像用任意画素遅延FIFO120内の2つのラインメモリ12 Standard write address output from the standard address generating circuit 124 WAD has two line memories 12 of any pixel delay in FIFO120 left eye image
0a、120b、および右目映像任意画素遅延FIFO 0a, 120b, and the right-eye image optional pixel delay FIFO
122内の2つのラインメモリ122a、122bに、 Two line memories 122a in 122, in 122b,
書き込みアドレスを示す書き込み制御信号として入力される。 It is input as the write control signal indicating a write address.

【0100】標準アドレス発生回路124から出力される標準アドレスRADは、加算器126および減算器1 [0100] Standard address RAD output from the standard address generating circuit 124, the adder 126 and the subtracter 1
28にそれぞれ入力される。 Each of the 28 is input. 加算器126および減算器128には、加算器94から出力される注目位置の視差量PRも入力される。 To the adder 126 and the subtracter 128, the parallax amount PR of the target position outputted from the adder 94 is also input.

【0101】加算器126では、標準読み出しアドレスRADに視差量PRが加算される。 [0102] In the adder 126, the parallax amount PR is added to the standard read address RAD. これにより、左目映像用読み出しアドレスPRLが得られる。 Thus, the read address PRL is obtained for the left eye image.

【0102】左目映像用読み出しアドレスPRLの整数部PRL1は、左目映像用任意画素遅延FIFO120 [0102] integer part PRL1 read address PRL for the left eye video, any pixel delay for the left eye video FIFO120
内の第1のラインメモリ120aに読み出しアドレスR Read address to the first line memory 120a of the inner R
ADL1として入力される。 It is input as ADL1. したがって、第1のラインメモリ120aのアドレスRADL1に対応するアドレスからY信号が読み出される。 Therefore, Y signal is read from the address corresponding to the address RADL1 the first line memory 120a. 読み出されたY信号は、 Read Y signal,
第1の左目映像用乗算器130に入力される。 It is input to the first left-eye image multiplier 130.

【0103】左目映像用読み出しアドレスPRLの整数部PRL1に1が加算されたアドレス値は、左目映像用任意画素遅延FIFO120内の第2のラインメモリ1 [0103] address value to the integer part PRL1 1 is added to the read address PRL left eye image, a second line memory for any pixel delay in FIFO120 left eye image 1
20bに読み出しアドレスRADL2として入力される。 It is input as a read address RADL2 to 20b. したがって、第2のラインメモリ120bのアドレスRADL2に対応するアドレスからY信号が読み出される。 Therefore, Y signal is read from the address corresponding to the address RADL2 the second line memory 120b. 読み出されたY信号は、第2の左目映像用乗算器132に入力される。 Read Y signal is input to the second left-eye image multiplier 132.

【0104】第1のラインメモリ120aに対する読み出しアドレスRADL1と、第2のラインメモリ120 [0104] The read address RADL1 for the first line memory 120a, the second line memory 120
bに対する読み出しアドレスRADL2とは、1だけ異なっているので、第1のラインメモリ120aから読み出されたY信号と、第2のラインメモリ120bから読み出されたY信号とは、水平位置が1だけずれた信号となる。 The read address RADL2 for b, since differ by 1, and Y signal read out from the first line memory 120a, the Y signal read out from the second line memory 120b, the horizontal position 1 the shifted signal.

【0105】左目映像用読み出しアドレスPRLの小数部PRL2は、第2の左目映像補間係数として第2の左目映像用乗算器132に入力される。 [0105] fractional part PRL2 read address PRL for left-eye image is inputted as the second left-eye image interpolation factor to the second left-eye image multiplier 132. 左目映像用読み出しアドレスPRLの小数部PRL2を1から減算した値(1−PRL2)は、第1の左目映像補間係数として第1の左目映像用乗算器130に入力される。 The value obtained by subtracting the fractional part PRL2 1 read address PRL for the left eye video (1-PRL2) is input as the first left-eye image interpolation factor to the first left-eye image multiplier 130.

【0106】したがって、第1の左目映像用乗算器13 [0106] Thus, for the first left-eye image multiplier 13
0では、第1のラインメモリ120aから読み出されたY信号に第1の左目映像補間係数(1−PRL2)が乗算される。 In 0, the first left-eye image interpolation factor (1-PRL2) is multiplied by Y signal read out from the first line memory 120a. 第2の左目映像用乗算器132では、第2のラインメモリ120bから読み出されたY信号に第2の左目映像補間係数PRL2が乗算される。 In the second left-eye image multiplier 132, the second left-eye image interpolation factor PRL2 is multiplied by Y signal read out from the second line memory 120b. そして、第1 Then, the first
の左目映像用乗算器130および第2の右目映像用乗算器132によってそれぞれ得られたY信号は加算器13 Y signals obtained respectively by the left-eye image multiplier 130 and the second right-eye image multiplier 132 of the adder 13
4で加算された後、左目映像用Y信号YL−OUTとして、出力される。 After being added with 4, as the Y signal YL-OUT for left-eye image is output.

【0107】これにより、標準読み出しアドレスRAD [0107] As a result, the standard read address RAD
によって規定される基準水平位相に対して、水平位相量が注目位置における視差量に応じた量だけ遅れた左目映像用Y信号が得られる。 The reference horizontal phase defined by the amount of horizontal phase Y signal for the left eye video image delayed by an amount corresponding to the parallax amount at the target position is obtained.

【0108】減算器128では、標準読み出しアドレスRADから視差量PRが減算される。 [0108] The subtracter 128, the parallax amount PR is subtracted from the standard read address RAD. これにより、右目映像用読み出しアドレスPRRが得られる。 Thus, the read address PRR is obtained for the right-eye image.

【0109】右目映像用読み出しアドレスPRRの整数部PRR1は、右目映像用任意画素遅延FIFO122 [0109] integer part PRR1 read address PRR for the right eye video, any pixel delay for the right eye video FIFO122
内の第1のラインメモリ122aに読み出しアドレスR Read address to the first line memory 122a of the inner R
ADR1として入力される。 It is input as ADR1. したがって、第1のラインメモリ122aのアドレスRADR1に対応するアドレスからY信号が読み出される。 Therefore, Y signal is read from the address corresponding to the address RADR1 the first line memory 122a. 読み出されたY信号は、 Read Y signal,
第1の右目映像用乗算器136に入力される。 It is input to the first right-eye image multiplier 136.

【0110】右目映像用読み出しアドレスPRRの整数部PRR1に1が加算されたアドレス値は、右目映像用任意画素遅延FIFO122内の第2のラインメモリ1 [0110] address value to the integer part PRR1 1 is added to the read address PRR for the right-eye image, a second line memory for any pixel delay in FIFO122 right eye image 1
22bに読み出しアドレスRADR2として入力される。 It is input as a read address RADR2 to 22b. したがって、第2のラインメモリ122bのアドレスRADR2に対応するアドレスからY信号が読み出される。 Therefore, Y signal is read from the address corresponding to the address RADR2 the second line memory 122b. 読み出されたY信号は、第2の右目映像用乗算器138に入力される。 Read Y signal is input to the second right-eye image multiplier 138.

【0111】第1のラインメモリ122aに対する読み出しアドレスRADR1と、第2のラインメモリ122 [0111] The read address RADR1 for the first line memory 122a, the second line memory 122
bに対する読み出しアドレスRADR2とは、1だけ異なっているので、第1のラインメモリ122aから読み出されたY信号と、第2のラインメモリ122bから読み出されたY信号とは、水平位置が1だけずれた信号となる。 The read address RADR2 for b, since differ by 1, and Y signal read out from the first line memory 122a, the Y signal read out from the second line memory 122b, the horizontal position 1 the shifted signal.

【0112】右目映像用読み出しアドレスPRRの小数部PRR2は、第2の右目映像補間係数として第2の右目映像用乗算器138に入力される。 [0112] decimal part of the read address PRR for the right-eye image PRR2 is input as the second right-eye image interpolation factor to the second right-eye image multiplier 138. 右目映像用読み出しアドレスPRRの小数部PRR2を1から減算した値(1−PRR2)は、第1の右目映像補間係数として第1の右目映像用乗算器136に入力される。 The value obtained by subtracting the fractional part PRR2 from 1 read address PRR for the right eye video (1-PRR2) is input as the first right-eye image interpolation factor to the first right-eye image multiplier 136.

【0113】したがって、第1の右目映像用乗算器13 [0113] Thus, for the first right-eye image multiplier 13
6では、第1のラインメモリ122aから読み出されたY信号に第1の右目映像補間係数(1−PRR2)が乗算される。 In 6, the first right-eye image interpolation factor (1-PRR2) is multiplied by Y signal read out from the first line memory 122a. 第2の右目映像用乗算器138では、第2のラインメモリ122bから読み出されたY信号に第2の右目映像補間係数PRR2が乗算される。 In the second right-eye image multiplier 138, the second right-eye image interpolation factor PRR2 is multiplied by Y signal read out from the second line memory 122b. そして、各乗算器136、138によって得られたY信号は加算器1 Then, Y signals obtained by the multipliers 136 and 138 adders 1
40で加算された後、右目映像用Y信号YR−OUTとして、出力される。 After being added with 40, as the Y signal YR-OUT for the right-eye image is output.

【0114】これにより、標準読み出しアドレスRAD [0114] As a result, the standard read address RAD
によって規定される基準水平位相に対して、水平位相量が注目位置における視差量に応じた量だけ進んだ右目映像用Y信号が得られる。 The reference horizontal phase defined by the amount of horizontal phase Y signal for the right eye video advanced by an amount corresponding to the parallax amount at the target position is obtained.

【0115】図10は、注目位置における視差量が0の場合の、各部の信号を示している。 [0115] Figure 10 where the parallax amount at the target position is 0, shows parts of the signal.

【0116】視差量が0の場合には、加算器126から出力される左目映像用読み出しアドレスPRLと、減算器128から出力される右目映像用読み出しアドレスP [0116] If the parallax amount is 0, the read address PRL-eye image output from the adder 126, subtractor 128 read address for the right-eye image output from the P
RRとは、ともに標準読み出しアドレスRADと等しい小数部のない整数部のみからなるアドレスとなる。 The RR, the address both made of only the integer part no standard read address RAD equal fractional part.

【0117】したがって、左目映像用任意画素遅延FI [0117] Thus, any pixel delay FI for the left eye image
FO120内の第1のラインメモリ120aに対する読み出しアドレスRADL1と、および右目映像用任意画素遅延FIFO122内の第1のラインメモリ122a A read address RADL1 for the first line memory 120a in FO120, and the first line memory 122a for any pixel delay in FIFO122 right eye image
に対する読み出しアドレスRADR1は、それぞれ標準読み出しアドレスRADと等しいアドレスとなる。 Read address RADR1 for each a standard read address RAD equal address.

【0118】また、左目映像用任意画素遅延FIFO1 [0118] In addition, any pixel delay for the left eye image FIFO1
20内の第2のラインメモリ120bに対する読み出しアドレスRADL2、および右目映像用任意画素遅延F Read address RADL2 for the second line memory 120b in the 20, and any pixel delay F for the right eye video image
IFO122内の第2のラインノモリ122bに対する読み出しアドレスRADR2は、それぞれ標準読み出しアドレスRADより1だけ大きい値となる。 Read address RADR2 for the second Rain'nomori 122b in IFO122 is a value larger by one than the standard read address RAD, respectively.

【0119】また、第1の左目映像補間係数(1−PR [0119] In addition, the first left-eye image interpolation coefficient (1-PR
L2)および第1の右目映像補間係数(1−PRR2) L2) and the first right-eye image interpolation factor (1-PRR2)
はそれぞれ1となり、第2の左目映像補間係数PRL2 Next respectively 1, second left-eye image interpolation factor PRL2
および第2の右目映像補間係数PRR2はそれぞれ0となる。 And a second right-eye image interpolation factor PRR2 becomes 0, respectively.

【0120】この結果、左目映像用任意画素遅延FIF [0120] As a result, any pixel delay FIF for the left eye image
O120内の第1のラインメモリ120aの標準アドレスRADに対応するアドレスから読み出されたY信号が加算器134から左目用Y信号YL−OUTとして出力され、右目映像用任意面素遅延FIFO122内の第1 Y signal read out from the first standard address address corresponding to the RAD line memory 120a in O120 is output from the adder 134 as the left-eye Y signal YL-OUT, any surface containing a delay in FIFO122 right eye image first
のラインメモリ122aの標準アドレスRADに対応するアドレスから読み出されたY信号が加算器140から右目映像用Y信号YR−OUTとして出力される。 Y signal read out from the corresponding address to the standard address RAD in the line memory 122a is output from the adder 140 as a Y signal YR-OUT for the right eye image. すなわち、水平方向の位相ずれ量が同じ2つのY信号、すなわち視差のない2つのY信号が左目映像用Y信号および右目映像用Y信号として出力される。 That is, the phase shift amount is the same two Y signal in the horizontal direction, i.e. two Y signal without parallax is output as the Y signal for the Y signal and the right-eye image for the left eye image.

【0121】図11は、ある注目位置に対する標準書き込みアドレスWADが20であり、上記注目位置に対する標準読み出しアドレスRADが10であり、上記注目位置における視差量が1.2の場合の、各アドレス値の具体例を示している。 [0121] Figure 11 is a standard write address WAD for a target position 20, a standard read address RAD is 10 with respect to the target position, the parallax amount at the target position in the case of 1.2, each address value It shows a specific example of. 図12は、その際の各部の信号を示している。 Figure 12 shows signals at various parts of the time.

【0122】この場合には、加算器126から出力される左映像用読み出しアドレスPRLは、11.2となり、その整数部PRL1は11となり、その小数部PR [0122] In this case, the left image for the read address PRL output from the adder 126, next 11.2, its integer part PRL1 11 becomes, the fractional part PR
L2は0.2となる。 L2 is 0.2.

【0123】したがって、左目映像用任意画素遅延FI [0123] Thus, any pixel delay FI for the left eye image
FO120内の第1のラインメモリ120aに対する読み出しアドレスRADL1は11となり、第2のラインメモリ120bに対する読み出しアドレスRADL2は12となる。 Read address RADL1 for the first line memory 120a in FO120 read address RADL2 for 11, and the second line memory 120b is 12. また、第1の左目映像補間係数KL1{= The first left-eye image interpolation factor KL1 {=
(1−PRL2)}は0.8となり、第2の左目映像補間係数KL2(=PRL2)は0.2となる。 (1-PRL2)} is 0.8, and the second left-eye image interpolation factor KL2 (= PRL2) is 0.2.

【0124】したがって、左目映像用任意画素遅延FI [0124] Thus, any pixel delay FI for the left eye image
FO120内の第1のラインメモリ120aのアドレス11からY信号(Y 11 )が読み出され、第1の左目映像用乗算器130からは読み出されたY信号(Y 11 )の0.8倍の信号(0.8×Y 11 )が出力される。 First Y signal from the address 11 of the line memory 120a in FO120 (Y 11) is read, 0.8 times of the first left-eye image multiplier 130 read Y signal (Y 11) signal (0.8 × Y 11) is output.

【0125】一方、左目映像用任意画素遅延FIFO1 [0125] On the other hand, any pixel delay for the left eye image FIFO1
20内の第2のラインメモリ120bのアドレス12からY信号(Y 12 )が読み出され、第2の左目映像用乗算器132からは読み出されたY信号(Y 12 )の0.2倍の信号(0.2×Y 12 )が出力される。 Y signal (Y 12) is read out from the second address 12 of the line memory 120b in the 20, 0.2 times of the second from the left-eye image multiplier 132 read Y signal (Y 12) signal (0.2 × Y 12) is outputted. そして、加算器134からは、0.8×Y 11 +0.2×Y 12に相当する左目映像用Y信号YL−OUTが出力される。 Then, the adder 134, 0.8 × Y 11 + 0.2 × Y signal for the left eye image corresponding to Y 12 YL-OUT is output. すなわち、読み出しアドレス11.2に相当するY信号が、左目映像用Y信号YL−OUTとして出力される。 That, Y signal corresponding to the read address 11.2 is output as the Y signal YL-OUT for the left eye image.

【0126】減算器128から出力される右目映像用読み出しアドレスPRRは、8.8となり、その整数部P [0126] read address PRR right-eye image output from the subtracter 128 is 8.8, and the the integer part P
RR1は8となり、その小数部PRR2は0.8となる。 RR1 is next 8, the fractional part PRR2 becomes 0.8.

【0127】したがって、右目映像用任意画素遅延FI [0127] Thus, any pixel delay FI for the right eye video image
FO122内の第1のラインメモリ122aに対する読み出しアドレスRADR1は8となり、第2のラインメモリ122bに対する読み出しアドレスRADR2は9 Read address RADR1 8 becomes for the first line memory 122a in FO122, the read address RADR2 for the second line memory 122b is 9
となる。 To become. また、第1の右目映像補間係数KR1{=(1 The first right-eye image interpolation factor KR1 {= (1
−PRR2)}は0.2となり、第2の右目映像補間係数KR2(=PRR2)は0.8となる。 -PRR2)} is 0.2, and the second right-eye image interpolation coefficient KR2 (= PRR2) becomes 0.8.

【0128】したがって、右目映像用任意画素遅延FI [0128] Thus, any pixel delay FI for the right eye video image
FO122内の第1のラインメモリ122aのアドレス8からY信号(Y 8 )が読み出され、第1の右目映像用乗算器136からは読み出されたY信号(Y 8 )の0. 0 from the address 8 of the first line memory 122a in FO122 Y signal (Y 8) is read, from the first right-eye image multiplier 136 read Y signal (Y 8).
2倍の信号(0.2×Y 8 )が出力される。 Twice the signal (0.2 × Y 8) is output.

【0129】一方、右目映像用任意画素遅延FIFO1 [0129] On the other hand, any pixel delay for the right eye video FIFO1
22内の第2のラインメモリ122bのアドレス9からY信号(Y 9 )が読み出され、第2の右目映像用乗算器138からは読み出されたY信号(Y 9 )の0.8倍の信号(0.8×Y 9 )が出力される。 Y signal (Y 9) is read out from the second line memory 122b of the address 9 in 22, 0.8 times of the second right-eye image multiplier 138 read Y signal (Y 9) signal (0.8 × Y 9) is outputted. そして、加算器1 The adder 1
40からは、0.2×Y 8 +0.8×Y 9に相当する右目映像用Y信号YR−OUTが出力される。 From 40, 0.2 × Y 8 + 0.8 × Y signal for the right eye image corresponding to Y 9 YR-OUT is output. すなわち、読み出しアドレス8.8に相当するY信号が、右目映像用Y信号YR−OUTとして出力される。 That, Y signal corresponding to the read address 8.8 is output as the Y signal YR-OUT for the right-eye image.

【0130】この結果、11.2−8.8=2.4の視差、すなわち、視差量1.2の2倍の視差を互いに有する左目映像および右目映像が得られる。 [0130] Consequently, 11.2-8.8 = 2.4 parallax, i.e., left-eye image and right-eye image with each other twice the parallax amount of parallax 1.2 is obtained.

【0131】このように構成される2D/3D映像変換装置10の主要な動作の一例について説明する。 [0131] To describe an example of main operations of the thus constructed 2D / 3D video conversion apparatus 10. なお、 It should be noted that,
ここでは、合焦距離をN回変更するものとする。 Here, the focus distance is intended to change N times.

【0132】まず、画面18の中央部分の視差算出領域における高周波成分を積算した結果を用いて、撮影時の合焦距離を決定する場合について、図13を参照して説明する。 [0132] First, using the result of integrating the high frequency component in the parallax calculation region of the central portion of the screen 18, the case of determining the focusing distance at the time of photographing is described with reference to FIG. 13. なお、この方法は、撮影すべき被写体が画面1 Note that this method is subject to be photographed screen 1
8の中央に存在する確率が高いことに着目したものである。 Probability of existing in the center of 8 is obtained by focusing on the higher.

【0133】まず、撮像装置12のフォーカスレンズ1 [0133] First, the focus lens of the imaging device 12 1
4の焦点が距離1に合わせられ(ステップS1)、撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号から、合焦距離1における各視差算出領域E1〜E12の高周波成分が高周波成分検出部16によって検出される(ステップS3)。 The focus of 4 is matched to the distance 1 (step S1), the subject is photographed by the imaging device 12, the 2D image signal obtained at that time, the high frequency component of the parallax calculation regions E1~E12 in focusing distance 1 It is detected by the high frequency component detection section 16 (step S3). ついで、合焦距離1における、画面18の中央部分すなわち視差算出領域E6、E7、E10、E11の各高周波成分がMPU2 Then, the focusing distance 1, the high-frequency component of the central portion or the parallax calculation areas E6, E7, E10, E11 of the screen 18 is MPU2
0によって積算され、合焦距離1における高周波成分積算値が算出される(ステップS5)。 Is integrated by 0, the high-frequency component integration value is calculated in-focus distance 1 (step S5).

【0134】ステップS5の後、撮像装置12の合焦距離が変更され、次の距離nに焦点が合わせられる(ステップS7)。 [0134] After step S5, you change the focal length of the image pickup device 12, is focused on the following distance n (step S7). そして、撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号から、合焦距離nにおける各視差算出領域E1〜E12の高周波成分が高周波成分検出部16によって検出される(ステップS9)。 Then, the object is photographed by the imaging device 12, the 2D image signal obtained at that time, the high frequency component of the parallax calculation regions E1~E12 is detected by the high frequency component detection unit 16 in the focusing distance n (step S9 ). ついで、合焦距離nにおける、画面18の中央部分すなわち視差算出領域E6、E7、E10、E11 Then, the focusing distance n, the central portion or the parallax calculation regions of the screen 18 E6, E7, E10, E11
の各高周波成分がMPU20によって積算され、合焦距離nにおける高周波成分積算値が算出される(ステップS11)。 It is integrated by each high-frequency components MPU20 of the high frequency component integration value is calculated in the focusing distance n (step S11).

【0135】ステップS7〜S11の処理がN−1回繰り返され、すべての合焦距離について高周波成分および高周波成分積算値が得られれば、MPU20によってN [0135] processing of step S7~S11 is repeated N-1 times as long all focusing distances obtained high frequency component and a high frequency component integration value for, N by MPU20
個の合焦距離の各高周波成分積算値が比較され、高周波成分積算値が最大である合焦距離が検出され、その距離に焦点が合わせられる(ステップS13)。 Are compared each high-frequency component integration value of the number of focusing distance, the high-frequency component integration value is detected focusing distance is maximum, it is focused on that distance (step S13). そして、撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号がフレームメモリ22に書き込まれる(ステップS15)。 Then, the object is photographed by the imaging device 12, then the two-dimensional video signal obtained is written into the frame memory 22 (step S15).

【0136】各視差算出領域E1〜E12について、高周波成分が最大となる合焦距離がMPU20によって検出され、検出された合焦距離が被写体距離となり(ステップS17)、各視差算出領域E1〜E12毎に求められた被写体距離に基づいて、左目映像と右目映像との視差量が算出される(ステップS19)。 [0136] For each parallax calculation region E1 to E12, the high-frequency component is detected by the focus distance MPU20 having the maximum focus distance detected becomes subject distance (step S17), for each parallax calculation region E1 to E12 based on the object distance obtained in the parallax amount of the left-eye and right-eye image is calculated (step S19).

【0137】各視差算出領域E1〜E12の被写体距離に基づいて視差量を算出する方法としては、たとえば、 [0137] As a method of calculating a parallax amount on the basis of the object distance of each parallax calculation region E1~E12, for example,
撮像装置12に最も近い視差算出領域の視差量を0とし、最も遠い視差算出領域の視差量をLとする。 A parallax amount of the nearest parallax calculation areas on the imaging device 12 and 0, the parallax amount of the farthest parallax calculation regions with L. その他の各視差算出領域の視差量は、最も近い被写体距離から該視差算出領域の被写体距離までのステップ数に比例した値となる。 Parallax amount of other parallax calculation region of a value proportional to the number of steps from the nearest subject distance to the subject distance parallax calculation region.

【0138】各視差算出領域E1〜E12の視差量は視差制御回路24に送られ、また、フレームメモリ22から2次元映像信号が読み出され、視差制御回路24に与えられる(ステップS21)。 [0138] parallax amount of the parallax calculation region E1~E12 is sent to the parallax control circuit 24, also two-dimensional image signal is read out from the frame memory 22 is supplied to the parallax control circuit 24 (step S21).

【0139】そして、視差制御回路24では、上述した処理によって左目映像信号および右目映像信号が生成される。 [0139] Then, the parallax control circuit 24, the left-eye video signal and the right-eye image signal is generated by the above processing.

【0140】さらに、この場合の動作を具体的に説明する。 [0140] Further, specifically describing the operation of this case.

【0141】図14に示すような被写体を撮影して3次元映像を生成する場合を例に説明する。 [0141] The described example case of generating a 3D image by photographing an object as shown in FIG. 14.

【0142】この場合、各視差算出領域E1〜E12において7段階の合焦距離毎の高周波成分が高周波成分検出部16によって検出される。 [0142] In this case, the high frequency component of the focus for each distance seven steps in each parallax calculation region E1~E12 is detected by the high frequency component detection unit 16. 各視差算出領域E1〜E Each parallax calculation region E1~E
12毎の合焦距離に対する高周波成分の変化は図15に示すようになる。 Changes in the high-frequency component with respect to focus distance for each 12 becomes as shown in FIG. 15.

【0143】7段階の合焦距離を最も近いものからそれぞれf1、f2、f3、・・・、f7とすると、各視差算出領域E1〜E12の被写体距離は、視差算出領域E [0143] Each of the focusing distance 7 steps from the nearest ones f1, f2, f3, · · ·, When f7, subject distance of each parallax calculation region E1~E12 is parallax calculation region E
1から順に、f6、f6、f6、f7、f4、f3、f From 1 to order, f6, f6, f6, f7, f4, f3, f
5、f5、f2、f2、f4、f4となる。 5, f5, f2, the f2, f4, f4. したがって、最も近い被写体距離は視差算出領域E9およびE1 Therefore, the closest object distance parallax calculation region E9 and E1
0のf2であり、視差量は0とされる。 0 is of f2, the parallax amount is zero. 一方、最も遠い被写体距離は視差算出領域E4のf7であり、視差量はLとされる。 On the other hand, the farthest subject distance is f7 parallax calculation region E4, the parallax amount is the L. その他の各視差算出領域の視差量は、最も近い被写体距離f2から該視差算出領域の被写体距離までのステップ数に比例した値となる。 Parallax amount of other parallax calculation region of a value proportional to the number of steps from the nearest subject distance f2 to the subject distance parallax calculation region.

【0144】たとえば、視差算出領域E12の場合、被写体距離はf4となり、最も近い被写体距離f2からのステップ数は「2」である。 [0144] For example, in the case of the parallax calculation region E12, subject distance becomes f4, the number of steps from the nearest object distance f2 is "2". また、最も近い被写体距離f2から最も遠い被写体距離f7までのステップ数は「5」である。 Further, the number of steps from the closest object distance f2 to the farthest object distance f7 is "5". したがって、この場合の視差量=L×2 Accordingly, the parallax amount in this case = L × 2
/5となる。 / 5 to become.

【0145】なお、被写体距離が最も近い視差算出領域の立体視位置を立体表示装置の管面位置に設定し、最も遠い被写体距離の視差量Lを大きくすれば、管面位置からの奥行きを大きくすることができ、視差量Lによって3次元映像の奥行き量を調節することができる。 [0145] Incidentally, setting the stereoscopic position nearest parallax calculation region is the object distance to the tube surface position of the stereoscopic display device, by increasing the parallax amount L of the farthest subject distance, the depth from the tube surface position greatly it can be, it is possible to adjust the amount of depth of the 3D image by the parallax amount L.

【0146】そして、7段階の合焦距離毎に、視差算出領域E6、E7、E10、E11の各高周波成分がMP [0146] Then, for each focus distance 7 stages, the parallax calculation region E6, E7, E10, each high-frequency component of E11 is MP
U20によって積算され高周波成分積算値が算出される。 It is integrated by the U20 high-frequency component integration value is calculated. 合焦距離毎の計7個の高周波成分積算値の中から最大の高周波成分積算値が検出された結果、ここでは、図16に示すように、3番目に近い合焦距離f3が撮影時の合焦距離すなわち最終合焦距離となり、ピントがその合焦距離に合わせられ、再び被写体が撮影される。 Results maximum high-frequency component integration value from among a total of seven frequency components integrated value for each focusing distance is detected, where, as shown in FIG. 16, when the third near-focus distance f3 shooting become focal length or final focus distance, the focus is matched to the focus distance is again photographed subject. その後、上述した処理によって、左目映像信号および右目映像信号が得られる。 Thereafter, the above-described processing, the left eye image signal and the right eye video signal is obtained.

【0147】このように動作する2D/3D映像変換装置10によれば、従来とは異なり、異なる2視点の映像を得るための光学的な手段やカメラすなわち撮像装置を移動させるための機構を必要とせず、1台の撮像装置1 [0147] According to 2D / 3D video conversion apparatus 10 that operates in this manner, unlike the conventional, requiring a mechanism for moving the optical means and the camera i.e. imaging apparatus for obtaining images of two different viewpoints without, imaging of one device 1
2で3次元映像を得ることができるので、低コストかつコンパクトな2D/3D映像変換装置を実現できる。 It is possible to obtain a 2 in 3-dimensional image, it is possible to realize a low-cost and compact 2D / 3D video conversion device. また、元の2次元映像信号に対して時間的に遅延した2次元映像信号を生成するためのフィールドメモリが不要となり、コストの低廉化がさらに図れる。 Further, the field memory to generate a two-dimensional video signal delayed in time relative to the original 2D image signal is not required, cost reduction of the cost can further be reduced.

【0148】また、簡単な処理によって、被写体までの実際の距離を求めることができるので、従来よりも精度よく被写体までの距離を求めることができる。 [0148] Further, by a simple process, it is possible to determine the actual distance to the object, it is possible to determine the distance to the accuracy than conventionally well object.

【0149】さらに、2D/3D映像変換装置10によれば、2次元映像信号によって表されるもとの画像が静止画像であっても3次元映像を得ることができる。 [0149] Further, according to the 2D / 3D image converter 10 may be the original image represented by the 2D image signal even if a still image is obtained a three-dimensional image.

【0150】ついで、画面18のすべての視差算出領域の高周波成分を重み付けして積算し、その結果を用いて撮影時の合焦距離を決定する場合について、図17を参照して説明する。 [0150] Then, by integrating weighted frequency components of all the parallax calculation regions of the screen 18, the case of determining the focusing distance at the time of photographing using the results will be described with reference to FIG. 17.

【0151】まず、撮像装置12のフォーカスレンズ1 [0151] First, the focus lens of the imaging device 12 1
4の焦点が距離1に合わせられ(ステップS31)、撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号から、合焦距離1における各視差算出領域E1〜E12の高周波成分が高周波成分検出部16 The focus of 4 is matched to the distance 1 (step S31), the subject is captured by the imaging device 12, the 2D image signal obtained at that time, the high frequency component of the parallax calculation regions E1~E12 in focusing distance 1 high frequency component detection section 16
によって検出される(ステップS33)。 It is detected by (step S33). ついで、合焦距離1における、画面18の全視差算出領域E1〜E1 Then, the focusing distance 1, the entire parallax calculation region of the screen 18 E1~E1
2の高周波成分がMPU20によって重み付けされて積算され、合焦距離1における高周波成分積算値が算出される(ステップS35)。 2 of the high frequency component is integrated is weighted by MPU 20, the high-frequency component integration value is calculated in-focus distance 1 (step S35).

【0152】ステップS35の後、撮像装置12の合焦距離が変更され、次の距離nに焦点が合わせられる(ステップS37)。 [0152] After step S35, it changes the focal length of the image pickup device 12, is focused on the following distance n (step S37). そして、撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号から、合焦距離nにおける各視差算出領域E1〜E12の高周波成分が高周波成分検出部16によって検出される(ステップS39)。 Then, the object is photographed by the imaging device 12, the 2D image signal obtained at that time, the high frequency component of the parallax calculation regions E1~E12 is detected by the high frequency component detection unit 16 in the focusing distance n (step S39 ). ついで、合焦距離nにおける、画面18 Then, the focusing distance n, screen 18
の全視差算出領域E1〜E12の各高周波成分がMPU Each high frequency components of the whole parallax calculation regions E1~E12 is an MPU
20によって積算され、合焦距離nにおける高周波成分積算値が算出される(ステップS41)。 Is integrated by 20, the high-frequency component integration value is calculated in the focusing distance n (step S41).

【0153】ステップS37〜S41の処理がN−1回繰り返され、すべての合焦距離について高周波成分および高周波成分積算値が得られれば、MPU20によってN個の合焦距離の各高周波成分積算値が比較され、高周波成分積算値が最大である合焦距離が検出され、その距離に焦点が合わせられる(ステップS43)。 [0153] processing of step S37~S41 are repeated N-1 times as long all focusing distances obtained high frequency component and a high frequency component integration value for, each high-frequency component integration value of N focusing distance by MPU20 are compared, the high-frequency component integration value is detected focusing distance is maximum, it is focused on that distance (step S43). そして、 And,
撮像装置12によって被写体が撮影され、そのとき得られた2次元映像信号がフレームメモリ22に書き込まれる(ステップS45)。 Subject is photographed by the imaging device 12, then the two-dimensional video signal obtained is written into the frame memory 22 (step S45).

【0154】各視差算出領域E1〜E12について、高周波成分が最大となる合焦距離がMPU20によって検出され、検出された合焦距離が被写体距離となり(ステップS47)、図13の場合と同様に、各視差算出領域E1〜E12毎に求められた被写体距離に基づいて、左目映像と右目映像との視差量が算出される(ステップS [0154] For each parallax calculation region E1 to E12, the high-frequency component is detected by the focus distance MPU20 having the maximum focus distance detected becomes subject distance (step S47), as in the case of FIG. 13, based on the object distance obtained for each of the parallax calculation regions E1 to E12, the amount of parallax between the left eye and right eye images is calculated (step S
49)。 49).

【0155】各視差算出領域E1〜E12の視差量は視差制御回路24に送られ、また、フレームメモリ22から2次元映像信号が読み出され、視差制御回路24に与えられる(ステップS51)。 [0155] parallax amount of the parallax calculation region E1~E12 is sent to the parallax control circuit 24, also two-dimensional image signal is read out from the frame memory 22 is supplied to the parallax control circuit 24 (step S51).

【0156】そして、視差制御回路24では、上述した処理によって左目映像信号および右目映像信号が生成される。 [0156] Then, the parallax control circuit 24, the left-eye video signal and the right-eye image signal is generated by the above processing.

【0157】さらに、この場合の動作を具体的に説明する。 [0157] Further, specifically describing the operation of this case.

【0158】図14に示すような被写体を撮影して3次元映像を生成する場合、各視差算出領域E1〜E12毎の視差量は、図15に示すデータに基づいて生成される。 [0158] When generating a three-dimensional image by photographing an object as shown in FIG. 14, the parallax amount of each parallax calculation region E1~E12 is generated based on the data shown in Figure 15. この場合の動作は上述したので、その動作についての重複する説明は省略する。 This operation case described above, duplicated description of its operation will be omitted.

【0159】そして、7段階の合焦距離毎に、全視差算出領域E1〜E12の高周波成分がMPU20によって重み付けされて積算され高周波成分積算値が算出される。 [0159] Then, for each focus distance 7 stages, a high frequency component of the total parallax calculation regions E1~E12 is accumulated by the high-frequency component integration value is weighted by MPU20 is calculated. 重み付け係数はたとえば図18に示すように設定され、ここでは中央部分の視差算出領域の重み付け係数が外側の視差算出領域のそれよりも大きく設定されている。 Weighting coefficients are set for example as shown in FIG. 18, wherein the weighting factor of the parallax calculation regions of the central portion is set larger than that of the outer parallax calculation region. 合焦距離毎の計7個の高周波成分積算値の中から最大の高周波成分積算値が検出された結果、図18に示すように、3番目に近い合焦距離f3が撮影時の合焦距離すなわち最終合焦距離となり、ピントがその合焦距離に合わせられて、再び被写体が撮影される。 Maximum frequency results component integrated value is detected out of the total of seven high-frequency component integration value for each focal length, as shown in FIG. 18, focusing distance at the time of photographing focal length f3 third closest to that is the final focusing distance, focus is aligned to the focal length is again photographed subject. その後、上述した処理によって、左目映像信号および右目映像信号が得られる。 Thereafter, the above-described processing, the left eye image signal and the right eye video signal is obtained.

【0160】このような動作する2D/3D映像変換装置10によれば、先の動作例と同様の効果が得られる他、より正確に撮影すべき被写体までの距離を求めることができる。 [0160] According to 2D / 3D video conversion apparatus 10 operating such, can be the same advantages as the previous operation example is obtained, determine the distance to the object to be more accurately captured.

【0161】 [0161]

【発明の効果】この発明によれば、1台の撮像装置で被写体までの距離を正確に検出できるので、低コストで解像度の高い3次元映像が得られる。 Effects of the Invention According to the present invention, since the distance to the subject in one image pickup device can be accurately detected, a high resolution three-dimensional image can be obtained at low cost.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】この発明の一実施形態を示すブロック図である。 1 is a block diagram showing an embodiment of the present invention.

【図2】視差算出領域を示す図解図である。 Figure 2 is an illustrative view showing a parallax calculation region.

【図3】高周波成分検出回路の一例を示すブロック図である。 3 is a block diagram showing an example of a high frequency component detection circuit.

【図4】ハイパスフィルタの一例を示すブロック図である。 4 is a block diagram showing an example of a high-pass filter.

【図5】スライス処理回路の入出力特性を示すグラフである。 5 is a graph showing the output characteristics of the slicing circuit.

【図6】視差制御回路の一例を示すブロック図である。 6 is a block diagram showing an example of a parallax control circuit.

【図7】相対的水平位置および相対的垂直位置を示す図解図である。 7 is an illustrative view showing the relative horizontal position and relative vertical positions.

【図8】注目画素における視差量を生成する方法を説明するための図解図である。 8 is a schematic diagram for explaining a method for generating a parallax amount at the target pixel.

【図9】視差選択回路による選択規則を示すテーブルである。 9 is a table showing a selection rule by disparity circuit.

【図10】視差量が0の場合の各部の信号を示すタイムチャートである。 [10] parallax amount is a time chart showing signals at various parts of the case of zero.

【図11】視差量が1.2の場合の各アドレス値を視差制御回路に付記したブロック図である。 11 is a block diagram appended to the parallax control circuit each address value when the amount of parallax is 1.2.

【図12】視差量が1.2の場合の各部の信号を示すタイムチャートである。 [12] parallax amount is a time chart showing signals at various parts of the case of 1.2.

【図13】この発明の主要動作の一例を示すフロー図である。 13 is a flowchart showing an example of main operations of the present invention.

【図14】撮影すべき被写体の一例を示す図解図である。 14 is an illustrative view showing one example of an object to be photographed.

【図15】各視差算出領域毎に、合焦距離に対する高周波成分の変化を示すグラフである。 [15] For each parallax calculation region, is a graph showing changes in the high frequency components to the focusing distance.

【図16】最終合焦距離の算出方法の一例を説明するための図解図およびグラフである。 16 is a schematic view and a graph for explaining an example of the final focus distance calculation method of.

【図17】この発明の主要動作の他の例を示すフロー図である。 17 is a flowchart showing another example of the main operation of the present invention.

【図18】最終合焦距離の算出方法の他の例を説明するための図解図およびグラフである。 18 is a schematic view and a graph for explaining another example of the final focus distance calculation method of.

【図19】従来技術を示す図解図である。 19 is an illustrative view showing the prior art.

【符号の説明】 DESCRIPTION OF SYMBOLS

10 2次元映像を3次元映像に変換する装置 12 撮像装置 14 フォーカスレンズ 16 高周波成分検出部 18 画面 20 MPU 22 フレームメモリ 24 視差制御回路 26 タイミング制御回路 10 converting the 2D image into a 3D image device 12 imaging device 14 the focus lens 16 a high-frequency component detecting unit 18 screen 20 MPU 22 frame memory 24 the parallax control circuit 26 a timing control circuit

Claims (12)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 合焦距離を変更できかつ被写体を撮影して2次元映像信号を得る撮像手段、 前記複数の合焦距離毎に、画面内に設定された複数の視差算出領域のそれぞれについて前記2次元映像信号の高周波成分を検出する高周波成分検出手段、 前記複数の合焦距離毎に、所定の視差算出領域の各高周波成分を積算して高周波成分積算値を算出する積算値算出手段、 前記高周波成分積算値が最大である合焦距離の2次元映像信号を記憶する記憶手段、 各視差算出領域毎に、前記高周波成分に基づいて被写体距離を検出する被写体距離検出手段、 検出された前記被写体距離に基づいて前記画面内の所定単位領域毎の視差情報を生成する視差情報生成手段、および前記記憶手段に記憶された前記2次元映像信号の前記各所定単位領域内の信号か 1. A can change the focal length and image pickup means for obtaining a two-dimensional image signal by photographing a subject, for each of the range of the plurality of focus, said each of the plurality of parallax calculation areas set within the screen high frequency component detection means for detecting a high frequency component of the two-dimensional image signal, the plurality of in-focus for each distance, the integrated value calculating means for calculating a high frequency component integration value by integrating the high frequency component of a predetermined parallax calculation region, wherein storage means for high-frequency component integration value stores two-dimensional image signal of the focusing distance is maximum, for each parallax calculation region, the object distance detecting means for detecting the object distance on the basis of the high-frequency component, said detected object wherein one signal of each predetermined unit area of ​​a predetermined unit parallax information generating means for generating parallax information for each area, and said stored two dimensional image signal in the memory means of the screen based on the distance 、その所定単位領域に対応する前記視差情報に応じた水平位相量を有する第1映像信号と第2映像信号とを生成する位相制御手段を備える、2次元映像を3次元映像に変換する装置。 , A phase control means for generating the first and second video signals having a horizontal phase amount corresponding to the disparity information corresponding to the predetermined unit regions, an apparatus for converting 2D images into 3D images.
  2. 【請求項2】 前記被写体距離検出手段は、前記高周波成分が最大である合焦距離を前記被写体距離とする手段を含む、請求項1に記載の2次元映像を3次元映像に変換する装置。 Wherein said object distance detection means, device wherein the high-frequency component includes a means for the focusing distance and the subject distance is maximum, convert 2D images into 3D images according to claim 1.
  3. 【請求項3】 前記積算値算出手段は、前記画面の中央部分の視差算出領域の各高周波成分を積算して前記高周波成分積算値を算出する手段を含む、請求項1または2 Wherein the integrated value calculating means includes means for calculating the high-frequency component integration value by integrating the high frequency component of the disparity calculation areas of the central portion of the screen, according to claim 1 or 2
    に記載の2次元映像を3次元映像に変換する装置。 Apparatus for converting the 3D image of the two-dimensional image according to.
  4. 【請求項4】 前記積算値算出手段は、前記画面の各視差算出領域の高周波成分を重み付けして積算し前記高周波成分積算値を算出する手段を含む、請求項1または2 Wherein said integrated value calculating means integrates weighted high frequency components of each parallax calculation region of the screen comprising means for calculating the high-frequency component integration value, according to claim 1 or 2
    に記載の2次元映像を3次元映像に変換する装置。 Apparatus for converting the 3D image of the two-dimensional image according to.
  5. 【請求項5】 前記位相制御手段は、 前記2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有し、かつ前記2次元映像信号を一次的に記憶する第1記憶手段、 前記2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有し、かつ前記2次元映像信号を一次的に記憶する第2記憶手段、 前記第1記憶手段の読み出しアドレスを、前記2次元映像信号の水平垂直位置に応じて決定された標準読み出しアドレスに対して、前記2次元映像信号の水平垂直位置が属する前記所定単位領域に対応する前記視差情報に基づいて制御することにより、前記標準読み出しアドレスによって規定される基準水平位相に対して前記視差情報に応じた量だけ水平位相が進んだ第1映像信号を生成する第1の読み出しアドレス制 Wherein said phase control means, the two-dimensional video signal has a capacity capable of multiple number of pixels stored of 1 or less horizontal line, and a first storage means for temporarily storing the two-dimensional image signal second storage means for said two-dimensional image signal 1 has a horizontal line following several number of pixels which can be stored capacity, and stores the two-dimensional image signal temporarily, the read address of said first storage means , relative to a standard read address determined in accordance with the horizontal and vertical position of the two-dimensional image signals, be controlled based on the disparity information corresponding to the predetermined unit area which horizontal and vertical position belongs of the two-dimensional image signal Accordingly, the first read address system for generating an amount only first video signal advanced horizontal phase corresponding to the parallax information with respect to a reference horizontal phase defined by said standard read address 御手段、ならびに前記第2 Control means, and said second
    記憶手段の読み出しアドレスを、前記標準読み出しアドレスに対して、前記2次元映像信号の水平垂直位置が属する前記所定単位領域に対応する前記視差情報に基づいて制御することにより、前記標準読み出しアドレスによって規定される基準水平位相に対して前記視差情報に応じた量だけ水平位相が遅れた第2映像信号を生成する第2の読み出しアドレス制御手段を含む、請求項1ないし4のいずれかに記載の2次元映像を3次元映像に変換する装置。 Defining a read address of the memory means, the relative standard read address, by controlling on the basis of the disparity information corresponding to the predetermined unit area which horizontal and vertical position belongs of the two-dimensional image signal, by the standard read address It includes a second read address control means for generating a second video signal amounts only horizontal phase delay corresponding to the parallax information with respect to a reference horizontal phase of the two according to any one of claims 1 to 4 apparatus for converting the dimension image into a 3D image.
  6. 【請求項6】 前記所定単位領域は1画素単位の領域である、請求項1ないし5のいずれかに記載の2次元映像を3次元映像に変換する装置。 Wherein said predetermined unit region is a region of one pixel unit, a device for converting 2D images into 3D images according to any one of claims 1 to 5.
  7. 【請求項7】 撮像手段によって複数の合焦距離毎に被写体を撮影して2次元映像信号を得る第1ステップ、 前記複数の合焦距離毎に、画面内に設定された複数の視差算出領域のそれぞれについて前記2次元映像信号の高周波成分を検出する第2ステップ、 前記複数の合焦距離毎に、所定の視差算出領域の各高周波成分を積算して高周波成分積算値を算出する第3ステップ、 前記高周波成分積算値が最大である焦点距離の2次元映像信号を記憶手段に記憶する第4ステップ、 各視差算出領域毎に、前記高周波成分に基づいて被写体距離を検出する第5ステップ、 検出された前記被写体距離に基づいて前記画面内の所定単位領域毎の視差情報を生成する第6ステップ、および前記記憶手段に記憶された前記2次元映像信号の前記各所定単位領 7. A first step to obtain a two-dimensional image signal by photographing a subject for a plurality of focusing distances by the imaging means, for each of the range of the plurality of focusing a plurality of disparity calculation areas set in the screen third step of the second step of detecting a high frequency component of the two-dimensional image signal, for each of the range focus said plurality of focus for each calculated frequency component integration value by integrating the high frequency component of a predetermined parallax calculation regions the fourth step of the high-frequency component integration value stores two-dimensional image signal of the focal length is maximum in the storage means, for each parallax calculation region, a fifth step of detecting an object distance on the basis of the high-frequency component, detecting sixth step, and each predetermined unit territory of said stored two dimensional image signal to said storage means for generating a disparity information of a predetermined unit each region of the screen on the basis of the subject distance 内の信号から、その所定単位領域に対応する前記視差情報に応じた水平位相量を有する第1映像信号と第2映像信号とを生成する第7ステップを備える、 From the signal of the inner, comprising a seventh step of generating the first and second video signals having a horizontal phase amount corresponding to the disparity information corresponding to the predetermined unit area,
    2次元映像を3次元映像に変換する方法。 Method of converting 2D images into 3D images.
  8. 【請求項8】 前記第5ステップは、前記高周波成分が最大である合焦距離を前記被写体距離とするステップを含む、請求項7に記載の2次元映像を3次元映像に変換する方法。 Wherein said fifth step, the method of the high frequency component of the focus distance is the maximum including the step of said subject distance, into a 3-dimensional image of the two-dimensional image according to claim 7.
  9. 【請求項9】 前記第3ステップは、前記画面の中央部分の視差算出領域の各高周波成分を積算して前記高周波成分積算値を算出するステップを含む、請求項7または8に記載の2次元映像を3次元映像に変換する方法。 Wherein said third step, by integrating the high frequency component of the disparity calculation areas of the central portion of the screen comprising the steps of calculating the high frequency component integration value, 2D according to claim 7 or 8 method of converting an image into a three-dimensional image.
  10. 【請求項10】 前記第3ステップは、前記画面の各視差算出領域の高周波成分を重み付けして積算し前記高周波成分積算値を算出するステップを含む、請求項7または8に記載の2次元映像を3次元映像に変換する方法。 Wherein said third step integrates weighted high frequency components of each parallax calculation region of the screen comprising the steps of calculating the high frequency component integration value, the two-dimensional image according to claim 7 or 8 method of converting a three-dimensional image.
  11. 【請求項11】 前記第7ステップは、 前記2次元映像信号を1水平ライン分以下の複数画素数分記憶できる容量を有する第1記憶手段および第2記憶手段に、それぞれ前記2次元映像信号を一次的に記憶するステップ、 前記第1記憶手段の読み出しアドレスを、前記2次元映像信号の水平垂直位置に応じて決定された標準読み出しアドレスに対して、前記2次元映像信号の水平垂直位置が属する前記所定単位領域に対応する前記視差情報に基づいて制御することにより、前記標準読み出しアドレスによって規定される基準水平位相に対して前記視差情報に応じた量だけ水平位相が進んだ第1映像信号を生成するステップ、ならびに前記第2記憶手段の読み出しアドレスを、前記標準読み出しアドレスに対して、前記2次元映像信号の水平垂 Wherein said seventh step in the first storage means and second storage means has a capacity capable of storing a plurality number of pixels of the 2D image signal a 1 or less horizontal line, respectively the 2D image signal the step of temporarily storing the read address of said first storage means, with respect to a standard read address determined in accordance with the horizontal and vertical position of the two-dimensional image signal, belongs horizontal and vertical position of the two-dimensional image signal by control based on the disparity information corresponding to the predetermined unit area, the first video signal has advanced horizontal phase by an amount corresponding to the parallax information with respect to a reference horizontal phase defined by said standard read address generating steps, and a read address of said second storage means, with respect to said standard read address, horizontal vertical of the two-dimensional image signal 位置が属する前記所定単位領域に対応する前記視差情報に基づいて制御することにより、 By control based on the disparity information corresponding to the predetermined unit area which position belongs,
    前記標準読み出しアドレスによって規定される基準水平位相に対して前記視差情報に応じた量だけ水平位相が遅れた第2映像信号を生成するステップを含む、請求項7 Comprising the step of generating a second image signal by the horizontal phase delay amount corresponding to the parallax information with respect to a reference horizontal phase defined by said standard read address according to claim 7
    ないし10のいずれかに記載の2次元映像を3次元映像に変換する方法。 To a method of converting 2D images into 3D images according to any one of 10.
  12. 【請求項12】 前記所定単位領域は1画素単位の領域である、請求項7ないし11のいずれかに記載の2次元映像を3次元映像に変換する方法。 12. The method of claim 11, wherein the predetermined unit region is a region of one pixel unit, a method of converting two-dimensional images according to a 3D image to any of claims 7 to 11.
JP32529397A 1997-11-10 1997-11-10 Apparatus and method for converting 2D images into 3D images Expired - Fee Related JP3500056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32529397A JP3500056B2 (en) 1997-11-10 1997-11-10 Apparatus and method for converting 2D images into 3D images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32529397A JP3500056B2 (en) 1997-11-10 1997-11-10 Apparatus and method for converting 2D images into 3D images

Publications (2)

Publication Number Publication Date
JPH11146423A true true JPH11146423A (en) 1999-05-28
JP3500056B2 JP3500056B2 (en) 2004-02-23

Family

ID=18175205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32529397A Expired - Fee Related JP3500056B2 (en) 1997-11-10 1997-11-10 Apparatus and method for converting 2D images into 3D images

Country Status (1)

Country Link
JP (1) JP3500056B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1489857A1 (en) * 2002-03-27 2004-12-22 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
CN102124749A (en) * 2009-06-01 2011-07-13 松下电器产业株式会社 Stereoscopic image display apparatus
KR101082545B1 (en) 2010-01-28 2011-11-10 주식회사 팬택 A mobile terminal having an image conversion function
JP2012015610A (en) * 2010-06-29 2012-01-19 Fujitsu Semiconductor Ltd Processing device
JP2012028954A (en) * 2010-07-21 2012-02-09 Sharp Corp Three-dimensional imaging device and electronic information apparatus
US8131064B2 (en) 2002-03-27 2012-03-06 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
KR101204864B1 (en) 2011-01-11 2012-11-26 주식회사 인트로메딕 apparatus for generating stereo scopic image
WO2013042440A1 (en) * 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
JP2013192229A (en) * 2007-03-19 2013-09-26 Sony Corp Two dimensional/three dimensional digital information acquisition and display device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8417024B2 (en) 2002-03-27 2013-04-09 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
EP1489857A4 (en) * 2002-03-27 2007-07-25 Sanyo Electric Co 3-dimensional image processing method and device
US8879824B2 (en) 2002-03-27 2014-11-04 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8724886B2 (en) 2002-03-27 2014-05-13 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8577127B2 (en) 2002-03-27 2013-11-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8577128B2 (en) 2002-03-27 2013-11-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8131064B2 (en) 2002-03-27 2012-03-06 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8254668B2 (en) 2002-03-27 2012-08-28 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8559703B2 (en) 2002-03-27 2013-10-15 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8472702B2 (en) 2002-03-27 2013-06-25 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
EP1489857A1 (en) * 2002-03-27 2004-12-22 Sanyo Electric Co., Ltd. 3-dimensional image processing method and device
JP2013192229A (en) * 2007-03-19 2013-09-26 Sony Corp Two dimensional/three dimensional digital information acquisition and display device
CN102124749A (en) * 2009-06-01 2011-07-13 松下电器产业株式会社 Stereoscopic image display apparatus
US8704881B2 (en) 2009-06-01 2014-04-22 Panasonic Corporation Stereoscopic image display apparatus
KR101082545B1 (en) 2010-01-28 2011-11-10 주식회사 팬택 A mobile terminal having an image conversion function
US8885025B2 (en) 2010-06-29 2014-11-11 Fujitsu Semiconductor Limited Processor
JP2012015610A (en) * 2010-06-29 2012-01-19 Fujitsu Semiconductor Ltd Processing device
JP2012028954A (en) * 2010-07-21 2012-02-09 Sharp Corp Three-dimensional imaging device and electronic information apparatus
KR101204864B1 (en) 2011-01-11 2012-11-26 주식회사 인트로메딕 apparatus for generating stereo scopic image
WO2013042440A1 (en) * 2011-09-21 2013-03-28 富士フイルム株式会社 Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
JP5544047B2 (en) * 2011-09-21 2014-07-09 富士フイルム株式会社 Image processing apparatus, method and program, and a stereoscopic imaging device, a portable electronic device, a printer, and stereoscopic image reproducing apparatus
US9247227B2 (en) 2011-09-21 2016-01-26 Fujifilm Corporation Correction of the stereoscopic effect of multiple images for stereoscope view

Also Published As

Publication number Publication date Type
JP3500056B2 (en) 2004-02-23 grant

Similar Documents

Publication Publication Date Title
US8749620B1 (en) 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US4731864A (en) Photographic camera simulation systems working from computer memory
US20110210969A1 (en) Method and device for generating a depth map
US20080002878A1 (en) Method For Fast Stereo Matching Of Images
US20110298917A1 (en) Imaging apparatus, method, program, and recording medium used in the program
US7689031B2 (en) Video filtering for stereo images
US20110019989A1 (en) Imaging device and imaging method
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
WO2012057623A1 (en) System and method for imaging and image processing
JPH09181913A (en) Camera system
JP2008294741A (en) Imaging system
JP2010206774A (en) Three-dimensional image output device and method
US20130063571A1 (en) Image processing apparatus and image processing method
US20130038723A1 (en) Image acquisition apparatus and image processing apparatus
CN101021945A (en) Image composing method and device
JPH1051812A (en) Device and method for converting two-dimensional video into three-dimensional video
EP0918439A1 (en) Device and method for converting two-dimensional video into three-dimensional video
WO2011065738A2 (en) Image processing apparatus and method
JP2005012307A (en) Imaging apparatus
JP2004248213A (en) Image processing apparatus, imaging apparatus, and program
JP2010140442A (en) Image processor and method therefor
US20130278730A1 (en) Single-eye stereoscopic imaging device, correction method thereof, and recording medium thereof
JPH10191397A (en) Intention adaptive device for converting two-dimensional video into three-dimensional video
JP2009010557A (en) Depth data output device, and depth data receiver
US6049625A (en) Method of and an apparatus for 3-dimensional structure estimation

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees