JPH10191397A - Intention adaptive device for converting two-dimensional video into three-dimensional video - Google Patents

Intention adaptive device for converting two-dimensional video into three-dimensional video

Info

Publication number
JPH10191397A
JPH10191397A JP8349393A JP34939396A JPH10191397A JP H10191397 A JPH10191397 A JP H10191397A JP 8349393 A JP8349393 A JP 8349393A JP 34939396 A JP34939396 A JP 34939396A JP H10191397 A JPH10191397 A JP H10191397A
Authority
JP
Japan
Prior art keywords
parallax
information
signal
video
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8349393A
Other languages
Japanese (ja)
Inventor
Kazunobu Oketani
和伸 桶谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8349393A priority Critical patent/JPH10191397A/en
Publication of JPH10191397A publication Critical patent/JPH10191397A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an intention adaptive device for converting a two-dimensional video into three-dimensional video which emphasizes a stereoscopic effect of a specific feeling among persons and objects within photographic video in accordance with a person's intention. SOLUTION: A sensitive word is inputted, significant ranges which correspond to the sensitive word are separately selected for plural elements (high frequency component, luminance, luminance contrast, saturation, etc.) which device image feature quantity about the perspective of video, parallax calculating areas which become stereoscopic effect emphasizing objects are selected by an intention adaptive correction operating part 301 from the values of elements which are selected among the image feature quantity in each of plural parallax calculation areas that are set in one field screen, and a parallax modulating part 302 corrects the parallax information so that the stereoscopic effect of the selected parallax calculating areas may be emphasized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、2次元映像を3次
元映像に変換する装置に係り、特に、撮影者や編集者の
意図を反映した3次元映像が得られるようにした意図適
応型の2次元映像を3次元映像に変換する装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for converting a two-dimensional image into a three-dimensional image, and more particularly, to an intention-adaptive type adapted to obtain a three-dimensional image reflecting the intention of a photographer or an editor. The present invention relates to an apparatus for converting a two-dimensional image into a three-dimensional image.

【0002】[0002]

【従来の技術】本願出願人は、2次元映像を3次元映像
に変換する技術として、画面内の各領域において映像の
遠近に関する画像特徴量(輝度、高周波成分、輝度コン
トラスト、彩度など)から各領域ごとの視差情報を算出
し、2次元入力映像信号における前記各領域に対応する
信号から、その領域の視差情報に応じた水平位相差を有
する右眼用映像信号と左眼用映像信号とをそれぞれ生成
することにより立体視を行わせる技術を提案した。この
技術であれば、2次元映像を単にフレーム遅延させて元
映像を一方の眼用の映像とし、遅延映像を他方の眼用の
映像とする3次元映像変換技術では困難な静止画像の立
体視が可能となる。
2. Description of the Related Art As a technique for converting a two-dimensional image into a three-dimensional image, the applicant of the present application uses image features (luminance, high-frequency components, luminance contrast, saturation, etc.) relating to the perspective of the image in each area within the screen. The parallax information for each region is calculated, and a signal corresponding to each region in the two-dimensional input video signal, a right-eye video signal and a left-eye video signal having a horizontal phase difference corresponding to the parallax information of the region. We have proposed a technique to generate 3D images by generating 3D images. With this technology, stereoscopic viewing of still images is difficult with a three-dimensional video conversion technology that simply delays a two-dimensional video by a frame and uses the original video as a video for one eye and the delayed video as a video for the other eye. Becomes possible.

【0003】[0003]

【発明が解決しようとする課題】ところで、2次元映像
は、通常は撮影者が所望の風景などをビデオカメラなど
で撮影することで得ることになるが、例えば、真っ赤な
薔薇の前に人がたたずんでいる風景を見て撮影者が「艶
やかな風景を撮ろう」と思い、「薔薇」を意識しながら
撮っている場合でも、「薔薇」にピントが合っていない
ために、意図どおりの2次元映像が得られず、その結
果、意図通りの3次元映像が得られないことがある。ま
た、意図どおりに「薔薇」が旨く撮れて艶やかな感じで
2次元映像が得られたとしても、3次元映像化の処理で
「薔薇」の立体感が薄くなり、「艶やかさ」が失われる
おそれもある。
By the way, a two-dimensional image is usually obtained by a photographer by photographing a desired scenery with a video camera or the like. For example, a person is in front of a red rose. Even if the photographer looks at the standing landscape and wants to take a gorgeous landscape, and shoots with consciousness of the "rose", the "rose" is not in focus. A two-dimensional image cannot be obtained, and as a result, a three-dimensional image as intended may not be obtained. Also, even if a “rose” was taken as intended and a two-dimensional image was obtained with a gorgeous feeling, the three-dimensional effect of the “rose” was reduced by the three-dimensional image processing, and the “glossiness” was lost. May be

【0004】この発明は、上記の事情に鑑み、人の意図
に応じて、撮影映像内にある人物や物体のうち特定の感
覚の立体感を強調できる意図適応型の2次元映像を3次
元映像に変換する装置を提供することを目的とする。
[0004] In view of the above circumstances, the present invention converts an intention-adaptive two-dimensional image into a three-dimensional image that can enhance the stereoscopic effect of a specific sense among persons and objects in a photographed image according to the intention of a person. It is an object of the present invention to provide a device for converting the data into a file.

【0005】[0005]

【課題を解決するための手段】この発明の意図適応型の
2次元映像を3次元映像に変換する装置は、上記の課題
を解決するために、2次元入力映像信号に基づいて、各
フィールドごとに、1フィールド画面内に設定された複
数の視差算出領域のそれぞれに対して、映像の遠近に関
する画像特徴量を抽出する特徴量抽出手段と、各視差算
出領域ごとに抽出された画像特徴量に基づいて、1フィ
ールド画面内の所定単位領域ごとの視差情報を生成する
視差情報生成手段と、2次元入力映像信号の各所定単位
領域内の信号から、その所定単位領域に対応する視差情
報に応じた水平位相差を有する第1映像信号と第2映像
信号とをそれぞれ生成する位相制御手段と、を備えた2
次元映像を3次元映像に変換する装置であって、感性ワ
ードを入力する手段と、前記画像特徴量を決定付ける複
数の要素のそれぞれに、前記感性ワードに対応した重要
範囲を選定する重要度設定手段と、前記各視差算出領域
の画像特徴量のうち前記選び出された要素の値から立体
感強調対象となる視差算出領域を選び出す領域選定手段
と、この選び出された視差算出領域の立体感が強調され
るように前記視差情報を補正する視差情報補正手段とを
備えたことを特徴とする。
According to the present invention, there is provided an apparatus for converting an intention-adaptive two-dimensional image into a three-dimensional image according to the present invention. A feature amount extracting means for extracting an image feature amount related to perspective of a video for each of a plurality of parallax calculation regions set in one field screen; and an image feature amount extracted for each parallax calculation region. A disparity information generating unit that generates disparity information for each predetermined unit area in one field screen based on the disparity information corresponding to the predetermined unit area from a signal in each predetermined unit area of the two-dimensional input video signal. And phase control means for respectively generating a first video signal and a second video signal having a horizontal phase difference.
An apparatus for converting a three-dimensional image into a three-dimensional image, comprising: means for inputting a sensitivity word; and importance setting for selecting an important range corresponding to the sensitivity word for each of a plurality of elements for determining the image feature quantity. Means for selecting a parallax calculation area to be subjected to stereoscopic effect emphasis from the values of the selected elements among the image feature amounts of the respective parallax calculation areas; and a stereoscopic effect of the selected parallax calculation area. And a disparity information correcting unit that corrects the disparity information so that is emphasized.

【0006】上記の構成であれば、入力した感性ワード
に応じて撮像画面内の人物や物体のうちの特定の感覚の
立体感が強調されることになり、撮影者或いは編集者の
意図に応じた3次元映像を得ることが可能となる。
With the above arrangement, the stereoscopic effect of a specific sensation of a person or an object in the imaging screen is emphasized in accordance with the input sensibility word, and according to the intention of the photographer or editor. 3D images can be obtained.

【0007】[0007]

【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0008】図1は、2次元映像を3次元映像に変換す
るための2D/3D映像変換装置の全体的な構成を示し
ている。
FIG. 1 shows an overall configuration of a 2D / 3D video converter for converting a 2D video into a 3D video.

【0009】2次元映像信号を構成する輝度信号Y、色
差信号R−Yおよび色差信号B−Yは、AD変換回路1
(ADC)によってそれぞれディジタルのY信号、R−
Y信号及びB−Y信号に変換される。
A luminance signal Y, a color difference signal RY and a color difference signal BY constituting a two-dimensional video signal are supplied to an AD conversion circuit 1.
(ADC), the digital Y signal, R-
It is converted into a Y signal and a BY signal.

【0010】Y信号は、輝度積算回路7、高周波成分積
算回路8及び輝度コントラスト算出回路に送られると共
に、第1の左映像用任意画素遅延FIFO11及び第1
の右映像用任意画素遅延FIFO21に送られる。R−
Y信号は、彩度積算回路10に送られると共に、第2の
左映像用任意画素遅延FIFO12及び第2の右映像用
任意画素遅延FIFO22に送られる。B−Y信号は、
彩度積算回路10に送られると共に、第3の左映像用任
意画素遅延FIFO13及び第3の右映像用任意画素遅
延FIFO23に送られる。
The Y signal is sent to a luminance integrating circuit 7, a high-frequency component integrating circuit 8, and a luminance contrast calculating circuit, and a first left image arbitrary pixel delay FIFO 11 and a first
To the right image arbitrary pixel delay FIFO 21. R-
The Y signal is sent to the saturation integration circuit 10 and sent to the second left image arbitrary pixel delay FIFO 12 and the second right image arbitrary pixel delay FIFO 22. The BY signal is
The signal is sent to the saturation accumulating circuit 10 and sent to the third left image arbitrary pixel delay FIFO 13 and the third right image arbitrary pixel delay FIFO 23.

【0011】輝度積算回路7は、1フィールドごとに、
図2に示すように、1フィールド画面内にあらかじめ設
定された複数個の視差算出領域E1〜E12それぞれに
対する輝度積算値を算出する。高周波成分積算回路8
は、1フィールドごとに、各視差算出領域E1〜E12
それぞれに対する高周波成分の積算値を算出する。輝度
コントラスト算出回路9は、1フィールドごとに、各視
差算出領域E1〜E12それぞれに対する輝度コントラ
ストを算出する。輝度積算回路10は、1フィールドご
とに、各視差算出領域E1〜E12それぞれに対する彩
度の積算値を算出する。
The luminance integrating circuit 7 is provided for each field,
As shown in FIG. 2, an integrated luminance value is calculated for each of a plurality of parallax calculation areas E <b> 1 to E <b> 12 set in advance in one field screen. High frequency component integration circuit 8
Are the parallax calculation areas E1 to E12 for each field.
The integrated value of the high frequency component for each is calculated. The luminance contrast calculation circuit 9 calculates the luminance contrast for each of the parallax calculation areas E1 to E12 for each field. The luminance integrating circuit 10 calculates an integrated value of saturation for each of the parallax calculation areas E1 to E12 for each field.

【0012】視差算出領域E1〜E12それぞれに対す
る輝度積算値、各視差算出領域E1〜E12それぞれに
対する高周波成分の積算値、各視差算出領域E1〜E1
2それぞれに対する輝度コントラストおよび各視差算出
領域E1〜E12それぞれに対する彩度の積算値が、視
差算出領域E1〜E12ごとの映像の遠近に関する画像
特徴量である。
The luminance integrated value for each of the parallax calculation areas E1 to E12, the integrated value of the high frequency component for each of the parallax calculation areas E1 to E12, and the respective parallax calculation areas E1 to E1
The integrated values of the luminance contrast for each of the two and the saturation for each of the parallax calculation regions E1 to E12 are image feature amounts relating to the perspective of the video for each of the parallax calculation regions E1 to E12.

【0013】なお、1フィールド画面内には、実際に
は、図5等に示すように6行10列の計60個の視差算
出領域が設定されているが、説明の便宜上、図2に示す
ように、1フィールド画面内に、3行4列計12個の視
差算出領域E1〜E12が設定されているものとする。
Note that a total of 60 parallax calculation areas of 6 rows and 10 columns are actually set in the one-field screen as shown in FIG. 5 and the like, but for convenience of explanation, they are shown in FIG. As described above, it is assumed that a total of twelve parallax calculation areas E1 to E12 in three rows and four columns are set in one field screen.

【0014】CPU3は、輝度積算回路7、高周波成分
積算回路8、輝度コントラスト算出回路9及び彩度積算
回路10から送られてきた情報に基づいて、各視差算出
領域E1〜E12に対する視差情報を生成する。この例
では、被写体のように前側にある物体ほど視差量が少な
く、背景のように後ろ側にある物体ほど視差量が大きく
なるように視差情報が生成される。この視差情報の生成
方法の詳細については、後述する。
The CPU 3 generates parallax information for each of the parallax calculation areas E1 to E12 based on the information sent from the brightness integration circuit 7, the high-frequency component integration circuit 8, the brightness contrast calculation circuit 9 and the saturation integration circuit 10. I do. In this example, the parallax information is generated such that the front-side object such as the subject has a smaller parallax amount, and the back-side object such as the background has a larger parallax amount. The details of the method of generating the parallax information will be described later.

【0015】輝度積算回路7は、各視差算出領域に対応
させて設けた複数のレジスタを備えており、前記ADC
1から供給されるディジタル化された輝度データを、水
平同期信号、垂直同期信号、及びクロックに基づき、前
記輝度データが属する視差算出領域を担当しているレジ
スタに振り分けて蓄えていく際に、既に格納している輝
度データに新たに入力される輝度データを加算する。そ
して、1フィルード期間ごとに、各レジスタに蓄えられ
た各視差算出領域ごとの輝度積算データを図示しないバ
スを通じてCPU3に与えるようになっている。
The luminance integrating circuit 7 includes a plurality of registers provided corresponding to each parallax calculation area.
When distributing and storing the digitized luminance data supplied from 1 to a register in charge of a parallax calculation area to which the luminance data belongs based on a horizontal synchronization signal, a vertical synchronization signal, and a clock, The newly input luminance data is added to the stored luminance data. Then, for each field period, the luminance integration data for each parallax calculation area stored in each register is provided to the CPU 3 via a bus (not shown).

【0016】高周波成分積算回路8、及び輝度コントラ
スト算出回路9も上記の輝度積算回路7と略同様の構成
を有しており、ADC1から供給されるディジタル化さ
れた輝度データを入力して処理を行い、高周波成分の積
算値、及び輝度コントラストの積算値をそれぞれ算出
し、CPU3に与える。
The high-frequency component integrating circuit 8 and the luminance contrast calculating circuit 9 have substantially the same configuration as the above-mentioned luminance integrating circuit 7, and receive digitized luminance data supplied from the ADC 1 to perform processing. Then, the integrated value of the high-frequency component and the integrated value of the luminance contrast are calculated and given to the CPU 3.

【0017】また、彩度積算回路10も同様の構成を有
するが、前記ADC1から(R−Y)値と(B−Y)値
とを入力し、以下の数式に基づく演算を行って彩度デー
タ(SAI)を算出する演算手段を備えている。
The saturation accumulating circuit 10 has the same configuration, but inputs the (RY) value and the (BY) value from the ADC 1 and performs a calculation based on the following equation to obtain the saturation. An arithmetic unit for calculating data (SAI) is provided.

【0018】[0018]

【数1】 (Equation 1)

【0019】そして、前記演算手段の彩度データを、水
平同期信号、垂直同期信号、及びクロックに基づき、前
記彩度データの元となる(R−Y)値及び(B−Y)値
が属する視差算出領域を担当しているレジスタに振り分
けて蓄えていく際に、既に格納している彩度データに新
たに入力される彩度データを加算する。そして、1フィ
ルード期間ごとに、各レジスタに蓄えられた各視差算出
領域ごとの彩度積算データをCPU3に与えるようにな
っている。
The saturation data of the arithmetic means is based on a horizontal synchronizing signal, a vertical synchronizing signal, and a clock, and the (RY) and (BY) values which are the basis of the saturation data belong to the arithmetic unit. When the parallax calculation area is sorted and stored in the register in charge, the newly input chroma data is added to the already stored chroma data. Then, the CPU 3 is provided with the saturation integration data for each parallax calculation area stored in each register for each field period.

【0020】CPU3によって算出された各視差算出領
域E1〜E12に対する視差情報は、視差制御回路4に
送られる。視差制御回路4は、各視差算出領域E1〜E
12に対する視差情報に基づいて、各フィールドの各画
素位置ごとの視差情報を生成する。そして、得られた各
画素位置ごとの視差情報に基づいて、各FIFO11〜
13、21〜23から映像信号(Y信号、R−Y信号、
B−Y信号)を読み出す際の読み出しアドレスが左映像
用任意画素遅延FIFO11〜13と右映像用任意画素
遅延FIFO21〜23との間でずれるように、各FI
FO11〜13、21〜23の読み出しアドレスを制御
する。従って、左映像用任意画素遅延FIFO11〜1
3から読み出された左映像信号の水平位相と、右映像用
任意画素遅延FIFO21〜23から読み出された右映
像信号の水平位相が異なるようになる。
The disparity information for each of the disparity calculation areas E1 to E12 calculated by the CPU 3 is sent to the disparity control circuit 4. The parallax control circuit 4 controls the parallax calculation areas E1 to E
Based on the disparity information for No. 12, disparity information for each pixel position in each field is generated. Then, based on the obtained parallax information for each pixel position, each of the FIFOs 11 to
13, 21 to 23, video signals (Y signal, RY signal,
Each of the FIs is adjusted so that the read address when reading the (BY signal) is shifted between the arbitrary pixel delay FIFOs 11 to 13 for the left image and the arbitrary pixel delay FIFOs 21 to 23 for the right image.
The read addresses of the FOs 11 to 13 and 21 to 23 are controlled. Therefore, the left image arbitrary pixel delay FIFOs 11 to 1
3 is different from the horizontal phase of the right video signal read from the right video arbitrary pixel delay FIFOs 21 to 23.

【0021】左映像用任意画素遅延FIFO11〜13
から読み出された左映像信号(YL信号、(R−Y)L
信号、(B−Y)L信号)は、DA変換回路(DAC)
5によってアナログ信号に変換された後、図示しない立
体表示装置に送られる。右映像用任意画素遅延FIFO
21〜23から読み出された右映像信号(YR信号、
(R−Y)R信号、(B−Y)R信号)は、DA変換回
路(DAC)6によってアナログ信号に変換された後、
図示しない立体表示装置に送られる。
Arbitrary pixel delay FIFO 11-13 for left image
From the left video signal (YL signal, (RY) L
Signal, (BY) L signal) is a DA conversion circuit (DAC)
After being converted into an analog signal by 5, it is sent to a three-dimensional display device (not shown). Arbitrary pixel delay FIFO for right image
Right video signal (YR signal,
The (RY) R signal and the (BY) R signal are converted into analog signals by a DA conversion circuit (DAC) 6,
It is sent to a three-dimensional display device (not shown).

【0022】左映像信号の水平位相と、右映像信号の水
平位相は異なっているので、左映像と右映像との間に視
差が発生する。この結果、左映像を左目のみで観察し、
右映像を右目のみで観察すると、被写体が背景に対して
前方位置にあるような立体映像が得られる。
Since the horizontal phase of the left video signal is different from the horizontal phase of the right video signal, a parallax occurs between the left video and the right video. As a result, the left image is observed only with the left eye,
When the right image is observed only with the right eye, a three-dimensional image in which the subject is located in front of the background is obtained.

【0023】図2においては、各視差算出領域E1〜E
12の水平方向の画素数をm、各視差算出領域E1〜E
12の垂直方向の画素数をn、第1の視差算出領域E1
の左上の座標を(a,b)として、水平位置(HAD)
および垂直位置(VAD)が表されている。
In FIG. 2, each of the parallax calculation areas E1 to E
12, the number of pixels in the horizontal direction is m, and each of the parallax calculation areas E1 to E
12, the number of pixels in the vertical direction is n, and the first parallax calculation area E1
The horizontal position (HAD), where the coordinates of the upper left of
And the vertical position (VAD).

【0024】図3は、CPU3によって行われる視差量
の算出方法を示している。
FIG. 3 shows a method of calculating the amount of parallax performed by the CPU 3.

【0025】第1の正規化手段401は、各視差算出領
域E1〜E12ごとの高周波成分の積算値を0〜10の
範囲の値に正規化する。第2の正規化手段402は、各
視差算出領域E1〜E12ごとの輝度コントラストを0
〜10の範囲の値に正規化する。第3の正規化手段40
3は、各視差算出領域E1〜E12ごとの輝度積算値を
0〜10の範囲の値に正規化する。第4の正規化手段4
04は、各視差算出領域E1〜E12ごとの彩度積算値
を0〜10の範囲の値に正規化する。
The first normalizing means 401 normalizes the integrated value of the high frequency component for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10. The second normalization unit 402 sets the luminance contrast of each of the parallax calculation areas E1 to E12 to 0.
Normalize to a value in the range of -10. Third normalizing means 40
3 normalizes the integrated luminance value for each of the parallax calculation areas E1 to E12 to a value in the range of 0 to 10. Fourth normalizing means 4
A step 04 normalizes the saturation integration value for each of the parallax calculation areas E1 to E12 to a value in a range of 0 to 10.

【0026】正規化された各視差算出領域E1〜E12
ごとの高周波成分の積算値には、乗算手段405によっ
て係数K1が積算された後、加算手段409に送られ
る。正規化された各視差算出領域E1〜E12ごとの輝
度コントラストには、乗算手段406によって係数K2
が積算された後、加算手段409に送られる。正規化さ
れた各視差算出領域E1〜E12ごとの輝度積算値に
は、乗算手段407によって係数K3が積算された後、
加算手段409に送られる。正規化された各視差算出領
域E1〜E12ごとの彩度積算値には、乗算手段408
によって係数K4が積算された後、加算手段409に送
られる。
Each of the normalized parallax calculation areas E1 to E12
The integrated value of the high-frequency component for each is multiplied by the coefficient K1 by the multiplying unit 405 and then sent to the adding unit 409. The normalized luminance contrast for each of the parallax calculation areas E1 to E12 is added to the coefficient K2 by the multiplication unit 406.
Are accumulated and sent to the adding means 409. After the coefficient K3 is multiplied by the multiplication means 407 to the normalized luminance integrated value for each of the parallax calculation areas E1 to E12,
It is sent to the adding means 409. The normalized saturation integrated value for each of the parallax calculation areas E1 to E12 is multiplied by a multiplication unit 408.
After the coefficient K4 is integrated by the above, it is sent to the adding means 409.

【0027】係数K1、K2、K3、K4の具体例とし
ては、K1=0.6、K2=0.2、K3=0.1、K
4=0.1が挙げられる。また、K1=0.75、K2
=0.25、K3=0.0、K4=0.0が挙げられ
る。
As specific examples of the coefficients K1, K2, K3, and K4, K1 = 0.6, K2 = 0.2, K3 = 0.1, K3
4 = 0.1. Also, K1 = 0.75, K2
= 0.25, K3 = 0.0, K4 = 0.0.

【0028】これらの係数K1〜K4の設定値を制御す
ることにより、高周波成分の積算値、輝度コントラス
ト、輝度積算値および彩度積算値のうちから選択された
任意の1つまたは任意の組合せを、映像の遠近に関する
画像特徴量として用いることができる。
By controlling the set values of these coefficients K1 to K4, any one or any combination selected from the integrated value of the high-frequency component, the luminance contrast, the luminance integrated value and the chroma integrated value can be determined. , Can be used as an image feature amount related to the perspective of a video.

【0029】従って、映像の遠近に関する画像特徴量と
して、高周波成分の積算値のみを用いることもできる。
映像の遠近に関する画像特徴量として、輝度コントラス
トのみを用いることもできる。映像の遠近に関する画像
特徴量として、高周波成分の積算値および輝度コントラ
ストを用いることもできる。映像の遠近に関する画像特
徴量として、高周波成分の積算値、輝度コントラストお
よび輝度積算値を用いることもできる。映像の遠近に関
する画像特徴量として、高周波成分の積算値、輝度コン
トラストおよび彩度積算値を用いることもできる。映像
の遠近に関する画像特徴量として、高周波成分の積算
値、輝度コントラスト、輝度積算値および彩度積算値を
用いることもできる。
Therefore, it is also possible to use only the integrated value of the high frequency component as the image feature amount relating to the perspective of the video.
It is also possible to use only the luminance contrast as the image feature amount relating to the perspective of the video. The integrated value of the high-frequency component and the luminance contrast may be used as the image feature amount relating to the perspective of the video. An integrated value of a high-frequency component, a luminance contrast, and a luminance integrated value can also be used as the image feature amount relating to the perspective of a video. The integrated value of the high-frequency component, the luminance contrast, and the integrated value of the saturation can also be used as the image feature amount related to the perspective of the video. The integrated value of the high-frequency component, the luminance contrast, the integrated luminance value, and the integrated chroma value can also be used as the image feature amount relating to the perspective of the video.

【0030】加算手段409では、各乗算手段405〜
408によって得られた各視差算出領域E1〜E12ご
との値が加算される。加算手段409によって得られた
各視差算出領域E1〜E12ごとの値は、第5の正規化
手段410によって、0〜10の範囲の値(以下、奥行
き情報という)に正規化される。図4は、加算手段40
9の出力値と第5の正規化手段410によって得られる
奥行き情報との関係を示している。各視差算出領域E1
〜E12ごとの奥行き情報が、視差算出領域E1〜E1
2ごとの映像の遠近に関する情報である。第5の正規化
手段410によって、得られた各視差算出領域E1〜E
12ごとの奥行き情報は、奥行き補正手段411に送ら
れる。
In the adding means 409, each of the multiplying means 405
The values for each of the parallax calculation areas E1 to E12 obtained by 408 are added. The value for each of the parallax calculation areas E1 to E12 obtained by the adding unit 409 is normalized by the fifth normalizing unit 410 to a value in the range of 0 to 10 (hereinafter, referred to as depth information). FIG.
9 shows the relationship between the output value of No. 9 and the depth information obtained by the fifth normalization means 410. Each parallax calculation area E1
The depth information for each of E1 to E12 is the disparity calculation area E1 to E1
This is information on the distance between two images. Each of the parallax calculation areas E1 to E obtained by the fifth normalization unit 410
The depth information for each 12 is sent to the depth correction unit 411.

【0031】一般的な画像では、被写体が前方に存在
し、背景が後方に存在している。また、被写体に対して
ピントが合っている映像が多いため、近くにある物ほ
ど、高周波成分、コントラスト、輝度および彩度が高い
と考えられる。そこで、この実施の形態では、高周波の
積算値、輝度コントラスト、輝度積算値および彩度積算
値が多い領域ほど、前方に存在する物体が写っていると
仮定している。
In a general image, a subject exists in the front and a background exists in the rear. Also, since there are many images that are in focus with respect to the subject, it is considered that the closer the object is, the higher the high-frequency component, contrast, brightness, and saturation are. Therefore, in the present embodiment, it is assumed that an object having a higher frequency is integrated in a region with a higher integrated value, luminance contrast, integrated value of luminance, and integrated value of saturation.

【0032】したがって、加算手段409によって得ら
れた奥行き情報が大きい領域ほど、前方に存在する物体
が写っている領域であると判断することができる。最も
前方に存在する物体が写っている領域の立体視位置を立
体表示装置の管面位置に設定すると、加算手段409に
よって得られた奥行き情報と、管面位置からの奥行き量
とは反比例する。
Therefore, it is possible to determine that the region where the depth information obtained by the adding means 409 is larger is the region in which the object existing ahead is captured. When the stereoscopic position of the region in which the object present in the forefront is captured is set as the tube position of the stereoscopic display device, the depth information obtained by the adding unit 409 is inversely proportional to the depth from the tube position.

【0033】以下、奥行き補正手段411による奥行き
補正処理について説明する。
Hereinafter, the depth correction processing by the depth correction means 411 will be described.

【0034】奥行き補正処理については、実際に設定さ
れている視差算出領域を例にとって説明した方が理解し
やすいので、1フィールドに対して実際に設定されてい
る60個の視差算出領域を例にとって、奥行き補正手段
411による奥行き補正処理を説明する。図5は、1フ
ィールドに対して実際に設定されている60個の視差算
出領域F1〜F60を示している。
It is easier to understand the depth correction process by taking the actually set parallax calculation area as an example. Therefore, the 60 parallax calculation areas actually set for one field are taken as an example. The depth correction processing by the depth correction means 411 will be described. FIG. 5 shows 60 parallax calculation areas F1 to F60 actually set for one field.

【0035】まず、視差算出領域F1〜F60の各行ご
とに、奥行き情報の平均値が算出される。各視差算出領
域F1〜F60ごとの奥行き情報が図6に示すような値
であった場合には、第1〜第6行目ごとの奥行き情報の
平均値は、1.2、3.6、6.0、7.2、4.0、
1.2となる。
First, an average value of depth information is calculated for each row of the parallax calculation areas F1 to F60. When the depth information for each of the parallax calculation areas F1 to F60 has a value as shown in FIG. 6, the average value of the depth information for each of the first to sixth rows is 1.2, 3.6, 6.0, 7.2, 4.0,
1.2.

【0036】次に、視差算出領域の各行のうち、手前位
置の物体が多く写っている領域が抽出される。つまり、
奥行き情報の平均値が最も大きい行が抽出される。図6
の例では、第4行目の領域が抽出される。
Next, from each row of the parallax calculation area, an area where many objects at the near position are photographed is extracted. That is,
The row having the largest average value of the depth information is extracted. FIG.
In the example, the area of the fourth row is extracted.

【0037】次に、抽出された行より下段にある行の各
領域については、直上の領域に対して、急激に奥行き情
報が小さくならないように、抽出された行より下段にあ
る行の各領域の奥行き情報が調整される。具体的には、
抽出された行より下段にある行の各領域の奥行き情報が
直上の領域に対して3以上小さい領域に対しては、直上
の領域の奥行き情報より2だけ小さい値に、その領域の
奥行き情報が変更せしめられる。
Next, with respect to each area of the row below the extracted row, each area of the row below the extracted row is set so that the depth information does not suddenly decrease with respect to the area immediately above. Is adjusted. In particular,
For an area in which the depth information of each area in the row below the extracted row is smaller than the area immediately above by 3 or more, the depth information of the area is set to a value smaller by 2 than the depth information of the area immediately above. Can be changed.

【0038】図6の例では、図7に示すように、まず、
第5行の各領域F41〜F50のうち、その奥行き情報
が直上の領域の奥行き情報に対して3以上小さい領域F
42〜F49に対して、奥行き情報が補正される、この
後、第6行の各領域F51〜F60のうち、その奥行き
情報が直上の領域の奥行き情報(補正後の奥行き情報)
に対して3以上小さい領域F53〜F58に対して、奥
行き情報が補正される。
In the example of FIG. 6, first, as shown in FIG.
Among the regions F41 to F50 in the fifth row, the region F whose depth information is smaller than the depth information of the region immediately above by three or more.
The depth information is corrected for 42 to F49. After that, of the areas F51 to F60 in the sixth row, the depth information is the depth information of the area immediately above (the corrected depth information).
The depth information is corrected for the regions F53 to F58 that are three or more smaller than.

【0039】つまり、任意の水平位置における画面の高
さに対する奥行き情報の関係が、図8に曲線U1で示す
ような関係である場合には、奥行き補正によって、画面
の高さに対する奥行き情報の関係が、図8に曲線U2に
示すような関係となるように補正される。
That is, when the relationship of the depth information with respect to the screen height at an arbitrary horizontal position is as shown by the curve U1 in FIG. 8, the relationship of the depth information with respect to the screen height is determined by the depth correction. Is corrected so as to have a relationship as shown by a curve U2 in FIG.

【0040】このように、視差算出領域の各行のうち、
手前位置の物体が多く写っている領域より下段の領域の
奥行き情報が補正されているのは次の理由による。
As described above, in each row of the parallax calculation area,
The reason why the depth information in the area below the area where many objects at the near position are captured is corrected is as follows.

【0041】一般的には、画面の下側には前方に存在す
る物体が写っていることが多い。また、画面の下側に写
っている物体は、地面等のように変化の少ない画像であ
ることが多い。地面等のように変化の少ない画像は、高
周波成分が低いため、前方にあるにも関わらず、奥行き
情報の値は小さくなる。そこで、奥行き補正により、前
方にある物体であって高周波成分が低い映像に対する奥
行き情報を、その直上の領域の奥行き情報の値より大き
くならない程度に大きくしているのである。
In general, an object existing in front is often photographed on the lower side of the screen. Also, the object shown on the lower side of the screen is often an image with little change such as the ground. An image with little change, such as the ground, has a low high-frequency component, so that the value of the depth information is small even though it is ahead. Therefore, depth information is increased by depth correction so that the depth information of an image located in front of the object and having a low high-frequency component is not larger than the value of the depth information of the area immediately above the image.

【0042】奥行き補正手段411によって奥行き情報
が補正された各領域(実際はF1〜F60であるが、説
明の便宜上E1〜E12とする)ごとの奥行き情報は、
再正規化手段412によって、0〜10の範囲内で正規
化される。再正規化手段412によって得られた各領域
E1〜E12ごとの奥行き情報は、視差情報決定手段4
13によって、各領域E1〜E12ごとの視差情報に変
換される。
The depth information for each area (actually, F1 to F60, but E1 to E12 for convenience of explanation) whose depth information has been corrected by the depth correction means 411 is as follows.
The renormalization means 412 normalizes the data within the range of 0 to 10. The depth information for each of the areas E1 to E12 obtained by the re-normalization means 412 is
13 is converted into parallax information for each of the regions E1 to E12.

【0043】視差情報生成手段413は、予め設定され
た奥行き情報に対する視差情報との関係に基づいて、各
領域E1〜E12ごとに、奥行き情報を視差情報に変換
する。奥行き情報に対する視差情報との関係は、図9に
直線S1またはS2で示されるように、反比例の関係で
ある。
The parallax information generating means 413 converts the depth information into parallax information for each of the regions E1 to E12 based on the relationship between the predetermined depth information and the parallax information. The relationship between the depth information and the disparity information is inversely proportional, as shown by the straight line S1 or S2 in FIG.

【0044】図9において、直線S1で示される奥行き
情報に対する視差情報との関係は、立体感が比較的強い
立体映像を得たい場合に用いられる。直線S2で示され
る奥行き情報に対する視差情報との関係は、立体感が比
較的弱い立体映像を得たい場合に用いられる。奥行き情
報に対する視差情報との関係を、直線S1と直線S2と
の関係で調整することにより、立体感を調整することが
可能である。
In FIG. 9, the relationship between the depth information indicated by the straight line S1 and the parallax information is used when it is desired to obtain a stereoscopic image having a relatively strong stereoscopic effect. The relationship between the depth information indicated by the straight line S2 and the parallax information is used when it is desired to obtain a stereoscopic image having a relatively weak stereoscopic effect. By adjusting the relationship between the depth information and the parallax information based on the relationship between the straight line S1 and the straight line S2, it is possible to adjust the stereoscopic effect.

【0045】このようにして得られた各領域E1〜E1
2ごとの視差情報は、後述する意図適応補正がなされた
後、視差制御回路4(図1参照)に送られる。尚、奥行
き補正手段411による奥行き補正を省略してもよい。
Each of the regions E1 to E1 thus obtained
The parallax information for each of the two is sent to the parallax control circuit 4 (see FIG. 1) after the intention adaptive correction described later is performed. Note that the depth correction by the depth correction unit 411 may be omitted.

【0046】次に、感性ワードに基づき、被写体のうち
特定の部分の立体感を強調させるための構成部分につい
て説明する。ここで、感性ワードとは、例えば、「艶や
か」、「広々」、「明るく」といった撮影者或いは編集
者の意図を表すワードであり、例えば、表示装置の画面
上に、図10に示すごとく感性ワードおよびその影響度
を選択するため画像を表示し、表示装置に設けた入力つ
まみなどで各感性ワードの影響度を選ぶことができる。
「艶やか」の影響度が高く設定された場合に、そのこと
が撮影映像内の人物や物体等との関係で具体的にどのよ
うな意味をなすかは、種々考えられるが、例えば、図1
0のごとき撮影映像にあっては、人物の回りの「花」を
強調し、「飛行機」などは強調しない意図であると解釈
できる。
Next, a description will be given of constituent parts for enhancing the stereoscopic effect of a specific part of the subject based on the sensitivity word. Here, the sensibility word is a word indicating the intention of the photographer or the editor, such as “glossy”, “spacious”, and “bright”, for example, as shown in FIG. 10 on the screen of the display device. As described above, an image is displayed for selecting a sensitivity word and its influence degree, and the influence degree of each sensitivity word can be selected by an input knob or the like provided on the display device.
When the degree of influence of "glossy" is set high, what kind of meaning it has in relation to the person or object in the captured video can be considered in various ways, for example, FIG.
In a shot image such as 0, it can be interpreted that the intention is to emphasize "flowers" around the person and not to emphasize "airplanes".

【0047】そして、「花」というものは、原色を持つ
ことが多いから、「花」が写っている部分(視差算出領
域)の彩度は高くなっていると考えられる。従って、前
記画像特徴量を決定付けるいくつかの要素(輝度、高周
波成分、輝度コントラスト、彩度)のなかから、感性ワ
ード「艶やか」に対応して特に「彩度」に注目し、各視
差算出領域の彩度についての情報のなかから、「彩度」
の値の高い部分を選び、この選ばれた視差算出領域を含
む領域について立体感を強調すれば、「花」の感覚の立
体感が強調されることになり、撮影者の意図が反映され
たこととなる。
Since "flowers" often have primary colors, it is considered that the saturation of the portion (parallax calculation area) where "flowers" appear is high. Therefore, among several factors (luminance, high-frequency component, luminance contrast, and saturation) that determine the image feature amount, attention is particularly paid to “saturation” in correspondence with the sensitivity word “glossy”. From the information on the saturation of the parallax calculation area,
Is selected, and the three-dimensional effect of the region including the selected parallax calculation region is emphasized, the three-dimensional effect of the sense of "flower" is emphasized, and the intention of the photographer is reflected. It will be.

【0048】意図適応処理部300(図1参照)は、感
性指示(感性ワードの各影響度の入力)に基づいて、前
記画像特徴量を決定付ける要素である輝度、高周波成
分、輝度コントラスト、彩度について各々の重要範囲を
選定し、この重要範囲情報をCPU3に与えるようにな
っている。ここで、感性ワード「艶やか」の影響度が高
い場合には、輝度、高周波成分、及び輝度コントラスト
については「0〜10」といった重要範囲情報(重要範
囲無しに相当する)を与え、彩度については「7〜1
0」といった重要範囲情報を与えることが考えられる。
彩度以外の他の要素にもそれぞれの重要範囲を与えても
よいことは勿論である。なお、前記感性指示に基づいた
前記重要範囲情報の出力は、例えば、感性ワードごとの
影響度に前記各要素(意図パラメ−タ)の重要範囲を対
応付けたルックアップテーブルを用いて行うことができ
る。
The intention adaptation processing unit 300 (see FIG. 1) is based on a sentiment instruction (input of each degree of influence of a sentiment word). Each important range is selected for the degree, and this important range information is given to the CPU 3. Here, when the sensitivity word “glossy” has a high degree of influence, important range information (corresponding to no important range) such as “0 to 10” is given for luminance, high-frequency components, and luminance contrast. For the degree, see "7-1
It is conceivable to give important range information such as "0".
It is a matter of course that other important elements besides the saturation may be given their respective important ranges. The output of the important range information based on the sentiment instruction may be performed using, for example, a look-up table in which the degree of influence of each sentiment word is associated with the important range of each element (intention parameter). it can.

【0049】CPU3内の意図適応補正値演算部301
(図3参照)は、前記意図適応処理部300からは重要
範囲情報を、正規化回路401〜404からは正規化さ
れた視差算出領域ごとの積算値情報を、再正規化部41
2からは再正規化された視差算出領域ごとの奥行き情報
をそれぞれ受け取る。意図適応補正値演算部301が、
彩度について「7〜10」といった重要範囲情報を受け
取ったとすると、正規化回路404からの彩度値の正規
化された積算値(図11(d)参照)から、値が7〜1
0である視差算出領域を選び出すことになる。図11
(a)、(d)の例であれば、撮影映像中の「花」が存
在する領域に対応した領域である下から2行目の第2列
目と第7列目と第9列目と第10列目の視差算出領域が
選ばれることになる。
Intention adaptive correction value calculation section 301 in CPU 3
(See FIG. 3), the important range information from the intention adaptation processing unit 300, the integrated value information for each normalized parallax calculation area from the normalization circuits 401 to 404, and the re-normalization unit 41.
2 receives the renormalized depth information for each parallax calculation area. The intention adaptive correction value calculation unit 301
Assuming that important range information such as “7 to 10” has been received for the saturation, the value is 7 to 1 based on the normalized integrated value of the saturation values from the normalization circuit 404 (see FIG. 11D).
A parallax calculation area of 0 is selected. FIG.
In the case of (a) and (d), the second column, the seventh column, and the ninth column of the second row from the bottom, which is an area corresponding to the area where “flower” exists in the captured video And the parallax calculation area in the tenth column is selected.

【0050】そして、各視差算出領域の奥行き情報(図
11(b)参照)のなかから、前記選ばれた視差算出領
域の奥行き情報を抽出する(図11(e)参照)。この
奥行き情報から、前記選ばれた視差算出領域の視差情報
が求まる。視差算出領域の視差情報が図11(c)のご
とくであるとすると、2行目の第2列目における
“9”、第7列目における“6”、第9列目における
“12”、及び第10列目における“12”が前記の選
ばれた視差算出領域の視差情報として求まる。
Then, the depth information of the selected parallax calculation area is extracted from the depth information of each parallax calculation area (see FIG. 11B) (see FIG. 11E). From this depth information, the parallax information of the selected parallax calculation area is obtained. If the disparity information of the disparity calculation area is as shown in FIG. 11C, “9” in the second column of the second row, “6” in the seventh column, “12” in the ninth column, And “12” in the tenth column is obtained as the disparity information of the selected disparity calculation area.

【0051】上記の処理により、図11(a)の撮影映
像中の「花」が存在する領域の視差情報が「6〜12」
の幅(範囲)で存在していることが分かる。この視差情
報の幅(範囲)は立体感の強さに関係する値であり、そ
の幅が広いほど立体感は強調される。そこで、意図適応
補正値演算部301は、前記の視差情報の幅「6〜1
2」を、例えば「4〜18」というように広くし、「1
〜6」および「12〜30」は狭くするような補正情報
を生成する。この補正情報の例をグラフ化して示すと、
図11(g)のごとくなる。
By the above processing, the parallax information of the area where the “flower” exists in the photographed image of FIG.
It can be seen that they exist with the width (range). The width (range) of the parallax information is a value related to the strength of the stereoscopic effect, and the stereoscopic effect is emphasized as the width increases. Therefore, the intention adaptive correction value calculation unit 301 determines that the width of the parallax information “6-1”.
"2" is widened, for example, "4-18", and "1"
“−6” and “12 to 30” generate correction information that narrows. If an example of this correction information is shown in a graph,
As shown in FIG.

【0052】視差変調部302(図3参照)は、前記の
補正情報を受け取り、この補正情報に従って視差情報生
成部413にて生成された視差情報(図11(c)参
照)を補正する。補正情報が上述した内容のものである
とき、上記の視差情報は、図11(f)のごとく補正さ
れる。なお、「花」が存在する領域以外の視差情報が
「6〜12」の部分も幅(範囲)が広がる補正がされる
ので、「花」だけが不自然に飛び出てしまうのを回避で
きる。そして、この補正された視差情報に基づいて、後
述するように、2次元入力映像信号の各所定単位領域内
の信号から、その所定単位領域に対応する前記意図適応
補正後の視差情報に応じた水平位相差を有する第1映像
信号と第2映像信号とがそれぞれ生成される。
The parallax modulator 302 (see FIG. 3) receives the above correction information and corrects the parallax information (see FIG. 11C) generated by the parallax information generator 413 according to the correction information. When the correction information has the content described above, the parallax information is corrected as shown in FIG. In addition, since the width (range) of the portion where the parallax information is “6 to 12” other than the region where “flower” is present is also expanded, it is possible to avoid that only “flower” unnaturally pops out. Then, based on the corrected disparity information, as described later, according to the disparity information after the intention adaptive correction corresponding to the predetermined unit area, from a signal in each predetermined unit area of the two-dimensional input video signal. A first video signal and a second video signal having a horizontal phase difference are respectively generated.

【0053】図12は、画像特徴量を決定付ける複数の
要素のなかから高周波成分が選ばれ、その重要範囲情報
として「7〜10」が与えられたときの補正処理の流れ
を示した説明図である。高周波成分に関しては、同図
(a)の撮像映像について、同図(d)に示すような各
視差算出領域の高周波成分の積算値の正規化された値が
与えられる。そして、正規化値として「7〜10」の値
を持つ視差算出領域を選び出す。更に、各視差算出領域
の奥行き情報(同図(b)参照)のなかから、前記選び
出された視差算出領域の奥行き情報を取り出し(同図
(e)参照)、この奥行き情報から当該選び出された視
差算出領域の視差情報を求める。この視差情報は、「0
〜12」の範囲にある。そして、「0〜12」を例えば
「0〜18」というように広くし、「12〜30」は狭
くするような補正情報を生成する。この補正情報の例を
グラフ化して示すと、同図(g)のごとくなる。そし
て、同図(c)の視差情報(再正規化回路412からの
出力)は、視差変調部302により、同図(f)のごと
く補正されることになる。
FIG. 12 is an explanatory diagram showing the flow of correction processing when a high-frequency component is selected from a plurality of elements that determine an image feature amount and "7 to 10" is given as important range information. It is. As for the high-frequency component, a normalized value of the integrated value of the high-frequency component in each parallax calculation area as shown in FIG. Then, a parallax calculation area having a value of “7 to 10” is selected as a normalized value. Further, the depth information of the selected parallax calculation area is extracted from the depth information of each parallax calculation area (see FIG. 3B) (see FIG. 3E), and the depth information is selected from the depth information. The parallax information of the obtained parallax calculation area is obtained. This disparity information is “0
1212 ”. Then, correction information is generated such that “0 to 12” is widened, for example, to “0 to 18”, and “12 to 30” is narrowed, for example. A graph of an example of the correction information is as shown in FIG. Then, the disparity information (output from the re-normalization circuit 412) in FIG. 11C is corrected by the disparity modulation unit 302 as shown in FIG.

【0054】図13は、補正情報を合成する場合を示し
た説明図である。この図の例では、図11(g)のグラ
フで示される補正情報と、図12(g)のグラフで示さ
れる補正情報とを合成した補正情報を生成している。そ
して、この合成補正情報に基づいて各視差算出領域の視
差情報に対して意図適応補正を行っている。例えば、或
る感性ワードに対して、画像特徴量を決定付ける要素で
ある輝度、高周波成分、輝度コントラスト、及び彩度の
各々に重要範囲が選定される。このような場合には、各
々の要素ごとに補正情報(補正カーブ)が生成されるの
で、これらを統合して一つの補正情報を生成することと
し、この統合した補正情報に基づいて視差情報を補正す
ることになる。
FIG. 13 is an explanatory diagram showing a case where correction information is synthesized. In the example of this figure, correction information is generated by combining the correction information shown by the graph of FIG. 11G and the correction information shown by the graph of FIG. Then, the intention adaptive correction is performed on the parallax information of each parallax calculation area based on the combined correction information. For example, with respect to a certain sensitivity word, an important range is selected for each of the luminance, high-frequency component, luminance contrast, and saturation, which are elements that determine the image feature amount. In such a case, correction information (correction curve) is generated for each element, so that these are integrated to generate one correction information, and parallax information is generated based on the integrated correction information. It will be corrected.

【0055】図14は、主として、図1の視差制御回路
4および任意画素遅延FIFOの構成を示している。
FIG. 14 mainly shows the configuration of the parallax control circuit 4 and the arbitrary pixel delay FIFO of FIG.

【0056】図14には、任意画素遅延FIFO11〜
13、21〜23のうち、Y信号に対する左映像用任意
画素遅延FIFO11および右映像用任意画素遅延FI
FO21しか示されていないが、他の任意画素遅延FI
FO12、13、22、23も同様な構成でありかつ同
様な制御が行われるので、他の任意画素遅延FIFO1
2、13、22、23の構成および制御方法について
は、その説明を省略する。
FIG. 14 shows an arbitrary pixel delay FIFO 11 to 11.
13, 21 to 23, left image arbitrary pixel delay FIFO 11 and right image arbitrary pixel delay FI for Y signal
Although only FO21 is shown, other arbitrary pixel delays FI
Since the FOs 12, 13, 22, and 23 have the same configuration and perform the same control, the other arbitrary pixel delay FIFO1
A description of the configurations and control methods of 2, 13, 22, and 23 will be omitted.

【0057】ところで、CPU3によって生成された視
差情報は、各視差算出領域E1〜E12の中心位置に対
する視差情報である。視差制御回路4では、各視差算出
領域E1〜E12の中心位置に対する視差情報に基づい
て、1フィールド画面の各画素位置に対する視差情報が
求められる。そして、各画素位置に対する2次元映像信
号から、その画素位置に対する視差情報に応じた視差を
有する左映像と右映像とを生成するために、各画素位置
に対する視差情報に基づいて、左映像用任意画素遅延F
IFO11〜13および右映像用任意画素遅延FIFO
21〜23の読み出しアドレスが制御される。
The disparity information generated by the CPU 3 is disparity information for the center position of each of the disparity calculation areas E1 to E12. The parallax control circuit 4 obtains parallax information for each pixel position on a one-field screen based on the parallax information for the center position of each of the parallax calculation areas E1 to E12. Then, in order to generate a left image and a right image having parallax corresponding to the parallax information for the pixel position from the two-dimensional video signal for each pixel position, an arbitrary left video image is generated based on the parallax information for each pixel position. Pixel delay F
IFO 11-13 and right pixel arbitrary pixel delay FIFO
The read addresses 21 to 23 are controlled.

【0058】1フィールド画面の各画素位置に対する視
差情報は、タイミング信号発生回路51、視差補間係数
発生回路52、視差情報記憶手段60、視差選択回路8
0、第1〜第4乗算器81〜84および加算回路85に
よって、生成される。
The parallax information for each pixel position on the one-field screen is obtained from a timing signal generation circuit 51, a parallax interpolation coefficient generation circuit 52, a parallax information storage means 60, and a parallax selection circuit 8.
0, and is generated by the first to fourth multipliers 81 to 84 and the addition circuit 85.

【0059】入力映像信号の水平同期信号Hsyncお
よび垂直同期信号Vsyncは、タイミング信号発生回
路51に入力している。また、各水平期間の水平アドレ
スを検出するためのクロック信号CLKもタイミング信
号発生回路51に入力している。
The horizontal synchronizing signal Hsync and the vertical synchronizing signal Vsync of the input video signal are input to the timing signal generating circuit 51. Further, a clock signal CLK for detecting a horizontal address in each horizontal period is also input to the timing signal generation circuit 51.

【0060】タイミング信号発生回路51は、水平同期
信号Hsync、垂直同期信号Vsyncおよびクロッ
ク信号CLKに基づいて、入力映像信号の絶対的水平位
置を表す水平アドレス信号HAD、入力映像信号の絶対
的垂直位置を表す垂直アドレス信号VAD、入力映像信
号の相対的水平位置を表す相対的水平位置信号HPOS
および入力映像信号の相対的垂直位置を表す相対的垂直
位置信号VPOSを生成して出力する。
The timing signal generating circuit 51 generates a horizontal address signal HAD indicating an absolute horizontal position of the input video signal, an absolute vertical position of the input video signal based on the horizontal synchronizing signal Hsync, the vertical synchronizing signal Vsync, and the clock signal CLK. And a relative horizontal position signal HPOS representing the relative horizontal position of the input video signal.
And a relative vertical position signal VPOS indicating the relative vertical position of the input video signal is generated and output.

【0061】入力映像信号の相対的水平位置および相対
的垂直位置について説明する。
The relative horizontal position and the relative vertical position of the input video signal will be described.

【0062】図15に示すように、図2の視差算出位置
領域E1〜E12は、次のように設定されている。画面
全体が図15に点線で示すように、4行5列の20個の
領域(以下、第1分割領域という)に分割されている。
そして、左上端の第1分割領域の中心、右上端の第1分
割領域の中心、左下端の第1分割領域の中心および右下
端の第1領域の中心を4頂点とする四角形領域が3行4
列の12個の領域(以下、第2分割領域という)に分割
され、各第2分割領域が視差算出領域E1〜E12とし
て設定されている。
As shown in FIG. 15, the parallax calculation position areas E1 to E12 in FIG. 2 are set as follows. The entire screen is divided into 20 regions of 4 rows and 5 columns (hereinafter, referred to as a first divided region) as indicated by a dotted line in FIG.
Then, three rows of quadrangular areas having four vertices at the center of the first divided area at the upper left corner, the center of the first divided area at the upper right corner, the center of the first divided area at the lower left corner, and the center of the first area at the lower right corner are provided. 4
The column is divided into 12 regions (hereinafter, referred to as second divided regions), and each of the second divided regions is set as parallax calculation regions E1 to E12.

【0063】第1分割領域及び第2分割領域の水平方向
の画素数がmで表され、第1分割領域及び第2分割領域
の垂直方向の画素数がnとして表されている。入力映像
信号の相対的水平位置は、各第1分割領域の左端を0と
し、右端をmとして、0〜(m−1)で表される。入力
映像信号の相対的垂直位置は、各第1分割領域の上端を
0とし、下端をnとして、0〜(n−1)で表される。
The number of pixels in the horizontal direction of the first divided region and the second divided region is represented by m, and the number of pixels in the first divided region and the second divided region in the vertical direction is represented by n. The relative horizontal position of the input video signal is represented by 0 to (m-1), with the left end of each first divided area being 0 and the right end being m. The relative vertical position of the input video signal is represented by 0 to (n-1), with the upper end of each first divided area being 0 and the lower end being n.

【0064】入力映像信号の相対的水平位置信号HPO
Sおよび相対的垂直位置VPOSは、視差補間係数発生
回路52に送られる。視差補間係数発生回路52は、相
対的水平位置信号HPOS、相対的垂直位置VPOSお
よび次の数式に基づいて、第1視差補間係数KUL、第
2視差補間係数KUR、第3視差補間係数KDLおよび
第4視差補間係数KDRを生成して出力する。
The relative horizontal position signal HPO of the input video signal
S and the relative vertical position VPOS are sent to the parallax interpolation coefficient generation circuit 52. The parallax interpolation coefficient generation circuit 52 generates a first parallax interpolation coefficient KUL, a second parallax interpolation coefficient KUR, a third parallax interpolation coefficient KDL, and a third parallax interpolation coefficient KUL based on the relative horizontal position signal HPOS, the relative vertical position VPOS, and the following equation. A four-parallax interpolation coefficient KDR is generated and output.

【0065】[0065]

【数2】 KUL=(m−HPOS)/m*(n−VPOS)/n KUR=HPOS/m*(n−VPOS)/n KDL=(m−HPOS)/m*VPOS/n KDL=HPOS)/m*VPOS/nKUL = (m-HPOS) / m * (n-VPOS) / n KUR = HPOS / m * (n-VPOS) / n KDL = (m-HPOS) / m * VPOS / n KDL = HPOS ) / M * VPOS / n

【0066】1フィールド画面の各画素位置に対する視
差情報を生成する方法の基本的な考え方について、図1
6を用いて説明する。水平アドレス信号HADおよび垂
直アドレス信号VADによって表されている水平垂直位
置(以下、注目位置という)が図16のPxyであると
する。注目位置Pxyに対する視差情報を求める場合に
ついて説明する。
FIG. 1 shows the basic concept of a method of generating parallax information for each pixel position on a one-field screen.
6 will be described. It is assumed that the horizontal / vertical position (hereinafter, referred to as a target position) represented by the horizontal address signal HAD and the vertical address signal VAD is Pxy in FIG. A case where parallax information for the target position Pxy is obtained will be described.

【0067】(1)まず、CPU3によって算出された
各視差算出領域E1〜E12に対する視差情報のうちか
ら、注目位置Pxyが含まれる第1分割領域の4頂点、
この例ではPE1、PE2、PE5、PE6を中心とす
る視差算出領域E1、E2、E5、E6に対する視差情
報が、それぞれUL、UR、DL、DRとして抽出され
る。つまり、注目位置Pxyが含まれる第1分割領域の
4頂点のうち、左上の頂点を中心とする領域E1の視差
情報が第1視差情報ULとして、右上の頂点を中心とす
る領域E2の視差情報が第2視差情報URとして、左下
の頂点を中心とする領域E5の視差情報が第3視差情報
DLとして、右下の頂点を中心とする領域E6の視差情
報が第4視差情報DRとして抽出される。
(1) First, from among the parallax information for each of the parallax calculation areas E1 to E12 calculated by the CPU 3, four vertices of the first divided area including the target position Pxy,
In this example, disparity information for the disparity calculation areas E1, E2, E5, and E6 centered on PE1, PE2, PE5, and PE6 is extracted as UL, UR, DL, and DR, respectively. That is, of the four vertices of the first divided region including the target position Pxy, the disparity information of the region E1 centered on the upper left vertex is the first disparity information UL, and the disparity information of the region E2 centered on the upper right vertex is UL. Is extracted as the second disparity information UR, the disparity information of the region E5 centered on the lower left vertex is extracted as the third disparity information DL, and the disparity information of the region E6 centered on the lower right vertex is extracted as the fourth disparity information DR. You.

【0068】ただし、注目位置が含まれる第1分割領域
が、左上端の第1分割領域である場合のように、注目位
置が含まれる第1分割領域の4頂点のうち1つの頂点の
みが視差検出領域の中心に該当するような場合には、そ
の視差算出領域の視差情報が、第1〜第4の視差情報U
L、UR、DL、DRとして抽出される。
However, only one vertex of the four vertices of the first divided region including the target position is disparity, as in the case where the first divided region including the target position is the first upper left divided region. If the parallax information corresponds to the center of the detection area, the parallax information of the parallax calculation area is the first to fourth parallax information U
Extracted as L, UR, DL, DR.

【0069】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の右隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち下側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち上側の2つの頂点に対応する視差情
報UL、URとしては、その下側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Also, as in the case where the first divided region including the target position is the first divided region to the right of the first divided region at the upper left end, four vertices of the first divided region including the target position are used. If only the lower two vertices of the first divided area correspond to the center of the parallax calculation area, the parallax information UL corresponding to the upper two vertices of the four vertices of the first divided area including the target position, As the UR, parallax information of a parallax calculation area centered on the lower vertex is extracted.

【0070】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の下隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち右側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち左側の2つの頂点に対応する視差情
報UL、DLとしては、その右側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Also, as in the case where the first divided region including the target position is the first divided region below the first divided region at the upper left end, the four vertices of the first divided region including the target position are used. Among the four vertices of the first divided area including the position of interest, only the two vertices on the right correspond to the center of the parallax calculation area. , The parallax information of the parallax calculation area centered on the right vertex is extracted.

【0071】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の左隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち上側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち下側の2つの頂点に対応する視差情
報DL、DRとしては、その上側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Also, as in the case where the first divided region including the target position is the first divided region to the left of the first lower right divided region, the four vertices of the first divided region including the target position are used. If only the upper two vertices of the first divisional area correspond to the center of the parallax calculation area, the parallax information DL corresponding to the lower two vertices of the four vertices of the first divided area including the target position, As DR, parallax information of a parallax calculation area centered on the upper vertex is extracted.

【0072】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の上隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち左側の2つの頂点のみが視差算出領域の中心に
該当するような場合には、注目位置が含まれる第1分割
領域の4頂点のうち右側の2つの頂点に対応する視差情
報UR、DRとしては、その左側の頂点を中心とする視
差算出領域の視差情報が抽出される。
Further, as in the case where the first divided region including the target position is the first divided region above the first divided region at the lower right, four vertices of the first divided region including the target position are used. Among the four vertices of the first divided area including the target position, only the two vertexes on the left side of the parallax calculation area correspond to the center of the parallax calculation area. , The parallax information of the parallax calculation area centered on the left vertex is extracted.

【0073】(2)次に、第1〜第4の視差補間係数K
UL、KUR、KDLおよびKDRが求められる。
(2) Next, the first to fourth parallax interpolation coefficients K
UL, KUR, KDL and KDR are required.

【0074】第1の視差補間係数KULは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの下辺までの距離ΔYDとの比{(n−VPO
S)/n}との積によって求められる。すなわち、第1
の視差補間係数KULは、注目位置Pxyを含む第1分
割領域eの左上頂点PE1と注目位置Pxyとの距離が
小さいほど大きくなる。
The first parallax interpolation coefficient KUL is determined by the target position P
xy, the distance ΔX from the target position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy
R and the ratio {(m-HPOS) / m} to the first divided region e
の (n−VPO) of the vertical width n to the distance ΔYD from the target position Pxy to the lower side of the first divided region e.
S) / n}. That is, the first
Is larger as the distance between the upper left vertex PE1 of the first divided area e including the target position Pxy and the target position Pxy is smaller.

【0075】第2の視差補間係数KURは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m)と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
下辺までの距離ΔYDとの比{(n−VPOS)/n}
との積によって求められる。すなわち、第2の視差補間
係数KURは、注目位置Pxyを含む第1分割領域eの
右上頂点PE2と注目位置Pxyとの距離が小さいほど
大きくなる。
The second parallax interpolation coefficient KUR is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e
L (HPOS / m) and the ratio {(n−VPOS) / n} of the distance ΔYD from the target position Pxy to the lower side of the first divided region e with respect to the vertical width n of the first divided region e.
And the product of That is, the second parallax interpolation coefficient KUR increases as the distance between the upper right vertex PE2 of the first divided region e including the target position Pxy and the target position Pxy decreases.

【0076】第3の視差補間係数KDLは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの上辺までの距離ΔYUとの比(VPOS/n)
との積によって求められる。すなわち、第3の視差補間
係数KDLは、注目位置Pxyを含む第1分割領域eの
左下頂点PE5と注目位置Pxyとの距離が小さいほど
大きくなる。
The third parallax interpolation coefficient KDL is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the right side of the first divided area e with respect to the horizontal width m of the first divided area e including xy
R and the ratio {(m-HPOS) / m} to the first divided region e
(VPOS / n) of the distance ΔYU from the target position Pxy to the upper side of the first divided area e with respect to the vertical width n of
And the product of That is, the third parallax interpolation coefficient KDL increases as the distance between the lower left vertex PE5 of the first divided region e including the target position Pxy and the target position Pxy decreases.

【0077】第4の視差補間係数KDRは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m)と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
上辺までの距離ΔYUとの比(VPOS/n)との積に
よって求められる。すなわち、第4の視差補間係数KD
Rは、注目位置Pxyを含む第1分割領域eの右下頂点
PE6と注目位置Pxyとの距離が小さいほど大きくな
る。
The fourth parallax interpolation coefficient KDR is calculated based on the target position P
xy, the distance ΔX from the target position Pxy to the left side of the first divided region e with respect to the horizontal width m of the first divided region e
L and the ratio (VPOS / n) of the vertical width n of the first divided area e to the distance ΔYU from the target position Pxy to the upper side of the first divided area e. Desired. That is, the fourth parallax interpolation coefficient KD
R increases as the distance between the lower right vertex PE6 of the first divided area e including the target position Pxy and the target position Pxy decreases.

【0078】(3)上記(1)で抽出された第1から第
4の視差情報UL、UR、DL、DRに、それぞれ上記
(2)で算出された第1から第4の視差補間係数KU
L、KUR、KDL、KDRがそれぞれ乗算される。そ
して、得られた4つの乗算値が加算されることにより、
注目位置Pxyに対する視差情報が生成される。
(3) The first to fourth disparity interpolation coefficients KU calculated in (2) are respectively added to the first to fourth disparity information UL, UR, DL, DR extracted in (1).
L, KUR, KDL, and KDR are respectively multiplied. Then, by adding the obtained four multiplication values,
Parallax information for the target position Pxy is generated.

【0079】視差情報記憶手段60は、領域E1〜E1
2にそれぞれ対応して設けられた第1〜第12の視差レ
ジスタ61〜72を備えている。第1〜第12の視差レ
ジスタ61〜72には、CPU3によって生成された各
領域E1〜E12に対する視差情報が格納される。
The parallax information storage means 60 stores the areas E1 to E1.
2 are provided with first to twelfth parallax registers 61 to 72 provided correspondingly to the two. The first to twelfth disparity registers 61 to 72 store disparity information for each of the regions E1 to E12 generated by the CPU 3.

【0080】視差情報記憶手段60の後段には、視差選
択回路80が設けられている。視差選択回路80には、
各視差レジスタ61〜72から視差情報がそれぞれ送ら
れる。さらに、視差選択回路80には、タイミング信号
発生回路51から水平アドレス信号HADおよび垂直ア
ドレス信号VADが送られている。
At the subsequent stage of the parallax information storage means 60, a parallax selection circuit 80 is provided. In the parallax selection circuit 80,
Parallax information is sent from each of the parallax registers 61 to 72. Further, the horizontal address signal HAD and the vertical address signal VAD are sent from the timing signal generation circuit 51 to the parallax selection circuit 80.

【0081】視差選択回路80は、図17(a)に示さ
れている規則に従って、水平アドレス信号HADおよび
垂直アドレス信号VADに対応する領域(図16の例で
は、注目信号を含む第1領域の左上頂点を中心とする視
差算出領域)に対する視差情報を、第1視差情報ULと
して選択して出力する。さらに、視差選択回路80は、
図17(b)に示されている規則に従って、水平アドレ
ス信号HADおよび垂直アドレス信号VADに対応する
領域(図16の例では、注目位置を含む第1領域の右上
頂点を中心とする視差算出領域)に対する視差情報を、
第2視差情報URとして選択して出力する。
In accordance with the rule shown in FIG. 17A, the parallax selecting circuit 80 determines the area corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 16, the first area including the signal of interest). The disparity information for the disparity calculation area centered on the upper left vertex is selected and output as first disparity information UL. Further, the parallax selection circuit 80
According to the rule shown in FIG. 17B, a region corresponding to the horizontal address signal HAD and the vertical address signal VAD (in the example of FIG. 16, a parallax calculation region centered on the upper right vertex of the first region including the target position) ),
It is selected and output as the second parallax information UR.

【0082】さらに、視差選択回路80は、図17
(c)に示されている規則に従って、水平アドレス信号
HADおよび垂直アドレス信号VADに対応する領域
(図16の例では、注目位置を含む第1領域の左下頂点
を中心とする視差算出領域)に対する視差情報を、第3
視差情報DLとして選択して出力する。さらに、視差選
択回路80は、図17(d)に示されている規則に従っ
て、水平アドレス信号HADおよび垂直アドレス信号V
ADに対応する領域(図16の例では、注目位置を含む
第1の領域の右下頂点を中心とする視差算出領域)に対
する視差情報を、第4視差情報DRとして選択して出力
する。図17において、例えば、0〜mのように、a〜
bで表現されている記号”〜”は、a以上b未満を意味
する記号として用いられている。
Further, the parallax selecting circuit 80 is provided in FIG.
According to the rule shown in (c), a region corresponding to the horizontal address signal HAD and the vertical address signal VAD (a parallax calculation region centered on the lower left vertex of the first region including the target position in the example of FIG. 16). Parallax information is
Select and output as parallax information DL. Further, the parallax selecting circuit 80 applies the horizontal address signal HAD and the vertical address signal V in accordance with the rule shown in FIG.
The disparity information for the region corresponding to AD (in the example of FIG. 16, the disparity calculation region centered on the lower right vertex of the first region including the target position) is selected and output as the fourth disparity information DR. In FIG. 17, for example, a to
The symbol "~" represented by b is used as a symbol meaning a or more and less than b.

【0083】視差選択回路80によって選択された第1
視差情報UL、第2視差情報UR、第3視差情報DLお
よび第4視差情報DRは、それぞれ第1、第2、第3お
よび第4の乗算器81、82、83、84に入力する。
The first selected by the parallax selection circuit 80
The disparity information UL, the second disparity information UR, the third disparity information DL, and the fourth disparity information DR are input to first, second, third, and fourth multipliers 81, 82, 83, 84, respectively.

【0084】第1、第2、第3および第4の乗算器8
1、82、83、84には、それぞれ視差補間係数発生
回路52からの第1視差補間係数KUL、第2視差補間
係数KUR、第3視差補間係数KDLおよび第4視差補
間係数KDRも入力している。
First, second, third and fourth multipliers 8
1, 82, 83, and 84 also receive the first parallax interpolation coefficient KUL, the second parallax interpolation coefficient KUR, the third parallax interpolation coefficient KDL, and the fourth parallax interpolation coefficient KDR from the parallax interpolation coefficient generation circuit 52, respectively. I have.

【0085】第1乗算器81は、第1視差情報ULに第
1視差補間係数KULを乗算する。第2乗算器82は、
第2視差情報URに第2視差補間係数KURを乗算す
る。第3乗算器83は、第3視差情報DLに第3視差補
間係数KDLを乗算する。第4乗算器84は、第4視差
情報DRに第4視差補間係数KDRを乗算する。
The first multiplier 81 multiplies the first disparity information UL by a first disparity interpolation coefficient KUL. The second multiplier 82
The second parallax information UR is multiplied by a second parallax interpolation coefficient KUR. The third multiplier 83 multiplies the third disparity information DL by a third disparity interpolation coefficient KDL. The fourth multiplier 84 multiplies the fourth disparity information DR by a fourth disparity interpolation coefficient KDR.

【0086】各乗算器81、82、83、84の出力
は、加算回路85によって加算される。これにより、注
目位置に対する視差情報PRが得られる。
The outputs of the multipliers 81, 82, 83 and 84 are added by an adder 85. Thereby, the disparity information PR for the target position is obtained.

【0087】各任意画素遅延FIFO11、21は、1
画素より小さい単位での水平位相制御を行うために、そ
れぞれ2つのラインメモリ11a、11b、21a、2
1bを備えている。各任意画素遅延FIFO11、21
内の2つのラインメモリ11a、11b、21a、21
bには、それぞれY信号が入力されていると共にクロッ
ク信号CLKが入力されている。
Each of the arbitrary pixel delay FIFOs 11 and 21 is 1
In order to perform horizontal phase control in units smaller than pixels, two line memories 11a, 11b, 21a,
1b. Each arbitrary pixel delay FIFO11, 21
Of the two line memories 11a, 11b, 21a, 21
In b, the Y signal is input and the clock signal CLK is input.

【0088】タイミング信号発生回路51から出力され
ている水平アドレス信号HADは、標準アドレス発生回
路90にも入力している。標準アドレス発生回路90
は、各任意画素遅延FIFO11、21内の2つのライ
ンメモリ11a、11b、21a、21bに対する標準
書き込みアドレスWADおよび標準読み出しアドレスR
ADを生成して出力する。また、標準アドレス発生回路
90は、2D/3D変換装置によって得られる左映像信
号および右映像信号に付加される同期信号Csyncを
も出力する。この同期信号Csyncによって表される
水平同期信号は、入力映像信号の水平同期信号Hsyn
cより、所定クロック数分遅れた信号となる。
The horizontal address signal HAD output from the timing signal generation circuit 51 is also input to the standard address generation circuit 90. Standard address generation circuit 90
Is a standard write address WAD and a standard read address R for the two line memories 11a, 11b, 21a, 21b in each of the arbitrary pixel delay FIFOs 11, 21.
Generate and output AD. Further, the standard address generation circuit 90 also outputs a synchronization signal Csync added to the left video signal and the right video signal obtained by the 2D / 3D converter. The horizontal synchronization signal represented by the synchronization signal Csync is a horizontal synchronization signal Hsync of the input video signal.
The signal is delayed by a predetermined number of clocks from c.

【0089】標準読み出しアドレスRADは、標準読み
出しアドレスによって規定される基準水平位相に対し
て、各任意画素遅延FIFO11、21に入力される映
像信号の水平位相を進めたり遅らしたりできるようにす
るために、標準書き込みアドレスWADに対して、所定
クロック数分遅れている。標準アドレス発生回路90か
ら出力される標準書き込みアドレスWADは、各任意画
素遅延FIFO11、21内の2つのラインメモリ11
a、11b、21a、21bに、書き込みアドレスを示
す書き込み制御信号として入力する。
The standard read address RAD is used to advance or delay the horizontal phase of the video signal input to each of the arbitrary pixel delay FIFOs 11 and 21 with respect to the reference horizontal phase defined by the standard read address. In addition, it is delayed by a predetermined number of clocks from the standard write address WAD. The standard write address WAD output from the standard address generation circuit 90 is stored in the two line memories 11 in each of the arbitrary pixel delay FIFOs 11 and 21.
a, 11b, 21a, and 21b are input as write control signals indicating write addresses.

【0090】標準アドレス発生回路90から出力される
標準読み出しアドレスRADは、加算器91および減算
器92にそれぞれ入力する。加算器91および減算器9
2には、加算回路85から出力される注目位置の視差情
報PRも入力している。
The standard read address RAD output from the standard address generation circuit 90 is input to an adder 91 and a subtractor 92, respectively. Adder 91 and subtractor 9
2, the parallax information PR of the target position output from the adding circuit 85 is also input.

【0091】加算器91では、標準読み出しアドレスR
ADに視差情報PRが加算される。これにより、左映像
用読み出しアドレスPRLが得られる。
In the adder 91, the standard read address R
The disparity information PR is added to AD. As a result, the left video read address PRL is obtained.

【0092】左映像用読み出しアドレスPRLの整数部
PRL1は、左映像用任意画素遅延FIFO11内の第
1のラインメモリ11aに読み出しアドレスRADL1
として入力する。したがって、第1のラインメモリ11
aのアドレスRADL1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の左映像
用乗算器101に入力する。
The integer part PRL1 of the left video read address PRL is stored in the first line memory 11a in the left video arbitrary pixel delay FIFO 11 in the read address RADL1.
Enter as Therefore, the first line memory 11
The Y signal is read from the address corresponding to the address RADL1 of a. The read Y signal is input to the first left video multiplier 101.

【0093】左映像用読み出しアドレスPRLの整数部
PRL1に1が加算されたアドレス値は、左映像用任意
画素遅延FIFO11内の第2のラインメモリ11bに
読み出しアドレスRADL2として入力する。したがっ
て、第2のラインメモリ11bのアドレスRADL2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の左映像用乗算器102に入力す
る。
The address value obtained by adding 1 to the integer part PRL1 of the left video read address PRL is input to the second line memory 11b in the left video arbitrary pixel delay FIFO 11 as the read address RADL2. Therefore, the Y signal is read from the address corresponding to the address RADL2 of the second line memory 11b. The read Y signal is input to the second left video multiplier 102.

【0094】第1のラインメモリ11aに対する読み出
しアドレスRADL1と、第2のラインメモリ11bに
対する読み出しアドレスRADL2とは、1だけ異なっ
ているので、第1のラインメモリ11aから読み出され
たY信号と、第2のラインメモリ11bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
The read address RADL1 for the first line memory 11a is different from the read address RADL2 for the second line memory 11b by one, so that the Y signal read from the first line memory 11a The Y signal read from the second line memory 11b is a signal whose horizontal position is shifted by one.

【0095】左映像用読み出しアドレスPRLの小数部
PRL2は、第2の左映像補間係数として第2の左映像
用乗算器102に入力する。左映像用読み出しアドレス
PRLの小数部PRL2を1から減算した値(1−PR
L2)は、第1の左映像補間係数として第1の左映像用
乗算器101に入力する。
The decimal part PRL2 of the left video read address PRL is input to the second left video multiplier 102 as a second left video interpolation coefficient. A value obtained by subtracting the decimal part PRL2 of the read address PRL for the left image from 1 (1-PR
L2) is input to the first left video multiplier 101 as a first left video interpolation coefficient.

【0096】したがって、第1の左映像用乗算器101
では、第1のラインメモリ11aから読み出されたY信
号に第1の左映像補間係数(1−PRL2)が乗算され
る。第2の左映像用乗算器102では、第2のラインメ
モリ11bから読み出されたY信号に第2の左映像用補
間係数PRL2が乗算される。そして、各乗算器10
1、102によって得られたY信号は加算器103で加
算された後、左映像用Y信号YL−OUTとして、出力
される。
Therefore, the first left video multiplier 101
Then, the Y signal read from the first line memory 11a is multiplied by a first left video interpolation coefficient (1-PRL2). The second left video multiplier 102 multiplies the Y signal read from the second line memory 11b by the second left video interpolation coefficient PRL2. Then, each multiplier 10
The Y signals obtained by 1 and 102 are added by an adder 103, and then output as a left video Y signal YL-OUT.

【0097】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ遅れた左映
像用Y信号が得られる。
Thus, the standard read address RAD
With respect to the reference horizontal phase defined by the above, a left image Y signal whose horizontal phase amount is delayed by an amount corresponding to the parallax information for the target position is obtained.

【0098】減算器92では、標準読み出しアドレスR
ADから視差情報PRが減算される。これにより、右映
像用読み出しアドレスPRRが得られる。
In the subtractor 92, the standard read address R
The disparity information PR is subtracted from AD. As a result, the right video read address PRR is obtained.

【0099】右映像用読み出しアドレスPRRの整数部
PRR1は、右映像用任意画素遅延FIFO21内の第
1ラインメモリ21aに読み出しアドレスRADR1と
して入力する。したがって、第1のラインメモリ21a
のアドレスRADR1に対応するアドレスからY信号が
読み出される。読み出されたY信号は、第1の右映像用
乗算器111に入力する。
The integer part PRR1 of the read address PRR for the right image is inputted as the read address RADR1 to the first line memory 21a in the arbitrary pixel delay FIFO 21 for the right image. Therefore, the first line memory 21a
Is read from the address corresponding to the address RADR1. The read Y signal is input to the first right video multiplier 111.

【0100】右映像用読み出しアドレスPRRの整数部
PRR1に1が加算されたアドレス値は、右映像用任意
画素遅延FIFO21内の第2のラインメモリ21bに
読み出しアドレスRADR2として入力する。したがっ
て、第2のラインメモリ21bのアドレスRADR2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の右映像用乗算器112に入力す
る。
The address value obtained by adding 1 to the integer part PRR1 of the right video read address PRR is input to the second line memory 21b in the right video arbitrary pixel delay FIFO 21 as the read address RADR2. Therefore, the Y signal is read from the address corresponding to the address RADR2 of the second line memory 21b. The read Y signal is input to the second right video multiplier 112.

【0101】第1のラインメモリ21aに対する読み出
しアドレスRADR1と、第2のラインメモリ21bに
対する読み出しアドレスRADR2とは、1だけ異なっ
ているので、第1のラインメモリ21aから読み出され
たY信号と、第2のラインメモリ21bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
The read address RADR1 for the first line memory 21a is different from the read address RADR2 for the second line memory 21b by one, so that the Y signal read from the first line memory 21a is The Y signal read from the second line memory 21b is a signal whose horizontal position is shifted by one.

【0102】右映像用読み出しアドレスPRRの小数部
PRR2は、第2の右映像補間係数として第2の右映像
用乗算器112に入力する。右映像用読み出しアドレス
PRRの小数部PRR2を1から減算した値(1−PR
R2)は、第1の右映像補間係数として第1の右映像用
乗算器111に入力する。
The fractional part PRR2 of the read address PRR for the right image is input to the second right image multiplier 112 as a second right image interpolation coefficient. A value obtained by subtracting the decimal part PRR2 of the read address PRR for the right image from 1 (1-PR
R2) is input to the first right image multiplier 111 as a first right image interpolation coefficient.

【0103】したがって、第1の右映像用乗算器111
では、第1のラインメモリ21aから読み出されたY信
号に第1の右映像補間係数(1−PRR2)が乗算され
る。第2の右映像用乗算器112では、第2のラインメ
モリ21bから読み出されたY信号に第2の右映像補間
係数PPR2が乗算される。そして、各乗算器111、
112によって得られたY信号は加算器113で加算さ
れた後、右映像用Y信号YR−OUTとして、出力され
る。
Therefore, the first right video multiplier 111
Then, the Y signal read from the first line memory 21a is multiplied by a first right video interpolation coefficient (1-PRR2). In the second right video multiplier 112, the Y signal read from the second line memory 21b is multiplied by a second right video interpolation coefficient PPR2. Then, each multiplier 111,
The Y signal obtained by 112 is added by the adder 113 and then output as a right video Y signal YR-OUT.

【0104】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ進んだ右映
像用Y信号が得られる。
Thus, the standard read address RAD
With respect to the reference horizontal phase defined by the above, a Y signal for right video is obtained in which the horizontal phase amount is advanced by an amount corresponding to the parallax information for the target position.

【0105】図18は、注目位置に対する視差情報が0
の場合の、各部の信号を示している。
FIG. 18 shows that the parallax information for the target position is 0.
3 shows the signals of the respective units.

【0106】視差情報が0の場合には、加算器91から
出力される左映像用読み出しアドレスPRLと、減算器
92から出力される右映像用読み出しアドレスPPR
は、ともに標準読み出しアドレスRADと等しい小数部
のない整数部のみからなるアドレスとなる。
If the disparity information is 0, the left video read address PRL output from the adder 91 and the right video read address PPR output from the subtractor 92 are output.
Is an address consisting of only an integer part without a decimal part equal to the standard read address RAD.

【0107】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1と、右映像用任意画素遅延FIFO
21内の第1のラインメモリ21aに対する読み出しア
ドレスRADR1は、標準読み出しアドレスRADと等
しいアドレスとなる。
Therefore, an arbitrary pixel delay FIF for left video
Read address RADL1 for the first line memory 11a in O11 and right image arbitrary pixel delay FIFO
The read address RADR1 for the first line memory 21a in the memory 21 is equal to the standard read address RAD.

【0108】また、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bに対する読み出しアドレ
スRADL2と、右映像用任意画素遅延FIFO21内
の第2のラインメモリ21bに対する読み出しアドレス
RADR2は、標準読み出しアドレスRADより1だけ
大きい値となる。
Further, a left image arbitrary pixel delay FIFO 11
The read address RADL2 for the second line memory 11b in the first and the read address RADR2 for the second line memory 21b in the right image arbitrary pixel delay FIFO 21 have a value that is one greater than the standard read address RAD.

【0109】また、第1の左映像補間係数(1−PRL
2)および第1の右映像補間係数(1−PRR2)は1
となり、第2の左映像補間係数PRL2および第2の右
映像補間係数PRR2は0となる。
The first left image interpolation coefficient (1-PRL)
2) and the first right video interpolation coefficient (1-PRR2) are 1
And the second left video interpolation coefficient PRL2 and the second right video interpolation coefficient PRR2 become zero.

【0110】この結果、左映像用任意画素遅延FIFO
11内の第1のラインメモリ11aの標準アドレスRA
Dに対応するアドレスから読み出されたY信号が加算器
103から左映像用Y信号YL−OUTとして出力さ
れ、右映像用任意画素遅延FIFO21内の第1のライ
ンメモリ21aの標準アドレスRADに対応するアドレ
スから読み出されたY信号が加算器113から右映像用
Y信号YR−OUTとして出力される。つまり、水平方
向の位相ずれ量が同じ2つのY信号、即ち視差のない2
つのY信号が左映像用Y信号および右映像用Y信号とし
て出力される。
As a result, the left image arbitrary pixel delay FIFO
11, the standard address RA of the first line memory 11a
The Y signal read from the address corresponding to D is output from the adder 103 as the left video Y signal YL-OUT, and corresponds to the standard address RAD of the first line memory 21a in the right video arbitrary pixel delay FIFO 21. The Y signal read from the address to be output is output from the adder 113 as a right video Y signal YR-OUT. That is, two Y signals having the same horizontal phase shift amount, that is, two Y signals having no parallax.
The two Y signals are output as a left video Y signal and a right video Y signal.

【0111】図19は、ある注目位置に対する標準書き
込みアドレスWADが20であり、上記注目位置に対す
る標準読み出しアドレスRADが10であり、上記注目
位置に対する視差情報が1.2の場合の、各アドレス値
の具体例を示している。図20は、その際の各部の信号
を示している。
FIG. 19 shows each address value when the standard write address WAD for a certain target position is 20, the standard read address RAD for the target position is 10, and the disparity information for the target position is 1.2. Is shown. FIG. 20 shows the signals of the respective units at that time.

【0112】この場合には、加算器91から出力される
左映像用読み出しアドレスPRLは、11.2となり、
その整数部PRL1は11となり、その小数部PRL2
は0.2となる。
In this case, the left video read address PRL output from the adder 91 is 11.2,
Its integer part PRL1 becomes 11, and its decimal part PRL2
Is 0.2.

【0113】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1は11となり、第2のラインメモリ
11bに対する読み出しアドレスRADL2は12とな
る。また、第1の左映像補間係数KL1{=(1−PR
L2)}は0.8となり、第2の左映像補間係数KL2
(=PRL2)は0.2となる。
Therefore, the left image arbitrary pixel delay FIF
The read address RADL1 for the first line memory 11a in O11 is 11, and the read address RADL2 for the second line memory 11b is 12. Further, the first left video interpolation coefficient KL1 {= (1-PR
L2)} is 0.8, and the second left image interpolation coefficient KL2
(= PRL2) is 0.2.

【0114】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aのアドレス11か
らY信号(Y11)が読み出され、第1乗算器101から
は読み出されたY信号(Y11)の0.8倍の信号(0.
8*Y11)が出力される。
Accordingly, the left image arbitrary pixel delay FIF
The Y signal (Y 11 ) is read from the address 11 of the first line memory 11 a in O 11, and a signal (0) that is 0.8 times the read Y signal (Y 11 ) is read from the first multiplier 101. .
8 * Y 11 ) is output.

【0115】一方、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bのアドレス12からY信
号(Y12)が読み出され、第2乗算器102からは読み
出されたY信号(Y12)の0.2倍の信号(0.2*Y
12)が出力される。そして、加算器103からは、0.
8*Y11+0.2*Y12に相当する左映像用Y信号YL
−OUTが出力される。つまり、読み出しアドレス1
1.2に相当するY信号が、左映像用Y信号YL−OU
Tとして出力される。
On the other hand, a left image arbitrary pixel delay FIFO 11
, The Y signal (Y 12 ) is read from the address 12 of the second line memory 11 b, and the signal (0...) Which is 0.2 times the Y signal (Y 12 ) read from the second multiplier 102. 2 * Y
12 ) is output. Then, from the adder 103, 0.
Y signal YL for left image corresponding to 8 * Y 11 + 0.2 * Y 12
−OUT is output. That is, read address 1
The Y signal corresponding to 1.2 is a left video Y signal YL-OU.
Output as T.

【0116】減算器92から出力される右映像用読み出
しアドレスPRRは、8.8となり、その整数部PRR
1は8となり、その小数部PRR2は0.8となる。
The right video read address PRR output from the subtractor 92 is 8.8, and its integer part PRR
1 becomes 8, and the decimal part PRR2 becomes 0.8.

【0117】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aに対する読み出し
アドレスRADR1は8となり、第2のラインメモリ2
1bに対する読み出しアドレスRADR2は9となる。
また、第1の右映像補間係数KR1{=(1ーPRR
2)}は0.2となり、第2の右映像補間係数KR2
(=PRR2)は0.8となる。
Therefore, the right picture arbitrary pixel delay FIF
The read address RADR1 for the first line memory 21a in O21 becomes 8, and the second line memory 2a
The read address RADR2 for 1b is 9.
Also, the first right video interpolation coefficient KR1 {= (1−PRR)
2) と な り is 0.2, and the second right video interpolation coefficient KR2
(= PRR2) is 0.8.

【0118】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aのアドレス8から
Y信号(Y8 )が読み出され、第1乗算器111からは
読み出されたY信号(Y8 )の0.2倍の信号(0.2
*Y8 )が出力される。
Therefore, the arbitrary pixel delay FIF for the right image
Y signal (Y 8) is read from the first line memory 21a of the address 8 in O21, 0.2 times the signal of the Y signal read out from the first multiplier 111 (Y 8) (0 .2
* Y 8 ) is output.

【0119】一方、右映像用任意画素遅延FIFO21
内の第2のラインメモリ21bのアドレス9からY信号
(Y9 )が読み出され、第2乗算器112からは読み出
されたY信号(Y9 )の0.8倍の信号(0.8*
9 )が出力される。そして、加算器113からは、
0.2*Y8 +0.8*Y9 に相当する右映像用Y信号
YR−OUTが出力される。つまり、読み出しアドレス
8.8に相当するY信号が、右映像用Y信号YR−OU
Tとして出力される。
On the other hand, a right image arbitrary pixel delay FIFO 21
, The Y signal (Y 9 ) is read from the address 9 of the second line memory 21 b, and the signal (0...) 0.8 times the read Y signal (Y 9 ) from the second multiplier 112. 8 *
Y 9 ) is output. Then, from the adder 113,
A right video Y signal YR-OUT corresponding to 0.2 * Y 8 + 0.8 * Y 9 is output. In other words, the Y signal corresponding to the read address 8.8 is the right video Y signal YR-OU.
Output as T.

【0120】この結果、11.2−8.8=2.4の視
差、つまり、視差情報1.2の2倍の視差を互いに有す
る左映像および右映像が得られる。
As a result, a left image and a right image having a disparity of 11.2−8.8 = 2.4, that is, a disparity twice as large as the disparity information 1.2 are obtained.

【0121】[0121]

【発明の効果】以上説明したように、この発明によれ
ば、入力した感性ワードに応じて撮像画面内の人物や物
体のうちの特定の感覚の立体感が強調されることにな
り、撮影者或いは編集者の意図に応じた3次元映像を得
ることができるという効果を奏する。
As described above, according to the present invention, the three-dimensional effect of a specific sensation of a person or an object in an imaging screen is emphasized in accordance with an input sensibility word. Alternatively, it is possible to obtain a three-dimensional image according to the editor's intention.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態の意図適応型の2次元映
像を3次元映像に変換する装置を示すブロック図であ
る。
FIG. 1 is a block diagram showing an apparatus for converting an intention-adaptive two-dimensional image into a three-dimensional image according to an embodiment of the present invention.

【図2】視差算出領域を示す模式図である。FIG. 2 is a schematic diagram illustrating a parallax calculation area.

【図3】図1のCPUの詳細を示すブロック図である。FIG. 3 is a block diagram illustrating details of a CPU in FIG. 1;

【図4】図3の正規化手段410の入出力関係を示すグ
ラフである。
FIG. 4 is a graph showing an input / output relationship of a normalization unit 410 of FIG.

【図5】実際に設定される視差算出領域を示す模式図で
ある。
FIG. 5 is a schematic diagram showing a parallax calculation area actually set.

【図6】奥行き補正前における各視差算出領域の奥行き
情報の一例を示す模式図である。
FIG. 6 is a schematic diagram illustrating an example of depth information of each parallax calculation area before depth correction.

【図7】奥行き補正後における各視差算出領域の奥行き
情報を示す模式図である。
FIG. 7 is a schematic diagram illustrating depth information of each parallax calculation area after depth correction.

【図8】奥行き補正前における画面の高さ位置に対する
奥行き情報との関係および奥行き補正後における画面の
高さ位置に対する奥行き情報との関係を示すグラフであ
る。
FIG. 8 is a graph showing a relationship between a height position of a screen before depth correction and depth information and a relationship between a height position of a screen after depth correction and depth information.

【図9】奥行き情報と視差情報との関係を示すグラフで
ある。
FIG. 9 is a graph showing a relationship between depth information and disparity information.

【図10】感性ワードおよびその影響度の選択に関する
説明図である。
FIG. 10 is an explanatory diagram regarding selection of a sensitivity word and its influence degree.

【図11】彩度に基づく視差情報の意図適応補正を示す
説明図である。
FIG. 11 is an explanatory diagram showing intention adaptation correction of disparity information based on saturation.

【図12】高周波成分に基づく視差情報の意図適応補正
を示す説明図である。
FIG. 12 is an explanatory diagram illustrating intention adaptive correction of disparity information based on a high-frequency component.

【図13】図11(g)の補正曲線と図12(g)の補
正曲線とを統合した補正曲線で意図適応補正をするとき
の説明図である。
13 is an explanatory diagram when performing intentional adaptive correction using a correction curve obtained by integrating the correction curve of FIG. 11G and the correction curve of FIG. 12G.

【図14】主として、視差制御回路および任意画素遅延
FIFOの構成を示すブロック図である。
FIG. 14 is a block diagram mainly showing a configuration of a parallax control circuit and an arbitrary pixel delay FIFO.

【図15】相対的水平位置および相対的垂直位置等を示
す模式図である。
FIG. 15 is a schematic diagram showing a relative horizontal position, a relative vertical position, and the like.

【図16】注目画素に対する視差情報を生成する方法を
説明するための説明図である。
FIG. 16 is an explanatory diagram for describing a method of generating disparity information for a target pixel.

【図17】視差選択回路による選択規則を示す図であ
る。
FIG. 17 is a diagram illustrating a selection rule by a parallax selection circuit.

【図18】視差情報が0の場合の各部の信号を示すタイ
ムチャートである。
FIG. 18 is a time chart illustrating signals of respective units when disparity information is 0.

【図19】視差情報が1.2の場合の各アドレス値を視
差制御回路に付記したブロック図である。
FIG. 19 is a block diagram in which each address value when the disparity information is 1.2 is added to the disparity control circuit.

【図20】視差情報が1.2の場合の各部の信号を示す
タイムチャートである。
FIG. 20 is a time chart illustrating signals of respective units when the disparity information is 1.2.

【符号の説明】[Explanation of symbols]

1 AD変換器 3 CPU 4 視差制御回路 5,6 DA変換器 7 輝度積算回路 8 高周波成分積算回路 9 輝度コントラスト算出回路 10 彩度積算回路 300 意図適応処理部 302 意図適応補正値演算部 303 視差変調部 DESCRIPTION OF SYMBOLS 1 AD converter 3 CPU 4 Parallax control circuit 5, 6 DA converter 7 Luminance integration circuit 8 High frequency component integration circuit 9 Luminance contrast calculation circuit 10 Saturation integration circuit 300 Intention adaptation processing unit 302 Intention adaptation correction value calculation unit 303 Parallax modulation Department

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 2次元入力映像信号に基づいて、各フィ
ールドごとに、1フィールド画面内に設定された複数の
視差算出領域のそれぞれに対して、映像の遠近に関する
画像特徴量を抽出する特徴量抽出手段と、各視差算出領
域ごとに抽出された画像特徴量に基づいて、1フィール
ド画面内の所定単位領域ごとの視差情報を生成する視差
情報生成手段と、2次元入力映像信号の各所定単位領域
内の信号から、その所定単位領域に対応する視差情報に
応じた水平位相差を有する第1映像信号と第2映像信号
とをそれぞれ生成する位相制御手段と、を備えた2次元
映像を3次元映像に変換する装置であって、 感性ワードを入力する手段と、前記画像特徴量を決定付
ける複数の要素のそれぞれに、前記感性ワードに対応し
た重要範囲を選定する重要度設定手段と、前記各視差算
出領域の画像特徴量のうち前記選び出された要素の値か
ら立体感強調対象となる視差算出領域を選び出す領域選
定手段と、この選び出された視差算出領域の立体感が強
調されるように前記視差情報を補正する視差情報補正手
段とを備えたことを特徴とする意図適応型の2次元映像
を3次元映像に変換する装置。
1. A feature amount for extracting an image feature amount related to perspective of a video for each of a plurality of parallax calculation regions set in one field screen for each field based on a two-dimensional input video signal. Extracting means, disparity information generating means for generating disparity information for each predetermined unit area in one field screen based on the image feature amount extracted for each disparity calculation area, and each predetermined unit of the two-dimensional input video signal A phase control unit for generating a first video signal and a second video signal having a horizontal phase difference corresponding to the parallax information corresponding to the predetermined unit region from the signals in the region. A device for converting into a three-dimensional image, comprising: means for inputting a sensitivity word; and importance for selecting an important range corresponding to the sensitivity word for each of a plurality of elements for determining the image feature quantity Determining means, area selecting means for selecting a parallax calculation area to be subjected to stereoscopic effect enhancement from the values of the selected elements among the image feature amounts of the respective parallax calculation areas, A device for converting an intention-adaptive two-dimensional image into a three-dimensional image, comprising: a disparity information correcting unit that corrects the disparity information so that a sense is enhanced.
JP8349393A 1996-12-27 1996-12-27 Intention adaptive device for converting two-dimensional video into three-dimensional video Pending JPH10191397A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8349393A JPH10191397A (en) 1996-12-27 1996-12-27 Intention adaptive device for converting two-dimensional video into three-dimensional video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8349393A JPH10191397A (en) 1996-12-27 1996-12-27 Intention adaptive device for converting two-dimensional video into three-dimensional video

Publications (1)

Publication Number Publication Date
JPH10191397A true JPH10191397A (en) 1998-07-21

Family

ID=18403455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8349393A Pending JPH10191397A (en) 1996-12-27 1996-12-27 Intention adaptive device for converting two-dimensional video into three-dimensional video

Country Status (1)

Country Link
JP (1) JPH10191397A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2011004396A (en) * 2009-06-16 2011-01-06 Samsung Electronics Co Ltd Conversion device and method for converting two-dimensional image into three-dimensional image
JP2011087100A (en) * 2009-10-15 2011-04-28 Jvc Kenwood Holdings Inc Pseudo-stereoscopic image generation device and pseudo-stereoscopic image display system
US8044995B2 (en) 2009-06-30 2011-10-25 Kabushiki Kaisha Toshiba Image processor and method for adjusting image quality
WO2011135760A1 (en) * 2010-04-28 2011-11-03 パナソニック株式会社 Stereoscopic image processing device and stereoscopic image processing method
WO2011148921A1 (en) * 2010-05-26 2011-12-01 シャープ株式会社 Image processor, image display apparatus, and imaging device
WO2012020558A1 (en) * 2010-08-10 2012-02-16 株式会社ニコン Image processing device, image processing method, display device, display method and program
JP2012039485A (en) * 2010-08-10 2012-02-23 Nikon Corp Image processing device, image processing method, and program
JP2012065174A (en) * 2010-09-16 2012-03-29 Sony Corp Image processing apparatus and method, and stereoscopic image display apparatus
CN102630030A (en) * 2012-03-31 2012-08-08 彩虹集团公司 Method for realizing transformation from 2D to 3D
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP2013156955A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2015511433A (en) * 2012-01-25 2015-04-16 テクニシェ・ユニヴェルシテイト・デルフト Adaptive multidimensional data decomposition

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2011004396A (en) * 2009-06-16 2011-01-06 Samsung Electronics Co Ltd Conversion device and method for converting two-dimensional image into three-dimensional image
US8044995B2 (en) 2009-06-30 2011-10-25 Kabushiki Kaisha Toshiba Image processor and method for adjusting image quality
JP2011087100A (en) * 2009-10-15 2011-04-28 Jvc Kenwood Holdings Inc Pseudo-stereoscopic image generation device and pseudo-stereoscopic image display system
JPWO2011135760A1 (en) * 2010-04-28 2013-07-18 パナソニック株式会社 3D image processing apparatus and 3D image processing method
WO2011135760A1 (en) * 2010-04-28 2011-11-03 パナソニック株式会社 Stereoscopic image processing device and stereoscopic image processing method
US8831338B2 (en) 2010-05-26 2014-09-09 Sharp Kabushiki Kaisha Image processor, image display apparatus, and image taking apparatus
JP2011250059A (en) * 2010-05-26 2011-12-08 Sharp Corp Image processing device, image display device and image pickup device
WO2011148921A1 (en) * 2010-05-26 2011-12-01 シャープ株式会社 Image processor, image display apparatus, and imaging device
JP2012039485A (en) * 2010-08-10 2012-02-23 Nikon Corp Image processing device, image processing method, and program
US10462455B2 (en) 2010-08-10 2019-10-29 Nikon Corporation Display apparatus, display method, and computer readable recording medium
US9488841B2 (en) 2010-08-10 2016-11-08 Nikon Corporation Image processing apparatus, image processing method, display apparatus, display method, and computer readable recording medium
WO2012020558A1 (en) * 2010-08-10 2012-02-16 株式会社ニコン Image processing device, image processing method, display device, display method and program
CN102404592B (en) * 2010-09-16 2015-07-01 株式会社日本显示器 Image processing device and method, and stereoscopic image display device
JP2012065174A (en) * 2010-09-16 2012-03-29 Sony Corp Image processing apparatus and method, and stereoscopic image display apparatus
CN102404592A (en) * 2010-09-16 2012-04-04 索尼公司 Image processing device and method, and stereoscopic image display device
US9154765B2 (en) 2010-09-16 2015-10-06 Japan Display Inc. Image processing device and method, and stereoscopic image display device
JP2015511433A (en) * 2012-01-25 2015-04-16 テクニシェ・ユニヴェルシテイト・デルフト Adaptive multidimensional data decomposition
US9317957B2 (en) 2012-01-26 2016-04-19 Sony Corporation Enhancement of stereoscopic effect of an image through use of modified depth information
JP2013157671A (en) * 2012-01-26 2013-08-15 Sony Corp Image processing device, image processing method, program, terminal device, and image processing system
JP2013156955A (en) * 2012-01-31 2013-08-15 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
CN102630030A (en) * 2012-03-31 2012-08-08 彩虹集团公司 Method for realizing transformation from 2D to 3D

Similar Documents

Publication Publication Date Title
KR100445619B1 (en) Device and method for converting two-dimensional video into three-dimensional video
JP3005474B2 (en) Apparatus and method for converting 2D image to 3D image
US6584219B1 (en) 2D/3D image conversion system
US6642962B1 (en) Merged pipeline for color interpolation and edge enhancement of digital images
JP3276931B2 (en) 3D image adjustment method and 3D image adjustment apparatus
JPH10191397A (en) Intention adaptive device for converting two-dimensional video into three-dimensional video
US8630480B2 (en) Image processing apparatus, display apparatus, image processing method and image processing program
JP6027581B2 (en) Image composition device, image composition method, control program for image composition device, and recording medium storing the program
JP3235776B2 (en) Stereoscopic effect adjusting method and stereoscopic effect adjusting device
JP3729252B2 (en) Image processing system, program, and information storage medium
JP2018014646A (en) Image processing apparatus and image processing method
JP2951291B2 (en) Apparatus and method for converting 2D image to 3D image
JP3500056B2 (en) Apparatus and method for converting 2D image to 3D image
JP3540626B2 (en) Apparatus and method for converting 2D image to 3D image
JPH07129762A (en) Sketch-fashion image generator
US5488428A (en) Video special effect generating apparatus
JP3957343B2 (en) Apparatus and method for converting 2D video to 3D video
JP3485764B2 (en) Apparatus and method for converting 2D image to 3D image
JP2782432B2 (en) Video signal processing device
JP2002015327A (en) Image type discrimination device, image processor using the same, and image type discrimination method
JP2001125557A (en) Hue and saturation regulating device and image display device and hue and saturation regulating method
JP2756048B2 (en) Color image color adjustment and image synthesis method and apparatus
JP2007158446A (en) Image processor, image processing method and program, recording medium
JPH1198530A (en) Device for converting two-dimensional image into three-dimensional image
JP3089489B2 (en) Image data processing device

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031217

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees