JPH08149517A - 2次元映像から3次元映像を生成する方法 - Google Patents
2次元映像から3次元映像を生成する方法Info
- Publication number
- JPH08149517A JPH08149517A JP7088276A JP8827695A JPH08149517A JP H08149517 A JPH08149517 A JP H08149517A JP 7088276 A JP7088276 A JP 7088276A JP 8827695 A JP8827695 A JP 8827695A JP H08149517 A JPH08149517 A JP H08149517A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- areas
- amount
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 159
- 239000013598 vector Substances 0.000 claims abstract description 374
- 238000001514 detection method Methods 0.000 claims abstract description 333
- 230000003111 delayed effect Effects 0.000 claims abstract description 68
- 230000001186 cumulative effect Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 38
- 238000006243 chemical reaction Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000001934 delay Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
の映出体の前後関係が逆転することなく、正確な3次元
映像を生成することが出来る2次元映像から3次元映像
を生成する方法を提供する。 【構成】 元になる2次元映像を一方の目用の映像と
し、前記元になる2次元映像を所定フィールド遅延させ
た映像を他方の目用の映像とすることにより、2次元映
像から3次元映像を生成する方法であって、CPU8
は、前記元になる2次元映像において左右方向に隣接す
る動きベクトル検出領域で検出された2つの左右方向の
動きベクトルを比較することにより、大きい方の動きベ
クトルの映出体が小さい方の動きベクトルの映出体より
も前方に位置するか、後方に位置するかを判定し、該判
定結果により左右どちらの目の映像を遅延させた映像に
するかを決定することを特徴とする。
Description
から出力されたり、CATVやTV放送によって伝送さ
れる2次元映像を3次元映像に変換する2次元映像から
3次元映像を生成する方法、及び2次元映像に映ってい
る映出体の前後関係を判定する映像の前後判定方法に関
する。
ステムに使用される映像ソフトは、その大半が3次元映
像表示用に特別に作成されたものである。このような3
次元映像表示用の映像ソフトは、一般には2台のカメラ
を用いて左目用映像と右目用映像を撮像し、記録したも
のである。そして、この3次元映像ソフトに記録された
左右の映像は、略同時にディスプレイに表示され、この
2重に映し出された左目用映像及び右目用映像を観察者
の左右の目に夫々入射させることにより、観察者に3次
元映像を認識される。
成された映像ソフトが多数存在するが、3次元用の映像
ソフトは非常に少ないため、3次元映像を表示するため
には、新たに3次元用の映像ソフトを制作する必要があ
り、手間がかかり、コスト高になるという問題がある。
する方法、例えば記録された2次元映像のフィールド遅
延により変換する方法が提案されている。これは、例え
ば左から右に移動する映出体が映っている2次元の映像
の場合、この元の2次元の映像を左目用映像とし、この
左目用映像に対して数フィールド前の映像(この映像は
フィールド遅延により得ることが可能)を右目用映像と
することにより、前記左目用映像と右目用映像との間に
は視差が生じるので、この両映像を略同時に画面上に表
示することにより、前記移動する映出体を背景に対して
前方に浮き出させる方法である。
すように、背景(ある映出体)が不動状態(動いていな
い状態)であり、その前方を被写体(別の映出体)が移
動する場合と、図5に示すように、被写体が不動状態で
あり、その後方を背景が移動する場合とがある。
映像から3次元映像に変換する方法では、図4に示すよ
うな場合においては、左から右へ移動する被写体を検出
して、左目用映像に対して数フィールド前の映像を右目
用映像とすることにより、被写体を背景に対して前方に
浮き出させることが出来る。ところが、図5に示すよう
な背景が移動している場合においては、左から右へ移動
する背景を検出して、前述と同様に、左目用映像に対し
て数フィールド前の映像を右目用映像とすると、逆に背
景が被写体に対して前方に浮き出てくるという問題が生
じる。
欠点に鑑み為されたものであり、元になる2次元映像が
被写体は不動状態であり、その後方を背景が移動してい
る場合であっても、背景が被写体に対して前方に浮き出
ることなく、正確に被写体が背景に対して前方に浮き出
るように変換することが出来る2次元映像から3次元映
像を生成する方法を提供することを目的とするものであ
る。
いる複数の映出体の前後関係を判定することが出来る映
像の前後判定方法を提供することを目的とするものであ
る。
像生成方法は、元になる2次元映像を一方の目用の映像
とし、前記元になる2次元映像を所定フィールド遅延さ
せた映像を他方の目用の映像とすることにより、2次元
映像から3次元映像を生成する方法であって、前記元に
なる2次元映像において左右方向の移動量の大きい映出
体が左右方向の移動量の小さい映出体よりも前方に位置
するか、後方に位置するかを判定し、該判定結果により
左右どちらの目の映像を遅延させた映像にするかを決定
することを特徴とする。
は、前記元になる2次元映像における映出体の左右方向
の移動量を検出する検出領域を前記2次元映像を構成す
る画面内に複数個所設け、そのうち隣接する検出領域で
検出された2つの移動量を比較することにより、前記左
右方向の移動量の大きい方の映出体が移動量の小さい方
の映出体よりも前方に位置するか、後方に位置するかを
判定することを特徴とする。
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動し、且つ小さい方の移動量を検出した検出領域で所定
時間経過後に検出される移動量が前記移動量の大きい方
の映出体の影響を受ける場合、前記移動量の大きい方の
映出体が前記移動量の小さい方の映出体よりも前方に位
置し、前記移動量の大きい方の映出体の移動方向側の目
の映像を遅延させるべきであると判定することを特徴と
する。
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動し、且つ小さい方の移動量を検出した検出領域で所定
時間経過後に検出される移動量が前記移動量の大きい方
の映出体の影響を受けない場合、前記移動量の大きい方
の映出体が前記移動量の小さい方の映出体よりも後方に
位置し、前記移動量の大きい方の映出体の移動方向と反
対側の目の映像を遅延させるべきであると判定すること
を特徴とする。
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動しておらず、且つ大きい方の移動量を検出した検出領
域で所定時間経過後に検出される移動量が前記移動量の
小さい方の映出体の影響を受ける場合、前記移動量の大
きい方の映出体が前記移動量の小さい方の映出体よりも
前方に位置し、前記移動量の大きい方の映出体の移動方
向側の目の映像を遅延させるべきであると判定すること
を特徴とする。
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動しておらず、且つ大きい方の移動量を検出した検出領
域で所定時間経過後に検出される移動量が前記移動量の
小さい方の映出体の影響を受けない場合、前記移動量の
大きい方の映出体が前記移動量の小さい方の映出体より
も後方に位置し、前記移動量の大きい方の映出体の移動
方向と反対側の目の映像を遅延させるべきであると判定
することを特徴とする。
は、前記映出体の移動量を動きベクトルにより求めるこ
とを特徴とする。また、本発明の第1の3次元映像生成
方法は、左目用映像信号を出力する左目用出力端子と、
右目用映像信号を出力する右目用出力端子と、前記遅延
された映像信号を前記左目用映像端子、前記右目用映像
端子のどちらから出力するかを切り換える映像切換手段
とを備え、前記映像切換手段の切り換え制御を前記判定
結果に従って行うことを特徴とする。
は、前記判定結果が1フィールド期間内において全て同
じである場合に、前記映像切換手段の切り換え制御を行
うことを特徴とする。
記元になる2次元映像における映出体の左右方向の移動
量を検出する検出領域を前記2次元映像を構成する画面
内に複数個所設け、そのうち隣接する検出領域で検出さ
れた2つの移動量を比較することにより、前記左右方向
の移動量の大きい方の映出体が移動量の小さい方の映出
体よりも前方に位置するか、後方に位置するかを判定す
ることを特徴とする。
である第1の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面内に多数個所設け、そのうち画
面の端に位置する検出領域での左右方向の移動量の大き
い映出体を検出する領域数と移動量の小さい映出体を検
出する領域数とを比較し、領域数の多い方の映出体の検
出領域を後方に位置する後方領域であると判別すること
を特徴とする。
である第2の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面内に多数個所設け、そのうち画
面の中央に位置する検出領域での左右方向の移動量の大
きい映出体を検出する領域数と移動量の小さい映出体を
検出する領域数とを比較し、領域数の多い方の映出体の
検出領域を前方に位置する前方領域であると判別するこ
とを特徴とする。
である第3の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面全域に多数個所設け、該多数個
所の検出領域での左右方向の移動量の大きい映出体を検
出する領域数と移動量の小さい映出体を検出する領域数
とを比較し、領域数の少ない方の映出体の検出領域に注
目し、該注目された検出領域の(画面の端での領域数)
/(画面全域での領域数)が所定値以上の時、前記注目
された領域を画面の後方に位置する後方領域であると判
別することを特徴とする。
記第1の判別と前記第2の判別との両方を行い、前記第
1の判別により後方領域であると判別された領域と、前
記第2の判別により前方領域であると判別された領域と
が異なる領域である場合、前記第1、第2の判別結果を
最終の判別結果とすることを特徴とする。
記第1の判別と前記第2の発明との両方を行い、前記第
1の判別により後方領域であると判別された領域と、前
記第2の判別により前方領域であると判別された領域と
が同じ領域である場合、前記第3の判別を行うことを特
徴とする。
記映出体の移動量を動きベクトルにより求めることを特
徴とする。また、本発明の第2の前後判定方法は、前記
映出体の移動量を数フィールド期間の動きベクトルの累
積和により求めることを特徴とする。
記多数個所の検出領域のうち、信頼性の低い動きベクト
ルが検出された領域、または映像中の映出体の動きに関
与していない動きベクトルが検出された領域を誤り領域
として判別し、誤り領域では無いと判別された領域を有
効な検出領域として用いることを特徴とする。
は、元になる2次元映像を一方の目用の映像とし、前記
元になる2次元映像を所定フィールド遅延させた映像を
他方の目用の映像とすることにより、2次元映像から3
次元映像を生成する方法において、前述の第2の映像の
前後判定方法によって得られた結果により左右どちらの
目の映像を遅延させた映像にするかを決定することを特
徴とする。
は、移動量の大きい映出体の移動量の第1の絶対値と、
移動量の小さい映出体の移動量の第2の絶対値とを比較
し、該第1、第2の絶対値のうち値の大きい方の映出体
の移動量により前記遅延された映像の遅延量を定めるこ
とを特徴とする。
が移動量の小さい方の映出体よりも前方に位置するか、
後方に位置するかを判定し、この判定結果に基づいて左
右どちらの映像を遅延された映像にするかを決定するた
め、生成された3次元映像において、映出体の前後関係
が逆転することは減少、若しくは無くなる。
いる映出体の前後関係は、前記2次元映像を構成する画
面内において、左右に隣接する2つの検出領域で検出さ
れた2つの移動量が異なる部分を見つけ出し、前記2つ
の移動量に基づいて容易に判定することが出来る。
移動量の小さい方の映出体に向かって移動し、且つ小さ
い方の移動量を検出した検出領域で所定時間経過後に検
出される移動量が前記移動量の大きい方の映出体の影響
を受ける場合は、移動量の大きい方の映出体が移動量の
小さい方の映出体の前方を通過した時であると考えら
れ、前記移動量の大きい方の映出体が前記移動量の小さ
い方の映出体よりも前方に位置すると判定することが出
来る。
の小さい方の映出体に向かって移動し、且つ小さい方の
移動量を検出した検出領域で所定時間経過後に検出され
る移動量が前記移動量の大きい方の映出体の影響を受け
ない場合は、移動量の大きい方の映出体が移動量の小さ
い方の映出体の後方を通過した時であると考えられ、前
記移動量の大きい方の映出体が前記移動量の小さい方の
映出体よりも後方に位置すると判定することが出来る。
の小さい方の映出体に向かって移動しておらず、且つ大
きい方の移動量を検出した検出領域で所定時間経過後に
検出される移動量が前記移動量の小さい方の映出体の影
響を受ける場合、移動量の大きい映出体が移動量の小さ
い映出体の前方を去った時であると考えられ、前記移動
量の大きい方の映出体が前記移動量の小さい方の映出体
よりも前方に位置すると判定することが出来る。
の小さい方の映出体に向かって移動しておらず、且つ大
きい方の移動量を検出した検出領域で所定時間経過後に
検出される移動量が前記移動量の小さい方の映出体の影
響を受けない場合は、移動量の大きい方の映出体が移動
量の小さい方の映出体の後方より新たに連続して現れた
時であると考えられ、前記移動量の大きい映出体が前記
移動量の小さい映出体よりも後方に位置すると判定する
ことが出来る。
ルにより容易に且つ正確に求めることが出来る。また、
前記判定結果に従って映像切換回路を切り換え制御する
ことにより、映出体の前後関係が正確な立体映像を実際
に表示することが可能になる。
において全て同じである場合に、前記映像切換手段の切
り換え制御を行うことにより、映出体の移動状態が複雑
であったり、誤った移動量の検出が原因で、映出体の前
後関係を間違って判定することを防止する。
に映し出されている映出体の前後関係は、前記2次元映
像を構成する画面内において、左右に隣接する2つの検
出領域で検出された2つの移動量が異なる部分を見つけ
出し、前記2つの移動量に基づいて容易に判定すること
が出来る。
よれば、画面端の多くの部分に、後方に位置する映出体
が映っている通常の映像に対しては後方領域を判別する
ことが出来る。
よれば、画面中央の多くの部分に、前方に位置する映出
体が映っている通常の映像に対しては、第2の判別を行
うことにより前方領域を判別することが出来る。
は、前方に位置する映出体が大きい場合には、画面全体
においては後方領域の方が少なくなるが、その後方領域
のうち画面の端の部分を占める割合は所定値より大きく
なり、また、前方に位置する映出体が小さい場合には、
画面全体においては前方領域の方が少なく、しかもその
前方領域のうち画面の端の部分を占める割合は所定値よ
りも小さくなるという考えに基づいている。また、この
第3の判別の考えは前方に位置する映出体が画面の端に
位置する場合においても成り立つ。このため、第3の判
別を行うことにより、前方に位置する映出体が画面のど
の位置に映っていても、後方領域であるか前方領域であ
るかを判別することが出来る。
行い、第1の判別で後方領域であると判別された検出領
域と、第2の判別で前方領域であると判別された領域と
が異なる場合は、第1の判別の判別結果と第2の判別の
判別結果とが一致した場合であり、この第1、第2の判
別の判別結果は正しいと考えられる。
行い、第1の判別で後方領域であると判別された検出領
域と、第2の判別で前方領域であると判別された領域と
が同じである場合は、第1の判別の判別結果と第2の判
別の判別結果とが不一致の場合であり、この第1、第2
の判別の判別結果はどちらか一方が間違いの場合であ
る。これは前方に位置する映出体が画面の中央の部分以
外にも映っている場合が多く、このような場合は第3の
判別を行うことにより正しい判別を行うことが出来る。
ルにより容易に且つ正確に求めることが出来る。また、
前記映出体の移動量は、数フィールド期間の動きベクト
ルの累積和により求めることにより、映画フィルムをテ
レビジョン信号に変換した映像に対しても正確な移動量
を求めることが出来る。
ば、前述の第2の前後判定方法により、前方に位置する
前方領域と後方に位置する後方領域とを判定し、この判
定結果に基づいて遅延方向、即ち左右どちらの目の映像
を遅延された映像にするかを決定するため、生成された
3次元映像において、背景が被写体の前方に位置するよ
うな映出体の前後関係が逆転する映像は減少、若しくは
無くなる。
方領域、後方領域のうち移動量の絶対値が大きい一方の
領域の映出体の移動量に基づいて求めるので、絶対値が
小さい異なる領域の映出体の移動量の影響を受けること
無く、所望の遅延量を正確に求めることが出来る。
について詳細に説明する。図1は2次元映像から3次元
映像を生成する第1実施例の3次元映像ソフト変換シス
テムの要部概略ブロック図である。
では、入力端子1に2次元映像を表示するための通常の
2次元映像信号が入力される。前記入力端子1より入力
された2次元映像信号は映像切換回路2及びフィールド
メモリ5に供給される。
元映像信号を所定フィールドだけ遅延して出力し、前記
映像切換回路2に供給する。前記フィールドメモリ5の
遅延量はメモリ制御回路6により1フィールド単位で可
変制御される。また、この可変制御は1フィールド以下
の小さい単位でも構わない。
信号Lを出力する出力端子3及び右目用映像信号Rを出
力する出力端子4に出力されており、被写体の動きの方
向に応じて出力状態が切り換わるように制御される。
映像信号は、動きベクトル検出回路7に供給され、フィ
ールド間の動き、即ち前記2次元映像信号に映し出され
ている映出体の移動量(移動速度)に応じた動きベクト
ルが検出された後、CPU8に供給される。
いて、前フィールドの代表点の画像信号と現フィールド
の画像信号との相関を取ることにより、前フィールドの
代表点が現フィールドのどこに動いたかを表すベクトル
である。このような動きベクトルの検出方法を代表点マ
ッチング法という。
ルのうち左右方向である水平成分(以後、この水平成分
を単に動きベクトルという)を抽出し、これに応じてメ
モリ制御回路6を制御する。即ち、被写体の動きが大き
く、動きベクトルが大きい場合、フィールドメモリ5の
遅延量が少なくなるように制御し、被写体の動きが小さ
いか、あるいはスローモーション再生時のように動きベ
クトルが小さい場合、遅延量が多くなるように制御す
る。
が左から右の場合、その動きベクトルの映出体が背景の
前方に位置する被写体であると判断すると、遅延された
映像信号を右目用映像信号とし、また、前記動きベクト
ルの映出体が被写体の後方に位置する背景であると判断
すると、遅延された映像信号を左目用映像信号とする。
また、前記CPU8は動きベクトルの方向が右から左の
場合、その動きベクトルの映出体が背景の前方に位置す
る被写体であると判断すると、遅延された映像信号を左
目用映像信号とし、また、前記動きベクトルの映出体が
被写体の後方に位置する背景であると判断すると、遅延
された映像信号を右目用映像信号とするように映像切換
回路2を制御する。
あるいは背景が左右方向に移動するようなシーンについ
ては動きの速さに応じた視差が発生する。そして、出力
端子3、4からの左右の映像信号をレンチキュラ方式等
の立体映像表示ディスプレイに供給することにより、観
察者は立体感のある3次元映像を観賞することが出来
る。
クトルの映出体が背景の前方に位置する被写体である
か、あるいは被写体の後方に位置する背景であるかを判
定する動作のフローチャートを示す図である。
数存在する動きベクトルの検出領域で検出された動きベ
クトルのうち、左右に隣接する検出領域により検出され
た2つの動きベクトルを比較し、その2つの動きベクト
ルが同じ(大きさ及び向きの両方が同じ)であるか否か
を判別する。
動きベクトルが同じであると判断した場合(Y)、ステ
ップS2において、前記ステップS1で行った動きベク
トルの比較が動きベクトルの検出を行った1フィールド
の画面のうち最後の動きベクトルの比較であるか否かを
判別する。
は、図3に示すように、1フィールドを構成する画面の
うち、上下方向を4分割、左右方向を4分割してなる1
6個の検出領域A1、B1、C1、D1、A2、B2、
C2、D2、A3、B3、C3、D3、A4、B4、C
4、D4で動きベクトルを検出している。そして、1フ
ィールド期間での前記16個の検出領域で検出された動
きベクトルの比較動作は、上から第1行目の左から右
へ、次に上から第2行目の左から右へ、次に上から第3
行目の左から右へ、次に上から第4行目の左から右へと
順番に進む。即ち、検出領域A1で検出された動きベク
トルと検出領域B1で検出された動きベクトルとの比
較、次に検出領域B1で検出された動きベクトルと検出
領域C1で検出された動きベクトルとの比較、次に検出
領域C1で検出された動きベクトルと検出領域D1で検
出された動きベクトルとの比較、次に検出領域A2で検
出された動きベクトルと検出領域B2で検出された動き
ベクトルとの比較、次に検出領域B2で検出された動き
ベクトルと検出領域C2で検出された動きベクトルとの
比較、次に検出領域C2で検出された動きベクトルと検
出領域D2で検出された動きベクトルとの比較、次に検
出領域A3で検出された動きベクトルと検出領域B3で
検出された動きベクトルとの比較、次に検出領域B3で
検出された動きベクトルと検出領域C3で検出された動
きベクトルとの比較、次に検出領域C3で検出された動
きベクトルと検出領域D3で検出された動きベクトルと
の比較、次に検出領域A4で検出された動きベクトルと
検出領域B4で検出された動きベクトルとの比較、次に
検出領域B4で検出された動きベクトルと検出領域C4
で検出された動きベクトルとの比較、次に検出領域C4
で検出された動きベクトルと検出領域D4で検出された
動きベクトルとの比較の順で進む。
テップS1での動きベクトルの比較動作が検出領域C4
で検出された動きベクトルと検出領域D4で検出された
動きベクトルとの比較であるか否かを判別する。そし
て、ステップS1で、検出領域C4で検出された動きベ
クトルと検出領域D4で検出された動きベクトルとの比
較であると判別した場合(Y)、ステップS11に進
み、また、検出領域C4で検出された動きベクトルと検
出領域D4で検出された動きベクトルとの比較でないと
判別した場合(N)、ステップS3に進む。
領域での動きベクトルの比較動作に移行して前記ステッ
プS1に戻り、ステップS1の動作を再度行う。また、
前記ステップS1において、前記動きベクトルが同じで
ないと判断した場合(N)、次のステップS4に進む。
較した2つの動きベクトルのうち大きい方の動きベクト
ルの向いている方向が、小さい方の動きベクトルの検出
領域を向いているか否かを判定する。尚、この時、動き
ベクトルの大小関係は、動きベクトルの絶対値で判定す
る。そして、ステップS3において、大きい方の動きベ
クトルの向いてる方向が小さい方の動きベクトルの検出
領域を向いていると判定した場合(Y)、ステップS5
に進み、また、大きい方の動きベクトルの向いている方
向が小さい方の動きベクトルの検出領域を向いていない
と判定した場合(N)、ステップS6に進む。
記2つの動きベクトルのうち小さい方の動きベクトルの
検出領域で検出された動きベクトルが、前記大きい方の
動きベクトルの影響を受けるか否かを判定する。そし
て、このステップS5において、影響を受けると判定し
た場合(Y)、ステップS7に進む。
クトルの映出体が背景の前方を移動する被写体であると
判断し、前記大きい方の動きベクトルが向いている方向
の側の目の映像信号を遅延された映像信号とすべきであ
ると判定する。
ないと判定した場合(N)、ステップS8に進む。ステ
ップS8では、前記大きい方の動きベクトルの映出体が
被写体の後方を移動する背景であると判断し、前記大き
い方の動きベクトルが向いている方向と反対側の目の映
像信号を遅延された映像信号とすべきであると判定す
る。
い方の動きベクトルの向いている方向が小さい方の動き
ベクトルの検出領域を向いていないと判定して(N)ス
テップS6に進んだ場合、該ステップS6では、所定時
間経過後に前記2つの動きベクトルのうち大きい方の動
きベクトルの検出領域で検出された動きベクトルが小さ
い方の動きベクトルの影響を受けるか否かを判定する。
そして、このステップS6において、影響を受けると判
定した場合(Y)、ステップS9に進む。
クトルの映出体が背景の前方を移動する被写体であると
判断し、前記大きい方の動きベクトルの向いている方向
の目の映像信号を遅延された映像信号とすべきであると
判定する。
ないと判定した場合(N)、ステップS10に進む。ス
テップS10では、前記大きい方の動きベクトルの映出
体が被写体の後方を移動する背景であると判断し、前記
大きい方の動きベクトルが向いている方向と逆方向の目
の映像信号を遅延された映像信号とすべきであると判定
する。
大きい方の動きベクトルの映出体が、その動きベクトル
の絶対値から換算して隣の動きベクトル検出領域に移動
することが予測される時間のことである。また、前記ス
テップS6での所定時間とは、小さい方の動きベクトル
の物体が、その動きベクトルの絶対値から換算して隣の
動きベクトル検出領域に移動することが予測される時間
のことである。従って、前記ステップS5、ステップS
6の所定時間は共に、前述の換算の元になる動きベクト
ルの絶対値が大きい程、短くなる。
とは、小さい方の動きベクトルが前記所定時間経過後に
大きい方の動きベクトルの値と同じになる、あるいは大
きい方の動きベクトルに近付くことである。また、前記
ステップS6での影響とは、大きい方の動きベクトルが
前記所定時間経過後に小さい方の動きベクトルの値と同
じになる、あるいは小さい方の動きベクトルに近付くこ
とである。前記ステップS7、ステップS8、ステップ
S9あるいはステップS10の動作が終了すると、ステ
ップS2に戻る。ステップS2では、1フィールド期間
の最後の動きベクトルの比較、即ち、検出領域C4で検
出された動きベクトルと検出領域D4で検出された動き
ベクトルとの比較動作が終了するまで、最後の動きベク
トル比較ではないと判断し(N)、ステップS1に戻
り、以上の動作を繰り返す。そして最後に、検出領域C
4で検出された動きベクトルと検出領域D4で検出され
た動きベクトルとの比較動作が終了すると、最後の動き
ベクトル比較である(Y)と判断し、ステップS11に
進む。
ステップS8、ステップS9及びステップS10で得ら
れた判定結果を比較し、全ての判定結果が同じであるか
否かを判定する。そして、ステップS11において、全
ての判定結果が同じであると判定した場合(Y)、ステ
ップS12に進み、また、全ての判定結果が同じではな
い(判定結果が異なるものが少なくとも1つはある)と
判定した場合(N)、動作を終了する。尚、ここでいう
判定結果とは、左右どちらの目の映像信号を遅延された
映像信号とすべきであるかということである。即ち、全
ての判定結果が右目用の映像信号を遅延された映像信号
とすべきである場合、あるいは全ての判定結果が左目用
の映像信号を遅延された映像信号とすべきである場合
に、全ての判定結果が同じであると判定して(Y)ステ
ップS12に進み、それ以外の場合は、全ての判定結果
が同じではないと判定して(N)動作を終了する。
ステップS8、ステップS9及びステップS10で得ら
れた判定結果に従って、映像切換回路2を切り換えるよ
うに制御する。
次元映像が図4に示す第1のシーンの映像である場合
と、図5に示す第2のシーンの映像である場合の夫々に
ついて、CPU8の動作を図2に示すフローチャートに
従って説明する。
する第1のシーンの3個のフィールドの映像、及びその
映像における動きベクトルの大きさ及び向きを模式的に
示す図である。この図4の映像は不動状態である山の前
方を鳥が左から右に向かって飛んでいる映像である。即
ち、背景である山の前方を被写体である鳥が左から右に
向かって飛んでいる。尚、(b)は(a)の数フィール
ド後(所定時間経過後)の映像、(c)は(b)の数フ
ィールド後(所定時間経過後)の映像である。
する第1のシーンの3個のフィールドの映像、及びその
映像における動きベクトルの大きさ及び向きを模式的に
示す図である。この図5の映像はバスが左から右に向か
って走っている映像であるが、バスを中心に撮影した映
像であるため、画面上においては不動状態であるバスの
後方を家が左から右に向かって移動している。即ち、被
写体であるバスの後方を背景である家が移動している。
尚、(b)は(a)の数フィールド後(所定時間経過
後)の映像、(c)は(b)の数フィールド後(所定時
間経過後)の映像である。
いて、現フィールドが図4(a)の映像である場合、第
1行目、第2行目の動きベクトル検出領域A1、B1、
C1、D1、A2、B2、C2、D2では背景の山を検
出するため、動きベクトルa1、b1、c1、d1、a
2、b2、c2、d2は全て0となる。従って、この動
きベクトル検出領域では、左右に隣接する検出領域で検
出された動きベクトルは全てにおいて大きさが等しく、
CPU8はステップS1、ステップS2、ステップS3
の動作を繰り返す。
では、左から1番目、3番目、4番目の検出領域A3、
C3、D3では背景の山を検出するため、動きベクトル
a3、c3、d3は0となり、左から2番目の検出領域
B3では左から右へ飛ぶ鳥を検出するため、動きベクト
ルb3は左から右へ向いているベクトルとなる。
る動きベクトル検出領域A3と動きベクトル検出領域B
3とで検出された動きベクトルa3と動きベクトルb3
とは同じでないと判断し(N)、ステップS4に進む。
きベクトルb3のうち、大きい方の動きベクトルb3が
小さい方の動きベクトルa3を向いているか否かを判定
する。ここでは、動きベクトルb3が動きベクトルa3
の方を向いていないため、ステップS6に進む。
い方の動きベクトルb3が小さい方の動きベクトルa3
の影響を受けるか否かを判定する。ここでは、所定時間
経過後に、図4(b)に示すように、動きベクトルb
3’が0になり、前記小さい方の動きベクトルa3の値
と等しくなるため、大きい方の動きベクトルb3は小さ
い方の動きベクトルa3の影響を受けると判定し
(Y)、ステップS9に進む。
の動きベクトルb3の映出体が小さい方の動きベクトル
a3の映出体よりも前方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向の側の目、即ち
右目用の映像信号を遅延された映像信号とするべきであ
ると判定する。
全ての動きベクトル比較が終了していないと判断し
(N)、ステップS3で次の動きベクトルの検出領域に
移行し、ステップS1に戻る。
目の動きベクトルb3と左から3番目の動きベクトルc
3とを比較し、動きベクトルb3と動きベクトルc3と
は同じではないと判断し(N)、ステップS4に進む。
きベクトルc3のうち、大きい方の動きベクトルb3が
小さい方の動きベクトルa3を向いているか否かを判定
する。ここでは、動きベクトルb3が動きベクトルa3
の方を向いるため、ステップS5に進む。
い方の動きベクトルc3が大きい方の動きベクトルb3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図4(b)に示すように、動きベクトルc3’が
前記大きい方の動きベクトルb3と同じ値になるため、
小さい方の動きベクトルc3は大きい方の動きベクトル
b3の影響を受けると判定し(Y)、ステップS7に進
む。
の動きベクトルb3の映出体が小さい方の動きベクトル
c3の映出体よりも前方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向の側の目、即ち
右目用の映像信号を遅延された映像信号とするべきであ
ると判定する。
きベクトル比較ではないと判断し(N)、ステップS3
で次の動きベクトルの検出領域に移行し、ステップS1
に戻る。
目の動きベクトルc3と左から4番目の動きベクトルd
3とを比較し、動きベクトルc3と動きベクトルd3と
は同じであると判断し(Y)、ステップS1に戻る。
きベクトル検出領域についての動作を行う。第4行目の
動きベクトル検出領域では、第3行目の動きベクトル検
出領域と同様に、左から1番目、3番目、4番目の検出
領域A4、C4、D4では背景の山を検出するため、動
きベクトルa4、c4、d4は0であり、左から2番目
の検出領域B4では左から右へ飛ぶ鳥を検出するため、
左から右へ向いている動きベクトルb3を検出する。
と同じ動作をし、動きベクトルa4と動きベクトルb4
との比較では、動きベクトルb4の映出体が動きベクト
ルa4の映出体よりも前方に位置すると判断し、右目用
の映像信号を遅延された映像信号とすべきであると判定
する。
4との比較では、動きベクトルb4の映出体が動きベク
トルc4の映出体よりも前方に位置すると判断し、右目
用の映像信号を遅延された映像信号とすべきであると判
定する。
d4との比較を終えた後、ステップS2において、1画
面の全ての動きベクトル比較が終了したと判断し
(Y)、ステップS11に進む。
た4個の判定結果を比較する。ここでは、4個の判定結
果が全て、右目用の映像信号を遅延された映像信号とす
べきであると判定しているため、全ての判定結果が同じ
であると判定して(Y)ステップS12に進む。
て、右目用信号が遅延された映像信号となるように映像
切換回路2を切り換え制御する。これにより、観察者は
動きベクトルb3の映出体である鳥(被写体)を動きベ
クトルa3、c3の映出体である山(背景)よりも前方
に浮き出た状態で観察することが出来る。
時も、具体的な説明は省略するが、CPU8は前述の現
フィールドが図4(a)の映像の時と同様の動作を行
い、ステップS7あるいはステップS9において、動き
ベクトルc3’の映出体が動きベクトルb3’、d3’
の映出体よりも前に位置すると判断し、右目用の映像信
号を遅延された映像信号とすべきであると判定し、ま
た、動きベクトルc4’の映出体が動きベクトルb
4’、d4’の映出体よりも前に位置すると判断し、右
目用の映像信号を遅延された映像信号とすべきであると
判定する。
判定結果が全て、右目用の映像信号を遅延された映像信
号とすべきであると判定しているため、ステップS12
において、右目用映像信号が遅延された映像信号となる
ように映像切換回路2を切り換え制御する。
の映出体である鳥(被写体)を動きベクトルb3’、d
3’の映出体である山(背景)よりも前方に浮き出た状
態で観察することが出来る。
いて、現フィールドが図5(a)の映像である場合、第
1行目、第2行目の全ての動きベクトル検出領域A1、
B1、C1、D1、A2、B2、C2、D2では画面
上、右方向に移動する家等の背景を検出するため、その
動きベクトルa1、b1、c1、d1、a2、b2、c
2、d2は全て同じ大きさの右方向のベクトルとなる。
従って、この動きベクトル検出領域では、左右に隣接す
る検出領域で検出された動きベクトルは全てにおいて大
きさが等しく、CPU8はステップS1、ステップS
2、ステップS3の動作を繰り返す。
では、左から1番目、3番目、4番目の検出領域A3、
C3、D3では家等の背景を検出するため、動きベクト
ルa3、c3、d3は同じ大きさの右方向のベクトルと
なり、左から2番目の検出領域B3では画面上、不動状
態であるバスを検出するため、動きベクトルb3は0と
なる。
る動きベクトル検出領域で検出された動きベクトルa3
と動きベクトルb3とは同じでないと判断し(N)、ス
テップS4に進む。
きベクトルb3のうち、大きい方の動きベクトルa3が
小さい方の動きベクトルb3を向いているか否かを判定
する。ここでは、動きベクトルa3が動きベクトルb3
の方を向いているため、ステップS5に進む。
い方の動きベクトルb3が大きい方の動きベクトルa3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図5(b)に示すように、動きベクトルb3’は
0のまま変化しないため、小さい方の動きベクトルb3
は大きい方の動きベクトルa3の影響を受けないと判定
し(N)、ステップS8に進む。
の動きベクトルa3の映出体が小さい方の動きベクトル
b3の映出体よりも後方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向とは反対側の
目、即ち左目用の映像信号を遅延された映像信号とする
べきであると判定し、ステップS2に進む。
クトル比較が終了していないと判断し(N)、ステップ
S3で次の動きベクトルの検出領域に移行し、ステップ
S1に戻る。
目の動きベクトルb3と左から3番目の動きベクトルc
3とを比較し、動きベクトルb3と動きベクトルc3と
は同じではないと判断し(N)、ステップS4に進む。
きベクトルc3のうち、大きい方の動きベクトルc3が
小さい方の動きベクトルb3を向いているか否かを判定
する。ここでは、動きベクトルc3が動きベクトルb3
の方を向いていないため、ステップS6に進む。
い方の動きベクトルc3が小さい方の動きベクトルb3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図5(b)に示すように、動きベクトルc3’が
動きベクトルc3のまま変化していないため、大きい方
の動きベクトルc3は小さい方の動きベクトルb3の影
響を受けないと判定し(N)、ステップS10に進む。
方の動きベクトルc3の映出体が大きい方の動きベクト
ルb3の映出体よりも後方に位置すると判断し、大きい
方の動きベクトルb3が向いている右方向と反対側の
目、即ち左目用の映像信号を遅延された映像信号とする
べきであると判定する。
きベクトル比較ではないと判断し(N)、ステップS3
で次の動きベクトルの検出領域に移行し、ステップS1
に戻る。
目の動きベクトルc3と左から4番目の動きベクトルd
3とを比較し、動きベクトルc3と動きベクトルd3と
は同じであると判断し(Y)、ステップS1に戻る。
きベクトル検出領域についての動作を行う。第4行目の
動きベクトル検出領域では、第3行目の動きベクトル検
出領域と同様に、左から1番目、3番目、4番目の検出
領域A4、C4、D4では画面上、左方向に移動する家
等の背景を検出するため、動きベクトルa4、c4、d
4は同じ大きさの右方向のベクトルとなり、また、右か
ら2番目の検出領域B4では画面上、不動状態であるバ
スを検出するため、動きベクトルb4は0となる。
と同じ動作をし、動きベクトルa4と動きベクトルb4
との比較では、動きベクトルa4の映出体が動きベクト
ルb4の映出体よりも後方に位置すると判断し、左目用
映像信号を遅延された映像信号とすべきであると判定す
る。
4との比較では、動きベクトルc4の映出体が動きベク
トルb4の映出体よりも後方に位置すると判断し、左目
用映像信号を遅延された映像信号とすべきであると判定
する。
d4との比較を終えた後、ステップS2において、1画
面の全ての動きベクトル比較が終了したと判断し
(Y)、ステップS11に進む。
た4個の判定結果を比較する。ここでは、4個の判定結
果が全て、左目用映像信号を遅延された映像信号とすべ
きであると判定しているため、全ての判定結果が同じで
あると判定して(Y)ステップS12に進む。
て、左目用映像信号が遅延された映像信号となるように
映像切換回路2を切り換え制御する。これにより、観察
者は動きベクトルa3、c3、a4、c4の映出体であ
る家等(背景)が動きベクトルb3、b4の映出体であ
るバス(被写体)よりも後方に位置するように観察する
ことが出来る。
場合も、具体的な説明は省略するが、CPU8は前述の
現フィールドが図5(a)の映像の場合と同様の動作を
行い、ステップS8あるいはステップS10において、
動きベクトルa3’、c3’の映出体が動きベクトルb
3’の映出体よりも後方に位置すると判断し、左目用映
像信号を遅延された映像信号とすべきであると判定し、
また、動きベクトルa4’、c4’の映出体が動きベク
トルb4’の映出体よりも後方に位置すると判断し、左
目用映像信号を遅延された映像信号とすべきであると判
定する。
判定結果が全て、左目用映像信号を遅延された映像信号
とすべきであると判定しているため、ステップS12に
おいて、左目用映像信号が遅延された映像信号となるよ
うに映像切換回路2を切り換え制御する。
3’、c3’、a4’、c4’の映出体である家等(背
景)が動きベクトルb3’、b4’の映出体であるバス
(被写体)よりも後方に位置するように観察することが
出来る。
プS7、ステップS8、ステップS9及びステップS1
0で得られた判定結果が全て同じであるため、ステップ
S12に進んだが、元になる2次元映像の被写体の動き
が複雑であったり、動きベクトルの検出に誤動作が生じ
た場合、ステップS7、ステップS8、ステップS9及
びステップS10で得られた判定結果の中には異なる結
果がある場合がある。この場合、ステップS11では、
判定結果が全て同じではないと判定して(N)動作を終
了する。
テップS9及びステップS10で得られた判定結果の中
に異なる結果があるフィールドにおいては、CPU8は
映像切換回路2を切り換え制御せず、現在の切り換え状
態を保持する。
映像毎に動きベクトルを検出しているが、1フレームの
映像、あるいは数フィールドの映像毎に動きベクトルを
検出しても良い。尚、本発明の広い意味では、これら1
フレーム、数フィールドのことを含めて1フィールドと
表現している。
説明する。図6は第2実施例の3次元映像ソフト変換シ
ステムの要部概略ブロック図であり、第1実施例の図1
と同一部分には同一符号を付し、その説明は割愛する。
像ソフト変換システムの回路構成は第1実施例と略同一
であり、動きベクトル検出回路7’及びCPU8’の動
作において第1実施例とは異なる。
ように、1フィールドを構成する画面のうち、上下方向
を5分割、左右方向を8分割してなる40個の検出領域
A1、B1、C1・・・H1、A2、B2、C2・・・
H2、A3、B3、C3・・・H3、A4、B4、C4
・・・H4、A5、B5、C5・・・H5で代表点マッ
チング法により動きベクトルを検出している。
7’により検出された動きベクトルより水平成分(以
後、単に動きベクトルという)を抽出し、この抽出され
た動きベクトルに基づいて図8に示す第1段階〜第7段
階の動作を行い、元の2次元映像において動いている対
象物(映出体)が被写体であるか、背景であるかを判定
し、この判定結果に基づいて映像切換回路2及びメモリ
制御回路6の制御を行う。
れを模式的に示す図、図10及び図11図はCPU8’
のフィールド周期の動作を示すフローチャートである。
以下、図10、図11に従って、図9に示した第1段階
〜第7段階の動作について説明する。
て、入力した元の2次元映像にシーンの変化(シーンチ
ェンジ)があるか否かを検出する。ステップS1におい
て、シーンの変化があると判定されると(Y)、ステッ
プS16において、フィールドメモリ5の遅延量及び遅
延量の目標値を0に設定し、更に、ステップS17にお
いて、CPU8’にうち被写体/背景の判定に使用する
構造体の変数を初期化する。尚、遅延量の目標値とは、
判定後、すぐにメモリ制御回路6を制御するのではな
く、数フィールドの検出を行い、安定した判定結果が得
られてからメモリ制御回路6を制御するためのものであ
る。
化が無いと判定されると(N)、ステップS2におい
て、テレシネモードの判定、安定化を行う。テレシネモ
ードの判定とは、元の2次元映像信号に映画フィルムを
テレビジョン信号に変換(テレシネ変換)することによ
って作成された信号があるか否かを判定することであ
る。また、テレシネモードの安定化とは、上記テレシネ
モードの判定によりテレシネ変換された信号があると確
認された場合、その確認されたフィールドより60フィ
ールドの期間はテレシネ変換された信号の期間、即ちテ
レシネモードであるとする動作である。尚、後述するス
テップS15において、遅延量の目標値を算出する際、
テレシネモードであるか否かによって算出方法が異な
り、テレシネモードの判定結果が頻繁に変化すると、遅
延量の目標値も頻繁に変化するため、それを避けるため
テレシネモードの安定化を行っている。
段階以降の動作を説明する前に、ステップS3〜ステッ
プS9の動作について簡単に説明する。ステップS3は
現フィールドが1フィールド目であるか否かを、ステッ
プS4は現フィールドが2フィールド目であるか否か
を、ステップS5は現フィールドが3フィールド目であ
るか否かを、ステップS6は現フィールドが4フィール
ド目であるか否かを、ステップS7は現フィールドが5
フィールド目であるか否かを、ステップS8は現フィー
ルドが6フィールド目であるか否かを、ステップS9は
現フィールドが7〜9フィールド目であるか否かを夫々
判定するステップであるが、フィールドのカウント数
は、ステップS1でシーンの変化があると判定され、ス
テップS17で構造体の変数の初期化が行われる時点を
基準に10フィールド経過毎にリセットされるように設
定されている。
が起こってから10フィールド毎にフィールド数のカウ
ント数がリセットされる。即ち、ステップS3における
1フィールド目とは、実質的にはシーンの変化が起こっ
たフィールドから(10n+1)フィールド目を意味
し、同様に、ステップS4〜S9における2フィールド
目はシーンの変化が起こったフィールドから(10n+
2)フィールド目を、3フィールド目はシーンの変化が
起こったフィールドから(10n+3)フィールド目
を、・・・9フィールド目はシーンの変化が起こったフ
ィールドから(10n+9)フィールド目を夫々意味す
る。但し、nは0を含む自然数である。
から1〜20フィールド目の間では、図9に示すよう
に、ステップS18、ステップS19により遅延量の目
標値が必ず0に設定される。
テップS2の動作が終了し、ステップS3において、現
フィールドが1フィールド目であると判定されると
(Y)、第2段階の動作であるステップS10に移行す
る。
10フィールド期間において検出された動きベクトルの
累積和、及び相関値(AVE、MIN)の累積和を取り
込む。尚、直前の10フィールド期間とは、現フィール
ドがシーンの変化が起こったフィールドから21フィー
ルド目の時には11フィールド目から20フィールド目
までの10フィールド期間のことである。尚、相関値と
は、各検出領域における代表点の前フィールドと現フィ
ールドでの輝度レベルの差であり、その平均値をAV
E、最小値をMINとする。
は、(1)テレシネパターンには、2−2、2−3プル
ダウン方式等の通常のパターンとは異なるものがある。
例えば、2−2プルダウン方式とは、2フィールドに1
回映像が変化することを意味する。つまり、2フィール
ドの間は同じ映像が流れ、その時の動きベクトルは0で
ある。このように動きベクトルが0になるフィールドが
あるため、数フィールドの累積和を使用する必要があ
る。(2)上記のテレシネパターンに対応するために、
2と5(2−3プルダウン方式は5フィールド周期であ
る)の最小公倍数で10フィールドとする。
ルドがステップS1でシーンの変化があると判定してか
ら20フィールド以内であるか否かを判定する。現フィ
ールドが1フィールド目あるいは11フィールド目であ
る場合は、20フィールド以内であると判定され
(Y)、ステップS19において遅延量の目標値を0に
設定し、現フィールドでの動作を終了する。また、現フ
ィールドが21フィールド目、31フィールド目、41
フィールド目・・・の時には、ステップS18におい
て、20フィールド以内で無いと判定され(N)、直に
現フィールドでの動作を終了する。
ルドになると、ステップS3において、現フィールドが
1フィールド目でないと判定され(N)、ステップS4
において、現フィールドが2フィールド目であると判定
され(Y)、第3段階の動作であるステップS11に移
行する。
プS10で取り込まれた10フィールド期間の動きベク
トルの累積和について、各検出領域毎にNG領域(誤り
領域)の判別を行う。NG領域とは、検出領域で得られ
た動きベクトルの信頼性が低い、または映像の動きに関
与していない動きベクトルを持つ領域のことである。
(1)、(2)、(3)に示す方法を行っている。 (1)検出領域の相関値の平均値AVEが相対的に低
く、10フィールド期間で累積された40個の検出領域
の相関値の平均値AVEの1/5以下の領域をNG領域
とする。
低く、累積和が200以下の領域をNG領域とする。 (3)最下段の検出領域A5、B5、C5・・・H5
で、動きベクトルの累積和の大きさが0であるとき、字
幕の可能性があるため、その領域をNG領域とする。
ンにより決定した値である。また、(2)の定数200
はブルーバックと一般の映像での相関値の値を比較し、
ブルーバックのときだけは、ほとんど領域をNG領域と
するための値である。
ると、ステップS18において、現フィールドが2フィ
ールド目あるいは12フィールド目である場合は、20
フィールド以内であると判定され(Y)、ステップS1
9において遅延量の目標値を0に設定し、現フィールド
での動作を終了する。また、現フィールドが22フィー
ルド目、32フィールド目、42フィールド目・・・の
時には、ステップS18において、20フィールド以内
で無いと判定され(N)、直に現フィールドでの動作を
終了する。
ルドになると、ステップS4において、現フィールドが
2フィールド目でないと判定され(N)、ステップS5
において、現フィールドが3フィールド目であると判定
され(Y)、第4段階及び第5段階の動作であるステッ
プS12に移行する。
プS11でNG領域では無いと判定された有効な検出領
域に関して、動きベクトルの最大値と最小値との差を8
分割し、この8分割された夫々の範囲における検出領域
の数を求め、図12に示すような動きベクトルの大きさ
のヒストグラムを作成する。尚、ここで云う動きベクト
ルの大小関係は、左から右に向いている動きベクトルを
正の動きベクトル、右から左に向いている動きベクトル
を負の動きベクトルとして定めている。そして、このヒ
ストグラムにおいて、8分割された範囲のうち検出領域
数が1個であり、且つ大小どちらか一方の隣に検出領域
数が0である範囲が存在する範囲の領域は、疑わしい検
出領域としてヒストグラムから取り除く。図12におい
ては、γの部分が取り除かれる。
12では、引き続き第5段階の動作を行う。 [第5段階]第4段階で作成されたヒストグラムにおい
て、図12に示すように、最小値αと最大値βとの平均
値(α+β)/2を分割レベルとし、この分割レベルよ
りも小さい動きベクトルが検出された検出領域をLブロ
ックと、分割レベルよりも大きい動きベクトルが検出さ
れた検出領域をHブロックと夫々定義する。
ステップS18において、現フィールドが3フィールド
目あるいは13フィールド目である場合は、20フィー
ルド以内であると判定され(Y)、ステップS19にお
いて遅延量の目標値を0に設定し、現フィールドでの動
作を終了する。また、現フィールドが23フィールド
目、33フィールド目、43フィールド目・・・の時に
は、ステップS18において、20フィールド以内で無
いと判定され(N)、直に現フィールドでの動作を終了
する。
ルドになると、ステップS5において、現フィールドが
3フィールド目でないと判定され(N)、ステップS6
において、現フィールドが4フィールド目であると判定
され(Y)、第6段階の前半の動作である判別Aを行う
ステップS13に移行する。
いう第1の被写体/背景判別を行う。判別Aでは、動き
ベクトルの検出領域のうち、図13の斜線領域である上
端、左端、右端の16個の検出領域A1、B1、C1、
D1、E1、F1、G1、H1、A2、A3、A4、A
5、H2、H3、H4、H5を第1の領域として注目す
る。
映っている場合が多い。従って、画面の端である前記第
1の領域において、前述のLブロックの領域数とHブロ
ックの領域数とをカウントして比較し、その数が多い方
のブロックの領域を40個の検出領域全体において背景
領域(後方領域)と判別する。また、背景領域以外の検
出領域を被写体領域(前方領域)と判別する。
ロックの領域数の方がHブロックの領域数よりも多い場
合は、40個の検出領域全体においてLブロックの検出
領域を背景領域と判別し、Hブロックの検出領域を被写
体領域と判別する。
域数とHブロックの領域数とが等しい場合は、判別Aで
の第1の被写体/背景判別は行わない。以上がステップ
S13で行う判別Aの動作であり、このステップS13
が終了すると、ステップS18において、現フィールド
が4フィールド目あるいは14フィールド目である場合
は、20フィールド以内であると判定され(Y)、ステ
ップS19において遅延量の目標値を0に設定し、現フ
ィールドでの動作を終了する。また、現フィールドが2
4フィールド目、34フィールド目、44フィールド目
・・・の時には、ステップS18において、20フィー
ルド以内で無いと判定され(N)、直に現フィールドで
の動作を終了する。
おいて、現フィールドが4フィールド目でないと判定さ
れ(N)、ステップS7において、現フィールドが5フ
ィールド目であると判定され(Y)、第6段階の後半の
動作である判別B、判別Cを行うステップS14に移行
する。
写体/背景判別と、判別Cという第3の被写体/背景判
別と、判別A、B、Cより得られた判別結果から最終的
な被写体/背景判別を行う。
ち、図14の斜線領域である中央の4個の検出領域D
3、E3、D4、E4を第2の領域として注目する。通
常の映像では、被写体は画面の中央の部分に映っている
場合が多い。従って、画面の中央である前記第2の領域
において、前述のLブロックの領域数とHブロックの領
域数とをカウントして比較し、その数が多い方のブロッ
クの領域を40個の検出領域全体において被写体領域
(前方領域)と判別する。また、被写体領域以外の検出
領域を背景領域(後方領域)と判別する。
ロックの領域数の方がLブロックの領域数よりも多い場
合は、40個の検出領域全体においてHブロックの検出
領域を被写体領域と判別し、Lブロックの検出領域を背
景領域と判別する。
域数とHブロックの領域数とが等しい場合は、判別Bで
の第2の被写体/背景判別は行わない。以上が判別Bの
動作であり、この判別Bの動作が終了すると、判別A、
判別Bの判別結果を比較し、両者の判別結果が等しい場
合は、その結果を最終的な被写体/背景判別の結果と
し、以上でステップS14の動作を終了する。また、両
者の判別結果が異なる場合は、次の判別Cを行う。
ロックの領域が背景領域であり、Hブロックの領域が被
写体領域であると判別された場合、Lブロックの領域が
背景領域、Hブロックの領域が背景領域を最終的な被写
体/背景判別の結果とし、ステップS14の動作を終了
する。
域が背景領域であり、Hブロックの領域が被写体領域で
あると判別され、判別Bでは判別Aとは逆にLブロック
の領域が被写体領域であり、Hブロックの領域が背景領
域であると判別された場合は、次の判別Cを行う。
方において、Lブロックの領域数とHブロックの領域数
が等しく、判別Aまたは判別Bのどちらか一方しか行わ
れない場合は、行われた一方の判別の結果を最終的な被
写体/背景判別の結果とする。
て、Lブロックの領域数とHブロックの領域数とが等し
く、判別A、判別Bの両方とも行われない場合は、次の
判別Cを行う。
において、Lブロックの領域数とHブロックの領域数と
を比較し、領域数の少ない方のブロックを検出する。次
に、この領域数の少ない方のブロックに注目し、この注
目されたブロックの40個の検出領域全体にある領域数
に対して第1の検出領域にある領域数の割合、即ち(第
1の検出領域での注目ブロックの領域数)/(40個の
検出領域での注目ブロックの領域数)を求め、その割合
がが所定値以上の場合は、そのブロックの領域を背景領
域(後方領域)と判別する。また、それ以外の場合は、
前記領域数の少ない方のブロックの領域を被写体領域
(前方領域)とする。そして、この判別Cによる判別結
果を最終的な被写体/背景判別の判別結果とする。
おり、この値は多数の様々の映像に対して実験を行うこ
とにより得られた値である。尚、判別Aと判別Bとで異
なる判別結果が得られるのは、被写体が画面の端に位置
する場合が多く、判別Cは、大きい被写体が画面の端に
映っている場合には、背景領域は画面全体においては領
域数が少ないが、そのうち画面の端を占める割合が所定
値以上になるという考えに基づいていおり、また、小さ
い被写体が画面の端に映っている場合には、被写体領域
は画面全体においては領域数が少なく、そのうち画面の
端を占める割合も所定値より小さくなるという考えに基
づいている。
Cの動作であり、このステップS14が終了すると、ス
テップS18において、現フィールドが5フィールド目
あるいは15フィールド目である場合は、20フィール
ド以内であると判定され(Y)、ステップS19におい
て遅延量の目標値を0に設定し、現フィールドでの動作
を終了する。また、現フィールドが25フィールド目、
35フィールド目、45フィールド目・・・の時には、
ステップS18において、20フィールド以内で無いと
判定され(N)、直に現フィールドでの動作を終了す
る。
おいて、現フィールドが5フィールド目でないと判定さ
れ(N)、ステップS8において、現フィールドが6フ
ィールド目であると判定され(Y)、第7段階の動作を
行うステップS15に移行する。
第5段階の最終的な被写体/背景判別によって被写体領
域である判別されたブロックにおける10フィールド期
間の動きベクトルの累積和を求め、この累積和を前記被
写体領域のブロック数で除算することにより累積和の平
均値HIを求める。また、背景領域であると判別された
ブロックにおいても10フィールド期間の動きベクトル
の累積和を求め、この累積和を前記背景領域のブロック
数で除算することにより累積和の平均値HAを求める。
れた映像である場合、動きベクトルのあるフィールドと
動きベクトルの無いフィールドが存在するため、前記平
均値HI、HAを求める際には、前述の計算によって得
られた平均値を2倍(2−2プルダウン方式の場合)あ
るいは2.5倍(2−3プルダウン方式の場合)する必
要がある。
ルの平均値HIの絶対値と、背景領域のブロックの動き
ベクトルの平均値HAの絶対値とを比較し、
HIの絶対値に基づいてフィールドメモリ5の遅延量の
目標値の絶対値を算出する。そして、前記平均値HIが
正の値の時は、遅延量の目標値も正とし、前記平均値H
Iが負の値の時は、遅延量の目標値も負とする。
Aの絶対値に基づいてフィールドメモリ5の遅延量の目
標値の絶対値を算出する。そして、前記平均値HAが正
の値の時は、遅延量の目標値は負とし、前記平均値HI
が負の値の時は、遅延量の目標値は正とする。尚、元に
なる2次元映像の種類としては横流れ映像がある。この
横流れ映像とは、被写体、背景ともに明らかに同一方向
に動いている映像である。例えば、車窓から風景などを
撮影した際に、遠くの風景はゆっくりと、近くにあるも
のは早く流れていく映像である。元になる2次元映像が
このような横流れの映像である時には、前述の方法で求
められた遅延量の目標値をそのまま使用せずに以下の方
法で求められた値を使用する。
時には、遅延量の目標値は大きさが前述の方法で求めら
れた遅延量の目標値の絶対値であり、符号は正とする。
また、元になる2次元映像が左流れの映像である時に
は、遅延量の目標値は大きさが前述の方法で求められた
遅延量の目標値の絶対値であり、符号は負である。
ステップS18において、現フィールドが6フィールド
目あるいは16フィールド目である場合は、20フィー
ルド以内であると判定され(Y)、ステップS19にお
いて遅延量の目標値を0に設定し、現フィールドでの動
作を終了する。また、現フィールドが26フィールド
目、36フィールド目、46フィールド目・・・の時に
は、ステップS18において、20フィールド以内で無
いと判定され(N)、直に現フィールドでの動作を終了
する。
ールドの期間は、ステップS9において、現フィールド
が7〜9フィールド目であると判定され(Y)、ステッ
プS18に移行する。ステップS18では、現フィール
ドが7〜9フィールド目あるいは17〜19フィールド
目である場合は、20フィールド以内であると判定され
(Y)、ステップS19において遅延量の目標値を0に
設定し、現フィールドの動作を終了する。また、現フィ
ールドが27〜29フィールド目、37〜39フィール
ド目、47〜49フィールド目・・・の時には、ステッ
プS18において、20フィールド以内で無いと判定さ
れ(N)、直に現フィールドでの動作を終了する。
ップS9において、現フィールドが現フィールドが7〜
9フィールド目でないと判定され(N)、ステップS2
0においてフィールドカウンタをリセットする。このス
テップS20の動作により、前述したように、フィール
ドのカウント数は、ステップS1でシーンの変化がある
と判定され、ステップS17で構造体の変数の初期化が
行われる時点を基準に10フィールド経過毎にリセット
される。
動作であり、10フィールド周期で繰り返し行われる。
図15及び図16は第5段階〜第7段階の動作における
判別A、判別B、判別C、及び遅延量決定の流れを示す
図である。
ップであり、図13に示した第1の領域におけるHブロ
ックの領域数とLブロックの領域数とを比較し、Hブロ
ックの領域数の方が多い場合はステップS22に進み、
両者の領域数が等しい場合はステップS23に進み、L
ブロックの領域数の方が多い場合はステップS24に進
む。 ステップS22、S23、S24は判別Bの動作
を行うステップであり、図14に示した第2の領域にお
けるHブロックの領域数とLブロックの領域数とを比較
するステップである。ステップS22において、Hブロ
ックの領域数の方が多い場合はステップS25に進み、
両者の領域数が等しい場合あるいはLブロックの領域数
の方が多い場合は、Hブロックの領域が背景領域、Lブ
ロックの領域が被写体領域であるを最後の被写体/背景
判別の判別結果(e)(f)とする。
クの領域数の方が多い場合は、Hブロックの領域が被写
体領域、Lブロックの領域が背景領域であるを最後の被
写体/背景判別の判別結果(g)とし、両者の領域数が
等しい場合はステップS26に進み、Lブロックの領域
数の方が多い場合は、Hブロックの領域が背景領域、L
ブロックの領域が被写体領域であるを最後の被写体/背
景判別の判別結果(l)とする。 また、ステップS2
4において、Hブロックの領域数の方が多い場合あるい
は両者の領域数が等しい場合は、Hブロックの領域が被
写体領域、Lブロックの領域が背景領域であるを最後の
被写体/背景判別の判別結果(m)(n)とし、Lブロ
ックの領域数の方が多い場合はステップS27に進む。
は、判別Cの前半の動作を行うステップであり、40個
の検出領域全体においてHブロックの領域数とLブロッ
クの領域数とを比較し、領域数の少ない方のブロックを
判別する。ステップS25、S26、S27において、
Hブロックの領域数の方が少ない場合は夫々、ステップ
S28、S30、S32に進み、Lブロックの領域数の
方が少ない場合は夫々、ステップS29、S31、S3
3に進む。
動作を行うステップであり、領域数の少ない方のブロッ
クに注目し、40個の検出領域全体内にある領域数のう
ち第1の領域にある領域数の割合が0.45以上である
か否かを判別するステップである。ステップS28、S
30、S32において、領域数の少ないHブロックの前
記割合が0.45以上である場合、あるいはステップS
29、S31、S33において、領域数の少ないLブロ
ックの第1の領域に占める割合が0.45より小さい場
合は、Hブロックの領域が背景領域、Lブロックの領域
が被写体ブロックであると判定し、これを最後の被写体
/背景判別の判別結果(a)(h)(o)(d)(k)
(r)とする。
おいて、領域数の少ないHブロックの第1の領域に占め
る割合が0.45より小さい場合、あるいはステップS
29、S31、S33において、領域数の少ないLブロ
ックの第1の領域に占める割合が0.45以上である場
合は、Hブロックの領域が被写体領域、Lブロックの領
域が背景領域であると判定し、これを最後の被写体/背
景判別の判別結果(b)(i)(p)(c)(j)
(q)とする。
夫々、遅延量の決定を行うステップであり、Hブロック
の検出領域における動きベクトルの平均値(平均動きベ
クトル)の絶対値とLブロックの検出領域における動き
ベクトルの平均値(平均動きベクトル)の絶対値とを比
較するステップである。
体領域、Lブロックの検出領域が背景領域である判別結
果(b)(c)(g)(i)(j)(m)(n)(p)
(q)である場合、Hブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は被
写体領域であるHブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方の目の映像信号を遅延さ
せる(I)。また、Lブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は背
景領域であるLブロックの検出領域における平均動きベ
クトルの絶対値により決定され、遅延の向きは前記平均
動きベクトルが向いている方と逆の方の目の映像信号を
遅延させる(II)。
Lブロックの検出領域が被写体領域である判別結果
(a)(d)(e)(f)(h)(k)(l)(o)
(r)である場合、Lブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は被
写体領域であるLブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方の目の映像信号を遅延さ
せる(III)。また、Hブロックの検出領域における平
均動きベクトルの絶対値の方が大きい場合は、遅延量は
背景領域であるHブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方と逆の方の目の映像信号
を遅延させる(IV)。
について第3段階〜第7段階の動作を図15、図16の
流れ従い説明する。図17(a)(b)は被写体である
自動車が画面上において左から右に進む場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図17(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
1個、Lブロックの検出領域は9個である。従って、図
15のステップS21の判別Aにおいては、Lブロック
の検出領域の方が多いと判定され、ステップS24に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が被写体領域、Lブロックの検出領域が背景領
域である。
域におけるHブロックの検出領域は4個、Lブロックの
検出領域は0個である。従って、図15のステップS2
4の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、最終の被写体/背景判別結果(m)に進
む。即ち、この場合は、判別Bにおいても、判別Aと同
様にHブロックの検出領域が被写体領域、Lブロックの
検出領域が背景領域であると判別されるため、この判別
結果を最終的な判別結果としている。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS46において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている方側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
おいて、自動車の進んでいる方の目、即ち右目用の映像
が遅延された数フィールド前の映像となり、自動車が手
前側に位置する立体映像を表示することが出来る。
上において左から右に移動する場合の1フィールド目の
映像と10フィールド目の映像を示す図である。このよ
うな映像の場合、動きベクトルの各検出領域は、図19
(c)に示すように、第3段階でNG領域が判定され、
第4段階でHブロックの検出領域とLのブロックの検出
領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
12個、Lブロックの検出領域は1個である。従って、
図15のステップS21の判別Aにおいては、Hブロッ
クの検出領域の方が多いと判定され、ステップS22に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が背景領域、Lブロックの検出領域が被写体
領域である。
領域におけるHブロックの検出領域は0個、Lブロック
の検出領域は4個である。従って、図15のステップS
22の判別Bにおいては、Hブロックの検出領域の方が
多いと判定され、最終の被写体/背景判別結果(f)に
進む。即ち、この場合は、判別Bにおいても、判別Aと
同様にHブロックの検出領域が背景領域、Lブロックの
検出領域が被写体領域であると判別されるため、この判
別結果を最終的な判別結果としている。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS39において遅延量決定(IV)に進む。即ち、
遅延量は背景領域であるHブロックの平均動きベクトル
の絶対値により決定され、遅延の向きはHブロックの平
均動きベクトルが向いている右側とは逆の左側の目、即
ち左目用の映像信号を遅延させた映像信号とする。
おいて、家が移動している方とは逆の方の目、即ち左目
用の映像が遅延された数フィールド前の映像となり、家
が奥側に位置する立体映像を表示することが出来る。
い場合の例である。次に、判別Aと判別Bとの判別結果
が異なり、判別Cを行う例について説明する。
画面上において左から右端に飛んでいる場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図21(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに区別される。
すように、第1の領域におけるHブロックの検出領域は
2個、Lブロックの検出領域は11個である。従って、
図15のステップS21の判別Aにおいては、Lブロッ
クの検出領域の方が多いと判定され、ステップS24に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が被写体領域、Lブロックの検出領域が背景
領域である。
域におけるHブロックの検出領域は1個、Lブロックの
検出領域は3個である。従って、図15のステップS2
4の判別Bにおいては、Lブロックの検出領域の方が多
いと判定され、ステップS27に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であり、判別A
の結果とは逆の結果である。従って、ステップS27の
判別Cに進む。
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は7個、Lブロックの領域数は28個であるため、H
ブロックの方が少なく、ステップS32に進む。
いHブロックに注目し、図22(b)に示す第1の領域
にあるHブロックの割合を求める。即ち、40個の検出
領域全体におけるHブロックの領域数は7個、第1の領
域におけるHブロックの領域数は2個であるため、第1
領域にあるHブロックの割合は2/7=0.28・・・
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(p)に進む。即ち、Hブロックの検出領域
が被写体領域、Lブロックの検出領域が背景領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS49において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている右側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
おいて、小鳥が飛んでいる方の目、即ち右目用の映像が
遅延された数フィールド前の映像となり、小鳥が手前側
に位置する立体映像を表示することが出来る。
画面上において右端から左に進んでいる場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図23(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
4個、Lブロックの検出領域は9個である。従って、図
16のステップS21の判別Aにおいては、Lブロック
の検出領域の方が多いと判定され、ステップS24に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が被写体領域、Lブロックの検出領域が背景領
域である。
領域におけるHブロックの検出領域は0個、Lブロック
の検出領域は4個である。従って、図16のステップS
24の判別Bにおいては、Lブロックの検出領域の方が
多いと判定され、ステップS27に進む。即ち、この時
の判別Bの判別結果は、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であり、判別A
の結果とは逆の結果である。従って、ステップS27の
判別Cに進む。
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は8個、Lブロックの領域数は26個であるため、H
ブロックの方が少なく、ステップS32に進む。
いHブロックに注目し、図24(a)に示す第1の領域
にあるHブロックの割合を求める。即ち、40個の検出
領域全体におけるHブロックの領域数は8個、第1の領
域におけるHブロックの領域数は4個であるため、第1
領域にあるHブロックの割合は4/8=0.5となり、
0.45よりも大きいため、最終の被写体/背景判別結
果(o)に進む。即ち、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であると判別さ
れるため、この判別結果を最終的な判別結果としてい
る。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Lブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS48において遅延量決定(III)に進む。即
ち、遅延量は被写体領域であるLブロックの平均動きベ
クトルの絶対値により決定され、遅延の向きはLブロッ
クの平均動きベクトルが向いている左側の目、即ち左目
用の映像信号を遅延させた映像信号とする。
おいて、バスが進んでいる方の目、即ち左目用の映像が
遅延された数フィールド前の映像となり、バスが手前側
に位置する立体映像を表示することが出来る。
画面上において左から右端に移動する場合の1フィール
ド目の映像と10フィールド目の映像を示す図である。
このような映像の場合、動きベクトルの各検出領域は、
図25(c)に示すように、第3段階でNG領域が判定
され、第4段階でHブロックの検出領域とLのブロック
の検出領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
8個、Lブロックの検出領域は5個である。従って、図
15のステップS21の判別Aにおいては、Hブロック
の検出領域の方が多いと判定され、ステップS22に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が背景領域、Lブロックの検出領域が被写体領
域である。
域におけるHブロックの検出領域は4個、Lブロックの
検出領域は0個である。従って、図15のステップS2
2の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、ステップS25に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が被写体領
域、Lブロックの検出領域が背景領域であり、判別Aの
結果とは逆の結果である。従って、ステップS25の判
別Cに進む。
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は26個、Lブロックの領域数は8個であるため、L
ブロックの方が少なく、ステップS29に進む。
いLブロックに注目し、図26(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は8個、第1の領
域におけるHブロックの領域数は5個であるため、第1
領域にあるHブロックの割合は5/8=0.625とな
り、0.45よりも大きいため、最終の被写体/背景判
別結果(c)に進む。即ち、Hブロックの検出領域が被
写体領域、Lブロックの検出領域が背景領域であると判
別されるため、この判別結果を最終的な判別結果として
いる。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS36において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている右側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
おいて、バスが進んでいる方の目、即ち右目用の映像が
遅延された数フィールド前の映像となり、バスが手前側
に位置する立体映像を表示することが出来る。
プタが画面上において右端から左に飛んでいる場合の1
フィールド目の映像と10フィールド目の映像を示す図
である。このような映像の場合、動きベクトルの各検出
領域は、図27(c)に示すように、第3段階でNG領
域が判定され、第4段階でHブロックの検出領域とLの
ブロックの検出領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
11個、Lブロックの検出領域は1個である。従って、
図15のステップS21の判別Aにおいては、Hブロッ
クの検出領域の方が多いと判定され、ステップS22に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が背景領域、Lブロックの検出領域が被写体
領域である。
域におけるHブロックの検出領域は3個、Lブロックの
検出領域は1個である。従って、図15のステップS2
2の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、ステップS25に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が被写体領
域、Lブロックの検出領域が背景領域であり、判別Aの
結果とは逆の結果である。従って、ステップS25の判
別Cに進む。
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は26個、Lブロックの領域数は7個であるため、L
ブロックの方が少なく、ステップS29に進む。
いLブロックに注目し、図28(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は7個、第1の領
域におけるHブロックの領域数は1個であるため、第1
領域にあるHブロックの割合は1/7=0.14・・・
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(d)に進む。即ち、Hブロックの検出領域
が背景領域、Lブロックの検出領域が被写体領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Lブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS37において遅延量決定(III)に進む。即
ち、遅延量は被写体領域であるLブロックの平均動きベ
クトルの絶対値により決定され、遅延の向きはLブロッ
クの平均動きベクトルが向いている左側の目、即ち左目
用の映像信号を遅延させた映像信号とする。
おいて、ヘリコプタが飛んでいる方の目、即ち左目用の
映像が遅延された数フィールド前の映像となり、ヘリコ
プタが手前側に位置する立体映像を表示することが出来
る。
面上において左端から右に移動する場合の1フィールド
目の映像と10フィールド目の映像を示す図である。こ
のような映像の場合、動きベクトルの各検出領域は、図
29(c)に示すように、第3段階でNG領域が判定さ
れ、第4段階でHブロックの検出領域とLのブロックの
検出領域とに分割される。
すように、第1の領域におけるHブロックの検出領域は
6個、Lブロックの検出領域は6個である。従って、図
15のステップS21の判別Aにおいては、Hブロック
の検出領域の数とLブロックの検出領域の数とは等し
く、ステップS23に進む。即ち、この時の判別Aでは
被写体/背景の判別を行わない。
域におけるHブロックの検出領域は2個、Lブロックの
検出領域の数とHブロックの検出領域の数とは等しく、
ステップS26に進む。即ち、この時の判別Bは被写体
/背景判別を行わなわず、ステップS26の判別Cに進
む。
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は19個、Lブロックの領域数は16個であるため、
Lブロックの方が少なく、ステップS31に進む。
いLブロックに注目し、図30(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は16個、第1の
領域におけるHブロックの領域数は6個であるため、第
1領域にあるHブロックの割合は6/16=0.375
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(k)に進む。即ち、Hブロックの検出領域
が背景領域、Lブロックの検出領域が被写体領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図17のス
テップS44において遅延量決定(IV)に進む。即ち、
遅延量は背景領域であるHブロックの平均動きベクトル
の絶対値により決定され、遅延の向きはHブロックの平
均動きベクトルが向いている右側とは逆の左側の目、即
ち左目用の映像信号を遅延させた映像信号とする。
おいて、樹木が移動している方とは逆の方の目、即ち左
目用の映像が遅延された数フィールド前の映像となり、
樹木が奥側に位置する立体映像を表示することが出来
る。
27において、Hブロックの領域数とLブロックの領域
数が等しい場合は、現在の10フィールド期間では被写
体/背景判別を行わず、前の10フィールド期間の判別
結果を用いる、あるいは遅延量の目標値を0にする。
映し出されている複数の映出体の前後関係に応じて、左
右のどちらの目の映像を遅延された映像にするかを決め
ているため、映出体の前後関係が逆転した状態で3次元
映像に変換することは減少、若しくは無くなり、観察者
が違和感なく観賞することが出来る良好な3次元映像を
生成するようにした第1の3次元映像生成方法を提供し
得る。
量の小さい映出体の前方を通過したことを検出し、この
場合においては、移動量の大きい映出体が移動量の小さ
い映出体よりも前方に位置する3次元映像を生成するこ
とが出来る。
さい映出体の後方を通過したことを検出し、この場合に
おいては、移動量の大きい映出体が移動量の小さい映出
体よりも後方に位置する3次元映像を生成することが出
来る。
さい映出体の前方を去ったことを検出し、この場合にお
いては、移動量の大きい映出体が移動量の小さい映出体
よりも前方に位置する3次元映像を生成することが出来
る。
さい映出体の後方より新たに連続して現れたことを検出
し、この場合においては、移動量の大きい映出体が移動
量の小さい映出体よりも後方に位置する3次元映像を生
成することが出来る。
像に映し出されている映出体の前後関係の判定が困難な
時は、その時の情報を無視することにより、却って、映
出体の前後関係の間違った3次元映像を生成することを
防止した2次元映像から3次元映像を生成する方法を提
供し得る。
次元映像において、隣接する2つの映出体の前後関係を
判定することが出来る第1の前後判定方法を提供し得
る。また、本発明によれば、平面映像である2次元映像
において、映出体が後方に位置する後方領域、あるいは
/及び映出体が前方に位置する前方領域を判別すること
が出来る第2の前後判定方法を提供し得る。
ば、映出体の移動量の誤って検出した場合は、その検出
を除去するため、正確な前後判定を行うことが出来る。
更に、本発明の第2の前後判定方法によれば、テレシネ
変換等により同じ映像が連続する2次元映像に対して
も、後方領域あるいは/及び前方領域を判別することが
出来る。
置する後方領域、あるいは/及び映出体が前方に位置す
る前方領域を判別し、この判別結果に応じて、左右のど
ちらの目の映像を遅延された映像にするかを決めている
ため、映出体の前後関係が逆転した状態で3次元映像に
変換することは減少、若しくは無くなり、観察者が違和
感なく観賞することが出来る良好な3次元映像を生成す
るようにした第2の3次元映像生成方法を提供し得る。
変換システムの概略構成を示すブロック図である。
を判定する動作を説明するフローチャートを示す図であ
る。
である。
ある。
ある。
変換システムの概略構成を示すブロック図である。
である。
を判定する動作を説明するフローチャートを示す図であ
る。
を判定する際の時間的な流れを示す図である。
係を判定する動作を説明するフローチャートを示す図で
ある。
係を判定する動作を説明するフローチャートを示す図で
ある。
ロックとに分割するヒストグラムを示す図である。
図である。
図である。
係を判定する動作を説明するフローチャートを示す図で
ある。
係を判定する動作を説明するフローチャートを示す図で
ある。
る。
る。
る。
る。
る。
る。
る。
る。
る。
る。
る。
る。
る。
る。
Claims (20)
- 【請求項1】 元になる2次元映像を一方の目用の映像
とし、前記元になる2次元映像を所定フィールド遅延さ
せた映像を他方の目用の映像とすることにより、2次元
映像から3次元映像を生成する方法であって、前記元に
なる2次元映像において左右方向の移動量の大きい映出
体の左右方向の移動量の小さい映出体よりも前方に位置
するか、後方に位置するかを判定し、該判定結果により
左右どちらの目の映像を遅延させた映像にするかを決定
することを特徴とする2次元映像から3次元映像を生成
する方法。 - 【請求項2】 前記元になる2次元映像における映出体
の左右方向の移動量を検出する検出領域を前記2次元映
像を構成する画面内に複数個所設け、そのうち隣接する
検出領域で検出された2つの移動量を比較することによ
り、前記左右方向の移動量の大きい映出体が移動量の小
さい映出体よりも前方に位置するか、後方に位置するか
を判定することを特徴とする請求項1記載の2次元映像
から3次元映像を生成する方法。 - 【請求項3】 前記2つの移動量の大きさが異なり、移
動量の大きい方の映出体が移動量の小さい方の映出体に
向かって移動し、且つ小さい方の移動量を検出した検出
領域で所定時間経過後に検出される移動量が前記移動量
の大きい方の映出体の影響を受ける場合、前記移動量の
大きい方の映出体が前記移動量の小さい方の映出体より
も前方に位置し、前記移動量の大きい方の映出体の移動
方向側の目の映像を遅延させるべきであると判定するこ
とを特徴とする請求項2記載の2次元映像から3次元映
像を生成する方法。 - 【請求項4】 前記2つの移動量の大きさが異なり、移
動量の大きい方の映出体が移動量の小さい方の映出体に
向かって移動し、且つ小さい方の移動量を検出した検出
領域で所定時間経過後に検出される移動量が前記移動量
の大きい方の映出体の影響を受けない場合、前記移動量
の大きい方の映出体が前記移動量の小さい方の映出体よ
りも後方に位置し、前記移動量の大きい方の映出体の移
動方向と反対側の目の映像を遅延させるべきであると判
定することを特徴とする請求項2記載の2次元映像から
3次元映像を生成する方法。 - 【請求項5】 前記2つの移動量の大きさが異なり、移
動量の大きい方の映出体が移動量の小さい方の映出体に
向かって移動しておらず、且つ大きい方の移動量を検出
した検出領域で所定時間経過後に検出される移動量が前
記移動量の小さい方の映出体の影響を受ける場合、前記
移動量の大きい方の映出体が前記移動量の小さい方の映
出体よりも前方に位置し、前記移動量の大きい方の映出
体の移動方向側の目の映像を遅延させるべきであると判
定することを特徴とする請求項2記載の2次元映像から
3次元映像を生成する方法。 - 【請求項6】 前記2つの移動量の大きさが異なり、移
動量の大きい方の映出体が移動量の小さい方の映出体に
向かって移動しておらず、且つ大きい方の移動量を検出
した検出領域で所定時間経過後に検出される移動量が前
記移動量の小さい方の映出体の影響を受けない場合、前
記移動量の大きい方の映出体が前記移動量の小さい方の
映出体よりも後方に位置し、前記移動量の大きい方の映
出体の移動方向と反対側の目の映像を遅延させるべきで
あると判定することを特徴とする請求項2記載の2次元
映像から3次元映像を生成する方法。 - 【請求項7】 前記映出体の移動量を動きベクトルによ
り求めることを特徴とする請求項1、2、3、4、5ま
たは6記載の2次元映像から3次元映像を生成する方
法。 - 【請求項8】 左目用映像信号を出力する左目用出力端
子と、右目用映像信号を出力する右目用出力端子と、前
記遅延された映像信号を前記左目用映像端子、前記右目
用映像端子のどちらから出力するかを切り換える映像切
換手段とを備え、前記映像切換手段の切り換え制御を前
記判定結果に従って行うことを特徴とする請求項1、
2、3、4、5、6または7記載の2次元映像から3次
元映像を生成する方法。 - 【請求項9】 前記判定結果が1フィールド期間内にお
いて全て同じである場合に、前記映像切換手段の切り換
え制御を行うことを特徴とする請求項8記載の2次元映
像から3次元映像を生成する方法。 - 【請求項10】 2次元映像における映出体の左右方向
の移動量を検出する検出領域を前記2次元映像を構成す
る画面内に複数個所設け、そのうち隣接する検出領域で
検出された2つの移動量を比較することにより、前記左
右方向の移動量の大きい映出体が移動量の小さい映出体
よりも前方に位置するか、後方に位置するかを判定する
ことを特徴とする映像の前後判定方法。 - 【請求項11】 前記元になる2次元映像における映出
体の左右方向の移動量を検出する検出領域を前記2次元
映像を構成する画面内に多数個所設け、そのうち画面の
端に位置する検出領域での左右方向の移動量の大きい映
出体を検出する領域数と移動量の小さい映出体を検出す
る領域数とを比較し、領域数の多い方の映出体の検出領
域を後方に位置する後方領域であると判別することを特
徴とする映像の前後判定方法。 - 【請求項12】 2次元映像における映出体の左右方向
の移動量を検出する検出領域を前記2次元映像を構成す
る画面内に多数個所設け、そのうち画面の中央に位置す
る検出領域での左右方向の移動量の大きい映出体を検出
する領域数と移動量の小さい映出体を検出する領域数と
を比較し、領域数の多い方の映出体の検出領域を前方に
位置する前方領域であると判別することを特徴とする映
像の前後判定方法。 - 【請求項13】 2次元映像における映出体の左右方向
の移動量を検出する検出領域を前記2次元映像を構成す
る画面全域に多数個所設け、該多数個所の検出領域での
左右方向の移動量の大きい映出体を検出する領域数と移
動量の小さい映出体を検出する領域数とを比較し、領域
数の少ない方の映出体の検出領域に注目し、該注目され
た検出領域の(画面の端での領域数)/(画面全域での
領域数)が所定値以上の時、前記注目された領域を画面
の後方に位置する後方領域であると判別することを特徴
とする映像の前後判定方法。 - 【請求項14】 前記元になる2次元映像における映出
体の左右方向の移動量を検出する検出領域を前記2次元
映像を構成する画面内に多数個所設け、そのうち画面の
端に位置する検出領域での左右方向の移動量の大きい映
出体を検出する領域数と移動量の小さい映出体を検出す
る領域数とを比較し、領域数の多い方の映出体の検出領
域を後方に位置する後方領域であるとする第1の判別
と、前記多数個所の検出領域のうち画面の中央に位置す
る検出領域での左右方向の移動量の大きい映出体を検出
する領域数と移動量の小さい映出体を検出する領域数と
を比較し、領域数の多い方の映出体の検出領域を前方に
位置する前方領域であるとする第2の判別とを行い、前
記第1の判別により後方領域であると判別された領域
と、前記第2の判別により前方領域であると判別された
領域とが異なる領域である場合、前記第1、第2の判別
結果を最終の判別結果とすることを映像の前後判別方
法。 - 【請求項15】 前記元になる2次元映像における映出
体の左右方向の移動量を検出する検出領域を前記2次元
映像を構成する画面内に多数個所設け、そのうち画面の
端に位置する検出領域での左右方向の移動量の大きい映
出体を検出する領域数と移動量の小さい映出体を検出す
る領域数とを比較し、領域数の多い方の映出体の検出領
域を後方に位置する後方領域であるとする第1の判別
と、前記多数個所の検出領域のうち画面の中央に位置す
る検出領域での左右方向の移動量の大きい映出体を検出
する領域数と移動量の小さい映出体を検出する領域数と
を比較し、領域数の多い方の映出体の検出領域を前方に
位置する前方領域であるとする第2の判別とを行い、前
記第1の判別により後方領域であると判別された領域
と、前記第2の判別により前方領域であると判別された
領域とが同じ領域である場合、前記多数個所の検出領域
での左右方向の移動量の大きい映出体を検出する領域数
と移動量の小さい映出体を検出する領域数とを比較し、
領域数の少ない方の映出体の検出領域に注目し、該注目
された検出領域の(画面の端での領域数)/(画面全域
での領域数)が所定値以上の時、前記注目された領域を
画面の後方に位置する後方領域であると判別することを
特徴とする映像の前後判定方法。 - 【請求項16】 前記映出体の移動量を動きベクトルに
より求めることを特徴とする請求項11、12、13、
14または15記載の映像の前後判定方法。 - 【請求項17】 前記映出体の移動量を数フィールド期
間の動きベクトルの累積和により求めることを特徴とす
る請求項11、12、13、14または15記載の映像
の前後判定方法。 - 【請求項18】 前記多数個所の検出領域のうち、信頼
性の低い動きベクトルが検出された領域、または前記映
出体の動きに関与していない動きベクトルが検出された
領域を誤り領域として判別し、誤り領域では無いと判別
された領域を有効な検出領域として用いることを特徴と
する請求項11、12、13、14、15、16または
17記載の映像の前後判定方法。 - 【請求項19】 元になる2次元映像を一方の目用の映
像とし、前記元になる2次元映像を所定フィールド遅延
させた映像を他方の目用の映像とすることにより、2次
元映像から3次元映像を生成する方法において、請求項
11、12、13、14、15、16、17または18
記載の映像の前後判定方法によって得られた結果により
左右どちらの目の映像を遅延させた映像にするかを決定
することを特徴とする2次元映像から3次元映像を生成
する方法。 - 【請求項20】 移動量の大きい映出体の移動量の第1
の絶対値と、移動量の小さい映出体の移動量の第2の絶
対値とを比較し、該第1、第2の絶対値のうち値の大き
い方の映出体の移動量により前記遅延された映像の遅延
量を定めることを特徴とする請求項19記載の2次元映
像から3次元映像を生成する方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7088276A JP2951230B2 (ja) | 1994-09-22 | 1995-04-13 | 2次元映像から3次元映像を生成する方法 |
KR1019950031176A KR100345630B1 (ko) | 1994-09-22 | 1995-09-21 | 피사체의전후위치관계판정방법및2차원영상을3차원영상으로변환하는방법 |
EP95114981A EP0704823B1 (en) | 1994-09-22 | 1995-09-22 | Method of judging depth relationship between subjects for converting two-dimensional images into three-dimensional images |
DE69525497T DE69525497T2 (de) | 1994-09-22 | 1995-09-22 | Verfahren zur Bestimmung der gegenseitigen Tiefenbeziehung von Gegenständen zur Umwandlung zweidimensionaler in dreidimensionale Bilder |
US08/600,052 US5699443A (en) | 1994-09-22 | 1996-02-12 | Method of judging background/foreground position relationship between moving subjects and method of converting two-dimensional images into three-dimensional images |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6-228208 | 1994-09-22 | ||
JP22820894 | 1994-09-22 | ||
JP7088276A JP2951230B2 (ja) | 1994-09-22 | 1995-04-13 | 2次元映像から3次元映像を生成する方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08149517A true JPH08149517A (ja) | 1996-06-07 |
JP2951230B2 JP2951230B2 (ja) | 1999-09-20 |
Family
ID=26429681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7088276A Expired - Fee Related JP2951230B2 (ja) | 1994-09-22 | 1995-04-13 | 2次元映像から3次元映像を生成する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5699443A (ja) |
EP (1) | EP0704823B1 (ja) |
JP (1) | JP2951230B2 (ja) |
KR (1) | KR100345630B1 (ja) |
DE (1) | DE69525497T2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004504736A (ja) * | 2000-04-01 | 2004-02-12 | ナスケ ロルフ ディーテル | 三次元画像生成方法及び装置 |
KR100780467B1 (ko) * | 2006-09-28 | 2007-11-29 | 이관영 | 소리를 이용한 3차원 입체물 제작 장치 및 방법 |
JP2008015576A (ja) * | 2006-07-03 | 2008-01-24 | Mitsubishi Precision Co Ltd | 3次元コンピュータグラフィックス合成方法及び装置 |
JP2011223583A (ja) * | 2010-04-09 | 2011-11-04 | Thomson Licensing | 立体画像を処理するための方法および対応する装置 |
JP2016519905A (ja) * | 2013-04-09 | 2016-07-07 | ビッタニメイト インコーポレイテッド | 2次元ビデオの3次元ビデオへの変換方法及びシステム |
JP2017525198A (ja) * | 2014-06-10 | 2017-08-31 | ビッタニメイト インコーポレイテッド | 立体視深度調節及び焦点調節 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8396328B2 (en) | 2001-05-04 | 2013-03-12 | Legend3D, Inc. | Minimal artifact image sequence depth enhancement system and method |
US7907793B1 (en) | 2001-05-04 | 2011-03-15 | Legend Films Inc. | Image sequence depth enhancement system and method |
AUPO894497A0 (en) * | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
JP4407985B2 (ja) * | 1999-09-02 | 2010-02-03 | キヤノン株式会社 | 画像処理方法及び装置並びに記憶媒体 |
US6973207B1 (en) * | 1999-11-30 | 2005-12-06 | Cognex Technology And Investment Corporation | Method and apparatus for inspecting distorted patterns |
JP2001357484A (ja) * | 2000-06-14 | 2001-12-26 | Kddi Corp | 道路異常検出装置 |
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
KR100757259B1 (ko) * | 2004-10-25 | 2007-09-11 | 전자부품연구원 | 압축 동영상의 움직임 벡터를 이용하여 2차원 영상을3차원 영상으로 변환하는 방법 |
US7999849B2 (en) * | 2006-05-17 | 2011-08-16 | The Boeing Company | Moving object detection |
US20090219383A1 (en) * | 2007-12-21 | 2009-09-03 | Charles Gregory Passmore | Image depth augmentation system and method |
TW201001339A (en) * | 2008-06-25 | 2010-01-01 | Univ Nat Chiao Tung | Method of detecting moving object |
WO2010024479A1 (en) * | 2008-08-26 | 2010-03-04 | Enhanced Chip Technology Inc. | Apparatus and method for converting 2d image signals into 3d image signals |
JP5213613B2 (ja) * | 2008-09-26 | 2013-06-19 | キヤノン株式会社 | 画像処理装置及び画像処理方法及び撮像装置及びプログラム |
US8913107B2 (en) | 2010-12-23 | 2014-12-16 | Marvell World Trade Ltd. | Systems and methods for converting a 2D image to a 3D image |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9113130B2 (en) | 2012-02-06 | 2015-08-18 | Legend3D, Inc. | Multi-stage production pipeline system |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
US9483836B2 (en) | 2011-02-28 | 2016-11-01 | Sony Corporation | Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
KR101872215B1 (ko) | 2018-01-30 | 2018-06-28 | 주식회사 진영티엠에스 | 통신용 단자블럭 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4335427A (en) * | 1980-04-21 | 1982-06-15 | Technicare Corporation | Method of selecting a preferred difference image |
US4925294A (en) * | 1986-12-17 | 1990-05-15 | Geshwind David M | Method to convert two dimensional motion pictures for three-dimensional systems |
AU579550B2 (en) * | 1985-06-10 | 1988-11-24 | Nec Corporation | Movement compensation predictive encoder for a moving picture signal with a reduced amount of information |
JPH0766446B2 (ja) * | 1985-11-27 | 1995-07-19 | 株式会社日立製作所 | 移動物体像を抽出する方法 |
US4994898A (en) * | 1987-06-22 | 1991-02-19 | Aspex Limited | Color television system for processing signals from a television camera to produce a stereoscopic effect |
FR2654291B1 (fr) * | 1989-11-03 | 1992-02-21 | Pochet Roger | Procede de creation temporelle de couples d'images stereoscopiques, et dispositif mettant en óoeuvre un tel procede. |
US5283839A (en) * | 1990-12-31 | 1994-02-01 | Neurosciences Research Foundation, Inc. | Apparatus capable of figure-ground segregation |
JPH0591544A (ja) * | 1991-09-27 | 1993-04-09 | Sony Tektronix Corp | 立体画像表示用ビデオ信号生成装置 |
JP3679426B2 (ja) * | 1993-03-15 | 2005-08-03 | マサチューセッツ・インスティチュート・オブ・テクノロジー | 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム |
JPH0759119A (ja) * | 1993-08-20 | 1995-03-03 | Seiko Epson Corp | 疑似立体映像表示装置 |
-
1995
- 1995-04-13 JP JP7088276A patent/JP2951230B2/ja not_active Expired - Fee Related
- 1995-09-21 KR KR1019950031176A patent/KR100345630B1/ko not_active IP Right Cessation
- 1995-09-22 EP EP95114981A patent/EP0704823B1/en not_active Expired - Lifetime
- 1995-09-22 DE DE69525497T patent/DE69525497T2/de not_active Expired - Lifetime
-
1996
- 1996-02-12 US US08/600,052 patent/US5699443A/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004504736A (ja) * | 2000-04-01 | 2004-02-12 | ナスケ ロルフ ディーテル | 三次元画像生成方法及び装置 |
JP2008015576A (ja) * | 2006-07-03 | 2008-01-24 | Mitsubishi Precision Co Ltd | 3次元コンピュータグラフィックス合成方法及び装置 |
KR100780467B1 (ko) * | 2006-09-28 | 2007-11-29 | 이관영 | 소리를 이용한 3차원 입체물 제작 장치 및 방법 |
JP2011223583A (ja) * | 2010-04-09 | 2011-11-04 | Thomson Licensing | 立体画像を処理するための方法および対応する装置 |
US9402086B2 (en) | 2010-04-09 | 2016-07-26 | Thomson Licensing | Method for processing stereoscopic images and corresponding device |
JP2016519905A (ja) * | 2013-04-09 | 2016-07-07 | ビッタニメイト インコーポレイテッド | 2次元ビデオの3次元ビデオへの変換方法及びシステム |
JP2017525198A (ja) * | 2014-06-10 | 2017-08-31 | ビッタニメイト インコーポレイテッド | 立体視深度調節及び焦点調節 |
Also Published As
Publication number | Publication date |
---|---|
EP0704823A3 (en) | 1996-06-05 |
DE69525497D1 (de) | 2002-03-28 |
EP0704823B1 (en) | 2002-02-20 |
EP0704823A2 (en) | 1996-04-03 |
DE69525497T2 (de) | 2002-11-21 |
US5699443A (en) | 1997-12-16 |
KR960013096A (ko) | 1996-04-20 |
JP2951230B2 (ja) | 1999-09-20 |
KR100345630B1 (ko) | 2002-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2951230B2 (ja) | 2次元映像から3次元映像を生成する方法 | |
JP2846840B2 (ja) | 2次元映像から3次元映像を生成する方法 | |
JP2846830B2 (ja) | 2次元映像を3次元映像に変換する方法 | |
US5739844A (en) | Method of converting two-dimensional image into three-dimensional image | |
US8773509B2 (en) | Imaging device, imaging method and recording medium for adjusting imaging conditions of optical systems based on viewpoint images | |
US8687041B2 (en) | Stereoscopic panorama image creating apparatus, stereoscopic panorama image creating method, stereoscopic panorama image reproducing apparatus, stereoscopic panorama image reproducing method, and recording medium | |
KR100381348B1 (ko) | 2차원 영상을 3차원 영상으로 변환하는 방법 | |
US8026950B2 (en) | Method of and apparatus for selecting a stereoscopic pair of images | |
JP2010521738A (ja) | テキストを3次元コンテンツと合成するシステム及び方法 | |
KR100888081B1 (ko) | 2차원 영상 신호의 3차원 영상 신호로의 변환 절차 및 변환장치 | |
KR20050008245A (ko) | 일반 동영상에서의 3차원 그래픽 영상합성을 위한 장치 및그 방법 | |
JPH08331607A (ja) | 三次元表示画像生成方法 | |
JP2007053496A (ja) | 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置 | |
KR20120123087A (ko) | 3d 텍스트를 3d 콘텐츠와 결합하기 위한 시스템 및 방법 | |
JP5347987B2 (ja) | 映像処理装置 | |
US20130106850A1 (en) | Representative image decision apparatus, image compression apparatus, and methods and programs for controlling operation of same | |
JPH08289330A (ja) | 3次元映像変換方法 | |
JP3128467B2 (ja) | 2次元映像を3次元映像に変換する方法 | |
Atanassov et al. | 3D image processing architecture for camera phones | |
JP2846834B2 (ja) | 2次元映像を3次元映像に変換する方法 | |
JPH1198534A (ja) | 3次元映像生成方法 | |
JPH0898210A (ja) | 動きベクトル検出装置 | |
JPH08149513A (ja) | 2次元映像を3次元映像に変換する方法 | |
JP3108287B2 (ja) | 2次元映像を3次元映像に変換する方法 | |
JPH11110180A (ja) | 二次元画像を三次元画像に変換する方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080709 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080709 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090709 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090709 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100709 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100709 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110709 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120709 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120709 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130709 Year of fee payment: 14 |
|
LAPS | Cancellation because of no payment of annual fees |