JPH08149517A - 2次元映像から3次元映像を生成する方法 - Google Patents

2次元映像から3次元映像を生成する方法

Info

Publication number
JPH08149517A
JPH08149517A JP7088276A JP8827695A JPH08149517A JP H08149517 A JPH08149517 A JP H08149517A JP 7088276 A JP7088276 A JP 7088276A JP 8827695 A JP8827695 A JP 8827695A JP H08149517 A JPH08149517 A JP H08149517A
Authority
JP
Japan
Prior art keywords
image
area
areas
amount
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7088276A
Other languages
English (en)
Other versions
JP2951230B2 (ja
Inventor
Haruhiko Murata
治彦 村田
Toshiyuki Okino
俊行 沖野
Shiyuugo Yamashita
周悟 山下
Susumu Tanase
晋 棚瀬
Toshiya Iinuma
俊哉 飯沼
Hidekazu Uchida
秀和 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP7088276A priority Critical patent/JP2951230B2/ja
Priority to KR1019950031176A priority patent/KR100345630B1/ko
Priority to EP95114981A priority patent/EP0704823B1/en
Priority to DE69525497T priority patent/DE69525497T2/de
Priority to US08/600,052 priority patent/US5699443A/en
Publication of JPH08149517A publication Critical patent/JPH08149517A/ja
Application granted granted Critical
Publication of JP2951230B2 publication Critical patent/JP2951230B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【目的】 元になる2次元映像における被写体と背景等
の映出体の前後関係が逆転することなく、正確な3次元
映像を生成することが出来る2次元映像から3次元映像
を生成する方法を提供する。 【構成】 元になる2次元映像を一方の目用の映像と
し、前記元になる2次元映像を所定フィールド遅延させ
た映像を他方の目用の映像とすることにより、2次元映
像から3次元映像を生成する方法であって、CPU8
は、前記元になる2次元映像において左右方向に隣接す
る動きベクトル検出領域で検出された2つの左右方向の
動きベクトルを比較することにより、大きい方の動きベ
クトルの映出体が小さい方の動きベクトルの映出体より
も前方に位置するか、後方に位置するかを判定し、該判
定結果により左右どちらの目の映像を遅延させた映像に
するかを決定することを特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はVTRやビデオカメラ等
から出力されたり、CATVやTV放送によって伝送さ
れる2次元映像を3次元映像に変換する2次元映像から
3次元映像を生成する方法、及び2次元映像に映ってい
る映出体の前後関係を判定する映像の前後判定方法に関
する。
【0002】
【従来の技術】最近話題になっている3次元映像表示シ
ステムに使用される映像ソフトは、その大半が3次元映
像表示用に特別に作成されたものである。このような3
次元映像表示用の映像ソフトは、一般には2台のカメラ
を用いて左目用映像と右目用映像を撮像し、記録したも
のである。そして、この3次元映像ソフトに記録された
左右の映像は、略同時にディスプレイに表示され、この
2重に映し出された左目用映像及び右目用映像を観察者
の左右の目に夫々入射させることにより、観察者に3次
元映像を認識される。
【0003】しかしながら、世の中には2次元映像で作
成された映像ソフトが多数存在するが、3次元用の映像
ソフトは非常に少ないため、3次元映像を表示するため
には、新たに3次元用の映像ソフトを制作する必要があ
り、手間がかかり、コスト高になるという問題がある。
【0004】このため、2次元映像を3次元映像に変換
する方法、例えば記録された2次元映像のフィールド遅
延により変換する方法が提案されている。これは、例え
ば左から右に移動する映出体が映っている2次元の映像
の場合、この元の2次元の映像を左目用映像とし、この
左目用映像に対して数フィールド前の映像(この映像は
フィールド遅延により得ることが可能)を右目用映像と
することにより、前記左目用映像と右目用映像との間に
は視差が生じるので、この両映像を略同時に画面上に表
示することにより、前記移動する映出体を背景に対して
前方に浮き出させる方法である。
【0005】しかしながら、通常の映像では、図4に示
すように、背景(ある映出体)が不動状態(動いていな
い状態)であり、その前方を被写体(別の映出体)が移
動する場合と、図5に示すように、被写体が不動状態で
あり、その後方を背景が移動する場合とがある。
【0006】上述のようなフィールド遅延により2次元
映像から3次元映像に変換する方法では、図4に示すよ
うな場合においては、左から右へ移動する被写体を検出
して、左目用映像に対して数フィールド前の映像を右目
用映像とすることにより、被写体を背景に対して前方に
浮き出させることが出来る。ところが、図5に示すよう
な背景が移動している場合においては、左から右へ移動
する背景を検出して、前述と同様に、左目用映像に対し
て数フィールド前の映像を右目用映像とすると、逆に背
景が被写体に対して前方に浮き出てくるという問題が生
じる。
【0007】
【発明が解決しようとする課題】本発明は上記従来例の
欠点に鑑み為されたものであり、元になる2次元映像が
被写体は不動状態であり、その後方を背景が移動してい
る場合であっても、背景が被写体に対して前方に浮き出
ることなく、正確に被写体が背景に対して前方に浮き出
るように変換することが出来る2次元映像から3次元映
像を生成する方法を提供することを目的とするものであ
る。
【0008】また、本発明は2次元映像に映し出されて
いる複数の映出体の前後関係を判定することが出来る映
像の前後判定方法を提供することを目的とするものであ
る。
【0009】
【課題を解決するための手段】本発明の第1の3次元映
像生成方法は、元になる2次元映像を一方の目用の映像
とし、前記元になる2次元映像を所定フィールド遅延さ
せた映像を他方の目用の映像とすることにより、2次元
映像から3次元映像を生成する方法であって、前記元に
なる2次元映像において左右方向の移動量の大きい映出
体が左右方向の移動量の小さい映出体よりも前方に位置
するか、後方に位置するかを判定し、該判定結果により
左右どちらの目の映像を遅延させた映像にするかを決定
することを特徴とする。
【0010】更に、本発明の第1の3次元映像生成方法
は、前記元になる2次元映像における映出体の左右方向
の移動量を検出する検出領域を前記2次元映像を構成す
る画面内に複数個所設け、そのうち隣接する検出領域で
検出された2つの移動量を比較することにより、前記左
右方向の移動量の大きい方の映出体が移動量の小さい方
の映出体よりも前方に位置するか、後方に位置するかを
判定することを特徴とする。
【0011】更に、本発明の第1の3次元映像生成方法
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動し、且つ小さい方の移動量を検出した検出領域で所定
時間経過後に検出される移動量が前記移動量の大きい方
の映出体の影響を受ける場合、前記移動量の大きい方の
映出体が前記移動量の小さい方の映出体よりも前方に位
置し、前記移動量の大きい方の映出体の移動方向側の目
の映像を遅延させるべきであると判定することを特徴と
する。
【0012】また、本発明の第1の3次元映像生成方法
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動し、且つ小さい方の移動量を検出した検出領域で所定
時間経過後に検出される移動量が前記移動量の大きい方
の映出体の影響を受けない場合、前記移動量の大きい方
の映出体が前記移動量の小さい方の映出体よりも後方に
位置し、前記移動量の大きい方の映出体の移動方向と反
対側の目の映像を遅延させるべきであると判定すること
を特徴とする。
【0013】また、本発明の第1の3次元映像生成方法
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動しておらず、且つ大きい方の移動量を検出した検出領
域で所定時間経過後に検出される移動量が前記移動量の
小さい方の映出体の影響を受ける場合、前記移動量の大
きい方の映出体が前記移動量の小さい方の映出体よりも
前方に位置し、前記移動量の大きい方の映出体の移動方
向側の目の映像を遅延させるべきであると判定すること
を特徴とする。
【0014】また、本発明の第1の3次元映像生成方法
は、前記2つの移動量の大きさが異なり、移動量の大き
い方の映出体が移動量の小さい方の映出体に向かって移
動しておらず、且つ大きい方の移動量を検出した検出領
域で所定時間経過後に検出される移動量が前記移動量の
小さい方の映出体の影響を受けない場合、前記移動量の
大きい方の映出体が前記移動量の小さい方の映出体より
も後方に位置し、前記移動量の大きい方の映出体の移動
方向と反対側の目の映像を遅延させるべきであると判定
することを特徴とする。
【0015】また、本発明の第1の3次元映像生成方法
は、前記映出体の移動量を動きベクトルにより求めるこ
とを特徴とする。また、本発明の第1の3次元映像生成
方法は、左目用映像信号を出力する左目用出力端子と、
右目用映像信号を出力する右目用出力端子と、前記遅延
された映像信号を前記左目用映像端子、前記右目用映像
端子のどちらから出力するかを切り換える映像切換手段
とを備え、前記映像切換手段の切り換え制御を前記判定
結果に従って行うことを特徴とする。
【0016】更に、本発明の第1の3次元映像生成方法
は、前記判定結果が1フィールド期間内において全て同
じである場合に、前記映像切換手段の切り換え制御を行
うことを特徴とする。
【0017】次に、本発明の第1の前後判定方法は、前
記元になる2次元映像における映出体の左右方向の移動
量を検出する検出領域を前記2次元映像を構成する画面
内に複数個所設け、そのうち隣接する検出領域で検出さ
れた2つの移動量を比較することにより、前記左右方向
の移動量の大きい方の映出体が移動量の小さい方の映出
体よりも前方に位置するか、後方に位置するかを判定す
ることを特徴とする。
【0018】次に、本発明の第2の前後判定方法の1つ
である第1の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面内に多数個所設け、そのうち画
面の端に位置する検出領域での左右方向の移動量の大き
い映出体を検出する領域数と移動量の小さい映出体を検
出する領域数とを比較し、領域数の多い方の映出体の検
出領域を後方に位置する後方領域であると判別すること
を特徴とする。
【0019】また、本発明の第2の前後判定方法の1つ
である第2の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面内に多数個所設け、そのうち画
面の中央に位置する検出領域での左右方向の移動量の大
きい映出体を検出する領域数と移動量の小さい映出体を
検出する領域数とを比較し、領域数の多い方の映出体の
検出領域を前方に位置する前方領域であると判別するこ
とを特徴とする。
【0020】また、本発明の第2の前後判定方法の1つ
である第3の判別は、前記元になる2次元映像における
映出体の左右方向の移動量を検出する検出領域を前記2
次元映像を構成する画面全域に多数個所設け、該多数個
所の検出領域での左右方向の移動量の大きい映出体を検
出する領域数と移動量の小さい映出体を検出する領域数
とを比較し、領域数の少ない方の映出体の検出領域に注
目し、該注目された検出領域の(画面の端での領域数)
/(画面全域での領域数)が所定値以上の時、前記注目
された領域を画面の後方に位置する後方領域であると判
別することを特徴とする。
【0021】また、本発明の第2の前後判定方法は、前
記第1の判別と前記第2の判別との両方を行い、前記第
1の判別により後方領域であると判別された領域と、前
記第2の判別により前方領域であると判別された領域と
が異なる領域である場合、前記第1、第2の判別結果を
最終の判別結果とすることを特徴とする。
【0022】また、本発明の第2の前後判定方法は、前
記第1の判別と前記第2の発明との両方を行い、前記第
1の判別により後方領域であると判別された領域と、前
記第2の判別により前方領域であると判別された領域と
が同じ領域である場合、前記第3の判別を行うことを特
徴とする。
【0023】更に、本発明の第2の前後判定方法は、前
記映出体の移動量を動きベクトルにより求めることを特
徴とする。また、本発明の第2の前後判定方法は、前記
映出体の移動量を数フィールド期間の動きベクトルの累
積和により求めることを特徴とする。
【0024】また、本発明の第2の前後判定方法は、前
記多数個所の検出領域のうち、信頼性の低い動きベクト
ルが検出された領域、または映像中の映出体の動きに関
与していない動きベクトルが検出された領域を誤り領域
として判別し、誤り領域では無いと判別された領域を有
効な検出領域として用いることを特徴とする。
【0025】次に、本発明の第2の3次元映像生成方法
は、元になる2次元映像を一方の目用の映像とし、前記
元になる2次元映像を所定フィールド遅延させた映像を
他方の目用の映像とすることにより、2次元映像から3
次元映像を生成する方法において、前述の第2の映像の
前後判定方法によって得られた結果により左右どちらの
目の映像を遅延させた映像にするかを決定することを特
徴とする。
【0026】更に、本発明の第2の3次元映像生成方法
は、移動量の大きい映出体の移動量の第1の絶対値と、
移動量の小さい映出体の移動量の第2の絶対値とを比較
し、該第1、第2の絶対値のうち値の大きい方の映出体
の移動量により前記遅延された映像の遅延量を定めるこ
とを特徴とする。
【0027】
【作用】上記方法によれば、移動量の大きい方の映出体
が移動量の小さい方の映出体よりも前方に位置するか、
後方に位置するかを判定し、この判定結果に基づいて左
右どちらの映像を遅延された映像にするかを決定するた
め、生成された3次元映像において、映出体の前後関係
が逆転することは減少、若しくは無くなる。
【0028】また、元になる2次元映像に映し出されて
いる映出体の前後関係は、前記2次元映像を構成する画
面内において、左右に隣接する2つの検出領域で検出さ
れた2つの移動量が異なる部分を見つけ出し、前記2つ
の移動量に基づいて容易に判定することが出来る。
【0029】具体的には、移動量の大きい方の映出体が
移動量の小さい方の映出体に向かって移動し、且つ小さ
い方の移動量を検出した検出領域で所定時間経過後に検
出される移動量が前記移動量の大きい方の映出体の影響
を受ける場合は、移動量の大きい方の映出体が移動量の
小さい方の映出体の前方を通過した時であると考えら
れ、前記移動量の大きい方の映出体が前記移動量の小さ
い方の映出体よりも前方に位置すると判定することが出
来る。
【0030】また、移動量の大きい方の映出体が移動量
の小さい方の映出体に向かって移動し、且つ小さい方の
移動量を検出した検出領域で所定時間経過後に検出され
る移動量が前記移動量の大きい方の映出体の影響を受け
ない場合は、移動量の大きい方の映出体が移動量の小さ
い方の映出体の後方を通過した時であると考えられ、前
記移動量の大きい方の映出体が前記移動量の小さい方の
映出体よりも後方に位置すると判定することが出来る。
【0031】また、移動量の大きい方の映出体が移動量
の小さい方の映出体に向かって移動しておらず、且つ大
きい方の移動量を検出した検出領域で所定時間経過後に
検出される移動量が前記移動量の小さい方の映出体の影
響を受ける場合、移動量の大きい映出体が移動量の小さ
い映出体の前方を去った時であると考えられ、前記移動
量の大きい方の映出体が前記移動量の小さい方の映出体
よりも前方に位置すると判定することが出来る。
【0032】また、移動量の大きい方の映出体が移動量
の小さい方の映出体に向かって移動しておらず、且つ大
きい方の移動量を検出した検出領域で所定時間経過後に
検出される移動量が前記移動量の小さい方の映出体の影
響を受けない場合は、移動量の大きい方の映出体が移動
量の小さい方の映出体の後方より新たに連続して現れた
時であると考えられ、前記移動量の大きい映出体が前記
移動量の小さい映出体よりも後方に位置すると判定する
ことが出来る。
【0033】また、前記映出体の移動量は、動きベクト
ルにより容易に且つ正確に求めることが出来る。また、
前記判定結果に従って映像切換回路を切り換え制御する
ことにより、映出体の前後関係が正確な立体映像を実際
に表示することが可能になる。
【0034】また、前記判定結果が1フィールド期間内
において全て同じである場合に、前記映像切換手段の切
り換え制御を行うことにより、映出体の移動状態が複雑
であったり、誤った移動量の検出が原因で、映出体の前
後関係を間違って判定することを防止する。
【0035】また、第1の前後判定方法によれば、映像
に映し出されている映出体の前後関係は、前記2次元映
像を構成する画面内において、左右に隣接する2つの検
出領域で検出された2つの移動量が異なる部分を見つけ
出し、前記2つの移動量に基づいて容易に判定すること
が出来る。
【0036】また、第2の前後判定方法の第1の判別に
よれば、画面端の多くの部分に、後方に位置する映出体
が映っている通常の映像に対しては後方領域を判別する
ことが出来る。
【0037】また、第2の前後判定方法の第2の判別に
よれば、画面中央の多くの部分に、前方に位置する映出
体が映っている通常の映像に対しては、第2の判別を行
うことにより前方領域を判別することが出来る。
【0038】また、第2の前後判定方法の第3の判別
は、前方に位置する映出体が大きい場合には、画面全体
においては後方領域の方が少なくなるが、その後方領域
のうち画面の端の部分を占める割合は所定値より大きく
なり、また、前方に位置する映出体が小さい場合には、
画面全体においては前方領域の方が少なく、しかもその
前方領域のうち画面の端の部分を占める割合は所定値よ
りも小さくなるという考えに基づいている。また、この
第3の判別の考えは前方に位置する映出体が画面の端に
位置する場合においても成り立つ。このため、第3の判
別を行うことにより、前方に位置する映出体が画面のど
の位置に映っていても、後方領域であるか前方領域であ
るかを判別することが出来る。
【0039】また、第1の判別と第2の判別との両方を
行い、第1の判別で後方領域であると判別された検出領
域と、第2の判別で前方領域であると判別された領域と
が異なる場合は、第1の判別の判別結果と第2の判別の
判別結果とが一致した場合であり、この第1、第2の判
別の判別結果は正しいと考えられる。
【0040】また、第1の判別と第2の判別との両方を
行い、第1の判別で後方領域であると判別された検出領
域と、第2の判別で前方領域であると判別された領域と
が同じである場合は、第1の判別の判別結果と第2の判
別の判別結果とが不一致の場合であり、この第1、第2
の判別の判別結果はどちらか一方が間違いの場合であ
る。これは前方に位置する映出体が画面の中央の部分以
外にも映っている場合が多く、このような場合は第3の
判別を行うことにより正しい判別を行うことが出来る。
【0041】また、前記映出体の移動量は、動きベクト
ルにより容易に且つ正確に求めることが出来る。また、
前記映出体の移動量は、数フィールド期間の動きベクト
ルの累積和により求めることにより、映画フィルムをテ
レビジョン信号に変換した映像に対しても正確な移動量
を求めることが出来る。
【0042】また、第2の3次元映像生成方法によれ
ば、前述の第2の前後判定方法により、前方に位置する
前方領域と後方に位置する後方領域とを判定し、この判
定結果に基づいて遅延方向、即ち左右どちらの目の映像
を遅延された映像にするかを決定するため、生成された
3次元映像において、背景が被写体の前方に位置するよ
うな映出体の前後関係が逆転する映像は減少、若しくは
無くなる。
【0043】更に、前記遅延された映像の遅延量を、前
方領域、後方領域のうち移動量の絶対値が大きい一方の
領域の映出体の移動量に基づいて求めるので、絶対値が
小さい異なる領域の映出体の移動量の影響を受けること
無く、所望の遅延量を正確に求めることが出来る。
【0044】
【実施例】以下、図面を参照しつつ本発明の第1実施例
について詳細に説明する。図1は2次元映像から3次元
映像を生成する第1実施例の3次元映像ソフト変換シス
テムの要部概略ブロック図である。
【0045】本実施例の3次元映像ソフト変換システム
では、入力端子1に2次元映像を表示するための通常の
2次元映像信号が入力される。前記入力端子1より入力
された2次元映像信号は映像切換回路2及びフィールド
メモリ5に供給される。
【0046】前記フィールドメモリ5は入力された2次
元映像信号を所定フィールドだけ遅延して出力し、前記
映像切換回路2に供給する。前記フィールドメモリ5の
遅延量はメモリ制御回路6により1フィールド単位で可
変制御される。また、この可変制御は1フィールド以下
の小さい単位でも構わない。
【0047】前記映像切換回路2の出力側は左目用映像
信号Lを出力する出力端子3及び右目用映像信号Rを出
力する出力端子4に出力されており、被写体の動きの方
向に応じて出力状態が切り換わるように制御される。
【0048】また、前記入力端子1より入力した2次元
映像信号は、動きベクトル検出回路7に供給され、フィ
ールド間の動き、即ち前記2次元映像信号に映し出され
ている映出体の移動量(移動速度)に応じた動きベクト
ルが検出された後、CPU8に供給される。
【0049】尚、動きベクトルとは、ある映像領域にお
いて、前フィールドの代表点の画像信号と現フィールド
の画像信号との相関を取ることにより、前フィールドの
代表点が現フィールドのどこに動いたかを表すベクトル
である。このような動きベクトルの検出方法を代表点マ
ッチング法という。
【0050】前記CPU8は前述の検出した動きベクト
ルのうち左右方向である水平成分(以後、この水平成分
を単に動きベクトルという)を抽出し、これに応じてメ
モリ制御回路6を制御する。即ち、被写体の動きが大き
く、動きベクトルが大きい場合、フィールドメモリ5の
遅延量が少なくなるように制御し、被写体の動きが小さ
いか、あるいはスローモーション再生時のように動きベ
クトルが小さい場合、遅延量が多くなるように制御す
る。
【0051】更に、前記CPU8は動きベクトルの方向
が左から右の場合、その動きベクトルの映出体が背景の
前方に位置する被写体であると判断すると、遅延された
映像信号を右目用映像信号とし、また、前記動きベクト
ルの映出体が被写体の後方に位置する背景であると判断
すると、遅延された映像信号を左目用映像信号とする。
また、前記CPU8は動きベクトルの方向が右から左の
場合、その動きベクトルの映出体が背景の前方に位置す
る被写体であると判断すると、遅延された映像信号を左
目用映像信号とし、また、前記動きベクトルの映出体が
被写体の後方に位置する背景であると判断すると、遅延
された映像信号を右目用映像信号とするように映像切換
回路2を制御する。
【0052】従って、2次元映像信号において被写体、
あるいは背景が左右方向に移動するようなシーンについ
ては動きの速さに応じた視差が発生する。そして、出力
端子3、4からの左右の映像信号をレンチキュラ方式等
の立体映像表示ディスプレイに供給することにより、観
察者は立体感のある3次元映像を観賞することが出来
る。
【0053】図2は前記CPU8の動作のうち、動きベ
クトルの映出体が背景の前方に位置する被写体である
か、あるいは被写体の後方に位置する背景であるかを判
定する動作のフローチャートを示す図である。
【0054】先ず、ステップS1において、画面上に複
数存在する動きベクトルの検出領域で検出された動きベ
クトルのうち、左右に隣接する検出領域により検出され
た2つの動きベクトルを比較し、その2つの動きベクト
ルが同じ(大きさ及び向きの両方が同じ)であるか否か
を判別する。
【0055】そして、このステップS1において、前記
動きベクトルが同じであると判断した場合(Y)、ステ
ップS2において、前記ステップS1で行った動きベク
トルの比較が動きベクトルの検出を行った1フィールド
の画面のうち最後の動きベクトルの比較であるか否かを
判別する。
【0056】本実施例では、動きベクトル検出回路7
は、図3に示すように、1フィールドを構成する画面の
うち、上下方向を4分割、左右方向を4分割してなる1
6個の検出領域A1、B1、C1、D1、A2、B2、
C2、D2、A3、B3、C3、D3、A4、B4、C
4、D4で動きベクトルを検出している。そして、1フ
ィールド期間での前記16個の検出領域で検出された動
きベクトルの比較動作は、上から第1行目の左から右
へ、次に上から第2行目の左から右へ、次に上から第3
行目の左から右へ、次に上から第4行目の左から右へと
順番に進む。即ち、検出領域A1で検出された動きベク
トルと検出領域B1で検出された動きベクトルとの比
較、次に検出領域B1で検出された動きベクトルと検出
領域C1で検出された動きベクトルとの比較、次に検出
領域C1で検出された動きベクトルと検出領域D1で検
出された動きベクトルとの比較、次に検出領域A2で検
出された動きベクトルと検出領域B2で検出された動き
ベクトルとの比較、次に検出領域B2で検出された動き
ベクトルと検出領域C2で検出された動きベクトルとの
比較、次に検出領域C2で検出された動きベクトルと検
出領域D2で検出された動きベクトルとの比較、次に検
出領域A3で検出された動きベクトルと検出領域B3で
検出された動きベクトルとの比較、次に検出領域B3で
検出された動きベクトルと検出領域C3で検出された動
きベクトルとの比較、次に検出領域C3で検出された動
きベクトルと検出領域D3で検出された動きベクトルと
の比較、次に検出領域A4で検出された動きベクトルと
検出領域B4で検出された動きベクトルとの比較、次に
検出領域B4で検出された動きベクトルと検出領域C4
で検出された動きベクトルとの比較、次に検出領域C4
で検出された動きベクトルと検出領域D4で検出された
動きベクトルとの比較の順で進む。
【0057】従って、ステップS2において、直前のス
テップS1での動きベクトルの比較動作が検出領域C4
で検出された動きベクトルと検出領域D4で検出された
動きベクトルとの比較であるか否かを判別する。そし
て、ステップS1で、検出領域C4で検出された動きベ
クトルと検出領域D4で検出された動きベクトルとの比
較であると判別した場合(Y)、ステップS11に進
み、また、検出領域C4で検出された動きベクトルと検
出領域D4で検出された動きベクトルとの比較でないと
判別した場合(N)、ステップS3に進む。
【0058】ステップS3では、次の動きベクトル検出
領域での動きベクトルの比較動作に移行して前記ステッ
プS1に戻り、ステップS1の動作を再度行う。また、
前記ステップS1において、前記動きベクトルが同じで
ないと判断した場合(N)、次のステップS4に進む。
【0059】ステップS4では、前記ステップS1で比
較した2つの動きベクトルのうち大きい方の動きベクト
ルの向いている方向が、小さい方の動きベクトルの検出
領域を向いているか否かを判定する。尚、この時、動き
ベクトルの大小関係は、動きベクトルの絶対値で判定す
る。そして、ステップS3において、大きい方の動きベ
クトルの向いてる方向が小さい方の動きベクトルの検出
領域を向いていると判定した場合(Y)、ステップS5
に進み、また、大きい方の動きベクトルの向いている方
向が小さい方の動きベクトルの検出領域を向いていない
と判定した場合(N)、ステップS6に進む。
【0060】ステップS5では、所定時間経過後に、前
記2つの動きベクトルのうち小さい方の動きベクトルの
検出領域で検出された動きベクトルが、前記大きい方の
動きベクトルの影響を受けるか否かを判定する。そし
て、このステップS5において、影響を受けると判定し
た場合(Y)、ステップS7に進む。
【0061】ステップS7では、前記大きい方の動きベ
クトルの映出体が背景の前方を移動する被写体であると
判断し、前記大きい方の動きベクトルが向いている方向
の側の目の映像信号を遅延された映像信号とすべきであ
ると判定する。
【0062】また、ステップS5において、影響を受け
ないと判定した場合(N)、ステップS8に進む。ステ
ップS8では、前記大きい方の動きベクトルの映出体が
被写体の後方を移動する背景であると判断し、前記大き
い方の動きベクトルが向いている方向と反対側の目の映
像信号を遅延された映像信号とすべきであると判定す
る。
【0063】次に、前述のステップS4において、大き
い方の動きベクトルの向いている方向が小さい方の動き
ベクトルの検出領域を向いていないと判定して(N)ス
テップS6に進んだ場合、該ステップS6では、所定時
間経過後に前記2つの動きベクトルのうち大きい方の動
きベクトルの検出領域で検出された動きベクトルが小さ
い方の動きベクトルの影響を受けるか否かを判定する。
そして、このステップS6において、影響を受けると判
定した場合(Y)、ステップS9に進む。
【0064】ステップS9では、前記大きい方の動きベ
クトルの映出体が背景の前方を移動する被写体であると
判断し、前記大きい方の動きベクトルの向いている方向
の目の映像信号を遅延された映像信号とすべきであると
判定する。
【0065】また、ステップS6において、影響を受け
ないと判定した場合(N)、ステップS10に進む。ス
テップS10では、前記大きい方の動きベクトルの映出
体が被写体の後方を移動する背景であると判断し、前記
大きい方の動きベクトルが向いている方向と逆方向の目
の映像信号を遅延された映像信号とすべきであると判定
する。
【0066】尚、前記ステップS5での所定時間とは、
大きい方の動きベクトルの映出体が、その動きベクトル
の絶対値から換算して隣の動きベクトル検出領域に移動
することが予測される時間のことである。また、前記ス
テップS6での所定時間とは、小さい方の動きベクトル
の物体が、その動きベクトルの絶対値から換算して隣の
動きベクトル検出領域に移動することが予測される時間
のことである。従って、前記ステップS5、ステップS
6の所定時間は共に、前述の換算の元になる動きベクト
ルの絶対値が大きい程、短くなる。
【0067】また、前記ステップS5での影響を受ける
とは、小さい方の動きベクトルが前記所定時間経過後に
大きい方の動きベクトルの値と同じになる、あるいは大
きい方の動きベクトルに近付くことである。また、前記
ステップS6での影響とは、大きい方の動きベクトルが
前記所定時間経過後に小さい方の動きベクトルの値と同
じになる、あるいは小さい方の動きベクトルに近付くこ
とである。前記ステップS7、ステップS8、ステップ
S9あるいはステップS10の動作が終了すると、ステ
ップS2に戻る。ステップS2では、1フィールド期間
の最後の動きベクトルの比較、即ち、検出領域C4で検
出された動きベクトルと検出領域D4で検出された動き
ベクトルとの比較動作が終了するまで、最後の動きベク
トル比較ではないと判断し(N)、ステップS1に戻
り、以上の動作を繰り返す。そして最後に、検出領域C
4で検出された動きベクトルと検出領域D4で検出され
た動きベクトルとの比較動作が終了すると、最後の動き
ベクトル比較である(Y)と判断し、ステップS11に
進む。
【0068】ステップS11では、前記ステップS7、
ステップS8、ステップS9及びステップS10で得ら
れた判定結果を比較し、全ての判定結果が同じであるか
否かを判定する。そして、ステップS11において、全
ての判定結果が同じであると判定した場合(Y)、ステ
ップS12に進み、また、全ての判定結果が同じではな
い(判定結果が異なるものが少なくとも1つはある)と
判定した場合(N)、動作を終了する。尚、ここでいう
判定結果とは、左右どちらの目の映像信号を遅延された
映像信号とすべきであるかということである。即ち、全
ての判定結果が右目用の映像信号を遅延された映像信号
とすべきである場合、あるいは全ての判定結果が左目用
の映像信号を遅延された映像信号とすべきである場合
に、全ての判定結果が同じであると判定して(Y)ステ
ップS12に進み、それ以外の場合は、全ての判定結果
が同じではないと判定して(N)動作を終了する。
【0069】ステップS12では、前記ステップS7、
ステップS8、ステップS9及びステップS10で得ら
れた判定結果に従って、映像切換回路2を切り換えるよ
うに制御する。
【0070】次に、入力端子1に入力される元になる2
次元映像が図4に示す第1のシーンの映像である場合
と、図5に示す第2のシーンの映像である場合の夫々に
ついて、CPU8の動作を図2に示すフローチャートに
従って説明する。
【0071】図4は(a)、(b)、(c)の順で経過
する第1のシーンの3個のフィールドの映像、及びその
映像における動きベクトルの大きさ及び向きを模式的に
示す図である。この図4の映像は不動状態である山の前
方を鳥が左から右に向かって飛んでいる映像である。即
ち、背景である山の前方を被写体である鳥が左から右に
向かって飛んでいる。尚、(b)は(a)の数フィール
ド後(所定時間経過後)の映像、(c)は(b)の数フ
ィールド後(所定時間経過後)の映像である。
【0072】図5は(a)、(b)、(c)の順で経過
する第1のシーンの3個のフィールドの映像、及びその
映像における動きベクトルの大きさ及び向きを模式的に
示す図である。この図5の映像はバスが左から右に向か
って走っている映像であるが、バスを中心に撮影した映
像であるため、画面上においては不動状態であるバスの
後方を家が左から右に向かって移動している。即ち、被
写体であるバスの後方を背景である家が移動している。
尚、(b)は(a)の数フィールド後(所定時間経過
後)の映像、(c)は(b)の数フィールド後(所定時
間経過後)の映像である。
【0073】先ず、図4に示す第1のシーンの映像にお
いて、現フィールドが図4(a)の映像である場合、第
1行目、第2行目の動きベクトル検出領域A1、B1、
C1、D1、A2、B2、C2、D2では背景の山を検
出するため、動きベクトルa1、b1、c1、d1、a
2、b2、c2、d2は全て0となる。従って、この動
きベクトル検出領域では、左右に隣接する検出領域で検
出された動きベクトルは全てにおいて大きさが等しく、
CPU8はステップS1、ステップS2、ステップS3
の動作を繰り返す。
【0074】そして、第3行目の動きベクトル検出領域
では、左から1番目、3番目、4番目の検出領域A3、
C3、D3では背景の山を検出するため、動きベクトル
a3、c3、d3は0となり、左から2番目の検出領域
B3では左から右へ飛ぶ鳥を検出するため、動きベクト
ルb3は左から右へ向いているベクトルとなる。
【0075】従って、ステップS1では、左右に隣接す
る動きベクトル検出領域A3と動きベクトル検出領域B
3とで検出された動きベクトルa3と動きベクトルb3
とは同じでないと判断し(N)、ステップS4に進む。
【0076】ステップS4では、動きベクトルa3と動
きベクトルb3のうち、大きい方の動きベクトルb3が
小さい方の動きベクトルa3を向いているか否かを判定
する。ここでは、動きベクトルb3が動きベクトルa3
の方を向いていないため、ステップS6に進む。
【0077】ステップS6では、所定時間経過後に大き
い方の動きベクトルb3が小さい方の動きベクトルa3
の影響を受けるか否かを判定する。ここでは、所定時間
経過後に、図4(b)に示すように、動きベクトルb
3’が0になり、前記小さい方の動きベクトルa3の値
と等しくなるため、大きい方の動きベクトルb3は小さ
い方の動きベクトルa3の影響を受けると判定し
(Y)、ステップS9に進む。
【0078】従って、ステップS9において、大きい方
の動きベクトルb3の映出体が小さい方の動きベクトル
a3の映出体よりも前方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向の側の目、即ち
右目用の映像信号を遅延された映像信号とするべきであ
ると判定する。
【0079】そして、ステップS2において、1画面の
全ての動きベクトル比較が終了していないと判断し
(N)、ステップS3で次の動きベクトルの検出領域に
移行し、ステップS1に戻る。
【0080】ステップS1では、第3行目の左から2番
目の動きベクトルb3と左から3番目の動きベクトルc
3とを比較し、動きベクトルb3と動きベクトルc3と
は同じではないと判断し(N)、ステップS4に進む。
【0081】ステップS4では、動きベクトルb3と動
きベクトルc3のうち、大きい方の動きベクトルb3が
小さい方の動きベクトルa3を向いているか否かを判定
する。ここでは、動きベクトルb3が動きベクトルa3
の方を向いるため、ステップS5に進む。
【0082】ステップS5では、所定時間経過後に小さ
い方の動きベクトルc3が大きい方の動きベクトルb3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図4(b)に示すように、動きベクトルc3’が
前記大きい方の動きベクトルb3と同じ値になるため、
小さい方の動きベクトルc3は大きい方の動きベクトル
b3の影響を受けると判定し(Y)、ステップS7に進
む。
【0083】従って、ステップS7において、大きい方
の動きベクトルb3の映出体が小さい方の動きベクトル
c3の映出体よりも前方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向の側の目、即ち
右目用の映像信号を遅延された映像信号とするべきであ
ると判定する。
【0084】そして、ステップS2において、最後の動
きベクトル比較ではないと判断し(N)、ステップS3
で次の動きベクトルの検出領域に移行し、ステップS1
に戻る。
【0085】ステップS1では、第3行目の左から3番
目の動きベクトルc3と左から4番目の動きベクトルd
3とを比較し、動きベクトルc3と動きベクトルd3と
は同じであると判断し(Y)、ステップS1に戻る。
【0086】そして、ステップS1では、第4行目の動
きベクトル検出領域についての動作を行う。第4行目の
動きベクトル検出領域では、第3行目の動きベクトル検
出領域と同様に、左から1番目、3番目、4番目の検出
領域A4、C4、D4では背景の山を検出するため、動
きベクトルa4、c4、d4は0であり、左から2番目
の検出領域B4では左から右へ飛ぶ鳥を検出するため、
左から右へ向いている動きベクトルb3を検出する。
【0087】従って、CPU8は第3行目に対する動作
と同じ動作をし、動きベクトルa4と動きベクトルb4
との比較では、動きベクトルb4の映出体が動きベクト
ルa4の映出体よりも前方に位置すると判断し、右目用
の映像信号を遅延された映像信号とすべきであると判定
する。
【0088】また、動きベクトルb4と動きベクトルc
4との比較では、動きベクトルb4の映出体が動きベク
トルc4の映出体よりも前方に位置すると判断し、右目
用の映像信号を遅延された映像信号とすべきであると判
定する。
【0089】そして、動きベクトルc4と動きベクトル
d4との比較を終えた後、ステップS2において、1画
面の全ての動きベクトル比較が終了したと判断し
(Y)、ステップS11に進む。
【0090】ステップS11では、前述の動作で得られ
た4個の判定結果を比較する。ここでは、4個の判定結
果が全て、右目用の映像信号を遅延された映像信号とす
べきであると判定しているため、全ての判定結果が同じ
であると判定して(Y)ステップS12に進む。
【0091】ステップS12では、前記判定結果に従っ
て、右目用信号が遅延された映像信号となるように映像
切換回路2を切り換え制御する。これにより、観察者は
動きベクトルb3の映出体である鳥(被写体)を動きベ
クトルa3、c3の映出体である山(背景)よりも前方
に浮き出た状態で観察することが出来る。
【0092】次に、現フィールドが図4(b)の映像の
時も、具体的な説明は省略するが、CPU8は前述の現
フィールドが図4(a)の映像の時と同様の動作を行
い、ステップS7あるいはステップS9において、動き
ベクトルc3’の映出体が動きベクトルb3’、d3’
の映出体よりも前に位置すると判断し、右目用の映像信
号を遅延された映像信号とすべきであると判定し、ま
た、動きベクトルc4’の映出体が動きベクトルb
4’、d4’の映出体よりも前に位置すると判断し、右
目用の映像信号を遅延された映像信号とすべきであると
判定する。
【0093】そして、ステップS11において、4個の
判定結果が全て、右目用の映像信号を遅延された映像信
号とすべきであると判定しているため、ステップS12
において、右目用映像信号が遅延された映像信号となる
ように映像切換回路2を切り換え制御する。
【0094】これにより、観察者は動きベクトルc3’
の映出体である鳥(被写体)を動きベクトルb3’、d
3’の映出体である山(背景)よりも前方に浮き出た状
態で観察することが出来る。
【0095】次に、図5に示す第2のシーンの映像にお
いて、現フィールドが図5(a)の映像である場合、第
1行目、第2行目の全ての動きベクトル検出領域A1、
B1、C1、D1、A2、B2、C2、D2では画面
上、右方向に移動する家等の背景を検出するため、その
動きベクトルa1、b1、c1、d1、a2、b2、c
2、d2は全て同じ大きさの右方向のベクトルとなる。
従って、この動きベクトル検出領域では、左右に隣接す
る検出領域で検出された動きベクトルは全てにおいて大
きさが等しく、CPU8はステップS1、ステップS
2、ステップS3の動作を繰り返す。
【0096】そして、第3行目の動きベクトル検出領域
では、左から1番目、3番目、4番目の検出領域A3、
C3、D3では家等の背景を検出するため、動きベクト
ルa3、c3、d3は同じ大きさの右方向のベクトルと
なり、左から2番目の検出領域B3では画面上、不動状
態であるバスを検出するため、動きベクトルb3は0と
なる。
【0097】従って、ステップS1では、左右に隣接す
る動きベクトル検出領域で検出された動きベクトルa3
と動きベクトルb3とは同じでないと判断し(N)、ス
テップS4に進む。
【0098】ステップS4では、動きベクトルa3と動
きベクトルb3のうち、大きい方の動きベクトルa3が
小さい方の動きベクトルb3を向いているか否かを判定
する。ここでは、動きベクトルa3が動きベクトルb3
の方を向いているため、ステップS5に進む。
【0099】ステップS5では、所定時間経過後に小さ
い方の動きベクトルb3が大きい方の動きベクトルa3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図5(b)に示すように、動きベクトルb3’は
0のまま変化しないため、小さい方の動きベクトルb3
は大きい方の動きベクトルa3の影響を受けないと判定
し(N)、ステップS8に進む。
【0100】従って、ステップS8において、大きい方
の動きベクトルa3の映出体が小さい方の動きベクトル
b3の映出体よりも後方に位置すると判断し、大きい方
の動きベクトルb3が向いている右方向とは反対側の
目、即ち左目用の映像信号を遅延された映像信号とする
べきであると判定し、ステップS2に進む。
【0101】ステップS2では、1画面の全ての動きベ
クトル比較が終了していないと判断し(N)、ステップ
S3で次の動きベクトルの検出領域に移行し、ステップ
S1に戻る。
【0102】ステップS1では、第3行目の左から2番
目の動きベクトルb3と左から3番目の動きベクトルc
3とを比較し、動きベクトルb3と動きベクトルc3と
は同じではないと判断し(N)、ステップS4に進む。
【0103】ステップS4では、動きベクトルb3と動
きベクトルc3のうち、大きい方の動きベクトルc3が
小さい方の動きベクトルb3を向いているか否かを判定
する。ここでは、動きベクトルc3が動きベクトルb3
の方を向いていないため、ステップS6に進む。
【0104】ステップS6では、所定時間経過後に大き
い方の動きベクトルc3が小さい方の動きベクトルb3
の影響を受けるかを判定する。ここでは、所定時間経過
後に、図5(b)に示すように、動きベクトルc3’が
動きベクトルc3のまま変化していないため、大きい方
の動きベクトルc3は小さい方の動きベクトルb3の影
響を受けないと判定し(N)、ステップS10に進む。
【0105】従って、ステップS10において、大きい
方の動きベクトルc3の映出体が大きい方の動きベクト
ルb3の映出体よりも後方に位置すると判断し、大きい
方の動きベクトルb3が向いている右方向と反対側の
目、即ち左目用の映像信号を遅延された映像信号とする
べきであると判定する。
【0106】そして、ステップS2において、最後の動
きベクトル比較ではないと判断し(N)、ステップS3
で次の動きベクトルの検出領域に移行し、ステップS1
に戻る。
【0107】ステップS1では、第3行目の左から3番
目の動きベクトルc3と左から4番目の動きベクトルd
3とを比較し、動きベクトルc3と動きベクトルd3と
は同じであると判断し(Y)、ステップS1に戻る。
【0108】そして、ステップS1では、第4行目の動
きベクトル検出領域についての動作を行う。第4行目の
動きベクトル検出領域では、第3行目の動きベクトル検
出領域と同様に、左から1番目、3番目、4番目の検出
領域A4、C4、D4では画面上、左方向に移動する家
等の背景を検出するため、動きベクトルa4、c4、d
4は同じ大きさの右方向のベクトルとなり、また、右か
ら2番目の検出領域B4では画面上、不動状態であるバ
スを検出するため、動きベクトルb4は0となる。
【0109】従って、CPU8は第3行目に対する動作
と同じ動作をし、動きベクトルa4と動きベクトルb4
との比較では、動きベクトルa4の映出体が動きベクト
ルb4の映出体よりも後方に位置すると判断し、左目用
映像信号を遅延された映像信号とすべきであると判定す
る。
【0110】また、動きベクトルb4と動きベクトルc
4との比較では、動きベクトルc4の映出体が動きベク
トルb4の映出体よりも後方に位置すると判断し、左目
用映像信号を遅延された映像信号とすべきであると判定
する。
【0111】そして、動きベクトルc4と動きベクトル
d4との比較を終えた後、ステップS2において、1画
面の全ての動きベクトル比較が終了したと判断し
(Y)、ステップS11に進む。
【0112】ステップS11では、前述の動作で得られ
た4個の判定結果を比較する。ここでは、4個の判定結
果が全て、左目用映像信号を遅延された映像信号とすべ
きであると判定しているため、全ての判定結果が同じで
あると判定して(Y)ステップS12に進む。
【0113】ステップS12では、前記判定結果に従っ
て、左目用映像信号が遅延された映像信号となるように
映像切換回路2を切り換え制御する。これにより、観察
者は動きベクトルa3、c3、a4、c4の映出体であ
る家等(背景)が動きベクトルb3、b4の映出体であ
るバス(被写体)よりも後方に位置するように観察する
ことが出来る。
【0114】次に、現フィールドが図5(b)の映像の
場合も、具体的な説明は省略するが、CPU8は前述の
現フィールドが図5(a)の映像の場合と同様の動作を
行い、ステップS8あるいはステップS10において、
動きベクトルa3’、c3’の映出体が動きベクトルb
3’の映出体よりも後方に位置すると判断し、左目用映
像信号を遅延された映像信号とすべきであると判定し、
また、動きベクトルa4’、c4’の映出体が動きベク
トルb4’の映出体よりも後方に位置すると判断し、左
目用映像信号を遅延された映像信号とすべきであると判
定する。
【0115】そして、ステップS11において、4個の
判定結果が全て、左目用映像信号を遅延された映像信号
とすべきであると判定しているため、ステップS12に
おいて、左目用映像信号が遅延された映像信号となるよ
うに映像切換回路2を切り換え制御する。
【0116】これにより、観察者は動きベクトルa
3’、c3’、a4’、c4’の映出体である家等(背
景)が動きベクトルb3’、b4’の映出体であるバス
(被写体)よりも後方に位置するように観察することが
出来る。
【0117】尚、上述の図4及び図5の例では、ステッ
プS7、ステップS8、ステップS9及びステップS1
0で得られた判定結果が全て同じであるため、ステップ
S12に進んだが、元になる2次元映像の被写体の動き
が複雑であったり、動きベクトルの検出に誤動作が生じ
た場合、ステップS7、ステップS8、ステップS9及
びステップS10で得られた判定結果の中には異なる結
果がある場合がある。この場合、ステップS11では、
判定結果が全て同じではないと判定して(N)動作を終
了する。
【0118】従って、ステップS7、ステップS8、ス
テップS9及びステップS10で得られた判定結果の中
に異なる結果があるフィールドにおいては、CPU8は
映像切換回路2を切り換え制御せず、現在の切り換え状
態を保持する。
【0119】また、上述の実施例では、1フィールドの
映像毎に動きベクトルを検出しているが、1フレームの
映像、あるいは数フィールドの映像毎に動きベクトルを
検出しても良い。尚、本発明の広い意味では、これら1
フレーム、数フィールドのことを含めて1フィールドと
表現している。
【0120】次に、本発明の第2実施例について詳細に
説明する。図6は第2実施例の3次元映像ソフト変換シ
ステムの要部概略ブロック図であり、第1実施例の図1
と同一部分には同一符号を付し、その説明は割愛する。
【0121】図6に示すように、第2実施例の3次元映
像ソフト変換システムの回路構成は第1実施例と略同一
であり、動きベクトル検出回路7’及びCPU8’の動
作において第1実施例とは異なる。
【0122】動きベクトル検出回路7’は、図7に示す
ように、1フィールドを構成する画面のうち、上下方向
を5分割、左右方向を8分割してなる40個の検出領域
A1、B1、C1・・・H1、A2、B2、C2・・・
H2、A3、B3、C3・・・H3、A4、B4、C4
・・・H4、A5、B5、C5・・・H5で代表点マッ
チング法により動きベクトルを検出している。
【0123】CPU8’は前記動きベクトル検出回路
7’により検出された動きベクトルより水平成分(以
後、単に動きベクトルという)を抽出し、この抽出され
た動きベクトルに基づいて図8に示す第1段階〜第7段
階の動作を行い、元の2次元映像において動いている対
象物(映出体)が被写体であるか、背景であるかを判定
し、この判定結果に基づいて映像切換回路2及びメモリ
制御回路6の制御を行う。
【0124】図9は入力した2次元映像信号の時間の流
れを模式的に示す図、図10及び図11図はCPU8’
のフィールド周期の動作を示すフローチャートである。
以下、図10、図11に従って、図9に示した第1段階
〜第7段階の動作について説明する。
【0125】[第1段階]先ず、ステップS1におい
て、入力した元の2次元映像にシーンの変化(シーンチ
ェンジ)があるか否かを検出する。ステップS1におい
て、シーンの変化があると判定されると(Y)、ステッ
プS16において、フィールドメモリ5の遅延量及び遅
延量の目標値を0に設定し、更に、ステップS17にお
いて、CPU8’にうち被写体/背景の判定に使用する
構造体の変数を初期化する。尚、遅延量の目標値とは、
判定後、すぐにメモリ制御回路6を制御するのではな
く、数フィールドの検出を行い、安定した判定結果が得
られてからメモリ制御回路6を制御するためのものであ
る。
【0126】次に、ステップS1において、シーンの変
化が無いと判定されると(N)、ステップS2におい
て、テレシネモードの判定、安定化を行う。テレシネモ
ードの判定とは、元の2次元映像信号に映画フィルムを
テレビジョン信号に変換(テレシネ変換)することによ
って作成された信号があるか否かを判定することであ
る。また、テレシネモードの安定化とは、上記テレシネ
モードの判定によりテレシネ変換された信号があると確
認された場合、その確認されたフィールドより60フィ
ールドの期間はテレシネ変換された信号の期間、即ちテ
レシネモードであるとする動作である。尚、後述するス
テップS15において、遅延量の目標値を算出する際、
テレシネモードであるか否かによって算出方法が異な
り、テレシネモードの判定結果が頻繁に変化すると、遅
延量の目標値も頻繁に変化するため、それを避けるため
テレシネモードの安定化を行っている。
【0127】以上が第1段階の動作である。次に、第2
段階以降の動作を説明する前に、ステップS3〜ステッ
プS9の動作について簡単に説明する。ステップS3は
現フィールドが1フィールド目であるか否かを、ステッ
プS4は現フィールドが2フィールド目であるか否か
を、ステップS5は現フィールドが3フィールド目であ
るか否かを、ステップS6は現フィールドが4フィール
ド目であるか否かを、ステップS7は現フィールドが5
フィールド目であるか否かを、ステップS8は現フィー
ルドが6フィールド目であるか否かを、ステップS9は
現フィールドが7〜9フィールド目であるか否かを夫々
判定するステップであるが、フィールドのカウント数
は、ステップS1でシーンの変化があると判定され、ス
テップS17で構造体の変数の初期化が行われる時点を
基準に10フィールド経過毎にリセットされるように設
定されている。
【0128】従って、図8に示すように、シーンの変化
が起こってから10フィールド毎にフィールド数のカウ
ント数がリセットされる。即ち、ステップS3における
1フィールド目とは、実質的にはシーンの変化が起こっ
たフィールドから(10n+1)フィールド目を意味
し、同様に、ステップS4〜S9における2フィールド
目はシーンの変化が起こったフィールドから(10n+
2)フィールド目を、3フィールド目はシーンの変化が
起こったフィールドから(10n+3)フィールド目
を、・・・9フィールド目はシーンの変化が起こったフ
ィールドから(10n+9)フィールド目を夫々意味す
る。但し、nは0を含む自然数である。
【0129】但し、シーンの変化が起こったフィールド
から1〜20フィールド目の間では、図9に示すよう
に、ステップS18、ステップS19により遅延量の目
標値が必ず0に設定される。
【0130】第2段階以降の動作について説明する。ス
テップS2の動作が終了し、ステップS3において、現
フィールドが1フィールド目であると判定されると
(Y)、第2段階の動作であるステップS10に移行す
る。
【0131】[第2段階]ステップS10では、直前の
10フィールド期間において検出された動きベクトルの
累積和、及び相関値(AVE、MIN)の累積和を取り
込む。尚、直前の10フィールド期間とは、現フィール
ドがシーンの変化が起こったフィールドから21フィー
ルド目の時には11フィールド目から20フィールド目
までの10フィールド期間のことである。尚、相関値と
は、各検出領域における代表点の前フィールドと現フィ
ールドでの輝度レベルの差であり、その平均値をAV
E、最小値をMINとする。
【0132】また、累積和を10フィールドとした理由
は、(1)テレシネパターンには、2−2、2−3プル
ダウン方式等の通常のパターンとは異なるものがある。
例えば、2−2プルダウン方式とは、2フィールドに1
回映像が変化することを意味する。つまり、2フィール
ドの間は同じ映像が流れ、その時の動きベクトルは0で
ある。このように動きベクトルが0になるフィールドが
あるため、数フィールドの累積和を使用する必要があ
る。(2)上記のテレシネパターンに対応するために、
2と5(2−3プルダウン方式は5フィールド周期であ
る)の最小公倍数で10フィールドとする。
【0133】次に、ステップS18において、現フィー
ルドがステップS1でシーンの変化があると判定してか
ら20フィールド以内であるか否かを判定する。現フィ
ールドが1フィールド目あるいは11フィールド目であ
る場合は、20フィールド以内であると判定され
(Y)、ステップS19において遅延量の目標値を0に
設定し、現フィールドでの動作を終了する。また、現フ
ィールドが21フィールド目、31フィールド目、41
フィールド目・・・の時には、ステップS18におい
て、20フィールド以内で無いと判定され(N)、直に
現フィールドでの動作を終了する。
【0134】以上が第2段階の動作であり、次のフィー
ルドになると、ステップS3において、現フィールドが
1フィールド目でないと判定され(N)、ステップS4
において、現フィールドが2フィールド目であると判定
され(Y)、第3段階の動作であるステップS11に移
行する。
【0135】[第3段階]ステップS11では、ステッ
プS10で取り込まれた10フィールド期間の動きベク
トルの累積和について、各検出領域毎にNG領域(誤り
領域)の判別を行う。NG領域とは、検出領域で得られ
た動きベクトルの信頼性が低い、または映像の動きに関
与していない動きベクトルを持つ領域のことである。
【0136】このNG領域の判別方法としては、以下の
(1)、(2)、(3)に示す方法を行っている。 (1)検出領域の相関値の平均値AVEが相対的に低
く、10フィールド期間で累積された40個の検出領域
の相関値の平均値AVEの1/5以下の領域をNG領域
とする。
【0137】(2)検出領域の相関値の平均値AVEが
低く、累積和が200以下の領域をNG領域とする。 (3)最下段の検出領域A5、B5、C5・・・H5
で、動きベクトルの累積和の大きさが0であるとき、字
幕の可能性があるため、その領域をNG領域とする。
【0138】尚、(1)の定数1/5はシミュレーショ
ンにより決定した値である。また、(2)の定数200
はブルーバックと一般の映像での相関値の値を比較し、
ブルーバックのときだけは、ほとんど領域をNG領域と
するための値である。
【0139】ステップS11でNG領域の判別が行われ
ると、ステップS18において、現フィールドが2フィ
ールド目あるいは12フィールド目である場合は、20
フィールド以内であると判定され(Y)、ステップS1
9において遅延量の目標値を0に設定し、現フィールド
での動作を終了する。また、現フィールドが22フィー
ルド目、32フィールド目、42フィールド目・・・の
時には、ステップS18において、20フィールド以内
で無いと判定され(N)、直に現フィールドでの動作を
終了する。
【0140】以上が第3段階の動作であり、次のフィー
ルドになると、ステップS4において、現フィールドが
2フィールド目でないと判定され(N)、ステップS5
において、現フィールドが3フィールド目であると判定
され(Y)、第4段階及び第5段階の動作であるステッ
プS12に移行する。
【0141】[第4段階]ステップS12では、ステッ
プS11でNG領域では無いと判定された有効な検出領
域に関して、動きベクトルの最大値と最小値との差を8
分割し、この8分割された夫々の範囲における検出領域
の数を求め、図12に示すような動きベクトルの大きさ
のヒストグラムを作成する。尚、ここで云う動きベクト
ルの大小関係は、左から右に向いている動きベクトルを
正の動きベクトル、右から左に向いている動きベクトル
を負の動きベクトルとして定めている。そして、このヒ
ストグラムにおいて、8分割された範囲のうち検出領域
数が1個であり、且つ大小どちらか一方の隣に検出領域
数が0である範囲が存在する範囲の領域は、疑わしい検
出領域としてヒストグラムから取り除く。図12におい
ては、γの部分が取り除かれる。
【0142】以上が第4段階の動作であり、ステップS
12では、引き続き第5段階の動作を行う。 [第5段階]第4段階で作成されたヒストグラムにおい
て、図12に示すように、最小値αと最大値βとの平均
値(α+β)/2を分割レベルとし、この分割レベルよ
りも小さい動きベクトルが検出された検出領域をLブロ
ックと、分割レベルよりも大きい動きベクトルが検出さ
れた検出領域をHブロックと夫々定義する。
【0143】以上でステップS12での動作が終了し、
ステップS18において、現フィールドが3フィールド
目あるいは13フィールド目である場合は、20フィー
ルド以内であると判定され(Y)、ステップS19にお
いて遅延量の目標値を0に設定し、現フィールドでの動
作を終了する。また、現フィールドが23フィールド
目、33フィールド目、43フィールド目・・・の時に
は、ステップS18において、20フィールド以内で無
いと判定され(N)、直に現フィールドでの動作を終了
する。
【0144】以上が第5段階の動作であり、次のフィー
ルドになると、ステップS5において、現フィールドが
3フィールド目でないと判定され(N)、ステップS6
において、現フィールドが4フィールド目であると判定
され(Y)、第6段階の前半の動作である判別Aを行う
ステップS13に移行する。
【0145】[第6段階]ステップS13では判別Aと
いう第1の被写体/背景判別を行う。判別Aでは、動き
ベクトルの検出領域のうち、図13の斜線領域である上
端、左端、右端の16個の検出領域A1、B1、C1、
D1、E1、F1、G1、H1、A2、A3、A4、A
5、H2、H3、H4、H5を第1の領域として注目す
る。
【0146】通常の映像では、背景は画面の端の部分に
映っている場合が多い。従って、画面の端である前記第
1の領域において、前述のLブロックの領域数とHブロ
ックの領域数とをカウントして比較し、その数が多い方
のブロックの領域を40個の検出領域全体において背景
領域(後方領域)と判別する。また、背景領域以外の検
出領域を被写体領域(前方領域)と判別する。
【0147】即ち、例えば、第1の領域において、Lブ
ロックの領域数の方がHブロックの領域数よりも多い場
合は、40個の検出領域全体においてLブロックの検出
領域を背景領域と判別し、Hブロックの検出領域を被写
体領域と判別する。
【0148】尚、第1の領域において、Lブロックの領
域数とHブロックの領域数とが等しい場合は、判別Aで
の第1の被写体/背景判別は行わない。以上がステップ
S13で行う判別Aの動作であり、このステップS13
が終了すると、ステップS18において、現フィールド
が4フィールド目あるいは14フィールド目である場合
は、20フィールド以内であると判定され(Y)、ステ
ップS19において遅延量の目標値を0に設定し、現フ
ィールドでの動作を終了する。また、現フィールドが2
4フィールド目、34フィールド目、44フィールド目
・・・の時には、ステップS18において、20フィー
ルド以内で無いと判定され(N)、直に現フィールドで
の動作を終了する。
【0149】次のフィールドになると、ステップS6に
おいて、現フィールドが4フィールド目でないと判定さ
れ(N)、ステップS7において、現フィールドが5フ
ィールド目であると判定され(Y)、第6段階の後半の
動作である判別B、判別Cを行うステップS14に移行
する。
【0150】ステップS14では判別Bという第2の被
写体/背景判別と、判別Cという第3の被写体/背景判
別と、判別A、B、Cより得られた判別結果から最終的
な被写体/背景判別を行う。
【0151】判別Bでは、動きベクトルの検出領域のう
ち、図14の斜線領域である中央の4個の検出領域D
3、E3、D4、E4を第2の領域として注目する。通
常の映像では、被写体は画面の中央の部分に映っている
場合が多い。従って、画面の中央である前記第2の領域
において、前述のLブロックの領域数とHブロックの領
域数とをカウントして比較し、その数が多い方のブロッ
クの領域を40個の検出領域全体において被写体領域
(前方領域)と判別する。また、被写体領域以外の検出
領域を背景領域(後方領域)と判別する。
【0152】即ち、例えば、第2の領域において、Hブ
ロックの領域数の方がLブロックの領域数よりも多い場
合は、40個の検出領域全体においてHブロックの検出
領域を被写体領域と判別し、Lブロックの検出領域を背
景領域と判別する。
【0153】尚、第2の領域において、Lブロックの領
域数とHブロックの領域数とが等しい場合は、判別Bで
の第2の被写体/背景判別は行わない。以上が判別Bの
動作であり、この判別Bの動作が終了すると、判別A、
判別Bの判別結果を比較し、両者の判別結果が等しい場
合は、その結果を最終的な被写体/背景判別の結果と
し、以上でステップS14の動作を終了する。また、両
者の判別結果が異なる場合は、次の判別Cを行う。
【0154】即ち、例えば、判別A、Bの両方で、Lブ
ロックの領域が背景領域であり、Hブロックの領域が被
写体領域であると判別された場合、Lブロックの領域が
背景領域、Hブロックの領域が背景領域を最終的な被写
体/背景判別の結果とし、ステップS14の動作を終了
する。
【0155】また、例えば、判別AではLブロックの領
域が背景領域であり、Hブロックの領域が被写体領域で
あると判別され、判別Bでは判別Aとは逆にLブロック
の領域が被写体領域であり、Hブロックの領域が背景領
域であると判別された場合は、次の判別Cを行う。
【0156】また、第1、第2の検出領域のどちらか一
方において、Lブロックの領域数とHブロックの領域数
が等しく、判別Aまたは判別Bのどちらか一方しか行わ
れない場合は、行われた一方の判別の結果を最終的な被
写体/背景判別の結果とする。
【0157】また、第1、第2の検出領域の両方におい
て、Lブロックの領域数とHブロックの領域数とが等し
く、判別A、判別Bの両方とも行われない場合は、次の
判別Cを行う。
【0158】判別Cでは、先ず、40個全ての検出領域
において、Lブロックの領域数とHブロックの領域数と
を比較し、領域数の少ない方のブロックを検出する。次
に、この領域数の少ない方のブロックに注目し、この注
目されたブロックの40個の検出領域全体にある領域数
に対して第1の検出領域にある領域数の割合、即ち(第
1の検出領域での注目ブロックの領域数)/(40個の
検出領域での注目ブロックの領域数)を求め、その割合
がが所定値以上の場合は、そのブロックの領域を背景領
域(後方領域)と判別する。また、それ以外の場合は、
前記領域数の少ない方のブロックの領域を被写体領域
(前方領域)とする。そして、この判別Cによる判別結
果を最終的な被写体/背景判別の判別結果とする。
【0159】本実施例では前記所定値を0.45として
おり、この値は多数の様々の映像に対して実験を行うこ
とにより得られた値である。尚、判別Aと判別Bとで異
なる判別結果が得られるのは、被写体が画面の端に位置
する場合が多く、判別Cは、大きい被写体が画面の端に
映っている場合には、背景領域は画面全体においては領
域数が少ないが、そのうち画面の端を占める割合が所定
値以上になるという考えに基づいていおり、また、小さ
い被写体が画面の端に映っている場合には、被写体領域
は画面全体においては領域数が少なく、そのうち画面の
端を占める割合も所定値より小さくなるという考えに基
づいている。
【0160】以上がステップS14で行う判別B、判別
Cの動作であり、このステップS14が終了すると、ス
テップS18において、現フィールドが5フィールド目
あるいは15フィールド目である場合は、20フィール
ド以内であると判定され(Y)、ステップS19におい
て遅延量の目標値を0に設定し、現フィールドでの動作
を終了する。また、現フィールドが25フィールド目、
35フィールド目、45フィールド目・・・の時には、
ステップS18において、20フィールド以内で無いと
判定され(N)、直に現フィールドでの動作を終了す
る。
【0161】次のフィールドになると、ステップS7に
おいて、現フィールドが5フィールド目でないと判定さ
れ(N)、ステップS8において、現フィールドが6フ
ィールド目であると判定され(Y)、第7段階の動作を
行うステップS15に移行する。
【0162】[第7段階]ステップS15では、前述の
第5段階の最終的な被写体/背景判別によって被写体領
域である判別されたブロックにおける10フィールド期
間の動きベクトルの累積和を求め、この累積和を前記被
写体領域のブロック数で除算することにより累積和の平
均値HIを求める。また、背景領域であると判別された
ブロックにおいても10フィールド期間の動きベクトル
の累積和を求め、この累積和を前記背景領域のブロック
数で除算することにより累積和の平均値HAを求める。
【0163】尚、元になる2次元映像がテレシネ変換さ
れた映像である場合、動きベクトルのあるフィールドと
動きベクトルの無いフィールドが存在するため、前記平
均値HI、HAを求める際には、前述の計算によって得
られた平均値を2倍(2−2プルダウン方式の場合)あ
るいは2.5倍(2−3プルダウン方式の場合)する必
要がある。
【0164】次に、被写体領域のブロックの動きベクト
ルの平均値HIの絶対値と、背景領域のブロックの動き
ベクトルの平均値HAの絶対値とを比較し、
【0165】
【数1】
【0166】の場合は、被写体領域のブロックの平均値
HIの絶対値に基づいてフィールドメモリ5の遅延量の
目標値の絶対値を算出する。そして、前記平均値HIが
正の値の時は、遅延量の目標値も正とし、前記平均値H
Iが負の値の時は、遅延量の目標値も負とする。
【0167】また、
【0168】
【数2】
【0169】の場合は、背景領域のブロックの平均値H
Aの絶対値に基づいてフィールドメモリ5の遅延量の目
標値の絶対値を算出する。そして、前記平均値HAが正
の値の時は、遅延量の目標値は負とし、前記平均値HI
が負の値の時は、遅延量の目標値は正とする。尚、元に
なる2次元映像の種類としては横流れ映像がある。この
横流れ映像とは、被写体、背景ともに明らかに同一方向
に動いている映像である。例えば、車窓から風景などを
撮影した際に、遠くの風景はゆっくりと、近くにあるも
のは早く流れていく映像である。元になる2次元映像が
このような横流れの映像である時には、前述の方法で求
められた遅延量の目標値をそのまま使用せずに以下の方
法で求められた値を使用する。
【0170】元になる2次元映像が右流れの映像である
時には、遅延量の目標値は大きさが前述の方法で求めら
れた遅延量の目標値の絶対値であり、符号は正とする。
また、元になる2次元映像が左流れの映像である時に
は、遅延量の目標値は大きさが前述の方法で求められた
遅延量の目標値の絶対値であり、符号は負である。
【0171】以上でステップS15での動作が終了し、
ステップS18において、現フィールドが6フィールド
目あるいは16フィールド目である場合は、20フィー
ルド以内であると判定され(Y)、ステップS19にお
いて遅延量の目標値を0に設定し、現フィールドでの動
作を終了する。また、現フィールドが26フィールド
目、36フィールド目、46フィールド目・・・の時に
は、ステップS18において、20フィールド以内で無
いと判定され(N)、直に現フィールドでの動作を終了
する。
【0172】以上が第7段階の動作であり、次の3フィ
ールドの期間は、ステップS9において、現フィールド
が7〜9フィールド目であると判定され(Y)、ステッ
プS18に移行する。ステップS18では、現フィール
ドが7〜9フィールド目あるいは17〜19フィールド
目である場合は、20フィールド以内であると判定され
(Y)、ステップS19において遅延量の目標値を0に
設定し、現フィールドの動作を終了する。また、現フィ
ールドが27〜29フィールド目、37〜39フィール
ド目、47〜49フィールド目・・・の時には、ステッ
プS18において、20フィールド以内で無いと判定さ
れ(N)、直に現フィールドでの動作を終了する。
【0173】そして、次の10フィールド目では、ステ
ップS9において、現フィールドが現フィールドが7〜
9フィールド目でないと判定され(N)、ステップS2
0においてフィールドカウンタをリセットする。このス
テップS20の動作により、前述したように、フィール
ドのカウント数は、ステップS1でシーンの変化がある
と判定され、ステップS17で構造体の変数の初期化が
行われる時点を基準に10フィールド経過毎にリセット
される。
【0174】以上が図8に示した第1段階〜第7段階の
動作であり、10フィールド周期で繰り返し行われる。
図15及び図16は第5段階〜第7段階の動作における
判別A、判別B、判別C、及び遅延量決定の流れを示す
図である。
【0175】ステップS21は判別Aの動作を行うステ
ップであり、図13に示した第1の領域におけるHブロ
ックの領域数とLブロックの領域数とを比較し、Hブロ
ックの領域数の方が多い場合はステップS22に進み、
両者の領域数が等しい場合はステップS23に進み、L
ブロックの領域数の方が多い場合はステップS24に進
む。 ステップS22、S23、S24は判別Bの動作
を行うステップであり、図14に示した第2の領域にお
けるHブロックの領域数とLブロックの領域数とを比較
するステップである。ステップS22において、Hブロ
ックの領域数の方が多い場合はステップS25に進み、
両者の領域数が等しい場合あるいはLブロックの領域数
の方が多い場合は、Hブロックの領域が背景領域、Lブ
ロックの領域が被写体領域であるを最後の被写体/背景
判別の判別結果(e)(f)とする。
【0176】また、ステップS23において、Hブロッ
クの領域数の方が多い場合は、Hブロックの領域が被写
体領域、Lブロックの領域が背景領域であるを最後の被
写体/背景判別の判別結果(g)とし、両者の領域数が
等しい場合はステップS26に進み、Lブロックの領域
数の方が多い場合は、Hブロックの領域が背景領域、L
ブロックの領域が被写体領域であるを最後の被写体/背
景判別の判別結果(l)とする。 また、ステップS2
4において、Hブロックの領域数の方が多い場合あるい
は両者の領域数が等しい場合は、Hブロックの領域が被
写体領域、Lブロックの領域が背景領域であるを最後の
被写体/背景判別の判別結果(m)(n)とし、Lブロ
ックの領域数の方が多い場合はステップS27に進む。
【0177】次に、ステップS25、S26、S27
は、判別Cの前半の動作を行うステップであり、40個
の検出領域全体においてHブロックの領域数とLブロッ
クの領域数とを比較し、領域数の少ない方のブロックを
判別する。ステップS25、S26、S27において、
Hブロックの領域数の方が少ない場合は夫々、ステップ
S28、S30、S32に進み、Lブロックの領域数の
方が少ない場合は夫々、ステップS29、S31、S3
3に進む。
【0178】ステップS28〜S33は判別Cの後半の
動作を行うステップであり、領域数の少ない方のブロッ
クに注目し、40個の検出領域全体内にある領域数のう
ち第1の領域にある領域数の割合が0.45以上である
か否かを判別するステップである。ステップS28、S
30、S32において、領域数の少ないHブロックの前
記割合が0.45以上である場合、あるいはステップS
29、S31、S33において、領域数の少ないLブロ
ックの第1の領域に占める割合が0.45より小さい場
合は、Hブロックの領域が背景領域、Lブロックの領域
が被写体ブロックであると判定し、これを最後の被写体
/背景判別の判別結果(a)(h)(o)(d)(k)
(r)とする。
【0179】また、ステップS28、S30、S32に
おいて、領域数の少ないHブロックの第1の領域に占め
る割合が0.45より小さい場合、あるいはステップS
29、S31、S33において、領域数の少ないLブロ
ックの第1の領域に占める割合が0.45以上である場
合は、Hブロックの領域が被写体領域、Lブロックの領
域が背景領域であると判定し、これを最後の被写体/背
景判別の判別結果(b)(i)(p)(c)(j)
(q)とする。
【0180】図16におけるステップS34〜S51は
夫々、遅延量の決定を行うステップであり、Hブロック
の検出領域における動きベクトルの平均値(平均動きベ
クトル)の絶対値とLブロックの検出領域における動き
ベクトルの平均値(平均動きベクトル)の絶対値とを比
較するステップである。
【0181】具体的には、Hブロックの検出領域が被写
体領域、Lブロックの検出領域が背景領域である判別結
果(b)(c)(g)(i)(j)(m)(n)(p)
(q)である場合、Hブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は被
写体領域であるHブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方の目の映像信号を遅延さ
せる(I)。また、Lブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は背
景領域であるLブロックの検出領域における平均動きベ
クトルの絶対値により決定され、遅延の向きは前記平均
動きベクトルが向いている方と逆の方の目の映像信号を
遅延させる(II)。
【0182】また、Hブロックの検出領域が背景領域、
Lブロックの検出領域が被写体領域である判別結果
(a)(d)(e)(f)(h)(k)(l)(o)
(r)である場合、Lブロックの検出領域における平均
動きベクトルの絶対値の方が大きい場合は、遅延量は被
写体領域であるLブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方の目の映像信号を遅延さ
せる(III)。また、Hブロックの検出領域における平
均動きベクトルの絶対値の方が大きい場合は、遅延量は
背景領域であるHブロックの検出領域における平均動き
ベクトルの絶対値により決定され、遅延の向きは前記平
均動きベクトルが向いている方と逆の方の目の映像信号
を遅延させる(IV)。
【0183】次に、図17〜図30に示す具体的な映像
について第3段階〜第7段階の動作を図15、図16の
流れ従い説明する。図17(a)(b)は被写体である
自動車が画面上において左から右に進む場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図17(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに分割される。
【0184】このような映像の場合、図18(b)に示
すように、第1の領域におけるHブロックの検出領域は
1個、Lブロックの検出領域は9個である。従って、図
15のステップS21の判別Aにおいては、Lブロック
の検出領域の方が多いと判定され、ステップS24に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が被写体領域、Lブロックの検出領域が背景領
域である。
【0185】次に、図18(c)に示すように、第2領
域におけるHブロックの検出領域は4個、Lブロックの
検出領域は0個である。従って、図15のステップS2
4の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、最終の被写体/背景判別結果(m)に進
む。即ち、この場合は、判別Bにおいても、判別Aと同
様にHブロックの検出領域が被写体領域、Lブロックの
検出領域が背景領域であると判別されるため、この判別
結果を最終的な判別結果としている。
【0186】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS46において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている方側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
【0187】これにより、図17(a)(b)の画面に
おいて、自動車の進んでいる方の目、即ち右目用の映像
が遅延された数フィールド前の映像となり、自動車が手
前側に位置する立体映像を表示することが出来る。
【0188】図19(a)(b)は背景である家が画面
上において左から右に移動する場合の1フィールド目の
映像と10フィールド目の映像を示す図である。このよ
うな映像の場合、動きベクトルの各検出領域は、図19
(c)に示すように、第3段階でNG領域が判定され、
第4段階でHブロックの検出領域とLのブロックの検出
領域とに分割される。
【0189】このような映像の場合、図20(b)に示
すように、第1の領域におけるHブロックの検出領域は
12個、Lブロックの検出領域は1個である。従って、
図15のステップS21の判別Aにおいては、Hブロッ
クの検出領域の方が多いと判定され、ステップS22に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が背景領域、Lブロックの検出領域が被写体
領域である。
【0190】次に、図20(c)に示すように、第2の
領域におけるHブロックの検出領域は0個、Lブロック
の検出領域は4個である。従って、図15のステップS
22の判別Bにおいては、Hブロックの検出領域の方が
多いと判定され、最終の被写体/背景判別結果(f)に
進む。即ち、この場合は、判別Bにおいても、判別Aと
同様にHブロックの検出領域が背景領域、Lブロックの
検出領域が被写体領域であると判別されるため、この判
別結果を最終的な判別結果としている。
【0191】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS39において遅延量決定(IV)に進む。即ち、
遅延量は背景領域であるHブロックの平均動きベクトル
の絶対値により決定され、遅延の向きはHブロックの平
均動きベクトルが向いている右側とは逆の左側の目、即
ち左目用の映像信号を遅延させた映像信号とする。
【0192】これにより、図19(a)(b)の画面に
おいて、家が移動している方とは逆の方の目、即ち左目
用の映像が遅延された数フィールド前の映像となり、家
が奥側に位置する立体映像を表示することが出来る。
【0193】以上が判別Aと判別Bとの判別結果が等し
い場合の例である。次に、判別Aと判別Bとの判別結果
が異なり、判別Cを行う例について説明する。
【0194】図21(a)(b)は被写体である小鳥が
画面上において左から右端に飛んでいる場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図21(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに区別される。
【0195】このような映像の場合、図22(b)に示
すように、第1の領域におけるHブロックの検出領域は
2個、Lブロックの検出領域は11個である。従って、
図15のステップS21の判別Aにおいては、Lブロッ
クの検出領域の方が多いと判定され、ステップS24に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が被写体領域、Lブロックの検出領域が背景
領域である。
【0196】次に、図22(c)に示すように、第2領
域におけるHブロックの検出領域は1個、Lブロックの
検出領域は3個である。従って、図15のステップS2
4の判別Bにおいては、Lブロックの検出領域の方が多
いと判定され、ステップS27に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であり、判別A
の結果とは逆の結果である。従って、ステップS27の
判別Cに進む。
【0197】ステップS27では、Hブロック、Lブロ
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は7個、Lブロックの領域数は28個であるため、H
ブロックの方が少なく、ステップS32に進む。
【0198】ステップS32では、全体の領域数が少な
いHブロックに注目し、図22(b)に示す第1の領域
にあるHブロックの割合を求める。即ち、40個の検出
領域全体におけるHブロックの領域数は7個、第1の領
域におけるHブロックの領域数は2個であるため、第1
領域にあるHブロックの割合は2/7=0.28・・・
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(p)に進む。即ち、Hブロックの検出領域
が被写体領域、Lブロックの検出領域が背景領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
【0199】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS49において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている右側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
【0200】これにより、図21(a)(b)の画面に
おいて、小鳥が飛んでいる方の目、即ち右目用の映像が
遅延された数フィールド前の映像となり、小鳥が手前側
に位置する立体映像を表示することが出来る。
【0201】図23(a)(b)は被写体であるバスが
画面上において右端から左に進んでいる場合の1フィー
ルド目の映像と10フィールド目の映像を示す図であ
る。このような映像の場合、動きベクトルの各検出領域
は、図23(c)に示すように、第3段階でNG領域が
判定され、第4段階でHブロックの検出領域とLのブロ
ックの検出領域とに分割される。
【0202】このような映像の場合、図24(b)に示
すように、第1の領域におけるHブロックの検出領域は
4個、Lブロックの検出領域は9個である。従って、図
16のステップS21の判別Aにおいては、Lブロック
の検出領域の方が多いと判定され、ステップS24に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が被写体領域、Lブロックの検出領域が背景領
域である。
【0203】次に、図24(c)に示すように、第2の
領域におけるHブロックの検出領域は0個、Lブロック
の検出領域は4個である。従って、図16のステップS
24の判別Bにおいては、Lブロックの検出領域の方が
多いと判定され、ステップS27に進む。即ち、この時
の判別Bの判別結果は、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であり、判別A
の結果とは逆の結果である。従って、ステップS27の
判別Cに進む。
【0204】ステップS27では、Hブロック、Lブロ
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は8個、Lブロックの領域数は26個であるため、H
ブロックの方が少なく、ステップS32に進む。
【0205】ステップS32では、全体の領域数が少な
いHブロックに注目し、図24(a)に示す第1の領域
にあるHブロックの割合を求める。即ち、40個の検出
領域全体におけるHブロックの領域数は8個、第1の領
域におけるHブロックの領域数は4個であるため、第1
領域にあるHブロックの割合は4/8=0.5となり、
0.45よりも大きいため、最終の被写体/背景判別結
果(o)に進む。即ち、Hブロックの検出領域が背景領
域、Lブロックの検出領域が被写体領域であると判別さ
れるため、この判別結果を最終的な判別結果としてい
る。
【0206】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Lブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS48において遅延量決定(III)に進む。即
ち、遅延量は被写体領域であるLブロックの平均動きベ
クトルの絶対値により決定され、遅延の向きはLブロッ
クの平均動きベクトルが向いている左側の目、即ち左目
用の映像信号を遅延させた映像信号とする。
【0207】これにより、図23(a)(b)の画面に
おいて、バスが進んでいる方の目、即ち左目用の映像が
遅延された数フィールド前の映像となり、バスが手前側
に位置する立体映像を表示することが出来る。
【0208】図25(a)(b)は被写体であるバスが
画面上において左から右端に移動する場合の1フィール
ド目の映像と10フィールド目の映像を示す図である。
このような映像の場合、動きベクトルの各検出領域は、
図25(c)に示すように、第3段階でNG領域が判定
され、第4段階でHブロックの検出領域とLのブロック
の検出領域とに分割される。
【0209】このような映像の場合、図26(b)に示
すように、第1の領域におけるHブロックの検出領域は
8個、Lブロックの検出領域は5個である。従って、図
15のステップS21の判別Aにおいては、Hブロック
の検出領域の方が多いと判定され、ステップS22に進
む。即ち、この時の判別Aの判別結果は、Hブロックの
検出領域が背景領域、Lブロックの検出領域が被写体領
域である。
【0210】次に、図26(c)に示すように、第2領
域におけるHブロックの検出領域は4個、Lブロックの
検出領域は0個である。従って、図15のステップS2
2の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、ステップS25に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が被写体領
域、Lブロックの検出領域が背景領域であり、判別Aの
結果とは逆の結果である。従って、ステップS25の判
別Cに進む。
【0211】ステップS25では、Hブロック、Lブロ
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は26個、Lブロックの領域数は8個であるため、L
ブロックの方が少なく、ステップS29に進む。
【0212】ステップS29では、全体の領域数が少な
いLブロックに注目し、図26(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は8個、第1の領
域におけるHブロックの領域数は5個であるため、第1
領域にあるHブロックの割合は5/8=0.625とな
り、0.45よりも大きいため、最終の被写体/背景判
別結果(c)に進む。即ち、Hブロックの検出領域が被
写体領域、Lブロックの検出領域が背景領域であると判
別されるため、この判別結果を最終的な判別結果として
いる。
【0213】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS36において遅延量決定(I)に進む。即ち、
遅延量は被写体領域であるHブロックの平均動きベクト
ルの絶対値により決定され、遅延の向きはHブロックの
平均動きベクトルが向いている右側の目、即ち右目用の
映像信号を遅延させた映像信号とする。
【0214】これにより、図25(a)(b)の画面に
おいて、バスが進んでいる方の目、即ち右目用の映像が
遅延された数フィールド前の映像となり、バスが手前側
に位置する立体映像を表示することが出来る。
【0215】図27(a)(b)は被写体であるヘリコ
プタが画面上において右端から左に飛んでいる場合の1
フィールド目の映像と10フィールド目の映像を示す図
である。このような映像の場合、動きベクトルの各検出
領域は、図27(c)に示すように、第3段階でNG領
域が判定され、第4段階でHブロックの検出領域とLの
ブロックの検出領域とに分割される。
【0216】このような映像の場合、図28(b)に示
すように、第1の領域におけるHブロックの検出領域は
11個、Lブロックの検出領域は1個である。従って、
図15のステップS21の判別Aにおいては、Hブロッ
クの検出領域の方が多いと判定され、ステップS22に
進む。即ち、この時の判別Aの判別結果は、Hブロック
の検出領域が背景領域、Lブロックの検出領域が被写体
領域である。
【0217】次に、図28(c)に示すように、第2領
域におけるHブロックの検出領域は3個、Lブロックの
検出領域は1個である。従って、図15のステップS2
2の判別Bにおいては、Hブロックの検出領域の方が多
いと判定され、ステップS25に進む。即ち、この時の
判別Bの判別結果は、Hブロックの検出領域が被写体領
域、Lブロックの検出領域が背景領域であり、判別Aの
結果とは逆の結果である。従って、ステップS25の判
別Cに進む。
【0218】ステップS25では、Hブロック、Lブロ
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は26個、Lブロックの領域数は7個であるため、L
ブロックの方が少なく、ステップS29に進む。
【0219】ステップS29では、全体の領域数が少な
いLブロックに注目し、図28(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は7個、第1の領
域におけるHブロックの領域数は1個であるため、第1
領域にあるHブロックの割合は1/7=0.14・・・
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(d)に進む。即ち、Hブロックの検出領域
が背景領域、Lブロックの検出領域が被写体領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
【0220】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Lブロ
ックの平均動きベクトルの方が大きいので、図16のス
テップS37において遅延量決定(III)に進む。即
ち、遅延量は被写体領域であるLブロックの平均動きベ
クトルの絶対値により決定され、遅延の向きはLブロッ
クの平均動きベクトルが向いている左側の目、即ち左目
用の映像信号を遅延させた映像信号とする。
【0221】これにより、図27(a)(b)の画面に
おいて、ヘリコプタが飛んでいる方の目、即ち左目用の
映像が遅延された数フィールド前の映像となり、ヘリコ
プタが手前側に位置する立体映像を表示することが出来
る。
【0222】図29(a)(b)は背景である樹木が画
面上において左端から右に移動する場合の1フィールド
目の映像と10フィールド目の映像を示す図である。こ
のような映像の場合、動きベクトルの各検出領域は、図
29(c)に示すように、第3段階でNG領域が判定さ
れ、第4段階でHブロックの検出領域とLのブロックの
検出領域とに分割される。
【0223】このような映像の場合、図30(b)に示
すように、第1の領域におけるHブロックの検出領域は
6個、Lブロックの検出領域は6個である。従って、図
15のステップS21の判別Aにおいては、Hブロック
の検出領域の数とLブロックの検出領域の数とは等し
く、ステップS23に進む。即ち、この時の判別Aでは
被写体/背景の判別を行わない。
【0224】次に、図30(c)に示すように、第2領
域におけるHブロックの検出領域は2個、Lブロックの
検出領域の数とHブロックの検出領域の数とは等しく、
ステップS26に進む。即ち、この時の判別Bは被写体
/背景判別を行わなわず、ステップS26の判別Cに進
む。
【0225】ステップS26では、Hブロック、Lブロ
ックのうち40個の検出領域全体における検出領域の少
ない方のブロックを検出する。即ち、Hブロックの領域
数は19個、Lブロックの領域数は16個であるため、
Lブロックの方が少なく、ステップS31に進む。
【0226】ステップS31では、全体の領域数が少な
いLブロックに注目し、図30(b)に示す第1の領域
にあるLブロックの割合を求める。即ち、40個の検出
領域全体におけるLブロックの領域数は16個、第1の
領域におけるHブロックの領域数は6個であるため、第
1領域にあるHブロックの割合は6/16=0.375
となり、0.45よりも小さいため、最終の被写体/背
景判別結果(k)に進む。即ち、Hブロックの検出領域
が背景領域、Lブロックの検出領域が被写体領域である
と判別されるため、この判別結果を最終的な判別結果と
している。
【0227】次に、Hブロックの検出領域における平均
動きベクトルの絶対値と、Lブロックの検出領域におけ
る平均動きベクトルの絶対値とを比較した場合、Hブロ
ックの平均動きベクトルの方が大きいので、図17のス
テップS44において遅延量決定(IV)に進む。即ち、
遅延量は背景領域であるHブロックの平均動きベクトル
の絶対値により決定され、遅延の向きはHブロックの平
均動きベクトルが向いている右側とは逆の左側の目、即
ち左目用の映像信号を遅延させた映像信号とする。
【0228】これにより、図29(a)(b)の画面に
おいて、樹木が移動している方とは逆の方の目、即ち左
目用の映像が遅延された数フィールド前の映像となり、
樹木が奥側に位置する立体映像を表示することが出来
る。
【0229】尚、例えば、ステップS25、S26、S
27において、Hブロックの領域数とLブロックの領域
数が等しい場合は、現在の10フィールド期間では被写
体/背景判別を行わず、前の10フィールド期間の判別
結果を用いる、あるいは遅延量の目標値を0にする。
【0230】
【発明の効果】本発明によれば、元になる2次元映像に
映し出されている複数の映出体の前後関係に応じて、左
右のどちらの目の映像を遅延された映像にするかを決め
ているため、映出体の前後関係が逆転した状態で3次元
映像に変換することは減少、若しくは無くなり、観察者
が違和感なく観賞することが出来る良好な3次元映像を
生成するようにした第1の3次元映像生成方法を提供し
得る。
【0231】具体的には、移動量の大きい映出体が移動
量の小さい映出体の前方を通過したことを検出し、この
場合においては、移動量の大きい映出体が移動量の小さ
い映出体よりも前方に位置する3次元映像を生成するこ
とが出来る。
【0232】また、移動量の大きい映出体が移動量の小
さい映出体の後方を通過したことを検出し、この場合に
おいては、移動量の大きい映出体が移動量の小さい映出
体よりも後方に位置する3次元映像を生成することが出
来る。
【0233】また、移動量の大きい映出体が移動量の小
さい映出体の前方を去ったことを検出し、この場合にお
いては、移動量の大きい映出体が移動量の小さい映出体
よりも前方に位置する3次元映像を生成することが出来
る。
【0234】また、移動量の大きい映出体が移動量の小
さい映出体の後方より新たに連続して現れたことを検出
し、この場合においては、移動量の大きい映出体が移動
量の小さい映出体よりも後方に位置する3次元映像を生
成することが出来る。
【0235】また、本発明によれば、元になる2次元映
像に映し出されている映出体の前後関係の判定が困難な
時は、その時の情報を無視することにより、却って、映
出体の前後関係の間違った3次元映像を生成することを
防止した2次元映像から3次元映像を生成する方法を提
供し得る。
【0236】また、本発明によれば、平面映像である2
次元映像において、隣接する2つの映出体の前後関係を
判定することが出来る第1の前後判定方法を提供し得
る。また、本発明によれば、平面映像である2次元映像
において、映出体が後方に位置する後方領域、あるいは
/及び映出体が前方に位置する前方領域を判別すること
が出来る第2の前後判定方法を提供し得る。
【0237】更に、本発明の第2の前後判定方法によれ
ば、映出体の移動量の誤って検出した場合は、その検出
を除去するため、正確な前後判定を行うことが出来る。
更に、本発明の第2の前後判定方法によれば、テレシネ
変換等により同じ映像が連続する2次元映像に対して
も、後方領域あるいは/及び前方領域を判別することが
出来る。
【0238】また、本発明によれば、映出体が後方に位
置する後方領域、あるいは/及び映出体が前方に位置す
る前方領域を判別し、この判別結果に応じて、左右のど
ちらの目の映像を遅延された映像にするかを決めている
ため、映出体の前後関係が逆転した状態で3次元映像に
変換することは減少、若しくは無くなり、観察者が違和
感なく観賞することが出来る良好な3次元映像を生成す
るようにした第2の3次元映像生成方法を提供し得る。
【図面の簡単な説明】
【図1】本発明を用いた第1実施例の3次元映像ソフト
変換システムの概略構成を示すブロック図である。
【図2】CPUが2次元映像における映出体の前後関係
を判定する動作を説明するフローチャートを示す図であ
る。
【図3】2次元映像の動きベクトルの検出領域を示す図
である。
【図4】元になる2次元映像の第1のシーンを示す図で
ある。
【図5】元になる2次元映像の第2のシーンを示す図で
ある。
【図6】本発明を用いた第2実施例の3次元映像ソフト
変換システムの概略構成を示すブロック図である。
【図7】2次元映像の動きベクトルの検出領域を示す図
である。
【図8】CPUが2次元映像における映出体の前後関係
を判定する動作を説明するフローチャートを示す図であ
る。
【図9】CPUが2次元映像における映出体の前後関係
を判定する際の時間的な流れを示す図である。
【図10】CPUが2次元映像における映出体の前後関
係を判定する動作を説明するフローチャートを示す図で
ある。
【図11】CPUが2次元映像における映出体の前後関
係を判定する動作を説明するフローチャートを示す図で
ある。
【図12】動きベクトルの検出領域をHブロックとLブ
ロックとに分割するヒストグラムを示す図である。
【図13】動きベクトルの検出領域の第1の領域を示す
図である。
【図14】動きベクトルの検出領域の第2の領域を示す
図である。
【図15】CPUが2次元映像における映出体の前後関
係を判定する動作を説明するフローチャートを示す図で
ある。
【図16】CPUが2次元映像における映出体の前後関
係を判定する動作を説明するフローチャートを示す図で
ある。
【図17】CPUの具体的な動作を模式的に示す図であ
る。
【図18】CPUの具体的な動作を模式的に示す図であ
る。
【図19】CPUの具体的な動作を模式的に示す図であ
る。
【図20】CPUの具体的な動作を模式的に示す図であ
る。
【図21】CPUの具体的な動作を模式的に示す図であ
る。
【図22】CPUの具体的な動作を模式的に示す図であ
る。
【図23】CPUの具体的な動作を模式的に示す図であ
る。
【図24】CPUの具体的な動作を模式的に示す図であ
る。
【図25】CPUの具体的な動作を模式的に示す図であ
る。
【図26】CPUの具体的な動作を模式的に示す図であ
る。
【図27】CPUの具体的な動作を模式的に示す図であ
る。
【図28】CPUの具体的な動作を模式的に示す図であ
る。
【図29】CPUの具体的な動作を模式的に示す図であ
る。
【図30】CPUの具体的な動作を模式的に示す図であ
る。
【符合の説明】
2 映像切換回路 5 フィールドメモリ 6 メモリ制御回路 7、7’ 動きベクトル検出回路 8、8’ CPU
───────────────────────────────────────────────────── フロントページの続き (72)発明者 棚瀬 晋 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 飯沼 俊哉 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 内田 秀和 大阪府守口市京阪本通2丁目5番5号 三 洋電機ソフトウエア株式会社内

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 元になる2次元映像を一方の目用の映像
    とし、前記元になる2次元映像を所定フィールド遅延さ
    せた映像を他方の目用の映像とすることにより、2次元
    映像から3次元映像を生成する方法であって、前記元に
    なる2次元映像において左右方向の移動量の大きい映出
    体の左右方向の移動量の小さい映出体よりも前方に位置
    するか、後方に位置するかを判定し、該判定結果により
    左右どちらの目の映像を遅延させた映像にするかを決定
    することを特徴とする2次元映像から3次元映像を生成
    する方法。
  2. 【請求項2】 前記元になる2次元映像における映出体
    の左右方向の移動量を検出する検出領域を前記2次元映
    像を構成する画面内に複数個所設け、そのうち隣接する
    検出領域で検出された2つの移動量を比較することによ
    り、前記左右方向の移動量の大きい映出体が移動量の小
    さい映出体よりも前方に位置するか、後方に位置するか
    を判定することを特徴とする請求項1記載の2次元映像
    から3次元映像を生成する方法。
  3. 【請求項3】 前記2つの移動量の大きさが異なり、移
    動量の大きい方の映出体が移動量の小さい方の映出体に
    向かって移動し、且つ小さい方の移動量を検出した検出
    領域で所定時間経過後に検出される移動量が前記移動量
    の大きい方の映出体の影響を受ける場合、前記移動量の
    大きい方の映出体が前記移動量の小さい方の映出体より
    も前方に位置し、前記移動量の大きい方の映出体の移動
    方向側の目の映像を遅延させるべきであると判定するこ
    とを特徴とする請求項2記載の2次元映像から3次元映
    像を生成する方法。
  4. 【請求項4】 前記2つの移動量の大きさが異なり、移
    動量の大きい方の映出体が移動量の小さい方の映出体に
    向かって移動し、且つ小さい方の移動量を検出した検出
    領域で所定時間経過後に検出される移動量が前記移動量
    の大きい方の映出体の影響を受けない場合、前記移動量
    の大きい方の映出体が前記移動量の小さい方の映出体よ
    りも後方に位置し、前記移動量の大きい方の映出体の移
    動方向と反対側の目の映像を遅延させるべきであると判
    定することを特徴とする請求項2記載の2次元映像から
    3次元映像を生成する方法。
  5. 【請求項5】 前記2つの移動量の大きさが異なり、移
    動量の大きい方の映出体が移動量の小さい方の映出体に
    向かって移動しておらず、且つ大きい方の移動量を検出
    した検出領域で所定時間経過後に検出される移動量が前
    記移動量の小さい方の映出体の影響を受ける場合、前記
    移動量の大きい方の映出体が前記移動量の小さい方の映
    出体よりも前方に位置し、前記移動量の大きい方の映出
    体の移動方向側の目の映像を遅延させるべきであると判
    定することを特徴とする請求項2記載の2次元映像から
    3次元映像を生成する方法。
  6. 【請求項6】 前記2つの移動量の大きさが異なり、移
    動量の大きい方の映出体が移動量の小さい方の映出体に
    向かって移動しておらず、且つ大きい方の移動量を検出
    した検出領域で所定時間経過後に検出される移動量が前
    記移動量の小さい方の映出体の影響を受けない場合、前
    記移動量の大きい方の映出体が前記移動量の小さい方の
    映出体よりも後方に位置し、前記移動量の大きい方の映
    出体の移動方向と反対側の目の映像を遅延させるべきで
    あると判定することを特徴とする請求項2記載の2次元
    映像から3次元映像を生成する方法。
  7. 【請求項7】 前記映出体の移動量を動きベクトルによ
    り求めることを特徴とする請求項1、2、3、4、5ま
    たは6記載の2次元映像から3次元映像を生成する方
    法。
  8. 【請求項8】 左目用映像信号を出力する左目用出力端
    子と、右目用映像信号を出力する右目用出力端子と、前
    記遅延された映像信号を前記左目用映像端子、前記右目
    用映像端子のどちらから出力するかを切り換える映像切
    換手段とを備え、前記映像切換手段の切り換え制御を前
    記判定結果に従って行うことを特徴とする請求項1、
    2、3、4、5、6または7記載の2次元映像から3次
    元映像を生成する方法。
  9. 【請求項9】 前記判定結果が1フィールド期間内にお
    いて全て同じである場合に、前記映像切換手段の切り換
    え制御を行うことを特徴とする請求項8記載の2次元映
    像から3次元映像を生成する方法。
  10. 【請求項10】 2次元映像における映出体の左右方向
    の移動量を検出する検出領域を前記2次元映像を構成す
    る画面内に複数個所設け、そのうち隣接する検出領域で
    検出された2つの移動量を比較することにより、前記左
    右方向の移動量の大きい映出体が移動量の小さい映出体
    よりも前方に位置するか、後方に位置するかを判定する
    ことを特徴とする映像の前後判定方法。
  11. 【請求項11】 前記元になる2次元映像における映出
    体の左右方向の移動量を検出する検出領域を前記2次元
    映像を構成する画面内に多数個所設け、そのうち画面の
    端に位置する検出領域での左右方向の移動量の大きい映
    出体を検出する領域数と移動量の小さい映出体を検出す
    る領域数とを比較し、領域数の多い方の映出体の検出領
    域を後方に位置する後方領域であると判別することを特
    徴とする映像の前後判定方法。
  12. 【請求項12】 2次元映像における映出体の左右方向
    の移動量を検出する検出領域を前記2次元映像を構成す
    る画面内に多数個所設け、そのうち画面の中央に位置す
    る検出領域での左右方向の移動量の大きい映出体を検出
    する領域数と移動量の小さい映出体を検出する領域数と
    を比較し、領域数の多い方の映出体の検出領域を前方に
    位置する前方領域であると判別することを特徴とする映
    像の前後判定方法。
  13. 【請求項13】 2次元映像における映出体の左右方向
    の移動量を検出する検出領域を前記2次元映像を構成す
    る画面全域に多数個所設け、該多数個所の検出領域での
    左右方向の移動量の大きい映出体を検出する領域数と移
    動量の小さい映出体を検出する領域数とを比較し、領域
    数の少ない方の映出体の検出領域に注目し、該注目され
    た検出領域の(画面の端での領域数)/(画面全域での
    領域数)が所定値以上の時、前記注目された領域を画面
    の後方に位置する後方領域であると判別することを特徴
    とする映像の前後判定方法。
  14. 【請求項14】 前記元になる2次元映像における映出
    体の左右方向の移動量を検出する検出領域を前記2次元
    映像を構成する画面内に多数個所設け、そのうち画面の
    端に位置する検出領域での左右方向の移動量の大きい映
    出体を検出する領域数と移動量の小さい映出体を検出す
    る領域数とを比較し、領域数の多い方の映出体の検出領
    域を後方に位置する後方領域であるとする第1の判別
    と、前記多数個所の検出領域のうち画面の中央に位置す
    る検出領域での左右方向の移動量の大きい映出体を検出
    する領域数と移動量の小さい映出体を検出する領域数と
    を比較し、領域数の多い方の映出体の検出領域を前方に
    位置する前方領域であるとする第2の判別とを行い、前
    記第1の判別により後方領域であると判別された領域
    と、前記第2の判別により前方領域であると判別された
    領域とが異なる領域である場合、前記第1、第2の判別
    結果を最終の判別結果とすることを映像の前後判別方
    法。
  15. 【請求項15】 前記元になる2次元映像における映出
    体の左右方向の移動量を検出する検出領域を前記2次元
    映像を構成する画面内に多数個所設け、そのうち画面の
    端に位置する検出領域での左右方向の移動量の大きい映
    出体を検出する領域数と移動量の小さい映出体を検出す
    る領域数とを比較し、領域数の多い方の映出体の検出領
    域を後方に位置する後方領域であるとする第1の判別
    と、前記多数個所の検出領域のうち画面の中央に位置す
    る検出領域での左右方向の移動量の大きい映出体を検出
    する領域数と移動量の小さい映出体を検出する領域数と
    を比較し、領域数の多い方の映出体の検出領域を前方に
    位置する前方領域であるとする第2の判別とを行い、前
    記第1の判別により後方領域であると判別された領域
    と、前記第2の判別により前方領域であると判別された
    領域とが同じ領域である場合、前記多数個所の検出領域
    での左右方向の移動量の大きい映出体を検出する領域数
    と移動量の小さい映出体を検出する領域数とを比較し、
    領域数の少ない方の映出体の検出領域に注目し、該注目
    された検出領域の(画面の端での領域数)/(画面全域
    での領域数)が所定値以上の時、前記注目された領域を
    画面の後方に位置する後方領域であると判別することを
    特徴とする映像の前後判定方法。
  16. 【請求項16】 前記映出体の移動量を動きベクトルに
    より求めることを特徴とする請求項11、12、13、
    14または15記載の映像の前後判定方法。
  17. 【請求項17】 前記映出体の移動量を数フィールド期
    間の動きベクトルの累積和により求めることを特徴とす
    る請求項11、12、13、14または15記載の映像
    の前後判定方法。
  18. 【請求項18】 前記多数個所の検出領域のうち、信頼
    性の低い動きベクトルが検出された領域、または前記映
    出体の動きに関与していない動きベクトルが検出された
    領域を誤り領域として判別し、誤り領域では無いと判別
    された領域を有効な検出領域として用いることを特徴と
    する請求項11、12、13、14、15、16または
    17記載の映像の前後判定方法。
  19. 【請求項19】 元になる2次元映像を一方の目用の映
    像とし、前記元になる2次元映像を所定フィールド遅延
    させた映像を他方の目用の映像とすることにより、2次
    元映像から3次元映像を生成する方法において、請求項
    11、12、13、14、15、16、17または18
    記載の映像の前後判定方法によって得られた結果により
    左右どちらの目の映像を遅延させた映像にするかを決定
    することを特徴とする2次元映像から3次元映像を生成
    する方法。
  20. 【請求項20】 移動量の大きい映出体の移動量の第1
    の絶対値と、移動量の小さい映出体の移動量の第2の絶
    対値とを比較し、該第1、第2の絶対値のうち値の大き
    い方の映出体の移動量により前記遅延された映像の遅延
    量を定めることを特徴とする請求項19記載の2次元映
    像から3次元映像を生成する方法。
JP7088276A 1994-09-22 1995-04-13 2次元映像から3次元映像を生成する方法 Expired - Fee Related JP2951230B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP7088276A JP2951230B2 (ja) 1994-09-22 1995-04-13 2次元映像から3次元映像を生成する方法
KR1019950031176A KR100345630B1 (ko) 1994-09-22 1995-09-21 피사체의전후위치관계판정방법및2차원영상을3차원영상으로변환하는방법
EP95114981A EP0704823B1 (en) 1994-09-22 1995-09-22 Method of judging depth relationship between subjects for converting two-dimensional images into three-dimensional images
DE69525497T DE69525497T2 (de) 1994-09-22 1995-09-22 Verfahren zur Bestimmung der gegenseitigen Tiefenbeziehung von Gegenständen zur Umwandlung zweidimensionaler in dreidimensionale Bilder
US08/600,052 US5699443A (en) 1994-09-22 1996-02-12 Method of judging background/foreground position relationship between moving subjects and method of converting two-dimensional images into three-dimensional images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-228208 1994-09-22
JP22820894 1994-09-22
JP7088276A JP2951230B2 (ja) 1994-09-22 1995-04-13 2次元映像から3次元映像を生成する方法

Publications (2)

Publication Number Publication Date
JPH08149517A true JPH08149517A (ja) 1996-06-07
JP2951230B2 JP2951230B2 (ja) 1999-09-20

Family

ID=26429681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7088276A Expired - Fee Related JP2951230B2 (ja) 1994-09-22 1995-04-13 2次元映像から3次元映像を生成する方法

Country Status (5)

Country Link
US (1) US5699443A (ja)
EP (1) EP0704823B1 (ja)
JP (1) JP2951230B2 (ja)
KR (1) KR100345630B1 (ja)
DE (1) DE69525497T2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004504736A (ja) * 2000-04-01 2004-02-12 ナスケ ロルフ ディーテル 三次元画像生成方法及び装置
KR100780467B1 (ko) * 2006-09-28 2007-11-29 이관영 소리를 이용한 3차원 입체물 제작 장치 및 방법
JP2008015576A (ja) * 2006-07-03 2008-01-24 Mitsubishi Precision Co Ltd 3次元コンピュータグラフィックス合成方法及び装置
JP2011223583A (ja) * 2010-04-09 2011-11-04 Thomson Licensing 立体画像を処理するための方法および対応する装置
JP2016519905A (ja) * 2013-04-09 2016-07-07 ビッタニメイト インコーポレイテッド 2次元ビデオの3次元ビデオへの変換方法及びシステム
JP2017525198A (ja) * 2014-06-10 2017-08-31 ビッタニメイト インコーポレイテッド 立体視深度調節及び焦点調節

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JP4407985B2 (ja) * 1999-09-02 2010-02-03 キヤノン株式会社 画像処理方法及び装置並びに記憶媒体
US6973207B1 (en) * 1999-11-30 2005-12-06 Cognex Technology And Investment Corporation Method and apparatus for inspecting distorted patterns
JP2001357484A (ja) * 2000-06-14 2001-12-26 Kddi Corp 道路異常検出装置
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
KR100757259B1 (ko) * 2004-10-25 2007-09-11 전자부품연구원 압축 동영상의 움직임 벡터를 이용하여 2차원 영상을3차원 영상으로 변환하는 방법
US7999849B2 (en) * 2006-05-17 2011-08-16 The Boeing Company Moving object detection
US20090219383A1 (en) * 2007-12-21 2009-09-03 Charles Gregory Passmore Image depth augmentation system and method
TW201001339A (en) * 2008-06-25 2010-01-01 Univ Nat Chiao Tung Method of detecting moving object
WO2010024479A1 (en) * 2008-08-26 2010-03-04 Enhanced Chip Technology Inc. Apparatus and method for converting 2d image signals into 3d image signals
JP5213613B2 (ja) * 2008-09-26 2013-06-19 キヤノン株式会社 画像処理装置及び画像処理方法及び撮像装置及びプログラム
US8913107B2 (en) 2010-12-23 2014-12-16 Marvell World Trade Ltd. Systems and methods for converting a 2D image to a 3D image
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9483836B2 (en) 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
KR101872215B1 (ko) 2018-01-30 2018-06-28 주식회사 진영티엠에스 통신용 단자블럭

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4335427A (en) * 1980-04-21 1982-06-15 Technicare Corporation Method of selecting a preferred difference image
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
AU579550B2 (en) * 1985-06-10 1988-11-24 Nec Corporation Movement compensation predictive encoder for a moving picture signal with a reduced amount of information
JPH0766446B2 (ja) * 1985-11-27 1995-07-19 株式会社日立製作所 移動物体像を抽出する方法
US4994898A (en) * 1987-06-22 1991-02-19 Aspex Limited Color television system for processing signals from a television camera to produce a stereoscopic effect
FR2654291B1 (fr) * 1989-11-03 1992-02-21 Pochet Roger Procede de creation temporelle de couples d'images stereoscopiques, et dispositif mettant en óoeuvre un tel procede.
US5283839A (en) * 1990-12-31 1994-02-01 Neurosciences Research Foundation, Inc. Apparatus capable of figure-ground segregation
JPH0591544A (ja) * 1991-09-27 1993-04-09 Sony Tektronix Corp 立体画像表示用ビデオ信号生成装置
JP3679426B2 (ja) * 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JPH0759119A (ja) * 1993-08-20 1995-03-03 Seiko Epson Corp 疑似立体映像表示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004504736A (ja) * 2000-04-01 2004-02-12 ナスケ ロルフ ディーテル 三次元画像生成方法及び装置
JP2008015576A (ja) * 2006-07-03 2008-01-24 Mitsubishi Precision Co Ltd 3次元コンピュータグラフィックス合成方法及び装置
KR100780467B1 (ko) * 2006-09-28 2007-11-29 이관영 소리를 이용한 3차원 입체물 제작 장치 및 방법
JP2011223583A (ja) * 2010-04-09 2011-11-04 Thomson Licensing 立体画像を処理するための方法および対応する装置
US9402086B2 (en) 2010-04-09 2016-07-26 Thomson Licensing Method for processing stereoscopic images and corresponding device
JP2016519905A (ja) * 2013-04-09 2016-07-07 ビッタニメイト インコーポレイテッド 2次元ビデオの3次元ビデオへの変換方法及びシステム
JP2017525198A (ja) * 2014-06-10 2017-08-31 ビッタニメイト インコーポレイテッド 立体視深度調節及び焦点調節

Also Published As

Publication number Publication date
EP0704823A3 (en) 1996-06-05
DE69525497D1 (de) 2002-03-28
EP0704823B1 (en) 2002-02-20
EP0704823A2 (en) 1996-04-03
DE69525497T2 (de) 2002-11-21
US5699443A (en) 1997-12-16
KR960013096A (ko) 1996-04-20
JP2951230B2 (ja) 1999-09-20
KR100345630B1 (ko) 2002-11-30

Similar Documents

Publication Publication Date Title
JP2951230B2 (ja) 2次元映像から3次元映像を生成する方法
JP2846840B2 (ja) 2次元映像から3次元映像を生成する方法
JP2846830B2 (ja) 2次元映像を3次元映像に変換する方法
US5739844A (en) Method of converting two-dimensional image into three-dimensional image
US8773509B2 (en) Imaging device, imaging method and recording medium for adjusting imaging conditions of optical systems based on viewpoint images
US8687041B2 (en) Stereoscopic panorama image creating apparatus, stereoscopic panorama image creating method, stereoscopic panorama image reproducing apparatus, stereoscopic panorama image reproducing method, and recording medium
KR100381348B1 (ko) 2차원 영상을 3차원 영상으로 변환하는 방법
US8026950B2 (en) Method of and apparatus for selecting a stereoscopic pair of images
JP2010521738A (ja) テキストを3次元コンテンツと合成するシステム及び方法
KR100888081B1 (ko) 2차원 영상 신호의 3차원 영상 신호로의 변환 절차 및 변환장치
KR20050008245A (ko) 일반 동영상에서의 3차원 그래픽 영상합성을 위한 장치 및그 방법
JPH08331607A (ja) 三次元表示画像生成方法
JP2007053496A (ja) 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
KR20120123087A (ko) 3d 텍스트를 3d 콘텐츠와 결합하기 위한 시스템 및 방법
JP5347987B2 (ja) 映像処理装置
US20130106850A1 (en) Representative image decision apparatus, image compression apparatus, and methods and programs for controlling operation of same
JPH08289330A (ja) 3次元映像変換方法
JP3128467B2 (ja) 2次元映像を3次元映像に変換する方法
Atanassov et al. 3D image processing architecture for camera phones
JP2846834B2 (ja) 2次元映像を3次元映像に変換する方法
JPH1198534A (ja) 3次元映像生成方法
JPH0898210A (ja) 動きベクトル検出装置
JPH08149513A (ja) 2次元映像を3次元映像に変換する方法
JP3108287B2 (ja) 2次元映像を3次元映像に変換する方法
JPH11110180A (ja) 二次元画像を三次元画像に変換する方法及び装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees