JP2001515287A - 画像処理方法および装置 - Google Patents

画像処理方法および装置

Info

Publication number
JP2001515287A
JP2001515287A JP2000509059A JP2000509059A JP2001515287A JP 2001515287 A JP2001515287 A JP 2001515287A JP 2000509059 A JP2000509059 A JP 2000509059A JP 2000509059 A JP2000509059 A JP 2000509059A JP 2001515287 A JP2001515287 A JP 2001515287A
Authority
JP
Japan
Prior art keywords
image
motion
images
monoscopic
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000509059A
Other languages
English (en)
Inventor
ハーマン、フィリップ、ヴィクター
Original Assignee
ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=3803230&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2001515287(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド filed Critical ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド
Publication of JP2001515287A publication Critical patent/JP2001515287A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/334Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 モノスコープ画像を受信するように構成された入力手段(1)と、モノスコープ画像のシーケンスの第1の画像と第2の画像との間にいくらかの連続性があるかどうかを決定する予備解析手段と、連続性があるモノスコープ画像を受信し、かつ画像を解析し、モーションの速度および方向、および物体の奥行、サイズおよび位置を決定する二次解析手段(2)と、予備解析手段または二次解析手段から受信されたデータに基づいてモノスコープ画像を処理する第1の処理手段(3)と、第1の処理手段から受信された画像をさらに処理できる第2の処理手段と、処理画像を立体ディスプレイシステム(5)に転送できる伝送手段(4)とを含む、三次元で見るためにモノスコープ画像を変換する画像変換システム。

Description

【発明の詳細な説明】
発明の分野 本発明は、一般に立体画像システム、特に立体ディスプレイのためのモノスコ
ープ一連の画像からの立体画像対の合成に関するものである。本発明は、モノス
コープソースをデジタル化し、それをモーションに対して解析し、立体画像対を
生成し、立体効果を最適化し、立体画像対を伝送するかあるいは記憶し、それか
ら立体画像対を立体ディスプレイ装置上に表示できる、立体画像を生成するため
の5層方法にも指向できる。 背景技術 従来のモノスコープディスプレイシステムあるいは二次元(2D)ディスプレ
イシステムよりも見る人にとってよりリアルな画像を作り出す立体ディスプレイ
システムあるいは三次元(3D)ディスプレイシステムの出現によって、一連の
立体画像は3Dディスプレイシステム上で見られるように利用できることが必要
である。この点で、立体ディスプレイ装置上で見るための一連の立体画像を生成
するように処理できる多数のモノスコープ画像ソース、例えば既存の2Dフイル
ムあるいはビデオが存在する。 立体的に見るためのこのような一連のモノスコープ画像を変換する、以前から
存在する方法では、容認できるような結果を生じない。フイルムおよびビデオに
おける他の試みにおいては、「モーション視差(Motion Paralla
x)」の立体奥行キューを再現する技術が使用された。これらの技術は、横方向
、左または右のモーションが一連の画像にある場合、追跡する目に表わされる一
連の画像に対して遅延を生じさせることを含む。他の試みにおいては、奥行の認
識を与えるために、左右の目に対する画像の「横方向シフト(Lateral
Shifting)」が使用された。 しかしながら、これらの2つの技術には限界があり、一般に特定の用途だけに
適している。例えば、モーション視差(Motion Parallax)技術
は、左右のモーションを有するシーンに対してだけ優れており、静止シーンの立
体の画質向上に対しては限られた値しか有しない。横方向シフト(Latera
l Shifting)技術は、あるシーンに対して全体的な奥行効果を生じさ
せるだけで、さまざまな奥行きがある異なる物体を、その物体が存在していると
ころの奥行きにおいて認識することができない。これらの2つの技術の組み合わ
せであっても大部分の2Dフイルムあるいはビデオに対して限られた立体効果を
与えるだけである。 いくつかの既存のアプローチはこれらの技術の限界を示している。画像が垂直
モーションおよびある程度の横方向モーションを有し、追跡する目に表された画
像に遅延が与えられた場合、結果として、左右の視野間に大きな垂直不均衡を生
じることが多々あり、一連の画像を見るのに不快感を与える。同一のシーンにお
いて左右に移動する物体のように、逆モーションを有するシーンも見るのに不快
感を与える。これらの方法についての実施例には、いろいろな奥行の物体が画像
にある場合、物体の前景から後景への滑らかな遷移よりもむしろ、別個の奥行層
を有する物体の、明らかな「カードボードカットアウト(Card Bord
Cut−out)」現象が見られる。 これらのアプローチにおいては、全ての画像シーケンスに適するにするための
、もしくは、見る人の不快感の問題を解決するための、もしくは、見る人各々あ
るいはディスプレイ装置に対する立体効果を最適化するための、システムまたは
方法を開発する試みは成功していない。 発明の目的 したがって、一連のモノスコープ画像を立体画像対に変換するための改良され
た方法を有するシステム、および改良された一連の立体画像を見る人に提供する
システムが必要とされている。 本発明の目的は、このような改良された方法を有するシステムを提供すること
にある。 発明の概要 上記の問題に対処するために、本発明は、一つの態様において、一連のモノス
コープ画像を解析し、画像におけるモーション特性を決定するステップと、任意
の検出されたモーションと所定の範囲のモーションカテゴリーとを比較するステ
ップと、モーションカテゴリーに応じて少なくとも一つの処理方法を用いて一連
のモノスコープ画像を処理し、立体画像対を形成させるステップとを含む、一連
のモノスコープ画像を処理し、立体画像対にする方法を提供する。 他の態様において、本発明は、一連のモノスコープ画像を受像できる入力手段
と、一連の画像を解析し、画像カテゴリーを決定する解析手段と、立体的に見る
ために選択画像カテゴリーの関数として、一連のモノスコープ画像を立体画像対
に変換できる変換手段とを含む立体システムを提供する。 理想的には、入力手段はまた、一連のモノスコープ画像を取り込み、デジタル
化する手段を含む。 好ましくは、画像解析手段は、画像におけるモーションの速度および方向、奥
行、サイズおよび位置および背景を決定できる。 他の態様では、本発明は、立体画像を最適化し、立体効果をさらに改善させる
方法を提供し、この処理は一般に伝送、記憶および表示の前段階で適用される。 さらに他の態様では、本発明は、見る人の基準点を画像に追加することによっ
て立体画像対を改善させる方法を提供する。 さらに他の態様では、本発明は、各画像を複数の領域に拡大縮小するステップ
と、第1の画像の各領域と第2の画像の対応しかつ隣接する領域とを比較し、前
記第1の画像と前記第2の画像間のモーションの特性を決定するステップとを含
む立体画像対に変換するための一連のモノスコープ画像を解析する方法を提供す
る。 好ましくは、モーションベクトルは、検出されたモーションの特性と、モーシ
ョン無しから完全なシーン変化に及ぶ所定のモーションカテゴリーとの比較に基
づいて、各画像に対して定義される。 さらに他の態様では、本発明は、一連のモノスコープ画像を受像するように構
成された入力手段と、一連のモノスコープ画像シーケンスの第1の画像と第2の
画像との間に連続性がいくらかあるかどうかを決定する予備解析手段と、連続性
がある一連のモノスコープ画像を受像し、かつ一連の画像を解析し、モーション
の速度および方向、物体の奥行、サイズおよび位置の少なくとも一つを決定する
二次解析手段と、二次解析手段の予備解析手段から受信されたデータに基づいて
一連のモノスコープ画像を処理する第1の処理手段とを含む、三次元で見るため
の一連のモノスコープ画像を変換する画像変換システムを提供する。 好ましくは、第1の処理手段から受信された一連の画像をさらに処理できる第
2の処理手段が含まれる。理想的には、システムは、一連の処理画像を立体ディ
スプレイシステムあるいは記憶手段に転送できる伝送手段も含む。 好ましくは、一連の変換画像を立体ディスプレイ装置に伝送するよりも前に第
2の処理手段から受信された一連の画像の画質を任意に高めるために第3の処理
手段が提供される。 さらに他の態様では、本発明は、モノスコープ画像を受信するように構成され
た第1の層と、モノスコープ画像を受信し、かつ画像データを作るためにモノス
コープ画像を解析するように構成された第2の層と、画像データの関数として選
択された少なくとも一つの所定の技術を使用してモノスコープ画像から立体画像
対を作るように構成された第3の層と、立体画像対を立体ディスプレイ手段に転
送するように構成された第4の層と、立体ディスプレイ手段からなる第5の層と
を含む、三次元で見るためのモノスコープ画像を変換する方法を提供する。 好ましくは、第1の層はさらに、一連の任意のアナログ画像を一連のデジタル
画像に変換するように構成される。さらに、第2の層は、好ましくは、あるシー
ンにおける任意の物体を検出し、任意の、このようなモーションの速度および方
向に関する決定を行うように構成される。便宜的には、任意のこのような解析よ
りも前に画像は圧縮されてもよい。 好ましくは、第3の層は、立体画像対を立体ディスプレイ手段に伝送するより
も前に立体画像対の画質をさらに高める最適化工程をさらに含む。便宜的には、
第4の層は、後になってから立体ディスプレイ手段上に表示するために立体画像
対を記憶する記憶手段も含む。 長所 本発明のプロセスは、いかなる工程でも中断され、後で継続させるために記憶
され、あるいは必要な場合、他の場所で継続させるために伝送できることが評価
される。 本発明は、下記を含む多くの特有な長所を有する変換技術を提供する。 1)リアルタイムまたは非リアルタイム変換 一連のモノスコープ画像を立体画像対に変換できる機能は、リアルタイムまた
は非リアルタイムで実行できる。一連の画像を手動で扱うためにオペレータ介入
を利用してもよい。一例として、フイルムあるいはビデオの変換が挙げられる。
ここでは、その立体効果のためにオペレータによってあらゆるシーケンスがテス
トされ、最適化されてもよい。 2)立体画質向上を含む技術 本発明は、複数の技術を使用し、立体画像対を生成するためのモーション視差
および横方向シフト(強制視差)の基本技術をさらに高める。これらの技術は、
物体解析、タグ付け、トラッキングおよびモーフィング、視差ゾーン、基準点、
モーション合成および視差変調の技術の使用を含むが、これに限定されない。 3)逆3Dの検出および補正 逆3Dは、画像のモーション特性を解析することによって3D生成処理の一部
として理想的に検出される。そのとき、見る人の不快感を最少にするように逆3
Dを最少にするために補正技術を使用してもよい。 4)伝送および記憶を含む全ての用途における使用法 本発明は、広い範囲の用途に応用できる技術を開示し、モノスコープアプリケ
ーションに立体変換プロセスを適用する全工程を説明している。一方、本発明は
、画像処理装置および立体ディスプレイ装置の両方がほぼ同じ位置に置かれてい
る3D生成のための技術を説明している。他方、ある位置における立体画像対の
生成およびその伝送、記憶および遠隔位置でのその後の表示といった技術が定義
されている。 5)任意の立体ディスプレイ装置と併用できる 本発明は、いかなる立体ディスプレイ装置にも適用でき、理想的には内蔵型の
調節機構を有する。3D生成方法は、立体効果を最適化するためにディスプレイ
装置の種類も考慮にいれることができる。 詳細な説明 本発明は、個人の全視覚認識機能を使用する立体画像を、見る人に提供するこ
とを目的としている。したがって、脳がこのような一連の画像を解釈するのに必
要な奥行キューを提供する必要がある。 序論 人間は、目および脳に関する生理学的な処理および心理学的な処理の複雑な組
み合わせによって知覚する。視覚認識は、短期および長期の記憶力の使用に関わ
り、我々の感覚によって定義づけされている、既知の経験されたリアリティを用
いて可視情報を解釈できる。例えば、空間および遠近のカルテシアン法則によれ
ば、物体が見る人から離れてより遠くに移動すればするほど、益々物体はより小
さくなる。換言すれば、脳は、物体が大きい場合、物体は見る人に接近し、物体
が小さい場合、物体がある程度の距離離れていると予想する。これは、先ず第一
に物体のサイズを知ることに基づいた学習済み処理である。可視情報で表すこと
ができる他のモノスコープのあるいは小さな奥行キューは、例えば、陰影、ピン
ぼけ、テクスチュア、光、大気である。 これらの奥行キューは、‘遠近3D’ビデオゲームおよびコンピュータグラフ
ィックスの製作で使用されて大いに役立つ。しかしながら、立体効果を実現する
際のこれらの技術に関する問題は、認識された奥行が定量化できないことである
。すなわち、それは2D環境の2D物体を表示するための幻影である。このよう
なディスプレイは、両眼の視野が同一であるために、立体画像を示していないの
で、リアルに見えない。 奥行キュー 一連の立体画像は実世界ビジュアルを再現する試みであり、奥行を定量化でき
るように一連の‘遠近3D’画像よりも非常に多くの可視情報を必要とする。立
体奥行キューあるいは主要な奥行キューは人の視覚認識を三次元で刺激できるよ
うにこの付加データを提供する。これらの主要な奥行キューは下記のように説明
される。 1)網膜差異−両眼がわずかに異なる視野を見るという事実のことをいう。こ
れは物体を人の顔の前に保ち、後景に焦点を合わせることによって容易に示すこ
とができる。一旦目が後景に焦点を合わせると、あたかも顔の前に実際2つの物
体があるかのように見える。差異は、重ねられた一連の網膜画像の対応する左右
の像点間の水平距離である。視差は観察された一連の画像間の実際の空間変位で
ある。 2)モーション視差−見る人により接近しているこれらの物体は、たとえより
離れた物体と同じ速度で移動するとしてもより速く移動するように見える。した
がって、相対移動は小さな奥行キューである。しかし、横方向移動の主要な立体
奥行キューはモーション視差の生成物である。右から左へ移動する画像のモーシ
ョンの場合、右目は前進する目であるのに対して、左目は追跡する目になり、そ
の結果その画像は遅延される。この遅れは我々の視覚認識機構の通常の機能であ
る。左から右へのモーションの場合、右目は追跡する目になる。この遅延の効果
は、網膜差異(目に対して2つの異なる視野)を生成することであり、両眼視差
と認識されて、モーション視差として知られている立体キューを提供する。 3)調整−目は、神経・筋肉の活動によって目のレンズを圧縮するか(接近し
た物体に対してはより凸面の形状)あるいは目のレンズを拡大するか(遠い物体
に対してはより凸面でない形状)のいずれかによって物体に鋭い焦点を合わせる
。神経・筋肉の活動の量および種類は画像の奥行に対する立体キューである。 4)集中性−物体の一連の画像を目の中心視覚領域の照準に合わせる目の神経
・筋肉系の応答であり、一つの物体だけを見るようにする。例えば、腕の長さの
ところで維持した指を両眼で見て、ゆっくりと顔の方へ近づける場合、目は内側
に回転(集中)し、指がより接近することを示す。すなわち、指までの奥行は減
少している。 目の集中性応答は通常視力の調整能力に生理学的にリンクしている。立体的に
見る際に、見る人が‘固定平面(Fixation Plane)’(目が一点
に集中される)に適応できない場合、不快感を経験するかもしれない。‘固定の
平面’は通常スクリーン平面である。 概説−5層方式 本発明は、任意のモノスコープ入力を取り入れ、それを改良された立体出力に
変換できるシステムを記載している。説明を容易にするために、この全システム
は、多数の独立層あるいはプロセスに分解できる。すなわち、 層1−モノスコープ画像入力(一般的にはビデオ入力) 層2−画像解析 層3−3D生成 層4−3Dメディア(伝送あるいは記憶) 層5−3Dディスプレイ 図1は、立体変換方法へのトップダウン方式を示しており、ビデオあるいは若
干の他のモノスコープ画像ソースが入力され、一連の画像が解析され、立体画像
対が生成され、伝送されおよび/または記憶され、それから立体ディスプレイ上
に表示される。各層はモノスコープ画像入力から立体ディスプレイに至る全シス
テムの独立プロセスを示している。一方、いろいろな層が独立して動作してもよ
いことがわかる。 用途 一般に、5層全ては、モノスコープ画像入力から特定の用途のためにディスプ
レイされるまで使用される。例えば、このシステムは劇場あるいは映画で使用さ
れてもよい。このような用途では、2Dビデオ入力はビデオソースに対してアナ
ログあるいはデジタル形式をとることができる。その後、これらのソースは解析
され、任意のモーションの速度および方向を決定する。次に、この処理は3D画
像を作り出すためにリアルタイムあるいは非リアルタイムのいずれかで実行され
る。これは、境界、視差修正、逆3D解析、シェーディング、および/またはテ
クチュアリングの使用によってさらに最適化できる。その後、一連の3D画像は
、記憶されてもよいしあるいはシャッタガラス、偏光ガラスあるいは自動立体デ
ィスプレイを含む3Dディスプレイに伝送されてもよい。 このシステムはケーブルTVシステムあるいは有料TVシステムと併用するよ
うに構成してもよい。この用途では、2Dビデオ入力は、VTR、レーザディス
ク、あるいは他のデジタルソースであってもよい。更に3Dの生成および/また
は最適化はリアルタイムあるいは非リアルタイムで行われてもよい。さらに、3
Dメディア層は、便宜的にケーブルあるいは衛星を介する伝送の形をとり、TV
、ビデオプロジェクタ、あるいは自動立体ディスプレイ上に3Dディスプレイを
使用可能にする。 このシステムも、マルチメディアのビデオアーケードゲームあるいは地上TV
あるいはネットワークTVと併用されてもよい。用途に応じて、2Dビデオ入力
層は、ゲームプロセッサから一連のソースモノスコープ画像、レーザディスクか
らビデオ、VTRからビデオ、ネットワーク、若干の他のデジタル記憶装置ある
いはデジタルソースもしくはテレシネ処理からビデオを得てもよい。3D生成は
、リアルタイムあるいは非リアルタイムで行われ、中央変換サイトにあるコンピ
ュータによって、ユーザのコンピュータ内に、または中央プロセッサ上に、ある
いは他の画像プロセッサ上に生成される。そして、一連の立体画像はビデオある
いは他のデジタル記憶装置に記憶され、その後、映画館に配信されたりローカル
ネットワークによって伝送される。これらの一連の立体画像も、ローカル伝送、
あるいはその代わりとしてVHF/UHF機構あるいは衛星を介してビデオプロ
ジェクタに伝送されてもよい。 3Dディスプレイは、必要とされる用途に左右され、自動立体ディスプレイ装
置、偏光ガラスを有するビデオプロジェクタ、シャッタガラスを有するローカル
モニタ、適当な視界ガラスを有するセットトップボックスの形をとることができ
る。 単一&多重プロセッサ 全システムは単一プロセッサで作動でき、全て5つの層はリアルタイムあるい
は非リアルタイムに一緒にあるいは個別に処理される(層2、層3および層4)
。層2および層3は、例えば、図2で分かるように多重タスキングあるいはマル
チプロセッサ環境に適するようにさらにセグメント化される。 多重プロセッサの使用も利用できる用途に対して自由に構成できる。層1およ
び2は第1のプロセッサによって処理でき、層3〜層5は第2のプロセッサによ
って処理できる。所望される場合、この装置の第1のプロセッサはルックアヘッ
ドプロセッサとして使用でき、第2のプロセッサは一連の遅延後立体画像を生成
することができる。一方、第1のプロセッサは、リアルタイムビデオを受信し、
ビデオをデジタル化し、デジタル化ビデオを適当なデジタル記憶装置に転送する
ために使用できる。その後、第2のプロセッサは、オンサイトであるいは遠隔で
デジタル化画像を解析し、適当なディスプレイ装置上に立体画像を表示するのに
必要なタスクを実行できる。 ルックアヘッド処理は、画像処理モードがより有効に選択され、全立体効果を
最適化できるようにフィルムあるいはビデオのシーケンスの向きを予測するため
に使用されてもよい。 本発明は主に、一連のモノスコープ画像の解析および立体効果の最適化ととも
に一連のモノスコープ画像の立体画像対への変換に関するものである。この点で
は本発明は広範囲のモノスコープ入力、伝送手段およびビューイング手段に応用
可能である。しかしながら、完全なものにするために、5つの層全てを以下に説
明する。 層1−画像あるいはビデオ入力 層1は、モノスコープ画像ソースあるいはビデオ入力が提供されることを必要
とする。このソースは、デジタル画像ソースあるいはそのときデジタル化されて
もよいアナログ画像ソースのいずれかとして提供されてもよい。これらの画像ソ
ースは下記を含んでもよい。 1)アナログソース a)テープ方式−VCR/VTRあるいはフィルム。 b)ディスク方式−レーザディスク。 c)ビデオカメラあるいは他のリアルタイム画像取込装置。 d)一連のコンピュータ生成画像あるいはグラフィックス。 2)デジタルソース a)テープ方式−典型的な例はDAT、アンペックスのDCT、ソニー
のデジタルベータカム、パナソニックスのデジタルビデオ形式あるいは6.5m
mテープを使用する新しいデジタルビデオカセット(DCV)形式。 b)ディスクベース記憶装置−磁気光学(MO)ハードディスク(HD
)、コンパクトディスク(CD)、レーザディスク、CD−ROM、DAT、デ
ジタルビデオカセット(DVC)あるいはデジタルビデオディスク(DVD)方
式データ記憶装置−JPEG、MPEGあるいは他のデジタル形式を使用する c)ビデオカメラあるいは他のリアルタイム画像取込装置 d)一連のコンピュータ生成画像あるいはグラフィックス。 本発明の変換方法にとって重要なことは、モノスコープ画像ソースが提供され
るべきであることである。層1〜3に対する要求を通常不要にする立体画像ソー
スが提供されてもよく、一方、任意のこのような立体画像は表示するよりも前に
最適化工程を通過してもよいことは注目すべきことである。 層2−画像解析 次に、本発明の好ましい構成を表す流れ図を示す図3〜図8を参照する。 2D画像の受信に続いて、デジタル化ビデオあるいはデジタル画像データは、
ハードウェア、ソフトウェアあるいは両方の組み合わせによってリアルタイムあ
るいは非リアルタイムでフィールド毎あるいは画像毎ベースで処理される。最初
に、下記のステップを含む画像解析処理が行われる。 1)画像圧縮 2)モーション検出 3)物体検出 4)モーション解析 1)画像圧縮 画像の圧縮は不可欠ではないが、多くの処理および用途にとって、要求される
時間内にフル解像度画像を処理するほどプロセッサが十分高性能でない場合は特
に、圧縮は実用的なオプションである。 好ましくは、一連の画像はより小さい寸法に縮小する方がよい。縮小率は、各
画像のに使用されるデジタルビデオ解像度によって定まり、デジタル化処理で使
用される画像取込機構のタイプによって通常規定される。 2)モーション検出 好ましい実施例では、各画像はピクセルのブロックで解析されてもよい。モー
ションベクトルは、一つの画像からのブロックと所定数までのピクセル、例えば
±9だけ水平方向および/または垂直方向にずれている隣接画像からの対応する
ブロックとを比較し、最小平均自乗誤差を生じさせる位置を記録することによっ
て各ブロックに対して計算される。 各ブロックに対しては、ベクトルおよび最小および最大平均自乗誤差は後処理
するために記録される。 処理時間を節約するために、ブロックにディテールが全然ない場合、例えば、
ブロックが均質な色である場合、ベクトルを計算する必要がない。 モーションを計算する他の方法、例えば画像減算を利用できる。本実施例は平
均自乗誤差法を使用する。 3)物体検出 物体は、共通の特徴を有する画像の一部を識別するピクセルあるいは画素のグ
ループとして規定される。これらの特徴は、同類の輝度値(同類の輝度)、クロ
ミナンス値(同類の色)、モーションベクトル(モーションの同類の速度および
方向)あるいは同類の画像ディテール(同類のパターンあるいはエッジ)の領域
に関するものであってもよい。 例えば、家を通り過ぎて走る車。この車は異なる速度で後景に移動するピクセ
ルあるいはピクセルブロックの領域にある。この車が家の前に停止するならば、
車は検出することが困難であり、他の方法が使用されてもよい。 連結性アルゴリズムは、同様なモーションベクトルの領域の中へモーションベ
クトルを結合するために使用されてもよい。物体は1つあるいはそれ以上のこの
ような領域で構成されてもよい。エッジ検出等のような他の画像処理アルゴリズ
ムは物体の検出で使用されてもよい。 一旦物体が画像で識別されると、物体はタグを付けられるか識別番号を付けら
れるかあるいは与えられることが好ましい。これらの物体およびその関連ディテ
ール(例えば、位置、サイズ、モーションベクトル、タイプ、奥行)は、さらな
る処理を実行できるようにデータベースに記憶される。物体が一連の画像にわた
って追跡されるならば、これは物体トラッキングとして知られる。物体を追跡し
、その特徴を解析することによって、物体は前景物体あるいは後景物体であると
識別でき、したがって画像のその奥行位置を強調するために画質が高められる。 4)モーション解析 一旦物体が検出されると、物体は画像のモーションの全速度および方向を決定
するために解析できる。好ましい実施例では、この工程は画像のモーションの種
類を決定し、全ベクトルも提供する。 物体検出情報を使用し、データをいくつかの画像モーションモデルと比較する
ことによって、一連のモノスコープ画像を立体画像対に変換するための最良の方
法について最初の決定を行うことができる。 本発明の好ましい実施例で使用されるような画像モーションモデルは、 a)シーン変化 b)シンプルパン c)コンプレックスパン d)静止後景にわたる移動物体 e)移動後景にわたる前景物体 f)モーション無し である。 必要に応じて他のモーションモデルを使用してもよい。 a)シーン変化 この名前が示唆するようなシーン変化は、一つの画像が前の画像あるいはシー
ンに対する共用性を殆どあるいは全然有しない時である。それは2つの画像間の
輝度の非常に大きい絶対差あるいは2つの画像の色の大きな差として検出できる
。 好ましい装置では、前の画像と現画像との間の輝度値の差(0〜255)の中
央値が一般的には30以上である時にシーン変化を決定してもよい。この値は用
途に関して変化してもよいが、試行錯誤により、この値は大部分のシーン変化を
決定するのに適切であるとしている。 シーン変化を決定する二次基準は、モーションベクトルの領域が多すぎる時で
ある可能性があり、画像上にランダムノイズのようなものが現れ、それがシーン
変化に帰因する可能性がある。画像に非常に大きなモーション量がある場合、こ
れが生じる場合がある。 シーン変化を検出する第3の技術は、各画像の上部の数ラインを解析し、シー
ン変化を検出することである。各画像の上部は変化が最も少ない。 また、大半のモーションベクトルブロックが大きな誤差値を有する場合、2つ
の画像間の差があまりに大きいので、シーン変化とみなされる。 シーン変化およびフィールド遅延 好ましい実施例では、あるシーンで検出される横方向モーションがある場合、
追跡する目に対しての画像はモーションの速度に反比例する時間量だけ遅延され
る。右から左に移動する画像の場合、追跡する目は左目であり、左から右に移動
する場合、追跡する目は右目である。 追跡する目に対する画像シーケンス遅延(あるいはフィールド遅延)は、ビデ
オフィールドをメモリにデジタル形式で記憶することによって、一時的に遅延さ
せて形成してもよい。現在のビデオフィールドは先に動いている目に対して示さ
れ、追跡する目に対する遅延した像は、横方向モーションの速度に応じて記憶さ
れたビデオフィールドから選択される。 表示される多数のフィールドにわたって、追跡する目に対するモーションの変
化およびフィールド遅延の変化に関する履歴を保持できる。これによって、画像
プロセッサが任意のモーション傾向を予測し、それに応じて突然の変化が全くな
いように遅延を修正するよう反応することができるようになり立体効果を滑らか
にすることができる。 シーン変化が検出された場合は、本発明の好ましい実施例に対するフィールド
遅延は、ゼロに設定され、画像をばらばらに分割することを防止し、フィールド
遅延履歴もリセットされる。フィールド遅延履歴は好ましくは各シーン変化でリ
セットされる。 b)シンプルパン シンプルパンは、一連の画像にわたる横方向モーション傾向を示し、それによ
って解析モーションの大部分は一方向になる。これは、シーンの大部分に一貫し
たモーションがあり、前景で静止画像が全く検出されない場合をカバーすること
が好ましい。 シンプルパンは非ゼロモーションベクトルを有する主要物体として検出され得
る。 シンプルパンの結果は、シーンが右に移動する(あるいは左にパンする)場合
、正のモーションベクトルが発生されるということである。この場合、右目に対
する画像が遅延される。同様に、シーンが左に移動する(あるいは右にパンにす
る)場合、負のモーションベクトルが生成される。この場合、左目の像が遅延さ
れる。 c)コンプレックスパン コンプレックスパンは、画像において著しい垂直モーションがあるという点で
シンプルパンと異なる。したがって、好ましい実施例では、立体画像対シーケン
ス間の垂直差異を最少にするために、フィールド遅延は応用されず、物体処理だ
けが立体効果を生じるために使用される。フィールド遅延履歴は新しい横方向モ
ーションに対して連続性を保持するために使用される。 d)静止後景にわたる移動物体 静止後景にわたる移動物体は単にこの状況にあり、それによってシーンの大部
分は全くモーションを有さず、中間サイズの1つあるいはそれ以上の移動物体が
シーンの中にある。この状況は、物体の大部分が右に移動する場合、正のモーシ
ョンベクトル、物体の大部分が左に移動する場合、負のモーションベクトルを生
じる。正のモーションベクトルは右目に遅延を生じさせ、負のモーションベクト
ルは左目に遅延を生じさせる。 シーンの物体のモーションベクトルが一貫していない、例えば、物体が同じシ
ーンの左右に移動する場合、逆モーションが存在するので、逆3D補正技術を応
用してもよい。 e)移動後景にわたる前景物体 移動後景にわたる前景物体は、シーンの大部分にモーションがあり、異なるモ
ーションを有する物体がシーンの中にあり、例えばカメラが歩いている人を追跡
する状態のことをいう。後景物体は、主物体に対してゼロモーションベクトルあ
るいは逆モーションベクトルを有する中間サイズの物体の背後にある、非ゼロモ
ーションベクトルの主要物体(すなわち、パニング後景)として検出される。あ
るいは、全体のフィールドにわたって広がる非ゼロベクトルの小さな物体の前に
ある、ゼロベクトルの主要物体として検出される(すなわち、フィールドの大部
分を満たす大きな静止物体、パンはその背後でなお依然として目で見ることがで
きる)。 モーション視差の生成において前景物体を優先権させるべきであるかどうか、
あるいは後景を優先させるべきであるかどうかについて決定すべきである。後景
が奥行の大きな変動(例えば、木)を含むならば、モーションベクトルは、あた
かもシンプルパンが生じているかのように割り当てられる。後景が奥行の小さい
変動(例えば、壁)を含むならば、逆平行あるいは負であるモーションベクトル
が割り当てられる。 後景が奥行の大きな変動を含み、モーションベクトルがシンプルパン方法に従
ってシーンに割り当てられた場合、前景物体は逆3Dにあり、適当な補正方法を
利用すべきである。 f)モーション無し モーションベクトルが完全にゼロである場合、あるいは、最大移動物体が非常
に小さいと考えられる場合などのようにモーションが全く検出されない場合は、
フィールド遅延はゼロに設定される。ランダムモーションベクトルあるいはノイ
ズモーションベクトルだけが決定されるか、あるいはモーション情報が全く利用
できない場合にこのような状況が生じる。例えば、青い空を横切ってパンする場
合などである。 層3−3D生成 一旦一連の画像が解析されると、その後、一連の画像は立体画像対を生じるた
めに処理される。 実世界シーンを見る場合、両眼はわずかに異なる画像を見る。これは網膜差異
と呼ばれる。次に、これは立体視あるいは奥行認識を生じる。換言すれば、我々
は、各目に同じシーンのわずかに異なる画像を見させることによって立体的に見
る。 一方、視差は、網膜差異として見る人によって認識される画像間の水平あるい
は横方向シフトの量として定義される。立体画像対が作成される場合、三次元シ
ーンは2つの水平方向にシフトした視点から観察される。 本発明は、多数の画像および物体処理技術を使用し、一連のモノスコープ画像
から立体画像対を生成する。これらの技術は下記のとおりである。 1)モーション視差 2)強制視差(横方向シフト) 3)視差ゾーン 4)Y軸の周りの画像回転 5)物体処理 1)モーション視差 あるシーンが右から左に移動する場合、右目はシーンを最初に観察するのに対
して、左目は遅延像を受け取り、反対方向に移動するシーンに対してはその逆で
ある。モーションが速ければ速いほど、両眼に対する画像の間の遅延は少なくな
る。これは、モーション視差として知られ、主要な奥行キューである。したがっ
て、あるシーンの横方向モーションがある場合、目に対する一連の画像の間に遅
延を生じさせることによって、立体効果が認識される。 a)フィールド遅延計算 一旦、画像のモーション特性が解析され、全体のモーションベクトルが決定さ
れると、そのとき、必要とされるフィールド遅延が計算される。好ましくは、計
算されたフィールド遅延は前の遅延で平均化され、‘雑音’値をフィルタリング
出力し、さらにフィールド遅延があまり迅速に変わることを防止する。 前述のように、モーションが速ければ速いほど、各目に対する画像間の遅延は
少なくなる。したがって、フィールド遅延のより小さい値が大きなモーションベ
クトルを有するシーンで使用されるのに対して、より大きな遅延は小さい横方向
モーションを有するシーンで使用される。すなわち、好ましい実施例では、モー
ションの遅延とモーション量との間に反比例の関係が存在する。 シーン変化が決定される場合、その前においてモーションが全く生じなかった
ようにフィールド遅延の履歴はゼロにリセットされるべきである。非ゼロフィー
ルド遅延が計算されるモーションの最初の検出において、フィールド遅延の履歴
がまだゼロの場合、フィールド遅延の全履歴はその算出されたフィールド遅延に
セットされる。これによって、システムは、モーションが検出される場合に正し
いフィールド遅延を直ちに表示することができる。 b)フィールド遅延インプリメンテーション モーション視差は、デジタル化画像をメモリに記憶することによってハードウ
ェアおよびソフトウェアに生成することができる。好ましくは、デジタル化画像
は、バッファに記憶され、単一のポインタが、一つが左目像およびもう一つが右
目像のための2つの出力ポインタとを有することが好ましい。先に進む目に対す
る画像メモリポインタは、現入力画像メモリポインタにあるいは現入力画像メモ
リポインタ近くに保持されるのに対して、遅延された目に対する画像メモリポイ
ンタは、遅延出力を生じるようにバッファにセットされる。画像は多数記憶でき
、8〜10個までのビデオフィールドが、ビデオ用途では一般的である。遅延は
画像で解析されたモーションの速度で決まる。最大フィールド遅延は、モーショ
ンが最小の場合である。 2)強制視差(横方向シフト) 強制視差は、 i) 画像の正確なコピーとそれ自体の間 ii) ビデオフレームの2つのフィールド間 iii)フィルムシーケンスの2つのフレーム間 iv) 画像の変換コピーとそのオリジナルとの間 に横方向シフトを導入することによって生じさせることができる。 負の横方向シフトは、左像を右におよび右像を左に同じ量だけ変位させること
によって生成され(スクリーン平面から始まり、それの前に移りながらフィール
ドの奥行を生じさせる)、正の横方向シフトは、左像を左におよび右像を右に同
じ量だけ変位させることによって発生される(スクリーン平面から始まり、それ
の背後に後退するフィールドの奥行を生じさせる)。 強制視差は、パンの前の静止物体に対する立体効果を高めるために減少される
ことができ、その場合物体がスクリーン平面により接近して‘置かれ’、定義さ
れた物体平面から後景が‘押し出される’。 3)視差ゾーン 大部分のシーンは上部の後景および下部の前景とともに観察されるために、強
制視差を‘変える”ことによってシーンの奥行を強めることができる。これは、
画像の上部を画像の下部以上に横方向に移動させることによって行われるので、
シーンで観察された前後の奥行を強める。 他の技術は、画像の異なる部分にモーション視差および強制視差の組み合わせ
を使用することである。例えば、画像を垂直方向に半分に分割し、異なる視差シ
フトを各側面に加える。これによって、移動する列車から前方向に線路を見るよ
うなシーンは正しい立体効果を有する。そのような場合でなければ、逆3Dにお
いて常に、一つの側面が現れる。 4)Y軸の周りの画像回転 物体が実世界シーンで見る人の方に移動する場合、物体は各目に対する視野で
わずかに回転される。回転効果は物体がより接近して移動するときにより顕著で
ある。この回転を立体画像対に変換することは以下のように効果を規定する。 i) 見る人の方への移動−左像は、反時計回りの方向にその中心軸について
垂直方向に回転され、右像は、時計回りの方向に回転される。 ii)見る人から離れる移動−左像は、時計回りの方向にその中心軸について
垂直方向に回転され、右像は、反時計回りの方向に回転される。 したがって、画像回転によって、画像の物体の遠近は奥行が認識されるように
わずかに変えられる。この技術は所定のシーンに対して強制視差と結合される場
合、結合効果は非常に強力な立体の奥行キューをもたらす。 5)物体処理 物体処理は、これらの項目を独立して処理できるように物体および後景を分離
することによって、特に静止画像の立体効果をさらに高めるように実行される。
物体がサイズが大きく、数が少なく、フィールドの奥行中に別個の奥行レベルを
占有する場合に物体処理は最も有効である。 物体をその後景からデジタル的に‘カットアウト’して、立体効果を高めるた
めの適切な処置を施すことができるような傾向を確立するために、物体タグ付け
および物体トラッキング用のデータベースが使用できる。一旦処理が行われると
、物体は同じ位置に再び後景に‘ペーストされ’、戻される。これは‘カット・
アンド・ペースト’技術と呼ぶことができ、変換処理で有用である。 物体のタグ付け、トラッキング、カット・アンド・ペーストの処理を統合する
ことによって、物体処理および後景処理を可能にする強力なツールとなる。 他の物体処理技術は各移動物体に対する独自の奥行層を規定する物体階層化で
ある。物体がその位置になかった場合、後景フィルディテールが定義されている
ために、画像上のいずれの場所においても物体を配置することができる。これは
、後景フィルインが補間されなければ、通常静止物体に対しては実現できない。 立体変換の最も重要な問題は、見る人に不快感を生じさせる逆3Dおよび調整
/集中性のアンバランスの補正である。好ましい実施例における物体処理によれ
ば、この問題に関する修正も可能である。 a)メッシュ歪みおよびモーフィング−この物体処理技術によって、物体は、
歪んだメッシュ上にカット・アンド・ペーストでき、奥行認識を高める。左目像
の物体を右に、および右目像の同一物体を左に歪めて、物体視差を生じることに
よって、立体ディスプレイ装置を使用する場合、見る人に非常に接近して見える
ように物体を形成できる。 b)物体バレリング−この技術はメッシュ歪みの特定の形式であり、物体を画
像からカットし、垂直に配置された半分のバレル上に巻き付ける技術のことをい
う。これは、物体の中心部を物体エッジよりも接近して見えるようにすることに
よって物体が奥行を有するように見えるようにする。 c)物体エッジ強調−物体のエッジを強調することによって、画像の後景ある
いは他の物体との間に大きな差異を生じさせる。立体効果はこの技術によって多
数の用途で強調される。 d)物体輝度強調−いかなる画像においても、目は常に最大物体および最大輝
度物体に引き付けられる。物体の輝度を修正することによって、物体は後景以上
に強調でき、立体効果を高める。 e)Y軸の周りの物体回転−物体だけに回転が生じることを除いて、Y軸の周
りの物体回転とは、Y軸の周りの画像回転の処理と同様な処理のことをいう。立
体画像対の物体がその後景から‘カット’され、わずかに回転される場合、回転
によって発生された遠近の変化は奥行として認識される。 3D最適化 1)基準点あるいは境界 一連の立体画像を表示するために通常のTVあるいはビデオモニタを使用する
場合、目は、モニタあるいはスクリーンのエッジを連続的に見ており、これは全
ての奥行認識に対する基準点あるいは固定点として認識される。すなわち、全て
の物体はこの基準点の後方あるいはこの基準点の前方の奥行において認識される
。 モニタのエッジが不十分な周辺照明のためあるいはその暗い色のために容易に
確認されない場合、この基準点が失われ、目は3D領域の固定点を連続的に探索
することになる。長期の立体観察の下では、これは目の疲労および奥行認識の減
少を生じる可能性がある。前面あるいは背面映写スクリーンディスプレイシステ
ムも同じ問題を有する。 したがって、本発明は、視野画像内の共通境界あるいは基準点を規定すること
が好ましい。理想的には、基準平面はスクリーンレベルに設定され、全ての奥行
はこのレベル後方で認識される。これは多くのシーンにおいて立体効果を高める
長所を有する。 この基準点は簡単なビデオ境界あるいは基準グラフィックであってもよいし、
例えば、以下の形式のものであってもよい。 i) 画像の周界の周りの単一色ビデオ境界。 ii) 同心境界間に不透明部あるいは透明部を有する場合がある、2以上の
同心境界からなる複合色ビデオ境界。例えば、2〜3cm幅のメッシュ境界ある
いは、2つの薄い内部境界を有する幅広い外部境界。 iii)任意の1エッジ、あるいは任意の2つの水平エッジあるいは垂直エッ
ジを占有する部分境界。 iv) 画像内のある点に位置するロゴ(LOGO)あるいは他のグラフィッ
ク。 v) 画像内の画像。 vi) 上記のいずれかの組み合わせ。 この実施例においてきわめて重要であることは、見る人の目に画像における物
体の奥行が認識できる基準点が提供されるということである。 境界あるいはグラフィックが3D生成レベルで加えられる場合、それは、互い
に横方向にシフトされる左右の境界を作ることによって特定の奥行で基準点を提
供するように特定されてもよい。これによって、基準点あるいは固定点は、スク
リーンレベルの後方あるいは前方のいずれかの点において空間でシフトできる。
左右の目に対して全く視差を有せずに定義された境界あるいはグラフィックはス
クリーンレベルで認識される。これは本発明の好ましい態様である。 画像境界あるいは基準グラフィックは3D生成点で挿入されてもよいし、ある
いは外部で規定され、ディスプレイのための立体画像出力上にゼンロック(ge
nlock)されてもよい。このような画像境界あるいは基準グラフィックは、
黒、白あるいは着色、無地あるいはパターン化、または、画像後景に対して不透
明、半透明あるいは透明であってもよいし、静的あるいは動的であってもよい。
ほとんどの場合、静的境界は妥当であるが、ある状況においては、移動境界ある
いは動的境界はモーション強調のために使用される。 2)視差調整−奥行感度制御 立体ディスプレイ装置によって見られる一連の立体画像は、画像あるいは物体
に適用された視差の種類および量を修正することによって増減できる奥行範囲(
奥行の鋭さと呼ばれる)を自動的に定義する。見る人によって、立体画像対によ
り定義された奥行範囲あるいは立体視の量に基づいていろいろな立体観察の快適
さレベルを有することが分かった。すなわち、より大きい奥行範囲を有する顕著
な立体効果を好む人がいる一方、最少奥行を有する画像を好む人もいる。 奥行の感度および見る際の快適度レベルを調整するために、多くの技術が使用
さる。すなわち、 i) フィールド遅延を変えることによってモーション視差の量を変えるこ
と ii) 画像に対する強制視差の量を変えること iii)物体に適用された視差の量を変えること である。 視差の最大レベルを減少させることによって、奥行範囲を減らすことができ、
立体視に対してより高感度の認識機能をもった人の、見る際の快適度を改善する
。 3)視差平滑化 視差平滑化は、連続関数として視差(モーション視差+強制視差)の全量を保
持するプロセスである。特定のモーションの種類に対するフィールド遅延におけ
る変化、すなわち、シンプルパンおよび前景物体モーションは、生成されたモー
ション視差の量に不連続性を生じるが、これは見る人には一連の立体画像の“ジ
ャンプ”として確認される。先に進む目には遅延していない像が示されるので、
追跡する目のために生成された画像にのみ不連続性が生じる。これらの不連続性
は、等しく反対の方向に、強制視差あるいは物体視差を追跡する目のために調整
することによって補うことが可能であり、それによって連続性のあるトータルな
視差を維持できる。 強制視差あるいは物体視差は、滑らかに調整され、フィールド遅延における次
の変化に対応できるように通常の値まで戻される。強制視差あるいは視差平滑化
に行われる調整は、フィールド遅延変化、モーションの種類およびモーションベ
クトルの関数である。視差平滑化を行うために、左右目の画像に対する強制視差
は独立して設定されるべきである。 4)視差変調 立体効果を生じるための強制視差技術は、見る人によって検出された立体視の
量を加減するためにも使用できる。これは、物体あるいは画像について認識され
た奥行が徐々に変わるように、短時間における最小および最大の限界の間に強制
視差設定を変えることによって行われる。理想的には、強制視差は、0.5〜1
秒毎にその最小および最大設定の間で変調される。これによって、見る人はその
立体感度のレベルに調整できる。 5)モーション合成 検出不可能小さな増加量で後景をランダムに移動させることによって擬似モー
ションを生じさせることにより、前景物体の認識された奥行が強調される。前景
物体は後景から‘カット’され、後景は下記の技術の中の1つによって疑似ラン
ダムに変更され、それから前景物体は、表示する準備ができた後景上に‘ペース
ト’され、戻される。下記の技術のいずれかが使用されてもよい。 i) 擬似ランダムベースで変えられる輝度値 ii) 擬似ランダムベースで変えられるクロミナンス値 iii)モーションを生じさせるために擬似ランダムノイズを後景に加え
ること 6)逆3D解析および補正 視差によって生じた物体の奥行順序が実世界の奥行順序に対応するものとは異
なっていると認識されるときに逆3Dが生じる。これは、一般に見る人に不快感
をもたらし、補正されるべきである。一連のモノスコープ画像を立体画像対に変
換する場合、逆3Dは下記によって生成され得る。 i) 逆モーション、同じ画像上で左右に移動する物体 ii) 異なる方向に移動する物体および後景 iii)いろいろな速度で移動する多数の物体 逆3Dは、画像における物体のモーションの特性が解析され、それから物
体視差が予想視覚認識基準と一致するようにメッシュ歪み技術を使用して各物体
を個別に操作することによって補正される。 7)その他の技術 画像内の物体の遠近を修正し、たくさんの小さな奥行キューを強調することに
よって、立体効果を強調できる。以下の技術全ては、‘カット・アンド・ペース
ト’技術を使用して行う。すなわち、前景物体は‘カット’され、強調され、後
景上に‘ペースト’され、戻される。 a)シャドウ−シェーディングは物体の遠近を示している。 b)前景/後景−−ブラリングあるいはフォギイングによって後景の焦点
をぼかすことによって、前景物体を強調でき、前景物体の焦点をぼかしながら、
後景の奥行を強調できる。 c)エッジ強調−エッジは物体をその後景から識別するのに役立つ。 d)テクスチュアマッピング−物体を後景から識別するのに役立つ。 層4−3Dメディア(伝送&記憶) 層1に関しては、層4および層5は本発明にとって不可欠でない。層4は一連
の立体画像の伝送および/または記憶のために提供する。伝送手段は特定の用途
に適合させることができる。例えば、下記を使用できる。 1)ローカル伝送−同軸ケーブルを介してできる。 2)ネットワークTV伝送−下記を介してできる。 i) ケーブル ii) 衛星 iii)地上放送 3)デジタルネットワーク−インターネット等 4)立体(3D)画像記憶装置 画像記憶手段は後の伝送あるいは表示のための画像データを記憶するために
使用でき、下記を含んでもよい。 i) アナログ記憶装置−ビデオテープ、フィルム等 ii)デジタル記憶装置−レーザディスク、ハードディスク、CD−RO
M、磁気光学ディスク、DAT、デジタルビデオカセット(DVC)、DVD。 層5−3Dディスプレイ 伝送手段に関しては、ディスプレイ手段は用途要件によって決めることができ
、下記を含んでもよい。 1)セットトップボックス 定義によれば、セットトップボックスは、受信し、復号化し、アクセサリイン
タフエースを備え、最後に用途に適合する出力を有する電子機器である小さいボ
ックスである。それは下記を組み込んでもよい。 a)ビデオあるいはRF受信機 b)頭部装着形装置別個の左右画像出力を供給する立体(3D)デコーダ
あるいは別個のビデオチャネルを必要とする他の立体ディスプレイ c)解像度向上−ラインダブリング/ピクセル補間 d)シャッタあるいは逐次眼鏡同期化(Sequential Glas
ses Synchronization) e)立体奥行感度制御回路 f)アクセサリインタフエース−2D/3Dスイッチおよび奥行制御装置
のような機能を有する遠隔制御装置 g)オーディオインタフエース−オーディオ出力、ヘッドホン接続 h)アクセスチャネル復号化−ケーブル・有料TV用途 i)ビデオあるいはRF出力 2)立体ディスプレイ 下記を含む別個の画像を左右の目に提供する特別の眼鏡あるいはヘッドギヤを
使用する。 a)偏光眼鏡−線形偏光子および円形偏光子 b)立体写真眼鏡−着色レンズ−赤/緑等 c)LCDシャッタ眼鏡 d)カラー逐次眼鏡 e)頭部装着形装置(HMD)−2つの小型ビデオモニタ(各目対して1
つ)を取り付けられたヘッドギヤ、VRヘッドホン 3)自動立体ディスプレイ a)ビデオプロジェクタ/逆反射スクリーン式ディスプレイシステム b)容積測定ディスプレイシステム c)レンチキュラーレンズ式ディスプレイシステム(Lenticula
r lensbased display system) d)ホログラフィー光学素子(HOE)式ディスプレイシステム 好ましい実施例 要約すると、本発明は、好ましい実施例において、デジタル形式あるいはアナ
ログ形式でモノスコープ画像シーケンスを入力でき、その場合、アナログ/デジ
タル変換が含まれるシステムを提供する。したがって、この画像データは画像解
析の方法に委ねられ、それによってモノスコープ画像は、これが特定の用途のた
めに必要とされる場合、圧縮される。 画像のピクセルのブロックと隣接画像の対応するブロックとを比較し、各ブロ
ックに対する最小平均自乗誤差を得ることによって、画像内のモーションを決定
できる。 モーション検出に続いて、画像の領域が、類似の特性、例えば画像輝度、色彩
、モーション、パターンおよびエッジ連続性によって識別される。このデータは
モーション解析が行われ、画像内のモーションの特性を決定する。このモーショ
ン解析は、画像の任意のモーションの方向、速度、種類、奥行および位置を決定
する形をとる。その後、このモーションは、モーションが全シーン変化、シンプ
ルパン、コンプレックスパン、静止後景上を移動する物体、移動後景の前の静止
物体であるかどうか、あるいは全くモーションがないかどうかを含む多数のカテ
ゴリーに分類される。さらなる動作は、これらのカテゴリーに基づいて決定され
、適切な立体ディスプレイ装置で見るのに適している立体画像対に一連のモノス
コープ画像を変換する。 好ましい実施例では、一旦一連のモノスコープ画像が解析されると、シーン変
化あるいはコンプレックスパンが検出されるならば、この特定のシーンの他の解
析が全く必要とされず、むしろフィールド遅延およびフィールド遅延履歴の両方
がゼロにリセットされる。それから、物体検出処理は、新しいシーンに利用され
、このシーン内の物体を試行し識別する。一旦これらの物体が識別されると、そ
のとき物体処理が行われる。物体が全く識別されない場合、この画像は、強制視
差および3D最適化を使用してさらに処理を行うために渡される。 画像解析中に分類されたモーションがシーン変化でない場合、このシーンにつ
いての他の解析が必要される。このシーンの他の解析がシンプルパンとして分類
されているモーションに帰着する場合、モーション視差の原理に従ってフィール
ド遅延を用いる必要がある。そうして、さらなる処理に進む。モーションがシン
プルパンとして分類されなくて、むしろ静止後景上のモーション中の物体として
分類される場合、再度、モーション視差の原理に従ってフィールド遅延を用いな
ければならない。この点では、一旦モーション視差が用いられると、物体全てが
均一の方向を有するかどうかを考察する必要がある。物体が均一の方向に移動す
る場合、物体は後の工程でさらに処理されるために渡される。物体が均一の方向
を有しない場合、このシーン内の選択画像に対しさらに物体処理を実行し、逆3
D効果を補正する必要がある。これは、メッシュ歪み技術およびモーフィング技
術を使用することによって行うことができる。 モーションが移動後景上の静止物体であると分類される場合、後景が奥行に大
きな変化を有するかどうかを考察する必要がある。後景が奥行に大きな変化を有
していない場合、モーション視差の原理を使用して優先順位を有する物体に対し
てフィールド遅延を用いる。しかしながら、後景が奥行に大きな変化を有してい
る場合、再度モーション視差の原理を使用して、物体に対立して優先順位を有す
る後景に対してフィールド遅延を用いる。この場合、前景物体に対し他の物体処
理を実行し、さらなる処理に進む前に逆3D効果を補正することも必要である。 モーションが全然検出されない場合、次に、このシーンにおける物体が前のモ
ーションから知られていたかどうかを考察する。そうである場合、この選択物体
に対し物体処理を実行する。そうでない場合、その特定のシーンにおける任意の
物体を識別しようと試みるために特定のシーンに物体検出処理を適用する。物体
が識別される場合、この特定の物体の物体処理を実行し、識別されない場合、強
制視差および3D最適化が実行される。 物体処理が必要とされる場合、物体は、識別され、タグを付けられ、追跡され
、それから、メッシュ歪みおよびモーフィング、物体バレリング、エッジ強調、
輝度修正および物体回転の技術を使用することによって処理される。 全ての場合、一旦モーションが分類され、一連の立体画像に変換する主要技術
が用いられると、さらなる視差量あるいは強制視差と呼ばれる横方向シフトが画
像に適用される。好ましい実施例では、強制視差は、単に奥行平滑化目的のため
でなく、全ての画像が、通常、モニタスクリーンの前面である立体ディスプレイ
装置の基準平面の前あるいは後において、奥行を有するものとして確認されると
いう基本的な立体効果を提供するためにあらゆる画像に用いられることに注目す
べきである。強制視差を用いる長所は、見る人の奥行の認識に急な変化を生じさ
せないで、検出されるモーションのカテゴリーにおける変化に、システムがより
よく対応できることである。 一旦強制視差が画像に用いられると、そのとき、画像は3D最適化のために伝
達される。また、これは立体画像を見るためには必要ないが、一方、最適化は見
る人による画像の奥行認識を高める。3D最適化は、基準点あるいは境界の付加
、視差調整、視差平滑化および特定の見る人の奥行感度を変えるための視差調整
を含む多くの形式で利用できる。画像は、輝度値あるいはクロミナンス値を擬似
ランダムに修正することによっても最適化できるので、前景物体の後方の背景モ
ーションは、奥行認識が高められるように見ることができる。見る人の眼精疲労
が最少になるように逆3Dのための解析も可能である。画像のシャドウイング、
前景および後景のフォギイングあるいはブラリングならびにエッジ強調のような
他の技術はこの工程でも実行できる。 一旦画像が最適化されると、そのとき画像は適切なディスプレイ装置に伝送さ
れる。この伝送は、ケーブル、同軸、衛星を含む多数の形式、あるいは一方の点
から他方の点に伝送する任意の他の形式をとることができる。画像はディスプレ
イ装置に送られるよりも前に記憶することも可能である。ディスプレイ装置は、
多くの形式を取り入れることができ、必要なのは手元のアプリケーションに適す
るものであるということだけである。例えば、左右の画像を分離し、走査速度を
増加させ、観察眼鏡(Viewing glasses)を同期化するために既
存のビデオモニタをセットトップ装置とともに使用できる。一方、眼鏡あるいは
ヘッドギヤの使用とともに、一連の立体画像を提供する専用立体ディスプレイを
使用することができ、あるいは、自動立体ディスプレイ装置も使用できる。本発
明は、劇場、映画、ビデオアーケード、ケーブルあるいはネットワークTVにお
いて、教育分野、特に、マルチメディア産業において、およびテーマパークおよ
び他の娯楽用途のような多数の他の分野において用途があることが予想される。 本発明は、変換方法および統合システムの好ましい実施例についての上記の記
載および添付図面に示された記載により、理解することができる。しかし、本発
明は記載された実施例に限定されないことを認識すべきである。
【図面の簡単な説明】
【図1】本発明を使用する全システムの層への分解を示している。
【図2】本発明を使用する全システムと複数のプロセッサとの可能な併用を示
している。
【図3】層1(ビデオデジタル化)および層2(画像解析)の第1の部分の流
れ図を示している。
【図4】層2の第2の部分の流れ図を示している。
【図5】層2の第3の部分の流れ図を示している。
【図6】層2の第4の部分の流れ図を示している。
【図7】層3(3D生成)の第1の部分の流れ図を示している。
【図8】層3および層4(3Dメディア−伝送&記憶)および層5(3Dディ
スプレイ)の第2の部分の流れ図を示している。
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成12年3月2日(2000.3.2)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】発明の詳細な説明
【補正方法】変更
【補正内容】
【発明の詳細な説明】
【0001】 発明の分野 本発明は、一般に立体画像システム、特に立体ディスプレイのための一連のモ
ノスコープ画像からの立体画像対の合成に関するものである。本発明は、モノス
コープソースをデジタル化し、それをモーションに対して解析し、立体画像対を
生成し、立体効果を最適化し、立体画像対を伝送するかあるいは記憶し、それか
ら立体画像対を立体ディスプレイ装置上に表示できる、一連の立体画像を生成す
るための5モジュール方法にも指向できる。
【0002】 背景技術 従来のモノスコープディスプレイシステムあるいは二次元(2D)ディスプレ
イシステムよりも見る人にとってよりリアルな画像を作り出す立体ディスプレイ
システムあるいは三次元(3D)ディスプレイシステムの出現によって、一連の
立体画像は3Dディスプレイシステム上で見られるように利用できることが必要
である。この点で、立体ディスプレイ装置上で見るための一連の立体画像を生成
するように処理できる多数のモノスコープ画像ソース、例えば既存の2Dフイル
ムあるいはビデオが存在する。 立体的に見るためのこのような一連のモノスコープ画像を変換する、以前から
存在する方法では、容認できるような結果を生じない。フイルムおよびビデオに
おける他の試みにおいては、「モーション視差(Motion Paralla
x)」の立体奥行キューを再現する技術が使用された。これらの技術は、横方向
、左または右のモーションが一連の画像にある場合、追跡する目に表わされる一
連の画像に対して遅延を生じさせることを含む。他の試みにおいては、奥行の認
識を与えるために、左右の目に対する一連の画像の「横方向シフト(Later
al Shifting)」が使用された。 しかしながら、これらの2つの技術には限界があり、一般に特定の用途だけに
適している。例えば、モーション視差(Motion Parallax)技術
は、左右のモーションを有するシーンに対してだけ優れており、静止シーンの立
体の画質向上に対しては限られた値しか有しない。横方向シフト(Latera
l Shifting)技術は、あるシーンに対して全体的な奥行効果を生じさ
せるだけで、さまざまな奥行きがある異なる物体を、その物体が存在していると
ころの奥行きにおいて認識することができない。これらの2つの技術の組み合わ
せであっても大部分の2Dフイルムあるいはビデオに対して限られた立体効果を
与えるだけである。 いくつかの既存のアプローチはこれらの技術の限界を示している。画像が垂直
モーションおよびある程度の横方向モーションを有し、追跡する目に表された画
像に遅延が与えられた場合、結果として、左右の視野間に大きな垂直不均衡を生
じることが多々あり、一連の画像を見るのに不快感を与える。同一のシーンにお
いて左右に移動する物体のように、逆モーションを有するシーンも見るのに不快
感を与える。これらの方法についての実施例には、いろいろな奥行の物体が画像
にある場合、物体の前景から後景への滑らかな遷移よりもむしろ、別個の奥行モ
ジュールを有する物体の、明らかな「カードボード・カットアウト(card
board cut−out)」現象が見られる。 これらのアプローチにおいては、全ての画像シーケンスに適するにするための
、もしくは、見る人の不快感の問題を解決するための、もしくは、見る人各々あ
るいはディスプレイ装置に対する立体効果を最適化するための、システムまたは
方法を開発する試みは成功していない。
【0003】 発明の目的 したがって、一連のモノスコープ画像を立体画像対に変換するための改良され
た方法を有するシステム、および改良された一連の立体画像を見る人に提供する
システムが必要とされている。 本発明の目的は、このような改良された方法を有するシステムを提供すること
にある。
【0004】 発明の概要 上記の問題に対処するために、本発明の一態様は、三次元で見るために一連の
モノスコープ画像を変換する方法であって、 前記一連のモノスコープ画像を受信するステップと、 前記一連のモノスコープ画像を解析し、当該画像の特徴を決定するステップと、
決定された画像特徴に基づいて前記一連のモノスコープ画像を処理するステップ
と、 処理した一連の画像を適当な記憶装置および/または立体ディスプレイシステム
に出力するステップとを含み、 モーションを決定するための前記一連のモノスコープ画像の解析は、 隣接する画像上の対応するブロックが水平方向および/または垂直方向にオフセ
ットされるような、複数のブロックに、各画像を分割するステップと、 各ブロックを前記対応するブロックと比較し、最小平均自乗誤差およびそれによ
るブロックのモーションを見つけるステップとを含む。 また、三次元で見るために一連のモノスコープ画像を変換するための画像変換
システムであって、 一連のモノスコープ画像を受信するように構成された入力手段と、 前記モノスコープ画像シーケンスの第1の画像と第2の画像との間にいくらか
の連続性があるかどうかを決定する予備解析手段と、 連続性がある一連のモノスコープ画像を受信して、かつ、モーションの速度お
よび方向のうち少なくともいずれか一つ、あるいは物体の奥行、サイズおよび位
置を決定する手段であって、前記モーションを決定するために前記一連のモノス
コープ画像の解析が、隣接する画像上の対応するブロックが水平方向および/ま
たは垂直方向にオフセットされるような、複数のブロックに各画像を分割するス
テップと、 各ブロックを前記対応するブロックと比較し、最小平均自乗誤差およびそれに
よるブロックのモーションを見つけるステップとを含む、二次解析手段と、 前記予備解析手段および/または前記二次解析手段から受信されたデータに基づ
いて前記一連のモノスコープ画像を処理する第1の処理手段とを含む。 理想的には、入力手段はまた、一連のモノスコープ画像を取り込み、デジタル
化する手段を含む。 好ましくは、画像解析手段は、画像におけるモーションの速度および方向、物
体の奥行、サイズおよび位置、および、背景を決定できる。 他の態様では、本発明は、立体画像を最適化し、立体効果をさらに改善させる
方法を提供し、この処理は一般に伝送、記憶および表示の前段階で適用される。
さらに他の態様では、本発明は、見る人の基準点を画像に追加することによっ
て立体画像対を改善させる方法を提供する。 さらに他の態様では、本発明の立体画像対に変換する一連のモノスコープ画像
を解析する方法は、各画像を複数の領域を拡大縮小するステップと、第1の画像
の各領域と第2の画像の対応しかつ隣接する領域とを比較し、前記第1の画像と
前記第2の画像間のモーションの特性を決定するステップとを含む。 好ましくは、モーションベクトルは、検出されたモーションの特性と、モーシ
ョン無しから完全なシーン変化に及ぶ所定のモーションカテゴリーとの比較に基
づいて、各画像に対して定義される。 さらに他の態様においては、本発明は、三次元で見るための一連のモノスコー
プ画像を変換するためのシステムであって、 モノスコープ画像を受信するように構成された第一のモジュールと、 前記モノスコープ画像を受信し、画像データを作成するためにモノスコープ画
像を解析するように構成されたモジュールであって、モーションを決定するため
の前記モノスコープ画像の解析が、隣接する画像上にある対応するブロックが水
平方向および/または垂直方向にオフセットされるような、複数のブロックに分
割するステップと、各ブロックを対応するブロックと比較して最小平均自乗誤差
およびそれによるブロックのモーションを求めるステップとを含む、第二のモジ
ュールと、 画像データの関数として選択された少なくとも一つの所定の方法を用いてモノ
スコープ画像から立体画像対を作成するように構成された第三のモジュールと、
立体画像対を立体ディスプレイ手段に転送するように構成された第四のモジュ
ールと、 立体ディスプレイ手段からなる第五のモジュールとを含む、 三次元で見るためのモノスコープ画像を変換するためのシステムを提供する。 好ましくは、第一のモジュールはさらに、任意の一連のアナログ画像をデジタ
ル画像に変換するように構成される。さらに、第二のモジュールは、好ましくは
、あるシーンにおける任意の物体を検出し、任意の、このようなモーションの速
度および方向に関する決定を行うように構成される。便宜的には、任意のこのよ
うな解析よりも前に画像は圧縮されてもよい。 好ましくは、第三のモジュールは、立体画像対を立体ディスプレイ手段に伝送
するよりも前に立体画像対の画質をさらに高める最適化工程をさらに含む。便宜
的には、第四のモジュールは、後になってから立体ディスプレイ手段上に表示す
るために立体画像対を記憶する記憶手段も含む。
【0005】 長所 本発明のプロセスは、いかなる工程でも中断され、後で継続させるために記憶
され、あるいは必要な場合、他の場所で継続させるために伝送できることが評価
される。 本発明は、下記を含む多くの特有な長所を有する変換技術を提供する。 1)リアルタイムまたは非リアルタイム変換 一連のモノスコープ画像を立体画像対に変換できる機能は、リアルタイムまた
は非リアルタイムで実行できる。一連の画像を手動で扱うためにオペレータ介入
を利用してもよい。一例として、フイルムあるいはビデオの変換が挙げられる。
ここでは、その立体効果のためにオペレータによってあらゆるシーケンスがテス
トされ、最適化されてもよい。 2)立体画質向上を含む技術 本発明は、複数の技術を使用し、立体画像対を生成するためのモーション視差
および横方向シフト(強制視差)の基本技術をさらに高める。これらの技術は、
物体解析、タグ付け、トラッキングおよびモーフィング、視差ゾーン、基準点、
モーション合成および視差変調の技術の使用を含むが、これに限定されない。 3)逆3Dの検出および補正 逆3Dは、画像のモーション特性を解析することによって3D生成処理の一部
として理想的に検出される。そのとき、見る人の不快感を最少にするように逆3
Dを最少にするために補正技術を使用してもよい。 4)伝送および記憶を含む全ての用途における使用法 本発明は、広い範囲の用途に応用できる技術を開示し、モノスコープアプリケ
ーションに立体変換プロセスを適用する全工程を説明している。一方、本発明は
、画像処理装置および立体ディスプレイ装置の両方がほぼ同じ位置に置かれてい
る3D生成のための技術を説明している。他方、ある位置における立体画像対の
生成およびその伝送、記憶および遠隔位置でのその後の表示といった技術が定義
されている。 5)任意の立体ディスプレイ装置と併用できる 本発明は、いかなる立体ディスプレイ装置にも適用でき、理想的には内蔵型の
調節機構を有する。3D生成方法は、立体効果を最適化するためにディスプレイ
装置の種類も考慮にいれることができる。
【0006】 詳細な説明 本発明は、個人の全視覚認識機能を使用する立体画像を、見る人に提供するこ
とを目的としている。したがって、脳がこのような一連の画像を解釈するのに必
要な奥行キューを提供する必要がある。
【0007】 序論 人間は、目および脳に関する生理学的な処理および心理学的な処理の複雑な組
み合わせによって知覚する。視覚認識は、短期および長期の記憶力の使用に関わ
り、我々の感覚によって定義づけされている、既知の経験されたリアリティを用
いて可視情報を解釈できる。例えば、空間および遠近のカルテシアン法則によれ
ば、物体が見る人から離れてより遠くに移動すればするほど、益々物体はより小
さくなる。換言すれば、脳は、物体が大きい場合、物体は見る人に接近し、物体
が小さい場合、物体がある程度の距離離れていると予想する。これは、先ず第一
に物体のサイズを知ることに基づいた学習済み処理である。可視情報で表すこと
ができる他のモノスコープのあるいは小さな奥行キューは、例えば、陰影、ピン
ぼけ、テクスチュア、光、大気である。 これらの奥行キューは、‘遠近3D’ビデオゲームおよびコンピュータグラフ
ィックスの製作で使用されて大いに役立つ。しかしながら、立体効果を実現する
際のこれらの技術に関する問題は、認識された奥行が定量化できないことである
。すなわち、それは2D環境の2D物体を表示するための幻影である。このよう
なディスプレイは、両眼の視野が同一であるために、立体画像を示していないの
で、リアルに見えない。
【0008】 奥行キュー 一連の立体画像は実世界ビジュアルを再現する試みであり、奥行を定量化でき
るように一連の‘遠近3D’画像よりも非常に多くの可視情報を必要とする。立
体奥行キューあるいは主要な奥行キューは人の視覚認識を三次元で刺激できるよ
うにこの付加データを提供する。これらの主要な奥行キューは下記のように説明
される。 1)網膜差異−両眼がわずかに異なる視野を見るという事実のことをいう。こ
れは物体を人の顔の前に保ち、後景に焦点を合わせることによって容易に示すこ
とができる。一旦目が後景に焦点を合わせると、あたかも顔の前に実際2つの物
体があるかのように見える。差異は、重ねられた網膜画像の対応する左右の像点
間の水平距離である。視差は観察された画像間の実際の空間変位である。 2)モーション視差−見る人により接近しているこれらの物体は、たとえより
離れた物体と同じ速度で移動するとしてもより速く移動するように見える。した
がって、相対移動は小さな奥行キューである。しかし、横方向移動の主要な立体
奥行キューはモーション視差の生成物である。右から左へ移動する画像のモーシ
ョンの場合、右目は前進する目であるのに対して、左目は追跡する目になり、そ
の結果その画像は遅延される。この遅れは我々の視覚認識機構の通常の機能であ
る。左から右へのモーションの場合、右目は追跡する目になる。この遅延の効果
は、網膜差異(目に対して2つの異なる視野)を生成することであり、両眼視差
と認識されて、モーション視差として知られている立体キューを提供する。 3)調整−目は、神経・筋肉の活動によって目のレンズを圧縮するか(接近し
た物体に対してはより凸面の形状)あるいは目のレンズを拡大するか(遠い物体
に対してはより凸面でない形状)のいずれかによって物体に鋭い焦点を合わせる
。神経・筋肉の活動の量および種類は画像の奥行に対する立体キューである。 4)集中性−物体の一連の画像を目の中心視覚領域の照準に合わせる目の神経
・筋肉系の応答であり、一つの物体だけを見るようにする。例えば、腕の長さの
ところで維持した指を両眼で見て、ゆっくりと顔の方へ近づける場合、目は内側
に回転(集中)し、指がより接近することを示す。すなわち、指までの奥行は減
少している。 目の集中性応答は通常視力の調整機構に生理学的にリンクしている。立体的に
見る際に、見る人が‘固定平面(Fixation Plane)’(目が一点
に集中される)に適応できない場合、不快感を経験するかもしれない。‘固定の
平面’は通常スクリーン平面である。 概説−5モジュール方式 本発明は、任意のモノスコープ入力を取り入れ、それを改良された立体出力に
変換できるシステムを記載している。説明を容易にするために、この全システム
は、多数の独立モジュールあるいはプロセスに分解できる。すなわち、 モジュール1−モノスコープ画像入力(一般的にはビデオ入力) モジュール2−画像解析 モジュール3−3D生成 モジュール4−3Dメディア(伝送あるいは記憶) モジュール5−3Dディスプレイ 図1は、立体変換方法へのトップダウン方式を示しており、ビデオあるいは若
干の他のモノスコープ画像ソースが入力され、一連の画像が解析され、立体画像
対が生成され、伝送されおよび/または記憶され、それから立体ディスプレイ上
に表示される。各モジュールはモノスコープ画像入力から立体ディスプレイに至
る全システムの独立プロセスを示している。一方、いろいろなモジュールが独立
して動作してもよいことがわかる。
【0009】 用途 一般に、5モジュールのすべては、モノスコープ画像入力から特定の用途のた
めにディスプレイされるまで使用される。例えば、このシステムは劇場あるいは
映画で使用されてもよい。このような用途では、2Dビデオ入力はビデオソース
に対してアナログあるいはデジタル形式をとることができる。その後、これらの
ソースは解析され、任意のモーションの速度および方向を決定する。次に、この
処理は3D画像を作り出すためにリアルタイムあるいは非リアルタイムのいずれ
かで実行される。これは、境界、視差修正、逆3D解析、シェーディング、およ
び/またはテクチュアリングの使用によってさらに最適化できる。その後、3D
画像は、記憶されてもよいしあるいはシャッタガラス、偏光ガラスあるいは自動
立体ディスプレイを含む3Dディスプレイに伝送されてもよい。 このシステムはケーブルTVシステムあるいは有料TVシステムと併用するよ
うに構成してもよい。この用途では、2Dビデオ入力は、VTR、レーザディス
ク、あるいは他のデジタルソースであってもよい。更に3Dの生成および/また
は最適化はリアルタイムあるいは非リアルタイムで行われてもよい。さらに、3
Dメディアモジュールは、便宜的にケーブルあるいは衛星を介する伝送の形をと
り、TV、ビデオプロジェクタ、あるいは自動立体ディスプレイ上に3Dディス
プレイを使用可能にする。 このシステムも、マルチメディアのビデオアーケードゲームあるいは地上TV
あるいはネットワークTVと併用されてもよい。用途に応じて、2Dビデオ入力
モジュールは、ゲームプロセッサから一連のソースモノスコープ画像、レーザデ
ィスクからビデオ、VTRからビデオ、ネットワーク、若干の他のデジタル記憶
装置あるいはデジタルソースもしくはテレシネ処理からビデオを得てもよい。3
D生成は、リアルタイムあるいは非リアルタイムで行われ、中央変換サイトにあ
るコンピュータによって、ユーザのコンピュータ内に、または中央プロセッサ上
に、あるいは他の画像プロセッサ上に生成される。そして、一連の立体画像はビ
デオあるいは他のデジタル記憶装置に記憶され、その後、映画館に配信されたり
ローカルネットワークによって伝送される。これらの一連の立体画像も、ローカ
ル伝送、あるいはその代わりとしてVHF/UHF機構あるいは衛星を介してビ
デオプロジェクタに伝送されてもよい。 3Dディスプレイは、必要とされる用途に左右され、自動立体ディスプレイ装
置、偏光ガラスを有するビデオプロジェクタ、シャッタガラスを有するローカル
モニタ、適当な視界ガラスを有するセットトップボックスの形をとることができ
る。
【0010】 単一&多重プロセッサ 全システムは単一プロセッサで作動でき、全て5つのモジュールはリアルタイ
ムあるいは非リアルタイムに一緒にあるいは個別に処理される(モジュール2、
モジュール3およびモジュール4)。モジュール2およびモジュール3は、例え
ば、図2で分かるように多重タスキングあるいはマルチプロセッサ環境に適する
ようにさらにセグメント化される。 多重プロセッサの使用も利用できる用途に対して自由に構成できる。モジュー
ル1および2は第1のプロセッサによって処理でき、モジュール3〜モジュール
5は第2のプロセッサによって処理できる。所望される場合、この装置の第1の
プロセッサはルックアヘッドプロセッサとして使用でき、第2のプロセッサは一
連の遅延後立体画像を生成できる。一方、第1のプロセッサは、リアルタイムビ
デオを受信し、ビデオをデジタル化し、デジタル化ビデオを適当なデジタル記憶
装置に転送するために使用できる。その後、第2のプロセッサは、オンサイトで
あるいは遠隔でデジタル化画像を解析し、適当なディスプレイ装置上に立体画像
を表示するのに必要なタスクを実行できる。 ルックアヘッド処理は、画像処理モードがより有効に選択され、全立体効果を
最適化できるようにフィルムあるいはビデオのシーケンスの向きを予測するため
に使用されてもよい。 本発明は主に、一連のモノスコープ画像の解析および立体効果の最適化ととも
に一連のモノスコープ画像の立体画像対への変換に関するものである。この点で
は本発明は広範囲のモノスコープ入力、伝送手段およびビューイング手段に応用
可能である。しかしながら、完全なものにするために、5つのモジュール全てを
以下に説明する。 モジュール1−画像あるいはビデオ入力 モジュール1は、モノスコープ画像ソースあるいはビデオ入力が提供されるこ
とを必要とする。このソースは、デジタル画像ソースあるいはそのときデジタル
化されてもよいアナログ画像ソースのいずれかとして提供されてもよい。これら
の画像ソースは下記を含んでもよい。 1)アナログソース a)テープ方式−VCR/VTRあるいはフィルム。 b)ディスク方式−レーザディスク。 c)ビデオカメラあるいは他のリアルタイム画像取込装置。 d)コンピュータ生成画像あるいはグラフィックス。 2)デジタルソース a)テープ方式−典型的な例はDAT、アンペックスのDCT、ソニー
のデジタルベータカム、パナソニックスのデジタルビデオ形式あるいは6.5m
mテープを使用する新しいデジタルビデオカセット(DCV)形式。 b)ディスクベース記憶装置−磁気光学(MO)ハードディスク(HD
)、コンパクトディスク(CD)、レーザディスク、CD−ROM、DAT、デ
ジタルビデオカセット(DVC)あるいはデジタルビデオディスク(DVD)方
式データ記憶装置−JPEG、MPEGあるいは他のデジタル形式を使用する c)ビデオカメラあるいは他のリアルタイム画像取込装置 d)コンピュータ生成画像あるいはグラフィックス。 本発明の変換方法にとって重要なことは、モノスコープ画像ソースが提供され
るべきであることである。モジュール1〜3に対する要求を通常不要にする立体
画像ソースが提供されてもよく、一方、任意のこのような立体画像は表示するよ
りも前に最適化工程を通過してもよいことは注目すべきことである。
【0011】 モジュール2−画像解析 次に、本発明の好ましい構成を表す流れ図を示す図3〜図8を参照する。 一連の2D画像の受信に続いて、デジタル化ビデオあるいはデジタル画像デー
タは、ハードウェア、ソフトウェアあるいは両方の組み合わせによってリアルタ
イムあるいは非リアルタイムでフィールド毎あるいは画像毎ベースで処理される
。最初に、下記のステップを含む画像解析処理が行われる。 1)画像圧縮 2)モーション検出 3)物体検出 4)モーション解析 1)画像圧縮 画像の圧縮は不可欠ではないが、多くの処理および用途にとって、要求される
時間内にフル解像度画像を処理するほどプロセッサが十分高性能でない場合は特
に、圧縮は実用的なオプションである。 好ましくは、一連の画像はより小さい寸法に縮小する方がよい。縮小率は、各
画像に使用されるデジタルビデオ解像度によって定まり、デジタル化処理で使用
される画像取込機構のタイプによって通常規定される。 2)モーション検出 好ましい実施例では、各画像はピクセルのブロックで解析されてもよい。モー
ションベクトルは、一つの画像からのブロックと所定数までのピクセル、例えば
±9だけ水平方向および/または垂直方向にずれている隣接画像からの対応する
ブロックとを比較し、最小平均自乗誤差を生じさせる位置を記録することによっ
て各ブロックに対して計算される。 各ブロックに対しては、ベクトルおよび最小および最大平均自乗誤差は後処理
するために記録される。 処理時間を節約するために、ブロックにディテールが全然ない場合、例えば、
ブロックが均質な色である場合、ベクトルを計算する必要がない。 モーションを計算する他の方法、例えば画像減算を利用できる。本実施例は平
均自乗誤差法を使用する。 3)物体検出 物体は、共通の特徴を有する画像の一部を識別するピクセルあるいは画素のグ
ループとして規定される。これらの特徴は、同類の輝度値(同類の輝度)、クロ
ミナンス値(同類の色)、モーションベクトル(モーションの同類の速度および
方向)あるいは同類の画像ディテール(同類のパターンあるいはエッジ)の領域
に関するものであってもよい。 例えば、家を通り過ぎて走る車。この車は異なる速度で後景に移動するピクセ
ルあるいはピクセルブロックの領域にある。この車が家の前に停止するならば、
車は検出することが困難であり、他の方法が使用されてもよい。 連結性アルゴリズムは、同様なモーションベクトルの領域の中へモーションベ
クトルを結合するために使用されてもよい。物体は1つあるいはそれ以上のこの
ような領域で構成されてもよい。エッジ検出等のような他の画像処理アルゴリズ
ムは物体の検出で使用されてもよい。 一旦物体が画像で識別されると、物体はタグを付けられるか識別番号を付けら
れるかあるいは与えられることが好ましい。これらの物体およびその関連ディテ
ール(例えば、位置、サイズ、モーションベクトル、タイプ、奥行)は、さらな
る処理を実行できるようにデータベースに記憶される。物体が一連の画像にわた
って追跡されるならば、これは物体トラッキングとして知られる。物体を追跡し
、その特徴を解析することによって、物体は前景物体あるいは後景物体であると
識別でき、したがって画像のその奥行位置を強調するために画質が高められる。
4)モーション解析 一旦物体が検出されると、物体は画像のモーションの全速度および方向を決定
するために解析できる。好ましい実施例では、この工程は画像のモーションの種
類を決定し、全ベクトルも提供する。 物体検出情報を使用し、データをいくつかの画像モーションモデルと比較する
ことによって、一連のモノスコープ画像を立体画像対に変換するための最良の方
法について最初の決定を行うことができる。 本発明の好ましい実施例で使用されるような画像モーションモデルは、 a)シーン変化 b)シンプルパン c)コンプレックスパン d)静止後景にわたる移動物体 e)移動後景にわたる前景物体 f)モーション無し である。 必要に応じて他のモーションモデルを使用してもよい。 a)シーン変化 この名前が示唆するようなシーン変化は、一つの画像が前の画像あるいはシー
ンに対する共用性を殆どあるいは全然有しない時である。それは2つの画像間の
輝度の非常に大きい絶対差あるいは2つの画像の色の大きな差として検出できる
。 好ましい装置では、前の画像と現画像との間の輝度値の差(0〜255)の中
央値が一般的には30以上である時にシーン変化を決定してもよい。この値は用
途に関して変化してもよいが、試行錯誤により、この値は大部分のシーン変化を
決定するのに適切であるとしている。 シーン変化を決定する二次基準は、モーションベクトルの領域が多すぎる時で
ある可能性があり、画像上にランダムノイズのようなものが現れ、それがシーン
変化に帰因する可能性がある。画像に非常に大きなモーション量がある場合、こ
れが生じる場合がある。 シーン変化を検出する第3の技術は、各画像の上部の数ラインを解析し、シー
ン変化を検出することである。各画像の上部は変化が最も少ない。 また、大半のモーションベクトルブロックが大きな誤差値を有する場合、2つ
の画像間の差があまりに大きいので、シーン変化とみなされる。 シーン変化およびフィールド遅延 好ましい実施例では、シーンで検出される横方向モーションがある場合、追跡
する目に対しての画像はモーションの速度に反比例する時間量だけ遅延される。
右から左に移動する画像の場合、追跡する目は左目であり、左から右に移動する
場合、追跡する目は右目である。 追跡する目に対する画像シーケンス遅延(あるいはフィールド遅延)は、ビデ
オフィールドをメモリにデジタル形式で記憶することによって、一時的に遅延さ
せて形成してもよい。現在のビデオフィールドは先に動いている目に対して示さ
れ、追跡する目に対する遅延した像は、横方向モーションの速度に応じて記憶さ
れたビデオフィールドから選択される。 表示される多数のフィールドにわたって、追跡する目に対するモーションの変
化およびフィールド遅延の変化に関する履歴を保持できる。これによって、画像
プロセッサが任意のモーション傾向を予測し、それに応じて突然の変化が全くな
いように遅延を修正するよう反応することができるようになり立体効果を滑らか
にすることができる。 シーン変化が検出された場合は、本発明の好ましい実施例に対するフィールド
遅延は、ゼロに設定され、画像をばらばらに分割することを防止し、フィールド
遅延履歴もリセットされる。フィールド遅延履歴は好ましくは各シーン変化でリ
セットされる。 b)シンプルパン シンプルパンは、一連の画像にわたる横方向モーション傾向を示し、それによ
って解析モーションの大部分は一方向になる。これは、シーンの大部分に一貫し
たモーションがあり、前景で静止画像が全く検出されない場合をカバーすること
が好ましい。 シンプルパンは非ゼロモーションベクトルを有する主要物体として検出され得
る。 シンプルパンの結果は、シーンが右に移動する(あるいは左にパンする)場合
、正のモーションベクトルが発生されるということである。この場合、右目に対
する画像が遅延される。同様に、シーンが左に移動する(あるいは右にパンにす
る)場合、負のモーションベクトルが生成される。この場合、左目の像が遅延さ
れる。 c)コンプレックスパン コンプレックスパンは、画像において著しい垂直モーションがあるという点で
シンプルパンと異なる。したがって、好ましい実施例では、立体画像対シーケン
ス間の垂直差異を最少にするために、フィールド遅延は応用されず、物体処理だ
けが立体効果を生じるために使用される。フィールド遅延履歴は新しい横方向モ
ーションに対して連続性を保持するために使用される。 d)静止後景にわたる移動物体 静止後景にわたる移動物体は単にこの状況にあり、それによってシーンの大部
分は全くモーションを有さず、中間サイズの1つあるいはそれ以上の移動物体が
シーンの中にある。この状況は、物体の大部分が右に移動する場合、正のモーシ
ョンベクトル、物体の大部分が左に移動する場合、負のモーションベクトルを生
じる。正のモーションベクトルは右目に遅延を生じさせ、負のモーションベクト
ルは左目に遅延を生じさせる。 シーンの物体のモーションベクトルが一貫していない、例えば、物体が同じシ
ーンの左右に移動する場合、逆モーションが存在するので、逆3D補正技術を応
用してもよい。 e)移動後景にわたる前景物体 移動後景にわたる前景物体は、シーンの大部分にモーションがあり、異なるモ
ーションを有する物体がシーンの中にあり、例えばカメラが歩いている人を追跡
する状態のことをいう。後景物体は、主物体に対してゼロモーションベクトルあ
るいは逆モーションベクトルを有する中間サイズの物体の背後にある、非ゼロモ
ーションベクトルの主要物体(すなわち、パニング後景)として検出される。あ
るいは、全体のフィールドにわたって広がる非ゼロベクトルの小さな物体の前に
ある、ゼロベクトルの主要物体として検出される(すなわち、フィールドの大部
分を満たす大きな静止物体、パンはその背後でなお依然として目で見ることがで
きる)。 モーション視差の生成において前景物体を優先権させるべきであるかどうか、
あるいは後景を優先させるべきであるかどうかについて決定すべきである。後景
が奥行の大きな変動(例えば、木)を含むならば、モーションベクトルは、あた
かもシンプルパンが生じているかのように割り当てられる。後景が奥行の小さい
変動(例えば、壁)を含むならば、逆平行あるいは負であるモーションベクトル
が割り当てられる。 後景が奥行の大きな変動を含み、モーションベクトルがシンプルパン方法に従
ってシーンに割り当てられた場合、前景物体は逆3Dにあり、適当な補正方法を
利用すべきである。 f)モーション無し モーションベクトルが完全にゼロである場合、あるいは、最大移動物体が非常
に小さいと考えられる場合などのようにモーションが全く検出されない場合は、
フィールド遅延はゼロに設定される。ランダムモーションベクトルあるいはノイ
ズモーションベクトルだけが決定されるか、あるいはモーション情報が全く利用
できない場合にこのような状況が生じる。例えば、青い空を横切ってパンする場
合などである。 モジュール3−3D生成 一旦、一連の画像が解析されると、その後、画像は立体画像対を生じるために
処理される。 実世界シーンを見る場合、両眼はわずかに異なる画像を見る。これは網膜差異
と呼ばれる。次に、これは立体視あるいは奥行認識を生じる。換言すれば、我々
は、各目に同じシーンのわずかに異なる画像を見させることによって立体的に見
る。 一方、視差は、網膜差異として見る人によって認識される画像間の水平あるい
は横方向シフトの量として定義される。立体画像対が作成される場合、三次元シ
ーンは2つの水平方向にシフトした視点から観察される。 本発明は、多数の画像および物体処理技術を使用し、一連のモノスコープ画像
から立体画像対を生成する。これらの技術は下記のとおりである。 1)モーション視差 2)強制視差(横方向シフト) 3)視差ゾーン 4)Y軸の周りの画像回転 5)物体処理 1)モーション視差 あるシーンが右から左に移動する場合、右目はシーンを最初に観察するのに対
して、左目は遅延像を受け取り、反対方向に移動するシーンに対してはその逆で
ある。モーションが速ければ速いほど、両眼に対する画像の間の遅延は少なくな
る。これは、モーション視差として知られ、主要な奥行キューである。したがっ
て、あるシーンの横方向モーションがある場合、目に対する画像の間に遅延を生
じさせることによって、立体効果が認識される。 a)フィールド遅延計算 一旦像のモーションの特性が解析され、全モーションベクトルが決定されると
、そのとき、必要とされるフィールド遅延が計算される。好ましくは、計算され
たフィールド遅延は前の遅延で平均化され、‘雑音’値をフィルタリング出力し
、さらにフィールド遅延があまり迅速に変わることを防止する。 前述のように、モーションが速ければ速いほど、益々各目の像の間の遅延は少
なくなる。したがって、フィールド遅延のより小さい値が大きなモーションベク
トルを有するシーンで使用されるのに対して、より大きな遅延は小さい横方向モ
ーションを有するシーンで使用される。すなわち、逆の関係は、好ましい実施例
では、モーションの遅延とモーションの量との間に存在する。 シーン変化が決定される場合、その前においてモーションが全く生じなかった
ようにフィールド遅延の履歴はゼロにリセットされるべきである。非ゼロフィー
ルド遅延が計算されるモーションの最初の検出において、フィールド遅延の履歴
がまだゼロの場合、フィールド遅延の全履歴はその算出されたフィールド遅延に
セットされる。これによって、システムは、モーションが検出される場合に正し
いフィールド遅延を直ちに表示することができる。 b)フィールド遅延インプリメンテーション モーション視差は、一連のデジタル化画像をメモリに記憶することによってハ
ードウェアおよびソフトウェアに生成することができる。好ましくは、一連のデ
ジタル化画像は、バッファに記憶され、単一のポインタが、一つが左目像および
もう一つが右目像のための2つの出力ポインタとを有することが好ましい。先に
進む目に対する画像メモリポインタは、現入力画像メモリポインタにあるいは現
入力画像メモリポインタ近くに保持されるのに対して、遅延された目に対する画
像メモリポインタは、遅延出力を生じるようにバッファにセットされる。画像は
多数記憶でき、8〜10個までのビデオフィールドが、ビデオ用途では一般的で
ある。遅延は画像で解析されたモーションの速度で決まる。最大フィールド遅延
は、モーションが最小の場合である。 2)強制視差(横方向シフト) 強制視差は、 i) 画像の正確なコピーとそれ自体の間 ii) ビデオフレームの2つのフィールド間 iii)フィルムシーケンスの2つのフレーム間 iv) 画像の変換コピーとそのオリジナルとの間 に横方向シフトを導入することによって生じさせることができる。 負の横方向シフトは、左像を右におよび右像を左に同じ量だけ変位させること
によって生成され(スクリーン平面から始まり、それの前に移りながらフィール
ドの奥行を生じさせる)、正の横方向シフトは、左像を左におよび右像を右に同
じ量だけ変位させることによって発生される(スクリーン平面から始まり、それ
の背後に後退するフィールドの奥行を生じさせる)。 強制視差は、パンの前の静止物体に対する立体効果を高めるために減少される
ことができ、その場合物体がスクリーン平面により接近して‘置かれ’、定義さ
れた物体平面から後景が‘押し出される’。 3)視差ゾーン 大部分のシーンは上部の後景および下部の前景とともに観察されるために、強
制視差を‘変える”ことによってシーンの奥行を強めることができる。これは、
画像の上部を画像の下部以上に横方向に移動させることによって行われるので、
シーンで観察された前後の奥行を強める。 他の技術は、画像の異なる部分にモーション視差および強制視差の組み合わせ
を使用することである。例えば、画像を垂直方向に半分に分割し、異なる視差シ
フトを各側面に加える。これによって、移動する列車から前方向に線路を見るよ
うなシーンは正しい立体効果を有する。そのような場合でなければ、逆3Dにお
いて常に、一つの側面が現れる。 4)Y軸の周りの画像回転 物体が実世界シーンで見る人の方に移動する場合、物体は各目に対する視野で
わずかに回転される。回転効果は物体がより接近して移動するときにより顕著で
ある。この回転を立体画像対に変換することは以下のように効果を規定する。 i) 見る人の方への移動−左像は、反時計回りの方向にその中心軸について
垂直方向に回転され、右像は、時計回りの方向に回転される。 ii)見る人から離れる移動−左像は、時計回りの方向にその中心軸について
垂直方向に回転され、右像は、反時計回りの方向に回転される。 したがって、画像回転によって、画像の物体の遠近は奥行が認識されるように
わずかに変えられる。この技術は所定のシーンに対して強制視差と結合される場
合、結合効果は非常に強力な立体の奥行キューをもたらす。 5)物体処理 物体処理は、これらの項目を独立して処理できるように物体および後景を分離
することによって、特に一連の静止画像の立体効果をさらに高めるように実行さ
れる。物体がサイズが大きく、数が少なく、フィールドの奥行中に別個の奥行レ
ベルを占有する場合に物体処理は最も有効である。 物体をその後景からデジタル的に‘カットアウト’して、立体効果を高めるた
めの適切な処置を施すことができるような傾向を確立するために、物体タグ付け
および物体トラッキング用のデータベースが使用できる。一旦処理が行われると
、物体は同じ位置に再び後景に‘ペーストされ’、戻される。これは‘カット・
アンド・ペースト’技術と呼ぶことができ、変換処理で有用である。 物体のタグ付け、トラッキング、カット・アンド・ペーストの処理を統合する
ことによって、物体処理および後景処理を可能にする強力なツールとなる。 他の物体処理技術は各移動物体に対する独自の奥行モジュールを規定する物体
階層化である。物体がその位置になかった場合、後景フィルディテールが定義さ
れているために、画像上のいずれの場所においても物体を配置することができる
。これは、後景フィルインが補間されなければ、通常静止物体に対しては実現で
きない。 立体変換の最も重要な問題は、見る人に不快感を生じさせる逆3Dおよび調整
/集中性のアンバランスの補正である。好ましい実施例における物体処理によれ
ば、この問題に関する修正も可能である。 a)メッシュ歪みおよびモーフィング−この物体処理技術によって、物体は、
歪んだメッシュ上にカット・アンド・ペーストでき、奥行認識を高める。左目像
の物体を右に、および右目像の同一物体を左に歪めて、物体視差を生じることに
よって、立体ディスプレイ装置を使用する場合、見る人に非常に接近して見える
ように物体を形成できる。 b)物体バレリング−この技術はメッシュ歪みの特定の形式であり、物体を画
像からカットし、垂直に配置された半分のバレル上に巻き付ける技術のことをい
う。これは、物体の中心部を物体エッジよりも接近して見えるようにすることに
よって物体が奥行を有するように見えるようにする。 c)物体エッジ強調−物体のエッジを強調することによって、画像の後景ある
いは他の物体との間に大きな差異を生じさせる。立体効果はこの技術によって多
数の用途で強調される。 d)物体輝度強調−いかなる画像においても、目は常に最大物体および最大輝
度物体に引き付けられる。物体の輝度を修正することによって、物体は後景以上
に強調でき、立体効果を高める。 e)Y軸の周りの物体回転−物体だけに回転が生じることを除いて、Y軸の周
りの物体回転とは、Y軸の周りの画像回転の処理と同様な処理のことをいう。立
体画像対の物体がその後景から‘カット’され、わずかに回転される場合、回転
によって発生された遠近の変化は奥行として認識される。 3D最適化 1)基準点あるいは境界 一連の立体画像を表示するために通常のTVあるいはビデオモニタを使用する
場合、目は、モニタあるいはスクリーンのエッジを連続的に見ており、これは全
ての奥行認識に対する基準点あるいは固定点として認識される。すなわち、全て
の物体はこの基準点の後方あるいはこの基準点の前方の奥行において認識される
。 モニタのエッジが不十分な周辺照明のためあるいはその暗い色のために容易に
確認されない場合、この基準点が失われ、目は3D領域の固定点を連続的に探索
することになる。長期の立体観察の下では、これは目の疲労および奥行認識の減
少を生じる可能性がある。前面あるいは背面映写スクリーンディスプレイシステ
ムも同じ問題を有する。 したがって、本発明は、視野画像内の共通境界あるいは基準点を規定すること
が好ましい。理想的には、基準平面はスクリーンレベルに設定され、全ての奥行
はこのレベル後方で認識される。これは多くのシーンにおいて立体効果を高める
長所を有する。 この基準点は簡単なビデオ境界あるいは基準グラフィックであってもよいし、
例えば、以下の形式のものであってもよい。 i) 画像の周界の周りの単一色ビデオ境界。 ii) 同心境界間に不透明部あるいは透明部を有する場合がある、2以上の
同心境界からなる複合色ビデオ境界。例えば、2〜3cm幅のメッシュ境界ある
いは、2つの薄い内部境界を有する幅広い外部境界。 iii)任意の1エッジ、あるいは任意の2つの水平エッジあるいは垂直エッ
ジを占有する部分境界。 iv) 画像内のある点に位置するロゴ(LOGO)あるいは他のグラフィッ
ク。 v) 画像内の画像。 vi) 上記のいずれかの組み合わせ。 この実施例においてきわめて重要であることは、見る人の目に画像における物
体の奥行が認識できる基準点が提供されるということである。 境界あるいはグラフィックが3D生成レベルで加えられる場合、それは、互い
に横方向にシフトされる左右の境界を作ることによって特定の奥行で基準点を提
供するように特定されてもよい。これによって、基準点あるいは固定点は、スク
リーンレベルの後方あるいは前方のいずれかの点において空間でシフトできる。
左右の目に対して全く視差を有せずに定義された境界あるいはグラフィックはス
クリーンレベルで認識される。これは本発明の好ましい態様である。 画像境界あるいは基準グラフィックは3D生成点で挿入されてもよいし、ある
いは外部で規定され、ディスプレイのための立体画像出力上にゼンロック(ge
nlock)されてもよい。このような画像境界あるいは基準グラフィックは、
黒、白あるいは着色、無地あるいはパターン化、または、画像後景に対して不透
明、半透明あるいは透明であってもよいし、静的あるいは動的であってもよい。
ほとんどの場合、静的境界は妥当であるが、ある状況においては、移動境界ある
いは動的境界はモーション強調のために使用される。 2)視差調整−奥行感度制御 立体ディスプレイ装置によって見られる一連の立体画像は、画像あるいは物体に
適用された視差の種類および量を修正することによって増減できる奥行範囲(奥
行の鋭さと呼ばれる)を自動的に定義する。見る人によって、立体画像対により
定義された奥行範囲あるいは立体視の量に基づいていろいろな立体観察の快適さ
レベルを有することが分かった。すなわち、より大きい奥行範囲を有する顕著な
立体効果を好む人がいる一方、最少奥行を有する画像を好む人もいる。 奥行の感度および見る際の快適度レベルを調整するために、多くの技術が使用
さる。すなわち、 i) フィールド遅延を変えることによってモーション視差の量を変えるこ
と ii) 画像に対する強制視差の量を変えること iii)物体に適用された視差の量を変えること である。 視差の最大レベルを減少させることによって、奥行範囲を減らすことができ、
立体視に対してより高感度の認識機能をもった人の、見る際の快適度を改善する
。 3)視差平滑化 視差平滑化は、連続関数として視差(モーション視差+強制視差)の全量を保
持するプロセスである。特定のモーションの種類に対するフィールド遅延におけ
る変化、すなわち、シンプルパンおよび前景物体モーションは、生成されたモー
ション視差の量に不連続性を生じるが、これは見る人には一連の立体画像の“ジ
ャンプ”として確認される。先に進む目には遅延していない像が示されるので、
追跡する目のために生成された画像にのみ不連続性が生じる。これらの不連続性
は、等しく反対の方向に、強制視差あるいは物体視差を追跡する目のために調整
することによって補うことが可能であり、それによって連続性のあるトータルな
視差を維持できる。 強制視差あるいは物体視差は、滑らかに調整され、フィールド遅延における次
の変化に対応できるように通常の値まで戻される。強制視差あるいは視差平滑化
に行われる調整は、フィールド遅延変化、モーションの種類およびモーションベ
クトルの関数である。視差平滑化を行うために、左右目の画像に対する強制視差
は独立して設定されるべきである。 4)視差変調 立体効果を生じるための強制視差技術は、見る人によって検出された立体視の
量を加減するためにも使用できる。これは、物体あるいは画像について認識され
た奥行が徐々に変わるように、短時間における最小および最大の限界の間に強制
視差設定を変えることによって行われる。理想的には、強制視差は、0.5〜1
秒毎にその最小および最大設定の間で変調される。これによって、見る人はその
立体感度のレベルに調整できる。 5)モーション合成 検出不可能小さな増加量で後景をランダムに移動させることによって擬似モ
ーションを生じさせることにより、前景物体の認識された奥行が強調される。前
景物体は後景から‘カット’され、後景は下記の技術の中の1つによって疑似ラ
ンダムに変更され、それから前景物体は、表示する準備ができた後景上に‘ペー
スト’され、戻される。下記の技術のいずれかが使用されてもよい。 i) 擬似ランダムベースで変えられる輝度値 ii) 擬似ランダムベースで変えられるクロミナンス値 iii)モーションを生じさせるために擬似ランダムノイズを後景に加え
ること 6)逆3D解析および補正 視差によって生じた物体の奥行順序が実世界の奥行順序に対応するものとは異
なっていると認識されるときに逆3Dが生じる。これは、一般に見る人に不快感
をもたらし、補正されるべきである。一連のモノスコープ画像を立体画像対に変
換する場合、逆3Dは下記によって生成され得る。 i) 逆モーション、同じ画像上で左右に移動する物体 ii) 異なる方向に移動する物体および後景 iii)いろいろな速度で移動する多数の物体 逆3Dは、画像における物体のモーションの特性が解析され、それから物
体視差が予想視覚認識基準と一致するようにメッシュ歪み技術を使用して各物体
を個別に操作することによって補正される。 7)その他の技術 画像内の物体の遠近を修正し、たくさんの小さな奥行キューを強調することに
よって、立体効果を強調できる。以下の技術全ては、‘カット・アンド・ペース
ト’技術を使用して行う。すなわち、前景物体は‘カット’され、強調され、後
景上に‘ペースト’され、戻される。 a)シャドウ−シェーディングは物体の遠近を示している。 b)前景/後景−−ブラリングあるいはフォギイングによって後景の焦点
をぼかすことによって、前景物体を強調でき、前景物体の焦点をぼかしながら、
後景の奥行を強調できる。 c)エッジ強調−エッジは物体をその後景から識別するのに役立つ。 d)テクスチュアマッピング−物体を後景から識別するのに役立つ。 モジュール4−3Dメディア(伝送&記憶) モジュール1に関しては、モジュール4およびモジュール5は本発明にとって
不可欠でない。モジュール4は立体画像の伝送および/または記憶のために提供
する。伝送手段は特定の用途に適合させることができる。例えば、下記を使用で
きる。 1)ローカル伝送−同軸ケーブルを介してできる。 2)ネットワークTV伝送−下記を介してできる。 i) ケーブル ii) 衛星 iii)地上放送 3)デジタルネットワーク−インターネット等 4)立体(3D)画像記憶装置 画像記憶手段は後の伝送あるいは表示のための画像データを記憶するために
使用でき、下記を含んでもよい。 i) アナログ記憶装置−ビデオテープ、フィルム等 ii)デジタル記憶装置−レーザディスク、ハードディスク、CD−RO
M、磁気光学ディスク、DAT、デジタルビデオカセット(DVC)、DVD。
モジュール5−3Dディスプレイ 伝送手段に関しては、ディスプレイ手段は用途要件によって決めることができ
、下記を含んでもよい。 1)セットトップボックス 定義によれば、セットトップボックスは、受信し、復号化し、アクセサリイン
タフエースを備え、最後に用途に適合する出力を有する電子機器である小さいボ
ックスである。それは下記を組み込んでもよい。 a)ビデオあるいはRF受信機 b)頭部装着形装置別個の左右画像出力を供給する立体(3D)デコーダ
あるいは別個のビデオチャネルを必要とする他の立体ディスプレイ c)解像度向上−ラインダブリング/ピクセル補間 d)シャッタあるいは逐次眼鏡同期化(Sequential Glas
ses Synchronization) e)立体奥行感度制御回路 f)アクセサリインタフエース−2D/3Dスイッチおよび奥行制御装置
のような機能を有する遠隔制御装置 g)オーディオインタフエース−オーディオ出力、ヘッドホン接続 h)アクセスチャネル復号化−ケーブル・有料TV用途 i)ビデオあるいはRF出力 2)立体ディスプレイ 下記を含む別個の画像を左右の目に提供する特別の眼鏡あるいはヘッドギヤを
使用する。 a)偏光眼鏡−線形偏光子および円形偏光子 b)立体写真眼鏡−着色レンズ−赤/緑等 c)LCDシャッタ眼鏡 d)カラー逐次眼鏡 e)頭部装着形装置(HMD)−2つの小型ビデオモニタ(各目対して1
つ)を取り付けられたヘッドギヤ、VRヘッドホン 3)自動立体ディスプレイ a)ビデオプロジェクタ/逆反射スクリーン式ディスプレイシステム b)容積測定ディスプレイシステム c)レンチキュラーレンズ式ディスプレイシステム(Lenticula
r lensbased display system) d)ホログラフィー光学素子(HOE)式ディスプレイシステム 好ましい実施例 要約すると、本発明は、好ましい実施例において、デジタル形式あるいはアナ
ログ形式でモノスコープ画像シーケンスを入力でき、その場合、アナログ/デジ
タル変換が含まれるシステムを提供する。したがって、この画像データは画像解
析の方法に委ねられ、それによって一連のモノスコープ画像は、これが特定の用
途のために必要とされる場合、圧縮される。 画像のピクセルのブロックと隣接画像の対応するブロックとを比較し、各ブロ
ックに対する最小平均自乗誤差を得ることによって、画像内のモーションを決定
できる。 モーション検出に続いて、画像の領域が、類似の特性、例えば画像輝度、色彩
、モーション、パターンおよびエッジ連続性によって識別される。このデータは
モーション解析が行われ、画像内のモーションの特性を決定する。このモーショ
ン解析は、画像の任意のモーションの方向、速度、種類、奥行および位置を決定
する形をとる。その後、このモーションは、モーションが全シーン変化、シンプ
ルパン、コンプレックスパン、静止後景上を移動する物体、移動後景の前の静止
物体であるかどうか、あるいは全くモーションがないかどうかを含む多数のカテ
ゴリーに分類される。さらなる動作は、これらのカテゴリーに基づいて決定され
、適切な立体ディスプレイ装置で見るのに適している立体画像対に一連のモノス
コープ画像を変換する。 好ましい実施例では、一旦一連のモノスコープ画像が解析されると、シーン変
化あるいはコンプレックスパンが検出されるならば、この特定のシーンの他の解
析が全く必要とされず、むしろフィールド遅延およびフィールド遅延履歴の両方
がゼロにリセットされる。それから、物体検出処理は、新しいシーンに利用され
、このシーン内の物体を試行し識別する。一旦これらの物体が識別されると、そ
のとき物体処理が行われる。物体が全く識別されない場合、この画像は、強制視
差および3D最適化を使用してさらに処理を行うために渡される。 画像解析中に分類されたモーションがシーン変化でない場合、このシーンにつ
いての他の解析が必要される。このシーンの他の解析がシンプルパンとして分類
されているモーションに帰着する場合、モーション視差の原理に従ってフィール
ド遅延を用いる必要がある。そうして、さらなる処理に進む。モーションがシン
プルパンとして分類されなくて、むしろ静止後景上のモーション中の物体として
分類される場合、再度、モーション視差の原理に従ってフィールド遅延を用いな
ければならない。この点では、一旦モーション視差が用いられると、物体全てが
均一の方向を有するかどうかを考察する必要がある。物体が均一の方向に移動す
る場合、物体は後の工程でさらに処理されるために渡される。物体が均一の方向
を有しない場合、このシーン内の選択画像に対しさらに物体処理を実行し、逆3
D効果を補正する必要がある。これは、メッシュ歪み技術およびモーフィング技
術を使用することによって行うことができる。 モーションが移動後景上の静止物体であると分類される場合、後景が奥行に大
きな変化を有するかどうかを考察する必要がある。後景が奥行に大きな変化を有
していない場合、モーション視差の原理を使用して優先順位を有する物体に対し
てフィールド遅延を用いる。しかしながら、後景が奥行に大きな変化を有してい
る場合、再度モーション視差の原理を使用して、物体に対立して優先順位を有す
る後景に対してフィールド遅延を用いる。この場合、前景物体に対し他の物体処
理を実行し、さらなる処理に進む前に逆3D効果を補正することも必要である。
モーションが全然検出されない場合、次に、このシーンにおける物体が前のモ
ーションから知られていたかどうかを考察する。そうである場合、この選択物体
に対し物体処理を実行する。そうでない場合、その特定のシーンにおける任意の
物体を識別しようと試みるために特定のシーンに物体検出処理を適用する。物体
が識別される場合、この特定の物体の物体処理を実行し、識別されない場合、強
制視差および3D最適化が実行される。 物体処理が必要とされる場合、物体は、識別され、タグを付けられ、追跡され
、それから、メッシュ歪みおよびモーフィング、物体バレリング、エッジ強調、
輝度修正および物体回転の技術を使用することによって処理される。 全ての場合、一旦モーションが分類され、一連の立体画像に変換する主要技術
が用いられると、さらなる視差量あるいは強制視差と呼ばれる横方向シフトが画
像に適用される。好ましい実施例では、強制視差は、単に奥行平滑化目的のため
でなく、全ての画像が、通常、モニタスクリーンの前面である立体ディスプレイ
装置の基準平面の前あるいは後において、奥行を有するものとして確認されると
いう基本的な立体効果を提供するためにあらゆる画像に用いられることに注目す
べきである。強制視差を用いる長所は、見る人の奥行の認識に急な変化を生じさ
せないで、検出されるモーションのカテゴリーにおける変化に、システムがより
よく対応できることである。 一旦強制視差が画像に用いられると、そのとき、画像は3D最適化のために伝
達される。また、これは立体画像を見るためには必要ないが、一方、最適化は見
る人による画像の奥行認識を高める。3D最適化は、基準点あるいは境界の付加
、視差調整、視差平滑化および特定の見る人の奥行感度を変えるための視差調整
を含む多くの形式で利用できる。画像は、輝度値あるいはクロミナンス値を擬似
ランダムに修正することによっても最適化できるので、前景物体の後方の背景モ
ーションは、奥行認識が高められるように見ることができる。見る人の眼精疲労
が最少になるように逆3Dのための解析も可能である。画像のシャドウイング、
前景および後景のフォギイングあるいはブラリングならびにエッジ強調のような
他の技術はこの工程でも実行できる。 一旦画像が最適化されると、そのとき画像は適切なディスプレイ装置に伝送さ
れる。この伝送は、ケーブル、同軸、衛星を含む多数の形式、あるいは一方の点
から他方の点に伝送する任意の他の形式をとることができる。画像はディスプレ
イ装置に送られるよりも前に記憶することも可能である。ディスプレイ装置は、
多くの形式を取り入れることができ、必要なのは手元のアプリケーションに適す
るものであるということだけである。例えば、左右の画像を分離し、走査速度を
増加させ、観察眼鏡(viewing glasses)を同期化するために既
存のビデオモニタをセットトップ装置とともに使用できる。一方、眼鏡あるいは
ヘッドギヤの使用とともに、一連の立体画像を提供する専用立体ディスプレイを
使用することができ、あるいは、自動立体ディスプレイ装置も使用できる。本発
明は、劇場、映画館、ビデオアーケード、ケーブルあるいはネットワークTVに
おいて、教育分野、特に、マルチメディア産業において、およびテーマパークお
よび他の娯楽用途のような多数の他の分野において用途があることが予想される
。 本発明は、変換方法および統合システムの好ましい実施例についての上記の記
載および添付図面に示された記載により、さらに理解することができる。しかし
、本発明は記載された実施例に限定されないことを認識すべきである。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】図面の簡単な説明
【補正方法】変更
【補正内容】
【図面の簡単な説明】
【図1】本発明を使用する全システムのモジュールへの分解を示している。
【図2】本発明を使用する全システムと複数のプロセッサとの可能な併用を示し
ている。
【図3】モジュール1(ビデオデジタル化)およびモジュール2(画像解析)の
第1の部分の流れ図を示している。
【図4】モジュール2の第2の部分の流れ図を示している。
【図5】モジュール2の第3の部分の流れ図を示している。
【図6】モジュール2の第4の部分の流れ図を示している。
【図7】モジュール3(3D生成)の第1の部分の流れ図を示している。
【図8】モジュール3およびモジュール4(3Dメディア−伝送&記憶)および
モジュール5(3Dディスプレイ)の第2の部分の流れ図を示している。
【手続補正3】
【補正対象書類名】図面
【補正対象項目名】全図
【補正方法】変更
【補正内容】
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成12年3月2日(2000.3.2)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IS,JP,KE,KG,KP, KR,KZ,LC,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,SL,TJ,TM,TR,TT,UA,UG,U S,UZ,VN,YU,ZW

Claims (79)

    【特許請求の範囲】
  1. 【請求項1】 三次元で見るためにモノスコープ画像を変換する画像変換システムであって、 一連のモノスコープ画像を受信するように構成された入力手段と、 前記一連のモノスコープ画像シーケンスの第1の画像と第2の画像との間にい
    くらかの連続性があるかどうかを決定する予備解析手段と、 連続性がある一連のモノスコープ画像を受信して解析し、モーションの速度お
    よび方向、あるいは物体の奥行、サイズおよび位置の少なくとも1つを決定する
    二次解析手段と、 前記予備解析手段および/または前記二次解析手段から受信されるデータに基
    づいて、前記一連のモノスコープ画像を処理する第1の処理手段と、を含むこと を特徴とする画像変換システム。
  2. 【請求項2】 処理された一連の画像を立体ディスプレイシステムあるいは記憶装置に転送で
    きる伝送手段をさらに含むことを特徴とする請求項1に記載の画像変換システム
  3. 【請求項3】 前記第1の処理手段が、モーション視差、強制視差、視差ゾーン、画像回転あ
    るいは物体処理の少なくとも1つを使用することによって前記一連の画像を処理
    することを特徴とする請求項1あるいは請求項2に記載の画像変換システム。
  4. 【請求項4】 第2の処理手段が前記第1の処理手段から受信された前記一連の画像を処理す
    るために備えられることを特徴とする前述の請求項のいずれかに記載の画像変換
    システム。
  5. 【請求項5】 前記第2の処理手段が前記画像をさらに処理するために強制視差を使用するこ
    とを特徴とする請求項4に記載の画像変換システム。
  6. 【請求項6】 第3の処理手段が変換された一連の画像を前記立体ディスプレイ装置に伝送す
    るよりも前に当該画像の画質を任意に高めるために備えられていることを特徴と
    する請求項1〜5のいずれかに記載の画像変換システム。
  7. 【請求項7】 前記第3の処理手段が、基準点、視差調整、視差平滑化、視差調節、モーショ
    ン合成、逆3D補正あるいはカット・アンド・ペーストの技術の少なくとも1つ
    を使用することによって前記一連の画像の画質を高めることを特徴とする請求項
    6に記載の画像変換システム。
  8. 【請求項8】 一連のモノスコープ画像を処理して立体画像対にする方法であって、 前記一連のモノスコープ画像を解析して、画像内のモーションの特性を決定す
    るステップと、 任意の検出モーションと所定の範囲のモーションカテゴリーとを比較するステ
    ップと、 前記モーションカテゴリーに応じて少なくとも一つの処理方法を使用して前記
    一連のモノスコープ画像を処理し立体画像対を形成するステップと、を含むこと
    を特徴とするモノスコープ画像を処理して立体画像対にする方法。
  9. 【請求項9】 前記処理方法が、モーション視差、強制視差、視差ゾーン、画像回転および/
    または物体処理を含むことを特徴とする請求項8に記載の方法。
  10. 【請求項10】 前記モーションカテゴリーが、シーン変化、シンプルパン、コンプレックスパ
    ン、移動物体、移動後景およびモーション無しを含むことを特徴とする請求項8
    あるいは請求項9に記載の方法。
  11. 【請求項11】 前記モノスコープ画像が任意の解析よりも前に圧縮されることを特徴とする請
    求項8〜10のいずれかに記載の方法。
  12. 【請求項12】 前記モノスコープ画像が任意の解析よりも前に拡大縮小されることを特徴とす
    る請求項8〜11のいずれかに記載の方法。
  13. 【請求項13】 前記拡大縮小率が各画像のデジタルビデオ解像度によって決まることを特徴と
    する請求項12に記載の方法。
  14. 【請求項14】 三次元で見るために一連のモノスコープ画像を変換する方法であって、 モノスコープ画像を受信するように構成された第1のレイヤと、 前記モノスコープ画像を受信して、画像データを作成するために解析するよう
    に構成された第2のレイヤと、 画像データの関数として選択された少なくとも一つの所定の技術を使用して立
    体画像対を前記モノスコープ画像から作成するように構成された第3のレイヤと
    、 前記立体画像対を立体ディスプレイ手段に転送するように構成された第4のレ
    イヤと、 立体ディスプレイ手段からなる第5のレイヤとを含むことを特徴とする方法。
  15. 【請求項15】 前記第1のレイヤが任意のアナログ画像をデジタル画像に変換するように構成
    された請求項14に記載の方法。
  16. 【請求項16】 前記第2のレイヤがシーンの任意の画像を検出し、かつ任意のこのような物体
    のモーションの前記速度および方向に関する決定を行うように構成されたことを
    特徴とする請求項14あるいは15に記載の方法。
  17. 【請求項17】 前記画像が任意の解析よりも前に圧縮されることを特徴とする請求項14〜1
    6のいずれかに記載の方法。
  18. 【請求項18】 前記第3のレイヤが、前記立体画像対を前記立体ディスプレイ手段に伝送する
    よりも前に前記立体画像対の画質をさらに高める最適化工程をさらに含むことを
    特徴とする請求項14〜17のいずれかに記載の方法。
  19. 【請求項19】 前記第4のレイヤが、後の時間に前記立体ディスプレイ手段に表示するための
    前記立体画像対を記憶する記憶手段も含むことを特徴とする請求項14〜18の
    いずれかに記載の方法。
  20. 【請求項20】 立体システムであって、 一連のモノスコープ画像を受信できる入力手段と、 前記一連の画像を解析して、画像カテゴリーを決定する解析手段と、 立体的に見るために、選択した画像カテゴリーの関数として前記一連のモノス
    コープ画像を立体画像対に変換できる変換手段とを含むことを特徴とする立体シ
    ステム。
  21. 【請求項21】 前記入力手段が前記一連のモノスコープ画像を取込し、かつデジタル化する手
    段を含むことを特徴とする請求項20に記載のシステム。
  22. 【請求項22】 前記画像解析手段が、画像内の物体および前記後景のモーションの速度および
    方向を決定できることを特徴とする請求項20あるいは21に記載のシステム。
  23. 【請求項23】 前記画像解析手段が、画像内の物体および前記後景の前記奥行、サイズおよび
    位置を決定できることを特徴とする請求項20〜22のいずれかに記載のシステ
    ム。
  24. 【請求項24】 前記立体画像を最適化し、前記立体効果をさらに改善する手段をさらに含むこ
    とを特徴とする請求項20〜23のいずれかに記載のシステム。
  25. 【請求項25】 見る人の基準点を前記画像に加えることによって立体画像対を改良する方法を
    さらに含むことを特徴とする請求項20〜24のいずれかに記載のシステム。
  26. 【請求項26】 一連のモノスコープ画像を解析して立体画像対に変換する方法であって、 各画像を複数の領域に拡大縮小するステップと、 前記第1の画像の各領域を第2の画像の対応し且つ隣接する領域と比較し、前
    記第1の画像と前記第2の画像との間のモーションの特性を決定するステップと
    を含むことを特徴とするモノスコープ画像を解析して立体画像対に変換する方法
  27. 【請求項27】 モーションベクトルが、検出されたモーションの特性とモーション無しから全
    シーン変化に及ぶ所定のモーションカテゴリーとの比較に基づいて各画像のため
    に規定されていることを特徴とする請求項26に記載の方法。
  28. 【請求項28】 見る人の基準点の装備を含むことを特徴とする立体ディスプレイシステム。
  29. 【請求項29】 三次元で見るために一連のモノスコープ画像を変換するシステムであって、 一連のモノスコープ画像を受信するように構成された入力手段と、 前記一連の画像の特徴を決定する第1の解析手段と、 前記第1の解析手段で決定された特徴に基づいて前記一連の画像を処理する第
    1の処理手段と、 処理された一連の画像を適当な記憶装置および/または立体ディスプレイシス
    テムに転送できる出力手段とを含むことを特徴とするシステム。
  30. 【請求項30】 前記入力手段がさらに前記モノスコープ画像をデジタル化するように構成され
    ていることを特徴とする請求項29に記載のシステム。
  31. 【請求項31】 前記第1の解析手段による解析よりも前に前記モノスコープ画像を圧縮するよ
    うに構成された圧縮手段をさらに含むことを特徴とする請求項29あるいは請求
    項30に記載のシステム。
  32. 【請求項32】 前記第1の解析手段による解析よりも前に前記モノスコープ画像を拡大縮小す
    るように構成された拡大縮小手段をさらに含むことを特徴とする請求項29〜3
    1のいずれかに記載のシステム。
  33. 【請求項33】 前記モノスコープ画像が拡大縮小される拡大縮小率が各画像のデジタルビデオ
    解像度によって決まることを特徴とする請求項32に記載のシステム。
  34. 【請求項34】 連続する第1および第2の画像間に連続性がいくらかあるかどうかを決定する
    予備解析手段をさらに含むことを特徴とする請求項29〜33のいずれかに記載
    のシステム。
  35. 【請求項35】 前記第1の解析手段が前記画像内の物体を決定できることを特徴とする請求項
    29〜34のいずれかに記載のシステム。
  36. 【請求項36】 前記第1の解析手段が前記画像のモーションおよび/または前記画像内の物体
    のモーションを決定できることを特徴とする請求項29〜35のいずれかに記載
    のシステム。
  37. 【請求項37】 前記第1の解析手段が前記モーションをモーションカテゴリーの所定の範囲の
    中の1つに分類できることを特徴とする請求項35あるいは請求項36に記載の
    システム。
  38. 【請求項38】 前記画像をさらに処理するための第2の処理手段をさらに含むことを特徴とす
    る請求項29〜37のいずれかに記載のシステム。
  39. 【請求項39】 前記第2の処理手段が前記画像をさらに処理するために強制視差を使用するこ
    とを特徴とする請求項38に記載のシステム。
  40. 【請求項40】 さらに、前記画像を前記立体ディスプレイおよび/または記憶装置に転送する
    よりも前に前記処理画像の画質を高める最適化手段をさらに含むことを特徴とす
    る請求項29〜39のいずれかに記載のシステム。
  41. 【請求項41】 さらに、前記モノスコープ画像に加えられた奥行のレベルを制御する手段をさ
    らに含むことを特徴とする請求項29〜40に記載のシステム。
  42. 【請求項42】 基準点を前記処理画像に加える手段をさらに含むことを特徴とする請求項29
    〜41のいずれかに記載のシステム。
  43. 【請求項43】 三次元で見るためにモノスコープ画像を変換する方法であって、 前記モノスコープ画像を受信するステップと、 前記モノスコープ画像を解析し、前記画像の特徴を決定するステップと、 前記決定画像特徴に基づいて前記モノスコープ画像を処理するステップと、 前記処理画像を適当な記憶装置および/または立体ディスプレイシステムに出
    力するステップとを含むことを特徴とするモノスコープ画像を変換し、三次元で
    見る方法。
  44. 【請求項44】 前記モノスコープ画像が、任意の解析あるいは処理が実行される前にデジタル
    化されることを特徴とする請求項43に記載の方法。
  45. 【請求項45】 前記モノスコープ画像が任意の解析よりも前に圧縮されることを特徴とする請
    求項43あるいは請求項44に記載の方法。
  46. 【請求項46】 前記モノスコープ画像が任意の解析よりも前に拡大縮小されることを特徴とす
    る請求項43〜45のいずれかに記載の方法。
  47. 【請求項47】 前記モノスコープ画像が拡大縮小される前記拡大縮小率が各画像の前記デジタ
    ルビデオ解像度によって決まることを特徴とする請求項46に記載の方法。
  48. 【請求項48】 連続する第1および第2の画像が前記画像特徴を決定する前に連続性に関して
    解析されることを特徴とする請求項43〜47のいずれかに記載の方法。
  49. 【請求項49】 連続性が、連続する第1および第2の画像間の中央輝度値を比較することによ
    って決定されることを特徴とする請求項48に記載の方法。
  50. 【請求項50】 中央輝度値の差が30を超える場合、連続性を全然とらないことを特徴とする
    請求項49に記載の方法。
  51. 【請求項51】 連続画像の上部2、3行が連続性の決定に役立つように比較されることを特徴
    とする請求項48〜50のいずれかに記載の方法。
  52. 【請求項52】 連続性が全然決定されない画像の処理が、連続性を欠く前記画像が見る人の一
    方の目で観察されるよりも前に他方の目で見られるように一方の目の視野遅延を
    導入することを含むことを特徴とする請求項43〜51のいずれかに記載の方法
  53. 【請求項53】 前記モノスコープ画像の解析中、前記画像内の物体が前記処理中に役立つよう
    に規定されることを特徴とする請求項43〜52のいずれかに記載の方法。
  54. 【請求項54】 前記モノスコープ画像の解析中、前記画像のモーションおよび/または前記画
    像内の物体が前記処理を支援するように決定されることを特徴とする請求項43
    〜52のいずれかに記載の方法。
  55. 【請求項55】 前記画像および/または物体のモーションが所定の範囲のモーションカテゴリ
    ーの1つに分類されることを特徴とする請求項54に記載の方法。
  56. 【請求項56】 前記モノスコープ画像を解析し、前記モーションを決定することが、 各画像を複数のブロックに分割するステップであって、隣接画像の対応するブ
    ロックが水平方向におよび/または垂直方向にずらされることと、 各前記ブロックと前記対応するブロックとを比較し、最小平均二乗誤差および
    それによる前記ブロックのモーションを見つけるステップとを含むことを特徴と
    する請求項43〜55のいずれかに記載の方法。
  57. 【請求項57】 全然ディテールを有しない任意の前記ブロックが前記対応するブロックと比較
    されないことを特徴とする請求項56に記載の方法。
  58. 【請求項58】 大半のブロックと前記対応するブロックとの比較が大きな誤差値を生じる場合
    、連続性を全然とらないことを特徴とする請求項48に添付された場合の請求項
    56に記載の方法。
  59. 【請求項59】 前記画像の処理が、見る人の一方の目が前記見る人の他方の目の前に前記画像
    を見るようにフィールド遅延を導入することによるモーション視差の使用を含む
    ことを特徴とする請求項43〜58のいずれかに記載の方法。
  60. 【請求項60】 前記モーションの量が前記フィールド遅延に反比例することを特徴とする請求
    項59に記載の方法。
  61. 【請求項61】 前記フィールド遅延が記憶され、各々の新しい画像に対する前記フィールド遅
    延が前のフィールド遅延に対して平均化されることを特徴とする請求項59ある
    いは請求項60に記載の方法。
  62. 【請求項62】 記憶されたフィールド遅延が、連続性が全然検出されない場合、削除されるこ
    とを特徴とする請求項61に記載の方法。
  63. 【請求項63】 前記画像の処理が前記左右の目の画像の変位による横方向のシフトを導入する
    ことによる強制視差の使用を含むことを特徴とする請求項43〜62のいずれか
    に記載の方法。
  64. 【請求項64】 前記画像の処理が前記画像の一部により大きい横方向のシフトを導入すること
    による視差ゾーンの使用を含むことを特徴とする請求項43〜63のいずれかに
    記載の方法。
  65. 【請求項65】 前記画像の処理が前記画像のいろいろな部分の強制視差およびモーション視差
    の結合を含むことを特徴とする請求項43〜64のいずれかに記載の方法。
  66. 【請求項66】 前記画像の処理が前記左右の目の画像を反対方向に等しい量y軸の周りに回転
    させることを含むことを特徴とする請求項43〜65のいずれかに記載の方法。
  67. 【請求項67】 前記画像の処理が、 メッシュ歪みおよびモーフィング 物体バレリング 物体エッジ強調 物体輝度強調 物体回転 の物体処理技術の少なくとも一つの使用を含むことを特徴とする請求項43〜6
    6のいずれかに記載の方法。
  68. 【請求項68】 前記処理画像が最終強制視差を前記処理画像に加えることによってさらに処理
    されることを特徴とする請求項43〜67のいずれかに記載の方法。
  69. 【請求項69】 強制視差の程度が、処理中に加えられた視差および強制視差の全部が隣接画像
    の全視差にほぼ等しいように、前記画像の処理中に加えられた視差の量によって
    決定されることを特徴とする請求項68に記載の方法。
  70. 【請求項70】 最終強制視差の程度が所定の時間フレームにわたる所定の最小および最大の設
    定間で調整されることを特徴とする請求項68あるいは請求項69に記載の方法
  71. 【請求項71】 前記処理画像が、前記画像を前記立体ディスプレイおよび/または記憶装置に
    転送するよりも前に前記処理画像の画質をさらに高めるように最適化されること
    を特徴とする請求項43〜70のいずれかに記載の方法。
  72. 【請求項72】 基準点が前記処理画像に加えられることを特徴とする請求項43〜71に記載
    の方法。
  73. 【請求項73】 前記基準点が、 前記画像の周囲の周りの境界、 複数の同心境界、 部分境界、 ロゴ、 画像、 の少なくとも1つであることを特徴とする請求項72に記載の方法。
  74. 【請求項74】 前記画像の処理中前記モノスコープ画像に加えられた奥行の量を見る人の好み
    に応じて調整できることを特徴とする請求項43〜73のいずれかに記載の方法
  75. 【請求項75】 前記画像の後景が前記見る人によって意識しても注目されない少ない増加量で
    ランダムに移動されることを特徴とする請求項43〜74のいずれかに記載の方
    法。
  76. 【請求項76】 前記画像が個別に処理される逆3Dおよび物体のためにテストされて任意の逆
    3Dに関して補正されることを特徴とする請求項43〜75のいずれかに記載の
    方法。
  77. 【請求項77】 カット・アンド・ペースト技術が前記立体効果をさらに強調するために使用さ
    れることを特徴とする請求項43〜76のいずれかに記載の方法。
  78. 【請求項78】 実質的に添付図面を参照して上記に開示されたような方法。
  79. 【請求項79】 実質的に添付図面を参照して上記に開示されたようなシステム。
JP2000509059A 1997-09-02 1998-09-02 画像処理方法および装置 Pending JP2001515287A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU8944 1993-05-24
AUPO8944A AUPO894497A0 (en) 1997-09-02 1997-09-02 Image processing method and apparatus
PCT/AU1998/000716 WO1999012127A1 (en) 1997-09-02 1998-09-02 Image processing method and apparatus

Publications (1)

Publication Number Publication Date
JP2001515287A true JP2001515287A (ja) 2001-09-18

Family

ID=3803230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000509059A Pending JP2001515287A (ja) 1997-09-02 1998-09-02 画像処理方法および装置

Country Status (8)

Country Link
US (2) US6496598B1 (ja)
EP (1) EP1019873A1 (ja)
JP (1) JP2001515287A (ja)
KR (2) KR20010023596A (ja)
CN (1) CN1278349A (ja)
AU (1) AUPO894497A0 (ja)
CA (1) CA2302199A1 (ja)
WO (1) WO1999012127A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093816A (ja) * 2008-10-09 2010-04-22 Samsung Electronics Co Ltd 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法
JP2016519905A (ja) * 2013-04-09 2016-07-07 ビッタニメイト インコーポレイテッド 2次元ビデオの3次元ビデオへの変換方法及びシステム
KR101648673B1 (ko) * 2015-06-26 2016-08-17 동서대학교산학협력단 360° vr 영상 콘텐츠제작을 위한 유손실 이미지 복원 및 컨버팅 방법

Families Citing this family (484)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
AUPN732395A0 (en) 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US20050231505A1 (en) * 1998-05-27 2005-10-20 Kaye Michael C Method for creating artifact free three-dimensional images converted from two-dimensional images
US7116324B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method for minimizing visual artifacts converting two-dimensional motion pictures into three-dimensional motion pictures
US6515659B1 (en) 1998-05-27 2003-02-04 In-Three, Inc. Method and system for creating realistic smooth three-dimensional depth contours from two-dimensional images
US6208348B1 (en) 1998-05-27 2001-03-27 In-Three, Inc. System and method for dimensionalization processing of images in consideration of a pedetermined image projection format
US20050146521A1 (en) * 1998-05-27 2005-07-07 Kaye Michael C. Method for creating and presenting an accurate reproduction of three-dimensional images converted from two-dimensional images
JP4656680B2 (ja) * 1998-11-30 2011-03-23 シャープ株式会社 画像検索情報記録装置及び画像検索装置
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
KR20010075579A (ko) * 1999-08-03 2001-08-09 요트.게.아. 롤페즈 비디오형 또는 필름형 이미지를 포함하는 프레임들의시퀀스를 인코딩하는 방법 및 장치
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
DE10016074B4 (de) * 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
US7254265B2 (en) 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
DE10023512A1 (de) * 2000-05-13 2001-11-15 Leipold Andreas Verfahren zur Erzeugung von anaglyphischen Bildern mit Hilfe digitaler Systeme
WO2001089225A2 (en) * 2000-05-18 2001-11-22 Koninklijke Philips Electronics N.V. Image foreground/background velocity detector
KR100808395B1 (ko) * 2000-05-19 2008-02-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 방법, 시스템 및 장치
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
US8194118B2 (en) * 2000-06-16 2012-06-05 Dennis J Solomon Performance display system
GB2364590B (en) * 2000-07-07 2004-06-02 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
JP2004505394A (ja) * 2000-08-04 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド イメージ変換および符号化技術
JP2002077723A (ja) * 2000-09-01 2002-03-15 Minolta Co Ltd 動画像処理装置、動画像処理方法および記録媒体
US7027665B1 (en) * 2000-09-29 2006-04-11 Microsoft Corporation Method and apparatus for reducing image acquisition time in a digital imaging device
US6760469B1 (en) * 2000-10-05 2004-07-06 Canon Kabushiki Kaisha Flipping stereoscopic radiographs
US10742965B2 (en) 2001-01-23 2020-08-11 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US9781408B1 (en) 2001-01-23 2017-10-03 Visual Effect Innovations, Llc Faster state transitioning for continuous adjustable 3Deeps filter spectacles using multi-layered variable tint materials
US7604348B2 (en) * 2001-01-23 2009-10-20 Kenneth Martin Jacobs Continuous adjustable 3deeps filter spectacles for optimized 3deeps stereoscopic viewing and its control method and means
US7043058B2 (en) * 2001-04-20 2006-05-09 Avid Technology, Inc. Correcting motion vector maps for image processing
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
DE10128530A1 (de) * 2001-06-13 2002-12-19 Basf Ag Kühlmittel für Kühlsysteme in Brennstoffzellenantrieben enthaltend Azolderivate
EP1396819A4 (en) * 2001-06-15 2006-08-09 Sony Corp IMAGE PROCESSING APPARATUS AND METHOD AND IMAGING APPARATUS
EP1425707A4 (en) * 2001-07-06 2008-08-06 Vision Iii Imaging Inc IMAGE SEGMENTATION PERFORMED BY INDUCTION OF A PARALLAX DIFFERENCE
JP4896311B2 (ja) * 2001-07-18 2012-03-14 興和株式会社 眼底画像取得表示装置
US6803912B1 (en) * 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
US6816629B2 (en) * 2001-09-07 2004-11-09 Realty Mapping Llc Method and system for 3-D content creation
US7286168B2 (en) * 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
AU2002233198A1 (en) 2001-11-24 2003-06-10 Newsight Corporation Generation of a stereo image sequence from a 2d image sequence
US20030103136A1 (en) * 2001-12-05 2003-06-05 Koninklijke Philips Electronics N.V. Method and system for 2D/3D illusion generation
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
CN1650622B (zh) 2002-03-13 2012-09-05 图象公司 用于数字重新灌录或修改电影或其他图像序列数据的系统和方法
JPWO2003092304A1 (ja) * 2002-04-25 2005-09-08 シャープ株式会社 画像データ生成装置、画像データ再生装置、および画像データ記録媒体
EP1499119B1 (en) * 2002-04-25 2010-03-03 Sony Corporation Image processing apparatus, image processing method, and image processing program
IL150131A (en) * 2002-06-10 2007-03-08 Rafael Advanced Defense Sys A method for turning a series of monoscopic images into a series of stereoscopic images
US7043084B2 (en) * 2002-07-30 2006-05-09 Mitsubishi Electric Research Laboratories, Inc. Wheelchair detection using stereo vision
US20040032489A1 (en) * 2002-08-13 2004-02-19 Tyra Donald Wayne Method for displaying a visual element of a scene
WO2004021151A2 (en) * 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2004363758A (ja) * 2003-06-03 2004-12-24 Konica Minolta Photo Imaging Inc 画像処理方法、撮像装置、画像処理装置及び画像記録装置
FR2858423B1 (fr) * 2003-07-29 2005-10-28 France Telecom Ecran a images variables avec l'angle de vue
JP4644669B2 (ja) 2003-08-05 2011-03-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビュー画像の生成
GB2405764A (en) * 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
US7777764B2 (en) * 2003-09-11 2010-08-17 Sharp Kabushiki Kaisha Portable display device
GB0322840D0 (en) * 2003-09-30 2003-10-29 Lange Eric B Stereoscopic imaging
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050131659A1 (en) * 2003-12-16 2005-06-16 Mei Hsaio L.S. Systems and methods for 3D modeling and asset management
EP1727093A1 (en) * 2003-12-19 2006-11-29 Tdvision Corporation S.A. DE C.V. 3d videogame system
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
KR101108634B1 (ko) * 2004-01-06 2012-01-31 소니 주식회사 화상 처리 장치 및 화상 처리 방법 및 기록 매체
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
US9424634B2 (en) 2004-03-04 2016-08-23 Cybernet Systems Corporation Machine vision system for identifying and sorting projectiles and other objects
US20050226489A1 (en) 2004-03-04 2005-10-13 Glenn Beach Machine vision system for identifying and sorting projectiles and other objects
CN1998153A (zh) * 2004-05-10 2007-07-11 辉达公司 用于视频数据的处理器
JP2005333254A (ja) * 2004-05-18 2005-12-02 Sony Corp 画像処理装置および画像処理方法
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7643672B2 (en) * 2004-10-21 2010-01-05 Kazunari Era Image processing apparatus, image pickup device and program therefor
WO2006046180A1 (en) * 2004-10-26 2006-05-04 Koninklijke Philips Electronics N.V. Disparity map
IL166305A0 (en) * 2005-01-14 2006-01-15 Rafael Armament Dev Authority Automatic conversion from monoscopic video to stereoscopic video
KR100682071B1 (ko) * 2005-02-17 2007-02-12 강원대학교산학협력단 화상데이터의 입체영상변환장치 및 방법
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
US8004515B1 (en) * 2005-03-15 2011-08-23 Nvidia Corporation Stereoscopic vertex shader override
EP1869639A2 (en) * 2005-04-07 2007-12-26 Nxp B.V. Method and device for three-dimensional rendering
KR20080007451A (ko) * 2005-04-11 2008-01-21 휴먼아이즈 테크놀로지즈 리미티드 깊이 착시 디지털 이미지화
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP5059024B2 (ja) * 2005-12-19 2012-10-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d画像表示方法及び装置
CA2636858C (en) 2006-01-27 2015-11-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
WO2007148219A2 (en) 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
GB0613352D0 (en) * 2006-07-05 2006-08-16 Ashbey James A Improvements in stereoscopic imaging systems
US8885208B2 (en) * 2006-07-21 2014-11-11 Adobe Systems Incorporated Progressive refinement of an edited image using secondary high resolution image processing
KR100864826B1 (ko) * 2006-09-29 2008-10-23 한국전자통신연구원 디지털 방송기반의 3차원 정지영상 서비스 방법 및 장치
KR100792852B1 (ko) * 2006-10-25 2008-01-14 전자부품연구원 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
US8330801B2 (en) * 2006-12-22 2012-12-11 Qualcomm Incorporated Complexity-adaptive 2D-to-3D video sequence conversion
WO2008087632A2 (en) * 2007-01-15 2008-07-24 Humaneyes Technologies Ltd. A method and a system for lenticular printing
KR100873638B1 (ko) * 2007-01-16 2008-12-12 삼성전자주식회사 영상 처리 방법 및 장치
JP5202546B2 (ja) * 2007-02-25 2013-06-05 ヒューマンアイズ テクノロジーズ リミテッド マルチ画像表示を較正および/または視覚化しかつゴーストアーチファクトを低減するためのするための方法およびシステム
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
FR2914437A1 (fr) * 2007-04-02 2008-10-03 Artistic Images Soc Par Action Procede de traitement d'image pour la synthese d'image autostereoscopique
JP4914278B2 (ja) * 2007-04-16 2012-04-11 富士フイルム株式会社 画像処理装置、方法およびプログラム
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US7869621B1 (en) * 2007-06-07 2011-01-11 Aydin Arpa Method and apparatus for interpreting images in temporal or spatial domains
US7884823B2 (en) * 2007-06-12 2011-02-08 Microsoft Corporation Three dimensional rendering of display information using viewer eye coordinates
WO2009013744A2 (en) * 2007-07-23 2009-01-29 Humaneyes Technologies Ltd. Multi view displays and methods for producing the same
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20090094173A1 (en) * 2007-10-05 2009-04-09 Adaptive Logic Control, Llc Intelligent Power Unit, and Applications Thereof
US20090135177A1 (en) * 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for voice personalization of video content
KR101329136B1 (ko) 2007-12-07 2013-11-14 삼성전자주식회사 영상 시퀀스 디스플레이에 대한 몰입감 향상 방법 및시스템
WO2009082990A1 (de) * 2007-12-27 2009-07-09 3D Television Systems Gmbh & C Verfahren und vorrichtung zur echtzeit-multiview-erzeugung
US8086004B2 (en) * 2008-01-15 2011-12-27 Accuray Incorporated Use of a single X-ray image for quality assurance of tracking
US8487963B1 (en) 2008-05-30 2013-07-16 Adobe Systems Incorporated Preview representation of pixels effected by a brush tip area
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
EP2293583A1 (en) * 2008-06-24 2011-03-09 Panasonic Corporation Recording medium, reproducing device, integrated circuit, reproducing method, and program
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US7938540B2 (en) * 2008-07-21 2011-05-10 Disney Enterprises, Inc. Autostereoscopic projection system
US20110164052A1 (en) * 2008-07-23 2011-07-07 John Jupe Compositional structure, mechanisms and processes for the inclusion of binocular stereo information into representational media
US8902319B2 (en) * 2008-08-22 2014-12-02 Sharp Kabushiki Kaisha Image signal processing apparatus, image signal processing method, image display apparatus, television receiver, and electronic device
US20100053310A1 (en) * 2008-08-31 2010-03-04 Maxson Brian D Transforming 3d video content to match viewer position
JP5321009B2 (ja) * 2008-11-21 2013-10-23 ソニー株式会社 画像信号処理装置、画像信号処理方法および画像投射装置
US8558830B2 (en) * 2008-12-18 2013-10-15 3D Fusion, Inc. System and method for adaptive scalable dynamic conversion, quality and processing optimization, enhancement, correction, mastering, and other advantageous processing of three dimensional media content
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
TW201028964A (en) * 2009-01-23 2010-08-01 Ind Tech Res Inst Depth calculating method for two dimension video and apparatus thereof
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US9172940B2 (en) 2009-02-05 2015-10-27 Bitanimate, Inc. Two-dimensional video to three-dimensional video conversion based on movement between video frames
US8395709B2 (en) * 2009-03-04 2013-03-12 ATI Technology ULC 3D video processing
US8199186B2 (en) * 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
TWI383332B (zh) * 2009-05-08 2013-01-21 Chunghwa Picture Tubes Ltd 影像處理裝置及其方法
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
GB2470759A (en) * 2009-06-03 2010-12-08 Sony Comp Entertainment Europe Displaying videogame on 3D display by generating stereoscopic version of game without modifying source code
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
CN102549475A (zh) * 2009-08-07 2012-07-04 光处方革新有限公司 具有真深度感知的3d自动立体视法显示器
CN101631256B (zh) * 2009-08-13 2011-02-09 浙江大学 用于三维电视系统中2d视频到3d视频的转换方法
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8624959B1 (en) * 2009-09-11 2014-01-07 The Boeing Company Stereo video movies
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8537200B2 (en) 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
EP2494785A1 (en) * 2009-10-27 2012-09-05 Worth Keeping APS Method for creating a 3d presentation
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
JP5047344B2 (ja) * 2009-12-28 2012-10-10 キヤノン株式会社 画像処理装置及び画像処理方法
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) * 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
JP2011166264A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8994786B2 (en) 2010-04-08 2015-03-31 City University Of Hong Kong Multiple view display of three-dimensional images
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110292038A1 (en) * 2010-05-27 2011-12-01 Sony Computer Entertainment America, LLC 3d video conversion
US8970672B2 (en) 2010-05-28 2015-03-03 Qualcomm Incorporated Three-dimensional image processing
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
KR101731343B1 (ko) * 2010-07-14 2017-04-28 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
CN103098457B (zh) * 2010-09-10 2016-04-13 富士胶片株式会社 立体成像装置和立体成像方法
US9485497B2 (en) 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
JP5595505B2 (ja) 2010-09-10 2014-09-24 富士フイルム株式会社 立体撮像装置および立体撮像方法
US8831273B2 (en) 2010-09-10 2014-09-09 Reald Inc. Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files
KR101708306B1 (ko) * 2010-09-13 2017-02-20 엘지전자 주식회사 이동 단말기 및 그의 3d 이미지 합성방법
JP5175910B2 (ja) * 2010-09-16 2013-04-03 株式会社東芝 画像処理装置、画像処理方法およびプログラム
US20120069143A1 (en) * 2010-09-20 2012-03-22 Joseph Yao Hua Chu Object tracking and highlighting in stereoscopic images
US20120068996A1 (en) * 2010-09-21 2012-03-22 Sony Corporation Safe mode transition in 3d content rendering
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
JP5477349B2 (ja) * 2010-09-30 2014-04-23 カシオ計算機株式会社 画像合成装置、及び画像検索方法、プログラム
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
CN103181173B (zh) * 2010-10-27 2016-04-27 松下知识产权经营株式会社 三维图像处理装置、三维摄像装置以及三维图像处理方法
US8849633B2 (en) 2010-10-29 2014-09-30 Accuray Incorporated Method and apparatus for selecting a tracking method to use in image guided treatment
US8824630B2 (en) 2010-10-29 2014-09-02 Accuray Incorporated Method and apparatus for treating a target's partial motion range
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US8184068B1 (en) * 2010-11-08 2012-05-22 Google Inc. Processing objects for separate eye displays
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
WO2012078124A1 (en) * 2010-12-08 2012-06-14 Thomson Licensing Complexity estimation of a 2d/3d conversion
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
KR101310922B1 (ko) * 2010-12-10 2013-09-25 엘지디스플레이 주식회사 입체 영상 표시장치와 그 구동방법
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US9386294B2 (en) 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
US9113153B2 (en) * 2011-01-14 2015-08-18 Kodak Alaris Inc. Determining a stereo image from video
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9483836B2 (en) 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
TWI462569B (zh) * 2011-04-22 2014-11-21 Mstar Semiconductor Inc 三維影像攝相機及其相關控制方法
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
JP5978695B2 (ja) * 2011-05-27 2016-08-24 株式会社Jvcケンウッド 裸眼立体ディスプレイ装置及び視点調整方法
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8854424B2 (en) * 2011-06-08 2014-10-07 City University Of Hong Kong Generating an aerial display of three-dimensional images from a single two-dimensional image or a sequence of two-dimensional images
EP2717572B1 (en) * 2011-06-24 2018-08-08 LG Electronics Inc. Encoding/decoding method and apparatus using a skip mode
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9247229B2 (en) * 2011-08-22 2016-01-26 Pixar Temporal cadence perturbation for time-division stereoscopic displays
US9219903B2 (en) 2011-08-22 2015-12-22 Pixar Temporal cadence perturbation for time-division stereoscopic displays
US9554114B2 (en) * 2011-09-15 2017-01-24 Broadcom Corporation Depth range adjustment for three-dimensional images
JP2013073598A (ja) * 2011-09-29 2013-04-22 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US9471988B2 (en) * 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
EP2779620B8 (en) * 2011-11-07 2016-09-28 Sony Interactive Entertainment Inc. Image generation device, and image generation method
WO2013069050A1 (ja) 2011-11-07 2013-05-16 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9894272B2 (en) 2011-11-07 2018-02-13 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US10284776B2 (en) 2011-11-07 2019-05-07 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method
KR20130054176A (ko) * 2011-11-14 2013-05-24 삼성전자주식회사 3d 영상의 안정피로 측정 방법 및 장치
US9661307B1 (en) 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
WO2013108314A1 (ja) * 2012-01-18 2013-07-25 パナソニック株式会社 3次元映像処理装置および方法
JP5181083B1 (ja) * 2012-01-19 2013-04-10 パナソニック株式会社 立体画像表示制御装置、立体画像表示制御方法、及びプログラム
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9286658B2 (en) * 2012-03-22 2016-03-15 Qualcomm Incorporated Image enhancement
US9135715B1 (en) * 2012-03-22 2015-09-15 Google Inc. Local feature cameras for structure from motion (SFM) problems with generalized cameras
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
KR20130114420A (ko) 2012-04-09 2013-10-18 한국전자통신연구원 2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
US8644596B1 (en) 2012-06-19 2014-02-04 Google Inc. Conversion of monoscopic visual content using image-depth database
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US10719967B2 (en) 2012-08-01 2020-07-21 Dreamworks Animation L.L.C. Techniques for placing masking window objects in a computer-generated scene for stereoscopic computer-animation
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US8977037B1 (en) * 2012-08-31 2015-03-10 Google Inc. Methods and systems of creating a stereoscopic image
US9250653B2 (en) * 2012-09-28 2016-02-02 City University Of Hong Kong Capturing, processing, and reconstructing audio and video content of mobile devices
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
CN104424649B (zh) * 2013-08-21 2017-09-26 株式会社理光 检测运动物体的方法和系统
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
CN103533329B (zh) * 2013-10-09 2016-04-27 上海大学 一种2d转3d的视频自动评估方法
CN103595990B (zh) * 2013-10-30 2015-05-20 清华大学 运动感知的双目立体视频舒适度获取方法
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
EP3155811A4 (en) * 2014-06-10 2018-07-04 Bitanimate, Inc. Stereoscopic depth adjustment and focus point adjustment
CN106664397B (zh) * 2014-06-19 2018-11-16 皇家飞利浦有限公司 用于生成三维图像的方法和装置
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US9354794B2 (en) 2014-07-07 2016-05-31 Google Inc. Method and system for performing client-side zooming of a remote video feed
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9131209B1 (en) * 2014-10-27 2015-09-08 Can Demirba{hacek over (g)} Method for automated realtime conversion of 2D RGB images and video to red-cyan stereoscopic anaglyph 3D
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10841491B2 (en) * 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
CN106454320B (zh) * 2016-11-01 2018-12-18 珠海明医医疗科技有限公司 一种低延迟生成立体图像的方法及设备
US11042984B2 (en) * 2016-11-10 2021-06-22 Movea Systems and methods for providing image depth information
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
WO2019075473A1 (en) 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
CN113282982B (zh) * 2021-04-30 2023-04-18 杭州申昊科技股份有限公司 一种用于喷泥状况评估铁轨安全的系统和方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
AU599155B2 (en) 1986-10-24 1990-07-12 Grass Valley Group, Inc., The Method and apparatus for processing a video signal in three dimensions
JPH0635391A (ja) * 1992-07-20 1994-02-10 Fujitsu Ltd 立体表示装置
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
KR100358021B1 (ko) * 1994-02-01 2003-01-24 산요 덴키 가부시키가이샤 2차원영상을3차원영상으로변환시키는방법및입체영상표시시스템
JP2951230B2 (ja) * 1994-09-22 1999-09-20 三洋電機株式会社 2次元映像から3次元映像を生成する方法
EP0703716B1 (en) * 1994-09-22 2002-11-27 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
EP0717373B1 (en) 1994-12-15 2001-11-07 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images in a video game set
KR0154921B1 (ko) * 1994-12-30 1998-11-16 배순훈 동영상 부호화 장치에 이용하기 위한 움직임 추정기
US5777666A (en) * 1995-04-17 1998-07-07 Sanyo Electric Co., Ltd. Method of converting two-dimensional images into three-dimensional images
WO1996041311A2 (en) * 1995-06-07 1996-12-19 Geshwind David M Stereoscopic interactive painting
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
KR100255748B1 (ko) * 1997-07-19 2000-05-01 전주범 가중된 블럭 정합 알고리즘에 의한 움직임 추정 방법 및장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093816A (ja) * 2008-10-09 2010-04-22 Samsung Electronics Co Ltd 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法
JP2016519905A (ja) * 2013-04-09 2016-07-07 ビッタニメイト インコーポレイテッド 2次元ビデオの3次元ビデオへの変換方法及びシステム
KR101648673B1 (ko) * 2015-06-26 2016-08-17 동서대학교산학협력단 360° vr 영상 콘텐츠제작을 위한 유손실 이미지 복원 및 컨버팅 방법

Also Published As

Publication number Publication date
CA2302199A1 (en) 1999-03-11
KR20010023561A (ko) 2001-03-26
WO1999012127A1 (en) 1999-03-11
AUPO894497A0 (en) 1997-09-25
US20020191841A1 (en) 2002-12-19
CN1278349A (zh) 2000-12-27
EP1019873A1 (en) 2000-07-19
US6496598B1 (en) 2002-12-17
KR20010023596A (ko) 2001-03-26

Similar Documents

Publication Publication Date Title
JP2001515287A (ja) 画像処理方法および装置
US9094674B2 (en) Generation of three-dimensional movies with improved depth control
USRE39342E1 (en) Method for producing a synthesized stereoscopic image
US6747610B1 (en) Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
EP2724542B1 (en) Method and apparatus for generating a signal for a display
EP3130143B1 (en) Stereo viewing
US9565415B2 (en) Method of presenting three-dimensional content with disparity adjustments
US5739844A (en) Method of converting two-dimensional image into three-dimensional image
US10095953B2 (en) Depth modification for display applications
Devernay et al. Stereoscopic cinema
WO2003081921A1 (fr) Procede de traitement d'images tridimensionnelles et dispositif
JPH08331607A (ja) 三次元表示画像生成方法
JP2004007395A (ja) 立体画像処理方法および装置
WO2011108180A1 (ja) 立体映像出力装置及び立体映像出力方法
Tseng et al. Automatically optimizing stereo camera system based on 3D cinematography principles
JP4183499B2 (ja) 映像ファイル処理方法及び映像処理方法
JPWO2020066008A1 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
AU8964598A (en) Image processing method and apparatus
CN113676731A (zh) 压缩vr视频数据的方法
MXPA00002201A (en) Image processing method and apparatus
JP2008199670A (ja) 映像ファイル処理方法及び映像送受信再生システム
Didier et al. Use of a Dense Disparity Map to Enhance Quality of Experience Watching Stereoscopic 3D Content at Home on a Large TV Screen