JP2016178655A - マルチビューシーン内のグラフイックス表示 - Google Patents

マルチビューシーン内のグラフイックス表示 Download PDF

Info

Publication number
JP2016178655A
JP2016178655A JP2016085698A JP2016085698A JP2016178655A JP 2016178655 A JP2016178655 A JP 2016178655A JP 2016085698 A JP2016085698 A JP 2016085698A JP 2016085698 A JP2016085698 A JP 2016085698A JP 2016178655 A JP2016178655 A JP 2016178655A
Authority
JP
Japan
Prior art keywords
different
dimensional
predefined
scene
representations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016085698A
Other languages
English (en)
Inventor
ウラデイミル・レバントフスキ
Levantovsky Vladimir
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Monotype Imaging Inc
Original Assignee
Monotype Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monotype Imaging Inc filed Critical Monotype Imaging Inc
Publication of JP2016178655A publication Critical patent/JP2016178655A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】奥行き知覚による3次元場面の人間の知覚に適合しないグラフイックス及び画像の重ね合わせが観察者の視認体験を低下させないようにする。
【解決手段】計算デバイスはインストラクションを記憶するメモリーとプロセッサとを有する。該プロセッサは予め規定された3次元場面内のグラフイカル要素の位置を、該予め規定された3次元場面の2つ以上の異なる2次元表現内に含まれるコンテンツの奥行き情報を使って、識別する該インストラクションを実行するよう構成される。該プロセッサはまた、該グラフイカル要素を含む該予め規定された3次元場面の2つ以上の異なる2次元表現を作るよう構成される。
【選択図】図6

Description

本説明はマルチビューシーン内での画像、テキスト及びユーザーインターフエースの様なグラフイックスの表示に関する。
映画劇場{例えば、アイマックス スリーディー(IMAX 3D)映画館}に於ける様な、2次元スクリーンでの3次元(3D)画像の表示と、放送プログラミング(例えば、地上デジタル又はケーブルシステム上の3次元テレビジョン)の絶えず拡大する分野では、場面の多重画像(例えば、ステレオ画像)が人間の眼が奥行きを認識するよう作られることが多い。例えば、左及び右眼視認画像の同時表示により、奥行きは、カラーフイルター、偏光フイルター、時間ベースシャッター他の様な種々の分離技術を使うことにより模擬される。この様な分離技術は奥行き知覚を提供するが、3次元場面の人間の知覚に適合しないグラフイックス及び画像の重ね合わせは観察者の視認体験を低下させ、破滅さえさせる。
ここで説明するシステムと技術は、視認者の奥行き知覚を保ちながら、予め規定された3次元場面内にグラフイック要素を位置付ける位置を決定することに関する。
1側面では、コンピュータで実施する方法は、予め規定された3次元場面のグラフイカル要素の位置を、該予め規定された3次元場面の2つ以上の異なる2次元表現に含まれるコンテンツの奥行き情報を使い、識別する過程を含む。該方法はまた、該グラフイカル要素を含む該予め規定された3次元場面の2つ以上の異なる2次元表現の作成を含む。
実施例は下記特徴の何れか又は全てを含む。本方法はまた、該予め規定された3次元場面の該2つ以上の異なる表現から、該奥行き情報を決定する過程を含む。該奥行き情報の決定は、該予め規定された3次元場面の該2つ以上の異なる2次元表現にフイルターをかける過程を含む。奥行き情報の決定はまた、該予め規定された3次元場面の、該フイルターをかけられた2つ以上の異なる2次元表現の比較を含む。該2つ以上の異なる2次元表現にフイルターをかける過程はコンテンツのエッジを識別する過程を含む。フイルターをかける過程は該2つ以上の異なる2次元表現内で表される高空間周波数特性を識別するために、ハイパスフイルターをかける過程を含む。該2つ以上の異なる2次元表現は該予め規定された3次元場面の異なる視認図(views)を表す。奥行き情報を決定する過程は該2つ以上の異なる2次元表現の間の視差を計算する過程を含む。該2つの異なる表現の作成は2つ以上の異なる2次元視認図を用いて該グラフイカル要素を表す過程を含む。該グラフイカル要素は幾何学的物体、ユーザーインターフエースの1部、画像及びテキストを表してもよい。該奥行き情報は圧縮された映像データから決定されてもよい。
もう1つの側面では、計算デバイスはインストラクションを記憶するメモリーとプロセッサを有する。該プロセッサは、予め規定された3次元場面内のグラフイカル要素の位置を、該予め規定された3次元場面の2つ以上の異なる2次元表現に含まれるコンテンツの奥行き情報を使って、識別するインストラクションを実行するよう構成される。該プロセッサはまた、該グラフイカル要素を有する該予め規定された3次元場面の2つ以上の異なる2次元表現を作るよう構成される。
実施例は下記特徴の何れか又は全てを含む。該プロセッサは該予め規定された3次元場面の該2つ以上の異なる表現から奥行き情報を決定するよう、更に構成される。該奥行き
情報を決定するために、該プロセッサは該予め規定された3次元場面の該2つ以上の異なる2次元表現にフイルターをかけるよう構成される。更に、該奥行き情報を決定するために、該プロセッサは該予め規定された3次元場面の該フイルターをかけられた2つ以上の異なる2次元表現を比較するよう構成される。該2つ以上の異なる2次元表現にフイルターをかけるために、該プロセッサはコンテンツのエッジを識別するよう構成される。フイルターをかけるために、該プロセッサはまた、該2つ以上の異なる2次元表現内に表された高空間周波数特性を識別するためにハイパスフイルターをかけるよう構成される。該2つ以上の異なる2次元表現は該予め規定された3次元場面の異なる視認図を表す。該奥行き情報を決めるために、該プロセッサは該2つ以上の異なる2次元表現間の視差を計算するよう構成される。該2つの異なる表現を作るために、該プロセッサは該グラフイカル要素を2つ以上の異なる2次元の視認図で表すよう構成される。該グラフイカル要素は幾何学的物体、ユーザーインターフエースの1部分、画像及びテキストの少なくとも1つを表してもよい。該奥行き情報は圧縮された映像データから決定されてもよい。
なおもう1つの側面では、1つ以上のコンピュータ読み出し可能な媒体は、処理デバイスにより実行可能であり、この様な実行時、該処理デバイスに、予め規定された3次元場面内のグラフイカル要素の位置を、該予め規定された3次元場面の2つ以上の異なる2次元表現に含まれるコンテンツの奥行き情報を使って、識別する過程を含む操作を行わせる、インストラクションを記憶する。該操作はまた、該グラフイカル要素を含む該予め規定された3次元場面の2つ以上の異なる2次元表現を作る過程を含む。
実施例は下記特徴の幾つか又は全てを含んでもよい。該操作はまた、該予め規定された3次元場面の該2つ以上の異なる表現からの奥行き情報の決定を含んでもよい。該奥行き情報の決定は該予め規定された3次元場面の該2つ以上の異なる2次元表現のフイルタリングを含んでもよい。該奥行き情報の決定はまた、該予め規定された3次元場面の該フイルターをかけられた2つ以上の異なる2次元表現の比較を含んでもよい。該2つ以上の異なる2次元表現のフイルタリングはコンテンツのエッジの識別を含んでもよい。フイルタリングは、該2つ以上の異なる2次元表現内に表される高空間周波数特性を識別するためのハイパスフイルタリングを含んでもよい。該2つ以上の異なる2次元表現は該予め規定された3次元場面の異なる視認図を表してもよい。該奥行き情報の決定は該2つ以上の異なる2次元表現の間の視差の計算を含む。該2つの異なる表現の作成は、該グラフイカル要素を2つ以上の異なる2次元視認図で表す過程を含んでもよい。該グラフイカル要素は幾何学的物体、ユーザーインターフエースの1部分、画像及びテキストを表してもよい。該奥行き情報は圧縮された映像データから決定されてもよい。
これら及び他の側面及び特徴と、それらの種々の組み合わせは、機能を行う方法、装置、システム、手段、プログラム製品として、そして他の仕方で表されてもよい。
他の特徴及び利点は説明及び請求項から明らかになるであろう。
3次元場面のステレオ画像を図解する。 3次元場面のステレオ画像を図解する。 焦点面を識別する画像の処理を図解する。 3次元場面の2つの視認図の間の空間的差を図解する。 奥行き知覚を提供するためにステレオ画像内で視認図を位置づける過程を図解する。 ステレオ画像内でグラフイカル要素を位置づける操作の例示用フローチャートである。 計算デバイス及びシステムのブロック線図である。
図1を参照すると、3次元(3D)場面の例示用の2次元(2D)ステレオ画像が提示される。特に、月の画像が、ステレオ画像100の前景に図解され、一面の星が後景に表示される。視認者用に奥行き知覚を提供する(そして3次元場面を模擬する)ために、該ステレオ画像100は場面の2つの異なる視認図(例えば、右眼の視点からの1つの視認図と左眼の視点からのもう1つの視認図)を有する。典型的に、該2つの視認図は1つの面上に重ね合わされ(例えば、映画スクリーン、紙片、コンピュータディスプレー、他)そして該視認図間の僅かの差に基づき、観察者により奥行きが認識される。一般に、3次元場面のこの様な複数の視認図を見る時、各眼により観察される視覚情報は独立に認識され、視認者用の3次元奥行き知覚を提供するために、立体視(binocular vision)が確立される。この様なステレオ画像では、観察者の適当な眼による受け入れ用に該2つの視認図を分離する技術が使われる。例えば、観察者の視認系により受けられる画像が、各眼用に異なり、3次元空間内で該画像を見る幻影を創るよう、該2つの視認図を分離するために、2、3例を上げれば、カラーフイルター、偏光フイルター(例えば、映画劇場で使われることが多い)、そして時間ベースシャッターが使われてもよい。この図解で、星の後景の左及び右の眼の視認図は、特に大きい星の2つの表現102、104により気付くことが出来る。
これらの2つの視認図(例えば、立体視を提供する)は実質的に真の3次元表現を可能にするが、視認経験を向上させるためには追加の要素が付加される必要がある。例えば、視認者を助けるために追加のグラフイカルコンテンツ(例えば、テキスト、画像、ユーザーインターフエース)が該場面内に組み入れられてもよい。この様な追加のコンテンツは、自然な3次元場面用のステレオ図が作られた後、組み入れられることが多い。この様な作成後コンテンツの追加は、もし追加コンテンツが3次元場面の予め規定されたステレオ図上に単純に被せられた場合特に、視認経験の質を落とす。例えば、3次元テレビスクリーン上に画かれた普通のテキストの文字列はその奥行きを、丁度テレビスクリーン面上に配置された様に、人間観察者に認識させ、そして該3次元場面のもう1つの不透明物体の背後に位置付けられた様に見えるので、該テキストを読み出し不可能にさせて、観察者の3次元知覚を混乱させる。一般に、予め規定された3次元場面上にグラフイカルコンテンツを重ね合わせると、線遠近法、相対的な物体寸法及び配置、閉塞及び運動視差の様な他の要因が、人間の視認系に認識される奥行きに影響することは考慮されるべきである。
或る従来の3次元システムはほとんどの場合マルチビュー3次元画像の前景に新コンテンツ(例えば、テキスト、画像、ユーザーインターフエース)を位置付けることに依って、追加のコンテンツを3次元場面の前に作成されたステレオ図内へ組み入れている。この様であるから、観察者は彼の眼の焦点面を該前景(テキストが配置される)と、該3次元コンテンツが認識される場面の部分(ステレオ図で提供される)と、の間を絶えずシフトする必要がある。この様な焦点合わせと再焦点合わせは特に紛らわしく、3次元視認体験の質を低下させる眼の疲労(視認者の眼の緊張から)を引き起こしさえする。
この図解された例では、2つの語106、108(すなわち、“Background”(後景)及び“Foreground”(前景))がステレオ画像100内に含まれた視認図上に重ね合わされる。画像面上に単純に置かれると、該語の各々は画像100内に含まれる関連コンテンツに対応する奥行きでは認識されない。例えば、ステレオ画像100に含まれる2つの異なる視認図に基づいて、星は該画像内に沈んで見え、一方月は該画像から前へ飛び出すように見える。該テキストを重ね合わせることによって、語106、108の何れもが該星又は月の奥行きに配置されているようには見えない。該ステレオ画像100の右の、奥行きチャート110は該場面内に含まれるコンテンツの認識される奥行きを表す。視認者の遠近感(象徴的な眼112で表される)からは、月は、図が投影さ
れる面(例えば、頁の面)を表す面116の前にある面114上にあると認識される。ステレオ画像100により提供される認識される奥行きに基づき、もう1つの面118は星が月の面114と比較して現れる奥行きを規定する。この様であるから、視認者は月をより近くに配置されていると感じ、星を遙か後ろに配置されていると感じる。語106、108は画像が投影される面に重ね合わされるので、それらは月の奥行き(面114にある)又は星の奥行き(面118にある)には認識されない。この様であるから、視認者は該語の何れかを読むために彼の眼を面116上に焦点合わせするように調整する必要があり、それは疲労を引き起こし、視認体験の質を落とさせる。更に、その配置のために、語108は月の表現により見え難くされたように見えるかもしれない。その様なので、視認者用に焦点合わせの問題を引き起こす場所にテキストを位置付けることと一緒に、追加的なテキストのコンテンツは観察人間の3次元視認体験を損ね、ステレオ画像内ではっきり読みやすくはない。
混乱させる効果と起こり得る視認者の眼の疲労とを減じるために、3次元場面の予め規定されたステレオ画像内に導入されるグラフイカル要素の場所と奥行きを決める1つ以上の技術が実施される。例えば、テキスト(例えば、ラベル、クローズドキャプションのテキスト、他)は、該テキストがステレオ画像内に既に表されている対応物体と近似的に等しい奥行きで認識されるよう、処理される。図1で図解される場面を参照すると、語106、108は、それらが関連するグラフイックスと等しい奥行きで認識されるよう位置付けられるように、処理される(例えば、語“Background”106は星の面118に位置付けられ、語“Foreground”106は月が認識される面114の奥行きで認識される)。
図2を参照すると、該導入されたテキスト(例えば、図1に示す語106、108)は、関連するグラフイックスと等しいと認識される奥行きに各語をそれぞれ位置付けるように、処理される。この特定の例では、語“Background”は星が視認者112により認識される面118の奥行きに位置付けられる(奥行きチャート200で表される様に)。同様な仕方で、語“Foreground”は月のグラフイックの認識される奥行きを表す面114の奥行きに位置付けられる。この様であるから、視認者112は、認識される奥行きのテキスト及び関連する画像上に焦点合わせするように彼の眼を実質的に調整する必要はない。より快適な視認体験を提供することと一緒に、眼の緊張は視認の煩わしさと共に減じられる。
3次元場面の予め規定されたステレオ画像に関連して認識される奥行きにこの様なグラフイカル要素(例えば、語“Background”及び“Foreground”)を位置付ける1つ以上の技術が実施されてもよい。例えば、各語用の左及び右眼透視図が作られ、該3次元場面のステレオ画像上に適切に位置付けされてもよい。この特定の例では、該3次元場面のステレオ画像202は、星空の適当な奥行き(例えば、面118で表される)に認識されるように位置付けられた語“Background”の左及び右の眼の透視グラフイカル表現204、206を有する。同様に、グラフイカル表現208、210は、語“Foreground”が月のグラフイックと等しい奥行き(例えば、面114で表される)にあるとして視認者112により認識されるよう、ステレオ画像200内に作られ、位置付けられる。この様なグラフイカル要素をこの様なステレオ画像内に位置付けるために、該3次元場面に関連する奥行き情報が必要とされる。マルチビューデータ(場面の左及び右の眼視認図を表す)からこの様な情報を決めるために1つ以上の技術が使われてもよい。例えば、視差と呼ばれることが多い、ステレオ図間の見掛けのずれ又は差が、奥行き情報を提供するため決定されてもよい。視認図間の視差から奥行き情報を計算する前に、該マルチビューはそれらのそれぞれの焦点面を識別するよう処理される必要がある。例えば、画像のシャープに焦点合わせされた部分(例えば、高空間周波数成分又はエッジ)が1つ以上の技術[例えば、圧縮画像の離散コサイン変換(DCT)係数を解
析するハイパスフイルター]を使って識別されてもよい。この様な奥行き情報はまた、ステレオ画像の作成時に決められ、受信者による追加処理が必要ないように、コンテンツ(例えば、ビデオ)と共に提供されてもよい。
図3を参照すると、3次元場面のステレオ視認図間の差(例えば、左眼視認図と右眼視認図)を決定する前に、該視認図の焦点面が1つ以上の処理技術により識別されてもよい。比較的浅い視野奥行きを有し、一般に特定時の場合1つの範囲(または1つの焦点面)上にのみ焦点合わせする人間の眼と同様に、広いアパーチャー用に調整されたカメラレンズは、場面の1つの特定範囲をシャープにそして焦点に合って現れさせ、一方該場面の残り部分はぼやけで留まる。この技術は画像フレーム内の特定主題に視認者の注意を捕らえるためにフイルム及び写真で屡々そして故意に使われる。マルチビュー画像の1対(ステレオ画像により提供される左右眼視認の様な)の各々内の異なる要素の焦点面を決めることにより、視差計算用の適切なコンテンツが識別されてもよい。例えば、画像300は、焦点が合った前景内の1物体(水平に位置付けられた瓶)を有する3物体の絵を提示する。極めて異なって、画像302は等しいコンテンツを含むが、しかしながら焦点面は該画像の後景にシフトされている。例えば、水平に位置付けられた瓶(前景の)はぼやけて見え、垂直に位置付けられた瓶とギヤ(後景の)は焦点が合って見える。
焦点合わせされた(そして焦点面内にある)コンテンツを適切に識別するために、1つ以上の処理技術が実施される。例えば、焦点面内にある画像部分(例えば、物体エッジの様なシャープな移行部)の詳細を表すために画像がフイルターにかけられ、1つ以上の領域(例えば、空間領域、周波数領域、他)で評価される。図解例では、それぞれフイルターがかけられた画像304、306を作るために、画像300、302にフイルター(例えば、ハイパスフイルター)が適用される。該フイルターの適用により、比較的高い空間周波数のコンテンツを含む画像の部分が検出され、対応するフイルターがかけられた画像内に含まれる。この様にして、焦点の合った物体のエッジがフイルターがかけられた画像内にマップ化される。可視化用フイルターの適用された勾配を有するフイルター済み画像304では、該画像の前景内に水平に位置付けられた瓶のエッジが強調されて示される。同様に、等しいタイプのフイルターにより処理されたフイルター済み画像306は、該画像の焦点の合った物体のエッジ(例えば、垂直に位置付けられた瓶とギヤ)を強調して示している。
空間周波数情報を取得するためにはハイパスフイルタリングの様なフイルタリング技術が使われるが、他の技術が実施されてもよい。例えば、圧縮画像データを評価することにより、空間情報を得ることが出来る。Joint Photographic Experts Group(JPEG)標準、高解像度ビデオ符号化(例えば、H.264/MPEG−4 AVC標準)、他により使われるそれらの様な圧縮技術の適用により処理されたデータが、空間周波数情報の源として使われてもよい。この様な不可逆的圧縮技術は、画像品質を顕著に劣化させることなく、除去されてもよい画像コンテンツの量を決定するために、一般に画像を空間領域から周波数領域へ変換する。圧縮されると、画像データは符号化され、周波数領域に記憶される。この様であるから、1つ以上のフイルター又は他種類のフイルタリング操作を適用する必要なく、空間周波数情報を解析し、識別するために該記憶されたデータが検索される。
図面内で処理された画像300、302と同様に、ステレオ画像のマルチビューが、焦点のあった物体(例えば、エッジの様なシャープな移行部)と該視認図の対応する焦点面とを決めるために処理される。これらの処理された視認図から、視認図に含まれる1つ以上の物体の見掛けの変位(例えば、視差)が見積もられる。例えば、該視認図に含まれる焦点の合った物体のエッジの位置を識別するために、ステレオ画像の左右眼視認図は各々が独立に処理される(例えば、ハイパスフイルターされる)。2つのフイルターをかけら
れた図を同時に比較することにより、ステレオ画像と関連する奥行き情報を作るために、等しい物体の対応するエッジの変位を評価して、視差値が見積もられる。該奥行き情報から、焦点面上のグラフイカル要素(例えば、テキスト、画像、ユーザーインターフエース、他)の位置付け用の適切な場所が決められてもよい。加えて、焦点面の場の相対奥行きが決められてもよい。
図4を参照すると、各々が2つの視認図からのワイヤーフレームオブジェクトを表す2つの画像が表される。特に、画像400は左眼視認から認識される該ワイヤーフレームオブジェクトの視認図を図解し、一方もう1つの画像402は観察者の右眼視認から認識された該物体の視認図を提供する。ワイヤーフレーム表現の性質の故に、各画像はステレオ画像の対応する視認図のフイルター済み版(ハイパスフイルターがかけられた)と考えられてもよい。画像400、402の各々により提供された視認図は同様に見えるが、しかしながら、該画像を比較することにより、該画像の視差に対応する空間的差異が存在する。該ワイヤーフレームオブジェクトの等価部分の間の視差を評価することにより、奥行き情報が作られてもよい。次に、該奥行き情報は、該視認図を含むステレオ画像内のグラフイカル要素(例えば、テキスト、画像、ユーザーインターフエース、他)を画くための場所及び奥行きを決めるために使われてもよい。画像400、402により提供される視認間の視差を図解するために、各視認からの該ワーヤーフレームオブジェクトの表現が画像404で重ね合わされる。カラー分離の様な種々の分離技術の1つが3次元の該ワーヤーフレームオブジェクトを認識するために実施されてもよい。同様な結果は、重ね合わされた図への偏光の割り当てと偏光眼鏡の使用によるとか、時間ベースのシャッター眼鏡と同期した、反復配列での左右眼視認図の表示による、様な分離視認用の他の技術の実施により達成されてもよい。
ワーヤーフレームオブジェクトの重ね合わされた視認図は該物体の等価部分の空間的差を示している。更に、該重ね合わされた視認図は、該物体の異なる部分上の視差値の分散を図解する。例えば、該重ね合わされた物体の下右部分(人間観察者に近いと認識される画像の部分に対応する)には、該重ね合わされた物体の上左部分(画像の該部分が後景に近く位置付けられるように見える)に比較して比較的大きな空間差が存在する。これらの空間的差から、奥行き情報(例えば、マップ)が、例えば、該ワーヤーフレームオブジェクトの等価部分を比較することにより、作られてもよい。一旦定量化されると、該奥行き情報はグラフイカル要素(例えば、テキスト、画像、ユーザーインターフエース、他)の位置付け用に適切な場所と奥行きを決めるために使われてもよい。この様な位置付けを可能にすることにより、グラフイカル要素は3次元場面の前に作られたステレオ画像に関連する焦点面内に置かれ、それにより観察者がステレオ画像の元のコンテンツと、新しく組み入れられたグラフイカル要素との間で再焦点合わせする必要がある場合の数を減じる。また、この様な3次元画像の構成に関する情報はグラフイカル要素が該場面内に含まれる物体により見えなくされないよう、そして該画像の部分間の奥行き知覚を保存するよう位置付けされることを可能にして、それにより観察者のために3次元視認体験を改善する。
奥行き情報を作るために空間的差を定量化する1つ以上の技術が実施されてもよい。視差値は、例えば、左右眼視認図を走査し、最初の走査位置から焦点面内の物体のエッジまでの距離を測定することにより決定される。スクリーン面上で収斂する点はゼロの視差値を有するが(例えば、該左右眼視認図内の対応する点は等価位置に配置される)、非ゼロ視差値(すなわち正及び負)はスクリーン面の前に又は背後に位置付けられるように見える画像の部分を規定する。
図5を参照すると、例示用グラフイカル要素の位置付けは、該要素がステレオ画像の異なる焦点面に現れるように、図解される。この例で、グラフイカル要素の視認を表す1対の画像が予め規定された3次元場面のステレオ画像上に重ね合わされる。該グラフイカル
要素の左眼視認を表す画像と、該要素の右眼視認を表すもう1つの画像と、が該対に含まれる。該画像が位置付けられ、分離技術(例えば、カラーフイルター、偏光フイルター、時間ベースシャッター、他)が実施される場所に基づき、該グラフイカル要素は観察者500により特定奥行きで認識される。例えば、グラフイカル要素の左眼視認(黒充実円502により表される)と該グラフイカル要素の右眼視認(白充実円504により表される)は前に作られたステレオ画像を含む面506上に重ね合わされる。この例で、視認502、504の位置(間隔S1で表される)と、利用可能な分離技術の1つと、に基づきグラフイカル要素(網目円508で表される)が後景面510の奥行きで一般的に認識される。この様なので、該グラフイカル要素(例えば、語“Background”)は後景面510に配置された他のグラフイカル要素(例えば、図1の星空のステレオ画像)の等価焦点面に配置されていると認識され、それにより該グラフイカル要素と予め規定されたステレオ画像のコンテンツとを見るために要する再焦点合わせの量を著しく減じる。
同様な仕方で、該画像により表されるグラフイカル要素が前景の奥行きで観察者500により認識されるよう、1対の画像が面506上に重ね合わされる。例えば、左右眼視認を置き換えることにより(視認502と504と比較して)、該視認により表されるグラフイカル要素が前景にあるように現れる。図解例では、グラフイカル要素の左眼視認(黒充実円512により表される)とグラフイカル要素の右眼視認(白充実円514により表される)との位置は該面上で逆になり、位置付けられる(間隔S2により表される)。視認512、514の位置と、実施分離技術と、に基づき、該グラフイカル要素は、前景面516の奥行きでステレオ的に認識される(網目円518で表される様に)。この様であるから、該グラフイカル要素(例えば、語“Foreground”)は前に作られたグラフイカル要素により共有された焦点面で認識され得る(例えば、月のステレオ画像)。それ故に、観察者500は該グラフイカル要素と、該前景面516で認識される予め規定された3次元場面の部分と、のはっきりした視認を提供され、合成3次元場面を観察する時、彼の眼を再焦点合わせする必要性を減少出来る。該図解例は、視認の位置付けがグラフイカル要素が3次元場面の前に作られたステレオ画像内に挿入されることを可能にすることを示す。更に該視認の位置付けを制御することにより、該グラフイカル要素は、予め規定されたステレオ画像のコンテンツにより見えなくされぬように配置されてもよい。
図6を参照すると、フローチャート600は、3次元場面の予め規定されたステレオ画像内の1つ以上のグラフイカル要素(例えば、テキスト、画像、ユーザーインターフエース、他)を含むコンピュータシステムの様な計算デバイスの操作を表す。この様な操作は1つの計算デバイスにより実行されるのが典型的であるが、しかしながら、該操作の実行が複数の計算デバイスにより実行されてもよい。1つのサイト(例えば、計算デバイスの場所)で実行されると共に、操作実行が2つ以上の場所間に分散されてもよい。
計算デバイスの操作は、予め規定された3次元場面の2つ以上の視認図(例えば、ステレオ画像)を受信する過程602を有する。例えば、3次元場面の左眼視認図と右眼視認図が受信される。操作はまた、該2つ以上の視認図から奥行き情報を決定する過程604を有する。例えば、視認図の各々は該視認図に含まれる物体のエッジ(又は他のコンテンツ)を識別するため処理されてもよい(例えば、フイルターをかけられてもよい)。該多数画像間の視差の様な空間的差は該処理された視認図内に表される対応するエッジの位置を比較することにより決定されてもよい。該奥行き情報から、該視認の焦点面が、3次元空間内の該焦点面の位置の様な他の情報と一緒に識別されてもよい。該奥行き情報を使うことにより、操作は該3次元場面内のグラフイカル要素を含むための位置を識別する過程606を含んでもよい。例えば、該奥行き情報は、該焦点面に対して、観察者により認識されるべきグラフイカル要素のステレオ図の位置(例えば、2次元座標)と寸法を決めるために使われてもよい。一旦該グラフイカル要素用の位置情報(例えば、場所、寸法、他)が決められると、操作は該グラフイカル要素を含む該3次元場面(例えば、ステレオ画
像)の2つ以上の視認図を作る過程608を有する。例えば、左眼視認図と右眼視認図は、各々が、観察者により視認された時、該要素が3次元空間内で適切に認識されるよう、該グラフイカル要素を有するよう画かれてもよい。
図7は、グラフイカル要素の視認図を3次元場面の予め規定されたステレオ画像内に組み込むことに関連する操作を実行するよう使われ、実現される計算デバイスのブロック線図である。計算デバイス700は、種々の形式のデジタルコンピュータ、画像処理デバイス及び、デジタルテレビセット、セットトップボックス及び受信器{例えば、ケーブル、地上、インターネットプロトコルテレビジョン(IPTV)、他}、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、セルラー電話の様なモバイルデバイス、サーバー、ブレードサーバー、メインフレーム、そして他の適当なコンピュータ、の様な同様な種類のデバイスを表すよう意図されている。
計算デバイス700はプロセッサ702、メモリー704、記憶デバイス706、メモリー704及び高速拡張ポート710に接続する高速インターフエース708、低速バス714及び記憶デバイス706に接続する低速インターフエース712を有する。該部品702、704、706、708、710及び712の各々は種々のバスを使って相互接続され、共通マザーボード上に又は適当な他の仕方で設置されてもよい。プロセッサ702は、高速インターフエース708に接続されたデイスプレー716の様な外部入/出力デバイス上にジーユーアイ(GUI)用グラフイカル情報を表示するために、メモリー704内又は記憶デバイス706上に記憶されたインストラクションを含む、計算デバイス700内の実行用インストラクションを処理することが出来る。他の実施例では、多数のメモリー及びメモリーのタイプと一緒に、適当な多数のプロセッサ及び/又は多数のバスが使われてもよい。また、多数の計算デバイス700が、必要な操作の部分を提供する各デバイスと接続されてもよい(例えば、サーバーバンク、ブレードサーバーのグループ、又はマルチプロセッサシステム)。
該メモリー704は該計算デバイス700内の情報を記憶する。1実施例では、メモリー704はコンピュータ読み出し可能な媒体である。1実施例では、該メモリー704は揮発性メモリーユニット、又は同複数ユニットである。もう1つの実施例では、該メモリー704は不揮発性メモリーユニット又は同複数ユニットである。
該記憶デバイス706は該計算デバイス700用の大量記憶を提供出来る。1実施例では、該記憶デバイス706はコンピュータ読み出し可能な媒体である。種々の異なる実施例では、該記憶デバイス706はフロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、又はテープデバイス、フラッシュメモリー又は他の同様な固体メモリーデバイス、又はストレージエリアネットワーク又は他の構成のデバイスを有するデバイスのアレーであってもよい。1実施例では、コンピュータプログラム製品は情報担体内で明白に具体化される。該コンピュータプログラム製品は、実行時、上記で説明したそれらの様な1つ以上の方法を行うインストラクションを含む。該情報担体はメモリー704、記憶デバイス706、プロセッサ702上のメモリー等の様なコンピュータ読み出し可能な又は機械読み出し可能な媒体である。
該高速制御器708は該計算デバイス700用のバンド幅重点的操作を管理する、一方低速制御器712はバンド幅重点性の低い操作を管理する。この様な負荷配分は単なる例示である。1実施例では、該高速制御器708はメモリー707、デイスプレー716(例えば、グラフイックスプロセッサ又はアクセラレーターを通して)そして高速拡張ポート710に接続され、該ポートは種々の拡張カード(示されてない)を受け入れることが出来る。該実施例では、低速制御器712は記憶デバイス706及び低速拡張ポート714に接続される。種々の通信ポート(例えば、USB、ブルーツース、イーサーネット、
無線イーサーネット)を有し得る該低速拡張ポートは、キーボード、ポインティングデバイス、スキャナーの様な1つ以上の入力/出力デバイス、又は例えばネットワークアダプターを通して、スイッチ又はルーターの様なネットワーク化デバイスに接続される。
該計算デバイス700は、図に示す様な多数の種々の形式で実現されてもよい。例えば、該デバイスは標準サーバー720として、又はこの様なサーバーのグループ内で多数倍で、実現されてもよい。また、該デバイスはラックサーバーシステム724の1部分として実現されてもよい。加えて、該計算デバイスはラップトップコンピュータ722の様なパーソナルコンピュータで実現されてもよい。代わりに、計算デバイス700の部品はモバイルデバイス(示されてない)内の他の部品と組み合わされてもよい。
主題の実施例とこの明細書に説明される機能的動作は、本明細書で開示される構造体及びそれらの構造的等価物、又はそれらの1つ以上の組み合わせを含む、デジタル電子回路、又はコンピュータソフトウエア、ファームウエア、又はハードウエアで実現されてもよい。本明細書で説明される主題の実施例は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置による実行用の又は該装置の操作を制御する、コンピュータ読み出し可能な媒体上で符号化されたコンピュータプログラムインストラクションの1つ以上のモジュール、として実現されてもよい。該コンピュータ読み出し可能な媒体は、機械読み出し可能な記憶デバイス、機械読み出し可能な記憶基盤、メモリーデバイス、機械読み出し可能な伝播信号をもたらす物の構成又はそれらの1つ以上の組み合わせであってもよい。用語“データ処理装置”は、例を上げれば、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ又はコンピュータを有する、データ処理用の全ての装置、デバイス、及び機械を含む。該装置は、ハードウエアに加えて、問題のコンピュータプログラム用の実行環境を創るコード、例えば、プロセッサファームウエア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコード、を含む。
コンピュータプログラム(プログラム、ソフトウエア、ソフトウエア・アプリケーション、スクリプト、又はコードとしても知られている)は、コンパイラ型又はインタプリタ型言語を含むどんな形式のプログラム用言語で書かれてもよく、該コンピュータプログラムは、スタンドアロンプログラムとして、又はモジュール、コンポーネント、サブルーチン、又は計算環境での使用に好適な他のユニットとして、を含むどんな形式で展開されてもよい。コンピュータプログラムはフアイルシステム内のフアイルに必ずしも対応する必要はない。プログラムは、他のプログラム又はデータを保持するフアイルの部分(例えば、マークアップ言語ドキュメント内に記憶された1つ以上のスクリプト)内に、問題のプログラムに専用化された1つのフアイル内に、或いは複数の協調したフアイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を記憶するフアイル)内に、記憶されてもよい。コンピュータプログラムは、1つのサイトに配置された、又は複数のサイトに亘り分散し、通信ネットワークにより相互接続された、1つのコンピュータ又は複数のコンピュータ、の上で実行されるよう展開されてもよい。
本明細書に説明された過程及びロジックフローは、入力データ上で動作し、出力を発生することにより機能を行うよう、1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサにより実行される。該過程及びロジックフローはまた、特定目的論理回路、例えば、FPGA{フイールドプログラマブルゲートアレー(field programmable gate array)}又はASIC{特定用途向け集積回路(application−specific integrated circuit)}、により実行されてもよく、そしてまた、該装置は該回路として実現されてもよい。
コンピュータプログラムの実行用に好適なプロセッサは、例によれば、汎用及び特定目的用マイクロプロセッサの両者、そして何等かの種類のデジタルコンピュータの何等かの1つ以上のプロセッサを含む。一般に、プロセッサはリードオンリーメモリー又はランダムアクセスメモリー又は両者からインストラクションとデータを受信する。コンピュータの重要要素は、インストラクションを実行するプロセッサとインストラクションとデータを記憶する1つ以上のメモリーデバイスである。一般に、コンピュータは、データを記憶する1つ以上の大量記憶デバイス、例えば磁気、光磁気ディスク又は光ディスク、を有するか、又はそれらからデータを受信する又はそれらにデータを転送する、又はその両者を行うよう、動作的に接続されている。しかしながら、コンピュータはこの様なデバイスを有する必要はない。更に、コンピュータはもう1つのデバイス、例えば、少しだけ例をあげれば、モバイル電話、パーソナルデジタルアシスタント(PDA)、モバイルオーディオプレーヤー、グローバルポジションニングシステム(GPS)受信器内に埋め込まれてもよい。コンピュータプログラムインストラクション及びデータを記憶するために好適なコンピュータ読み出し可能な媒体は、例によれば、半導体メモリーデバイス、例えばEPROM、EEPROM、及びフラッシュメモリーデバイス、磁気ディスク、例えば、内蔵されたハードディスク又は取り外し可能なディスク、光磁気ディスクそしてCD−ROM及びDVD−ROMディスクを含む全ての形式の不揮発性のメモリー、媒体及びメモリーデバイスを含む。該プロセッサ及びメモリーは特定目的論理回路、により補足されてもよく、該回路内に組み込まれてもよい。
本明細書に説明された主題の実施例は、例えばデータサーバーとしてバックエンドコンポーネントを有する、又はミドルウエアコンポーネント、例えば応用サーバー、を有する、又はフロントエンドコンポーネント、例えばユーザーが本明細書に説明される主題の実施で相互作用するグラフイカルユーザーインターフエース又はウエブブラウザーを有するクライアントコンピュータ、又は1つ以上のこの様なバックエンド、ミドルウエア又はフロントエンドコンポーネントの何等かの組み合わせ、を有する、計算システム内で実現されてもよい。該システムの該コンポーネントは何等かの形式の又は媒体のデジタルデータ通信、例えば、通信ネットワークにより相互接続されてもよい。通信ネットワークの例はローカルエリアネットワーク(“LAN”)及びワイドエリヤネットワーク(“WAN”)、例えばインターネットを含む。
該計算システムはクライアント及びサーバーを有してもよい。クライアント及びサーバーは一般に相互に遠隔にあり、通信ネットワークを通して相互作用するのが典型的である。クライアントとサーバーの関係は、それぞれのコンピュータ上で実行し、相互にクライアント−サーバー関係を有するコンピュータプログラムにより発生する。
本明細書は多くの詳細事項を含むが、これらは本発明の範囲又は請求されるものの限定としてでなく、寧ろ本発明の特定の実施例に特定的な特徴の説明として解釈されるべきである。別々の実施例の文脈で本明細書で説明された或る特徴はまた、1つの実施例内で組み合わせで実施されてもよい。逆に、1つの実施例の文脈で説明された種々の特徴が、多数の実施例で別々に、又は何等か適当な部分組み合わせで、実現されてもよい。更に、特徴が、上記で或る組み合わせで作用すると説明され、例えその様に最初に請求されても、請求された組み合わせからの1つ以上の特徴は、或る場合には該組み合わせから切り取られてもよく、請求された組み合わせは部分組み合わせ又は部分組み合わせの変種に向けられてもよい。
同様に、操作は特定の順序で図に画かれているが、これは、望ましい結果を達成するために、この様な操作が示された特定の順序又はシーケンシャルな順序で行われること、又は全ての図解された操作が行われること、を要すると理解されるべきでない。或る環境では、マルチタスク及び並列処理が有利であるかも知れない。更に、上記説明の実施例の種
々のシステムコンポーネントの分離は全ての実施例でこの様な分離を要すると理解されるべきでなく、説明されたプログラムコンポーネントとシステムは概略、1つのソフトウエア製品に一緒に集積されてもよく、或いは複数のソフトウエア製品内にパッケージされてもよいと理解されるべきである。
かくして、本発明の特定の実施例は説明された。他の実施例は下記請求項の範囲内にある。例えば、請求項で詳述されるアクションは異なる順序で行われてもよく、それでも望ましい結果を達成する。

Claims (30)

  1. コンピュータで実施する方法であって、
    予め規定された3次元場面の焦点面を、該3次元場面の2つ以上の異なる2次元表現のセットから識別する過程であって、該焦点面は該2つ以上の異なる2次元表現の各々からの高空間周波数成分によって識別される過程、
    高空間周波数成分によって識別された物体の一部に基づき予め規定された3次元場面内のグラフイカル要素の奥行きを識別する過程であって、該物体が該予め規定された3次元場面の2つ以上の異なる2次元表現のそれぞれに表現されており、該奥行きを識別する過程が2つ以上の異なる2次元表現に表現された高空間周波数成分によって識別された物体の対応する複数の部分の間の視差を決定する過程を含む、該グラフイカル要素の奥行きを識別する過程と、そして、
    該グラフイカル要素を有する該予め規定された3次元場面の2つ以上の異なる2次元表現を作る過程と、を具備する該コンピュータで実施する方法。
  2. 前記予め規定された3次元場面の前記2つ以上の異なる表現から前記物体の部分の高空間周波数成分を決定する過程を更に具備する請求項1記載のコンピュータで実施する方法。
  3. 前記物体の部分の高空間周波数成分を決定する過程が前記予め規定された3次元場面の前記2つ以上の異なる2次元表現にフイルターをかける過程を備える請求項2記載のコンピュータで実施する方法。
  4. 前記物体の部分の高空間周波数成分を決定する過程が前記予め規定された3次元場面の前記フイルターをかけられた2つ以上の異なる2次元表現を比較する過程を備える請求項3記載のコンピュータで実施する方法。
  5. 前記2つ以上の異なる2次元表現にフイルターをかける過程がコンテンツのエッジを識別する過程を有する請求項3記載のコンピュータで実施する方法。
  6. フイルターをかける過程が、前記2つ以上の異なる2次元表現内に表された高空間周波数特性を識別するためにハイパスフイルターをかける過程を有する請求項3記載のコンピュータで実施する方法。
  7. 前記2つ以上の異なる2次元表現が前記予め規定された3次元場面の異なる視認図を表す請求項1記載のコンピュータで実施する方法。
  8. 前記2つの異なる表現を作る過程が2つ以上の異なる2次元視認図で該グラフイカル要素を表す過程を備える請求項1記載のコンピュータで実施する方法。
  9. 前記グラフイカル要素が幾何学的物体、ユーザーインターフエースの部分、画像及びテキストの少なくとも1つを表す請求項1記載のコンピュータで実施する方法。
  10. 奥行き情報が圧縮された映像データから決定される請求項1記載のコンピュータで実施する方法。
  11. 計算デバイスであって
    インストラクションを記憶するメモリーと、そして
    予め規定された3次元場面の焦点面の、該3次元場面の2つ以上の異なる2次元表現のセットからの識別であって、該2つ以上の異なる2次元表現の各々からの高空間周波数成
    分による該焦点面の識別、
    高空間周波数成分によって識別された物体の一部に基づき予め規定された3次元場面内のグラフイカル要素の奥行きの識別であって、該物体が該予め規定された3次元場面の2つ以上の異なる2次元表現のそれぞれに表現されており、該奥行きを識別する過程が2つ以上の異なる2次元表現に表現された高空間周波数成分によって識別された物体の対応する複数の部分の間の視差を決定する過程を含む、該グラフイカル要素の奥行きの識別、そして、
    該グラフイカル要素を有する該予め規定された3次元場面の2つ以上の異なる2次元表現の作成
    のインストラクションを実行するよう構成されたプロセッサ
    を具備する該計算デバイス。
  12. 前記プロセッサが
    前記予め規定された3次元場面の前記2つ以上の異なる表現から前記物体の部分の高空間周波数成分を決定するよう更に構成される請求項11記載の計算デバイス。
  13. 前記物体の部分の高空間周波数成分を決定するために、前記プロセッサが前記予め規定された3次元場面の前記2つ以上の異なる2次元表現にフイルターをかけるよう構成される請求項12記載の計算デバイス。
  14. 前記物体の部分の高空間周波数成分を決定するために、前記プロセッサが前記予め規定された3次元場面の前記フイルターをかけられた2つ以上の異なる2次元表現を比較するよう構成される請求項13記載の計算デバイス。
  15. 前記2つ以上の異なる2次元表現にフイルターをかけるために、前記プロセッサがコンテンツのエッジを識別するよう構成される請求項13記載の計算デバイス。
  16. フイルターをかけるために、前記プロセッサが前記2つ以上の異なる2次元表現内に表された高空間周波数特性を識別するためにハイパスフイルターをかけるよう構成される請求項13記載の計算デバイス。
  17. 前記2つ以上の異なる2次元表現が前記予め規定された3次元場面の異なる視認図を表す請求項11記載の計算デバイス。
  18. 前記2つの異なる表現を作るために、前記プロセッサが前記グラフイカル要素を2つ以上の異なる2次元視認図で表すよう構成される請求項11記載の計算デバイス。
  19. 前記グラフイカル要素が幾何学的物体、ユーザーインターフエースの1部分、画像及びテキストの少なくとも1つを表す請求項11記載の計算デバイス。
  20. 奥行き情報が圧縮された映像データから決定される請求項11記載の計算デバイス。
  21. 処理デバイスにより実行可能なインストラクションであり、この様な実行時、該処理デバイスに、
    予め規定された3次元場面の焦点面を、該3次元場面の2つ以上の異なる2次元表現のセットから識別する過程であって、該焦点面は該2つ以上の異なる2次元表現の各々からの高空間周波数成分によって識別される過程、
    高空間周波数成分によって識別された物体の一部に基づき予め規定された3次元場面内のグラフイカル要素の奥行きを識別する過程であって、該物体が該予め規定された3次元場面の2つ以上の異なる2次元表現のそれぞれに表現されており、該奥行きを識別する過
    程が2つ以上の異なる2次元表現に表現された高空間周波数成分によって識別された物体の対応する複数の部分の間の視差を決定する過程を含む、該グラフイカル要素の奥行きを識別する過程と、
    該グラフイカル要素を有する該予め規定された3次元場面の2つ以上の異なる2次元表現を作る過程と、を具備する操作を行わせる該インストラクションを記憶する、1つ以上のコンピュータ読み出し可能な媒体。
  22. 前記操作が
    前記予め規定された3次元場面の前記2つ以上の異なる表現から前記物体の部分の高空間周波数成分を決定する過程を更に具備する請求項21記載のコンピュータ読み出し可能な媒体。
  23. 前記物体の部分の高空間周波数成分を決定する過程が前記予め規定された3次元場面の前記2つ以上の異なる2次元表現にフイルターをかける過程を備える請求項22記載のコンピュータ読み出し可能な媒体。
  24. 前記物体の部分の高空間周波数成分を決定する過程が前記予め規定された3次元場面の前記フイルターをかけられた2つ以上の異なる2次元表現を比較する過程を備える請求項23記載のコンピュータ読み出し可能な媒体。
  25. 前記2つ以上の異なる2次元表現にフイルターをかける過程がコンテンツのエッジを識別する過程を有する請求項23記載のコンピュータ読み出し可能な媒体。
  26. フイルターをかける過程が前記2つ以上の異なる2次元表現内に表された高空間周波数特性を識別するためにハイパスフイルターをかける過程を有する請求項23記載のコンピュータ読み出し可能な媒体。
  27. 前記2つ以上の異なる2次元表現が前記予め規定された3次元場面の異なる視認図を表す請求項21記載のコンピュータ読み出し可能な媒体。
  28. 前記2つの異なる表現を作る過程が前記グラフイカル要素を2つ以上の異なる2次元視認図を用いて表す過程を備える請求項21記載のコンピュータ読み出し可能な媒体。
  29. 前記グラフイカル要素が幾何学的物体、ユーザーインターフエースの1部分、画像及びテキストの少なくとも1つを表す請求項21記載のコンピュータ読み出し可能な媒体。
  30. 奥行き情報が圧縮された映像データから決定される請求項21記載のコンピュータ読み出し可能な媒体。
JP2016085698A 2010-08-10 2016-04-22 マルチビューシーン内のグラフイックス表示 Pending JP2016178655A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/853,859 US10134150B2 (en) 2010-08-10 2010-08-10 Displaying graphics in multi-view scenes
US12/853,859 2010-08-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013524146A Division JP2013541067A (ja) 2010-08-10 2011-08-08 マルチビューシーン内のグラフイックス表示

Publications (1)

Publication Number Publication Date
JP2016178655A true JP2016178655A (ja) 2016-10-06

Family

ID=45564501

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013524146A Pending JP2013541067A (ja) 2010-08-10 2011-08-08 マルチビューシーン内のグラフイックス表示
JP2016085698A Pending JP2016178655A (ja) 2010-08-10 2016-04-22 マルチビューシーン内のグラフイックス表示

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013524146A Pending JP2013541067A (ja) 2010-08-10 2011-08-08 マルチビューシーン内のグラフイックス表示

Country Status (5)

Country Link
US (1) US10134150B2 (ja)
EP (1) EP2603902B1 (ja)
JP (2) JP2013541067A (ja)
KR (1) KR101907945B1 (ja)
WO (1) WO2012021443A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019013509A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013498A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013508A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013500A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013501A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
KR101867824B1 (ko) * 2010-10-28 2018-06-18 엘지전자 주식회사 모바일 환경에서 3차원 방송 신호를 수신하기 위한 수신 장치 및 방법
KR101587623B1 (ko) * 2010-12-09 2016-01-21 한국전자통신연구원 시각적 피로 최소화를 지원하는 입체영상 제작시스템 및 그 방법
FR2971875B1 (fr) * 2011-02-23 2017-11-03 Mobiclip Dispositif et procede de gestion de la position du plan focal dans une scene stereoscopique
EP2648414B1 (en) * 2012-04-03 2016-03-23 Samsung Electronics Co., Ltd 3d display apparatus and method for processing image using the same
US20140192158A1 (en) * 2013-01-04 2014-07-10 Microsoft Corporation Stereo Image Matching
JP2014203017A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置、画像処理方法、表示装置、および電子機器
KR102143473B1 (ko) * 2013-11-13 2020-08-12 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 다시점 영상 디스플레이 방법
US20160048019A1 (en) * 2014-08-12 2016-02-18 Osterhout Group, Inc. Content presentation in head worn computing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
KR101545511B1 (ko) * 2014-01-20 2015-08-19 삼성전자주식회사 의료 영상 재생 방법, 의료 영상 재생 장치, 및 컴퓨터 판독가능 기록매체
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
KR102143463B1 (ko) * 2015-09-24 2020-08-12 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US10846918B2 (en) * 2017-04-17 2020-11-24 Intel Corporation Stereoscopic rendering with compression
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
WO2019152216A1 (en) * 2018-02-01 2019-08-08 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Systems and methods for robust background correction and/or emitter localization for super-resolution localization microscopy
JP7137313B2 (ja) 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム
US10972714B2 (en) * 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
WO2019173556A1 (en) * 2018-03-09 2019-09-12 Northwestern University Adaptive sampling for structured light scanning
US11217020B2 (en) 2020-03-16 2022-01-04 Snap Inc. 3D cutout image modification

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327432A (ja) * 1997-05-21 1998-12-08 Olympus Optical Co Ltd 立体画像表示装置
JP2001016612A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像撮像方法
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2007037011A (ja) * 2005-07-29 2007-02-08 Toyota Motor Corp 画像処理装置
JP2009210840A (ja) * 2008-03-05 2009-09-17 Fujifilm Corp 立体画像表示装置および方法並びにプログラム
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6549650B1 (en) * 1996-09-11 2003-04-15 Canon Kabushiki Kaisha Processing of image obtained by multi-eye camera
JP2927350B2 (ja) * 1997-03-27 1999-07-28 株式会社モノリス 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法
US6504569B1 (en) * 1998-04-22 2003-01-07 Grass Valley (U.S.), Inc. 2-D extended image generation from 3-D data extracted from a video sequence
US6807295B1 (en) 1999-06-29 2004-10-19 Fuji Photo Film Co., Ltd. Stereoscopic imaging apparatus and method
KR20030029649A (ko) * 2000-08-04 2003-04-14 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 화상 변환 및 부호화 기술
GB2378108B (en) * 2001-07-24 2005-08-17 Imagination Tech Ltd Three dimensional graphics system
KR100520707B1 (ko) 2003-10-20 2005-10-17 엘지전자 주식회사 3차원 지도에서의 다중레벨 텍스트데이터 표시방법
US7412110B1 (en) * 2004-01-28 2008-08-12 Adobe Systems Incorporated Using forward and backward kernels to filter images
JP2005236442A (ja) * 2004-02-17 2005-09-02 Sanyo Electric Co Ltd 電子透かし埋め込み装置と方法ならびに電子透かし抽出装置と方法
JP4737711B2 (ja) * 2005-03-23 2011-08-03 富士ゼロックス株式会社 復号化装置、逆量子化方法、分布決定方法及びこのプログラム
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
WO2007116549A1 (ja) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha 画像処理装置
JP2007316693A (ja) * 2006-05-23 2007-12-06 Monolith Co Ltd 画像符号化方法および画像符号化装置
US9076265B2 (en) * 2006-06-16 2015-07-07 Ati Technologies Ulc System and method for performing depth testing at top and bottom of graphics pipeline
US20080205791A1 (en) * 2006-11-13 2008-08-28 Ramot At Tel-Aviv University Ltd. Methods and systems for use in 3d video generation, storage and compression
US8594137B2 (en) * 2007-02-20 2013-11-26 Teradici Corporation Apparatus and methods for image decoding
CA2627999C (en) * 2007-04-03 2011-11-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
TWI327536B (en) * 2007-05-16 2010-07-21 Univ Nat Defense Device and method for detecting obstacle by stereo computer vision
KR100899422B1 (ko) 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법
JP2009135686A (ja) 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
CN102100076B (zh) * 2008-07-24 2013-06-12 松下电器产业株式会社 能够进行立体视觉再生的再生装置、再生方法
ES2435669T3 (es) 2008-07-25 2013-12-20 Koninklijke Philips N.V. Gestión de subtítulos en visualización en 3D
US8665374B2 (en) * 2008-08-22 2014-03-04 Disney Enterprises, Inc. Interactive video insertions, and applications thereof
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
KR101506926B1 (ko) 2008-12-04 2015-03-30 삼성전자주식회사 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
US8436918B2 (en) * 2009-02-27 2013-05-07 Deluxe Laboratories, Inc. Systems, apparatus and methods for subtitling for stereoscopic content
US9129644B2 (en) * 2009-06-23 2015-09-08 Disney Enterprises, Inc. System and method for rendering in accordance with location of virtual objects in real-time
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
NL2008690C2 (en) * 2011-04-25 2014-07-15 Google Inc Dynamic highlighting of geographic entities on electronic maps.
US10573039B2 (en) * 2016-10-03 2020-02-25 Netflix, Inc. Techniques for incorporating a text-containing image into a digital image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327432A (ja) * 1997-05-21 1998-12-08 Olympus Optical Co Ltd 立体画像表示装置
JP2001016612A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像撮像方法
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
JP2006325165A (ja) * 2005-05-20 2006-11-30 Excellead Technology:Kk テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2007037011A (ja) * 2005-07-29 2007-02-08 Toyota Motor Corp 画像処理装置
JP2009210840A (ja) * 2008-03-05 2009-09-17 Fujifilm Corp 立体画像表示装置および方法並びにプログラム
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
JP2012510750A (ja) * 2008-12-01 2012-05-10 アイマックス コーポレイション 内容順応情報を有する3次元動画提示方法及びシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019013509A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013498A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013508A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013500A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機
JP2019013501A (ja) * 2017-07-07 2019-01-31 株式会社藤商事 遊技機

Also Published As

Publication number Publication date
EP2603902A4 (en) 2014-08-13
JP2013541067A (ja) 2013-11-07
EP2603902A2 (en) 2013-06-19
WO2012021443A3 (en) 2012-05-10
US20120038641A1 (en) 2012-02-16
KR101907945B1 (ko) 2018-10-15
EP2603902B1 (en) 2018-10-03
WO2012021443A2 (en) 2012-02-16
KR20130138177A (ko) 2013-12-18
US10134150B2 (en) 2018-11-20

Similar Documents

Publication Publication Date Title
JP2016178655A (ja) マルチビューシーン内のグラフイックス表示
US10095953B2 (en) Depth modification for display applications
US20110298898A1 (en) Three dimensional image generating system and method accomodating multi-view imaging
US8213708B2 (en) Adjusting perspective for objects in stereoscopic images
US20120140038A1 (en) Zero disparity plane for feedback-based three-dimensional video
US8982187B2 (en) System and method of rendering stereoscopic images
CA2669016A1 (en) System and method for compositing 3d images
KR20140030138A (ko) 입체 화상 및 비디오를 생성하는 방법, 시스템, 장치 및 관련 프로세스 로직
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
WO2006019405A2 (en) System and method for managing stereoscopic viewing
US10757391B2 (en) Signaling warp maps using a high efficiency video coding (HEVC) extension for 3D video coding
JP2006211291A (ja) 立体視可能な表示装置および方法
US20130321409A1 (en) Method and system for rendering a stereoscopic view
KR20140043264A (ko) 다시점 영상 처리 장치 및 방법
JP2022174085A (ja) 場面の積層深度データを生成するための方法
Habigt et al. Image completion for view synthesis using markov random fields and efficient belief propagation
WO2012014009A1 (en) Method for generating multi-view images from single image
Kuo et al. High efficiency depth image-based rendering with simplified inpainting-based hole filling
Burini et al. Blind detection for disparity-coherent stereo video watermarking
Lim et al. Learning based hole filling method using deep convolutional neural network for view synthesis
Kim et al. Resizing of stereoscopic images for display adaptation
Zhang et al. DIBR-based conversion from monoscopic to stereoscopic and multi-view video
Hrozek et al. Depth Map Calculation for Autostereoscopic 3D Display
Mulajkar et al. Development of Semi-Automatic Methodology for Extraction of Depth for 2D-to-3D Conversion
Chahal et al. Stereo Pair Generation by Introducing Bokeh Effect in 2D Images

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181108