JP2014507873A - 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{methodanddeviceforstereobaseextensionofstereoscopicimagesandimagesequences} - Google Patents

立体画像および画像シーケンスのステレオベース拡張のための方法および装置{methodanddeviceforstereobaseextensionofstereoscopicimagesandimagesequences} Download PDF

Info

Publication number
JP2014507873A
JP2014507873A JP2013549716A JP2013549716A JP2014507873A JP 2014507873 A JP2014507873 A JP 2014507873A JP 2013549716 A JP2013549716 A JP 2013549716A JP 2013549716 A JP2013549716 A JP 2013549716A JP 2014507873 A JP2014507873 A JP 2014507873A
Authority
JP
Japan
Prior art keywords
viewpoint
camera
composite
viewpoints
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013549716A
Other languages
English (en)
Other versions
JP6128442B2 (ja
Inventor
ナスケ,ロルフ−ディーター
Original Assignee
ステリックス テクノロジーズ ユージー (ハフツングスベシュランクト)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ステリックス テクノロジーズ ユージー (ハフツングスベシュランクト) filed Critical ステリックス テクノロジーズ ユージー (ハフツングスベシュランクト)
Publication of JP2014507873A publication Critical patent/JP2014507873A/ja
Application granted granted Critical
Publication of JP6128442B2 publication Critical patent/JP6128442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

本発明は、立体画像(stereoscopic images)および画像シーケンス(image sequences)の奥行き知覚(depth impression)を改善するための方法および装置に関する。オートステレオスコピック・マルチビューアー・ディスプレイ装置(autostereoscopic multi−viewer display device)においては、一般的に多数の中間視点(intermediate perspectives)が発生し、前記中間視点は、ビューアーによって知覚される時に縮小されたステレオベース(stereo base)を生じさせる。本出願書に提示されたステレオベース拡張(stereo base−widening)は、重要な改善およびそれと共に現実的な奥行き知覚を誘導する。このような改善は、カメラでの測定時になされるか、またはディスプレイ装置の内部に統合されることができる。奥行き知覚の改善は合成視点の発生によって達成され、前記合成視点はカメラレンズの注視方向から見る時に最左側および最右側のカメラレンズによって形成された連結線の右側および左側の延長部(lengthening)において前記測定された最左側および最右側のカメラレンズの左側および右側にある。前記合成視点は単に提供されたまたは予備処理ステップにおいて計算された視差マップ(disparity map)に基づいてのみ計算される。この場合、提示された方法は次のような問題点を解決する。1.新しい拡張視点の計算、2.ビジュアルゾーン(visual zone)内部に提供されたカメラレンズの正確な再位置設定(re−positioning)、3.拡張において衝突の場合にどの視差が続行されるべきかに対する規定、および4.ステレオベース拡張によって可視になるイメージ領域の内挿(interpolation)。この場合は左側および右側マスキング(masking)も確認され、前記拡張視点において視覚的に正確に維持し補完される。
【選択図】図2

Description

本発明は、立体画像と画像シーケンス(image sequences)の奥行き知覚(depth impression)を改善するための方法および装置に関する。このような改善は、ステレオカメラで測定する時にまたは立体ディスプレイ装置内でなされる。
1931年に既にLuescherの参考文献[1]に該当する自身の論文において、ステレオスコピー(stereoscopy)の基本規則を定めた。第1規則(a)は、立体画像の左右側部分のイメージが同一の視覚差を有しなければならないということであり、言い換えれば、ステレオベースが65mmの範囲内に置かれなければならないということである。
技術や設計上の色々な理由により、前記規則はステレオカメラやビデオ・レコーダーにおいて違背する場合がある。この場合、本発明によるステレオベース拡張による適応がなされる。
測定時、このようなレンズ間隔が守られれば、このレンズ間隔は、3Dメガネを使うか、またはオートステレオスコピック・シングルビューアー・ディスプレイ装置において優れた奥行き知覚を生じさせる。
しかし、オートステレオスコピック・マルチビューアー・ディスプレイ装置においては、一般的に多数の中間視点画像が生じ、このため、奥行き知覚が落ちる。このような現象は、Luescherによって立てられた基本規則、すなわち、「見る時は測定する時と同じ視覚(ステレオベース)が維持されなければならない」という基本規則に矛盾する。この場合にも、本発明によるステレオベース拡張は重要な改善を図り、現実と同じ奥行き知覚を生じさせることができる。
以下、オートステレオスコピック・マルチビューアー・ディスプレイ装置のためのステレオベース拡張を先に説明した後に立体測定装置にその例を拡張するが、必ずしもこれに限定されるものではない。2つの場合の基本原理が同一であるので、このような説明も可能である。
Luescher:「ステレオスコピーの基本規則(Grundregeln der Stereoskopie)」,Der Stereoskopiker,Nr.5,1931年1月15日,Organ der Gesellschaft fuer Stereoskopie e.V. Krah,C.:「3次元ディスプレイシステム(Three−dimensional Display System)」,US/2006/7843449 Teik,Ohら:「奥行きエンコーディングされたソースビューからの3D画像合成(3D Image Synthesis from Depth Encoded Source View)」,US2004/0100464 Huang H−Cら:「立体ビデオから多重観点ビデオの発生(Generation of Multiviewpoint video from stereoscopic video)」,IEEE Transactions on Consumer Electronics,NY,US vol.45,No.1,1999年2月 Hendrik Eら:「デジタル多重観点立体画像のリアルタイム合成(Real time Synthesis of digital multi viewpoint stereoscopic images)」,Proceedings of SPIE,SPIE,Bellingham,VA,US,Vol.3639,1999年1月,XP008021883 Kamins−Naske,S.ら:「擬似ホログラフィック画像合成のための方法および装置(Verfahren und Vorrichtung zur pseudoholographischen Bildsynthese)」,WO 2007/121970,2007年11月1日 Humera Noor:「実場面のビュー外挿による仮想イメージの発生(Virtual Image Generation by View Extrapolation of Real Scenes)」,MUET Journal,2008年
3Dメガネの支援を受けるディスプレイ装置においては、全てのビューアーが同時に1つの優れた3D印象を知覚することができる。この場合一般的に2つのレンズを有するステレオカメラによって測定された立体画像が各々ビューアーの左右側の目に提供される。多くのビューアーが3Dメガネを着用すれば、検知された目の間隔が2つのカメラレンズの間隔と正確に一致する。一般的に、この間隔は自然な空間感を感じるために約65mmの範囲内にある。
オートステレオスコピック・マルチビューアー・ディスプレイにおいては、ディスプレイの前に正確に1つの最適観察位置が存在し、この観察位置において1人のビューアーだけが最適な奥行き知覚を感じることができる。いくつかのオートステレオスコピック・シングルビューアー・ディスプレイは、いわゆる、ヘッド・トラッキング・システムによってビューアーの目を追跡して各ビューアーに適応するようにする。
参考文献[2]には、多数のビューアーが同時に観察され、追跡することができるシステムが初めて記載されている。
全てのシステムにおける共通点は、ビューアーが最適な奥行き知覚を感じるのに必要なカメラ視点は2個であればよい。
しかし、このような方式は居間や公共施設において利用するには非実用的である。できるだけ多くのビューアーが同時に運動性の制限なしで最適な奥行き知覚を感じなければならない。
公知のオートステレオスコピック・マルチビューアー・ディスプレイ装置で感じることができるこのような最適な奥行き知覚は、測定されたカメラ視点の間に所定の中間視点が合成によって生成され、このような中間視点をディスプレイ装置の前に一端のビジュアルゾーンを生成するのに利用して得ることができる。各々のビジュアルゾーンにおいて1人や多数のビューアーが自由に動くことができ、1つの奥行き知覚を感じることができる。
ビジュアルゾーンは、用いられた光学システムに応じて所定の幅を有する。ビューアーがビジュアルゾーンの左側縁にいれば、ビューアーの左側目が左側カメラ視点を知覚し、ビューアーがビジュアルゾーンの右側縁にいれば、ビューアーの右側目が右側カメラ視点を知覚する。一般的に、ビジュアルゾーンの幅は300〜600mm程度である。ビューアーが一方のビジュアルゾーンから他方のビジュアルゾーンに移動すれば、短い区間において鮮明でない立体画像が生成される。
しかし、ビジュアルゾーン間隔(約65mm)が目間隔より遥かに広いため、左側縁の右側目は、右側カメラ視点よりは左側カメラ視点において遥かに稠密な視点を感じる。このような事実により、検知された目間隔がカメラ間隔、すなわち、2つのカメラレンズの間隔より遥かに小さいことが分かる。結果的に、オートステレオスコピック・マルチビューアー・ディスプレイ装置においては、奥行き知覚が大幅に減少する。このような奥行き知覚の減少率は、ビジュアルゾーンの幅が広いほど大きい。一方、ビューアーの運動自由度を最大化しようとすれば、ビジュアルゾーンの幅はできるだけ広くなければならない。
奥行き知覚の減少は、前述したディスプレイ装置の主な短所であり、本発明の方法によって軽減されなければならず、場合に応じては完全に無くならなければならない。
このような短所の除去は、カメラレンズの注視方向が測定された最左側および最右側カメラレンズの左側および右側にあり、特許請求項1に記載されたような「視覚的な視点」の発生によって達成される。このような視覚的な視点を、以下、ステレオベース拡張といい、これは、最左側にあるカメラレンズと最右側にあるカメラレンズとの間の連結線がステレオベースであり、発生した視覚的な視点が測定されたステレオベースの延長部にあるためである。
また、本発明は、少なくとも1つのプロセッサおよびメモリを含む本発明による方法を実施する装置に関するものでもある。
ステレオベース拡張は今まで音響分野にのみ記述された。このような音響分野においては関連文献が広く公知されているが、これらの文献を本発明では引用しない。
参考文献[3]には、提供された2Dイメージおよび奥行きマップ(depth map)から出発して多数の視点が提供された2Dイメージの左右側から生成される方法が記述されている。この文献に記述された方式によれば、2Dイメージは奥行きマップによって変形される。しかし、この方式では視覚的に正確な視点は現れることができず、これは、左右側マスキングに関する情報がないためである。本発明による方法のためには、必ず2つ以上の視点が提供された立体画像が必要である。このような状況にのみ、様々な合成視点に視覚的に正確にマスキングを実現することができる。
一方、左右側カメラの視点の間の中間視点を生成する複数の方法が公知されている。本発明は、参考文献[4]や[5]を参照する。
このような全ての方法は本発明とは関連がない。これは、これらの方法がステレオベースの外部において追加視点を生成するのにあるものではなく、好ましい方式に変形されることもできないためである。
また、例えば、参考文献[7]に記述されたような外挿変形方法も前述した問題の解決に利用することができず、これは、このような方法が場面の幾何学的な特性を視覚的に正確に維持し補完できないためである。
今まで公知されたマルチビューアー・ディスプレイ装置の場合のビジュアルゾーンにおけるステレオカメラのステレオベースの変換を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
1:ビューアーの目間隔
2:ビューアー位置におけるビジュアルゾーン幅
3:ステレオカメラのレンズ間隔
4:検知された目間隔
5:ディスプレイ装置
ビジュアルゾーンにおけるステレオベース拡張によるステレオカメラの拡張されたステレオベースの変換を示す概略図である。
LC:左側実カメラ視点
RC:右側実カメラ視点
LE:左側合成カメラ視点
RE:右側合成カメラ視点
1:ビューアーの目間隔
2:ビューアー位置におけるビジュアルゾーン幅
3:実ステレオカメラのレンズ間隔
4:検知された目間隔
5:ディスプレイ装置
3つのオブジェクトを有する場面がステレオカメラの右側レンズによって測定された概略図である。
RR:右側網膜(retina)
O1:オブジェクト1
O2:オブジェクト2
O3:オブジェクト3
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
ステレオカメラの左側レンズによって測定された、図3と同一の場面を示す概略図である。
LR:左側網膜
O1:オブジェクト1
O2:オブジェクト2
O3:オブジェクト3
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
図4に示された左側イメージLCおよび図3に示された右側イメージRCの視差(disparity)を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
RV2:オブジェクト2の右側マスキング
RV3:オブジェクト3の右側マスキング
LV2:オブジェクト2の左側マスキング
LV3:オブジェクト3の左側マスキング
図5の視差に対する図示および様々な中間視点における前記視差の図である。
LC:左側カメラ視点
RC:右側カメラ視点
Z1:中間視点1
Z2:中間視点2
Z3:中間視点3
Z4:中間視点4
Z5:中間視点5
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
RV2:オブジェクト2の右側マスキング
RV3:オブジェクト3の右側マスキング
LV2:オブジェクト2の左側マスキング
LV3:オブジェクト3の左側マスキング
図5に示されたステレオベース拡張の実行を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
Z1:中間視点1
Z2:中間視点2
Z3:中間視点3
Z4:中間視点4
Z5:中間視点5
LE:左側拡張視点
RE:右側拡張視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
?:内挿(interpolating)する新しい左側および右側マスキング
ポインター(pointer)pLCおよびpRCを例に示す図である。
LC:左側カメラ視点
RC:右側カメラ視点
LE:左側拡張視点
RE:右側拡張視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
pLC(jl1):測定されたカメラ視点LCの拡張視点LEの箇所(jl1)から眺めたポインター
pRC(jl1):測定されたカメラ視点RCの拡張視点LEの箇所(jl1)から眺めたポインター
pLC(jl1*):測定されたカメラ視点LCの拡張視点LEの箇所(jl1*)から眺めたポインター
pRC(jl1*):測定されたカメラ視点RCの拡張視点LEの箇所(jl1*)から眺めたポインター
LCのステレオベースの外部における追加の中間視点の発生を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
Z1:中間視点1
Z2:中間視点2
Z3:中間視点3
Z4:中間視点4
Z5:中間視点5
LE:左側拡張視点
RE:右側拡張視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
?:内挿(interpolating)する新しい左側および右側マスキング
LE1:左側拡張視点1
LE2:左側拡張視点2
LE3:左側拡張視点3
LE4:左側拡張視点4
LE5:左側拡張視点5
RE1:右側拡張視点1
RE2:右側拡張視点2
RE3:右側拡張視点3
RE4:右側拡張視点4
RE5:右側拡張視点5
左側マスキングの可能性および左側マスキングの処理を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
LE:左側拡張視点
RE:右側拡張視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
?:内挿(interpolating)する新しい左側および右側マスキング
右側マスキングの可能性および右側マスキングの処理を示す概略図である。
LC:左側カメラ視点
RC:右側カメラ視点
LE:左側拡張視点
RE:右側拡張視点
PO1:O1のオブジェクトセグメントの投影
PO2:O2のオブジェクトセグメントの投影
PO3:O3のオブジェクトセグメントの投影
?:内挿(interpolating)する新しい左側および右側マスキング
全体フローチャートである。
1:LE_Where(どこに)、pLCおよびpRCを初期化する
2:jl1:=Anfang(開始)
3:Where(jl1)=−1?
Y:Yes(はい)
N:No(いいえ)
4:Where(jl1)−Where(jl1−1)=0?
5:│Where(jl1)−Where(jl1−1)│>1?
6:右側マスキング処理
7:拡張を直接的に処理する
8:左側マスキング処理
9:jl1=jl1+1
10:jl1>Ende(終わり)?
11:LE_Where(どこに)がWhere(どこに)に移る
「右側マスキング処理」に関するフローチャートである。
1:左側縁から視差を検出する
2:右側縁から視差を検出する
3:左側縁が前方に?
Y:Yes
N:No
4:左側縁から拡張を検出する
5:右側に行って右側縁から拡張を検出する
6:右側縁から拡張を検出する
7:左側に行って左側縁から拡張を検出する
8:左側境界を設定する
9:右側境界を設定する
10:左側LE_Where(どこに)から−1を有するjl1まで満たす
「左側マスキング処理」に関するフローチャートである。
1:左側境界が正確に設定されたため、拡張が前記左側境界より初めてさらに大きい右側境界を検索する
2:右側境界を設定する
分析された場面の複雑性および拡張率に応じて内挿される画素のパーセンテージに対する統計である。
PE:%で示す拡張率
%:HD立体画像の内挿される画素のパーセンテージ
H:複雑性が高い場面
L:複雑性が低い場面
用いられた縮約語に関する説明
AE:ステレオカメラの2つレンズの提供された間隔から発生する前記レンズの拡張された間隔
AA:ビューアーの目間隔
AB:ディスプレイ装置からビューアーの左側および右側の目に投影される視点の間隔;「検知された目間隔」;検知されたステレオベース
SZ:ビジュアルゾーンの幅;ビジュアルゾーン幅
KA:ステレオカメラのレンズ間隔;測定されたステレオベース幅
N:提供されたカメラ視点数
M:発生した拡張視点数
DU:最適な奥行き知覚のためにそれ以下に落ちてはいけない、ディスプレイ装置上に現れる視差の下限
DO:最適な奥行き知覚のためにそれ以上に超過してはいけない、ディスプレイ装置上に現れる視差の上限
F:拡張率
PE:提供された立体画像の最大視差の拡張率
LC:提供された最左側のカメラ視点
PC:提供された最右側のカメラ視点
LE:LCの左側にある最左側の拡張視点
RE:RCの右側にある最右側の拡張視点
pLC:LCの各々使われる測定された画素上にあるLEのポインターのフィールド
pRC:RCの各々使われる測定された画素上にあるLEのポインターのフィールド
Where(どこに):提供されたまたは計算された視差のフィールド;視差マトリックスのi番目の行
LE_Where(どこに):計算し拡張された視差のフィールド
K:提供された立体画像の行数
Dmax:提供された立体画像内における最大視差
ZW:発生された中間視点数
DSTEP:2つの中間視点の間にあるステップ幅の大きさ
NrP:ディスプレイする視点の個数
jl1:i行内にある特定画素位置
leftCapture:LCがディスプレイされるべき視点の番号
rightCapture:RCがディスプレイされるべき視点の番号
nrSegments:画素jl1の視差が与えられた場合の視点ステップ当たりの画素数
leftBorder:マスキングの左側縁における画素位置
rightBorder:マスキングの右側縁における画素位置
Anfang(開始):1行の処理する初めての画素位置
Ende(終わり):1行の処理する最後の画素位置
LE_Where_leftBorder:視差が最大右側ステレオベース拡張(RE)まで続行する場合のleftBorderにおける視差
LE_Where_rightBorder:視差が最大右側ステレオベース拡張(RE)まで続行する場合のrightBorderにおける視差
以下、本発明による処理ステップについて詳しく説明する。
以下の説明は、便宜上、下記の仮定に基づくが、これに限定されるものではない。
1.カメラ視点数(N)は2である。個数がさらに大きければ、提供されたカメラ視点のうちの特定カメラ視点が中間視点として利用される。
2.立体画像を正常な立体形態で供給し、全ての計算を1行ずつ行うことができる。一方、エピポーラ(epipolar)線に沿って校正を行うこともできる。
3.立体画像の他に視差マップ(disparity map)が利用される。視差マップは、立体画像と共に提供されるか、または予め提供される。前記視差マップにおいて、Whereはi番目の行にある。
4.以下で言及する全てのビジュアルゾーン(visual zones)は常に平行するとみなす。
前述したように、本発明の方法の目的は、マルチビューアー・ディスプレイ装置の光学手段によって規定されたビジュアルゾーンにおいて深度を改善するために、カメラ視点がN≧2である立体画像に基づいてステレオカメラに用いられるステレオベースKAの拡張を行うことにある。全てのオートステレオスコピック・マルチビューアー・ディスプレイ装置の光学手段は、各々のビジュアルゾーンにおいて、ビジュアルゾーンの左側縁に提供された左側カメラ視点と右側縁に提供された右側カメラ視点を知覚する。このような知覚は、ディスプレイ装置の前にある全ての箇所で適用される。ビジュアルゾーンの幅SZがビューアーの目間隔AAより大きければ、ビューアーはこのビジュアルゾーンにおいて自由に動くことができるため、ビジュアルゾーン幅SZを最大にすることが好ましい。
ビューアーの目間隔AAに応じて常に2つの互いに異なる中間視点が左側および右側の目に各々投影される(図1参照)。この時、ビューアーが検知する奥行き知覚は、投影された2つの視点の間隔に依存する(図1の要素4)。投影された2つの視点の間隔が広いほど奥行き知覚は強くなり、この間隔が狭いほど奥行き知覚は弱くなる。極端な場合、視点間隔が0であれば、ビューアーは1つの2D画像だけを見ることになる。視点間隔が最大であれば、言い換えれば、左側目が左側カメラ視点を見て、右側目が右側カメラ視点を見れば、例えば、3Dメガネベースのディスプレイと同様に奥行き知覚も最大となる。
言い換えれば、本発明の目的は、ビジュアルゾーンの幅SZと目間隔AAが与えられた場合、2つの投影された視点の間隔をできるだけ広くすることにある。
この目的は、ステレオカメラの注視方向に見る時、左右側ビジュアルゾーンの左右側縁に提供されたカメラ視点LC,RCによって投影される仮想の拡張視点LE,REを設定して達成される(図2参照)。図2によれば、拡張視点LE,REは、左右側カメラ視点LC,RCのステレオベース3の延長線にある。ビジュアルゾーン内部の任意の1点から左右側の目に各々投影される2つの視点の間隔である検知された目間隔をABとすれば、下記の通りである。
AB=AA*KA/SZ (1)
KA=65mm、SZ=300mm、AA=63mmである場合、検知された目間隔ABは13.7mmである。
しかし、ステレオベースが、後述するように、例えば、PE=200%に拡張されれば、左側拡張視点LEはステレオベース3上で100%拡張され、65mmさらに左側に拡張され、右側拡張視点REもステレオベース3上で100%拡張され、65mmさらに右側に拡張される。この場合は下記の通りである。
AB=63*(3*65)/300=40.9mm (2)
前記例において、検知された奥行き知覚は65mmの実際の奥行き知覚とほぼ同一である。
測定されたステレオベースKAが拡張される拡張率をFとすれば、(1)は下記のように一般化することができる。
AB=F*AA*KA/SZ (3)
目間隔AAとビジュアルゾーン幅SZが与えられ、ステレオベース幅KAが測定された場合、拡張率Fを検知されたステレオベース幅ABで決定すれば、下記の通りである。
F=AB*SZ/(KA*AA) (4)
実際と同じ奥行き知覚を発生させたいのであれば、すなわち、AB=AAを所望する場合は下記の通りである。
F=SZ/KA (5)
カメラレンズの間隔KAには何の影響も及ぼさない。前記カメラレンズの間隔は約65mmである可能性が大きい。したがって、実際には下記のような拡張率Fから出発する。
F=0.0154*SZ (6)
ビジュアルゾーン幅SZ=600mmであれば、拡張率F=9.2である。
F=1+PE/100 (7)
である場合、約400%の拡張PEが生じ、左右側に各々260mmの拡張が生じる。
第1実施例においては、提供された視差マップに基づいてステレオベース拡張がどのように行われるかを説明する。これと関連し、図3〜4には、3つのオブジェクトO1,O2,O3を有する1つの場面を例に挙げる。各図面の下部領域には、ビューアーの右側目の網膜(図3)と左側目の網膜(図4)に対する投影やカメラレンズ内部に対する個別的な投影が示されている。この場合は、1つの右側目(図3)と1つの左側目(図4)の個別行(i)が示されている。上部領域には、デジタル写真に格納されたように、そして本出願に記載された方法による拡張およびミラーリング(mirroring)後の投影が各々示されている。
図5には、該当連結線と関連した視差関係が示されている。図5は、オブジェクトO2,O3の右側マスキング領域RV2,RV3も示す。
視点の間においてLCからRCまで仮想のカメラが動く時、同じ区間では、該当画素に対して等距離で視差が分割されることになる(図6参照)。RCからLCに動く時も同様である。
Where(どこに)フィールドには、視差マップの規定に従って左側カメラ視点LCの各々の画素Jl1が右側カメラ視点RCにおけるどの画素Jl1に対応するかが表示される。
この時、ステレオベース拡張を実行しようとすれば、図5に示された対応線がLCとRCをすぎて拡張することを想像することができる。これは、LCとRCを越えてステレオベースKAの線形拡張に該当する(図7参照)。この方式は、LCとRCとの間の中間視点がLCとRCとの間における線形カメラの移動と同期的に生じるので好ましい。このようなカメラの移動はある程度まではLCとRCを越えて続く。
しかし、この場合、解決しなければならない下記のような問題点が発生する。
1.ビジュアルゾーンにおけるLCとRCに対する新しい視点位置の計算
2.LEとREの画素の計算
3.拡張時に衝突がある場合、どの視差を継続するべきかを決定
4.ステレオベース拡張を通じて見ることができる画像区域を内挿する方法
1.ビジュアルゾーンにおけるLCとRCに対する新しい視点位置の計算
NrP視点をディスプレイする場合、従来のディスプレイ装置のように、LCは視点0に使われ、RCは視点NrP−1に使われる。
これは、ステレオベース拡張においては起こらず、下記のように一般化される。
leftCaptureがLCにディスプレイする視点の番号であれば、下記の通りである。
LeftCapture:=(NrP−1)*(1−1/F)/2 (8)
RightCapture:=leftCapture+(NrP−1)/F (9)
拡張率PE=0%であれば、F=1であり、leftCapture=0であり、rightCapture=NrP−1である。このため、このような方式は従来の方式のように用いることができる。
一方、例えば、PE=200%であれば、ステレオベースは左右側に各々100%拡張され、LCとRCは各々1/3だけ内側に移動する。この場合、式(8)と(9)はleftCapture=1/3*(NrP−1)、rightCapture=2/3*(NrP−1)となり、これは期待した通りである。
2.LEとREの画素の計算
位置jl1に左側視点がディスプレイされていれば、画素LC(jl1)にアクセスする。対応画素が右側視点からディスプレイされれば、画素RC(Where(jl1))にアクセスする。
これは、LE(jl1)とRE(Where(jl1))が規定されていないため、ステレオベース拡張においては不可能である。このため、左側視点がディスプレイされる時は、LEからアクセスされるLCによって画素の位置が格納されるフィールドpLCが導入される。同様に、右側視点がディスプレイされる時は、視差の関数でLEからアクセスされるRCによって画素の位置が格納されるフィールドpRCが導入される。
この方法は下記のように始まる。
pLC(jl1):=jl1 (10)
pRC(jl1):=Where(jl1)
図8に示すように、jl1においてLEやREからの画素が必要であれば、
LE(jl1):=LC(pLC(jl1)) (11)
RE(Where(jl1)):=RC(pRC(jl1)) (12)
(図8参照)したがって、以上で説明した方法は、拡張率PE=0%である場合に従来の方法と両立することができる。
3.拡張時に衝突がある場合、どの視差を継続するべきかを決定
左右側マスキングの場合、拡張された視差が延長区域のエッジにおいて交差して、マスキング領域のエッジにおいて衝突が発生し得る。その一例が、左側マスキングに対しては図10に、右側マスキングに対しては図11に示されている。結局、「前方にどのオブジェクトがあるか」という質問に対する答弁がなされなければならない。このオブジェクトの視差が続く反面、他のオブジェクトの視差は新しいマスキングや既存のマスキングの拡張を生じさせる。
これに対する答弁は、「正常な立体形状の場合、視差はステレオカメラからオブジェクトまでの距離に反比例する」である。視差がより大きいオブジェクトが他のオブジェクトの前方にあり、これは、視差がより大きいオブジェクトがステレオカメラにより近くにあって、他のオブジェクトを遮るためである。
具体的には、衝突時のエッジの視差を検査すれば、視差がより大きい画素は追跡されるが、他の画素は遮られる(図10および図11参照)。
4.ステレオベース拡張を通じて見ることができる画像区域を内挿する方法
ステレオベースを左右側に拡張すれば画像情報が存在しない区域内部の領域を見ることができ、これは、この領域が今までは遮られていたためである。例えば、図4のオブジェクトO3のようにさらに後から前方オブジェクトを見ることができる。図7には、このような領域が?で示されている。
本発明では、最終的に見られる画素が繰り返されなければならない。
左側マスキングの場合、隣接する左側マスキングの最左側画素が繰り返される。右側マスキングの場合、隣接する右側マスキングの最右側画素が繰り返される。隣り合う画素に対する一般的な平滑化はなされず、これは、このような平滑化がオブジェクトのエッジをかすかにし、この場合に3D効果が低下するためである。
この場合、関連の不正確度は予想ほど大きくはなく、これは、実際にディスプレイされる画素だけを内挿しなければならないためである。HD解像度を有する立体画像において行われた調査によれば、複雑な場面では勿論、百分率で表示されたステレオベース拡張PEが500%である場合にも、内挿された画素の百分率は4%未満であることを示す。単純な場面では、内挿された画素の百分率が2%未満である。一方、検知された奥行き知覚は、ディスプレイされた立体画像に比べて大幅に改善される。
図15には、0%から500%まで百分率で示したステレオベース拡張に対して複雑度が高い場面Hと複雑度が低い場面Hにおいて画像の全体画素の内挿される画素の個数が%で示されている。
したがって、問題の解決策が発見された。
図12は、本発明による方法のフローチャートである。
先ず、フィールドLE_Whereが−2に設定され、pLCとpRCは前述した通りに設定される。
次に、1ラインの全ての画素に適用されるルーピング変数jl1が開始値に設定される。
「Where(jl1)=−1?」という質問でjl1に右側マスキングがあるかを検査する。「Yes」であれば「右側マスキング処理」が行われ、「No」であれば「Where(jl1)−Where(jl1−1)=0?」という質問で拡張部に新しい右側マスキングが現れるかを検査する。「Yes」であれば「右側マスキング処理」が行われ、「No」であれば下記の有効有無を検査する。
│Where(jl1)−Where(jl1−1)│>1 (15)
上記の式を満たせば「左側マスキング処理」が行われ、でなければ「拡張直接計算」が行われる。次に、全ての場合「jl1=jl1+1」の増分が行われ、「jl1>終わり」の有無がチェックされる。さて、左右側マスキングが確認され、「右側マスキング処理」と「左側マスキング処理」を部分的に正確に維持補完するステップが実行される。
その場合に該当すれば、LE_WhereはWhereに移る。その次、画像合成の選択された方法が新たに設定された視差に基づいて、新しいポインターpLCおよびpRCを用いて実施されることができる。
以下、「右側マスキング処理」ステップを詳しく説明する。このステップが図13のフローチャートで示されている。「Where(jl1)=−1」や「Where(jl1)−Where(jl1−1)=0」が確認されれば、領域の左側エッジにおける視差が決定される。「Where(jl1)=−1」である場合、左側エッジは「Where(leftBorder)>0」である画素インデックスleftBorderであるか、Where(jl1)およびWhere(jl1−1)が右側カメラ視点RCにおいて同一画素上に現れる時の「leftBorder=jl1−1」である。
「rightBorder=jl1」であるか、初めに「Where(rightBorder)>0」である時は、右側エッジに同一の内容が適用される。
次に、左側エッジ(leftBorder)の視差が右側エッジ(rightBorder)の視差より大きいかを検査する。下記のように大きければ、オブジェクトは前方の左側エッジにあることになる。
視差(leftBorder)>視差(rightBorder) (16)
このために、先ず、leftBorderにおける視差が最大右側ステレオベース拡張REまで進行する。値LE_Where_leftBorderが現れる。同様に、LE_Where_rightBorderが決定される。この時、rightBorderは、「LE_Where_leftBorder≦LE_Where_rightBorder」が有効であるまでに増分される。この箇所において右側マスキングの拡張も終了する。
一方、式(16)を満たさなければ、オブジェクトは、前方の右側エッジにあることになる。この場合、前述したように、先ず、rightBorderにおける視差が最大右側ステレオベース拡張REまでに進行する。この場合にも、LE_Where_rightBorderが現れる。
この時、LE_Where_leftBorderが新たに決定される。このために、leftBorderは、同様に下記の値をなすまでに増分される。
LE_Where_leftBorder≦LE_Where_rightBorder (17)
この箇所においても同様に右側マスキングの拡張が終了する。
leftBorderおよびrightBorderが決定された後、LE左側にleftBorderおよびrightBorderの続行が決定される。このために、先ず、下記のものが計算される。
LeftStep:=(Where(leftBorder)−leftBorder)/NrSegments (18)
次に、下記のものが計算される。
LeftExtension=leftBorder−leftCapture*leftStep (19)
この時、
pLC(leftExtension)=leftBorder、
pRC(leftExtension)=Where(leftBorder)
LE_Where(leftExtension)=
Where(leftBorder)+(NrP−rightCapture−1)/leftStep (20)
が設定されることができる。
同様に、rightBorderからrightStep、rightExtension、そしてpLC(rightExtension)、pRC(rightExtension)およびLE_Where(rightExtension)が現れる。このようなステップは当業者に周知のものである。
最後に、LE_Whereにおいて右側マスキングを一定にマーキング(marking)するために、LE_Whereは、leftExtensionからrightExtensionまで−1に設定される。この時、LE_Whereにおいて−1の値は既存の右側マスキングの画素を示し、−2の値は内挿されるべき新たに公開された画素を示す。図11は、様々なシナリオおよび前述した処理方式に相応する前記シナリオの処理を示す。
新しい右側マスキングにも前述したものと異なる方式を要求することはない。
「左側マスキング処理」の場合は下記のような措置が必要である。
この場合、式(15)が適用される。様々な状況とこれに対する処理方式については図10の実施例を参照することができる。
この場合、左側境界(leftBorder)が自動で正確に設定された。したがって、右側境界(rightBorder)だけを右側に下記のように増分する{ぞうぶん}。
LeftExtension≦rightExtension (21)
leftExtensionとrightExtensionは前述した通りであり、開始値leftBorder:=jl1−1とrightBorder:=jl1が計算される。さて、pLC(rightExtension)、pRC(rightExtension)およびLE_Where(rightExtension)は下記のように計算される。
pLC(rightExtension)=rightBorder、
pRC(rightExtension)=Where(rightBorder)
LE_Where(rightExtension)=
Where(rightBorder)+(NrP−rightCapture−1)/leftStep (22)
関連フローチャートは図14の通りである。
したがって、ステレオベース拡張時の全ての衝突が光学的に正確に処理される。
マスキングがなければ、jl1とjl1−1との間の視差は変わらない。すなわち、下記の通りである。
│Where(jl1)−Where(jl1−1)│=1 (23)
この場合、jl1Extensionは(19)によって下記の通りであり、
jl1Extension=jl1−leftCapture*jl1Step (24)
pLC(jl1Extension)、pRC(jl1Extension)、LE_Where(jl1Extension)は下記の通りであり、
pLC(jl1Extension)=jl1、
pRC(jl1Extension)=Where(jl1)
LE_Where(jl1Extension)=
Where(jl1)+(NrP−rightCapture−1)/leftStep (25)
この場合、下記の通りである。
jl1Step=(Where(jl1)−jl1)/NrSegments (26)
LE_WhereがWhereに移った後、ステレオベース拡張のための視差マップを作って、LEとREとの間の全てのNrP視点を合成するのに利用する(図9参照)。
第2実施例においては、ビューアーの遠隔操作で拡張率Fを両方向に調節して、奥行き知覚を各個人に合わせるようにする。
第3実施例においては、拡張率Fが下記のように自動で計算される。
過去の研究から、オートステレオスコピック・ディスプレイに現れた画像の最大視差Dが所定の限界を越えてはいけないことが明らかになっており、これは、限界を越えて現れた視点を人の脳がこれ以上1つの立体画像に組み合わせることができないためである。
このような最大視差Dは、例えば、ディスプレイの解像度や光学素子の光学特性のような様々な変数に依存する。このため、ディスプレイを設計する時には最大視差Dを規定しなければならない。奥行き知覚を常に最大にしようとすれば、ディスプレイされた画像の視差Dを制限する下限DUと上限DOを決定する。奥行き知覚は、できるだけ大きくなければならないが、上限DOを越えてはいけない。
提供された立体画像の最大視差Dmaxを知れば、拡張率Fは下記のように計算される。
F:=((DO+DU)/2)/Dmax (27)
提供された立体画像の最大視差Dを知らなければ、最大視差は1つの探索過程で全ての視差に対するスキャンを通じて最大視差を予め決定した後、上記のように進行する。
第4実施例においては、前述した方法を立体撮影装置に実現する方法について説明する。
ステレオベース拡張は、立体画像と画像シーケンスをディスプレイする時にのみ適用されない。ステレオカメラを用いた撮影の間、2個の重複配置されたレンズのステレオベースを拡張することも可能である。この場合、レンズが同期化し、ステレオカメラにおいて、例えば、特殊な視差プロセッサによって視差がリアルタイムで決定される。校正、すなわち、立体画像を正常の立体形態で受けることは不要であり、これは、このような校正がカメラを製造する時に既にレンズ補正によって保証されるためである。次に、ズームおよびフォーカスに応じて取った視点と計算された視差を用いた拡張率Fでステレオベース拡張がなされる。このため、レンズが31mmだけ離れていても、画像には常に65mm程度の拡張されたステレオベースが存在することになる。したがって、オブジェクトを長くズームインしても奥行き知覚に優れる。
ステレオカメラに奥行きセンサをさらに設ければ、視差を遥かに迅速に計算することができる。この場合、ステレオベース拡張に2つの視点と1つの奥行きマップが使われる。
本発明の方法は、少なくとも1行の立体画像にアクセスする少なくとも1つのプロセッサ、および立体画像、視差マップ、説明されたポインター、全ての変数を有する行WhereとLE_Whereが格納された少なくとも1つのメモリを有する装置で実現されることができる。
HD解像度を有する立体画像の全ての行を並列に処理しようとすれば、プロセッサが1,080個以上であることが理想的である。また、プロセッサごとにローカルメモリを有し、全てのプロセッサが並列にアクセスできる格納装置を有するようにメモリを構成することが好ましい。
最後に、
1.本発明の方法は、立体画像フレームに限定されず、立体画像シーケンスにも適用されることができる。
2.ディスプレイは勿論、対応投影システムもディスプレイ装置として用いることができる。
3.さらにカメラレンズの間隔KAを再度大きく選択しなければならない場合、一度求めた自由度をビジュアルゾーン幅SZの拡張にさらに利用することができる。2m=2,000mmのビジュアルゾーン幅は居間や会議室には非現実的な大きさである。2mのレンズ間隔KAが非現実的であるため、このようなステレオベース拡張は依然として調整しなければならない。
4.LCとRCとの間の連結線の延長部に沿って行われるステレオベース拡張以外の他の形態の延長も選択することができる。例えば、扇形がその一例であるが、これに限定されない。この場合、LCとRCとの間の合成された視点と合成された左右側の拡張視点のため、該扇形の内部に中間視点が生じることがある。
5.視差マップでない奥行きマップを利用する場合、奥行きマップを視差を計算する時の予備処理ステップにおいて利用することができる。
6.拡張された視差行LE_WhereがWhereに移った後、オートステレオスコピック・ディスプレイ装置ディスプレイを見るのに実際に必要な行の画素だけが生じるように合成された中間視点と拡張視点の生成が行われることができる。このような方法が参考文献[6]に記述されている。この方法の特性は、任意の個数の、特に任意の大きさの中間視点と拡張視点を生成できる能力である。参考文献に記述された方法を疑似ホログラフィック画像合成に適用すれば、カメラ視点の間隔KAが公知または仮定された場合、隣り合う2つの視点の最大間隔が所定の限界εより小さくなるように多数の視点を計算することができる。このため、隣り合う2つの視点の間隔が過度に大きくなって立体画像が破損する危険性が減少する。
[参考文献]
1.Luescher:「ステレオスコピーの基本規則(Grundregeln der Stereoskopie)」,Der Stereoskopiker,Nr.5,1931年1月15日,Organ der Gesellschaft fuer Stereoskopie e.V.
2.Krah,C.:「3次元ディスプレイシステム(Three−dimensional Display System)」,US/2006/7843449
3.Teik,Ohら:「奥行きエンコーディングされたソースビューからの3D画像合成(3D Image Synthesis from Depth Encoded Source View)」,US2004/0100464
4.Huang H−Cら:「立体ビデオから多重観点ビデオの発生(Generation of Multiviewpoint video from stereoscopic video)」,IEEE Transactions on Consumer Electronics,NY,US vol.45,No.1,1999年2月
5.Hendrik Eら:「デジタル多重観点立体画像のリアルタイム合成(Real time Synthesis of digital multi viewpoint stereoscopic images)」,Proceedings of SPIE,SPIE,Bellingham,VA,US,Vol.3639,1999年1月,XP008021883
6.Kamins−Naske,S.ら:「擬似ホログラフィック画像合成のための方法および装置(Verfahren und Vorrichtung zur pseudoholographischen Bildsynthese)」,WO 2007/121970,2007年11月1日
7.Humera Noor:「実場面のビュー外挿による仮想イメージの発生(Virtual Image Generation by View Extrapolation of Real Scenes)」,MUET Journal,2008年

Claims (10)

  1. 少なくともN≧2の視点を有する提供された立体画像からM≧2の合成視点を発生するための方法であって、
    少なくとも1つの視点はカメラの注視方向に見る時に最左側に提供されたカメラ視点の左側から発生し、少なくとも1つの視点はカメラの注視方向に見る時に最右側に提供されたカメラ視点の右側から発生し、この時、2つの視点は、左側および右側において最左側と最右側に提供されたカメラ視点の間の連結線の延長部上にあることを特徴とする、合成視点を発生するための方法。
  2. 右側および左側マスキングを確認、維持および補完することを特徴とする、請求項1に記載の合成視点を発生するための方法。
  3. 前記少なくとも1つの合成視点においては、ディスプレイ装置上にディスプレイされる必要がない少なくとも1つの画素が発生しないことを特徴とする、請求項1または2に記載の合成視点を発生するための方法。
  4. 限界εが提供された場合は、隣り合う2つの視点の間隔が前記境界εより小さくなるように前記合成された視点の個数を計算することを特徴とする、請求項1〜3のいずれか一項に記載の合成視点を発生するための方法。
  5. 最左側に提供されたカメラ視点と最右側に提供されたカメラ視点の間隔が、最左側合成視点と最右側合成視点の間隔に対して拡張率Fだけ拡張されることを特徴とする、請求項1〜4のいずれか一項に記載の合成視点を発生するための方法。
  6. 前記拡張率Fがビューアーによって両方向に変わることができることを特徴とする、請求項5に記載の合成視点を発生するための方法。
  7. 最左側合成視点と最右側合成視点との間に現れる拡張されたレンズ間隔が定められた下限および定められた上限内に置かれるように、前記拡張率Fを計算することを特徴とする、請求項5に記載の合成視点を発生するための方法。
  8. 第1ステップにおいては、前記提供されたカメラ視点から視差マップを計算することを特徴とする、請求項1〜7のいずれか一項に記載の合成視点を発生するための方法。
  9. 第1ステップにおいては、前記提供されたカメラ視点から、そして提供された奥行きマップから視差マップを計算することを特徴とする、請求項1〜8のいずれか一項に記載の合成視点を発生するための方法。
  10. 合成視点を計算するための少なくとも1つの処理ユニット、および前記提供されたカメラ視点と前記合成された視点が格納される少なくとも1つのメモリユニットからなり、請求項1〜9のいずれか一項に記載の方法を実施するための、M≧2の合成視点を発生するための装置。
JP2013549716A 2011-01-19 2012-01-17 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{method and device for stereo base extension of stereoscopic images and image sequences} Active JP6128442B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102011008886A DE102011008886A1 (de) 2011-01-19 2011-01-19 Verfahren und Vorrichtung zur Stereobasis-Erweiterung von stereoskopischen Bildern und Bildfolgen
DE102011008886.5 2011-01-19
PCT/DE2012/000042 WO2012097802A2 (de) 2011-01-19 2012-01-17 Verfahren und vorrichtung zur stereobasis-erweiterung von stereoskopischen bildern und bildfolgen

Publications (2)

Publication Number Publication Date
JP2014507873A true JP2014507873A (ja) 2014-03-27
JP6128442B2 JP6128442B2 (ja) 2017-05-17

Family

ID=46177188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549716A Active JP6128442B2 (ja) 2011-01-19 2012-01-17 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{method and device for stereo base extension of stereoscopic images and image sequences}

Country Status (8)

Country Link
US (1) US9615075B2 (ja)
EP (1) EP2676449B1 (ja)
JP (1) JP6128442B2 (ja)
KR (1) KR101847675B1 (ja)
DE (2) DE102011008886A1 (ja)
ES (1) ES2662884T3 (ja)
PL (1) PL2676449T3 (ja)
WO (1) WO2012097802A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013049388A1 (en) 2011-09-29 2013-04-04 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
TWI637348B (zh) * 2013-04-11 2018-10-01 緯創資通股份有限公司 影像顯示裝置和影像顯示方法
US9866813B2 (en) 2013-07-05 2018-01-09 Dolby Laboratories Licensing Corporation Autostereo tapestry representation
CN107847226B (zh) * 2015-06-05 2021-01-08 视空间工房株式会社 视觉认知测定系统、服务器控制方法
KR102446442B1 (ko) 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
DE102017203721A1 (de) * 2017-03-07 2018-09-13 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Darstellung eines Raumbilds von einem Objekt in einer virtuellen Umgebung
EP3422708A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
DE102019120998A1 (de) 2019-08-02 2021-02-04 Psholix Ag Verfahren und Vorrichtung für eine adaptive Disparitätskontrolle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013860A (ja) * 1996-04-26 1998-01-16 Victor Co Of Japan Ltd 立体画像補間装置及びその方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010079505A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5973700A (en) * 1992-09-16 1999-10-26 Eastman Kodak Company Method and apparatus for optimizing the resolution of images which have an apparent depth
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields
JP3440906B2 (ja) 2000-01-07 2003-08-25 日本電気株式会社 プラズマディスプレイパネルの製造装置とその製造方法
US6573912B1 (en) * 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
AU2002952874A0 (en) 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd 3D image synthesis from depth encoded source view
US20060008434A1 (en) 2004-05-25 2006-01-12 Knopf Michael A Deodorant body wash with lotion
DE102006019169A1 (de) 2006-04-21 2007-10-25 Expert Treuhand Gmbh Autostereoskopische Adapterscheibe mit Echtzeit-Bildsynthese
PL2229784T3 (pl) * 2007-12-27 2019-10-31 Psholix Ag Sposób i urządzenie do wytwarzania w czasie rzeczywistym obrazów typu multiview

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013860A (ja) * 1996-04-26 1998-01-16 Victor Co Of Japan Ltd 立体画像補間装置及びその方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010079505A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム

Also Published As

Publication number Publication date
KR20140021997A (ko) 2014-02-21
KR101847675B1 (ko) 2018-04-10
PL2676449T3 (pl) 2018-07-31
DE112012000508A5 (de) 2014-08-28
US20140347444A1 (en) 2014-11-27
ES2662884T3 (es) 2018-04-10
WO2012097802A2 (de) 2012-07-26
EP2676449A2 (de) 2013-12-25
DE102011008886A1 (de) 2012-07-19
US9615075B2 (en) 2017-04-04
EP2676449B1 (de) 2017-12-27
WO2012097802A4 (de) 2012-12-27
JP6128442B2 (ja) 2017-05-17
WO2012097802A3 (de) 2012-11-01

Similar Documents

Publication Publication Date Title
JP6128442B2 (ja) 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{method and device for stereo base extension of stereoscopic images and image sequences}
US8817073B2 (en) System and method of processing 3D stereoscopic image
EP1704730B1 (en) Method and apparatus for generating a stereoscopic image
KR101629479B1 (ko) 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US8798160B2 (en) Method and apparatus for adjusting parallax in three-dimensional video
CN108141578B (zh) 呈现相机
WO2012176431A1 (ja) 多視点画像生成装置、多視点画像生成方法
KR100517517B1 (ko) 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
JP2013038602A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20220256133A1 (en) Viewer-adjusted stereoscopic image display
KR101697181B1 (ko) 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
KR102066058B1 (ko) 입체 디스플레이에서 조절 효과로 인한 왜곡 에러를 교정하기 위한 방법 및 장치
JP2011176800A (ja) 画像処理装置、立体表示装置及び画像処理方法
CN103747236A (zh) 结合人眼跟踪的立体视频处理系统及方法
JP5627498B2 (ja) 立体画像生成装置及び方法
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
JP2011176822A (ja) 画像処理装置、立体表示装置及び画像処理方法
KR101547281B1 (ko) 다시점 3차원 영상신호 생성 방법 및 장치
CN111684517B (zh) 观看者调节的立体图像显示
Tan et al. A system for capturing, rendering and multiplexing images on multi-view autostereoscopic display
Rhee et al. Stereo image synthesis by view morphing with stereo consistency
Rhee et al. Accurate stereo view synthesis for an autostereoscopic 3D display
KR20000001039A (ko) 가상 세계 모델링 언어에 의해 표현된 영상의 입체화방법 및그 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160427

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160621

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20161014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170330

R150 Certificate of patent or registration of utility model

Ref document number: 6128442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250