JP6365153B2 - 画像符号化方法および画像符号化装置 - Google Patents

画像符号化方法および画像符号化装置 Download PDF

Info

Publication number
JP6365153B2
JP6365153B2 JP2014184296A JP2014184296A JP6365153B2 JP 6365153 B2 JP6365153 B2 JP 6365153B2 JP 2014184296 A JP2014184296 A JP 2014184296A JP 2014184296 A JP2014184296 A JP 2014184296A JP 6365153 B2 JP6365153 B2 JP 6365153B2
Authority
JP
Japan
Prior art keywords
image
camera
frame
sub
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014184296A
Other languages
English (en)
Other versions
JP2016058914A (ja
Inventor
創一 萩原
創一 萩原
坂本 直樹
直樹 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2014184296A priority Critical patent/JP6365153B2/ja
Priority to EP15183774.7A priority patent/EP2996331B1/en
Priority to US14/848,093 priority patent/US9407900B2/en
Publication of JP2016058914A publication Critical patent/JP2016058914A/ja
Priority to US15/179,591 priority patent/US9681119B2/en
Application granted granted Critical
Publication of JP6365153B2 publication Critical patent/JP6365153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Description

本明細書で言及する実施例は、画像符号化方法および画像符号化装置に関する。
近年、三次元空間の静止画や動画(映像)を記録する技術が注目され、研究が進められている。しかしながら、撮影した三次元空間の情報をすべて符号化・復号化するには様々な課題がある。
そこで、視点の移動範囲を、例えば、一般的なテレビ視聴時における範囲(微小視点移動範囲:首を動かす(平行移動する)程度の範囲)に限定することで技術的な障壁を下げた、微小視点移動対応画像、並びに、画像の符号化および復号化技術が提案されている。このような微小視点移動を前提とした場合であっても、三次元画像の符号化および復号化には、演算量とデータ量が問題となる。
ところで、従来、三次元空間の静止画や動画を記録する技術、すなわち、三次元画像を符号化および復号化する技術としては、様々な提案がなされている。
特開2013−046263号公報 特開平09−027969号公報 特開2009−251141号公報 特開2001−256482号公報 特開2004−152133号公報 特開2007−334583号公報
谷本 正幸(Masayuki Tanimoto), 『自由視点テレビの実用化を目指す国際標準技術の研究[093106002]("International Standard Technology for Practical Use of Free-viewpoint Television")』, ICT Innovation Forum 2013, October 1, 2013. Tehrani et al., "Use Cases and Requirements on Free-viewpoint Television (FTV)," ISO/IEC JTC1/SC29/WG11, MPEG2013/N14104, October 2013. Arai et al., "Integral three-dimensional television with video system using pixel-offset method," OPTICS EXPRESS, Vol.21, No.3, pp.3474-3485, February 2013.
上述したように、三次元画像を符号化および復号化する技術としては様々な提案がなされているが、微小視点移動を前提とした場合であっても、三次元画像を符号化および復号化するには、演算量とデータ量の問題がある。
例えば、カメラを中央/左/右に配置し、その中央/左/右カメラから取得した静止画およびデプス(奥行き)マップに基づいて、中心画像および左/右の視点のうち正面画(中心画像)に含まれない物体のみ画像とデプスを記録するものが提案されている。
そして、復号化時には、視聴者の視点移動量に合わせてジオメトリ計算により各奥行き(デプス)に応じた画素シフトを行う。なお、シフトにより画素データが抜けた個所は、左/右の符号化データを用いて補間する。
しかしながら、この手法は、例えば、符号化データ量を低減することが可能であるものの、符号化した三次元画像情報に対するジオメトリ計算を行うため演算量が膨大なものとなる。
また、例えば、高精度なカメラセンサーの全面にレンズアレイと集光レンズを並べ、各視点位置からの映像を全て符号化するものも提案されている。なお、復号化時は、符号化時と逆の手順を踏むことで視点移動を可能とする。
しかしながら、この手法は、例えば、ジオメトリ計算を行わないため、演算量を低減することが可能であるものの、複数の視点画像を符号化することになるため、符号化データが膨大なものとなる。
このように、たとえ、微小視点移動範囲に特化したとしても、全ての三次元画像情報を符号化するものと比較すれば演算量・データ量を低減することは可能であるが、それでも、まだ十分なものとは言えず、非常に大きな負荷となっている。
一実施形態の画像符号化方法は、符号化システムが、主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取る。
前記符号化システムは、前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録する。
さらに、前記符号化システムは、前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する。
開示の画像符号化方法および画像符号化装置は、演算量およびデータ量を低減することができるという効果を奏する。
図1は、画像符号化方法の第1実施例を説明するための図である。 図2は、画像符号化方法の第2実施例を説明するための図である。 図3は、画像符号化方法の第3実施例を説明するための図である。 図4は、本実施形態に係る画像符号化方法におけるフレームのデータフォーマットを説明するための図である。 図5は、第1実施例の画像符号化方法が適用される符号化システムの全体構成を示す図である。 図6は、図5に示す符号化システムの処理を説明するための図である。 図7は、第2実施例の画像符号化方法が適用される符号化システムの処理を説明するための図(その1)である。 図8は、第2実施例の画像符号化方法が適用される符号化システムの処理を説明するための図(その2)である。 図9は、画像符号化方法が適用される符号化システムの一例を示すブロック図である。 図10は、図9に示す符号化システムにおける符号化部をより詳細に示すブロック図である。 図11は、第2実施例の画像符号化プログラムが適用される実行システムの一例を示すブロック図である。 図12は、第2実施例の画像符号化方法における処理の一例を説明するためのフローチャートである。 図13は、第1実施例の画像符号化方法による処理手順の一例を説明するための図(その1)である。 図14は、第1実施例の画像符号化方法による処理手順の一例を説明するための図(その2)である。 図15は、第2実施例の画像符号化方法による処理手順の一例を説明するための図(その1)である。 図16は、第2実施例の画像符号化方法による処理手順の一例を説明するための図(その2)である。 図17は、第2実施例の画像符号化方法による処理手順の他の例を説明するための図(その1)である。 図18は、第2実施例の画像符号化方法による処理手順の他の例を説明するための図(その2)である。 図19は、第2実施例の画像符号化方法による処理手順の他の例を説明するための図(その3)である。 図20は、本実施形態に係る画像復号化方法による処理の一例を説明するための図である。 図21は、本実施形態の画像復号化方法が適用される復号化システムの一例を示すブロック図である。 図22は、図21に示す復号化システムにおける復号化部をより詳細に示すブロック図である。 図23は、本実施形態の画像復号化プログラムが適用される実行システムの一例を示すブロック図である。 図24は、本実施形態の画像復号化方法における処理の一例を説明するためのフローチャートである。 図25は、本実施形態の画像復号化方法において視点移動なし時の処理を説明するための図である。 図26は、本実施形態の画像復号化方法において視点移動あり時の処理を説明するための図である。 図27は、本実施形態に係る画像復号化方法による処理手順の一例を説明するための図である。 図28は、本実施形態に係る画像復号化方法による処理手順の他の例を説明するための図(その1)である。 図29は、本実施形態に係る画像復号化方法による処理手順の他の例を説明するための図(その2)である。 図30は、本実施形態に係る画像復号化方法による処理手順のさらに他の例を説明するための図(その1)である。 図31は、本実施形態に係る画像復号化方法による処理手順のさらに他の例を説明するための図(その2)である。 図32は、本実施形態に係る画像復号化方法による処理手順のさらに他の例を説明するための図(その3)である。
以下、画像符号化方法および画像符号化装置の実施例を、添付図面を参照して詳述する。なお、本実施形態に係る画像符号化方法および画像符号化装置は、演算量とデータ量が少ない微小視点移動を前提とする。
本実施形態に係る画像符号化方法および画像符号化装置は、1つの主カメラと少なくとも1つの副カメラを含むカメラセット(カメラ群)を基に、「シフト+画素値比較」という簡単な処理で三次元画像情報を複数枚の二次元画像に符号化する。さらに、本実施形態に係る画像符号化方法および画像符号化装置は、上記カメラ群を複数組み合わせることで、視点移動範囲を同一平面内における任意の方向に拡張する。
また、本実施形態に係る画像復号化方法および画像復号化装置は、視聴者の位置に応じて符号化データである複数の二次元画像をシフトして上書き描画を行うことにより、視聴者の視点画像を生成する。
ここで、符号化画像には、上書き描画を行わない領域(透領域:T領域)が含まれ、適切な描画順序とシフト量によって上書きを行うことにより、その視点位置から見える物体のみが画面上に残る。さらに、本実施形態に係る画像復号化方法および画像復号化装置は、ジオメトリ計算などの特別な計算を行うことなく、任意の視点の視差を生成することが可能となる。
まず、画像符号化方法および画像符号化装置の実施例を詳述した後、画像復号化方法および画像復号化装置の実施例を詳述する。
[符号化]
図1は、画像符号化方法の第1実施例を説明するための図である。図1において、参照符号MCは主カメラ、SCは副カメラ、PICmは主カメラMCにより撮影された画像(主カメラ撮像画)、PICsは副カメラSCにより撮影された画像(副カメラ撮像画)、そして、F0〜Fgはフレームを示す。
図1に示されるように、第1実施例の画像符号化方法は、光軸が水平となるように配置され、同じ撮像条件/同じタイミング(同設定/同タイミング)で撮像可能な2個の撮像部(主カメラMCおよび副カメラSC)を有する符号化システムに適用される。
ここで、主カメラMCおよび副カメラSCは、所定の方向(シフト方向)において、異なる位置に配置されている。なお、主カメラMCと副カメラSの距離は、様々な条件に基づいて適切な長さに設定されるが、例えば、数mm〜数cm程度に設定することができる。
そして、主カメラMCおよび副カメラSCの両撮像部において、以下の(11)〜(14)の処理を行う。すなわち、まず、図1中の(11)に示されるように、同時に撮影した2枚の画像(主カメラ撮像画PICmおよび副カメラ撮像画PICs)において、同じ座標の画素同士の画素値を比較する。
次に、図1中の(12)に示されるように、シフトを行わない2枚の画(画像)PICm,PICsの比較で、所定の閾値以下の近さであれば同一物体(被写体)とみなして撮像画と同じ解像度の二次元画像(フレーム0:F0)の同一座標に記録する。
すなわち、処理(12)により、同じ座標の画素同士の画素値が所定の閾値以下の近さ、換言すると、同じ座標の画素同士の画素値の差が所定の閾値以下となる領域を、陽領域(P領域)として記録(領域の種別Pを示す情報を記録)する。
また、処理(12)により、画素値が埋められなかったフレームF0の領域は、陰領域(N領域)として記録(領域の種別Nを示す情報を記録)する。なお、フレームF0におけるP領域およN領域に関しては、図4(a)を参照して、後に、詳述する。
そして、全画素に対する初回の比較処理(12)が終わったら、続いて、副カメラ撮像画PICsを、主カメラMCと副カメラSCの位置関係に基づいた方向とシフト量だけ画素シフトした上で2回目の比較処理(13)を行う。
この処理(13)は、フレームF0においてN領域になった画素の座標(主カメラ撮像画PICmを基準)に対して、再度、主カメラ撮像画PICmと画素シフトした副カメラ撮像画PICsの比較を行う。
ここで、画素シフトに関して、主カメラMCおよび副カメラSCを被写体側に向けた状態で、副カメラSCが主カメラMCに対して左(右)側に位置するときは、左(右)側にシフトさせる。そして、図1中の(12)に示されるように、比較結果は、撮像画と同じ解像度の別の二次元画像(フレーム1:F1)の主カメラMCの同じ座標に記録する。
また、例えば、フレームF1において,以前のフレーム(フレームF0)の時点でP領域になったことのある座標に対しては、画素データのない透領域(T領域)として記録(領域の種別Tを示す情報を記録)する。
以降、上述した処理(13)と同様の処理を繰り返し、例えば、予め定めた画素数分シフトおよび比較を行ってN領域がなくなる、或いは、予め定めた画素数のシフトが完了する最後の処理(シフトおよびn回目の比較処理)(14)を行う。
ここで、フレームF0〜Fgの枚数、すなわち、比較を行うごとのシフト画素数、或いは、シフトが完了するまでの画素数は、微小視点移動を可能とする長さやフレームF0〜Fgを格納するためのメモリ容量等の様々な要因に基づいて決められる。
このように、第1実施例の画像符号化方法によれば、主カメラ撮像画PICmおよび副カメラ撮像画PICsに対してシフトと画素値比較のみを行うことで、容易に微小視点移動対応画像の視点移動をしていない時の視点位置の画像を符号化することが可能となる。
図2は、画像符号化方法の第2実施例を説明するための図である。図2において、参照符号MCは主カメラ、SC1は第1副カメラ(副1)、SC2は第2副カメラ(副2)、SC3は第3副カメラ(副3)、そして、SC4は第4副カメラ(副4)を示す。
図2に示されるように、第2実施例の画像符号化方法は、第1実施例における1個の副カメラSCを、複数個(4個)の副カメラSC1〜SC4としている。なお、図2において(他の図も同様)、破線「----」は、それぞれの副カメラSC1〜SC4により撮影される画像のシフト方向(各副カメラ撮像画のシフト方向)を示す。
すなわち、第2実施例の画像符号化方法は、第1実施例が適用される主カメラMCおよび副カメラSC(副カメラSC1に対応)を有する符号化システムに対して、さらに、少なくとも1個(3個:副カメラSC2〜SC4)を追加した符号化システムに適用される。
ここで、副カメラSC1〜SC4は、それぞれ主/副カメラを通り主/副カメラの光軸に垂直な平面上に位置し、光軸が主/副カメラと水平となる位置に配置されている。なお、副カメラの数は、4個に限定されず、任意のn個であってもよい。
そして、主カメラMCおよび複数の副カメラSC1〜SC4において、以下の(21)〜(24)の処理を行う。ここで、主カメラMCを挟まない限り、同一直線上に2台以上の副カメラは存在しないものとする。なお、副カメラSC2およびSC3は、同一直線上ではあるが、間に主カメラMCを挟んだ位置に配置されている。
これにより、主カメラMCと各副カメラSC1〜SC4間のそれぞれの方向において、微小視点移動が可能、すなわち、視聴者がそれぞれの方向に視点を移動させて三次元画像を取得することが可能となる。
<処理手順>
まず、主カメラMCおよび各副カメラSC1〜SC4で同設定/同タイミングにて撮影する。そして、主カメラ撮像画および各副カメラ撮像画に対して、第1実施例で説明した主カメラ撮像画PICmおよび副カメラ撮像画PICsの処理をそれぞれ行う。
すなわち、主カメラ撮像画と各副カメラ撮像画に対して、それぞれ同一座標の画素値を比較し、全ての画像の画素値の差が所定の閾値以下であればあれば、同一物体とみなして撮像画と同じ解像度の二次元画像(フレームF0)の同一座標にP領域として記録する。さらに、画素値が埋められなかったフレームF0の領域をN領域として記録する。
そして、全画素の比較が終わったら、続いて各副カメラ撮像画をそれぞれのカメラの撮像部配置位置に応じた方向とシフト量だけ画素シフトした上で、フレームF0でN領域になった画素の座標(主カメラ撮像画基準)に対して、再度、主カメラ撮像画と比較する。
ここで、副カメラ撮像画は、被写体側に向いた状態で自身と主カメラを結ぶ直線上に主カメラから離れる方向にシフトする。また、シフトさせる画素数は、主カメラとその副カメラとの距離に比例させる。さらに、保存されるデータは、視差のない領域の画像データ1枚+視差領域画像データ複数枚となる。
なお、微小視点移動において、視差部分は、画像全体では非常に少ない領域であるため、実質的に、1枚の画像データ+α程度のデータ量で、主カメラMCから各副カメラSC1〜SC4の間の高い精度の中間視点画像が保存可能となる。
図3は、画像符号化方法の第3実施例を説明するための図である。図3において、参照符号GR1〜GR3は、同一平面上に配置されたカメラ群を示し、カメラ群GR1は、主カメラMC1および副カメラSC11を含み、カメラ群GR2は、主カメラMC2および副カメラSC21〜SC24を含む。また、カメラ群GR3は、主カメラMC3および副カメラSC31〜SC34を含む。
カメラ群GR1の主カメラMC1は、カメラ群GR2の副カメラSC22と兼用され、また、カメラ群GR1の副カメラSC11は、カメラ群GR3の副カメラSC33と兼用されている。
さらに、カメラ群GR2の副カメラSC21は、カメラ群GR3の副カメラSC32と兼用され、また、カメラ群GR2の副カメラSC24は、カメラ群GR3の副カメラSC34と兼用されている。
すなわち、第3実施例の画像符号化方法では、前述した第1および第2実施例のシステム(カメラ群)が複数存在し、隣接するシステムが1台以上のカメラを共有するようになっている。
ここで、複数のシステムで共有されるカメラは、それぞれのカメラ群において主カメラとなるか副カメラとなるかは任意である。なお、1個のカメラは、「同一システムにおいて、主カメラを挟まない限り、同一直線上に2台以上の副カメラは存在しない」を満たす限り、任意のシステムに属することができ、隣接する2システム間で共有するカメラの個数も任意の数が可能である。
これにより、それぞれの主カメラMC1,MC2および〜MC3と、各副カメラSC11,SC21〜SC24およびMC31〜MC34間のそれぞれの方向において、視聴者が視点を移動させて三次元画像を取得することが可能となる。
すなわち、第3実施例によれば、主カメラMC1〜MC3に対応して、符号化処理するフレーム数が増加するため、メモリ容量および演算量が多少とも増加することになるが、視聴者の視点移動の自由度を向上させることが可能となる。
そして、第1〜第3実施例の画像符号化方法によれば、微小視点移動に使用する三次元画像情報を「シフト+画素比較」という簡単な処理で符号化できるため、例えば、従来のジオメトリ計算を行うものに対して演算量を大幅に低減することが可能となる。さらに、符号化する視点データは「1視点+視差データ」となるため、符号化データ量を削減することも可能となる。
上述した第1〜第3実施例において、例えば、フレームF0のN領域(陰領域)とその座標の副カメラの画素値を記録することにより、復号化時に、視聴者が視点を移動させた際の背景部分の描画データが不足する問題への緩和策(第4実施例)とすることができる。
すなわち、第4実施例の画像符号化方法は、視差補間フレーム(Fi0,Fi1)を生成し、その視差補間フレームを、復号化時に、視聴者が視点を移動させた際の違和感を低減するための描画データとして利用する。なお、視点の移動がない場合は、フレームF0のN領域は全画素上書きされるはずなので、N領域の描画は行わなくてもよい。
以上において、記録フォーマットは、任意のものを適用することができ、符号フレームと同サイズの画像を副フレーム(副カメラ撮像画)ごとに用意してその中に記録してもよく、或いは、専用のフォーマットを用意して符号化効率や処理効率を上げることも可能である。すなわち、データの記録は、知られている様々なフォーマットや圧縮手法や適用することが可能である。
ここで、上述した第1〜第4実施例の画像符号化方法は、例えば、演算処理装置(CPU:Central Processing Unit)により実行される画像符号化プログラムとして実現することも可能である。
図4は、本実施形態に係る画像符号化方法におけるフレームのデータフォーマットを説明するための図であり、図4(a)は、前述した図1におけるフレームF0に相当し、図4(b)は、前述した図1におけるフレームF1に相当する。なお、図4(b)では、分かりやすくするために、T領域に画素データを描いているが、符号データにおけるT領域には、画素データは含まれない。
図4(a)および図4(b)に示されるように、それぞれのフレームに保存する画像は、P領域(陽領域:ハッチング部)、N領域(陰領域:クロスハッチング部)およびT領域(透領域:ドット部)の3種類の領域に分けられる。
ここで、P領域は、物体(被写体)が存在する領域であり、カメラに写った画像をそのまま記録する、すなわち、画素データを記録する唯一の領域である。また、N領域は、物体は存在するが、例えば、前面にある物体により見えない隠れた領域である。
さらに、N領域は、復号化時において、視点移動がなければ上書きされて残らず、視点移動がある場合には残るように、領域の一部を何らかの手段で補間して画を完成させる領域である。なお、本実施形態においては、主カメラのみではN領域になってしまう部分の一部を、副カメラの画素データにより補間する。
そして、T領域は、その空間内に物体が何も存在しない透明の領域であり、領域データのみを保持し、画素値は保持しない。ここで、符号化時において、以前に処理したフレームで一度P領域となった座標が、それ以降のフレームではT領域に設定される。また、復号化時において、画素がT領域の場合には、上書きを行わない。
図5は、第1実施例の画像符号化方法が適用される符号化システムの全体構成を示す図であり、図1を参照して説明した主カメラMCおよび副カメラSCの2個のカメラによる第1実施例の画像符号化方法が適用されるシステムの一例を示すものである。図5において、参照符号1は、符号化システム(画像符号化装置)を示し、OA〜OCは、それぞれ被写体(撮影される物体)を示す。
ここで、観察対象点Poにおいて、主カメラMCと副カメラSCのなす角度をθとし、観察対象点Poから主カメラMCまでの長さ(半径)をrとすると、主カメラMCと副カメラSCの距離dは、ほぼd=rθと近似できる微小視点移動範囲を前提とする。
すなわち、視点の移動範囲を、例えば、一般的なテレビ視聴時における範囲(微小視点移動範囲:首を動かす(平行移動する)程度の範囲)に限定する。これは、例えば、主カメラMCから副カメラSCの間の視点において、被写体とd=rθの関係を満たす距離にある物体は、画面上で主カメラMCからの視点の移動距離に比例して平行移動することになる。
なお、図1では、副カメラSCが主カメラMCの左側に配置されているが、図5のように、副カメラSCが主カメラMCの右側に配置された場合と同様に考えることができるのはいうまでもない。
符号化システム1は、それぞれの光軸が水平に配置された主カメラMCおよび副カメラSCにより同時撮影された主カメラ撮像画PICmおよび副カメラ撮像画PICsを受け取って、空間符号化フレーム(視差別の複数の二次元画像)を生成する。
すなわち、符号化システム1は、同時撮影された主カメラ撮像画PICmおよび副カメラ撮像画PICsを入力とし、それらの画像に対してシフトと画素比較を行い、微小視点移動対応画像の生成に使用する三次元画像情報を複数のフレームF0〜F2に符号化する。
図6は、図5に示す符号化システムの処理を説明するための図であり、図6(a)は、主カメラMCおよび副カメラSCと、物体(被写体)OMおよび背景BKの配置を示すものであり、図6(b)は、符号化システム1による処理の例を説明するためのものである。
図6(a)に示されるように、主カメラMCと副カメラSCは、距離dだけ水平方向に離れていて、物体OMを同時撮影して主カメラ撮像画PICmおよび副カメラ撮像画PICsを得る。ここで、例えば、主カメラ撮像画PICmおよび副カメラ撮像画PICsにおいて、物体OMは、s画素だけずれて撮影(描画)されているものとする。
また、本実施形態では、手前の物体は同じ奥行きであっても視点位置によって物体形状が変わるため大きな視差が生じるが、一定以上奥にある物体は変形せず物体中央部はほとんど一致しており、視差は異なる奥行きと接する境界面のみとなることを前提とする。すなわち、本実施形態では、「同一奥行き上では視差はほとんど生まれず、他の奥行きとの境界部分でのみ視差が生まれるような奥行き」を含む画像が対象となる。
さらに、本実施形態の前提として、物体OMの形状が変わらない微小な動き(視点移動)のみを扱うため、副カメラ撮像画PICs上の被写体(物体OM)は、主カメラ撮像画PICm上の被写体に対して右に一定量(s画素)だけ水平にシフトした形で描画される。なお、この撮像画がシフトしている量(s)は、主カメラMCおよび副カメラSCの距離dと、物体OMまでの距離に応じて変化する。
第1実施例の画像符号化方法では、例えば、副カメラ撮像画PICsの画像を右側に少しずつシフトさせながら画素値の比較を行い、新たに一致した座標のみをフレームに保存するという手法を繰り返す。
まず、一例として、副カメラ撮像画PICsの画像をs/2画素単位でシフトさせる場合を説明する。すなわち、図6(b)<I>に示されるように、フレームF0では、副カメラ撮像画PICsは、主カメラ撮像画PICmに対してシフトされずに、そのまま同じ座標の画素同士の画素値を比較する。
ここで、同じ座標の画素同士の画素値の差が所定の閾値以下のであれば同一物体とみなしてP領域としてフレームF0に記録すると共に、画素値が埋められなかった領域をN領域としてフレームF0に記録する。
さらに、副カメラ撮像画PICsの画像を右方向にs/2画素だけシフトさせ、再度画素値の比較を行い、P領域およびN領域をフレームF1に記録する。ここで、フレームF1に対しては、以前のフレームF0の時点でP領域になったことのある座標に対するT領域の記録も行う。
また、副カメラ撮像画PICsの画像を右方向にs/2画素だけシフトさせると、全体としてs画素だけシフトさせたことになる。そして、再度画素値の比較を行い、P領域,N領域およびT領域をフレームF2に記録する。
このように、s/2画素だけシフトさせるということは、フレームF0には、主および副カメラMC,SCの両方のカメラから見て同じ画素値が記録され、フレームF1,F2には、視差部分が2つに分断されて記録されることになる。
次に、他の例として、副カメラ撮像画PICsの画像を1画素単位でシフトさせる場合を説明する。図6(b)<II>に示されるように、1画素単位でシフトさせる場合、s画素分だけシフトさせるには、s回のシフト処理を行うため、s+1枚のフレームF0〜Fsが生成されることになり、それを格納するだけの容量のメモリが求められる。
すなわち、シフト単位の画素数を少なくすれば、分断が細かくなり復号化時の視点画像の再現度を向上させることができるが、フレーム数が多くなって符号化データが比較的多くなり、また、符号化/復号化における演算量が増加するトレードオフの関係にある。従って、1回の処理でシフトさせる画素数は、適用する装置や設計仕様に基づいて適切な値に設定される。
なお、上述のようにして得られた複数のフレームF0〜F2,F0〜Fsを重ね合わせることで主カメラMCの撮像画になり、フレームF1,F2,F1〜Fsをシフトさせて重ね合わせることで視点移動した画像を生成することができる。詳細は、[復号化]の項目において説明する。
図7および図8は、第2実施例の画像符号化方法が適用される符号化システムの処理を説明するための図である。ここで、図7は、上述した図6(a)に対応し、図8は、上述した図6(b)に対応する。
図7に示されるように、3個のカメラ(主カメラMC,副カメラSC2,SC3)は、主カメラMCを間に挟んで副カメラSC2,SC3が両側に配置され、3個のカメラが一直線上に(副(左)SC2/主MC/副(右)SC3)配列される場合を考える。ここで、主カメラMCと副(左)カメラSC2間の距離をd1とし、主カメラMCと副(右)カメラSC3間の距離をd2のとし、2×d1=d2の関係が成立するものとする。
図8に示されるように、物体OMは水平移動するため、副(左)カメラSC2による撮像画PICs2において物体がs/2画素だけ右方向の位置に描画される場合、副(右)カメラSC3の撮像画PICs3においては、s画素左側に描画されることになる。このズレを戻すように、副(左)カメラ撮像画および副(右)カメラ撮像画をシフトしながら画素値の比較を行う。
例えば、図8<I>に示されるように、副(左)カメラ撮像画を左方向にs/4画素だけシフトさせると共に、副(右)カメラ撮像画を右方向にs/2画素だけシフトさせ、画素値の比較を行って、P領域,N領域およびT領域をフレームF1に記録する。
さらに、副(左)カメラ撮像画を左方向にs/4画素だけシフトさせると共に、副(右)カメラ撮像画を右方向にs/2画素だけシフトさせ、画素値の比較を行って、P領域,N領域およびT領域をフレームF2に記録する。
このように、第2実施例の画像符号化方法においても、上述した第1実施例(主カメラおよび副カメラの2個のカメラ)と同様に、視差を分割する形でフレームを符号化することができる。なお、画素値の比較において、全ての画像上の画素値が一致する画素のみをP領域とみなすようにする。
また、シフトさせる画素数は、s/4およびs/2画素単位に限定されるものではなく、例えば、1画素単位の場合には、図8<II>に示されるように、s回のシフト処理を行うため、s+1枚のフレームF0〜Fsが生成されることになる。従って、1回の処理でシフトさせる画素数は、適用する装置や設計仕様に基づいて適切な値に設定される。
このように、本実施形態の画像符号化方法によれば、主カメラおよび副カメラの各撮像画の画素値を比較して、値が異なる画素が連続する長さ基づいて、対応するフレームに差分画素値を保持する。すなわち、同一のフレーム上に、近い長さの視差画素値が保持される。
図9は、画像符号化方法が適用される符号化システムの一例を示すブロック図であり、主として、第2実施例の画像符号化方法が適用される符号化システムを示すものである。図9において、参照符号1は符号化システム(画像符号化装置)を示し、2は撮像デバイスを示す。
図9に示されるように、符号化システム1は、メモリ(SDRAM:Synchronous Dynamic Random Access Memory)10,符号化部11およびメタ情報生成部12を含み、撮像デバイス2は、主カメラMC,副カメラSC2,SC3およびカメラ制御部20を含む。
撮像デバイス2は、図7に対応させて3個のカメラ(主カメラMC、副(左)カメラSC2および副(右)カメラSC3)を含むように描かれているが、カメラの数は様々に変化させることができる。
すなわち、第1実施例の場合には、カメラは、主カメラMCおよび副カメラSCの2個でよく、また、第3実施例のように、複数のカメラ群GR1〜GR3を設ける場合には、多数のカメラが設けられることになる。
カメラ制御部20は、それら全てのカメラにおける位置情報のキャリブレーション、および、被写体の同時撮影等を制御する。なお、カメラ制御部20は、カメラMC,SC2,SC3毎に別々に設けることもできる。
SDRAM10は、副(右)カメラSC3からの副(右)カメラ撮像画PICs3,主カメラMCからの主カメラ撮像画PICmおよび副(左)カメラSC2からの副(左)カメラ撮像画PICs2を格納(記憶)する。
さらに、SDRAM10は、前述した画素値の比較およびシフト処理により得られた視差別フレーム(F0〜Fg),メタ情報生成部12により生成された撮像環境メタ情報MI並びに視差補間フレームFi0,Fi1を格納する。
ここで、撮像環境メタ情報MIには、撮像デバイス2における各カメラの位置関係、並びに、実装によっては撮像条件および撮像時の環境情報(場所およびカメラの向き等)が含まれるものとする。
また、メタ情報生成部12では、撮像デバイス2から受け取った撮像条件および撮像デバイス等の情報に基づいて出力用のメタ情報を生成する。さらに、受け取った情報に基づいて各撮像画の符号化におけるシフト量の算出、並びに、符号化部11への転送といった処理も行う。また、メタ情報には、受け取った情報以外の情報を載せることもできる。
なお、第4実施例が適用される符号化システムにおいて、符号化は連結している撮像デバイス単位で独立して行われるため、符号化システム1を撮像デバイス2のセット数分設けてもよい。
或いは、符号化システム1を、撮像デバイス2のセット数分より少なく用意し、時分割で符号化を行うようにすることもできる。ただし、全てのカメラで同時に撮影を行うため、符号化を時分割で行うと場合でも、全カメラの撮像データは、撮像時にSDRAM10に格納することが求められる。
図10は、図9に示す符号化システムにおける符号化部をより詳細に示すブロック図である。図10に示されるように、符号化部11は、SDRAM10に格納された撮像画(PICm,PICs2,PICs3)を読み出して保持するラインバッファ111、並びに、視差別フレームF1〜Fgに書き込むデータを保持するラインバッファ112を含む。さらに、符号化部11は、視差補間フレームFi1,Fi2に書き込むデータを保持するラインバッファ113、および、画素値の比較を行う画素値比較部114を含む。
ここで、撮像画の読出しは、フレーム全てをまとめて読みだすのではなく、例えば、参照画素と同一ラインのみ同時に読み出し、それをラインバッファ111に保持する。厳密には、同時に読み出すデータは、参照画素のデータのみが存在すればよいが、実際のシステムでは、ライン単位でSDRAM10から読み出すことが多いため、ラインバッファ111を設けるようにしている。もちろん、ライン単位の読み出し以外にも、可能であれば画素単位/複数ライン単位/フレーム単位等の読み出しを行うこともできる。
また、撮像画用のバッファ(ラインバッファ)111は、撮像画の枚数分だけ設けられているが、視差別フレーム用のバッファ112は、直前に符号化が終わったフレームと符号化中のフレームの2枚分だけでよい。さらに、視差補間フレーム用のバッファ113は、副カメラの個数分(図9および図10の例では2枚分)だけでよい。
図11は、第2実施例の画像符号化プログラムが適用される実行システムの一例を示すブロック図である。前述したように、本実施例の画像符号化方法は、例えば、演算処理装置により実行される画像符号化プログラムとして実現することも可能である。
図11に示されるように、実行システム(画像符号化装置)100は、SDRAM10,カメラ用I/O(Input/Output)部101,CPU(演算処理装置)102,バス103および外部データ出力用I/O部104を含む。カメラ用I/O部101は、撮像デバイス2におけるカメラ制御部20との間で信号を遣り取りすると共に、各カメラMC,SC2,SC3からの画像データを受け取る。
なお、カメラ用I/O部101としては、例えば、MIPI(Mobile Industry Processor Interface)等のインタフェースを適用することができる。また、図11では、1つのカメラ用I/O部101として描いているが、各カメラおよびカメラ制御部に対してそれぞれI/O部を設けることもできる。
SDRAM10は、例えば、撮像デバイス2におけるカメラMC,SC2,SC3により撮影された撮像画を、カメラ用I/O部101およびバス103を介して受け取り、撮像画PIC(PICm,PICs2,PICs3)を格納する。
さらに、SDRAM10は、図9および図10を参照して説明したように、視差別フレームF(F0〜Fg),撮像環境メタ情報MIおよび視差補間フレームFi(Fi0,Fi1,…)等を格納する。
CPU102は、例えば、カメラ制御部20を介してカメラMC,SC2,SC3による撮影を制御し、また、SDRAM100に格納された撮像画PICに対してシフトおよび比較処理を行って視差別フレームFを生成するといった様々な処理を行う。
外部データ出力用I/O部104は、例えば、CPU102により符号化処理された符号化データを外部へ出力する。また、CPU102が実行するプログラムは、例えば、外部のメモリ(図示しない)に格納しておき、外部データ出力用I/O部104を介してCPU102に実行させることができる。
なお、CPU102が実行するプログラムは、例えば、実行システム100に内蔵したフラッシュメモリ等の不揮発性メモリに格納することもできるのはいうまでもない。この外部データ出力用I/O部104としては、例えば、USB(Universal Serial Bus)やMIPI等を適用することができる。
図12は、第2実施例の画像符号化方法が適用される画像符号化処理の一例を説明するためのフローチャートである。なお、第1実施例の画像符号化方法が適用される画像符号化処理は、以下に説明において、k=2の場合に対応する。
以下の説明において、参照符号xは、水平インデックス、yは、ラインインデックス、kは、副カメラの総数、そして、nは、フレーム番号を示す。また、sxiは、各副カメラの撮像画におけるシフト時の水平移動単位(単位は画素数:i=1,2,3,…,k)を示し、syiは、各副カメラの撮像画におけるシフト時の垂直移動単位(単位は画素数:i=1,2,3,…,k)を示す。なお、sxiおよびsyiは、カメラ位置,撮像条件および符号化の設定等によって決まり、撮像中は変化しないものとする。
さらに、Pi(水平座標,垂直座標)は、各カメラの座標を示す。なお、iはカメラ番号を示し、i=0は主カメラを示し、i=1,2,3,…,kは副カメラを示す。そして、pfn(水平座標,垂直座標)は、フレームnの座標を示し、nmaxは、最大シフト量(nの最大値)を示す。
図12に示されるように、画像符号化処理が開始すると、ステップST1において、カメラ制御部20にて主カメラMCおよび各副カメラSC(SC1〜SCk(SC4))を同期させるように設定および補正を行って、ステップST2に進む。
ステップST2では、主カメラMCおよび各副カメラSCにおいて、視点位置以外は同じ条件となるようにして同時撮影を行う。すなわち、全てのカメラが同じ撮像条件/同じタイミング(同設定/同タイミング)で被写体を撮影して、ステップST3に進み、撮像画像および撮像環境メタ情報を受信する。
そして、ステップST4において、フレーム番号nを、n=0に設定して、ステップST5に進み、画素値比較部114にてフレームnを符号化する。ここで、ステップST5では、前フレームまでにP領域(陽領域)になったことのある画素は、T領域(透領域)に設定する。
さらに、ステップST5では、それ以外の画素でP0(x,y),P1(x+n×Sx1,y+n×Sy1),…,Pk(x+n×Sx1,y+n×Sy1)の全画素値が一致、或いは、所定のしきい値以内の場合には、Pfn(x,y)をP領域としてその値を保持する。
次に、ステップST6に進んで、フレームnにN領域(陰領域)がなくなったかどうか、すなわち、全ての画素が一度P領域になったかどうかを判定する。ステップST6において、フレームnにN領域がなくなった(Yes)と判定すると、ステップST10に進み、フレームnにN領域がなくなっていない(No:N領域が残っている)と判定すると、ステップST7に進む。
ステップST7では、n==nmaxかどうかを判定し、n==nmaxが成立する、すなわち、フレームnのシフトが最大シフト量nmaxになった(Yes)と判定すると、ステップST9に進む。ステップST9では、フレームnに残ったN領域の補間を行い、そして、ステップST10に進む。ここで、ステップST9におけるN領域の補間は、任意であり、知られている様々な補間手法を適用することができる。
一方、ステップST7において、n==nmaxが成立しない(No)と判定すると、ステップST8に進んで、n=n+1としてステップST5に戻り、上述したステップST5〜ST9の処理を繰り返す。
そして、ステップST10では、画素値比較部114にてフレームF0のN領域座標と、そのN領域座標と同じ座標のP1〜Pk(各副カメラの座標:(水平座標,垂直座標))を記録する。なお、記録方法は、任意であり、様々な記録手法を適用することができる。また、ステップST10の処理は、前述した第4実施例の画像符号化方法のみに対応する処理である。
次に、符号化処理を詳述する。図13および図14は、第1実施例の画像符号化方法による処理手順の一例を説明するための図である。ここで、前述した図5と同様に、奥に位置する物体(被写体)から物体OA,OB,OCとし、主カメラMCと副カメラSCにおいて、視点移動時の画面上での各物体の移動量の比率ROA〜ROCは、ROA:ROB:ROC=0:1:2となるものとする。
すなわち、手前の物体(カメラMC,SCに近い物体)ほど、視点移動に対して動く距離が大きくなる。また、物体OAは、無限遠方と同等に遠い位置にあるため、距離比率が0となるもの(動きなし)とする。
なお、本実施形態の適用は、微小視点移動対応画像を前提としており、d/r=tanθ=θが成立するのが前提となる。従って、図13において、例えば、tanθ=θが成立しなくなる境界線LLよりも手前に位置する物体は、撮像画像に含まれない。
図14(a)は、主カメラMCと副カメラSCにより同時撮影された主カメラ撮像画PICmおよび副カメラ撮像画PICsを示し、図14(b)は、生成されたフレーム(視差別フレーム)F0〜F2を示す。なお、図中の数値(-14〜0,0〜+14)は、画像をシフトする画素単位の水平座標であり、1画素(ピクセル)ごとの座標ではない。
ここで、説明を簡略化するために、画素のシフト範囲内では全て同じ画素値という条件を付けるが、実際の画像ではそうはならないため、画素値の比較は画素単位(1ピクセルごと)に行うことになる。
また、図14(a)において、画像(PICm,PICs)のアスペクト比が縦長になっているが、紙面上の都合であり特別な意味はない。そして、説明を簡略化するために、図14(a)における破線で囲った領域RR内のラインのみについて説明する。すなわち、第1実施例の説明では、画像のシフトを水平方向のみとするため、同一ラインのみを考えればよく、これは、領域RR内のラインについて説明すればよいことになる。
図14(b)に示されるように、まず、シフトを行わない状態で画素比較を行って、フレームF0を生成する。このとき、背景(BK)および物体OAは、全ての画像で似ており、同じ座標に位置する。
この場合、−14〜−11と+12〜+14の背景、−10,−9および+9〜+11の物体OA、−7,+5および+6の物体OB、並びに、−4〜+2の物体OCが画素一致するため、P領域となる。これにより、フレームF0を符号化することができる。
次に、フレームF1を生成する。すなわち、副カメラ撮像画PICsを右方向に1だけ移動させた状態で、フレームF0でP領域にならなかった領域において画素値の比較を行う。このとき、物体OBは、全ての画像で似ており、同じ座標に位置する。
この場合、−8の物体OA、−6および+7の物体OB、並びに、+3の物体OCにおいて画素が一致する。なお、フレームF1において、フレームF0でP領域だった領域は、T領域に設定する。これにより、フレームF1を符号化することができる。
さらに、フレームF2を生成する。すなわち、副カメラ撮像画PICsをさらに右方向に1だけ移動させ、フレームF1のP領域でもT領域でもない領域において画素値の比較を行う。このとき、物体OCは、全ての画像で似ており、同じ座標に位置する。
この場合、−5の物体OB、+4の物体OCにおいて画素が一致する。これにより、フレームF2を符号化することができ、そして、P領域にならなかった画素がなくなるため符号化処理が完了する。
図15および図16は、第2実施例の画像符号化方法による処理手順の一例を説明するための図であり、前述した図7と同様に、3個のカメラが一直線上に(副(左)SCL/主MC/副(右)SCR)配列されている。
ここで、図7では、主カメラMCと副(左)カメラSC2間の距離d1と、主カメラMCと副(右)カメラSC3間の距離をd2の間に、2×d1=d2の関係が成立していた。これに対して、図15および図16では、主カメラMCと副(左)カメラSCL間の距離2dが、主カメラMCと副(右)カメラSCR間の距離dの2倍となっている。なお、空間内における物体OA〜OCは、図13と同様の配置となっている。
図16(a)は、副(左)カメラSCL,主カメラMCおよび副(右)カメラSCRで同時撮影された、副(左)カメラ撮像画PICSL,主カメラ撮像画PICmおよび副(右)カメラ撮像PICSRを示し、図16(b)は、生成されたフレーム(視差別フレーム)F0〜F2を示す。なお、第2実施例の説明でも、説明を簡略化するために、図16(a)における破線で囲った領域RR内のラインのみについて説明する。
図16(b)に示されるように、まず、シフトを行わない状態で画素比較を行って、フレームF0を生成する。このとき、背景(BK)および物体OAは、全ての画像で似ており、同じ座標に位置する。
この場合、−14〜−11と+12〜+14の背景、−10,−9および+10〜+11の物体OA、−7,+5および+6の物体OB、並びに、0〜+2の物体OCが画素一致するため、P領域となる。これにより、フレームF0を符号化することができる。
次に、フレームF1を生成する。すなわち、副(右)カメラ撮像画PICSRを右方向に1だけ移動させ、副(左)カメラ撮像画PICSLを左方向に2だけ移動させた状態で、フレームF0でP領域にならなかった領域において画素値の比較を行う。このとき、物体OBは、全ての画像で似ており、同じ座標に位置する。
この場合、−8,+8および+9の物体OA、−7,−6および+7の物体OB、並びに、0,+1および+3の物体OCにおいて画素が一致する。なお、フレームF1において、フレームF0でP領域だった領域は、T領域に設定する。これにより、フレームF1を符号化することができる。
さらに、フレームF2を生成する。すなわち、副(右)カメラ撮像画PICSRをさらに右方向に1だけ移動させ、副(左)カメラ撮像画PICSLをさらに左方向に2だけ移動させ、フレームF1のP領域でもT領域でもない領域において画素値の比較を行う。このとき、物体OCは、全ての画像で似ており、同じ座標に位置する。
この場合、−5および+5の物体OB、−4、−3および+4の物体OCにおいて画素が一致する。これにより、フレームF2を符号化することができ、そして、P領域にならなかった画素がなくなるため符号化処理が完了する。
図17〜図19は、第2実施例の画像符号化方法による処理手順の他の例を説明するための図である。上述した図15および図16では、直線上に配列された3つのカメラ(SCL,MC,SCR)による撮像画(PICSL,PICm,PICSR)を処理したが、図17〜図19では、クロス状に配置した5個のカメラによる撮像画を処理する。
すなわち、図17に示されるように、5個のカメラは、主カメラMCに対して、左側に副(左)カメラSCL、右側に副(右)カメラSCR、上側に副(上)カメラSLU、そして、下側に副(下)カメラSLDを配置する。
ここで、副(左)カメラSCL−主カメラMC−副(右)カメラSCRは、直線上に配列され、それらの水平位置は等しいものとする。また、副(上)カメラSLU−主カメラMC−副(下)カメラSLDも直線上に配列され、それらの垂直位置は等しいものとする。なお、主カメラMCと、各副SCL,SCR,SLU,SLD間の距離は、全て等しくdとなっている。
まず、図19に示されるように、シフトを行わない状態で画素比較を行って、フレームF0を生成する。このとき、背景(BK)および物体OAは、全ての画像で似ており、同じ座標に位置する。
この場合、背景領域はすべて一致するためP領域となり、物体OAは、各副画像の物体OBのずれ出した領域(上下左右1ラインずつ)を差し引いた領域にて一致するためP領域となる。
また、物体OBは、物体OCのぶれ分が大きいため、上下左右斜め方向に2画素ずつのみで一致するためP領域となり、物体OCは、−6〜−2の列で、且つ、−6〜+5の行の矩形状の領域にて一致するためP領域となる。これにより、フレームF0を符号化することができる。
次に、フレームF1を生成する。すなわち、副(右)カメラ撮像画PICSRを右方向に、副(左)カメラ撮像画PICSLを左方向に、副(上)カメラ撮像画PICSUを上方向に、副(下)カメラ撮像画PICSDを下方向に、それぞれ1だけ移動させる。そして、この状態で、フレームF0においてP領域にならなかった領域で画素値の比較を行う。このとき、物体OBは、全ての画像で似ており、同じ座標に位置する。
この場合、物体OAは、物体OBのズレ分が収まったため、残っていた領域が全て一致してP領域となり、物体OBは、物体OCのぶれ分が収まったため、左右2ラインおよび上下1ラインが一致するためP領域となる。
また、物体OCは、全体のずれ量が小さくなり、フレームF0で一致した矩形領域の外周1ラインが新たに一致するためP領域となる。なお、フレームF1において、フレームF0でP領域だった領域は、T領域に設定する。これにより、フレームF1を符号化することができる。
さらに、フレームF2を生成する。すなわち、副(右)カメラ撮像画PICSR,副(左)カメラ撮像画PICSL,副(上)カメラ撮像画PICSUおよび副(下)カメラ撮像画PICSDを、それぞれ同じ方向に1だけ移動させる。そして、この状態で、フレームF1のP領域でもT領域でもない領域において画素値の比較を行う。このとき、物体OCは、全ての画像で似ており、同じ座標に位置する。
この場合、残っていた物体OBの内周と物体OCの外周それぞれの1ラインが一致するため、P領域となる。そして、P領域にならなかった画素がなくなるため符号化処理が完了する。
以上において、第3実施例の画像符号化方法による処理手順は、上述した第1および第2実施例の画像符号化方法による1つのカメラ群(カメラセット)における処理手順を、複数のカメラ群に対して同様に適用することになる。
さらに、第4実施例の画像符号化方法は、第1〜第3実施例において、例えば、フレームF0のN領域とその座標の副カメラの画素値を記録することで、復号化時に、視聴者が視点を移動させた際の背景部分の描画データ不足を緩和する。
なお、第1〜第4実施例の画像符号化方法は、例えば、図9および図10に示す画像符号化装置(符号化システム)により実施され、或いは、図11に示す画像符号化装置(実行システム)の画像符号化プログラムとして演算処理装置(CPU)により実行される。以上により、三次元画像情報を複数枚の二次元画像に符号化することができる。次に、画像復号化方法および画像復号化装置の実施例を詳述する。
[復号化]
上述のようにして符号化された空間情報は、その空間情報を表示するための画面と視聴者の視点移動距離を測定する視点移動距離測定部を備えた再生環境において、視聴者の視点位置情報から描画する各フレームのシフト画素量を算出する。
すなわち、第5実施例の画像復号化方法(画像復号化方法の一実施例)によれば、フレームF0から若いフレーム番号順に、算出したシフト量だけシフトして上書き描画を行う。その際、T領域(透領域)に設定されている画素は、上書き描画を行わない。
ここで、視聴者による視点の移動範囲は任意であるが、本明細書では、主カメラと各副カメラとを結ぶ直線上のみ(主カメラと副カメラとの中間視点)を説明する。なお、視点の移動が直線から外れると、記録されていない画素が増えるため、視点再現度が低下することになる。
また、前述した符号化の処理手順であれば、符号化時にフレームF0,F1,…の生成順序と同様に、フレームF0から順番に上書き処理を行うことになる。これにより、主カメラと副カメラ、並びに、主カメラと副カメラの間にある中間視点からの視点画像を生成することができる。
このように、本実施形態に係る画像復号化方法および画像復号化装置は、例えば、ジオメトリの計算を行うことなく、「シフト+上書き描画」という簡単な処理のみで目的とする視点画像を生成することができる。
さらに、前述した第4実施例の画像符号化方法により、例えば、記録されたフレームF0のN領域(陰領域)とその座標の副カメラの画素値を使用することで、復号化時に、視聴者が視点を移動させた際の背景部分の描画データ不足を緩和することが可能となる。
すなわち、第6実施例の画像復号化方法(画像復号化方法の他の実施例)によれば、上述した第5実施例の画像復号化方法を適用して復号化する際、例えば、フレームF0のN領域を、視点移動方向に対応する副カメラの画像(副カメラ撮像画)のデータで置き換える。これにより、視点移動時の画素欠落を容易に補間することが可能となる。
また、フレームを描画した後、対応する副カメラの撮像画のフレーム(フレームF0のN領域以外はP領域(陽領域)になっているものとする)で上書き描画することで、特別な処理をすることなく、データの置き換えを行うことも可能となる。
図20は、本実施形態に係る画像復号化方法による処理の一例を説明するための図であり、例えば、図6を参照して説明した2個のカメラ(主カメラMCおよび副カメラSC)による三次元情報を符号化した場合の復号化処理を説明するためのものである。
ここで、図20(a)に示されるように、視聴者VRは、主カメラMCと副カメラSC間の距離dのちょうど中間に位置している場合、すなわち、視点位置がd/2の複合画を生成する場合を説明する。
本実施形態に係る画像復号化方法によれば、視点位置に応じたシフトを行った上で、若い番号のフレームから順に、すなわち、フレームF0→F1→F2→…と順番に、上書き描画を行う。なお、上述したように、視点位置は、ちょうど主カメラMCと副カメラSCの中間位置となるため、各フレームを生成するときの副カメラの画像(副カメラ撮像画)のシフト量の1/2の画素数だけシフトすればよい。
具体的に、符号化フレームの総枚数をg枚、副カメラSCの水平および垂直シフト単位画素数をsxf,syfとすると、フレームa(1≦a≦g)のシフト量は、水平方向:(a/2)sxf画素、垂直方向:(a/2)syf画素となる。なお、シフト方向は、主カメラMCから見て、視点移動方向に対して逆向きにシフトする。
すなわち、このときは、図20(b)に示されるように、視差部分が折り重なり、物体がs/2だけ右にずれた中間視点の画像が生成される。ここで、物体の右側がずれ出ていないが、視点拡張カメラを含めて符号化すれば右側もずれ出る。このズレ出た領域は、例えば、後に詳述する第6実施例の画像復号化方法(画像復号化方法の第2実施例)による補間で埋めることで中間視点画像を生成する。
なお、シフト量は、同じ符号化フレーム内であれば、空間中の物体の奥行きに関係なく等価となるため、例えば、ジオメトリ計算を行うことなく、移動後の視点位置に応じた画像を容易に生成することが可能となる。
図21は、本実施形態の画像復号化方法が適用される復号化システムの一例を示すブロック図である。図21において、参照符号3は復号化システム(画像復号化装置)、4は表示デバイス、そして、5は視聴者視点位置検出デバイスを示す。
図21に示されるように、復号化システム3は、メモリ(SDRAM)30および復号化部31を含む。SDRAM30は、撮像環境メタ情報MI、符号化システム1により生成された視差別フレームF0〜Fgおよび視差補間フレームFi0,Fi1,…、並びに、処理結果フレームFprを格納(記憶)する。
ここで、撮像環境メタ情報MI、視差別フレームF0〜Fgおよび視差補間フレームFi0,Fi1,…は、本実施形態の画像符号化装置により既に取得されたものであり、処理結果フレームFprは、復号化部31による復号化処理により生成されたものである。また、処理結果フレームFprは、例えば、液晶表示装置等の表示デバイス4に画像表示され、視聴者VRにより観察される。
視聴者視点位置検出デバイス5は、例えば、表示デバイス4に取り付けられ、知られている様々な手法により視聴者VRの視点位置を検出し、その視聴者の視点位置情報を復号化部31に供給する。
なお、表示デバイス4としては、例えば、テレビ放送やブルーレイディスクによる動画を表示する大型液晶ディスプレイ、或いは、スマートフォンやタブレット等の携帯機器の小型ディスプレイといった様々なものが適用され得る。また、撮像環境メタ情報MIには、撮像デバイス2における各カメラの位置関係、並びに、実装によっては撮像条件および撮像時の環境情報が含まれている。
復号化部31は、例えば、SDRAM30に格納された撮像環境メタ情報MI、視差別フレームF0〜Fgおよび視差補間フレームFi0,Fi1,…の各種データ、並びに、視聴者視点位置検出デバイス5からの視聴者の視点位置情報を受け取って、復号化を行う。なお、復号化部31は、例えば、視差の外側から順に描画する。
図22は、図21に示す復号化システムにおける復号化部をより詳細に示すブロック図である。図22に示されるように、復号化部31は、復号フレーム選択部311,描画部312,復号結果フレームバッファ313,フレームシフト量算出部314および補間フレーム決定部315を含む。
補間フレーム決定部315は、SDRAM30に格納された視差補間フレームFiおよび撮像環境メタ情報MIを受け取り、補間フレームインデックスを生成して復号フレーム選択部311に出力する。
復号フレーム選択部311は、SDRAM30に格納された撮像環境メタ情報MIおよび視差別フレームF0〜Fg、並びに、補間フレーム決定部315からの補間フレームインデックスを受け取り、復号フレームを選択して描画部312に出力する。フレームシフト量算出部314は、視聴者視点位置検出デバイス5からの視聴者の視点位置情報に基づいてシフト量を算出し、描画部312に出力する。
描画部312は、復号フレーム選択部311により選択されたフレームデータ,SDRAM30に格納された撮像環境メタ情報MIおよびフレームシフト量算出部314で算出されたシフト量を受け取って、シフトおよび描画を行って復号結果フレームを生成する。
なお、描画部312により生成された復号結果フレームは、例えば、復号結果フレームバッファ313を介して表示デバイス4に出力され、或いは、SDRAM30に復号結果フレームFprとして格納される。また、SDRAM30に格納される視差補間フレームFiおよび補間フレーム決定部315は、前述した第4実施例の画像符号化方法に対応したものである。
図23は、本実施形態の画像復号化プログラムが適用される実行システムの一例を示すブロック図である。本実施形態の画像復号化方法は、例えば、演算処理装置により実行される画像復号化プログラムとして実現することも可能である。
図23に示されるように、実行システム(画像復号化装置)300は、SDRAM30,検出デバイス用I/O部301,表示デバイス用I/O部302,CPU(演算処理装置)303,バス304および外部データ入力用I/O部305を含む。
検出デバイス用I/O部301は、視聴者視点位置検出デバイスとの間で信号を遣り取りして、視聴者の視点位置の情報を取得する。表示デバイス用I/O部302は、表示デバイス4との間で信号を遣り取りして、処理結果フレーム(復号画像データ:視点復号画)Fprを表示デバイス4に表示させる。
SDRAM30は、前述したように、例えば、撮像環境メタ情報MI、視差別フレームF0〜Fg,視差補間フレームFiおよび処理結果フレームFprを格納する。外部データ入力用I/O部305は、例えば、外部から符号化データや撮像環境メタ情報MI等を受け取り、或いは、他の様々なデータの遣り取りを行う。この外部データ入力用I/O部305としては、例えば、USBやMIPI等を適用することができる。
CPU303は、本実施形態の画像復号化プログラムを実行し、例えば、SDRAM30に格納された撮像環境メタ情報MI、視差別フレームF0〜Fgおよび視差補間フレームFi、並びに、視聴者の視点位置情報を受け取って、復号化処理を行う。
なお、CPU303が実行するプログラムは、例えば、外部のメモリ(図示しない)に格納しておき、外部データ入力用I/O部305を介してCPU303に実行させることができる。或いは、CPU303が実行するプログラムは、例えば、実行システム300に内蔵したフラッシュメモリ等の不揮発性メモリに格納することもできる。
図24は、本実施形態の画像復号化方法における処理の一例を説明するためのフローチャートである。以下の説明において、参照符号xは、水平インデックス、yは、ラインインデックス、eは、視差幅、nは、フレームカウント(フレーム番号)を示す。
また、gは、フレーム総枚数、iは、視差データインデックス、vは、視聴者の視点移動距離に対するフレームF1のシフト量の比率、そして、hx,hyは、視聴者視点位置検出デバイスで検出した視聴者の頭部の水平座標,垂直座標(視聴者視点座標)を示す。なお、hx=hy=0のとき、主カメラMCと同じ視野となる。
さらに、o(水平座標,垂直座標)は、復号画像データ(視点復号画,復号画)、jは、フレームF0のN領域補間用の副カメラインデックス、そして、phj(水平座標,垂直座標)は、フレームF0のN領域補間用の副カメラ撮像画(j=1,2,…,k)を示す。なお、フレームF0において、N領域の座標では、phj(x,y)==pk(x,y)が成立し、また、フレームF0において、P領域の座標では、phj(x,y)==T領域が成立する。
図24に示されるように、画像復号化処理が開始すると、ステップST21において、再生を開始する。すなわち、再生データを入力し、視聴者視点位置検出デバイス5により、視聴者VRの視点位置のトラッキングを開始する。
さらに、ステップST22に進んで、視聴者視点座標(hx,hy)を取得し、フレームシフト量算出部314により比率vを決定し、補間フレーム決定部315により副カメラインデックスjを決定する。
ここで、vの算出は、例えば、視聴者VRが符号化時の主カメラ(MC)から副aカメラ(SCa)の位置まで視点移動した場合、視聴者視点位置検出デバイス5により検出した視聴者VRの水平および垂直移動を符号化カメラの画素数に置き換える。すなわち、その画素数に置き換えたものをhxa,hyaとすると、v=(sxa 2+sya 2)1/2/(hxa 2+hya 2)1/2として求めることができる。また、副カメラインデックスjの決定方法としては、現在の視聴者VRの視点位置と、主カメラ−副カメラ間を結ぶ直線との距離が最も小さい副カメラを選ぶ方法など適用可能である。
次に、ステップST23において、n=0,u=falseとしてステップST24に進み、フレームFnをずらして描画を行う。すなわち、o(x,y)=pfn(x+(1−n×v)hx,y+(1−n×v)hy)となる。ここで、T領域およびN領域は、描画せず、P領域のみ上書き描画を行う。なお、座標(x−v×hx,y−v×hy)がフレームの範囲外の場合には、描画は行わない。また、nが0でuがtrueのとき、すなわち、n=0,u=trueのときは、pf0ではなくpfjを参照する。
さらに、ステップST25に進んで、n==gかどうかを判定し、n==gが成立する(Yes)と判定すると、ステップST26に進んで、表示デバイス4に復号画像データoを描画してステップST27に進む。
ステップST27では、視聴者VRが視聴を終了したかどうかを判定し、終了した(Yes)と判定すると、画像復号化処理を終了し、終了していない(No)と判定すると、ステップST28に進む。
ステップST28では、視聴者VRの視点位置に変化があるかどうかを判定し、変化がある(Yes)と判定すると、ステップST22に戻って同様の処理を繰り返し、変化がない(No)と判定すると、ステップST27に戻る。すなわち、視聴者VRが視点を移動させた場合には、新たな視点位置に対応した処理を行い、視聴者VRが視点を移動させない場合には、視聴を終了するまでその状態を維持する。
一方、ステップST25において、n==gが成立しない(No)と判定すると、ステップST29に進み、n==0且つu==falseかどうかを判定し、成立する(Yes)と判定すると、ステップST30に進んで、u==trueとしてステップST23に戻る。なお、ステップST29において、n==0且つu==falseが成立しない(No)と判定すると、ステップST31に進んで、n=n+1としてステップST23に戻る。
ここで、ステップST29〜ST31は、前述した第4実施例の画像符号化方法に対応した復号化処理であり、これにより、復号化時に、視聴者VRが視点を移動させた際の背景部分の描画データ不足を緩和することができるようになっている。なお、この例では、フラグを1つ用意し、フレームF0を描画した後に、補間画像を上書きしている。
次に、復号化想定再生環境(水平視点移動時)を説明する。再生(視聴)環境は、例えば、視聴者VRが一般的なテレビを視聴する環境のような、視聴者VRが表示デバイス4のほぼ正面にいる環境を想定する。
また、視聴者VRは、適切な視聴距離(映像の視野角に表示デバイス4がほぼ一致する距離)をとると想定する。そのため、視聴者VRの位置は、撮影時の焦点位置にほぼ合致することになる。
さらに、再生環境として、知られている様々な手法を適用することで、視聴者VRの視点位置を視聴者視点位置検出デバイス5で検出し、その検出した視点位置情報を、ほぼリアルタイムで復号化部31に出力することができるものとする。
なお、視聴者視点位置検出デバイス5は、例えば、光学カメラを利用した顔認識技術等であってもよいが、その形態は問わない。また、視聴者視点位置検出デバイス5は、表示デバイス4に内蔵されていてもよいが、単独の機器とすることも可能である。このような再生環境において、視聴者VRは、首を動かす(平行移動する)といった微小な視点移動を行うものとする。
図25は、本実施形態の画像復号化方法において視点移動なし時の処理を説明するための図である。図25に示されるように、視聴者VRが視点を移動させないとき(視点移動なし時)、hx=hy=0が成立し、この状態でフレームF0,F1,F2,F3の順に上書き描画を行う。
ここで、T領域(透領域)およびN領域(陰領域)の画素は、上書きしない。また、各フレームにおけるP領域(陽領域)は、上書きされずに残る。その結果、主カメラMCから見た視差がそのまま復元され、主カメラMCの撮像画PICmと同じ画像が復元されることになる。
図26は、本実施形態の画像復号化方法において視点移動あり時の処理を説明するための図である。図26に示されるように、視聴者VRが視点を移動させるとき(視点移動あり時)、hx≠0若しくはhy≠0が成立する。
視聴者VRが表示デバイス4の正面以外の位置にいる場合は、フレームのシフト量を変更することにより中間視点を生成する。ここで、視点移動時において、シフト量は、2つの変化が適用される。
すなわち、第1のシフト量の変化は、画面全体を視聴者VRの位置に適合させるために、(x,y)から(x+hx,y+hy)へシフトするものである。また、第2のシフト量の変化は、フレームF1以降のフレームに関して、視聴者VRの視点位置の視差を生成するために、(x,y)から(x−n×v×hx,y−n×v×hy)へ、フレームごとに異なる量だけシフトするものである。
その結果、フレームFnでは、(x,y)から(x+(1−n×v)hx,y+(1−n×v)hy)へシフトして描画されることになる。すなわち、フレームF0では、(x,y)から(x+hx,y+hy)へ、フレームF1では、(x,y)から(x+(1−v)hx,y+(1−v)hy)へ、フレームF2では、(x,y)から(x+(1−2v)hx,y+(1−2v)hy)へシフトして描画される。
このように、本実施形態の画像復号化方法によれば、復号化時には、視聴者の視点位置に基づいて算出した量だけフレームをシフトして上書き描画していくことで、視聴者の視点位置の画像を復元することができる。この効果は、以下に詳述する画像復号化方法の各実施例でも発揮され得るものである。
図27は、本実施形態に係る画像復号化方法による処理手順の一例を説明するための図であり、2個のカメラが水平に配置された場合の復号化の処理手順を説明するためのものである。
すなわち、図27は、主カメラMCと副カメラSCを水平方向に配列した第1実施例の符号化方法により得られた、前述した図14(b)に示されるフレームF0〜F2を、復号化処理する手順を説明するものである。
ここで、図27(a)は、主カメラMCの視点画像復号化(hx=0)を示し、図27(b)は、主カメラMCおよび副カメラSCの中間位置の視点画像復号化(hxがd/2相当)を示し、そして、図27(c)は、副カメラSCの視点画像復号化(hxがd相当)を示す。
なお、図27において、移動は、水平方向のみなので、常に、hy=0となる。また、説明を簡略化するために、上述した第1のシフト量の変化(視点位置に合わせた画面全体のシフト)は無視して、第2のシフト量の変化(各フレームのシフト)について説明する。
まず、図27(a)に示されるように、主カメラMCの視点画像復号化では、hx=hy=0であり、フレームF0のN領域を、フレームF1およびF2におけるP領域が補い、視点移動がない画(主カメラ撮像画PICm)が復号される。
ここで、視点移動がない場合は、視差部分の移動による画素抜けは発生しないため、前述した第4実施例の画像符号化方法に対応する第6実施例の画像復号化方法の有無で結果は変わらない。
次に、図27(b)に示されるように、主カメラMCおよび副カメラSCの中間位置の視点画像復号化(hxがd/2相当)では、ちょうど中間視点なので、符号化時のシフト量の半分だけ視点移動方向の+側とは逆の−側にシフトさせればよい。
また、符号化時の単位シフト量が『1』なので、それに対応させて、フレームF1では、−1/2=−0.5だけシフトさせ、また、フレームF2では、−2/2=−1だけシフトさせる。
ここで、フレームF1,F2のシフトにより、画素データが存在しない領域ができるが、このような領域に対しては、前述した第6実施例の画像復号化方法(視点移動時の画素欠落を補間するもの)を適用することにより、補間することが可能となる。結果として、例えば、物体OBが0.5だけマイナス方向に移動し、物体OCが1だけマイナス方向に移動した復号画(復号画像データ:処理結果フレームFpr)が得られる。
さらに、図27(c)に示されるように、副カメラSCの視点画像復号化(hxがd相当)では、副カメラSCの位置と同じであるため、符号化時のシフト量と同量のシフトをマイナス方向に行えばよい。
すなわち、フレームF1では、−1だけシフトさせ、また、フレームF2では、−2だけシフトさせる。結果として、物体OBが1だけマイナス方向に移動し、物体OCが2だけマイナス方向に移動した復号画像データが得られる。
図28および図29は、本実施形態に係る画像復号化方法による処理手順の他の例を説明するための図であり、3個のカメラが水平に配置された場合の復号化の処理手順を説明するためのものである。
すなわち、図28および図29は、3個のカメラを水平方向の一直線上に(副(左)SCL/主MC/副(右)SCR)配列した第2実施例の符号化方法により得られた、図16(b)に示されるフレームF0〜F2を、復号化処理する手順を説明するものである。まず、図28を参照して、視点移動がない場合と視点が左方向に移動した場合を説明し、その後、図29を参照して、視点が右方向に移動した場合を説明する。
ここで、図28(a)は、主カメラMCの視点画像復号化(hx=0)を示し、図28(b)は、主カメラMCおよび副(左)カメラSCLの中間位置の視点画像復号化(hxが−d相当)を示す。さらに、図28(c)は、副(左)カメラSCLの視点画像復号化(hxが−2d相当)を示す。
なお、視点移動がない場合と視点が左方向に移動した場合、視点移動時の画素欠落の補間処理(第6実施例の画像復号化方法)は、視点が、主カメラMCと副(左)カメラSCLを結ぶ線分上になるため、副(左)カメラSCLによる撮像画PICSLを用いる。
また、図29(a)は、主カメラMCおよび副(右)カメラSCRの中間位置の視点画像復号化(hxが−d/2相当)を示し、図29(b)は、副(右)カメラSCRの視点画像復号化(hxが−d相当)を示す。
なお、視点が右方向に移動した場合、視点移動時の画素欠落の補間処理は、視点が、主カメラMCと副(右)カメラSCRを結ぶ線分上になるため、副(右)カメラSCRによる撮像画PICSRを用いる。
さらに、図28および図29においても、移動は、水平方向のみなので、常に、hy=0となる。また、説明を簡略化するために、上述した第1のシフト量の変化(視点位置に合わせた画面全体のシフト)は無視して、第2のシフト量の変化(各フレームのシフト)について説明する。
まず、図28(a)に示されるように、主カメラMCの視点画像復号化では、hx=hy=0であり、フレームF0のN領域を、フレームF1およびF2におけるP領域が補い、視点移動がない画像(主カメラ撮像画PICm)が復号される。
ここで、視点移動がない場合は、視差部分の移動による画素抜けは発生しないため、前述した第4実施例の画像符号化方法に対応する第6実施例の画像復号化方法の有無で結果は変わらない。
また、図28(b)に示されるように、主カメラMCおよび副(左)カメラSCLの中間位置の視点画像復号化(hxが−d相当)では、副(左)カメラSCLの画像はシフト単位『2』であり、視点移動距離は、副(左)カメラSCLまでの半分の距離となる。
従って、フレームF1では、(2×1)/2=1だけシフトし、フレームF2では、(2×2)/2=2だけシフトする。結果として、副(左)カメラSCLで補間した場合、例えば、物体OBが1だけプラス方向に移動し、物体OCが2だけプラス方向に移動した復号画像データが得られる。なお、補間に副(右)カメラSCRによる撮像画PICSRを用いると、画像(復号画像データ)が破綻してしまう。
さらに、図28(c)に示されるように、副(左)カメラSCLの視点画像復号化(hxが−2d相当)では、視点移動距離が中間フレームの2倍の距離となるため、フレームF1では、(2×2)/2=2だけシフトし、フレームF2では、(2×4)/2=4だけシフトする。
結果として、副(左)カメラSCLで補間すれば、例えば、物体OBが2だけプラス方向に移動し、物体OCが4だけプラス方向に移動した復号画像データが得られる。なお、この場合も、補間に副(右)カメラSCRによる撮像画PICSRを用いると、画像が破綻する。
次に、視点が右方向に移動した場合を説明する。この場合、視点は、主カメラMCと副(右)カメラSCRを結ぶ線分上になるため、副(右)カメラSCRによる撮像画PICSRを用いる。
ここで、前述した図15に示されるように、主カメラMCと副(左)カメラSCLの距離は2dであるため、視点は、−2dまで移動可能であったが、主カメラMCと副(右)カメラSCRの距離はdであるため、視点の移動距離範囲は、0〜dとなる。なお、視点を0〜dの範囲を逸脱して移動させた場合でも、復号画像データ(画像)を生成することは可能であるが、破綻する領域が大きくなってしまう。
図29(a)に示されるように、主カメラMCおよび副(右)カメラSCRの中間位置の視点画像復号化(hxが−d/2相当)では、副(右)カメラの画像はシフト単位『1』であり、視点移動距離は、副(右)カメラSCRまでの半分の距離となる。
従って、フレームF1では、(−1×1)/2=−0.5だけシフトし、フレームF2では、(−1×2)/2=−1だけシフトする。結果として、副(右)カメラSCRで補間した場合、例えば、物体OBが0.5だけマイナス方向に移動し、物体OCが1だけマイナス方向に移動した復号画像データが得られる。なお、補間に副(左)カメラSCLによる撮像画PICSLを用いると、画像が破綻してしまう。
そして、図29(b)に示されるように、副(右)カメラSCRの視点画像復号化(hxが−d相当)では、視点移動距離が中間フレームの2倍の距離となるため、フレームF1では、−1×1=−1だけシフトし、フレームF2では、−1×2=−2だけシフトする。
結果として、副(右)カメラSCRで補間すれば、例えば、物体OBが1だけマイナス方向に移動し、物体OCが2だけマイナス方向に移動した復号画像データが得られる。なお、この場合も、補間に副(左)カメラSCLによる撮像画PICSLを用いると、画像が破綻する。
図30〜図32は、本実施形態に係る画像復号化方法による処理手順のさらに他の例を説明するための図であり、5個のカメラがクロス状に配置された場合の復号化の処理手順を説明するためのものである。
すなわち、図30〜図32は、主カメラMCに対して、左側に副(左)カメラSCL、右側に副(右)カメラSCR、上側に副(上)カメラSLU、そして、下側に副(下)カメラSLDを配置した第2実施例の符号化方法により得られデータを復号化するものである。換言すると、図30〜図32は、前述した図19に示されるフレームF0〜F2を、復号化処理する手順を説明するものである。
ここで、図30は、視点移動がないとき(hx=hy=0)の復号画(視点復号画,復号画像データ)を示し、図31は、視点移動が主カメラMCおよび副(上)カメラSCUの中間位置のとき(hyが−d/2相当)の復号画を示す。さらに、図32は、視点移動が主カメラMCおよび副(上)カメラSCUの中間位置のとき(hyが−d相当)の復号画を示す。
まず、図30に示されるように、視点移動がないとき(hx=hy=0)、フレームF0,F1,F2の順に上書き描画を行う。これにより、基本的には、図27〜図29を参照して説明したのと同様に、主カメラMCによる画像(主カメラ撮像画PICm)を復号(復元)することができる。
次に、図31に示されるように、視点移動が、主カメラMCおよび副(上)カメラSCUの中間位置のとき(hyが−d/2相当)、視点は主カメラMCと副(上)カメラSCUを結ぶ線分上になるため、補間には副(上)カメラSCUによる撮像画PICSUを用いる。ここで、シフト単位量が『1』で、視点移動がその半分の位置なので、フレームF1は、下方向に0.5だけシフトし、フレームF2は、下方向に1だけシフトする。
そして、副(上)カメラSCUによる撮像画PICSUを補間に用いると、物体OBが0.5だけ下方向に移動し、物体OCが1だけ下方向に移動した復号画像データが得られる。なお、補間に副(上)カメラSCUによる撮像画PICSU以外を用いると、画像が破綻する。
さらに、図32に示されるように、視点移動が、主カメラMCおよび副(上)カメラSCUの中間位置のとき(hyが−d相当)、視点は中間視点の倍になるため、フレームF1は、下方向に1だけシフトし、フレームF2は、下方向に2だけシフトする。
そして、副(上)カメラSCUによる撮像画PICSUを補間に用いると、物体OBが1だけ下方向に移動し、物体OCが2だけ下方向に移動した復号画像データが得られる。なお、この場合も、補間に副(上)カメラSCUによる撮像画PICSU以外を用いると、画像が破綻する。
このように、補間を行う場合には、視点移動に対応するに副カメラによる撮像画を使用し、それ以外の副カメラによる撮像画を使用して補間を行うと、画像が破綻することになる。
なお、本実施形態の画像復号化方法において、前述した第3実施例の画像符号化方法として説明した、主カメラおよび副カメラによるカメラセット(カメラ群)を複数組設けた場合には、それぞれのカメラ群に関して、上述した復号化処理を行うことになる。
以上、詳述したように、本実施例に係る画像符号化方法および画像符号化装置によれば、演算量およびデータ量を低減することができる。
これにより、微小視点移動対応画像の符号化(生成/記録)および復号化(再生)を、例えば、演算処理能力や記憶容量の限られた組み込み機器などでも容易に実現することが可能となる。さらに、本実施例に係る画像符号化方法および画像復号化方法は、演算処理装置により実行する画像符号化プログラムおよび画像復号化プログラムとして実現することも可能である。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
以上の実施例を含む実施形態に関し、さらに、以下の付記を開示する。
(付記1)
画像符号化方法であって、
符号化システムが、
主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、
ことを特徴とする画像符号化方法。
(付記2)
前記第2フレームに対する記録において、
前記第1フレームへ前記陽領域と記録された座標を透領域として記録する、
ことを特徴とする付記1に記載の画像符号化方法。
(付記3)
前記第1フレームへの記録において、
前記陰領域と記録された座標の前記第2画像の画素値を記録する、
ことを特徴とする付記1または付記2に記載の画像符号化方法。
(付記4)
前記第2フレーム内の前記陰領域の有無を判定し、前記陰領域が有ると判定した場合に、前記第2画像を前記方向に前記第1シフト量だけ更に画素シフトし、
前記第1画像および前記更に画像シフトした後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第3差分値を求め、前記第3差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1および第2フレームとは異なる第3フレームに記録する、
ことを特徴とする付記1乃至付記3のいずれか1項に記載の画像符号化方法。
(付記5)
前記副カメラは、複数設けられ、
それぞれの前記副カメラは、前記主カメラを挟まない限り、同一直線上に2台以上存在しないように配置される、
ことを特徴とする付記1乃至付記4のいずれか1項に記載の画像符号化方法。
(付記6)
前記副カメラは、前記主カメラを挟んで水平方向に直線上に配列された2つの副カメラを含む、
ことを特徴とする付記5に記載の画像符号化方法。
(付記7)
前記副カメラを複数有する、
ことを特徴とする付記1乃至付記6のいずれか1項に記載の画像符号化方法。
(付記8)
複数の前記副カメラは、
同一平面内で隣接する第1カメラ群および第2カメラ群を含み、
前記第1カメラ群における前記主カメラは、前記第2カメラ群における前記副カメラと兼用され、若しくは、
前記第1カメラ群における前記副カメラは、前記第2カメラ群における前記副カメラと兼用される、
ことを特徴とする付記7に記載の画像符号化方法。
(付記9)
画像符号化装置であって、
符号化システムが、
主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、
ことを特徴とする画像符号化装置。
(付記10)
画像符号化プログラムであって、
演算処理装置に
主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、のを実行させる、
ことを特徴とする画像符号化プログラム。
(付記11)
同一平面内に設けられた少なくとも1つの主カメラからの主カメラ撮像画、および、前記主カメラに対して設けられた少なくとも1つの副カメラからの副カメラ撮像画に基づいた三次元画像情報を複数枚の二次元画像に符号化された複数のフレームにより、視点位置情報に基づいて、その視点位置に対応した復号画を生成する画像復号化方法であって、
前記符号化された複数のフレームにおいて、符号化時の生成順序と同じ順番で、算出したシフト量だけシフトして上書き描画を行って、前記視点位置に対応した視点画像を復号する、
ことを特徴とする画像復号化方法。
(付記12)
前記複数のフレームは、
同時撮影された前記主カメラ撮像画および前記副カメラ撮像画を受け取り、前記主カメラ撮像画および前記副カメラ撮像画における同じ座標の画素同士の画素値を比較し、前記同じ座標の画素同士の画素値の差が所定の閾値以下であれば同一物体とみなして陽領域として記録すると共に、画素値が埋められなかった領域を陰領域として記録する第1フレームと、
前記副カメラ撮像画を、前記主カメラと前記副カメラの位置関係に基づいた方向とシフト量だけ画素シフトし、前記主カメラ撮像画および前記副カメラ撮像画における同じ座標の画素同士の画素値を再度比較して、前記陽領域および前記陰領域を記録する前記第1フレームとは異なる第2フレームと、を含む、
ことを特徴とする付記11に記載の画像復号化方法。
(付記13)
前記陰領域に設定されている画素は、上書き描画を行わないで、前記視点画像を復号する、
ことを特徴とする付記12に記載の画像復号化方法。
(付記14)
前記第2フレームに対する記録は、
以前のフレームの時点で前記陽領域になったことのある座標に対する透領域の記録を含む、
ことを特徴とする付記12または付記13に記載の画像復号化方法。
(付記15)
前記透領域に設定されている画素は、上書き描画を行わないで、前記視点画像を復号する、
ことを特徴とする付記14に記載の画像復号化方法。
(付記16)
前記第2フレームに対する記録は、
前記第1フレームにおける前記陰領域とその座標の副カメラによる副カメラ撮像画の画素値の記録を含み、
前記第2フレームに記録された前記副カメラ撮像画の画素値により、前記視点移動させた際の背景部分の描画データ不足を緩和する、
ことを特徴とする付記13乃至付記15のいずれか1項に記載の画像復号化方法。
(付記17)
前記視点移動させた際の背景部分の描画データ不足の緩和に使用する、前記副カメラ撮像画は、前記視点移動に基づいて規定される、
ことを特徴とする付記16に記載の画像復号化方法。
(付記18)
同一平面内に設けられた少なくとも1つの主カメラからの主カメラ撮像画、および、前記主カメラに対して設けられた少なくとも1つの副カメラからの副カメラ撮像画に基づいた三次元画像情報を複数枚の二次元画像に符号化された複数のフレームにより、視点位置情報に基づいて、その視点位置に対応した復号画を生成する復号化部を含む画像復号化装置であって、
前記復号化部は、
前記符号化された複数のフレームにおいて、符号化時の生成順序と同じ順番で、算出したシフト量だけシフトして上書き描画を行って、前記視点位置に対応した視点画像を復号する、
ことを特徴とする画像復号化装置。
(付記19)
前記視点位置情報は、表示デバイスに取り付けられ、或いは、前記表示デバイスの近傍に設けられた視聴者視点位置検出デバイスの出力である、
ことを特徴とする付記18に記載の画像復号化装置。
(付記20)
同一平面内に設けられた少なくとも1つの主カメラからの主カメラ撮像画、および、前記主カメラに対して設けられた少なくとも1つの副カメラからの副カメラ撮像画に基づいた三次元画像情報を複数枚の二次元画像に符号化された複数のフレームにより、視点位置情報に基づいて、その視点位置に対応した復号画を生成する画像復号化プログラムであって、
演算処理装置に
前記符号化された複数のフレームにおいて、符号化時の生成順序と同じ順番で、算出したシフト量だけシフトして上書き描画を行って、前記視点位置に対応した視点画像を復号する、のを実行させる、
ことを特徴とする画像復号化プログラム。
1 符号化システム(画像符号化装置)
2 撮像デバイス
3 復号化システム(画像復号化装置)
4 表示デバイス
5 視聴者視点位置検出デバイス
10,30 メモリ(SDRAM)
11 符号化部
12 メタ情報生成部
20 カメラ制御部
31 復号化部
100 実行システム(画像符号化装置)
101 カメラ用I/O部
102,303 CPU(演算処理装置)
103,304 バス
104,305 外部データ出力用I/O部
111,112,113 ラインバッファ
114 画素値比較部
300 実行システム(画像復号化装置)
301 検出デバイス用I/O部
302 表示デバイス用I/O部
311 復号フレーム選択部
312 描画部
313 復号結果フレームバッファ
314 フレームシフト量算出部
315 補間フレーム決定部
F0〜F3,F0〜Fg,Fn フレーム
Fi,Fi0,Fi2 視差補間フレーム
Fpr 処理結果フレーム(復号画像データ)
GR1〜GR3 カメラ群
MC,MC1,MC2,MC3 主カメラ
OA,OB,OC 物体(被写体)
PICm 主カメラ撮像画
PICs,PICSL,PICSR,PICSU,PICSD 副カメラ撮像画
SC,SC1〜SC4,SC11,SC21〜SC24,SC31〜SC34 副カメラ
VR 視聴者

Claims (7)

  1. 画像符号化方法であって、
    符号化システムが、
    主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
    前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
    前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
    前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
    前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、
    ことを特徴とする画像符号化方法。
  2. 前記第2フレームに対する記録において、
    前記第1フレームへ前記陽領域と記録された座標を透領域として記録する、
    ことを特徴とする請求項1に記載の画像符号化方法。
  3. 前記第1フレームへの記録において、
    前記陰領域と記録された座標の前記第2画像の画素値を記録する、
    ことを特徴とする請求項1または請求項2に記載の画像符号化方法。
  4. 前記第2フレーム内の前記陰領域の有無を判定し、前記陰領域が有ると判定した場合に、前記第2画像を前記方向に前記第1シフト量だけ更に画素シフトし、
    前記第1画像および前記更に画像シフトした後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第3差分値を求め、前記第3差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1および第2フレームとは異なる第3フレームに記録する、
    ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像符号化方法。
  5. 前記副カメラを複数有する、
    ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像符号化方法。
  6. 画像符号化装置であって、
    符号化システムが、
    主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
    前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
    前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
    前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
    前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、
    ことを特徴とする画像符号化装置。
  7. 画像符号化プログラムであって、
    演算処理装置に
    主カメラにより撮影された第1画像と、前記主カメラと同一平面内に設けられた副カメラにより前記第1画像と同時に撮影された第2画像とを受け取り、
    前記第1画像および前記第2画像それぞれの第1座標の画素の画素値を比較して第1差分値を求め、
    前記第1差分値が第1閾値以下の場合に前記第1座標を陽領域と判定し、前記第1閾値よりも大きい場合に前記座標を陰領域と判定して第1フレームに記録し、
    前記第2画像を、前記主カメラと前記副カメラの位置関係に基づいた方向に第1シフト量だけ画素シフトし、
    前記第1画像および前記画素シフト後の前記第2画像それぞれの前記第1座標の画素の画素値を比較して第2差分値を求め、前記第2差分値に基づいて前記第1座標が前記陽領域或いは前記陰領域かを判定して前記第1フレームとは異なる第2フレームに記録する、のを実行させる、
    ことを特徴とする画像符号化プログラム。
JP2014184296A 2014-09-10 2014-09-10 画像符号化方法および画像符号化装置 Active JP6365153B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014184296A JP6365153B2 (ja) 2014-09-10 2014-09-10 画像符号化方法および画像符号化装置
EP15183774.7A EP2996331B1 (en) 2014-09-10 2015-09-03 Image encoding method and image encoding apparatus
US14/848,093 US9407900B2 (en) 2014-09-10 2015-09-08 Image encoding method and image encoding apparatus
US15/179,591 US9681119B2 (en) 2014-09-10 2016-06-10 Image encoding method and image encoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014184296A JP6365153B2 (ja) 2014-09-10 2014-09-10 画像符号化方法および画像符号化装置

Publications (2)

Publication Number Publication Date
JP2016058914A JP2016058914A (ja) 2016-04-21
JP6365153B2 true JP6365153B2 (ja) 2018-08-01

Family

ID=54151072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014184296A Active JP6365153B2 (ja) 2014-09-10 2014-09-10 画像符号化方法および画像符号化装置

Country Status (3)

Country Link
US (2) US9407900B2 (ja)
EP (1) EP2996331B1 (ja)
JP (1) JP6365153B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6648916B2 (ja) * 2015-07-27 2020-02-14 キヤノン株式会社 撮像装置
EP3196838A1 (en) * 2016-01-25 2017-07-26 Nokia Technologies Oy An apparatus and associated methods
EP3471065A4 (en) 2016-06-14 2019-06-05 Panasonic Intellectual Property Corporation of America THREE-DIMENSIONAL DATA ENCODING AND DECODING METHOD AND THREE-DIMENSIONAL DATA ENCODING AND DECODING DEVICE
US20200202178A1 (en) * 2018-12-19 2020-06-25 Abb Schweiz Ag Automatic visual data generation for object training and evaluation
CN113141497A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d拍摄装置、3d拍摄方法及3d显示终端
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0204006B1 (en) * 1984-12-17 1991-10-09 Nippon Hoso Kyokai System for transmitting stereoscopic television pictures
JPH04196998A (ja) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd 立体画像符号化装置
JP3826236B2 (ja) 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
JP2001256482A (ja) * 2000-03-08 2001-09-21 Fuji Xerox Co Ltd 視差画像生成装置および視差画像生成方法
JP3971691B2 (ja) 2002-10-31 2007-09-05 日本電信電話株式会社 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
JP4737763B2 (ja) 2006-06-14 2011-08-03 Kddi株式会社 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
JP5183277B2 (ja) 2008-04-03 2013-04-17 三菱電機株式会社 立体画像表示装置
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
CN102823241B (zh) * 2010-03-22 2015-09-16 汤姆森许可贸易公司 立体三维图像的低带宽内容保留压缩方法和设备
JP2012009010A (ja) * 2010-05-25 2012-01-12 Mitsubishi Electric Corp 画像処理装置、画像処理方法および画像表示装置
JP5545036B2 (ja) * 2010-05-28 2014-07-09 三菱電機株式会社 画像処理装置、画像処理方法および画像表示装置
JP5488212B2 (ja) * 2010-06-04 2014-05-14 三菱電機株式会社 画像処理装置、画像処理方法および画像表示装置
KR101676830B1 (ko) * 2010-08-16 2016-11-17 삼성전자주식회사 영상 처리 장치 및 방법
US20150179218A1 (en) * 2010-09-10 2015-06-25 3DOO, Inc. Novel transcoder and 3d video editor
US9241147B2 (en) * 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9445092B2 (en) * 2011-03-18 2016-09-13 Sony Corporation Image processing apparatus, image processing method, and program
JP2013005259A (ja) * 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5367034B2 (ja) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US9111352B2 (en) * 2011-12-27 2015-08-18 Avid Technology, Inc. Automated detection and correction of stereoscopic edge violations
WO2014021134A1 (ja) * 2012-07-30 2014-02-06 オリンパス株式会社 撮像装置及び撮像方法
US9106908B2 (en) * 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
WO2014050830A1 (ja) * 2012-09-25 2014-04-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
CN103716641B (zh) * 2012-09-29 2018-11-09 浙江大学 预测图像生成方法和装置
JP6150277B2 (ja) * 2013-01-07 2017-06-21 国立研究開発法人情報通信研究機構 立体映像符号化装置、立体映像復号化装置、立体映像符号化方法、立体映像復号化方法、立体映像符号化プログラム及び立体映像復号化プログラム
JP6214457B2 (ja) * 2014-04-18 2017-10-18 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体

Also Published As

Publication number Publication date
US20160286201A1 (en) 2016-09-29
EP2996331A1 (en) 2016-03-16
EP2996331B1 (en) 2021-11-03
JP2016058914A (ja) 2016-04-21
US9681119B2 (en) 2017-06-13
US9407900B2 (en) 2016-08-02
US20160073083A1 (en) 2016-03-10

Similar Documents

Publication Publication Date Title
JP6365153B2 (ja) 画像符号化方法および画像符号化装置
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user&#39;s device, and corresponding computer program product
CN107274338B (zh) 用于深度图的低等待时间变形的系统、方法和装置
US8768043B2 (en) Image display apparatus, image display method, and program
CN101796548B (zh) 立体图像生成装置和立体图像生成方法
US20110298917A1 (en) Imaging apparatus, method, program, and recording medium used in the program
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
EP2757789A1 (en) Image processing system, image processing method, and image processing program
US10074343B2 (en) Three-dimensional image output apparatus and three-dimensional image output method
US8922627B2 (en) Image processing device, image processing method and imaging device
US11803980B2 (en) Method for generating layered depth data of a scene
CN102692806A (zh) 自由视点四维空间视频序列的采集与形成方法
JP2013115668A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6128748B2 (ja) 画像処理装置及び方法
JP2016114445A (ja) 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
US20200267374A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
CN105191300A (zh) 图像处理方法以及图像处理装置
CN114815286B (zh) 全视差三维光场显示系统的参数确定方法、装置及设备
JP2013120435A (ja) 画像処理装置および画像処理方法、プログラム
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP5868055B2 (ja) 画像処理装置および画像処理方法
KR101121132B1 (ko) 집적 영상 복원 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6365153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150