JP2006041811A - 自由視点画像ストリーミング方式 - Google Patents
自由視点画像ストリーミング方式 Download PDFInfo
- Publication number
- JP2006041811A JP2006041811A JP2004217418A JP2004217418A JP2006041811A JP 2006041811 A JP2006041811 A JP 2006041811A JP 2004217418 A JP2004217418 A JP 2004217418A JP 2004217418 A JP2004217418 A JP 2004217418A JP 2006041811 A JP2006041811 A JP 2006041811A
- Authority
- JP
- Japan
- Prior art keywords
- image
- free viewpoint
- transformation matrix
- picture
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】滑らかな視点移動での自由視点画像を実時間で高精度に生成することができる自由視点画像ストリーミング方式を提供すること。
【解決手段】映像配信サーバ1は、一視点からの画像(参照画像)Vと参照画像Vに対する奥行きマップMと参照画像Vに対する射影変換行列Bを圧縮し、これらを1つのグループとして管理し、これらの情報を同時にストリーミング配信する。クライアント2側では、ストリーミング配信された参照画像Vと奥行きマップMと射影変換行列Bを受信し、自由視点画像を生成すると共に、前景画像による隠蔽領域を補完する。クライアント2では、左目画像と右目画像を生成して立体視画像を再生させることもできる。
【選択図】図1
【解決手段】映像配信サーバ1は、一視点からの画像(参照画像)Vと参照画像Vに対する奥行きマップMと参照画像Vに対する射影変換行列Bを圧縮し、これらを1つのグループとして管理し、これらの情報を同時にストリーミング配信する。クライアント2側では、ストリーミング配信された参照画像Vと奥行きマップMと射影変換行列Bを受信し、自由視点画像を生成すると共に、前景画像による隠蔽領域を補完する。クライアント2では、左目画像と右目画像を生成して立体視画像を再生させることもできる。
【選択図】図1
Description
本発明は、自由視点画像ストリーミング方式に関し、特にサーバ・クライアント型のデータ伝送において、任意視点からの自由視点画像を実時間で生成することができる自由視点画像ストリーミング方式に関する。
次世代におけるインタラクティブな映像アプリケーションに対する1つの素材として自由視点画像が注目されている。自由視点画像とは、対象物に対する視点をユーザが任意に選択して得られる画像のことである。ユーザにより選択される視点は無数に存在するため、それらに対応した映像を全て用意することは非現実的である。
そこで、従来では、対象物を3次元情報で記述した素材を用いて任意視点からの画像を描画する手法が一般に用いられている。例えば、非特許文献1には3次元の位置情報を素材として用いる手法が提案され、非特許文献2には多数の方位から撮影した対象物の画像を画像素材として用いる手法が提案されている。
また、参照画像と該参照画像における各画素の奥行き情報(奥行きマップ)を基に3次元情報を推定する手法もある。
Saied Moezzi, Li-Cheng Tai, and Philippe Gerard "Virtual View Generation for 3D Digital Video", IEEE Multimedia, Vol.4, No.1, pp.18-26, 1997 橋本奈穂,斎藤英雄"サッカーシーンにおける多視点映像からの中間映像生成"電子情報通信学会技術報告,PRMU2001-151, Nov.2001. pp.87-94
Saied Moezzi, Li-Cheng Tai, and Philippe Gerard "Virtual View Generation for 3D Digital Video", IEEE Multimedia, Vol.4, No.1, pp.18-26, 1997 橋本奈穂,斎藤英雄"サッカーシーンにおける多視点映像からの中間映像生成"電子情報通信学会技術報告,PRMU2001-151, Nov.2001. pp.87-94
しかしながら、対象物を3次元情報で記述した素材を用いて任意視点からの画像を描画する手法は、正確な3次元情報の取得に特殊な機器を必要とするという課題があり、多数の方位から撮影した対象物の画像を画像素材として用いる手法は、対象物を各方位から撮影する多数のカメラを固定する必要があるため撮影環境が限られてくる、また、視点の位置を切り替える方式であるため、カメラの存在する位置からの画像のみが生成可能であり、滑らかな視点移動での自由視点画像を生成することができないという課題がある。
また、参照画像と該参照画像における各画素の奥行き情報(奥行きマップ)を基に3次元情報を推定する手法を採用した場合、クライアント側において自由視点画像の生成を実時間処理で高精度に行うことが望まれる。
また、遠隔地間で画像情報を送受信して立体視画像を再生する方式には、送信側より2種類(左目と右目)もしくは数種類の画像を伝送し、受信側でそれらを用いて立体視画像を再生する方式があるが、このような方式においても、滑らかな視点移動での自由視点の立体視画像を実時間で高精度に再生できることが望まれる。
本発明の目的は、上記課題を解決し、滑らかな視点移動での自由視点画像を実時間で高精度に生成することができる自由視点画像ストリーミング方式を提供することにある。
上記課題を解決するために、本発明は、サーバ側に設けられ、一視点からの画像と該画像に対する奥行き情報と該画像に対する射影変換行列を圧縮し、これらを1つのグループとして管理する管理手段と、前記画像と奥行き情報と射影変換行列を同時にストリーミング配信する配信手段と、クライアント側に設けられ、前記配信手段によりストリーミング配信された前記画像と奥行き情報と射影変換行列を受信し、自由視点画像を生成すると共に、自由視点画像における前景画像で隠蔽されていた箇所に対する背景画像を補完する自由視点画像生成手段とを具備したことを特徴としている。
また、本発明は、前記自由視点画像生成装置が、左目出力画像と右目出力画像を生成して立体視画像の再生を可能にするものであることを特徴としている。
さらに、本発明は、前記自由視点画像生成装置が、前記画像、前記奥行きマップおよび前記射影変換行列を用いて自由視点画像と背景画像を生成すると共に、、各フレームごとに順次更新した背景画像を用いて自由視点画像における前景画像で隠蔽されていた箇所に対する背景画像を補完することを特徴としている。
本発明によれば、任意視点からの画像を生成するために、一視点からの画像と該画像に対する奥行き情報と該画像に対する射影変換行列を圧縮して1つのグループとして管理し、これらを同時にストリーミング配信するので、クライアント側では、ストリーミング配信される画像と奥行き情報と射影変換行列を用いて滑らかな視点移動での高精度の自由視点画像を実時間で生成することができる。
また、左目画像と右目画像を生成することにより、視点移動による自由視点からの、滑らか且つ高精度の立体視画像を再生できる。
以下、図面を参照して本発明を詳細に説明する。図1は、本発明の概略構成示すブロック図である。映像配信サーバ1とクライアント2とはネットワーク3を介して接続される。
映像配信サーバ1は、対象物をある視点から撮影することにより得られた画像(以下、参照画像)Vと、該参照画像Vと他の視点から撮影した画像から生成された画像(又は画素)の奥行きマップMと、該参照画像Vに対する射影変換行列Bとを圧縮し、これらを1つのグループとして管理している。
画像の奥行きマップMは周知の方法で生成できる。また、射影変換行列Bは以下のようにして算出できる。まず、画像の奥行きマップMを用いて、参照画像Vを、奥行きの値がある閾値Th以上の背景画像と閾値Thより小さい前景画像に分離する。
これにより抽出された背景画像を背景バッファに書き込む。背景バッファに画像が存在しない第1フレームでは、抽出された背景画像をそのまま背景バッファに書き込んで記憶するが、第2フレーム以降のフレームでは、背景バッファに記憶されている画像に順次各フレームで抽出された背景画像を合成、すなわち上書きする。この際の合成を行うために、現在の背景バッファに記憶されている画像と抽出された背景画像との間の射影変換行列Bを算出する。この射影変換行列Bは、式(1)により定義される。
(u,v,1)T×B(u′,v′,1)T=0 ・・・(1)
ここに、(u,v,1)は現在の背景バッファに記憶されている画像の画素の位置、(u′,v′,1)は抽出された背景画像における前記位置(u,v,1)の画素に対応する画素の位置である。
射影変換行列Bは3×3の行列であるが、スケールを任意に決めることができるため、自由度は8である。すなわち、(u,v,1)と(u′,v′,1)の対応が少なくとも8点求まれば、射影変換行列Bを算出することができる。
映像配信サーバ1は、ストリーミング配信装置を備え、自己が管理している参照画像Vと該参照画像Vに対する奥行きマップMと該参照画像Vに対する射影変換行列Bを同時にクライアント2にストリーミング配信する。
図2は、フレームにおける参照画像V、該参照画像Vに対する奥行きマップM、該参照画像Vに対する射影変換行列Bの具体例を示す図である。参照画像Vは、対象物をある視点から撮影することにより得られた画像であり、奥行きマップMは、該参照画像Vにおける各画素の奥行きを輝度によって表現したデータであり、射影変換行列Bは3×3の行列である。
図3は、配信サーバ1からクライアント2へストリーミング配信されるデータの一例を示す。参照画像Vの各1フレーム分のフレームデータ(Frame Data)にフレームヘッダ(Frame Header)が付加される。フレームヘッダは、フレームデータの画像に対する奥行きマップ(Depth Map)Mと射影変換行列(Projection Matrix)Bを含む。フレームヘッダが付加された複数のフレームデータからファイルが構成され、ファイルには、宛先アドレスや送信元アドレス、画像名などを含むファイルヘッダ(File Header)が付加される。
図4は、クライアント2における処理の例を示すフロー図である。クライアント2では、まず、映像配信サーバ1から配信されてきた参照画像Vと画像の奥行きマップMを用いて、仮の自由視点画像を生成する(S41)。画像の奥行きマップMでは、参照画像Vの各画素における奥行きZuvが記述されているため、各画素の座標と奥行きにより各画素の3次元上での位置が取得できる。これを用いることにより、仮の自由視点画像を生成できる。
すなわち、カメラの回転を3×3の行列R′、カメラの平行移動を1×3のベクトルt′として定義し、参照画像Vにおける画素の位置を(u,v)と表した場合、自由視点における対応点(u″,v″)と、(u,v)の関係は下記の式(2)によって表される。
(u″,v″,1)T×(ZuvR′(u,v,1)T+t′)=0 ・・・(2)
(u″,v″,1)T×(ZuvR′(u,v,1)T+t′)=0 ・・・(2)
式(2)を(u″,v″,1)T について 解くことにより、自由視点における各点の座標を求めることができる。これによって求められた(u″,v″)に対して、参照画像Vにおける(u,v)の輝度を与えることにより、仮の自由視点画像が生成される。
また、映像配信サーバ1から配信されてきた参照画像Vと画像の奥行きマップMとから該参照画像Vの背景画像を抽出し、抽出された背景画像を、射影変換行列Bを用いて背景バッファに記憶されている画像に合成することにより背景バッファを更新する(S42)。なお、最初のフレームでは、抽出された背景画像がそのまま背景バッファに記憶される。
背景バッファの更新の際、参照画像Vから抽出された背景画像の画素と同一点の画素が背景バッファに既に記憶されていた場合、参照画像Vから抽出された背景画像の画素を優先させることとする。これにより、より新しい情報を優先させて合成させることが可能になり、各フレームにおける背景部の動きに対応させることができるようになる。また、動画像のフレーム数が増えるにつれて背景バッファに蓄積される動画像の背景画像のデータ量が多くなり、動画像の隠蔽領域(前景により隠蔽されていた部分)が小さくなる。なお、配信サーバ1からクライアント1に配信される射影変換行列のデータ量は小さい。
次に、仮の自由視点画像と背景バッファに記憶されている背景画像とを合成することにより、出力画像を生成する(S43)。この出力画像は、前景画像による隠蔽領域が補完された自由視点画像である。
仮の自由視点画像と背景バッファに記憶されている背景画像とを合成して隠蔽領域を補完する方法を以下に説明する。まず、仮の自由視点画像と背景バッファに記憶されている画像との間の射影変換行列B′を算出する。射影変換行列B′の算出には、画像間の対応点が必要とされるが、前記式(1)で算出した射影変換行列Bと伝送された奥行きマップMから求められた対応点の関係を用いることにより、マッチングを取ることなく対応点を算出できる。この算出は少ない処理量で行うことができるから、クライアント1における計算量の負荷は軽い。
その後、算出された射影変換行列B′を用いて、対応点がないとして判断された画像に対する補完を行う。点(u″,v″)の補完を行う際には、下記の式(3)を満たす点(u′,v′,1)を算出し、参照画像の画素(u′,v′)における輝度を点(u″,v″)の輝度として定義する。
(u′,v′,1)T×B′(u″,v″,1)T=0 ・・・(3)
ただし、u′およびv′が整数でない場合には、線形補完により輝度値の修正を行う。以上の処理により、隠蔽領域および誤対応などにより対応点なしと判断された箇所に対する高精度な補完が可能になる。
図5は、クライアント2における処理の他の例を示すフロー図である。本例は、クライアント2において、左目および右目に対応する2視点からのデータ(左目出力画像と右目出力画像)を生成して立体視画像を再生可能にした例である。
クライアント2では、まず、映像配信サーバ1から配信されてきた参照画像Vと画像の奥行きマップMを用いて、仮の左目画像と仮の右目画像を生成する(S51,S52)。また、映像配信サーバ1から配信されてきた参照画像Vと画像の奥行きマップMとから該参照画像Vの背景画像を抽出し、さらに射影変換行列Bを用い、背景画像を背景バッファに記憶されている画像に合成して背景バッファを更新する(S53)。
次に、仮の左目画像および仮の右目画像と背景バッファに記憶されている背景画像とを合成して左目出力画像および右目出力画像を生成する(S54,S55)。これにより、隠蔽領域が補完された左目出力画像および右目出力画像を生成することができ、これらの画像を同時に表示させることによって高精度の立体視画像を再生できる。また、自由視点からの画像あるいは立体視画像を任意に選択して再生するようにすることも可能である。
本発明は、高精度の画像を各ユーザのニーズに応じてストリーミング配信するものであり、パーソナルコンピュータやワークステーションなどの通信、放送、携帯電話やPDA(Personal Digital Assistants)に代表される無線通信などによる映像配信システム全般に応用可能である。
1・・・映像配信サーバ、2・・・クライアント、3・・・ネットワーク
Claims (3)
- サーバ側に設けられ、一視点からの画像と該画像に対する奥行き情報と該画像に対する射影変換行列を圧縮し、これらを1つのグループとして管理する管理手段と、
前記画像と奥行き情報と射影変換行列を同時にストリーミング配信する配信手段と、
クライアント側に設けられ、前記配信手段によりストリーミング配信された前記画像と奥行き情報と射影変換行列を受信し、自由視点画像を生成すると共に、自由視点画像における前景画像で隠蔽されていた箇所に対する背景画像を補完する自由視点画像生成手段とを具備したことを特徴とする自由視点画像ストリーミング方式。 - 前記自由視点画像生成装置は、左目出力画像と右目出力画像を生成して立体視画像の再生を可能にするものであることを特徴とする請求項1に記載の自由視点画像ストリーミング方式。
- 前記自由視点画像生成装置は、前記画像、前記奥行きマップおよび前記射影変換行列を用いて自由視点画像と背景画像を生成すると共に、各フレームごとに順次更新した背景画像を用いて自由視点画像における前景画像で隠蔽されていた箇所に対する背景画像を補完することを特徴とする請求項1または2に記載の自由視点画像ストリーミング方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004217418A JP2006041811A (ja) | 2004-07-26 | 2004-07-26 | 自由視点画像ストリーミング方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004217418A JP2006041811A (ja) | 2004-07-26 | 2004-07-26 | 自由視点画像ストリーミング方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006041811A true JP2006041811A (ja) | 2006-02-09 |
Family
ID=35906349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004217418A Pending JP2006041811A (ja) | 2004-07-26 | 2004-07-26 | 自由視点画像ストリーミング方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006041811A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008103820A (ja) * | 2006-10-17 | 2008-05-01 | Sharp Corp | 立体画像処理装置 |
JP2010508691A (ja) * | 2006-10-30 | 2010-03-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ深度マップ調整 |
JP2011501496A (ja) * | 2007-10-11 | 2011-01-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きマップを処理する方法及び装置 |
JP2011525745A (ja) * | 2008-06-24 | 2011-09-22 | サムスン エレクトロニクス カンパニー リミテッド | 映像生成方法、映像処理方法及びその装置 |
JP2012034339A (ja) * | 2010-07-08 | 2012-02-16 | Toshiba Corp | 立体画像生成装置及び方法 |
JP2012104144A (ja) * | 2007-01-05 | 2012-05-31 | Qualcomm Inc | 立体表示可能ディスプレイにおける3dビデオ画像のレンダリング |
WO2012096065A1 (ja) * | 2011-01-13 | 2012-07-19 | 富士フイルム株式会社 | 視差画像表示装置及び視差画像表示方法 |
WO2012096054A1 (ja) * | 2011-01-13 | 2012-07-19 | 富士フイルム株式会社 | 視差画像表示装置、視差画像表示方法及び視差画像表示プログラム |
JP2013534742A (ja) * | 2010-06-08 | 2013-09-05 | エスケー プラネット カンパニー、リミテッド | デプスマップ情報を利用した立体映像変換方法及び装置 |
JP2013214975A (ja) * | 2012-04-03 | 2013-10-17 | Samsung Electronics Co Ltd | 3dディスプレイ装置およびその映像処理方法 |
EP2483750B1 (en) * | 2009-10-02 | 2018-09-12 | Koninklijke Philips N.V. | Selecting viewpoints for generating additional views in 3d video |
JP2020513703A (ja) * | 2016-11-28 | 2020-05-14 | ソニー株式会社 | 自由視点映像ストリーミング用の復号器中心uvコーデック |
JP7456034B2 (ja) | 2019-02-06 | 2024-03-26 | マクセル株式会社 | 複合現実表示装置および複合現実表示方法 |
-
2004
- 2004-07-26 JP JP2004217418A patent/JP2006041811A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008103820A (ja) * | 2006-10-17 | 2008-05-01 | Sharp Corp | 立体画像処理装置 |
JP2010508691A (ja) * | 2006-10-30 | 2010-03-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ深度マップ調整 |
JP2012104144A (ja) * | 2007-01-05 | 2012-05-31 | Qualcomm Inc | 立体表示可能ディスプレイにおける3dビデオ画像のレンダリング |
JP2011501496A (ja) * | 2007-10-11 | 2011-01-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きマップを処理する方法及び装置 |
JP2011525745A (ja) * | 2008-06-24 | 2011-09-22 | サムスン エレクトロニクス カンパニー リミテッド | 映像生成方法、映像処理方法及びその装置 |
EP2483750B1 (en) * | 2009-10-02 | 2018-09-12 | Koninklijke Philips N.V. | Selecting viewpoints for generating additional views in 3d video |
JP2013534742A (ja) * | 2010-06-08 | 2013-09-05 | エスケー プラネット カンパニー、リミテッド | デプスマップ情報を利用した立体映像変換方法及び装置 |
JP2012034339A (ja) * | 2010-07-08 | 2012-02-16 | Toshiba Corp | 立体画像生成装置及び方法 |
WO2012096065A1 (ja) * | 2011-01-13 | 2012-07-19 | 富士フイルム株式会社 | 視差画像表示装置及び視差画像表示方法 |
WO2012096054A1 (ja) * | 2011-01-13 | 2012-07-19 | 富士フイルム株式会社 | 視差画像表示装置、視差画像表示方法及び視差画像表示プログラム |
JP2013214975A (ja) * | 2012-04-03 | 2013-10-17 | Samsung Electronics Co Ltd | 3dディスプレイ装置およびその映像処理方法 |
JP2020513703A (ja) * | 2016-11-28 | 2020-05-14 | ソニー株式会社 | 自由視点映像ストリーミング用の復号器中心uvコーデック |
JP7456034B2 (ja) | 2019-02-06 | 2024-03-26 | マクセル株式会社 | 複合現実表示装置および複合現実表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102402494B1 (ko) | 지오메트리 정보의 모션 보상 | |
CN108353157B (zh) | 编码设备和编码方法以及解码设备和解码方法 | |
CN106296781B (zh) | 特效图像生成方法及电子设备 | |
US8189036B2 (en) | Concealed regions complementing system of free viewpoint video images | |
CN108243629B (zh) | 图像处理设备和图像处理方法 | |
TW200912512A (en) | Augmenting images for panoramic display | |
JP2006041811A (ja) | 自由視点画像ストリーミング方式 | |
CN110663067B (zh) | 用于生成现实世界场景的定制视图的虚拟化投影以包括在虚拟现实媒体内容中的方法和系统 | |
CN113891117B (zh) | 沉浸媒体的数据处理方法、装置、设备及可读存储介质 | |
JP7243631B2 (ja) | 再生装置および方法、並びに、生成装置および方法 | |
JP2019050451A (ja) | 画像処理装置及びその制御方法及びプログラム及び画像処理システム | |
US11019362B2 (en) | Information processing device and method | |
TW201911240A (zh) | 影像處理裝置及方法、檔案生成裝置及方法、以及程式 | |
KR101725024B1 (ko) | 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법 | |
KR100901111B1 (ko) | 삼차원 가상 공간 콘텐츠를 이용한 영상제공시스템 | |
CN113949829A (zh) | 媒体文件封装方法、装置、设备及存储介质 | |
CN112153472A (zh) | 一种画面特效的生成方法及装置、存储介质及电子设备 | |
JP5906165B2 (ja) | 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム | |
US11758101B2 (en) | Restoration of the FOV of images for stereoscopic rendering | |
KR101920113B1 (ko) | 임의시점 영상생성 방법 및 시스템 | |
US10078905B2 (en) | Processing of digital motion images | |
US20130002817A1 (en) | Image processing apparatus and image processing method thereof | |
JP2005063300A (ja) | 任意視点動画像の隠蔽領域補完方式 | |
JP4208142B2 (ja) | 自由視点画像の隠蔽領域補完方式 | |
Jovanov et al. | Multiview image sequence enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090812 |