JP2011172172A - 立体映像処理装置および方法、並びにプログラム - Google Patents
立体映像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2011172172A JP2011172172A JP2010036372A JP2010036372A JP2011172172A JP 2011172172 A JP2011172172 A JP 2011172172A JP 2010036372 A JP2010036372 A JP 2010036372A JP 2010036372 A JP2010036372 A JP 2010036372A JP 2011172172 A JP2011172172 A JP 2011172172A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- dimensional object
- stereoscopic video
- displayed
- display position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Abstract
【課題】常に自然で見易い立体映像を表示することができるようにする。
【解決手段】表示位置調整部141は、例えば、立体映像の中でGUIなどの二次元のオブジェクトを表示させる必要がある場合、その二次元のオブジェクトを表示させる位置を決定する。例えば、立体映像の中の飛び出し部分とできるだけ重ならない位置にGUIなどの表示位置を調整して決定する。視差調整部142は、立体映像の中で表示されるGUIなどが立体映像の飛び出し部分とともに飛び出しているように、GUIなどの画像に適切な視差を付加する。
【選択図】図8
【解決手段】表示位置調整部141は、例えば、立体映像の中でGUIなどの二次元のオブジェクトを表示させる必要がある場合、その二次元のオブジェクトを表示させる位置を決定する。例えば、立体映像の中の飛び出し部分とできるだけ重ならない位置にGUIなどの表示位置を調整して決定する。視差調整部142は、立体映像の中で表示されるGUIなどが立体映像の飛び出し部分とともに飛び出しているように、GUIなどの画像に適切な視差を付加する。
【選択図】図8
Description
本発明は、立体映像処理装置および方法、並びにプログラムに関し、特に、常に自然で見易い立体映像を表示することができるようにする立体映像処理装置および方法、並びにプログラムに関する。
人間は、右目と左目で捉えた画像の違い(視差)を利用して、物体を立体的に認識している。眼球の回転運動は輻湊角を変化させ、人間はこれを物体までの距離として認識する。ここで輻湊角とは、視線の交差角である。
この人間の目の特性を利用して、左右目用に視差をつけた二つの二次元画像用意し、それぞれを左右の目に別々に映すと、その輻湊角から物体までの距離を錯覚し立体を感じる。ここで視差とは左右目用画像のずれ量である。
左右目用画像を一枚ずつ使って表示したものを立体画像、左右目用画像を複数枚ずつ用意し、それらを連続的に変化させたものを立体映像と称する。また、それらを表示できる装置を立体映像表示装置と称する。
また、左右一対のレンズ部が透視状態と遮光状態に交互に切り換えられるシャッタ眼鏡を用い、右眼用画像と左眼用画像とをディスプレイに視差を有するように交互に表示させ、右眼用画像と左眼用画像の切り換えのタイミングに合わせて左右のレンズ部を透視状態と遮光状態とに交互に切換制御することで、シャッタ眼鏡の切換操作を不要とする立体画像表示装置も提案されている(例えば、特許文献1参照)。
立体映像表示装置において、立体映像に重ねてGUIやテキストなどの二次元のオブジェクトを表示することがある。その場合、大きく分けて2つの手法がある。1つは立体映像の上に固定された二次元のオブジェクトを重ねる手法である(手法Aと称することにする)。手法Aは、主にゲームなどで使用されている。
他の1つは、立体映像と二次元オブジェクトの表示領域を分けて表示する手法である(手法Bと称することにする)。手法Bは、主に映画の字幕などで使用されている。
しかしながら、手法Aの問題点として、立体映像中で最も重要であると考えられる飛び出し部分をオブジェクトが遮ってしまう可能性があることが挙げられる。また、二次元オブジェクトを見るための輻湊角と立体オブジェクトを見るための輻湊角が異なるため、立体映像中の二次元オブジェクトを見る時、視聴者は輻湊角の調整を強いられ、眼精疲労を起こす原因となる。
また、手法Bの問題点として、画面中で二次元オブジェクトのためのエリアの確保が必要となる。このため、立体映像が画面全体を有効利用できないことや、手法Aの場合と同様に、二次元と立体オブジェクトを見るための輻湊角が異なるため、眼精疲労の原因になることが挙げられる。
本発明はこのような状況に鑑みてなされたものであり、常に自然で見易い立体映像を表示することができるようにするものである。
本発明の一側面は、立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算する候補座標値域計算手段と、前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算する視差合計値計算手段と、前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定する表示位置決定手段と、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定する最大値特定手段と、前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定する視差設定手段とを備える立体映像処理装置である。
前記立体映像信号は、単位時間あたりのフレームレートを有し、視差合計値計算手段は、前記立体映像信号のフレームに含まれる情報であって、画素毎の視差を表す視差プレーンに基づいて特定される視差の値の合計値を計算するようにすることができる。
前記表示位置決定手段は、前記二次元のオブジェクトを表示させる複数のフレームにおいて前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算するようにすることができる。
前記最大値特定手段は、前記二次元のオブジェクトを表示させる複数のフレームの前記視差プレーンに基づいて、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定するようにすることができる。
本発明の一側面は、候補座標値域計算手段が、立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算し、視差合計値計算手段が、前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算し、表示位置決定手段が、前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定し、最大値特定手段が、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定し、視差設定手段が、前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定するステップを含む立体映像処理方法である。
本発明の一側面は、コンピュータを、立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算する候補座標値域計算手段と、前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算する視差合計値計算手段と、前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定する表示位置決定手段と、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定する最大値特定手段と、前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定する視差設定手段とを備える立体映像処理装置として機能させるプログラムである。
本発明の一側面においては、立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域が計算され、前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値が、前記候補座標毎に計算され、前記視差の値の合計値の最も小さい前記候補座標が前記二次元のオブジェクトの基準点の表示位置として決定され、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値が特定され、前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差が設定される。
本発明によれば、常に自然で見易い立体映像を表示することができる。
以下、図面を参照して、本発明の実施の形態について説明する。
最初に立体映像の表示について説明する。
図1は、人間の目が立体映像を認識する仕組みを説明する図である。
同図に示されるように、人間は、右目が捉えた画像と左目が捉えた画像との違い(視差)を利用して、物体を立体的に認識するようになされている。図1の例では、右目が捉えた画像と左目が捉えた画像において、円形の同じ物体が表示されているが、その表示位置が異なっている。
人間が注目する物体に視線の焦点を合わせるために、右目と左目の眼球を回転させることになる。眼球の回転運動は輻湊角を変化させ、人間は輻湊角により物体までの距離を認識し、その結果立体的な映像が認識されるのである。ここで輻湊角とは、視線の交差角である。
従って、例えば、二次元の表示部に立体映像を表示させる場合、視差を有する右目用画像と左目用画像を用意して表示するようにすればよい。例えば、図2に示されるように、視差を有する右目用画像と左目用画像を同時に二次元の表示部に表示すれば、その視差により、図中の三角形の物体が立体的に(例えば、表示部から飛び出しているように)表示されるようにすることができる。
なお、右目用画像と左目用画像は、例えば、それぞれ赤と青の光で重ねて表示され、それぞれ赤と青のカラーフィルタの付いたメガネにより分離されることで、人間の右目と左目によって観察される。
図3は、図2に示される立体映像が人間により観察される例を示す図である。同図に示されるように、左目の視線は、左目用画像の物体のほぼ中央に合わせられ、右目の視線は、右目用画像の物体のほぼ中央に合わせられている。そうすると、図中点線で示されている左目の視線と右目の視線の交差する位置に、あたかも物体が飛び出しているように感じられるのである。
ところで、立体映像に重ねてGUIやテキストなどの二次元のオブジェクトを表示することがある。例えば、ゲームなどのコンテンツにおいて表示されるGUIや、映画の字幕を表示する場合などがこれに該当する。
立体映像に重ねて二次元のオブジェクトを表示する場合、大きく分けて2つの手法がある。1つは立体映像の上に固定された二次元のオブジェクトを重ねる手法である(手法Aと称することにする)。手法Aは、主にゲームなどで使用されている。
図4は、手法Aにより立体映像に重ねて二次元のオブジェクトを表示した画像の例を示す図である。同図において、長方形により囲まれたオブジェクト、および楕円により囲まれたオブジェクトが二次元のオブジェクトとされる。
手法Aでは、図4に示されるように、例えば、立体映像の中の任意の位置に必要に応じて二次元のオブジェクトが表示される。しかしながら、手法Aでは、立体映像の中で最も重要性の高い飛び出し部分を、二次元のオブジェクトが遮ってしまう可能性がある。すなわち、図3に示される物体のように、飛び出して見えるようにした部分に、二次元のオブジェクトが重ねられてしまうのである。このため、迫力ある立体映像を提供することができなくなる場合がある。
また、このように、飛び出し部分を二次元のオブジェクトが遮った場合、その立体映像を観察するユーザは、極めて大きな違和感を覚える。つまり、二次元のオブジェクトは視差を有しない映像であるから、ユーザにとっては通常通り(飛び出さずに)画面上に表示されているように感じられる。このような二次元のオブジェクトが、画面から飛び出して見える部分を覆うように表示されるのである。
すなわち、飛び出し部分を二次元のオブジェクトが遮った場合、ユーザから見ると、立体映像の飛び出し部分の一部が凹んで画面に貼り付き、その部分に二次元のオブジェクトが表示されているように見えるのである。
手法Aには、上述したような問題があった。
立体映像に重ねて二次元のオブジェクトを表示する場合の他の1つの手法は、立体映像と二次元オブジェクトの表示領域を分けて表示する手法である(手法Bと称することにする)。手法Bは、主に映画の字幕などで使用されている。
図5は、手法Bにより立体映像に重ねて二次元のオブジェクトを表示した画像の例を示す図である。同図において、画面の上側の領域51が立体映像を表示する領域とされ、画面の下側の領域52が二次元のオブジェクトを表示する領域とされる。
しかしながら、手法Bの場合、画面中で二次元オブジェクトのための領域の確保が必要となる。このため、立体映像が画面全体を有効利用できないことになる。
また、立体映像に重ねて二次元のオブジェクトを表示する場合、ユーザは、立体映像の飛び出し部分と、二次元のオブジェクトの両方に注目すると考えられる。このような場合、ユーザは、例えば、視差の異なる映像を交互に見ることになる。しかしながら、急激な視差変化に伴う輻湊角の調整は眼精疲労を伴うと考えられている。
例えば、図6に示されるように、オブジェクトが二次元で表示されているシーンでは、人間の右目と左目の眼球は、視線の輻湊角がαとなるような向きに向けられている。その直後、シーンチェンジが発生してオブジェクトが立体的に表示されるシーンに切り替わると、右目と左目の眼球は、視線の輻湊角がβとなるように回転させられる。このように、急激に眼球を回転させることが眼精疲労につながる。
なお、輻湊角の変化と眼精疲労については、「岸 信介ら, 2眼式立体映像のコンテンツ評価システムの試作, 映像情報メディア学会誌, 2006, Vol.60, No. 6 pp.934-942」、「原島 博ら, 3次元画像と人間の科学, オーム社, 2000」などの文献に開示されている。
手法A、手法Bともに、上述のような眼精疲労を引き起こしやすいという問題があった。
図7は、本発明の一実施の形態に係る立体映像表示システムの構成例を示すブロック図である。同図に示されるように、立体映像表示システム100は、立体映像表示装置101とディスプレイ102により構成されている。
立体映像表示装置101は、内部に立体映像信号取得部121、およびオブジェクト表示調整部122を有する構成とされている。
立体映像信号取得部121は、例えば、チューナなど、放送波として送信された立体映像信号を受信するものとして構成される。また、立体映像信号取得部121は、例えば、ドライブなどのように、DVD、HDDなどの記録媒体に記録された立体映像信号を読み出すものとして構成されるようにしてもよい。
オブジェクト表示調整部122は、立体映像信号取得部121により取得された立体映像信号に対して、GUI、字幕などの予め用意された二次元のオブジェクトを合成して表示させる処理を施す機能ブロックとされる。なお、オブジェクト表示調整部122の詳細な構成については、図8を参照して後述する。
ディスプレイ102は、例えば、LCD(Liquid Crystal display)などにより構成され、二次元の画像表示領域を有するものとされる。ユーザは、例えば、カラーフィルタの付いたメガネなどを装着して、ディスプレイ102に表示された立体映像を見るようになされている。
また、ディスプレイ102は、例えば、スクリーンなどにより構成され、立体映像表示装置101から投影された立体映像がスクリーンに表示されるようにしてもよい。さらに、立体映像表示装置101とディスプレイ102とが一体化された装置として、立体映像表示システム100が構成されるようにすることも可能である。
図8は、図7のオブジェクト表示調整部122の詳細な構成例を示すブロック図である。同図に示されるように、オブジェクト表示調整部122は、内部に表示位置調整部141、および視差調整部142を有する構成とされている。
表示位置調整部141は、例えば、立体映像の中でGUIなどの二次元のオブジェクトを表示させる必要がある場合、その二次元のオブジェクトを表示させる位置を決定するようになされている。表示位置調整部141は、例えば、立体映像の中の飛び出し部分とできるだけ重ならない位置にGUIなどの表示位置を調整して決定する。
表示位置調整部141は、例えば、GUI信号の供給を受けて、そのGUI信号に基づいて表示されるGUIの表示位置を調整するようになされている。
視差調整部142は、立体映像の中で表示されるGUIなどが立体映像の飛び出し部分とともに飛び出しているように、GUIなどの画像に適切な視差を付加するようになされている。
図9乃至図12を参照してさらに詳細に説明する。
図9は、立体映像信号のフレームの構成を説明する図である。立体映像信号は、フレーム単位に構成されているものとする。図9は、立体映像信号の1フレームに含まれる情報を表している。なお、動画像を表示させる信号である立体映像信号は、例えば、1秒間に60フレームを含むものとされる。すなわち、60フレーム分の立体映像信号により、1秒間の立体映像を表示させることができる。
図9の例では、立体映像信号のフレームは、右目用プレーン、左目用プレーン、および視差プレーンを有する構成とされている。なお、この他にもフレームヘッダ、誤り検出ビットなどの情報が当該フレームに適宜挿入される。
右目用プレーン、および左目用プレーンは、ディスプレイ102に表示される1画面分の画像データとされる。なお、図9の例では、説明を簡単にするため、ディスプレイ102に表示される1画面分の画像は、64(=8×8)画素で構成されるものとし、右目用プレーン、および左目用プレーンの各矩形のそれぞれが1画素を表すものとする。
右目用プレーン、および左目用プレーンには、それぞれ64個の矩形が示されており、各矩形の内部には、「0」または「1」が記載されている。ここでは、説明を簡単にするため、図中「0」と記された矩形は、黒色の画素を表すものとし、図中「1」と記された矩形は、白色の画素を表すものとする。
図9の例は、黒色の背景に2×5画素の白色の物体が表示される画像を表しており、2×5画素の白色の物体の表示位置が、右目用プレーンと左目用プレーンとでは異なるようになされている。すなわち、図3を参照して上述したように、視差を有する画像が表示され、その物体があたかも画面から飛び出しているように感じられる。
右目用プレーンと左目用プレーンとの表示位置の違いは、視差プレーンにより特定することができる。視差プレーンは、右目用プレーン、および左目用プレーンの各画素に対応する64の矩形を有しており、右目用プレーンの画素が、左目用プレーンにおいて何画素ずれているかを表す情報とされる。図9の例では、右目用プレーンにおける2×5画素の白色の物体の表示位置に対応する部分の矩形にそれぞれ「2」が記されている。これは、右目用プレーンにおける2×5画素の白色の物体が、左目用プレーンにおいて右に2画素ずれて表示されることを表している。
図10は、GUI信号により供給される情報を説明する図である。GUI信号は、表示させるべき、GUI画像、画面の中でGUIを表示させるべき所定の領域(可動領域と称する)、およびGUIの標準表示位置の情報を含むものとされる。可動領域は、GUIのサイズ以上のサイズの画素群により構成されるものとする。すなわち、可動領域の中の複数の位置にGUIを表示させることができる(GUIの表示位置をその領域内で動かすことができる)。
図10の例では、説明を簡単にするために、GUI画像が、4×2画素の白色の矩形の画像とされている。図中「0」と記された矩形は、黒色の画素を表すものとし、図中「1」と記された矩形は、白色の画素を表すものとする。なお、GUI画像により、当該GUIのサイズ(4×2画素)も特定することができる。ここでサイズは、水平方向の画素数と垂直方向の画素数を意味するものとする。
また、可動領域は、64(=8×8)画素で構成される画面の中で、どの部分がGUIを表示させるべき領域であるかを表す情報とされる。図10の例では、64画素で構成される画面の各頂点の座標が二次元のXY座標として、(0,0)、(7,0)、(0,7)、(7,7)により示されている。そして、可動領域に対応する画素の矩形がハッチングされて示されている。
可動領域が矩形であることを前提とし、GUI信号により可動領域の上下左右端の座標位置が指定されるようになされている。図10の例では、可動領域の上端のY軸座標が5(「Top=5」)、下端のY軸座標が7(「Bottom=7」とされている。また、可動領域の左端のX軸座標が0(「Left=0」)、右端のX軸座標が7(「Right=7」)とされている。
標準表示位置は、GUIのデフォルトの表示位置を指定するものであり、例えば、GUI画像の基準点が表示される座標により指定されるようになされている。ここでは、矩形のGUIの左上端が基準点となるものとする。図10の例では、標準表示位置の座標が(2,5)とされている。
このようなGUI信号に基づいてGUIが表示されるのである。
表示位置調整部141は、GUI信号からGUIの可動領域とサイズ、標準表示位置を取得し、GUIの表示位置の候補となる候補座標(x,y)の値域を式(1)に従って計算する。
式(1)において、R_top、R_bottom、R_left、R_rightは、それぞれ可動領域のTop、Bottom、Left、Rightを表わしている。また、U_widthはGUI画像の横幅に対応する画素数(図10の例では4)、U_heightはGUI画像の高さに対応する画素数(図10の例では2)を表す。
図10のGUI信号の場合、式(1)により得られるxの値域は0≦x≦4となり、式(1)により得られるyの値域は5≦y≦6となる。
表示位置調整部141は、上述のようにして得られたxとyの値域の中で候補座標(x,y)の全ての組み合わせについてその位置にGUIを表示した場合、GUIと重なる領域の視差の値の和を計算する。GUIは、できるだけ視差のない部分に表示させるべきと考えられるからである。
例えば、最初に図9に示されるフレームにおいて図10のGUI信号のGUIを表示する場合、候補座標が(0,5)であったとき、視差プレーンの座標(0,5)を左上端として4×2画素のGUIが表示されることになる。その場合、視差プレーンの座標(3,5)の画素位置の視差の値(2)と、座標(4,5)の画素位置の視差の値(2)が、GUIと重なる領域の視差の値となるから、GUIと重なる領域の視差の値の和は、4(=2+2)と計算される。
なお、上記の説明では、視差プレーンにおいて視差の値が0とされている画素位置(例えば、(0,5)、(0,6)、・・・の画素位置など)は、視差がない画素位置であるから、GUIと重なる領域の視差の値として計算していないが、これらの画素位置の視差の値を0として計算するようにしてもよい。
そして、表示位置調整部141は、最初にGUIが表示されるフレームの後の複数のフレームにおけるGUIと重なる領域の視差の値の和を同様にして計算する。通常GUIは、少なくとも数秒間連続して画面に表示されるものだからである。上述の例の場合、例えば、図9に示されるフレームの画像の1秒後に表示される画像のフレーム、2秒後に表示される画像のフレーム、・・・5秒後に表示される画像のフレームの5つのフレームにおいて、候補座標が(0,5)であったとき、GUIと重なる領域の視差の値の和がそれぞれ計算される。
表示位置調整部141は、このようにして計算された5つのフレームの視差の値の和の合計値を、候補座標毎に合計して比較する。上述の例の場合、候補座標は、(0,5)、(1,5)、・・・(4,5)、(0,6)、(1,6)、・・・(4,6)の合計10通りの組み合わせが存在する。表示位置調整部141は、これら10個の候補座標のそれぞれに対応する5つのフレームの視差の値の和の合計値を計算し、合計値が最も小さい候補座標を、調整後のGUI表示位置として決定する。なお、候補座標のそれぞれに対応する5つのフレームの視差の値の和の合計値を、視差合計値と称することにする。
例えば、図11に示されるように、視差合計値が計算される。図11は、上述の式(1)により得られるxの値域が0≦x≦4、yの値域が5≦y≦6である場合、最初にGUIが表示されるフレームから1秒間隔で得られる5フレームにおけるGUIと重なる領域の視差合計値を示している。同図に示されるように、いまの場合、10通りの候補座標が存在し、それぞれの候補座標に対応する5つの視差プレーンの領域の図を図11(a)乃至図11(j)で表わしている。
図11の例では、図11(i)と図11(j)とにおいて、それぞれ視差合計値が1となっている。
表示位置調整部141は、図11の例のように、視差合計値が最も小さい候補座標が複数存在する場合、標準表示位置からの距離が最も近い候補座標を調整後のGUI表示位置として決定する。例えば、図10に示されるGUI信号の場合、標準表示位置は(2,5)であるから、図11(i)に対応する候補座標(3,6)が標準表示位置からの距離が最も近い候補座標となる。
さらに、視差合計値が最も小さい候補座標であって、標準表示位置からの距離が最も近い候補座標が複数存在した場合、表示位置調整部141は、例えば、それらの候補座標の中からランダムに選択した1つの候補座標を、調整後のGUI表示位置として決定する。
このようにして、表示位置調整部141は、調整後のGUI表示位置を決定する。
表示位置調整部141により調整後のGUI表示位置が決定された後、視差調整部142は、立体映像の中で当該GUI画像に付加される視差を設定する。
視差調整部142は、調整後のGUI表示位置にGUIを表示した場合、GUIと重なる領域の視差の値の最大値Mを求める。例えば、候補座標が図11(i)に示される位置である場合、視差合計値が1だから、調整後のGUI表示位置にGUIを表示したとき、GUIと重なる領域の視差の値の最大値Mは1となる。
そして、視差調整部142は、当該GUIを表示すべきフレームにおいて、右目用プレーンの調整後のGUI表示位置にGUIを表示させるように画像を合成する。さらに、視差調整部142は、当該GUIを表示すべきフレームにおいて、左目用プレーンの調整後のGUI表示位置から、画面右側にM画素分右側にずらした表示位置にGUIを表示させるように画像を合成する。すなわち、視差調整部142により、視差が付加されたGUI画像が合成された右目用プレーンと左目用プレーンが生成されることになる。
なお、GUIの視差として、必ずしもM画素分の視差を付加する必要はなく、例えば、Mに所定の係数を乗じるなどして得られた画素数分の視差が付加されるようにしてもよい。
なお、以上においては、表示位置調整部141と視差調整部142とが、図11に示されるような、1秒間隔で5つのフレームを抽出して処理する例について説明したが、フレームの間隔や枚数はこれに限られるものではない。また、表示位置調整部141と視差調整部142とは、必ずしも複数のフレームを抽出して処理を行う必要はなく、例えば、表示位置調整部141または視差調整部142が1フレームのみを抽出して処理を行うようにしてもよい。
図12は、図9に示されるフレームにおいて、図10のGUI信号に基づいて表示されるGUIを、図11(i)に示される位置を調整後のGUI表示位置として表示する場合、視差調整部142により生成される右目用プレーンと左目用プレーンを示す図である。
図12の右目用プレーンは、図9の右目用プレーンの画像に重ねて、調整後のGUI表示位置(3,6)を左上端として4×2画素の白色の矩形のGUI画像を表示させるように合成されている。また、図12の左目用プレーンは、図9の左目用プレーンの画像に重ねて、調整後のGUI表示位置から1画素右側にずらした位置(4,6)を左上端として4×2画素の白色の矩形のGUI画像を表示させるように合成されている。
図12を参照して説明したように合成された右目用プレーンと左目用プレーンとが、GUIを表示するフレームのそれぞれについて生成されることになる。例えば、GUIを10秒間表示する場合、600(=10×60)フレーム分の右目用プレーンと左目用プレーンとに視差が付加されたGUI画像が重ねて表示されるように合成される。
このように視差調整部142により生成された右目用プレーンと左目用プレーンとに基づく画像がディスプレイ102に出力される。
これにより、ディスプレイ102を観察するユーザには、例えば、立体映像の中の飛び出し部分とできるだけ重ならない位置にGUIが表示されているように見える。さらに、そのGUIは、画面に張り付いているように見えるのではなく、GUIと重なる飛び出し部分ともに、画面から飛び出して見えるのである。
このように本発明によれば、例えば、GUIを画面内の任意の位置に表示させるようにすることができ、例えば、従来の手法Bのように、画面中で二次元オブジェクトのための領域を確保する必要がないので、立体映像が画面全体を有効利用できる。
また、立体映像の中の飛び出し部分とできるだけ重ならない位置にGUIが表示されるので、立体映像の中で最も重要性の高い飛び出し部分を、GUIが遮ることがないようにすることができ、迫力ある立体映像を提供することができる。よって、例えば、従来の手法Aの問題点も解決できる。
さらに、GUIと重なる飛び出し部分ともに、GUIが画面から飛び出して見えるように視差を付加するようにしたので、ユーザに違和感を与えることもなく、また、眼精疲労の発生を抑止することもできる。
次に、図13のフローチャートを参照して、図7のオブジェクト表示調整部122によるGUI合成処理の例について説明する。
ステップS21において、表示位置調整部141は、GUI信号を取得する。
ステップS22において、表示位置調整部141は、ステップS21で取得したGUI信号に基づいて、GUIの可動領域とサイズを特定する。
ステップS23において、表示位置調整部141は、ステップS22で特定したGUIの可動領域とサイズに基づいて、候補座標の値域を計算する。このとき、例えば、上述した式(1)による計算によって、候補座標の値域が求められる。
ステップS24において、表示位置調整部141は、ステップS23の処理で得られた値域の中で候補座標(x,y)の全ての組み合わせについて視差合計値を計算する。このとき、例えば、図11を参照して上述したように、各候補座標に対応する視差合計値がそれぞれ計算される。
ステップS25において、表示位置調整部141は、調整後のGUI表示位置を決定する。
このとき、例えば、視差合計値が最も小さい候補座標が調整後のGUI表示位置として決定される。また、視差合計値が最も小さい候補座標が複数存在する場合、標準表示位置からの距離が最も近い候補座標を調整後のGUI表示位置として決定される。さらに、視差合計値が最も小さい候補座標であって、標準表示位置からの距離が最も近い候補座標が複数存在した場合、例えば、それらの候補座標の中からランダムに選択した1つの候補座標が、調整後のGUI表示位置として決定される。
ステップS26において、視差調整部142は、ステップS25の処理で決定された調整後のGUI表示位置にGUIを表示した場合、GUIと重なる領域の視差の値の最大値Mを求める。例えば、候補座標が図11(i)である場合、視差合計値が1だから、調整後のGUI表示位置にGUIを表示したとき、GUIと重なる領域の視差の値の最大値Mは1となる。
ステップS27において、視差調整部142は、ステップS26の処理結果に基づいて、M画素分の視差を付加して、ステップS21の処理で取得したGUI信号のGUI画像を合成した右目用プレーンと左目用プレーンを生成する。
このとき、例えば、当該GUIを表示すべきフレームにおいて、右目用プレーンの調整後のGUI表示位置にGUIを表示させるように画像が合成される。さらに、当該GUIを表示すべきフレームにおいて、左目用プレーンの調整後のGUI表示位置から、画面右側にM画素分右側にずらした表示位置にGUIを表示させるように画像が合成される。
このようにしてGUI合成処理が実行される。
以上において、主に立体映像にGUIを合成する場合を例として説明したが、勿論、字幕、その他の二次元オブジェクトが立体映像に合成されるようにすることもできる。
また、以上においては、立体映像信号のフレームに視差プレーンが含まれていることを前提として説明したが、立体映像信号のフレームに視差プレーンが含まれない場合でも、本発明を適用することが可能である。視差プレーンが含まれない場合、例えば、表示位置調整部141において、ブロックマッチング処理などにより、右目用プレーンと左目用プレーンにおけるオブジェクト(物体)の位置を特定し、視差プレーンと同様の情報を得るようにすればよい。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図14に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図14において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図14に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
100 立体映像表示システム, 101 立体映像表示装置, 102 ディスプレイ, 121 立体映像信号取得部, 122 オブジェクト表示調整部, 141 表示位置調整部, 142 視差調整部
Claims (6)
- 立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算する候補座標値域計算手段と、
前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算する視差合計値計算手段と、
前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定する表示位置決定手段と、
前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定する最大値特定手段と、
前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定する視差設定手段と
を備える立体映像処理装置。 - 前記立体映像信号は、単位時間あたりのフレームレートを有し、
視差合計値計算手段は、
前記立体映像信号のフレームに含まれる情報であって、画素毎の視差を表す視差プレーンに基づいて特定される視差の値の合計値を計算する
請求項1に記載の立体映像処理装置。 - 前記表示位置決定手段は、
前記二次元のオブジェクトを表示させる複数のフレームにおいて前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算する
請求項2に記載の立体映像処理装置。 - 前記最大値特定手段は、
前記二次元のオブジェクトを表示させる複数のフレームの前記視差プレーンに基づいて、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定する
請求項3に記載の立体映像処理装置。 - 候補座標値域計算手段が、立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算し、
視差合計値計算手段が、前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算し、
表示位置決定手段が、前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定し、
最大値特定手段が、前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定し、
視差設定手段が、前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定するステップ
を含む立体映像処理方法。 - コンピュータを、
立体映像の画面の中で二次元のオブジェクトを表示させるべき所定の領域である可動領域と、前記二次元のオブジェクトのサイズに基づいて、前記画面の中で前記二次元のオブジェクトの基準点の表示位置の候補座標の値域を計算する候補座標値域計算手段と、
前記値域の範囲内の候補座標のそれぞれを基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の合計値を、前記候補座標毎に計算する視差合計値計算手段と、
前記視差の値の合計値の最も小さい前記候補座標を前記二次元のオブジェクトの基準点の表示位置として決定する表示位置決定手段と、
前記決定された表示位置を基準点として前記二次元のオブジェクトを表示させた場合、前記立体映像において前記二次元のオブジェクトと重なる領域の画素のそれぞれの視差の値の最大値を特定する最大値特定手段と、
前記特定された視差の値の最大値に基づいて、前記立体映像の中で表示される前記二次元のオブジェクトの視差を設定する視差設定手段とを備える立体映像処理装置として機能させる
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010036372A JP2011172172A (ja) | 2010-02-22 | 2010-02-22 | 立体映像処理装置および方法、並びにプログラム |
US13/016,423 US8872902B2 (en) | 2010-02-22 | 2011-01-28 | Stereoscopic video processing device and method for modifying a parallax value, and program |
US14/518,728 US9167223B2 (en) | 2010-02-22 | 2014-10-20 | Stereoscopic video processing device and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010036372A JP2011172172A (ja) | 2010-02-22 | 2010-02-22 | 立体映像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011172172A true JP2011172172A (ja) | 2011-09-01 |
Family
ID=44476174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010036372A Withdrawn JP2011172172A (ja) | 2010-02-22 | 2010-02-22 | 立体映像処理装置および方法、並びにプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US8872902B2 (ja) |
JP (1) | JP2011172172A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182399A (ja) * | 2010-02-26 | 2011-09-15 | Sony Europe Ltd | 画像カット方法および画像カット装置 |
JP2013021389A (ja) * | 2011-07-07 | 2013-01-31 | Nikon Corp | 画像表示装置 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011176541A (ja) | 2010-02-24 | 2011-09-08 | Sony Corp | 立体映像処理装置および方法、並びにプログラム |
JP5689707B2 (ja) * | 2011-02-15 | 2015-03-25 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法 |
CN102907109A (zh) * | 2011-03-18 | 2013-01-30 | 松下电器产业株式会社 | 眼镜、立体视觉影像处理装置、系统 |
US10841621B2 (en) * | 2017-03-01 | 2020-11-17 | Wyse Technology L.L.C. | Fault recovery of video bitstream in remote sessions |
TWI622022B (zh) * | 2017-07-13 | 2018-04-21 | 鴻海精密工業股份有限公司 | 深度計算方法及其裝置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320734A (ja) * | 2000-05-12 | 2001-11-16 | Sony Corp | 立体画像表示装置 |
CN101088285A (zh) * | 2004-12-22 | 2007-12-12 | 松下电器产业株式会社 | 摄像装置及其制造方法 |
US8270807B2 (en) * | 2009-07-13 | 2012-09-18 | Panasonic Corporation | Recording medium, playback device, and integrated circuit |
JP2011176541A (ja) | 2010-02-24 | 2011-09-08 | Sony Corp | 立体映像処理装置および方法、並びにプログラム |
-
2010
- 2010-02-22 JP JP2010036372A patent/JP2011172172A/ja not_active Withdrawn
-
2011
- 2011-01-28 US US13/016,423 patent/US8872902B2/en active Active
-
2014
- 2014-10-20 US US14/518,728 patent/US9167223B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182399A (ja) * | 2010-02-26 | 2011-09-15 | Sony Europe Ltd | 画像カット方法および画像カット装置 |
JP2013021389A (ja) * | 2011-07-07 | 2013-01-31 | Nikon Corp | 画像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US20150035955A1 (en) | 2015-02-05 |
US9167223B2 (en) | 2015-10-20 |
US20110205343A1 (en) | 2011-08-25 |
US8872902B2 (en) | 2014-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2010084724A1 (ja) | 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 | |
KR101639053B1 (ko) | 3d 이미지 및 그래픽 데이터의 조합 | |
JP5515301B2 (ja) | 画像処理装置、プログラム、画像処理方法、記録方法および記録媒体 | |
US11350156B2 (en) | Method and apparatus for implementing video stream overlays | |
US9167223B2 (en) | Stereoscopic video processing device and method, and program | |
JP4903888B2 (ja) | 画像表示装置、画像表示方法、および画像補正方法 | |
WO2011105220A1 (ja) | 立体映像処理装置および方法、並びにプログラム | |
US20100045779A1 (en) | Three-dimensional video apparatus and method of providing on screen display applied thereto | |
JP2012010309A (ja) | 立体視映像表示装置、および立体視映像表示装置の動作方法 | |
TW201223245A (en) | Displaying graphics with three dimensional video | |
JPWO2011135857A1 (ja) | 画像変換装置 | |
US20130044939A1 (en) | Method and system for modifying binocular images | |
JP5396877B2 (ja) | 画像処理装置、プログラム、画像処理方法、および記録方法 | |
CN102271266A (zh) | 2d-3d共存的偏振式3d系统中的2d质量增强器 | |
WO2018167549A1 (en) | Instantaneous 180° 3d imaging and playback methods | |
JP2018157331A (ja) | プログラム、記録媒体、画像生成装置、画像生成方法 | |
JP2010226391A (ja) | 画像処理装置、プログラムおよび画像処理方法 | |
WO2013042392A1 (ja) | 立体画像評価装置 | |
JP5367031B2 (ja) | 情報処理方法、および情報処理装置 | |
JP2014175813A (ja) | 立体映像表示方法および装置 | |
WO2011114739A1 (ja) | 再生装置 | |
JP4591997B2 (ja) | 立体視映像表示装置 | |
JP2010259022A (ja) | 表示装置、表示方法、および表示プログラム | |
JP4827881B2 (ja) | 映像ファイル処理方法及び映像送受信再生システム | |
Grasnick | The hype cycle in 3D displays: inherent limits of autostereoscopy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130507 |