JP5036088B2 - 立体画像処理装置、立体画像処理方法およびプログラム - Google Patents

立体画像処理装置、立体画像処理方法およびプログラム Download PDF

Info

Publication number
JP5036088B2
JP5036088B2 JP2011006261A JP2011006261A JP5036088B2 JP 5036088 B2 JP5036088 B2 JP 5036088B2 JP 2011006261 A JP2011006261 A JP 2011006261A JP 2011006261 A JP2011006261 A JP 2011006261A JP 5036088 B2 JP5036088 B2 JP 5036088B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic image
stereoscopic
guide
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011006261A
Other languages
English (en)
Other versions
JP2012147399A (ja
Inventor
幹生 瀬戸
永雄 服部
健一郎 山本
久雄 熊井
郁子 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011006261A priority Critical patent/JP5036088B2/ja
Priority to CN201280005407.2A priority patent/CN103314597B/zh
Priority to PCT/JP2012/050438 priority patent/WO2012096332A1/ja
Priority to US13/979,345 priority patent/US20130293687A1/en
Publication of JP2012147399A publication Critical patent/JP2012147399A/ja
Application granted granted Critical
Publication of JP5036088B2 publication Critical patent/JP5036088B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information

Description

本発明は、 立体画像処理装置、立体画像処理方法およびプログラムに関する。
人間は空間に配置された物体の奥行きを知覚する際、左右眼に投影される像の位置のずれ、すなわち両眼視差をひとつの手がかりとして利用している。
この両眼視差の仕組みを利用したシステムの例として、立体画像表示システムがあげられる。立体画像表示システムにおいては、左右それぞれに対応した画像をそれぞれの眼に(のみ)提示することにより立体視を実現する(奥行きを表現する)。
このとき、3次元的な空間情報は2次元である左右画像に投影(され、空間的に圧縮)されている。そのため、物体の空間的(3次元的)な位置に応じて、2次元に投影された左右それぞれの画像上にずれが生じる。これが視差量となる。逆にとらえれば、視差量が異なることは3次元(的な)位置が異なることと符合する。
故に、左右の画像間の視差量を調整することによって、画像上に投影された物体の空間的な位置を仮想的に調整することができるため、結果として、奥行き感を操作することができる。
特許文献1においては、観察者が任意に視差量を調整できる立体映像処理装置について以下のような記載がある。
1)ユーザ操作により、立体映像の表示位置を前後に調整する際に、ディスプレイ(映像表示領域)の上下左右端に前後方向へ延在するように並べた複数の矩形片のうち、立体映像と前後方向の位置が一致する矩形片が他の矩形片とは色が異なるように制御するか、もしくは立体映像の奥行き幅に対応する矩形片が他の矩形片とは色が異なるように制御し、それによって調整操作を容易にする。
2)ディスプレイ(映像表示領域)の上下左右端に前後方向へ、線状のピッチ片を並べるとともに、立体映像の位置と一致する上下左右のピッチ片の間には半透明の仮想スクリーンが表示される、立体映像の表示位置の前後調整に伴って仮想スクリーンも前後に移動し、調整が終われば、ピッチ片および仮想スクリーンは消去される。
3)リモコンインタフェースからの制御信号に応じて参照用画像の出力または停止を制御する。
特開平11−155155号公報
しかしながら、従来の立体画像表示システムにおいては、立体画像を表示した場合に、立体画像中の物体が、実空間において画像表示スクリーン面上(たとえば映像表示機のディスプレイ面)から飛び出している物体であるのか、奥に引っ込んでいる物体であるのかが分からない、すなわち前後方向の位置が分からないことがあるという問題がある。例えば、特許文献1に記載の発明においては、その奥行き感ガイド自体もスクリーン面上から前後に延在するように立体的に表示されているために、立体映像と奥行き感ガイドとの相対的な位置関係が分かったとしても、実空間においてスクリーン面上から飛び出している映像であるのか、奥に引っ込んでいる映像であるのかがわからないことがある。
本発明は、このような事情に鑑みてなされたもので、その目的は、立体画像中の物体の前後方向の位置を、視聴者が把握し易い立体画像を生成する立体画像処理装置、立体画像処理方法およびプログラムを提供することにある。
(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成し、前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であることを特徴とする立体画像処理装置。
(2)また、本発明の他の態様は、上述の立体画像処理装置であって、前記案内画像は、前記表示部の画像表示スクリーン面上あるいは該画像表示スクリーンと平行かつ該画像表示スクリーン面近傍の平面上に知覚される画像であることを特徴とする。
(3)また、本発明の他の態様は、上述の立体画像処理装置であって、前記案内画像が、前記立体画像を構成するいずれかの視点からの画像の一部分であることを特徴とする。
(4)また、本発明の他の態様は、上述の立体画像処理装置であって、前記立体画像の奥行きデータに基づき、前記案内画像を前記立体画像に重ねた画像を生成することを特徴とする。
(5)また、本発明の他の態様は、上述の立体画像処理装置であって、前記案内画像を前記立体画像に重ねる際の合成パラメータを、前記案内画像と前記立体画像が重なる部分が、前記画像表示スクリーンよりも手前に知覚される被写体の部分である前景部分であるか、前記画像表示スクリーンよりも後ろに知覚される被写体の部分である背景部分であるかにより、異なる値とすることを特徴とする。
(6)また、本発明の他の態様は、上述の立体画像処理装置であって、前記合成パラメータは、前記案内画像の透明度であり、前記前景部分における透明度を、前記背景部分における透明度よりも大きくすることを特徴とする。
(7)また、本発明の他の態様は、上述の立体画像処理装置であって、前記前景部分における透明度が100%であることを特徴とする。
(8)また、本発明の他の態様は、上述の立体画像処理装置であって、前記合成パラメータは、前記案内画像の横幅であり、前記前景部分における横幅を、前記背景部分における横幅よりも小さくすることを特徴とする。
(9)また、本発明の他の態様は、上述の立体画像処理装置であって、前記案内画像の表示位置が、時間の経過により、変化することを特徴とする。
(10)また、本発明の他の態様は、立体画像を処理する立体画像処理方法において、立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程を有し、前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であることを特徴とする。
(11)また、本発明の他の態様は、立体画像を処理する立体画像処理装置のコンピュータに、立体画像を取得する過程と、前記立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程を実行させるプログラムであって、前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であることを特徴とする
この発明によれば、立体画像中の物体の前後方向の位置を、視聴者が把握し易い立体画像を生成する。
本発明の第1の実施形態における立体画像処理装置10の構成を示す概略ブロック図である。 サイドバイサイド形式の立体画像の画像データを説明する画像例である。 トップアンドボトム形式の立体画像の画像データを説明する画像例である。 フレームシーケンシャル形式の立体画像の画像データを説明する概念図である。 第1の実施形態における立体画像入力部1Aの構成を示す概略ブロック図である。 同実施形態における立体画像入力部1Aの動作を説明するフローチャートである。 同実施形態における奥行き感ガイドを説明する概念図(その1)である。 同実施形態における奥行き感ガイドを説明する概念図(その2)である。 同実施形態における奥行き感ガイドを説明する概念図(その3)である。 同実施形態における奥行き感ガイド生成部1Bの構成を示す概略ブロック図である。 同実施形態における奥行き感ガイドパラメータおよび更新優先度フラグの一例を示す図である。 同実施形態における奥行き感ガイドの例(その1)を示す図である。 同実施形態における奥行き感ガイドの例(その2)を示す図である。 同実施形態における奥行き感ガイドの例(その3)を示す図である。 同実施形態における奥行き感ガイドの例(その4)を示す図である。 同実施形態における奥行き感ガイドの例(その5)を示す図である。 同実施形態における奥行き感ガイドの例(その6)を示す図である。 同実施形態における奥行き感ガイドの例(その7)を示す図である。 同実施形態における奥行き感ガイドの例(その8)を示す図である。 同実施形態における奥行き感ガイドの例(その9)を示す図である。 同実施形態における奥行き感ガイドパラメータ調整部5Bの動作を説明するフローチャートである。 同実施形態における立体表示画像生成部1Eの構成を示す概略ブロック図である。 同実施形態における立体表示画像生成部1Eの動作を説明するフローチャートである。 両眼視野闘争を説明する画像例(その1)を示す図である。 両眼視野闘争を説明する画像例(その2)を示す図である。 両眼視野闘争を説明する画像例(その3)を示す図である。 本発明の第2の実施形態における立体画像処理装置11の構成を示す概略ブロック図である。 同実施形態における立体表示画像生成部11Eの構成を示す概略ブロック図である。 同実施形態における立体表示画像生成部11Eの動作を説明するフローチャートである。 同実施形態における前景部分の透明度を100%とした奥行き感ガイドの例を示す図である。 同実施形態における前景部分と後景部分とで透明度を異なるようにした奥行き感ガイドの例を示す図である。 同実施形態における前景部分の透明度を100%とした奥行き感ガイドの変形例を示す図である。 本発明の第2の実施形態の変形例における立体画像処理装置11’の構成を示す概略ブロック図である。 同変形例における立体表示画像生成部11E’の構成を示す概略ブロック図である。 同変形例における立体表示画像合成部17A’が合成した立体画像の例を示す図である。 同変形例における図35の奥行き感ガイド例を説明する概念図である。 本発明の第2の実施形態およびその変形例における立体画像入力部1A’の構成を示す概略ブロック図である。 3視点の立体画像の例を示す図である。 本発明の第3の実施形態における立体画像入力部13Aの構成を示す概略ブロック図である。 同実施形態における立体画像形式変換部33Bの動作を説明するフローチャートである。 本発明の第4の実施形態における立体画像入力部14Aの構成およびメタデータ入力部14Cとの関係を示す概略ブロック図である。 同実施形態におけるLUT44Aが記憶している視点モードと画像の構成との対応付けの例を示す図である。 同実施形態におけるLUT44Aが記憶している視点モードと画像の構成との対応付けの別の例を示す図である。 同実施形態における立体画像形式変換部43Bの動作を説明するフローチャートである。 本発明の第5の実施形態における立体画像入力部15Aの構成およびメタデータ入力部15Cとの関係を示す概略ブロック図である。 同実施形態におけるLUT54Aが記憶する視点優先度と画像の構成との対応付けの例を示す図である。 同実施形態における立体画像形式変換部53Bの動作を説明するフローチャートである。 本発明の第6の実施形態における立体画像入力部16Aの構成およびメタデータ入力部16Cとの関係を示す概略ブロック図である。 同実施形態における視聴優先度決定部64Aおよび立体画像形式変換部53Bの動作を説明するフローチャートである。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施の形態について説明する。図1は、本実施形態における立体画像処理装置10の構成を示す概略ブロック図である。立体画像処理装置10は、例えば、立体画像を表示するテレビジョン受像機、デジタルカメラ、映写機、携帯電話、電子フォトフレームなどである。立体画像処理装置10は、立体画像入力部1A、奥行き感ガイド生成部1B、メタデータ入力部1C、ユーザ入力部1D、立体表示画像生成部1E、画像表示部1Fを含んで構成される。
立体画像入力部1Aは、外部からの立体画像の画像データの入力を受け付ける。立体画像入力部1Aは、受け付けた立体画像の画像データD’を立体表示画像生成部1Eに出力する。立体画像入力部1Aは、受け付けた画像データの形式を示す形式情報Tを奥行き感ガイド生成部1Bおよび立体表示画像生成部1Eに出力する。
立体画像入力部1Aは、例えば、放送波を受信するチューナ、ブルーレイ(Blu−ray(登録商標))ディスクプレイヤーなど外部機器からの映像信号を受け付けるHDMI(登録商標)(High-Definition Multimedia Interface)レシーバなどである。なお、ここで立体画像の画像データとは、たとえば、トップアンドボトム形式(左右画像が縦に並ぶように1フレームの画像として格納されている形式)やサイドバイサイド形式(左右画像が横に並ぶように1フレームの画像として格納されている形式)、フレームシーケンシャル形式(左画像、右画像が経時的に入力される形式)など、種々の形式で表現される立体画像のことである。
なお、以上の立体画像の例では左右2視点を例としているが、たとえば、多眼撮像システムによって撮影されたような、多視点の立体画像であってもよい。また、立体画像入力部1Aが立体画像生成部1Eに出力する画像データD’は、立体画像入力部1Aが受け付けた画像データの形式のままでも良いし、たとえば、トップアンドボトム形式のような既定の形式に立体画像入力部1Aが変換してから出力するようにしても良い。立体画像入力部1Aが既定の形式に変換する場合は、立体画像入力部1Aが出力する形式情報は、変換後の形式を示す情報である。
奥行き感ガイド生成部1Bは、立体画像に合成するための奥行き感ガイド(案内画像)のパラメータである左眼用パラメータPlと右眼用パラメータPrとを生成する。奥行き感ガイド生成部1Bおよび奥行き感ガイドの詳細については、後述する。
メタデータ入力部1Cは、外部から種々のメタデータの入力を受け付ける。ここで、メタデータとは、立体画像入力部1Aが受け付けた立体画像の画像データに関するデータである。メタデータは、たとえば、奥行き感ガイドのパラメータ情報の他に、立体画像に関する奥行きデータ(視差マップ、ディスパリティマップ、距離画像、デプス画像などとも呼ばれる)、コンテンツ情報として得られるジャンル情報などの種々のデータである。
メタデータ入力部1Cは、受け付けたメタデータのうち、奥行き感ガイドのパラメータ情報を奥行き感ガイド生成部1B内のメタデータ入力判断部5C(後述)に出力する。
なお、メタデータ入力部1Cは、立体画像の画像データと同じ経路で、メタデータを取得するときは、メタデータを取得するための構成を、立体画像入力部1Aが画像を取得するための構成と共用してもよい。例えば、画像データおよびメタデータが、放送波により送信されているときは、メタデータ入力部1Cは、立体画像入力部1Aと、放送波を受信するためのチューナを共用する。なお、画像データは、放送波により送信されており、メタデータは、インターネットなどを介して取得するなど、これらのデータを別々のソースから取得するようにしてもよい。
ユーザ入力部1Dは、ユーザによる入力操作を検出し、検出した入力操作を示す入力操作情報を奥行き間ガイド生成部1Bに出力する。ユーザによる入力操作は、たとえば、リモートコントローラやキーボード、マウスによる入力である。なお、ユーザ入力部1Dが撮像デバイスを備え、該撮像デバイスが撮像した画像に基づき、ユーザのジェスチャを取り込むものであってもよく、ユーザによる入力操作を検出できるものであれば特定はしない。なお、ユーザによる入力操作は、例えば、奥行き感ガイドの表示をONまたはOFFする指示である。
立体表示画像生成部1Eは、立体画像入力部1Aからの立体画像の画像データD’および形式情報T、奥行き感ガイド生成部1Bからの奥行き感ガイドの左眼用パラメータPlおよび右眼用パラメータPrを基に、奥行き感ガイドを合成した、立体画像の表示用信号を生成する。
画像表示部1Fは、立体表示画像生成部1Eが生成した立体画像の表示用信号を受け取り、該信号に基づき、画像表示部1Fが備える画像表示スクリーン面に立体表示画像を表示する。なお、この画像表示スクリーンは、左眼用の画像と、右眼用の画像とを液晶ディスプレイやプラズマディスプレイなどに交互に表示し、この表示に同期させて、視聴者が掛けている液晶シャッター付メガネの液晶シャッターを動作させるものであってもよいし、視差バリア方式やレンチキュラ方式などの裸眼立体視可能な液晶ディスプレイであってもよい。
図2は、サイドバイサイド形式の立体画像の画像データを説明する画像例である。この画像例G1に示すように、サイドバイサイド形式の立体画像では、1フレームが左右に分割されており、左側半分が左眼用画像G1L、右側半分が右眼用画像G1Rとなっている。図3は、トップアンドボトム形式の立体画像の画像データを説明する画像例である。この画像例G2に示すように、トップアンドボトム形式の立体画像では、1フレームが上下に分割されており、上側半分が左眼用画像G2L、下側半分が右眼用画像G2Rとなっている。なお、逆に上側を右眼用画像、下側を左眼用画像とする形式でもよい。
図3は、フレームシーケンシャル形式の立体画像の画像データを説明する概念図である。フレームシーケンシャル形式の立体画像の画像データは、時間方向に左眼用と右眼用の画像が交互に並べられている。図3に示す例では、時間方向にG31L、G31R、G32L、G32Rの順に並べられたフレームのうち、G31L、G32Lが左眼用の画像であり、G31R、G32Rが右眼用の画像である。
図5は、立体画像入力部1Aの構成を示す概略ブロック図である。図5に示すように、立体画像入力部1Aは、立体画像判断部3A、立体画像形式変換部3B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3Eを含んで構成される。立体画像判断部3Aは、受け付けた画像データDの形式を判定し、その形式が既定形式記憶部3Eが記憶する既定の形式であるか否かを判定する。立体画像形式変換部3Bは、受け付けた画像データDを、既定の形式の画像データD’に変換する。立体画像データ送出部3Cは、立体画像形式変換部3Bが変換した画像データD’を出力する。立体画像形式送出部3Dは、立体画像データ送出部3Cが出力した画像データの形式を示す形式情報Tを出力する。既定形式記憶部3Eは、既定の形式を示す情報を予め記憶している。なお、既定の形式が無いときは、既定形式記憶部3Eは、無いことを示す情報を記憶している、あるいは、形式を示す情報を記憶していない。
図6は、立体画像入力部1Aの動作を説明するフローチャートである。図6に示すように、まず、ステップS21で、立体画像判断部3Aが、立体画像生成部1Eに送る画像データD’の既定の形式を、既定形式記憶部3Eが記憶しているか否かを判定する。ここで、既定の形式は、たとえば図2から図4に示した、サイドバイサイド形式、トップアンドボトム形式、フレームシーケンシャル形式などである。この判定の結果、既定の形式が記憶されているときは(S21−Y)、ステップS22に移る。一方、ステップS21の判定の結果、既定の形式が記憶されていないときは(S21−N)、ステップ24に移る。
ステップS22では、立体画像判断部3Aが、既定形式記憶部3Eが記憶する既定の形式と、受け付けた画像データDの形式が異なるか否かを判定する。この判定の結果、既定の形式と受け付けた画像データDの形式が異なるときは(S22−Y)、ステップS23に移る。一方、ステップS22の判定の結果、既定の形式と受け付けた画像データDの形式が異ならない(同じ)ときは(S22−N)、ステップS24に移る。
ステップS23では、立体画像形式変換部3Bが、受け付けた画像データDを既定の形式の画像データD’に変換する。さらに、立体画像データ送出部3Cは、変換された画像データD’を立体表示画像生成部1Eに出力し、ステップS25に移る。
ステップS24では、立体画像形式変換部3Bは、受け付けた画像データDに対する変換処理を行わず、該画像データDをそのまま、出力する画像データD’として立体画像データ送出部3Cに出力する。さらに、立体画像データ送出部3Cは、立体画像形式変換部3Bが出力した画像データD’を奥行き感ガイド生成部1Eに出力し、ステップS25に移る。
ステップS25では、立体画像形式変換部3Bは、ステップS23もしくはステップS24において出力した画像データD’の形式を示す形式情報Tを、立体画像形式送出部3Dに出力する。立体画像形式送出部3Dは、立体画像形式変換部3Bが出力した形式情報Tを、奥行き感ガイド生成部1Bおよび立体画像生成部1Eに出力する。
以上においては、立体画像が入力された場合を説明したが、平面(2D)画像が入力された場合、各部において処理を行わず、そのまま画像表示部1Eに出力し、平面画像を表示するようにしても良い。または、立体画像入力部1Aの立体画像形式変換部3Bが、2D−3D変換処理(2Dの画像から3Dの画像を作り出す処理)を行うことによって、立体画像の画像データを新たに作成しても良い。
次に、奥行き感ガイドについて説明する。奥行き感ガイドは、画像表示スクリーン面(たとえば、液晶ディスプレイのディスプレイ表示面、プロジェクターからの画像を投影するスクリーン面など、画像の投影される面であり、実空間において視聴者との距離のはっきりしている面)上、あるいは、スクリーン面と平行かつスクリーン面近傍の平面上に知覚されるように表示される。
なお、画像表示スクリーン面からの距離が0(ステレオ画像においては視差0となる)、すなわち、奥行き感ガイドと画像表示スクリーン面の視聴者からの距離が、実空間において同一距離にあることが望ましい。
しかしながら、本発明においては、視聴者から奥行き感ガイドまでの距離と、視聴者から画像表示スクリーン面までの距離が、実空間においてほぼ同一である、すなわち奥行き感ガイドが画像表示スクリーン面上にあると視聴者が知覚できればよいのであって、必ずしも物理的に0でなくても良い。
図7から図9は、奥行き感ガイドを説明する概念図である。図7は、入力される立体画像の例である。G7Lは、左眼用画像、G7Rは、右眼用画像である。図8は、入力された立体画像に奥行き感ガイドを合成した画像の例である。左眼用画像G8Lおよび右眼用画像G8R中の同じ位置に帯状の立体画像が合成されている。図9は、図8の立体画像の知覚され方を説明する図である。
図9に示すように、前景Fは、奥行き感ガイドGより前に、後景Bは、奥行き感ガイドGより後ろに知覚される。そして、奥行き感ガイドGは、画像表示スクリーン面S上に知覚されるので、実空間における立体画像の奥行き感(画像表示ディスプレイ面から被写体(物体)が飛び出しているか、奥に引っ込んでいるのか)が知覚しやすくなる。
なお、ここで前景とは、画像表示スクリーン面Sよりも手前側に知覚されるように表示された被写体の画像を指し、背景とは、画像表示スクリーン面Sよりも奥の方に知覚されるように表示された被写体の画像を指す。
以降の説明においては、奥行き感ガイドが画像表示スクリーン面からの距離が0(視差が0)に知覚されるように表示する場合について説明する。
図10は、奥行き感ガイド生成部1Bの構成を示す概略ブロック図である。
奥行き感ガイド生成部1Bは、立体画像形式判断部5A、奥行き感ガイドパラメータ調整部5B、メタデータ入力判断部5C、ユーザ入力判断部5D、パラメータ更新優先度判断部5E、奥行き感ガイドパラメータ保持メモリ5Cを含んで構成される。
立体画像形式判断部5Aは、立体画像形式送出部3Dから立体画像の形式情報Tを受け取り、奥行き感ガイドパラメータ調整部5Bに送る。奥行き感ガイドパラメータ調整部5Bは、立体画像形式判断部5Aから受け取った形式情報に基づいて、奥行き感ガイドパラメータ保持メモリ5Fから読み込んだ奥行き感ガイドパラメータを調整して、左眼用パラメータPl、右眼用パラメータPrを生成し、これらを立体画像生成部1Eに送る。奥行き感ガイドパラメータ保持メモリ5Fは、奥行き感ガイドパラメータ調整部5Bが読み込むための奥行き感ガイドパラメータを記録している。
メタデータ入力判断部5Cは、メタデータ入力部1Bが取得したメタデータの中から、奥行き感ガイドパラメータに関する情報を取得し、パラメータ更新優先度判断部5Eに送る。ユーザ入力判断部5Dは、ユーザ入力部1Cから奥行き感ガイドパラメータに関する情報を取得し、パラメータ更新優先度判断部5Eに送る。パラメータ更新優先度判断部5Eは、メタデータ入力判断部5Cからの奥行き感ガイドパラメータに関する情報と、ユーザ入力判断部5Dからの奥行き感ガイドパラメータに関する情報を受け取り、奥行き感ガイドパラメータ保持メモリ5Fに記録されている各パラメータに関する更新優先度フラグの情報をもとに、どちらのパラメータを選択するかを判断し、奥行き感ガイドパラメータ保持メモリ5Fが記憶する奥行き感ガイドパラメータの値を更新する。
奥行き感ガイドのオン/オフの切り替えのタイミングに関しては、オンにする場合は、メタデータ入力判断部5Cもしくはユーザ入力判断部5Dから得られた奥行きガイドのオン/オフのフラグ情報を基に奥行き感ガイドをオンにする。オフにする場合は、上述と同様に奥行きガイドのオン/オフのフラグ情報を基に奥行き感ガイドをオフにしても良いが、オンにしてからある一定時間が経過したところで、自動的にオフになるようにしても良い。自動でオフさせる場合は、上述のある一定時間として、たとえば、奥行きガイドパラメータとして設定されている既定表示時間を用いる。また、この自動でオフにする場合に関しては、たとえば、ユーザの入力として、リモートコントローラなどのユーザインタフェースを介することによってモード(自動オフモードなど)を選択できるようにする。
図11は、奥行き感ガイドパラメータおよび更新優先度フラグの一例を示す図である。奥行き感ガイドパラメータは、たとえば、項目として、「オン/オフ」、「表示基準座標」、「サイズ」、「透明度」、「色」、「形状」などの種々の画像としてのパラメータ、奥行き感ガイドを表示し始めてから消すまでの時間を示す「既定表示時間」(図11では、ミリ秒(ms)であるがフレーム数などであってもよい)、上記の表示基準座標などパラメータをフレームごとに変えるためのプログラムや奥行き感ガイド表示不可領域を指示するためのプログラムなどを指定する「ガイド表示変更プログラム」などを持つ。なお、ここで座標とは、各画像の左上端を原点とし、右方向にx軸、下方向にy軸をとる。また、更新優先度フラグは、奥行き感ガイドパラメータの各項目について、ユーザ入力優先であるか、メタデータ優先であるかを示す情報を持つ。
上述の画像としてのパラメータのうち、項目「オン/オフ」は、奥行き感ガイドを表示するか否かを示す情報であり、値が「オン」の場合は、奥行き感ガイドを表示することを示し、「オフ」の場合は、奥行き感ガイドを表示しないことを示す。項目「形状」は、奥行き感ガイドの形状を示す情報であり、図11の値「直線(y=2x)」は、形状が傾き「2」の直線状(帯状)であることを示す。項目「表示基準座標」は、奥行き感ガイドを表示する際の基準となる座標であり、項目「形状」の値が「直線(y=2x)」であれば、奥行き感ガイドは、その座標を通り、傾きが「2」の直線状(帯状)であることを示す。項目「表示サイズ」は、たとえば、項目「形状」の値が「直線(y=2x)」であれば、直線の太さ(x軸方向の幅)である。
項目「色」は、奥行き感ガイドの色を指定し、たとえば、#FF0000(赤色)である。色を指定する情報として、前述のように画素値そのものを用いても良いし、あらかじめLUT(Look Up Table)を用意しておき、LUTから選択するためのインデックスを用いても良い。項目「透明度」は、奥行き感ガイドを立体画像と合成する際の透明度であり、たとえば、50%のように割合の形であらわされる。透明度のパラメータは色のパラメータと組み合わされ、図12や図13のようにカラーフィルタをかけたような表現に用いることができる。
なお、図11に示すような奥行き感ガイドパラメータの場合、奥行き感ガイドは赤色フィルタのような役割となってしまう。すなわち、画像中の赤色画素の部分では、奥行き感ガイドが知覚されず、その役割を果たさないことが考えられる。そこで、奥行き感ガイドパラメータの項目「色」の値として、ネガモードを設定しておくと、奥行き感ガイドと重なる部分の色を、該当画素の色の補色とするネガモード表示(画素値反転表示)をするようにしても良い。また、奥行き感ガイドパラメータの項目「色」の値として、グレーモードを設定しておくと、奥行き感ガイドと重なる部分の色を、該当画素の輝度値に応じた無彩色とするグレーモード表示をするようにしても良い。また、補色モードやグレーモード以外にも、項目「色」の値として、所定の値を設定しておくと、立体画像中の該当画素の画素値に対して、所定の演算を施して得られた値を、画素値とするようにしてもよい。
なお、ここで、ネガモード表示とは、赤、緑、青の画素値が、それぞれ、R、G、Bのときに、以下のようにして変換した画素値R’、G’、B’に置き換える表示である。
R’=PixMax−R
G’=PixMax−G
B’=PixMax−B
ここでPixMaxとは、たとえば、8ビット階調表現できるシステムにおいては255などであり、10ビット階調表現できるシステムにおいては1023などであり、システムに依存する値である。
また、グレーモード表示とは、以下のようにして変換した画素値R’、G’、B’に置き換える表示である。
Y=0.2126×R+0.7152×G+0.0722×B
R’=Y
G’=Y
B’=Y
それぞれの項目の値は、細かに設定しても良いが、奥行き感ガイドが効果的に作用するような、テンプレートをあらかじめ用意しておき、そこからから選択するようにしても良い。たとえば、奥行き感ガイドの形状に関しては、図12から図20に示すように、直線であったり、正方形であったり、任意の外形や画像など、種々の形態が考えられるため、あらかじめ用意されたテンプレートから読み込ませるとよい。また、奥行き感ガイドおよびそのパラメータが複数あってもよいし、メタデータ入力部1Bおよびメタデータ入力判断部5Cを経由して、種々のデータを奥行き感ガイドの形状のために取得するようにしても良い。
図12に示す例は、図11に示した奥行き感ガイドパラメータに応じた奥行き感ガイドG12の例である。この奥行き感ガイドG12は、形状が直線(帯状)であり、例えば、50%などの透明度が設定されているため、奥行き感ガイドG12と、立体画像中の人物とが重なった部分についは、両者の色が混ぜられた色となっている。図13に示す例は、形状がハート型の奥行き感ガイドG13である。奥行き感ガイドG13においても、例えば、50%などの透明度が設定されているため、奥行き感ガイドG13と、立体画像中の背景(太陽)とが重なった部分についは、両者の色が混ぜられた色となっている。
図14に示す例は、形状が正方形の奥行き感ガイドG14である。奥行き感ガイドG14においては、透明度が0%に設定されているため、奥行き感ガイドG14と、立体画像中の人物とが重なった部分についは、奥行き感ガイドG14が表示されている。図15に示す例は、形状が画像(テクスチャ)の奥行き感ガイドG15である。項目「形状」の値として、予め設定されている画像(テクスチャ)を指定するようにしてもよいし、ユーザが用意した画像(テクスチャ)をファイル名などで指定するようにしてもよい。
ここで、図15における説明においては、予め設定されている画像(テクスチャ)やユーザが指定した画像(テクスチャ)であることを想定しているが、立体画像のいずれかの画像をテクスチャ情報として利用してもよい。たとえば、2視点のステレオ画像である場合の例を図16に示す。図16に示す例では、左眼用画像G19Lの一部分(G19a)を、右眼用画像G19R中のG19aと同じ座標の領域(G19b)に表示することで、奥行き感ガイドとしている。この奥行き感ガイドの形状は、奥行き感ガイドパラメータにおいて設定する。また、G19aとG19bは、それぞれ左眼用画像G19Lと右眼用画像G19Rにおける同じ位置であるので、該領域については視差がなく、画像表示スクリーン面上に知覚される。
なお、後述するように、奥行き感ガイドの表示位置をフレーム毎に変更させて、時間の経過とともにしているように知覚させる場合には、奥行き感ガイドの画像(テクスチャ)は表示位置に応じた画像とする。すなわち、図17に示すように、図16の状態から時間の経過により、左眼用画像G20Lの一部分(G20a)であって、G19aとは異なる位置の画像を、右眼用画像G20R中のG20aと同じ座標の領域(G20b)に表示することで、奥行き感ガイドとする。
また、図16、図17において、左眼用画像の一部分を、右眼用画像の同じ位置に表示するとして説明したが、右眼用画像の一部分を、左目眼用画像の同じ位置に表示するようにしてもよい。
また、奥行き感ガイドが表示される面がスクリーン面からの物理的な距離が0であった場合、左眼用画像に対する奥行き感ガイドは同一の画素値となるため、奥行きガイドパラメータ(Pl)の情報量を削減することも可能である。
図18に示す例は、奥行き感ガイドが複数表示される場合の例であり、形状が直線で、傾きが異なる2つの奥行き感ガイドG16a、G16bを表示している例である。この場合、奥行き感ガイドG16a、G16bとの各々について、色や透明度などの項目を指定できるようにしてもよい。図19に示す例は、たとえば、画像表示装置や映像コンテンツなどから時刻情報を取得し、それを形状としている奥行き感ガイドG17である。
なお、メタデータ入力判断部5Cもしくはユーザ入力判断部5Dを経由して、テンプレートの追加が行えるようにしても良い。
さらに、ガイド表示変更プログラムにおいてプログラムされた通りに各パラメータの値を画像フレームごとに変更することができる。図20に示す例は、たとえば、表示基準座標をフレーム毎に変更することで、奥行き感ガイドG18a、G18b、G18c、…G18dというように、フレームごと表示位置を横方向に変更させている。これにより、時間経過とともに、奥行き感ガイドがスクリーン面上を横方向に移動しているように、視聴者には知覚される。
図21は、奥行き感ガイドパラメータ調整部5Bの処理フローの一例を示すフローチャートである。この処理フローは、立体表示画像生成部1Eにおける立体画像の形式がトップアンドボトム形式であった場合の処理フローである。まず、ステップS91では、奥行き感ガイドパラメータ調整部5Bは、奥行き感ガイドパラメータ保持メモリ5Fから奥行き感ガイドパラメータを読み出す。次に、ステップS92では、奥行き感ガイドパラメータ調整部5Bは、読み出した奥行き感ガイドパラメータを、左眼用画像と右眼用画像に適用するため、2つに複製し、これら奥行き感ガイドパラメータを、左眼用パラメータと、右眼用パラメータとする。
次に、ステップS93では、奥行き感ガイドパラメータ調整部5Bは、下記のトップアンドボトム用調整式(1)から(4)を用いて、左眼用パラメータと右眼用パラメータの表示基準座標の値を変更(調整)する。
x_LEFT_CORRECT = x_LEFT ・・・(1)
x_RIGHT_CORRECT = x_RIGHT ・・・(2)
y_LEFT_CORRECT = y_LEFT/2 ・・・(3)
y_RIGHT_CORRECT = (y_LEFT+Height)/2・・・(4)
ここで、x_LEFTは調整前の左眼用パラメータの表示基準座標のx座標値である。x_RIGHTは調整前の右眼用パラメータの表示基準座標のx座標値である。y_LEFTは調整前の右眼用パラメータの表示基準座標のy座標値である。y_RIGHTは調整前の右眼用パラメータの表示基準座標のy座標値である。x_LEFT_CORRECTは調整後の左眼用パラメータの表示基準座標のx座標値である。x_RIGHT_CORRECTは調整後の右眼用パラメータの表示基準座標のx座標値である。y_LEFT_CORRECTは調整後の右眼用パラメータの表示基準座標のy座標値である。y_RIGHT_CORRECTは調整後の右眼用パラメータの表示基準座標のy座標値である。Heightは、トップアンドボトム画像における左眼用画像の高さである。
なお、立体画像の形式は、前述したような立体画像形式(サイドバイサイド、トップアンドボトム、フレームシーケンシャル)以外の形式であってもよい。
このように、トップアンドボトム用調整式(1)、(2)は、表示基準座標を左眼用パラメータと、右眼用パラメータで同一となるようにしている。すなわち、奥行き感ガイドについては、視差が「0」となっているので、奥行き感ガイドは、画像表示スクリーン面上にあると知覚されるように表示される。なお、奥行き感ガイドが画像表示スクリーン面上あるいはその近傍にあると知覚されるように調整されれば良いので、視差が「0」あるいは極小さい値になるように調整されるのであれば、上述以外の調整方法であってもよい。
図22は、立体表示画像生成部1Eの構成を示す概略ブロック図である。図22に示す通り、立体表示画像生成部1Eは、立体表示画像合成部12A、立体表示画像変換部12Bを含んで構成される。立体表示画像合成部12Aは、左眼用パラメータPlと、右眼用パラメータPrとを用いて、立体画像の画像データD’に、奥行き感ガイドを合成する。立体表示画像変換部12Bは、立体表示画像合成部12Aが合成して生成した立体画像のデータを、画像表示部1Fが表示可能な形式に変換する。なお、立体表示画像変換部12Bは、形式情報Tを立体画像入力部1Aから取得し、該形式を、立体表示画像合成部12Aが生成した立体画像のデータの形式として扱う。
図23は、立体表示画像生成部1Eの動作を説明するフローチャートである。まず、ステップS131では、立体表示画像合成部12Aは、立体画像データ送出部3Cが出力した画像データD’と、奥行き感ガイドパラメータ調整部5Bが出力した左眼用パラメータPlおよび右眼用パラメータPrとに基づき、画像データD’に奥行き感ガイドを合成する。ここで、奥行き感ガイドの合成方法は、たとえば、左眼用パラメータPlおよび右眼用パラメータPrを基に奥行き感ガイドの画素値を算出し、画像データD’の画素データを上書きすることにより、実現しても良いし、また、左眼用パラメータPlおよび右眼用パラメータPrを基に、画像データD’の対応する画素データの値を変更させても良い。
次に、ステップS132では、立体表示画像変換部12Bは、画像表示部1Fが対応する立体画像の形式を画像表示部1Fから取得し、取得した形式と、立体画像形式送出部3Dが出力した形式情報Tが示す形式とを比較する。この比較の結果、これらの形式が同一であったときは(S132−Y)、立体表示画像変換部12Bは、立体表示画像合成部12Aが合成した画像データを、そのまま画像表示部1Fに送る(S133)。一方、ステップS132の比較の結果、これらの形式が同一でないときは、立体表示画像合成部12Aが合成した画像データの形式を、画像表示部1Fが対応する立体画像の形式に変換し、画像表示部1Fに送る(S134)。
以上のように画像表示部1Fが対応する立体画像の形式を、画像表示部1Fから取得することにより、たとえば、画像出力デバイス(画像表示部1F)が交換されるなど、画像表示部1Fの対応する形式が変わってしまった場合でも、立体表示画像生成部1Eまでの構成を変えることなく、奥行き感ガイドを合成した立体画像を生成し、表示させることができる。
2眼式立体画像表示方式においては、調節(眼のピント位置)と輻輳(左右視線の交差位置)の不一致により、立体空間再現において歪みが生じる(実空間に存在した場合と同様に知覚されえない)。すなわち、厳密に奥行き感が知覚できていない。しかし、上述のように、奥行き感ガイドを、画像表示スクリーン面上あるいはその近傍に知覚されるように表示すると、調節位置=輻輳位置となり、奥行き感に空間的な歪みが生じない位置となる。このため、奥行き感ガイドについては、実空間における奥行きを正確に知覚することができる。したがって、この奥行き感ガイドを基準にして、立体画像中の物体の前後方向の位置を把握することができる。すなわち、本実施形態の立体画像処理装置10は、立体画像中の物体の前後方向の位置を、視聴者が把握し易い立体画像を生成することができる。
また、図20のように、奥行き感ガイドを移動させることで、立体画像中の主要被写体に常に重なってしまい、主要被写体を見難くなることを防ぐことができる。
[第2の実施形態]
第2の実施形態では、両眼視野闘争が起こらないように、奥行き感ガイドを表示する。なお、両眼視野闘争とは、左右眼に提示される刺激(輝度、色、大きさなど)が異なる場合、知覚される像が左右眼で継時的に入れ替わる現象である。図24から図26は、両眼視野闘争を説明する画像例を示す図である。ここでは、平行法によって立体視した場合において説明する。
図24の左眼用画像G22L、右眼用画像G22Rを立体視すると、網掛けされた円形は表示面より奥に知覚され、白い縦棒は表示面上に知覚され、白い円形は表示面より手前に知覚される。このため、白い縦棒が、網掛けされた円形の上に重ねて描画されていても、正常に(違和感なく)立体視を行うことができる。図25の左眼用画像G23L、右眼用画像G23Rを立体視すると、図24と同様に、網掛けされた円形は表示面より奥に知覚され、白い縦棒は表示面上に知覚され、白い円形は表示面より手前に知覚される。しかし、図25では、白い縦棒が、それよりも手前に知覚される白い円形の上に重ねて描画されているため、正常に立体視を行うことができず、ちらつきが感じられる。これが、両眼視野闘争である。一方、図26では、白い縦棒は、それよりも手前に知覚される白い円形と重なる部分については、描画されていないため、図26の左眼用画像G24L、右眼用画像G24Rを立体視すると、正常に(違和感なく)立体視を行うことができる。
本実施の形態では、表示する立体画像に対する奥行きデータを取得し、奥行き感ガイドより手前(すなわち、表示スクリーンより手前)にある被写体上には、図26の白い縦棒のように奥行き感ガイドを表示しない、もしくは半透明に表示することで、両眼視野闘争が起こらないように、奥行き感ガイドを表示する。
図27は、本実施形態における立体画像処理装置11の構成を示す概略ブロック図である。同図において、図1の各部に対応する部分については、同一の符号(1A、1B、1D、1F)を付し、説明を省略する。立体画像処理装置11は、立体画像入力部1A、奥行き感ガイド生成部1B、メタデータ入力部11C、ユーザ入力部1D、立体表示画像生成部11E、画像表示部1Fを含んで構成される。
メタデータ入力部11Cは、図1におけるメタデータ入力部1Cと同様に外部から種々のメタデータの入力を受け付けるが、これら受け付けたメタデータのうち、立体画像入力部1Aが受け付けた立体画像の画像データに対応する奥行きデータPを、立体表示画像生成部11Eに出力する点がメタデータ入力部1Cと異なる。立体表示画像生成部11Eは、図1における立体表示画像生成部1Eと同様に、奥行き感ガイドを合成した、立体画像の表示用信号を生成するが、奥行き感ガイドを合成する際に、メタデータ入力部1Cが出力した奥行きデータPを用いて、奥行き感ガイドより手前(すなわち、表示スクリーンより手前)にある被写体上に奥行き感ガイドを表示しないように、もしくは奥行き感ガイドが半透明になるようにする点が立体表示画像生成部1Eと異なる。
図28は、立体表示画像生成部11Eの構成を示す概略ブロック図である。同図において、図22の各部に対応する部分については、同一の符号(12B、1F)を付し、説明を省略する。立体表示画像生成部11Eは、立体表示画像合成部17A、立体表示画像変換部12Bを含んで構成される。立体表示画像合成部17Aは、奥行きデータPと、左眼用パラメータPlと、右眼用パラメータPrとを用いて、立体画像の画像データD’に、奥行き感ガイドを合成する。
図29は、立体表示画像生成部11Eの動作を説明するフローチャートである。まず、ステップS181では、立体表示画像合成部17Aは、奥行き感ガイドの左眼用パラメータPlおよび右眼用パラメータPrを取得し、これらを基に奥行き感ガイドの画像データを生成する。次に、ステップS182では、立体表示画像合成部17Aは、ステップS181で生成した奥行き感ガイドを、奥行きデータPを基に調整する。
具体的には、たとえば、奥行き感ガイドのうち、奥行きデータPから前景部分に該当する部分の透明度を100%に変更することで、立体画像の前景部分には奥行き感ガイドを表示しないようにする。もしくは、奥行きデータPの値から被写体が手前にあるほど、透明度が大きくなるように変化させるようにしても良いし、また、画像表示スクリーンより手前にある前景部分は透明度70%、画像表示スクリーンより後ろにある背景部分は透明度30%というように、前景部分と背景部分とで透明度などの合成パラメータの値が異なるようにしても良い。
なお、奥行きデータPが視差情報であれば、視差の値が正であるか、負であるかに基づき、被写体が画像表示スクリーンより、前にあるのか、後ろにあるのかを判定することができる。
次に、ステップS183では、立体表示画像合成部17Aは、画像データD’に、ステップS182において調整された奥行き感ガイドを合成する。以降のステップS132からステップS134は、図23におけるステップS132からステップS134と同一であるので、説明を省略する。
図30は、前景部分の透明度を100%とした奥行き感ガイドの例を示す図である。左眼用画像中の奥行き感ガイドG28L、右眼用画像中の奥行き感ガイドG28Rともに、前景である人物と重なった部分は、透明度100%としているため、奥行き感ガイドではなく人物を表示している。また、後景である山と重なった部分は、ここでは透明度を0%としているため、山ではなく奥行き感ガイドを表示している。
図31は、前景部分と後景部分とで透明度を異なるようにした奥行き感ガイドの例を示す図である。左眼用画像中の奥行き感ガイドG29L、右眼用画像中の奥行き感ガイドG29Rともに、前景である人物と重なった部分は、透明度50%としているため、奥行き感ガイドと人物とを表示している。また、後景である山と重なった部分は、ここでは透明度を0%としているため、山ではなく奥行き感ガイドを表示している。
図32は、前景部分における奥行き感ガイドの透明度を100%とした奥行き感ガイドの変形例を示す図である。前景部分における透明度を100%とすると、図32の画像G30aのように、前景部分の面積が奥行き感ガイドに対して大きくなり、奥行き感ガイドの表示される部分が少なくなってしまうことがある。このようなことを防ぐために、表示される部分の画素数が、奥行き感ガイドの画素数に占める割合が、予め設定された閾値より小さくなったときには、立体表示画像合成部17Aが、奥行き感ガイドのパラメータである表示基準座標の値を変更するようにしてもよい。この変更により、図32の画像G30bのように、前景部分の面積が奥行き感ガイドに対して占める割合が、閾値より小さくなる位置まで移動させることができる。
以上においては、主に透明度を変化させる例で説明したが、この限りではなく、たとえば色パラメータを変更させても良いし、前景部分の画素値のみ反転(ネガモード)させても良く、さらに奥行き感ガイドの表示位置を変更するようにしてもよい。
[第2の実施形態の変形例]
たとえば、基準位置とサイズを組み合わせて変更させる変形例を説明する。図33は、本変形例における立体画像処理装置11’の構成を示す概略ブロック図である。図33において、図27の各部に対応する部分には同一の符号(1A、1B、1D、1F)を付け、その説明を省略する。立体画像処理装置11’は、立体画像入力部1A、奥行き感ガイド生成部1B、メタデータ入力部11C’、ユーザ入力部1D、立体表示画像生成部11E’、画像表示部1Fを含んで構成される。
メタデータ入力部11C’は、受け付けたメタデータのうち、奥行きデータPに加えて、後述する視聴距離Lを、立体表示画像生成部11E’に出力する点が図27のメタデータ入力部11Cとは異なる。メタデータ入力部11C’は、赤外線照射型などの測距センサを備え、該測距センサにより、立体画像処理装置11’から視聴者までの距離を検出し、これを視聴距離Lとする。立体表示画像生成部11E’は、奥行きデータPなどに加えて、視聴距離Lを用いて、画像データD’の立体画像に、奥行き感ガイドを合成する点が図27の立体表示画像生成部11Eとは異なる。
図34は、立体表示画像生成部11E’の構成を示す概略ブロック図である。図34において、図28の各部に対応する部分には同一の符号(12B、1F)を付け、その説明を省略する。立体表示画像生成部11E’は、立体表示画像合成部17A’、立体表示画像変換部12Bを含んで構成される。立体表示画像合成部17A’は、奥行きデータPなどに加えて視聴距離Lを用いて、奥行き感ガイドを、画像データD’の立体画像に合成する。
図35は、立体表示画像合成部17A’が合成した立体画像の例を示す図である。図35の左眼用画像G33Lにおいては、奥行き感ガイドは、前景である人物と重なる部分については、横幅が小さくなり、その右端側の一部のみが表示されている。一方、右眼用画像G33Rにおいては、奥行き感ガイドは、前景である人物と重なる部分については、横幅が小さくなり、その左端側の一部のみが表示されている。ここで、一部のみが表示されている部分の横幅S’については、該当部分の視差がαで、奥行き感ガイドパラメータの項目「表示サイズ」がSであるとき、立体表示画像合成部17A’は、以下の式を用いて算出する。
S’=S(1−α/2S)
これは、図36に示すように、左右眼の奥行き感ガイドに関する共通視野と前景物体Fの重なる部分G’にのみガイドを合成するようにした例である。なお、図36において、符号Sは、画像表示スクリーン、符号Gは奥行き感ガイド、符号Fは前景物体(人物)、符号Elは左眼の視点、符号Erは右眼の視点、符号Lは画像表示スクリーンSから視聴者までの距離、すなわち上述の視聴距離である。このように表示すると、前景物体Fのうち、共通視野G’の部分に穴が開いていて、前景物体Fの後ろにある奥行き感ガイドGが見えているように、視聴者には知覚される。
なお、メタデータ入力部11C’が視聴距離Lを取得できないとき、あるいは、メタデータ入力部11C’が視聴距離Lを取得できない構成の場合、標準視距離値を視聴距離Lとしてもよい。標準視距離値は、たとえば、FullHD画像(幅1920×高さ1080画素の画像)においては、3H(画面高の3倍)が一般的である。なお、画面高と標準視距離との関係は、画像の垂直画素数に依存する。
また、本実施の形態においても、図20と同様に、フレーム毎に奥行き感ガイドの表示位置を変えるようにしても良い。
また、上述の第2の実施形態およびその変形例では、奥行きデータPをメタデータとして取得する例を示したが、入力される立体画像に対して、ブロックマッチング法などで、視差を求めて、これを奥行きデータPとして用いるようにしてもよい。図37は、視差を求めて、これを奥行きデータPとする場合の立体画像入力部の変形例である立体画像入力部1A’の構成を示す概略ブロック図である。図37に示すように、立体画像入力部1A’は、立体画像入力1Aとは、奥行きデータ生成部16Aを有する点が異なる。奥行きデータ生成部16Aは、立体画像判断部3Aが出力した立体画像の画像データおよび立体画像形式の情報を基に奥行きデータPを算出する。なお、算出する奥行きデータPは、画像表示スクリーン面よりも手前であるか、もしくは奥であるかを判断できるものであればよく、上述のブロックマッチング法に限定されない。
このように、第2の実施形態およびその変形例では、前景と重なる部分と、背景と重なる部分との間で、奥行き感ガイドの表示パラメータを変更しているので、画像中の奥行き感がより得やすい。たとえば、前景と重なる部分の透明度を100%にすることで、視野闘争が発生しないようにすることができる。また、100%ではなくても、前景と重なる部分を、背景と重なる部分よりも透明度を大きくし、例えば、50%などの半透明にしたときも、視野闘争を軽減することができる。画像表示部1Fから表示される画像が立体画像ではなく平面画像として表示する場合にも、奥行き感ガイドによって、画像中の奥行き感を間接的に知ることができる。
第1の実施形態および第2の実施形態においては、立体画像の形式として2視点のステレオ画像を例として説明した。しかしながら、本発明はそれに限定されず、たとえば多視点の立体画像にも適用できる。
図38は、3視点の立体画像の例を示す図である。G36Lは左画像、G36Cは中央画像、G36Rは右画像である。
ここで、3視点以上の多視点立体画像を取り扱う場合において、入力される立体画像の視点数と出力される立体画像の視点数が同一である場合、第1の実施形態および第2の実施形態に示した構成および処理フローが変わることはなく、立体画像形式の一種として処理を行うことができる。
以降では、特異な例として、入力される立体画像の視点数と出力される立体画像の視点数が異なる場合について説明する。
第3および第4の実施形態では、入力される立体画像の視点数よりも、出力される立体画像の視点数が多い場合の例として、入力される立体画像が2視点、出力される立体画像が3視点である場合について説明する。
入力よりも出力の視点数が多い場合の形態としては、2パターン考えられる。第1のパターンは、2視点の立体画像データおよび奥行きデータから新たに3視点目の画像を生成するパターンである。第2のパターンは、2視点の立体画像データのいずれか一方を、3視点目の画像として選択するパターンである。
[第3の実施形態]
上述の第1のパターンの実施形態である第3の実施形態を説明する。本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部13Aを有する点が異なる。図39は、立体画像入力部13Aの構成を示す概略ブロック図である。同図において、図37の各部に対応する部分については、同一の符号(3A、3C〜3E、16A)を付け、説明を省略する。立体画像入力部13Aは、立体画像判断部3A、立体画像形式変換部33B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、奥行きデータ生成部16Aを含んで構成される。
立体画像形式変換部33Bは、立体画像判断部3Aが出力した2視点の立体画像の画像データと、奥行きデータ生成部16Aが生成した奥行きデータPとを用いて、3視点目(例えば、図38の中央画像G36Cに該当)の画像データを生成する。また、立体画像形式変換部33Bは、立体画像判断部3Aが出力した画像データと、生成した3視点目の画像データとを合わせて、既定の形式の立体画像の画像データD’に変換する。
なお、図33に示す立体画像処理装置11’と同様に、奥行きデータPをメタデータ入力部11C’が取得し、立体画像形式変換部33Bは、この奥行きデータPを用いて3視点目の画像データを生成するようにしてもよい。
図40は、立体画像形式変換部33Bの動作を説明するフローチャートである。まず、ステップS281では、立体画像形式変換部33Bは、奥行きデータ生成部16Aが生成した奥行きデータを受け取る。次に、ステップS282では、立体画像形式変換部33Bは、奥行きデータPと、立体画像判断部3Aから得られる立体画像の画像データDから、3視点目の画像を新たに生成する。
このように、入力された立体画像が2視点であっても、奥行きデータを用いて、3視点以上の立体画像に変換し、3視点以上の立体画像においても、第1や第2の実施形態と同様に奥行き感ガイドを合成して、立体画像中の物体の前後方向の位置を、視聴者が把握し易い立体画像を生成することができる。
[第4の実施形態]
上述の第2のパターンの実施形態である第4の実施形態を説明する。本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部14Aを有し、メタデータ入力部1Cに変えて、メタデータ入力部14Cを有する点が異なる。図41は、立体画像入力部14Aの構成およびメタデータ入力部14Cとの関係を示す概略ブロック図である。同図において、図5の各部に対応する部分については、同一の符号(3A、3C〜3E)を付け、説明を省略する。立体画像入力部14Aは、立体画像判断部3A、立体画像形式変換部43B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、LUT(Look Up Table)44Aを含んで構成される。
メタデータ入力部14Cは、図1のメタデータ入力部1Cとは、受け付けたメタデータのうち、視点モードMを立体画像形式変換部43Bに出力する点が異なる。LUT44Aは、視点モードと、該視点モードにおける画像の構成との対応付けを、予め記憶している。立体画像形式変換部43Bは、メタデータ入力部14Cが出力した視点モードMと対応付けて、LUT44Aが記憶している画像の構成に従い、立体画像判断部3Aが出力した画像データを、該視点モードの立体画像の画像データに変換する。
図42は、LUT44Aが記憶している視点モードと画像の構成との対応付けの例を示す図である。この例は、立体画像形式変換部43Bは、2視点から3視点に変換する場合の例である。図42に示す例では、視点モードが「モード1」のときは、1視点目は、入力された立体画像の左画像(L)、2視点目も、左画像、3視点目は、右画像(R)である。同様に、視点モードが「モード2」のときは、1視点目は、左画像、2視点目は、右画像、3視点目は、右画像である。視点モードが「モードL」のときは、1視点目から3視点目まで、全て左画像である。視点モードが「モードR」のときは、1視点目から3視点目まで、全て右画像である。
図43は、LUT44Aが記憶している視点モードと画像の構成との対応付けの別の例を示す図である。この例は、立体画像形式変換部43Bが2視点から4視点に変換する場合の例である。図43に示す例では、視点モードが「モード1」のときは、1視点目は、入力された立体画像の左画像、2視点目および3視点目も、左画像、4視点目は、右画像である。同様に、視点モードが「モード2」のときは、1視点目および2視点目は、左画像、3視点目および4視点目は、右画像である。視点モードが「モード3」のときは、1視点目は、左画像、2視点目から4視点目は、右画像である。視点モードが「モードL」のときは、1視点目から4視点目まで、全て左画像である。視点モードが「モードR」のときは、1視点目から4視点目まで、全て右画像である。
図44は、立体画像形式変換部43Bの動作を説明するフローチャートである。まず、ステップS311では、立体画像形式変換部43Bは、メタデータ入力部14Cから視点モードMを受け取る。ステップS312では、立体画像形式変換部3Bは、視点モードMに基き、左画像もしくは右画像を複製し、3視点目の画像として登録する。
なお、本実施形態において、視点モードMは、メタデータ入力部14Cが取得するとして説明したが、ユーザが指定し、これをユーザ入力部1Dが検出するようにしてもよい。
このように、入力された立体画像が2視点であっても、視点モードを用いて、3視点以上の立体画像に変換し、3視点以上の立体画像においても、第1や第2の実施形態と同様に奥行き感ガイドを合成して、立体画像中の物体の前後方向の位置を、視聴者が把握し易い立体画像を生成することができる。
[第5の実施形態]
第3および第4の実施形態では、入力される立体画像の視点数が少なく、出力される立体画像の視点数が多い場合の例として、入力される立体画像が2視点、出力される立体画像が3視点である場合について説明した。第5の実施形態では、入力される立体画像の視点数よりも、出力する立体画像の視点数が少ない場合の例として、入力される立体画像が3視点、出力する立体画像が2視点である場合について説明する。
本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部15Aを有し、メタデータ入力部1Cに変えて、メタデータ入力部15Cを有する点が異なる。図45は、立体画像入力部15Aの構成およびメタデータ入力部15Cとの関係を示す概略ブロック図である。同図において、図5の各部に対応する部分については、同一の符号(3A、3C〜3E)を付け、説明を省略する。立体画像入力部15Aは、立体画像判断部3A、立体画像形式変換部53B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、LUT54Aを含んで構成される。
メタデータ入力部15Cは、図1のメタデータ入力部1Cとは、受け付けたメタデータのうち、視点優先度Epを立体画像形式変換部53Bに出力する点が異なる。LUT54Aは、視点優先度Epと、該視点優先度Epにおける画像の構成との対応付けを、予め記憶している。立体画像形式変換部53Bは、メタデータ入力部15Cが出力した視点優先度Epと対応付けて、LUT54Aが記憶している画像の構成に従い、立体画像判断部3Aが出力した画像データを、該視点優先度Epの立体画像の画像データに変換する。
図46は、LUT54Aが記憶する視点優先度と画像の構成との対応付けの例を示す図である。図46に示す例では、視点モードが「モード1」のときは、1視点目は、入力された立体画像の左画像(L)、2視点目は、右画像(R)である。同様に、視点モードが「モード2」のときは、1視点目は、左画像、2視点目は、中央画像(C)である。視点モードが「モード3」のときは、1視点目は、中央画像、2視点目は、右画像である。視点モードが「モードL」のときは、1視点目も2視点目も左画像である。視点モードが「モードR」のときは、1視点目も2視点目も右画像である。視点モードが「モードC」のときは、1視点目も2視点目も中央画像である。
図47は、立体画像形式変換部53Bの動作を説明するフローチャートである。まず、ステップS351では、立体画像形式変換部53Bは、視点優先度Epを受け取る。次に、ステップS352では、立体画像形式変換部53Bは、視点優先度Epを基に、3視点の立体画像から既定の2視点の立体画像形式に変換する。
[第6の実施形態]
第6の実施形態では、入力される立体画像の視点数よりも、出力する立体画像の視点数が少ない場合の例として、入力される立体画像が3視点、出力する立体画像が2視点である場合の第5の実施形態とはべつの例について説明する。
本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部16Aを有し、メタデータ入力部1Cに変えて、メタデータ入力部16Cを有する点が異なる。図48は、立体画像入力部16Aの構成およびメタデータ入力部16Cとの関係を示す概略ブロック図である。同図において、図45の各部に対応する部分については、同一の符号(3A、3C〜3E、53B、54A)を付け、説明を省略する。立体画像入力部15Aは、立体画像判断部3A、立体画像形式変換部53B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、LUT54A、視聴優先度決定部64Aを含んで構成される。
メタデータ入力部16Cは、図1のメタデータ入力部1Cとは、受け付けたメタデータのうち、視聴位置Wpを視聴優先度決定部64Aに出力する点が異なる。メタデータ入力部16Cは、例えば、人感センサを備え、画像表示スクリーンに向かって、視聴者が右寄りにいるか、左寄りにいるかを検出し、検出結果を視聴位置Wpとして出力する。視聴優先度決定部64Aは、メタデータ入力部16Cが出力した視聴位置Wpに応じて、視聴優先度Epを決定し、立体画像形式変換部53Bに出力する。例えば、視聴優先度決定部64Aは、メタデータ入力部16Cが出力した視聴位置Wpが左寄りであるときは、視聴優先度Epを「モード2」とし、視聴位置Wpが右寄りであるときは、視聴優先度Epを「モード3」とする。これにより、視聴者が、画像表示スクリーンに向かって左側にいるときは、左画像と中央画像とが表示され、右側にいるときは、中央画像と右画像とが表示される。すなわち、視聴者の位置に応じた方向から見た画像が表示される。
図49は、視聴優先度決定部64Aおよび立体画像形式変換部53Bの動作を説明するフローチャートである。まず、ステップS381において、視聴優先度決定部64Aは、メタデータ入力部16Cからメタデータとして視聴位置Wpを受け取る。
ステップS382において、視聴位置データ取得部37Aは、取得した視聴位置データを基に、図46のモードを選択し、視点優先度データを立体画像形式変換部3Bに送る。
ステップS383において、立体画像形式変換部3Bは、視聴位置データ取得部37Aから取得した視点優先度データを基に、3視点の立体画像から既定の2視点の立体画像形式に変換する。
また、各実施形態の立体画像処理装置の機能あるいはその機能の一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより立体画像の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
10、11、11’…立体画像処理装置
1A、1A’、13A、14A、15A…立体画像入力部
1B…奥行き感ガイド生成部
1C、11C、11C’、14C、15C、16C…メタデータ入力部
1D…ユーザ入力部
1E、11E、11E’…立体表示画像生成部
1F…画像表示部
3A…立体画像判断部
3B、33B、43B、53B…立体画像形式変換部
3C…立体画像データ送出部
3D…立体画像形式送出部
3E…既定形式記憶部
5A…立体画像形式判断部
5B…奥行き感ガイドパラメータ調整部
5C…メタデータ入力判断部
5D…ユーザ入力判断部
5E…パラメータ更新優先度判断部
5F…奥行き感ガイドパラメータ保持メモリ
12A、17A、17A’…立体表示画像合成部
12B…立体表示画像変換部
16A…奥行きデータ生成部
44A、54A…LUT
64A…視聴優先度決定部

Claims (11)

  1. 立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成すし、
    前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
    を特徴とする立体画像処理装置。
  2. 前記案内画像は、前記表示部の画像表示スクリーン面上あるいは該画像表示スクリーンと平行かつ該画像表示スクリーン面近傍の平面上に知覚される画像であることを特徴とする請求項1に記載の立体画像処理装置。
  3. 前記案内画像が、前記立体画像を構成するいずれかの視点からの画像の一部分であることを特徴とする請求項2に記載の立体画像処理装置。
  4. 前記立体画像の奥行きデータに基づき、前記案内画像を前記立体画像に重ねた画像を生成することを特徴とする請求項2に記載の立体画像処理装置。
  5. 前記案内画像を前記立体画像に重ねる際の合成パラメータを、前記案内画像と前記立体画像が重なる部分が、前記画像表示スクリーンよりも手前に知覚される被写体の部分である前景部分であるか、前記画像表示スクリーンよりも後ろに知覚される被写体の部分である背景部分であるかにより、異なる値とすることを特徴とする請求項4に記載の立体画像処理装置。
  6. 前記合成パラメータは、前記案内画像の透明度であり、前記前景部分における透明度を、前記背景部分における透明度よりも大きくすることを特徴とする請求項5に記載の立体画像処理装置。
  7. 前記前景部分における透明度が100%であることを特徴とする請求項6に記載の立体画像処理装置。
  8. 前記合成パラメータは、前記案内画像の横幅であり、前記前景部分における横幅を、前記背景部分における横幅よりも小さくすることを特徴とする請求項5に記載の立体画像処理装置。
  9. 前記案内画像の表示位置を、フレーム毎に変更することを特徴とする請求項1から請求項8のいずれかの項に記載の立体画像処理装置。
  10. 立体画像を処理する立体画像処理方法において、
    立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程
    を有し、
    前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
    を特徴とする立体画像処理方法。
  11. 立体画像を処理する立体画像処理装置のコンピュータに、
    立体画像を取得する過程と、
    前記立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程
    を実行させるプログラムであって、
    前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
    を特徴とするプログラム
JP2011006261A 2011-01-14 2011-01-14 立体画像処理装置、立体画像処理方法およびプログラム Expired - Fee Related JP5036088B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011006261A JP5036088B2 (ja) 2011-01-14 2011-01-14 立体画像処理装置、立体画像処理方法およびプログラム
CN201280005407.2A CN103314597B (zh) 2011-01-14 2012-01-12 立体图像处理装置、立体图像处理方法以及程序
PCT/JP2012/050438 WO2012096332A1 (ja) 2011-01-14 2012-01-12 立体画像処理装置、立体画像処理方法およびプログラム
US13/979,345 US20130293687A1 (en) 2011-01-14 2012-01-12 Stereoscopic image processing apparatus, stereoscopic image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011006261A JP5036088B2 (ja) 2011-01-14 2011-01-14 立体画像処理装置、立体画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012147399A JP2012147399A (ja) 2012-08-02
JP5036088B2 true JP5036088B2 (ja) 2012-09-26

Family

ID=46507224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011006261A Expired - Fee Related JP5036088B2 (ja) 2011-01-14 2011-01-14 立体画像処理装置、立体画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US20130293687A1 (ja)
JP (1) JP5036088B2 (ja)
CN (1) CN103314597B (ja)
WO (1) WO2012096332A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160165207A1 (en) * 2014-12-03 2016-06-09 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
KR102523997B1 (ko) * 2016-02-12 2023-04-21 삼성전자주식회사 360도 영상 처리 방법 및 장치
CN109814970B (zh) * 2019-01-22 2021-09-10 西安电子科技大学 一种基于OpenGL-ES的动态进度条绘制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP3795025B2 (ja) * 2003-03-05 2006-07-12 株式会社ソフィア 遊技機
RU2407224C2 (ru) * 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
JP2009246883A (ja) * 2008-03-31 2009-10-22 Toshiba Corp 3d表示装置、3d表示方法及び3d表示プログラム
JP4963124B2 (ja) * 2009-03-02 2012-06-27 シャープ株式会社 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
JP4903240B2 (ja) * 2009-03-31 2012-03-28 シャープ株式会社 映像処理装置、映像処理方法及びコンピュータプログラム

Also Published As

Publication number Publication date
WO2012096332A1 (ja) 2012-07-19
CN103314597A (zh) 2013-09-18
US20130293687A1 (en) 2013-11-07
JP2012147399A (ja) 2012-08-02
CN103314597B (zh) 2016-11-09

Similar Documents

Publication Publication Date Title
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
US9414041B2 (en) Method for changing play mode, method for changing display mode, and display apparatus and 3D image providing system using the same
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
JP5059922B2 (ja) 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体
US20150350626A1 (en) Method for providing three-dimensional (3d) image, method for converting 3d message, graphical user interface (gui) providing method related to 3d image, and 3d display apparatus and system for providing 3d image
US20120169730A1 (en) 3d image display device and 3d image display method
US20110126160A1 (en) Method of providing 3d image and 3d display apparatus using the same
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
US20120075291A1 (en) Display apparatus and method for processing image applied to the same
JP5036088B2 (ja) 立体画像処理装置、立体画像処理方法およびプログラム
JP2014011804A (ja) ディスプレイ装置及びその制御方法
KR101648864B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치 및 3d 영상 제공 시스템
JP6089383B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2005175538A (ja) 立体映像表示装置及び映像表示方法
JP2005175539A (ja) 立体映像表示装置及び映像表示方法
US9253477B2 (en) Display apparatus and method for processing image thereof
US9154766B2 (en) Method for outputting three-dimensional (3D) image at increased output frequency and display apparatus thereof
KR20110062983A (ko) 3d 영상의 입체감 조절 요소를 설정하는 gui를 표시하는 디스플레이 장치 및 이에 적용되는 gui 제공 방법
US9547933B2 (en) Display apparatus and display method thereof
JP2014175813A (ja) 立体映像表示方法および装置
JP2012230478A (ja) 画像処理装置、画像処理方法およびプログラム
KR20130079044A (ko) 디스플레이 장치 및 그 제어 방법
JP5501150B2 (ja) 表示装置及びその制御方法
KR20110056773A (ko) Gui 제공방법 및 이를 이용한 디스플레이 장치와 3d 영상 제공 시스템
JP2012244433A (ja) 映像提示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5036088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees