JP5036088B2 - 立体画像処理装置、立体画像処理方法およびプログラム - Google Patents
立体画像処理装置、立体画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP5036088B2 JP5036088B2 JP2011006261A JP2011006261A JP5036088B2 JP 5036088 B2 JP5036088 B2 JP 5036088B2 JP 2011006261 A JP2011006261 A JP 2011006261A JP 2011006261 A JP2011006261 A JP 2011006261A JP 5036088 B2 JP5036088 B2 JP 5036088B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stereoscopic image
- stereoscopic
- guide
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
Description
この両眼視差の仕組みを利用したシステムの例として、立体画像表示システムがあげられる。立体画像表示システムにおいては、左右それぞれに対応した画像をそれぞれの眼に(のみ)提示することにより立体視を実現する(奥行きを表現する)。
このとき、3次元的な空間情報は2次元である左右画像に投影(され、空間的に圧縮)されている。そのため、物体の空間的(3次元的)な位置に応じて、2次元に投影された左右それぞれの画像上にずれが生じる。これが視差量となる。逆にとらえれば、視差量が異なることは3次元(的な)位置が異なることと符合する。
故に、左右の画像間の視差量を調整することによって、画像上に投影された物体の空間的な位置を仮想的に調整することができるため、結果として、奥行き感を操作することができる。
1)ユーザ操作により、立体映像の表示位置を前後に調整する際に、ディスプレイ(映像表示領域)の上下左右端に前後方向へ延在するように並べた複数の矩形片のうち、立体映像と前後方向の位置が一致する矩形片が他の矩形片とは色が異なるように制御するか、もしくは立体映像の奥行き幅に対応する矩形片が他の矩形片とは色が異なるように制御し、それによって調整操作を容易にする。
2)ディスプレイ(映像表示領域)の上下左右端に前後方向へ、線状のピッチ片を並べるとともに、立体映像の位置と一致する上下左右のピッチ片の間には半透明の仮想スクリーンが表示される、立体映像の表示位置の前後調整に伴って仮想スクリーンも前後に移動し、調整が終われば、ピッチ片および仮想スクリーンは消去される。
3)リモコンインタフェースからの制御信号に応じて参照用画像の出力または停止を制御する。
以下、図面を参照して、本発明の第1の実施の形態について説明する。図1は、本実施形態における立体画像処理装置10の構成を示す概略ブロック図である。立体画像処理装置10は、例えば、立体画像を表示するテレビジョン受像機、デジタルカメラ、映写機、携帯電話、電子フォトフレームなどである。立体画像処理装置10は、立体画像入力部1A、奥行き感ガイド生成部1B、メタデータ入力部1C、ユーザ入力部1D、立体表示画像生成部1E、画像表示部1Fを含んで構成される。
立体画像入力部1Aは、外部からの立体画像の画像データの入力を受け付ける。立体画像入力部1Aは、受け付けた立体画像の画像データD’を立体表示画像生成部1Eに出力する。立体画像入力部1Aは、受け付けた画像データの形式を示す形式情報Tを奥行き感ガイド生成部1Bおよび立体表示画像生成部1Eに出力する。
奥行き感ガイド生成部1Bは、立体画像に合成するための奥行き感ガイド(案内画像)のパラメータである左眼用パラメータPlと右眼用パラメータPrとを生成する。奥行き感ガイド生成部1Bおよび奥行き感ガイドの詳細については、後述する。
メタデータ入力部1Cは、受け付けたメタデータのうち、奥行き感ガイドのパラメータ情報を奥行き感ガイド生成部1B内のメタデータ入力判断部5C(後述)に出力する。
画像表示部1Fは、立体表示画像生成部1Eが生成した立体画像の表示用信号を受け取り、該信号に基づき、画像表示部1Fが備える画像表示スクリーン面に立体表示画像を表示する。なお、この画像表示スクリーンは、左眼用の画像と、右眼用の画像とを液晶ディスプレイやプラズマディスプレイなどに交互に表示し、この表示に同期させて、視聴者が掛けている液晶シャッター付メガネの液晶シャッターを動作させるものであってもよいし、視差バリア方式やレンチキュラ方式などの裸眼立体視可能な液晶ディスプレイであってもよい。
ステップS23では、立体画像形式変換部3Bが、受け付けた画像データDを既定の形式の画像データD’に変換する。さらに、立体画像データ送出部3Cは、変換された画像データD’を立体表示画像生成部1Eに出力し、ステップS25に移る。
ステップS25では、立体画像形式変換部3Bは、ステップS23もしくはステップS24において出力した画像データD’の形式を示す形式情報Tを、立体画像形式送出部3Dに出力する。立体画像形式送出部3Dは、立体画像形式変換部3Bが出力した形式情報Tを、奥行き感ガイド生成部1Bおよび立体画像生成部1Eに出力する。
なお、画像表示スクリーン面からの距離が0(ステレオ画像においては視差0となる)、すなわち、奥行き感ガイドと画像表示スクリーン面の視聴者からの距離が、実空間において同一距離にあることが望ましい。
しかしながら、本発明においては、視聴者から奥行き感ガイドまでの距離と、視聴者から画像表示スクリーン面までの距離が、実空間においてほぼ同一である、すなわち奥行き感ガイドが画像表示スクリーン面上にあると視聴者が知覚できればよいのであって、必ずしも物理的に0でなくても良い。
なお、ここで前景とは、画像表示スクリーン面Sよりも手前側に知覚されるように表示された被写体の画像を指し、背景とは、画像表示スクリーン面Sよりも奥の方に知覚されるように表示された被写体の画像を指す。
以降の説明においては、奥行き感ガイドが画像表示スクリーン面からの距離が0(視差が0)に知覚されるように表示する場合について説明する。
奥行き感ガイド生成部1Bは、立体画像形式判断部5A、奥行き感ガイドパラメータ調整部5B、メタデータ入力判断部5C、ユーザ入力判断部5D、パラメータ更新優先度判断部5E、奥行き感ガイドパラメータ保持メモリ5Cを含んで構成される。
R’=PixMax−R
G’=PixMax−G
B’=PixMax−B
ここでPixMaxとは、たとえば、8ビット階調表現できるシステムにおいては255などであり、10ビット階調表現できるシステムにおいては1023などであり、システムに依存する値である。
また、グレーモード表示とは、以下のようにして変換した画素値R’、G’、B’に置き換える表示である。
Y=0.2126×R+0.7152×G+0.0722×B
R’=Y
G’=Y
B’=Y
また、図16、図17において、左眼用画像の一部分を、右眼用画像の同じ位置に表示するとして説明したが、右眼用画像の一部分を、左目眼用画像の同じ位置に表示するようにしてもよい。
また、奥行き感ガイドが表示される面がスクリーン面からの物理的な距離が0であった場合、左眼用画像に対する奥行き感ガイドは同一の画素値となるため、奥行きガイドパラメータ(Pl)の情報量を削減することも可能である。
さらに、ガイド表示変更プログラムにおいてプログラムされた通りに各パラメータの値を画像フレームごとに変更することができる。図20に示す例は、たとえば、表示基準座標をフレーム毎に変更することで、奥行き感ガイドG18a、G18b、G18c、…G18dというように、フレームごと表示位置を横方向に変更させている。これにより、時間経過とともに、奥行き感ガイドがスクリーン面上を横方向に移動しているように、視聴者には知覚される。
x_LEFT_CORRECT = x_LEFT ・・・(1)
x_RIGHT_CORRECT = x_RIGHT ・・・(2)
y_LEFT_CORRECT = y_LEFT/2 ・・・(3)
y_RIGHT_CORRECT = (y_LEFT+Height)/2・・・(4)
このように、トップアンドボトム用調整式(1)、(2)は、表示基準座標を左眼用パラメータと、右眼用パラメータで同一となるようにしている。すなわち、奥行き感ガイドについては、視差が「0」となっているので、奥行き感ガイドは、画像表示スクリーン面上にあると知覚されるように表示される。なお、奥行き感ガイドが画像表示スクリーン面上あるいはその近傍にあると知覚されるように調整されれば良いので、視差が「0」あるいは極小さい値になるように調整されるのであれば、上述以外の調整方法であってもよい。
また、図20のように、奥行き感ガイドを移動させることで、立体画像中の主要被写体に常に重なってしまい、主要被写体を見難くなることを防ぐことができる。
第2の実施形態では、両眼視野闘争が起こらないように、奥行き感ガイドを表示する。なお、両眼視野闘争とは、左右眼に提示される刺激(輝度、色、大きさなど)が異なる場合、知覚される像が左右眼で継時的に入れ替わる現象である。図24から図26は、両眼視野闘争を説明する画像例を示す図である。ここでは、平行法によって立体視した場合において説明する。
なお、奥行きデータPが視差情報であれば、視差の値が正であるか、負であるかに基づき、被写体が画像表示スクリーンより、前にあるのか、後ろにあるのかを判定することができる。
図31は、前景部分と後景部分とで透明度を異なるようにした奥行き感ガイドの例を示す図である。左眼用画像中の奥行き感ガイドG29L、右眼用画像中の奥行き感ガイドG29Rともに、前景である人物と重なった部分は、透明度50%としているため、奥行き感ガイドと人物とを表示している。また、後景である山と重なった部分は、ここでは透明度を0%としているため、山ではなく奥行き感ガイドを表示している。
たとえば、基準位置とサイズを組み合わせて変更させる変形例を説明する。図33は、本変形例における立体画像処理装置11’の構成を示す概略ブロック図である。図33において、図27の各部に対応する部分には同一の符号(1A、1B、1D、1F)を付け、その説明を省略する。立体画像処理装置11’は、立体画像入力部1A、奥行き感ガイド生成部1B、メタデータ入力部11C’、ユーザ入力部1D、立体表示画像生成部11E’、画像表示部1Fを含んで構成される。
メタデータ入力部11C’は、受け付けたメタデータのうち、奥行きデータPに加えて、後述する視聴距離Lを、立体表示画像生成部11E’に出力する点が図27のメタデータ入力部11Cとは異なる。メタデータ入力部11C’は、赤外線照射型などの測距センサを備え、該測距センサにより、立体画像処理装置11’から視聴者までの距離を検出し、これを視聴距離Lとする。立体表示画像生成部11E’は、奥行きデータPなどに加えて、視聴距離Lを用いて、画像データD’の立体画像に、奥行き感ガイドを合成する点が図27の立体表示画像生成部11Eとは異なる。
S’=S(1−α/2S)
また、本実施の形態においても、図20と同様に、フレーム毎に奥行き感ガイドの表示位置を変えるようにしても良い。
ここで、3視点以上の多視点立体画像を取り扱う場合において、入力される立体画像の視点数と出力される立体画像の視点数が同一である場合、第1の実施形態および第2の実施形態に示した構成および処理フローが変わることはなく、立体画像形式の一種として処理を行うことができる。
第3および第4の実施形態では、入力される立体画像の視点数よりも、出力される立体画像の視点数が多い場合の例として、入力される立体画像が2視点、出力される立体画像が3視点である場合について説明する。
上述の第1のパターンの実施形態である第3の実施形態を説明する。本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部13Aを有する点が異なる。図39は、立体画像入力部13Aの構成を示す概略ブロック図である。同図において、図37の各部に対応する部分については、同一の符号(3A、3C〜3E、16A)を付け、説明を省略する。立体画像入力部13Aは、立体画像判断部3A、立体画像形式変換部33B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、奥行きデータ生成部16Aを含んで構成される。
なお、図33に示す立体画像処理装置11’と同様に、奥行きデータPをメタデータ入力部11C’が取得し、立体画像形式変換部33Bは、この奥行きデータPを用いて3視点目の画像データを生成するようにしてもよい。
上述の第2のパターンの実施形態である第4の実施形態を説明する。本実施形態における立体画像処理装置は、図1に示す立体画像処理装置10とは、立体画像入力部1Aに変えて、立体画像入力部14Aを有し、メタデータ入力部1Cに変えて、メタデータ入力部14Cを有する点が異なる。図41は、立体画像入力部14Aの構成およびメタデータ入力部14Cとの関係を示す概略ブロック図である。同図において、図5の各部に対応する部分については、同一の符号(3A、3C〜3E)を付け、説明を省略する。立体画像入力部14Aは、立体画像判断部3A、立体画像形式変換部43B、立体画像データ送出部3C、立体画像形式送出部3D、既定形式記憶部3E、LUT(Look Up Table)44Aを含んで構成される。
なお、本実施形態において、視点モードMは、メタデータ入力部14Cが取得するとして説明したが、ユーザが指定し、これをユーザ入力部1Dが検出するようにしてもよい。
第3および第4の実施形態では、入力される立体画像の視点数が少なく、出力される立体画像の視点数が多い場合の例として、入力される立体画像が2視点、出力される立体画像が3視点である場合について説明した。第5の実施形態では、入力される立体画像の視点数よりも、出力する立体画像の視点数が少ない場合の例として、入力される立体画像が3視点、出力する立体画像が2視点である場合について説明する。
第6の実施形態では、入力される立体画像の視点数よりも、出力する立体画像の視点数が少ない場合の例として、入力される立体画像が3視点、出力する立体画像が2視点である場合の第5の実施形態とはべつの例について説明する。
ステップS382において、視聴位置データ取得部37Aは、取得した視聴位置データを基に、図46のモードを選択し、視点優先度データを立体画像形式変換部3Bに送る。
ステップS383において、立体画像形式変換部3Bは、視聴位置データ取得部37Aから取得した視点優先度データを基に、3視点の立体画像から既定の2視点の立体画像形式に変換する。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1A、1A’、13A、14A、15A…立体画像入力部
1B…奥行き感ガイド生成部
1C、11C、11C’、14C、15C、16C…メタデータ入力部
1D…ユーザ入力部
1E、11E、11E’…立体表示画像生成部
1F…画像表示部
3A…立体画像判断部
3B、33B、43B、53B…立体画像形式変換部
3C…立体画像データ送出部
3D…立体画像形式送出部
3E…既定形式記憶部
5A…立体画像形式判断部
5B…奥行き感ガイドパラメータ調整部
5C…メタデータ入力判断部
5D…ユーザ入力判断部
5E…パラメータ更新優先度判断部
5F…奥行き感ガイドパラメータ保持メモリ
12A、17A、17A’…立体表示画像合成部
12B…立体表示画像変換部
16A…奥行きデータ生成部
44A、54A…LUT
64A…視聴優先度決定部
Claims (11)
- 立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成すし、
前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
を特徴とする立体画像処理装置。 - 前記案内画像は、前記表示部の画像表示スクリーン面上あるいは該画像表示スクリーンと平行かつ該画像表示スクリーン面近傍の平面上に知覚される画像であることを特徴とする請求項1に記載の立体画像処理装置。
- 前記案内画像が、前記立体画像を構成するいずれかの視点からの画像の一部分であることを特徴とする請求項2に記載の立体画像処理装置。
- 前記立体画像の奥行きデータに基づき、前記案内画像を前記立体画像に重ねた画像を生成することを特徴とする請求項2に記載の立体画像処理装置。
- 前記案内画像を前記立体画像に重ねる際の合成パラメータを、前記案内画像と前記立体画像が重なる部分が、前記画像表示スクリーンよりも手前に知覚される被写体の部分である前景部分であるか、前記画像表示スクリーンよりも後ろに知覚される被写体の部分である背景部分であるかにより、異なる値とすることを特徴とする請求項4に記載の立体画像処理装置。
- 前記合成パラメータは、前記案内画像の透明度であり、前記前景部分における透明度を、前記背景部分における透明度よりも大きくすることを特徴とする請求項5に記載の立体画像処理装置。
- 前記前景部分における透明度が100%であることを特徴とする請求項6に記載の立体画像処理装置。
- 前記合成パラメータは、前記案内画像の横幅であり、前記前景部分における横幅を、前記背景部分における横幅よりも小さくすることを特徴とする請求項5に記載の立体画像処理装置。
- 前記案内画像の表示位置を、フレーム毎に変更することを特徴とする請求項1から請求項8のいずれかの項に記載の立体画像処理装置。
- 立体画像を処理する立体画像処理方法において、
立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程
を有し、
前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
を特徴とする立体画像処理方法。 - 立体画像を処理する立体画像処理装置のコンピュータに、
立体画像を取得する過程と、
前記立体画像を表示する表示部の実空間での位置を表す案内画像であって、前記立体画像での奥行きの基準となる案内画像を、前記立体画像に重ねた画像を生成する過程と
を実行させるプログラムであって、
前記重ねた画像は、前記案内画像を、前記立体画像中の予め決められた位置であって、その左右が立体画像に挟まれる位置に重ねた画像であること
を特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011006261A JP5036088B2 (ja) | 2011-01-14 | 2011-01-14 | 立体画像処理装置、立体画像処理方法およびプログラム |
CN201280005407.2A CN103314597B (zh) | 2011-01-14 | 2012-01-12 | 立体图像处理装置、立体图像处理方法以及程序 |
PCT/JP2012/050438 WO2012096332A1 (ja) | 2011-01-14 | 2012-01-12 | 立体画像処理装置、立体画像処理方法およびプログラム |
US13/979,345 US20130293687A1 (en) | 2011-01-14 | 2012-01-12 | Stereoscopic image processing apparatus, stereoscopic image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011006261A JP5036088B2 (ja) | 2011-01-14 | 2011-01-14 | 立体画像処理装置、立体画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012147399A JP2012147399A (ja) | 2012-08-02 |
JP5036088B2 true JP5036088B2 (ja) | 2012-09-26 |
Family
ID=46507224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011006261A Expired - Fee Related JP5036088B2 (ja) | 2011-01-14 | 2011-01-14 | 立体画像処理装置、立体画像処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130293687A1 (ja) |
JP (1) | JP5036088B2 (ja) |
CN (1) | CN103314597B (ja) |
WO (1) | WO2012096332A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160165207A1 (en) * | 2014-12-03 | 2016-06-09 | Kabushiki Kaisha Toshiba | Electronic device, method, and computer program product |
KR102523997B1 (ko) * | 2016-02-12 | 2023-04-21 | 삼성전자주식회사 | 360도 영상 처리 방법 및 장치 |
CN109814970B (zh) * | 2019-01-22 | 2021-09-10 | 西安电子科技大学 | 一种基于OpenGL-ES的动态进度条绘制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6064354A (en) * | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP3795025B2 (ja) * | 2003-03-05 | 2006-07-12 | 株式会社ソフィア | 遊技機 |
RU2407224C2 (ru) * | 2005-04-19 | 2010-12-20 | Конинклейке Филипс Электроникс Н.В. | Восприятие глубины |
JP2009246883A (ja) * | 2008-03-31 | 2009-10-22 | Toshiba Corp | 3d表示装置、3d表示方法及び3d表示プログラム |
JP4963124B2 (ja) * | 2009-03-02 | 2012-06-27 | シャープ株式会社 | 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム |
JP4903240B2 (ja) * | 2009-03-31 | 2012-03-28 | シャープ株式会社 | 映像処理装置、映像処理方法及びコンピュータプログラム |
-
2011
- 2011-01-14 JP JP2011006261A patent/JP5036088B2/ja not_active Expired - Fee Related
-
2012
- 2012-01-12 CN CN201280005407.2A patent/CN103314597B/zh not_active Expired - Fee Related
- 2012-01-12 WO PCT/JP2012/050438 patent/WO2012096332A1/ja active Application Filing
- 2012-01-12 US US13/979,345 patent/US20130293687A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2012096332A1 (ja) | 2012-07-19 |
CN103314597A (zh) | 2013-09-18 |
US20130293687A1 (en) | 2013-11-07 |
JP2012147399A (ja) | 2012-08-02 |
CN103314597B (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2448276B1 (en) | GUI providing method, and display apparatus and 3D image providing system using the same | |
US9414041B2 (en) | Method for changing play mode, method for changing display mode, and display apparatus and 3D image providing system using the same | |
TWI523488B (zh) | 處理包含在信號中的視差資訊之方法 | |
JP5059922B2 (ja) | 立体画像生成装置、立体画像表示装置、立体画像調整方法、立体画像調整方法をコンピュータに実行させるためのプログラム、及びそのプログラムを記録した記録媒体 | |
US20150350626A1 (en) | Method for providing three-dimensional (3d) image, method for converting 3d message, graphical user interface (gui) providing method related to 3d image, and 3d display apparatus and system for providing 3d image | |
US20120169730A1 (en) | 3d image display device and 3d image display method | |
US20110126160A1 (en) | Method of providing 3d image and 3d display apparatus using the same | |
US20110248989A1 (en) | 3d display apparatus, method for setting display mode, and 3d display system | |
US20120075291A1 (en) | Display apparatus and method for processing image applied to the same | |
JP5036088B2 (ja) | 立体画像処理装置、立体画像処理方法およびプログラム | |
JP2014011804A (ja) | ディスプレイ装置及びその制御方法 | |
KR101648864B1 (ko) | 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치 및 3d 영상 제공 시스템 | |
JP6089383B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2005175538A (ja) | 立体映像表示装置及び映像表示方法 | |
JP2005175539A (ja) | 立体映像表示装置及び映像表示方法 | |
US9253477B2 (en) | Display apparatus and method for processing image thereof | |
US9154766B2 (en) | Method for outputting three-dimensional (3D) image at increased output frequency and display apparatus thereof | |
KR20110062983A (ko) | 3d 영상의 입체감 조절 요소를 설정하는 gui를 표시하는 디스플레이 장치 및 이에 적용되는 gui 제공 방법 | |
US9547933B2 (en) | Display apparatus and display method thereof | |
JP2014175813A (ja) | 立体映像表示方法および装置 | |
JP2012230478A (ja) | 画像処理装置、画像処理方法およびプログラム | |
KR20130079044A (ko) | 디스플레이 장치 및 그 제어 방법 | |
JP5501150B2 (ja) | 表示装置及びその制御方法 | |
KR20110056773A (ko) | Gui 제공방법 및 이를 이용한 디스플레이 장치와 3d 영상 제공 시스템 | |
JP2012244433A (ja) | 映像提示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120605 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120702 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5036088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |