JP2007013914A - 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機 - Google Patents

立体映像表示装置,および立体映像表示装置を用いた移動通信端末機 Download PDF

Info

Publication number
JP2007013914A
JP2007013914A JP2005329244A JP2005329244A JP2007013914A JP 2007013914 A JP2007013914 A JP 2007013914A JP 2005329244 A JP2005329244 A JP 2005329244A JP 2005329244 A JP2005329244 A JP 2005329244A JP 2007013914 A JP2007013914 A JP 2007013914A
Authority
JP
Japan
Prior art keywords
data
eye
pixels
unit
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005329244A
Other languages
English (en)
Inventor
Myoung-Seop Song
明燮 宋
Jang-Doo Lee
璋斗 李
Kyokyoku Cho
亨旭 張
Woo Jong Lee
ウジョン リ
Hyun-Suk Kim
賢淑 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung SDI Co Ltd
Original Assignee
Samsung SDI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung SDI Co Ltd filed Critical Samsung SDI Co Ltd
Publication of JP2007013914A publication Critical patent/JP2007013914A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Telephone Function (AREA)
  • Liquid Crystal Display Device Control (AREA)

Abstract

【課題】使用者インターフェースの具現のために,入力されるデータのなかで少なくとも一部のデータを立体映像用データに変換することで,使用者インターフェースの少なくとも一部を立体映像で表現する立体映像表示装置を提供する。
【解決手段】行列形状で形成され,各々が行方向に交互に配列されている左眼用画素150および右眼用画素160からなる複数の画素を含む表示部100と,外部から入力されるデータの中で複数の画素の少なくとも一部の画素にそれぞれ対応する第1データを検出する領域検出部320と,第1データを左眼用画素150に対応する左眼用データおよび右眼用画素160に対応する右眼用データに変換するデータ変換部330と,左眼用データおよび右眼用データを配列して立体映像データを合成するデータ合成部340と,立体映像データに対応するデータ信号を表示部100に印加するデータ駆動部400を含む。
【選択図】図6

Description

本発明は,立体映像表示装置に係り,特に,立体映像を含む使用者インターフェースを具現した立体映像表示装置,および立体映像表示装置を用いた移動通信端末機に関するものである。
立体映像表示装置は,使用者の左眼と右眼に相異なる映像を提供することにより,偏光眼鏡のような別の装備を用いることなく,使用者に距離感および立体感を有する立体映像を提供する。
立体映像表示装置は,その表示部の前面にパララックスバリア(parallax barrier),レンチキュラーレンズ(lenticular lens),またはマイクロレンズアレイ(micro−lens array)などを備えて,表示部で具現される左眼用映像と右眼用映像をそれぞれ使用者の左眼方向と右眼方向に空間分割する方式を採択している。
使用者インターフェースは,使用者に当該機器の使用のための機器設定,または機器制御手段などを提供し,使用者の設定または制御による結果を使用者に提供する。使用者インターフェースは,例えば,コンピュータや携帯電話などの表示部に映し出される映像であり,メニューアイコンなど機器設定や制御のためのツールを備えるものである。したがって,使用者が使用者インターフェースを操作する場合,使用者インターフェース内の多数のメニューのなかで,使用者が選択したメニューを他のメニューと区別できるように表現する必要がある。
しかし,使用者が使用者インターフェース内の複数のメニューのなかで,少なくとも一つ以上のメニューを選択した際,使用者に選択されたメニューと選択されなかったメニューの区別がつきにくいという問題があった。
そこで,本発明は,このような問題に鑑みてなされたもので,その目的とするところは,使用者に立体映像を含む使用者インターフェースを提供する立体映像表示装置を提供することにある。特に,使用者インターフェースの具現のために,入力されるデータのなかで,少なくとも一部のデータを立体映像用データに変換することにより,使用者インターフェースの少なくとも一部を立体映像で表現する立体映像表示装置,および立体映像表示装置を用いた移動通信端末機を提供することにある。
上記課題を解決するために,本発明の第1の観点によれば,行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素を含む表示部と;外部から入力されるデータのなかで,複数の上記画素の少なくとも一部の上記画素にそれぞれ対応する第1データを検出する領域検出部と;上記第1データを上記左眼用画素に対応する左眼用データおよび上記右眼用画素に対応する右眼用データに変換するデータ変換部と;上記左眼用データおよび上記右眼用データを配列して,立体映像データを合成するデータ合成部と;上記立体映像データに対応するデータ信号を上記表示部に印加するデータ駆動部と;を含む立体映像表示装置が提供される。
本発明によれば,外部から入力されるデータが二次元映像用データである時,使用者インターフェースで使用者により選択される領域,例えば,メニューアイコンなどに相当するデータを立体映像データに変換し,使用者が選択した領域を立体映像化できるので,使用者にとって,選択した領域が識別しやすくなる。
第2データは,上記第1データの少なくとも一部のデータであり,上記データ変換部は,上記第2データの一部のデータに相当する上記画素が上記行方向に第1数の上記画素だけ,左側に位置した上記左眼用画素に対応するように上記第2データの一部のデータを上記左眼用データに変換し,上記第2データの他の一部のデータに相当する上記画素が上記行方向に第2数の上記画素だけ,右側に位置した上記右眼用画素に対応するように上記第2データの他の一部のデータを上記右眼用データに変換することができる。
各々の上記第1データにそれぞれ対応し,基準面である上記表示部に対する所定の距離に相当する深さ情報を含む深さ情報マップを用いて,上記第1データに対応する上記深さ情報を上記データ変換部に伝達する深さ情報付加部をさらに含むことができる。
上記データ変換部は,上記第1データのなかで,一部の第2データを,上記第2データに相当する各々の上記画素が上記行方向に第1数の上記画素だけ,左側または右側に位置した上記左眼用画素または上記右眼用画素に対応するようにして,上記左眼用データまたは上記右眼用データに変換し,上記第1データのなかで,さらに他の一部の第3データを,上記第3データに相当する各々の上記画素が上記行方向に第2数の上記画素だけ,左側または右側に位置した上記左眼用画素または上記右眼用画素に対応するようにして,上記左眼用データまたは上記右眼用データに変換することができる。また,上記第1数または上記第2数は,上記第2データまたは上記第3データにそれぞれ対応する上記深さ情報によって決定されることができる。
複数の上記画素によって表現される上記表示部の映像は,使用者インターフェースであってよい。
上記第1データは,上記使用者インターフェースにおいて,使用者によって選択される領域に含まれるデータであってよい。
上記領域検出部は,上記使用者インターフェースにおいて,上記使用者によって選択される所定のポインティング手段で,選ばれる領域に対応するデータを,上記第1データとして検出することができる。
上記データ合成部は,上記表示部の複数の上記左眼用画素および複数の上記右眼用画素の配列方法に対応して,上記左眼用データおよび上記右眼用データを配列することができる。
上記データ合成部は,上記データ変換部において,上記第1データから変換された上記左眼用データおよび上記右眼用データと,外部から入力される上記データにおいて,上記第1データを除いた第4データとを配列して,一部領域に上記立体映像データを含むようにデータを合成して上記データ駆動部に伝達することができる。
上記左眼用画素で表現される映像が,上記使用者の左眼方向に投射され,上記右眼用画素で表現される映像が,上記使用者の右眼方向に投射されるように,透明領域および不透明領域が配列されているバリアを含むことができる。
上記バリアに印加される電圧によって,上記不透明領域が上記透明領域に転換され,または上記透明領域が上記不透明領域に転換されることができる。
上記第1数,上記第2数,または上記深さ情報は,上記使用者によって変更可能である。
また,上記課題を解決するために,本発明の第2観点によれば,行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素を含む表示部と;外部から入力されるデータ内に含まれている三次元空間情報を用いて,上記データの深さ情報を抽出する深さ情報抽出部と;上記深さ情報を用いて,上記データを上記左眼用画素に対応する左眼用データまたはおよび上記右眼用画素に対応する右眼用データに変換するデータ変換部と;上記左眼用データおよび上記右眼用データを配列して,立体映像データを合成するデータ合成部と;上記立体映像データに対応するデータ信号を上記表示部に印加するデータ駆動部と;を含む立体映像表示装置が提供される。
本発明によれば,外部から入力されるデータが三次元映像用データである場合,外部から入力されるデータに含まれる深さ情報(三次元空間情報)を用いて,データを立体映像データに変換することができる。また,使用者インターフェースで使用者により選択された領域に相当するデータ(第1データ)に対して,さらに深さ情報を付加することができるので,使用者によって選択された領域を他の領域に比べて,より立体化できる。従って,使用者は,自らが選択した領域を識別しやすくなる。
上記データ変換部は,上記データのなかで,一部の上記データを,上記一部のデータに対応する上記画素が上記行方向に第1数の上記画素だけ,左側に位置した上記左眼用画素に対応するようにして上記左眼用データに変換し,上記データのなかで,さらに他の一部の上記データを,上記さらに他の一部のデータに対応する上記画素が上記行方向に第2数の上記画素だけ,右側に位置した上記右眼用画素に対応するようにして上記右眼用データに変換することができる。
上記第1数および上記第2数は,上記深さ情報抽出部から伝達される上記深さ情報によって決定されることができる。
複数の上記画素によって表現される上記表示部の映像は,使用者インターフェースであってよい。
上記表示部内に配列されている全ての上記画素に対応する全ての上記データのなかで,一部の上記画素に対応する第1データを検出する領域検出部をさらに含むことができる。
上記領域検出部で検出される上記第1データは,上記使用者インターフェースで使用者が選択した領域に対応するデータであってよい。
上記深さ情報抽出部は,上記領域検出部で検出される上記第1データに対し,抽出された上記深さ情報に所定の上記深さ情報をさらに付け加えることができる。
上記データ合成部は,上記表示部の複数の上記左眼用画素および複数の上記右眼用画素の配列方法に対応して,上記左眼用データおよび上記右眼用データを配列することができる。
上記左眼用画素で表現される映像が,上記使用者の左眼方向に投射され,上記右眼用画素で表現される映像が,上記使用者の右眼方向に投射されるように,透明領域および不透明領域が配列されているバリアを含むことができる。
上記バリアに印加される電圧によって,上記不透明領域が上記透明領域に転換され,または上記透明領域が上記不透明領域に転換されることができる。
上記課題を解決するために,本発明の第3の観点によれば,行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素が配列されている表示部と;外部から入力されるデータのなかで,上記複数の画素の少なくとも一部の上記画素にそれぞれ対応する第1データを検出する領域検出部と;上記第1データが二次元映像用データの場合,上記第1データを,上記左眼用画素に対応する左眼用データおよび上記右眼用画素に対応する右眼用データに変換する第1データ変換部と;上記第1データが三次元映像用データの場合,上記第1データ内に含まれている三次元空間情報を用いて,上記第1データのそれぞれに対する深さ情報を抽出する深さ情報抽出部によって抽出される上記深さ情報を用いて,上記第1データを,上記左眼用画素に対応する左眼用データおよび上記右眼用画素に対応する右眼用データに変換する第2データ変換部と;上記第1データ変換部または上記第2データ変換部で生成される上記左眼用データおよび上記右眼用データを配置して立体映像データを合成するデータ合成部と;上記立体映像データに対応するデータ信号を,上記表示部に印加するデータ駆動部と;を含む立体映像表示装置が提供される。
上記第1データ変換部は,上記第1データのなかで少なくとも一部の第2データを,上記第2データに対応する上記画素が上記行方向に第1数の上記画素だけ,左側または右側に位置した上記左眼用画素または上記右眼用画素に対応するようにして,上記左眼用データまたは上記右眼用データに変換し,上記第1データのなかでさらに他の一部の第3データを,上記第3データに対応する上記画素が上記行方向に第2数の上記画素だけ,左側または右側に位置した上記左眼用画素または上記右眼用画素に対応するようにして,上記左眼用データまたは上記右眼用データに変換することができる。また,上記第1数または上記第2数は,上記表示部の大きさまたは解像度に応じて,使用者によって決定されることができる。
上記深さ情報抽出部は,上記領域検出部で検出される上記第1データに対して,抽出された上記深さ情報に所定の上記深さ情報をさらに付け加えることができる。
複数の上記画素によって表現される上記表示部の映像は,使用者インターフェースであってよい。
上記第1データは,上記使用者インターフェースで,上記使用者によって選択される領域に含まれるデータであってよい。
上記データ合成部は,上記表示部の上記複数の左眼用画素および上記複数の右眼用画素の配列方法に対応して,上記左眼用データおよび上記右眼用データを配列することができる。
上記課題を解決するために,本発明の第4の観点によれば,有線通信または無線通信のための通信装置と;少なくとも一部の立体映像を含む使用者インターフェースが具現されるディスプレイ部と;上記通信装置を介して受信されるデータ,または既に記憶されているデータを上記ディスプレイ部によって表示させる上記立体映像表示装置と;を含む移動通信端末機が提供される。
立体映像表示活性化信号に応じて,所定のデータを立体映像に変換して表示することができる。
上記立体映像表示活性化信号は,使用者によって入力される信号,または上記移動通信端末機が所定の条件を満たす場合に発生される信号であってよい。
上記所定の条件は,上記移動通信端末機に上記有線通信または上記無線通信により,電話着信信号またはSMS信号が印加される条件であってよい。
以上説明したように本発明によれば,使用者インターフェースが平面映像で具現されている場合,使用者インターフェースの一部領域を立体映像で具現することができる立体映像表示装置,および立体映像表示装置を用いた移動通信端末機を提供できる。したがって,本発明の立体映像表示装置において,使用者インターフェースの一部領域を立体映像で具現して,使用者に,識別力が一層高くて使用が容易な立体映像使用者インターフェースを提供することができる。
以下に添付図面を参照しながら,本発明の好適な実施の形態について詳細に説明する。なお,本明細書及び図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。
まず,本発明の実施形態に係る立体映像表示装置を説明するに先立ち,立体映像表示の原理について概略的に説明する。
一般に,ヒトの左眼および右眼は,一つの立体対象物を観察する時,互いに少し違う位置で見ることになるので,観察者は,左眼および右眼を通じて,互いに少し違う映像情報を認識することになる。観察者は,このように互いに少し違う映像情報を組み合わせて立体対象物に対する深さ情報を獲得し,立体感を感じることになる。
立体映像表示装置は,観察者が実際に立体対象物を観察する時,観察者の左眼および右眼が見る映像を観察者に提供することにより,観察者は,立体映像を感じることができる。
この際,観察者の左眼および右眼が見る映像の差をディスパリティ(disparity)と言う。この際,ディスパリティが正の値を有する場合,観察者は,立体対象物が所定の基準面より観察者方向に身近に位置するものと感じることになり,ディスパリティが負の値を有する場合,観察者は,立体対象物が基準面より観察者の反対方向に遠く位置するものと感じることになる。
図1は,ディスパリティによって観察者が感じる立体映像を示す。図1に示すように,正のディスパリティを有する円筒状映像は,基準面に対して観察者に近く位置するものと感じられ,負のディスパリティを有する四角形映像は,基準面に対して観察者から遠く位置するものと感じられることになる。一方,零のディスパリティを有するハート映像は,基準面に位置するものと感じられることになる。本発明の明細書において,‘立体映像’とは,表示される映像が所定の表示装置の表示部の一面を基準面とした場合,表示される映像が基準面に対して観察者方向に近接して位置するものと感じられるか,または,基準面に対して観察者の反対方向に遠く位置するものと感じられる映像を意味する。一方,‘平面映像’とは,表示される映像が基準面上に位置するものと感じられる映像を意味する。‘立体映像表示装置’とは,先に定義される立体映像を表示することができる表示装置を意味する。
本発明の実施形態においては,パララックスバリアを用いて左眼と右眼の映像を分離して立体効果を提供する立体映像表示装置を具体的な例として挙げて説明する。しかし,本発明の保護範囲がパララックスバリア方式の立体映像表示装置に限定されるものではなく,レンチキュラーレンズ方式の立体映像表示装置などにも適用されることができる。
本発明の実施形態においては,液晶表示装置を用いて具現した立体映像表示装置を例として具体的に説明する。しかし,本発明の実施形態の立体映像表示装置としては,液晶表示装置以外の有機発光表示装置,プラズマ表示装置,または電界放出表示装置などを用いることができる。
図2は,本発明の実施形態に係る立体映像表示装置の概略図である。図2に示す立体映像表示装置は,表示部100,バリア100’,走査駆動部200,データ処理部300,データ駆動部400,光源500,光源制御部600,モード変換部700,およびタイミング制御部800を含む。光源500は,面光源から形成され,表示部100の後面に形成できるが,図2においては,説明の便宜上,光源500が表示部100の下端に形成されるものとして示す。
表示部100は,選択信号を伝達する複数の走査線(S1〜Sn),複数の走査線と絶縁状態で交差するように形成され,データ信号を伝達する複数のデータ線(D1〜Dm),および走査線とデータ線の交差点に形成された複数の副画素(図示せず)を含む。本発明の実施形態においては,赤色(R)表示のための赤色副画素,緑色(G)表示のための緑色副画素,および青色(B)表示のための青色副画素が一つの画素を形成する。
また,本発明の実施形態においては,表示部100の複数の画素は,左眼用映像に対応する画素(以下,‘左眼用画素’)および右眼用映像に対応する画素(以下,‘右眼用画素’)を含む。本発明の実施形態においては,左眼用画素(R副画素,G副画素,およびB副画素)がデータ線Di,D(i+1),D(i+2)にそれぞれ連結され,右眼用画素(R副画素,G副画素およびB副画素)が隣接するデータ線D(i+3),D(i+4),D(i+5)にそれぞれ連結される(ここで,iは,1以上で(m−6)以下)。一方,左眼用画素の副画素がデータ線Diに連結され,右眼用画素の副画素がデータ線D(i+1)に連結されるように副画素単位で交互に繰り返して配列されることができる。具体的に,左眼用画素および右眼用画素は,互いに平行に繰り返して配列されてストライプ形状またはジグザグ形状を形成することができる。このような左眼用画素および右眼用画素の配列は,バリア100’によって適宜変更されることができる。
表示部100の副画素は,走査線とデータ線にそれぞれ連結される所定の画素駆動回路を含む。画素駆動回路は,走査線から印加される選択信号に応じて,データ線から印加されるデータ信号に対応する明るさで光源500から印加される光を観察者に提供する。
バリア100’は,表示部100のいずれか一面に配置され,表示部100の左眼用画素および右眼用画素の配列方法に対応するように形成された不透明領域(図示せず)と透明領域(図示せず)を含む。バリア100’は,不透明領域と透明領域を用いて表示部100の左眼用画素および右眼用画素からそれぞれ投射される左眼用映像と右眼用映像をそれぞれ観察者の左眼方向および右眼方向に分離して提供する。バリア100’の不透明領域と透明領域は,表示部100の左眼用画素および右眼用画素の配列方法によってストライプ形状またはジグザグ形状に形成されることができる。
本発明の実施形態のバリア100’は,相異なるレベルの電圧が印加される二つの電極および二つの電極の間に形成される液晶を含み,タイミング制御部800から入力されるモード信号(Sm)に対応したモード変換部700の制御により,二つの電極に所定の電圧を印加して液晶の配列を転換することで,不透明領域を透明領域に変換し,または透明領域を不透明領域に転換する。したがって,本発明の実施形態における立体映像表示装置は,表示部100を通じて平面映像を表示しようとする場合,バリア100’の不透明領域の全てを透明領域に転換する。この際,データ駆動部400は,左眼用データおよび右眼用データの区別がないデータ信号を印加し,表示部100の画素は,左眼用画素および右眼用画素の区別なしに印加されるデータ信号に対応する映像を表示する。一方,立体映像を表示しようとする場合,バリア100’の不透明領域の一部を透明領域に転換する。この際,データ駆動部400は,左眼用データおよび右眼用データを含むデータ信号を表示部100の左眼用画素および右眼用画素に適切に印加して,観察者に立体映像を提供する。ここで,左眼用データおよび右眼用データとは,外部から入力されるデータのうち,一部のデータを立体映像データに変換したものである。
図3は,図2の立体映像表示装置によって立体映像が表示される概念を示す図である。以下,図3に基づいて,図2の表示部100およびバリア100’を通じて観察者が立体映像を感じる方法について概略的に説明する。図3は,観察者が左眼用画素および右眼用画素を通じて立体映像を観察する姿を,図2の表示部100およびバリア100’をA−A’線に沿って切断した断面で示す。
図3に示すように,表示部100は,交互に繰り返して配列された複数の左眼用画素150および複数の右眼用画素160を含み,バリア100’は,複数の左眼用画素150および複数の右眼用画素160の配列方向と同一方向に交互に繰り返して,表示部100に対して平行に配列された不透明領域150’と透明領域160’を含む。表示部100の左眼用画素150より構成される左眼用映像は,バリア100’の透明領域160’を通じて左眼180に投射され,表示部100の右眼用画素160より構成される右眼用映像は,バリア100’の透明領域160’を通じて右眼170に投射される。バリア100’の不透明領域150’は,表示部100の左眼用画素150および右眼用画素160が透明領域160’を通じてそれぞれ左眼および右眼に映像を投射するように光投射経路を形成する。
観察者は,バリア100’の透明領域160’を通じて表示部100に表示される映像を見ることになるが,観察者の左眼180と右眼170は,同一の透明領域160’を通じてもそれぞれ表示部100の相異なる領域を見ることになる。すなわち,観察者は,左眼と右眼が透明領域160’を通じて,それぞれ互いに隣接した左眼用画素150および右眼用画素160で表示される映像を見ることになる。
左眼用画素150から投射される左眼用映像は,右眼用映像から所定のディスパリティを有する映像に形成され,右眼用画素160から投射される右眼用映像は,左眼用映像から所定のディスパリティを有する映像に形成される。したがって,観察者は,左眼用画素150から投射される左眼用映像および右眼用画素160から投射される右眼用映像をそれぞれ観察者の左眼および右眼で認識する時,実際の立体対象物を左眼および右眼で見るような深さ情報を得ることになって立体感を感じることになる。
また,図2に示す光源500は,赤色(R),緑色(G),青色(B)の発光ダイオード(図示せず)を含み,それぞれ赤色(R),緑色(G),青色(B)に相当する光を表示部100に出力する。光源500の赤色(R),緑色(G),青色(B)の発光ダイオードは,それぞれ表示部100のR副画素,G副画素およびB副画素に光を出力する。
光源制御部600は,タイミング制御部800から出力される制御信号(Sb)に応じて光源500の発光ダイオードの点灯時期を制御する。この際,データ駆動部400からデータ信号をデータ線に供給する期間と,光源制御部600によって赤色(R),緑色(G),青色(B)の発光ダイオードを点灯する期間は,タイミング制御部800によって提供される制御信号によって同期されることができる。
モード変換部700は,タイミング制御部800から入力されるモード信号(Sm)に応じてバリア100’の液晶配列を制御する。
タイミング制御部800は,外部またはグラフィック制御器(図示せず)から印加されるデータ,水平周期信号(Hsync),垂直同期信号(Vsync),およびモード信号(Mode)に応じて,データ,生成された制御信号(Sg,Sd,Sb),およびモード信号(Sm)をそれぞれ走査駆動部200,データ駆動部400,光源制御部600およびモード変換部700に供給する。ここで,タイミング制御部800に印加されるデータは,平面映像データまたは立体映像データ,または一部領域に対して平面映像データおよび立体映像データが混合したデータであることができる。
走査駆動部200は,タイミング制御部800から出力される制御信号(Sg)に応じて選択信号を順次生成して表示部100の走査線S1〜Snにそれぞれ印加する。
データ駆動部400は,タイミング制御部800から印加されるデータを表示部100のデータ線D1〜Dmに印加するためのデータ信号に変換し,タイミング制御部800から入力される制御信号(Sd)に応じて変換されたデータ信号をデータ線D1〜Dmに印加する。図2においては,データ駆動部400は,タイミング制御部800から信号が印加されるものと示されているが,これに制限されるものではない。
データ処理部300は,立体映像表示活性化信号に応じて,受けたデータをそのままタイミング制御部800に伝達するか,または受けたデータの少なくとも一部を左眼用データおよび右眼用データに変換して,立体映像データを生成し,生成された立体映像データをタイミング制御部800に伝達する。タイミング制御部800に伝達されたデータは,データ駆動部400に伝達される。図2においては,データ処理部300がタイミング制御部800の前端に形成されているものとして示されているが,データ処理部300の位置はこれに制限されるものではない。
以下,図4に基づいて,本発明の第1実施形態に係るデータ処理部300を具体的に説明する。図4は,本発明の第1実施形態に係るデータ処理部300を概略的に示す。
(第1実施形態)
図4のデータ処理部300は,データ経路判断部310,領域検出部320,データ変換部330,データ合成部340,深さ情報抽出部350,データ変換部360,および多重化部370を含む。
データ経路判断部310は,入力される立体映像表示活性化信号に応じて,入力されるデータを立体映像に変換するか否か,かつ入力されるデータの処理経路を判断する。立体映像表示活性化信号は,データの少なくとも一部を立体映像データへの変換可否を決定する。立体映像表示活性化信号は,使用者が使用者インターフェースを介して直接印加するか,あるいは,立体映像表示装置が既に設定されて記憶された所定の条件を満たす場合に発生できる。このような所定の条件とは,立体映像表示装置が移動通信端末機の場合,電話受信またはSMS受信などを含むことができる。この場合,立体映像表示装置は,電話受信またはSMS受信の時に,立体映像表示活性化信号を生成してデータ経路判断部310に伝達し,データ経路判断部310は,立体映像表示活性化信号に応じて,電話受信またはSMS受信に対応して設定された立体映像を使用者に提供することができる。
また,データ経路判断部310は,外部から入力されるデータの少なくとも一部を立体映像データに変換するため,入力されるデータの種類を分析し,それによって適合したデータ処理経路を判断する。入力されるデータの種類は,二次元映像用データ,三次元映像用データ,または立体映像用データを含む。このようなデータの種類判断は,データ内に含まれた空間情報に基づいてなすことができる。詳述すれば,データ内にX座標情報,Y座標情報,Z座標情報が含まれている場合,三次元映像用データと判断され,データが左眼用データおよび右眼用データに分離されている場合は,立体映像用データと判断され,データ内にX座標情報,Y座標情報が含まれる場合,二次元映像用データと判断される。
データ経路判断部310は,データが二次元映像用データの場合,領域検出部320,データ変換部330,およびデータ合成部340を含む二次元映像用データ処理経路に伝達し,三次元映像用データの場合は,深さ情報抽出部350,データ変換部360,およびデータ合成部340を含む三次元映像用データ処理経路に伝達する。データが立体映像用データの場合は,多重化部370に直接伝達する。
まず,二次元映像データ処理経路を説明する。領域検出部320は,入力されるデータのなかで,立体映像として表現すべきデータを検出してデータ変換部330に伝送する。具体的に,表示部100内に配列されている画素の全てにそれぞれ対応する全てのデータのなかで,立体映像として表示すべき少なくとも一部の画素領域(以下,‘立体映像表示領域’という)に対応するデータを検出する。ここで,全てのデータによって表示される映像は,使用者インターフェースを形成することができる。全てのデータは,表示部100の全ての画素に対応し,外部から入力されるデータである。立体映像として表示すべき少なくとも一部の画素領域に対応するデータとは,つまり,外部から入力されるデータにおいて,表示部100の全ての画素のうちの少なくとも一部の画素にそれぞれ対応する第1データである。
使用者インターフェースは,一つ以上のメニューアイコンを含み,各メニューアイコンは,使用者に提供される各種機能にそれぞれ対応する。使用者が使用者インターフェース内の特定メニューアイコンを選択する場合,領域検出部320は,選択されたメニューアイコンに対応するデータを検出する。使用者によるメニューアイコンの選択は,立体映像表示装置を操作する所定の操作手段(リモコン,またはキーパッドなど)によって行われ,操作手段の操作(例えば,方向キーの操作)によって使用者インターフェース内のメニューアイコンが順次選択され,それによって領域検出部320は,立体映像に対応するデータを順次検出することができる。つまり,第1データは,使用者インターフェースで使用者によって選択される領域,例えば,メニューアイコンの領域に対応するデータである。
一方,使用者がタッチパッド,またはタッチスクリーンなどを介して使用者インターフェースから特定メニューアイコンを直接選択する場合,領域検出部320は,表示部100の使用者の選択位置をサンプリングして選択位置の位置情報(X座標,Y座標)を獲得し,位置情報を含むメニューアイコンに対応するデータを検出することができる。つまり,領域検出部320は,使用者インターフェースで,使用者によって選択されたポインティング手段,例えば,タッチパッド,またはタッチスクリーンで選択されたメニューアイコンに対応する位置を含む領域に相当するデータを第1データとして検出することができる。
データ変換部330は,領域検出部320から受けた立体映像表示領域に対応するデータ,つまり,第1データを左眼用データおよび右眼用データに変換する。
本実施形態に係るデータ変換部330は,外部から入力されるデータのうちの第1データに対応するそれぞれ画素を左/右に所定の距離だけ移動させて,左眼用データおよび右眼用データに変換する。本実施形態において,データ変換部330は,第1データ変換部に相当する。本実施形態においては,立体映像として表示されない領域では,左眼用画素および右眼用画素に対して,同一のデータが書き込まれると仮定する。立体映像として表示される領域の場合,データ変換部330は,第1データにおいて,左眼用画素に対応するデータを当該左眼用画素から左側に所定数の画素だけ移動させて左眼用データに変換し,第1データにおいて,右眼用画素に対応するデータを当該右眼用画素から右側に所定数の画素だけ移動させて右眼用データに変換する。従って,移動した画素の数に相当する深さ,つまり,ディスパリティを有する右眼用データおよび左眼用データに変換できるので,観察者は,左眼用データによる左眼用映像および右眼用データによる右眼用映像を,バリア100’によって左眼および右眼で認識する際,ディスパリティを有する立体映像として認識することができる。
つまり,データ変換部330は,立体映像表示領域の画素に相当する第1データにおいて,少なくとも一部のデータである第2データの中で,第2データの一部のデータに対応する画素が行方向に第1数の画素だけ,左側に位置する左眼用画素に対応するようにして,第2データの一部のデータを左眼用データに変換できる。また,第2データの他の一部のデータに対応する画素が行方向に第2数の画素だけ,右側に位置する右眼用画素に対応するようにして,第2データの他の一部のデータを右眼用データに変換できる。上記以外にも,データ変換部330は,立体映像表示領域の画素に相当する第1データにおいて,少なくとも一部の第2データを,第2データに対応する各々の画素が行方向に第1数の画素だけ,左側または右側に位置する左眼用画素または右眼用画素に対応するようにして左眼用データまたは右眼用データに変換でき,第1データにおいて,さらにその他の第3データを,第3データに対応する各々の画素が行方向に第2数の画素だけ,左側または右側に位置する左眼用画素または右眼用画素に対応するようにして左眼用データまたは右眼用データに変換できる。この場合,さまざまな深さ(ディスパリティ)を有する左眼用データおよび右眼用データを得る事ができるので,より高度な立体映像を得ることができる。
この際,データ変換部330の画素移動に対する所定の数は,選択されたメニューアイコンの大きさ,立体映像表示方法がレンチキュラー方式であるか,またはパララックスバリア方式であるかによって設定できる。パララックスバリア方式の場合,開口率,または表示部100の大きさなどによってそれぞれ異なるように設定できる。本実施形態においては,表示部100の大きさが2.2インチ,その解像度がQVGA級の場合,画素の数は,左/右方向にそれぞれ4〜8画素にする。しかし,表示部100の大きさが22インチ以上の場合には,画素の数は,16画素以上であり得る。また,このような画素の数は,使用者によって適切に調節することができる。つまり,第1数,第2数は,使用者によって変更可能である。
つぎに,三次元映像用データ処理経路を説明する。深さ情報抽出部350は,外部から入力される三次元映像用データ内に含まれた深さ情報を抽出してデータ変換部360に伝送する。本実施形態では,外部から入力されるデータが,三次元空間情報を有するデータであるため,表示部100において立体映像を表示できるデータとなる。また,外部から入力されるデータの一部が三次元空間情報を有する場合もある。
三次元映像用データは,映像を三次元で表現するために,各データに対する空間情報(X座標,Y座標,およびZ座標)を含む。深さ情報抽出部350は,このようなデータに対する空間情報を用いてデータに対する深さ情報を抽出する。具体的に,深さ情報抽出部350は,データの空間座標のなかで,Z座標に対応するように深さ情報を設定して抽出することができる。具体的に,正の方向への最大Z座標を深さ情報10とし,負の方向への最大Z座標を深さ情報0として,Z座標から深さ情報を抽出することができる。
入力される三次元映像用データによって表示される映像は,所定のメニューアイコンおよび背景などを含む使用者インターフェースを形成することができる。この場合,深さ情報抽出部350は,各メニューアイコンおよび背景に対する深さ情報をそれぞれ抽出してデータ変換部360に伝送する。
図4に示す三次元映像用データ処理経路には示されていないが,二次元映像用データ処理経路と同様に,本実施形態に係る三次元映像用データ処理経路は,領域検出部(図示せず)を含むことができる。本実施形態において,領域検出部は,表示部100内に配列される全ての画素に対応する全てのデータにおいて,一部の画素に対応する第1データを検出することができる。この場合,深さ情報抽出部350は,領域検出部で検出された第1データに対して所定の深さ情報(例えば,2)をさらに付け加えることができる。具体的に,領域検出部によって検出されたデータの元の深さ情報が7の場合,データの最終深さ情報は7+2=9となる。また,領域検出部で検出される第1データは,使用者インターフェースにおいて,使用者によって選択された領域に対応するデータである。本実施形態では,外部から入力されるデータの中の第1データに対して,さらに所定の深さ情報を付け加えることができ,これにより,使用者によって選択された領域がそれ以外の領域に比べて,より一層立体化された映像で表示することができる。つまり,表示部100全体で表示される立体映像において,使用者が選択した領域をより立体化するので,使用者にとって区分しやすい映像となる。
データ変換部360は,深さ情報抽出部350から三次元映像用データに対する深さ情報を受信し,受信された深さ情報を用いて三次元映像用データに対応する左眼用データおよび右眼用データを生成する。本実施形態において,データ変換部360は,第2データ変換部に相当する。入力されたデータに対し,対応する深さ情報を用いて左眼用データおよび右眼用データを生成する方法は,次の通りである。
外部から入力される三次元空間情報を有するデータに対応するそれぞれ画素を左/右に所定の距離だけ,移動させて,左眼用データおよび右眼用データに変換する。データ変換部360は,三次元空間情報を有するデータにおいて,一部のデータに対応する画素が行方向に第1数の画素だけ,左側に位置する左眼用画素に対応するようにして一部のデータを左眼用データに変換できる。また,三次元空間情報を有するデータにおいて,さらに他のデータに対応する画素が行方向に第2数の画素だけ,右側に位置する右眼用画素に対応するようにしてさらに他のデータを右眼用データに変換できる。ここで,画素の移動する数,第1数および第2数は,深さ情報抽出部350より抽出された深さ情報によって決定される。従って,データに含まれる三次元空間情報(深さ情報)に対応した画素の数だけ,移動して左眼用データおよび右眼用データを得る事ができるので,観察者は,左眼用データによる左眼用映像および右眼用データによる右眼用映像を,バリア100’によって左眼および右眼で認識する際,深さ情報に対応した深さ(ディスパリティ)を有する立体映像として認識することができる。
データ合成部340は,データ変換部330またはデータ変換部360から左眼用データおよび右眼用データを受け,入力された左眼用データおよび右眼用データを表示部100の左眼用画素および右眼用画素にそれぞれ印加するように配列して立体映像データを合成することができる。この際,データ合成部340は,表示部100の左眼用画素および右眼用画素の配列方式に対応するように,左眼用データおよび右眼用データを配列して立体映像データを合成することができる。
データ合成部340の左眼用データおよび右眼用データの配列方法は,表示部100の左眼用画素および右眼用画素の配列方式によって変更できる。例えば,表示部100の左眼用画素および右眼用画素がストライプ形状,またはジグザグ形状で配列されている場合,データ合成部340は,左眼用データおよび右眼用データをストライプ形状,またはジグザグ形状で配列されている表示部100の左眼用画素および右眼用画素に対応するように,配列して,立体映像データを合成することができる。また,本実施形態の二次元映像用データ処理経路において,データ合成部340は,左眼用データおよび右眼用データとともに,領域検出部320によって検出されなくて,左眼用データまたは右眼用データに変換されなかったデータを表示部100の画素にそれぞれ対応するように配列して立体映像データを合成することができる。ここで,領域検出部320によって検出されなくて,左眼用データまたは右眼用データに変換されなかったデータとは,外部から入力されるデータにおいて,立体映像表示領域に対応する第1データ以外の第4データであり,表示部100で平面映像を表示する画素に対応するデータである。
多重化部370は,データ変換部330,データ変換部360,データ合成部340で合成された立体映像データ,および立体映像表示活性化信号を受け,立体映像表示活性化信号に応じて,データまたは立体映像データを選択的にデータ駆動部400に伝達する。
具体的に,使用者が立体映像使用者インターフェースを使おうとしない場合,使用者は,立体映像表示活性化信号を印加しなくなり,その結果,データは,多重化部370にそのまま印加され,多重化部370は,印加されるデータをデータ駆動部400にそのまま伝達する。一方,使用者が立体映像使用者インターフェースを使おうとする場合,使用者は,立体映像表示活性化信号を印加することになり,その結果,少なくとも一部のデータを二次元映像用データ処理経路または三次元映像用データ処理経路を通して左眼用データおよび右眼用データで変換し,それから立体映像データを生成して多重化部370に印加し,多重化部370は,立体映像表示活性化信号に応じて立体映像データをタイミング制御部800によってデータ駆動部400に伝達する。
データ駆動部400は,データまたは立体映像データを受け,入力されたデータまたは立体映像データをそれぞれ対応するアナログデータ電圧であるデータ信号に変換して表示部100のデータ線にそれぞれ印加する。データ駆動部400は,デジタル信号である入力されるデータまたは立体映像データをアナログ信号であるデータ信号に変換するために,デジタル/アナログ変換部,レベルシフタおよび抵抗ラダー部などを含むことができる。このようなデータ駆動部400についての詳しい説明は,本発明の明細書で省略する。
図5aは,本実施形態に係る立体映像表示装置により,使用者によって選択されたメニューが立体映像で表示された立体映像使用者インターフェースを示す。図5bは,本実施形態に係る立体映像表示装置により,使用者によって選択されたアイコンおよびテキストメニューがそれぞれ立体映像で表示された立体映像使用者インターフェースを示す。図5cは,本実施形態に係る立体映像表示装置により,全画面が立体映像として表示される立体映像使用者インターフェースを示す。図5a〜図5cにおいて,矢印が指す破線領域は,立体映像で具現された領域である。つまり,図5a,図5bは,本発明の第1実施形態に係る立体映像表示装置において,二次元映像データ処理経路によって使用者が選択した領域(第1データ)が,立体化されて表示される使用者インターフェースを示す。また,図5cは,本発明の第1実施形態に係る立体映像表示装置において,三次元映像データ処理経路によって,外部から入力されるデータ全てに相当する領域が立体化されて表示される使用者インターフェースを示す。
以下,図6に基づいて,本発明の第2実施形態に係る二次元映像用データを用いて立体映像使用者インターフェースを具現する二次元映像用データ処理部について具体的に説明する。
(第2実施形態)
図6は,本発明の第2実施形態に係る二次元映像用データ処理部の構成を示す。二次元映像用データ処理部は,データ経路判断部310,領域検出部320,深さ情報付加部325,データ変換部330,データ合成部340,および多重化部370を含む。
データ経路判断部310は,立体映像表示活性化信号を受信してデータを受け,入力されるデータが二次元映像用データの場合,データを領域検出部320に伝達する。具体的に,データ経路判断部310は,二次元映像識別信号/三次元映像識別信号から入力されるデータが二次元映像用データであるかを判別し,データを領域検出部320に伝送する。図6においては,印加される二次元映像識別信号/三次元映像識別信号でデータの種類を判断するものと記載されているが,データ内に含まれた空間情報を用いてデータ種類を判別することもできる。データ経路判断部310についての詳細な説明は,先に詳しく説明したので,ここでは省略する。
領域検出部320は,外部から入力されるデータのなかで,立体映像として表現すべきデータ,すなわち立体映像表示領域に対応するデータを検出して深さ情報付加部325に伝送する。外部から入力されるデータは,表示部100の全ての画素に対応し,外部から入力されるデータに対応する表示部100の全ての画素によって表示される映像は,使用者インターフェースとなる。ここで,立体映像として表現すべきデータとは,外部から入力されるデータのうち,少なくとも一部の画素にそれぞれ対応する第1データである。第1データに対応する画素によって構成される領域は,立体映像として表示される領域である。第1データは,使用者インターフェースで使用者によって選択された領域の画素に相当するデータである。
使用者インターフェースは,一つ以上のメニューアイコンを含み,各メニューアイコンは,使用者に提供される各種機能にそれぞれ対応する。使用者が使用者インターフェース内の特定メニューアイコンを選択する場合,領域検出部320は,選択されたメニューアイコンに対応するデータを検出する。使用者によるメニューアイコンの選択は,立体映像表示装置を操作する所定の操作手段(リモコン,またはキーパッドなど)によって行われ,操作手段の操作(例えば,方向キーの操作)によって使用者インターフェース内のメニューアイコンが順次選択され,それによって領域検出部320は,立体映像に対応するデータを順次検出することができる。つまり,第1データは,使用者インターフェースで使用者によって選択される領域,例えば,メニューアイコンの領域に対応するデータである。
一方,使用者がタッチパッド,またはタッチスクリーンなどを介して使用者インターフェースから特定メニューアイコンを直接選択する場合,領域検出部320は,表示部100の使用者の選択位置をサンプリングして選択位置の位置情報(X座標,Y座標)を獲得し,位置情報を含むメニューアイコンに対応するデータを検出することができる。つまり,領域検出部320は,使用者インターフェースで,使用者によって選択されたポインティング手段,例えば,タッチパッド,またはタッチスクリーンで選択されたメニューアイコンに対応する位置を含む領域に相当するデータを第1データとして検出することができる。
深さ情報付加部325は,領域検出部320から伝送される立体映像表示領域に対応するデータ(第1データ)に対し,既に設定されて記憶された深さ情報マップを用いてそれぞれ深さ情報を付与する。ここで,深さ情報は,表示部100の画面を基準面とした時,観察者に見える画像と基準面との距離に対応する。具体的に,深さ情報を10段階で構成する場合,深さ情報が10の場合は,基準面に対して観察者側に最も大きく出て映像が表示され,深さ情報が0の場合は,基準面に対して観察者から最も後退して映像が表示され,深さ情報が5の場合は,基準面に映像が表示される。一方,深さ情報は,ディスパリティと対応して定義できる。すなわち,深さ情報が10の場合は,ディスパリティが5,深さ情報が5の場合は,ディスパリティが0,そして深さ情報が0の場合は,ディスパリティが−5となるように設定することができる。また,データから左眼用データおよび右眼用データの生成のために移動する画素距離は,このような深さ情報にそれぞれ対応するように設定できる。すなわち,深さ情報が10の場合は,画素移動距離を8画素,深さ情報が8の場合は画素移動距離を4画素などにすることができる。
深さ情報マップは,表示しようとする使用者インターフェースの所定のメニューアイコンなどにそれぞれ深さ情報を付与して形成されたマップを意味する。具体的に,使用者インターフェースが所定のメニューアイコンおよび背景で構成されている場合,各メニューアイコンおよび背景に対して所定の深さ情報をそれぞれ付与する。例えば,第1メニューアイコンに深さ情報10,第2メニューアイコンに深さ情報8,そして背景に深さ情報5を付与することができる。入力されたデータが第1メニューアイコンに対応する場合,データ変換部330は,深さ情報10に対応するように,データを左/右に8画素距離だけ移動させて左眼用データおよび右眼用データを形成する。
深さ情報マップの設定方法には,制限がない。具体的に,深さ情報マップ内のメニューアイコンにおいて,メニューアイコンの内部に最大の深さ情報10を設定し,それから深さ情報を段々低めてアイコンの境界に7を設定し,背景には,5を設定するなど,階層的に付与することができる。
深さ情報マップは,使用者インターフェースに対応するように設定されてデータ変換部330に記憶され,使用者インターフェースが一つ以上の場合,データ変換部330は,各使用者インターフェースに対する深さ情報マップをそれぞれ記憶する。このような深さ情報マップおよび深さ情報マップ内のメニューアイコンおよび背景などに対する深さ情報は,使用者によって変更可能である。図6においては,深さ情報付加部325を用いて深さ情報を付け加える方法が記載されているが,図4のように,深さ情報マップを用いなく,領域検出部320で検出された領域に対応するデータをそれぞれ所定の数の画素だけ左/右に移動して左眼用データおよび右眼用データを生成するように具現することができる。しかし,図6のように,深さ情報付加部325を用いる場合,データに多様な深さ情報を付け加えて立体映像を一層具体的に表現することができる利点がある。
一方,図6には示されていないが,領域検出部320から伝送される立体映像表示領域に対応するデータ(第1データ)に対し,深さ情報以外の効果情報を付け加える効果付加部(図示せず)を含むことができる。立体映像表示領域に対応するデータに深さ情報とともに付加することができる効果情報としては,色相情報,点滅情報,音響情報などを含むことができる。深さ情報とともに色相情報を付け加える場合,使用者が特定メニューアイコンを選択する場合,選択されたメニューアイコンは,立体映像で表現されるとともに,所定の色相でハイライトされることができる。深さ情報とともに点滅情報を付け加える場合,使用者が特定メニューアイコンを選択すると,選択されたメニューアイコンは,立体映像で表現されるとともに,所定の時間間隔で点滅されることができる。深さ情報とともに音響情報を付け加える場合,特定メニューアイコンを選択すると,選択されたメニューアイコンは,立体映像で表現されるとともに,所定の音響効果を表すことができる。
データ変換部330は,深さ情報付加部325から提供された深さ情報を用いて,領域検出部320で検出された立体映像表示領域に対応するデータ(第1データ)を左眼用データおよび右眼用データに変換してデータ合成部340に伝送する。データ変換部330は,外部から入力されるデータの中の第1データに対応するそれぞれ画素を左/右に所定の距離だけ移動させて,左眼用データおよび右眼用データに変換する。本実施形態においては,立体映像として表示されない領域では,左眼用画素および右眼用画素に対して,同一のデータが書き込まれると仮定する。立体映像として表示される領域の場合,データ変換部330は,第1データにおいて,左眼用画素に対応するデータを当該左眼用画素から左側に所定数の画素だけ移動させて左眼用データに変換し,第1データにおいて,右眼用画素に対応するデータを当該右眼用画素から右側に所定数の画素だけ移動させて右眼用データに変換する。
つまり,データ変換部330は,立体映像表示領域の画素に相当する第1データにおいて,少なくとも一部のデータである第2データの中で,第2データの一部のデータに対応する画素が行方向に第1数の画素だけ,左側に位置する左眼用画素に対応するようにして,第2データの一部のデータを左眼用データに変換できる。また,第2データの他の一部のデータに対応する画素が行方向に第2数の画素だけ,右側に位置する右眼用画素に対応するようにして,第2データの他の一部のデータを右眼用データに変換できる。上記以外にも,データ変換部330は,立体映像表示領域の画素に相当する第1データにおいて,少なくとも一部の第2データを,第2データに対応する画素が行方向に第1数の画素だけ,左側または右側に位置する左眼用画素または右眼用画素に対応するようにして左眼用データまたは右眼用データに変換でき,第1データにおいて,さらにその他の第3データを,第3データに対応する画素が行方向に第2数の画素だけ,左側または右側に位置する左眼用画素または右眼用画素に対応するようにして左眼用データまたは右眼用データに変換できる。この場合,さまざまな深さ(ディスパリティ)を有する左眼用データおよび右眼用データを得る事ができるので,より高度な立体映像を得ることができる。
そして,第2データまたは第3データをデータ変換部330で左眼用データまたは右眼用データに変換する際において,画素の移動する数,第1数,第2数は,深さ情報付加部325から付与される深さ情報によって決定される。深さ情報は,第2データ,第3データそれぞれに対応する。従って,データ変換部330に記憶されている深さ情報マップの深さ情報に対応した画素の数だけ,移動して左眼用データおよび右眼用データを得る事ができるので,観察者は,左眼用データによる左眼用映像および右眼用データによる右眼用映像を,バリア100’によって左眼および右眼で認識する際,深さ情報に対応した深さ(ディスパリティ)を有する立体映像として認識することができる。深さ情報は,使用者によって変更可能であるため,第1数,第2数も使用者によって変更可能である。
データ合成部340は,データ変換部330から得た左眼用データおよび右眼用データを表示部100の左眼用画素および右眼用画素の配列方法に対応するように配列して立体映像データを合成する。つまり,データ合成部340は,データ変換部330から左眼用データおよび右眼用データを受け,入力された左眼用データおよび右眼用データを表示部100の左眼用画素および右眼用画素にそれぞれ印加するように配列して立体映像データを合成することができる。データ合成部340の左眼用データおよび右眼用データの配列方法は,表示部100の左眼用画素および右眼用画素の配列方式によって変更できる。例えば,表示部100の左眼用画素および右眼用画素がストライプ形状,またはジグザグ形状で配列されている場合,データ合成部340は,左眼用データおよび右眼用データをストライプ形状,またはジグザグ形状で配列されている表示部100の左眼用画素および右眼用画素に対応するように,配列して,立体映像データを合成することができる。また,データ合成部340は,左眼用データおよび右眼用データとともに,領域検出部320によって検出されなくて,左眼用データまたは右眼用データに変換されなかったデータを表示部100の画素にそれぞれ対応するように配列して立体映像データを合成する。ここで,領域検出部320によって検出されなくて,左眼用データまたは右眼用データに変換されなかったデータとは,外部から入力されるデータにおいて,立体映像表示領域に対応する第1データ以外の第4データであり,表示部100で平面映像を表示する画素に対応するデータである。
本発明の実施形態では,一部の領域だけを立体映像表示領域とし,残り領域に対しては平面映像表示領域とすることもできる。この場合,データ合成部340は,立体映像表示領域に対応する画素に対しては,第1データ(立体映像表示領域に提供されるデータ)をデータ変換部330によって各々変換した左眼用データおよび右眼用データを配列し,平面映像表示領域に対応する画素に対しては,第1データを除外した第4データ(平面映像表示領域に提供されるデータ)を配列する。
以下,図7に基づいて,本発明の第3実施形態に係る三次元映像用データを用いて立体映像使用者インターフェースを具現する三次元映像用データ処理部について具体的に説明する。
(第3実施形態)
図7は,本発明の第3実施形態に係る三次元映像用データ処理部の構成を示す。三次元映像データ処理部は,データ経路判断部310,領域検出部320,深さ情報抽出部350,効果付加部355,データ変換部360,データ合成部340,および多重化部370を含む。
データ経路判断部310は,立体映像表示活性化信号を受信してデータを受け,外部から入力されるデータが三次元映像用データの場合,データを領域検出部320に伝達する。具体的に,データ経路判断部310は,二次元映像識別信号/三次元映像識別信号から入力されるデータが三次元映像用データであるかを判別し,データを領域検出部320に伝送する。本実施形態では,外部から入力されるデータが,三次元空間情報を有するデータであるため,表示部100において立体映像を表示できるデータとなる。また,外部から入力されるデータの一部が三次元空間情報を有する場合もある。
領域検出部320は,入力されるデータのなかで,さらに立体化された映像で表現すべきデータを検出して深さ情報抽出部350に伝送する。本実施形態において,領域検出部320は,表示部100内に配列される全ての画素に対応する全てのデータ(外部から入力されるデータ)において,一部の画素に対応する第1データを検出することができる。外部から入力されるデータに対応する表示部100の全ての画素によって表示される映像は,使用者インターフェースとなる。第1データは,使用者インターフェースで使用者によって選択された領域の画素に相当するデータである。
深さ情報抽出部350は,入力される三次元映像用データに含まれた空間情報を用いて,データに対してそれぞれ深さ情報を計算してデータ変換部360に伝送する。図7に示す深さ情報抽出部350は,三次元映像用データに既に含まれた空間座標情報を用いて,左眼用画素に対する空間座標および右眼用画素に対する空間座標をそれぞれ計算し,それから深さ情報を計算する。
本実施形態に係る深さ情報抽出部350は,領域検出部320から検出されたデータ(第1データ)に対しては,そのデータの空間情報から抽出される深さ情報に既に設定された深さ情報を付け加えて出力する。この場合,領域検出部320で検出されたデータは,検出されなかった他のデータと区別される深さ情報を有することになる。本実施形態では,外部から入力されるデータの中の第1データに対して,深さ情報抽出部350によって,さらに所定の深さ情報を付け加えることができ,これにより,使用者によって選択された領域がそれ以外の領域に比べて,より一層立体化された映像で表示することができる。つまり,表示部100全体で表示される立体映像において,使用者が選択した領域をより立体化するので,使用者にとって区分しやすい映像となる。
効果付加部355は,領域検出部320で検出されたデータに所定の効果を付け加える。このような所定の効果としては,色相効果,点滅効果,または音響効果などを含むことができる。効果が色相効果の場合,効果付加部355は,領域検出部320で検出された領域に対応するデータに所定の色相情報を付け加え,効果が点滅効果の場合,効果付加部355は,領域検出部320で検出されたデータに所定の点滅情報を付け加え,効果が音響効果の場合,効果付加部355は,領域検出部320で検出されたデータに所定の音響効果を付け加えることができる。
データ変換部360は,深さ情報抽出部350からデータに対する深さ情報を受信し,効果付加部355からデータに対する所定の効果情報を受信し,受信された深さ情報または効果情報を用いて,データを左眼用データおよび右眼用データに変換してデータ合成部340に伝送する。データ変換部360は,深さ情報抽出部350より抽出された深さ情報に対応して,外部から入力されるデータに対応する画素を,所定の数の画素だけ左側および右側に移動させて左眼用データおよび右眼用データに変換することができる。移動させる画素の数は,深さ情報によって決定される。
詳述すると,入力されたデータに対応する深さ情報を用いて左眼用データおよび右眼用データを生成する方法は,次の通りである。外部から入力され,三次元空間情報を有するデータに対応するそれぞれ画素を左/右に所定の距離だけ,移動させて,左眼用データおよび右眼用データに変換する。つまり,データ変換部360は,三次元空間情報を有するデータにおいて,一部のデータを,一部のデータに対応する画素が行方向に第1数の画素だけ,左側に位置する左眼用画素に対応するようにして左眼用データに変換できる。また,三次元空間情報を有するデータにおいて,さらに他の一部のデータを,さらに他の一部のデータに対応する画素が行方向に第2数の画素だけ,右側に位置する右眼用画素に対応するようにして右眼用データに変換できる。ここで,画素の移動する数,第1数および第2数は,深さ情報抽出部350より抽出された深さ情報によって決定される。従って,データに含まれる三次元空間情報(深さ情報)に対応した画素の数だけ,移動して左眼用データおよび右眼用データを得る事ができるので,観察者は,左眼用データによる左眼用映像および右眼用データによる右眼用映像を,バリア100’によって左眼および右眼で認識する際,深さ情報に対応した深さ(ディスパリティ)を有する立体映像として認識することができる。
データ合成部340は,データ変換部360から得た左眼用データおよび右眼用データを表示部100の左眼用画素および右眼用画素の配列方法に対応するように配列して立体映像データを合成する。従って,本実施形態の立体映像表示装置は,入力される使用者インターフェースデータが三次元映像用データの場合,使用者インターフェースの少なくとも一部の領域をより立体化された映像で具現する方法を提供することができる。
以下,図8に基づいて,本発明の実施形態の立体映像表示装置を含む移動通信端末機を説明する。図8は,本発明の実施形態の立体映像表示装置を含む本発明の第4実施形態に係る移動通信端末機の例示図である。
(第4実施形態)
図8に示すように,本発明の第4実施形態に係る移動通信端末機は,ディスプレイ部910および本体920を含む。
ディスプレイ部910は,本発明の実施形態に係る立体映像表示装置の表示部100およびバリア100’などを含むように構成できる。
本体920は,キーパッド,通信モジュール,および制御部を含み,キーパッドを介して入力される使用者の入力を制御部で認識し,データを処理するか,または通信モジュールを介して移動通信を行う。ここで,制御部は,本発明の実施形態に係る立体映像表示装置のデータ処理部300およびタイミング制御部800などを含むように構成できる。図8に示す移動通信端末機は,既に保存されたデータ,または通信により受信されたデータを立体映像に変換してディスプレイ部910で表示することができる。つまり,本実施形態は,使用者によって入力されるデータから発生する信号,または移動通信端末機が所定の条件を満たす時,発生する信号である立体映像表示活性化信号に応じて,使用者によって選択されたデータまたは所定の条件に対応した立体映像を実現できる。ここで,移動通信端末機の満たす所定の条件とは,有線通信または無線通信により受信される電話着信信号,またはSMS信号などが印加される条件である。この場合,移動通信端末機の立体映像表示装置は,電話受信またはSMS受信の時に,立体映像表示活性化信号を生成してデータ経路判断部310に伝達し,データ経路判断部310は,立体映像表示活性化信号に応じて,電話受信またはSMS受信に対応して設定された立体映像を使用者に提供することができる。この際,ディスプレイ部910は,使用者インターフェース,特に一部が立体映像で表現される使用者インターフェースを表現することができる。
本発明の実施形態に係る立体映像表示装置は,使用者インターフェースのなかで少なくとも一部を立体映像で具現することにより,使用者インターフェースの一部を強調するか,または使用者インターフェースを立体的に具現することができる。具体的に,平面映像使用者インターフェースで使用者が選択するメニューアイコンに対して深さ情報を付与して立体映像で表現するか,または立体映像化された使用者インターフェースで,使用者が選択するメニューアイコンに対し,その領域を取り囲んだ周辺部と異なる深さ情報を付与して,周辺部に比べて,一層著しく表現することができる。
また,本発明の実施形態に係る立体映像表示装置において,使用者インターフェースから提供されるメニューツリーを立体映像で具現する場合,使用者は,メインメニューから中間メニューを経らなくて末端メニューを直接選択することが可能になるので,使用者インターフェースの設計をより革新的にすることができる。
以下,図9および図10に基づいて,本発明の実施形態に係る立体映像表示装置により具現される立体映像使用者インターフェースのメニューツリーの構造を説明する。図9は,従来のメニューツリーの構造を示し,図10は,本発明の実施形態に係る立体映像使用者インターフェースのメニューツリーの構造を示す。
具体的に,図9のようなメニューツリーの構造においては,メインメニュー画面で末端メニューを選択するためには,メインメニュー選択画面および中間メニュー選択画面を経て末端メニュー選択画面で末端メニューを選択しなければならなく,末端メニュー選択画面でメインメニューを選択するためには,中間メニュー選択画面を経てメインメニュー選択画面に帰ってメインメニューを選択しなければならない。しかし,本発明の実施形態に係る立体映像表示装置を用いて,図10のようにメニュー構造を立体映像で表現する場合,メインメニュー選択画面および中間メニュー選択画面を経る必要なしに,直接末端メニューを選択し,さらにメインメニューを選択することが可能である。図10は,メインメニューに高い深さ情報,中間メニューに中間の深さ情報,および末端メニューに低い深さ情報をそれぞれ付与した画面を示す。
一方,図10の使用者インターフェースで付与された深さ情報を所定の条件によって変更するように構成することができる。具体的に,図10の画面において,カメラ視点を回転させて,右側で使用者インターフェースを観察するようにすることができる。この場合,第n末端メニューが使用者に最も近く位置することになる。したがって,第n末端メニューの深さ情報は,増加しなければならなく,メインメニューの深さ情報は減少しなければならない。この場合,使用者は,中間メニューまたは末端メニューの選択のために,メインメニューを選択する必要なしにカメラ視点を回転して中間メニューまたは末端メニューを探して選択することが可能である。したがって,本発明の実施形態に係る立体映像使用者インターフェースを具現することができる立体映像表示装置は,使用者インターフェースのメニュー構成を立体的に構成して,より直観的なメニューの構成が可能であるため,
使用者に一層便利な使用者インターフェースを設計することが可能になる。
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明は係る例に限定されないことは言うまでもない。当業者であれば,特許請求の範囲に記載された範疇内において,各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。
本発明は,使用者インターフェースの具現のために,入力されるデータのなかで少なくとも一部のデータを立体映像用データに変換することで,使用者インターフェースの少なくとも一部を立体映像で表現する立体映像表示装置,および立体映像表示装置を用いた移動通信端末機に適用可能である。
ディスパリティによって観察者が感じる立体映像を示す図である。 本発明の実施形態に係る立体映像表示装置の概略図である。 図2の立体映像表示装置によって立体映像が表示される概念を示す図である。 本発明の第1実施形態に係るデータ処理部の構成を示すブロック図である。 本発明の実施形態に係る立体映像表示装置により,使用者によって選択されたメニューが立体映像で表示された立体映像使用者インターフェースを示す図である。 本発明の実施形態に係る立体映像表示装置により,使用者によって選択されたアイコンおよびテキストメニューがそれぞれ立体映像で表示された立体映像使用者インターフェースを示す図である。 本発明の実施形態に係る立体映像表示装置により,全画面が立体映像で表示された立体映像使用者インターフェースを示す図である。 本発明の第2実施形態に係る二次元映像用データ処理部の概略図である。 本発明の第3実施形態に係る三次元映像用データ処理部の概略図である。 本発明の実施形態の立体映像表示装置を含む本発明の第4実施形態に係る移動通信端末機の例示図である。 一般的な使用者インターフェースのメニューツリーの構造を簡略に示す図である。 本発明の実施形態に係る立体映像使用者インターフェースのメニューツリーの構造を簡略に示す図である。
符号の説明
100 表示部
100’ バリア
150 左眼用画素
150’ 不透明領域
160 右眼用画素
160’ 透明領域
170 右眼
180 左眼
200 走査駆動部
300 データ処理部
310 データ経路判断部
320 領域検出部
325 深さ情報付加部
330 データ変換部
340 データ合成部
350 深さ情報抽出部
360 データ変換部
370 多重化部
400 データ駆動部
500 光源
600 光源制御部
700 モード変換部
800 タイミング制御部
910 ディスプレイ部
920 本体
D1〜Dm データ線
S1〜Sn 走査線

Claims (32)

  1. 行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素を含む表示部と;
    外部から入力されるデータのなかで,複数の前記画素の少なくとも一部の前記画素にそれぞれ対応する第1データを検出する領域検出部と;
    前記第1データを前記左眼用画素に対応する左眼用データ,および前記右眼用画素に対応する右眼用データに変換するデータ変換部と;
    前記左眼用データおよび前記右眼用データを配列して立体映像データを合成するデータ合成部と;
    前記立体映像データに対応するデータ信号を前記表示部に印加するデータ駆動部と;
    を含むことを特徴とする,立体映像表示装置。
  2. 第2データは,前記第1データに含まれる少なくとも一部のデータであり,
    前記データ変換部は,
    前記第2データの一部のデータに相当する前記画素が前記行方向に第1数の前記画素だけ,左側に位置した前記左眼用画素に対応するように,前記第2データの一部のデータを前記左眼用データに変換し,
    前記第2データの他の一部のデータに相当する前記画素が前記行方向に第2数の前記画素だけ,右側に位置した前記右眼用画素に対応するように,前記第2データの他の一部のデータを前記右眼用データに変換することを特徴とする,請求項1に記載の立体映像表示装置。
  3. 各々の前記第1データにそれぞれ対応し,基準面である前記表示部に対する所定の距離に相当する深さ情報を含む深さ情報マップを用いて,前記第1データに対応する前記深さ情報を前記データ変換部に伝達する深さ情報付加部をさらに含むことを特徴とする,請求項1または2に記載の立体映像表示装置。
  4. 前記データ変換部は,
    前記第1データのなかで,一部の第2データを,前記第2データに相当する各々の前記画素が前記行方向に第1数の前記画素だけ,左側または右側に位置した前記左眼用画素または前記右眼用画素に対応するようにして,前記左眼用データまたは前記右眼用データに変換し,
    前記第1データのなかで,さらに他の一部の第3データを,前記第3データに相当する各々の前記画素が前記行方向に第2数の前記画素だけ,左側または右側に位置した前記左眼用画素または前記右眼用画素に対応するようにして,前記左眼用データまたは前記右眼用データに変換し,
    前記第1数または前記第2数は,前記第2データまたは前記第3データにそれぞれ対応する前記深さ情報によって決定されることを特徴とする,請求項3に記載の立体映像表示装置。
  5. 複数の前記画素によって表現される前記表示部の映像は,使用者インターフェースであることを特徴とする,請求項1〜4のいずれかに記載の立体映像表示装置。
  6. 前記第1データは,前記使用者インターフェースにおいて,使用者によって選択される領域に含まれるデータであることを特徴とする,請求項5に記載の立体映像表示装置。
  7. 前記領域検出部は,前記使用者インターフェースにおいて,前記使用者によって選択される所定のポインティング手段で,選ばれる領域に対応するデータを,前記第1データとして検出することを特徴とする,請求項6に記載の立体映像表示装置。
  8. 前記データ合成部は,前記表示部の複数の前記左眼用画素および複数の前記右眼用画素の配列方法に対応して,前記左眼用データおよび前記右眼用データを配列することを特徴とする,請求項1〜7のいずれかに記載の立体映像表示装置。
  9. 前記データ合成部は,前記データ変換部において,前記第1データから変換された前記左眼用データおよび前記右眼用データと,外部から入力される前記データにおいて,前記第1データを除いた第4データとを配列して,一部領域に前記立体映像データを含むようにデータを合成して前記データ駆動部に伝達することを特徴とする,請求項1〜8のいずれかに記載の立体映像表示装置。
  10. 前記左眼用画素で表現される映像が,前記使用者の左眼方向に投射され,前記右眼用画素で表現される映像が前記使用者の右眼方向に投射されるように,透明領域および不透明領域が配列されているバリアを含むことを特徴とする,請求項6〜9のいずれかに記載の立体映像表示装置。
  11. 前記バリアに印加される電圧によって,前記不透明領域が前記透明領域に転換され,または前記透明領域が前記不透明領域に転換されることを特徴とする,請求項10に記載の立体映像表示装置。
  12. 前記第1数,前記第2数,または前記深さ情報は,前記使用者によって変更可能であることを特徴とする,請求項6〜11のいずれかに記載の立体映像表示装置。
  13. 行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素を含む表示部と;
    外部から入力されるデータ内に含まれている三次元空間情報を用いて,前記データの深さ情報を抽出する深さ情報抽出部と;
    前記深さ情報を用いて,前記データを前記左眼用画素に対応する左眼用データおよび前記右眼用画素に対応する右眼用データに変換するデータ変換部と;
    前記左眼用データおよび前記右眼用データを配列して,立体映像データを合成するデータ合成部と;
    前記立体映像データに対応するデータ信号を前記表示部に印加するデータ駆動部と;
    を含むことを特徴とする,立体映像表示装置。
  14. 前記データ変換部は,
    前記データのなかで,一部の前記データを,前記一部のデータに対応する前記画素が前記行方向に第1数の前記画素だけ,左側に位置した前記左眼用画素に対応するようにして前記左眼用データに変換し,
    前記データのなかで,さらに他の一部の前記データを,前記さらに他の一部のデータに対応する前記画素が前記行方向に第2数の前記画素だけ,右側に位置した前記右眼用画素に対応するようにして前記右眼用データに変換することを特徴とする,請求項13に記載の立体映像表示装置。
  15. 前記第1数および前記第2数は,前記深さ情報抽出部から伝達される前記深さ情報によって決定されることを特徴とする,請求項14に記載の立体映像表示装置。
  16. 複数の前記画素によって表現される前記表示部の映像は,使用者インターフェースであることを特徴とする,請求項13〜15のいずれかに記載の立体映像表示装置。
  17. 前記表示部内に配列されている全ての前記画素に対応する全ての前記データのなかで,一部の前記画素に対応する第1データを検出する領域検出部をさらに含むことを特徴とする,請求項13〜16のいずれかに記載の立体映像表示装置。
  18. 前記領域検出部で検出される前記第1データは,前記使用者インターフェースで使用者が選択した領域に対応するデータであることを特徴とする,請求項17に記載の立体映像表示装置。
  19. 前記深さ情報抽出部は,前記領域検出部で検出される前記第1データに対し,抽出された前記深さ情報に所定の前記深さ情報をさらに付け加えることを特徴とする,請求項17または18に記載の立体映像表示装置。
  20. 前記データ合成部は,前記表示部の複数の前記左眼用画素および複数の前記右眼用画素の配列方法に対応して,前記左眼用データおよび前記右眼用データを配列することを特徴とする,請求項13〜19のいずれかに記載の立体映像表示装置。
  21. 前記左眼用画素で表現される映像が,前記使用者の左眼方向に投射され,前記右眼用画素で表現される映像が,前記使用者の右眼方向に投射されるように,透明領域および不透明領域が配列されているバリアを含むことを特徴とする,請求項18〜20のいずれかに記載の立体映像表示装置。
  22. 前記バリアに印加される電圧によって,前記不透明領域が前記透明領域に転換され,または前記透明領域が前記不透明領域に転換されることを特徴とする,請求項21に記載の立体映像表示装置。
  23. 行列形状で形成され,各々が行方向に交互に配列されている左眼用画素および右眼用画素からなる複数の画素を含む表示部と;
    外部から入力されるデータのなかで,複数の前記画素の少なくとも一部の前記画素にそれぞれ対応する第1データを検出する領域検出部と;
    前記第1データが二次元映像用データの場合,前記第1データを,前記左眼用画素に対応する左眼用データおよび前記右眼用画素に対応する右眼用データに変換する第1データ変換部と;
    前記第1データが三次元映像用データの場合,前記第1データ内に含まれている三次元空間情報を用いて,前記第1データのそれぞれに対する深さ情報を抽出する深さ情報抽出部によって抽出される前記深さ情報を用いて,前記第1データを,前記左眼用画素に対応する左眼用データおよび前記右眼用画素に対応する右眼用データに変換する第2データ変換部と;
    前記第1データ変換部または前記第2データ変換部で生成される前記左眼用データおよび前記右眼用データを配置して立体映像データを合成するデータ合成部と;
    前記立体映像データに対応するデータ信号を前記表示部に印加するデータ駆動部と;
    を含むことを特徴とする,立体映像表示装置。
  24. 前記第1データ変換部は,
    前記第1データのなかで少なくとも一部の第2データを,前記第2データに対応する各々の前記画素が前記行方向に第1数の前記画素だけ,左側または右側に位置した前記左眼用画素または前記右眼用画素に対応するようにして,前記左眼用データまたは前記右眼用データに変換し,
    前記第1データのなかでさらに他の一部の第3データを,前記第3データに対応する各々の前記画素が前記行方向に第2数の前記画素だけ,左側または右側に位置した前記左眼用画素または前記右眼用画素に対応するようにして,前記左眼用データまたは前記右眼用データに変換し,
    前記第1数または前記第2数は,前記表示部の大きさまたは解像度に応じて使用者によって決定されることを特徴とする,請求項23に記載の立体映像表示装置。
  25. 前記深さ情報抽出部は,前記領域検出部で検出される前記第1データに対して,抽出された前記深さ情報に所定の前記深さ情報をさらに付け加えることを特徴とする,請求項23または24に記載の立体映像表示装置。
  26. 複数の前記画素によって表現される前記表示部の映像は,使用者インターフェースであることを特徴とする,請求項23〜25のいずれかに記載の立体映像表示装置。
  27. 前記第1データは,前記使用者インターフェースで,前記使用者によって選択される領域に含まれるデータであることを特徴とする,請求項26に記載の立体映像表示装置。
  28. 前記データ合成部は,前記表示部の前記複数の左眼用画素および前記複数の右眼用画素の配列方法に対応して,前記左眼用データおよび前記右眼用データを配列することを特徴とする,請求項23〜27のいずれかに記載の立体映像表示装置。
  29. 有線通信または無線通信のための通信装置と;
    少なくとも一部の立体映像を含む使用者インターフェースが具現されるディスプレイ部と;
    前記通信装置を介して受信されるデータ,または既に記憶されているデータを前記ディスプレイ部によって表示させる,請求項1〜28のいずれかに記載の立体映像表示装置と;
    を含むことを特徴とする,移動通信端末機。
  30. 立体映像表示活性化信号に応じて,所定のデータを立体映像に変換して表示することを特徴とする,請求項29に記載の移動通信端末機。
  31. 前記立体映像表示活性化信号は,使用者によって入力される信号,または前記移動通信端末機が所定の条件を満たす場合に発生される信号であることを特徴とする,請求項30に記載の移動通信端末機。
  32. 前記所定の条件は,前記移動通信端末機に前記有線通信または前記無線通信により,電話着信信号またはSMS信号が印加される条件であることを特徴とする,請求項31に記載の移動通信端末機。
JP2005329244A 2005-06-30 2005-11-14 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機 Pending JP2007013914A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050057788A KR100649523B1 (ko) 2005-06-30 2005-06-30 입체 영상 표시 장치

Publications (1)

Publication Number Publication Date
JP2007013914A true JP2007013914A (ja) 2007-01-18

Family

ID=36785854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005329244A Pending JP2007013914A (ja) 2005-06-30 2005-11-14 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機

Country Status (6)

Country Link
US (1) US8111906B2 (ja)
EP (1) EP1739980B1 (ja)
JP (1) JP2007013914A (ja)
KR (1) KR100649523B1 (ja)
CN (1) CN1893673B (ja)
DE (1) DE602006008537D1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009246625A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
JP2010026015A (ja) * 2008-07-15 2010-02-04 Kenji Yoshida 裸眼立体映像表示装置
JP2010092430A (ja) * 2008-10-10 2010-04-22 Toshiba Tec Corp 表示装置及び表示制御プログラム
WO2010084791A1 (ja) * 2009-01-21 2010-07-29 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2010268431A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
KR20100125632A (ko) * 2009-05-21 2010-12-01 엘지전자 주식회사 아이콘 표시 방법 및 이를 적용한 이동 통신 단말기
JP2011035827A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置及び表示方法
JP2012134725A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置、及び画像処理方法
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法
WO2012169336A1 (ja) * 2011-06-08 2012-12-13 シャープ株式会社 立体映像表示装置
KR20150050486A (ko) * 2013-10-30 2015-05-08 가부시키가이샤 모르포 화상처리장치, 화상처리방법 및 프로그램

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062351A1 (en) * 2006-11-21 2008-05-29 Koninklijke Philips Electronics N.V. Generation of depth map for an image
US8558832B1 (en) * 2007-06-19 2013-10-15 Nvida Corporation System, method, and computer program product for generating a plurality of two-dimensional images and depth maps for a scene at a point in time
US8296461B2 (en) * 2007-08-07 2012-10-23 Object Innovation Inc. Data transformation and exchange
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US8531509B2 (en) * 2007-12-27 2013-09-10 Texas Instruments Incorporated Method and system for three-dimensional displays
JP4925354B2 (ja) * 2008-03-31 2012-04-25 富士フイルム株式会社 画像処理装置、画像表示装置、撮像装置及び画像処理方法
CN102150433B (zh) * 2008-09-18 2014-04-09 松下电器产业株式会社 立体视觉影像再现装置及立体视觉影像显示装置
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
DE102009004820A1 (de) * 2009-01-13 2010-07-15 Adp Gauselmann Gmbh Verfahren zur Darstellung von virtuellen 3-D-Objekten mit einer in einem münzbetätigten Unterhaltungsautomaten angeordneten matrixbasierenden Anzeigeeinheit
KR100989126B1 (ko) * 2009-02-05 2010-10-20 삼성모바일디스플레이주식회사 전자 영상 기기 및 그 구동 방법
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
KR20100099896A (ko) * 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
JP4915456B2 (ja) * 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
EP2439934A4 (en) * 2009-06-05 2014-07-02 Lg Electronics Inc IMAGE DISPLAY DEVICE AND METHOD OF OPERATING IT
WO2010150976A2 (en) * 2009-06-23 2010-12-29 Lg Electronics Inc. Receiving system and method of providing 3d image
US9021399B2 (en) 2009-06-24 2015-04-28 Lg Electronics Inc. Stereoscopic image reproduction device and method for providing 3D user interface
CN101938670A (zh) * 2009-06-26 2011-01-05 Lg电子株式会社 图像显示装置及其操作方法
KR20140010171A (ko) * 2009-07-07 2014-01-23 엘지전자 주식회사 3차원 사용자 인터페이스 출력 방법
US8413073B2 (en) * 2009-07-27 2013-04-02 Lg Electronics Inc. Providing user interface for three-dimensional display device
JP5444955B2 (ja) 2009-08-31 2014-03-19 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP4875127B2 (ja) 2009-09-28 2012-02-15 パナソニック株式会社 三次元画像処理装置
CN105530551B (zh) * 2009-10-16 2019-01-29 Lg电子株式会社 指示3d内容的方法和处理信号的装置
KR20110044573A (ko) * 2009-10-23 2011-04-29 삼성전자주식회사 디스플레이장치 및 그 영상표시방법
US20110102556A1 (en) * 2009-11-03 2011-05-05 Kim Sungdo Method for displaying 3d image by using the binocular disparity in mobile terminal and mobile terminal using the same
JP4733764B2 (ja) * 2009-11-10 2011-07-27 パナソニック株式会社 三次元映像処理装置及び三次元映像処理方法
KR101635567B1 (ko) * 2009-11-12 2016-07-01 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101631451B1 (ko) 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR20110055096A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 휴대용 단말기에서 입체 효과 설정 방법 및 장치
US9307224B2 (en) 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
US20110126160A1 (en) * 2009-11-23 2011-05-26 Samsung Electronics Co., Ltd. Method of providing 3d image and 3d display apparatus using the same
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
KR101634388B1 (ko) * 2009-12-07 2016-06-28 엘지전자 주식회사 이동 통신 단말기에서 방송 데이터를 표시하는 방법 및 이를 적용한 이동 통신 단말기
KR101626310B1 (ko) * 2010-03-25 2016-06-13 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8908015B2 (en) 2010-03-24 2014-12-09 Appcessories Llc Apparatus and method for producing images for stereoscopic viewing
KR101739043B1 (ko) * 2010-04-05 2017-06-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 입체 영상 표시 방법
JP2013530413A (ja) * 2010-04-20 2013-07-25 エントロピック・コミュニケーションズ・インコーポレイテッド 3次元ディスプレイでユーザーインターフェースを表示するためのシステムおよび方法
GB2479784B (en) * 2010-04-23 2012-11-07 Nds Ltd Image scaling
US10194132B2 (en) 2010-08-03 2019-01-29 Sony Corporation Establishing z-axis location of graphics plane in 3D video display
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
KR101688153B1 (ko) * 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
KR20120015165A (ko) * 2010-08-11 2012-02-21 엘지전자 주식회사 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기
JP2012060236A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、画像処理方法およびコンピュータプログラム
KR20120037858A (ko) * 2010-10-12 2012-04-20 삼성전자주식회사 입체영상표시장치 및 그 ui 제공 방법
KR101279661B1 (ko) * 2010-11-05 2013-07-05 엘지디스플레이 주식회사 입체 영상 표시장치와 그 전원 제어방법
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
JP2012103980A (ja) * 2010-11-11 2012-05-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
IT1402995B1 (it) * 2010-11-12 2013-09-27 Sisvel Technology Srl Metodo di elaborazione di un contenuto video tridimensionale e relativo apparato
EP2461238B1 (en) 2010-12-02 2017-06-28 LG Electronics Inc. Image display apparatus including an input device
EP2472878A1 (en) * 2010-12-31 2012-07-04 Advanced Digital Broadcast S.A. Method and apparatus for combining images of a graphic user interface with a stereoscopic video
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法
US9363504B2 (en) * 2011-06-23 2016-06-07 Lg Electronics Inc. Apparatus and method for displaying 3-dimensional image
TWI457887B (zh) * 2011-07-19 2014-10-21 Au Optronics Corp 子像素陣列的佈局方法
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
JP6242569B2 (ja) * 2011-08-25 2017-12-06 東芝メディカルシステムズ株式会社 医用画像表示装置及びx線診断装置
KR101841750B1 (ko) * 2011-10-11 2018-03-26 한국전자통신연구원 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법
CN102523467A (zh) * 2011-12-09 2012-06-27 彩虹集团公司 一种2d视频转3d的简易方法
US9786253B2 (en) * 2012-01-25 2017-10-10 Lumenco, Llc Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
WO2013169865A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
KR20140016735A (ko) * 2012-07-31 2014-02-10 삼성전자주식회사 3d 영상 변환 방법 및 이를 적용한 디스플레이 장치
TWI495327B (zh) * 2013-02-07 2015-08-01 Au Optronics Corp 顯示裝置及其操作方法
US9798461B2 (en) 2013-03-15 2017-10-24 Samsung Electronics Co., Ltd. Electronic system with three dimensional user interface and method of operation thereof
KR20140115854A (ko) * 2013-03-22 2014-10-01 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
US9292906B1 (en) * 2013-09-06 2016-03-22 Google Inc. Two-dimensional image processing based on third dimension data
KR102115930B1 (ko) * 2013-09-16 2020-05-27 삼성전자주식회사 디스플레이 장치 및 영상 처리 방법
WO2015089105A1 (en) * 2013-12-09 2015-06-18 Respira Therapeutics, Inc. Pde5 inhibitor powder formulations and methods relating thereto
US9557822B2 (en) * 2014-09-08 2017-01-31 Atheer, Inc. Method and apparatus for distinguishing features in data
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN108828774A (zh) * 2018-07-02 2018-11-16 京东方科技集团股份有限公司 虚拟现实显示设备
KR102506873B1 (ko) * 2018-07-18 2023-03-08 현대자동차주식회사 차량 입체 클러스터, 그를 포함한 시스템 및 그 입체 화면 제공 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2000078611A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
WO2004099965A1 (ja) * 2003-05-07 2004-11-18 Seijiro Tomita 画像表示方法及び装置
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4875034A (en) * 1988-02-08 1989-10-17 Brokenshire Daniel A Stereoscopic graphics display system with multiple windows for displaying multiple images
JP3083635B2 (ja) * 1992-04-03 2000-09-04 日本電信電話株式会社 3次元立体画像/2次元画像共存型表示装置
JPH07114451A (ja) 1993-10-19 1995-05-02 Canon Inc 3次元メニュー選択方法とその装置
JPH0879800A (ja) * 1994-09-06 1996-03-22 Olympus Optical Co Ltd 映像表示装置
JP3459721B2 (ja) * 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP2973867B2 (ja) * 1995-05-26 1999-11-08 日本電気株式会社 視点追従型立体表示装置および視点追従方法
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
DE69706611T2 (de) * 1996-06-27 2002-07-04 Toshiba Kawasaki Kk Stereoskopisches Display-System und -Verfahren
US6023277A (en) 1996-07-03 2000-02-08 Canon Kabushiki Kaisha Display control apparatus and method
DE19801801C2 (de) * 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
JPH10232626A (ja) * 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH1139135A (ja) * 1997-07-22 1999-02-12 Sanyo Electric Co Ltd カーソル表示装置
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
JP3619063B2 (ja) * 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
US7477284B2 (en) * 1999-09-16 2009-01-13 Yissum Research Development Company Of The Hebrew University Of Jerusalem System and method for capturing and viewing stereoscopic panoramic images
EP1098498A1 (fr) 1999-11-04 2001-05-09 Koninklijke Philips Electronics N.V. Appareil comportant un écran pour des images stéréoscopiques
DE60014420T2 (de) 1999-11-26 2005-10-13 Sanyo Electric Co., Ltd., Moriguchi Verfahren zur 2d/3d videoumwandlung
JP2001251403A (ja) 2000-03-07 2001-09-14 Sony Corp 電話装置
JP3983953B2 (ja) * 2000-03-10 2007-09-26 パイオニア株式会社 立体的2次元画像表示装置及び画像表示方法
JP3980242B2 (ja) * 2000-03-10 2007-09-26 パイオニア株式会社 立体的2次元画像表示装置及び画像表示方法
IL159537A0 (en) * 2001-06-28 2004-06-01 Omnivee Inc Method and apparatus for control and processing of video images
EP1433335B1 (en) * 2001-08-15 2010-09-29 Koninklijke Philips Electronics N.V. 3d video conferencing system
CA2361341A1 (en) * 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
US20040027267A1 (en) * 2002-03-22 2004-02-12 Rousso Armand M. 3D entertainment system
JP4061473B2 (ja) 2002-04-26 2008-03-19 日本電気株式会社 折り畳み型携帯電話機
JP2004145832A (ja) 2002-08-29 2004-05-20 Sharp Corp コンテンツ作成装置、コンテンツ編集装置、コンテンツ再生装置、コンテンツ作成方法、コンテンツ編集方法、コンテンツ再生方法、コンテンツ作成プログラム、コンテンツ編集プログラム、および携帯通信端末
JP2004112175A (ja) * 2002-09-17 2004-04-08 Sharp Corp 2d(2次元)及び3d(3次元)表示機能を備える電子機器
EP1403759A3 (en) 2002-09-17 2007-04-04 Sharp Kabushiki Kaisha Electronic equipment with two and three dimensional display functions
JP4093833B2 (ja) * 2002-09-25 2008-06-04 シャープ株式会社 電子機器
JP3700707B2 (ja) * 2003-03-13 2005-09-28 コニカミノルタホールディングス株式会社 計測システム
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
KR100561401B1 (ko) * 2003-07-28 2006-03-16 삼성전자주식회사 2차원 및 3차원 영상의 호환이 가능한 다 시점 3차원 영상시스템의 영상표시부
US20050088516A1 (en) * 2003-10-23 2005-04-28 Myoung-Seop Song Display device for both two-dimensional and three-dimensional images and display method thereof
JP2005175566A (ja) * 2003-12-08 2005-06-30 Shinichi Hirabayashi 立体表示システム
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
DE602004004581T2 (de) * 2004-04-19 2008-02-21 Sony Deutschland Gmbh Modulares Projektionssystem für Stereoskopie mit nur einer Lichtquelle und zeitsequentieller Farbsteuerung
US7656403B2 (en) * 2005-05-13 2010-02-02 Micoy Corporation Image processing and display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
JP2000078611A (ja) * 1998-08-31 2000-03-14 Toshiba Corp 立体映像受信装置及び立体映像システム
WO2004099965A1 (ja) * 2003-05-07 2004-11-18 Seijiro Tomita 画像表示方法及び装置
JP2005049668A (ja) * 2003-07-30 2005-02-24 Sharp Corp データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009246625A (ja) * 2008-03-31 2009-10-22 Fujifilm Corp 立体表示装置及び立体表示方法並びにプログラム
JP2010026015A (ja) * 2008-07-15 2010-02-04 Kenji Yoshida 裸眼立体映像表示装置
JP2010092430A (ja) * 2008-10-10 2010-04-22 Toshiba Tec Corp 表示装置及び表示制御プログラム
WO2010084791A1 (ja) * 2009-01-21 2010-07-29 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2010268431A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
KR101643418B1 (ko) * 2009-05-21 2016-07-27 엘지전자 주식회사 아이콘 표시 방법 및 이를 적용한 이동 통신 단말기
KR20100125632A (ko) * 2009-05-21 2010-12-01 엘지전자 주식회사 아이콘 표시 방법 및 이를 적용한 이동 통신 단말기
JP2011035827A (ja) * 2009-08-05 2011-02-17 Sony Corp 表示装置及び表示方法
JP2012134725A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置、及び画像処理方法
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法
JP2012256990A (ja) * 2011-06-08 2012-12-27 Sharp Corp 立体映像表示装置
WO2012169336A1 (ja) * 2011-06-08 2012-12-13 シャープ株式会社 立体映像表示装置
KR20150050486A (ko) * 2013-10-30 2015-05-08 가부시키가이샤 모르포 화상처리장치, 화상처리방법 및 프로그램
JP2015111822A (ja) * 2013-10-30 2015-06-18 株式会社モルフォ 画像処理装置、画像処理方法及びプログラム
US9508173B2 (en) 2013-10-30 2016-11-29 Morpho, Inc. Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium
KR101709380B1 (ko) * 2013-10-30 2017-02-22 가부시키가이샤 모르포 화상처리장치, 화상처리방법 및 프로그램

Also Published As

Publication number Publication date
CN1893673B (zh) 2012-04-04
KR100649523B1 (ko) 2006-11-27
DE602006008537D1 (de) 2009-10-01
US20070003134A1 (en) 2007-01-04
US8111906B2 (en) 2012-02-07
EP1739980A1 (en) 2007-01-03
CN1893673A (zh) 2007-01-10
EP1739980B1 (en) 2009-08-19

Similar Documents

Publication Publication Date Title
JP2007013914A (ja) 立体映像表示装置,および立体映像表示装置を用いた移動通信端末機
EP1742491B1 (en) Stereoscopic image display device
US8854531B2 (en) Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US8922545B2 (en) Three-dimensional display system with adaptation based on viewing reference of viewer(s)
EP2793472A2 (en) Method for providing three-dimensional (3D) image, method for converting 3D message, graphical user interface (GUI) providing method related to 3D image, and 3D display apparatus and system for providing 3D image
WO2011132422A1 (ja) 立体映像表示装置、立体映像表示方法
EP1909255A1 (en) Image display device
US9319674B2 (en) Three-dimensional image display device and driving method thereof
JP2002092656A (ja) 立体画像表示装置及び画像データの表示方法
CN101236454A (zh) 操作装置
KR20070005091A (ko) 입체 영상 표시 장치
CN104836998A (zh) 显示设备及其控制方法
KR101648864B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치 및 3d 영상 제공 시스템
KR20090026834A (ko) 입체영상 표시 방법 및 그 장치
US20180301070A1 (en) Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
KR101639310B1 (ko) 3d 영상에 대한 gui 제공방법 및 이를 이용한 디스플레이 장치
KR101922086B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
JP2012070112A (ja) 表示装置
WO2008123660A1 (en) 3d lcd monitor control system
KR20140105922A (ko) 입체 영상 표시 방법
KR20160030770A (ko) 무안경 입체영상표시장치
JP2014116843A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080901

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20081209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110608

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726