JP2007048293A - 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法 - Google Patents

3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法 Download PDF

Info

Publication number
JP2007048293A
JP2007048293A JP2006214939A JP2006214939A JP2007048293A JP 2007048293 A JP2007048293 A JP 2007048293A JP 2006214939 A JP2006214939 A JP 2006214939A JP 2006214939 A JP2006214939 A JP 2006214939A JP 2007048293 A JP2007048293 A JP 2007048293A
Authority
JP
Japan
Prior art keywords
video data
unit
video
matrix
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006214939A
Other languages
English (en)
Other versions
JP4965184B2 (ja
Inventor
Myoung-Seop Song
明燮 宋
Jang-Doo Lee
璋斗 李
Kyokyoku Cho
亨旭 張
Hee Nam
熙 南
Beom-Shik Kim
範植 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung SDI Co Ltd
Original Assignee
Samsung SDI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020050071602A external-priority patent/KR20070016712A/ko
Priority claimed from KR1020050089406A external-priority patent/KR100670152B1/ko
Application filed by Samsung SDI Co Ltd filed Critical Samsung SDI Co Ltd
Publication of JP2007048293A publication Critical patent/JP2007048293A/ja
Application granted granted Critical
Publication of JP4965184B2 publication Critical patent/JP4965184B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】3Dグラフィックデータから立体映像データを生成して表示する。
【解決手段】3Dグラフィック変換マトリックス及びユーザ指定変数より第1、第2マトリックスを生成する第1、第2マトリックス生成部332、333と;3Dグラフィックデータの空間情報と第1、第2マトリックスとをそれぞれ演算して第1、第2視点の空間座標情報をそれぞれ生成する第1、第2マトリックス演算部335、336と;第1、第2視点の空間座標情報と3Dグラフィックデータの表面情報とをそれぞれレンダリングして第1、第2視点の映像データを生成する第1、第2レンダリングエンジン342、342と;第1、第2視点の映像データが格納されるメモリ部352、353と;メモリ部352、353に格納された映像データに対応する2次元映像または立体映像が表示されるように表示部600を駆動させる駆動部500と;を含んで映像を表示するようにした。
【選択図】図3

Description

本発明は、3Dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法にかかり、さらに詳しくは、入力された3Dグラフィックデータに基づいて立体映像データを生成する3Dグラフィックデータ処理装置及び、かかる3Dグラフィックデータ処理装置を用いて入力された3Dグラフィックデータに基づいて立体映像データを生成して立体映像を表示する立体映像表示装置並びに、立体映像表示装置の駆動方法に関する。
一般に、人間が立体感を感じるのには生理的な要因及び経験的な要因がある。そして、近距離で立体感を認識する最も大きい要因は、一般的に両眼視差(binocular parallax)であるとされている。3次元映像表示技術では、このような左右の眼で見る映像が異なることにより、それを奥行きとして認識する両眼視差を利用して物体の立体感を表現する。このような両眼視差を利用する方式には、大別して眼鏡を着用する方式と眼鏡を着用しない眼鏡不要方式とがある。
眼鏡を着用する方式には、アナグリフ方式、偏光方式、時分割方式などがある。アナグリフ方式では、一方の眼に青色、他方の眼に赤色の色眼鏡を着用する。偏光方式では、左右の眼でそれぞれ偏光方向が異なる偏光眼鏡を使用する。時分割方式では、時間分割された画面を周期的に反復表示させて、この周期に同期させた電子シャッターが設けられた眼鏡をかける。しかしながら、眼鏡を着用する方式は、眼鏡を使わなければならないといった不便さがあることと、眼鏡をかけた状態で映像以外の他の物体を観察する場合に支障を生じる等の問題がある。したがって、最近では眼鏡を着用しない方式に対する研究が活発に進められている。
眼鏡を着用しない眼鏡不要方式は、左右の眼の映像を空間的に分離することにより、立体的な映像を知覚させることのできる方式であり、視聴者は特殊装置を着用する必要がない。眼鏡不要方式の代表的なものには、レンチキュラーレンズアレイを利用する方式や、パララックスバリヤを利用する方式などがある。
一方、最近では2次元映像(2D映像)と立体映像(3次元映像または3D映像)を共に表示できる立体映像表示装置が開発されて商用化されている。かかる立体映像表示装置は、2次元映像または立体映像のいずれかを選択的に表示することができる。このとき、2次元映像または立体映像を表示させるための映像データは、別途の装置から入力されるのが一般的であった。例えば、2次元映像を表示する場合は別途の装置で生成された2次元映像データ(2D映像データ)が入力され、立体映像を表示する場合は別途の装置で生成された立体映像データ(3次元映像データまはた3D映像データ)が入力されるのが一般的であった。
したがって、上記のような従来の立体映像表示装置は、2次元映像データと立体映像データをそれぞれ別途に製作しなければならないといった問題があった。すなわち、上記立体映像表示装置に映像を表示させるためには、映像データは2次元映像データまたは立体映像データの形式で入力されなければならなかった。例えば、オブジェクト(客体)の3次元空間座標及び表面情報を含んで平面上に立体的に表示される2次元映像である3Dグラフィックデータを上記立体映像表示装置に立体映像として表示するには、3Dグラフィックデータを立体映像データに変換してから上記立体映像表示装置に入力しなければならなかった。また、このような立体映像表示装置は、上記のように2次元映像データまたは立体映像データが入力されるため、それぞれのデータを格納することのできる別々の格納手段(格納素子)を備えていなければならないといった問題があった。
上記のような問題は、立体映像表示装置の商用化にあたって大きな阻害要素になっている。
そこで、本発明は、このような問題に鑑みてなされたもので、その目的とするところは、入力された3Dグラフィックデータに基づいて立体映像データを生成する3Dグラフィックデータ処理装置及び、かかる3Dグラフィックデータ処理装置を備えて立体映像を表示する立体映像表示装置並びに立体映像表示装置の駆動方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、表示部に映像を表示する立体映像表示装置であって;3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて、第1視点の空間座標情報を算出する際に用いる第1マトリックスを生成する第1マトリックス生成部と;上記3Dグラフィック変換マトリックス及び上記ユーザ指定変数に基づいて、上記第1視点とは異なる第2視点の空間座標情報を算出する際に用いる第2マトリックスを生成する第2マトリックス生成部と;3Dグラフィックデータに含まれる空間情報と上記第1マトリックスとの演算を行って上記第1視点の空間座標情報を生成する第1マトリックス演算部と;上記3Dグラフィックデータに含まれる上記空間情報と上記第2マトリックスとの演算を行って上記第2視点の空間座標情報を生成する第2マトリックス演算部と;上記第1視点の空間座標情報と上記3Dグラフィックデータに含まれる表面情報とのレンダリングを行って第1視点の映像データを生成する第1レンダリングエンジンと;上記第2視点の空間座標情報と上記3Dグラフィックデータに含まれる上記表面情報とのレンダリングを行って第2視点の映像データを生成する第2レンダリングエンジンと;上記第1視点の映像データ及び上記第2視点の映像データが格納されるメモリ部と;上記メモリ部に格納された上記第1視点の映像データ及び上記第2視点の映像データを入力されて、上記第1視点の映像データ及び上記第2視点の映像データに対応する映像が上記表示部に表示されるように上記表示部を駆動させる駆動部と;を含んで構成されることを特徴とする立体映像表示装置が提供される。
このような本発明にかかる立体映像表示装置によれば、3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて、入力された3Dグラフィックデータの第1視点の映像データ及び第2視点の映像データを生成して格納部に格納し、上記格納された第1視点の映像データ及び第2視点の映像データに対応する映像を表示部に表示させることができる。このように、上記立体映像表示装置は3Dグラフィックデータから映像データを生成することができるので、3Dグラフィックデータを表示部の構成に対応した映像データに変換する別途の装置や手段を設ける必要がない。また、上記立体映像表示装置に入力された3Dグラフィックデータを順次処理して映像を表示させることができるので、映像の表示に要する時間が短縮される。更に、第1視点の映像データを生成するための、第1マトリックス生成部、第1マトリックス演算部、第1レンダリングエンジンを含む第1の処理部と、第2視点の映像データを生成するための、第2マトリックス生成部、第2マトリックス演算部、第2レンダリングエンジンを含む第2の処理部とを設けて、別々の処理部により第1視点の3Dグラフィックデータ及び第2視点の3Dグラフィックデータを処理できるようにしたことにより、映像の表示速度がより向上される。
このとき、上記表示部は、上記駆動部から入力された駆動信号に基づいて、2次元映像または立体映像のいずれかを表示することができる。従って、上記立体映像表示装置は、3Dグラフィックデータを入力されて、かかる3Dグラフィックデータより2次元映像を表示することもできるし、立体映像を表示することもできる。
また、上記立体映像表示装置は、上記2次元映像の表示または上記立体映像の表示を指示する立体映像活性化信号を入力されて、上記立体映像活性化信号が2次元映像の表示を指示する場合に、上記3Dグラフィック変換マトリックスを上記第1マトリックス生成部または上記第2マトリックス生成部にフレーム単位で交互に伝達する生成部選択部をさらに含むことができる。これにより、上記立体映像表示装置は、3Dグラフィックデータを用いて2次元映像を表示することを指示された場合に、第1マトリックス生成部、第1マトリックス演算部、第1レンダリングエンジンを含む第1の処理部と、第2マトリックス生成部、第2マトリックス演算部、第2レンダリングエンジンを含む第2の処理部とにより、交互に3Dグラフィックデータを処理することができる。
ここで、上記第1マトリックス生成部は、上記ユーザ指定変数に2次元映像を意味する情報が含まれる場合、上記3Dグラフィック変換マトリックスを上記第1マトリックスとして出力し;上記第2マトリックス生成部は、上記ユーザ指定変数に2次元映像を意味する情報が含まれる場合、上記3Dグラフィック変換マトリックスを上記第2マトリックスとして出力することができる。
また、上記生成部選択部は、上記3Dグラフィック変換マトリックスが上記第1マトリックス生成部または上記第2マトリックス生成部のどちらに伝達されたのかを示す選択信号を出力することができる。このとき、上記立体映像表示装置は、上記立体映像活性化信号を入力され、上記立体映像活性化信号が2次元映像の表示を指示する場合に、上記選択信号に基づいて、上記3Dグラフィックデータに含まれる上記空間情報を上記第1マトリックス演算部または上記第2マトリックス演算部のいずれか一つに出力する演算部選択部と;上記立体映像活性化信号を入力され、上記立体映像活性化信号が2次元映像の表示を指示する場合に、上記選択信号に基づいて、上記3Dグラフィックデータに含まれる上記表面情報を上記第1レンダリングエンジンまたは上記第2レンダリングエンジンのいずれか一つに出力するエンジン選択部と;をさらに含むことができる。このような選択信号を設けて制御することにより、第1マトリックス生成部及び第2マトリックス生成部と、第1マトリックス演算部及び第2マトリックス演算部と、第1レンダリングエンジン及び第2レンダリングエンジンとの間で、同期をとって第1視点の3Dグラフィックデータまたは第2視点の3Dグラフィックデータの処理を行うことができる。
また、上記メモリ部は、上記第1レンダリングエンジンから出力される上記第1視点の映像データが格納される第1メモリと、上記第1レンダリングエンジンから出力される上記第1視点の映像データまたは、上記第2レンダリングエンジンから出力される上記第2視点の映像データの少なくともいずれかが格納される第2メモリと、を含むことができる。そして、上記立体映像表示装置は、上記立体映像活性化信号を入力され、上記立体映像活性化信号が2次元映像の表示を指示する場合に、上記第1レンダリングエンジンから出力される上記第1視点の映像データを上記第1メモリに伝達し、上記立体映像活性化信号が立体映像の表示を指示する場合に、上記第1レンダリングエンジンから出力される上記第1視点の映像データを上記第2メモリに伝達するメモリ選択部をさらに含み;上記第2メモリは、上記立体映像活性化信号に基づいて、立体映像データが格納される立体映像メモリまたは、2次元映像データが格納される2次元映像メモリのいずれか一つとして動作することができる。このように、上記立体映像表示装置は、2次元映像を表示する場合と、立体映像を表示する場合とで、メモリ部を共有することができるので、記憶素子のコストが低減される。
また、上記立体映像表示装置は、上記立体映像活性化信号及び上記選択信号に基づいて、上記第1メモリまたは上記第2メモリのいずれか一つに格納された映像データを上記駆動部に出力する出力部をさらに含むことができる。
ここで、上記ユーザ指定変数は、表示されるオブジェクトと観察者の左眼を結んだ線と、表示されるオブジェクトと観察者の右眼を結んだ線とで形成される角度の情報を含み、上記角度が0度のとき、上記第1視点と上記第2視点とは同一の視点であることができる。
上記課題を解決するために、本発明の別の観点によれば、映像データを生成する際に用いる空間座標情報を生成するジオメトリックエンジンと;上記ジオメトリックエンジンから出力された上記空間座標情報と、3Dグラフィックデータに含まれる表面情報とをレンダリングして上記映像データを生成するレンダリングエンジンと;上記レンダリングエンジンから出力された上記映像データが合成されて格納されるメモリ部とを含んで構成され;上記ジオメトリックエンジンは、3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて、左眼座標情報を算出する際に用いる左眼マトリックスを生成する第1マトリックス生成部と;上記3Dグラフィック変換マトリックス及び上記ユーザ指定変数に基づいて、右眼座標情報を算出する際に用いる右眼マトリックスを生成する第2マトリックス生成部と;上記左眼マトリックスと上記3Dグラフィックデータに含まれる空間情報との演算により生成された上記左眼座標情報を、上記映像データを生成する際に用いる空間座標情報として出力する第1マトリックス演算部と;上記右眼マトリックスと上記3Dグラフィックデータに含まれる空間情報との演算により生成された上記右眼座標情報を、上記映像データを生成する際に用いる空間座標情報として出力する第2マトリックス演算部と;を含んで構成されることを特徴とする3Dグラフィックデータ処理装置が提供される。
このような本発明にかかる3Dグラフィックデータ処理装置によれば、ジオメトリックエンジンにより3Dグラフィックデータの空間情報から左眼座標情報及び右眼座標情報を算出する過程を経て生成された映像データが合成されてメモリ部に格納される。このように、上記3Dグラフィックデータ処理装置は3Dグラフィックデータから映像データを生成して上記映像データを格納することができる。また、上記映像データは左眼座標情報及び右眼座標情報に基づいて生成されているので、左右の眼に対応する映像を含むことができる。従って、例えば表示装置などに上記格納された映像データを順次提供すれば、該表示装置に上記左右の眼の映像を含む映像データに対応する立体映像を表示することができる。
このとき、上記レンダリングエンジンは、上記第1マトリックス演算部から出力された左眼座標情報と上記3Dグラフィックデータに含まれる上記表面情報とのレンダリングを行う第1エンジンと、上記第2マトリックス演算部から出力された右眼座標情報と上記3Dグラフィックデータに含まれる上記表面情報とのレンダリングを行う第2エンジンとを含んで構成されることができる。このように、上記3Dグラフィックデータ処理装置は、左眼の映像データを生成するための、第1マトリックス生成部、第1マトリックス演算部、第1レンダリングエンジンを含む第1の処理部と、右眼の映像データを生成するための、第2マトリックス生成部、第2マトリックス演算部、第2レンダリングエンジンを含む第2の処理部とを設けて、別々の処理部により映像データを生成するようにしたことにより、データの表示速度が向上される。
上記課題を解決するために、本発明の別の観点によれば、第1フレームの3Dグラフィックデータ及び上記第1フレームに連続する第2フレームの3Dグラフィックデータを処理する3Dグラフィックデータ処理装置であって;上記第1フレームの3Dグラフィックデータに含まれる空間情報に対するマトリックス演算または上記第2フレームの3Dグラフィックデータに含まれる空間情報に対するマトリックス演算により空間座標情報を生成するジオメトリックエンジンと;上記ジオメトリックエンジンから出力された上記空間座標情報と上記3Dグラフィックデータに含まれる表面情報とをレンダリングして映像データを生成するレンダリングエンジンと;上記レンダリングエンジンから出力された上記映像データが合成されて格納されるメモリ部とを含んで構成され;上記ジオメトリックエンジンは、上記第1フレームの間に3Dグラフィック変換マトリックスを第1マトリックス生成部に伝達し、上記第2フレームの間に上記3Dグラフィック変換マトリックスを第2マトリックス生成部に伝達する生成部選択部と;上記伝達された3Dグラフィック変換マトリックス及び、ユーザ指定変数に基づいて、それぞれマトリックスを生成する上記第1マトリックス生成部及び上記第2マトリックス生成部と;上記第1フレームの間に上記第1マトリックス生成部により生成されたマトリックスと上記3Dグラフィックデータに含まれる空間情報とを演算して上記第1フレームの空間座標情報を出力する第1マトリックス演算部と;上記第2フレームの間に上記第2マトリックス生成部により生成されたマトリックスと上記3Dグラフィックデータに含まれる空間情報とを演算して上記第2フレームの空間座標情報を出力する第2マトリックス演算部と;を含むことを特徴とする3Dグラフィックデータ処理装置が提供される。
このような本発明にかかる3Dグラフィックデータ処理装置によれば、ジオメトリックエンジンにより、第1フレームの間に3Dグラフィックデータの空間情報から第1フレームの空間座標情報を算出し、第2フレームの間に3Dグラフィックデータの空間情報から第2フレームの空間座標情報を算出する過程を経て生成された映像データが合成されてメモリ部に格納される。このように、上記3Dグラフィックデータ処理装置は、3Dグラフィックデータから映像データを生成して上記映像データを格納することができる。また、上記映像データは第1フレームの空間座標情報及び第2フレームの空間座標情報に基づいて生成されているので、上記メモリ部には連続する2つのフレームの映像データを格納することができる。
ここで、上記生成部選択部は、現在処理中のフレームが上記第1フレームまたは上記第2フレームのいずれであるかを示す選択信号を出力し、上記ジオメトリックエンジンは、上記選択信号に基づいて、上記3Dグラフィックデータに含まれる空間情報を上記第1マトリックス演算部または上記第2マトリックス演算部のいずれか一つに伝達する演算部選択部をさらに含むことができる。このような選択信号を設けて制御することにより、第1マトリックス演算部及び第2マトリックス演算部は、現在処理中のフレームと同期のとれた3Dグラフィックデータを入力されてそれぞれ第1フレーム及び第2フレームの空間情報を算出することができる。
上記課題を解決するために、本発明の別の観点によれば、3Dグラフィックデータを処理する3Dグラフィックデータ処理装置であって;上記3Dグラフィックデータに含まれる空間情報から算出された第1空間座標情報と上記3Dグラフィックデータに含まれる表面情報とをレンダリングして第1映像データを出力する第1レンダリングエンジンと;上記3Dグラフィックデータに含まれる上記空間情報から算出された第2空間座標情報と上記3Dグラフィックデータに含まれる上記表面情報とをレンダリングして第2映像データを出力する第2レンダリングエンジンと;上記第1映像データが格納される第1メモリと;メモリ制御信号に基づいて、上記第1映像データ及び上記第2映像データが格納されるか、あるいは、上記第1映像データまたは上記第2映像データのいずれか一つが格納される第2メモリと;上記メモリ制御信号に基づいて、上記第1レンダリングエンジンから出力された上記第1映像データを上記第1メモリまたは上記第2メモリのいずれか一つに伝達するメモリ選択部と;を含むことを特徴とする3Dグラフィックデータ処理装置が提供される。
このような本発明にかかる3Dグラフィックデータ処理装置によれば、第1メモリには入力された3Dグフラフィック情報をもとに生成した第1映像データを格納することができ、第2メモリには入力された3Dグフラフィック情報をもとに生成した第1映像データまたは第2映像データのいずれか一方、または両方を格納することができる。従って、例えば表示装置などに上記格納された映像データを提供すれば、該表示装置に上記第1映像データ及び/または上記第2映像データに対応する映像を表示することができる。
また、上記第1映像データは左眼映像データであり、上記第2映像データは右眼映像データであり、上記第2メモリは、上記第1映像データ及び上記第2映像データが格納される立体映像データ格納メモリであることができる。この場合、例えば表示装置などに上記メモリ部に格納された、左眼映像データ及び右眼映像データを順次提供すれば、該表示装置に上記左眼映像データ及び上記右眼映像データに対応する立体映像を表示することができる。
上記課題を解決するために、本発明の別の観点によれば、映像が表示される表示部と;駆動のための制御信号及び、左眼映像データと右眼映像データとが合成された立体映像データ信号に基づいて、上記表示部に映像が表示されるように上記表示部を駆動させる駆動部と;同期信号、3Dグラフィックデータ及び、上記表示される映像の立体感レベルを修正する際に用いるユーザ指定変数を入力されて、上記3Dグラフィックデータ及び上記ユーザ指定変数に基づいて、マトリックス演算によりそれぞれ生成された左眼映像データ及び右眼映像データが合成された上記立体映像データ信号及び、上記同期信号に基づいて生成された上記制御信号を上記駆動部に出力する制御部と;を含むことを特徴とする立体映像表示装置が提供される。
このような本発明にかかる立体映像表示装置によれば、入力されたユーザ指定変数に応じて立体感が調整された立体映像を上記表示部に表示させることができる。
このとき、上記制御部は、上記左眼映像データ及び上記右眼映像データを同時に生成するように構成すれば、上記立体映像の表示速度を向上させることができる。
また、上記制御部は、立体映像活性化信号を更に入力されて、上記立体映像活性化信号に基づいて、上記立体映像データ信号または2次元映像データ信号を選択的に生成するように構成されることもできる。従って、上記立体映像表示装置は、立体映像だけではなく2次元映像を表示することもできる。
このとき、上記ユーザ指定変数は、観察者の二つの眼と立体映像データによって表示されるオブジェクトとの距離の情報及び、観察者の一方の眼と上記オブジェクトを結んだ線と、観察者の他方の眼と上記オブジェクトを結んだ線とで形成される角度の情報を含むことができる。
上記課題を解決するために、本発明の別の観点によれば、立体映像を表示する表示部と;上記表示部を駆動させる駆動部と;3Dグラフィックデータを外部から受信し、上記3Dグラフィックデータから空間座標情報及び表面情報を抽出し、上記空間座標情報及び上記表面情報に基づいて立体映像データを生成して上記駆動部に出力する制御部と;を含むことを特徴とする立体映像表示装置が提供される。
このような本発明にかかる立体映像表示装置によれば、入力された3Dグラフィックデータから映像データを生成することができるので、3Dグラフィックデータを表示部の構成に対応した立体映像データに変換する別途の装置や手段を設ける必要がない。また、上記立体映像表示装置は入力された3Dグラフィックデータを順次処理して立体映像を表示させることができるので、立体映像の表示に要する時間が短縮される。
このとき、上記制御部は、3Dグラフィック処理部を含み;上記3Dグラフィック処理部は、上記3Dグラフィックデータから上記空間座標情報を抽出する空間情報認識部と;上記3Dグラフィックデータから抽出された空間座標情報を修正して、左眼映像データを生成する際に用いる左眼座標情報及び、右眼映像データを生成する際に用いる右眼座標情報をそれぞれ生成する空間座標情報演算部と;上記3Dグラフィックデータから上記表面情報を抽出する表面情報認識部と;上記左眼座標情報及び上記右眼座標情報に、上記表面情報をそれぞれ結合して、上記左眼映像データ及び上記右眼映像データを生成する映像生成部と;上記映像生成部にて生成された上記左眼映像データ及び上記右眼映像データを、上記表示部の構造に対応するように合成して、上記立体映像データを生成する映像合成部とを含むように構成されるのがよい。
また、上記表示部は、上記駆動部から入力された上記立体映像データに対応する映像を表示する表示パネルと、上記表示パネルと対応するように配置されて、上記駆動部から入力された駆動信号に基づいて動作するバリヤとを含むように構成されることができる。かかるバリヤで上記表示パネルの映像をマスクすることにより、例えば、視聴者は右眼と左眼とで異なる視点の映像を見ることができ、このような左右の眼の視差により立体感を伴なった映像を視聴することがきる。
また、上記制御部は、立体映像の表示を指示する立体映像活性化信号を上記3Dグラフィック処理部に伝達することができる。このとき、上記3Dグラフィック処理部の空間座標情報演算部、映像生成部及び、映像合成部は、上記立体映像活性化信号が入力されると動作するように構成されるのがよい。
また、上記空間座標情報演算部は、上記3Dグラフィックデータから抽出された空間座標情報に基づいて、各オブジェクトを所定の角度だけ左側から見た場合の第1空間座標情報をマトリックス演算により算出して、上記左眼映像データを生成する際に用いる上記左眼座標情報として出力し、上記3Dグラフィックデータから抽出された空間座標情報に基づいて、各オブジェクトを所定の角度だけ右側から見た場合の第2空間座標情報をマトリックス演算により算出して、上記右眼映像データを生成する際に用いる上記右眼座標情報として出力するように構成されることができる。このとき、上記空間座標情報演算部は、上記3Dグラフィックデータから抽出された空間座標情報の修正の有無及び修正の程度をユーザが設定できるように構成されるのがよい。
上記課題を解決するために、本発明の別の観点によれば、立体映像を表示する立体映像表示装置の駆動方法であって;オブジェクトの空間座標情報及び表面情報を含む3Dグラフィックデータを入力する入力段階と;上記3Dグラフィックデータを立体映像データに変換する変換段階と;上記立体映像データに対応する立体映像を表示する表示段階と;を含むことを特徴とする立体映像表示装置の駆動方法が提供される。
このような本発明にかかる立体映像表示装置の駆動方法によれば、入力された3Dグラフィックデータを立体映像データに変換して立体映像を表示することができる。
ここで、上記変換段階は、左眼映像データ及び右眼映像データを生成する際に用いることができるように、上記3Dグラフィックデータから抽出された上記空間座標情報に対して修正を行う空間座標情報修正段階;上記3Dグラフィックデータから抽出された上記表面情報及び、上記修正された空間座標情報から、上記左眼映像データ及び上記右眼映像データを生成する映像データ生成段階と;生成された上記左眼映像データ及び上記右眼映像データを、上記表示部の構造に対応するように合成する映像合成段階とを更に含むことができる。
上記課題を解決するために、本発明の別の観点によれば、立体映像を表示する立体映像表示装置に設けられる3Dグラフィックデータ処理装置であって;オブジェクトの空間座標情報及び表面情報を含む3Dグラフィックデータを入力されて、上記空間座標情報を抽出する空間情報認識部と;左眼映像データ及び右眼映像データを生成する際に用いることができるように、上記3Dグラフィックデータから抽出された上記空間座標情報に対して修正を行う空間座標情報演算部と;上記3Dグラフィックデータの上記表面情報を抽出する表面情報認識部と;上記空間座標情報演算部から入力された上記修正された空間座標情報と、上記表面情報認識部から入力された上記表面情報より、上記左眼映像データ及び上記右眼映像データを生成する映像生成部と;上記左眼映像データ及び上記右眼映像データを上記表示部の構造と対応するように合成する映像合成部と;を含むことを特徴とする3Dグラフィックデータ処理装置が提供される。
このような本発明にかかる3Dグラフィックデータ処理装置によれば、入力された3Dグラフィックデータから空間座標情報及び表面情報を抽出し、左右の眼に対応する映像データを生成することができるように上記空間座標情報に対して修正を行い、上記修正された空間座標情報と上記表面情報とにより左眼映像データ及び右眼映像データを生成して、これら映像データを合成して格納することができる。従って、上記立体映像表示装置に上記格納された映像データを順次提供すれば、該立体映像表示装置に上記左眼映像データ及び上記右眼映像データに対応する立体映像を表示することができる。
また、上記空間座標情報演算部は、上記3Dグラフィックデータから抽出された上記空間座標情報に基づいて、各オブジェクトを所定の角度だけ左側から見た場合の空間座標情報をマトリックス演算により算出して、上記左眼映像データを生成する際に用いる左眼座標情報として出力し、上記3Dグラフィックデータから抽出された上記空間座標情報に基づいて、各オブジェクトを所定の角度だけ右側から見た場合の空間座標情報をマトリックス演算により算出して、上記右眼映像データを生成する際に用いる右眼座標情報として出力するように構成されることができる。このとき、上記空間座標情報演算部が上記マトリックス演算の際に用いるマトリックスは、ユーザによって調節可能であるように構成されるのがよい。
本発明によれば、入力された3Dグラフィックデータから立体映像データを生成できるようにしたことことにより、3Dグラフィックデータを立体映像として表示する際の表示時間を短縮することができる3Dグラフィックデータ処理装置及び、立体映像表示装置並びに立体映像表示装置の駆動方法を提供できるものである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。しかしながら、本発明は多様に異なる形態で実現できるので、ここで説明する実施形態に限定されるものではない。図面で本発明を明確に説明するために説明と無関係な部分は省略した。明細書全体において、ある部分がある構成要素を“包含する”という時、特別な記載がない限り、他の構成要素が含まれないということを意味するものではなく、他の構成要素をさらに含み得ることを意味する。
図1は本発明の実施の形態にかかる立体映像表示装置の構成を概略的に示す図である。図1に示されたように、本発明の実施の形態にかかる立体映像表示装置は、2次元映像(2D映像または平面映像)または立体映像(3次元映像または3D映像)のいずれかを選択的に表示できる表示装置であって、制御部100と、駆動部500と、表示部600とを含んで構成される。
制御部100は、外部から映像データ(DATA)と、水平同期信号(Hsync)及び垂直同期信号(Vsync)を含む同期信号と、立体映像活性化信号とを受信する。そして、制御部100は、駆動のための制御信号及び映像データ信号を生成して駆動部500に出力する。
制御部100に入力される映像データ(DATA)は、時間的に変化することのできる映像データであって、一般的な2次元映像データ(2D映像データ)、3Dグラフィックデータ、または各視点における立体映像データを含む立体映像データ、のいずれか一つであることができる。上記3Dグラフィックデータは、客体(オブジェクトまたは物体)の3次元空間座標及び表面情報を含み、かかる3Dグラフィックデータにより、上記客体を立体感を伴って平面上に表示することができる。制御部100に入力される映像データが3Dグラフィックデータである場合、制御部100は、後述する3Dグラフィック変換マトリックス及びユーザ指定変数を更に外部から入力されることができる。
立体映像活性化信号は、2次元映像または立体映像のどちらを表示するかを選択するために参照される信号である。例えば、立体映像活性化信号が活性化状態であれば立体映像が表示され、不活性化状態であれば2次元映像が表示されるようにすることができる(第1制御方法)。あるいは、立体映像活性化信号が入力されると立体映像が表示され、入力されなければ2次元映像が表示されるようにすることもできる(第2制御方法)。下記に説明する本発明の実施の形態においては、前者(第1制御方法)の活性化状態または不活性化状態のいずれかの立体映像活性化信号が入力される場合を例として説明する。また、立体映像活性化信号は、上記のように映像データ(DATA)と共に外部から入力されるのではなく、ユーザーの選択に基づいて制御部100で生成されるようにしても良い。
制御部100は、2次元映像処理部(2D映像処理部)200と、3Dグラフィック処理部300と、立体映像処理部400と、を含んで構成される。
制御部100は、一般的な2次元映像データが入力されると、2次元映像処理部200にて2次元映像データ信号を生成して駆動部500に出力する。
また、制御部100は、立体映像データ及び立体映像活性化信号が入力されると、立体映像処理部400にて立体映像データ信号を生成して立体映像活性化信号と共に駆動部500に出力する。
更に、制御部100は、3Dグラフィックデータが入力されると、3Dグラフィック処理部300にて映像データを生成する。具体的には、活性化状態の立体映像活性化信号及び3Dグラフィックデータが入力されると、3Dグラフィック処理部300は、3Dグラフィックデータに基づいて立体映像データを生成して、生成された立体映像データと立体映像活性化信号を駆動部500に出力する。一方、不活性化状態の立体映像活性化信号及び3Dグラフィックデータが入力されると、3Dグラフィック処理部300は、3Dグラフィックデータに基づいて2次元映像データを生成して、駆動部500に出力する。すなわち、立体映像表示装置は、3Dグラフィックデータが入力された場合には、立体映像活性化信号に応じて2次元映像または立体映像のいずれかを表示部600に表示することができる。
駆動部500は、制御部100から入力される制御信号及び映像データ信号に基づいて表示部600に2次元映像または立体映像のいずれかを表示できるように、表示部600のバリヤ610及び表示パネル620を駆動させる。ここで、制御信号は上記立体映像活性化信号を含むことができる。また、映像データ信号は上記2次元映像データ、3Dグラフィックデータまたは、立体映像データのいずれかを含むことができる。上記映像データ信号が立体映像データ信号である場合、かかる立体映像データ信号は左眼映像データと右眼映像データとが合成された映像データ信号であることができる。
具体的には、駆動部500は、制御部100から入力される映像データ信号に基づいて表示パネル620に映像が表示されるように表示部600を駆動させることができる。また、駆動部500は、制御部100から活性化状態の立体映像活性化信号が入力されると、バリヤに透明領域と不透明領域とが含まれるようにバリヤ610を駆動させることができる。一方、駆動部500は、制御部100から不活性化状態の立体映像活性化信号が入力されると、バリヤが全て透明領域となるようにバリヤ610を駆動させることができる。
表示部600は、バリヤ610と、表示パネル620とを含んで構成される。バリヤ610は、駆動部500によって透明領域と不透明領域とを含むように駆動されるか、或いは全領域が透明領域となるように駆動される。表示パネル620には、駆動部500によって、映像データ信号に対応する映像が表示される。
図2は、本発明の実施の形態による立体映像表示装置の表示部の構成を概略的に示す図である。図2に示されたように、表示部600は、バリヤ610と表示パネル620とを含んで構成される。表示パネル620は、複数の表示画素621、622を含む。例えば、表示パネル620は、複数の表示画素621から成る第1の表示画素群と、複数の表示画素622から成る第2の表示画素群とにより構成されることができる。また、バリヤ610は複数の領域611、612を含む。例えば、バリヤ610は、複数の領域611から成る第1の領域群と、複数の領域612から成る第2の領域群とにより構成されることができる。このとき、バリヤ610は、分子配列を利用して映像の透過または遮断を遂行する液晶シャッター(Liquid crystal shutter)であることができる。
立体映像表示装置に2次元映像が表示される場合、表示パネル620の各表示画素には、2次元映像データに対応する映像が表示される。そして、バリヤ610は、上記表示パネル620に表示された映像が全て透過されるように、複数の領域611及び複数の領域612の全領域が透明領域となるように駆動される。
一方、立体映像表示装置に立体映像が表示される場合、表示パネル620の表示画素621を含む画素列(第1の表示画素群)には左眼映像(記号:Left)が表示され、表示画素622を含む画素列(第2の表示画素群)には右眼映像(記号:Right)が表示される。そして、バリヤ610は、領域611を含む画素列(第1の領域群)が不透明領域になり、領域612を含む画素列(第2の領域群)が透明領域となるように駆動される。したがって、観察者(視聴者)の左眼(E_L)はバリヤ610の透明領域612を通じて表示画素621に表示される左眼映像(Left)を見ることができるようになる。一方、観察者の右眼(E_R)は、バリヤ610の透明領域612を通じて表示画素622に表示される右眼映像(Right)を見ることができるようになる。
このとき例えば、左眼映像として第1視点の映像が表示され、右眼映像として第2視点の映像が表示されるようにすれば、視聴者はそれぞれの眼で相異なる視点の映像を見るようになる。このような、左右の眼による相違(Disparity)、すなわち視差によって、視聴者は立体感を知覚することができる。
本発明の実施の形態では、左眼と右眼、すなわち2視点立体映像の場合について説明したが、本発明はこれに限られるものではなく、3視点以上の多視点にも適用することができる。また、本発明の実施の形態では、立体映像を表示する際に右目映像と左眼映像とをそれぞれ遮光できるようにバリヤを使用しているが、本発明はこれに限定されるものではなく、例えばレンズアレイを使用しても良い。
次に、本発明の実施の形態にかかる3次元グラフィック処理装置について、図3及び図4を参照しながら説明する。
図3及び図4には、上述した本発明の実施の形態にかかる立体映像表示装置から入力される3Dグラフィックデータを処理する3Dグラフィック処理部が示されている。図3は、図1の3Dグラフィック処理部300の構成を概略的に示す図である。また、図4は、ユーザ指定変数(使用者指定変数)の概念を示す図である。
図3に示されたように、3Dグラフィック処理部300は、4種の入力、つまり、3Dグラフィックデータと、立体映像活性化信号と、3Dグラフィックを描くための3Dグラフィック変換マトリックスと、ユーザ指定変数との入力を受けて、3Dグラフィックデータから2次元映像データまたは立体映像データを生成する装置である。かかる3Dグラフィック処理部300は、空間情報認識部(3D空間情報認識部)310と、表面情報認識部(3D表面情報認識部)320と、図の左半分を破線で囲んだジオメトリックエンジン330と、映像生成部340と、映像合成部350と、出力部360と、を含んで構成される。
ここでは、3Dグラフィック変換マトリックスは、3次元オブジェクト(客体または物体)の形状及び動作などを表現するための一連の行列形式を有する変換データであって、既に計算済みのものとして定義することが可能である。このような3Dグラフィック変換マトリックスは、表示画面上でオブジェクトの位置、方位または、大きさの少なくともいずれかを変更させるために用いられ、映像を構成する物体に対する空間情報を提供することができる。
また、ユーザ指定変数は、オブジェクトの立体感を調整するための変数であって、例えば、図4に示されたように、観察者の左眼(E_L)及び右眼(E_R)と表示されるオブジェクト(O)の間の角度(A)、及び、表示されるオブジェクト(O)と観察者との距離(D)などが含まれる。すなわち、角度(A)は、表示されるオブジェクト(O)と観察者の左眼(E_L)を結んだ線と、表示されるオブジェクト(O)と観察者の右眼(E_R)を結んだ線とで形成される角度である。立体映像が表示される場合、角度(A)及び距離(D)は、使用者(ユーザ)によって選択される値であることができ、かかるユーザ指定変数に基づいて、マトリックス演算によりオブジェクトの立体感レベルを修正することができる。ここで、2次元映像を表示する場合、角度(A)は0度に設定されるのがよい。上記ユーザ指定変数は、上述した3Dグラフィック変換マトリックスが含む空間情報に対して全体的に適用されるものであり、複数のオブジェクトに対してそれぞれ設けられる変数ではない。すなわち、ユーザ指定変数が変わると、立体映像を構成する全てのオブジェクトに同一の基準が適用されるようになる。具体的には、立体映像中に木、自動車、人等が存在し、木、自動車、人に対する空間情報を3Dグラフィック変換マトリックスが含んでいる場合に、ユーザ指定変数によって角度(A)及び距離(D)が変更されると、それに合わせて木、自動車、人に対する空間情報が変更される。例えば、ユーザ指定変数における角度(A)が10度から20度に変更されて両眼の視差が更に大きくなった場合、全てのオブジェクトが更に近くに見えるようになり、立体感が増加するようになる。
空間情報認識部310は、外部から入力される3Dグラフィックデータに含まれる空間情報、例えば空間座標に関する空間座標情報を抽出する。
表面情報認識部320は、外部から入力される3Dグラフィックデータに含まれる表面情報(texture)を抽出する。
ジオメトリックエンジン330は、空間座標情報(3D空間情報)を演算するアキュムレーター(結果を記憶する演算器)であって、入力される3Dグラフィック変換マトリックス、立体映像活性化信号及びユーザ指定変数を用いて、空間情報認識部310から得られた空間座標情報を修正(補正)する空間座標情報演算部である。ここで、空間座標情報の修正の有無及び修正程度は、ユーザ(使用者)が設定することができる。例えば、ジオメトリックエンジン(空間座標情報演算部)330は、客体を所定の角度だけ左側から見た座標を算出するための左眼映像用マトリックス、及び、客体を所定の角度だけ右側から見た座標を算出するための右眼映像用マトリックスをそれぞれ生成し、上記左眼映像マトリックスと3Dグラフィックデータとの演算及び、上記右眼映像マトリックスと3Dグラフィックデータとの演算を通じて、修正された空間座標情報としての左眼座標情報及び右眼座標情報を生成することができる。上記客体(オブジェクト)とは、主に観察の対象物を指す。
具体的には、ジオメトリックエンジン330は、生成部選択部331と、第1マトリックス生成部332と、第2マトリックス生成部333と、演算部選択部334と、第1マトリックス演算部335と、第2マトリックス演算部336と、を含んで構成される。
生成部選択部331は、立体映像活性化信号に基づいて3Dグラフィック変換マトリックスを第1マトリックス生成部332及び第2マトリックス生成部333に伝達することができる。
具体的には、生成部選択部331は、立体映像活性化信号が不活性化状態、すなわち2次元映像の表示を指示する場合には、3Dグラフィック変換マトリックスを第1マトリックス生成部332または第2マトリックス生成部333に交互に伝達する。このとき更に、3Dグラフィック変換マトリックスが第1マトリックス生成部332または第2マトリックス生成部333のどちらに伝達されたのかを知らせる選択信号を生成して出力する。例えば、3Dグラフィック変換マトリックスが第1マトリックス生成部332に伝達された場合には選択信号を‘1’にし、3Dグラフィック変換マトリックスが第2マトリックス生成部333に伝達された場合には選択信号を‘0’にすることができる。
一方、生成部選択部331は、立体映像活性化信号が活性化状態、すなわち立体映像の表示を指示する場合には、3Dグラフィック変換マトリックスを第1マトリックス生成部332及び第2マトリックス生成部333に同時に伝達する。ここで、3Dグラフィック変換マトリックスは、外部から入力される3Dグラフィックデータに含まれる情報であってもよい。
第1マトリックス生成部332及び第2マトリックス生成部333は、立体映像の表示を指示された場合、左眼座標情報(第1空間座標情報または、第1視点の空間座標情報)を生成する際に使用する左眼マトリックス(第1マトリックス)及び、右眼座標情報(第2空間座標情報または、第2視点の空間座標情報)を生成する際に使用する右眼マトリックス(第2マトリックス)をそれぞれ生成して出力することができる。上記左眼マトリックス及び上記右眼マトリックスは、例えば、ユーザ指定変数に基づいたユーザマトリックス(使用者マトリックス)と3Dグラフィック変換マトリックスとの演算により生成することができる。
一方、第1マトリックス生成部332及び第2マトリックス生成部333は、2次元映像の表示が指示された場合、3Dグラフィック変換マトリックスをそのまま出力する。例えば、2次元映像が表示される場合、ユーザ指定変数に含まれる情報のうち、オブジェクトに対して二つの目の間に形成される角度(A)は‘0'度として設定することができるので、ユーザ指定変数に基づいたユーザマトリックスを単位マトリックスとすることができる。したがって、第1マトリックス生成部332及び第2マトリックス生成部333は、3Dグラフィック変換マトリックスと単位マトリックスの演算結果として3Dグラフィック変換マトリックスを出力することができる。このように、第1マトリックス生成部332及び第2マトリックス生成部333は、ユーザ指定変数に2次元映像を意味する情報、例えば角度(A)が0度であるなどの情報が含まれていると、3Dグラフィック変換マトリックスをそのまま出力する。
演算部選択部334は、生成部選択部331から出力された選択信号及び立体映像活性化信号に基づいて、空間情報認識部310から伝達された空間座標情報を第1マトリックス演算部335及び第2マトリックス演算部336に出力する。
例えば、演算部選択部334は、立体映像活性化信号が不活性化状態であり、選択信号が‘1’、すなわち3Dグラフィック変換マトリックスが第1マトリックス生成部332に伝達された場合、現在フレームの空間座標情報を第1マトリックス演算部335に出力する。一方、演算部選択部334は、立体映像活性化信号が不活性化状態であり、選択信号が‘0’、すなわち3Dグラフィック変換マトリックスが第2マトリックス生成部333に伝達された場合、現在フレームの空間座標情報を第2マトリックス演算部336に出力する。
あるいは、演算部選択部334は、立体映像活性化信号が活性化状態であれば、選択信号とは関係なしに第1マトリックス演算部335及び第2マトリックス演算部336の各々に空間座標情報を同時に伝達する。
第1マトリックス演算部335は、第1マトリックス生成部332から入力されたマトリックスと、演算部選択部334を通じて入力された3Dグラフィックデータに含まれる空間座標情報とを演算して、左眼座標情報を生成して出力する。また、第2マトリックス演算部336は、第2マトリックス生成部333から入力されたマトリックスと、演算部選択部334を通じて入力された3Dグラフィックデータに含まれる空間座標情報とを演算して、右眼座標情報を生成して出力する。
ここで、上記マトリックスは、上述したように、立体映像を表示する場合、第1マトリックス生成部332により出力された左目マトリックス(第1マトリックス)、または、第2マトリックス生成部333により出力された右目マトリックス(第2マトリックス)であることができる。また、上記マトリックスは、2次元映像を表示する場合、第1マトリックス生成部332または第2マトリックス生成部333から交互に出力される3Dグラフィック変換マトリックスであることができる。
そして、立体映像を表示する場合、第1マトリックス演算部335にて生成された左眼座標情報(第1視点の空間座標情報または第1空間座標情報)及び、第2マトリックス演算部336にて生成された右眼座標情報(第2視点の空間座標情報または第2空間座標情報)が、立体映像データを生成するための修正された空間座標情報として、ジオメトリックエンジン(空間座標情報演算部)330から出力される。また、2次元映像を表示する場合、第1マトリックス演算部335にて生成された第1視点の空間座標情報(第1空間座標情報)及び、第2マトリックス演算部336にて生成された第2視点の空間座標情報(第2空間座標情報)が、2次元映像データを生成するための空間座標情報として、ジオメトリックエンジン(空間座標情報演算部)330から出力される。
以上のように、ジオメトリックエンジン330は、3Dグラフィックデータに含まれる空間座標情報に対してマトリックス演算を行うことにより、2次元映像データを生成するための空間座標情報または、立体映像データを生成するための修正された空間座標情報を生成して出力することができる。
映像生成部340は、エンジン選択部341と、第1レンダリングエンジン342及び第2レンダリングエンジン343を含むレンダリングエンジンと、を含んで構成される。
エンジン選択部341は、生成部選択部331から出力された選択信号及び立体映像活性化信号に基づいて、表面情報認識部320から出力された表面情報を第1レンダリングエンジン342または第2レンダリングエンジン343の少なくともいずれかに伝達する。
例えば、エンジン選択部341は、立体映像活性化信号が不活性化状態であり、選択信号が‘1’、すなわち3Dグラフィック変換マトリックスが第1マトリックス生成部332に伝達された場合、現在フレームの3Dグラフィックデータに含まれる表面情報を第1レンダリングエンジン342に出力する。一方、エンジン選択部341は、立体映像活性化信号が不活性化状態であり、選択信号が‘0’、すなわち3Dグラフィック変換マトリックスが第2マトリックス生成部333に伝達された場合、現在フレームの3Dグラフィックデータに含まれる表面情報を第2レンダリングエンジン343に出力する。
あるいは、エンジン選択部341は、立体映像活性化信号が活性化状態であれば、選択信号とは関係なしに第1レンダリングエンジン342及び第2レンダリングエンジン343の各々に3Dグラフィックデータに含まれる表面情報を同時に伝達する。
立体映像を表示する場合、第1レンダリングエンジン342は、第1マトリックス演算部335から出力された左眼座標情報(第1空間座標情報)及び表面情報認識部320から出力された表面情報を入力されてレンダリングを行い、第1映像データを生成する。かかるレンダリング(画像信号の創出、または、既存画像信号の修正)は、スパニング方式を適用して座標情報に表面情報を結合して行うことができる。同様に、第2レンダリングエンジン343は、第2マトリックス演算部336から出力された右眼座標情報(第2空間座標情報)及び表面情報認識部320から出力された表面情報を入力されて、スパニング方式を適用して座標情報に表面情報を結合してレンダリングを行い、第2映像データを生成する。ここで、スパニング方式は、所定のY座標に対するX座標の開始点と終わり点を計算した後、X座標を一つずつ増加させながらそれに対応する表面情報も増加させてメモリに格納できるようにする方式をいう。かかる左眼座標情報と表面情報とのレンダリング及び、右目映像座標情報と表面情報とのレンダリングを行うことにより、立体映像データを生成することができる。
一方、2次元映像を表示する場合には、ジオメトリックエンジン330から出力された空間座標情報と、表面情報認識部320からエンジン選択部341を通じて伝達された表面情報とを、第1レンダリングエンジン342または第2レンダリングエンジン343がレンダリングすることにより、2次元映像データを生成することができる。
以上のように、映像生成部340は、レンダリングを通じて2次元映像データまたは立体映像データを生成して出力することができる。
映像合成部350は、メモリ選択部351と、第1メモリ352及び第2メモリ353を含むメモリ部と、を含んで構成される。上記メモリ部は、2次元映像データが入力された場合または、立体映像データが入力された場合の、いずれにおける映像データの格納手段として構成されるのがよい。これにより、立体映像表示装置の格納素子の数を少なくすることができる。以下に、上記メモリ部及びメモリ選択部351について説明する。
メモリ選択部351は、第1レンダリングエンジン342から入力された2次元映像データまたは立体映像データを、立体映像活性化信号に基づいて第1メモリ352または第2メモリ353のどちらに格納するのかを決定することができる。例えば、メモリ選択部351は、立体映像活性化信号が不活性化状態であれば、第1レンダリングエンジン342から出力された2次元映像データを第1メモリ352に格納し、立体映像活性化信号が活性化状態であれば、第1レンダリングエンジン342から出力された立体映像データを第2メモリ353に格納することができる。
第1メモリ352は、2次元映像データをフレーム単位に格納することのできるフレームメモリである。
第2メモリ353は、立体映像活性化信号に基づいて、2次元映像データがフレーム単位に格納されるフレームメモリ、または、立体映像データがフレーム単位に格納されるフレームメモリとして動作することができる。具体的には、第2メモリ353は、立体映像活性化信号が不活性化状態の場合に、第1メモリ352と同様に動作して、2次元映像データをフレーム単位に格納することができる。一方、第2メモリ353は、立体映像活性化信号が活性化状態の場合は、立体映像データをフレーム単位に格納するフレームメモリ(立体映像フレームメモリ)として動作することができる。このとき、第2メモリ353には、左眼映像データが格納される領域と右眼映像データが格納される領域とがそれぞれ分離されて設けられる。
したがって、映像合成部350は、2次元映像が表示される時、現在フレームの映像データを第1メモリ352に格納し、次フレームの映像データを第2メモリ353に格納することができる。
一方、映像合成部350は、立体映像が表示される時、1フレームの左眼映像データ及び右眼映像データを第2メモリ353に合成して格納することができる。この場合、例えば、第2メモリ353の左眼映像データの格納領域には第1レンダリングエンジン342から出力された立体映像データをメモリ選択部351を通じて格納することができ、第2メモリ353の右眼映像データの格納領域には第2レンダリングエンジン343から出力された立体映像データを格納することができる。
ここで、2次元映像が表示される場合、第1メモリ352には第1映像データ(現在フレームの映像データ)が格納され、第2メモリ353には第2映像データ(次フレームの映像データ)が格納されたが、第1メモリ352及び第2メモリ353に格納される映像データはいずれのフレームの映像データであることができる。この場合、例えばメモリ制御信号を設け、かかるメモリ制御信号に基づいて、第1映像データ及び第2映像データを、それぞれ第1メモリ352または第2メモリ353のどちらに格納するのかを制御することができる。また、上記のようなメモリ制御信号は、第2メモリ353に、第1映像データ及び第2映像データが格納されるか(立体映像の場合)、あるいは、第1映像データまたは第2映像データのいずれか一方が格納されるか(2次元映像の場合)を制御するために用いることもできる。
出力部360は、第1メモリ352または第2メモリ353のいずれか一方に格納された映像データを、駆動部500(図1参照)に出力する。例えば、出力部360は、立体映像活性化信号が不活性化状態であって選択信号が‘1’のとき、すなわち3Dグラフィック変換マトリックスが第1マトリックス生成部332に伝達された場合、第1メモリ352に格納されたデータを駆動部500に出力する。一方、出力部360は、立体映像活性化信号が不活性化状態であって選択信号が‘0’のとき、すなわち3Dグラフィック変換マトリックスが第2マトリックス生成部333に伝達された場合、第2メモリ353に格納された映像データを駆動部500に出力する。また、出力部360は、立体映像活性化信号が活性化状態である場合、選択信号とは関係なしに第2メモリ353に格納された映像データを出力する。
以上のように、出力部360は、2次元映像を表示する場合は、第1メモリ352または第2メモリ353に格納された映像データを交互に駆動部500に出力する。そして、立体映像を表示する場合は、第2メモリ353に格納された映像データを駆動部500に出力する。
次に、本発明の実施の形態にかかる立体映像表示装置の駆動方法について説明する。
先ず、オブジェクトの空間座標情報及び表面情報を含む3Dグラフィックデータを入力する入力段階が実行される。次に、上記3Dグラフィックデータを立体映像データに変換する変換段階が実行される。そして、上記立体映像データに対応する立体映像を表示する表示段階が実行される。
このとき、上記変換段階は、空間座標情報修正段階と、映像データ生成段階と、映像合成段階とを含むことができる。空間座標情報修正段階では、左眼映像データ及び右眼映像データを生成する際に用いることができるように、上記3Dグラフィックデータから抽出された上記空間座標情報に対して修正が行われる。また、映像データ生成段階では、上記3Dグラフィックデータから抽出された上記表面情報及び、上記修正された空間座標情報から、上記左眼映像データ及び上記右眼映像データが生成される。そして、映像合成段階では、生成された上記左眼映像データ及び上記右眼映像データが、上記表示部の構造に対応するように合成される。
次に、3Dグラフィック処理部300の動作について、2次元映像が表示される場合と、立体映像が表示される場合に分けて、図5及び図6を参照しながら説明する。
図5は、本発明の実施の形態にかかる3Dグラフィックデータ処理装置において、立体映像活性化信号が不活性化状態である場合に、2次元映像データが生成される過程を示すフローチャートである。上述したように、3Dグラフィック処理部300には、3Dグラフィックデータ、3Dグラフィック変換マトリックス、立体映像活性化信号、及び、ユーザ指定変数が入力される。
2次元映像が表示される場合、先ず、図5に示されたように、生成部選択部331は、処理されるデータが奇数番目のフレームデータであるか否かを判断するフレーム番号判定段階を実行する(S100)。上記フレーム番号は、例えば、外部から入力される垂直同期信号から取得することができる。
処理されるデータが奇数番目のフレームデータである場合、3Dグラフィック変換マトリックスを第1マトリックス生成部332に入力する第1マトリックス生成部入力段階を実行する(S110)。
次に、第1マトリックス演算部入力段階(S120)を実行する。すなわち、第1マトリックス演算部335には、角度(A)が0度であるユーザ指定変数に基づいて、3Dグラフィック変換マトリックスが第1マトリックス生成部332から伝達される。更に、第1マトリックス演算部335には、空間情報認識部310から伝達された3Dグラフィックデータに含まれる空間座標情報が、演算部選択部334を通じて伝達される。
次に、第1マトリックス演算部335が入力された空間座標情報と3Dグラフィック変換マトリックスとのマトリックス演算を通じて修正された空間座標情報を算出する座標情報算出段階を実行する(S130)。
次に、第1レンダリングエンジン入力段階(S140)を実行する。すなわち、第1レンダリングエンジン342は、第1マトリックス演算部335から空間座標情報を伝達され、表面情報認識部320から3Dグラフィックデータに含まれる表面情報を伝達される。
そして、第1レンダリングエンジン342が入力された空間座標情報と表面情報とをレンダリングして2次元映像データを生成する2次元映像データ生成段階(映像データ生成段階)を実行する(S150)。
次に、上記のように生成された2次元映像データをメモリ選択部351を通じて第1メモリ352に格納する2次元映像データ格納段階を実行する(S160)。
次に、生成部選択部331は、現在フレーム(奇数番目のフレーム)の映像データが全て処理されたかを判断する現在フレーム完了確認段階を実行する(S170)。例えば、生成部選択部331は、制御部100(図1参照)から入力される同期信号または制御信号に基づいて現在フレームの映像データが全て処理されたかを判断しても良い。現在フレームの映像データが全て処理されなかった場合、第1マトリックス生成部入力段階(S110)から現在フレーム処理判定段階(S170)までを再び実行する。
一方、現在フレームの映像データが全て処理された場合、出力部360が1フレームの映像データを駆動部500(図1参照)に出力する映像データ出力段階を実行する(S180)。
一方、フレーム番号判定段階(S100)において、処理されるデータが奇数番目のフレームデータではない場合、すなわち偶数番目のフレームである場合、3Dグラフィック変換マトリックスを第2マトリックス生成部333に入力する第2マトリックス生成部入力段階を実行する(S210)。
次に、第2マトリックス演算部入力段階(S220)を実行する。すなわち、第2マトリックス演算部336には、角度(A)が0度であるユーザ指定変数に基づいて、3Dグラフィック変換マトリックスが第2マトリックス生成部333から伝達される。更に、第2マトリックス演算部336には、空間情報認識部310から伝達された3Dグラフィックデータに含まれる空間座標情報が演算部選択部334を通じて伝達される。
次に、第2マトリックス演算部336が入力された空間座標情報と3Dグラフィック変換マトリックスのマトリックス演算を通じて修正された座標情報を算出する座標情報算出段階を実行する(S230)。
次に、第2レンダリングエンジン入力段階(S240)を実行する。すなわち、第2レンダリングエンジン343は、第2マトリックス演算部336から空間座標情報を伝達され、表面情報認識部320から3Dグラフィックデータに含まれる表面情報を伝達される。
そして、第2レンダリングエンジン343が入力された空間座標情報と表面情報とをレンダリングして2次元映像データを生成する2次元映像データ生成段階(映像データ生成段階)を実行する(S250)。
次に、上記のように生成された2次元映像データをメモリ選択部351を通じて第2メモリ353に格納する2次元映像データ格納段階を実行する(S260)。この時、第2メモリ353は、不活性化状態の立体映像活性化信号に基づいて2次元映像用のフレームメモリとして動作する。
そして、生成部選択部331は、現在フレーム(偶数番目のフレーム)の映像データが全て処理されたかを判断する現在フレーム完了確認段階を実行する(S270)。例えば、生成部選択部331は、制御部100(図1参照)から入力される同期信号または制御信号に基づいて現在フレームの映像データが全て処理されたかを判断しても良い。現在フレームの映像データが全て処理されなかった場合、第2マトリックス生成部入力段階(S210)から現在フレーム処理判定段階(S270)までを再び実行する。
一方、現在フレームの映像データが全て処理された場合、出力部360が1フレームの映像データを駆動部500(図1参照)に出力する映像データ出力段階を実行する(S280)。
次に、全てのフレームの映像データの処理が完了したかを判断する全フレーム完了確認段階を実行する(S290)。全てのフレームの映像データの処理が完了していない場合、フレーム番号判定段階(S100)から全フレーム完了確認段階(S290)までを再び実行する。
一方、全てのフレームの処理が完了した場合には、3Dグラフィック処理部300の動作は終了する。
以上のように、本発明の実施の形態にかかる立体映像表示装置において、3Dグラフィックデータを用いて2次元映像である3Dグラフィックを表示する場合、直前のフレームに対する映像生成処理が完了する前に、次のフレームの映像生成処理を始めることができるので、2次元映像の表示速度を早くすることができる。また、3Dグラフィックデータを従来より早く処理することにより表示速度が速くなれば、遅延なしで映像を表示することができるようになり、映像の画質を向上させることもできる。
上述した本発明の実施の形態にかかる3Dグラフィックデータ処理装置では、フレームデータを奇数番目のフレームデータと偶数番目のフレームデータとに分けて、それぞれの処理を並行して行えるようにしたが、フレームデータの分け方は上記のような奇数番目/偶数番目に限られるものではない。
図6は、本発明の実施の形態にかかる3Dグラフィックデータ処理装置において、立体映像活性化信号が活性化状態である場合に、立体映像データが生成される過程を示すフローチャートである。
立体映像が表示される場合、先ず、図6に示されたように、マトリックス生成段階が実行される(S310、S410)。すなわち、第1マトリックス生成部332では、3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて左眼マトリックスが生成され(S310)、第2マトリックス生成部333では、3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて右眼マトリックスが生成される(S410)。
次に、マトリックス演算部入力段階(S320、S420)を実行する。すなわち、第1マトリックス演算部335には、第1マトリックス生成部332にて生成された左眼マトリックスが伝達され、同時に3Dグラフィックデータに含まれる空間座標情報が空間情報認識部310から演算部選択部334を通じて伝達される(S320)。また、第2マトリックス演算部336には、第2マトリックス生成部333にて生成された右眼マトリックスが伝達され、同時に3Dグラフィックデータに含まれる空間座標情報が空間情報認識部310から演算部選択部334を通じて伝達される(S420)。このとき、演算部選択部334は、活性化状態である立体映像活性化信号に基づいて、第1マトリックス演算部335及び第2マトリックス演算部336に同時に空間座標情報を出力するように動作する。
次に、座標情報算出段階(空間座標情報修正段階)を実行する(S330、S430)。すなわち、第1マトリックス演算部335は、演算部選択部334を通じて入力された3Dグラフィックデータに含まれる空間座標情報と左眼マトリックスとの演算を行って左眼座標情報を算出する(S330)。また、第2マトリックス演算部336は、演算部選択部334を通じて入力された3Dグラフィックデータに含まれる空間座標情報と右眼マトリックスとの演算を行って右眼座標情報を算出する(S430)。
次に、レンダリングエンジン入力段階(S340、S440)を実行する。すなわち、マトリックス演算を通じて生成された左眼座標情報と、エンジン選択部341を通じて伝達される3Dグラフィックデータに含まれる表面情報とが、共に第1レンダリングエンジン342に伝達される(S340)。また、マトリックス演算を通じて生成された右眼座標情報と、エンジン選択部341を通じて伝達される3Dグラフィックデータに含まれる表面情報とが、共に第2レンダリングエンジン343に伝達される(S440)。
そして、立体映像データ生成段階(映像データ生成段階)が実行される(S350、S450)。すなわち、第1レンダリングエンジン342は、左眼座標情報と表面情報とをレンダリングして左眼映像データを生成する(S350)。また、第2レンダリングエンジン343は、右眼座標情報と表面情報とをレンダリングして右眼映像データを生成する(S450)。
次に、上記のように生成された左眼映像データ及び右眼映像データを、各々メモリ選択部351を通じて第2メモリ353の指定された領域に合成して格納する立体映像データ格納段階(映像データ合成段階)を実行する(S360)。
そして、生成部選択部331は、現在フレームの全てのデータが処理されたかを判断する現在フレーム完了確認段階を実行する(S370)。例えば、生成部選択部331は、制御部100(図1参照)から入力される同期信号または制御信号に基づいて現在フレームの映像データが全て処理されたかを判断しても良い。現在フレームの映像データが全て処理されなかった場合、マトリックス生成段階から立体映像データ生成段階まで、すなわち図6の(S310)から(S350)までと、(S410)〜(S450)までとが、再び実行される。
一方、現在フレームの映像データが全て処理された場合、出力部360が第2メモリ353に格納された1フレームの映像データを駆動部500(図1参照)に出力する映像データ出力段階を実行する(S380)。
次に、全てのフレームの映像データの処理が完了したかを判断する全フレーム完了確認段階を実行する(S390)。全てのフレームの映像データの処理が完了していない場合、マトリックス生成段階(S310、S410)から全フレーム完了確認段階(S390)までを再び実行する。
以上のように、本発明の実施の形態にかかる立体映像表示装置は、3Dグラフィックデータを用いて立体映像を表示できるので、3Dグラフィックデータを立体映像データに変換して上記立体映像表示装置に伝達する別途の装置や過程などを設ける必要がなくなる。従って、映像データの処理時間を短縮することができる。また、3Dグラフィックデータから立体映像データをリアルタイムに生成することができるので、立体映像を表示させるために要する時間も短縮させることができる。更に、表示される映像がユーザが所望する立体感を有するように、ユーザにより設定可能なユーザ指定変数により立体感を調整することができる。また、本発明の実施の形態にかかる3Dグラフィックデータ処理装置は、左眼映像データと右眼映像データとを同時に(並行して)生成することができるので、かかる3Dグラフィックデータ処理装置を備えた立体映像表示装置は、立体映像を表示させる表示速度がより一層向上される。また、3Dグラフィックデータを従来より早く処理することにより表示速度が速くなれば、遅延なしで映像を表示することができるようになり、映像の画質を向上させることもできる。更に、本発明の実施の形態にかかる立体映像表示装置は、3Dグラフィックデータを用いて2次元映像を表示することもできる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、本発明は、テレビやモニターなどのような表示装置だけではなく、携帯電話、PDAなどの携帯端末機にも適用されることできる。
本発明は、3Dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法に適用可能である。
本発明の実施の形態にかかる立体映像表示装置の構成を概略的に示す図である。 同実施の形態による立体映像表示装置の表示部の構成を概略的に示す図である。 本発明の実施の形態にかかる3Dグラフィックデータ処理装置の構成を概略的に示す図である。 同実施の形態におけるユーザ指定変数の概念を示す図である。 同実施の形態による3Dグラフィックデータ処理装置において、立体映像活性化信号が不活性化状態である場合に2次元映像データが生成される過程を示すフローチャートである。 同実施の形態による3Dグラフィックデータ処理装置において、立体映像活性化信号が活性化状態である場合に立体映像データが生成される過程を示すフローチャートである。
符号の説明
100 制御部
200 2次元映像処理部
300 3Dグラフィック処理部
310 空間情報認識部(3D空間情報認識部)
320 表面情報認識部(3D表面情報認識部)
330 ジオメトリックエンジン
331 生成部選択部
332 第1マトリックス生成部
333 第2マトリックス生成部
334 演算部選択部
335 第1マトリックス演算部
336 第2マトリックス演算部
340 映像生成部
341 エンジン選択部
342 第1レンダリングエンジン
343 第2レンダリングエンジン
350 映像合成部
351 メモリ選択部
352 第1メモリ
353 第2メモリ
360 出力部
400 立体映像処理部
500 駆動部
600 表示部
610 バリア
620 表示パネル

Claims (32)

  1. 表示部に映像を表示する立体映像表示装置であって:
    3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて、第1視点の空間座標情報を算出する際に用いる第1マトリックスを生成する第1マトリックス生成部と;
    前記3Dグラフィック変換マトリックス及び前記ユーザ指定変数に基づいて、前記第1視点とは異なる第2視点の空間座標情報を算出する際に用いる第2マトリックスを生成する第2マトリックス生成部と;
    3Dグラフィックデータに含まれる空間情報と前記第1マトリックスとの演算を行って前記第1視点の空間座標情報を生成する第1マトリックス演算部と;
    前記3Dグラフィックデータに含まれる前記空間情報と前記第2マトリックスとの演算を行って前記第2視点の空間座標情報を生成する第2マトリックス演算部と;
    前記第1視点の空間座標情報と前記3Dグラフィックデータに含まれる表面情報とのレンダリングを行って第1視点の映像データを生成する第1レンダリングエンジンと;
    前記第2視点の空間座標情報と前記3Dグラフィックデータに含まれる前記表面情報とのレンダリングを行って第2視点の映像データを生成する第2レンダリングエンジンと;
    前記第1視点の映像データ及び前記第2視点の映像データが格納されるメモリ部と;
    前記メモリ部に格納された前記第1視点の映像データ及び前記第2視点の映像データを入力されて、前記第1視点の映像データ及び前記第2視点の映像データに対応する映像が前記表示部に表示されるように前記表示部を駆動させる駆動部と;
    を含んで構成されることを特徴とする、立体映像表示装置。
  2. 前記表示部は、前記駆動部から入力された駆動信号に基づいて、2次元映像または立体映像のいずれかを表示することを特徴とする、請求項1に記載の立体映像表示装置。
  3. 前記2次元映像の表示または前記立体映像の表示を指示する立体映像活性化信号を入力されて、
    前記立体映像活性化信号が2次元映像の表示を指示する場合に、前記3Dグラフィック変換マトリックスを前記第1マトリックス生成部または前記第2マトリックス生成部にフレーム単位で交互に伝達する生成部選択部をさらに含むことを特徴とする、請求項2に記載の立体映像表示装置。
  4. 前記第1マトリックス生成部は、前記ユーザ指定変数に2次元映像を意味する情報が含まれる場合、前記3Dグラフィック変換マトリックスを前記第1マトリックスとして出力し、
    前記第2マトリックス生成部は、前記ユーザ指定変数に2次元映像を意味する情報が含まれる場合、前記3Dグラフィック変換マトリックスを前記第2マトリックスとして出力することを特徴とする、請求項3に記載の立体映像表示装置。
  5. 前記生成部選択部は、前記3Dグラフィック変換マトリックスが前記第1マトリックス生成部または前記第2マトリックス生成部のどちらに伝達されたのかを示す選択信号を出力することを特徴とする、請求項4に記載の立体映像表示装置。
  6. 前記立体映像活性化信号を入力され、前記立体映像活性化信号が2次元映像の表示を指示する場合に、前記選択信号に基づいて、前記3Dグラフィックデータに含まれる前記空間情報を前記第1マトリックス演算部または前記第2マトリックス演算部のいずれか一つに出力する演算部選択部と;
    前記立体映像活性化信号を入力され、前記立体映像活性化信号が2次元映像の表示を指示する場合に、前記選択信号に基づいて、前記3Dグラフィックデータに含まれる前記表面情報を前記第1レンダリングエンジンまたは前記第2レンダリングエンジンのいずれか一つに出力するエンジン選択部と;
    をさらに含むことを特徴とする、請求項5に記載の立体映像表示装置。
  7. 前記メモリ部は、
    前記第1レンダリングエンジンから出力される前記第1視点の映像データが格納される第1メモリと;
    前記第1レンダリングエンジンから出力される前記第1視点の映像データまたは、前記第2レンダリングエンジンから出力される前記第2視点の映像データの少なくともいずれかが格納される第2メモリと;
    を含むことを特徴とする、請求項1〜6のいずれか一項に記載の立体映像表示装置。
  8. 前記立体映像活性化信号を入力され、前記立体映像活性化信号が2次元映像の表示を指示する場合に、前記第1レンダリングエンジンから出力される前記第1視点の映像データを前記第1メモリに伝達し、前記立体映像活性化信号が立体映像の表示を指示する場合に、前記第1レンダリングエンジンから出力される前記第1視点の映像データを前記第2メモリに伝達するメモリ選択部をさらに含み、
    前記第2メモリは、前記立体映像活性化信号に基づいて、立体映像データが格納される立体映像メモリまたは、2次元映像データが格納される2次元映像メモリのいずれか一つとして動作することを特徴とする、請求項7に記載の立体映像表示装置。
  9. 前記立体映像活性化信号及び前記選択信号に基づいて、前記第1メモリまたは前記第2メモリのいずれか一つに格納された映像データを前記駆動部に出力する出力部をさらに含むことを特徴とする、請求項8に記載の立体映像表示装置。
  10. 前記ユーザ指定変数は、
    表示されるオブジェクトと観察者の左眼を結んだ線と、前記表示されるオブジェクトと観察者の右眼を結んだ線とで形成される角度の情報を含み、
    前記角度が0度のとき、前記第1視点と前記第2視点とは同一の視点であることを特徴とする、請求項1に記載の立体映像表示装置。
  11. 映像データを生成する際に用いる空間座標情報を生成するジオメトリックエンジンと;
    前記ジオメトリックエンジンから出力された前記空間座標情報と、3Dグラフィックデータに含まれる表面情報とをレンダリングして前記映像データを生成するレンダリングエンジンと;
    前記レンダリングエンジンから出力された前記映像データが合成されて格納されるメモリ部と;
    を含んで構成され、
    前記ジオメトリックエンジンは、
    3Dグラフィック変換マトリックス及びユーザ指定変数に基づいて、左眼座標情報を算出する際に用いる左眼マトリックスを生成する第1マトリックス生成部と;
    前記3Dグラフィック変換マトリックス及び前記ユーザ指定変数に基づいて、右眼座標情報を算出する際に用いる右眼マトリックスを生成する第2マトリックス生成部と;
    前記左眼マトリックスと前記3Dグラフィックデータに含まれる空間情報との演算により生成された前記左眼座標情報を、前記映像データを生成する際に用いる空間座標情報として出力する第1マトリックス演算部と;
    前記右眼マトリックスと前記3Dグラフィックデータに含まれる空間情報との演算により生成された前記右眼座標情報を、前記映像データを生成する際に用いる空間座標情報として出力する第2マトリックス演算部と;
    を含んで構成されることを特徴とする、3Dグラフィックデータ処理装置。
  12. 前記レンダリングエンジンは、
    前記第1マトリックス演算部から出力された左眼座標情報と前記3Dグラフィックデータに含まれる前記表面情報とのレンダリングを行う第1エンジンと;
    前記第2マトリックス演算部から出力された右眼座標情報と前記3Dグラフィックデータに含まれる前記表面情報とのレンダリングを行う第2エンジンと;
    を含んで構成されることを特徴とする、請求項11に記載の3Dグラフィックデータ処理装置。
  13. 第1フレームの3Dグラフィックデータ及び前記第1フレームに連続する第2フレームの3Dグラフィックデータを処理する3Dグラフィックデータ処理装置であって:
    前記第1フレームの3Dグラフィックデータに含まれる空間情報に対するマトリックス演算または前記第2フレームの3Dグラフィックデータに含まれる空間情報に対するマトリックス演算により空間座標情報を生成するジオメトリックエンジンと;
    前記ジオメトリックエンジンから出力された前記空間座標情報と前記3Dグラフィックデータに含まれる表面情報とをレンダリングして映像データを生成するレンダリングエンジンと;
    前記レンダリングエンジンから出力された前記映像データが合成されて格納されるメモリ部と;
    を含んで構成され、
    前記ジオメトリックエンジンは、
    前記第1フレームの間に3Dグラフィック変換マトリックスを第1マトリックス生成部に伝達し、前記第2フレームの間に前記3Dグラフィック変換マトリックスを第2マトリックス生成部に伝達する生成部選択部と;
    前記伝達された3Dグラフィック変換マトリックス及び、ユーザ指定変数に基づいて、それぞれマトリックスを生成する前記第1マトリックス生成部及び前記第2マトリックス生成部と;
    前記第1フレームの間に前記第1マトリックス生成部により生成されたマトリックスと前記3Dグラフィックデータに含まれる空間情報とを演算して前記第1フレームの空間座標情報を出力する第1マトリックス演算部と;
    前記第2フレームの間に前記第2マトリックス生成部により生成されたマトリックスと前記3Dグラフィックデータに含まれる空間情報とを演算して前記第2フレームの空間座標情報を出力する第2マトリックス演算部と;
    を含むことを特徴とする、3Dグラフィックデータ処理装置。
  14. 前記生成部選択部は、現在処理中のフレームが前記第1フレームまたは前記第2フレームのいずれであるかを示す選択信号を出力し、
    前記ジオメトリックエンジンは、前記選択信号に基づいて、前記3Dグラフィックデータに含まれる空間情報を前記第1マトリックス演算部または前記第2マトリックス演算部のいずれか一つに伝達する演算部選択部をさらに含むことを特徴とする、請求項13に記載の3Dグラフィックデータ処理装置。
  15. 3Dグラフィックデータを処理する3Dグラフィックデータ処理装置であって:
    前記3Dグラフィックデータに含まれる空間情報から算出された第1空間座標情報と前記3Dグラフィックデータに含まれる表面情報とをレンダリングして第1映像データを出力する第1レンダリングエンジンと;
    前記3Dグラフィックデータに含まれる前記空間情報から算出された第2空間座標情報と前記3Dグラフィックデータに含まれる前記表面情報とをレンダリングして第2映像データを出力する第2レンダリングエンジンと;
    前記第1映像データが格納される第1メモリと;
    メモリ制御信号に基づいて、前記第1映像データ及び前記第2映像データが格納されるか、あるいは、前記第1映像データまたは前記第2映像データのいずれか一つが格納される第2メモリと;
    前記メモリ制御信号に基づいて、前記第1レンダリングエンジンから出力された前記第1映像データを前記第1メモリまたは前記第2メモリのいずれか一つに伝達するメモリ選択部と;
    を含むことを特徴とする、3Dグラフィックデータ処理装置。
  16. 前記第1映像データは左眼映像データであり、前記第2映像データは右眼映像データであり、
    前記第2メモリは、前記第1映像データ及び前記第2映像データが格納される立体映像データ格納メモリであることを特徴とする、請求項15に記載の3Dグラフィックデータ処理装置。
  17. 映像が表示される表示部と;
    駆動のための制御信号及び、左眼映像データと右眼映像データとが合成された立体映像データ信号に基づいて、前記表示部に映像が表示されるように前記表示部を駆動させる駆動部と;
    同期信号、3Dグラフィックデータ及び、上記表示される映像の立体感レベルを修正する際に用いるユーザ指定変数を入力されて、前記3Dグラフィックデータ及び前記ユーザ指定変数に基づいて、マトリックス演算によりそれぞれ生成された左眼映像データ及び右眼映像データが合成された前記立体映像データ信号及び、前記同期信号に基づいて生成された前記制御信号を前記駆動部に出力する制御部と;
    を含むことを特徴とする、立体映像表示装置。
  18. 前記制御部は、前記左眼映像データ及び前記右眼映像データを同時に生成することを特徴とする、請求項17に記載の立体映像表示装置。
  19. 前記制御部は、立体映像活性化信号を更に入力されて、前記立体映像活性化信号に基づいて、前記立体映像データ信号または2次元映像データ信号を選択的に生成することを特徴とする、請求項17に記載の立体映像表示装置。
  20. 前記ユーザ指定変数は、観察者の二つの眼と立体映像データによって表示されるオブジェクトとの距離の情報及び、観察者の一方の眼と前記オブジェクトを結んだ線と、観察者の他方の眼と前記オブジェクトを結んだ線とで形成される角度の情報を含むことを特徴とする、請求項17に記載の立体映像表示装置。
  21. 立体映像を表示する表示部と;
    前記表示部を駆動させる駆動部と;
    3Dグラフィックデータを外部から受信し、前記3Dグラフィックデータから空間座標情報及び表面情報を抽出し、前記空間座標情報及び前記表面情報に基づいて立体映像データを生成して前記駆動部に出力する制御部と;
    を含むことを特徴とする、立体映像表示装置。
  22. 前記制御部は、3Dグラフィック処理部を含み、
    前記3Dグラフィック処理部は、
    前記3Dグラフィックデータから前記空間座標情報を抽出する空間情報認識部と;
    前記3Dグラフィックデータから抽出された空間座標情報を修正して、左眼映像データを生成する際に用いる左眼座標情報及び、右眼映像データを生成する際に用いる右眼座標情報をそれぞれ生成する空間座標情報演算部と;
    前記3Dグラフィックデータから前記表面情報を抽出する表面情報認識部と;
    前記左眼座標情報及び前記右眼座標情報に、前記表面情報をそれぞれ結合して、前記左眼映像データ及び前記右眼映像データを生成する映像生成部と;
    前記映像生成部にて生成された前記左眼映像データ及び前記右眼映像データを、前記表示部の構造に対応するように合成して、前記立体映像データを生成する映像合成部とを含むことを特徴とする、請求項21に記載の立体映像表示装置。
  23. 前記表示部は、
    前記駆動部から入力された前記立体映像データに対応する映像を表示する表示パネルと;
    前記表示パネルと対応するように配置されて、前記駆動部から入力された駆動信号に基づいて動作するバリヤと;
    を含むことを特徴とする、請求項22に記載の立体映像表示装置。
  24. 前記制御部は、
    立体映像の表示を指示する立体映像活性化信号を前記3Dグラフィック処理部に伝達することを特徴とする、請求項22に記載の立体映像表示装置。
  25. 前記3Dグラフィック処理部の空間座標情報演算部、映像生成部及び、映像合成部は、前記立体映像活性化信号が入力されると動作することを特徴とする、請求項24に記載の立体映像表示装置。
  26. 前記空間座標情報演算部は、
    前記3Dグラフィックデータから抽出された空間座標情報に基づいて、各オブジェクトを所定の角度だけ左側から見た場合の第1空間座標情報をマトリックス演算により算出して、前記左眼映像データを生成する際に用いる前記左眼座標情報として出力し、
    前記3Dグラフィックデータから抽出された空間座標情報に基づいて、各オブジェクトを所定の角度だけ右側から見た場合の第2空間座標情報をマトリックス演算により算出して、前記右眼映像データを生成する際に用いる前記右眼座標情報として出力することを特徴とする、請求項22に記載の立体映像表示装置。
  27. 前記空間座標情報演算部は、前記3Dグラフィックデータから抽出された空間座標情報の修正の有無及び修正の程度をユーザが設定できるように構成されることを特徴とする、請求項22に記載の立体映像表示装置。
  28. 立体映像を表示する立体映像表示装置の駆動方法であって:
    オブジェクトの空間座標情報及び表面情報を含む3Dグラフィックデータを入力する入力段階と;
    前記3Dグラフィックデータを立体映像データに変換する変換段階と;
    前記立体映像データに対応する立体映像を表示する表示段階と;
    を含むことを特徴とする、立体映像表示装置の駆動方法。
  29. 前記変換段階は、
    左眼映像データ及び右眼映像データを生成する際に用いることができるように、前記3Dグラフィックデータから抽出された前記空間座標情報に対して修正を行う空間座標情報修正段階と;
    前記3Dグラフィックデータから抽出された前記表面情報及び、前記修正された空間座標情報から、前記左眼映像データ及び前記右眼映像データを生成する映像データ生成段階と;
    生成された前記左眼映像データ及び前記右眼映像データを、前記表示部の構造に対応するように合成する映像合成段階と;
    を更に含むことを特徴とする、請求項28に記載の立体映像表示装置の駆動方法。
  30. 立体映像を表示する立体映像表示装置に設けられる3Dグラフィックデータ処理装置であって:
    オブジェクトの空間座標情報及び表面情報を含む3Dグラフィックデータを入力されて、前記空間座標情報を抽出する空間情報認識部と;
    左眼映像データ及び右眼映像データを生成する際に用いることができるように、前記3Dグラフィックデータから抽出された前記空間座標情報に対して修正を行う空間座標情報演算部と;
    前記3Dグラフィックデータの前記表面情報を抽出する表面情報認識部と;
    前記空間座標情報演算部から入力された前記修正された空間座標情報と、前記表面情報認識部から入力された前記表面情報より、前記左眼映像データ及び前記右眼映像データを生成する映像生成部と;
    前記左眼映像データ及び前記右眼映像データを前記表示部の構造と対応するように合成する映像合成部と;
    を含むことを特徴とする、3Dグラフィックデータ処理装置。
  31. 前記空間座標情報演算部は、
    前記3Dグラフィックデータから抽出された前記空間座標情報に基づいて、各オブジェクトを所定の角度だけ左側から見た場合の空間座標情報をマトリックス演算により算出して、前記左眼映像データを生成する際に用いる左眼座標情報として出力し、
    前記3Dグラフィックデータから抽出された前記空間座標情報に基づいて、各オブジェクトを所定の角度だけ右側から見た場合の空間座標情報をマトリックス演算により算出して、前記右眼映像データを生成する際に用いる右眼座標情報として出力することを特徴とする、請求項30に記載の3Dグラフィックデータ処理装置。
  32. 前記空間座標情報演算部が前記マトリックス演算の際に用いるマトリックスは、ユーザによって調節可能であることを特徴とする、請求項31に記載の3Dグラフィックデータ処理装置。
JP2006214939A 2005-08-05 2006-08-07 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法 Expired - Fee Related JP4965184B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020050071602A KR20070016712A (ko) 2005-08-05 2005-08-05 입체영상 표시장치 및 그의 구동방법
KR10-2005-0071602 2005-08-05
KR10-2005-0089406 2005-09-26
KR1020050089406A KR100670152B1 (ko) 2005-09-26 2005-09-26 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치

Publications (2)

Publication Number Publication Date
JP2007048293A true JP2007048293A (ja) 2007-02-22
JP4965184B2 JP4965184B2 (ja) 2012-07-04

Family

ID=37149062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006214939A Expired - Fee Related JP4965184B2 (ja) 2005-08-05 2006-08-07 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法

Country Status (3)

Country Link
US (1) US8279221B2 (ja)
EP (1) EP1750460A1 (ja)
JP (1) JP4965184B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010067810A1 (ja) * 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法
KR20110055032A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
CN102655600A (zh) * 2012-03-16 2012-09-05 友达光电股份有限公司 立体影像显示方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009154595A1 (en) * 2008-06-19 2009-12-23 Thomson Licensing Display of two-dimensional content during three-dimensional presentation
DE102009004820A1 (de) * 2009-01-13 2010-07-15 Adp Gauselmann Gmbh Verfahren zur Darstellung von virtuellen 3-D-Objekten mit einer in einem münzbetätigten Unterhaltungsautomaten angeordneten matrixbasierenden Anzeigeeinheit
KR101652405B1 (ko) * 2010-06-23 2016-08-30 삼성전자주식회사 입체 영상 표시장치
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
US8599240B2 (en) 2010-10-29 2013-12-03 Sony Corporation Super-resolution from 3D (3D to 2D conversion) for high quality 2D playback
US9766698B2 (en) * 2011-05-05 2017-09-19 Nokia Technologies Oy Methods and apparatuses for defining the active channel in a stereoscopic view by using eye tracking
JP5328852B2 (ja) * 2011-07-25 2013-10-30 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、プログラム及び情報記憶媒体
KR20130096050A (ko) * 2012-02-21 2013-08-29 삼성디스플레이 주식회사 표시장치
KR20180057431A (ko) 2016-11-22 2018-05-30 삼성전자주식회사 비휘발성 메모리 장치
CN113344778B (zh) * 2021-08-05 2021-11-05 成都市谛视科技有限公司 一种成像控制方法、装置、设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232953A (ja) * 1997-02-20 1998-09-02 Mitsubishi Electric Corp 立体視画像生成装置
JP2004289681A (ja) * 2003-03-24 2004-10-14 Sharp Corp 画像処理装置、画像撮像システム、画像表示システム、画像撮像表示システム、画像処理プログラム、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005011275A (ja) * 2003-06-23 2005-01-13 Fiatlux:Kk 立体画像表示システム及び立体画像表示プログラム

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2532267B1 (fr) 1982-08-31 1988-05-27 Lely Nv C Van Der Tracteur comportant une pluralite de roues motrices
US6496183B1 (en) 1998-06-30 2002-12-17 Koninklijke Philips Electronics N.V. Filter for transforming 3D data in a hardware accelerated rendering architecture
US4601053A (en) 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
US4896210A (en) 1987-11-16 1990-01-23 Brokenshire Daniel A Stereoscopic graphics display terminal with image data processing
JP2857429B2 (ja) 1989-10-02 1999-02-17 日本放送協会 3次元画像表示装置および方法
US5255211A (en) 1990-02-22 1993-10-19 Redmond Productions, Inc. Methods and apparatus for generating and processing synthetic and absolute real time environments
JPH0477882A (ja) 1990-07-13 1992-03-11 Daikin Ind Ltd 三角形ポリゴン描画方法およびその装置
JPH07306955A (ja) 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
US5581665A (en) * 1992-10-27 1996-12-03 Matsushita Electric Industrial Co., Ltd. Three-dimensional object movement and transformation processing apparatus for performing movement and transformation of an object in a three-diamensional space
US6011581A (en) 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
US5394202A (en) 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
JP3101521B2 (ja) 1994-03-28 2000-10-23 三洋電機株式会社 立体映像表示パネル及び立体映像表示装置
JP3459721B2 (ja) 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6640004B2 (en) 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
US5864342A (en) 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
GB2309847B (en) 1995-10-19 1999-09-15 Sony Corp Stereoscopic image generation method and apparatus thereof
JP3840663B2 (ja) 1995-11-14 2006-11-01 ソニー株式会社 画像処理装置及び方法
EP0809913B1 (en) 1995-12-19 2002-06-12 Koninklijke Philips Electronics N.V. Parallactic depth-dependent pixel shifts
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
DE69730565T2 (de) 1996-06-26 2005-02-03 Matsushita Electric Industrial Co., Ltd., Kadoma Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
KR100239132B1 (ko) 1996-10-10 2000-01-15 윤종용 3차원 시차 그리기 장치 및 방법
GB9706000D0 (en) 1997-03-22 1997-05-07 Philips Electronics Nv Multiple viewpoint image generation
US5982375A (en) * 1997-06-20 1999-11-09 Sun Microsystems, Inc. Floating point processor for a three-dimensional graphics accelerator which includes single-pass stereo capability
JP3005499B2 (ja) 1997-06-26 2000-01-31 日本電気アイシーマイコンシステム株式会社 図形処理装置及び図形処理方法
US20010043226A1 (en) 1997-11-18 2001-11-22 Roeljan Visser Filter between graphics engine and driver for extracting information
CN1173296C (zh) 1997-12-05 2004-10-27 动力数字深度研究有限公司 改进的图像转换和编码技术
KR100306695B1 (ko) 1998-04-16 2001-11-30 윤종용 마이크로플러라이저를이용한입체영상디스플레이장치
JP4149037B2 (ja) * 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
US6515662B1 (en) 1998-07-16 2003-02-04 Canon Kabushiki Kaisha Computer apparatus for providing stereoscopic views from monographic images and method
AU5686199A (en) * 1998-08-20 2000-03-14 Apple Computer, Inc. Deferred shading graphics pipeline processor
US6631205B1 (en) 1999-01-13 2003-10-07 Canon Kabushiki Kaisha Stereoscopic imaging in a portable document format
TW413794B (en) 1999-02-26 2000-12-01 Sunplus Technology Co Ltd A 3D graphics processor based on horizontal scan lines as processing unit and the drawing method therefor
JP3286633B2 (ja) 1999-09-14 2002-05-27 株式会社ソニー・コンピュータエンタテインメント 画像作成方法、記憶媒体およびプログラム実行装置
JP4341135B2 (ja) 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
JP4141620B2 (ja) 2000-07-04 2008-08-27 日本放送協会 立体物表示システム及びその受信装置
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
US20020154214A1 (en) * 2000-11-02 2002-10-24 Laurent Scallie Virtual reality game system using pseudo 3D display driver
US7371163B1 (en) 2001-05-10 2008-05-13 Best Robert M 3D portable game system
US20020191000A1 (en) 2001-06-14 2002-12-19 St. Joseph's Hospital And Medical Center Interactive stereoscopic display of captured images
JP4708619B2 (ja) 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
GB0119176D0 (en) 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
JP2003070022A (ja) 2001-08-29 2003-03-07 Sanyo Electric Co Ltd 立体画像圧縮方法、装置、およびシステム
US7277121B2 (en) 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP4236428B2 (ja) 2001-09-21 2009-03-11 三洋電機株式会社 立体画像表示方法および立体画像表示装置
JP3673217B2 (ja) * 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
US6924799B2 (en) 2002-02-28 2005-08-02 Hewlett-Packard Development Company, L.P. Method, node, and network for compositing a three-dimensional stereo image from a non-stereo application
JP3497499B2 (ja) 2002-03-14 2004-02-16 三菱電機株式会社 三次元グラフィック描画装置
JP2004040445A (ja) 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
KR100475060B1 (ko) 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
EP1403759A3 (en) 2002-09-17 2007-04-04 Sharp Kabushiki Kaisha Electronic equipment with two and three dimensional display functions
JP4093833B2 (ja) 2002-09-25 2008-06-04 シャープ株式会社 電子機器
JP2004165710A (ja) 2002-09-27 2004-06-10 Sharp Corp 立体画像表示装置、立体画像記録方法及び立体画像伝送方法
WO2004051307A2 (en) 2002-12-03 2004-06-17 Koninklijke Philips Electronics N.V. Method and apparatus to display 3d rendered ultrasound data on an ultrasound cart in stereovision
US7663570B2 (en) 2003-02-27 2010-02-16 Nec Corporation Image display device, portable terminal device and display panel
JP4400242B2 (ja) 2003-02-27 2010-01-20 日本電気株式会社 画像表示装置、携帯端末装置及び表示パネル
US20040212612A1 (en) 2003-04-28 2004-10-28 Michael Epstein Method and apparatus for converting two-dimensional images into three-dimensional images
KR101038452B1 (ko) 2003-08-05 2011-06-01 코닌클리케 필립스 일렉트로닉스 엔.브이. 멀티뷰 이미지 생성
KR100540732B1 (ko) 2004-02-02 2006-01-10 한양대학교 산학협력단 2차원 영상신호를 3차원 영상신호로 변환하는 장치
JP4383241B2 (ja) * 2004-05-07 2009-12-16 任天堂株式会社 描画ポリゴン数を増やす画像処理システム
US7545380B1 (en) * 2004-12-16 2009-06-09 Nvidia Corporation Sequencing of displayed images for alternate frame rendering in a multi-processor graphics system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232953A (ja) * 1997-02-20 1998-09-02 Mitsubishi Electric Corp 立体視画像生成装置
JP2004289681A (ja) * 2003-03-24 2004-10-14 Sharp Corp 画像処理装置、画像撮像システム、画像表示システム、画像撮像表示システム、画像処理プログラム、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005011275A (ja) * 2003-06-23 2005-01-13 Fiatlux:Kk 立体画像表示システム及び立体画像表示プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010067810A1 (ja) * 2008-12-09 2010-06-17 ソニー株式会社 画像処理装置および方法
US8750631B2 (en) 2008-12-09 2014-06-10 Sony Corporation Image processing device and method
JP5594536B2 (ja) * 2008-12-09 2014-09-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
KR20110055032A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
KR101631514B1 (ko) * 2009-11-19 2016-06-17 삼성전자주식회사 전자기기에서 3차원 컨텐츠 생성 방법 및 장치
CN102655600A (zh) * 2012-03-16 2012-09-05 友达光电股份有限公司 立体影像显示方法

Also Published As

Publication number Publication date
US20070030264A1 (en) 2007-02-08
JP4965184B2 (ja) 2012-07-04
EP1750460A1 (en) 2007-02-07
US8279221B2 (en) 2012-10-02

Similar Documents

Publication Publication Date Title
JP4965184B2 (ja) 3dグラフィックデータ処理装置及び立体映像表示装置並びに立体映像表示装置の駆動方法
JP5160741B2 (ja) 3dグラフィック処理装置及びこれを利用した立体映像表示装置
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
JP4251952B2 (ja) 立体画像表示装置および立体画像表示方法
EP1742491B1 (en) Stereoscopic image display device
JP5410670B2 (ja) 画像表示装置および画像表示装置の駆動方法
JP4933846B2 (ja) 立体映像表示装置、および3d映像−立体変換機
US8731279B2 (en) Method and device for generating multi-viewpoint image
JP2007506172A (ja) 3次元画像ディスプレイの画面に3次元画像を描画するシステム及び方法
JP2011525075A (ja) 移動機器用立体画像生成チップ及びこれを用いた立体画像表示方法
KR20070016712A (ko) 입체영상 표시장치 및 그의 구동방법
JP4266774B2 (ja) 立体画像表示装置及び立体画像表示方法
KR101228916B1 (ko) 멀티 비젼의 3차원 영상 표시 장치 및 방법
US20120163700A1 (en) Image processing device and image processing method
KR100670152B1 (ko) 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
JP2008167310A (ja) 裸眼立体視画像処理方法および装置ならびに演算プログラムを記録した記録媒体
KR101912242B1 (ko) 3d 디스플레이 장치 및 그 영상 처리 방법
JP5700998B2 (ja) 立体映像表示装置及びその制御方法
KR20070089554A (ko) 입체 영상 처리 장치
KR20100005267A (ko) 입체영상 멀티비전 시스템
KR102492367B1 (ko) 영상 데이터 생성 방법과 이를 이용한 입체 영상 표시 시스템
JP2015046694A (ja) 画像処理装置、画像処理方法及びプログラム
JP2015119360A (ja) 画像処理装置、画像処理方法およびプログラム
KR20120109182A (ko) 인터레이스 방식을 이용한 3차원 영상 전송 방법 및 장치

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20081209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110712

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120329

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees