JP2007018507A - 立体映像表示装置、および3d映像−立体変換機 - Google Patents

立体映像表示装置、および3d映像−立体変換機 Download PDF

Info

Publication number
JP2007018507A
JP2007018507A JP2006171871A JP2006171871A JP2007018507A JP 2007018507 A JP2007018507 A JP 2007018507A JP 2006171871 A JP2006171871 A JP 2006171871A JP 2006171871 A JP2006171871 A JP 2006171871A JP 2007018507 A JP2007018507 A JP 2007018507A
Authority
JP
Japan
Prior art keywords
value
eye
coordinate
hue information
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006171871A
Other languages
English (en)
Other versions
JP4933846B2 (ja
Inventor
Myoung-Seop Song
明燮 宋
Jang-Doo Lee
璋斗 李
Kyokyoku Cho
亨旭 張
Woo-Jong Lee
▲ウ▼鍾 李
Hyun-Suk Kim
賢淑 金
Hag-Keun Kim
学根 金
Duck-Myung Lee
悳明 李
Han-Jun Choi
漢▲ジュン▼ 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung SDI Co Ltd
Nexuschips Co Ltd
Original Assignee
Samsung SDI Co Ltd
Nexuschips Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung SDI Co Ltd, Nexuschips Co Ltd filed Critical Samsung SDI Co Ltd
Publication of JP2007018507A publication Critical patent/JP2007018507A/ja
Application granted granted Critical
Publication of JP4933846B2 publication Critical patent/JP4933846B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

【課題】3D映像データを立体映像データに転換する機能を含む立体映像表示装置、および映像処理速度を向上させる立体映像表示装置を提供する。
【解決手段】複数の左眼用画素150および複数の右眼用画素160を含む表示部100と、複数の左眼用画素150に対応するデータを貯蔵する左眼映像領域および複数の右眼用画素160に対応するデータを貯蔵する右眼映像領域を含むフレームメモリ部730と、入力される3D映像データを左眼用3D映像データおよび右眼用3D映像データに変換するジオメトリックエンジン部710と、上記左眼用3D映像データと右眼用3D映像データの座標情報および色相情報を利用して、上記左眼領域または右眼領域に貯蔵する座標値および色相情報値のみを計算し、上記座標値に基づいて上記色相情報値をフレームメモリ部730に貯蔵するレンダリングエンジン部720とを含む立体映像表示装置が提供される。
【選択図】図4

Description

本発明は、立体映像表示装置、および3D映像−立体変換機に関する。
立体映像表示装置は、使用者の左眼と右眼に互いに異なる映像を提供して、偏光眼鏡のようなその他の装備なしで使用者に距離感と立体感を与える立体映像を提供する。
立体映像表示装置は、その表示部前面に、パララックスバリア、レンチキュラーレンズまたはマイクロレンズアレイ等を備えて、表示部で実現される左眼用映像と右眼用映像を各々使用者の左眼方向と右眼方向とに空間分割する方式を採択している。
立体映像表示装置用映像データを実現するためには、3D映像データを立体映像データに転換する必要がある。このような3D映像データの立体映像データへの転換は立体映像表示装置の外部で行われるのが一般的である。
一方、一般の映像に比べて立体映像は、同じコンテンツに対して映像処理をする場合、通常50%近い速度低下が発生する。これは、一般の映像は、左眼と右眼の区別のない一つの映像のみを生成して表示するのに対し、立体映像は、左眼と右眼用の映像を各々生成し、これを合せたステレオ立体映像を表示するからであり、2倍近い時間が必要となる。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところの一つは、3D映像データを立体映像データに転換する機能を含む立体映像表示装置を提供することにある。
本発明の他の目的とするところは、映像処理速度を向上させる立体映像表示装置を提供することにある。
上記目的を達成するために、本発明のある観点によれば、複数の左眼用画素および複数の右眼用画素を含む表示部と、上記複数の左眼用画素に対応するデータを貯蔵する左眼映像領域、および上記複数の右眼用画素に対応するデータを貯蔵する右眼映像領域を含むメモリ部と、入力される3D映像データを、上記複数左眼用画素に対応する左眼用3D映像データ、または上記複数の右眼用画素に対応する右眼用3D映像データに変換するジオメトリックエンジン部と、上記左眼用3D映像データの座標情報および色相情報、または上記右眼用3D映像データの座標情報および色相情報を利用して、上記左眼領域または右眼領域に貯蔵すべき座標値および色相情報値のみを計算し、上記座標値に基づいて上記色相情報値を上記メモリ部に貯蔵するレンダリングエンジン部とを含む立体映像表示装置が提供される。ここで、上記3D映像データとは、平面映像用の3D映像データのことを指す。また、上記色相情報値は、色情報やテキスチャー座標値等を含む。
また、上記座標情報は、所定の領域中における各ラインそれぞれの開始X座標および終了X座標を含み、上記レンダリングエンジン部は、上記各ラインの開始X座標に所定の増加値(以下、「第1増加値」という。)ずつ増加させて上記各ラインに対するX座標値を計算し、上記第1増加値に対応して上記各ラインに対する色相情報値を計算するとしてもよい。
また、上記色相情報は、上記各ラインの色相情報開始値および色相情報終了値を含み、上記第1増加値に対応して色相情報増加値(以下、「第1色相情報増加値」という。)を計算し、上記各ラインに対する色相情報開始値に上記第1色相情報増加値ずつ増加させて、上記各ラインに対する色相情報値を算出するとしてもよい。
また、上記第1増加値は2であるとしてもよい。
また、上記第1色相情報増加値は、上記各ラインの開始X座標と上記各ラインの終了X座標との間の距離、上記各ラインの色相情報開始値と上記各ラインの色相情報終了値を利用して決定された増加値に2倍を乗じた値であるとしてもよい。
また、上記左眼用画素から出力される映像または右眼用画素から出力される映像を各々左側方向または右側方向に透写するような光透写経路が設定されるように配列されている透明領域および不透明領域を含むバリア部をさらに備えるとしてもよい。
また、上記立体映像表示装置が移動通信端末機のディスプレイ部に相当するとしてもよい。
また、上記目的を達成するために、本発明の別の観点によれば、入力される3D映像データを映像立体映像データに変換する3D映像−立体映像変換機において、上記3D映像データに所定の第1パラメータを乗じて左眼用3D映像データを生成し、上記3D映像データに所定の第2パラメータを乗じて右眼用3D映像データを生成するジオメトリックエンジン部と、上記左眼用3D映像データまたは上記右眼用3D映像データのうちの所定の領域に対応する各ラインに対し、上記各ラインの開始X座標に第1増加値ずつ増加させて、上記各ラインに対応するX座標値を生成するX座標増加部と、上記第1増加値に対応して第1色相情報増加値を計算し、上記各ラインの色相情報開始値に上記第1色相情報増加値ずつ増加させて、上記各ラインに対応する色相情報値を計算する色相情報増加部と、上記X座標増加部で生成された上記X座標値に基づいて、上記色相増加部で生成される上記色相情報値をメモリに貯蔵するように制御するメモリ制御部とを含む3D映像−立体変換機が提供される。
また、上記3D映像−立体変換機において、上記第1増加値は2であるとしてもよい。
また、上記3D映像−立体変換機において、上記第1色相情報増加値は、上記各ラインの開始X座標と上記各ラインの終了X座標との間の距離、上記各ラインの色相情報開始値と上記各ラインの色相情報終了値を利用して決定された増加値に2倍を乗じた値であるとしてもよい。
また、上記所定の領域はポリゴンに対応するとしてもよい。
また、上記第1パラメータおよび上記第2パラメータは、3D映像を観察する地点に対応するパラメータ、および3D映像に対する遠近感に対応するパラメータを含むとしてもよい。
本発明の一実施形態による立体映像表示装置は、平面映像用の3D映像データである3D映像コンテンツのみが入力される場合にも、リアルタイムで立体映像データに変換して立体映像を表示することができる。また、本発明の一実施形態によるデータ変換部(またはグラフィックアクセラレータチップ)は、フレームメモリに書き込まれる(貯蔵される)座標および色相情報のみを計算するので、映像処理を速度を向上させることができる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
まず、本発明の一実施形態による立体映像表示装置を説明する前に、立体映像表示の原理について概略的に説明する。
一般的に、人の左眼と右眼は一つの立体対象物を観察する際に互いに異なる位置から見るので、観察者は左眼と右眼を通じて互いに異なる映写情報を認識する。観察者はこのように互いに異なる映像情報を組み合わせて立体対象物に対する深さ情報を獲得し、立体感や遠近感を感じるようになる。
立体映像表示装置は、観察者が実際に立体対象物を観察する際、観察者の左眼と右眼が見る映像を観察者に提供することにより、観察者が立体映像を感じるようにする。
この時、観察者の左眼と右眼が立体対象物を見る場合の映像の差をディスパリティー(disparity)という。この時、ディスパリティーが正(+)の値を有する場合、観察者は立体対象物が所定の基準面より観察者方向に近く位置すると感じるようになり、ディスパリティーが負(−)の値を有する場合は、立体対象物が上記基準面より観察者反対方向に遠く位置すると感じるようになる。
図1は、ディスパリティーによって観察者が感じる立体映像を示す。図1に示すように、正(+)のディスパリティー(positive disparity)を有する円筒形映像は、基準面から観察者に近く位置するように感じられ、負(−)のディスパリティー(negative disparity)を有する四角形映像は、基準面から観察者に遠く位置するように感じられる。反面、零(0)のディスパリティー(zero disparity)を有するハート映像は、基準面に位置するように感じられる。
以下、本発明の明細書で使用する用語において、「立体映像」は、所定の表示装置の一面を基準面とした場合、表示される映像が基準面から観察者方向に近く位置するように感じられたり、基準面から観察者の反対方向に遠く位置するように感じられる映像を意味する。一方、「平面映像」は、表示される映像が基準面上に位置するように感じられる映像を意味する。そして、「立体映像表示装置」とは、上記で定義された立体映像を表示することのできる表示装置を意味する。
本発明の一実施形態ではパララックスバリア方式を利用して、左眼および右眼映像を分離して立体効果を実現する立体映像表示装置について説明する。しかし、本発明の実施形態に係る立体映像表示装置は、パララックスバリア方式の立体映像表示装置に限定されるものではなく、レンチキュラーレンズ方式の立体映像表示装置等にも適用できる。
以下、本発明の一実施形態では、図2に示すように液晶表示装置で実現された立体映像表示装置を例に挙げて具体的に説明する。なお、本発明の一実施形態に係る立体映像表示装置は、液晶表示装置以外の有機発光表示装置、プラズマ表示装置または電界表示装置等にも適用できる。
図2は、本発明の一実施形態に係る立体映像表示装置の構成を示すブロック図である。
図2に示すように、本発明の一実施形態に係る立体映像表示装置は、表示部(Display panel)100、バリア(Barrier)100’、走査駆動部(Scan driver)200、データ駆動部(Data driver)300、光源(Light source)400、光源制御部(Light source controller)500、タイミング制御部(Timing controller)600およびデータ変換部(Data converter)700を含む。光源400は、面光源として形成されて表示部100の後面に形成されるが、図2では便宜上、光源400が表示部100の下端に形成されるように示した。
表示部100は、選択信号を伝達する複数の走査線(図示せず)と、複数の走査線と絶縁して交差するように形成され、データ信号を伝達する複数のデータ線(図示せず)と、走査線とデータ線との交差点に形成された複数の副画素(図示せず)とを含む。本発明の一実施形態では、赤色(R)表示のための赤色副画素と、緑色(G)表示のための緑色副画素と、青色(B)表示のための青色副画素とが共に一つの画素を形成することと仮定する。
また、本発明の一実施形態では、表示部100の複数の画素は、左眼用映像に対応する画素(以下、「左眼用画素」という。)および右眼用映像に対応する画素(以下、「右眼用画素」という。)を含む。ここで、左眼用画素および右眼用画素は、交互に反復して配列されるように形成される。具体的には、左眼用画素および右眼用画素は交互にかつ平行に反復するように配列されて、帯状形態またはジグザグ形態等を形成することができる。このような左眼用画素および右眼用画素の配列はバリア100’によって適するように変更することができる。
バリア100’は、表示部100のいずれか一面に配置され、表示部100の左眼用画素および右眼用画素の配列方法に対応するように形成された不透明領域(図示せず)と透明領域(図示せず)とを含む。バリア100’は不透明領域と透明領域を利用して、表示部100の左眼用画素および右眼用画素から各々透写される左眼映像と右眼映像を各々観察者の左眼方向と右眼方向に分離して提供する。バリア100’の不透明領域と透明領域は、表示部100の左眼用画素および右眼用画素の配列方法によって、帯状形態またはジグザグ形態等に形成することができる。
図2の表示部100およびバリア100’を通して観察者が立体映像を感じる方法を、図3を参照して概略的に説明する。図3は、図2の表示部100およびバリア100’のI−I’方向に切断した断面により、観察者が左眼画素および右眼画素を通して立体映像を観察する姿を示す。
図3に示すように、表示部100は、交互に反復して配列された複数の左眼用画素150および複数の右眼用画素160を含み、バリア100’は、複数の左眼用画素150および複数の右眼用画素160の配列方向と平行に、かつ交互に反復して配列された不透明領域150’と透明領域160’とを含む。表示部100の左眼用画素150は、バリア100’の透明領域160’を通して左眼映像を左眼180に透写し、表示部100の右眼用画素160は、バリア100’の透明領域160’を通して右眼映像を右眼170に透写する。バリア100’の不透明領域150’は、表示部100の左眼用画素150および右眼用画素160がバリア100’の透明領域160’を通して各々左眼および右眼に映像を透写できるように光透写経路を形成する。
左眼用画素150から透写される左眼用映像は、右眼用映像に対して所定のディスパリティーを有する映像に形成され、右眼用画素160から透写される右眼用映像は、左眼用映像に対して所定のディスパリティーを有する映像に形成される。したがって、観察者は、左眼用画素150から透写される左眼用映像を観察者の左眼で認識し、および右眼用画素160から透写される右眼用映像を観察者の右眼で認識する場合、実体の立体対象物を左眼および右眼を通じて見ているような深さ情報を得て、立体感や遠近感を感じるようになる。
再度図2を参照すると、走査駆動部200は、タイミング制御部600から出力される制御信号(Sg)に応答して選択信号を順に生成し、表示部100の走査線(S1〜Sn)に各々印加する。
データ駆動部300は、印加される立体映像データを表示部100のデータ線(D1〜Dm)に印加するためのアナログデータ電圧に変換し、タイミング制御部600から入力される制御信号(Sd)に応答し、変換されたアナログデータ電圧をデータ線(D1〜Dm)に印加する。
光源400は、赤色(R)、緑色(G)、青色(B)の発光ダイオード(図示せず)を含み、各々赤色(R)、緑色(G)、青色(B)に相当する光を表示部100に出力する。光源400の赤色(R)、緑色(G)、青色(B)の発光ダイオードは、各々表示部100のR副画素、G副画素、およびB副画素として光を出力する。
光源制御部500は、タイミング制御部600から出力される制御信号(Sb)に応答し、光源400の発光ダイオードの点灯時期を制御する。この時、データ駆動部300からデータ信号をデータ線に供給する期間と、光源制御部500によって赤色(R)、緑色(G)、青色(B)の発光ダイオードを点灯する期間は、タイミング制御部600によって提供される制御信号によって同期できる。
タイミング制御部600は、外部から入力される水平同期信号(Hsync)および垂直同期信号(Vsync)、データ変換部700から入力される立体映像信号データ(Stereoscopic image data)に対応して、立体映像信号データ(Stereoscopic image data)および生成された制御信号(Sg、Sd、Sb)を、各々走査駆動部200、データ駆動部300、および光源制御部500に供給する。
データ変換部700は、入力されるデータ(DATA)を立体映像データに変換してタイミング制御部600に伝達する。本発明の一実施形態では、データ変換部700に入力されるデータ(DATA)は3D映像コンテンツを含むデータ(以下、「3D映像データ」という。)であり、立体映像データは、表示部100の左眼用画素に対応する左眼映像データおよび右眼用画素に対応する右眼映像データを含む。また、本一実施形態において3D映像データは、座標情報(つまり、X座標およびY座標)、および上記座標に対応する色相情報を含む。ここで、色相情報は、色情報またはテキスチャー座標値等を含む。一方、このような平面映像用3D映像データを立体映像データに変換するデータ変換部700は、グラフィックアクセラレータチップ等の形態に実現できる。
以下では、3D映像−立体変換機としてのデータ変換部700を、図4を参照してさらに詳細に説明する。図4は、図2のデータ変換部700の内部構成を示すブロック図である。
図4に示すように、本発明の一実施形態によるデータ変換部700は、ジオメトリックエンジン部(Geometric engine)710、レンダリングエンジン部(Rendaering engine)720、およびフレームメモリ部(Frame memory)730を含む。
ジオメトリックエンジン部710は、データ変換部700に入力される3D映像データに含まれる立体映像活性化信号に応答し、3D映像データを左眼に対応する変数と演算して、左眼用3D映像データに変換し、または右眼の位置に対応する変数と演算して、右眼用3D映像データに変換し、上記各左眼用3D映像データまたは右眼用3D映像データに対応する座標情報および色相情報をレンダリングエンジン部720に伝達する。
ここで、レンダリングエンジン部720に伝達される座標情報には、所定の領域(例えば、一つのポリゴンを意味する)の各ライン(図6および図7参照)に対応する開始X座標、終了X座標、Y座標(各ラインに対応するY座標は一定である)が含まれており、レンダリングエンジン部720に伝達される色相情報にも所定の領域(例えば、一つのポリゴンを意味する)の各ライン(図6および図7参照)に対応する色相情報開始値、色相情報終了値が含まれている。
一方、左眼の位置に対応する変数は、左眼に対するモデルビューマトリクスおよびプロジェクションマトリクス等を含み、右眼の位置に対応する変数は、右眼に対するモデルビューマトリクスおよびプロジェクションマトリクス等を含む。モデルビューマトリクスは、3D映像を観察する地点(左眼または右眼)に対応するパラメータが配列されるあるマトリクスを意味し、プロジェクションマトリクスは、3D映像に対する遠近感に対応するパラメータが配列されているマトリクスを意味する。具体的には、ジオメトリックエンジン部710は、入力される3D映像データを左眼に対するモデルビューマトリクスおよびプロジェクションマトリクス等とマトリクス乗算演算を行い、左眼用3D映像データを生成し、右眼に対するモデルビューマトリクスおよびプロジェクションマトリクス等とマトリクス乗算演算を行い、右眼用3D映像データを生成する。
一方、データ変換部700に立体映像活性化信号が印加されない場合、ジオメトリックエンジン部710は、入力される3D映像データを左眼または右眼で区別せず、左眼または右眼と区別される一つの位置(以下、「一眼」という。)に対応する変数と演算して一眼用3D映像に変換し、一眼用3D映像データに対応する座標情報および色相情報をレンダリングエンジン部720に伝達する。この場合、一眼用3D映像データはレンダリングエンジン部720を経てフレームメモリ部730の左眼映像領域および右眼映像領域に重なって記録されて、平面映像データを生成できる。
レンダリングエンジン部720は、ジオメトリックエンジン部710から左眼用3D映像データまたは右眼用3D映像データに含まれた座標情報(つまり、開始X座標、終了X座標、Y座標)および色相情報(つまり、色相情報終了値、色相情報開始値)を受信し、スパニング(spanning)方式を適用して、座標情報に基づいて色相情報をフレームメモリ部730の左眼映像領域または右眼映像領域に貯蔵する。
一方、レンダリングエンジン部720は、ジオメトリックエンジン部710から左眼用3Dデータが入力されるか右眼用3Dデータが入力されるかを知らせる左/右眼選択信号を受信する。一般的に、スパニング方式とは、所定のY座標に対するX座標の開始点と終了点を計算して、X座標を一つずつ増加させながらそれに伴う色相情報(つまり、色情報またはテキスチャー座標値)も増加させ、フレームメモリに色相情報を貯蔵することをいう。本発明の一実施形態によるレンダリングエンジン部720は、スパニング方式の適用にあたり、フレームメモリに書き込まれる(貯蔵される)座標に対する値のみを計算してフレームメモリに書き込む(貯蔵する)方式を使用する。
フレームメモリ部730は、レンダリングエンジン部720によって、左眼映像領域および右眼映像領域に分けられて色相情報が貯蔵され、フレームメモリ部730に貯蔵された立体映像信号データがタイミング制御部600に伝送される。
以下、図5および図6を参照して、本発明の一実施形態に係るレンダリングエンジン部720について詳細に説明する。図5は、本発明の一実施形態によるレンダリングエンジン部720の内部構成を示すブロック図であり、図6は、本発明の一実施形態によるレンダリングエンジン部720が適用するスパニング方式を概念的に示す図である。
図5に示すように、本発明の一実施形態に係るレンダリングエンジン部720は、開始X座標計算部(Starting X coordinate calcilator)721、X座標増加部(X coordinate increasing unit)722、開始値計算部(Starting value calculator)723、色相情報増加部(Color information increasing unit)724、およびメモリ制御部(Memory controller)725を含む。
開始X座標計算部721は、左/右眼選択信号および一定のY座標を有する所定のラインに対する開始X座標(以下、「開始X座標」という。)を受信し、左眼選択信号に対応する開始X座標または右眼選択信号に対応する開始X座標を生成してX座標増加部722に伝送する。
X座標増加部722は、開始X座標計算部721から伝送される開始X座標を基準にして、2ずつ増加させながらX座標を出力する。つまり、本発明の一実施形態では、フレームメモリ部730に書き込まれる(貯蔵される)座標に対する値のみをフレームメモリ部730に貯蔵するために、X座標を2ずつ増加させる。
開始値計算部723は、左/右眼選択信号および一定のY座標を有する所定のラインに対する色相情報開始値(つまり、色情報開始値またはテキスチャー座標開始値。以下、「色相情報開始値」という。)を受信し、左眼選択信号に対応する色相情報開始値または右眼選択信号に対応する色相情報開始値を生成して、色相情報増加部724に伝送する。
色相情報増加部724は、開始X座標と、所定の一つのラインに対する終わりのX座標(以下、「終了X座標」という。)と、色相情報開始値と、所定の一つのラインに対する色相情報終了値(つまり、色情報終了値またはテキスチャー座標終了値。以下、「色相情報終了値」という。)とを受信して色相情報増加値を計算し、上記色相情報増加値を上記色相情報開始値に加算して色相情報を生成する。
ここで、受信した開始X座標および終了X座標を利用して開始X座標と終了X座標との間の距離を計算し、受信した色相情報開始値および色相情報終了値を利用して色相情報開始値と色相情報終了値との間の値差を計算し、上記二つの計算値と、X座標増加部722でX座標が2ずつ増加することとを考慮して、最終的に色相情報増加値(つまり、色情報増加値、テキスチャー座標増加値)を計算する。つまり、X座標増加部722ではX座標が2ずつ増加するので、色相情報増加部724は、開始X座標と終了X座標との間の距離、および色相情報開始値と色相情報終了値との間の値差を利用して計算された増加値に2倍を乗じて、最終的に色相情報増加値を計算する。
そして、色相情報増加部724は、色相情報開始値に上記計算された色相情報増加値を加算して色相情報を生成し、出力する。ここで、開始X座標と終了X座標との間の距離、および色相情報開始値と色相情報終了値との間の値差を利用して増加値を計算する方法は、当業者であれば上記説明により容易に分かることができるので、具体的説明は省略する。
次に、メモリ制御部725は、所定のY座標、X座標増加部722から出力されるX座標、および色相情報増加部724から出力される色相情報を受信し、受信したY座標、X座標に基づいて、色相情報をフレームメモリ部730に貯蔵するように制御する。この時、受信したY座標、X座標、および色相情報はフレームメモリ部730に書き込まれる(貯蔵される)値であるので、メモリ制御部725は、書き込み活性化信号(W)を連続的に生成して、フレームメモリ部730に高速で色相情報を貯蔵することができる。
一方、図6を参照して、本発明の一実施形態に係るレンダリングエンジン部720が適用するスパニング方式について説明する。図6において、斜線の部分は、所定の領域(例えば、一つのポリゴンに相当する)での一つのラインに対する左眼3D映像データ部分と仮定し、左眼3D映像データを先にスパニングすると仮定する。ここで、左眼3D映像データ部分はフレームメモリ部730の左眼領域に書き込まれる(貯蔵される)データであるので、上記図5で説明したように、この部分に対する座標および色相情報のみを計算し、書き込み活性化信号(W)によってフレームメモリ部730に貯蔵する。そして、右眼3D映像データ部分も、同様な方法でフレームメモリ部730に貯蔵する。
図7は、本発明の一実施形態のようなスパニング方式を適用せず、フレームメモリ部に書き込まれない(貯蔵されない)3D映像データまで座標および色相情報を計算するスパニング方式を概念的に示す図である。図7に示すように、本発明の一実施形態のようなスパニング方式が適用されない場合には、フレームメモリ部730に書き込まれない(貯蔵されない)3D映像データ(つまり、右眼3D映像データ)まで座標の計算を行う。つまり、斜線でない部分については、書き込み活性化信号(W)を生成しないのでフレームメモリ部730に貯蔵されないが、座標および色相情報は同様に計算される。
したがって、図6のように本発明の一実施形態のスパニング方式を適用する場合は、連続的にフレームメモリに色相情報を貯蔵するが、図7では、フレームメモリに色相情報が貯蔵されるのが連続していないので、本発明の一実施形態のようなスパニング方式を適用する場合が、そうでない場合より2倍に近い映像処理速度を実現することができる。
以上のように、本発明の一実施形態に係る立体映像表示装置は、平面映像用3D映像コンテンツのみが入力される場合にも、リアルタイムで立体映像データに変換して立体映像を表示することができ、またフレームメモリに書き込まれる座標および色相情報のみを計算するので、映像処理を速度を向上させることができる。
また本発明の一実施形態に係る立体映像表示装置は、平板型TV、モニター等のような大型表示装置だけでなく、移動通信端末機またはPDA(Personal Digital Assistants)等に適用できる。
一方、本発明の他の実施形態に係る立体映像表示装置は、図2に図示する本発明の一実施形態に係る立体映像表示装置にモード変換部(図示せず)を含むことができる。この場合、モード変換部は、タイミング制御部600から入力されるモード信号に応答してバリア100’の液晶配列を制御する。ここで、モード信号は、データ変換部700に入力される立体映像活性化信号に対応して生成されるように設定することができる。
具体的には、データ変換部700に立体映像活性化信号が印加される場合、タイミング制御部600は、モード信号を生成してモード変換部に伝達し、モード変換部は、入力されるモード信号に応答して、バリア100’の液晶配列を調節して不透明領域150’を生成する。この時、データ変換部700は、入力される3D映像を左眼用画素および右眼用画素の配列に対応する立体映像データに変換してデータ駆動部300に伝達し、データ駆動部300は、立体映像データを対応する左眼用画素および右眼用画素に各々印加して、立体映像を表示する。一方、データ変換部700に立体映像活性化信号が印加されない場合、バリア100’は不透明領域150’をを生成せず、データ変換部700は、入力される3D映像を左眼用画素および右眼用画素に対する区別のない平面映像データ信号を生成して、データ駆動部300に伝達し、データ駆動部300は、平面映像データを対応する画素に各々印加して、平面映像を表示する。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、パララックスバリア方式ではなく、レンチキュラーレンズ方式を立体映像表示装置に用いること等は、当業者が容易に変更し得る程度のことであり、本発明の等価範囲に属するものと理解すべきである。
本発明は、立体映像表示装置に適用が可能であり、特に、映像処理速度を向上させる立体映像表示装置に適用が可能である。
ディスパリティーによって観察者が感じる立体映像を示す説明図である。 本発明の一実施形態に係る立体映像表示装置の構成を示すブロック図である。 図2の立体映像表示装置によって立体映像が表示される概念を示す説明図である。 図2のデータ変換部の内部構成を示すブロック図である。 本発明の一実施形態に係るレンダリングエンジン部の内部構成を示すブロック図である。 本発明の一実施形態に係るレンダリングエンジン部が適用するスパニング方式を概念的に示す説明図である。 本発明の一実施形態に係るレンダリングエンジン部が適用するスパニング方式を適用しない場合のスパニング方式を概念的に示す説明図である。
符号の説明
100 表示部
100’ バリア
150 左眼用画素
150’ 不透明領域
160 右眼用画素
160’ 透明領域
170 右眼
180 左眼
200 走査駆動部
300 データ駆動部
400 光源
500 光源制御部
600 タイミング制御部
700 データ変換部
710 ジオメトリックエンジン部
720 レンダリングエンジン部
721 開始X座標計算部
722 X座標増加部
723 開始値計算部
724 色相情報増加部
725 メモリ制御部
730 フレームメモリ部

Claims (12)

  1. 複数の左眼用画素および複数の右眼用画素を含む表示部と;
    前記複数の左眼用画素に対応するデータを貯蔵する左眼映像領域、および前記複数の右眼用画素に対応するデータを貯蔵する右眼映像領域を含むメモリ部と;
    入力される3D映像データを、前記複数左眼用画素に対応する左眼用3D映像データ、または前記複数の右眼用画素に対応する右眼用3D映像データに変換するジオメトリックエンジン部と;
    前記左眼用3D映像データの座標情報および色相情報、または前記右眼用3D映像データの座標情報および色相情報を利用して、前記左眼領域または右眼領域に貯蔵すべき座標値および色相情報値のみを計算し、前記座標値に基づいて前記色相情報値を前記メモリ部に貯蔵するレンダリングエンジン部と;
    を含むことを特徴とする立体映像表示装置。
  2. 前記座標情報は、所定の領域中における各ラインそれぞれの開始X座標および終了X座標を含み、前記レンダリングエンジン部は、前記各ラインの開始X座標に第1増加値ずつ増加させて前記各ラインに対するX座標値を計算し、前記第1増加値に対応して前記各ラインに対する色相情報値を計算することを特徴とする、請求項1に記載の立体映像表示装置。
  3. 前記色相情報は、前記各ラインの色相情報開始値および色相情報終了値を含み、前記第1増加値に対応して第1色相情報増加値を計算し、前記各ラインに対する色相情報開始値に前記第1色相情報増加値ずつ増加させて、前記各ラインに対する色相情報値を算出することを特徴とする、請求項2に記載の立体映像表示装置。
  4. 前記第1増加値は2であることを特徴とする、請求項3に記載の立体映像表示装置。
  5. 前記第1色相情報増加値は、前記各ラインの開始X座標と前記各ラインの終了X座標との間の距離、前記各ラインの色相情報開始値と前記各ラインの色相情報終了値を利用して決定された増加値に2倍を乗じた値であることを特徴とする、請求項3に記載の立体映像表示装置。
  6. 前記左眼用画素から出力される映像または右眼用画素から出力される映像を各々左側方向または右側方向に透写するような光透写経路が設定されるように配列されている透明領域および不透明領域を含むバリア部をさらに備えることを特徴とする、請求項1から5のいずれかに記載の立体映像表示装置。
  7. 前記立体映像表示装置が移動通信端末機のディスプレイ部に相当することを特徴とする、請求項1から5のいずれかに記載の立体映像表示装置。
  8. 入力される3D映像データを映像立体映像データに変換する3D映像−立体映像変換機において;
    前記3D映像データに所定の第1パラメータを乗じて左眼用3D映像データを生成し、前記3D映像データに所定の第2パラメータを乗じて右眼用3D映像データを生成するジオメトリックエンジン部と;
    前記左眼用3D映像データまたは前記右眼用3D映像データのうちの所定の領域に対応する各ラインに対し、前記各ラインの開始X座標に第1増加値ずつ増加させて、前記各ラインに対応するX座標値を生成するX座標増加部と;
    前記第1増加値に対応して第1色相情報増加値を計算し、前記各ラインの色相情報開始値に前記第1色相情報増加値ずつ増加させて、前記各ラインに対応する色相情報値を計算する色相情報増加部と;
    前記X座標増加部で生成された前記X座標値に基づいて、前記色相増加部で生成される前記色相情報値をメモリに貯蔵するように制御するメモリ制御部と;
    を含むことを特徴とする3D映像−立体変換機。
  9. 前記第1増加値は2であることを特徴とする、請求項8に記載の3D映像−立体変換機。
  10. 前記第1色相情報増加値は、前記各ラインの開始X座標と前記各ラインの終了X座標との間の距離、前記各ラインの色相情報開始値と前記各ラインの色相情報終了値を利用して決定された増加値に2倍を乗じた値であることを特徴とする、請求項8または9に記載の3D映像−立体変換機。
  11. 前記所定の領域はポリゴンに対応することを特徴とする、請求項8または9に記載の3D映像−立体変換機。
  12. 前記第1パラメータおよび前記第2パラメータは、3D映像を観察する地点に対応するパラメータ、および3D映像に対する遠近感に対応するパラメータを含むことを特徴とする、請求項8または9に記載の3D映像−立体変換機。
JP2006171871A 2005-07-05 2006-06-21 立体映像表示装置、および3d映像−立体変換機 Expired - Fee Related JP4933846B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2005-0060211 2005-07-05
KR1020050060211A KR100932977B1 (ko) 2005-07-05 2005-07-05 입체 영상 표시 장치

Publications (2)

Publication Number Publication Date
JP2007018507A true JP2007018507A (ja) 2007-01-25
JP4933846B2 JP4933846B2 (ja) 2012-05-16

Family

ID=37072552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006171871A Expired - Fee Related JP4933846B2 (ja) 2005-07-05 2006-06-21 立体映像表示装置、および3d映像−立体変換機

Country Status (5)

Country Link
US (1) US8154543B2 (ja)
EP (1) EP1742490B1 (ja)
JP (1) JP4933846B2 (ja)
KR (1) KR100932977B1 (ja)
CN (1) CN100570432C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191645A (ja) * 2010-03-16 2011-09-29 Nippon Hoso Kyokai <Nhk> 分割三次元オブジェクトデータ抽出装置、要素画像生成装置、分割三次元オブジェクトデータ抽出プログラム、および要素画像生成プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5332531B2 (ja) * 2008-11-18 2013-11-06 ソニー株式会社 画像表示装置と画像表示方法および画像表示システム
KR100943307B1 (ko) * 2008-12-22 2010-02-23 주식회사 서울과학기기 물리량 영상 분석장치 및 이를 이용한 물리량 영상 분석방법
JP5175977B2 (ja) * 2009-05-22 2013-04-03 シャープ株式会社 立体表示装置
TWI422213B (zh) * 2009-07-29 2014-01-01 Mstar Semiconductor Inc 影像畫面偵測裝置及其方法
CN102474632A (zh) * 2009-12-08 2012-05-23 美国博通公司 处理多个3-d视频格式的方法和系统
CN101783968B (zh) * 2010-04-02 2013-09-11 福州华映视讯有限公司 立体显示器
FR2966632B1 (fr) * 2010-10-22 2016-12-30 Microoled Dispositif d'affichage matriciel de deux images fusionnees
EP2811912B1 (en) * 2012-01-24 2017-06-21 St. Jude Medical Puerto Rico LLC Balloon location device manifold for vascular closure device
CN102629607B (zh) * 2012-02-09 2016-02-10 京东方科技集团股份有限公司 阵列基板和双视场显示装置及其制造方法
CN102629041B (zh) * 2012-02-09 2014-04-16 京东方科技集团股份有限公司 一种3d显示装置及其制造方法
CN105578175B (zh) * 2014-10-11 2018-03-30 深圳超多维光电子有限公司 立体显示装置检测系统及其检测方法
CN105007480A (zh) * 2015-07-06 2015-10-28 上海玮舟微电子科技有限公司 一种三维数据的裸眼3d显示方法及系统
CN105704468B (zh) * 2015-08-31 2017-07-18 深圳超多维光电子有限公司 用于虚拟和现实场景的立体显示方法、装置及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0477882A (ja) * 1990-07-13 1992-03-11 Daikin Ind Ltd 三角形ポリゴン描画方法およびその装置
JPH07322305A (ja) * 1994-03-28 1995-12-08 Sanyo Electric Co Ltd 立体映像表示パネル及び立体映像表示装置
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
JPH10232953A (ja) * 1997-02-20 1998-09-02 Mitsubishi Electric Corp 立体視画像生成装置
JP2003070022A (ja) * 2001-08-29 2003-03-07 Sanyo Electric Co Ltd 立体画像圧縮方法、装置、およびシステム
US20030048354A1 (en) * 2001-08-29 2003-03-13 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP2004120165A (ja) * 2002-09-25 2004-04-15 Sharp Corp 電子機器
JP2004165710A (ja) * 2002-09-27 2004-06-10 Sharp Corp 立体画像表示装置、立体画像記録方法及び立体画像伝送方法
JP2004280078A (ja) * 2003-02-27 2004-10-07 Nec Corp 画像表示装置、携帯端末装置及び表示パネル

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496183B1 (en) 1998-06-30 2002-12-17 Koninklijke Philips Electronics N.V. Filter for transforming 3D data in a hardware accelerated rendering architecture
FR2532267B1 (fr) 1982-08-31 1988-05-27 Lely Nv C Van Der Tracteur comportant une pluralite de roues motrices
US4601053A (en) * 1983-11-21 1986-07-15 Grumman Aerospace Corporation Automatic TV ranging system
US4896210A (en) * 1987-11-16 1990-01-23 Brokenshire Daniel A Stereoscopic graphics display terminal with image data processing
JP2857429B2 (ja) 1989-10-02 1999-02-17 日本放送協会 3次元画像表示装置および方法
US5255211A (en) * 1990-02-22 1993-10-19 Redmond Productions, Inc. Methods and apparatus for generating and processing synthetic and absolute real time environments
JPH07306955A (ja) 1992-07-24 1995-11-21 Walt Disney Co:The 三次元イリュージョンを生み出す方法およびシステム
US5581665A (en) * 1992-10-27 1996-12-03 Matsushita Electric Industrial Co., Ltd. Three-dimensional object movement and transformation processing apparatus for performing movement and transformation of an object in a three-diamensional space
US6011581A (en) * 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
US5394202A (en) 1993-01-14 1995-02-28 Sun Microsystems, Inc. Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
US6985168B2 (en) * 1994-11-14 2006-01-10 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
JP3459721B2 (ja) * 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US6640004B2 (en) * 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
WO1997015150A1 (fr) * 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
WO1997018667A1 (fr) * 1995-11-14 1997-05-22 Sony Corporation Dispositif pour effets speciaux, procede de traitement d'images et procede de generation d'ombres
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
EP0817125B1 (en) 1996-06-26 2004-09-08 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics moving image generating apparatus
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
KR100239132B1 (ko) 1996-10-10 2000-01-15 윤종용 3차원 시차 그리기 장치 및 방법
GB9706000D0 (en) 1997-03-22 1997-05-07 Philips Electronics Nv Multiple viewpoint image generation
US5982375A (en) * 1997-06-20 1999-11-09 Sun Microsystems, Inc. Floating point processor for a three-dimensional graphics accelerator which includes single-pass stereo capability
JP3005499B2 (ja) * 1997-06-26 2000-01-31 日本電気アイシーマイコンシステム株式会社 図形処理装置及び図形処理方法
US20010043226A1 (en) * 1997-11-18 2001-11-22 Roeljan Visser Filter between graphics engine and driver for extracting information
JP4698831B2 (ja) 1997-12-05 2011-06-08 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
KR100306695B1 (ko) * 1998-04-16 2001-11-30 윤종용 마이크로플러라이저를이용한입체영상디스플레이장치
JP4149037B2 (ja) 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
US6515662B1 (en) * 1998-07-16 2003-02-04 Canon Kabushiki Kaisha Computer apparatus for providing stereoscopic views from monographic images and method
US6288730B1 (en) * 1998-08-20 2001-09-11 Apple Computer, Inc. Method and apparatus for generating texture
US6631205B1 (en) 1999-01-13 2003-10-07 Canon Kabushiki Kaisha Stereoscopic imaging in a portable document format
TW413794B (en) 1999-02-26 2000-12-01 Sunplus Technology Co Ltd A 3D graphics processor based on horizontal scan lines as processing unit and the drawing method therefor
JP3286633B2 (ja) 1999-09-14 2002-05-27 株式会社ソニー・コンピュータエンタテインメント 画像作成方法、記憶媒体およびプログラム実行装置
JP4341135B2 (ja) * 2000-03-10 2009-10-07 コニカミノルタホールディングス株式会社 物体認識装置
JP4141620B2 (ja) 2000-07-04 2008-08-27 日本放送協会 立体物表示システム及びその受信装置
US20020105484A1 (en) * 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
US20020154214A1 (en) * 2000-11-02 2002-10-24 Laurent Scallie Virtual reality game system using pseudo 3D display driver
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
US20020191000A1 (en) * 2001-06-14 2002-12-19 St. Joseph's Hospital And Medical Center Interactive stereoscopic display of captured images
JP4708619B2 (ja) 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
JP4236428B2 (ja) 2001-09-21 2009-03-11 三洋電機株式会社 立体画像表示方法および立体画像表示装置
JP3673217B2 (ja) 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
US6924799B2 (en) 2002-02-28 2005-08-02 Hewlett-Packard Development Company, L.P. Method, node, and network for compositing a three-dimensional stereo image from a non-stereo application
JP3497499B2 (ja) * 2002-03-14 2004-02-16 三菱電機株式会社 三次元グラフィック描画装置
JP2004040445A (ja) * 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
KR100475060B1 (ko) 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
AU2003280180A1 (en) 2002-12-03 2004-06-23 Koninklijke Philips Electronics N.V. Method and apparatus to display 3d rendered ultrasound data on an ultrasound cart in stereovision
US7663570B2 (en) * 2003-02-27 2010-02-16 Nec Corporation Image display device, portable terminal device and display panel
JP4677175B2 (ja) 2003-03-24 2011-04-27 シャープ株式会社 画像処理装置、画像撮像システム、画像表示システム、画像撮像表示システム、画像処理プログラム、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US20040212612A1 (en) * 2003-04-28 2004-10-28 Michael Epstein Method and apparatus for converting two-dimensional images into three-dimensional images
JP2005011275A (ja) 2003-06-23 2005-01-13 Fiatlux:Kk 立体画像表示システム及び立体画像表示プログラム
KR101038452B1 (ko) 2003-08-05 2011-06-01 코닌클리케 필립스 일렉트로닉스 엔.브이. 멀티뷰 이미지 생성
KR100540732B1 (ko) * 2004-02-02 2006-01-10 한양대학교 산학협력단 2차원 영상신호를 3차원 영상신호로 변환하는 장치
JP4383241B2 (ja) * 2004-05-07 2009-12-16 任天堂株式会社 描画ポリゴン数を増やす画像処理システム
US7545380B1 (en) * 2004-12-16 2009-06-09 Nvidia Corporation Sequencing of displayed images for alternate frame rendering in a multi-processor graphics system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0477882A (ja) * 1990-07-13 1992-03-11 Daikin Ind Ltd 三角形ポリゴン描画方法およびその装置
JPH07322305A (ja) * 1994-03-28 1995-12-08 Sanyo Electric Co Ltd 立体映像表示パネル及び立体映像表示装置
WO1997023097A2 (en) * 1995-12-19 1997-06-26 Philips Electronics N.V. Parallactic depth-dependent pixel shifts
JPH10232953A (ja) * 1997-02-20 1998-09-02 Mitsubishi Electric Corp 立体視画像生成装置
JP2003070022A (ja) * 2001-08-29 2003-03-07 Sanyo Electric Co Ltd 立体画像圧縮方法、装置、およびシステム
US20030048354A1 (en) * 2001-08-29 2003-03-13 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP2004120165A (ja) * 2002-09-25 2004-04-15 Sharp Corp 電子機器
JP2004165710A (ja) * 2002-09-27 2004-06-10 Sharp Corp 立体画像表示装置、立体画像記録方法及び立体画像伝送方法
JP2004280078A (ja) * 2003-02-27 2004-10-07 Nec Corp 画像表示装置、携帯端末装置及び表示パネル

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
今井拓司: ""メガネ不要の立体ディスプレイ,三洋が家庭向けに開発"", 日経エレクトロニクス, vol. 第620号, JPN6011032651, 24 October 1994 (1994-10-24), JP, pages 109 - 112, ISSN: 0001948101 *
安田稔: ""メガネなし立体テレビ"", NHK技研だより, vol. 第35号, JPN6011032652, 1 December 1992 (1992-12-01), pages 2 - 5, ISSN: 0001948102 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011191645A (ja) * 2010-03-16 2011-09-29 Nippon Hoso Kyokai <Nhk> 分割三次元オブジェクトデータ抽出装置、要素画像生成装置、分割三次元オブジェクトデータ抽出プログラム、および要素画像生成プログラム

Also Published As

Publication number Publication date
CN1892288A (zh) 2007-01-10
US20070008315A1 (en) 2007-01-11
JP4933846B2 (ja) 2012-05-16
EP1742490B1 (en) 2015-03-04
EP1742490A1 (en) 2007-01-10
CN100570432C (zh) 2009-12-16
KR100932977B1 (ko) 2009-12-21
US8154543B2 (en) 2012-04-10
KR20070005091A (ko) 2007-01-10

Similar Documents

Publication Publication Date Title
JP4933846B2 (ja) 立体映像表示装置、および3d映像−立体変換機
JP4809142B2 (ja) 立体映像表示装置、及び3d映像−立体映像変換器
US8207961B2 (en) 3D graphic processing device and stereoscopic image display device using the 3D graphic processing device
JP5410670B2 (ja) 画像表示装置および画像表示装置の駆動方法
KR100859694B1 (ko) 평면/입체 액정 표시장치 및 그 구동방법
US9083963B2 (en) Method and device for the creation of pseudo-holographic images
TWI594018B (zh) 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法
US9319674B2 (en) Three-dimensional image display device and driving method thereof
US20110007136A1 (en) Image signal processing apparatus and image display
US8279221B2 (en) 3D graphics processor and autostereoscopic display device using the same
CN105430369B (zh) 自动立体三维显示设备
KR20140115854A (ko) 입체 영상 표시 장치 및 입체 영상 표시 방법
JP2015037282A (ja) 画像処理装置、画像処理方法及びプログラム
US8994791B2 (en) Apparatus and method for displaying three-dimensional images
KR100928332B1 (ko) 동적 핀홀 어레이를 이용한 입체 영상 시스템 및 그 영상표시 방법
KR102334031B1 (ko) 무안경 입체영상표시장치 및 그 구동방법
JP2004361467A (ja) 表示装置及び方法
US9137520B2 (en) Stereoscopic image display device and method of displaying stereoscopic image
KR100670152B1 (ko) 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
JP2015046694A (ja) 画像処理装置、画像処理方法及びプログラム
KR20140034014A (ko) 영상 표시 장치 및 방법
JP2015142148A (ja) 画像処理装置、表示装置、およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20081209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees