JP3554257B2 - Display control device and method - Google Patents

Display control device and method Download PDF

Info

Publication number
JP3554257B2
JP3554257B2 JP2000231913A JP2000231913A JP3554257B2 JP 3554257 B2 JP3554257 B2 JP 3554257B2 JP 2000231913 A JP2000231913 A JP 2000231913A JP 2000231913 A JP2000231913 A JP 2000231913A JP 3554257 B2 JP3554257 B2 JP 3554257B2
Authority
JP
Japan
Prior art keywords
display
dimensional
viewpoint
display control
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000231913A
Other languages
Japanese (ja)
Other versions
JP2002049004A (en
Inventor
勉 尾坂
裕 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000231913A priority Critical patent/JP3554257B2/en
Publication of JP2002049004A publication Critical patent/JP2002049004A/en
Application granted granted Critical
Publication of JP3554257B2 publication Critical patent/JP3554257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、右眼と左眼の視差を利用してユーザに立体像を観察させる表示装置の表示制御装置及びその方法に関する。特に、通常の2次元画像と3次元画像とを切換えて表示することができる、或いは2次元画像と3次元画像とを混在させて表示することができる表示装置の表示制御装置と方法に関する。
【0002】
【従来の技術】
従来より、2次元表示と3次元表示の切り換えや混在表示を行うことが可能な3次元表示装置が提案されている。ディスプレイ上に立体視表示を行う方式としては、パララックス・バリヤを用いた立体画像表示方式(以下、パララックス・バリヤ方式と呼ぶ)やレンチキュラ方式が広く知られている。
【0003】
パララックス・バリヤ方式については、S.H.Kaplan,“Theory of Parallax Barriers”,J.SMPTE,Vol.59,No.7,pp.11−21(1952)に開示されており、この方式によれば、複数視点からの複数の視差画像のうちの、少なくとも左右視差画像を交互に配列されたストライプ画像を、この画像から所定の距離だけ離れた位置に設けられた所定の開口部を有するスリット(パララックス・バリヤと呼ばれる)を介して、左右それぞれの眼でそれぞれの眼に対応した視差画像を観察することにより立体視を行うことができる。
【0004】
一方、レンチキュラ方式も右眼と左眼の両眼視差を用いて立体画像を表示するものであり、ディスプレイの前面にかまぼこ状のレンズを多数ならべたレンチキュラを設け、空間的に左右の眼に入る画像を分離して、ユーザに立体像を観察させるものである。
【0005】
しかしながら、これらの方式では、観察者が立体視できる範囲が両眼中心距離約65mmの幅でしかない。そのため、観察者は頭の位置を固定するようにして観察する必要があり、非常に使いづらいという問題があった。
【0006】
このような問題に対処すべく、特開平2−44995号では、観察者の両眼の位置を検出して、レンチキュラレンズを水平方向に可動に支持して表示素子との左右方向の相対位置を移動制御することで、立体視領域を広げる方式が提案されている。また、特開平2−50145号では、観察者の両眼位置を検出して画像の表示を観察者位置に応じて入れ換えて、立体視領域を広くする方式が提案されている。更に特開平10−232367号では、観察者と立体画像表示装置との距離の変化によるクロストークの発生を防止する立体画像表示装置が提案されている。
【0007】
【発明が解決しようとする課題】
しかしながら、上述の視点追従を行ういずれの方式においても、視点の移動量は常に表示画面に固定された座標系によって算出され、表示画面全体に3次元画像が表示されている場合しか考慮されていない。例えば、表示画面中を任意に移動可能なウインドウ内に3次元が像を表示し、このウインドウを移動すると、相対的に視点が移動することになるものの、そのような場合についての考慮はなされていない。
【0008】
すなわち、表示画面中の任意の位置に開かれたウインドウの中に3次元画像が表示されている場合の視点追従については何等考慮されていない。また、一画面中に一つまたは複数のウインドウが表示され、この一つ又は複数のウインドウの夫々に3次元表示がなされているような場合に、どのように視点追従を制御するかについての考慮はなされていない。
【0009】
本発明は上記の問題に鑑みてなされたものであり、表示画面中の任意の位置に任意のサイズで表示することが可能なウインドウ内に3次元画像を表示する場合に、適切に視点追従制御を行うことを可能とすることを目的とする。
【0010】
【課題を解決するための手段】
上記の目的を達成するための本発明による表示制御装置は例えば以下の構成を備える。すなわち、
視差画像を左右の夫々の眼によって観察させるための光指向性を生成して3次元画像を観察可能とする表示制御装置であって、
観察者の視点位置を検出する検出手段と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得手段と、
前記検出手段で検出された視点位置と前記取得手段で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御手段とを備える。
【0011】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
【0012】
<第1の実施形態>
図1は、第1の実施形態による立体画像表示装置の概略構成を示す図である。図1において、101はCRT等の自発光型表示素子であり、その表面には発光部102と非発光部103を有する市松状の発光パターン104が表示される。105はレンチキュラレンズであり、発光部102よりの射出光に指向性を与える。レンチキュラレンズ105は透明樹脂又はガラス製のシリンドリカルレンズアレイであり、垂直方向に長い縦シリンドリカルレンズを左右方向に並べて構成されている。106はディスプレイデバイスであり、本例では2枚のガラス基板の間に表示画素部(表示面)を形成した透過型の液晶素子を用いる。
【0013】
なお、自発光型表示素子101とディスプレイデバイス106とは1画素毎又は1走査線毎に同期して発光パターン及びストライプ画像を表示することが望ましい。
【0014】
110はディスプレイ駆動回路、112は観察者113の位置を検知する位置センサ、111は制御ユニットである。位置センサ112は、観察者の水平方向の位置と光軸方向(前後方向)の位置を検知する。また、制御ユニット111は自発光型表示素子101の発光パターンの制御も行う。なお、位置センサ112が観察者113の光軸方向の位置を検知する方法としては、周知の、銀塩カメラやビデオカメラ等で用いられているオートフォーカスの手法を適用することができる。
【0015】
図2は第1の実施形態による立体画像表示装置の立体観察を説明する図である。図は水平の断面図であり、図1中の線A−Aを含む水平面に沿った断面図が(A)に、図1中の線B−Bを含む水平面に沿った断面図が(B)にそれぞれ示されている。
【0016】
制御ユニット111は右目用の視差画像と左目用の視差画像を入力し、入力された2つの視差画像をそれぞれ多数の横ストライプ状のストライプ画像RとLに分割し、図1に示すように画面上端から1走査線毎にR…と交互に並べて1枚の横ストライプ画像を合成する。このように合成された横ストライプ画像はディスプレイ駆動回路110に入力され、図1に示す如く表示される。
【0017】
このとき、R、R…に表示された右視差画像のストライプ(R)は、本立体画像表示装置の光指向性により図2の(A)に示すごとく観察者の右眼に到達する。すなわち、市松パターン104の発光部102から射出された光は、レンチキュラレンズ105のシリンドリカルレンズにより観察者の右眼Eに向かうように指向性が与えられる。この右眼Eに向かう光束は、レンチキュラレンズ3と観察者との間に設けられたディスプレイデバイス106に表示された横長のストライプ画像(ここでは画像R)で変調されて右眼Eに入射する。
【0018】
同様に、L、L…に表示された左視差画像のストライプ(L)は、本立体画像表示装置の光指向性により図2の(B)に示すごとく観察者の左眼Eに到達する。
【0019】
こうして観察者は、左右の眼のそれぞれで対応する視差画像を観察することになり、立体視が可能となる。
【0020】
図3は第1の実施形態による立体表示システムの構成を示すブロック図である。図3において300はホストコンピュータであり、2次元画像と3次元画像の取り扱いが可能である。ホストコンピュータ300において、301はCPUでありメモリ302に格納された制御プログラムに従って各種処理を実行する。ホストコンピュータ300は、描画用のデータがアップデートされる毎にデバイスドライバ310への信号を更新する。なおメモリ302は、ROMやRAM、あるいは磁気ディスクドライバを含む。
【0021】
310は本実施形態の立体ディスプレイの描画全体を制御するディスプレイドライバであり、図1の制御ユニット111に相当する。311はオブジェクト解析部であり、描画用のデータの種類を判別・解析する。312はシステムコントローラであり、各種制御の中枢を担う。システムコントローラ312は、CPUやメモリを備え、以下に説明する視点追従制御等の各種処理を実行する。313は2D3D描画部であり、立体ディスプレイ上に実際に描画されるデータ、即ち従来より取り扱われてきた2次元画像やストライプ合成された3次元画像を描画制御する。
【0022】
314は切換駆動部であり、3次元表示と2次元表示を切換えるために上述の自発光型表示素子101を制御する。すなわち、図1に示すように市松状のパターン104を表示すれば3次元表示が可能となり、全面を発光状態とすれば通常のバックライトとなり、2次元表示が可能となる。315は追従制御部であり、視点検出部320から入力される視点位置に基づいて市松状パターン104を変更し、検出された視点位置で正しく立体視が行えるようにする。この視点追従制御については、詳細を後述する。
【0023】
視点検出部320は、位置センサ112を含み、観察者113の視点位置を検出して、その情報をデバイスドライバ310に出力する。
【0024】
立体ディスプレイ330は、2D3D描画部313より出力された描画データに従って、2次元画像や3次元画像をディスプレイデバイス106上に表示する。なお、本例では、表示部330が、ディスプレイ駆動回路110とディスプレイデバイス106を含むものとする。
【0025】
2D3D切換部332は切換駆動部314からの信号に応じて自発光型表示素子101の市松状パターン104の表示のオンオフを行う。また、視点追従部333は、追従制御部315の信号に応じて、市松状パターン104の表示位置制御や、発光部及び非発光部の表示ピッチの制御を行う。
【0026】
なお、デバイスドライバ310は、ホストコンピュータ300の外部装置として接続されてもよいし、ホストコンピュータ300内のスロットルに実装されてもよい。また、ホストコンピュータの一つのソフトウェア或いはソフトウェアと電子回路が混在する構成として実装されてもよい。即ち、ホストコンピュータ300はCPU301と、添付のフローチャートを参照して説明する処理手順を実現する制御プログラムを格納したメモリ302を備え、ディスプレイドライバ310が実現する各種機能をホストコンピュータ300のCPU301が実現するようにしてもよい。
【0027】
以上の様な構造による立体画像表示装置における、本実施形態の視点追従制御について、以下に説明する。本実施形態によれば、観察者の水平方向の位置ずれに起因するクロストークの補正は、自発光型表示素子101の表示面上に形成される市松状パターン104の移動によりなされる。また、観察者とディスプレイデバイスの距離が変化することにより発生するクロストークは、自発光型表示素子101乗の市松状パターン104における発光部と非発光部のピッチを変更することによりなされる。
【0028】
図4は本実施形態による光学系の諸元を説明する図である。図4においては、ディスプレイデバイス106の右ストライプ画素を表示する水平方向の1ラインと、レンチキュラレンズ105と、市松状パターン104を表示する自発光型表示素子101の画面が簡略的に示されている。
【0029】
市松状パターン104の表示画面とレンチキュラレンズ105との換算距離(ガラスなどの部材の厚みを空気換算して求めた距離)をt、レンチキュラレンズ105とディスプレイデバイス106との換算距離をt、ディスプレイデバイス106と観察者との換算距離をLとし、レンチキュラレンズ105のピッチをP、市松状パターンの発光部・非発光部のピッチをPとすると、三角形の相似条件より本実施形態の光学系は以下の式を満足する。
【0030】
【数1】

Figure 0003554257
【0031】
更に、観察者の右眼がディスプレイデバイス106の中心Cから水平方向にxずれた位置にある場合、画像表示面中央のレンチキュラレンズの光軸に対して市松状パターン104の対応する発光部102の中心Dがその基準位置Dから水平方向に以下のdだけずらすことにより、適切な立体視が行える。
【0032】
【数2】
Figure 0003554257
【0033】
なお、本実施形態では、以上の様な視点位置に対応した光指向性の制御を視点追従制御と称する。
【0034】
図5は、本実施形態による視点追従制御を説明するフローチャートである。本処理は、デバイスドライバ310内のシステムコントローラ312に実装された不図示のCPUが、不図示のメモリに格納された制御プログラムを実行することにより実現されるものとする。
【0035】
まずステップS101において、基準位置Xを決定する。この基準位置Xとは、視点検出部320によって検出された視点位置とのずれ量xを求めるための基準となる位置である。以下、ステップS101による処理について図6を参照して説明する。
【0036】
図6は、本実施形態による基準位置Xの決定処理を説明するフローチャートである。ステップS201では、3次元画像表示を行うウインドウ(以下、3次元表示ウインドウ)を抽出する。図7は本実施形態による3次元表示ウインドウの表示状態を説明する図である。図7において、ウインドウ33a、33b、33cはそれぞれ3次元画像を表示するウインドウである。なお、各ウインドウが3次元表示を行うか否かは、ウインドウ内に表示される画像ファイルを調べることにより(例えば拡張子等を参照する)判断することができる。ステップS201では、これらウインドウ33a、33b、33cが抽出されることになる。
【0037】
ステップS202では、ステップS201で抽出されたウインドウに関して重心位置を算出する。そして、算出された重心位置に対して視点検出部320で検出された視点位置が追従範囲にあるか否かを判断し、追従範囲内にあればステップS208へ進み、その重心位置を基準位置Xに決定する。
【0038】
以上の処理により、複数の3次元表示ウインドウが表示されている場合には、それらの重心位置が基準位置Xに設定されることになる。なお、図8に示すように、3次元表示用ウインドウが1つだけ表示されているような場合は、ステップS202で算出される重心位置がその3次元表示用ウインドウの中心と一致することになる。また、アクティブな3次元表示用ウインドウにおいてのみ3次元表示を行い、非アクティブな3次元表示用ウインドウにおいては2次元表示が行われるような場合は、アクティブな3次元表示用ウインドウの中心を基準位置Xとするようにしてもよい(この場合、ステップS201で3次元表示を実行している3次元表示ウインドウを抽出するようにすればよい)。
【0039】
一方、ステップS203において、算出された重心位置と検出された視点位置との関係により、視点位置が追従範囲にないと判定された場合は、ステップS204へ進み、3次元表示ウインドウの表示内容を2次元表示とする。このとき、2次元表示が行われている旨を明示するように、ウインドウ枠等を変化させてもよい。なお、このとき、自発光型表示素子101の表示を市松パターンから全面発光状態に切換て、2次元表示装置として動作するようにしてもよい。そして、ステップS205、S206において、視点位置が追従範囲内に戻るのを監視する。視点位置が追従範囲内に戻った場合は、ステップS207において、ステップS204で2次元表示に変更したウインドウを3次元表示に戻す。その後、ステップS201へ戻り、上述のようにして基準位置Xを決定する。
【0040】
なお、ステップS205における視点位置が追従範囲には行ったか否かの判定は例えば次のように行える。すなわち、ステップS204で2次元表示に変更したウインドウによる重心位置と視点位置の相対位置関係を監視する。ここで、ウインドウの重心位置は、ドラッグ操作によるウインドウの移動により変化する可能性があるので、少なくとも該当するウインドウに対するドラッグ操作が行われた場合には重心位置を計算しなおす。このようにして、視点位置の移動及び/或いはウインドウの移動によって視点位置が追従範囲に入ったならば、ステップS206からステップS207へ処理を進めることになる。
【0041】
再び図5に戻り、ステップS102において観察者の視点位置とディスプレイとの距離Lを取得する。また、ステップS103では、ステップS101で決定された基準位置Xからの視点位置の水平方向のずれ量xを算出する。
【0042】
ステップS104では、観察者の光軸方向の移動により生じるクロストークの補正を行う。すなわち、ステップS102で得られた距離Lを用いて自発光型表示素子101上の市松状パターン104の水平方向のピッチPを上述の式(1)によって計算しなおし、そのピッチPによって自発光型表示素子101上の市松上パターン表示を行う。
【0043】
続いて、ステップS105以降において、ステップS103で算出されたずれ量xを用いて水平方向の位置ずれに起因するクロストークの補正を行う。
【0044】
まず、ステップS105において、水平方向のずれ量xを予め設定されている基準の眼間距離E(たとえば65mm)で除算し、整数である商Nと、その絶対値がE以下である余りsを得る。すなわち、x、E、N、sは、
x=N・E+s (ただし、Nは整数、|s|<E)
なる関係を有する。
【0045】
ステップS106では、ステップS105で得られたNが奇数か偶数かを判断し、偶数ならばステップS107へ、奇数ならばステップS108へそれぞれ進む。ステップS107において、デバイスドライバ310は、第1の横ストライプ画像をディスプレイデバイス106に表示し、ステップS108においてデバイスドライバ310は第2の横ストライプ画像をディスプレイデバイス106に表示する。第1と第2の横ストライプ画像の関係は、図1において左目用のストライプ画像と右目用ストライプ画像の表示位置を入れ換えた関係にあり、左右の眼の夫々に左右の視差画像が正しく観察されるようにする。
【0046】
ステップS109では、sの絶対値が予め定められた値、例えばE/10より大きいか小さいかを判別する。もし、小さければステップS110へ進み、発光パターンを基準位置に戻す。また、sがE/10よりも大きければ、ステップS111へ進み、発光パターンを基準位置より、数式(2)で与えられる分移動する。すなわち、
s・t/(L+t
だけ移動する。なお、本実施形態はE/10をしきい値としたが、このしきい値は左右像の光学的分離状況等を加味して決定される。
【0047】
以上のように第1の実施形態によれば、任意の位置に表示された3次元表示ウインドウに関して、適切な視点追従制御を行うことが可能となる。また、複数の3次元表示ウインドウが表示されていても、それらのウインドウに関して適切な視点追従制御を行うことが可能となる。
【0048】
なお、上記実施形態では、3次元表示ウインドウについて算出された重心位置に対して視点位置が視点追従範囲外となった場合に、3次元表示ウインドウを2次元表示として、視点位置が追従範囲に戻るの待つが、これに限らない。例えば複数の3次元表示ウインドウのうち、検出された視点位置から遠いものから順に一つずつ2次元表示し、重心計算の対象から外すようにしてもよい。このようにすれば、例えば図7のような表示において、ウインドウ33a、33b、33cの重心位置を用いると視点位置が追従範囲を越える場合に、例えばウインドウ33cを2次元表示として、ウインドウ33aと33bの重心位置と視点位置の関係を調べ、視点位置が追従範囲に入った場合は、その重心位置を基準位置とするようにしてもよい。
【0049】
なお、本実施形態では、視点追従制御において光指向性の制御を行うが、これに加えて運動視差制御を行うようにしてもよい。運動視差とは、検出された視点位置に応じて、徐々に物体の側面が見えてくるといったように、物体の表示状態を変えていくものである。この場合、検出された視点位置のずれ量に応じて立体像を更新していくので、図5、図6のフローチャートで説明した手法によって検出された視点位置のずれ量xに基づいて立体像の更新、描画を行う。
【0050】
この結果、以下の運動視差制御を実現できる。
(1)観察者の移動にともなってウインドウの立体像が更新、描画される。
(2)ウインドウの移動(ドラッグ)に伴って、ウインドウの立体像が更新、描画される。
【0051】
なお、例えばウインドウの移動中には2次元の運動視差画像を表示するようにしてもよい。この場合、ウインドウの移動終了後には、3次元表示に戻すことになる。
【0052】
また、上記実施形態の光学系は、図13に示すように、特開平10−78563号等に開示されているような、シリンドリカルレンズを水平方向に並べたレンチキュラ1301を用いた構成でもよい。
【0053】
<第2の実施形態>
上記第1の実施形態では、自発光型表示素子101に市松状パターン104を表示して立体視を可能とした。本実施形態では、市松状に光透過部と非透過部を設けたマスクパターンを用いる場合を説明する。
【0054】
図9は第2の実施形態による立体表示装置の構成を示す図である。同図において、第1の実施形態(図1)と同様の構成には同一の参照番号を付してある。
【0055】
図9において、901はバックライト光源(面光源)であり、902は市松状の開口部903と遮光部904を有するマスク基板である。第2の実施形態では、第1の実施形態における市松状パターン104を表示した自発光型表示素子101とを、バックライト光源901とマスク基板902で置き換えた構成となっている。また、910は、アクチュエータであり、マスク基板902を水平方向に移動する。第1の実施形態では、マスクパターン104の表示を移動することにより水平方向の補正を行ったが、第2の実施形態では、マスク基板902をアクチュエータ910によって移動することにより水平方向の視点追従を行う。
【0056】
以上のように、第2の実施形態では、視点追従制御を行うに際して、マスク基板902の移動という機械的な動作が必要となる。このような移動を視点追従のための動作を行っている最中は、光指向性が刻々と変化し、観察者にとって見苦しいものとなってしまう。第2の実施形態では、このような問題に対処する。
【0057】
図10は第2の実施形態による視点追従制御を説明するフローチャートである。図10において、ステップS101、S103、S105〜S109は上述の第1の実施形態(図5)と同様の処理である。ただし、マスク基板902では、開口部と遮光部のピッチPを変更することが容易ではないので、第2の実施形態では光軸方向の観察者の移動に対するクロストークの補正は実行しないものとする(すなわち、ステップS102とS104は省略される)。
【0058】
ステップS109において、s≦E/10の場合は、ステップS301へ進み、マスク基板902を基準位置へ移動する。また、s>E/10となった場合はステップS302へ進み、数式(2)で与えられる分移動する。すなわち、
s・t/(L+t
だけ移動する。
【0059】
その後、ステップS303へ進み、マスク基板902が上記ステップS301及びS302によって移動中か否かを判断し、移動中であればステップS304で遅延処理を行う。遅延処理としては、
(1)マスク基板902の移動中はディスプレイデバイス106上に何も表示しない。
(2)マスク基板902の移動中は、3次元ウインドウ内の表示を禁止する。
(3)マスク基板902の移動中は、ディスプレイデバイス106上の表示を全て2次元表示とすること等が挙げられる。
【0060】
また、図6のフローチャートで説明した処理により、観察者が追従範囲外に出てしまった場合は、
(1)3次元表示ウインドウの表示を2次元表示とし、2次元表示であることを明示するウインドウ枠に変更する。
(2)視点位置が追従範囲に戻るまで視点追従制御を中止する。
という処理が行われることになる。
【0061】
また、第2の実施形態において、ウインドウのドラッグ操作による移動速度が、視点追従制御の追従速度を越えた場合に、すべての3次元表示ウインドウを2次元表示とするように制御してもよい。
【0062】
なお、図9に示した構成において、光の拡散状態と透過状態の2状態の制御ができる、高分子分散型液晶で構成された光指向制御素子(PDLC)等をディスプレイデバイス106とレンチキュラレンズ105の間、或いはレンチキュラレンズ105とマスク基板902の間に設けて、2次元表示と3次元表示の切り換えを行えるようにしてもよい。すなわち、PDLCを拡散状態として光指向性を打ち消すことにより2次元表示装置となり、透過状態とすることにより3次元表示装置となる。なお、PDLCの代わりに拡散シートの挿入状態と非挿入状態を切換えるようにしてもよい。
【0063】
また、上記のように2次元表示と3次元表示の切換を行える装置において、2次元表示状態となっている場合、マスク基板902の移動は表示状態に影響を及ぼさない。従って、2次元表示となっている間は、3次元表示状態に切り換わったときにマスク基板の追従遅れが少なくなるような位置にマスク基板902を移動しておく(以下、マスク基板のバックグランド処理という)ようにしてもよい。以下、この処理を説明する。
【0064】
図11は第2の実施形態によるマスク基板902のバックグランド処理について説明するフローチャートである。図11に示されるフローチャートは、図10のステップS103とステップS105の間に挿入される。
【0065】
まず、ステップS401において、当該表示装置が3次元表示状態にあるかどうかを判断する。すなわち、PDLCが透過状態にある場合、或いは拡散シートが挿入されていない場合は3次元表示状態であり、この場合はそのままステップS105へ進み、上述した視点追従制御を実行する。
【0066】
一方、PDLCが拡散状態にある場合、或いは拡散シートが挿入された状態にある場合は、2次元表示状態であり、処理はステップS402へ進む。ステップS402では、3次元表示ウインドウ(3次元表示される可能性のあるウインドウ)を抽出する。そして、ステップS403において、ステップS402で抽出されたウインドウの重心位置を求め、この重心位置と視点位置とに基づいてマスク基板を最適な位置に移動する。
【0067】
以上のように処理することにより、2次元表示状態から3次元表示状態に切り換わった際に、マスク基板902が既に適切な位置に移動しているので、スムースな表示切換が可能となる。
【0068】
なお、上記実施形態ではマスク基板902を移動したが、例えばレンチキュラレンズのような他の光学部材を移動するようにしてもよい。
【0069】
<第3の実施形態>
上述した第1の実施形態では、光軸方向の観察者の移動に対して、市松パターンのピッチPを制御することで対応した。しかしながら、第2の実施形態のようなマスク基板を用いた場合は、市松パターンのピッチを変更することは困難であり、このため第2の実施形態では光軸方向の補正を行っていない。第3の実施形態では、市松パターンのピッチを制御せずに、3次元表示ウインドウの表示サイズを制御することにより、観察者の光軸方向の移動に対する画質の維持を行う。
【0070】
図12は第3の実施形態による3次元表示ウインドウのサイズ決定処理を説明するフローチャートである。なお、図12に示されるフローチャートは、図10に示されるフローチャートのステップS101とステップS103の間に挿入されるものとする。
【0071】
まず、ステップS501において、ディスプレイデバイス106と視点位置との距離Lを取得する。次に、ステップS502では、3次元表示ウインドウの幅に基づいて、立体視可能な距離範囲を算出する。ウインドウの幅と、立体視可能な距離範囲は、例えば文献「3D映像 Vol.7 No.2, 1993/March、4〜7ページ」に記載されている立体視領域に基づいて算出される。上述の文献では、レンチキュラ方式について言及しているが、他の直視型立体ディスプレイにも適用できる。設計上の立体視最適距離をD0、立体視できる最近距離をDF、立体視できる最遠距離をDS、ウインドウの横幅をA(mm)、眼間距離をK(通常65mm)、nを画像数とした場合に以下のように表わされる。
【0072】
【数3】
Figure 0003554257
【0073】
ステップS503では、上記の式のAに処理対象の3次元表示ウインドウの幅を代入し、当該ウインドウの立体視可能範囲を求める。そして、この求まった立体視可能範囲に、ステップS501で得られた距離Lが入っているかを判断する。距離Lが立体視可能範囲に入らない場合は、この距離Lが立体視可能範囲に収まるように当該ウインドウの幅を変更する。以上の処理をすべての3次元表示ウインドウに対して行う(ステップS505)。
【0074】
以上のように、第3の実施形態によれば、ディスプレイデバイス106と視点位置との距離が、立体視可能となるように3次元表示ウインドウ幅が調整されるので、観察者は多様な視点位置で、高品位な立体視を行うことができる。
【0075】
なお、本実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0076】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本実施形態を構成することになる。
【0077】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0078】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0079】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0080】
【発明の効果】
以上説明したように、本発明によれば、表示画面中の任意の位置に任意のサイズで表示することが可能なウインドウ内に3次元画像を表示する場合に、適切な視点追従制御を行うことが可能となる。
【図面の簡単な説明】
【図1】第1の実施形態による立体画像表示装置の概略構成を示す図である。
【図2】第1の実施形態による立体画像表示装置の立体観察を説明する図である。
【図3】第1の実施形態による立体表示システムの構成を示すブロック図である。
【図4】本実施形態による光学系の諸元を説明する図である。
【図5】本実施形態による視点追従制御を説明するフローチャートである。
【図6】本実施形態による基準位置Xの決定処理を説明するフローチャートである。
【図7】本実施形態による3次元表示ウインドウの表示状態を説明する図である。
【図8】本実施形態による3次元表示ウインドウの表示状態を説明する図である。
【図9】第2の実施形態による立体表示装置の構成を示す図である。
【図10】第2の実施形態による視点追従制御を説明するフローチャートである。
【図11】第2の実施形態によるマスク基板902のバックグランド処理について説明するフローチャートである。
【図12】第3の実施形態による3次元表示ウインドウのサイズ決定処理を説明するフローチャートである。
【図13】水平方向にシリンドリカルレンズを配置したレンチキュラを用いた光学系を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display control apparatus and a display control method for a display apparatus that allows a user to observe a stereoscopic image using parallax between a right eye and a left eye. In particular, the present invention relates to a display control device and a display control method for a display device capable of switching between a normal two-dimensional image and a three-dimensional image for display, or capable of displaying a two-dimensional image and a three-dimensional image in a mixed manner.
[0002]
[Prior art]
Conventionally, a three-dimensional display device capable of switching between two-dimensional display and three-dimensional display and performing mixed display has been proposed. As a method of performing stereoscopic display on a display, a stereoscopic image display method using a parallax barrier (hereinafter, referred to as a parallax barrier method) and a lenticular method are widely known.
[0003]
For the parallax barrier method, see S.M. H. Kaplan, "Theory of Parallax Barriers", J. Amer. SMPTE, Vol. 59, no. 7, pp. According to this method, a stripe image in which at least left and right parallax images are alternately arranged among a plurality of parallax images from a plurality of viewpoints is provided at a predetermined distance from the image. Performing stereoscopic viewing by observing a parallax image corresponding to each eye with left and right eyes through a slit having a predetermined opening provided at a position only apart (called a parallax barrier) Can be.
[0004]
On the other hand, the lenticular method also displays a stereoscopic image using the binocular parallax of the right eye and the left eye, and a lenticular with a large number of semi-cylindrical lenses is provided on the front of the display and spatially enters the left and right eyes The image is separated so that the user can observe a stereoscopic image.
[0005]
However, in these systems, the range in which the observer can view stereoscopically is only a width of about 65 mm between both eyes. Therefore, it is necessary for the observer to observe while fixing the position of the head, and there is a problem that it is very difficult to use.
[0006]
In order to cope with such a problem, Japanese Patent Application Laid-Open No. 2-44995 discloses a method in which the positions of both eyes of an observer are detected, and a lenticular lens is movably supported in a horizontal direction to determine a relative position in a horizontal direction with respect to a display element. A method has been proposed in which the stereoscopic viewing area is expanded by controlling the movement. Further, Japanese Patent Application Laid-Open No. Hei 2-50145 proposes a method of detecting a position of both eyes of an observer and exchanging an image display according to the position of the observer to widen a stereoscopic viewing area. Further, Japanese Patent Application Laid-Open No. 10-232367 proposes a stereoscopic image display device that prevents the occurrence of crosstalk due to a change in the distance between an observer and the stereoscopic image display device.
[0007]
[Problems to be solved by the invention]
However, in any of the above-described methods of following the viewpoint, the amount of movement of the viewpoint is always calculated by a coordinate system fixed to the display screen, and only considers the case where a three-dimensional image is displayed on the entire display screen. . For example, a three-dimensional image is displayed in a window that can be moved arbitrarily in the display screen, and when this window is moved, the viewpoint relatively moves. However, such a case is taken into consideration. Absent.
[0008]
That is, no consideration is given to viewpoint tracking when a three-dimensional image is displayed in a window opened at an arbitrary position on the display screen. Further, when one or a plurality of windows are displayed on one screen, and three-dimensional display is performed on each of the one or a plurality of windows, consideration should be given to how to control viewpoint tracking. Has not been done.
[0009]
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problem, and has an advantage in that, when a three-dimensional image is displayed in a window that can be displayed at an arbitrary position in an arbitrary size on a display screen, viewpoint tracking control is appropriately performed. It is intended to be able to perform.
[0010]
[Means for Solving the Problems]
A display control device according to the present invention for achieving the above object has, for example, the following configuration. That is,
A display control device that generates a light directivity for allowing a parallax image to be observed by each of right and left eyes and enables a three-dimensional image to be observed,
Detecting means for detecting the viewpoint position of the observer;
Acquiring means for acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
And control means for controlling the state of generation of the light directivity so as to follow the viewpoint based on the viewpoint position detected by the detection means and the reference position acquired by the acquisition means.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0012]
<First embodiment>
FIG. 1 is a diagram illustrating a schematic configuration of the stereoscopic image display device according to the first embodiment. In FIG. 1, reference numeral 101 denotes a self-luminous display element such as a CRT, on which a checkered light-emitting pattern 104 having a light-emitting portion 102 and a non-light-emitting portion 103 is displayed. Reference numeral 105 denotes a lenticular lens, which gives directivity to light emitted from the light emitting unit 102. The lenticular lens 105 is a cylindrical lens array made of a transparent resin or glass, and is configured by arranging vertically long cylindrical lenses in the left-right direction. Reference numeral 106 denotes a display device. In this example, a transmission type liquid crystal element in which a display pixel portion (display surface) is formed between two glass substrates is used.
[0013]
It is desirable that the self-luminous display element 101 and the display device 106 display a light emitting pattern and a stripe image in synchronization with each pixel or each scanning line.
[0014]
110 is a display drive circuit, 112 is a position sensor for detecting the position of the observer 113, and 111 is a control unit. The position sensor 112 detects the position of the observer in the horizontal direction and the position in the optical axis direction (front-back direction). The control unit 111 also controls the light emission pattern of the self-luminous display element 101. In addition, as a method for the position sensor 112 to detect the position of the observer 113 in the optical axis direction, a well-known autofocus method used in a silver halide camera, a video camera, or the like can be applied.
[0015]
FIG. 2 is a diagram illustrating stereoscopic observation of the stereoscopic image display device according to the first embodiment. The figure is a horizontal cross-sectional view, in which (A) is a cross-sectional view along a horizontal plane including line AA in FIG. 1 and (B) is a cross-sectional view along a horizontal plane including line BB in FIG. ).
[0016]
The control unit 111 inputs a parallax image for the right eye and a parallax image for the left eye, and converts each of the two input parallax images into a number of horizontal stripe-shaped stripe images R. i And L i , And as shown in FIG. 1 L 2 R 3 L 4 R 5 L 6 Are alternately arranged to synthesize one horizontal stripe image. The horizontal stripe image thus synthesized is input to the display drive circuit 110 and is displayed as shown in FIG.
[0017]
At this time, R 1 , R 3 The stripe (R) of the right parallax image displayed in i 2) reaches the observer's right eye as shown in FIG. 2A due to the light directivity of the three-dimensional image display device. That is, the light emitted from the light emitting unit 102 of the checkered pattern 104 is transmitted to the right eye E of the observer by the cylindrical lens of the lenticular lens 105. R Directivity is given to head toward. This right eye E R The luminous flux traveling toward the horizontal direction is a horizontally long stripe image (here, image R) displayed on a display device 106 provided between the lenticular lens 3 and the observer. i ) Is modulated by the right eye E R Incident on.
[0018]
Similarly, L 2 , L 4 ... stripes of the left parallax image (L i ) Indicates the left eye E of the observer as shown in FIG. 2B due to the light directivity of the stereoscopic image display device. L To reach.
[0019]
In this way, the observer observes the corresponding parallax image with each of the left and right eyes, and stereoscopic vision becomes possible.
[0020]
FIG. 3 is a block diagram showing the configuration of the stereoscopic display system according to the first embodiment. In FIG. 3, reference numeral 300 denotes a host computer, which can handle two-dimensional images and three-dimensional images. In the host computer 300, a CPU 301 executes various processes according to a control program stored in a memory 302. The host computer 300 updates a signal to the device driver 310 every time the drawing data is updated. The memory 302 includes a ROM, a RAM, or a magnetic disk driver.
[0021]
Reference numeral 310 denotes a display driver that controls the entire drawing of the stereoscopic display according to the present embodiment, and corresponds to the control unit 111 in FIG. An object analysis unit 311 determines and analyzes the type of drawing data. A system controller 312 plays a central role in various controls. The system controller 312 includes a CPU and a memory, and executes various processes such as viewpoint tracking control described below. Reference numeral 313 denotes a 2D3D drawing unit which controls drawing of data actually drawn on the stereoscopic display, that is, a conventionally handled two-dimensional image or stripe-combined three-dimensional image.
[0022]
A switching drive unit 314 controls the self-luminous display element 101 to switch between three-dimensional display and two-dimensional display. That is, as shown in FIG. 1, three-dimensional display is possible by displaying the checkerboard pattern 104, and when the entire surface is in a light emitting state, the backlight becomes a normal backlight and two-dimensional display is possible. A tracking control unit 315 changes the checkerboard pattern 104 based on the viewpoint position input from the viewpoint detection unit 320 so that stereoscopic viewing can be performed correctly at the detected viewpoint position. The viewpoint tracking control will be described later in detail.
[0023]
The viewpoint detection unit 320 includes the position sensor 112, detects the viewpoint position of the observer 113, and outputs the information to the device driver 310.
[0024]
The stereoscopic display 330 displays a two-dimensional image or a three-dimensional image on the display device 106 according to the drawing data output from the 2D3D drawing unit 313. In this example, the display unit 330 includes the display drive circuit 110 and the display device 106.
[0025]
The 2D3D switching unit 332 turns on / off the display of the checkerboard pattern 104 of the self-luminous display element 101 according to a signal from the switching drive unit 314. In addition, the viewpoint tracking unit 333 controls the display position of the checkered pattern 104 and the display pitch of the light emitting unit and the non-light emitting unit according to the signal of the tracking control unit 315.
[0026]
The device driver 310 may be connected as an external device of the host computer 300 or may be mounted on a throttle in the host computer 300. Further, it may be implemented as one software of the host computer or a configuration in which the software and the electronic circuit are mixed. That is, the host computer 300 includes a CPU 301 and a memory 302 in which a control program for realizing the processing procedure described with reference to the attached flowchart is stored, and various functions realized by the display driver 310 are realized by the CPU 301 of the host computer 300. You may do so.
[0027]
The viewpoint tracking control of the present embodiment in the stereoscopic image display device having the above-described structure will be described below. According to the present embodiment, the correction of the crosstalk caused by the displacement of the observer in the horizontal direction is performed by moving the checkered pattern 104 formed on the display surface of the self-luminous display element 101. In addition, crosstalk caused by a change in the distance between the observer and the display device is caused by changing the pitch between the light-emitting portion and the non-light-emitting portion in the checkered pattern 104 of the self-luminous display element 101.
[0028]
FIG. 4 is a diagram illustrating the specifications of the optical system according to the present embodiment. In FIG. 4, one horizontal line for displaying the right stripe pixels of the display device 106, the lenticular lens 105, and the screen of the self-luminous display element 101 for displaying the checkered pattern 104 are simply shown. .
[0029]
The converted distance between the display screen of the checkered pattern 104 and the lenticular lens 105 (the distance obtained by converting the thickness of a member such as glass into air) is t. 1 , The converted distance between the lenticular lens 105 and the display device 106 is t 2 , The converted distance between the display device 106 and the observer is L 0 And the pitch of the lenticular lens 105 is P 1 , The pitch of the light emitting and non-light emitting portions of the checkerboard pattern is P m Then, the optical system of the present embodiment satisfies the following equation from the similarity condition of the triangle.
[0030]
(Equation 1)
Figure 0003554257
[0031]
Further, the right eye of the observer is positioned at the center C of the display device 106. 0 When the position is shifted by x in the horizontal direction from the center of the lenticular lens at the center of the image display surface, the center D of the corresponding light emitting portion 102 of the checkered pattern 104 is set at the reference position D thereof. 0 From the following d horizontally 0 By shifting the distance only, appropriate stereoscopic vision can be performed.
[0032]
(Equation 2)
Figure 0003554257
[0033]
In the present embodiment, the control of the light directivity corresponding to the viewpoint position as described above is referred to as viewpoint tracking control.
[0034]
FIG. 5 is a flowchart illustrating the viewpoint tracking control according to the present embodiment. This processing is realized by a CPU (not shown) mounted on the system controller 312 in the device driver 310 executing a control program stored in a memory (not shown).
[0035]
First, in step S101, the reference position X 0 To determine. This reference position X 0 Is a position serving as a reference for obtaining a shift amount x from the viewpoint position detected by the viewpoint detection unit 320. Hereinafter, the processing in step S101 will be described with reference to FIG.
[0036]
FIG. 6 shows a reference position X according to the present embodiment. 0 It is a flowchart for explaining the determination processing. In step S201, a window for displaying a three-dimensional image (hereinafter, a three-dimensional display window) is extracted. FIG. 7 is a diagram illustrating the display state of the three-dimensional display window according to the present embodiment. In FIG. 7, windows 33a, 33b, and 33c are windows for displaying a three-dimensional image. Whether or not each window performs three-dimensional display can be determined by examining an image file displayed in the window (for example, referring to an extension or the like). In step S201, these windows 33a, 33b, and 33c are extracted.
[0037]
In step S202, the position of the center of gravity is calculated for the window extracted in step S201. Then, it is determined whether or not the viewpoint position detected by the viewpoint detection unit 320 is within the tracking range with respect to the calculated center of gravity. 0 To decide.
[0038]
When a plurality of three-dimensional display windows are displayed by the above processing, the position of their center of gravity is set to the reference position X. 0 Will be set to When only one three-dimensional display window is displayed as shown in FIG. 8, the position of the center of gravity calculated in step S202 matches the center of the three-dimensional display window. . In the case where three-dimensional display is performed only in the active three-dimensional display window and two-dimensional display is performed in the inactive three-dimensional display window, the center of the active three-dimensional display window is set at the reference position. X 0 (In this case, the three-dimensional display window executing the three-dimensional display in step S201 may be extracted).
[0039]
On the other hand, if it is determined in step S203 that the viewpoint position is not in the tracking range based on the relationship between the calculated center-of-gravity position and the detected viewpoint position, the process proceeds to step S204, and the display content of the three-dimensional display window is changed to two. Dimension display. At this time, the window frame or the like may be changed so as to clearly indicate that the two-dimensional display is being performed. At this time, the display of the self-luminous display element 101 may be switched from a checkered pattern to a full-luminous state to operate as a two-dimensional display device. Then, in steps S205 and S206, it is monitored that the viewpoint position returns within the tracking range. If the viewpoint position has returned to the tracking range, the window changed to two-dimensional display in step S204 is returned to three-dimensional display in step S207. Thereafter, the flow returns to step S201, and the reference position X is determined as described above. 0 To determine.
[0040]
The determination as to whether or not the viewpoint position has reached the tracking range in step S205 can be performed, for example, as follows. That is, the relative positional relationship between the position of the center of gravity and the viewpoint position in the window changed to the two-dimensional display in step S204 is monitored. Here, since the position of the center of gravity of the window may change due to the movement of the window by the drag operation, the position of the center of gravity is calculated again at least when the drag operation is performed on the corresponding window. In this way, if the viewpoint position has entered the following range due to the movement of the viewpoint position and / or the movement of the window, the process proceeds from step S206 to step S207.
[0041]
Returning to FIG. 5 again, in step S102, the distance L between the observer's viewpoint position and the display is displayed. 0 To get. Also, in step S103, the reference position X determined in step S101 0 Is calculated in the horizontal direction x of the viewpoint position from the camera.
[0042]
In step S104, crosstalk caused by movement of the observer in the optical axis direction is corrected. That is, the distance L obtained in step S102 0 Of the checkerboard pattern 104 on the self-luminous display element 101 in the horizontal direction m Is recalculated by the above equation (1), and the pitch P m Thus, a checkered pattern display on the self-luminous display element 101 is performed.
[0043]
Subsequently, in and after step S105, the crosstalk due to the horizontal position shift is corrected using the shift amount x calculated in step S103.
[0044]
First, in step S105, the horizontal shift amount x is divided by a preset reference interocular distance E (for example, 65 mm), and a quotient N as an integer and a remainder s whose absolute value is equal to or less than E are calculated. obtain. That is, x, E, N, and s are:
x = NE * s (where N is an integer, | s | <E)
Have the relationship
[0045]
In step S106, it is determined whether N obtained in step S105 is odd or even. If it is even, the process proceeds to step S107, and if it is odd, the process proceeds to step S108. In step S107, the device driver 310 displays the first horizontal stripe image on the display device 106, and in step S108, the device driver 310 displays the second horizontal stripe image on the display device 106. The relationship between the first and second horizontal stripe images is such that the display positions of the left-eye stripe image and the right-eye stripe image are switched in FIG. 1, and the left and right parallax images are correctly observed by the left and right eyes, respectively. So that
[0046]
In step S109, it is determined whether the absolute value of s is larger or smaller than a predetermined value, for example, E / 10. If smaller, the process proceeds to step S110, and the light emission pattern is returned to the reference position. If s is greater than E / 10, the process proceeds to step S111, and the light emission pattern is moved from the reference position by the amount given by equation (2). That is,
st 1 / (L 0 + T 2 )
Just move. In the present embodiment, the threshold value is E / 10, but the threshold value is determined in consideration of the optical separation state of the left and right images.
[0047]
As described above, according to the first embodiment, it is possible to perform appropriate viewpoint tracking control for a three-dimensional display window displayed at an arbitrary position. Further, even if a plurality of three-dimensional display windows are displayed, it is possible to perform appropriate viewpoint tracking control on those windows.
[0048]
In the above embodiment, when the viewpoint position is outside the viewpoint tracking range with respect to the barycenter position calculated for the three-dimensional display window, the three-dimensional display window is set to two-dimensional display, and the viewpoint position returns to the tracking range. Wait, but not limited to this. For example, two or more three-dimensional display windows may be displayed two-dimensionally one by one in order from the one farthest from the detected viewpoint position, and may be excluded from the center of gravity calculation. In this way, for example, in the display as shown in FIG. 7, if the viewpoint position exceeds the tracking range by using the center of gravity of the windows 33a, 33b and 33c, for example, the window 33c is set to a two-dimensional display and the windows 33a and 33b are displayed. The relationship between the position of the center of gravity and the viewpoint position is checked, and if the viewpoint position falls within the tracking range, the position of the center of gravity may be used as the reference position.
[0049]
In the present embodiment, the control of the light directivity is performed in the viewpoint tracking control. In addition, the motion parallax control may be performed. The motion parallax changes the display state of the object such that the side of the object gradually appears in accordance with the detected viewpoint position. In this case, since the stereoscopic image is updated in accordance with the detected shift amount of the viewpoint position, the stereoscopic image is updated based on the shift amount x of the viewpoint position detected by the method described in the flowcharts of FIGS. Update and draw.
[0050]
As a result, the following motion parallax control can be realized.
(1) The stereoscopic image of the window is updated and drawn as the observer moves.
(2) The three-dimensional image of the window is updated and drawn with the movement (drag) of the window.
[0051]
For example, a two-dimensional motion parallax image may be displayed while the window is moving. In this case, after the movement of the window is completed, the display is returned to the three-dimensional display.
[0052]
Further, as shown in FIG. 13, the optical system of the above embodiment may have a configuration using a lenticular 1301 in which cylindrical lenses are arranged in a horizontal direction, as disclosed in Japanese Patent Application Laid-Open No. 10-78563.
[0053]
<Second embodiment>
In the first embodiment, a checkered pattern 104 is displayed on the self-luminous display element 101 to enable stereoscopic viewing. In the present embodiment, a case will be described in which a mask pattern having light-transmitting portions and non-transmitting portions provided in a checkered pattern is used.
[0054]
FIG. 9 is a diagram illustrating a configuration of a stereoscopic display device according to the second embodiment. In the figure, the same components as those of the first embodiment (FIG. 1) are denoted by the same reference numerals.
[0055]
In FIG. 9, reference numeral 901 denotes a backlight light source (surface light source); and 902, a mask substrate having a checkered opening 903 and a light shielding portion 904. The second embodiment has a configuration in which the self-luminous display element 101 displaying the checkered pattern 104 in the first embodiment is replaced by a backlight light source 901 and a mask substrate 902. An actuator 910 moves the mask substrate 902 in the horizontal direction. In the first embodiment, the horizontal correction is performed by moving the display of the mask pattern 104. In the second embodiment, the horizontal viewpoint tracking is performed by moving the mask substrate 902 by the actuator 910. Do.
[0056]
As described above, in the second embodiment, when performing the viewpoint tracking control, a mechanical operation of moving the mask substrate 902 is required. While such movement is being performed for the purpose of following the viewpoint, the light directivity changes every moment, which makes the observer unsightly. The second embodiment addresses such a problem.
[0057]
FIG. 10 is a flowchart illustrating viewpoint tracking control according to the second embodiment. In FIG. 10, steps S101, S103, S105 to S109 are the same processes as in the above-described first embodiment (FIG. 5). However, in the mask substrate 902, the pitch P between the opening and the light shielding portion is m Since it is not easy to change the crosstalk, it is assumed in the second embodiment that the correction of the crosstalk for the movement of the observer in the optical axis direction is not executed (that is, steps S102 and S104 are omitted).
[0058]
If s ≦ E / 10 in step S109, the process advances to step S301 to move the mask substrate 902 to the reference position. If s> E / 10, the flow advances to step S302 to move by the amount given by equation (2). That is,
st 1 / (L 0 + T 2 )
Just move.
[0059]
Thereafter, the process proceeds to step S303, where it is determined whether the mask substrate 902 is moving in steps S301 and S302, and if it is moving, a delay process is performed in step S304. As delay processing,
(1) Nothing is displayed on the display device 106 while the mask substrate 902 is moving.
(2) The display in the three-dimensional window is prohibited while the mask substrate 902 is moving.
(3) While the mask substrate 902 is moving, the display on the display device 106 may be entirely two-dimensional.
[0060]
Also, if the observer goes out of the tracking range by the processing described in the flowchart of FIG.
(1) The display of the three-dimensional display window is changed to a two-dimensional display, and is changed to a window frame that clearly indicates that the display is a two-dimensional display.
(2) Stop the viewpoint tracking control until the viewpoint position returns to the tracking range.
Is performed.
[0061]
In the second embodiment, when the moving speed of the window by the drag operation exceeds the tracking speed of the viewpoint tracking control, all the three-dimensional display windows may be controlled to be two-dimensionally displayed.
[0062]
In the configuration shown in FIG. 9, a light directing control element (PDLC) or the like made of polymer dispersed liquid crystal, which can control two states of a light diffusion state and a transmission state, is provided with a display device 106 and a lenticular lens 105. Or between the lenticular lens 105 and the mask substrate 902 to switch between two-dimensional display and three-dimensional display. In other words, a two-dimensional display device is obtained by canceling the light directivity by setting the PDLC in a diffusion state, and a three-dimensional display device is obtained by setting the PDLC in a transmission state. In addition, you may make it switch the insertion state and non-insertion state of a diffusion sheet instead of PDLC.
[0063]
In the device capable of switching between two-dimensional display and three-dimensional display as described above, when the two-dimensional display state is set, the movement of the mask substrate 902 does not affect the display state. Therefore, during the two-dimensional display, the mask substrate 902 is moved to a position where the delay in following the mask substrate when switching to the three-dimensional display state is reduced (hereinafter, the background of the mask substrate). Processing). Hereinafter, this process will be described.
[0064]
FIG. 11 is a flowchart illustrating a background process of the mask substrate 902 according to the second embodiment. The flowchart shown in FIG. 11 is inserted between step S103 and step S105 in FIG.
[0065]
First, in step S401, it is determined whether the display device is in a three-dimensional display state. That is, when the PDLC is in the transmission state or when the diffusion sheet is not inserted, the display is in the three-dimensional display state. In this case, the process directly proceeds to step S105, and the above-described viewpoint tracking control is executed.
[0066]
On the other hand, when the PDLC is in the diffusion state or when the diffusion sheet is inserted, the display is in the two-dimensional display state, and the process proceeds to step S402. In step S402, a three-dimensional display window (a window that may be three-dimensionally displayed) is extracted. Then, in step S403, the position of the center of gravity of the window extracted in step S402 is obtained, and the mask substrate is moved to an optimum position based on the position of the center of gravity and the viewpoint position.
[0067]
By performing the processing as described above, when switching from the two-dimensional display state to the three-dimensional display state, the mask substrate 902 has already been moved to an appropriate position, so that smooth display switching can be performed.
[0068]
In the above embodiment, the mask substrate 902 is moved, but another optical member such as a lenticular lens may be moved.
[0069]
<Third embodiment>
In the first embodiment described above, the checkerboard pattern pitch P m Was controlled by controlling However, when the mask substrate as in the second embodiment is used, it is difficult to change the pitch of the checkered pattern, and therefore, in the second embodiment, the correction in the optical axis direction is not performed. In the third embodiment, the image quality is maintained with respect to the movement of the observer in the optical axis direction by controlling the display size of the three-dimensional display window without controlling the pitch of the checkerboard pattern.
[0070]
FIG. 12 is a flowchart illustrating a process for determining the size of a three-dimensional display window according to the third embodiment. Note that the flowchart shown in FIG. 12 is inserted between step S101 and step S103 of the flowchart shown in FIG.
[0071]
First, in step S501, the distance L between the display device 106 and the viewpoint position is determined. 0 To get. Next, in step S502, a distance range in which stereoscopic viewing is possible is calculated based on the width of the three-dimensional display window. The width of the window and the distance range in which stereoscopic viewing is possible are calculated based on a stereoscopic viewing area described in, for example, a document “3D Video Vol. Although the above-mentioned documents refer to the lenticular system, the present invention can be applied to other direct-view type stereoscopic displays. The optimal stereoscopic distance in design is D0, the nearest distance for stereoscopic viewing is DF, the farthest distance for stereoscopic viewing is DS, the width of the window is A (mm), the interocular distance is K (typically 65 mm), and n is the number of images. Is expressed as follows.
[0072]
(Equation 3)
Figure 0003554257
[0073]
In step S503, the width of the three-dimensional display window to be processed is substituted for A in the above equation, and a stereoscopically viewable range of the window is obtained. Then, the distance L obtained in step S501 is set in the obtained stereoscopically viewable range. 0 Judge whether it is included. Distance L 0 Is not within the stereoscopically viewable range, the distance L 0 Is changed so that is within the stereoscopically viewable range. The above processing is performed on all three-dimensional display windows (step S505).
[0074]
As described above, according to the third embodiment, the three-dimensional display window width is adjusted so that the distance between the display device 106 and the viewpoint position can be stereoscopically viewed. Thus, high-quality stereoscopic viewing can be performed.
[0075]
An object of the present embodiment is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiment to a system or an apparatus, and to store the storage medium in a computer (or CPU or MPU) of the system or the apparatus. It goes without saying that this is also achieved by reading and executing the program code stored in the medium.
[0076]
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present embodiment.
[0077]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.
[0078]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
[0079]
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0080]
【The invention's effect】
As described above, according to the present invention, when a three-dimensional image is displayed in a window that can be displayed at an arbitrary position in an arbitrary size on a display screen, appropriate viewpoint tracking control is performed. Becomes possible.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration of a stereoscopic image display device according to a first embodiment.
FIG. 2 is a diagram illustrating stereoscopic observation of the stereoscopic image display device according to the first embodiment.
FIG. 3 is a block diagram illustrating a configuration of a stereoscopic display system according to the first embodiment.
FIG. 4 is a diagram illustrating specifications of the optical system according to the present embodiment.
FIG. 5 is a flowchart illustrating viewpoint tracking control according to the embodiment.
FIG. 6 shows a reference position X according to the embodiment. 0 It is a flowchart for explaining the determination processing.
FIG. 7 is a diagram illustrating a display state of a three-dimensional display window according to the embodiment.
FIG. 8 is a diagram illustrating a display state of a three-dimensional display window according to the embodiment.
FIG. 9 is a diagram illustrating a configuration of a stereoscopic display device according to a second embodiment.
FIG. 10 is a flowchart illustrating viewpoint tracking control according to a second embodiment.
FIG. 11 is a flowchart illustrating background processing of a mask substrate 902 according to the second embodiment.
FIG. 12 is a flowchart illustrating a process for determining the size of a three-dimensional display window according to the third embodiment.
FIG. 13 is a diagram showing an optical system using a lenticular having cylindrical lenses arranged in a horizontal direction.

Claims (35)

視差画像を左右の夫々の眼によって観察させるための光指向性を生成して3次元画像を観察可能とする表示制御装置であって、
観察者の視点位置を検出する検出手段と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得手段と、
前記検出手段で検出された視点位置と前記取得手段で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御手段と
を備えることを特徴とする表示制御装置。
A display control device that generates a light directivity for allowing a parallax image to be observed by each of right and left eyes and enables a three-dimensional image to be observed,
Detecting means for detecting the viewpoint position of the observer;
Acquiring means for acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
Display control means for controlling the state of generation of the light directivity so as to perform viewpoint tracking based on the viewpoint position detected by the detection means and the reference position acquired by the acquisition means. apparatus.
前記取得手段は、アクティブな3次元表示ウインドウの中心位置を基準位置として取得する
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the acquisition unit acquires a center position of an active three-dimensional display window as a reference position.
前記取得手段は、表示中の3次元表示ウインドウの重心位置を算出し、これを基準位置とする
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the acquisition unit calculates a position of a center of gravity of the three-dimensional display window being displayed, and uses the calculated position as a reference position.
前記基準位置に対する前記視点位置が追従範囲を出た場合に、表示内容を全て2次元表示とする表示変更手段を更に備える
ことを特徴とする請求項1に記載の表示制御装置。
2. The display control device according to claim 1, further comprising a display change unit configured to display all display contents in a two-dimensional manner when the viewpoint position with respect to the reference position is out of a tracking range.
前記表示変更手段によって2次元表示がなされている状態で、視点位置が追従範囲に入った場合に、3次元表示ウインドウを2次元表示から3次元表示へ戻す
ことを特徴とする請求項4に記載の表示制御装置。
5. The three-dimensional display window is returned from the two-dimensional display to the three-dimensional display when the viewpoint position falls within the following range in a state where the two-dimensional display is performed by the display changing unit. Display control device.
前記取得手段で取得された基準位置と前記検出手段で検出された視点位置とに基づいて運動視差表示を実行する手段を更に備える
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, further comprising: a unit configured to execute a motion parallax display based on the reference position acquired by the acquisition unit and a viewpoint position detected by the detection unit.
前記制御手段は、前記基準位置に対する前記視点位置が追従範囲を出た場合に、重心位置の計算対象とする3次元表示ウインドウの組み合わせを変更して視点追従を試みる
ことを特徴とする請求項3に記載の表示制御装置。
4. The control unit according to claim 3, wherein when the viewpoint position with respect to the reference position goes out of a tracking range, the control unit changes the combination of three-dimensional display windows for which the center of gravity position is to be calculated, and attempts to follow the viewpoint. 3. The display control device according to 1.
前記検出手段は、更に視点位置と画像表示面との距離を検出し、
前記距離に基づいて光指向性を制御する第2制御手段を更に備える
ことを特徴とする請求項1に記載の表示制御装置。
The detecting means further detects a distance between the viewpoint position and the image display surface,
The display control device according to claim 1, further comprising a second control unit that controls light directivity based on the distance.
前記制御手段は、光学部材を移動制御することにより視点追従を行う
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the control unit performs viewpoint tracking by controlling movement of an optical member.
前記視点追従のために前記光学部材を移動している間は3次元の表示を禁止する
ことを特徴とする請求項9に記載の表示制御装置。
The display control device according to claim 9, wherein three-dimensional display is prohibited while the optical member is being moved to follow the viewpoint.
前記視点追従のために前記光学部材を移動している間は、表示画面における画像表示を禁止する
ことを特徴とする請求項9に記載の表示制御装置。
The display control device according to claim 9, wherein display of an image on a display screen is prohibited while the optical member is being moved to follow the viewpoint.
前記光指向性を除去して2次元画像表示装置として機能させる切換手段と、
前記切換手段によって2次元画像表示装置として機能している場合に、前記光学部材を待機位置へ移動する移動手段を更に備える
ことを特徴とする請求項9に記載の表示制御装置。
Switching means for removing the light directivity and functioning as a two-dimensional image display device;
The display control device according to claim 9, further comprising a moving unit that moves the optical member to a standby position when the switching unit functions as a two-dimensional image display device.
前記移動手段は、3次元表示が可能なウインドウを抽出し、それらの重心位置に基づいて前記待機位置を決定する
ことを特徴とする請求項12に記載の表示制御装置。
13. The display control device according to claim 12, wherein the moving unit extracts windows capable of three-dimensional display, and determines the standby position based on the positions of the centers of gravity.
前記制御手段は、前記3次元ウインドウの移動速度を検出し、該移動速度が前記制御手段による視点追従の速度を越えた場合には、該3次元ウインドウを2次元表示に切換える
ことを特徴とする請求項9に記載の表示制御装置。
The control means detects a moving speed of the three-dimensional window, and switches the three-dimensional window to a two-dimensional display when the moving speed exceeds a speed of tracking the viewpoint by the control means. The display control device according to claim 9.
前記検出手段は、更に視点位置と画像表示面との距離を検出し、
前記距離に基づいて3次元ウインドウの表示幅を制限する
ことを特徴とする請求項9に記載の表示制御装置。
The detecting means further detects a distance between the viewpoint position and the image display surface,
The display control device according to claim 9, wherein a display width of the three-dimensional window is limited based on the distance.
前記3次元ウインドウの表示幅の制限は、前記距離と観察者の眼間距離とに基づいてなされる
ことを特徴とする請求項15に記載の表示制御装置。
16. The display control device according to claim 15, wherein the display width of the three-dimensional window is limited based on the distance and a distance between eyes of an observer.
グラフィカルユーザインタフェースとして、前記3次元表示ウインドウを含むオブジェクトを表示する手段を更に備える
ことを特徴とする請求項1に記載の表示制御装置。
2. The display control device according to claim 1, further comprising: a means for displaying an object including the three-dimensional display window as a graphical user interface.
視差画像を左右の夫々の眼によって観察させるための光指向性を生成して3次元画像を観察可能とする表示制御装置の制御方法であって、
観察者の視点位置を検出する検出工程と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得工程と、
前記検出工程で検出された視点位置と前記取得工程で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御工程と
を備えることを特徴とする表示制御方法。
A control method of a display control device that generates a light directivity for allowing a parallax image to be observed by right and left eyes and enables a three-dimensional image to be observed,
A detection step of detecting a viewpoint position of the observer;
An acquisition step of acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
A display control step of: controlling a generation state of the light directivity so as to perform viewpoint tracking based on the viewpoint position detected in the detection step and the reference position acquired in the acquisition step. Method.
前記取得工程は、アクティブな3次元表示ウインドウの中心位置を基準位置として取得する
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, wherein the acquiring step acquires the center position of an active three-dimensional display window as a reference position.
前記取得工程は、表示中の3次元表示ウインドウの重心位置を算出し、これを基準位置とする
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, wherein in the acquiring step, the position of the center of gravity of the three-dimensional display window being displayed is calculated and used as a reference position.
前記基準位置に対する前記視点位置が追従範囲を出た場合に、表示内容を全て2次元表示とする表示変更工程を更に備える
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, further comprising a display changing step of, when the viewpoint position with respect to the reference position goes out of the tracking range, changing the display contents to two-dimensional display.
前記表示変更工程によって2次元表示がなされている状態で、視点位置が追従範囲に入った場合に、3次元表示ウインドウを2次元表示から3次元表示へ戻す
ことを特徴とする請求項21に記載の表示制御方法。
22. The three-dimensional display window is returned from the two-dimensional display to the three-dimensional display when the viewpoint position enters the tracking range in a state where the two-dimensional display is performed in the display changing step. Display control method.
前記取得工程で取得された基準位置と前記検出工程で検出された視点位置とに基づいて運動視差表示を実行する工程を更に備える
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, further comprising the step of executing a motion parallax display based on the reference position acquired in the acquiring step and the viewpoint position detected in the detecting step.
前記制御工程は、前記基準位置に対する前記視点位置が追従範囲を出た場合に、重心位置の計算対象とする3次元表示ウインドウの組み合わせを変更して視点追従を試みる
ことを特徴とする請求項20に記載の表示制御方法。
21. The method according to claim 20, wherein in the control step, when the viewpoint position with respect to the reference position is out of a tracking range, a viewpoint tracking is attempted by changing a combination of three-dimensional display windows for which a center of gravity position is to be calculated. Display control method described in 1.
前記検出工程は、更に視点位置と画像表示面との距離を検出し、
前記距離に基づいて光指向性を制御する第2制御工程を更に備える
ことを特徴とする請求項18に記載の表示制御方法。
The detecting step further detects a distance between the viewpoint position and the image display surface,
19. The display control method according to claim 18, further comprising a second control step of controlling light directivity based on the distance.
前記制御工程は、光学部材を移動制御することにより視点追従を行う
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, wherein the control step performs viewpoint tracking by controlling movement of an optical member.
前記視点追従のために前記光学部材を移動している間は3次元の表示を禁止する
ことを特徴とする請求項26に記載の表示制御方法。
27. The display control method according to claim 26, wherein three-dimensional display is prohibited while the optical member is moving to follow the viewpoint.
前記視点追従のために前記光学部材を移動している間は、表示画面における画像表示を禁止する
ことを特徴とする請求項26に記載の表示制御方法。
27. The display control method according to claim 26, wherein image display on a display screen is prohibited while the optical member is being moved to follow the viewpoint.
前記光指向性を除去して2次元画像表示装置として機能させる切換手段によって2次元画像表示装置として機能させている間に、前記光学部材を待機位置へ移動する移動工程を更に備える
ことを特徴とする請求項26に記載の表示制御方法。
A moving step of moving the optical member to a standby position while functioning as a two-dimensional image display device by switching means for removing the light directivity and functioning as a two-dimensional image display device. The display control method according to claim 26, wherein:
前記移動工程は、3次元表示が可能なウインドウを抽出し、それらの重心位置に基づいて前記待機位置を決定する
ことを特徴とする請求項29に記載の表示制御方法。
30. The display control method according to claim 29, wherein in the moving step, windows capable of three-dimensional display are extracted, and the standby position is determined based on their barycentric positions.
前記制御工程は、前記3次元ウインドウの移動速度を検出し、該移動速度が前記制御工程による視点追従の速度を越えた場合には、該3次元ウインドウを2次元表示に切換える
ことを特徴とする請求項26に記載の表示制御方法。
The control step detects a moving speed of the three-dimensional window, and switches the three-dimensional window to a two-dimensional display when the moving speed exceeds a speed of following the viewpoint in the control step. The display control method according to claim 26.
前記検出工程は、更に視点位置と画像表示面との距離を検出し、
前記距離に基づいて3次元ウインドウの表示幅を制限する
ことを特徴とする請求項26に記載の表示制御方法。
The detecting step further detects a distance between the viewpoint position and the image display surface,
The display control method according to claim 26, wherein a display width of the three-dimensional window is limited based on the distance.
前記3次元ウインドウの表示幅の制限は、前記距離と観察者の眼間距離とに基づいてなされる
ことを特徴とする請求項32に記載の表示制御方法。
33. The display control method according to claim 32, wherein the display width of the three-dimensional window is limited based on the distance and the distance between eyes of a viewer.
グラフィカルユーザインタフェースとして、前記3次元表示ウインドウを含むオブジェクトを表示する工程を更に備える
ことを特徴とする請求項18に記載の表示制御方法。
19. The display control method according to claim 18, further comprising a step of displaying an object including the three-dimensional display window as a graphical user interface.
請求項18乃至34のいずれかに記載の表示制御方法をコンピュータによって実現するための制御プログラムを格納する記憶媒体。A storage medium storing a control program for realizing a display control method according to any one of claims 18 to 34 by a computer.
JP2000231913A 2000-07-31 2000-07-31 Display control device and method Expired - Fee Related JP3554257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000231913A JP3554257B2 (en) 2000-07-31 2000-07-31 Display control device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000231913A JP3554257B2 (en) 2000-07-31 2000-07-31 Display control device and method

Publications (2)

Publication Number Publication Date
JP2002049004A JP2002049004A (en) 2002-02-15
JP3554257B2 true JP3554257B2 (en) 2004-08-18

Family

ID=18724673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000231913A Expired - Fee Related JP3554257B2 (en) 2000-07-31 2000-07-31 Display control device and method

Country Status (1)

Country Link
JP (1) JP3554257B2 (en)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1403759A3 (en) 2002-09-17 2007-04-04 Sharp Kabushiki Kaisha Electronic equipment with two and three dimensional display functions
JP4467574B2 (en) 2004-08-18 2010-05-26 シャープ株式会社 Image data display device
DE102005040597A1 (en) * 2005-02-25 2007-02-22 Seereal Technologies Gmbh Method and device for tracking sweet spots
JP5663854B2 (en) * 2009-09-15 2015-02-04 株式会社ニコン Display device, display method, and program
JP2013080987A (en) * 2010-02-15 2013-05-02 Panasonic Corp Stereoscopic image display device
KR101640404B1 (en) * 2010-09-20 2016-07-18 엘지전자 주식회사 Mobile terminal and operation control method thereof
JP5360166B2 (en) * 2010-09-22 2013-12-04 株式会社ニコン Image display device
WO2012068532A2 (en) 2010-11-19 2012-05-24 Reald Inc. Directional flat illuminators
US9250448B2 (en) 2010-11-19 2016-02-02 Reald Inc. Segmented directional backlight and related methods of backlight illumination
US20140041205A1 (en) 2010-11-19 2014-02-13 Reald Inc. Method of manufacturing directional backlight apparatus and directional structured optical film
US8651726B2 (en) 2010-11-19 2014-02-18 Reald Inc. Efficient polarized directional backlight
JP5161999B2 (en) * 2011-04-19 2013-03-13 株式会社東芝 Electronic device, display control method, and display control program
US20140192150A1 (en) * 2011-06-02 2014-07-10 Sharp Kabushiki Kaisha Image processing device, method for controlling image processing device, control program, and computer-readable recording medium which records the control program
JP5306422B2 (en) 2011-07-19 2013-10-02 株式会社東芝 Image display system, apparatus, method, and medical image diagnostic apparatus
US9237337B2 (en) 2011-08-24 2016-01-12 Reald Inc. Autostereoscopic display with a passive cycloidal diffractive waveplate
JP5100875B1 (en) 2011-08-31 2012-12-19 株式会社東芝 Viewing area adjustment apparatus, image processing apparatus and viewing area adjustment method
JP5319796B2 (en) 2012-01-12 2013-10-16 株式会社東芝 Information processing apparatus and display control method
JP2013174665A (en) * 2012-02-23 2013-09-05 Toshiba Corp Information processor, control method of image quality correction, and program
JP6508832B2 (en) 2012-05-18 2019-05-08 リアルディー スパーク エルエルシー Control of multiple light sources in directional backlights
US9235057B2 (en) 2012-05-18 2016-01-12 Reald Inc. Polarization recovery in a directional display device
US9350980B2 (en) 2012-05-18 2016-05-24 Reald Inc. Crosstalk suppression in a directional backlight
US9188731B2 (en) 2012-05-18 2015-11-17 Reald Inc. Directional backlight
EP2850488A4 (en) 2012-05-18 2016-03-02 Reald Inc Directional backlight
BR112014028612B1 (en) * 2012-05-18 2021-12-28 Reald Spark, Llc DIRECTIONAL SCREEN DEVICE
KR102253212B1 (en) 2012-05-18 2021-05-20 리얼디 스파크, 엘엘씨 Directionally illuminated waveguide arrangement
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
JP5526196B2 (en) * 2012-07-18 2014-06-18 株式会社東芝 Electronic device and video display method
EP2875638A4 (en) 2012-07-23 2016-03-30 Reald Inc Observer tracking autostereoscopic display
EP2904778B1 (en) 2012-10-02 2020-05-27 RealD Spark, LLC Temporally multiplexed display with landscape and portrait operation modes
JP5433774B2 (en) * 2012-12-05 2014-03-05 株式会社東芝 Electronic device, display control method, and display control program
EP2936242A4 (en) 2012-12-21 2016-11-02 Reald Inc Superlens component for directional display
JP5832990B2 (en) * 2012-12-25 2015-12-16 株式会社東芝 Image display system
TWI622811B (en) 2013-02-22 2018-05-01 瑞爾D斯帕克有限責任公司 Directional backlight
WO2014204950A1 (en) 2013-06-17 2014-12-24 Reald Inc. Controlling light sources of a directional backlight
KR102366346B1 (en) 2013-10-14 2022-02-23 리얼디 스파크, 엘엘씨 Light input for directional backlight
WO2015057625A1 (en) 2013-10-14 2015-04-23 Reald Inc. Control of directional display
CN103581657B (en) * 2013-11-01 2017-01-04 深圳超多维光电子有限公司 The method and apparatus that a kind of 2D/3D shows
WO2015073438A1 (en) 2013-11-15 2015-05-21 Reald Inc. Directional backlights with light emitting element packages
JP2014123130A (en) * 2013-12-27 2014-07-03 Japan Display Inc Display device and electronic apparatus
US11067736B2 (en) 2014-06-26 2021-07-20 Reald Spark, Llc Directional privacy display
US9835792B2 (en) 2014-10-08 2017-12-05 Reald Spark, Llc Directional backlight
US10356383B2 (en) 2014-12-24 2019-07-16 Reald Spark, Llc Adjustment of perceived roundness in stereoscopic image of a head
US10359560B2 (en) 2015-04-13 2019-07-23 Reald Spark, Llc Wide angle imaging directional backlights
EP3304188B1 (en) 2015-05-27 2020-10-07 RealD Spark, LLC Wide angle imaging directional backlights
EP3369034B1 (en) 2015-10-26 2023-07-05 RealD Spark, LLC Intelligent privacy system, apparatus, and method thereof
US10459321B2 (en) 2015-11-10 2019-10-29 Reald Inc. Distortion matching polarization conversion systems and methods thereof
EP3374692B1 (en) 2015-11-13 2021-02-24 RealD Spark, LLC Wide angle imaging directional backlights
EP3374822B1 (en) 2015-11-13 2023-12-27 RealD Spark, LLC Surface features for imaging directional backlights
EP3400706B1 (en) 2016-01-05 2022-04-13 RealD Spark, LLC Gaze correction of multi-view images
WO2018208619A1 (en) 2017-05-08 2018-11-15 Reald Spark, Llc Optical stack for directional display
US10126575B1 (en) 2017-05-08 2018-11-13 Reald Spark, Llc Optical stack for privacy display
US10303030B2 (en) 2017-05-08 2019-05-28 Reald Spark, Llc Reflective optical stack for privacy display
JP6866783B2 (en) 2017-06-22 2021-04-28 いすゞ自動車株式会社 Exhaust gas recirculation device
CN109427303B (en) * 2017-08-21 2021-01-26 京东方科技集团股份有限公司 Display panel, manufacturing method thereof, display method and display device
TW201921060A (en) 2017-09-15 2019-06-01 美商瑞爾D斯帕克有限責任公司 Optical stack for switchable directional display
KR20200122326A (en) 2018-01-25 2020-10-27 리얼디 스파크, 엘엘씨 Reflective optical stack for privacy display
CN108957770A (en) * 2018-09-25 2018-12-07 张家港康得新光电材料有限公司 A kind of optics module and display device that 2D-3D is changeable
US11821602B2 (en) 2020-09-16 2023-11-21 Reald Spark, Llc Vehicle external illumination device
US11966049B2 (en) 2022-08-02 2024-04-23 Reald Spark, Llc Pupil tracking near-eye display

Also Published As

Publication number Publication date
JP2002049004A (en) 2002-02-15

Similar Documents

Publication Publication Date Title
JP3554257B2 (en) Display control device and method
US9204140B2 (en) Display device and display method
US7719621B2 (en) Image display device and method having image control unit preventing light source unit from outputting an image when observer is outside of predefined normal viewing area
JP5306275B2 (en) Display device and stereoscopic image display method
US9432657B2 (en) Naked-eye stereoscopic display apparatus, viewpoint adjustment method, and naked-eye stereoscopic vision-ready video data generation method
JP3443271B2 (en) 3D image display device
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
CN110012286A (en) A kind of human eye tracking 3 d display device of high viewpoint density
JP4819114B2 (en) Stereoscopic image display device
CN102970559A (en) Stereoscopic image display apparatus
JP5439686B2 (en) Stereoscopic image display apparatus and stereoscopic image display method
CN109521576A (en) A kind of stereo projection apparatus
US20080158671A1 (en) Three-Dimensional Image Display Apparatus Using Flat Panel Display
JP3583936B2 (en) 3D image display without glasses
JP2007199295A (en) Display
JPH08327948A (en) Method and device for displaying stereoscopic picture
KR20050076946A (en) Display apparatus and method of three dimensional image
JP2004282217A (en) Multiple-lens stereoscopic video image display apparatus
JP2010231192A (en) Stereoscopic imaging apparatus
JP2001218231A (en) Device and method for displaying stereoscopic image
JP4475201B2 (en) Stereoscopic image display device and stereoscopic image display device system
JP2000209615A (en) Stereoscopic video image display device without eyeglass
JP2004258594A (en) Three-dimensional image display device realizing appreciation from wide angle
KR100763398B1 (en) Method for displaying 3d image using mobile image display device
WO2012165132A1 (en) Autostereoscopic display device, viewpoint adjustment method, and method for generating autostereoscopically viewed video data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040506

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees