JP3554257B2 - Display control device and method - Google Patents
Display control device and method Download PDFInfo
- Publication number
- JP3554257B2 JP3554257B2 JP2000231913A JP2000231913A JP3554257B2 JP 3554257 B2 JP3554257 B2 JP 3554257B2 JP 2000231913 A JP2000231913 A JP 2000231913A JP 2000231913 A JP2000231913 A JP 2000231913A JP 3554257 B2 JP3554257 B2 JP 3554257B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- dimensional
- viewpoint
- display control
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、右眼と左眼の視差を利用してユーザに立体像を観察させる表示装置の表示制御装置及びその方法に関する。特に、通常の2次元画像と3次元画像とを切換えて表示することができる、或いは2次元画像と3次元画像とを混在させて表示することができる表示装置の表示制御装置と方法に関する。
【0002】
【従来の技術】
従来より、2次元表示と3次元表示の切り換えや混在表示を行うことが可能な3次元表示装置が提案されている。ディスプレイ上に立体視表示を行う方式としては、パララックス・バリヤを用いた立体画像表示方式(以下、パララックス・バリヤ方式と呼ぶ)やレンチキュラ方式が広く知られている。
【0003】
パララックス・バリヤ方式については、S.H.Kaplan,“Theory of Parallax Barriers”,J.SMPTE,Vol.59,No.7,pp.11−21(1952)に開示されており、この方式によれば、複数視点からの複数の視差画像のうちの、少なくとも左右視差画像を交互に配列されたストライプ画像を、この画像から所定の距離だけ離れた位置に設けられた所定の開口部を有するスリット(パララックス・バリヤと呼ばれる)を介して、左右それぞれの眼でそれぞれの眼に対応した視差画像を観察することにより立体視を行うことができる。
【0004】
一方、レンチキュラ方式も右眼と左眼の両眼視差を用いて立体画像を表示するものであり、ディスプレイの前面にかまぼこ状のレンズを多数ならべたレンチキュラを設け、空間的に左右の眼に入る画像を分離して、ユーザに立体像を観察させるものである。
【0005】
しかしながら、これらの方式では、観察者が立体視できる範囲が両眼中心距離約65mmの幅でしかない。そのため、観察者は頭の位置を固定するようにして観察する必要があり、非常に使いづらいという問題があった。
【0006】
このような問題に対処すべく、特開平2−44995号では、観察者の両眼の位置を検出して、レンチキュラレンズを水平方向に可動に支持して表示素子との左右方向の相対位置を移動制御することで、立体視領域を広げる方式が提案されている。また、特開平2−50145号では、観察者の両眼位置を検出して画像の表示を観察者位置に応じて入れ換えて、立体視領域を広くする方式が提案されている。更に特開平10−232367号では、観察者と立体画像表示装置との距離の変化によるクロストークの発生を防止する立体画像表示装置が提案されている。
【0007】
【発明が解決しようとする課題】
しかしながら、上述の視点追従を行ういずれの方式においても、視点の移動量は常に表示画面に固定された座標系によって算出され、表示画面全体に3次元画像が表示されている場合しか考慮されていない。例えば、表示画面中を任意に移動可能なウインドウ内に3次元が像を表示し、このウインドウを移動すると、相対的に視点が移動することになるものの、そのような場合についての考慮はなされていない。
【0008】
すなわち、表示画面中の任意の位置に開かれたウインドウの中に3次元画像が表示されている場合の視点追従については何等考慮されていない。また、一画面中に一つまたは複数のウインドウが表示され、この一つ又は複数のウインドウの夫々に3次元表示がなされているような場合に、どのように視点追従を制御するかについての考慮はなされていない。
【0009】
本発明は上記の問題に鑑みてなされたものであり、表示画面中の任意の位置に任意のサイズで表示することが可能なウインドウ内に3次元画像を表示する場合に、適切に視点追従制御を行うことを可能とすることを目的とする。
【0010】
【課題を解決するための手段】
上記の目的を達成するための本発明による表示制御装置は例えば以下の構成を備える。すなわち、
視差画像を左右の夫々の眼によって観察させるための光指向性を生成して3次元画像を観察可能とする表示制御装置であって、
観察者の視点位置を検出する検出手段と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得手段と、
前記検出手段で検出された視点位置と前記取得手段で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御手段とを備える。
【0011】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
【0012】
<第1の実施形態>
図1は、第1の実施形態による立体画像表示装置の概略構成を示す図である。図1において、101はCRT等の自発光型表示素子であり、その表面には発光部102と非発光部103を有する市松状の発光パターン104が表示される。105はレンチキュラレンズであり、発光部102よりの射出光に指向性を与える。レンチキュラレンズ105は透明樹脂又はガラス製のシリンドリカルレンズアレイであり、垂直方向に長い縦シリンドリカルレンズを左右方向に並べて構成されている。106はディスプレイデバイスであり、本例では2枚のガラス基板の間に表示画素部(表示面)を形成した透過型の液晶素子を用いる。
【0013】
なお、自発光型表示素子101とディスプレイデバイス106とは1画素毎又は1走査線毎に同期して発光パターン及びストライプ画像を表示することが望ましい。
【0014】
110はディスプレイ駆動回路、112は観察者113の位置を検知する位置センサ、111は制御ユニットである。位置センサ112は、観察者の水平方向の位置と光軸方向(前後方向)の位置を検知する。また、制御ユニット111は自発光型表示素子101の発光パターンの制御も行う。なお、位置センサ112が観察者113の光軸方向の位置を検知する方法としては、周知の、銀塩カメラやビデオカメラ等で用いられているオートフォーカスの手法を適用することができる。
【0015】
図2は第1の実施形態による立体画像表示装置の立体観察を説明する図である。図は水平の断面図であり、図1中の線A−Aを含む水平面に沿った断面図が(A)に、図1中の線B−Bを含む水平面に沿った断面図が(B)にそれぞれ示されている。
【0016】
制御ユニット111は右目用の視差画像と左目用の視差画像を入力し、入力された2つの視差画像をそれぞれ多数の横ストライプ状のストライプ画像RiとLiに分割し、図1に示すように画面上端から1走査線毎にR1L2R3L4R5L6…と交互に並べて1枚の横ストライプ画像を合成する。このように合成された横ストライプ画像はディスプレイ駆動回路110に入力され、図1に示す如く表示される。
【0017】
このとき、R1、R3…に表示された右視差画像のストライプ(Ri)は、本立体画像表示装置の光指向性により図2の(A)に示すごとく観察者の右眼に到達する。すなわち、市松パターン104の発光部102から射出された光は、レンチキュラレンズ105のシリンドリカルレンズにより観察者の右眼ERに向かうように指向性が与えられる。この右眼ERに向かう光束は、レンチキュラレンズ3と観察者との間に設けられたディスプレイデバイス106に表示された横長のストライプ画像(ここでは画像Ri)で変調されて右眼ERに入射する。
【0018】
同様に、L2、L4…に表示された左視差画像のストライプ(Li)は、本立体画像表示装置の光指向性により図2の(B)に示すごとく観察者の左眼ELに到達する。
【0019】
こうして観察者は、左右の眼のそれぞれで対応する視差画像を観察することになり、立体視が可能となる。
【0020】
図3は第1の実施形態による立体表示システムの構成を示すブロック図である。図3において300はホストコンピュータであり、2次元画像と3次元画像の取り扱いが可能である。ホストコンピュータ300において、301はCPUでありメモリ302に格納された制御プログラムに従って各種処理を実行する。ホストコンピュータ300は、描画用のデータがアップデートされる毎にデバイスドライバ310への信号を更新する。なおメモリ302は、ROMやRAM、あるいは磁気ディスクドライバを含む。
【0021】
310は本実施形態の立体ディスプレイの描画全体を制御するディスプレイドライバであり、図1の制御ユニット111に相当する。311はオブジェクト解析部であり、描画用のデータの種類を判別・解析する。312はシステムコントローラであり、各種制御の中枢を担う。システムコントローラ312は、CPUやメモリを備え、以下に説明する視点追従制御等の各種処理を実行する。313は2D3D描画部であり、立体ディスプレイ上に実際に描画されるデータ、即ち従来より取り扱われてきた2次元画像やストライプ合成された3次元画像を描画制御する。
【0022】
314は切換駆動部であり、3次元表示と2次元表示を切換えるために上述の自発光型表示素子101を制御する。すなわち、図1に示すように市松状のパターン104を表示すれば3次元表示が可能となり、全面を発光状態とすれば通常のバックライトとなり、2次元表示が可能となる。315は追従制御部であり、視点検出部320から入力される視点位置に基づいて市松状パターン104を変更し、検出された視点位置で正しく立体視が行えるようにする。この視点追従制御については、詳細を後述する。
【0023】
視点検出部320は、位置センサ112を含み、観察者113の視点位置を検出して、その情報をデバイスドライバ310に出力する。
【0024】
立体ディスプレイ330は、2D3D描画部313より出力された描画データに従って、2次元画像や3次元画像をディスプレイデバイス106上に表示する。なお、本例では、表示部330が、ディスプレイ駆動回路110とディスプレイデバイス106を含むものとする。
【0025】
2D3D切換部332は切換駆動部314からの信号に応じて自発光型表示素子101の市松状パターン104の表示のオンオフを行う。また、視点追従部333は、追従制御部315の信号に応じて、市松状パターン104の表示位置制御や、発光部及び非発光部の表示ピッチの制御を行う。
【0026】
なお、デバイスドライバ310は、ホストコンピュータ300の外部装置として接続されてもよいし、ホストコンピュータ300内のスロットルに実装されてもよい。また、ホストコンピュータの一つのソフトウェア或いはソフトウェアと電子回路が混在する構成として実装されてもよい。即ち、ホストコンピュータ300はCPU301と、添付のフローチャートを参照して説明する処理手順を実現する制御プログラムを格納したメモリ302を備え、ディスプレイドライバ310が実現する各種機能をホストコンピュータ300のCPU301が実現するようにしてもよい。
【0027】
以上の様な構造による立体画像表示装置における、本実施形態の視点追従制御について、以下に説明する。本実施形態によれば、観察者の水平方向の位置ずれに起因するクロストークの補正は、自発光型表示素子101の表示面上に形成される市松状パターン104の移動によりなされる。また、観察者とディスプレイデバイスの距離が変化することにより発生するクロストークは、自発光型表示素子101乗の市松状パターン104における発光部と非発光部のピッチを変更することによりなされる。
【0028】
図4は本実施形態による光学系の諸元を説明する図である。図4においては、ディスプレイデバイス106の右ストライプ画素を表示する水平方向の1ラインと、レンチキュラレンズ105と、市松状パターン104を表示する自発光型表示素子101の画面が簡略的に示されている。
【0029】
市松状パターン104の表示画面とレンチキュラレンズ105との換算距離(ガラスなどの部材の厚みを空気換算して求めた距離)をt1、レンチキュラレンズ105とディスプレイデバイス106との換算距離をt2、ディスプレイデバイス106と観察者との換算距離をL0とし、レンチキュラレンズ105のピッチをP1、市松状パターンの発光部・非発光部のピッチをPmとすると、三角形の相似条件より本実施形態の光学系は以下の式を満足する。
【0030】
【数1】
【0031】
更に、観察者の右眼がディスプレイデバイス106の中心C0から水平方向にxずれた位置にある場合、画像表示面中央のレンチキュラレンズの光軸に対して市松状パターン104の対応する発光部102の中心Dがその基準位置D0から水平方向に以下のd0だけずらすことにより、適切な立体視が行える。
【0032】
【数2】
【0033】
なお、本実施形態では、以上の様な視点位置に対応した光指向性の制御を視点追従制御と称する。
【0034】
図5は、本実施形態による視点追従制御を説明するフローチャートである。本処理は、デバイスドライバ310内のシステムコントローラ312に実装された不図示のCPUが、不図示のメモリに格納された制御プログラムを実行することにより実現されるものとする。
【0035】
まずステップS101において、基準位置X0を決定する。この基準位置X0とは、視点検出部320によって検出された視点位置とのずれ量xを求めるための基準となる位置である。以下、ステップS101による処理について図6を参照して説明する。
【0036】
図6は、本実施形態による基準位置X0の決定処理を説明するフローチャートである。ステップS201では、3次元画像表示を行うウインドウ(以下、3次元表示ウインドウ)を抽出する。図7は本実施形態による3次元表示ウインドウの表示状態を説明する図である。図7において、ウインドウ33a、33b、33cはそれぞれ3次元画像を表示するウインドウである。なお、各ウインドウが3次元表示を行うか否かは、ウインドウ内に表示される画像ファイルを調べることにより(例えば拡張子等を参照する)判断することができる。ステップS201では、これらウインドウ33a、33b、33cが抽出されることになる。
【0037】
ステップS202では、ステップS201で抽出されたウインドウに関して重心位置を算出する。そして、算出された重心位置に対して視点検出部320で検出された視点位置が追従範囲にあるか否かを判断し、追従範囲内にあればステップS208へ進み、その重心位置を基準位置X0に決定する。
【0038】
以上の処理により、複数の3次元表示ウインドウが表示されている場合には、それらの重心位置が基準位置X0に設定されることになる。なお、図8に示すように、3次元表示用ウインドウが1つだけ表示されているような場合は、ステップS202で算出される重心位置がその3次元表示用ウインドウの中心と一致することになる。また、アクティブな3次元表示用ウインドウにおいてのみ3次元表示を行い、非アクティブな3次元表示用ウインドウにおいては2次元表示が行われるような場合は、アクティブな3次元表示用ウインドウの中心を基準位置X0とするようにしてもよい(この場合、ステップS201で3次元表示を実行している3次元表示ウインドウを抽出するようにすればよい)。
【0039】
一方、ステップS203において、算出された重心位置と検出された視点位置との関係により、視点位置が追従範囲にないと判定された場合は、ステップS204へ進み、3次元表示ウインドウの表示内容を2次元表示とする。このとき、2次元表示が行われている旨を明示するように、ウインドウ枠等を変化させてもよい。なお、このとき、自発光型表示素子101の表示を市松パターンから全面発光状態に切換て、2次元表示装置として動作するようにしてもよい。そして、ステップS205、S206において、視点位置が追従範囲内に戻るのを監視する。視点位置が追従範囲内に戻った場合は、ステップS207において、ステップS204で2次元表示に変更したウインドウを3次元表示に戻す。その後、ステップS201へ戻り、上述のようにして基準位置X0を決定する。
【0040】
なお、ステップS205における視点位置が追従範囲には行ったか否かの判定は例えば次のように行える。すなわち、ステップS204で2次元表示に変更したウインドウによる重心位置と視点位置の相対位置関係を監視する。ここで、ウインドウの重心位置は、ドラッグ操作によるウインドウの移動により変化する可能性があるので、少なくとも該当するウインドウに対するドラッグ操作が行われた場合には重心位置を計算しなおす。このようにして、視点位置の移動及び/或いはウインドウの移動によって視点位置が追従範囲に入ったならば、ステップS206からステップS207へ処理を進めることになる。
【0041】
再び図5に戻り、ステップS102において観察者の視点位置とディスプレイとの距離L0を取得する。また、ステップS103では、ステップS101で決定された基準位置X0からの視点位置の水平方向のずれ量xを算出する。
【0042】
ステップS104では、観察者の光軸方向の移動により生じるクロストークの補正を行う。すなわち、ステップS102で得られた距離L0を用いて自発光型表示素子101上の市松状パターン104の水平方向のピッチPmを上述の式(1)によって計算しなおし、そのピッチPmによって自発光型表示素子101上の市松上パターン表示を行う。
【0043】
続いて、ステップS105以降において、ステップS103で算出されたずれ量xを用いて水平方向の位置ずれに起因するクロストークの補正を行う。
【0044】
まず、ステップS105において、水平方向のずれ量xを予め設定されている基準の眼間距離E(たとえば65mm)で除算し、整数である商Nと、その絶対値がE以下である余りsを得る。すなわち、x、E、N、sは、
x=N・E+s (ただし、Nは整数、|s|<E)
なる関係を有する。
【0045】
ステップS106では、ステップS105で得られたNが奇数か偶数かを判断し、偶数ならばステップS107へ、奇数ならばステップS108へそれぞれ進む。ステップS107において、デバイスドライバ310は、第1の横ストライプ画像をディスプレイデバイス106に表示し、ステップS108においてデバイスドライバ310は第2の横ストライプ画像をディスプレイデバイス106に表示する。第1と第2の横ストライプ画像の関係は、図1において左目用のストライプ画像と右目用ストライプ画像の表示位置を入れ換えた関係にあり、左右の眼の夫々に左右の視差画像が正しく観察されるようにする。
【0046】
ステップS109では、sの絶対値が予め定められた値、例えばE/10より大きいか小さいかを判別する。もし、小さければステップS110へ進み、発光パターンを基準位置に戻す。また、sがE/10よりも大きければ、ステップS111へ進み、発光パターンを基準位置より、数式(2)で与えられる分移動する。すなわち、
s・t1/(L0+t2)
だけ移動する。なお、本実施形態はE/10をしきい値としたが、このしきい値は左右像の光学的分離状況等を加味して決定される。
【0047】
以上のように第1の実施形態によれば、任意の位置に表示された3次元表示ウインドウに関して、適切な視点追従制御を行うことが可能となる。また、複数の3次元表示ウインドウが表示されていても、それらのウインドウに関して適切な視点追従制御を行うことが可能となる。
【0048】
なお、上記実施形態では、3次元表示ウインドウについて算出された重心位置に対して視点位置が視点追従範囲外となった場合に、3次元表示ウインドウを2次元表示として、視点位置が追従範囲に戻るの待つが、これに限らない。例えば複数の3次元表示ウインドウのうち、検出された視点位置から遠いものから順に一つずつ2次元表示し、重心計算の対象から外すようにしてもよい。このようにすれば、例えば図7のような表示において、ウインドウ33a、33b、33cの重心位置を用いると視点位置が追従範囲を越える場合に、例えばウインドウ33cを2次元表示として、ウインドウ33aと33bの重心位置と視点位置の関係を調べ、視点位置が追従範囲に入った場合は、その重心位置を基準位置とするようにしてもよい。
【0049】
なお、本実施形態では、視点追従制御において光指向性の制御を行うが、これに加えて運動視差制御を行うようにしてもよい。運動視差とは、検出された視点位置に応じて、徐々に物体の側面が見えてくるといったように、物体の表示状態を変えていくものである。この場合、検出された視点位置のずれ量に応じて立体像を更新していくので、図5、図6のフローチャートで説明した手法によって検出された視点位置のずれ量xに基づいて立体像の更新、描画を行う。
【0050】
この結果、以下の運動視差制御を実現できる。
(1)観察者の移動にともなってウインドウの立体像が更新、描画される。
(2)ウインドウの移動(ドラッグ)に伴って、ウインドウの立体像が更新、描画される。
【0051】
なお、例えばウインドウの移動中には2次元の運動視差画像を表示するようにしてもよい。この場合、ウインドウの移動終了後には、3次元表示に戻すことになる。
【0052】
また、上記実施形態の光学系は、図13に示すように、特開平10−78563号等に開示されているような、シリンドリカルレンズを水平方向に並べたレンチキュラ1301を用いた構成でもよい。
【0053】
<第2の実施形態>
上記第1の実施形態では、自発光型表示素子101に市松状パターン104を表示して立体視を可能とした。本実施形態では、市松状に光透過部と非透過部を設けたマスクパターンを用いる場合を説明する。
【0054】
図9は第2の実施形態による立体表示装置の構成を示す図である。同図において、第1の実施形態(図1)と同様の構成には同一の参照番号を付してある。
【0055】
図9において、901はバックライト光源(面光源)であり、902は市松状の開口部903と遮光部904を有するマスク基板である。第2の実施形態では、第1の実施形態における市松状パターン104を表示した自発光型表示素子101とを、バックライト光源901とマスク基板902で置き換えた構成となっている。また、910は、アクチュエータであり、マスク基板902を水平方向に移動する。第1の実施形態では、マスクパターン104の表示を移動することにより水平方向の補正を行ったが、第2の実施形態では、マスク基板902をアクチュエータ910によって移動することにより水平方向の視点追従を行う。
【0056】
以上のように、第2の実施形態では、視点追従制御を行うに際して、マスク基板902の移動という機械的な動作が必要となる。このような移動を視点追従のための動作を行っている最中は、光指向性が刻々と変化し、観察者にとって見苦しいものとなってしまう。第2の実施形態では、このような問題に対処する。
【0057】
図10は第2の実施形態による視点追従制御を説明するフローチャートである。図10において、ステップS101、S103、S105〜S109は上述の第1の実施形態(図5)と同様の処理である。ただし、マスク基板902では、開口部と遮光部のピッチPmを変更することが容易ではないので、第2の実施形態では光軸方向の観察者の移動に対するクロストークの補正は実行しないものとする(すなわち、ステップS102とS104は省略される)。
【0058】
ステップS109において、s≦E/10の場合は、ステップS301へ進み、マスク基板902を基準位置へ移動する。また、s>E/10となった場合はステップS302へ進み、数式(2)で与えられる分移動する。すなわち、
s・t1/(L0+t2)
だけ移動する。
【0059】
その後、ステップS303へ進み、マスク基板902が上記ステップS301及びS302によって移動中か否かを判断し、移動中であればステップS304で遅延処理を行う。遅延処理としては、
(1)マスク基板902の移動中はディスプレイデバイス106上に何も表示しない。
(2)マスク基板902の移動中は、3次元ウインドウ内の表示を禁止する。
(3)マスク基板902の移動中は、ディスプレイデバイス106上の表示を全て2次元表示とすること等が挙げられる。
【0060】
また、図6のフローチャートで説明した処理により、観察者が追従範囲外に出てしまった場合は、
(1)3次元表示ウインドウの表示を2次元表示とし、2次元表示であることを明示するウインドウ枠に変更する。
(2)視点位置が追従範囲に戻るまで視点追従制御を中止する。
という処理が行われることになる。
【0061】
また、第2の実施形態において、ウインドウのドラッグ操作による移動速度が、視点追従制御の追従速度を越えた場合に、すべての3次元表示ウインドウを2次元表示とするように制御してもよい。
【0062】
なお、図9に示した構成において、光の拡散状態と透過状態の2状態の制御ができる、高分子分散型液晶で構成された光指向制御素子(PDLC)等をディスプレイデバイス106とレンチキュラレンズ105の間、或いはレンチキュラレンズ105とマスク基板902の間に設けて、2次元表示と3次元表示の切り換えを行えるようにしてもよい。すなわち、PDLCを拡散状態として光指向性を打ち消すことにより2次元表示装置となり、透過状態とすることにより3次元表示装置となる。なお、PDLCの代わりに拡散シートの挿入状態と非挿入状態を切換えるようにしてもよい。
【0063】
また、上記のように2次元表示と3次元表示の切換を行える装置において、2次元表示状態となっている場合、マスク基板902の移動は表示状態に影響を及ぼさない。従って、2次元表示となっている間は、3次元表示状態に切り換わったときにマスク基板の追従遅れが少なくなるような位置にマスク基板902を移動しておく(以下、マスク基板のバックグランド処理という)ようにしてもよい。以下、この処理を説明する。
【0064】
図11は第2の実施形態によるマスク基板902のバックグランド処理について説明するフローチャートである。図11に示されるフローチャートは、図10のステップS103とステップS105の間に挿入される。
【0065】
まず、ステップS401において、当該表示装置が3次元表示状態にあるかどうかを判断する。すなわち、PDLCが透過状態にある場合、或いは拡散シートが挿入されていない場合は3次元表示状態であり、この場合はそのままステップS105へ進み、上述した視点追従制御を実行する。
【0066】
一方、PDLCが拡散状態にある場合、或いは拡散シートが挿入された状態にある場合は、2次元表示状態であり、処理はステップS402へ進む。ステップS402では、3次元表示ウインドウ(3次元表示される可能性のあるウインドウ)を抽出する。そして、ステップS403において、ステップS402で抽出されたウインドウの重心位置を求め、この重心位置と視点位置とに基づいてマスク基板を最適な位置に移動する。
【0067】
以上のように処理することにより、2次元表示状態から3次元表示状態に切り換わった際に、マスク基板902が既に適切な位置に移動しているので、スムースな表示切換が可能となる。
【0068】
なお、上記実施形態ではマスク基板902を移動したが、例えばレンチキュラレンズのような他の光学部材を移動するようにしてもよい。
【0069】
<第3の実施形態>
上述した第1の実施形態では、光軸方向の観察者の移動に対して、市松パターンのピッチPmを制御することで対応した。しかしながら、第2の実施形態のようなマスク基板を用いた場合は、市松パターンのピッチを変更することは困難であり、このため第2の実施形態では光軸方向の補正を行っていない。第3の実施形態では、市松パターンのピッチを制御せずに、3次元表示ウインドウの表示サイズを制御することにより、観察者の光軸方向の移動に対する画質の維持を行う。
【0070】
図12は第3の実施形態による3次元表示ウインドウのサイズ決定処理を説明するフローチャートである。なお、図12に示されるフローチャートは、図10に示されるフローチャートのステップS101とステップS103の間に挿入されるものとする。
【0071】
まず、ステップS501において、ディスプレイデバイス106と視点位置との距離L0を取得する。次に、ステップS502では、3次元表示ウインドウの幅に基づいて、立体視可能な距離範囲を算出する。ウインドウの幅と、立体視可能な距離範囲は、例えば文献「3D映像 Vol.7 No.2, 1993/March、4〜7ページ」に記載されている立体視領域に基づいて算出される。上述の文献では、レンチキュラ方式について言及しているが、他の直視型立体ディスプレイにも適用できる。設計上の立体視最適距離をD0、立体視できる最近距離をDF、立体視できる最遠距離をDS、ウインドウの横幅をA(mm)、眼間距離をK(通常65mm)、nを画像数とした場合に以下のように表わされる。
【0072】
【数3】
【0073】
ステップS503では、上記の式のAに処理対象の3次元表示ウインドウの幅を代入し、当該ウインドウの立体視可能範囲を求める。そして、この求まった立体視可能範囲に、ステップS501で得られた距離L0が入っているかを判断する。距離L0が立体視可能範囲に入らない場合は、この距離L0が立体視可能範囲に収まるように当該ウインドウの幅を変更する。以上の処理をすべての3次元表示ウインドウに対して行う(ステップS505)。
【0074】
以上のように、第3の実施形態によれば、ディスプレイデバイス106と視点位置との距離が、立体視可能となるように3次元表示ウインドウ幅が調整されるので、観察者は多様な視点位置で、高品位な立体視を行うことができる。
【0075】
なお、本実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0076】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本実施形態を構成することになる。
【0077】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0078】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0079】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0080】
【発明の効果】
以上説明したように、本発明によれば、表示画面中の任意の位置に任意のサイズで表示することが可能なウインドウ内に3次元画像を表示する場合に、適切な視点追従制御を行うことが可能となる。
【図面の簡単な説明】
【図1】第1の実施形態による立体画像表示装置の概略構成を示す図である。
【図2】第1の実施形態による立体画像表示装置の立体観察を説明する図である。
【図3】第1の実施形態による立体表示システムの構成を示すブロック図である。
【図4】本実施形態による光学系の諸元を説明する図である。
【図5】本実施形態による視点追従制御を説明するフローチャートである。
【図6】本実施形態による基準位置X0の決定処理を説明するフローチャートである。
【図7】本実施形態による3次元表示ウインドウの表示状態を説明する図である。
【図8】本実施形態による3次元表示ウインドウの表示状態を説明する図である。
【図9】第2の実施形態による立体表示装置の構成を示す図である。
【図10】第2の実施形態による視点追従制御を説明するフローチャートである。
【図11】第2の実施形態によるマスク基板902のバックグランド処理について説明するフローチャートである。
【図12】第3の実施形態による3次元表示ウインドウのサイズ決定処理を説明するフローチャートである。
【図13】水平方向にシリンドリカルレンズを配置したレンチキュラを用いた光学系を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display control apparatus and a display control method for a display apparatus that allows a user to observe a stereoscopic image using parallax between a right eye and a left eye. In particular, the present invention relates to a display control device and a display control method for a display device capable of switching between a normal two-dimensional image and a three-dimensional image for display, or capable of displaying a two-dimensional image and a three-dimensional image in a mixed manner.
[0002]
[Prior art]
Conventionally, a three-dimensional display device capable of switching between two-dimensional display and three-dimensional display and performing mixed display has been proposed. As a method of performing stereoscopic display on a display, a stereoscopic image display method using a parallax barrier (hereinafter, referred to as a parallax barrier method) and a lenticular method are widely known.
[0003]
For the parallax barrier method, see S.M. H. Kaplan, "Theory of Parallax Barriers", J. Amer. SMPTE, Vol. 59, no. 7, pp. According to this method, a stripe image in which at least left and right parallax images are alternately arranged among a plurality of parallax images from a plurality of viewpoints is provided at a predetermined distance from the image. Performing stereoscopic viewing by observing a parallax image corresponding to each eye with left and right eyes through a slit having a predetermined opening provided at a position only apart (called a parallax barrier) Can be.
[0004]
On the other hand, the lenticular method also displays a stereoscopic image using the binocular parallax of the right eye and the left eye, and a lenticular with a large number of semi-cylindrical lenses is provided on the front of the display and spatially enters the left and right eyes The image is separated so that the user can observe a stereoscopic image.
[0005]
However, in these systems, the range in which the observer can view stereoscopically is only a width of about 65 mm between both eyes. Therefore, it is necessary for the observer to observe while fixing the position of the head, and there is a problem that it is very difficult to use.
[0006]
In order to cope with such a problem, Japanese Patent Application Laid-Open No. 2-44995 discloses a method in which the positions of both eyes of an observer are detected, and a lenticular lens is movably supported in a horizontal direction to determine a relative position in a horizontal direction with respect to a display element. A method has been proposed in which the stereoscopic viewing area is expanded by controlling the movement. Further, Japanese Patent Application Laid-Open No. Hei 2-50145 proposes a method of detecting a position of both eyes of an observer and exchanging an image display according to the position of the observer to widen a stereoscopic viewing area. Further, Japanese Patent Application Laid-Open No. 10-232367 proposes a stereoscopic image display device that prevents the occurrence of crosstalk due to a change in the distance between an observer and the stereoscopic image display device.
[0007]
[Problems to be solved by the invention]
However, in any of the above-described methods of following the viewpoint, the amount of movement of the viewpoint is always calculated by a coordinate system fixed to the display screen, and only considers the case where a three-dimensional image is displayed on the entire display screen. . For example, a three-dimensional image is displayed in a window that can be moved arbitrarily in the display screen, and when this window is moved, the viewpoint relatively moves. However, such a case is taken into consideration. Absent.
[0008]
That is, no consideration is given to viewpoint tracking when a three-dimensional image is displayed in a window opened at an arbitrary position on the display screen. Further, when one or a plurality of windows are displayed on one screen, and three-dimensional display is performed on each of the one or a plurality of windows, consideration should be given to how to control viewpoint tracking. Has not been done.
[0009]
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problem, and has an advantage in that, when a three-dimensional image is displayed in a window that can be displayed at an arbitrary position in an arbitrary size on a display screen, viewpoint tracking control is appropriately performed. It is intended to be able to perform.
[0010]
[Means for Solving the Problems]
A display control device according to the present invention for achieving the above object has, for example, the following configuration. That is,
A display control device that generates a light directivity for allowing a parallax image to be observed by each of right and left eyes and enables a three-dimensional image to be observed,
Detecting means for detecting the viewpoint position of the observer;
Acquiring means for acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
And control means for controlling the state of generation of the light directivity so as to follow the viewpoint based on the viewpoint position detected by the detection means and the reference position acquired by the acquisition means.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0012]
<First embodiment>
FIG. 1 is a diagram illustrating a schematic configuration of the stereoscopic image display device according to the first embodiment. In FIG. 1,
[0013]
It is desirable that the self-
[0014]
110 is a display drive circuit, 112 is a position sensor for detecting the position of the
[0015]
FIG. 2 is a diagram illustrating stereoscopic observation of the stereoscopic image display device according to the first embodiment. The figure is a horizontal cross-sectional view, in which (A) is a cross-sectional view along a horizontal plane including line AA in FIG. 1 and (B) is a cross-sectional view along a horizontal plane including line BB in FIG. ).
[0016]
The
[0017]
At this time, R 1 , R 3 The stripe (R) of the right parallax image displayed in i 2) reaches the observer's right eye as shown in FIG. 2A due to the light directivity of the three-dimensional image display device. That is, the light emitted from the
[0018]
Similarly, L 2 , L 4 ... stripes of the left parallax image (L i ) Indicates the left eye E of the observer as shown in FIG. 2B due to the light directivity of the stereoscopic image display device. L To reach.
[0019]
In this way, the observer observes the corresponding parallax image with each of the left and right eyes, and stereoscopic vision becomes possible.
[0020]
FIG. 3 is a block diagram showing the configuration of the stereoscopic display system according to the first embodiment. In FIG. 3,
[0021]
[0022]
A switching
[0023]
The
[0024]
The
[0025]
The
[0026]
The
[0027]
The viewpoint tracking control of the present embodiment in the stereoscopic image display device having the above-described structure will be described below. According to the present embodiment, the correction of the crosstalk caused by the displacement of the observer in the horizontal direction is performed by moving the
[0028]
FIG. 4 is a diagram illustrating the specifications of the optical system according to the present embodiment. In FIG. 4, one horizontal line for displaying the right stripe pixels of the
[0029]
The converted distance between the display screen of the
[0030]
(Equation 1)
[0031]
Further, the right eye of the observer is positioned at the center C of the
[0032]
(Equation 2)
[0033]
In the present embodiment, the control of the light directivity corresponding to the viewpoint position as described above is referred to as viewpoint tracking control.
[0034]
FIG. 5 is a flowchart illustrating the viewpoint tracking control according to the present embodiment. This processing is realized by a CPU (not shown) mounted on the
[0035]
First, in step S101, the reference position X 0 To determine. This reference position X 0 Is a position serving as a reference for obtaining a shift amount x from the viewpoint position detected by the
[0036]
FIG. 6 shows a reference position X according to the present embodiment. 0 It is a flowchart for explaining the determination processing. In step S201, a window for displaying a three-dimensional image (hereinafter, a three-dimensional display window) is extracted. FIG. 7 is a diagram illustrating the display state of the three-dimensional display window according to the present embodiment. In FIG. 7,
[0037]
In step S202, the position of the center of gravity is calculated for the window extracted in step S201. Then, it is determined whether or not the viewpoint position detected by the
[0038]
When a plurality of three-dimensional display windows are displayed by the above processing, the position of their center of gravity is set to the reference position X. 0 Will be set to When only one three-dimensional display window is displayed as shown in FIG. 8, the position of the center of gravity calculated in step S202 matches the center of the three-dimensional display window. . In the case where three-dimensional display is performed only in the active three-dimensional display window and two-dimensional display is performed in the inactive three-dimensional display window, the center of the active three-dimensional display window is set at the reference position. X 0 (In this case, the three-dimensional display window executing the three-dimensional display in step S201 may be extracted).
[0039]
On the other hand, if it is determined in step S203 that the viewpoint position is not in the tracking range based on the relationship between the calculated center-of-gravity position and the detected viewpoint position, the process proceeds to step S204, and the display content of the three-dimensional display window is changed to two. Dimension display. At this time, the window frame or the like may be changed so as to clearly indicate that the two-dimensional display is being performed. At this time, the display of the self-
[0040]
The determination as to whether or not the viewpoint position has reached the tracking range in step S205 can be performed, for example, as follows. That is, the relative positional relationship between the position of the center of gravity and the viewpoint position in the window changed to the two-dimensional display in step S204 is monitored. Here, since the position of the center of gravity of the window may change due to the movement of the window by the drag operation, the position of the center of gravity is calculated again at least when the drag operation is performed on the corresponding window. In this way, if the viewpoint position has entered the following range due to the movement of the viewpoint position and / or the movement of the window, the process proceeds from step S206 to step S207.
[0041]
Returning to FIG. 5 again, in step S102, the distance L between the observer's viewpoint position and the display is displayed. 0 To get. Also, in step S103, the reference position X determined in step S101 0 Is calculated in the horizontal direction x of the viewpoint position from the camera.
[0042]
In step S104, crosstalk caused by movement of the observer in the optical axis direction is corrected. That is, the distance L obtained in step S102 0 Of the
[0043]
Subsequently, in and after step S105, the crosstalk due to the horizontal position shift is corrected using the shift amount x calculated in step S103.
[0044]
First, in step S105, the horizontal shift amount x is divided by a preset reference interocular distance E (for example, 65 mm), and a quotient N as an integer and a remainder s whose absolute value is equal to or less than E are calculated. obtain. That is, x, E, N, and s are:
x = NE * s (where N is an integer, | s | <E)
Have the relationship
[0045]
In step S106, it is determined whether N obtained in step S105 is odd or even. If it is even, the process proceeds to step S107, and if it is odd, the process proceeds to step S108. In step S107, the
[0046]
In step S109, it is determined whether the absolute value of s is larger or smaller than a predetermined value, for example, E / 10. If smaller, the process proceeds to step S110, and the light emission pattern is returned to the reference position. If s is greater than E / 10, the process proceeds to step S111, and the light emission pattern is moved from the reference position by the amount given by equation (2). That is,
st 1 / (L 0 + T 2 )
Just move. In the present embodiment, the threshold value is E / 10, but the threshold value is determined in consideration of the optical separation state of the left and right images.
[0047]
As described above, according to the first embodiment, it is possible to perform appropriate viewpoint tracking control for a three-dimensional display window displayed at an arbitrary position. Further, even if a plurality of three-dimensional display windows are displayed, it is possible to perform appropriate viewpoint tracking control on those windows.
[0048]
In the above embodiment, when the viewpoint position is outside the viewpoint tracking range with respect to the barycenter position calculated for the three-dimensional display window, the three-dimensional display window is set to two-dimensional display, and the viewpoint position returns to the tracking range. Wait, but not limited to this. For example, two or more three-dimensional display windows may be displayed two-dimensionally one by one in order from the one farthest from the detected viewpoint position, and may be excluded from the center of gravity calculation. In this way, for example, in the display as shown in FIG. 7, if the viewpoint position exceeds the tracking range by using the center of gravity of the
[0049]
In the present embodiment, the control of the light directivity is performed in the viewpoint tracking control. In addition, the motion parallax control may be performed. The motion parallax changes the display state of the object such that the side of the object gradually appears in accordance with the detected viewpoint position. In this case, since the stereoscopic image is updated in accordance with the detected shift amount of the viewpoint position, the stereoscopic image is updated based on the shift amount x of the viewpoint position detected by the method described in the flowcharts of FIGS. Update and draw.
[0050]
As a result, the following motion parallax control can be realized.
(1) The stereoscopic image of the window is updated and drawn as the observer moves.
(2) The three-dimensional image of the window is updated and drawn with the movement (drag) of the window.
[0051]
For example, a two-dimensional motion parallax image may be displayed while the window is moving. In this case, after the movement of the window is completed, the display is returned to the three-dimensional display.
[0052]
Further, as shown in FIG. 13, the optical system of the above embodiment may have a configuration using a lenticular 1301 in which cylindrical lenses are arranged in a horizontal direction, as disclosed in Japanese Patent Application Laid-Open No. 10-78563.
[0053]
<Second embodiment>
In the first embodiment, a
[0054]
FIG. 9 is a diagram illustrating a configuration of a stereoscopic display device according to the second embodiment. In the figure, the same components as those of the first embodiment (FIG. 1) are denoted by the same reference numerals.
[0055]
In FIG. 9,
[0056]
As described above, in the second embodiment, when performing the viewpoint tracking control, a mechanical operation of moving the
[0057]
FIG. 10 is a flowchart illustrating viewpoint tracking control according to the second embodiment. In FIG. 10, steps S101, S103, S105 to S109 are the same processes as in the above-described first embodiment (FIG. 5). However, in the
[0058]
If s ≦ E / 10 in step S109, the process advances to step S301 to move the
st 1 / (L 0 + T 2 )
Just move.
[0059]
Thereafter, the process proceeds to step S303, where it is determined whether the
(1) Nothing is displayed on the
(2) The display in the three-dimensional window is prohibited while the
(3) While the
[0060]
Also, if the observer goes out of the tracking range by the processing described in the flowchart of FIG.
(1) The display of the three-dimensional display window is changed to a two-dimensional display, and is changed to a window frame that clearly indicates that the display is a two-dimensional display.
(2) Stop the viewpoint tracking control until the viewpoint position returns to the tracking range.
Is performed.
[0061]
In the second embodiment, when the moving speed of the window by the drag operation exceeds the tracking speed of the viewpoint tracking control, all the three-dimensional display windows may be controlled to be two-dimensionally displayed.
[0062]
In the configuration shown in FIG. 9, a light directing control element (PDLC) or the like made of polymer dispersed liquid crystal, which can control two states of a light diffusion state and a transmission state, is provided with a
[0063]
In the device capable of switching between two-dimensional display and three-dimensional display as described above, when the two-dimensional display state is set, the movement of the
[0064]
FIG. 11 is a flowchart illustrating a background process of the
[0065]
First, in step S401, it is determined whether the display device is in a three-dimensional display state. That is, when the PDLC is in the transmission state or when the diffusion sheet is not inserted, the display is in the three-dimensional display state. In this case, the process directly proceeds to step S105, and the above-described viewpoint tracking control is executed.
[0066]
On the other hand, when the PDLC is in the diffusion state or when the diffusion sheet is inserted, the display is in the two-dimensional display state, and the process proceeds to step S402. In step S402, a three-dimensional display window (a window that may be three-dimensionally displayed) is extracted. Then, in step S403, the position of the center of gravity of the window extracted in step S402 is obtained, and the mask substrate is moved to an optimum position based on the position of the center of gravity and the viewpoint position.
[0067]
By performing the processing as described above, when switching from the two-dimensional display state to the three-dimensional display state, the
[0068]
In the above embodiment, the
[0069]
<Third embodiment>
In the first embodiment described above, the checkerboard pattern pitch P m Was controlled by controlling However, when the mask substrate as in the second embodiment is used, it is difficult to change the pitch of the checkered pattern, and therefore, in the second embodiment, the correction in the optical axis direction is not performed. In the third embodiment, the image quality is maintained with respect to the movement of the observer in the optical axis direction by controlling the display size of the three-dimensional display window without controlling the pitch of the checkerboard pattern.
[0070]
FIG. 12 is a flowchart illustrating a process for determining the size of a three-dimensional display window according to the third embodiment. Note that the flowchart shown in FIG. 12 is inserted between step S101 and step S103 of the flowchart shown in FIG.
[0071]
First, in step S501, the distance L between the
[0072]
(Equation 3)
[0073]
In step S503, the width of the three-dimensional display window to be processed is substituted for A in the above equation, and a stereoscopically viewable range of the window is obtained. Then, the distance L obtained in step S501 is set in the obtained stereoscopically viewable range. 0 Judge whether it is included. Distance L 0 Is not within the stereoscopically viewable range, the distance L 0 Is changed so that is within the stereoscopically viewable range. The above processing is performed on all three-dimensional display windows (step S505).
[0074]
As described above, according to the third embodiment, the three-dimensional display window width is adjusted so that the distance between the
[0075]
An object of the present embodiment is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiment to a system or an apparatus, and to store the storage medium in a computer (or CPU or MPU) of the system or the apparatus. It goes without saying that this is also achieved by reading and executing the program code stored in the medium.
[0076]
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present embodiment.
[0077]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.
[0078]
When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an OS (Operating System) running on the computer based on the instruction of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
[0079]
Further, after the program code read from the storage medium is written into a memory provided on a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0080]
【The invention's effect】
As described above, according to the present invention, when a three-dimensional image is displayed in a window that can be displayed at an arbitrary position in an arbitrary size on a display screen, appropriate viewpoint tracking control is performed. Becomes possible.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a schematic configuration of a stereoscopic image display device according to a first embodiment.
FIG. 2 is a diagram illustrating stereoscopic observation of the stereoscopic image display device according to the first embodiment.
FIG. 3 is a block diagram illustrating a configuration of a stereoscopic display system according to the first embodiment.
FIG. 4 is a diagram illustrating specifications of the optical system according to the present embodiment.
FIG. 5 is a flowchart illustrating viewpoint tracking control according to the embodiment.
FIG. 6 shows a reference position X according to the embodiment. 0 It is a flowchart for explaining the determination processing.
FIG. 7 is a diagram illustrating a display state of a three-dimensional display window according to the embodiment.
FIG. 8 is a diagram illustrating a display state of a three-dimensional display window according to the embodiment.
FIG. 9 is a diagram illustrating a configuration of a stereoscopic display device according to a second embodiment.
FIG. 10 is a flowchart illustrating viewpoint tracking control according to a second embodiment.
FIG. 11 is a flowchart illustrating background processing of a
FIG. 12 is a flowchart illustrating a process for determining the size of a three-dimensional display window according to the third embodiment.
FIG. 13 is a diagram showing an optical system using a lenticular having cylindrical lenses arranged in a horizontal direction.
Claims (35)
観察者の視点位置を検出する検出手段と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得手段と、
前記検出手段で検出された視点位置と前記取得手段で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御手段と
を備えることを特徴とする表示制御装置。A display control device that generates a light directivity for allowing a parallax image to be observed by each of right and left eyes and enables a three-dimensional image to be observed,
Detecting means for detecting the viewpoint position of the observer;
Acquiring means for acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
Display control means for controlling the state of generation of the light directivity so as to perform viewpoint tracking based on the viewpoint position detected by the detection means and the reference position acquired by the acquisition means. apparatus.
ことを特徴とする請求項1に記載の表示制御装置。The display control device according to claim 1, wherein the acquisition unit acquires a center position of an active three-dimensional display window as a reference position.
ことを特徴とする請求項1に記載の表示制御装置。The display control device according to claim 1, wherein the acquisition unit calculates a position of a center of gravity of the three-dimensional display window being displayed, and uses the calculated position as a reference position.
ことを特徴とする請求項1に記載の表示制御装置。2. The display control device according to claim 1, further comprising a display change unit configured to display all display contents in a two-dimensional manner when the viewpoint position with respect to the reference position is out of a tracking range.
ことを特徴とする請求項4に記載の表示制御装置。5. The three-dimensional display window is returned from the two-dimensional display to the three-dimensional display when the viewpoint position falls within the following range in a state where the two-dimensional display is performed by the display changing unit. Display control device.
ことを特徴とする請求項1に記載の表示制御装置。The display control device according to claim 1, further comprising: a unit configured to execute a motion parallax display based on the reference position acquired by the acquisition unit and a viewpoint position detected by the detection unit.
ことを特徴とする請求項3に記載の表示制御装置。4. The control unit according to claim 3, wherein when the viewpoint position with respect to the reference position goes out of a tracking range, the control unit changes the combination of three-dimensional display windows for which the center of gravity position is to be calculated, and attempts to follow the viewpoint. 3. The display control device according to 1.
前記距離に基づいて光指向性を制御する第2制御手段を更に備える
ことを特徴とする請求項1に記載の表示制御装置。The detecting means further detects a distance between the viewpoint position and the image display surface,
The display control device according to claim 1, further comprising a second control unit that controls light directivity based on the distance.
ことを特徴とする請求項1に記載の表示制御装置。The display control device according to claim 1, wherein the control unit performs viewpoint tracking by controlling movement of an optical member.
ことを特徴とする請求項9に記載の表示制御装置。The display control device according to claim 9, wherein three-dimensional display is prohibited while the optical member is being moved to follow the viewpoint.
ことを特徴とする請求項9に記載の表示制御装置。The display control device according to claim 9, wherein display of an image on a display screen is prohibited while the optical member is being moved to follow the viewpoint.
前記切換手段によって2次元画像表示装置として機能している場合に、前記光学部材を待機位置へ移動する移動手段を更に備える
ことを特徴とする請求項9に記載の表示制御装置。Switching means for removing the light directivity and functioning as a two-dimensional image display device;
The display control device according to claim 9, further comprising a moving unit that moves the optical member to a standby position when the switching unit functions as a two-dimensional image display device.
ことを特徴とする請求項12に記載の表示制御装置。13. The display control device according to claim 12, wherein the moving unit extracts windows capable of three-dimensional display, and determines the standby position based on the positions of the centers of gravity.
ことを特徴とする請求項9に記載の表示制御装置。The control means detects a moving speed of the three-dimensional window, and switches the three-dimensional window to a two-dimensional display when the moving speed exceeds a speed of tracking the viewpoint by the control means. The display control device according to claim 9.
前記距離に基づいて3次元ウインドウの表示幅を制限する
ことを特徴とする請求項9に記載の表示制御装置。The detecting means further detects a distance between the viewpoint position and the image display surface,
The display control device according to claim 9, wherein a display width of the three-dimensional window is limited based on the distance.
ことを特徴とする請求項15に記載の表示制御装置。16. The display control device according to claim 15, wherein the display width of the three-dimensional window is limited based on the distance and a distance between eyes of an observer.
ことを特徴とする請求項1に記載の表示制御装置。2. The display control device according to claim 1, further comprising: a means for displaying an object including the three-dimensional display window as a graphical user interface.
観察者の視点位置を検出する検出工程と、
表示中の3次元表示ウインドウの位置に基づいて視点追従のための基準位置を取得する取得工程と、
前記検出工程で検出された視点位置と前記取得工程で取得した基準位置とに基づいて、視点追従を行うべく前記光指向性の生成状態を制御する制御工程と
を備えることを特徴とする表示制御方法。A control method of a display control device that generates a light directivity for allowing a parallax image to be observed by right and left eyes and enables a three-dimensional image to be observed,
A detection step of detecting a viewpoint position of the observer;
An acquisition step of acquiring a reference position for viewpoint tracking based on the position of the three-dimensional display window being displayed;
A display control step of: controlling a generation state of the light directivity so as to perform viewpoint tracking based on the viewpoint position detected in the detection step and the reference position acquired in the acquisition step. Method.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, wherein the acquiring step acquires the center position of an active three-dimensional display window as a reference position.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, wherein in the acquiring step, the position of the center of gravity of the three-dimensional display window being displayed is calculated and used as a reference position.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, further comprising a display changing step of, when the viewpoint position with respect to the reference position goes out of the tracking range, changing the display contents to two-dimensional display.
ことを特徴とする請求項21に記載の表示制御方法。22. The three-dimensional display window is returned from the two-dimensional display to the three-dimensional display when the viewpoint position enters the tracking range in a state where the two-dimensional display is performed in the display changing step. Display control method.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, further comprising the step of executing a motion parallax display based on the reference position acquired in the acquiring step and the viewpoint position detected in the detecting step.
ことを特徴とする請求項20に記載の表示制御方法。21. The method according to claim 20, wherein in the control step, when the viewpoint position with respect to the reference position is out of a tracking range, a viewpoint tracking is attempted by changing a combination of three-dimensional display windows for which a center of gravity position is to be calculated. Display control method described in 1.
前記距離に基づいて光指向性を制御する第2制御工程を更に備える
ことを特徴とする請求項18に記載の表示制御方法。The detecting step further detects a distance between the viewpoint position and the image display surface,
19. The display control method according to claim 18, further comprising a second control step of controlling light directivity based on the distance.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, wherein the control step performs viewpoint tracking by controlling movement of an optical member.
ことを特徴とする請求項26に記載の表示制御方法。27. The display control method according to claim 26, wherein three-dimensional display is prohibited while the optical member is moving to follow the viewpoint.
ことを特徴とする請求項26に記載の表示制御方法。27. The display control method according to claim 26, wherein image display on a display screen is prohibited while the optical member is being moved to follow the viewpoint.
ことを特徴とする請求項26に記載の表示制御方法。A moving step of moving the optical member to a standby position while functioning as a two-dimensional image display device by switching means for removing the light directivity and functioning as a two-dimensional image display device. The display control method according to claim 26, wherein:
ことを特徴とする請求項29に記載の表示制御方法。30. The display control method according to claim 29, wherein in the moving step, windows capable of three-dimensional display are extracted, and the standby position is determined based on their barycentric positions.
ことを特徴とする請求項26に記載の表示制御方法。The control step detects a moving speed of the three-dimensional window, and switches the three-dimensional window to a two-dimensional display when the moving speed exceeds a speed of following the viewpoint in the control step. The display control method according to claim 26.
前記距離に基づいて3次元ウインドウの表示幅を制限する
ことを特徴とする請求項26に記載の表示制御方法。The detecting step further detects a distance between the viewpoint position and the image display surface,
The display control method according to claim 26, wherein a display width of the three-dimensional window is limited based on the distance.
ことを特徴とする請求項32に記載の表示制御方法。33. The display control method according to claim 32, wherein the display width of the three-dimensional window is limited based on the distance and the distance between eyes of a viewer.
ことを特徴とする請求項18に記載の表示制御方法。19. The display control method according to claim 18, further comprising a step of displaying an object including the three-dimensional display window as a graphical user interface.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000231913A JP3554257B2 (en) | 2000-07-31 | 2000-07-31 | Display control device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000231913A JP3554257B2 (en) | 2000-07-31 | 2000-07-31 | Display control device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002049004A JP2002049004A (en) | 2002-02-15 |
JP3554257B2 true JP3554257B2 (en) | 2004-08-18 |
Family
ID=18724673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000231913A Expired - Fee Related JP3554257B2 (en) | 2000-07-31 | 2000-07-31 | Display control device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3554257B2 (en) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1403759A3 (en) | 2002-09-17 | 2007-04-04 | Sharp Kabushiki Kaisha | Electronic equipment with two and three dimensional display functions |
JP4467574B2 (en) | 2004-08-18 | 2010-05-26 | シャープ株式会社 | Image data display device |
DE102005040597A1 (en) * | 2005-02-25 | 2007-02-22 | Seereal Technologies Gmbh | Method and device for tracking sweet spots |
JP5663854B2 (en) * | 2009-09-15 | 2015-02-04 | 株式会社ニコン | Display device, display method, and program |
JP2013080987A (en) * | 2010-02-15 | 2013-05-02 | Panasonic Corp | Stereoscopic image display device |
KR101640404B1 (en) * | 2010-09-20 | 2016-07-18 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
JP5360166B2 (en) * | 2010-09-22 | 2013-12-04 | 株式会社ニコン | Image display device |
WO2012068532A2 (en) | 2010-11-19 | 2012-05-24 | Reald Inc. | Directional flat illuminators |
US9250448B2 (en) | 2010-11-19 | 2016-02-02 | Reald Inc. | Segmented directional backlight and related methods of backlight illumination |
US20140041205A1 (en) | 2010-11-19 | 2014-02-13 | Reald Inc. | Method of manufacturing directional backlight apparatus and directional structured optical film |
US8651726B2 (en) | 2010-11-19 | 2014-02-18 | Reald Inc. | Efficient polarized directional backlight |
JP5161999B2 (en) * | 2011-04-19 | 2013-03-13 | 株式会社東芝 | Electronic device, display control method, and display control program |
US20140192150A1 (en) * | 2011-06-02 | 2014-07-10 | Sharp Kabushiki Kaisha | Image processing device, method for controlling image processing device, control program, and computer-readable recording medium which records the control program |
JP5306422B2 (en) | 2011-07-19 | 2013-10-02 | 株式会社東芝 | Image display system, apparatus, method, and medical image diagnostic apparatus |
US9237337B2 (en) | 2011-08-24 | 2016-01-12 | Reald Inc. | Autostereoscopic display with a passive cycloidal diffractive waveplate |
JP5100875B1 (en) | 2011-08-31 | 2012-12-19 | 株式会社東芝 | Viewing area adjustment apparatus, image processing apparatus and viewing area adjustment method |
JP5319796B2 (en) | 2012-01-12 | 2013-10-16 | 株式会社東芝 | Information processing apparatus and display control method |
JP2013174665A (en) * | 2012-02-23 | 2013-09-05 | Toshiba Corp | Information processor, control method of image quality correction, and program |
JP6508832B2 (en) | 2012-05-18 | 2019-05-08 | リアルディー スパーク エルエルシー | Control of multiple light sources in directional backlights |
US9235057B2 (en) | 2012-05-18 | 2016-01-12 | Reald Inc. | Polarization recovery in a directional display device |
US9350980B2 (en) | 2012-05-18 | 2016-05-24 | Reald Inc. | Crosstalk suppression in a directional backlight |
US9188731B2 (en) | 2012-05-18 | 2015-11-17 | Reald Inc. | Directional backlight |
EP2850488A4 (en) | 2012-05-18 | 2016-03-02 | Reald Inc | Directional backlight |
BR112014028612B1 (en) * | 2012-05-18 | 2021-12-28 | Reald Spark, Llc | DIRECTIONAL SCREEN DEVICE |
KR102253212B1 (en) | 2012-05-18 | 2021-05-20 | 리얼디 스파크, 엘엘씨 | Directionally illuminated waveguide arrangement |
US9678267B2 (en) | 2012-05-18 | 2017-06-13 | Reald Spark, Llc | Wide angle imaging directional backlights |
JP5526196B2 (en) * | 2012-07-18 | 2014-06-18 | 株式会社東芝 | Electronic device and video display method |
EP2875638A4 (en) | 2012-07-23 | 2016-03-30 | Reald Inc | Observer tracking autostereoscopic display |
EP2904778B1 (en) | 2012-10-02 | 2020-05-27 | RealD Spark, LLC | Temporally multiplexed display with landscape and portrait operation modes |
JP5433774B2 (en) * | 2012-12-05 | 2014-03-05 | 株式会社東芝 | Electronic device, display control method, and display control program |
EP2936242A4 (en) | 2012-12-21 | 2016-11-02 | Reald Inc | Superlens component for directional display |
JP5832990B2 (en) * | 2012-12-25 | 2015-12-16 | 株式会社東芝 | Image display system |
TWI622811B (en) | 2013-02-22 | 2018-05-01 | 瑞爾D斯帕克有限責任公司 | Directional backlight |
WO2014204950A1 (en) | 2013-06-17 | 2014-12-24 | Reald Inc. | Controlling light sources of a directional backlight |
KR102366346B1 (en) | 2013-10-14 | 2022-02-23 | 리얼디 스파크, 엘엘씨 | Light input for directional backlight |
WO2015057625A1 (en) | 2013-10-14 | 2015-04-23 | Reald Inc. | Control of directional display |
CN103581657B (en) * | 2013-11-01 | 2017-01-04 | 深圳超多维光电子有限公司 | The method and apparatus that a kind of 2D/3D shows |
WO2015073438A1 (en) | 2013-11-15 | 2015-05-21 | Reald Inc. | Directional backlights with light emitting element packages |
JP2014123130A (en) * | 2013-12-27 | 2014-07-03 | Japan Display Inc | Display device and electronic apparatus |
US11067736B2 (en) | 2014-06-26 | 2021-07-20 | Reald Spark, Llc | Directional privacy display |
US9835792B2 (en) | 2014-10-08 | 2017-12-05 | Reald Spark, Llc | Directional backlight |
US10356383B2 (en) | 2014-12-24 | 2019-07-16 | Reald Spark, Llc | Adjustment of perceived roundness in stereoscopic image of a head |
US10359560B2 (en) | 2015-04-13 | 2019-07-23 | Reald Spark, Llc | Wide angle imaging directional backlights |
EP3304188B1 (en) | 2015-05-27 | 2020-10-07 | RealD Spark, LLC | Wide angle imaging directional backlights |
EP3369034B1 (en) | 2015-10-26 | 2023-07-05 | RealD Spark, LLC | Intelligent privacy system, apparatus, and method thereof |
US10459321B2 (en) | 2015-11-10 | 2019-10-29 | Reald Inc. | Distortion matching polarization conversion systems and methods thereof |
EP3374692B1 (en) | 2015-11-13 | 2021-02-24 | RealD Spark, LLC | Wide angle imaging directional backlights |
EP3374822B1 (en) | 2015-11-13 | 2023-12-27 | RealD Spark, LLC | Surface features for imaging directional backlights |
EP3400706B1 (en) | 2016-01-05 | 2022-04-13 | RealD Spark, LLC | Gaze correction of multi-view images |
WO2018208619A1 (en) | 2017-05-08 | 2018-11-15 | Reald Spark, Llc | Optical stack for directional display |
US10126575B1 (en) | 2017-05-08 | 2018-11-13 | Reald Spark, Llc | Optical stack for privacy display |
US10303030B2 (en) | 2017-05-08 | 2019-05-28 | Reald Spark, Llc | Reflective optical stack for privacy display |
JP6866783B2 (en) | 2017-06-22 | 2021-04-28 | いすゞ自動車株式会社 | Exhaust gas recirculation device |
CN109427303B (en) * | 2017-08-21 | 2021-01-26 | 京东方科技集团股份有限公司 | Display panel, manufacturing method thereof, display method and display device |
TW201921060A (en) | 2017-09-15 | 2019-06-01 | 美商瑞爾D斯帕克有限責任公司 | Optical stack for switchable directional display |
KR20200122326A (en) | 2018-01-25 | 2020-10-27 | 리얼디 스파크, 엘엘씨 | Reflective optical stack for privacy display |
CN108957770A (en) * | 2018-09-25 | 2018-12-07 | 张家港康得新光电材料有限公司 | A kind of optics module and display device that 2D-3D is changeable |
US11821602B2 (en) | 2020-09-16 | 2023-11-21 | Reald Spark, Llc | Vehicle external illumination device |
US11966049B2 (en) | 2022-08-02 | 2024-04-23 | Reald Spark, Llc | Pupil tracking near-eye display |
-
2000
- 2000-07-31 JP JP2000231913A patent/JP3554257B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002049004A (en) | 2002-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3554257B2 (en) | Display control device and method | |
US9204140B2 (en) | Display device and display method | |
US7719621B2 (en) | Image display device and method having image control unit preventing light source unit from outputting an image when observer is outside of predefined normal viewing area | |
JP5306275B2 (en) | Display device and stereoscopic image display method | |
US9432657B2 (en) | Naked-eye stereoscopic display apparatus, viewpoint adjustment method, and naked-eye stereoscopic vision-ready video data generation method | |
JP3443271B2 (en) | 3D image display device | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
CN110012286A (en) | A kind of human eye tracking 3 d display device of high viewpoint density | |
JP4819114B2 (en) | Stereoscopic image display device | |
CN102970559A (en) | Stereoscopic image display apparatus | |
JP5439686B2 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
CN109521576A (en) | A kind of stereo projection apparatus | |
US20080158671A1 (en) | Three-Dimensional Image Display Apparatus Using Flat Panel Display | |
JP3583936B2 (en) | 3D image display without glasses | |
JP2007199295A (en) | Display | |
JPH08327948A (en) | Method and device for displaying stereoscopic picture | |
KR20050076946A (en) | Display apparatus and method of three dimensional image | |
JP2004282217A (en) | Multiple-lens stereoscopic video image display apparatus | |
JP2010231192A (en) | Stereoscopic imaging apparatus | |
JP2001218231A (en) | Device and method for displaying stereoscopic image | |
JP4475201B2 (en) | Stereoscopic image display device and stereoscopic image display device system | |
JP2000209615A (en) | Stereoscopic video image display device without eyeglass | |
JP2004258594A (en) | Three-dimensional image display device realizing appreciation from wide angle | |
KR100763398B1 (en) | Method for displaying 3d image using mobile image display device | |
WO2012165132A1 (en) | Autostereoscopic display device, viewpoint adjustment method, and method for generating autostereoscopically viewed video data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040506 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090514 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110514 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120514 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120514 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140514 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |