JP2013121031A - 表示装置および方法、並びにプログラム - Google Patents

表示装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2013121031A
JP2013121031A JP2011267558A JP2011267558A JP2013121031A JP 2013121031 A JP2013121031 A JP 2013121031A JP 2011267558 A JP2011267558 A JP 2011267558A JP 2011267558 A JP2011267558 A JP 2011267558A JP 2013121031 A JP2013121031 A JP 2013121031A
Authority
JP
Japan
Prior art keywords
unit
user
display
frame
viewpoint position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011267558A
Other languages
English (en)
Inventor
Jun Hirai
純 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011267558A priority Critical patent/JP2013121031A/ja
Priority to US13/681,449 priority patent/US9294759B2/en
Priority to CN201210505448XA priority patent/CN103152590A/zh
Publication of JP2013121031A publication Critical patent/JP2013121031A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/312Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being placed behind the display panel, e.g. between backlight and spatial light modulator [SLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】ユーザの視点位置によらず、高品質な立体画像を提示できるようにする。
【解決手段】表示装置の表示部には、立体画像を構成する右眼画像と左眼画像を光学的に分離するバリア素子と、バリア素子を固定するx枠、x枠を保持するy枠、およびy枠を保持するz枠が設けられている。表示装置では撮像部により撮像された撮像画像に基づいて、ユーザの視点位置が算出され、視点位置の変化に応じて、x枠,y枠,z枠の移動量が求められる。そして、それらの移動量に応じて、x枠がy枠に対してx方向に移動され、y枠がz枠に対してy方向に移動され、z枠が表示部に対してz方向に移動されることで、バリア素子の位置が適切な位置に移動される。これにより、クロストークの発生が抑制され、高品質な立体画像が提示される。本発明は、表示装置に適用することができる。
【選択図】図1

Description

本技術は表示装置および方法、並びにプログラムに関し、特に、ユーザの視点位置によらず、高品質な立体画像を提示できるようにした表示装置および方法、並びにプログラムに関する。
従来、左眼画像と右眼画像とからなる立体画像を表示する表示装置が知られており、立体画像の表示方式には、主に特殊な眼鏡を必要とする眼鏡方式と、ユーザが裸眼で観察できる裸眼方式とがある。
例えば、ユーザが裸眼で立体画像を観察できる裸眼方式では、表示装置に表示された左眼画像と右眼画像がバリア等により光学的に分離され、それぞれユーザの左右の眼で観察される。そのような場合に、液晶を利用してバリアを形成するとともに、ユーザの顔、すなわちユーザの視点の位置を検出し、その検出結果に応じてバリアが形成される位置を変化させる技術も提案されている(例えば、特許文献1参照)。また、ユーザの頭部位置に基づいてレンチキュラレンズを移動させることで、立体視領域を移動させる技術も提案されている(例えば、特許文献2参照)。
特開平10−333091号公報 特開平10−078562号公報
しかしながら、特許文献1に記載の技術では、高品質な立体画像を提示することができなかった。
例えば、バリアの位置を変化させる方法では、バリアが形成される位置がいくつかの位置のなかから選択されるだけであるので、ユーザの顔の位置に応じてバリアの位置を連続的に移動させることができない。そのため、ユーザの顔の位置に対して、バリアの位置を常にクロストークが最小となる位置とすることができず、高品質な立体画像を提示することができなかった。
しかも、このような表示装置では、ユーザが表示装置を見る角度によって立体画像の明るさが変化しないように精密にバリア等の設計をする必要があり、高精度に設計が行なわれないと、バリアの位置を変化させたときに立体画像の明るさが変化してしまう。また、液晶を利用したバリアは光の透過率が低いため、立体画像の明るさが低下してしまう。
また、特許文献2に記載の技術では、以上で述べたユーザの視点位置の移動により生じる立体画像の品質低下については、ストライプバリア方式の場合には改善される。しかし、表示画面と視聴者の距離がある範囲を超えると、充分な品質の立体画像を提示することができなくなってしまう。また、水平解像度と垂直解像度のバランスがとれるステップバリア方式やデルタバリア方式では、ユーザの視点が縦方向に移動すると、立体画像の品質低下を抑制することができなくなってしまう。
本技術は、このような状況に鑑みてなされたものであり、ユーザの視点位置やバリア方式によらず、高品質な立体画像を提示できるようにするものである。
本技術の一側面の表示装置は、複数の異なる視点の画像を表示する表示部と、前記複数の異なる視点の画像を光学的に分離する分離部と、前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出する移動量算出部と、前記移動量に基づいて駆動し、前記表示部に対して前記分離部を移動させる複数の駆動部とを備える。
前記駆動部には、前記表示部の表示面と垂直な方向に前記分離部を移動させることができる。
前記移動量算出部には、前記分離部から前記ユーザの視点位置までの距離、前記ユーザの両眼の間隔、および前記表示部に設けられた画素の幅に基づいて、前記表示面と垂直な方向への前記分離部の移動量を算出させることができる。
前記駆動部には、前記表示部の表示面と平行な複数方向に前記分離部を移動させることができる。
前記移動量算出部には、前記ユーザの視点位置の前記表示面と平行な複数方向の変化量、前記分離部と前記表示部との距離、および前記分離部から前記ユーザの視点位置までの距離に基づいて、前記表示面と平行な複数方向への前記分離部の移動量を算出させることができる。
表示装置には、前記分離部を保持する第1の保持部材と、前記第1の保持部材を保持する第2の保持部材とをさらに設け、前記駆動部を、前記第1の保持部材と前記第2の保持部材との間に設け、前記駆動部には、前記第2の保持部材に対して前記第1の保持部材を移動させることで、前記分離部を移動させることができる。
本技術の一側面の表示方法またはプログラムは、複数の異なる視点の画像を表示する表示部と、前記複数の異なる視点の画像を光学的に分離する分離部と、前記表示部に対して前記分離部を複数方向に移動させる駆動部とを備える表示装置の表示方法またはプログラムであって、前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出し、前記移動量に基づいて前記駆動部を駆動させ、前記表示部に対して前記分離部を移動させるステップを含む。
本技術の一側面においては、表示装置には複数の異なる視点の画像を表示する表示部と、前記複数の異なる視点の画像を光学的に分離する分離部と、前記表示部に対して前記分離部を複数方向に移動させる駆動部とが設けられ、前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量が算出され、前記移動量に基づいて前記駆動部が駆動され、前記表示部に対して前記分離部が移動される。
本技術の一側面によれば、ユーザの視点位置やバリア方式によらず、高品質な立体画像を提示することができる。
表示装置の外観の構成例を示す図である。 表示装置の機能の構成例を示す図である。 ストライプバリアについて説明する図である。 ステップバリアについて説明する図である。 バリア素子の移動について説明する図である。 バリア素子の移動について説明する図である。 バリア素子の移動について説明する図である。 バリア素子の移動について説明する図である。 立体画像表示処理を説明するフローチャートである。 表示装置の他の外観の構成例を示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[表示装置の外観の構成例]
図1は、本技術を適用した表示装置の一実施の形態の構成例を示す図である。
この表示装置11は、互いに視差を有する左眼画像と右眼画像からなる立体画像を表示する液晶表示ディスプレイなどからなる。表示装置11の筐体には、立体画像を表示させる表示部21、ユーザを照明する照明部22、およびユーザを撮像する撮像部23が設けられている。
なお、表示装置11に表示される立体画像は、互いに視点の異なる2つの画像からなる2視点の立体画像に限らず、3以上の互いに異なる視点の画像からなる多視点の立体画像であってもよい。多視点の立体画像が表示される場合には、各視点の画像のうちの2つの視点の画像が、それぞれユーザの右眼と左眼で観察されるように、立体画像の表示が制御される。また、以下では、表示装置11に2視点の立体画像が表示されるものとして説明を続ける。
表示部21には、図示せぬ光変調パネルに表示された左眼画像と右眼画像を光学的に分離するバリア素子31が設けられている。より詳細には、バリア素子31は、光変調パネルから入射した光を遮光する遮光部と、光変調パネルから入射した光を通過させる開口部とからなる視差バリアにより構成される。
立体画像の表示時には、ユーザは、バリア素子31の開口部を介して光変調パネルに表示された左眼画像と右眼画像を観察する。すなわち、表示装置11では、光変調パネルから発せられ、バリア素子31を通過した左眼画像表示用の光がユーザの左眼に入射し、光変調パネルから発せられ、バリア素子31を通過した右眼画像表示用の光がユーザの右眼に入射するように、各光が分離される。
また、表示部21には、表示装置11の筐体に対してバリア素子31を図中、横方向、縦方向、および奥行き方向に移動させるx枠32、y枠33、およびz枠34が設けられており、バリア素子31はx枠32の内側に固定されている。なお、以下、図中、横方向、縦方向、および奥行き方向を、それぞれx方向、y方向、およびz方向と称する。
ここで、x方向は、左眼画像と右眼画像が有する視差の方向、つまりユーザが立体画像を観察するときの左右の眼が並ぶ方向である。また、x方向およびy方向は、ともに表示装置11の表示面に平行な方向であり、z方向は表示装置11の表示面に垂直な方向である。
z枠34は、矩形のz枠34の四隅に設けられたz駆動部35−1乃至z駆動部35−4を介して表示装置11の筐体に接続されている。z駆動部35−1乃至z駆動部35−4は、例えば超音波アクチュエータなどからなり、表示装置11の筐体に対してz枠34をz方向に移動させることで、バリア素子31をz方向に移動させる。
なお、以下、z駆動部35−1乃至z駆動部35−4を個々に区別する必要のない場合、単にz駆動部35とも称する。
また、z枠34の内側には、z枠34の図中、上下の辺の内側に設けられた伸縮可能なガイドロッド36−1乃至ガイドロッド36−4を介して矩形状のy枠33が固定されている。z枠34とy枠33の間には、超音波アクチュエータなどからなるy駆動部37が設けられており、y駆動部37は、z枠34に対してy枠33をy方向に移動させることで、バリア素子31をy方向に移動させる。
なお、以下、ガイドロッド36−1乃至ガイドロッド36−4を個々に区別する必要のない場合、単にガイドロッド36とも称する。
さらに、y枠33の内側には、y枠33の図中、左右の辺の内側に設けられた伸縮可能なガイドロッド38−1乃至ガイドロッド38−4を介して矩形状のx枠32が固定されている。y枠33とx枠32の間には、超音波アクチュエータなどからなるx駆動部39が設けられており、x駆動部39は、y枠33に対してx枠32をx方向に移動させることで、バリア素子31をx方向に移動させる。
なお、以下、ガイドロッド38−1乃至ガイドロッド38−4を個々に区別する必要のない場合、単にガイドロッド38とも称する。
x駆動部39、y駆動部37、およびz駆動部35が駆動していない状態では、x枠32乃至z枠34のそれぞれは、x駆動部39、y駆動部37、およびz駆動部35の駆動機構に生じる摩擦力によって、各方向に移動しないように保持されている。なお、x枠32乃至z枠34のy方向、つまり重力方向への保持力が充分でない場合には、ばねなどの補強部材により、各枠が重力分だけ図中、上方向に引き上げられるようにしてもよい。
また、表示装置11では、いわゆるアイトラッキングによりバリア素子31がx,y,zの各方向に移動されるようになされている。すなわち、立体画像の表示時には、照明部22によりユーザに対して照明光が照射されるとともに、撮像部23によりユーザの画像が撮像される。
そして、撮像部23による撮像で得られた画像に基づいて、x,y,zの各方向へのユーザの眼の位置の移動量が算出され、その算出結果に応じてx駆動部39、y駆動部37、およびz駆動部35が駆動され、バリア素子31が移動される。
照明部22によるユーザの照明は、アイトラッキング時に、撮像部23で撮像された画像からユーザを容易に検出できるようにするために行われる。そのため、照明部22から射出される照明光は、例えば近赤外線など、特定の波長の光とされることが望ましい。人の肌は近赤外線を多く吸収するため、近赤外線を照明光とし、撮像部23が各被写体で反射された近赤外線を受光することで表示装置11周辺の画像を撮像すれば、得られた画像から容易に人の顔の領域を特定することが可能となる。
[表示装置の機能の構成例]
次に、表示装置11の機能的な構成について説明する。例えば表示装置11は、図2に示すように構成される。なお、図2は、表示装置11の機能的な構成例を示す図であり、図2において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図2の表示装置11は、表示部21、照明部22、撮像部23、同期制御部61、肌領域検出部62、眼検出部63、移動量算出部64、記録部65、および表示制御部66から構成される。
照明部22は、例えば近赤外線など、特定の波長の照明光を射出して、表示装置11を観察するユーザを照明する。撮像部23は、例えば近赤外線カメラなどからなり、表示装置11を観察するユーザを被写体として撮像し、その結果得られた撮像画像を同期制御部61を介して肌領域検出部62に供給する。
同期制御部61は、撮像部23による撮像画像の撮像に同期させて、照明部22に照明光を射出させるとともに、撮像部23から供給された撮像画像を肌領域検出部62に供給する。肌領域検出部62は、同期制御部61から供給された撮像画像から、ユーザの肌の領域(以下、肌領域と称する)を検出し、その検出結果を眼検出部63に供給する。
眼検出部63は、肌領域検出部62から供給された撮像画像上の肌領域の検出結果に基づいて、x方向、y方向、およびz方向の各方向を軸の方向とするxyz座標空間におけるユーザの眼の位置を算出し、その算出結果を移動量算出部64に供給する。なお、以下、眼検出部63により算出されたxyz座標空間上におけるユーザの眼の位置を、視点位置とも称することとする。
移動量算出部64は、眼検出部63から供給された視点位置に基づいて、バリア素子31を移動させるべき移動量を算出し、算出された移動量に基づいて表示部21におけるバリア素子31の移動を制御する。記録部65は、再生対象となる立体画像を記録しており、記録している立体画像を必要に応じて表示制御部66に供給する。表示制御部66は、記録部65から供給された立体画像に基づいて表示部21を制御し、表示部21に立体画像を表示させる。
表示部21は、バックライト71、光変調パネル72、バリア素子31、z駆動部35、y駆動部37、x駆動部39、x枠32、y枠33、およびz枠34から構成される。
バックライト71は、表示制御部66の制御に従って立体画像を表示させるための光を射出して、光変調パネル72に入射させる。光変調パネル72は、表示制御部66の制御に従ってバックライト71から入射した光の透過率を領域ごとに変化させることで、立体画像を構成する左眼画像と右眼画像を表示する。バックライト71から光変調パネル72に入射した光は、光変調パネル72の透過率に応じた光量の分だけ光変調パネル72を透過して、バリア素子31に入射する。
バリア素子31は、光変調パネル72から入射した光の一部を遮光部で遮光するとともに、残りの一部の光を通過(透過)させることで、左眼画像と右眼画像とを光学的に分離させ、ユーザに立体画像を知覚させる。
x駆動部39は、移動量算出部64の制御に従ってx枠32を移動させる。y駆動部37は、移動量算出部64の制御に従ってy枠33を移動させ、z駆動部35は、移動量算出部64の制御に従ってz枠34を移動させる。
[バリア素子について]
このような表示装置11に設けるバリア素子31として、例えばステップバリアや、デルタバリア、ストライプバリアなど、各種のバリア素子を採用することができる。
例えば、バリア素子31がストライプバリアである場合、図3に示すようにバリア素子31には、長方形状の開口部と遮光部とがx方向に交互に設けられる。なお、図3において、図中、横方向および縦方向はx方向およびy方向を示しており、奥行き方向はz方向を示している。
図3の例では、R,G,Bの各色の画素が設けられた光変調パネル72の図中、手前側にバリア素子31が設けられている。なお、光変調パネル72上の各四角形は1つの画素を表しており、各画素内の文字「R」,「G」,「B」はそれらの画素の色を示している。例えば、文字「R」が記された画素は、バックライト71から入射した光のうち、R(赤)の色の光のみを透過させる画素である。
また、バリア素子31において斜線が施された部分は遮光部を表しており、バリア素子31において斜線が施されていない部分は開口部を表している。すなわち、バリア素子31上では、y方向に長い開口部と遮光部とがx方向に交互に並ぶように設けられている。
図3では、ユーザの右眼から見たバリア素子31が示されている。この例では1つの開口部からは、y方向に並べられた画素の列がユーザの右眼により視認されるようになされており、その画素列の左右に並ぶ画素列はユーザの右眼には視認されないようになっている。逆に、ユーザの左眼からは、図3において遮光部により覆われて右眼には視認されないようになされている各画素が視認されるようになっている。
このようなストライプバリアでは、光変調パネル72においてy方向に並ぶ各画素は、ユーザの左右のうちの同じ眼により視認されるので、ユーザの視点位置がy方向に移動したとしてもバリア素子31をy方向に移動させる必要はない。
また、例えば、バリア素子31がステップバリアである場合、図4に示すようにバリア素子31には、矩形状の開口部と遮光部が市松状に並べられて設けられる。なお、図4において、図中、横方向および縦方向はx方向およびy方向を示しており、奥行き方向はz方向を示している。
図4の例ではR,G,Bの各色の画素が設けられた光変調パネル72の図中、手前側にバリア素子31が設けられている。なお、図4では、図3における場合と同様に光変調パネル72上の各四角形は1つの画素を表しており、各画素内の文字「R」,「G」,「B」はそれらの画素の色を示している。
また、バリア素子31において斜線が施された部分は遮光部を表しており、バリア素子31において斜線が施されていない部分は開口部を表している。すなわち、バリア素子31上では、遮光部に対して開口部が市松状に配置されている。
図4では、ユーザの右眼から見たバリア素子31が示されている。この例では1つの開口部からは1つの画素がユーザの右眼により視認されるようになされており、その画素の上下左右に並ぶ画素はユーザの右眼には視認されないようになっている。逆に、ユーザの左眼からは、図4において遮光部により覆われて右眼には視認されないようになされている各画素が視認されるようになっている。
このようなステップバリアでは、ユーザの視点位置が変化すると、開口部を介してユーザの眼により視認される画素が変化するので、視点位置の移動に応じて、x,y,zの各方向へのバリア素子31の移動が必要となる。
なお、以下においては、ユーザの視点位置の変化に応じて、x,y,zの各方向にバリア素子31が移動されるものとして、説明を続ける。つまり、バリア素子31がステップバリアなどであるものとして、説明を続ける。
[バリア素子の移動量について]
表示装置11では、ユーザの視点位置の変化に応じてバリア素子31がx,y,zの各方向に移動されるが、移動量算出部64は、ユーザの現在の視点位置と、その直前の視点位置とに基づいて、x,y,zの方向ごとにバリア素子31の移動量を算出する。
例えば図5の上側に示すように、光変調パネル72上の画素101−1乃至画素101−5に右眼画像が表示され、光変調パネル72上の画素102−1乃至画素102−4に左眼画像が表示されるとする。そして、ユーザがそれらの左眼画像と右眼画像を、バリア素子31を介して観察するものとする。なお、図5において、図中、縦方向および横方向は、それぞれx方向およびz方向を示している。
図5の例では、バリア素子31には、光変調パネル72の各画素から入射した光を通過させる開口部103−1乃至開口部103−5と、光変調パネル72からの光を遮光する遮光部104−1乃至遮光部104−5とが設けられている。
なお、以下、画素101−1乃至画素101−5を個々に区別する必要のない場合、単に画素101とも称し、画素102−1乃至画素102−4を個々に区別する必要のない場合、単に画素102とも称する。また、以下、開口部103−1乃至開口部103−5を個々に区別する必要のない場合、単に開口部103とも称し、遮光部104−1乃至遮光部104−5を個々に区別する必要のない場合、単に遮光部104とも称する。
図5の上側に示す状態では、画素101−1乃至画素101−5のそれぞれから射出された光は、開口部103−1乃至開口部103−5のそれぞれを通過して、ユーザの右眼ERに入射する。また、画素102から射出された光は遮光部104により遮光されてユーザの右眼ERには入射しないので、ユーザの右眼ERには、画素101に表示された右眼画像のみが観察されることになる。
同様に、画素102−1乃至画素102−4のそれぞれから射出された光は、開口部103−2乃至開口部103−5のそれぞれを通過して、ユーザの左眼ELに入射する。また、画素101から射出された光は遮光部104により遮光されてユーザの左眼ELには入射しないので、ユーザの左眼ELには、画素102に表示された左眼画像のみが観察されることになる。
このように図5の上側に示す状態から、図5の下側に示すように、ユーザの視点位置がx方向、より詳細には図中、上側に移動距離Seだけ移動したとする。すると、表示装置11は、光変調パネル72に対してバリア素子31をx方向、より詳細には図中、上方向に移動距離Sbだけ移動させる。
ユーザの視点位置の変化量である移動距離Seに対して、バリア素子31を移動距離Sbだけ移動させることで、画素101に表示された右眼画像がユーザの右眼ERで観察され、画素102に表示された左眼画像がユーザの左眼ELで観察される状態が維持される。
視点位置の移動距離Seに対するバリア素子31の移動距離Sbは、例えば図6に示すように、光変調パネル72からバリア素子31までのz方向の距離Dbと、バリア素子31からユーザの視点位置までのz方向の距離Deとに基づいて算出される。
なお、図6において、縦方向および横方向は、それぞれx方向およびz方向を示している。また、図6において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図6では、ユーザの右眼ERの移動距離Seに対して、遮光部104−1、つまりバリア素子31が移動距離Sbだけ移動されている。ここで、光変調パネル72、バリア素子31、およびユーザの視点位置の位置関係から、移動距離Sbと移動距離Seの比は、距離Dbと、光変調パネル72から視点位置までのz方向の距離(Db+De)の比と等しいことが分かる。つまり、Sb/Se=Db/(Db+De)が成立することが分かる。
この式を変形すると、次式(1)に示すように、求めるべきバリア素子31の移動距離Sbが得られる。
Figure 2013121031
移動量算出部64は、眼検出部63から供給されたユーザの視点位置に基づいて、移動距離Seと距離Deを求め、さらに式(1)の演算を行なうことでバリア素子31の移動距離Sbを算出する。
なお、ユーザの視点位置のy方向への移動に対して、バリア素子31をy方向に移動させるべき移動距離は、上述した式(1)と同様の計算により求まる。
但し、バリア素子31が、ストライプバリアである場合には、ユーザの視点位置がy方向に移動しても、バリア素子31をy方向に移動させる必要がないため、バリア素子31のy方向への移動は行なわれない。これに対して、バリア素子31がステップバリアやデルタバリアである場合には、ユーザの視点位置がy方向に移動すると、バリア素子31もy方向に移動させる必要がある。
また、例えば図7の上側に示すように、ユーザが開口部103を介して光変調パネル72に表示された左眼画像または右眼画像を観察している状態から、図中、下側に示すようにユーザが、バリア素子31から遠ざかる方向に移動したとする。
なお、図7において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。また、図中、縦方向および横方向は、それぞれx方向およびz方向を示している。
図7の下側では、図中、上側の状態からユーザの視点位置がz方向に、より詳細には図中、右方向にΔDeだけ移動している。この場合、バリア素子31を移動させないと、クロストークが発生したり、観察される画像の輝度が低下したりすることがある。
そこで、表示装置11は、ユーザの視点位置の移動距離ΔDeに合わせて、バリア素子31全体をz方向、より詳細には図中、右方向に移動距離ΔDbだけ移動させて、ユーザにより適切に立体画像が観察されるようにする。これにより、画素101に表示された右眼画像が右眼ERで観察され、画素102に表示された左眼画像が左眼ELで観察される状態が維持される。
視点位置の移動に対するバリア素子31の移動距離は、例えば図8に示すように、ユーザの両眼間の距離Peと、光変調パネル72上の各画素の画素ピッチPpとに基づいて算出される。
なお、図8において、縦方向および横方向は、それぞれx方向およびz方向を示している。また、図8において、図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図8では、ユーザの右眼ERから左眼ELまでの距離がPeとなっており、画素101や画素102のx方向の長さである画素ピッチがPpとなっている。ここで、光変調パネル72、バリア素子31、およびユーザの視点位置の位置関係や各部の長さから、次式(2)が成立する。
Figure 2013121031
なお、式(2)において、Dbは光変調パネル72からバリア素子31までのz方向の距離を示しており、Deはバリア素子31からユーザの視点位置までのz方向の距離を示している。したがって、式(2)は、バリア素子31から視点位置までの距離Deと、光変調パネル72からバリア素子31までの距離Dbの比が、ユーザの両眼間の距離Peと画素ピッチPpの比と等しいことを表している。
そこで、ユーザの視点位置がz方向に移動すると、移動量算出部64は、眼検出部63から供給されたユーザの視点位置に基づいて、上述した式(2)が成立するように視点位置までの距離Deの変化に対し、バリア素子31までの距離Dbを調節する。すなわち、距離Deと距離Dbの比が一定になるように、それらの新たな距離を算出する。
[立体画像表示処理の説明]
次に、表示装置11の動作について説明する。
ユーザが表示装置11を操作して立体画像の再生を指示すると、表示装置11はユーザの操作に応じて立体画像表示処理を開始して、立体画像を表示するとともにユーザの視点位置の変化に応じてバリア素子31を移動させる。以下、図9のフローチャートを参照して、表示装置11による立体画像表示処理について説明する。
ステップS11において、表示装置11は立体画像の表示を開始する。すなわち、表示制御部66は、ユーザにより指定された立体画像を構成する左眼画像および右眼画像を記録部65から取得し、取得した左眼画像および右眼画像を光変調パネル72に供給して表示させるとともに、バックライト71を制御する。
バックライト71は、表示制御部66の制御にしたがって光を射出して光変調パネル72に入射させ、バリア素子31はバックライト71から射出され、光変調パネル72を透過した光の一部を遮光することで、左眼画像と右眼画像とを光学的に分離させる。
これにより、ユーザには、バリア素子31を介して、光変調パネル72に表示された右眼画像と左眼画像が観察される。つまり、立体画像が観察される。
ステップS12において、撮像部23はユーザの撮像を開始する。すなわち、同期制御部61は、照明部22を制御して一定の時間間隔でユーザに対して照明光を照射させる。また、撮像部23は、照明部22によるユーザの照明に同期して、順次、各フレームの撮像画像を撮像し、同期制御部61を介して肌領域検出部62に供給する。
ステップS13において、肌領域検出部62は、同期制御部61を介して撮像部23から供給された撮像画像に基づいて、撮像画像からユーザの肌領域を検出し、その検出結果を眼検出部63に供給する。
例えば、撮像部23の撮像素子には、互いに異なる波長特性のフィルタ、つまり異なる色のフィルタが設けられた画素が設けられており、撮像画像としてフィルタの色ごとの画像が得られる。このとき、例えば所定の色のフィルタの波長特性は、その色の画像上では、人の肌の領域の輝度値が、他の色の画像上の肌の領域の輝度値と比べて低くなるようになされている。肌領域検出部62は、それらの色の画像の差分を画素ごとに求め、求めた差分、すなわち輝度差が所定の閾値以上となる画素からなる領域を肌領域とする。
ステップS14において、眼検出部63は、肌領域検出部62から供給された肌領域の検出結果に基づいて、ユーザの眼の領域を検出する。
例えば、眼検出部63は、撮像画像上の肌領域から、ユーザの顔の領域を特定し、さらに特定された顔の領域内から、ユーザの眼の領域を検出する。このようにして撮像画像上の眼の領域が特定されると、眼検出部63は、ユーザの眼の領域の位置や大きさ、両眼の間隔等から、xyz座標空間におけるユーザの左右の眼の位置(視点位置)を算出し、その算出結果を移動量算出部64に供給する。
より具体的には、例えばユーザは、立体画像の視聴前に表示装置11を操作し、予めユーザの左右の眼幅(左右の眼の間隔)を入力する。眼幅入力では、ユーザが直接、数値入力するようにしてもよいし、ユーザが表示装置11により提示された、いくつかの候補から選択するようにしてもよい。また、表示装置11において、予めユーザの一般的な眼幅が定められているようにしてもよい。
また、眼検出部63は、例えばユーザの実際の各眼幅(距離Pe)について、撮像画像上におけるユーザの眼幅と、その眼幅が観察されたときの光変調パネル72から視点位置までの距離Db+Deとが対応付けられているテーブルを予め保持している。
表示装置11の眼検出部63にユーザの眼幅が入力されると、眼検出部63は、予め保持しているテーブルを参照して、入力されたユーザの眼幅(距離Pe)と、求めた撮像画像上のユーザの眼幅とから、光変調パネル72から視点位置までの距離Db+Deを求めることで、ユーザの視点位置を算出する。なお、テーブルを用いるのではなく、入力されたユーザの眼幅(距離Pe)と、撮像画像上のユーザの眼幅とから、眼検出部63が直接、距離Db+Deを求めるようにしてもよい。
また、以上においては、ユーザが眼幅を入力する例について説明したが、ユーザが視聴距離として、立体画像の視聴開始時における、光変調パネル72から視点位置までの距離Db+Deを入力するようにしてもよい。そのような場合、眼検出部63では、入力された距離Db+Deと、撮像画像上のユーザの眼幅の変化等に基づいてユーザの視点位置が算出される。また、移動量算出部64では、入力された距離Db+Deと撮像画像上のユーザの眼幅とに基づいて、実際のユーザの眼幅(距離Pe)が算出される。
さらに、表示装置11に距離センサを設け、距離センサにより光変調パネル72から視点位置までの距離Db+Deが測定されるようにしてもよい。また、表示装置11にステレオカメラを設け、それらのステレオカメラにより撮像された視差を有する画像対から距離Db+Deが求められるようにしてもよい。
さらに、例えば距離Db+Deがユーザによる入力や距離センサによる測定により得られ、ユーザの眼幅が一定の値であるものとされて各処理が行なわれる場合には、眼検出部63において撮像画像上のユーザの眼の検出を行なわないようにすることが可能である。
以上のようにして、ユーザの視点位置が算出されると、処理はステップS14からステップS15に進む。
ステップS15において、移動量算出部64は、今回新たに眼検出部63から供給されたユーザの視点位置と、前回の処理で眼検出部63から供給されたユーザの過去の視点位置とに基づいて、ユーザの視点位置がz方向に移動したか否かを判定する。例えば、過去の視点位置と、現時点における視点位置とのz方向の位置が異なる場合、z方向に移動したと判定される。
ステップS15において、z方向に移動したと判定された場合、ステップS16において、移動量算出部64は、ユーザの視点位置と上述した式(2)とに基づいて、バリア素子31のz方向への移動量を算出する。これにより、例えば図7の移動距離ΔDbが、バリア素子31のz方向への移動量として算出される。すなわち、新たに算出された距離Dbと、現時点における距離Dbとの差が移動距離ΔDbである。
移動量算出部64は、z方向の移動量が算出されると、算出された移動量だけバリア素子31がz方向に移動されるように、z駆動部35を駆動させる。
ステップS17において、z駆動部35は移動量算出部64の制御に従ってz枠34を移動させることで、算出されたz方向の移動量だけバリア素子31を光変調パネル72に対して移動させ、処理はステップS18に進む。
また、ステップS15において、視点位置がz方向に移動していないと判定された場合、ステップS16およびステップS17の処理は行われず、処理はステップS18に進む。
ステップS15において視点位置がz方向に移動していないと判定されたか、またはステップS17においてz枠34が移動されると、ステップS18において、移動量算出部64は、ユーザの視点位置がx方向に移動したか否かを判定する。
例えば、移動量算出部64は、今回新たに眼検出部63から供給されたユーザの視点位置と、前回の処理で眼検出部63から供給されたユーザの過去の視点位置とのx方向の位置が異なる場合、x方向に移動したと判定する。
ステップS18において、ユーザの視点位置がx方向に移動したと判定された場合、ステップS19において、移動量算出部64は、バリア素子31をx方向へ移動させるべき移動量を算出する。
例えば、移動量算出部64はユーザの現在の視点位置と過去の視点位置とに基づいて、図6に示したユーザの視点位置のx方向への移動距離Seを求め、さらに上述した式(1)を計算することで、バリア素子31のx方向への移動量を算出する。これにより、例えば図6の移動距離Sbが、バリア素子31のx方向への移動量として算出される。
移動量算出部64は、x方向の移動量が算出されると、算出された移動量だけバリア素子31がx方向に移動されるように、x駆動部39を駆動させる。
ステップS20において、x駆動部39は移動量算出部64の制御に従ってx枠32を移動させることで、算出されたx方向の移動量だけバリア素子31を光変調パネル72に対して移動させ、処理はステップS21に進む。
また、ステップS18において、視点位置がx方向に移動していないと判定された場合、ステップS19およびステップS20の処理は行われず、処理はステップS21に進む。
ステップS18において視点位置がx方向に移動していないと判定されたか、またはステップS20においてx枠32が移動されると、ステップS21において、移動量算出部64は、ユーザの視点位置がy方向に移動したか否かを判定する。
例えば、移動量算出部64は、今回新たに眼検出部63から供給されたユーザの視点位置と、前回の処理で眼検出部63から供給されたユーザの過去の視点位置とのy方向の位置が異なる場合、y方向に移動したと判定する。
ステップS21において、ユーザの視点位置がy方向に移動したと判定された場合、ステップS22において、移動量算出部64は、バリア素子31をy方向へ移動させるべき移動量を算出する。例えば、移動量算出部64はユーザの現在の視点位置と過去の視点位置とに基づいて、ステップS19と同様の処理を行ない、バリア素子31のy方向への移動量を算出する。
移動量算出部64は、y方向の移動量が算出されると、算出された移動量だけバリア素子31がy方向に移動されるように、y駆動部37を駆動させる。
ステップS23において、y駆動部37は移動量算出部64の制御に従ってy枠33を移動させることで、算出されたy方向の移動量だけバリア素子31を光変調パネル72に対して移動させ、処理はステップS24に進む。
また、ステップS21において、視点位置がy方向に移動していないと判定された場合、ステップS22およびステップS23の処理は行われず、処理はステップS24に進む。
ステップS24において、表示装置11は処理を終了するか否かを判定する。例えば、ユーザにより表示装置11が操作され、立体画像の再生終了が指示された場合、処理を終了すると判定される。
ステップS24において、処理を終了しないと判定された場合、処理はステップS13に戻り、上述した処理が繰り返される。
これに対して、ステップS24において処理を終了すると判定された場合、表示装置11の各部は行なっている処理を停止して、立体画像表示処理は終了する。
以上のようにして、表示装置11は立体画像の表示が開始されると、ユーザの視点位置を検出し、その視点位置の移動に応じてバリア素子31を、最適な位置まで物理的に移動させる。つまりバリア素子31が連続的に移動される。これにより、ユーザの視点位置やバリア方式によらず、立体画像の明るさの変化やクロストークの発生を抑制し、高品質な立体画像を提示することができる。
なお、以上においては、撮像画像からユーザの眼の領域を検出することで、ユーザの視点位置を求める場合について説明したが、撮像画像から検出されたユーザの顔の位置に基づいて、バリア素子31の各方向への移動量が算出されるようにしてもよい。そのような場合、検出されたユーザの顔の位置の変化に基づいて、バリア素子31の移動量が算出される。ユーザの顔の位置の変化からバリア素子31の移動量を算出する場合には、ユーザの眼の位置を検出する場合と比較して、バリア素子31の移動量の算出精度は低くなるが、より簡単な演算で迅速にバリア素子31の移動量を求めることができるようになる。
〈変形例1〉
[表示装置の外観の構成例]
さらに以上においては、x駆動部39、y駆動部37、およびz駆動部35として、超音波アクチュエータを例に説明をしたが、バリア素子31を移動させるための駆動部は、バイモルフ素子など、どのようなものであってもよい。
例えば、バリア素子31をバイモルフ素子で物理的に移動させる場合、図10に示すように、z枠34と表示装置11の筐体の間、y枠33とz枠34の間、およびx枠32とy枠33の間には、それぞれバイモルフ素子が設けられている。
なお、図10中、横方向、縦方向、および奥行き方向は、それぞれx方向、y方向、およびz方向を示している。また、図10において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図10の例では、y枠33の内側には、y枠33の図中、左右の辺の内側に設けられた板ばね131−1乃至板ばね131−4を介してx枠32が固定されている。すなわち、板ばね131−1乃至板ばね131−4により、x枠32がy枠33に対して内側に押された状態が保たれることで、x枠32がy枠33に対して固定されている。なお、以下、板ばね131−1乃至板ばね131−4を個々に区別する必要のない場合、単に板ばね131と称する。
また、x枠32とy枠33の間には、バイモルフ素子132が設けられており、バイモルフ素子132は、y枠33に対してx枠32をx方向に移動させることで、バリア素子31をx方向に移動させる。
z枠34の内側には、z枠34の図中、上下の辺の内側に設けられた板ばね133−1乃至板ばね133−4を介してy枠33が固定されている。すなわち、板ばね133−1乃至板ばね133−4により、y枠33がz枠34に対して内側に押された状態が保たれることで、y枠33がz枠34に対して固定されている。なお、以下、板ばね133−1乃至板ばね133−4を個々に区別する必要のない場合、単に板ばね133と称する。
z枠34とy枠33の間には、バイモルフ素子134が設けられており、バイモルフ素子134は、z枠34に対してy枠33をy方向に移動させることで、バリア素子31をy方向に移動させる。
さらに、z枠34は、z枠34の四隅に設けられた図示せぬ板ばねを介して表示装置11の筐体に接続されており、z枠34は、z枠34と表示装置11の筐体との間に設けられた図示せぬバイモルフ素子により、表示装置11の筐体に対してz方向に移動する。
表示装置11が図10のような構成とされる場合、図2に示した表示装置11の機能の構成では、x駆動部39、y駆動部37、およびz駆動部35に代えて、バイモルフ素子132、バイモルフ素子134、および図示せぬバイモルフ素子が設けられることになる。そして、これらのバイモルフ素子132等は、移動量算出部64から供給された、視点位置の移動量に応じた電圧信号に基づいて駆動し、バリア素子31を移動させる。
なお、以上においては、バリア素子31等の分離部が光変調パネル72とユーザの眼との間に配置される場合について説明したが、光変調パネル72の裏面側に点光源アレイを配置する形式の表示装置もある。そのような場合には、点光源アレイを移動させることで、以上の実施の形態で説明した場合と同等の効果を得ることができる。
なお、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図11は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記録部308、ネットワークインターフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。ここでは、出力部307が図1の表示部21に対応する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記録部308に記録されているプログラムを、入出力インターフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インターフェース305を介して、記録部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記録部308にインストールすることができる。その他、プログラムは、ROM302や記録部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本技術は、以下の構成とすることも可能である。
[1]
複数の異なる視点の画像を表示する表示部と、
前記複数の異なる視点の画像を光学的に分離する分離部と、
前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出する移動量算出部と、
前記移動量に基づいて駆動し、前記表示部に対して前記分離部を移動させる複数の駆動部と
を備える表示装置。
[2]
前記駆動部は、前記表示部の表示面と垂直な方向に前記分離部を移動させる
[1]に記載の表示装置。
[3]
前記移動量算出部は、前記分離部から前記ユーザの視点位置までの距離、前記ユーザの両眼の間隔、および前記表示部に設けられた画素の幅に基づいて、前記表示面と垂直な方向への前記分離部の移動量を算出する
[2]に記載の表示装置。
[4]
前記駆動部は、前記表示部の表示面と平行な複数方向に前記分離部を移動させる
[1]乃至[3]の何れかに記載の表示装置。
[5]
前記移動量算出部は、前記ユーザの視点位置の前記表示面と平行な複数方向の変化量、前記分離部と前記表示部との距離、および前記分離部から前記ユーザの視点位置までの距離に基づいて、前記表示面と平行な複数方向への前記分離部の移動量を算出する
[4]に記載の表示装置。
[6]
前記分離部を保持する第1の保持部材と、
前記第1の保持部材を保持する第2の保持部材と
をさらに備え、
前記駆動部は、前記第1の保持部材と前記第2の保持部材との間に設けられ、前記第2の保持部材に対して前記第1の保持部材を移動させることで、前記分離部を移動させる
[1]乃至[5]の何れかに記載の表示装置。
11 表示装置, 31 バリア素子, 32 x枠, 33 y枠, 34 z枠, 35 z駆動部, 37 y駆動部, 39 x駆動部, 64 移動量算出部, 72 光変調パネル

Claims (8)

  1. 複数の異なる視点の画像を表示する表示部と、
    前記複数の異なる視点の画像を光学的に分離する分離部と、
    前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出する移動量算出部と、
    前記移動量に基づいて駆動し、前記表示部に対して前記分離部を移動させる複数の駆動部と
    を備える表示装置。
  2. 前記駆動部は、前記表示部の表示面と垂直な方向に前記分離部を移動させる
    請求項1に記載の表示装置。
  3. 前記移動量算出部は、前記分離部から前記ユーザの視点位置までの距離、前記ユーザの両眼の間隔、および前記表示部に設けられた画素の幅に基づいて、前記表示面と垂直な方向への前記分離部の移動量を算出する
    請求項2に記載の表示装置。
  4. 前記駆動部は、前記表示部の表示面と平行な複数方向に前記分離部を移動させる
    請求項1に記載の表示装置。
  5. 前記移動量算出部は、前記ユーザの視点位置の前記表示面と平行な複数方向の変化量、前記分離部と前記表示部との距離、および前記分離部から前記ユーザの視点位置までの距離に基づいて、前記表示面と平行な複数方向への前記分離部の移動量を算出する
    請求項4に記載の表示装置。
  6. 前記分離部を保持する第1の保持部材と、
    前記第1の保持部材を保持する第2の保持部材と
    をさらに備え、
    前記駆動部は、前記第1の保持部材と前記第2の保持部材との間に設けられ、前記第2の保持部材に対して前記第1の保持部材を移動させることで、前記分離部を移動させる
    請求項5に記載の表示装置。
  7. 複数の異なる視点の画像を表示する表示部と、
    前記複数の異なる視点の画像を光学的に分離する分離部と、
    前記表示部に対して前記分離部を複数方向に移動させる駆動部と
    を備える表示装置の表示方法であって、
    前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出し、
    前記移動量に基づいて前記駆動部を駆動させ、前記表示部に対して前記分離部を移動させる
    ステップを含む表示方法。
  8. 複数の異なる視点の画像を表示する表示部と、
    前記複数の異なる視点の画像を光学的に分離する分離部と、
    前記表示部に対して前記分離部を複数方向に移動させる駆動部と
    を備える表示装置を制御するコンピュータに、
    前記表示部を観察するユーザの視点位置の変化に応じて、前記表示部に対する前記分離部の複数方向の移動量を算出し、
    前記移動量に基づいて前記駆動部を駆動させ、前記表示部に対して前記分離部を移動させる
    ステップを含む処理を実行させるプログラム。
JP2011267558A 2011-12-07 2011-12-07 表示装置および方法、並びにプログラム Pending JP2013121031A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011267558A JP2013121031A (ja) 2011-12-07 2011-12-07 表示装置および方法、並びにプログラム
US13/681,449 US9294759B2 (en) 2011-12-07 2012-11-20 Display device, method and program capable of providing a high-quality stereoscopic (3D) image, independently of the eye-point location of the viewer
CN201210505448XA CN103152590A (zh) 2011-12-07 2012-11-30 显示装置、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011267558A JP2013121031A (ja) 2011-12-07 2011-12-07 表示装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2013121031A true JP2013121031A (ja) 2013-06-17

Family

ID=48550426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011267558A Pending JP2013121031A (ja) 2011-12-07 2011-12-07 表示装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9294759B2 (ja)
JP (1) JP2013121031A (ja)
CN (1) CN103152590A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015127800A (ja) * 2013-11-27 2015-07-09 株式会社半導体エネルギー研究所 表示装置、及び表示装置用枠
JP2018129826A (ja) * 2018-03-12 2018-08-16 Tianma Japan株式会社 立体画像表示装置及び立体画像表示方法
US10237542B2 (en) 2014-04-24 2019-03-19 Nlt Technologies, Ltd. Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5621303B2 (ja) * 2009-04-17 2014-11-12 ソニー株式会社 撮像装置
JP5904174B2 (ja) * 2013-08-22 2016-04-13 Smk株式会社 タッチパネルの支持構造
CN103913847B (zh) * 2014-03-19 2015-12-02 京东方科技集团股份有限公司 一种三维显示系统
CN104575279B (zh) * 2015-02-16 2018-09-21 京东方科技集团股份有限公司 一种显示装置框架及显示装置
CN104994373A (zh) * 2015-07-31 2015-10-21 京东方科技集团股份有限公司 三维显示装置及三维显示方法
CN105093544B (zh) * 2015-08-12 2017-06-30 京东方科技集团股份有限公司 显示装置
CN115373878B (zh) * 2022-10-27 2023-03-28 麒麟软件有限公司 基于x框架的防截屏扩展协议实现系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
JPH1078562A (ja) 1996-09-02 1998-03-24 Canon Inc 立体ディスプレイ装置
JP2951287B2 (ja) 1997-05-27 1999-09-20 三洋電機株式会社 頭部位置検出装置およびこれを備えた頭部位置追従型立体表示装置
US7843449B2 (en) * 2006-09-20 2010-11-30 Apple Inc. Three-dimensional display system
CN102640502B (zh) * 2009-10-14 2015-09-23 诺基亚公司 自动立体渲染和显示装置
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
KR101697181B1 (ko) * 2010-09-07 2017-01-17 삼성전자주식회사 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
WO2012068137A1 (en) * 2010-11-15 2012-05-24 Medivision, Inc. Stereoscopic relay optics
WO2012087275A1 (en) * 2010-12-20 2012-06-28 Sony Ericsson Mobile Communications Ab Determining device movement and orientation for three dimensional view
EP2689586A1 (en) * 2011-03-23 2014-01-29 Sony Ericsson Mobile Communications AB Adjusting an optical guide of a three-dimensional display to reduce pseudo-stereoscopic effect
US9285586B2 (en) * 2011-05-13 2016-03-15 Sony Corporation Adjusting parallax barriers

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015127800A (ja) * 2013-11-27 2015-07-09 株式会社半導体エネルギー研究所 表示装置、及び表示装置用枠
JP2019144572A (ja) * 2013-11-27 2019-08-29 株式会社半導体エネルギー研究所 表示装置
US10547831B2 (en) 2013-11-27 2020-01-28 Semiconductor Energy Laboratory Co., Ltd. Display device and display device frame
US10237542B2 (en) 2014-04-24 2019-03-19 Nlt Technologies, Ltd. Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program
JP2018129826A (ja) * 2018-03-12 2018-08-16 Tianma Japan株式会社 立体画像表示装置及び立体画像表示方法

Also Published As

Publication number Publication date
CN103152590A (zh) 2013-06-12
US9294759B2 (en) 2016-03-22
US20130147930A1 (en) 2013-06-13

Similar Documents

Publication Publication Date Title
JP2013121031A (ja) 表示装置および方法、並びにプログラム
CN101674491B (zh) 用于分析图像数据的设备、方法和计算机程序
JP6061852B2 (ja) 映像表示装置および映像表示方法
US8208008B2 (en) Apparatus, method, and program for displaying stereoscopic images
EP2562581A1 (en) Three-dimensional video display device and three-dimensional video display method
KR101449748B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
NL2009616C2 (en) Adjusting depth in a three-dimensional image signal.
US9986226B2 (en) Video display method and video display apparatus
TW201322733A (zh) 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
JP5439686B2 (ja) 立体画像表示装置及び立体画像表示方法
KR20120054182A (ko) 입체 디스플레이의 화질 측정 장치 및 방법, 이를 이용한 화질 분석 방법
JP5909849B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
CA2968676A1 (en) Device for creating and enhancing three-dimensional image effects
JP3157483B2 (ja) 立体視検査装置および立体視検査プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012142846A (ja) ディスプレイ装置及び情報処理装置
JP2006287813A (ja) 3次元画像表示装置
KR101275127B1 (ko) 초점 가변 액체 렌즈를 이용한 3차원 이미지 촬영장치 및 방법
TW201310972A (zh) 畫像處理裝置、立體畫像顯示裝置及畫像處理方法
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2004294914A (ja) 立体映像表示装置
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
JP5487935B2 (ja) 表示装置および表示方法
WO2012014695A1 (ja) 立体撮像装置およびその撮像方法
JP4268415B2 (ja) 立体視方法およびヘッドマウントディスプレイ装置