JP5858044B2 - 立体画像表示装置 - Google Patents
立体画像表示装置 Download PDFInfo
- Publication number
- JP5858044B2 JP5858044B2 JP2013527832A JP2013527832A JP5858044B2 JP 5858044 B2 JP5858044 B2 JP 5858044B2 JP 2013527832 A JP2013527832 A JP 2013527832A JP 2013527832 A JP2013527832 A JP 2013527832A JP 5858044 B2 JP5858044 B2 JP 5858044B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- stereoscopic
- viewer
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 62
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 17
- 241000282414 Homo sapiens Species 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 210000000056 organ Anatomy 0.000 claims description 4
- 230000003252 repetitive effect Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 94
- 238000010586 diagram Methods 0.000 description 32
- 239000004973 liquid crystal related substance Substances 0.000 description 24
- 238000000034 method Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
- G02B30/29—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays characterised by the geometry of the lenticular array, e.g. slanted arrays, irregular arrays or arrays of varying shape or size
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/317—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/371—Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Liquid Crystal Display Device Control (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Description
同一の対象物に対して、左眼用画像における位置と、右眼用画像における位置との差を、視差という。画像内に存在する2つの対象物で、視差量が異なることにより、一方の対象物が他方の対象物に対して手前又は奥に存在するように見える。視差量は、視差の大きさである。
図33はレンズシートを用いた従来の立体画像生成装置の構造を模式的に示す上面図である。この図33に示す例においては、液晶ディスプレイ901にレンズシート902を装着した従来の立体画像生成装置900の正面に利用者(視聴者)903がいる。
このような従来の立体画像生成装置900の正面位置において、その液晶ディスプレイ901の中心部902a付近においては、立体映像として認識できる。しかしながら、利用者903がその頭頂部TPを中心に頭部を左右のいずれかの方向に振って(回動させて)、周辺部902b付近を見るとレンズシート902(液晶ディスプレイ901)までの距離が異なるため、映像はぶれて見え、立体映像として認識することは困難である。
1/f = (n−1)(1/R1 − 1/R2)
+ (n−1)x(n−1)/n × t/R1R2 ・・・(1)
ただし、
f:焦点距離
n:レンズの屈折率
R1:画素側からみた曲率半径
R2:視聴者側からみた曲率半径
t:レンズの厚さ
とする。
また、同様に、“t/R1R2”についても、R2が無限大であるためゼロになる。従って、上記式(1)は、
1/f = (n−1)(1/R1)
となる。又、ここで、nはレンズを構成する素材による固定値となる。従って、R1に依存してfが決定する。
従って、視聴者が3D映像を結像できる位置はfであり、そのfの数値はR1によって決定され、又、このR1は画素からレンズまでの距離bに依存される。
しかしながら、図33に示した従来の立体画像生成装置900においては、液晶ディスプレイ901とレンズシート902との距離bは一定であり、従って、3D映像の結像位置を制御するためには、レンズシート902のレンズの曲率半径を適宜変更する必要がある。
従って、レンズの曲率半径を微細に変更してレンズシート902を作成することは加工精度上、困難であり、非現実的である。
なお、前記目的に限らず、後述する発明を実施するための最良の形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。
図1は実施形態の一例としての立体画像表示装置1の構成を模式的に示す図、図2はその表示装置10の表示素子の配列の例を示す図である。又、図3は実施形態の一例としての立体画像表示装置1のレンズシート11の構成を模式的に示す断面図、図4は表示装置10に対するレンズシート11の取り付けの例を示す図である。
ここで、本立体画像表示装置1で表示される立体画像(3D映像)は、動画であっても静止画像であってもよい。
表示装置10は、例えば、液晶ディスプレイであり、表示制御装置13からの制御に従って、その表示面10aに画像を表示する。
本実施形態においては、立体画像表示装置1が、例えば27インチ以上の大型の液晶ディスプレイをそなえたディスクトップ型パソコンである例について示す。すなわち、表示装置10は、27インチ以上の液晶ディスプレイである。
表示面10aは平面として形成され、この表示面10aには複数の色画素の素子(表示素子)が、表示面10aの水平方向及び水平方向と直交する方向に配列されている。表示面10aに表示される画像を構成する複数の画素は、それぞれ表示素子によって表現される。
なお、図2に示す例においては、1つの画素の色画素が、画素の配列方向(本実施形態においては水平方向)に対して非平行に配置されているが、これに限定されるものではなく、種々変形して実施することができる。1つの画素の色画素は、画素の配列方向に対して平行に配置されてもよい。
このレンズシート11は、表示装置10の表示面10a側において、各平凸面レンズ111において突出する凸レンズ111aとは反対側の面(以下、裏面111bという)を表示装置10の表示面10aに対向させて配置されている。
そして、レンズシート11において、各平凸面レンズ111の凸レンズ111aの光軸は、互いに平行に配置されており、これにより、各平凸面レンズ111が同一方向を向いて形成されている。
また、図3に示すように、各平凸面レンズ111は、その配列方向における中央位置で表示装置10の表示面10aに最も近く、又、配列方向における両端部で表示装置10の表示面10aから最も遠ざかるように、表示面10aとの距離が変化するように階段状に配置されている。すなわち、その配列方向において、表示面10aの画素からレンズシート11の裏面111bまでの距離は均一ではなく、特に、表示装置10の配列方向における中央部から端部までの半面においては、各画素から平凸面レンズ111の裏面111bまでの距離は異なる。
このように、レンズシート11は、平凸面レンズ111の突出方向(レンズアレイ方向)が一定で、表示装置10の表示面10aにある画素と平凸面レンズ111までの距離が段階的に変化する湾曲構造(凹面構造)として構成されている。
表示装置10は、取得した3DパネルIDを表示制御装置13に送信する。
本立体画像表示装置1においては、表示面10aの1画素に1レンズアレイ(1つの平凸面レンズ111)を対応させるので、1画素の光線は光の強さ(光量)を落とすことなく、且つ、正確な焦点距離aを持って結像することができる。
図5は実施形態の一例としての立体画像表示装置1の表示制御装置13のハードウェア構成を模式的に示す図である。
オーディオコントローラ137は、スピーカ143が接続され、このスピーカ143に対する音声データの出力を制御する。
そして、このHDD138には、後述の如く、立体表示対象(表示対象)について予め作成された立体画像データが格納されている。すなわち、HDD138は、表示対象についての視差点毎の立体表示用画像を複数視点毎に格納する格納部として機能する。
キーボードコントローラ140はキーボード144やマウス145等の入力装置が接続され、これらのキーボード144やマウス145とCPU131と間のデータのやり取りを制御する。チップセット135には、これらの各部がバス等を介して接続され、CPU131とこれら各部との通信を制御する。又、表示制御装置13には、カメラ12も接続され、このカメラ12によって撮像された視聴者の顔の画像を受信する。
CPU131は、例えば、画像再生アプリケーション(回り込み時再生アプリ)を実行することにより、動画像や静止画像等のコンテンツ(回り込み時再生アプリ映像)を表示装置10の表示面10aに表示させる。
なお、これらの検知部31,選択部32及び表示制御部33としての機能を実現するためのプログラム(画像再生アプリケーション)は、例えばフレキシブルディスク,CD(CD−ROM,CD−R,CD−RW等),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD+R,DVD−RW,DVD+RW等),磁気ディスク,光ディスク,光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供される。そして、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。又、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供するようにしてもよい。
なお、本実施形態において、コンピュータとは、ハードウェアとオペレーティングシステムとを含む概念であり、オペレーティングシステムの制御の下で動作するハードウェアを意味している。又、オペレーティングシステムが不要でアプリケーションプログラム単独でハードウェアを動作させるような場合には、そのハードウェア自体がコンピュータに相当する。ハードウェアは、少なくとも、CPU等のマイクロプロセッサと、記録媒体に記録されたコンピュータプログラムを読み取るための手段とをそなえており、本実施形態においては、立体画像表示装置1がコンピュータとしての機能を有しているのである。
なお、以下、顔画像を示す符号としては、複数の顔画像のうち1つを特定する必要があるときには符号300a,300b,300cを用いるが、任意の顔画像を指すときには符号300を用いる。又、この顔画像300は動画像であっても静止画像であってもよい。
そして、検知部31は、この両眼の位置や、間隔距離の変位を検知することにより、視聴者の首を軸とする頭部の回転量を検知する。すなわち、検知部31は、人体の視覚器官の姿勢変更量を検知する。
検知部31は、顔画像300において両眼の存在だけを対象物として認識すればよく、例えば、両眼を追尾するような高解像度でフレームレートが高いカメラをそなえる必要はなく、又は、赤外線カメラのような視聴者の視聴位置/距離を把握する高機能なシステム構成も不要である。これはカメラ12による撮像画像において両眼が右または左に移動する判断で顔が左右どちらに傾いたかを判断すればよいからである。そして、これにより、本装置を低コストで実現することができる。
また、両眼の位置の認識は映像認識で行なってもよい。カメラ12によって撮像された顔画像300に基づいて、検知部31は、頭部の回転量やその角度を認識する。そして、検知部31は、カメラ12によって撮像された顔画像300と、後述する基本感間隔距離と比較する。
図7は実施形態の一例としての立体画像表示装置1におけるダイアログボックスを例示する図である。
視聴者がこのダイアログボックスのメッセージに応じて、表示装置10との距離が予め規定された位置において、表示装置10(カメラ12)に正対し、キーボード144やマウス145を操作して“OK”を選択すると、顔の向き検出が開始される。
これにより、先ず、図6(a)に示すように、視聴者が正面を向いている状態の顔の画像300aが撮影される。このように、規定位置において視聴者が正面を向いている(正対している;回転角度0゜)状態での両眼の位置が基本位置であり、又、この状態での両眼の間隔が基本間隔距離dである。すなわち、検知部31は、視聴者の正面を向いている状態の顔画像300aに基づき、両眼の基本位置及び基本間隔距離を認識する。
例えば、検知部31は、新たに取得した顔画像300における両眼の位置を、先に認識した両眼の基本位置と比較することにより、視聴者の顔の回転方向(左右のいずれの方向に回転しているか)を判断する。又、検知部31は、新たに取得した顔画像300における両眼の間隔を、先に認識した両眼の基本間隔距離と比較することにより、視聴者の顔の回転量を判断する。
本実施形態においては、上述の如く、顔画像300において測定した両眼の間隔距離を基本間隔距離dと比較することにより、視聴者の頭部の回転量を把握する。このように、視聴者の頭の回転方向左右どちらかであること、そして表示装置10の正面からどれくらいの角度を持って傾いているかを表す情報をセンサ情報という。
例えば、視聴者が表示面10aに正対している状態(回転角度0゜;レベル0)から、視聴者が左右いずれかの方向に真横を向いた状態(回転角度90゜)までの間を、所定数n(例えばn=20)のレベル(例えば、0〜19)に分割し、検知部31は、測定した両眼の間隔距離に基づき、視聴者の頭部の回転角度がいずれのレベルであるかを判断する。又、これらのレベル分けは、左右方向のそれぞれについて行なう。
また、検知部31は、例えば、視聴者の頭部の回転の向きや、表示面10aの正面からどれぐらいの角度を持って回転しているかを示す情報、判断結果としてのレベル値を選択部32に通知する。
また、HDD138においては、レンズシート11の種類(3DパネルID)に応じて複数種類の立体表示用画像が格納されており、選択部32は、レンズシート11の3DパネルIDに合った立体表示用画像を選択する。
なお、両眼の移動は検知されたが、両眼の間隔が変更されない場合には、視聴者は表示装置10に対向した状態で、そのまま左右のいずれか方向に移動しただけである。このような場合には、表示装置10に表示される立体表示用画像(画素群)は変更されない。
この図8に示すように、カメラ12による視聴者の顔画像300の出力が行なわれ(A10)、次に、検知部31による視聴者の頭部の回転検知処理が行なわれる(A20)。回転検知処理においては、視聴者の両眼の基本位置及び基本間隔距離の認識が行なわれ、この基本間隔距離が両眼距離基準値として用いられる。回転検知処理の結果はレベル通知として通知され、再生処理に移行する(A30)。又、レベル通知は、選択部32によるデータ要求に応じて行なってもよい。
次に、立体表示用画像としての画素群配列について説明する。本立体画像表示装置1においては、立体表示用画像はレベルに応じて切り替えられる。
HDD138には、予め、図9(a),(b)に示すような、左眼用の立体表示用画像(左眼用立体表示用画像)40Lと右眼用の立体表示用画像(右眼用立体表示用画像)40Rとがレベル毎(複数視点毎)に格納されている。
以下、視差がある複数の視点をそれぞれ視差点という。本立体画像表示装置1においては、両眼視差による両眼視差立体視を実現し、視聴者の右眼及び左眼がそれぞれ視差点となる。すなわち、HDD138は、視差点としての左眼及び右眼のそれぞれに対応させて、互いに視差を有して作成された左眼用立体表示用画像及び右眼用立体表示用画像を格納している。
また、選択部32は、表示対象物について、検知部31により求められたレベル値に対応する立体表示用画像がない場合には、求められたレベル値の値に最も近い立体表示用画像を選択する等、適宜変更して実施することができる。
検知部31が視聴者の頭部の姿勢がレベル0(回転角度0゜)であると検知すると、選択部32が、図9(a)に示すような、レベル0に相当する立体表示用画像を取得する。
同様に、その右眼用立体表示用画像40Rを構成する画素群の配列においては、(R,G,B)=(R3Rk0,R3Gk0,R3Bk0)で1つの画素が示され、又、この画素に隣接して、(R,G,B)=(R4Rk0,R4Gk0,R4Bk0)で1つの画素が示される。
図9(b)に例示する、レベル1の左眼用立体表示用画像40Lを構成する画素群の配列においては、(R,G,B)=(L3Rl1,L3Gl1,L3Bl1)で1つの画素が示され、又、これに隣接して、(R,G,B)=(L4Rl1,L4Gl1,L4Bl1)で1つの画素が示される。
図10は実施形態の一例としての立体画像表示装置1における、表示対象の立体画像データ(3D映像データ)のフォーマットイメージを示す図であり、視聴者が立体表示用画像として見る表示対象物のイメージを表している。この図10においては表示対象物A,Bをそなえた複数の立体画像データ41a,41b,41cを示している。これらの立体画像データ41a,41b,41cは時間経過に従って変化してもよい。
HDD138には、立体表示用画像として、これらの立体画像データ41a,41b,41cのそれぞれについての左眼用立体表示用画像40L及び右眼用立体表示用画像40Rが格納される。
また、これらの立体画像データ41a,41b,41cにおいて、対象物Aは回転方向の視差情報はあるが対象物として移動はせず、又、対象物Bは回転方向の視差情報はないが、対象物としては移動をするため時間の経過とともに対象物は移動をする。
図11はサイドバイサイドの立体画像フォーマットを模式的に示す図である。サイドバイサイドの立体画像フォーマットにおいては、左眼における結像映像(以下、L側映像と記述)と右眼における結像映像(以下、R側映像と記述)とが1フレーム内に存在する。そして、これらのL側映像とR側映像とを互いに異なった映像フレームとして、視聴者は視聴する。
この図13においては表示対象物A,B,Cをそなえた複数の立体画像データ41a,41b,41cを示している。
立体画像データ41aは、視聴者が正面向き(回転角度0゜)の状態で表示される画像を示す。又、立体画像データ41bは、視聴者が左に角度aだけ回転した状態で表示される画像を示し、立体画像データ41cは、視聴者が左に角度bだけ回転した状態で表示される画像を示す。ただし、a<bとする。
検知部31により、視聴者の頭部の回転がない、すなわち、視聴者が正面を向いていると判断された場合は、立体画像データ41aを対象物A,対象物B及び対象物Cの全てを両眼における視差量で表示する。例えば、図12に示すサイドバイサイドの立体画像フォーマットとして表示する。
表示制御部33は、選択部32によって選択された立体表示用画像を表示装置10に表示させる制御を行なう。すなわち、立体表示用画像を構成する画素を表示面10aの表示素子に対応させて画素の表示を行なわせる。なお、画像を表示装置10に表示させる手法は、既知の種々の手法を用いて実現することができ、その詳細な説明は省略する。
図14は実施形態の一例としての立体画像表示装置1における表示面10aの画素配列とレンズシート11との関係を示す図である。
この図14に示す例においては、レンズシート11の凸レンズ111a及びレンズ溝部111cを表示面10aの画素配列の方向に対して斜めに配置する例を示す。表示装置10の表示面10a上では、色画素の素子(表示素子)は、表示面10aに対して水平方向(図15の横方向;配列方向)及び、水平方向に対して直交する方向(図14の縦方向)に配列される。図15の例では、表示装置10の画像素子の配列の縦方向に対して、斜め方向(非平行の方向)に凸レンズ111a及びレンズ溝部111cを配置する。凸レンズ111aの方向は、レンズ溝部111cの方向に対して平行に配置される。これにともなって、表示装置10で表示する各画素は、斜め方向に色画素を配置する。なお、この図14に示す例においては、便宜上、同一の画素を形成する色画素に対して、同一のアルファベットを識別符号として付している。
例えば、画素Cから出た光は、そのほとんどが同一の凸レンズ111aに入射され、当該レンズにより利用者の、予め規定された左右いずれかの眼の位置で結像される。他の画素についても同様である。又、左眼用画像の画素と右眼用画像の画素とは、交互に配置される。
上述の如く、レンズシート11の各平凸面レンズ111は同様の構成をそなえており、互いに同一の焦点距離を有する。しかしながら、レンズシート11を構成する複数のレンズアレイ111を階段状に配置することにより、表示装置10の表示面10aと各平凸面レンズ111の裏面111bとの距離がそれぞれ異なり、これにより視聴者までの焦点距離が異なる。
図15に示す例においては、レンズシート11において、焦点距離Aのレンズアレイ111と焦点距離Bのレンズアレイ111があるものとする。なお、焦点距離Aは焦点距離Bに対して遠いものとする。
ここで、例えば、ブルーレイ(Blu-ray)ディスクに録画されている映像の解像度は1920×1080であるため、再生アプリケーションによりブルーレイの映像を再生しても表示装置10全体には表示できない。
そこで、本立体画像表示装置1においては、表示制御部33は、立体表示用画像を表示面10aに表示させるに際して、この視聴範囲外領域10bを用いて立体表示用画像を表示させる。
本立体画像表示装置1において、画像再生アプリケーションが起動されると(ステップS10)、画像再生アプリケーションは、先ず、表示装置10にレンズシート11(3Dシート)が取り付けられているか否かを確認する(ステップS20)。例えば、画像再生アプリケーションは、表示装置10におけるレンズシート11の取り付けを検知するセンサの検知結果に基づき、レンズシート11が取り付けられているか否かの判断を行なう(ステップS30)。
検知部31は、カメラ12により撮像した視聴者の顔画像300に基づき、両瞳の位置及び間隔のデータを取得する(ステップS50)。
また、取得された両眼の間隔が画像再生アプリケーションに予め基準データとして持つ間隔範囲に入っている場合には(ステップS60のYESルート参照)、検知部31は、視聴者の頭部の向きが正面、右向き、左向きのどれであるかを確認し(ステップS80)、又、頭部が回動している場合には、そのレベルを求める。
そして、正常視聴位置である、第1の仮定頭部位置もしくは第2の仮定頭部位置から表示装置10を見ると、図19(a)に示すように、視聴者の眼には、その視点位置に応じたいずれかの立体表示用画像が正しく結像する。
先ず、視聴者は、表示装置10の前に位置し、顔を任意の方向に向ける。すると表示装置10及びレンズシート11と視聴者の各眼までの距離も変わる。すると、図19(b)に示すように回転方向の視差情報を持つ立体映像となる対象物はその焦点距離が規定値ではなくなり4重に見える。
すなわち、センサ情報の変更が確認され(ステップB10)、検知部31は視聴者の両眼の移動方向を確認し(ステップB20)、又、両眼の間隔距離を測定する(ステップB30)。
そして、表示制御部33が、この選択部32によって選択された立体表示用画像を表示装置10に表示させる(ステップB50)。
図21及び図22はそれぞれ実施形態の一例としての立体画像表示装置1における表示装置10,レンズシート11及び視聴者の関係を模式的に示す図である。これらの図21及び図22を用いて、本立体画像表示装置1において視聴者において結像するレンズアレイが切り替わる処理を説明する。
図21に示すように、表示面10aにレンズシート11を取り付けた表示装置10に対向するように視聴者が位置し、表示装置10に表示される立体表示用画像が視聴者の両眼に結像し、立体画像を見ることができる。
この視聴者の位置は、例えば、キーボード144やマウス145を操作可能な着座位置であり、視聴者の両眼と表示面10aとの距離が予め設定された推奨視聴距離となるように設定された推奨位置である。
図21に示す状態においては、視聴者は、(1a,3a)の平凸面レンズ111の組み合わせで3D画像を結像/視聴している。すなわち、符号1aで示す平凸面レンズ111の右眼立体表示用画像の画素が視聴者の右眼に結像し、符号3aで示す平凸面レンズ111の左眼立体表示用画像の画素が視聴者の左眼に結像して、視聴者は立体表示用画像を認識する。
しかしながら、レンズシート11においては、平凸面レンズ111毎に表示装置10との距離Hが異なるように湾曲構造をしているため、視聴者の左右の眼に、それぞれ焦点距離を合わせることができる。
すなわち、符号2bで示す平凸面レンズ111の右眼立体表示用画像の画素が視聴者の右眼に結像し、符号4bで示す平凸面レンズ111の左眼立体表示用画像の画素が視聴者の左眼に結像して、視聴者はその頭部を回動させた状態でも立体表示用画像を認識することができる。
このように、視聴者の頭部の姿勢すなわち、両眼の位置に合わせて、それに応じた画素配列の画素群を表示面10aに表示させることにより、奥行き感あるいは飛び出し感がある立体画像を視聴者の眼に結像させることができる。
また、例えば、図22において、視聴者が、(2b,4b)の平凸面レンズ111の組み合わせで3D画像を結像/視聴している状態においては、(2b,4b)以外の平凸面レンズ111に画素群を表示しても視聴者は結像できない。ただし、平凸面レンズ111と視聴者の両眼の距離が合えば結像は可能となる。
次に、レンズシート11の形状と視聴者の頭の位置との関係について説明する。なお、以下、視聴者が左側へ頭を回動させる例について示す。
図24(a),(b),(c)は視聴者の頭の移動に伴って変化する両眼の位置と結像距離を示す図である。図24(a)表示装置10に正対した状態を示す図、図24(b)は左側に第1の角度で頭を回動した状態を示す図、図24(c)は左側に第2の角度で頭を回動した状態を示す図である。なお、これらの図24(a),(b),(c)中においては、レンズシート11の図示を省略している。
例えば、角度θが、0゜、20゜、40゜の各場合について例示する。
θ=20゜の場合は、図23(b)に示すように、表示装置10に対して左側に20゜傾けた状態であるので、左眼の位置は、右眼の位置に対して、表示装置10からC×tan20離れた状態となる。
すなわち、右眼に対して左眼は25mmプラスして表示装置10から離れる。
さらに、中心軸Oを中心とする回転であるので両眼の位置は、表示装置10からB−B×cos20離れた状態となる
すなわち、B−B×cos20=150−150cos20≒10mmが加算される。
θ=40゜の場合も同様に、左眼の位置は、右眼の位置に対して、表示装置10からC×tan40離れた状態となる。
すなわち、右眼に対して左眼は35mmプラスして表示装置10から離れる。
さらに、中心軸Oを中心とする回転であるので両眼の位置は、表示装置10からB−B×cos40離れた状態となる
すなわち、B−B×cos40=150−150cos40≒35mmが加算される。
XY=J+E(C×tanθ)+(J−C×cosθ)・・・(2)
ただし、E :∈{0,1}であり、例えば、0は右,1は左とする。
また、θ≠0とする。
また、レンズシート11から視聴者の両眼までの距離をD、表示装置10の表示面10aの画素とレンズシート11との距離をG,平凸面レンズ111におけるレンズの厚さをhとすると、以下の式(3)が成立する。
なお、この式(3)の詳細については後述する。
上記式(3)より、以下の式(4)が得られる。
1/R1=1/XY+1/(G+h) ・・・(4)
なお、R1は平凸面レンズ111の曲率半径であり固定値である。又、hは平凸面レンズ111のレンズの厚さであり固定値である。
例えば、表示装置10が1920×1020(ピクセル,画素)の解像度を有する液晶ディスプレイと仮定する。表示装置10の表示面10aの中心において、画素とレンズアレイ111とは4.025mm離れて載置される。
図23(b)に示す例において、θ1=θ2とする。点O,点X,点Yからなる三角形について、α+θ3=90゜であるため、θ1=θ3となる。
そして、視聴者が頭を左側にθ2回動させた場合には、視聴者の右眼は表示面10aにおけるS=1000mm×tanθ2左側の位置を見ることになる。例えば、視聴者が頭を左側に20゜回動させた場合には、視聴者の右眼は表示面10aにおけるS=1000mm×tan(20゜)=364mm左側の位置を見ることになる。
表示装置10の左側半面について考えると、その水平方向には(1920/2)×3=2880個の画素がある。従って、その水平方向の寸法は、2880×0.412=1192mmとなる。
そして、さらに視聴者の頭部が回転すると、右眼においても表示装置10からの焦点距離が遠ざかるため、θ=20゜のときに左眼で焦点距離が合うレンズアレイの範囲において、次は右眼で焦点距離が合うことになる。
また、図24(a)に示す状態においては左右の眼はどちらも表示装置10に対して同じ距離(結像距離)J1である。
そして、視聴者が左側に頭部を回動し、第1の角度(θ=XX゜)となった場合には、図24(b)に示すように、左右の眼で異なる結像距離(右眼:J2,左眼:J3)になる。なお、頭部の回動により、右眼も表示装置10から遠ざかるため、いずれの結像距離も図24(a)に示す状態の焦点距離J1とは異なる。
なお、この図25に示す例においては、便宜上、表示装置10の左半分について示し、視聴者の頭部を左側に回動する例について示す。本立体画像表示装置1においては、上述のごとく、視聴者の頭部の回転に応じて、レンズアレイ111の結像距離は変わり、又、その頭部の回転に応じて、左眼用、右眼用の各映像データの画素群配列も変わる。このため、視聴者は違和感なく、回転映像を視聴できる。
また、この角度XX゜の状態で左眼への結像に使用したレンズシート11の領域α2が、更に、頭部を回動させて角度XXX゜となった状態の右眼への結像に用いられる。
そして、このレンズシート11を上方から見た際におけるその表面の曲面の形状S1は、図26に示すように、視聴者が本立体画像表示装置1において、首を回動させた時に両眼が通過する軌跡Y1と、同じもしくはほぼ同じ形状をそなえる。
そこで、上記式(2),(4)に基づき、焦点距離が軌道Y1上の各点に合うように、表示装置10とレンズシート11との距離G、すなわち、表示面10aと平凸面レンズ111との距離を調整することにより、本立体画像表示装置1のレンズシート11を実現することができる。
図27はフラットなレンズシートをそなえる表示装置に、異なる2箇所に視聴者の頭部位置を仮定した立体表示用画像を表示した例を示す図である。
このように、実施形態の一例としての立体画像表示装置1によれば、表示装置10の前で視聴者がその頭部を首を軸に回転させると、検知部31が、カメラ12によって撮像した視聴者の顔画像300に基づいて、両眼の位置を認識し、視聴者の頭部の回転量を検知する。
すなわち、表示装置10の前において視聴者がその頭部を回動させて、表示装置10と視聴者の眼との距離が変化した場合であっても、視聴者の眼に立体表示用画像を結像させることができ、回り込み3D表示機能を実現し、円形立体視聴イメージ効果を得ることができる。
また、回り込み3D表示機能を実現するに際して、カメラ12で視聴者の顔画像300を撮影することで実現することができ、高価な光線制御部を有する光学ユニット/システム構成をそなえる必要がなく、製造コストを低減することができる。
図28は表示装置及びレンズシートと視聴者の左右の眼の位置との関係を示す図であり、便宜上、フラットなレンズシートをそなえた例について示す。
さて、一般化されているレンズの法則によれば、図28に示すように、視聴者の左右の眼の間の距離をE、表示装置10における画素間の距離をP、レンズシート11から視聴者の両眼までの距離をD、表示面10aからレンズシート11までの距離(画素−レンズ距離)をGとする。又、レンズシート11において隣り合う平凸面レンズ111の頂点間の距離をQとする。この場合において、
E:P = D:G
2PD = Q(D+G)
1/D+1/G = 1/f
が成立する。
このときのGを変更したときの焦点距離の違いを図28に例示する。なお、本例においては、表示面10aからレンズシート11までの距離Gの値には、平凸面レンズ111の厚さhが加算されるものとする。すなわち、G=G+hとなる。
1/f = (n−1)/R1
も成立し、同様にn=2と仮定すると、前記式(3)が成立する。すなわち、
1/R1=1/D+1/(G+h) ・・・(3)
である。ここで、平凸面レンズ111の厚さhは固定値であり、仮に1mmとすると、同様に第一の焦点距離A、同じ0.418mm内の幅において、(A+0.05m)の焦点距離、及び、(A+2(0.05m))の焦点距離という複数の焦点距離をレンズの曲率半径R1を変えないとするなら、その関係は、Dを視聴者までの結像距離とすると、Gで求めることができる。
この図29に示すように、画素(表示面10a)とレンズシート11との距離Gの小数点以下3桁目の値を変化させることより、結像距離(焦点距離)Dの値を変化させることができる。
すなわち、湾曲構造を有するレンズシート11を表示装置10の表示面10aに取り付けることにより、表示面10aにおける位置に応じて異なる焦点距離を混在させる手法を容易に実現することができ、例えば、既存のコンピュータのディスプレイ装置に容易に適用することができる。
なお、各平凸面レンズ111においては、n本の平凸面レンズ111によりレンズシート11が構成されるものとする。そして、表示装置10の正面において、視聴者が表示面10aから、例えば1.00m離れた位置で本立体画像表示装置1を視聴するものと仮定する。
図30は実施形態の一例としての立体画像表示装置1における回頭角度と画素範囲と画素−レンズ間距離との関係を例示する図である。この図30に示す例においては、例えば、1920×1080の解像度(ピクセル,画素)の表示装置10の表示面10aの左右方向における半分の領域(画素000−960)について、便宜上、示している。ここで、表示面10aの左右方向における中心の画素を“000”とする一方で、その端部の画素を“960”と表す。すなわち、この画素の値が大きいほど表示面10aの左右方向における端部に位置し、画素の値が小さいほど表示面10aの中心部に位置することを示す。
この図30は、回頭角度、画素範囲及び画素−レンズ距離を示している。ここで回頭角度は、視聴者の頭部の回動角度であり、画素範囲は、その回頭角度において視聴者の視野に主に(中心的に)入ってくる表示面10aの画素の範囲(水平方向,左右方向)を示す。又、画素−レンズ距離は、それらの画素と、当該画素に対面するレンズシート11の平凸面レンズ111との間の距離を示す。
この図30に示す例においては、例えば、表示面10aに正対している状態では(回頭角度=0゜)、表示面10aの中心付近の画素000−191が視聴者に主に視認されることを示す。同様に、例えば、視聴者が頭部を回動させ、回頭角度が40゜の状態においては、表示面10aの画素384−566が視聴者に主に視認される。そして、これらの画素384−566に対面するレンズシート11の平凸面レンズ111が表示面10aから4.02550離れていることを示す。
また、上述した例においては、画素とレンズシート11との距離を1.00mとした場合について示しているが、例えば、表示装置10として大型のディスプレイモニタを用いる場合には、視聴者正面の視聴位置が表示面10aから遠くなる。この場合、レンズシート11の縁辺部の湾曲の度合いは大きくなり、それに応じて、表示装置10の解像度・回転方向の視差情報が増え、これに伴い画素−レンズ距離も詳細になる。
例えば、上述した実施形態においては、表示装置10が27インチ以上の液晶ディスプレイである例について説明しているが、これに限定されるものではなく、より小さいディスプレイを表示装置10として用いてもよい。
以下、立体画像表示装置1が11.6インチ程度の液晶ディスプレイをそなえるノートブック型パソコンであって、表示装置10が11.6インチ程度の比較的小型の液晶ディスプレイである場合について説明する。
このため、上述した実施形態の如く、視聴者(操作者)の頭部を首を軸に回転する動作を行なうと、視線が液晶パネルから外れてしまう。
そこで、本変形例においては、検知部31は、視聴者の両眼の間隔距離に基づいて頭部の回転量を検知する代わりに、瞳の移動量を検知する。すなわち、検知部31は、人体の視覚器官の姿勢変更の検知として、瞳の移動量を検知する。
検知部31は、視聴者が表示面10aに正対し、真っ直ぐに表示面10aの中央部付近を見ている状態(回転角度0゜;レベル0)から、表示面10aの端部付近を見ている状態までの間を、所定数n(例えばn=10)のレベル(例えば、0〜9)に分割し、測定した瞳の移動量がいずれのレベルであるかを判断する。
ただし、本変形例の立体画像表示装置1においては、表示装置10の表示面10aのサイズが小さいので、図16に示すような視聴範囲外領域10bは存在しない。
本変形例においては、検知部31が瞳の移動量を検知する。よって、上述した実施形態実施の形態1と異なり、表示面10aから右眼までの焦点距離Aと左眼までの焦点距離Bとの数値はさほど変わらないが、表示面10aの周辺になるにつれて、その差は広がる。従って、湾曲構造を有するレンズシート11により左右の眼の焦点距離を変更することができ、視聴者は正確に3D映像を認識できる。画素配列については実施の形態1と同等なため説明は省略する。
例えば、上述した実施形態においては、カメラ12を用いて視聴者の顔画像を撮像することにより顔画像300を生成し、この顔画像300に基づいて視聴者の両眼の位置等の確認を行なっているが、これに限定されるものではなく、カメラ12以外のセンサモジュールにより視聴者の両眼の位置等の確認を行なってもよい。
10 表示装置
10a 表示面
11 レンズシート
12 カメラ
13 表示制御装置
31 検知部
32 選択部
33 表示制御部
40L 左眼用立体表示用画像
40R 右眼用立体表示用画像
41a,41b,41c 立体画像データ
111 平凸面レンズ
111a 凸レンズ
111b 裏面
132 LAN
133 チューナ
134 グラフィックアクセラレータ
135 チップセット
136 メモリ
137 オーディオコントローラ
138 HDD(格納部)
139 ブルーレイディスクドライブ
140 キーボードコントローラ
141 インターネット
142 外部アンテナ
143 スピーカ
144 キーボード
145 マウス
300,300a,300b,300c 顔画像
Claims (3)
- 複数種類の表示素子を繰り返し連続して配置した表示面を有する表示装置と、前記表示装置の表示面に隣接して、前記表示素子が繰り返し連続して配置される配列方向に沿って、一方の面に突出する凸部をそなえるとともに他方の面が平面として構成された複数の平凸面レンズを、前記表示面からの距離を変化させて連続して並べて配置したレンズシートと、
表示対象についての視差点毎の立体表示用画像を複数視点毎に格納する格納部と、
人体の視覚器官の姿勢変更量を検知する検知部と、
前記検知部により検知された前記姿勢変更量に応じて、前記格納部から前記立体表示用画像を視点毎に選択する選択部と、
前記選択部によって選択された前記立体表示用画像を前記表示装置に表示させる表示制御部とをそなえ、
前記表示装置の表示面が平面形状を有し、
前記レンズシートが、前記配列方向に沿って湾曲する形状を有し、前記配列方向における中央部付近において前記表示面に最も近く、且つ、前記中央部付近から前記表示面の端部にかけて前記表示面から遠くなることを特徴とする、立体画像表示装置。 - 前記格納部が、視差点としての左眼及び右眼のそれぞれに対応させて、互いに視差を有して作成された左眼用立体表示用画像及び右眼用立体表示用画像を、前記表示対象の外周における複数の視点毎に格納することを特徴とする、請求項1記載の立体画像表示装置。
- 撮像部をそなえ、
前記検知部が、前記撮像部によって撮像された前記視聴者の顔面の画像に基づき、前記両眼の位置及び間隔を認識することにより、前記姿勢変更量を検知することを特徴とする、請求項1又は2に記載の立体画像表示装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/068391 WO2013021505A1 (ja) | 2011-08-11 | 2011-08-11 | 立体画像表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013021505A1 JPWO2013021505A1 (ja) | 2015-03-05 |
JP5858044B2 true JP5858044B2 (ja) | 2016-02-10 |
Family
ID=47668050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013527832A Expired - Fee Related JP5858044B2 (ja) | 2011-08-11 | 2011-08-11 | 立体画像表示装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9116359B2 (ja) |
JP (1) | JP5858044B2 (ja) |
CN (1) | CN103733118B (ja) |
WO (1) | WO2013021505A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105700269B (zh) | 2016-04-11 | 2019-05-03 | 京东方科技集团股份有限公司 | 一种显示装置 |
CN103380625A (zh) * | 2011-06-16 | 2013-10-30 | 松下电器产业株式会社 | 头戴式显示器及其位置偏差调整方法 |
US9165535B2 (en) * | 2012-09-27 | 2015-10-20 | Google Inc. | System and method for determining a zoom factor of content displayed on a display device |
US20160321810A1 (en) * | 2015-04-28 | 2016-11-03 | Pixart Imaging (Penang) Sdn. Bhd. | Optical navigation sensor, electronic device with optical navigation function and operation method thereof |
KR102564479B1 (ko) | 2016-11-22 | 2023-08-07 | 삼성전자주식회사 | 사용자의 눈을 위한 3d 렌더링 방법 및 장치 |
CN106383416B (zh) * | 2016-12-02 | 2019-05-31 | 宁波视睿迪光电有限公司 | 一种显示装置及其制作方法 |
CN107249125A (zh) * | 2017-06-22 | 2017-10-13 | 上海玮舟微电子科技有限公司 | 一种裸眼3d显示方法及装置 |
TW201919391A (zh) * | 2017-11-09 | 2019-05-16 | 英屬開曼群島商麥迪創科技股份有限公司 | 顯示系統及顯示影像的顯示方法 |
KR20210110443A (ko) * | 2020-02-28 | 2021-09-08 | 삼성디스플레이 주식회사 | 표시 장치 |
JP2022140895A (ja) | 2021-03-15 | 2022-09-29 | オムロン株式会社 | 導光板デバイス |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3921061A1 (de) | 1989-06-23 | 1991-01-03 | Hertz Inst Heinrich | Wiedergabeeinrichtung fuer dreidimensionale wahrnehmung von bildern |
JP2955327B2 (ja) | 1990-05-25 | 1999-10-04 | 日本放送協会 | 三次元画像表示装置 |
JPH06301033A (ja) * | 1993-04-16 | 1994-10-28 | Toshiba Corp | 液晶表示装置 |
JPH08116556A (ja) | 1994-10-14 | 1996-05-07 | Canon Inc | 画像処理方法および装置 |
US6608622B1 (en) | 1994-10-14 | 2003-08-19 | Canon Kabushiki Kaisha | Multi-viewpoint image processing method and apparatus |
JPH10174127A (ja) * | 1996-12-13 | 1998-06-26 | Sanyo Electric Co Ltd | 立体表示方法および立体表示装置 |
JP4220028B2 (ja) * | 1998-09-28 | 2009-02-04 | 大日本印刷株式会社 | 液晶プロジェクタ |
WO2001009869A1 (fr) | 1999-08-02 | 2001-02-08 | Comoc Corporation | Reseau de microlentilles et afficheur comprenant ledit reseau |
JP2002107508A (ja) | 2000-07-26 | 2002-04-10 | Comoc:Kk | マイクロレンズアレイおよびマイクロレンズアレイを用いた表示装置 |
JP3899241B2 (ja) | 2001-06-13 | 2007-03-28 | シャープ株式会社 | 画像表示システム、画像表示方法、プログラムおよび記録媒体 |
JP2003131607A (ja) | 2001-10-26 | 2003-05-09 | Fuji Xerox Co Ltd | 画像表示装置 |
JP2004279743A (ja) | 2003-03-17 | 2004-10-07 | Nippon Telegr & Teleph Corp <Ntt> | 三次元表示装置 |
JP4345467B2 (ja) * | 2003-12-12 | 2009-10-14 | セイコーエプソン株式会社 | 3次元映像表示装置 |
KR101265893B1 (ko) * | 2005-06-07 | 2013-05-20 | 리얼디 인크. | 오토스테레오스코픽 조망 구역의 각도 범위를 제어하는방법 및 장치 |
JP2007041425A (ja) * | 2005-08-05 | 2007-02-15 | Hitachi Displays Ltd | 3次元画像表示装置 |
JP4779893B2 (ja) * | 2006-09-06 | 2011-09-28 | 大日本印刷株式会社 | 面光源装置と透過型表示装置 |
JP2008170841A (ja) | 2007-01-15 | 2008-07-24 | Epson Imaging Devices Corp | 電気光学装置及び電子機器 |
JP4995672B2 (ja) * | 2007-09-03 | 2012-08-08 | 富士フイルム株式会社 | 立体画像表示装置及び立体画像表示体の作成方法 |
JP5117613B1 (ja) * | 2011-12-09 | 2013-01-16 | 株式会社東芝 | 映像処理装置および映像処理方法ならびに記憶媒体 |
-
2011
- 2011-08-11 WO PCT/JP2011/068391 patent/WO2013021505A1/ja active Application Filing
- 2011-08-11 CN CN201180072779.2A patent/CN103733118B/zh not_active Expired - Fee Related
- 2011-08-11 JP JP2013527832A patent/JP5858044B2/ja not_active Expired - Fee Related
-
2014
- 2014-02-05 US US14/173,043 patent/US9116359B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN103733118B (zh) | 2015-11-25 |
US9116359B2 (en) | 2015-08-25 |
WO2013021505A1 (ja) | 2013-02-14 |
US20140152556A1 (en) | 2014-06-05 |
JPWO2013021505A1 (ja) | 2015-03-05 |
CN103733118A (zh) | 2014-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858044B2 (ja) | 立体画像表示装置 | |
JP5497882B2 (ja) | 表示装置、端末装置および表示方法 | |
US9191661B2 (en) | Virtual image display device | |
US9477305B2 (en) | Stereoscopic image display apparatus and computer-readable recording medium storing program thereon | |
JP2008219788A (ja) | 立体画像表示装置、方法およびプログラム | |
JP6200328B2 (ja) | 表示装置 | |
KR20110140090A (ko) | 표시 장치 | |
CN104836998A (zh) | 显示设备及其控制方法 | |
KR20140067575A (ko) | 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치 | |
US20240275936A1 (en) | Multiview autostereoscopic display using lenticular-based steerable backlighting | |
US11448898B2 (en) | Floating image system | |
US20210289190A1 (en) | 2d image capture system & display of 3d digital image | |
KR101980297B1 (ko) | 3차원 vr 영상 처리 장치, 방법 및 프로그램 | |
US20140139427A1 (en) | Display device | |
US20210297647A1 (en) | 2d image capture system, transmission & display of 3d digital image | |
KR101954263B1 (ko) | 디스플레이 장치 및 그의 다시점 영상 제공 방법 | |
US20150234196A1 (en) | Image display apparatus, lenticular lens, and image display method | |
KR101363244B1 (ko) | 입체 화상 표시 장치 | |
JP2006276277A (ja) | 立体画像表示装置 | |
TWI826033B (zh) | 影像顯示方法與3d顯示系統 | |
US20220317465A1 (en) | Method for rendering data of three-dimensional image adapted to eye position and display system | |
CN115220240A (zh) | 适应眼睛位置的立体影像数据的产生方法与显示系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5858044 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |