JP5167439B1 - 立体画像表示装置及び立体画像表示方法 - Google Patents

立体画像表示装置及び立体画像表示方法 Download PDF

Info

Publication number
JP5167439B1
JP5167439B1 JP2012546661A JP2012546661A JP5167439B1 JP 5167439 B1 JP5167439 B1 JP 5167439B1 JP 2012546661 A JP2012546661 A JP 2012546661A JP 2012546661 A JP2012546661 A JP 2012546661A JP 5167439 B1 JP5167439 B1 JP 5167439B1
Authority
JP
Japan
Prior art keywords
user
image
parallax
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012546661A
Other languages
English (en)
Other versions
JPWO2013121468A1 (ja
Inventor
愼一郎 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012546661A priority Critical patent/JP5167439B1/ja
Priority claimed from PCT/JP2012/003479 external-priority patent/WO2013121468A1/ja
Application granted granted Critical
Publication of JP5167439B1 publication Critical patent/JP5167439B1/ja
Publication of JPWO2013121468A1 publication Critical patent/JPWO2013121468A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen

Abstract

3Dタブレット端末(100)は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する視差画像表示部(109)と、右目用画像をユーザの右目に見せ、且つ左目用画像をユーザの左目に見せるように、視差画像表示部(109)上にストライプ状の視差バリアを表示する視差バリア表示部(105)と、視差画像表示部(109)に対するユーザの方位を取得するユーザ位置検出部(101)と、視差バリア表示部(105)が表示する視差バリアのストライプの方向を、ユーザの方位に略平行にする制御方向算出部(103)と、ユーザの方位と略直交する方向の視差を伴う立体画像を生成し、視差画像表示部(109)に表示させる視差画像生成部(107)とを備える。
【選択図】図1

Description

本発明は、オブジェクトの立体表示する立体画像表示装置に関する。
近年、モバイル分野における3D市場は急速に伸びており、全体に占める裸眼3D対応の割合は約12%になると予測されている。裸眼3D対応モバイル端末は、2011年から2015年にかけて13000万台増が予測されており、将来性が見込まれるタブレットでも裸眼3Dの採用が進むと考えられる。
今後、タブレットが大型化すると、手に持って用いるスタイルのみならず、平置きにして用いるスタイルも考えられる。そうすると、平置きにしたタブレットに対し、いろいろな方向から裸眼3Dディスプレイを見るケースが起こりえる。
特許文献1には、第1の方向にマルチビュー指向性ディスプレイとして動作可能であり、且つ第1の方向と異なる第2の方向にマルチビュー指向性ディスプレイとして動作可能な3Dディスプレイに関する技術が開示されている。
特開2006−018282号公報
視差バリア方式の裸眼3Dディスプレイを平置きして使用する場合、ディスプレイを平置きのまま回転させて斜め方向から見ると、視差画像が二重に見えて立体視できないという課題がある。
本発明は、このような課題に鑑みてなされたものであり、見る方向が変わっても立体視できる立体画像表示装置を提供することを目的とする。
本発明の一形態に係る立体画像表示装置は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアと、前記表示部に対するユーザの方位を取得する取得部と、前記視差バリアのストライプの方向を、前記取得部で取得されたユーザの方位に略平行にする制御部と、前記取得部で取得されたユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成部とを備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明によれば、視差バリアのストライプの方向が常に最適に制御されるため、3Dディスプレイと両目との相対的な位置が変わっても常に安定して立体視させることができる立体画像表示装置を得ることができる。
図1は、本実施の形態に係る3Dタブレット端末の機能ブロック図である。 図2は、本実施の形態に係る3Dタブレット端末の外観図である。 図3Aは、本実施の形態に係る3Dタブレット端末において、ユーザの方位と、視差バリアの方向と、立体画像の視差の方向との関係の一例を示す図である。 図3Bは、本実施の形態に係る3Dタブレット端末において、ユーザの方位と、視差バリアの方向と、立体画像の視差の方向との関係の他の例を示す図である。 図4は、視差バリア方式による立体視の原理図である。 図5は、視差バリア設計における原理図である。 図6は、画素と視差バリアとの配置図である。 図7Aは、ディスプレイの画素セットの一例を示す図である。 図7Bは、図7Aのディスプレイに視差バリアを重畳させた図である。 図8Aは、ディスプレイの画素セットの他の例を示す図である。 図8Bは、図8Aのディスプレイに視差バリアを重畳させた図である。 図9Aは、画素を構成する複数の画素の配置の一例を示す図である。 図9Bは、画素を構成する複数の画素の配置の他の例を示す図である。 図10Aは、サブ画素が斜め配置された画素と視差バリアとの関係の一例を示す図である。 図10Bは、サブ画素が斜め配置された画素と視差バリアとの関係の他の例を示す図である。 図11は、ステレオカメラでユーザの目の検出方法を説明する図である。 図12Aは、ステレオカメラの一方で撮像された画像を示す図である。 図12Bは、ステレオカメラの他方で撮像された画像を示す図である。 図13は、カメラで撮像された画像中の垂直角及び水平角を示す図である。 図14は、余弦定理の説明図である。 図15は、ユーザ視点の方位図である。 図16は、飛び出し立体視における視差量の概念図である。 図17は、引っ込み立体視における視差量の概念図である。 図18は、表示を複数の表示領域に分割した例を示す図である。 図19は、撮像素子のピクセルとカメラの画角との関係を説明する図である。
本発明の一形態に係る立体画像表示装置は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアと、前記表示部に対するユーザの方位を取得する取得部と、前記視差バリアのストライプの方向を、前記取得部で取得されたユーザの方位に略平行にする制御部と、前記取得部で取得されたユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成部とを備える。
本発明の他の形態に係る立体画像表示装置は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアと、前記表示部に対するユーザの方位を取得する取得部と、前記視差バリアのストライプの方向を、前記取得部で取得されたユーザの方位に略平行にする制御部と、前記制御部で前記ユーザの方位に略平行にされた前記視差バリアのストライプの方向と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成部とを備える。
上記構成によれば、視差バリアのストライプの方向が常に最適に制御されるため、表示部と両目との相対的な位置が変わっても常に安定して立体視させることができる立体画像表示装置を得ることができる。
また、前記取得部は、前記表示部を含む平面上における方向であって、ユーザの両目を結ぶ仮想線の方向に直交する方向に平行な方向を、ユーザの方位として取得してもよい。
さらに、前記取得部は、ユーザの瞳孔間距離を取得してもよい。そして、前記生成部は、前記取得部で取得された瞳孔間距離に応じて、前記右目用画像及び前記左目用画像の視差量を調整してもよい。
例えば、前記取得部は、ユーザを撮像する撮像部を含み、前記撮像部で撮像された画像からユーザの方位を取得してもよい。
さらに、前記取得部は、ユーザの位置を特定する情報の入力を受け付ける入力部を含み、前記入力部に入力された情報に基づいて、ユーザの方位を取得してもよい。
例えば、前記表示部を構成する各画素は、複数のサブ画素で構成されてもよい。そして、前記複数のサブ画素の境界線は、隣接する画素の境界線に対して傾斜していてもよい。
例えば、前記表示部は、複数の表示領域を含んでもよい。前記取得部は、前記複数の表示領域それぞれに対するユーザの方位を取得してもよい。前記制御部は、前記複数の表示領域それぞれの視差バリアを、ストライプの方向が対応するユーザの方位に略平行にしてもよい。前記生成部は、前記複数の表示領域それぞれに対して、前記取得部で取得された対応するユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む立体画像を生成し、表示させてもよい。
さらに、前記取得部は、前記表示部の表示面に対するユーザの仰角を取得してもよい。そして、前記生成部は、前記取得部で取得されたユーザの仰角の方向からオブジェクトを見た前記立体画像を生成して、前記表示部に表示させてもよい。
本発明の一形態に係る立体画像表示方法は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアとを備える立体画像表示装置に、前記立体画像を表示させる。具体的には、立体画像表示方法は、前記表示部に対するユーザの方位を取得する取得ステップと、前記視差バリアのストライプの方向を、前記取得ステップで取得されたユーザの方位に略平行にする制御ステップと、前記取得ステップで取得されたユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成ステップとを含む。
本発明の他の形態に係る立体画像表示装置は、視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアとを備える立体画像表示装置に、前記立体画像を表示させる方法である。具体的には、立体画像表示方法は、前記表示部に対するユーザの方位を取得する取得ステップと、前記視差バリアのストライプの方向を、前記取得ステップで取得されたユーザの方位に略平行にする制御ステップと、前記制御ステップで前記ユーザの方位に略平行にされた前記視差バリアのストライプの方向と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成ステップとを含む。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下に、本発明の一実施の形態に係る立体画像表示装置の一例である3Dタブレット端末について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
図1は、本実施の形態に係る3Dタブレット端末100の機能ブロック図である。図2は、本実施の形態に係る3Dタブレット端末200の外観図である。
3Dタブレット端末100は、図1に示されるように、ユーザ位置検出部101と、制御方向算出部103と、視差バリア表示部105と、視差画像生成部107と、視差画像表示部109とを備える。
まず、ユーザ位置検出部(検出部)101は、撮像部(図2のカメラ201、202)から取得した画像より、ユーザの左右の目の空間位置座標を算出する。そして、ユーザ位置検出部101は、算出した左右の目の空間位置座標を、目位置情報102として制御方向算出部103に出力する。
制御方向算出部(制御部)103は、目位置情報102をユーザ位置検出部101から取得し、前述したように目位置情報102から、3Dタブレット端末100の視差画像表示部109に対するユーザの方位を算出する。そして、制御方向算出部103は、算出したユーザの方位を、方位情報104(後述するターゲット角度1503に相当)として視差バリア表示部105と視差画像生成部107とに出力する。
なお、3Dタブレット端末100のディスプレイに対するユーザの方位とは、3Dタブレット端末100に対するユーザの位置を特定する情報であって、例えば、視差画像表示部109の表示面を含む平面上において、3Dタブレット端末100とユーザとを結ぶ仮想線の方向であり、典型的には、3Dタブレット端末100を見るユーザの両目を結ぶ仮想線の方向に直交する方向に平行な方向(後述するターゲット角度1503)である。すなわち、ユーザの方位とユーザの両目を結ぶ仮想線の方向とは、ねじれの位置にある。
視差バリア表示部(視差バリア)105は、視差画像表示部109に重畳され、ストライプ状の視差バリアを表示する。この視差バリアは、視差画像表示部109に表示される右目用画像をユーザの右目に見せ、左目用画像をユーザの左目に見せるために、マトリクス状に配置された複数の液晶素子のON(遮光)とOFF(透過)とを制御することによって実現される。
そして、視差バリア表示部105は、方位情報104を制御方向算出部103から取得し、方位情報104によって得られたユーザの方位に略平行な方向にストライプの方向が向くように、視差バリアの液晶素子をストライプ状にON/OFF制御して表示させる。
同時に、視差画像生成部(生成部)107は、方位情報104を制御方向算出部103から取得し、元画像データ106を外部から取得する。そして、視差画像生成部107は、前述したように方位情報104によって得られたユーザの方位に略直交する方向の視差を伴う視差画像108と、視差量や視差画像108の配置を含む視差データ110とを算出し、視差画像表示部109に出力する。視差画像108は、視差を伴う右目用画像及び左目用画像を組み合わせて構成される立体画像である。
なお、図1の例において、視差バリア表示部105は、制御方向算出部103から取得した方位情報104を用いて、視差バリアのストライプの方向を決定している。同様に、視差画像生成部107は、制御方向算出部103から取得した方位情報104を用いて、視差の方向を決定している。しかしながら、各機能ブロックの動作の結果として、ユーザの方位と視差バリアのストライプの方向とが略平行になり、且つユーザの方位と視差の方向とが略直交(すなわち、ストライプの方向と視差の方向とが略直交)すれば、各機能ブロックがどのような情報を用いて処理を実行するかは、特に限定されない。
上記の他の例として、視差バリア表示部105は、上記と同様に方位情報104を用いて視差バリアのストライプの方向を決定し、決定したストライプの方向を視差画像生成部107に通知してもよい。そして、視差画像生成部107は、視差バリア表示部105から取得したストライプの方向を用いて、ストライプの方向に略直交(すなわち、ユーザの方位に略直交)する方向の視差を伴う視差画像108及び視差データ110を算出してもよい。
さらに他の例として、視差画像生成部107は、上記と同様に方位情報104を用いて視差の方向を決定し、決定した視差の方向を視差バリア表示部105に通知してもよい。そして、視差バリア表示部105は、視差画像生成部107から取得した視差の方向を用いて、ストライプの方向が視差の方向に略直交する(すなわち、ユーザの方位に略平行になる)ように視差バリアを表示してもよい。
なお、視差データ110の計算時に用いるユーザの瞳孔間距離は、例えば、目位置情報102から算出してもよいし、図示しない入力部でユーザからの瞳孔間距離等の入力を受け付けてもよいし、一般的な成人の平均瞳孔間距離(通常6cm)を利用してもよい。
視差画像表示部109は、視差画像108及び視差データ110を視差画像生成部107から取得し、視差データ110で示される視差画像108の配置と視差量とに従って、前述したように視差画像(立体画像)108を表示するディスプレイである。視差画像表示部109の具体的な構成は特に限定されないが、例えば、液晶ディスプレイ(LCD)、プラズマディスプレイ、又は有機EL(ElectroLuminescence)ディスプレイ等を採用することができる。
次に、図3A及び図3Bを参照して、本実施の形態に係る3Dタブレット端末において、ユーザの方位と、視差バリアの方向と、立体画像の視差の方向との関係について説明する。
まず、図3Aの矢印301に示される方位(図3Aの紙面上において、3Dタブレット端末の下側)が制御方向算出部103で算出された場合、視差バリア表示部105は、ストライプの方向が矢印301の向きに平行になる(すなわち、ストライプが上下方向に延びる)ように、視差バリア304を表示する。また、視差画像生成部107は、視差の方向が矢印301と直交する(すなわち、左右方向の視差を生じる)ように左目用画像302及び右目用画像303を生成し、視差画像表示部109に表示する。
同様に、図3Bの矢印305に示される方位(図3Bの紙面上において、3Dタブレット端末の右下側)が制御方向算出部103で算出された場合、視差バリア表示部105は、ストライプの方向が矢印305の向きに平行になる(すなわち、ストライプが左上から右下の方向に延びる)ように、視差バリア308を表示する。また、視差画像生成部107は、視差の方向が矢印305と直交する(すなわち、左下−右上の方向の視差を生じる)ように左目用画像306及び右目用画像307を生成し、視差画像表示部109に表示する。
なお、図3Aの矢印301は、ユーザの両目を結ぶ仮想線に直交する方向に平行な方向である。すなわち、制御方向算出部103は、ユーザ位置検出部101で検出された目位置情報102に基づいてユーザの両目を結ぶ仮想線の方向を算出してもよい。そして、視差バリア表示部105は、ストライプの方向が仮想線の方向に直交する方向に平行になるように、視差バリア304を表示してもよい。同様に、視差画像生成部107は、視差の方向が仮想線の方向と平行になるような左目用画像302及び右目用画像303を生成し、視差画像表示部109に表示してもよい。図3Bの例も同様である。
また、制御方向算出部103は、さらに、ユーザの瞳孔間距離を算出してもよい。そして、視差画像生成部107は、制御方向算出部103で算出された瞳孔間距離に応じて、左目用画像302及び右目用画像303の視差量を調整してもよい。図3Bの例も同様である。
さらに、図3Aにおいて、視差バリア304のストライプの方向は、矢印301の方向と厳密に平行である必要はなく、多少の誤差は許容される。すなわち、視差バリア304ストライプが矢印301の方向に略平行な方向に延びていればよい。図3Bについても同様である。
一例として、視差バリア304は、後述する図7B及び図8Bに示されるように、マトリクス状に配置された複数の液晶素子(液晶マトリクス)のON/OFFを制御することによって実現される。そこで、視差バリア表示部105は、例えば、上記の方法で実現できるストライプのうち、ユーザの方位と最も平行に近い方向のストライプを選択すればよい。そして、上記の処理によって実現されるストライプの方向とユーザの方位との関係は、「略平行」の範囲内に含まれるものとする。
同様に、左目用画像302及び右目用画像303の視差の方向は、矢印301の方向に厳密に直交している必要はなく、多少の誤差は許容される。すなわち、矢印301の方向に略直交する方向の視差を伴う左目用画像302及び右目用画像303を生成し、表示すればよい。図3Bについても同様である。
一例として、視差の方向(すなわち、後述する画素セットの向き)は、後述する図7A及び図8Aに示されるように、マトリクス状に配置された複数の画素の組み合わせによって実現される。そこで、視差画像生成部107は、例えば、上記の方法で実現できる画素セットの組み合わせのうち、ユーザの方位と最も垂直に近い方向の組み合わせを選択すればよい。そして、上記の処理によって実現される視差の方向とユーザの方位との関係は、「略直交」の範囲内に含まれるものとする。
この一連の動作により、ユーザの視点位置に応じた視差バリア制御と視差画像制御とを行うことができる。その結果、視差画像表示部109に表示される画像を見るユーザは、見る方向に制限されずに立体オブジェクトを立体視することが可能となる。
なお、図2に示される3Dタブレット端末200は、例えば、10.1インチ(1366×768ピクセル)の裸眼3Dディスプレイ203と、ステレオカメラを構成する一対のカメラ201、202とを備える。なお、図2に示される一対のカメラ201、202のカメラ間距離204は、130mmである。
但し、3Dタブレット端末200の具体的な構成は図2に限定されない。すなわち、一対のカメラ201、202の位置関係やカメラ間距離204、裸眼3Dディスプレイ203の大きさ等は、上記の例に限定されない。また、カメラは1つであってもよく、カメラで撮像された画像と、図示しない入力部で受け付けられた情報(例えば、ユーザが大人であるか、子供であるかを示す情報、或いはユーザの瞳孔間距離)とに基づいて、ユーザの方位や瞳孔間距離を算出してもよい。
なお、図1の3Dタブレット端末100は、図2の3Dタブレット端末200に対応する。また、図1の視差画像表示部109は、図2の裸眼3Dディスプレイ203に対応する。さらに、図1のユーザ位置検出部101及び図2のカメラ201、202は、視差画像表示部109(裸眼3Dディスプレイ203)に対するユーザの方位を取得する取得部として機能する。
以下、図4〜図19を参照して、各構成要素の具体的な構成及び動作を説明する。
まず、視差バリア方式による裸眼立体視の原理(視差バリア表示部105及び視差画像表示部109)について、図4を参照しながら簡単に説明する。視差画像表示部109に相当する表示パネル404は、RGBの各色を表示できる複数の画素で構成される。また、複数の画素は、右目用画素(図4の“R”。以下「R画素」と表記する。)と左目画素(図4の“L”。以下「L画素」と表記する。)とを一組とした画素セット405、406、・・・の集合である。
すなわち、表示パネル404に表示される画像(立体画像)は、複数の右目用画素で構成される右目用画像と、複数の左目用画素で構成される左目用画像とで構成される。また、右目用画像と左目用画像とは、互いに視差を有する画像である。
また、視差バリア表示部105に相当する視差バリア403は、複数のバリア407、408、・・・で構成される。図4の例では、バリア407は画素セット405に対応し、バリア408は画素セット406に対応する。すなわち、画素セット405、406、・・・とバリア407、408、・・・とは、一対一で対応する。
これにより、ユーザの右目401は、バリア407、408により画素セット405、406それぞれのL画素が遮られ、R画素のみを視認できる。同様にユーザの左目402は、バリア407、408により画素セット405、406のR画素が遮られ、L画素のみを視認できる。
このように、視差バリア方式では、ユーザの左右の目にR画素又はL画素で構成される別々の画像を与えることができるため、ユーザは表示パネル404に表示される画像を立体視できることになる。
本発明において視差バリアの構成は重要であり、図5を参照しながら詳細に説明する。
図5に示されるように、ユーザの右目位置506及び左目位置507の間の瞳孔間距離を2D、ユーザと表示パネルとの間の視距離をL、ピクセルピッチをP、表示パネルと視差バリアとの間隔をHと定義する。そうすると、視差バリア503、504の位置、表示パネルと視差バリアとの間隔Hは、計算により算出することができる。
左目位置507の座標(D,L)と、ピクセルピッチP単位でx軸上の離散的座標(nP,0)(−683≦n≦683)で与えられる点とを結ぶ直線群を、左方向直線群502とする。同様に、右目位置506の座標(−D,L)と、ピクセルピッチP単位でx軸上の離散的座標(nP,0)(−683≦n≦683)で与えられる点とを結ぶ直線群を、右方向直線群501とする。
左方向直線群502に含まれる各直線を式1とすると、左方向直線群502は、座標(D,L)を通るので式2となり、また座標(nP,0)を通るので式3となる。式2、式3から式4が導かれ、式1に式3、式4を当てはめると式5が求まる。同様に、右方向直線群501に含まれる各直線を式6とすると、右方向直線群501は、座標(−D,L)を通るので式7となり、また座標(nP,0)を通るので式8となる。式7、式8から式9が導かれ、式6に式8、式9を当てはめると式10が求まる。
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
ここで左方向直線群502と右方向直線群501との交点505が視差バリアの位置を示すことになる。すなわち、視差バリアの交点505を求めるためには、左方向直線群502のうち座標(nP,0)を通る直線と、右方向直線群501のうち座標((n+1)P,0)を通る直線との交点を求めればよい。そこで式5と式10とにより式11が導かれる。また、式11から式12が導かれる。
Figure 0005167439
Figure 0005167439
式12を式5に代入すると式13となる。そして、n=0のときについて求めると、式14が算出される。すなわち、表示パネルと視差バリアとの間隔Hは、瞳孔間距離2Dの半分D、ピクセルピッチP、及び視距離Lの各パラメータによって決定されることが示される。
Figure 0005167439
Figure 0005167439
逆に製造上の理由などにより、表示パネルと視差バリアとの間隔Hが決まっている場合は、式15により視距離Lが定まる。
Figure 0005167439
以上のようにパラメータを設定することにより、視差バリアの各種パラメータを算出できる。なお、本実施の形態での視差バリアは、例えば図6に示すように、液晶マトリクス602で構成され、液晶ドット604毎にON/OFFを制御することを可能とする。
また、表示パネルは、例えば図6に示されるように、パラメータとして1366×768画素で10.1インチのLCDパネル601を用い、利用者の想定視距離を50cm、利用者の想定瞳孔間距離を6cmとする。
これより、LCDピクセル603のピクセルピッチPは0.1637mmとなり、視差バリア幅は0.16347mmとなり、表示パネルと視差バリアとの間隔Hは0.681mmとなる。また、LCDピクセル603と液晶ドット604とは一対一に対応するので、液晶マトリクス602の中心をLCDパネル601の中心と一致させるように配置する。
図7A及び図7Bに示すように、LCDパネル701に対応する視差バリアの液晶マトリクス702のON/OFFを行うことで、視差バリアを形成することになる。
図7Aに示されるLCDパネル701には、上下方向に隣接するR画素(斜線ハッチングの画素)とL画素(ドットハッチング)とで画素セットが形成される。また、図7Bに示される液晶マトリクス702は、画素セットの境界を含む位置に、水平方向に3画素分、1行下に移動して水平方向に2画素分、さらに1行下に移動して水平方向に3画素分、・・・(以下、繰り返し)をON(遮光)することによって、視差バリアを形成している。すなわち、図7Bは、ストライプが左上から右下方向に延びる視差バリアの例を示している。
図8Aに示されるLCDパネル801には、左右方向に隣接するL画素(ドットハッチングの画素)とR画素(斜線ハッチング)とで画素セットが形成される。また、図8Bに示される液晶マトリクス802は、画素セットの境界を含む位置に、垂直方向に3画素分、1列左に移動して垂直方向に2画素分、さらに1列左に移動して垂直方向に3画素分、・・・(以下、繰り返し)をON(遮光)することによって、視差バリアを形成している。すなわち、図8Bは、ストライプが右上から左下方向に延びる視差バリアの例を示している。
ここで一般的なLCDピクセルは、図9Aの画素901のようなRGB配置となっていることが多い。すなわち、画素901を構成する複数のサブ画素(この例では、Rサブ画素、Gサブ画素、Bサブ画素の3つ)の境界線は、左右方向に隣接している。このようなRGB配置の上に視差バリアを形成するとモアレが発生し、色が分離してしまう現象が生じやすい。
そこで図9Bの画素902のように、RGBを斜め配置としてモアレを軽減しても良い。すなわち、図9Bの画素902は、各サブ画素(R、G、B)の境界線は、画素の境界線に対して傾斜(すなわち、鋭角に交わる)している。さらに、図9Bの各サブ画素は、画素902内の複数箇所(この例では2箇所)に分散配置されている。
図10A及び図10Bは、サブ画素を斜め配置した画素と視差バリアとの関係を示す図である。図10A及び図10Bに示されるように、LCDピクセル1000、1003は、視差バリアの液晶ドット1001、1002を重畳させても、全てのサブ画素(R、G、B)全てが見えることになり、モアレを防ぐことができる。
次に、ユーザ位置の検出方法(ユーザ位置検出部101及び制御方向算出部103の動作)について、図11〜13を用いて説明する。3Dタブレット端末1100は、一対のカメラ1101、1102を備え、3Dタブレット端末1100に表示される立体画像を視聴するユーザ1104を撮像する。
図12Aに示される画像1200はカメラ1101で撮像され、図12Bに示される画像1210はカメラ1102で撮像されたものとする。各画像1200、1210に対して画像処理を行うことによって、ユーザの左右の目を抽出する。画像処理の方法は問わないが、例えば、形状認識アルゴリズムを用いて目と思われる部分を抽出する。抽出した結果、各画像の中央の画素位置1204、1214から各画像における左目1203、1213までのピクセル距離(1201、1202)、(1211、1212)を算出する。同様にして、各画像の中央の画素位置から各画像における右目までのピクセル距離も算出する。
予めキャリブレーションにより一対のカメラ1101、1102それぞれの特性を取得しておくことで、算出したピクセル距離を補正して図13に示すようにカメラ位置1300(カメラ1101、1102の位置)からターゲット1301(左目あるいは右目)への方向を求める。
このように、図12A及び図12Bにおける各画像の上下方向は、図13のY軸に対する角度である垂直角1303に対応し、左右方向は図13のX軸に対する角度である水平角1302に対応する。また、図12A及び図12Bにおける各画像の垂直方向(紙面奥から手前に向かう方向)は、図13のZ軸に対応する。このような対応によって、ピクセル距離に応じてカメラ位置1300(カメラ1101、1102の位置)からターゲット1301(左目あるいは右目)を望む方向(角度)を求めることができる。すなわち、ピクセル距離1201からターゲット垂直角1304、ピクセル距離1202からターゲット水平角1305を求めることができる。
なお、ターゲット垂直角1304は、ターゲット1301からのY−Z平面に対する垂線がY−Z平面と交わる交点1306及びカメラ位置1300を結ぶ線と、Z軸とのなす角度である。同様に、ターゲット水平角1305は、ターゲット1301からのZ−X平面に対する垂線がZ−X平面と交わる交点1307及びカメラ位置1300を結ぶ線と、Z軸とのなす角度である。
ここでターゲット1301の空間位置座標の算出には、例えば三角測量法を用いる。図14において、辺A〜Cと角a〜cとの間には、式16に示す余弦定理が成り立つ。
Figure 0005167439
頂点1401をカメラ1101の位置、頂点1402をカメラ1102の位置、頂点1400をターゲット1301からのY−Z平面に対する垂線とY−Z平面との交点とすると、角Cはカメラ1101、1102間の距離に相当する。なお、角a及び角bは前述したターゲット垂直角1304から算出することができる。そして、角a及び角bより、角cも求まる。このため、式17、18により、辺A及び辺Bの長さ、つまりカメラ1101、1102から、ターゲット1301からの垂線とY−Z平面との交点までの距離を算出することができる。これらから式19、20により、ターゲット1301のy座標及びz座標を算出することができる。また、前述したターゲット水平角1305をdとおくと式21よりターゲット1301のx座標を算出することができる。
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
Figure 0005167439
以上からターゲット1301の空間位置座標を求めることができるので、同様にして、左右の目の空間位置座標を得る。
次に、ターゲット角度の算出について説明する。ターゲット角度とは、右目と左目とを結ぶ線分の中点からのX−Y平面に対する垂線とX−Y平面との交点及び空間位置座標の原点を結ぶ線と、Y軸とのなす角度である。具体的には、図15に示すように、取得した右目の空間位置座標1502(xr,yr,zr)と左目の空間位置座標1501(xl,yl,zl)とから右目及び左目を結ぶ線分の中点の空間位置座標1506((xr+xl)/2,(yr+yl)/2,(zr+zl)/2)を算出する。そして、空間位置座標1506からのX−Y平面への垂線とX−Y平面との交点1504及び空間位置座標の原点1500を結ぶ線分1505と、Y軸とのなす角度であるターゲット角度1503(R)を、式22により求める。
Figure 0005167439
このターゲット角度1503を用いて、視差バリアの向きと、立体画像の視差の方向とを、図3A及び図3Bに示すように変更する。図3A及び図3Bにおいて、矢印301、305によって示されるユーザの方位がターゲット角度1503で与えられ、これと視差バリア304、308が同一の方向を向くように制御する。また、左目用画像302及び右目用画像303の組と、左目用画像306及び右目用画像307の組とは、ターゲット角度1503に対して垂直な方向に視差を生じるように制御する。
なお、右目と左目とを結ぶ線分の中点の空間位置座標1506及び空間位置座標の原点1500を結ぶ線分と、線分1505とのなす角度1507(T)を、式23により求めてもよい。
Figure 0005167439
この角度1507に応じて裸眼3Dディスプレイ203への表示内容を変更してもよい。例えば。ターゲット垂直角の方向に応じて、裸眼3Dディスプレイ203への表示内容をその方向から見た画像に変更するとよりリアリティを強調することができる。さらに、ターゲット垂直角の方向に応じて、メニューを変更するなど見る角度で異なるUI(User Interface)を提供することも可能となる。
図15の角度1507は、裸眼3Dディスプレイ203(視差画像表示部109)を含む平面(X−Y平面)とユーザの視線方向とのなす角(仰角)である。そして、裸眼3Dディスプレイ203には、仰角に応じたオブジェクトが立体表示される。すなわち、裸眼3Dディスプレイ203には、オブジェクトを仰角で示される方向から見た立体画像が表示される。
より具体的には、例えば、仰角が90°(ユーザがZ軸上から見る)の場合、裸眼3Dディスプレイ203にはオブジェクトを正面から見た立体画像が表示される。一方、仰角が45°の場合、裸眼3Dディスプレイ203にはオブジェクトを斜め45°から見た立体画像が表示される。
次に、表示する立体視オブジェクトの飛び出し量(H)あるいは引っ込み量(H’)と瞳孔間距離(D)と、視距離(L)とから左右の視差画像を生成する。具体的な視差画像の生成方法は、図16及び図17に示すように、視点位置A及び視点位置Bから見た立体視オブジェクトCを表現するための視差画像P及び視差画像Qを、OpenGL(登録商標)などのグラフィックライブラリを利用して描画する。そして、飛び出し時には式24、引っ込み時には式25により視差量Sを求める。
Figure 0005167439
Figure 0005167439
得られた視差量Sを視点位置A及び視点位置Bの中点から画面に垂直に引いた直線と画面との交点からの画面上のオフセットとして、左右に視差画像P及び視差画像Qを描画する。なお、視差量Sは連続的な値をとるのに対して、裸眼3Dディスプレイ203のピクセルピッチは固定である。そのため、裸眼3Dディスプレイ203のピクセルピッチを勘案して視差画像P及び視差画像Qの画面上の描画位置を決定する。このとき、図3A及び図3Bに示すように、ターゲット角度によって与えられる方向と直交する方向に、視差量Sを設定する。
なお、ユーザ位置検出部101において複数人を検知し、制御方向算出部103で各人に対応した方位情報104を算出してもよい。視差バリア表示部105、視差画像生成部107、及び視差画像表示部109において、図18に示すように、3Dタブレット端末1800のディスプレイを、各ユーザA、B、C、Dに対応する表示領域1810、1820、1830、1840に分けて、それぞれに立体画像を表示させてもよい。
具体的には、図1に示されるユーザ位置検出部101及び制御方向算出部103は、複数の表示領域1810〜1840に対するユーザA〜Dの方位(図18の矢印)を取得する。次に、視差バリア表示部105は、複数の表示領域1810〜1840それぞれの視差バリアを、ストライプの方向が対応するユーザの方位に略平行になるように表示する。また、視差画像生成部107は、複数の表示領域1810〜1840それぞれに対して、対応するユーザの方位と略直交する方向の視差を伴う立体画像を生成し、視差画像表示部109に表示させる。
その結果、ユーザAに対応する表示領域1810には、ストライプが左上から右下に延びる視差バリア1811が重畳され、且つ左下及び右上にずれた右目用画像1812及び左目用画像1813が表示されている。
また、ユーザBに対応する表示領域1820には、ストライプが右上から左下に延びる視差バリア1821が重畳され、且つ左上及び右下にずれた右目用画像1822及び左目用画像1823が表示されている。
また、ユーザCに対応する表示領域1830には、ストライプが左右方向に延びる視差バリア1831が重畳され、且つ上下方向にずれた右目用画像1832及び左目用画像1833が表示されている。
さらに、ユーザDに対応する表示領域1840には、ストライプが上下方向に延びる視差バリア1841が重畳され、且つ左右方向にずれた右目用画像1842及び左目用画像1843が表示されている。
ここで、図19を用いて一対のカメラに組み込まれ各画像を取得する撮像素子のピクセルと、一対のカメラの画角との関係について説明する。一対のカメラは、撮像素子の前にレンズが配置され、撮像素子とレンズとの関係によって一対のカメラの画角が決められる。例えば、撮像素子のピクセル数が横方向にb0からb1343までの1344個あり、レンズに魚眼レンズなどを用いた場合、角度a0から角度a1343までの180度の画角を撮像できる。そうすると、撮像素子の横方向に1ピクセルあたり(180÷1344)度の分解能で各画像を取得することができることになる。
なお、カメラのようにユーザの視点位置を能動的に検出する手段を備えなくとも、例えば、3Dタブレット端末に対してユーザが自らの位置を入力するようにしてもよい。3Dタブレット端末のLCDがタッチパネルを備えている場合には、LCDのユーザに近い位置をタップすることによってユーザの位置を3Dタブレット端末に入力することができる。また、3Dタブレット端末のLCDがタッチパネルを備えていない場合には、既存のポインティング手段、例えば、カーソルキーやマウスやトラックボールなどによってLCDのユーザに近い位置を指示することによってユーザの位置を3Dタブレット端末に入力することができる。
本発明の立体画像表示装置を大型端末に適用すると、テーブル上に平置きし、自由な角度から立体視することができる効果を有するので、大型の3Dタブレット端末などに有用である。
100,200,1100,1800 3Dタブレット端末
101 ユーザ位置検出部
102 目位置情報
103 制御方向算出部
104 方位情報
105 視差バリア表示部
106 元画像データ
107 視差画像生成部
108 視差画像
109 視差画像表示部
110 視差データ
201,202,1101,1102 カメラ
203 裸眼3Dディスプレイ
204 カメラ間距離
301,305 矢印
302,306,1813,1823,1833,1843 左目用画像
303,307,1812,1822,1832,1842 右目用画像
304,308,403,503,504,1811,1821,1831,1841 視差バリア
401 右目
402,1203,1213 左目
404 表示パネル
405,406 画素セット
407,408 バリア
501 右方向直線群
502 左方向直線群
505,1306,1307,1504 交点
506 右目位置
507 左目位置
601,701,801 LCDパネル
602,702,802 液晶マトリクス
603,1000,1003 LCDピクセル
604,1001,1002 液晶ドット
901,902 画素
1104 ユーザ
1200,1210 画像
1201,1202,1211,1212 ピクセル距離
1204,1214 画素位置
1300 カメラ位置
1301 ターゲット
1302 水平角
1303 垂直角
1304 ターゲット垂直角
1305 ターゲット水平角
1400,1401,1402 頂点
1500 原点
1501,1502,1506 空間位置座標
1503,1507 角度
1505 線分
1810,1820,1830,1840 表示領域

Claims (10)

  1. 視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、
    前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアと、
    前記表示部を含む面上において前記表示部とユーザとを結ぶ仮想線の方向である、ユーザの方位を取得する取得部と、
    前記取得部が取得した前記ユーザの方位に応じて、前記表示部を含む面に平行な面内で前記視差バリアのストライプの方向を変更することで、前記視差バリアのストライプの方向を、前記取得部で取得されたユーザの方位に略平行にする制御部と、
    前記取得部で取得されたユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成部とを備える
    立体画像表示装置。
  2. 視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、
    前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアと、
    前記表示部を含む面上において前記表示部とユーザとを結ぶ仮想線の方向である、ユーザの方位を取得する取得部と、
    前記取得部が取得した前記ユーザの方位に応じて、前記表示部を含む面に平行な面内で前記視差バリアのストライプの方向を変更することで、前記視差バリアのストライプの方向を、前記取得部で取得されたユーザの方位に略平行にする制御部と、
    前記制御部で前記ユーザの方位に略平行にされた前記視差バリアのストライプの方向と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成部とを備える
    立体画像表示装置。
  3. 前記取得部は、さらに、ユーザの瞳孔間距離を取得し、
    前記生成部は、前記取得部で取得された瞳孔間距離に応じて、前記右目用画像及び前記左目用画像の視差量を調整する
    請求項1又は2に記載の立体画像表示装置。
  4. 前記取得部は、ユーザを撮像する撮像部を含み、前記撮像部で撮像された画像からユーザの方位を取得する
    請求項1〜のいずれか1項に記載の立体画像表示装置。
  5. 前記取得部は、さらに、ユーザの位置を特定する情報の入力を受け付ける入力部を含み、前記入力部に入力された情報に基づいて、ユーザの方位を取得する
    請求項1〜のいずれか1項に記載の立体画像表示装置。
  6. 前記表示部を構成する各画素は、複数のサブ画素で構成され、
    前記複数のサブ画素の境界線は、隣接する画素の境界線に対して傾斜している
    請求項1〜のいずれか1項に記載の立体画像表示装置。
  7. 前記表示部は、複数の表示領域を含み、
    前記取得部は、前記複数の表示領域それぞれに対するユーザの方位を取得し、
    前記制御部は、前記複数の表示領域それぞれの視差バリアを、ストライプの方向が対応するユーザの方位に略平行にし、
    前記生成部は、前記複数の表示領域それぞれに対して、前記取得部で取得された対応するユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む立体画像を生成し、表示させる
    請求項1〜のいずれか1項に記載の立体画像表示装置。
  8. 前記取得部は、さらに、前記表示部の表示面に対するユーザの仰角を取得し、
    前記生成部は、前記取得部で取得されたユーザの仰角の方向からオブジェクトを見た前記立体画像を生成して、前記表示部に表示させる
    請求項1〜のいずれか1項に記載の立体画像表示装置。
  9. 視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアとを備える立体画像表示装置に、前記立体画像を表示させる立体画像表示方法であって、
    前記表示部を含む面上において前記表示部とユーザとを結ぶ仮想線の方向である、ユーザの方位を取得する取得ステップと、
    前記取得部が取得した前記ユーザの方位に応じて、前記表示部を含む面に平行な面内で前記視差バリアのストライプの方向を変更することで、前記視差バリアのストライプの方向を、前記取得ステップで取得されたユーザの方位に略平行にする制御ステップと、
    前記取得ステップで取得されたユーザの方位と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成ステップとを含む
    立体画像表示方法。
  10. 視差を伴う右目用画像及び左目用画像を含む立体画像を表示する表示部と、前記右目用画像をユーザの右目に見せ、且つ前記左目用画像をユーザの左目に見せるように、前記表示部に重畳されるストライプ状の視差バリアとを備える立体画像表示装置に、前記立体画像を表示させる立体画像表示方法であって、
    前記表示部を含む面上において前記表示部とユーザとを結ぶ仮想線の方向である、ユーザの方位を取得する取得ステップと、
    前記取得部が取得した前記ユーザの方位に応じて、前記表示部を含む面に平行な面内で前記視差バリアのストライプの方向を変更することで、前記視差バリアのストライプの方向を、前記取得ステップで取得されたユーザの方位に略平行にする制御ステップと、
    前記制御ステップで前記ユーザの方位に略平行にされた前記視差バリアのストライプの方向と略直交する方向の視差を伴う前記右目用画像及び前記左目用画像を含む前記立体画像を生成し、前記表示部に表示させる生成ステップとを含む
    立体画像表示方法。
JP2012546661A 2012-02-15 2012-05-28 立体画像表示装置及び立体画像表示方法 Expired - Fee Related JP5167439B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012546661A JP5167439B1 (ja) 2012-02-15 2012-05-28 立体画像表示装置及び立体画像表示方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012030279 2012-02-15
JP2012030279 2012-02-15
JP2012546661A JP5167439B1 (ja) 2012-02-15 2012-05-28 立体画像表示装置及び立体画像表示方法
PCT/JP2012/003479 WO2013121468A1 (ja) 2012-02-15 2012-05-28 立体画像表示装置及び立体画像表示方法

Publications (2)

Publication Number Publication Date
JP5167439B1 true JP5167439B1 (ja) 2013-03-21
JPWO2013121468A1 JPWO2013121468A1 (ja) 2015-05-11

Family

ID=48134656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012546661A Expired - Fee Related JP5167439B1 (ja) 2012-02-15 2012-05-28 立体画像表示装置及び立体画像表示方法

Country Status (2)

Country Link
US (1) US9066089B2 (ja)
JP (1) JP5167439B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528234A (ja) * 2013-03-22 2015-09-24 深▲せん▼市云立方信息科技有限公司 ホログラフィーの3dシーンを模倣した表示装置及び視覚表示方法
WO2021110034A1 (zh) * 2019-12-05 2021-06-10 北京芯海视界三维科技有限公司 眼部定位装置、方法及3d显示设备、方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
EP2699006A1 (en) * 2012-08-16 2014-02-19 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Pictures positioning on display elements
US9148651B2 (en) * 2012-10-05 2015-09-29 Blackberry Limited Methods and devices for generating a stereoscopic image
KR20160025522A (ko) * 2013-06-28 2016-03-08 톰슨 라이센싱 위치 감지와 뷰들의 적응 수를 갖는 멀티뷰 3차원 디스플레이 시스템 및 방법
JP6601392B2 (ja) * 2014-04-07 2019-11-06 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
JP6516234B2 (ja) * 2014-04-24 2019-05-22 Tianma Japan株式会社 立体画像表示装置
CN105323573B (zh) 2014-07-16 2019-02-05 北京三星通信技术研究有限公司 三维图像显示装置和方法
CN105892076A (zh) * 2016-06-14 2016-08-24 京东方科技集团股份有限公司 视差光栅面板、显示基板、显示装置、电子设备以及显示方法
CN110136570B (zh) * 2019-04-28 2022-02-22 维沃移动通信有限公司 一种屏幕显示方法及终端
DE102019118985A1 (de) * 2019-07-12 2021-01-14 Bayerische Motoren Werke Aktiengesellschaft Autostereoskopische 3D-Anzeigevorrichtung und Verfahren zu deren Betrieb

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159970A (ja) * 1995-12-07 1997-06-20 Sanyo Electric Co Ltd 縦方向および横方向3次元画像表示方法および装置
JP2005122020A (ja) * 2003-10-20 2005-05-12 Sharp Corp 画像表示装置
JP2006154809A (ja) * 2004-11-30 2006-06-15 Samsung Sdi Co Ltd バリア装置,立体映像表示装置及びその駆動方法
JP2009520232A (ja) * 2005-12-20 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体表示装置
JP2011101366A (ja) * 2009-11-04 2011-05-19 Samsung Electronics Co Ltd アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法
JP2011205195A (ja) * 2010-03-24 2011-10-13 Nikon Corp 画像処理装置、プログラム、画像処理方法、椅子および観賞システム
JP2012023557A (ja) * 2010-07-14 2012-02-02 Sharp Corp 画像撮像装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1476730A (zh) 2001-07-27 2004-02-18 皇家菲利浦电子有限公司 具有观看者跟踪系统的自动立体图像显示装置
US7518793B2 (en) * 2002-03-29 2009-04-14 Sanyo Electric Co., Ltd. Stereoscopic image display device using image splitter, adjustment method thereof, and stereoscopic image display system
JP2005274905A (ja) * 2004-03-24 2005-10-06 Sanyo Electric Co Ltd 立体映像表示装置
KR100728777B1 (ko) * 2004-04-07 2007-06-19 삼성에스디아이 주식회사 패럴랙스 베리어 및 이를 구비한 입체 영상 표시장치
GB2415850A (en) 2004-06-29 2006-01-04 Sharp Kk Multiple view directional display operable in two orientations.
GB2415849A (en) 2004-06-29 2006-01-04 Sharp Kk A switchable liquid crystal parallax barrier
JP4840962B2 (ja) 2004-06-29 2011-12-21 シャープ株式会社 縦または横に表示することのできる3dディスプレイ
TWI264600B (en) * 2005-02-03 2006-10-21 Au Optronics Corp 2D/3D display and method for forming 3D images
KR101296900B1 (ko) 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
US8314832B2 (en) 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
JP5516363B2 (ja) * 2010-11-22 2014-06-11 ソニー株式会社 立体表示装置および方法
JP5796700B2 (ja) * 2010-12-28 2015-10-21 ソニー株式会社 立体表示装置
JP5710330B2 (ja) * 2011-03-25 2015-04-30 株式会社ジャパンディスプレイ 表示装置
JP5643160B2 (ja) * 2011-07-01 2014-12-17 株式会社ジャパンディスプレイ 表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09159970A (ja) * 1995-12-07 1997-06-20 Sanyo Electric Co Ltd 縦方向および横方向3次元画像表示方法および装置
JP2005122020A (ja) * 2003-10-20 2005-05-12 Sharp Corp 画像表示装置
JP2006154809A (ja) * 2004-11-30 2006-06-15 Samsung Sdi Co Ltd バリア装置,立体映像表示装置及びその駆動方法
JP2009520232A (ja) * 2005-12-20 2009-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体表示装置
JP2011101366A (ja) * 2009-11-04 2011-05-19 Samsung Electronics Co Ltd アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法
JP2011205195A (ja) * 2010-03-24 2011-10-13 Nikon Corp 画像処理装置、プログラム、画像処理方法、椅子および観賞システム
JP2012023557A (ja) * 2010-07-14 2012-02-02 Sharp Corp 画像撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528234A (ja) * 2013-03-22 2015-09-24 深▲せん▼市云立方信息科技有限公司 ホログラフィーの3dシーンを模倣した表示装置及び視覚表示方法
WO2021110034A1 (zh) * 2019-12-05 2021-06-10 北京芯海视界三维科技有限公司 眼部定位装置、方法及3d显示设备、方法

Also Published As

Publication number Publication date
US20130208099A1 (en) 2013-08-15
JPWO2013121468A1 (ja) 2015-05-11
US9066089B2 (en) 2015-06-23

Similar Documents

Publication Publication Date Title
JP5167439B1 (ja) 立体画像表示装置及び立体画像表示方法
JP5824537B2 (ja) 情報処理装置および情報処理方法
US9086742B2 (en) Three-dimensional display device, three-dimensional image capturing device, and pointing determination method
JP2017142569A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
CN106454311A (zh) 一种led三维成像系统及方法
US20170078570A1 (en) Image processing device, image processing method, and image processing program
TWI657431B (zh) 動態顯示系統
US9760263B2 (en) Image processing device, image processing method, and stereoscopic image display device
TW201624058A (zh) 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法
CN104134235A (zh) 真实空间和虚拟空间的融合方法和融合系统
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
WO2013121468A1 (ja) 立体画像表示装置及び立体画像表示方法
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
TWI500314B (zh) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
US20140347352A1 (en) Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2012105172A (ja) 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体
US9492122B2 (en) Medical image processing apparatus
US8427480B2 (en) Method for calculating ocular distance
TWI507014B (zh) 三維透視影像校正方法及其系統
US10726636B2 (en) Systems and methods to adapt an interactive experience based on user height
TWI526045B (zh) 立體影像的調整方法與影像處理裝置
WO2020036114A1 (ja) 画像処理装置、画像処理方法、およびプログラム
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
JP5520772B2 (ja) 立体画像の表示システム及び表示方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20121210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5167439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees