JP2013192060A - 表示装置および情報処理方法、並びにプログラム - Google Patents

表示装置および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2013192060A
JP2013192060A JP2012057117A JP2012057117A JP2013192060A JP 2013192060 A JP2013192060 A JP 2013192060A JP 2012057117 A JP2012057117 A JP 2012057117A JP 2012057117 A JP2012057117 A JP 2012057117A JP 2013192060 A JP2013192060 A JP 2013192060A
Authority
JP
Japan
Prior art keywords
image
user
unit
channel
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012057117A
Other languages
English (en)
Inventor
Shingo Tsurumi
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012057117A priority Critical patent/JP2013192060A/ja
Publication of JP2013192060A publication Critical patent/JP2013192060A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】より簡単に高品質な立体画像を提示できるようにする。
【解決手段】表示装置の光変調パネルには、複数のチャンネルの画素からなる領域が複数設けられ、各チャンネルの画素に表示された画像はバリア素子により分離される。光変調パネルは各チャンネルに異なる色の画像が表示されるキャリブレーション画像を表示するとともに、仮想視点位置からキャリブレーション画像を見たときに観察される理論観察画像も表示する。誘導部は表示されているキャリブレーション画像と理論観察画像が同じ画像に見える位置へとユーザを誘導し、キャリブレーション処理部は、誘導後にユーザを被写体として撮像された周辺画像と仮想視点位置からユーザの実空間における眼間距離を算出する。本技術は、表示装置に適用することができる。
【選択図】図1

Description

本技術は表示装置および情報処理方法、並びにプログラムに関し、特に、より簡単に高品質な立体画像を提示できるようにした表示装置および情報処理方法、並びにプログラムに関する。
従来、立体画像を表示する方法として、立体視用の眼鏡を用いる眼鏡方式と、立体視用の特殊な眼鏡を用いることなく裸眼での立体視を可能にした裸眼方式が知られている。
例えば裸眼方式の代表的なものとしては、パララックスバリア方式とレンチキュラ方式とがある。パララックスバリア方式やレンチキュラ方式の場合、2次元表示パネルに立体視用の視差画像(2視点の場合には右眼用視差画像と左眼用視差画像)が空間分割されて表示され、その視差画像が視差分離部によって水平方向に視差分離されて立体視が実現される。このときパララックスバリア方式では、視差分離部としてスリット状の開口が設けられたパララックスバリアが用いられ、レンチキュラ方式では、視差分離部として、シリンドリカル状の分割レンズを複数並列配置したレンチキュラレンズが用いられる。
また、裸眼方式の表示装置として、液晶パネルの画像形成面とパララックスバリアとの距離を短くすることで、設計上の適視距離を短くできるようにするものも提案されている(例えば、特許文献1参照)。
特開平9−50019号公報
ところで、表示装置に立体画像を表示させる場合に、ユーザの実空間上の眼間距離を用いてユーザの視点位置を算出し、その視点位置から適切な立体画像が観察されるように、立体画像の表示制御を行なうことがある。そのような場合、より適切な表示制御を行なうには、ユーザの正確な眼間距離が必要となる。
しかしながら、ユーザが自分の眼間距離を正確に測定し、その測定値をいちいち表示装置に入力することは面倒である。また、ユーザの眼間距離として、平均的なユーザの眼間距離を用いると、ユーザの視点位置の算出に誤差が生じてしまうので、適切な表示制御を行なうことができず、クロストークの発生等により立体画像の品質が低下してしまうおそれがある。
本技術は、このような状況に鑑みてなされたものであり、より簡単に高品質な立体画像を提示することができるようにするものである。
本技術の一側面の表示装置は、複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させる理論観察画像表示制御部と、前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出する距離算出部とを備える。
前記理論観察画像を、前記ブロック領域内の各チャンネルに同じ画像が割り当てられた画像とすることができる。
表示装置には、前記ユーザを前記仮想視点位置に誘導する誘導部をさらに設けることができる。
前記距離算出部には、複数の前記仮想視点位置について求められた前記眼間距離の平均値を最終的な前記眼間距離とさせることができる。
表示装置には、前記ユーザの前記眼間距離を保持する保持部と、任意の位置にいる前記ユーザの前記周辺画像および前記眼間距離に基づいて、前記ユーザの視点位置を算出する視点位置算出部と、前記視点位置に基づいて、互いに視点の異なる複数の視差画像を前記ブロック領域内の各チャンネルの画素に割り当てる割り当て制御部と、前記割り当て制御部の割り当てにしたがって複数の前記視差画像を合成し、合成画像を生成する生成部とをさらに設けることができる。
本技術の一側面の情報処理方法またはプログラムは、複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部とを備える表示装置の情報処理方法またはプログラムであって、互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させ、前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出するステップを含む。
本技術の一側面においては、複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部とを備える表示装置において、互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像が表示され、前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離が算出される。
本技術の一側面によれば、より簡単に高品質な立体画像を提示することができる。
本技術を適用した表示装置の一実施の形態の構成例を示す図である。 表示部のより詳細な構成例を示す図である。 4視点の視差画像の立体表示について説明する図である。 開口部の各部の設計について説明する図である。 ユーザにより観察される画素のチャンネルについて説明する図である。 視認位置の算出について説明する図である。 視認位置の算出について説明する図である。 視差画像の割り当てについて説明する図である。 境界位置の算出について説明する図である。 立体表示できない視点位置について説明する図である。 立体表示可能な領域について説明する図である。 視差画像の割り当てについて説明する図である。 キャリブレーション処理について説明するフローチャートである。 キャリブレーション画像と理論観察画像の表示例を示す図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[表示装置の構成例]
本技術は、パララックスバリア等の視差分離部を利用して裸眼方式で立体画像を表示する表示装置について、立体画像の表示制御に必要となるユーザの実空間上の眼間距離のキャリブレーションを行なうことで、より高品質な画像を提示できるようにするものである。
図1は、本技術を適用した表示装置の一実施の形態の構成例を示す図である。
表示装置11は、複数視点の視差画像を用いて被写体を立体表示させる表示装置である。表示装置11は、撮像部21、検出部22、割り当て制御部23、記録部24、生成部25、表示制御部26、表示部27、入力受付部28、およびキャリブレーション処理部29から構成される。
撮像部21は、表示装置11周辺のユーザの画像、例えば表示部27のほぼ正面から、表示部27に表示された画像を観察するユーザの画像(以下、周辺画像と称する)を撮像し、検出部22に供給する。
検出部22は、撮像部21から供給された周辺画像からユーザの眼を検出し、その検出結果を割り当て制御部23またはキャリブレーション処理部29に供給する。
また、検出部22は、視点位置算出部41および眼間距離保持部42を備えている。視点位置算出部41は、周辺画像と眼間距離保持部42に保持されているユーザの実際の眼間距離とに基づいて、表示部27に対するユーザの視点位置を算出し、割り当て制御部23に供給する。ここで、眼間距離保持部42に保持されている眼間距離とは、ユーザの右眼と左眼との間の距離をいう。
割り当て制御部23は、検出部22からの検出結果やユーザの視点位置に基づいて、表示部27の表示面上の各領域に、複数の視差画像を割り当てる。割り当て制御部23は、判定部51、視認位置算出部52、および境界位置算出部53を備えている。
判定部51は、検出部22からの視点位置に基づいて、複数の視差画像による被写体の立体表示(3D表示)が可能か否かを判定し、割り当て制御部23は、その判定結果に応じて生成部25での画像生成を制御する。
視認位置算出部52は、検出部22からの視点位置に基づいて、ユーザにより視認されている表示部27の表示面上の画素内の位置を視認位置として算出する。境界位置算出部53は、視認位置に基づいて、表示部27の表示面上の各領域に複数の視差画像を割り当てる。
記録部24は、立体画像を構成する複数の視差画像を記録しており、必要に応じて視差画像を生成部25に供給する。
生成部25は、割り当て制御部23の制御にしたがって、記録部24からの視差画像に基づいて、それらの視差画像を空間分割して合成した合成画像を生成し、表示制御部26に供給する。また、生成部25は、割り当て制御部23の制御にしたがって、記録部24からの視差画像のうちの何れかを、そのまま表示制御部26に供給したり、キャリブレーション処理部29から供給された画像を表示制御部26に供給したりする。
表示制御部26は、生成部25からの合成画像を表示部27に供給して表示させることで、視差画像上の被写体を立体表示させたり、生成部25からの視差画像等を表示部27に供給して表示させたりする。表示部27は、裸眼方式により立体画像を表示可能な液晶表示パネルなどからなり、表示制御部26から供給された合成画像や視差画像などを表示する。
入力受付部28は、例えば表示装置11を遠隔制御するリモートコマンダからの光信号を受光する受光部や、ユーザの操作入力を受け付けるボタンなどからなり、ユーザにより入力された指示をキャリブレーション処理部29に供給する。
キャリブレーション処理部29は、検出部22からの検出結果や、入力受付部28からの指示に基づいて、ユーザの眼間距離のキャリブレーションを行い、その結果得られた眼間距離を検出部22に供給し、保持させる。
キャリブレーション処理部29は、理論観察画像生成部61、誘導部62、位置算出部63、および距離算出部64を備えている。
理論観察画像生成部61は、眼間距離のキャリブレーション処理時に、仮想的に定めたユーザの右眼の位置(以下、仮想視点位置とも称する)から観察される理論観察画像を生成する。
すなわち、キャリブレーション処理時には、キャリブレーション用の画像(以下、キャリブレーション画像とも称する)と理論観察画像が表示部27に表示され、ユーザの右眼位置が仮想視点位置となるように、ユーザに対して仮想視点位置への移動が促される。そして、そのときの周辺画像上でのユーザの眼の検出結果と、仮想視点位置とからユーザの眼間距離が算出される。
理論観察画像は、ユーザが表示部27に表示されたキャリブレーション画像を、仮想視点位置から見たときに、ユーザの右眼で観察されると推定される画像である。したがって、仮想視点位置では、ユーザにはキャリブレーション画像と理論観察画像とが同じ画像に見えることになる。
キャリブレーション処理時には、キャリブレーション処理部29に保持されているキャリブレーション画像や、理論観察画像生成部61により生成された理論観察画像は、生成部25および表示制御部26を介して表示部27に供給され、表示される。
誘導部62は、例えば生成部25および表示制御部26を介して、文字や画像を表示部27に表示させることで、ユーザの仮想視点位置への移動を促す。
位置算出部63は、検出部22から供給された、ユーザの右眼が仮想視点位置にあるときの周辺画像上のユーザの眼の検出結果と、仮想視点位置とに基づいて、ユーザの左眼の位置を算出する。
距離算出部64は、ユーザの左眼の位置と、仮想視点位置とに基づいて、ユーザの実空間上における眼間距離を算出する。
[表示部の構成例]
また、図1の表示部27は、例えば図2に示すように構成される。
すなわち、表示部27は、バックライト91、光変調パネル92、およびバリア素子93から構成される。
バックライト91は、例えばLED(Light Emitting Diode)光源や導光板などからなり、画像を表示させるための光を射出し、光変調パネル92に入射させる。
光変調パネル92は、例えば液晶層やR,G,Bの各色のカラーフィルタなどからなり、バックライト91から入射した光を透過させることで、画像を表示させる。このとき、光変調パネル92は、光変調パネル92に設けられた画素ごとに、光の透過率を変化させることで、画像の各画素の階調表示を行なう。
より詳細には、光変調パネル92は、透明基板101、透明基板102、および液晶層103を備えており、液晶層103は、互いに対向するように配置された平板状の透明基板101と透明基板102の間に形成されている。液晶層103には、画像が表示される画素としての透過部が設けられており、画像の表示時において、透明基板101と透明基板102に設けられている電極に電圧が印加されると、バックライト91から透過部に入射した光の透過率が印加された電圧に応じて変化する。
また、バリア素子93は、偏光板やスイッチ液晶層などからなり、光変調パネル92から入射した光の一部を遮光し、残りの一部を透過させることで、各視差画像を光学的に分離させる。バリア素子93は、透明基板104、透明基板105、およびスイッチ液晶層106を備えており、スイッチ液晶層106は、互いに対向するように配置された平板状の透明基板104と透明基板105の間に形成されている。
透明基板104と透明基板105には、電極が形成されており、これらの電極の一部または全部に電圧が印加されると、スイッチ液晶層106内の液晶分子の配向方向が変化し、これにより、スイッチ液晶層106にはパララックスバリアが形成される。
図2の例では、光変調パネル92から入射した光を透過させる開口部111−1乃至開口部111−3と、光変調パネル92から入射した光を遮光する遮蔽部112−1乃至遮蔽部112−3とからなるパララックスバリアが、スイッチ液晶層106に形成されている。
なお、以下、開口部111−1乃至開口部111−3を特に区別する必要のない場合、単に開口部111とも称し、遮蔽部112−1乃至遮蔽部112−3を特に区別する必要のない場合、単に遮蔽部112とも称する。また、被写体を立体表示する合成画像が光変調パネル92に表示される場合には、バリア素子93にパララックスバリアが形成されるが、2D画像である視差画像が光変調パネル92に表示される場合には、バリア素子93にパララックスバリアは形成されない。
図2のように構成される表示部27では、ユーザはバリア素子93側から光変調パネル92に表示される画像を観察する。特に、合成画像の表示時には、バックライト91から射出され、光変調パネル92およびバリア素子93を透過した光が、ユーザの右眼ERまたは左眼ELに入射する。このとき、ユーザの右眼ERと左眼ELには、バリア素子93で分離された異なる光が入射するので、右眼ERと左眼ELで互いに視差を有する異なる視差画像が観察される。
なお、図2では、視差画像を光学的に分離する分離部の例としてバリア素子93について説明したが、分離部はパララックスバリアに限らず、レンチキュラレンズなどとされてもよい。また、分離部としてのパララックスバリアは、可変式のバリアに限らず、遮蔽板等に開口部が設けられた固定式のバリアとされてもよい。
さらに、バリア素子93は、光変調パネル92とバックライト91の間に配置されるようにしてもよい。
[適視距離からの立体画像の観察について]
ところで、表示装置11に4つの異なる視点の視差画像を合成して得られた合成画像を表示し、ユーザが表示部27から所定の距離だけ離れた位置から表示部27を観察する場合について考える。
例えば図3に示すように、ユーザの右眼ERと左眼ELの中間位置をユーザの視点位置とし、ユーザの視点位置がバリア素子93の表面から距離Z0(以下、適視距離Z0と称する)だけ離れた位置にあるとする。また、右眼ERと左眼ELとの距離(以下、眼間距離Eとも称する)が65mmであるとする。なお、一般的な大人の眼間距離は約65mmである。
また、光変調パネル92の表示面上には、4つの視点の視差画像のそれぞれが表示される画素である、チャンネルCH0乃至チャンネルCH3の4つの各チャンネルの画素からなるブロック領域が、図中、横方向に並ぶように設けられている。
なお、図3では、光変調パネル92における1つの四角形は1つの画素を表しており、それらの画素の図中、下側には、各画素が属すチャンネルの番号が示されている。また、図中、横方向および縦方向をそれぞれx方向およびy方向とし、x方向およびy方向に垂直な方向をz方向とする。ここで、x方向はユーザの右眼ERと左眼ELが並ぶ方向、つまり光変調パネル92に表示される視差画像の視差方向であり、y方向は光変調パネル92の表示面と垂直な方向である。
図3では、ブロック領域内において、図中、右側から左側までチャンネルCH0の画素、チャンネルCH1の画素、チャンネルCH2の画素、およびチャンネルCH3の画素が順番に並んでいる。
また、ブロック領域において、例えばz方向には、同じチャンネルの画素が並んでいる。そして、光変調パネル92の表示面上には、このようなブロック領域がx方向に連続して並んでいる。以下、1つのブロック領域内において、同じチャンネルの画素からなる領域をチャンネル領域とも称することとする。
また、バリア素子93には、1つのブロック領域に対して、パララックスバリアを構成する1つの開口部111が設けられている。したがって、視点P0乃至視点P3の視差画像のそれぞれが、チャンネルCH0乃至チャンネルCH3の画素のそれぞれに表示されると、それらの各視点の視差画像は、バリア素子93により光学的に分離される。
すなわち、バリア素子93から適視距離Z0だけ離れたxz平面上において、チャンネルCH3の各画素から射出され、開口部111を通過した光は領域CR0に到達し、チャンネルCH2の各画素から射出され、開口部111を通過した光は領域CR1に到達する。同様に、チャンネルCH1の各画素から射出され、開口部111を通過した光は領域CR2に到達し、チャンネルCH0の各画素から射出され、開口部111を通過した光は領域CR3に到達する。
なお、図中、上側においてx方向に並ぶ数字0乃至数字3は、その数字が記された領域に到達する光が発せられた画素のチャンネル番号を示している。例えば、領域CR0の図中、上側に記された数字「3」は、領域CR0には、チャンネルCH3の画素からの光が到達することを表している。
ここで、領域CR0乃至領域CR3の各領域のx方向の幅は眼間距離E(=65mm)となる。したがって、バリア素子93から適視距離Z0だけ離れたxz平面上に位置するユーザの左右の眼には、1視点分だけずれた異なる視点の視差画像が観察されることになる。例えば、図3の例では、ユーザの右眼ERは領域CR2内に位置し、左眼ELは領域CR1内に位置するから、ユーザの右眼ERおよび左眼ELには、それぞれ視点P1の視差画像、および視点P2の視差画像が観察されることになる。その結果、ユーザにそれらの視差画像上の被写体が立体的に知覚される。
また、例えばこの状態からユーザの視点位置が図中、左方向に眼間距離Eだけ移動すると、ユーザの右眼ERおよび左眼ELには、それぞれ視点P0の視差画像、および視点P1の視差画像が観察されることになる。
[パララックスバリアの設計について]
このように、適視距離Z0だけ離れた位置から表示部27を観察するユーザに、各開口部111を介して同じチャンネルの画素が視認されるようにするには、開口部111間の距離や、開口部111から光変調パネル92までの距離などを適切に定める必要がある。
例えば、図3の例では、ユーザの左右の眼には、光変調パネル92上の互いに隣接する画素が開口部111を介して観察される。このような場合、適視距離Z0=900mmであるとすると、図4に示すように、開口部111から光変調パネル92までの距離D1と、開口部111間の距離D2が定められる。なお、図中、横方向および縦方向はx方向およびy方向を示している。
図4の左側において、開口部111の中心を通るy方向に平行な直線を直線A11とし、ユーザの片方の眼が点PE11にあるとする。ここで、点PE11は、直線A11からx方向に距離X1だけ離れており、かつ開口部111からy方向に適視距離Z0だけ離れた位置にある。また、バリア素子93の図中、下側にある各四角形は、光変調パネル92上の画素を表している。
例えば、図中、左側に示すようにユーザの眼の位置PE11から、開口部111を介して1つの画素G11が視認されるとする。各画素間の距離をD3とすると、この画素G11の中心は、直線A11から(D3)/2だけ離れた位置にある。
ここで、バリア素子93から光変調パネル92の各画素までの間がガラス材で満たされており、点PE11からこのガラス材へと進む光の相対屈折率がk1であるとすると、X1:Z0=(D3)/2:D1/k1であるので、D1=Z0×((D3)/2)×k1/X1となる。例えば、Z0=900mm,D3=0.05435mm,X1=32.5mm,k1=1.5であるとすると、これらの値からD1=900×((0.05435)/2)×1.5/32.5=1.1288mmとなる。
また、図中、右側に示すように、ユーザの眼が直線A11上の点PE12にあるとする。この場合、光変調パネル92は4視点用であるから、点PE12から図中、左側の開口部111を介して見える光変調パネル92の位置と、その開口部111の右側に隣接する開口部111を介して見える光変調パネル92の位置とは4画素分だけ離れているはずである。
したがって、Z0:D2=(Z0+(D1/k1)):4×D3が成立するので、D2=Z0×D3×4/(Z0+(D1/k1))により、開口部111間の距離D2が求まる。ここで、Z0=900mm,D3=0.05435mm,D1=1.1288mm,k1=1.5であるとすると、これらの値からD2=900×0.05435×4/(900+(1.1288/1.5))=0.2172184mmとなる。
[適視距離の半分の距離からの観察について]
ところで、ユーザの視点位置が、表示部27からy方向に上述した適視距離の半分の距離Z0/2だけ離れた位置にあるとする。そのような場合、ユーザの右眼と左眼により視認されるブロック領域内の画素は、2画素分の距離だけ離れた位置にある画素となる。
したがって、例えばユーザの右眼ERから所定の開口部111を介してブロック領域のチャンネルCH1の画素が見えている状態では、ユーザの左眼ELからは、同じ開口部111を介してブロック領域のチャンネルCH3の画素が見える。
そのため、右眼用と左眼用の視差画像を表示部27に表示させる場合に、各チャンネルの画素に適切に右眼用または左眼用の視差画像を表示させ、ユーザが適視距離Z0の約半分の距離から視差画像を観察すれば、クロストークの発生を抑制することができる。
例えば、図3に示した状態では、ユーザの右眼ERはチャンネルCH1の画素を観察しており、ユーザの左眼ELはチャンネルCH2の画素を観察している。この状態から、例えばユーザが図3中、右方向にわずかに移動したとする。そうすると、チャンネルCH1の画素とチャンネルCH2の画素は互いに隣接しているから、ユーザの右眼ERには、これまで見えていたチャンネルCH1の画素だけでなく、左眼ELで見えていたチャンネルCH2の画素も見えてしまい、クロストークが発生する。すなわち、左右の視差画像上の被写体が2重に見えてしまう。
これに対して、例えばユーザが適視距離Z0の約半分の距離から表示部27を観察している状態で、図3中、光変調パネル92の中央にあるブロック領域のチャンネルCH1に右眼用の視差画像を表示させ、同じブロック領域のチャンネルCH3に左眼用の視差画像を表示させたとする。
この場合、ユーザの右眼ERには右眼用の視差画像が観察され、ユーザの左眼ELには左眼用の視差画像が観察されることになる。この状態からユーザが図中、右方向にわずかに移動しても、チャンネルCH1とチャンネルCH3の画素は2画素分だけ離れているので、ユーザの右眼ERに左眼用の視差画像が観察されることはない。
さらに、ユーザの視点位置の移動に応じて、クロストークが発生する前に各チャンネルの画素における視差画像の表示の切り替えを行なえば、各領域における左右の視差画像の表示の切り替えをユーザに感じさせることなく、より自然な画像の提示が可能となる。
このように、ユーザの視点位置に応じて、各チャンネルの画素に適切に右眼用または左眼用の視差画像を表示させ、ユーザが通常の適視距離の約半分の距離から観察すれば、クロストークの発生を抑制し、より高品質な画像を提示することが可能である。以下、このような立体画像の表示方式を、半視距離表示方式と称することとする。
[半視距離表示方式における表示制御について]
次に、左眼用と右眼用の視差画像に基づいて、半視距離表示方式により立体画像を表示させる具体的な制御について説明する。
例えば、図5に示すように、ユーザが所定の位置にいる場合に、ユーザの右眼に光変調パネル92の図中、左端の領域B11内のチャンネルCH2の画素が視認されているとする。また、光変調パネル92の領域B12、領域B13、および領域B14では、それぞれユーザの右眼によりチャンネルCH1の画素、チャンネルCH0の画素、およびチャンネルCH3の画素が視認されているとする。
この場合、光変調パネル92の領域B11乃至領域B14では、ユーザの左眼には、それぞれチャンネルCH0の画素、チャンネルCH3の画素、チャンネルCH2の画素、およびチャンネルCH1の画素が視認される。
なお、これらの領域B11乃至領域B14は、複数のブロック領域からなる領域である。このような状態で、表示装置11は領域B11乃至領域B14について、それらの領域内のブロック領域のうち、ユーザにより視認される画素からの光の輝度が最も高くなるブロック領域の位置を特定し、それらの位置を境界位置LB11乃至境界位置LB14とする。
すなわち、境界位置LB11は、領域B11内のブロック領域のうち、視認される画素からの光の輝度が最も高いブロック領域の位置である。同様に、境界位置LB12乃至境界位置LB14のそれぞれは、領域B12乃至領域B14のそれぞれにあるブロック領域のうち、視認される画素からの光の輝度が最も高いブロック領域のそれぞれの位置である。
このようにして境界位置が特定されると、表示装置11は光変調パネル92上の境界位置LB11乃至境界位置LB14により分割される各領域に対して、各チャンネルへの左右の視差画像の割り当てを行なう。
具体的には、領域B11の左端から境界位置LB11までの間にある各ブロック領域では、チャンネルCH2とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、チャンネルCH0とチャンネルCH1の画素に左眼用の視差画像が割り当てられる。
同様に、境界位置LB11から境界位置LB12までの間にある各ブロック領域では、チャンネルCH1とチャンネルCH2の画素に右眼用の視差画像が割り当てられ、チャンネルCH0とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。また、境界位置LB12から境界位置LB13までの間にある各ブロック領域では、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
さらに、境界位置LB13から境界位置LB14までの間にある各ブロック領域では、チャンネルCH0とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、チャンネルCH1とチャンネルCH2の画素に左眼用の視差画像が割り当てられる。また、境界位置LB14から領域B14の右端までの間にある各ブロック領域では、チャンネルCH2とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、チャンネルCH0とチャンネルCH1の画素に左眼用の視差画像が割り当てられる。
そして、このようなブロック領域における各チャンネルへの視差画像の割り当てにしたがって合成画像が生成され、生成された合成画像が光変調パネル92に表示される。
さらに、この状態からユーザの視点位置が移動すると、各ブロック領域内でユーザにより視認される画素のチャンネルが変化するので、視点位置の変化に追従して境界位置LB11乃至境界位置LB14の位置も移動する。そして、境界位置LB11乃至境界位置LB14の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てが変更される。
なお、以下、光変調パネル92において、連続して並ぶいくつかのブロック領域からなる領域であって、同じチャンネルの画素に同じ視差画像が割り当てられるブロック領域からなる領域を、連続ブロック領域とも称することとする。
例えば、図5の例では、境界位置LB11から境界位置LB12までの間にある各ブロック領域からなる領域や、境界位置LB12から境界位置LB13までの間にある各ブロック領域からなる領域が1つの連続ブロック領域とされる。つまり、図5では、境界位置LB11乃至境界位置LB14のそれぞれが、連続ブロック領域の境界となる。
ところで、連続ブロック領域の境界位置は、ユーザにより視認される画素からの光の輝度が最も高くなるブロック領域の位置である。ここで、輝度が最も高くなるブロック領域とは、ユーザにより画素の略中央が視認されているブロック領域である。
表示部27の端部では、バリア素子93と光変調パネル92との間にあるガラスの見かけ上の厚みが薄くなるという現象が起こることが知られている。そのため、ユーザの視点位置に基づいて、連続ブロック領域の境界位置を求める場合には、光の入射角と屈折角の厳密式を用いて、ブロック領域ごとにどのチャンネルの画素のどの位置がユーザにより視認されているかを正確に求めることが望ましい。
例えば、図6に示すように、所定の光線H11が空気中を通って、厚さD21のガラス材に入射し、光変調パネル92の表面に到達したとする。また、光線H11のガラス材への入射位置を通り、ガラス材の表面に垂直な直線を直線A21とする。
このとき、空気中を伝播する光線H11のガラス材への入射角度T1に対して、光線H11のガラス材への入射後の光路と、直線A21とのなす角度T2は、光線H11が空気中からガラス材へと進むときの相対屈折率k11と入射角度T1とから求まる。すなわち、角度T2=asin(sin(T1/k11))である。
また、角度T2が求まると、ガラス材の見かけの厚みD22と角度T2とにより、直線A21から、光線H11の光変調パネル92の表面への入射位置までの距離x11が求まる。すなわち、距離x11=D22×tan(T2)である。
このようにして距離x11を求めることで、各ブロック領域について、ユーザにより視認される画素上の正確な位置(以下、画素の視認位置とも称する)を求めることができる。
具体的には、例えば図7に示すように、図中、横方向、つまり光変調パネル92の表示面と平行な方向をx方向とし、図中、縦方向、つまり光変調パネル92の表示面と垂直な方向をy方向として、xy座標系上の所定位置がユーザの眼の位置CPであるとする。
また、バリア素子93の中央にある開口部111を0番目の開口部111として、その開口部111から図中、左方向にn番目にある開口部111をn番目の開口部111とし、0番目の開口部111から図中、右方向にn番目にある開口部111を−n番目の開口部111とする。
ここで、n番目の開口部111(以下、番号nの開口部111とも称する)について、その開口部111からユーザによりブロック領域内のどのチャンネルの画素が視認されるかを求めることを考える。まず、位置CPの座標と、開口部111の中心位置の座標とから、位置CPからの光線のn番目の開口部111への入射角度T11が求まる。すなわち、入射角度T11は、y方向に平行な直線L21と、位置CPからの光線とのなす角度である。
入射角度T11が求まると、位置CPから開口部111に入射し、光変調パネル92へと進む光線、つまりその光線の光路を示す直線L22と、直線L21とのなす角度T12が求まる。すなわち、図6を参照して説明したように、入射角度T11と、開口部111から光変調パネル92の画素までの間のガラス材の屈折率k11とから、角度T12=asin(sin(T11/k11))が求まる。
すると、直線L22を表す式(例えば、y=ax+b)が求まるので、光線の光路を表す直線L22が光変調パネル92の画素と交わる点の座標を求めれば、どのチャンネルの画素のどの位置がユーザにより視認されるかを求めることができる。図7では、位置CPからの光線は、画素G31に到達しており、この画素G31がユーザにより視認されることが分かる。
また、ユーザにより視認される画素内の位置、つまり画素におけるユーザの視認位置は、画素の中心位置が0とされて、−0.5から0.5までの間の値とされる。例えば、画素の図中、右端の位置が−0.5とされ、画素の図中、左端の位置が0.5とされる。
このようにして、ユーザの右眼と左眼について、ブロック領域(開口部111)ごとにユーザにより視認される画素(以下、視認画素とも称する)のチャンネルmと、その視認画素上の視認位置とを求めると、例えば図8の右側に示す結果が得られる。
なお、図8の右側において、横軸は開口部111の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
図8では、折れ線C11は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C12は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。
ここで0番目の開口部111から、n番目(但し、1≦n)の開口部111に向かう方向を+x方向とし、+x方向と反対方向を−x方向とする。この場合、例えば0番目の開口部111に対して+x方向側に隣接するいくつかの開口部111を観察するユーザの右眼には、それらの開口部111を介してチャンネルCH1の画素が視認されることが分かる。また、チャンネルCH1の画素が視認される連続して並ぶ開口部111のほぼ中央にある開口部111では、その開口部111を介して、チャンネルCH1の画素のほぼ中央が、ユーザの右眼で観察されていることが分かる。
このような折れ線C11から、矢印Q21に示すように、光変調パネル92の表示面上の各領域において、ユーザの右眼によりどのチャンネルの画素が観察されるかが分かる。なお、矢印Q21に示される横長の四角形は、ユーザから見える光変調パネル92の表示面全体を表しており、その四角形内の縦長の長方形内の数字は、その長方形の領域を観察するユーザの右眼により視認される画素のチャンネル番号を示している。
したがって、光変調パネル92の表示面の図中、右端の領域、つまり+x方向側の端の領域では、ユーザの右眼にはチャンネルCH2の画素が観察され、その領域に対して図中、左側に隣接する領域では、ユーザの右眼にはチャンネルCH1の画素が観察される。また、光変調パネル92の表示面の中央からやや−x方向側に位置する領域では、ユーザの右眼にはチャンネルCH0の画素が観察され、その領域の左側に隣接する領域では、ユーザの右眼にはチャンネルCH3の画素が観察される。
また、折れ線C12から、ユーザの右眼位置から見た各視認画素の視認位置が分かるので、視認位置が0となるブロック領域(開口部111)の位置を連続ブロック領域の境界位置とすれば、矢印Q21に示すように境界位置LB51乃至境界位置LB54が定まる。
境界位置LB51乃至境界位置LB54により分割されて得られる各連続ブロック領域では、その連続ブロック領域内で視認画素とされる2つのチャンネルの画素に、右眼用の視差画像が割り当てられる。
すなわち、例えば光変調パネル92の−x方向側の端から境界位置LB51までの間にある各ブロック領域では、チャンネルCH2とチャンネルCH3の画素に、右眼用の視差画像が割り当てられる。また、境界位置LB51から境界位置LB52までの間では、チャンネルCH0とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、境界位置LB52から境界位置LB53までの間では、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられる。
さらに、境界位置LB53から境界位置LB54までの間では、チャンネルCH1とチャンネルCH2の画素に右眼用の視差画像が割り当てられ、境界位置LB54から光変調パネル92の+x方向側の端までの間では、チャンネルCH2とチャンネルCH3の画素に右眼用の視差画像が割り当てられる。
右眼における場合と同様に、図8において、折れ線C13は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C14は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。例えば、0番目の開口部111に対して+x方向側に隣接するいくつかの開口部111を観察するユーザの左眼には、それらの開口部111を介してチャンネルCH3の画素が視認されることが分かる。
このような折れ線C13から、矢印Q22に示すように、光変調パネル92の表示面上の各領域において、ユーザの左眼によりどのチャンネルの画素が観察されるかが分かる。なお、矢印Q22に示される横長の四角形は、光変調パネル92の表示面全体を表しており、その四角形内の縦長の長方形内の数字は、その長方形の領域を観察するユーザの左眼により視認される画素のチャンネル番号を示している。
したがって、光変調パネル92の表示面の図中、右端の領域から左端の領域まで順番に、ユーザの左眼によって、チャンネルCH0、チャンネルCH3、チャンネルCH2、およびチャンネルCH1の画素が観察される領域が並んでいることが分かる。
また、折れ線C14から、ユーザの左眼位置から見た各視認画素の視認位置が分かるので、視認位置が0となるブロック領域(開口部111)の位置を連続ブロック領域の境界位置とすれば、矢印Q22に示すように境界位置LB61乃至境界位置LB64が定まる。
境界位置LB61乃至境界位置LB64により分割されて得られる各連続ブロック領域では、その連続ブロック領域内で視認画素とされる2つのチャンネルの画素に、左眼用の視差画像が割り当てられる。
すなわち、光変調パネル92の−x方向側の端から境界位置LB61までの間にある各ブロック領域では、チャンネルCH0とチャンネルCH1の画素に、左眼用の視差画像が割り当てられる。また、境界位置LB61から境界位置LB62までの間では、チャンネルCH1とチャンネルCH2の画素に左眼用の視差画像が割り当てられ、境界位置LB62から境界位置LB63までの間では、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
さらに、境界位置LB63から境界位置LB64までの間では、チャンネルCH0とチャンネルCH3の画素に左眼用の視差画像が割り当てられ、境界位置LB64から光変調パネル92の+x方向側の端までの間では、チャンネルCH0とチャンネルCH1の画素に左眼用の視差画像が割り当てられる。
このように、各開口部111(ブロック領域)について、視認画素のチャンネル番号と、その視認画素における視認位置とが求まると、連続ブロック領域の境界位置が定まる。これにより、各連続ブロック領域に属すブロック領域ごとに、左右の視差画像を割り当てるチャンネルが定まる。
但し、連続ブロック領域の境界位置は、右眼から見たときの境界位置と、左眼から見たときの境界位置とが同じ位置となるのが理想的であるが、実際にはユーザの右眼と左眼の位置は異なる位置にあるので、それらの境界位置にずれが生じる。
例えば、ユーザの視点位置が番号0の開口部111の略正面に位置し、かつ表示部27から視点位置までの距離が適視距離Z0の略半分である場合でも、図9に示すようにユーザの右眼と左眼を基準とした境界位置のずれは、中央から離れた位置ほど大きくなる。
なお、図9において、横軸は開口部111の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
図9では、折れ線C21は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C22は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。また、直線LB71乃至直線LB74は、それぞれ折れ線C22から定まる連続ブロック領域の境界位置を示している。
さらに、折れ線C23は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C24は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。また、直線LB81乃至直線LB84は、それぞれ折れ線C24から定まる連続ブロック領域の境界位置を示している。
なお、以下、直線LB71乃至直線LB74を境界位置LB71乃至境界位置LB74とも称し、直線LB81乃至直線LB84を境界位置LB81乃至境界位置LB84とも称する。
図9の例では、左眼を基準とした境界位置LB81乃至境界位置LB84のそれぞれが、右眼を基準とした境界位置LB71乃至境界位置LB74に対応するが、それらの境界位置のずれは、光変調パネル92の中央から遠い位置にある境界位置ほど大きい。
このようなずれが生じると、ブロック領域における各チャンネルの画素への視差画像の割り当てに矛盾が生じてしまう。
例えば、右眼を基準として、境界位置LB71から境界位置LB72までの間のブロック領域で、チャンネルCH0とチャンネルCH3の画素に右眼用の視差画像を割り当てるとする。また、左眼を基準として、光変調パネル92の−x方向側の端から境界位置LB81までの間のブロック領域で、チャンネルCH0とチャンネルCH1の画素に左眼用の視差画像を割り当てるとする。
そうすると、境界位置LB71から境界位置LB81までの間のブロック領域では、チャンネルCH0の画素に対して、右眼用の視差画像と左眼用の視差画像の両方が割り当てられることになってしまう。
そこで、表示装置11では、境界位置LB71乃至境界位置LB74のそれぞれと、境界位置LB81乃至境界位置LB84のそれぞれとの中間位置(平均位置)を、最終的な境界位置である境界位置LB91乃至境界位置LB94とする。
これにより、例えば図中、下側に示すように、境界位置LB91乃至境界位置LB94で分割される領域を連続ブロック領域として、各ブロック領域で視差画像の割り当てが行なわれる。なお、図中、下側には、各領域で右眼用および左眼用の視差画像が割り当てられる画素のチャンネル番号が記されている。
例えば、境界位置LB91から境界位置LB92までの間では、ブロック領域内のチャンネルCH0とチャンネルCH3の画素に右眼用の視差画像が割り当てられ、チャンネルCH1とチャンネルCH2の画素に左眼用の視差画像が割り当てられる。
また、境界位置LB92から境界位置LB93の間では、ブロック領域内のチャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられる。
なお、右眼を基準とする境界位置と左眼を基準とする境界位置との中間位置を、最終的な連続ブロック領域の境界位置とすると、境界位置近傍では右眼または左眼を基準とした視差画像の割り当てと多少のずれが生じるが、特に視差画像の立体視に影響は生じない。
但し、ユーザの視点位置が、半視距離表示方式における最適な視距離であるZ0/2からずれてくると、すなわち、例えばユーザの視点位置が表示部27に近付いたり、遠ざかったりすると、次第に右眼を基準とする境界位置と左眼を基準とする境界位置とのずれが大きくなる。
そうすると、例えば図10に示すように、いくつかのブロック領域において、ユーザの右眼と左眼とで同じチャンネルの画素が視認画素として観察されてしまう。なお、図10において、横軸は開口部111の番号nを示しており、縦軸は視認画素のチャンネル番号または視認位置を示している。
図10では、折れ線C31は、ユーザの右眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C32は、ユーザの右眼から見える各ブロック領域の視認画素における視認位置を示している。また、折れ線C33は、ユーザの左眼から見える各ブロック領域の視認画素のチャンネル番号を示しており、折れ線C34は、ユーザの左眼から見える各ブロック領域の視認画素における視認位置を示している。
この例では、折れ線C31と折れ線C33の一部が重なっており、これらの部分ではブロック領域において、ユーザの右眼と左眼とで同じチャンネルの画素が視認画素として観察される。そのため、右眼を基準として求めた境界位置と、左眼を基準として求めた境界位置との中間位置を最終的な連続ブロック領域の境界位置としても、所定のブロック領域では、同じチャンネルに右眼用と左眼用の両方の視差画像を割り当てなくてはならなくなる。つまり、ユーザが被写体を立体的に観察できなくなり、右眼用の視差画像と左眼用の視差画像とを用いた立体表示が不可能となる。
このように、所定の視点位置において、開口部111(ブロック領域)ごとに、ブロック領域内の視認画素を求めると、その結果から、ユーザが現視点位置から表示部27を観察する場合に、視差画像の立体視が可能であるかを特定することができる。
したがって、各視点位置について、ブロック領域ごとに視認画素を求める演算を行なえば、例えば図11に示すように、xy平面上において立体表示(立体視)が可能な領域と不可能な領域とを求めることができる。なお、図11において、横方向および縦方向はx方向およびy方向を示している。
図11の例では、表示部27の周囲の領域のうち、斜線の施された領域WR11は、視差画像の立体表示が可能な領域を示している。そこで、表示装置11は、半視距離表示方式により視差画像の立体表示を行なう場合において、領域WR11内にある領域WR12を視差画像の立体表示が可能な領域とする。そして、表示装置11は、ユーザの視点位置が領域WR12内にある場合、左右の視差画像に基づいて被写体を立体表示させ、ユーザの視点位置が領域WR12外にある場合、左右の何れか一方の視差画像を表示する。
このようにユーザの視点位置に応じて、3D表示と2D表示を切り替えることで、ユーザに違和感のない自然な画像を提示することができる。
[半視距離表示方式による立体画像の表示処理について]
次に、表示装置11が半視距離表示方式により立体画像(合成画像)を表示する場合の具体的な動作について説明する。
そのような場合、まず撮像部21は、表示部27の周囲の領域の画像を周辺画像として撮像し、検出部22は撮像部21により撮像された周辺画像からユーザの眼を検出する。例えば検出部22は、周辺画像からユーザの顔を検出し、検出された顔の領域から、さらにユーザの眼を検出する。
周辺画像からユーザの眼が検出されると、視点位置算出部41は、検出されたユーザの眼の位置と、眼間距離保持部42に保持されている眼間距離とに基づいて、ユーザの視点位置を算出し、割り当て制御部23に供給する。
例えば視点位置算出部41は、xy平面上におけるユーザの左右の眼の中間の位置を、視点位置として求める。また、眼間距離保持部42に保持されている眼間距離は、後述するキャリブレーション処理により求められた眼間距離である。
また、割り当て制御部23の判定部51は、視点位置算出部41から供給されたユーザの視点位置に基づいて、視差画像の立体表示が可能であるか否かを判定する。
例えば、判定部51は、図11に示した立体表示可能な領域WR12を特定するための領域情報を予め記録しており、ユーザの視点位置が領域WR12内の位置である場合、立体表示が可能であると判定する。
このとき、立体表示が可能でないと判定された場合には、割り当て制御部23は、生成部25に2次元の視差画像の表示を指示し、生成部25は、その指示に応じて2次元の視差画像を表示させる。すなわち、生成部25は、記録部24から右眼用または左眼用の何れかの視差画像を読み出して、読み出した視差画像をそのまま表示制御部26に供給する。
すると、表示制御部26は、生成部25から供給された視差画像を表示部27に供給し、視差画像を表示させる。このとき、例えばバリア素子93は、パララックスバリアを形成せず、表示部27は視差画像をそのまま表示させる。また、表示部27に設けられるパララックスバリアが固定式のものである場合でも、表示部27に視差画像をそのまま表示させることで、視差画像が2次元表示(2D表示)される。
これに対して、判定部51により立体表示が可能であると判定された場合、視認位置算出部52は、視点位置算出部41から供給されたユーザの視点位置に基づいて、開口部111ごとに視認画素および視認位置を算出する。
すなわち、視認位置算出部52は、視点位置から定まるユーザの右眼位置と左眼位置とについて、図7を参照して説明した演算を行なって、開口部111(ブロック領域)ごとに、その開口部111を介して観察される視認画素と、その視認画素における視認位置を算出する。これにより、例えば図8に示した演算結果が得られる。すなわち、各ブロック領域について、ユーザの右眼または左眼から観察される画素(視認画素)のチャンネル番号と、その画素上のユーザにより観察される位置(視認位置)が求まる。
すると、境界位置算出部53は、各ブロック領域についての視認位置の算出結果に基づいて、連続ブロック領域の境界位置を算出する。
具体的には境界位置算出部53は、右眼位置について求められた各ブロック領域の視認位置の算出結果に基づいて、視認位置が「0」となる位置を、右眼を基準とする境界位置とする。すなわち、開口部111を介して、右眼により画素の中央が観察されるブロック領域の位置が、右眼を基準とする境界位置とされる。同様に、境界位置算出部53は、左眼位置について求められた各ブロック領域の視認位置の算出結果に基づいて、視認位置が「0」となる位置を、左眼を基準とする境界位置とする。
そして、境界位置算出部53は、右眼を基準とする境界位置と、それらの境界位置に対応する、左眼を基準とする境界位置との中間の位置を、最終的な連続ブロック領域の境界位置とする。ここで、右眼を基準とする境界位置に対応する、左眼を基準とする境界位置とは、右眼を基準とする境界位置に最も近い位置にある、左眼を基準とする境界位置である。
このような演算により、例えば図9に示した境界位置LB91乃至境界位置LB94が求められる。
続いて、境界位置算出部53は、連続ブロック領域の境界位置の算出結果に基づいて、各ブロック領域の画素に右眼用または左眼用の視差画像を割り当てる。
図9の例では、例えば光変調パネル92の表示面上のブロック領域のうち、境界位置LB91から境界位置LB92の間にあるブロック領域では、チャンネルCH0とチャンネルCH3の画素(チャンネル領域)に対して、右眼用の視差画像が割り当てられる。また、境界位置LB91から境界位置LB92の間にあるブロック領域において、チャンネルCH1とチャンネルCH2の画素に対して、左眼用の視差画像が割り当てられる。
より具体的には、例えば図12に示すように、光変調パネル92上の4つの画素からなる領域がブロック領域BR1およびブロック領域BR2とされたとする。なお、図12において、横方向はx方向を示している。
図12では、矢印Q41乃至矢印Q43により示される長方形は、右眼用の視差画像、左眼用の視差画像、および光変調パネル92を表している。また、それらの長方形内の1つの四角形は1つの画素を表しており、各画素内の文字「R」,「G」,「B」は、それぞれ画素の色を表している。
例えば、光変調パネル92上の画素G51乃至画素G54が含まれる領域が、ブロック領域BR1とされており、画素G55乃至画素G58が含まれる領域が、ブロック領域BR2とされている。ここで、例えば画素G51は、R(赤)のカラーフィルタが設けられた、Rの光のみを透過させる画素であり、画素G52は、G(緑)のカラーフィルタが設けられた、Gの光のみを透過させる画素である。
また、光変調パネル92上の各画素の図中、下側には、それらの画素のチャンネル番号が記されている。例えば、画素G51はチャンネルCH0の画素であり、画素G52は、チャンネルCH1の画素である。
さらに、図中、横方向において光変調パネル92上の各画素と同じ位置には、それらの画素と同じ位置にある、右眼用および左眼用の視差画像の画素が示されている。
一般的に、画像上の画素は、R,G,Bの各色の値をもつため、互いに隣接するR,G,Bの領域が1つの画素とされ、R,G,Bの各色の領域がサブピクセル(サブ画素)として扱われることが多い。
具体的には、例えば右眼用の視差画像の図中、左端の連続するR,G,Bの3つの画素からなる領域が一般的には1つの画素(以下、適宜、RGB画素とも称する)とされ、各色の画素G61や画素G62がサブピクセルとして扱われることが多い。しかし、ここでは、これらの画素G61や画素G62を1つの画素と呼ぶこととする。
同様に、例えば一般的に、画素G51乃至画素G53からなる3つの色の領域が1つの画素として扱われることがあるが、ここでは画素G51乃至画素G53のそれぞれを、1つの画素として扱うこととする。
例えば、ブロック領域BR1とブロック領域BR2において、境界位置算出部53により、チャンネルCH0とチャンネルCH1の画素に右眼用の視差画像が割り当てられ、チャンネルCH2とチャンネルCH3の画素に左眼用の視差画像が割り当てられたとする。
このとき、境界位置算出部53は、右眼用の視差画像の画素G61と画素G62を、それらの画素と同じ位置にある光変調パネル92上の画素G51と画素G52に割り当てる。また、境界位置算出部53は、左眼用の視差画像の画素G71と画素G72を、それらの画素と同じ位置にある光変調パネル92上の画素G53と画素G54に割り当てる。
同様に、境界位置算出部53は、右眼用の視差画像の画素G63と画素G64を、画素G55と画素G56に割り当て、左眼用の視差画像の画素G73と画素G74を、画素G57と画素G58に割り当てる。
このように、ブロック領域の所定のチャンネルに右眼用または左眼用の視差画像が割り当てられたとき、より詳細には、そのチャンネルの画素には、その画素と同じ位置にある右眼用または左眼用の視差画像の画素が割り当てられる。
このようにして、ブロック領域ごとに、各チャンネルの画素に対して右眼用または左眼用の視差画像を割り当てると、境界位置算出部53はその割り当て結果を生成部25に供給し、合成画像の生成を指示する。
生成部25は、境界位置算出部53から供給された割り当て結果と、記録部24から読み出した右眼用および左眼用の視差画像とに基づいて、合成画像を生成し、表示制御部26に供給する。例えば、図12に示した割り当てが行なわれた場合、生成部25は、右眼用の視差画像の画素G61と画素G62が、画素G51と画素G52に表示され、左眼用の視差画像の画素G71と画素G72が、画素G53と画素G54に表示されるように、合成画像を生成する。
また、表示制御部26は、生成部25から供給された合成画像を表示部27に供給して表示させる。
例えば、表示部27は、供給された合成画像に基づいてバックライト91から光を射出させるとともに、光変調パネル92に電圧を印加させてバックライト91からの光の透過率を画素ごとに制御する。また、表示部27はバリア素子93に電圧を印加させて開口部111と遮蔽部112とからなるパララックスバリアを形成させる。
これにより、バックライト91から光変調パネル92の各画素を透過した光は、パララックスバリアにより光学的に分離され、分離された一部の光がユーザの右眼または左眼に入射して、ユーザにより視差画像上の被写体が立体的に観察される。すなわち、合成画像上の右眼用の視差画像の領域がユーザの右眼により観察され、合成画像上の左眼用の視差画像の領域がユーザの左眼により観察される。
このようにして表示部27に立体画像(合成画像)が表示されると、例えばユーザにより電源のオフが指示されるなど、処理の終了が指示されるまで、上述した処理が繰り返し行なわれる。すなわち、ユーザの視点位置の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てが変更され、新たな割り当てにしたがって生成された合成画像が表示される。
以上のようにして、表示装置11は、ユーザの視点位置に基づいて、ブロック領域ごとに視認画素と視認位置を算出し、その算出結果に基づいて、ブロック領域の各チャンネルの画素に、右眼用または左眼用の視差画像を割り当てて合成画像を生成する。
このとき、ブロック領域のx方向に隣接して並ぶ少なくとも2つの画素に、右眼用または左眼用の視差画像のうちの同じ視差画像が割り当てられるようにすることで、より簡単にクロストークの発生を抑制し、より高品位な画像を提示することができるようになる。
また、ユーザの視点位置の移動に応じて、ブロック領域内の各チャンネルの画素に対する視差画像の割り当てを変化させることで、各チャンネルにおける視差画像の表示の切り替えをユーザに感じさせることなく、より自然で高品位な画像を提示することができる。
[キャリブレーション処理について]
ところで、上述した半視距離表示方式による立体画像の表示処理では、周辺画像からユーザの眼が検出され、その検出結果と、ユーザの実空間上の眼間距離とに基づいてユーザの視点位置が算出される。そして、得られた視点位置に基づいて、ブロック領域の各チャンネルの画素に右眼用または左眼用の視差画像が割り当てられて合成画像が生成される。
したがって、視点位置の算出に用いられる眼間距離に誤差があると、視認画素や視認位置の算出にも誤差が生じ、各チャンネルに適切に視差画像を割り当てることができなくなってしまう恐れがある。各チャンネルに適切に視差画像が割り当てられないと、ユーザが表示された立体画像を観察するときに違和感が生じることがある。
特に、眼間距離はユーザごとに異なるため、予め各ユーザの眼間距離を求めておき、立体画像の表示処理時には、求めておいた眼間距離を利用することが望ましい。なお、各ユーザが自分の眼間距離を予めノギス等により測定し、表示装置11に入力しておくようにしてもよいが、そのような方法は手間がかかってしまい面倒である。
そこで、表示装置11では、予めキャリブレーション処理を行なって、その結果得られた眼間距離を眼間距離保持部42に保持させることにより、より正確な眼間距離を用いて、簡単に高品質な立体画像を提示できるようにする。
以下、図13のフローチャートを参照して、表示装置11によるキャリブレーション処理について説明する。
ステップS11において、キャリブレーション処理部29は、表示部27の一部の領域にキャリブレーション画像を表示させる。
すなわち、キャリブレーション処理部29が、予め保持しているキャリブレーション画像を、生成部25を介して表示制御部26に供給すると、表示制御部26は、供給されたキャリブレーション画像を表示部27に供給して表示させる。このとき、バリア素子93にはパララックスバリアが形成される。
例えば、キャリブレーション画像は、光変調パネル92の画素のチャンネルごとに異なる色の画像などとされる。具体的には、例えばチャンネルCH0の画素に白い画像が表示され、チャンネルCH1の画素に青い画像が表示され、チャンネルCH2の画素に緑の画像が表示され、チャンネルCH3の画素に赤い画像が表示される、白,青,緑,赤の4つの色の領域からなる画像とされる。
なお、キャリブレーション画像は、各チャンネルに独立した色が割り当てられた画像に限らず、チャンネルごとに異なる画像が割り当てられたものであれば、どのような画像であってもよい。また、ブロック領域内の互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられた画像がキャリブレーション画像とされてもよい。
ステップS12において、撮像部21は周辺画像の撮像を開始する。
すなわち、撮像部21は、表示部27の周囲の領域の画像を周辺画像として撮像し、順次、検出部22に供給する。すると、検出部22は、撮像部21から供給された周辺画像からユーザの顔を検出し、ユーザの顔の検出結果に基づいて、周辺画像からユーザの眼を検出する。検出部22は、周辺画像からの眼の検出結果と周辺画像をキャリブレーション処理部29に供給する。
ステップS13において、キャリブレーション処理部29は、仮想視点位置を定める。例えば、表示装置11ではxyz空間上におけるいくつかの位置が、予め仮想視点位置として定められており、キャリブレーション処理部29は、それらの複数の仮想視点位置のうち、まだ処理対象とされていないものを1つ選択し、処理対象の仮想視点位置とする。
なお、仮想視点位置はどのような位置であってもよいが、例えば仮想視点位置は図11の領域WR12内の位置などとされる。
ステップS14において、キャリブレーション処理部29は、検出部22から供給された眼の検出結果に基づいて、周辺画像からユーザの眼が検出されたか否かを判定する。
ステップS14において、ユーザの眼が検出されなかったと判定された場合、眼間距離のキャリブレーションを行なうことはできないので、キャリブレーション処理は終了する。
これに対して、ステップS14において、ユーザの眼が検出されたと判定された場合、ステップS15において、理論観察画像生成部61は、表示部27の一部の領域に理論観察画像を表示させる。
例えば、理論観察画像生成部61は、ステップS13で定められた処理対象の仮想視点位置と、キャリブレーション画像とに基づいて、理論観察画像を生成する。
具体的には、仮想視点位置が指定されると、理論観察画像生成部61は図7を参照して説明した演算を行なうことで、開口部111(ブロック領域)ごとに、開口部111を介して観察される視認画素と、その視認画素における視認位置を算出することができる。これにより、例えば図8に示した演算結果が得られる。すなわち、各ブロック領域について、ユーザの右眼(仮想視点位置)から観察される視認画素のチャンネル番号と、その視認画素上のユーザにより観察される視認位置が求まる。
理論観察画像生成部61は、各ブロック領域についての視認画素のチャンネル番号と、キャリブレーション画像とに基づいて、理論観察画像を生成する。
例えば、キャリブレーション画像が、チャンネルCH0乃至チャンネルCH3のそれぞれの画素に白,青,緑,赤の各色が割り当てられた画像であるとする。
また図8の例では、ユーザが仮想視点位置から表示部27を観察した場合、矢印Q21に示すように、表示部27(光変調パネル92)上の各領域では、チャンネルCH0乃至チャンネルCH3の何れかのチャンネルの画素が観察されるはずである。すなわち、表示部27の図中、左側の領域ではチャンネルCH3の画素が観察され、その領域の右側の領域ではチャンネルCH0の画素が観察され、さらにその領域の右側の領域ではチャンネルCH1の画素が観察され、表示部27の図中、右側の領域ではチャンネルCH2の画素が観察されるはずである。
したがって、仮想視点位置を右眼の位置とするユーザには、図中、左側から順番に、赤い領域,白い領域,青い領域,緑の領域が並ぶ画像が観察されるはずであるので、理論観察画像生成部61は、そのような画像を理論観察画像として生成する。
なお、この場合、理論観察画像の各色の領域が表示されるブロック領域内の各チャンネルの画素には、同じ色の画像が表示される。例えば、理論観察画像の赤い領域が割り当てられたブロック領域では、そのブロック領域内の全ての画素に赤い画像が表示される。したがって、表示部27に表示される理論観察画像は、どの位置(視点位置)から観察しても同じ画像となる。
理論観察画像生成部61は、理論観察画像を生成すると、得られた理論観察画像を、生成部25および表示制御部26を介して表示部27に供給し、表示部27に理論観察画像を表示させる。この場合、理論観察画像が表示されるバリア素子93の領域には、パララックスバリアが形成されてもよいし、パララックスバリアが形成されなくてもよい。
これにより、例えば図14の矢印Q61に示すように、表示部27(光変調パネル92)の図中、上側の領域PD11に理論観察画像が表示され、表示部27の図中、下側の領域PD12にはキャリブレーション画像が表示された状態となる。なお、図中、横方向および縦方向は、それぞれx方向およびz方向を示している。
この例では、領域PD11に表示されている理論観察画像は、図中、横方向に4つの異なる色の領域が並んでいる画像となっており、この理論観察画像は、表示部27を観察する位置によらず同じ画像となる。つまり、理論観察画像は、観察位置によらず見え方が同じ画像である。
これに対して、領域PD12に表示されるキャリブレーション画像は、チャンネルごとに異なる色が割り当てられた画像であるので、表示部27を観察する位置によって異なる画像となる。つまり、キャリブレーション画像は、観察位置によって見え方が異なる。
そして、ユーザの右眼の位置が仮想視点位置にある場合には、ユーザの右眼には矢印Q62に示すように、領域PD11に表示されている理論観察画像と、領域PD12に表示されるキャリブレーション画像とが、同じ画像に見えるようになる。
また、例えば矢印Q63に示すように、表示部27(光変調パネル92)の図中、中央の領域PD21に理論観察画像が表示され、表示部27の図中、上側の領域PD22、および下側の領域PD23にキャリブレーション画像が表示されるようにしてもよい。
この場合においても、ユーザの右眼の位置が仮想視点位置にある場合には、ユーザの右眼には、領域PD21上の理論観察画像、領域PD22上のキャリブレーション画像、および領域PD23上のキャリブレーション画像が、同じ画像に見えるようになる。
なお、理論観察画像とキャリブレーション画像は、表示部27上にどのようにして表示されてもよいが、これらの画像は図14に示すように、図中、縦方向、つまりz方向に並べられて表示されるのが好ましい。また、理論観察画像は、仮想視点位置ごとに予め用意されていてもよい。
図13のフローチャートの説明に戻り、表示部27に理論観察画像とキャリブレーション画像が表示された状態となると、処理はステップS15からステップS16へと進む。
ステップS16において、誘導部62は、ユーザに対して仮想視点位置への移動を促す。すなわち、誘導部62は、ユーザを仮想視点位置へと誘導する。例えば、誘導部62は、ユーザが右眼で表示部27を観察した場合に、キャリブレーション画像が理論観察画像と同じ見え方をする位置への移動を促す文字メッセージや画像を、生成部25および表示制御部26を介して表示部27に供給し、表示させる。
また、誘導部62が、音声メッセージを出力させることにより、ユーザに仮想視点位置への移動を促すようにしてもよい。
このような文字メッセージ等が表示部27に提示されると、ユーザは例えば左眼を閉じて、右眼のみで表示部27を観察しながら、キャリブレーション画像が理論観察画像と同じ見え方をする位置に移動する。このとき、ユーザの移動先の位置が仮想視点位置となるはずである。ユーザは、例えばリモートコマンダ等を操作することで、移動の完了を表示装置11に通知する。
ステップS17において、入力受付部28は、仮想視点位置への移動完了の通知の入力を受け付ける。
例えば、ユーザが仮想視点位置に移動した後、リモートコマンダを操作すると、リモートコマンダからは、ユーザの操作に応じた光信号が発せられる。入力受付部28は、リモートコマンダから送信されてきた光信号を受信して光電変換し、その結果得られた信号をキャリブレーション処理部29に供給する。
キャリブレーション処理部29は、入力受付部28からの信号の供給を受けることで、ユーザが仮想視点位置に移動したことを知ることができる。
なお、ユーザが入力受付部28としてのボタン等を操作することで、仮想視点位置への移動完了を通知するようにしてもよい。また、ユーザが特定の音声を発したり、特定の顔の表情をしたりすることにより、仮想視点位置への移動完了が通知されてもよい。そのような場合、例えば表示装置11において、特定の音声が検出されたり、周辺画像から特定の表情の顔が検出されたりした場合に、仮想視点位置にユーザが移動したと特定される。
ステップS18において、位置算出部63は、入力受付部28から信号が供給された後に検出部22から供給された、周辺画像および周辺画像からの眼の検出結果と、処理対象の仮想視点位置とに基づいて、xyz空間におけるユーザの左眼の位置を算出する。
例えば、位置算出部63は、周辺画像上におけるユーザの左右の眼の位置、それらの眼の距離、および予め定められた周辺画像の画角に基づいて、表示部27上の特定点とユーザの右眼を結ぶ直線と、表示部27上の特定点とユーザの左眼を結ぶ直線とがなす角度θを求める。ここで、角度θは、表示部27上の特定点がユーザの注視点である場合には、ユーザの輻輳角に相当する角度である。
また、位置算出部63は、求めた角度θと、仮想視点位置、つまりユーザの実空間における右眼の位置とに基づいて、ユーザの実空間における左眼の位置を算出する。例えば、ユーザの左右の眼が仮想視点位置を含む平面上にあるとする。この場合、表示部27上の特定点と仮想視点位置を結ぶ直線と、角度θとから、表示部27上の特定点とユーザの左眼位置とを結ぶ直線を求めることができ、このようにして得られた直線と上述した平面との交点の位置がユーザの実空間上における左眼の位置となる。
なお、視点位置算出部41により視点位置が算出される場合には、周辺画像から得られた角度θと、眼間距離とから視点位置が算出される。
ステップS19において、距離算出部64は、ユーザの左右の眼の位置に基づいて、実空間上におけるユーザの眼間距離、つまり左眼と右眼との間の距離を算出する。すなわち、ユーザの右眼の位置である仮想視点位置から、ステップS18により求められたユーザの左眼の位置までの距離が眼間距離として求められる。
ステップS20において、距離算出部64は、ステップS19の処理で求めた眼間距離を一時的に保持する。
ステップS21において、キャリブレーション処理部29は、全ての仮想視点位置について処理を行なったか否かを判定する。
ステップS21において、まだ全ての仮想視点位置について処理を行なっていないと判定された場合、処理はステップS13に戻り、上述した処理が繰り返される。すなわち、まだ処理対象とされていない仮想視点位置が選択されて、その仮想視点位置について眼間距離が算出される。
一方、ステップS21において、全ての仮想視点位置について処理が行なわれたと判定された場合、ステップS22において、距離算出部64は、保持している仮想視点位置ごとの眼間距離の平均値を算出し、最終的な眼間距離とする。このように、いくつかの仮想視点位置について求めた眼間距離の平均値を、最終的なユーザの眼間距離とすることで、より確からしい眼間距離を得ることができる。
ステップS23において、距離算出部64は、ステップS22で算出した平均値を、最終的なユーザの眼間距離として採用し、検出部22の眼間距離保持部42に供給して保持させる。眼間距離保持部42は、距離算出部64から供給された眼間距離を保持すると、キャリブレーション処理は終了する。
なお、眼間距離保持部42に眼間距離を保持する場合に、眼間距離と各ユーザの顔登録情報とを対応付けて保持するようにしてもよい。例えば、顔登録情報は、ユーザにより入力されたユーザ自身を識別する情報でもよいし、周辺画像のユーザの顔の領域から抽出された特徴量とされてもよい。
このように、顔登録情報と眼間距離を対応付けて保持しておくことで、立体画像の表示処理時において、ユーザによる入力や周辺画像の顔領域から抽出された特徴量に基づいて、各ユーザに対して算出された眼間距離を特定し、視点位置の算出に用いることができる。これにより、より高精度にユーザの視点位置を求めることができるようになり、より簡単に高品質な立体画像を提示することができる。
以上のようにして、表示装置11は、表示部27にキャリブレーション画像と理論観察画像を表示させて、ユーザを仮想視点位置に移動させ、ユーザの眼間距離を求める。このように、キャリブレーション画像と理論観察画像を表示し、ユーザを仮想視点位置に移動させて眼間距離を求めることで、より簡単に、正確な眼間距離を得ることができる。これにより、眼間距離を用いて適切に立体画像の表示制御を行なうことができ、より高品質な立体画像を提示することができるようになる。
なお、以上においてはユーザの右眼の位置を仮想視点位置に移動させる例について説明したが、ユーザの左眼の位置を仮想視点位置に移動させるようにしてもよい。そのような場合、ステップS18の処理ではユーザの右眼の位置が算出され、ユーザの左右の眼の位置から眼間距離が求められる。
また、キャリブレーション処理により得られた眼間距離が、半視距離表示方式による立体画像の表示処理で用いられると説明したが、眼間距離は、他の立体画像の表示制御、すなわち2以上の視点の視差画像からなる多視点の立体画像の表示処理にも当然用いることが可能である。
さらに、図1では、表示装置11に撮像部21や表示部27が設けられている例について説明したが、これらの撮像部21や表示部27は、表示装置11の外部に設けられるようにしてもよい。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記録部208、通信部209、及びドライブ210が接続されている。
入力部206は、カメラ、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記録部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、
互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させる理論観察画像表示制御部と、
前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出する距離算出部と
を備える表示装置。
[2]
前記理論観察画像は、前記ブロック領域内の各チャンネルに同じ画像が割り当てられた画像である
[1]に記載の表示装置。
[3]
前記ユーザを前記仮想視点位置に誘導する誘導部をさらに備える
[1]または[2]に記載の表示装置。
[4]
前記距離算出部は、複数の前記仮想視点位置について求められた前記眼間距離の平均値を最終的な前記眼間距離とする
[1]乃至[3]の何れかに記載の表示装置。
[5]
前記ユーザの前記眼間距離を保持する保持部と、
任意の位置にいる前記ユーザの前記周辺画像および前記眼間距離に基づいて、前記ユーザの視点位置を算出する視点位置算出部と、
前記視点位置に基づいて、互いに視点の異なる複数の視差画像を前記ブロック領域内の各チャンネルの画素に割り当てる割り当て制御部と、
前記割り当て制御部の割り当てにしたがって複数の前記視差画像を合成し、合成画像を生成する生成部と
をさらに備える[1]乃至[4]の何れかに記載の表示装置。
11 表示装置, 21 撮像部, 22 検出部, 26 表示制御部, 27 表示部, 28 入力受付部, 29 キャリブレーション処理部, 42 眼間距離保持部, 61 理論観察画像生成部, 62 誘導部, 63 位置算出部, 64 距離算出部

Claims (7)

  1. 複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
    前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と、
    互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させる理論観察画像表示制御部と、
    前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出する距離算出部と
    を備える表示装置。
  2. 前記理論観察画像は、前記ブロック領域内の各チャンネルに同じ画像が割り当てられた画像である
    請求項1に記載の表示装置。
  3. 前記ユーザを前記仮想視点位置に誘導する誘導部をさらに備える
    請求項1に記載の表示装置。
  4. 前記距離算出部は、複数の前記仮想視点位置について求められた前記眼間距離の平均値を最終的な前記眼間距離とする
    請求項1に記載の表示装置。
  5. 前記ユーザの前記眼間距離を保持する保持部と、
    任意の位置にいる前記ユーザの前記周辺画像および前記眼間距離に基づいて、前記ユーザの視点位置を算出する視点位置算出部と、
    前記視点位置に基づいて、互いに視点の異なる複数の視差画像を前記ブロック領域内の各チャンネルの画素に割り当てる割り当て制御部と、
    前記割り当て制御部の割り当てにしたがって複数の前記視差画像を合成し、合成画像を生成する生成部と
    をさらに備える請求項1に記載の表示装置。
  6. 複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
    前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と
    を備える表示装置の情報処理方法であって、
    互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させ、
    前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出する
    ステップを含む情報処理方法。
  7. 複数のチャンネルの画素からなるブロック領域が複数設けられた表示部と、
    前記ブロック領域内の各チャンネルの画素に表示された画像を分離させる分離部と
    を備える表示装置を制御するコンピュータに、
    互いに隣接する異なるチャンネルの画素に、異なる画像が割り当てられたキャリブレーション画像が前記表示部の一部の領域に表示されている状態で、前記表示部の前記一部の領域とは異なる領域に、所定の仮想視点位置から前記表示部上の前記キャリブレーション画像を見た場合に観察される理論観察画像を表示させ、
    前記表示部上の前記キャリブレーション画像と前記理論観察画像が同じ画像に見える位置にいるユーザを撮像して得られた周辺画像と、前記仮想視点位置とに基づいて、実空間における前記ユーザの眼間距離を算出する
    ステップを含む処理を実行させるプログラム。
JP2012057117A 2012-03-14 2012-03-14 表示装置および情報処理方法、並びにプログラム Pending JP2013192060A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057117A JP2013192060A (ja) 2012-03-14 2012-03-14 表示装置および情報処理方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057117A JP2013192060A (ja) 2012-03-14 2012-03-14 表示装置および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2013192060A true JP2013192060A (ja) 2013-09-26

Family

ID=49391901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057117A Pending JP2013192060A (ja) 2012-03-14 2012-03-14 表示装置および情報処理方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2013192060A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016038997A1 (ja) * 2014-09-08 2016-03-17 ソニー株式会社 表示装置、表示装置の駆動方法、及び、電子機器
WO2021220832A1 (ja) * 2020-04-28 2021-11-04 京セラ株式会社 眼間距離測定方法および較正方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016038997A1 (ja) * 2014-09-08 2016-03-17 ソニー株式会社 表示装置、表示装置の駆動方法、及び、電子機器
CN106605172A (zh) * 2014-09-08 2017-04-26 索尼公司 显示装置、用于驱动显示装置的方法以及电子设备
JPWO2016038997A1 (ja) * 2014-09-08 2017-06-22 ソニー株式会社 表示装置、表示装置の駆動方法、及び、電子機器
CN106605172B (zh) * 2014-09-08 2019-11-08 索尼公司 显示装置、用于驱动显示装置的方法以及电子设备
US11109015B2 (en) 2014-09-08 2021-08-31 Sony Corporation Display apparatus, display apparatus driving method, and electronic instrument
WO2021220832A1 (ja) * 2020-04-28 2021-11-04 京セラ株式会社 眼間距離測定方法および較正方法
CN115462067A (zh) * 2020-04-28 2022-12-09 京瓷株式会社 眼间距离测量方法以及校正方法
JP7475191B2 (ja) 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法

Similar Documents

Publication Publication Date Title
JP5924046B2 (ja) 表示装置および方法、情報処理装置および方法、並びにプログラム
JP5874197B2 (ja) 表示装置および方法、並びにプログラム
KR102103681B1 (ko) 표시 장치 및 방법, 및 프로그램
US9961341B2 (en) Method and device for evaluating crosstalk in naked-eye stereoscopic display
US20150085089A1 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
US9110296B2 (en) Image processing device, autostereoscopic display device, and image processing method for parallax correction
KR102174258B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US20140247329A1 (en) Image processing device, stereoscopic image display apparatus, image processing method and image processing program
KR20170017587A (ko) 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치
JPWO2012176443A1 (ja) 映像表示装置および映像表示方法
KR20090023473A (ko) 3차원 화상처리장치, 방법 및 컴퓨터 프로그램 제품
US20150229901A1 (en) Image processing method, image processing device, and electronic apparatus
JP2013186221A (ja) 表示装置および電子機器
KR20160018022A (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US20140071237A1 (en) Image processing device and method thereof, and program
US20140192047A1 (en) Stereoscopic image display device, image processing device, and image processing method
KR20160042535A (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
KR102130133B1 (ko) 백 라이트 장치 및 이를 포함하는 3차원 영상 표시 장치
JP2013192060A (ja) 表示装置および情報処理方法、並びにプログラム
KR20120082364A (ko) 삼차원 영상 표시 장치
JP5924047B2 (ja) 表示装置および方法、並びにプログラム
JP2014241015A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
US20150234196A1 (en) Image display apparatus, lenticular lens, and image display method
JP2013015711A (ja) 表示装置
KR20240005492A (ko) 3d 영상을 제공하는 디스플레이 장치 및 그 제어 방법