JP2012205267A - 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム - Google Patents

表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム Download PDF

Info

Publication number
JP2012205267A
JP2012205267A JP2011070673A JP2011070673A JP2012205267A JP 2012205267 A JP2012205267 A JP 2012205267A JP 2011070673 A JP2011070673 A JP 2011070673A JP 2011070673 A JP2011070673 A JP 2011070673A JP 2012205267 A JP2012205267 A JP 2012205267A
Authority
JP
Japan
Prior art keywords
content
user
pupil
unit
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011070673A
Other languages
English (en)
Other versions
JP2012205267A5 (ja
Inventor
Shigeru Kawada
繁 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011070673A priority Critical patent/JP2012205267A/ja
Priority to US13/408,556 priority patent/US20120249532A1/en
Priority to CN2012100765343A priority patent/CN102710952A/zh
Publication of JP2012205267A publication Critical patent/JP2012205267A/ja
Publication of JP2012205267A5 publication Critical patent/JP2012205267A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Abstract

【課題】ユーザに適した視聴環境でコンテンツを視聴させる。
【解決手段】チューナは、画像により構成されるコンテンツを取得し、画像処理部は、コンテンツをディスプレイに表示させ、瞳孔間隔受信部は、コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する。そして、画像処理部は、瞳孔間隔に基づいて、所定の処理を行う。本開示の技術は、例えば、テレビジョン受像機等に適用できる。
【選択図】図1

Description

本開示は、表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システムに関し、特に、ユーザに適した視聴環境でコンテンツを視聴できるようにした表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システムに関する。
複数の3次元画像により構成される動画等のコンテンツを、ディスプレイに表示する立体表示技術が存在する(例えば、特許文献1参照)。
ここで、3次元画像とは、左眼用2次元画像、及び右眼用2次元画像により構成されており、左眼用2次元画像と右眼用2次元画像との間には、鑑賞者により視認される3次元画像上の物体が立体的に見えるように視差が設けられている。
また、3次元画像を鑑賞者に提示する場合には、例えば、左眼用2次元画像を鑑賞者の左眼のみで視認できるように提示し、右眼用2次元画像を鑑賞者の右眼のみで視認できるように提示するようにする。
鑑賞者は、左眼用2次元画像と右眼用2次元画像に設けられた視差に応じて、視認した画像を立体的な3次元画像として認識することとなる。
特開平11−164328号公報
一般的に、鑑賞者は、左右の瞳孔の間隔を示す瞳孔間隔が狭い程に、視認する3次元画像上の物体をより立体的に感じるものとなる。
これに対して、コンテンツの製作者は、例えば、3次元画像としてのコンテンツを製作する際に、平均的な瞳孔間隔の鑑賞者(例えば、瞳孔間隔が6.5cmの鑑賞者)を想定し、その鑑賞者の視聴時に、製作者の意図した立体感で視聴可能なコンテンツを製作する。
したがって、鑑賞者の瞳孔間隔によっては、製作者の意図した立体感でコンテンツを視聴することができないことが生じ得る。このため、製作者の意図した立体感で鑑賞者にコンテンツを視聴させるには、鑑賞者の瞳孔間隔毎に異なる視聴環境(例えば、コンテンツを視聴する際の視聴距離や、コンテンツを表示する表示画面の大きさ等)でコンテンツを視聴させる必要がある。
本開示は、このような状況に鑑みてなされたものであり、ユーザに適した視聴環境でコンテンツを視聴できるようにするものである。
本開示の第1の側面の表示制御装置は、画像により構成されるコンテンツを取得するコンテンツ取得部と、前記コンテンツを表示部に表示させる表示制御部と、前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得部と、前記瞳孔間隔に基づいて、所定の処理を行う処理実行部とを含む表示制御装置である。
前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得部をさらに設けることができ、前記処理実行部では、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、前記表示制御部では、前記第2のコンテンツを構成する各画像を、前記表示部に表示させることができる。
前記処理実行部では、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行うことができる。
前記コンテンツ取得部では、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、前記処理実行部では、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行うことができる。
前記処理実行部では、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行うことができる。
前記処理実行部では、前記瞳孔間隔に応じた距離だけ離れて前記コンテンツを視聴するように促す前記メッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行うことができる。
複数の前記ユーザには、それぞれ、前記ユーザの視界を制限し、前記ユーザ毎に異なるタイミングで前記視界の制限を解除するための装置が装着されており、前記表示制御部では、前記ユーザが視聴する前記第2のコンテンツを構成する各画像を、前記ユーザ毎に異なる前記タイミングに同期して表示させることができる。
前記瞳孔間隔取得部では、前記コンテンツの視聴時に前記ユーザに装着される送信装置から送信されてくる前記瞳孔間隔を受信して取得することができる。
前記瞳孔間隔取得部では、前記ユーザの瞳孔間隔を算出して取得し、前記視聴距離取得部では、前記視聴距離を算出して取得することができる。
本開示の第1の側面の表示制御方法は、画像により構成されるコンテンツを表示させる表示制御装置の表示制御方法であって、前記表示制御装置による、複数の画像により構成されるコンテンツを取得するコンテンツ取得ステップと、前記コンテンツを表示部に表示させる表示制御ステップと、前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップとを含む表示制御方法である。
本開示の第1の側面のプログラムは、コンピュータに、画像により構成されるコンテンツを取得するコンテンツ取得ステップと、前記コンテンツを表示部に表示させる表示制御ステップと、前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップとを含む処理を実行させるためのプログラムである。
前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得ステップをさらに設けることができ、前記処理実行ステップでは、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、前記表示制御ステップでは、前記第2のコンテンツを前記表示部に表示させることができる。
前記処理実行ステップでは、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行うことができる。
前記コンテンツ取得ステップでは、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、前記処理実行ステップでは、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行うことができる。
前記処理実行ステップでは、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行うことができる。
本開示の第1の側面によれば、画像により構成されるコンテンツが取得され、前記コンテンツが表示部に表示され、前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔が取得され、前記瞳孔間隔に基づいて、所定の処理が行われる。
本開示の第2の側面の検出装置は、コンテンツの視聴時にユーザに装着される検出装置であって、前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、前記瞳孔間隔を送信する送信部とを含む検出装置である。
前記ユーザの左眼の瞳孔の位置に移動される第1の板状部材と、前記ユーザの右眼の瞳孔の位置に移動される第2の板状部材と、前記第1の板状部材と前記第2の板状部材との位置合わせに応じて伸縮する可動ブリッジとをさらに設けることができ、前記瞳孔間隔検出部では、前記可動ブリッジの長さに基づいて、前記ユーザの瞳孔間隔を検出することができる。
前記視聴距離を算出する視聴距離算出部をさらに設けることができ、前記送信部では、前記視聴距離も送信することができる。
本開示の第2の側面の検出方法は、コンテンツの視聴時にユーザに装着される検出装置の検出方法であって、前記検出装置による、前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出ステップと、前記瞳孔間隔を送信する送信ステップとを含む検出方法である。
本開示の第2の側面によれば、前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔が検出され、前記瞳孔間隔が送信される。
本開示の第3の側面の表示システムは、ユーザにより装着される検出装置と、前記ユーザにより視聴されるコンテンツを表示させる表示制御装置とにより構成される表示システムであって、前記検出装置は、前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、前記瞳孔間隔を送信する送信部とを含み、前記表示制御装置は、画像により構成されるコンテンツを取得するコンテンツ取得部と、前記コンテンツを表示部に表示させる表示制御部と、前記送信部から送信されてくる前記瞳孔間隔を受信する瞳孔間隔受信部と、前記瞳孔間隔に基づいて、所定の処理を行う処理実行部とを含む表示システムである。
本開示の第3の側面によれば、前記検出装置により、前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔が検出され、前記瞳孔間隔が送信され、前記表示制御装置により、画像により構成されるコンテンツが取得され、前記コンテンツが表示部に表示され、前記検出装置から送信されてくる前記瞳孔間隔が受信され、前記瞳孔間隔に基づいて、所定の処理が行われる。
本開示によれば、ユーザに適した視聴環境でコンテンツを視聴させることが可能となる。
本開示のテレビジョン受像機の構成例を示すブロック図である。 テレビジョン受像機のディスプレイの表示例を示す第1の図である。 テレビジョン受像機のディスプレイの表示例を示す第2の図である。 推奨距離の算出方法の一例を説明するための図である。 図1のテレビジョン受像機が行う誘導処理を説明するためのフローチャートである。 3Dメガネの外観例を示す図である。 3Dメガネの構成例を示すブロック図である。 3Dメガネが行う瞳孔間隔送信処理を説明するためのフローチャートである。 テレビジョン受像機のディスプレイの表示例を示す第3の図である。 年齢毎に異なる瞳孔間隔の一例を示す図である。 瞳孔間隔に応じて、画像上の物体の立体感が異なることを示す図である。 ディスプレイの大きさに応じて立体的な画像として認識できない場合の一例を示す図である。 拡大率の算出方法の一例を説明するための図である。 図1のテレビジョン受像機が行う第1のサイズ調整処理を説明するためのフローチャートである。 本開示のテレビジョン受像機の他の構成例を示すブロック図である。 図15のテレビジョン受像機が行う処理の概要を示す図である。 瞳孔間隔及び視聴距離の算出方法を説明するための第1の図である。 瞳孔間隔及び視聴距離の算出方法を説明するための第2の図である。 図15のテレビジョン受像機が行う第2のサイズ調整処理を説明するためのフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、本開示における実施の形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(3Dメガネを装着して3次元画像を見る場合の一例)
2.第2の実施の形態(裸眼で3次元画像を見る場合の一例)
3.変形例
<1.第1の実施の形態>
[テレビジョン受像機21の構成例]
図1は、本開示の技術を適用したテレビジョン受像機21の構成例を示している。
なお、このテレビジョン受像機21は、例えば、3Dメガネ22を装着したユーザの左右の瞳孔の間隔を示す瞳孔間隔に応じた視聴環境で、3次元画像としてのコンテンツを視聴できるようにするものである。
具体的には、例えば、テレビジョン受像機21は、ユーザを誘導するようにして、ユーザの瞳孔間隔に応じて推奨される距離を表す推奨距離でコンテンツをユーザに視聴させる。
また、テレビジョン受像機21は、例えば、リモートコントローラ23からの操作信号に応じて動作する。リモートコントローラ23は、選局に用いる選局ボタン等の他、テレビジョン受像機21の電源をオン又はオフするための電源ボタン23aを有する。
テレビジョン受像機21は、チューナ41、瞳孔間隔受信部42、視聴距離計測部43、メモリ44aを内蔵する画像処理部44、ディスプレイ45、スピーカ46、制御部47、及び受光部48から構成される。
チューナ41は、接続されたアンテナを介して受信する複数の放送信号から、所定のチャンネル(周波数)に対応する放送信号を選局して復調し、画像処理部44に供給する。
瞳孔間隔受信部42は、3Dメガネ22からの瞳孔間隔(を表す情報)を受信し、画像処理部44に供給する。
視聴距離計測部43は、コンテンツの視聴時におけるユーザまでの距離を表す視聴距離を計測(算出)し、画像処理部44に供給する。具体的には、例えば、視聴距離計測部43は、超音波をユーザに出射してから、ユーザからの反射波を受信するまでの時間、及び超音波の速さに基づいて、視聴距離を計測し、画像処理部44に供給する。
なお、視聴距離計測部43が行う視聴距離の計測方法は、超音波を用いる計測方法に限定されず、その他、例えば、異なる2台のカメラの視差に基づき視聴距離を計測するステレオカメラにより、計測するようにしてもよい。
画像処理部44は、チューナ41からの放送信号を、画像信号と音声信号に分離し、分離した画像信号をディスプレイ45に供給して、対応する画像を表示させ、分離した音声信号をスピーカ46に供給して、対応する音声を出力させる。
また、画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔、及びメモリ44aに予め保持されているディスプレイ45の画面の大きさを表す画面対角等に基づいて、コンテンツの視聴時に推奨される視聴距離を、推奨距離として算出する。そして、画像処理部44は、図2や図3に示されるように、推奨距離でコンテンツを視聴可能な位置にユーザを誘導するメッセージを、ディスプレイ45に表示させる。なお、画像処理部44が行う推奨距離の算出方法は、図4を参照して後述する。
ディスプレイ45は、画像処理部44からの画像信号に対応する画像を表示する。
スピーカ46は、画像処理部44からの音声信号に対応する音声を出力する。
制御部47は、例えば、受光部48からの操作信号に基づいて、チューナ41、瞳孔間隔受信部42、視聴距離計測部43、及び画像処理部44を制御する。
受光部48は、リモートコントローラ23からの操作信号を受光し、制御部47に供給する。
[推奨距離の算出方法]
次に、図4は、画像処理部44が、推奨距離を算出する算出方法の一例を示している。
図4の1行目の欄には、左から順に、ユーザの瞳孔間隔pc(cm)、推奨距離vsc(cm)、ディスプレイ45の実際の画面上の対角線の長さを表す画面対角rdi(inch)、及びユーザがコンテンツを視聴する際に推奨されるディスプレイ45の画面を表す推奨画面のサイズが示されている。
推奨画面のサイズとしては、推奨画面の高さを表す画面高さhc=vsc/3(cm)、推奨画面の幅を表す画面幅wc=hc×16/9(cm)、推奨画面上の対角線の長さを表す画面対角dc=√(hc2+wc2)(cm)、画面対角dcをインチに換算して得られる画面対角di=dc/2.54(inch)、及びコンテンツに設けられた視差量が6.5cmである場合における推奨画面の画面対角vdi=di×pc/6.5(inch)が示されている。
画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔pc、及び内蔵するメモリ44aに予め保持されているディスプレイ45の画面対角rdiに基づいて、推奨距離vscを算出する。なお、瞳孔間隔pc及び画面対角rdiは既知であり、推奨距離vscは未知(変数)である。
すなわち、例えば、画像処理部44は、変数である推奨距離vscに基づいて、画面高さhc=vsc/3を算出し、算出した画面高さhcに基づいて、画面のアスペクト比から画面幅wc=hc×16/9を算出する。そして、画像処理部44は、算出した画面高さhc及び画面幅wcに基づいて、三平方の定理により画面対角dc=√(hc2+wc2)を算出し、算出した画面対角dc=√(hc2+wc2)を、インチに換算して得られる画面対角di=dc/2.54を算出する。
画像処理部44は、算出した画面対角di、瞳孔間隔受信部42からの瞳孔間隔pc、及びメモリ44aに予め保持されている視差量6.5cmに基づいて、推奨画面対角vdi=di×pc/6.5を算出する。
ここで、画面対角diを、変数である推奨距離vscにより表すと、画面対角di=√{(vsc/3)2+(vsc×16/27)2}/2.54となる。したがって、推奨画面対角vdi=√{(vsc/3)2+(vsc×16/27)2}/2.54×pc/6.5となる。いま、瞳孔間隔pcは既知であるため、推奨画面対角vdiは、推奨距離vscを変数とする関数f(vsc)により表される。
このため、推奨画面対角vdi=f(vsc)となり、vdi=f(vsc)=rdiを満たすvscが、ディスプレイ45の画面対角rdiで3次元画像としてのコンテンツを視聴する際の推奨距離となる。
具体的には、例えば、図4に示されるように、pc=6.7及びrdi=55である場合、f(vsc)=rdiは、f(vsc)=√{(vsc/3)2+(vsc×16/27)2}/2.54×6.7/6.5=55となる。したがって、画像処理部44は、f(vsc)をvscについて解くことにより、推奨距離vsc=200を算出することとなる。
よって、画像処理部44は、f(vsc)=rdiを推奨距離vscについて解くことにより、推奨距離vscを算出する。そして、画像処理部44は、算出した推奨距離vscで視聴可能な位置に誘導するメッセージを、図2や図3に示すようにして、ディスプレイ45に表示させる。
[テレビジョン受像機21の動作説明]
次に、図5のフローチャートを参照して、テレビジョン受像機21が行う誘導処理について説明する。
この誘導処理は、例えば、テレビジョン受像機21の電源がオフである場合に、ユーザがリモートコントローラ23の電源ボタン23aを押下したときに開始される。このとき、ディスプレイ45には、チューナ41において選局されて復調され、画像処理部44を介して供給されるコンテンツとしての3次元画像が表示される。
ステップS21では、画像処理部44は、制御部47からの制御にしたがって、3Dメガネ22を装着して送信ボタン22b(図6)を押下する旨のメッセージを、ディスプレイ45に表示させる。このメッセージは、例えば、ピクチャインピクチャ等により、ディスプレイ45に表示中の番組に重畳して表示させる。
ユーザは、ディスプレイ45に表示されるメッセージを参照して、3Dメガネ22を装着する。そして、ユーザは、自身の瞳孔間隔に応じて3Dメガネ22を調整し、3Dメガネ22に設けられた送信ボタン22bを押下する。これにより、3Dメガネ22は、ユーザの瞳孔間隔pcを算出(検出)して、瞳孔間隔受信部42に送信する。なお、3Dメガネ22の詳細は、図6乃至図8を参照して詳述する。
ステップS22において、瞳孔間隔受信部42は、3Dメガネ22から送信されてくる瞳孔間隔pcを受信し、画像処理部44に供給する。
ステップS23において、画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔pc、及び内蔵するメモリ44aに予め保持されている画面対角rdiに基づいて、推奨距離vscを算出する。そして、ステップS24において、画像処理部44は、算出した推奨距離vscでコンテンツを視聴可能な位置にユーザを誘導するメッセージとして、例えば、推奨距離vscでコンテンツを視聴して下さい等のメッセージを、ディスプレイ45に表示させる。なお、画像処理部44は、ディスプレイ45に表示するメッセージを、ディスプレイ45の表示とともに、又はその表示に代えて、音声としてスピーカ46から出力するようにしてもよい。このことは、他のメッセージ(例えば、図2、図3及び図9等に示されるメッセージ等)についても同様である。
ステップS25では、視聴距離計測部43は、ユーザの視聴距離scを計測し、画像処理部44に供給する。
ステップS26では、画像処理部44は、視聴距離計測部43からの視聴距離scと、算出済みの推奨距離vscとの差分絶対値|sc-vsc|を算出する。そして、画像処理部44は、算出した差分絶対値|sc-vsc|が予め決められた閾値以下であるか否かに基づいて、ユーザが推奨距離vscでコンテンツを視聴可能な位置に存在するか否かを判定する。
ステップS26において、画像処理部44は、差分絶対値|sc-vsc|が予め決められた閾値以下ではないため、推奨距離vscでコンテンツを視聴可能な位置にユーザが存在しないと判定した場合、処理をステップS27に進める。
ステップS27では、画像処理部44は、視聴距離scから推奨距離vscを差し引いて得られる差分(sc−vsc)に基づいて、推奨距離vscでコンテンツを視聴可能な位置にユーザを誘導するメッセージを、ディスプレイ45に表示させる。
すなわち、例えば、画像処理部44は、差分(sc−vsc)が負である場合、つまり、推奨距離vscよりも差分絶対値|sc-vsc|だけ、ディスプレイ45から近い位置にユーザが存在する場合、差分絶対値|sc-vsc|の距離だけディスプレイ45に離れる旨のメッセージを表示させる。具体的には、例えば、差分(sc−vsc)が-50cmである場合、図2に示されるようなメッセージ「少し近いです。あと50cm離れて下さい!」がディスプレイ45に表示される。
また、例えば、画像処理部44は、差分(sc−vsc)が正である場合、つまり、推奨距離vscよりも差分絶対値|sc-vsc|だけ、ディスプレイ45から離れた位置にユーザが存在する場合、差分絶対値|sc-vsc|の距離だけディスプレイ45に近づく旨のメッセージを表示させる。具体的には、例えば、差分(sc−vsc)が50cmである場合、図3に示されるようなメッセージ「あと50cm近くに寄って下さい!」がディスプレイ45に表示される。
そして、処理は、ステップS27からステップS25に戻されて、それ以降、同様の処理が繰り返される。
また、ステップS26では、画像処理部44は、差分絶対値|sc-vsc|が予め決められた閾値以下であるため、(殆ど)推奨距離vscでコンテンツを視聴可能な位置にユーザが存在すると判定した場合、処理をステップS28に進める。
ステップS28では、画像処理部44は、現在の位置でコンテンツを視聴するように促すメッセージを、ディスプレイ45に表示させる。以上で、誘導処理は終了される。
以上説明したように、誘導処理では、ユーザを誘導するようにして、推奨距離vscでコンテンツを視聴させるようにした。したがって、例えば、ユーザは、コンテンツの製作者の意図した立体感で、3次元画像としてのコンテンツを視聴することが可能となる。
このため、ユーザは、過度に立体感が強調された3次元画像等をコンテンツとして視聴することがなくなるので、不快感を感じることなく、コンテンツを視聴することが可能となる。
さらに、コンテンツの製作者においては、ユーザの視聴環境を考慮することなく、いずれのコンテンツに対しても、同一の視差の3次元画像を製作すればよいこととなるので、コンテンツを製作する際の手間を省くことが可能となる。
すなわち、例えば、子供(例えば、瞳孔間隔が5cm程度の子供)を対象とするコンテンツと、大人(例えば、瞳孔間隔が6.5cm程度の大人)を対象とするコンテンツとで異なる視差を設ける手間を省くことができる。
また、例えば、コンテンツの製作者において、比較的大きな視差が設けられたコンテンツに対して、3次元画像の立体感を抑制する処理を施すようにして、子供を対象とするコンテンツを製作する必要もなくなる。
[3Dメガネ22について]
次に、図6は、3Dメガネ22の外観の一例を示している。
なお、この3Dメガネ22は、コンテンツとしてディスプレイ45に表示される3次元画像を立体的な画像として認識できるように、ユーザにより装着される。ここで、3次元画像とは、左眼用2次元画像、及び右眼用2次元画像により構成されており、左眼用2次元画像と右眼用2次元画像との間には、ユーザにより視認される画像上の物体が立体的に見えるように視差が設けられている。
3Dメガネ22は、左眼用2次元画像をユーザの左眼のみで視認できるように提示し、右眼用2次元画像をユーザの右眼のみで視認できるように提示するようにして、3次元画像を立体的な画像としてユーザに認識させる。
また、3Dメガネ22は、主に、右眼用シャッタ22R1、左眼用シャッタ22L1、右眼用パネル22R2、左眼用パネル22L2、可動ブリッジ22a、送信ボタン22b、及び瞳孔間隔送信部22cから構成される。
右眼用シャッタ22R1は、ユーザにより3Dメガネ22が装着されたときに、ユーザの右眼の前面に配置される。同様にして、右眼用シャッタ22R1は、ユーザにより3Dメガネ22が装着されたときに、ユーザの右眼の前面に配置される。
右眼用シャッタ22R1及び左眼用シャッタ22L1は、ディスプレイ45に交互に表示される右眼用2次元画像及び左眼用2次元画像を、立体的な画像としてユーザに認識させるために、右眼と左眼の視界を交互にシャッタ等により遮蔽する。なお、右眼用シャッタ22R1及び左眼用シャッタ22L1は、例えば、テレビジョン受像機21からの制御信号に応じて、交互に駆動される。
すなわち、ディスプレイ45に右眼用2次元画像が表示されるとき、右眼用シャッタ22R1による視界の遮蔽が解除され、左眼用シャッタ22L1による視界の遮蔽が行われる。また、ディスプレイ45に左眼用2次元画像が表示されるとき、右眼用シャッタ22R1による視界の遮蔽が行われ、左眼用シャッタ22L1による視界の遮蔽が解除される。
なお、右眼用シャッタ22R1及び左眼用シャッタ22L1において、遮蔽を解除するタイミングを、各ユーザ毎に異なるようにすれば、各ユーザが、1個のディスプレイ45を用いて、それぞれ異なるコンテンツを視聴できるようになる。
すなわち、例えば、第1のユーザがコンテンツAを視聴し、第2のユーザがコンテンツBを視聴する場合、ディスプレイ45は、表示タイミングt1,t2,t3,t4,…に同期して、例えば、表示タイミングt1でコンテンツAの左眼用2次元画像、表示タイミングt2でコンテンツBの左眼用2次元画像、表示タイミングt3でコンテンツAの右眼用2次元画像、表示タイミングt4でコンテンツBの右眼用2次元画像、…の順序で表示する。
第1のユーザに装着された3Dメガネ22は、表示タイミングt1,t3,…に同期して、例えば、表示タイミングt1で左眼用シャッタ22L1による視界の遮蔽のみを解除し、表示タイミングt3で右眼用シャッタ22R1による視界の遮蔽のみを解除する。また、第1のユーザに装着された3Dメガネ22は、その他の表示タイミングt2,t4,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を維持させる。
さらに、第2のユーザに装着された3Dメガネ22は、表示タイミングt2,t4,…に同期して、例えば、表示タイミングt2で左眼用シャッタ22L1による視界の遮蔽のみを解除し、表示タイミングt4で右眼用シャッタ22R1による視界の遮蔽のみを解除する。また、第2のユーザに装着された3Dメガネ22は、その他の表示タイミングt1,t3,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を維持させる。
このようにして、第1及び第2のユーザに一定のフレームレートでコンテンツを視聴させる場合、ディスプレイ45に表示される各画像(コンテンツA及びコンテンツBそれぞれの左眼用2次元画像及び右眼用2次元画像)のフレームレートは、ユーザの人数に応じて高いものとなる。
右眼用パネル22R2及び左眼用パネル22L2は、それぞれ、ユーザにより、右眼用シャッタ22R1と左眼用シャッタ22L1との間隔が調整される際に、右眼用シャッタ22R1の前面及び右眼用シャッタ22R1の前面に移動される。
右眼用パネル22R2及び左眼用パネル22L2には、それぞれ、中央に小さな覗き穴(図中、黒色の点で示す)が設けられている。
したがって、ユーザは、右眼用パネル22R2及び左眼用パネル22L2にそれぞれ設けられた覗き穴を通して、ディスプレイ45を正視できる位置に、右眼用シャッタ22R1と左眼用シャッタ22L1との間隔を調整する。この調整は、例えば、手動又は電動で行われる。また、調整時には、右眼用シャッタ22R1及び左眼用シャッタ22L1のいずれの遮蔽も解除されているものとする。
なお、右眼用シャッタ22R1と左眼用シャッタ22L1との間隔を調整する際に、右眼用シャッタ22R1及び左眼用シャッタ22L1において、中央部分を除いて視界を遮蔽するようにして、中央に小さな覗き穴を設けるように構成すれば、3Dメガネ22において、右眼用パネル22R2及び左眼用パネル22L2を設ける必要はない。
可動ブリッジ22aは、右眼用シャッタ22R1と左眼用シャッタ22L1とを繋ぐブリッジであり、右眼用シャッタ22R1と左眼用シャッタ22L1との間隔に応じて、図中左右方向に伸縮自在とされる。可動ブリッジ22aは、伸縮されたことに応じて、可動ブリッジ22aの長さを表すブリッジ長を検出し、瞳孔間隔送信部22cに供給する。
送信ボタン22bは、例えば、右眼用シャッタ22R1と左眼用シャッタ22L1との間隔が調整された後に押下され、その押下に対応する操作信号を、瞳孔間隔送信部22cに供給する。
瞳孔間隔送信部22cは、可動ブリッジ22aからのブリッジ長に基づいて、瞳孔間隔を計測する。そして、瞳孔間隔送信部22cは、送信ボタン22bからの操作信号を受信したことに応じて、計測済みの瞳孔間隔をテレビジョン受像機21に送信する。
なお、瞳孔間隔送信部22cは、可動ブリッジ22aからのブリッジ長に基づいて、瞳孔間隔を計測するようにしたが、3Dメガネ22において、瞳孔間隔を計測する計測方法は、これに限定されない。
すなわち、例えば、計測方法としては、3Dメガネ22において、ユーザの左右の瞳孔を追尾(トラッキング)するアイトラッキング技術等を用いるようにして、瞳孔間隔を計測することができる。
[3Dメガネ22の構成例]
次に、図7は、3Dメガネ22の構成例を示している。
この3Dメガネ22は、主に、可動ブリッジ22a、送信ボタン22b、及び瞳孔間隔送信部22cから構成される。なお、図面が煩雑になるのを避けるために、右眼用シャッタ22R1、左眼用シャッタ22L1、右眼用パネル22R2、及び左眼用パネル22L2の図示は省略している。
また、可動ブリッジ22a及び送信ボタン22bは、図6を参照して説明したので、それらの説明は適宜省略する。
瞳孔間隔送信部22cは、計測部61、記憶部62、及び送信部63から構成される。
計測部61は、メモリ61aを内蔵している。このメモリ61aは、異なるブリッジ長毎に、対応する瞳孔間隔を対応付けたテーブルを予め保持している。計測部61は、可動ブリッジ22aからのブリッジ長に基づいて、内蔵するメモリ61aに保持されたテーブルを参照することにより、対応する瞳孔間隔を計測(検出)し、記憶部62に供給して、上書きにより記憶させる。
また、計測部61は、メモリ61aにオフセット値を予め保持させるようにしておき、可動ブリッジ22aからのブリッジ長に、メモリ61aに保持されているオフセット値を加算し、その加算結果を、瞳孔間隔として計測するようにしてもよい。なお、オフセット値は、瞳孔間隔(右眼用パネル22R2に設けられた覗き穴と、左眼用パネル22L2に設けられた覗き穴との間隔)からブリッジ長を差し引いて得られる正の値を表す。
記憶部62は、計測部61からの瞳孔間隔を記憶する。
送信部63は、送信ボタン22bからの操作信号を受信したことに応じて、記憶部62に記憶されている瞳孔間隔を読み出す。そして、送信部63は、読み出した瞳孔間隔を、IrDA(infrared data association),Bluetooth(商標)、又はワイヤレスUSB(universal serial bus)等の無線通信方式を用いて、テレビジョン受像機21に送信する。
なお、3Dメガネ22では、テレビジョン受像機21の視聴距離計測部43と同様の測距センサを設けるようにして、視聴距離を計測するようにしてもよい。この場合、送信部63は、計測される視聴距離も、テレビジョン受像機21に送信することとなり、テレビジョン受像機21では、視聴距離計測部43を設ける必要がなくなる。
また、例えば、3Dメガネ22に代えて、リモートコントローラ23に測距センサを設けるようにすれば、3Dメガネ22の構成を簡素化できるので、3Dメガネ22に測距センサが設けられている場合と比較して、ユーザが煩わしさを感じることが無い。
[3Dメガネ22の動作説明]
次に、図8のフローチャートを参照して、3Dメガネ22が行う瞳孔間隔送信処理について説明する。
ステップS41において、可動ブリッジ22aは、右眼用シャッタ22R1と右眼用シャッタ22R1との間隔が調整されることにより、可動ブリッジ22aのブリッジ長が変更されたか否かを判定する。
可動ブリッジ22aは、可動ブリッジ22aのブリッジ長が変更されたと判定した場合、そのブリッジ長を検出し、計測部61に供給して、処理をステップS42に進める。
ステップS42において、計測部61は、内蔵するメモリ61aに保持されたテーブルを参照して、可動ブリッジ22aからのブリッジ長に対応する瞳孔間隔を計測(取得)し、記憶部62に供給して、上書きにより記憶させ、処理をステップS43に進める。
なお、ステップS41において、可動ブリッジ22aは、可動ブリッジ22aのブリッジ長が変更されていないと判定した場合、ステップS42をスキップして処理をステップS43に進める。
ステップS43において、送信部63は、送信ボタン22bからの操作信号が供給されたか否かに基づいて、送信ボタン22bがユーザにより押下されたか否かを判定する。そして、送信部63は、送信ボタン22bからの操作信号が供給されたか否かに基づいて、送信ボタン22bがユーザにより押下されていないと判定した場合、処理をステップS41に戻し、それ以降同様の処理が繰り返される。
また、ステップS43において、送信部63は、送信ボタン22bからの操作信号が供給されたか否かに基づいて、送信ボタン22bがユーザにより押下されたと判定した場合、記憶部62に記憶されている瞳孔間隔を、記憶部62から読み出す。そして、送信部63は、読み出した瞳孔間隔を、IrDA,Bluetooth(商標)、又はワイヤレスUSB等の無線通信方式を用いて、テレビジョン受像機21に送信する。以上で、瞳孔間隔送信処理は終了される。
以上説明したように、瞳孔間隔送信処理では、ユーザの瞳孔間隔をテレビジョン受像機21に送信するようにした。このため、テレビジョン受像機21では、ユーザの瞳孔間隔に応じた推奨距離でコンテンツを視聴可能な位置に、ユーザを誘導することが可能となる。
第1の実施の形態では、画像処理部44は、瞳孔間隔pc及び画角対角rdiに基づいて、推奨距離vscを算出し、算出した推奨距離vscでコンテンツを視聴可能な位置に、ユーザを誘導するようにしたが、画像処理部44が行う処理は、これに限定されない。
すなわち、例えば、画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔pcに基づいて、ユーザの年齢を判定する。そして、画像処理部44は、判定したユーザの年齢が、所定の年齢(例えば、12歳)未満である場合、コンテンツを表示する前に、図9に示すようなメッセージ「テレビからはなれてみましょう」を、ディスプレイ45に表示してもよい。なお、瞳孔間隔pcと年齢との間には、図10に示されるような関係があることが、一般的にわかっている。
また、例えば、画像処理部44は、視聴距離計測部43からの視聴距離が、所定の閾値未満であるか否かを判定し、視聴距離が、所定の閾値未満ではないと判定されるまで、図10に示すようなメッセージをディスプレイ45に表示させるようにしてもよい。この場合、テレビジョン受像機21から離れるまで、コンテンツが表示されないこととなるので、より確実に、テレビジョン受像機21の近くでコンテンツが視聴される事態を防止することができる。
さらに、例えば、画像処理部44は、ユーザの年齢が所定の年齢未満であると判定した場合には、所定の年齢未満のユーザにとって有害なコンテンツ(例えば、暴力的な表現のあるコンテンツ等)をディスプレイ45に表示させないようにしてもよい。
なお、ユーザが所定の年齢未満である場合、ディスプレイ45に、図9に示すようなメッセージを表示するようにしたのは、年齢が低い程に、3次元画像による立体感を強く感じてしまうことによる。
次に、図11は、年齢が低い程に、3次元画像による立体感を強く感じることを示している。
図11Aには、ユーザが大人である場合に、ディスプレイ45上に表示される対象81が、ディスプレイ45の奥行き方向(図中左方向)に存在するように見える場合の一例を示している。
図11Bには、ユーザが子供である場合に、ディスプレイ45上に表示される対象81が、ディスプレイ45の奥行き方向(図中左方向)に存在するように見える場合の一例を示している。
図11A及び図11Bに示されるように、右眼用2次元画像と左眼用2次元画像との間に同一の視差が設けられた3次元画像であっても、ユーザの瞳孔間隔によって、対象81の見え方が異なることがわかる。特に、例えば、ユーザが子供である場合(瞳孔間隔が狭い場合)、ユーザが大人である場合(瞳孔間隔が広い場合)と比較して、ユーザが感じる対象81の奥行き感が強くなることがわかる。
したがって、テレビジョン受像機21では、子供が奥行き感等を強く感じてしまうことにより、健康に悪影響を及ぼす事態を防止するために、図9に示したようなメッセージをディスプレイ45に表示することができる。
ところで、テレビジョン受像機21では、例えば、図5のフローチャートを参照して説明したように、ユーザを誘導するようにして、推奨距離でコンテンツをユーザに視聴させるようにした。
しかしながら、比較的狭い室内に、テレビジョン受像機21が設けられている場合、ユーザは、推奨距離でコンテンツを視聴できないことが生じ得る。
すなわち、例えば、ディスプレイ45が小さい場合、推奨距離は短いものとなる。この場合、ユーザは、狭い室内でも推奨距離でコンテンツを視聴できるため、図12Aに示されるように、対象物81を立体的に認識できる。なお、図12A及び図12Bにおいて、対象表示81Lは、左眼用2次元画像上に表示される対象81を表し、対象表示81Rは、右眼用2次元画像上に表示される対象81を表す。
これに対して、ディスプレイ45が大きい場合、推奨距離は長いものとなる。したがって、ユーザは、狭い室内において、十分に視聴距離を確保できず、推奨距離未満でコンテンツを視聴することとなる。この場合、ユーザは、図12Bに示されるように、ユーザの左右の目の視線が外側に向かってしまい、ディスプレイ45上の3次元画像を立体的に認識できないこととなってしまう。
したがって、テレビジョン受像機21は、ディスプレイ45の画面対角rdiを、ユーザの瞳孔間隔pc及び視聴距離scに応じて推奨される推奨画面の推奨画面対角vdiに調整することが望ましい。
ここで、実際には、ディスプレイ45の画面対角rdiは固定されており調整できない。このため、テレビジョン受像機21は、ディスプレイ45に表示させる3次元画像の大きさを、ユーザの視聴距離sc及び瞳孔間隔pcに応じて推奨される最適画面の大きさに調整することになる。
次に、図13は、画像処理部44が、ディスプレイ45に表示させる3次元画像の大きさを、ユーザの視聴距離sc及び瞳孔間隔pcに応じて推奨される最適画面の大きさに調整して、ディスプレイ45に表示させる第1のサイズ調整処理について説明する。
なお、図13は、図2の推奨距離vscに代えて、視聴距離scが設けられているとともに、新たに拡大率rdi/vdiが設けられている他は、図2と同様に構成される。
すなわち、図13の1行目の欄には、左から順に、ユーザの瞳孔間隔pc(cm)、視聴距離sc(cm)、ディスプレイ45の画面対角rdi(inch)、推奨画面のサイズ、及び拡大率rdi/vdiが示されている。
推奨画面サイズとして、画面高さhc=sc/3(cm)、画面幅wc=hc×16/9(cm)、画面対角dc=√(hc2+wc2)(cm)、画面対角di=dc/2.54(inch)、及び推奨画面対角vdi=di×pc/6.5(inch)が示されている。
画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔pc、視聴距離計測部43からの視聴距離sc、及び内蔵するメモリ44aに予め保持されているディスプレイ45の画面対角rdiに基づいて、拡大率rdi/vdiを算出する。
すなわち、例えば、画像処理部44は、視聴距離計測部43からの視聴距離scに基づいて、画面高さhc=sc/3を算出し、算出した画面高さhcに基づいて、画面幅wc=hc×16/9を算出する。そして、画像処理部44は、算出した画面高さhc及び画面幅wcに基づいて、画面対角dc=√(hc2+wc2)を算出し、算出した画面対角dc=√(hc2+wc2)に基づいて、画面対角dcの単位をインチに変換して得られる画面対角di=dc/2.54を算出する。
また、画像処理部44は、算出した画面対角di、瞳孔間隔受信部42からの瞳孔間隔pc、及びメモリ44aに予め保持されている視差6.5に基づいて、推奨画面対角vdi=di×pc/6.5を算出する。ここで、視差6.5は、3次元画像の制作時に、左眼用2次元画像と右眼用2次元画像との間に設けられた視差を表す。
そして、画像処理部44は、内蔵するメモリ44aに予め保持されているディスプレイ45の画面対角rdi、及び推奨画面対角vdiに基づいて、拡大率として、rdi/vdiを算出する。
画像処理部44は、チューナ41からの放送信号を分離して得られる画像信号及び音声信号のうちの画像信号に対応する3次元画像を、拡大率rdi/vdiで拡大し、ディスプレイ45に供給して表示させる。すなわち、例えば、画像処理部44は、3次元画像を構成する左眼用2次元画像及び右眼用2次元画像を、それぞれ、拡大率rdi/vdiで拡大し、ディスプレイ45に交互に表示させる。
なお、画像処理部44は、分割して得られる音声信号を、スピーカ46に供給して、音声信号に対応する音声を、視聴距離計測部43からの視聴距離scに応じた音量で出力させる。
具体的には、例えば、図13に示されるように、pc=6.7,sc=200,rdi=55である場合、hc=66.7,wc=118.5,dc=136,di=53.5,vdi=55.2となり、rdi/vdi≒1となる。この場合、画像処理部44は、画像信号に対応する3次元画像を、そのまま、ディスプレイ45に供給して表示させることとなる。
また、例えば、pc=5,sc=200,rdi=55である場合、hc=66.7,wc=118.5,dc=136,di=53.5,vdi=41.2となり、rdi/vdi≒0.75となる。この場合、画像処理部44は、画像信号に対応する3次元画像を、拡大率rdi/vdi≒0.75で拡大し、ディスプレイ45に供給して表示させることとなる。
さらに、例えば、pc=5,sc=100,rdi=55である場合、hc=33.3,wc=59.3,dc=68,di=26.8,vdi=20.6となり、rdi/vdi≒0.37となる。この場合、画像処理部44は、画像信号に対応する3次元画像を、拡大率rdi/vdi≒0.37で拡大し、ディスプレイ45に供給して表示させることとなる。
[テレビジョン受像機21の他の動作説明]
次に、図14のフローチャートを参照して、テレビジョン受像機21が行う第1のサイズ調整処理について説明する。
この第1のサイズ調整処理は、例えば、テレビジョン受像機21の電源がオフである場合に、ユーザがリモートコントローラ23の電源ボタン23aが押下されたときに開始される。このとき、ディスプレイ45には、チューナ41において選局されて復調され、画像処理部44を介して供給されるコンテンツとしての3次元画像が表示される。
ステップS61及びステップS62において、それぞれ、図5のステップS21及びステップS22と同様の処理が行われる。
ステップS63において、視聴距離計測部43は、ユーザの視聴距離scを計測し、画像処理部44に供給する。
ステップS64において、画像処理部44は、瞳孔間隔受信部42からの瞳孔間隔pc、及び視聴距離計測部43からの視聴距離scに基づいて、推奨画面対角vdiを算出する。
ステップS65において、画像処理部44は、算出した推奨画面対角vdi、及びメモリ44aに予め保持された画面対角rdiに基づいて、拡大率rdi/vdiを算出する。
ステップS66において、画像処理部44は、チューナ41からの放送信号を、画像信号と音声信号とに分離する。そして、画像処理部44は、分離して得られた画像信号に対応する左眼用2次元画像及び右眼用2次元画像を、それぞれ、ステップS65で算出した拡大率rdi/vdiで拡大する。画像処理部44は、拡大後の左眼用2次元画像及び右眼用2次元画像を、拡大後の3次元画像として、ディスプレイ45に供給して表示させる。
また、画像処理部44は、分離して得られた音声信号に対応する音声を、視聴距離計測部43からの視聴距離scに応じた音量で、スピーカ46から出力する。以上で、第1のサイズ調整処理は終了される。
以上説明したように、第1のサイズ調整処理では、ディスプレイ45に表示させる3次元画像の大きさを、ユーザの瞳孔間隔及び視聴距離に応じた推奨画面の大きさに変更するようにした。したがって、第1のサイズ調整処理では、例えば、視聴距離を十分に長くとれない場合でも、3次元画像の大きさを変更するという簡易な処理のみにより、コンテンツの製作者の意図した立体感でコンテンツをユーザに視聴させることが可能となる。
また、第1のサイズ調整処理では、ユーザの視聴距離に応じて、ディスプレイ45に表示させる3次元画像の大きさが、推奨画面の大きさに変更されるので、ユーザは、自分の好きな位置でコンテンツを視聴することが可能となる。
なお、3Dメガネ22の右眼用シャッタ22R1及び左眼用シャッタ22L1において、遮蔽を解除するタイミングを、各ユーザ毎に異なるようにすれば、各ユーザ毎に推奨される推奨画面の大きさで、コンテンツとしての3次元画像を視聴できるようになる。このため、テレビジョン受像機21において、複数のユーザが、それぞれに適した視聴環境で、コンテンツを同時に視聴することが可能となる。
その他、例えば、画像処理部44は、3次元画像の大きさを変更することに代えて、3次元画像の視差(左眼用2次元画像と右眼用2次元画像に設けられている視差)を変更するようにしてもよい。
すなわち、例えば、画像処理部44は、図13に示される推奨画面対角vdi=di×pc/6.5における視差6.5を変数xとし、拡大率rdi/vdi=1となるときの変数xを算出する。いまの場合、瞳孔間隔pc、視聴距離sc、及び画面対角rdiは既知であり、視差xは変数であるため、rdi/vdi=1は、視差xについての関数g(x)=1として表すことができる。
したがって、画像処理部44は、関数g(x)=1を、変数である視差xについて解くことにより、ユーザの視聴するコンテンツとしての3次元画像に推奨される視差xを算出することとなる。
画像処理部44は、算出した視差xに基づいて、画像信号に対応する3次元画像の視差を視差xに変更し、変更後の3次元画像を、ディスプレイ45に供給して表示させる。したがって、例えば、視聴距離を十分に長くとれない場合でも、コンテンツの製作者の意図した立体感でコンテンツを視聴できるとともに、コンテンツの製作者の意図した大きさで、3次元画像としてのコンテンツを視聴することが可能となる。
<2.第2の実施の形態>
[テレビジョン受像機101の構成例]
次に、図15は、ユーザが3Dメガネ22を装着することなく、3次元画像を立体的な画像として視聴可能なテレビジョン受像機101の構成例を示している。
なお、このテレビジョン受像機101は、視差バリア方式又はレンチキュラー方式等を採用するようにして、ユーザが、3Dメガネ22を装着することなく、3次元画像を立体的な画像として視認できるようにしている。
また、このテレビジョン受像機101は、3Dメガネ22に代えて、ユーザの瞳孔間隔を計測する点が、テレビジョン受像機21と大きくことなり、それ以外の処理については、テレビジョン受像機21と同様の処理を行う。
したがって、図15では、図1に示されるテレビジョン受像機21と同様に構成される部分には同一の符号を付しているため、それらの説明は、以下、適宜省略する。
すなわち、このテレビジョン受像機101は、カメラ121R、カメラ121L、及び発光部122が新たに設けられているとともに、図1の瞳孔間隔受信部42及び視聴距離計測部43に代えて、検出部123及び算出部124が新たに設けられている他は、図1のテレビジョン受像機21と同様に構成される。
また、リモートコントローラ102は、例えば、テレビジョン受像機101の電源をオンする際に操作される電源ボタン101a、選局の際に操作される選局ボタン等の他、ディスプレイ45に表示される3次元画像の大きさを、ディスプレイ45における推奨画面の大きさに最適化する際に操作される最適化ボタン102bが設けられている。
カメラ121R及びカメラ121Lは、それぞれ、ディスプレイ45の上部に、一定の間隔をあけて配置されており、ユーザの左右の瞳孔をそれぞれ表す瞳孔位置を検出するステレオカメラとして機能する。なお、瞳孔位置は、3次元位置として検出される。
発光部122は、ユーザの瞳孔位置を検出する際に、制御部47からの制御にしたがって、フラッシュとしての光を発光する。
検出部123は、カメラ121R及びカメラ121Lからの撮像結果に基づいて、ユーザの左右の瞳孔の瞳孔位置を検出し、算出部124に供給する。なお、瞳孔位置の検出方法は、図17及び図18を参照して詳述する。
算出部124は、瞳孔位置検出部121からの瞳孔位置に基づいて、ユーザの瞳孔間隔pc、及びユーザまでの視聴距離scを算出し、画像処理部44に供給する。
[テレビジョン受像機101が行う処理の概要]
次に、図16は、テレビジョン受像機101が行う処理の概要を示している。
なお、以下では、テレビジョン受像機101が、3次元画像の大きさを変更する第2のサイズ調整処理を行う場合について説明する。しかしながら、テレビジョン受像機101は、その他、例えば、テレビジョン受像機21と同様に誘導処理等も行うことができる。
この第2のサイズ調整処理は、例えば、ユーザが、図16Aに示されるように、テレビジョン受像機101のディスプレイ45に表示されたコンテンツを視聴中に、図16Bに示されるようにして、リモートコントローラ102の最適化ボタン102bを押下したときに開始される。
ディスプレイ45は、ユーザによる最適化ボタン102bの押下操作に応じて、図16Cに示されるように、「ご覧になっている位置で計測します。顔を画面に対して正面に向けて下さい」というメッセージを表示する。
その後、ディスプレイ45は、図16Dに示されるように、「計測します!」というメッセージを表示し、発光部122は、ディスプレイ45の前に存在するユーザに対して、フラッシュとしての光を発光する。また、カメラ121R及びカメラ121Lは、それぞれ、発光部122の発光中に、ユーザの撮像を行う。
そして、ディスプレイ45は、図16Eに示されるように、「最適化します!」というメッセージを表示する。このとき、テレビジョン受像機101では、カメラ121R及びカメラ121Lの撮像結果に基づいて、ディスプレイ45における推奨画面のサイズを算出する。
テレビジョン受像機101は、推奨画面のサイズを算出後、図16Fに示されるように、ディスプレイ45に、算出した推奨画面の大きさで3次元画像を表示させる。
[瞳孔位置の検出方法の一例]
次に、図17及び図18を参照して、検出部123が、カメラ121R及びカメラ121Lによる撮像結果に基づいて、ユーザ141の左右の瞳孔の瞳孔位置を検出する場合の一例を説明する。
カメラ121Lは、図17に示されるように、画角90度の撮像範囲161Lでユーザ141を撮像する。カメラ121Lは、発光部122の発光中に撮像を行い、その撮像により得られる赤目画像181Lを、検出部123に供給する。
また、カメラ121Rは、図17に示されるように、画角90度の撮像範囲161Rでユーザ141を撮像する。カメラ121Rは、発光部122の発光中に撮像を行い、その撮像により得られる赤目画像181Rを、検出部123に供給する。
なお、赤目画像181Lと赤目画像181Rには、それぞれ、ユーザ141の瞳孔141R及び141Lが、赤く光った状態で表示される。
検出部123は、カメラ121Lからの赤目画像181L上の全領域のうち、ユーザ141の顔部分を表す顔領域181Laから、赤く光った状態で映った瞳孔141Rを表す瞳孔領域141R1を検出する。
なお、検出部123は、発光部122の発光前に、カメラ121Lの撮像により得られた撮像画像から、顔領域181Laを予め検出しているものとする。検出部123は、例えば、肌色の領域を、顔領域181Laとして検出する。
ここで、カメラ121Lは、角度αL(度)と、赤目画像181L上の端部分181Lbから瞳孔領域141R1(の重心)までの距離αL(mm)とが一致する等距離射影方式のレンズを使用しているものとする。
したがって、検出部123は、端部分181Lbから瞳孔141R1までの距離αL(mm)を、角度αL(度)として算出する。そして、検出部123は、算出した角度αL(度)に45(度)を加算し、角度XL(=αL+45)を算出する。
また、検出部123は、カメラ121Rからの赤目画像181R上の全領域のうち、ユーザ141の顔部分を表す顔領域181Raから、赤く光った状態で映った瞳孔141Rを表す瞳孔領域141R2を検出する。
なお、検出部123は、発光部122の発光前に、カメラ121Rの撮像により得られた撮像画像から、顔領域181Raを予め検出しているものとする。検出部123は、例えば、肌色の領域を、顔領域181Raとして検出する。
ここで、カメラ121Rは、角度αR(度)と、赤目画像181R上の端部分181Rbから瞳孔領域141R2(の重心)までの距離αR(mm)とが一致する等距離射影方式のレンズを使用しているものとする。
したがって、検出部123は、端部分181Rbから瞳孔141R2までの距離αR(mm)を、角度αR(度)として算出する。そして、検出部123は、算出した角度αR(度)に45(度)を加算し、角度XR(=αR+45)を算出する。
このようにして、検出部123は、図18に示される角度XR及びXLを算出し、カメラ121Rとカメラ121Lとの距離を基線として、三角測量を用いて、瞳孔141Rの瞳孔位置を検出する。
また、検出部123は、同様にして、図17に示される角度YR及びYLを算出し、カメラ121Rとカメラ121Lとの距離を基線として、三角測量を用いて、瞳孔141Lの瞳孔位置を検出する。
検出部123は、瞳孔141R及び瞳孔14Lについてそれぞれ検出した瞳孔位置を、算出部124に供給する。
[テレビジョン受像機101の動作説明]
次に、図19のフローチャートを参照して、テレビジョン受像機101が行う第2のサイズ調整処理について説明する。
この第2のサイズ調整処理は、例えば、テレビジョン受像機101のディスプレイ45にコンテンツを表示中に、ユーザが、リモートコントローラ102の最適化ボタン102bを押下したときに開始される。
ステップS81において、カメラ121Lは、ユーザの撮像を行い、その結果得られる第1の撮像画像を、検出部123に供給する。また、カメラ121Rは、ユーザの撮像を行い、その結果得られる第2の撮像画像を、検出部123に供給する。
ステップS82において、検出部123は、カメラ121Lからの第1の撮像画像に基づいて、第1の撮像画像上の顔領域181Laを検出する。また、検出部123は、カメラ121Rからの第2の撮像画像に基づいて、第2の撮像画像上の顔領域181Raを検出する。
ステップS83では、画像処理部44は、ディスプレイ45を制御して、フラッシュとしての光を発光させる旨のメッセージを表示させ、ステップS84では、発光部122は、フラッシュとしての光を発光する。
ステップS85において、カメラ121Lは、発光部122の発光中にユーザの撮像を行い、その結果得られる赤目画像181Lを、検出部123に供給する。また、カメラ121Rは、発光部122の発光中にユーザの撮像を行い、その結果得られる赤目画像181Rを、検出部123に供給する。
ステップS86では、検出部123は、カメラ121Lからの赤目画像181L上の顔領域181La、及びカメラ121Rからの赤目画像181R上の顔領域181Raに基づいて、瞳孔141Lの瞳孔位置及び瞳孔141Rの瞳孔位置を検出し、算出部124に供給する。
ステップS87では、算出部124は、検出部123からの、ユーザの左右の瞳孔の瞳孔位置に基づいて、瞳孔間隔を算出し、画像処理部44に供給する。
ステップS88では、算出部124は、テレビジョン受像機101の3次元位置と、検出部123からの、ユーザの左右の瞳孔の瞳孔位置(3次元位置)に基づいて、視聴距離を算出し、画像処理部44に供給する。なお、算出部124は、図示せぬ内蔵のメモリに、テレビジョン受像機101の3次元位置を予め保持しているものとする。
ステップS89乃至ステップS91では、画像処理部44は、算出部124からの瞳孔間隔及び視聴距離に基づいて、図14のステップS64乃至ステップS66と同様の処理を行う。以上で第2のサイズ調整処理は終了される。
以上説明したように、第2のサイズ調整処理では、ユーザに3Dメガネ22を装着させることなく、ユーザの瞳孔間隔及び視聴距離を算出するようにした。そして、ディスプレイ45に表示させる3次元画像の大きさを、算出した瞳孔間隔及び視聴距離に基づく推奨画面の大きさに変更するようにした。
したがって、例えば、ユーザに、3Dメガネ22を装着する煩わしさを感じさせることなく、コンテンツの製作者の意図した立体感で、3次元画像としてのコンテンツを視聴させることが可能となる。
また、例えば、第2のサイズ調整処理において、ステップS81乃至ステップS86の処理を複数回行うようにして、その結果得られる複数の瞳孔間隔のうち、最頻の瞳孔間隔を、最終的な瞳孔間隔として算出するようにしてもよい。この場合、ステップS81乃至ステップS86の処理を1回だけ行う場合と比較して、瞳孔間隔を算出する精度を向上させることができる。
なお、第2のサイズ調整処理において、ステップS81乃至ステップS86の処理を複数回行うようにして、その結果得られる複数の瞳孔間隔の平均を、最終的な瞳孔間隔とするようにしてもよい。
また、第2の実施の形態において、2台のカメラ121R及びカメラ121Lを用いるようにして、ユーザの瞳孔間隔及び視聴距離を算出するようにしたが、ユーザの瞳孔間隔及び視聴距離の算出方法は、これに限定されない。
すなわち、例えば、テレビジョン受像機101において、図1の視聴距離計測部43のような測距センサを設けるようにして、視聴距離を算出してもよい。
また、例えば、テレビジョン受像機101において、ユーザを撮像して得られる撮像画像から検出される顔領域に基づいて、顔の横幅を検出し、顔の横幅と瞳孔間隔との間に一定の関係があることを利用して、瞳孔間隔を算出してもよい。
さらに、例えば、テレビジョン受像機101において、ユーザを撮像して得られる撮像画像上における、左右の瞳孔の間隔を検出し、その検出結果と、視聴距離とに基づいて、ユーザの瞳孔間隔を算出することができる。
また、第2のサイズ調整処理は、例えば、ユーザが、リモートコントローラ102の最適化ボタン102bを押下したときに開始されるようにしたが、第2のサイズ調整処理を開始するトリガは、これに限定されない。
すなわち、例えば、第2のサイズ調整処理は、テレビジョン受像機101の電源がオンされてから所定の時間が経過した後に開始されるようにしてもよいし、コンテンツとしての番組がテレビコマーシャル中であるときに開始されるようにしてもよい。
また、テレビジョン受像機101において、複数のユーザが同時にコンテンツを視聴する場合、各ユーザ毎に算出される複数の拡大率のうち、最小の拡大率でコンテンツを拡大して、ディスプレイ45に表示させるようにしてもよい。この場合、いずれのユーザにおいても、コンテンツとしての3次元画像の立体感を強く感じてしまう事態を防止できる。
さらに、テレビジョン受像機101において、複数のユーザが同時にコンテンツを視聴する場合、各ユーザ毎に算出される複数の拡大率の平均でコンテンツを拡大して、ディスプレイ45に表示させることもできる。
<3.変形例>
第1及び第2の実施の形態では、ディスプレイ45に3次元画像を表示させる場合について説明したが、本開示の技術は、ディスプレイ45に2次元画像を表示させる場合についても適用できる。
なお、ディスプレイ45に2次元画像を表示させる場合には、3Dメガネ22は、ユーザの瞳孔間隔を計測するための機構が設けられていればよく、例えば、右眼用シャッタ22R1及び左眼用シャッタ22L1を設ける必要はない。
また、3Dメガネ22に、右眼用シャッタ22R1及び左眼用シャッタ22L1を設けたままとし、遮蔽を解除するタイミングを、各ユーザ毎に異なるようにして、各ユーザが、1個のディスプレイ45を用いて、それぞれ異なるコンテンツを視聴することもできる。
すなわち、例えば、第1のユーザがコンテンツAを視聴し、第2のユーザがコンテンツBを視聴する場合、ディスプレイ45は、表示タイミングt1,t2,t3,t4,…に同期して、例えば、表示タイミングt1でコンテンツAの2次元画像、表示タイミングt2でコンテンツBの2次元画像、表示タイミングt3でコンテンツAの2次元画像、表示タイミングt4でコンテンツBの2次元画像、…の順序で表示する。
第1のユーザに装着された3Dメガネ22は、表示タイミングt1,t3,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を解除する。また、第1のユーザに装着された3Dメガネ22は、その他の表示タイミングt2,t4,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を維持させる。
また、第2のユーザに装着された3Dメガネ22は、表示タイミングt2,t4,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を解除する。また、第2のユーザに装着された3Dメガネ22は、その他の表示タイミングt1,t3,…に同期して、左眼用シャッタ22L1及び右眼用シャッタ22R1による視界の遮蔽を維持させる。
なお、第1の実施の形態において、3Dメガネ22は、ユーザの瞳孔間隔を算出するようにした。しかしながら、例えば、3Dメガネ22が、瞳孔間隔の他、視聴距離も算出し、算出した瞳孔間隔と視聴距離、及びテレビジョン受像機21のディスプレイ45の画面対角rdiに基づいて拡大率rdi/vdiを算出して、テレビジョン受像機21に送信するようにしてもよい。なお、この場合、3Dメガネ22は、テレビジョン受像機21のディスプレイ45の画面対角rdiを予め保持しているものとする。
さらに、第1及び第2の実施の形態では、画像処理部44は、チューナ41からの放送信号に基づき得られる画像信号に対応する画像を対象として、処理を行うようにしたが、例えば、ハードディスク等の記録媒体に記録されたコンテンツを対象として処理を行うことができる。
また、第1及び第2の実施の形態では、本開示の技術を、テレビジョン受像機21及びテレビジョン受像機101に適用した場合について説明したが、その他、例えば、コンテンツを表示する携帯電話機やパーソナルコンピュータ等に適用できる。
すなわち、コンテンツを表示する電子機器であれば、どのような電子機器に対しても、本開示の技術を適用することができる。
なお、本技術は以下のような構成もとることができる。
(1)
画像により構成されるコンテンツを取得するコンテンツ取得部と、
前記コンテンツを表示部に表示させる表示制御部と、
前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得部と、
前記瞳孔間隔に基づいて、所定の処理を行う処理実行部と
を含む表示制御装置。
(2)
前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得部をさらに含み、
前記処理実行部は、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、
前記表示制御部は、前記第2のコンテンツを構成する各画像を、前記表示部に表示させる
前記(1)に記載の表示制御装置。
(3)
前記処理実行部は、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行う
前記(2)に記載の表示制御装置。
(4)
前記コンテンツ取得部は、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、
前記処理実行部は、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行う
前記(2)に記載の表示制御装置。
(5)
前記処理実行部は、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
前記(1)に記載の表示制御装置。
(6)
前記処理実行部は、前記瞳孔間隔に応じた距離だけ離れて前記コンテンツを視聴するように促す前記メッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
前記(5)に記載の表示制御装置。
(7)
複数の前記ユーザには、それぞれ、前記ユーザの視界を制限し、前記ユーザ毎に異なるタイミングで前記視界の制限を解除するための装置が装着されており、
前記表示制御部は、前記ユーザが視聴する前記第2のコンテンツを構成する各画像を、前記ユーザ毎に異なる前記タイミングに同期して表示させる
前記(2)乃至(6)に記載の表示制御装置。
(8)
前記瞳孔間隔取得部は、前記コンテンツの視聴時に前記ユーザに装着される送信装置から送信されてくる前記瞳孔間隔を受信して取得する
前記(1)乃至(7)に記載の表示制御装置。
(9)
前記瞳孔間隔取得部は、前記ユーザの瞳孔間隔を算出して取得し、
前記視聴距離取得部は、前記視聴距離を算出して取得する
前記(1)乃至(7)に記載の表示制御装置。
(10)
画像により構成されるコンテンツを表示させる表示制御装置の表示制御方法において、
前記表示制御装置による、
複数の画像により構成されるコンテンツを取得するコンテンツ取得ステップと、
前記コンテンツを表示部に表示させる表示制御ステップと、
前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、
前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップと
を含む表示制御方法。
(11)
コンピュータに、
画像により構成されるコンテンツを取得するコンテンツ取得ステップと、
前記コンテンツを表示部に表示させる表示制御ステップと、
前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、
前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップと
を含む処理を実行させるためのプログラム。
(12)
前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得ステップをさらに含み、
前記処理実行ステップは、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、
前記表示制御ステップは、前記第2のコンテンツを前記表示部に表示させる
前記(11)に記載のプログラム。
(13)
前記処理実行ステップは、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行う
前記(12)に記載のプログラム。
(14)
前記コンテンツ取得ステップは、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、
前記処理実行ステップは、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行う
前記(12)に記載のプログラム。
(15)
前記処理実行ステップは、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
前記(11)に記載のプログラム。
(16)
コンテンツの視聴時にユーザに装着される検出装置において、
前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、
前記瞳孔間隔を送信する送信部と
を含む検出装置。
(17)
前記ユーザの左眼の瞳孔の位置に移動される第1の板状部材と、
前記ユーザの右眼の瞳孔の位置に移動される第2の板状部材と、
前記第1の板状部材と前記第2の板状部材との位置合わせに応じて伸縮する可動ブリッジと
をさらに含み、
前記瞳孔間隔検出部は、前記可動ブリッジの長さに基づいて、前記ユーザの瞳孔間隔を検出する
前記(16)に記載の検出装置。
(18)
前記視聴距離を算出する視聴距離算出部をさらに含み、
前記送信部は、前記視聴距離も送信する
前記(16)に記載の検出装置。
(19)
コンテンツの視聴時にユーザに装着される検出装置の検出方法において、
前記検出装置による、
前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出ステップと、
前記瞳孔間隔を送信する送信ステップと
を含む検出方法。
(20)
ユーザにより装着される検出装置と、前記ユーザにより視聴されるコンテンツを表示させる表示制御装置とにより構成される表示システムにおいて、
前記検出装置は、
前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、
前記瞳孔間隔を送信する送信部と
を含み、
前記表示制御装置は、
画像により構成されるコンテンツを取得するコンテンツ取得部と、
前記コンテンツを表示部に表示させる表示制御部と、
前記送信部から送信されてくる前記瞳孔間隔を受信する瞳孔間隔受信部と、
前記瞳孔間隔に基づいて、所定の処理を行う処理実行部と
を含む表示システム。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
[コンピュータの構成例]
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示している。
CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、又は記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータ等が適宜記憶される。これらのCPU201、ROM202、及びRAM203は、バス204により相互に接続されている。
CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。
また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図20に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア211、又は、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本開示における実施の形態は、上述した第1及び第2の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
21 テレビジョン受像機, 22 3Dメガネ, 22R1 右眼用シャッタ, 22L1 左眼用シャッタ, 22R2 右眼用パネル, 22L2 左眼用パネル, 22a 可動ブリッジ, 22b 送信ボタン, 22c 瞳孔間隔送信部, 23 リモートコントローラ, 23a 電源ボタン, 41 チューナ, 42 瞳孔間隔受信部, 43 視聴距離計測部, 44 画像処理部, 44a メモリ, 45 ディスプレイ, 46 スピーカ, 47 制御部, 48 受光部, 61 計測部, 61a メモリ, 62 記憶部, 63 送信部, 101 テレビジョン受像機, 102 リモートコントローラ, 102a 電源ボタン, 102b 最適化ボタン, 121R,121L カメラ, 122 発光部, 123 検出部, 124 算出部

Claims (20)

  1. 画像により構成されるコンテンツを取得するコンテンツ取得部と、
    前記コンテンツを表示部に表示させる表示制御部と、
    前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得部と、
    前記瞳孔間隔に基づいて、所定の処理を行う処理実行部と
    を含む表示制御装置。
  2. 前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得部をさらに含み、
    前記処理実行部は、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、
    前記表示制御部は、前記第2のコンテンツを構成する各画像を、前記表示部に表示させる
    請求項1に記載の表示制御装置。
  3. 前記処理実行部は、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行う
    請求項2に記載の表示制御装置。
  4. 前記コンテンツ取得部は、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、
    前記処理実行部は、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行う
    請求項2に記載の表示制御装置。
  5. 前記処理実行部は、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
    請求項1に記載の表示制御装置。
  6. 前記処理実行部は、前記瞳孔間隔に応じた距離だけ離れて前記コンテンツを視聴するように促す前記メッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
    請求項5に記載の表示制御装置。
  7. 複数の前記ユーザには、それぞれ、前記ユーザの視界を制限し、前記ユーザ毎に異なるタイミングで前記視界の制限を解除するための装置が装着されており、
    前記表示制御部は、前記ユーザが視聴する前記第2のコンテンツを構成する各画像を、前記ユーザ毎に異なる前記タイミングに同期して表示させる
    請求項2に記載の表示制御装置。
  8. 前記瞳孔間隔取得部は、前記コンテンツの視聴時に前記ユーザに装着される送信装置から送信されてくる前記瞳孔間隔を受信して取得する
    請求項1に記載の表示制御装置。
  9. 前記瞳孔間隔取得部は、前記ユーザの瞳孔間隔を算出して取得し、
    前記視聴距離取得部は、前記視聴距離を算出して取得する
    請求項1に記載の表示制御装置。
  10. 画像により構成されるコンテンツを表示させる表示制御装置の表示制御方法において、
    前記表示制御装置による、
    複数の画像により構成されるコンテンツを取得するコンテンツ取得ステップと、
    前記コンテンツを表示部に表示させる表示制御ステップと、
    前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、
    前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップと
    を含む表示制御方法。
  11. コンピュータに、
    画像により構成されるコンテンツを取得するコンテンツ取得ステップと、
    前記コンテンツを表示部に表示させる表示制御ステップと、
    前記コンテンツを視聴するユーザの左右の瞳孔の間隔を表す瞳孔間隔を取得する瞳孔間隔取得ステップと、
    前記瞳孔間隔に基づいて、所定の処理を行う処理実行ステップと
    を含む処理を実行させるためのプログラム。
  12. 前記ユーザまでの距離を表す視聴距離を取得する視聴距離取得ステップをさらに含み、
    前記処理実行ステップは、前記瞳孔間隔及び前記視聴距離に基づき、前記コンテンツ取得部により取得された第1の前記コンテンツを変更して得られる第2の前記コンテンツを生成する処理を行い、
    前記表示制御ステップは、前記第2のコンテンツを前記表示部に表示させる
    請求項11に記載のプログラム。
  13. 前記処理実行ステップは、前記第1のコンテンツを構成する各画像の大きさを、前記瞳孔間隔及び前記視聴距離に基づく大きさに変更して得られる前記第2のコンテンツを生成する処理を行う
    請求項12に記載のプログラム。
  14. 前記コンテンツ取得ステップは、前記ユーザの左眼に視認させる左眼用2次元画像と、前記ユーザの右眼に視認させる右眼用2次元画像とからなる3次元画像により構成される前記第1のコンテンツを取得し、
    前記処理実行ステップは、前記第1のコンテンツを構成する前記3次元画像毎に、前記左眼用2次元画像と前記右眼用2次元画像との間に設けられた視差の大きさを表す視差量を、前記瞳孔間隔及び前記視聴距離に基づく視差量に変更して得られる前記第2のコンテンツを生成する処理を行う
    請求項12に記載のプログラム。
  15. 前記処理実行ステップは、前記瞳孔間隔に基づき決定されるメッセージを、画像又は音声の少なくとも一方により前記ユーザに提示する処理を行う
    請求項11に記載のプログラム。
  16. コンテンツの視聴時にユーザに装着される検出装置において、
    前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、
    前記瞳孔間隔を送信する送信部と
    を含む検出装置。
  17. 前記ユーザの左眼の瞳孔の位置に移動される第1の板状部材と、
    前記ユーザの右眼の瞳孔の位置に移動される第2の板状部材と、
    前記第1の板状部材と前記第2の板状部材との位置合わせに応じて伸縮する可動ブリッジと
    をさらに含み、
    前記瞳孔間隔検出部は、前記可動ブリッジの長さに基づいて、前記ユーザの瞳孔間隔を検出する
    請求項16に記載の検出装置。
  18. 前記視聴距離を算出する視聴距離算出部をさらに含み、
    前記送信部は、前記視聴距離も送信する
    請求項16に記載の検出装置。
  19. コンテンツの視聴時にユーザに装着される検出装置の検出方法において、
    前記検出装置による、
    前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出ステップと、
    前記瞳孔間隔を送信する送信ステップと
    を含む検出方法。
  20. ユーザにより装着される検出装置と、前記ユーザにより視聴されるコンテンツを表示させる表示制御装置とにより構成される表示システムにおいて、
    前記検出装置は、
    前記ユーザの左右の瞳孔の間隔を表す瞳孔間隔を検出する瞳孔間隔検出部と、
    前記瞳孔間隔を送信する送信部と
    を含み、
    前記表示制御装置は、
    画像により構成されるコンテンツを取得するコンテンツ取得部と、
    前記コンテンツを表示部に表示させる表示制御部と、
    前記送信部から送信されてくる前記瞳孔間隔を受信する瞳孔間隔受信部と、
    前記瞳孔間隔に基づいて、所定の処理を行う処理実行部と
    を含む表示システム。
JP2011070673A 2011-03-28 2011-03-28 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム Pending JP2012205267A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011070673A JP2012205267A (ja) 2011-03-28 2011-03-28 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム
US13/408,556 US20120249532A1 (en) 2011-03-28 2012-02-29 Display control device, display control method, detection device, detection method, program, and display system
CN2012100765343A CN102710952A (zh) 2011-03-28 2012-03-21 显示控制装置及方法、检测装置及方法、程序和显示系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011070673A JP2012205267A (ja) 2011-03-28 2011-03-28 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム

Publications (2)

Publication Number Publication Date
JP2012205267A true JP2012205267A (ja) 2012-10-22
JP2012205267A5 JP2012205267A5 (ja) 2014-04-24

Family

ID=46903485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011070673A Pending JP2012205267A (ja) 2011-03-28 2011-03-28 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム

Country Status (3)

Country Link
US (1) US20120249532A1 (ja)
JP (1) JP2012205267A (ja)
CN (1) CN102710952A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012257150A (ja) * 2011-06-10 2012-12-27 Jvc Kenwood Corp 立体映像撮像装置および立体映像再生装置
WO2014133199A1 (ko) * 2013-02-26 2014-09-04 재단법인부산정보산업진흥원 입체 영상 변환 방법 및 시스템
JP2014183434A (ja) * 2013-03-19 2014-09-29 Canon Inc 投射型表示装置
CN109141249A (zh) * 2018-08-07 2019-01-04 深圳Tcl数字技术有限公司 距离测量方法及计算机可读存储介质
WO2019225361A1 (ja) * 2018-05-22 2019-11-28 Eizo株式会社 立体画像表示装置、立体画像表示方法及びプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9449429B1 (en) * 2012-07-31 2016-09-20 Dreamworks Animation Llc Stereoscopic modeling based on maximum ocular divergence of a viewer
EP2802122A1 (en) 2013-05-07 2014-11-12 Nagravision S.A. A Media Player for Receiving Media Content from a Remote Server
KR20150055121A (ko) * 2013-11-06 2015-05-21 한국전자통신연구원 동공 추적을 이용한 홀로그램 이미지 표시 장치 및 방법
CN104994418A (zh) * 2015-07-14 2015-10-21 合一网络技术(北京)有限公司 电视控制方法及电视控制系统
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
CA3086592A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. Viewer-adjusted stereoscopic image display
JP7339278B2 (ja) * 2018-02-08 2023-09-05 イノベーションズ マインドトリック インコーポレイテッド 視聴者に合わせて調整された立体画像表示
CN111105485B (zh) * 2018-10-09 2024-02-27 杭州海康威视数字技术股份有限公司 一种线条渲染方法、装置
US10835289B2 (en) * 2018-10-18 2020-11-17 Medos International Sàrl Reamer instruments and related methods
CN109756723B (zh) * 2018-12-14 2021-06-11 深圳前海达闼云端智能科技有限公司 获取影像的方法和装置,存储介质和电子设备
CN110300297A (zh) * 2019-06-04 2019-10-01 宁波视睿迪光电有限公司 演示教学的图像调整方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353793A (ja) * 1989-07-21 1991-03-07 Shimadzu Corp 医用画像表示装置
JP2000152285A (ja) * 1998-11-12 2000-05-30 Mr System Kenkyusho:Kk 立体画像表示装置
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
JP2006271740A (ja) * 2005-03-29 2006-10-12 Nidek Co Ltd 立体眼底画像表示装置
JP2009516447A (ja) * 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
JP2009250987A (ja) * 2008-04-01 2009-10-29 Casio Hitachi Mobile Communications Co Ltd 画像表示装置およびプログラム
JP2011019917A (ja) * 2009-07-16 2011-02-03 Sony Computer Entertainment America Llc アクティブトラッキングに基づいて表示を最適化するための表示システム及び方法
WO2011033423A1 (en) * 2009-09-16 2011-03-24 Koninklijke Philips Electronics N.V. 3d screen size compensation
WO2012117703A1 (ja) * 2011-03-02 2012-09-07 パナソニック株式会社 三次元画像処理装置、三次元画像処理方法、三次元画像視聴用眼鏡装置、三次元画像処理装置用集積回路、光ディスク再生装置、三次元映像信号再生装置および三次元映像信号表示装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7576830B2 (en) * 2003-03-20 2009-08-18 Pixar Configurable flat panel image to film transfer method and apparatus
JP4310330B2 (ja) * 2006-09-26 2009-08-05 キヤノン株式会社 表示制御装置及び表示制御方法
JP2009071719A (ja) * 2007-09-14 2009-04-02 Nec Corp 通信装置、通信システム、制御方法及び制御プログラム
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
WO2010009447A2 (en) * 2008-07-18 2010-01-21 Doheny Eye Institute Optical coherence tomography - based ophthalmic testing methods, devices and systems
TW201009787A (en) * 2008-08-19 2010-03-01 Chunghwa Picture Tubes Ltd Method of sequential color display
US8289998B2 (en) * 2009-02-13 2012-10-16 Samsung Electronics Co., Ltd. Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
KR20110129903A (ko) * 2009-02-18 2011-12-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 시청자 메타데이터의 전송
WO2010147281A1 (ko) * 2009-06-16 2010-12-23 (주)엘지전자 시청범위 알림 방법 및 이를 구현하기 위한 텔레비전 수신기
JP5356952B2 (ja) * 2009-08-31 2013-12-04 レムセン イノベーション、リミティッド ライアビリティー カンパニー 表示装置
CN101692139B (zh) * 2009-09-11 2011-07-20 丁守谦 全彩色高清晰眼镜式立体观像器装置
US8684531B2 (en) * 2009-12-28 2014-04-01 Vision3D Technologies, Llc Stereoscopic display device projecting parallax image and adjusting amount of parallax
WO2011107550A1 (en) * 2010-03-05 2011-09-09 Sony Corporation Disparity distribution estimation for 3d tv
EP2658270A3 (en) * 2011-05-13 2014-02-26 Lg Electronics Inc. Apparatus and method for processing 3-dimensional image

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0353793A (ja) * 1989-07-21 1991-03-07 Shimadzu Corp 医用画像表示装置
JP2000152285A (ja) * 1998-11-12 2000-05-30 Mr System Kenkyusho:Kk 立体画像表示装置
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
JP2006271740A (ja) * 2005-03-29 2006-10-12 Nidek Co Ltd 立体眼底画像表示装置
JP2009516447A (ja) * 2005-11-17 2009-04-16 ノキア コーポレイション 3次元画像データを生成、転送および処理するための方法および装置
JP2009250987A (ja) * 2008-04-01 2009-10-29 Casio Hitachi Mobile Communications Co Ltd 画像表示装置およびプログラム
JP2011019917A (ja) * 2009-07-16 2011-02-03 Sony Computer Entertainment America Llc アクティブトラッキングに基づいて表示を最適化するための表示システム及び方法
WO2011033423A1 (en) * 2009-09-16 2011-03-24 Koninklijke Philips Electronics N.V. 3d screen size compensation
JP2013504968A (ja) * 2009-09-16 2013-02-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dスクリーン・サイズ補償
WO2012117703A1 (ja) * 2011-03-02 2012-09-07 パナソニック株式会社 三次元画像処理装置、三次元画像処理方法、三次元画像視聴用眼鏡装置、三次元画像処理装置用集積回路、光ディスク再生装置、三次元映像信号再生装置および三次元映像信号表示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012257150A (ja) * 2011-06-10 2012-12-27 Jvc Kenwood Corp 立体映像撮像装置および立体映像再生装置
WO2014133199A1 (ko) * 2013-02-26 2014-09-04 재단법인부산정보산업진흥원 입체 영상 변환 방법 및 시스템
KR101459215B1 (ko) * 2013-02-26 2014-11-07 재단법인부산정보산업진흥원 입체 영상 변환 방법 및 시스템
JP2014183434A (ja) * 2013-03-19 2014-09-29 Canon Inc 投射型表示装置
WO2019225361A1 (ja) * 2018-05-22 2019-11-28 Eizo株式会社 立体画像表示装置、立体画像表示方法及びプログラム
US11509885B2 (en) 2018-05-22 2022-11-22 Eizo Corporation Stereoscopic image display device, stereoscopic image display method, and program
CN109141249A (zh) * 2018-08-07 2019-01-04 深圳Tcl数字技术有限公司 距离测量方法及计算机可读存储介质

Also Published As

Publication number Publication date
CN102710952A (zh) 2012-10-03
US20120249532A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP2012205267A (ja) 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム
US20100157425A1 (en) Stereoscopic image display apparatus and control method thereof
US9864191B2 (en) Viewer with varifocal lens and video display system
KR101126110B1 (ko) 3차원 입체 영상 표시 시스템 및 이를 이용한 3차원 입체 영상 표시 방법
US20110316881A1 (en) Display device
CN104076512A (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
TW201234838A (en) Stereoscopic display device and control method of stereoscopic display device
JP2010171646A (ja) 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
KR20120033723A (ko) 3d 안경 및 그의 제어 방법
WO2012124150A1 (ja) 映像表示装置
US20130027517A1 (en) Method and apparatus for controlling and playing a 3d image
JP5129376B1 (ja) 映像処理装置および映像処理方法
JP5156116B1 (ja) 映像処理装置および映像処理方法
JP5132804B1 (ja) 映像処理装置および映像処理方法
JP5095851B1 (ja) 映像処理装置および映像処理方法
JP2012080294A (ja) 電子機器、映像処理方法、及びプログラム
US9386292B2 (en) Stereoscopic video processing apparatus and stereoscopic video processing method
JP5156117B1 (ja) 映像処理装置および映像処理方法
USRE46755E1 (en) Method for playing corresponding 3D images according to different visual angles and related image processing system
JP5025786B2 (ja) 画像処理装置、及び画像処理方法
JP5433763B2 (ja) 映像処理装置および映像処理方法
KR101043638B1 (ko) 원격 입력기능을 갖는 입체 영상장치
JP5568116B2 (ja) 映像処理装置および映像処理方法
JP5603911B2 (ja) 映像処理装置、映像処理方法および遠隔制御装置
JP2013055694A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151013