JP2014103585A - 立体画像表示装置 - Google Patents

立体画像表示装置 Download PDF

Info

Publication number
JP2014103585A
JP2014103585A JP2012255230A JP2012255230A JP2014103585A JP 2014103585 A JP2014103585 A JP 2014103585A JP 2012255230 A JP2012255230 A JP 2012255230A JP 2012255230 A JP2012255230 A JP 2012255230A JP 2014103585 A JP2014103585 A JP 2014103585A
Authority
JP
Japan
Prior art keywords
unit
observer
parallax amount
image
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012255230A
Other languages
English (en)
Inventor
Hiroyuki Nagatani
広行 永谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012255230A priority Critical patent/JP2014103585A/ja
Priority to US14/041,866 priority patent/US20140139647A1/en
Publication of JP2014103585A publication Critical patent/JP2014103585A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/83Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract


【課題】簡易な構成、かつ、高い精度で、立体画像を観察する観察者が疲労しているか否かを判定可能な立体画像表示装置を提供する。
【解決手段】実施形態の立体画像表示装置は、表示部と第1取得部と計測部と判定部と視差量制御部とを備える。表示部は、立体画像を表示する。第1取得部は、立体画像の観察位置を含む空間を撮影した撮影画像を取得する。計測部は、第1取得部により取得された撮影画像に映り込んだ観察者の輻輳角を計測する。判定部は、計測部により計測された輻輳角に応じて、観察者が疲労しているか否かを判定する。視差量制御部は、判定部により観察者が疲労していると判定された場合、立体画像の視差量を低減する制御を行う。
【選択図】図5

Description

本発明の実施形態は、立体画像表示装置に関する。
近年、特にフラットパネルタイプで、且つ、専用の眼鏡等を必要とする方式としない方式の両方の立体画像表示装置、いわゆる3次元ディスプレイが実現されている。この3次元ディスプレイにより生成された立体映像の視聴においては、映像酔いや病的症状には到らない眼の疲労、場合によっては病的症状に到る眼精疲労を発症する問題がある。
従来においては、視聴者の生体情報を用いて立体映像を制御し未然に映像酔いなどの症状を防止する技術や、視聴者の瞳孔径をカメラで取得し、取得した瞳孔径に応じて疲労度を判定し、映像やゲーム内容を制御する技術が知られている。
特開2011−28633号公報 特開2004−357760号公報 特開2000−60829号公報
しかしながら、視聴者の生体情報を用いて疲労度を判定する技術においては、接触型のセンサーを視聴者に取り付ける必要があるため、視聴者が違和感を覚える上、構成が複雑化するという問題がある。
また、視聴者の瞳孔径は、映像コンテンツの内容に応じても変化するため、視聴者の瞳孔径に応じて疲労度を判定する技術では、十分な精度で疲労度を判定することができないという問題がある。
本発明が解決しようとする課題は、簡易な構成、かつ、高い精度で、立体画像を観察する観察者が疲労しているか否かを判定可能な立体画像表示装置を提供することである。
実施形態の立体画像表示装置は、表示部と第1取得部と計測部と判定部と視差量制御部とを備える。表示部は、立体画像を表示する。第1取得部は、立体画像の観察位置を含む空間を撮影した撮影画像を取得する。計測部は、第1取得部により取得された撮影画像に映り込んだ観察者の輻輳角を計測する。判定部は、計測部により計測された輻輳角に応じて、観察者が疲労しているか否かを判定する。視差量制御部は、判定部により観察者が疲労していると判定された場合、立体画像の視差量を低減する制御を行う。
実施形態の立体画像表示装置の概念図。 実施形態の立体画像表示装置の構成例を示す図。 実施形態の表示部の構成例を示す図。 実施形態の表示部の模式図。 実施形態の画像処理部の機能構成例を示す図。 実施形態のキャリブレーション部の機能構成例を示す図。 実施形態のテスト画像の一例を示す図。 実施形態の立体画像の飛び出し量と視差量の関係を示す模式図。 実施形態の立体画像表示装置の動作例を示すフローチャート。 実施形態の立体画像表示装置の動作例を示すフローチャート。 変形例の立体画像表示装置の概念図。 変形例のテスト画像の一例を示す図。
以下、添付図面を参照しながら、本発明に係る立体画像表示装置の実施の形態を詳細に説明する。本実施形態の立体画像表示装置は、例えば、インテグラル・イメージング方式(II方式)や多眼方式等の3Dディスプレイ方式を採用したものであってよい。立体画像表示装置の例としては、例えば視聴者が裸眼で立体画像を観察可能なTV、PC、スマートフォン、デジタルフォトフレームなどが挙げられる。立体画像とは、互いに視差を有する複数の視差画像を含む画像であり、視差とは、異なる方向から見ることによる見え方の差をいう。なお、実施形態で述べる画像とは、静止画像又は動画像のいずれであってもよい。
図1は、観察者が、本実施形態の立体画像表示装置1の表示部101に表示される立体画像を観察する様子を示す概念図である。図2は、立体画像表示装置1の構成例を示す図である。図2に示すように、立体画像表示装置1は、表示部101と、カメラ111と、画像処理部120と、を備える。
表示部101は、立体画像を表示する。図3は、表示部101の構成例を示す図である。図3に示すように、表示部101は、表示パネル10と、光線制御部20と、を備える。表示パネル10は、色成分を有する複数のサブ画素(例えば、R、G、B)を、第1方向(例えば、図3における行方向(左右方向))と、第2方向(例えば、図3における列方向(上下方向))とに、マトリクス状に配列した液晶パネルである。この場合、第1方向に並ぶRGB各色のサブ画素が1画素を構成する。表示パネル10のサブ画素の配列は、他の公知の配列であっても構わない。また、サブ画素は、RGBの3色に限定されない。例えば、4色以上であってもよい。
また、表示パネル10には、直視型2次元ディスプレイ、例えば、有機EL(Organic Electro Luminescence)やLCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、投射型ディスプレイなどを用いることができる。また、表示パネル10は、バックライトを備えた構成でもよい。
光線制御部20は、表示パネル10の各サブ画素からの光線の出射方向を制御する。光線制御部20と表示パネル10とは、一定の距離(ギャップ)を有する。光線制御部20は、光線を出射するための光学的開口部が直線状に延伸し、当該光学的開口部が第1方向に複数配列されたものである。光線制御部20には、例えば、シリンドリカルレンズが複数配列されたレンチキュラーシート、スリットが複数配列されたパララックスバリア等を用いることができる。
光学的開口部は、表示パネル10の各要素画像に対応して配置される。要素画像とは、光学的開口部に対応したサブ画素単位で表示された視差画像の集合をいい、複数の視差画像の各々の画素を含む画像であると捉えることもできる。ここでは、表示部101に表示される要素画像の集合が立体画像を構成する。
図4は、観察者が表示部101を観察している状態を示す模式図である。表示パネル10に複数の要素画像12が表示されると、複数の視差方向に対応した画像光線が、光線制御部20の各光学的開口部を透過する。そして、視域(立体画像を観察可能な領域)内に位置する観察者は、要素画像12に含まれる異なる画素(異なる視差画像の画素)を、左眼26Aおよび右眼26Bでそれぞれ観察することになる。このように、観察者の左眼26Aおよび右眼26Bに対し、視差の異なる画像をそれぞれ提示することで、観察者は、表示部101に表示される立体画像を立体的に視認できる(立体視できる)。
図2に戻って説明を続ける。カメラ111は、観察者が立体画像を観察する観察位置を含む所定の空間を連続的に撮影(撮像)する。画像処理部120は、カメラ111により撮影された画像を示す撮影画像に基づいて観察者の認証を行う。この詳細な内容については後述する。本実施形態では、カメラ111は、可視光用のものであり、観察者にはカメラ111による撮影を一切意識されない。また、本実施形態では、カメラ111は、表示部101の筐体の枠内に埋め込まれ、さらに黒い半透明のアクリル素材によりカバーされるので、観察者には、カメラ111の存在すらも意識されない。
画像処理部120は、立体画像を生成して表示部101に表示する制御を行う。図5は、画像処理部の120の機能構成例を示すブロック図である。図5に示すように、画像処理部120は、第1取得部121と、記憶部122と、認証部123と、計測部124と、キャリブレーション部125と、第2取得部126と、視差量制御部127と、判定部128とを有する。
第1取得部121は、カメラ111からの撮影画像を取得する。本実施形態では、第1取得部121は、カメラ111からの撮影画像を取得するたびに、取得した撮影画像を、認証部123および計測部124の各々に出力する。記憶部122は、観察者ごとに(例えば観察者を識別するIDごとに)、顔画像を特定可能な顔特徴情報と、後述の限界視差量とを少なくとも対応付けて記憶する。顔特徴情報は、観察者の顔画像を特定可能な情報であればよく、例えば顔画像そのものであってもよいし、顔に含まれる眼や鼻などの各特徴点を示す情報であってもよい。
認証部123は、第1取得部121により撮影画像が取得されるたびに、その取得された撮影画像に含まれる顔画像を抽出し、記憶部122に登録された1以上の顔特徴情報の中に、抽出した顔画像と一致(類似でもよい)する顔画像を特定可能な顔特徴情報が存在するか否かを判断する。認証部123は、記憶部122に登録された1以上の顔特徴情報の中に、撮影画像から抽出した顔画像と一致する顔画像を特定可能な顔特徴情報(つまり、撮影画像に含まれる顔画像を特定可能な顔特徴情報)が存在すると判断した場合、当該顔特徴情報に対応する観察者を、判定部128による判定の対象として認証する。そして、認証部123は、認証した観察者の顔画像を特定可能な顔特徴情報を、計測部124および判定部128の各々に出力する。
一方、認証部123は、記憶部122に登録された1以上の顔特徴情報の中に、撮影画像に含まれる顔画像を特定可能な顔特徴情報が存在しないと判断した場合、その旨をキャリブレーション部125に通知する。キャリブレーション部125の具体的な内容については後述する。
計測部124は、第1取得部121により取得された撮影画像に映り込んだ観察者の輻輳角を計測する。本実施形態では、計測部124は、第1取得部121により取得された撮影画像から、認証部123により認証された観察者の顔画像を抽出し、抽出した顔画像を用いて、認証部123により認証された観察者の輻輳角を計測する。より具体的には、計測部124は、抽出した顔画像から、観察者の両眼を検出し、眼に含まれる瞳の寄り角を計測する。
瞳の検出方法は任意であるが、ここでは、一例として、強膜(白眼に相当)と角膜(黒眼に相当)のコントラスト差よりその境界を判定し、瞳の位置や向きを判定する強膜反射法を用いて瞳を検出する。計測部124は、強膜反射法により検出した両眼の瞳の位置に基づいて、両眼の瞳の各々の視線方向のなす角度を示す輻輳角を計測する。計測部124は、以上の処理を、所定の周期で繰り返し実行し、計測結果を示す情報(認証された観察者の輻輳角を示す情報)を判定部128へ出力する。
キャリブレーション部125は、観察者が立体視を行うことができる限界の視差量を示す限界視差量を決定するキャリブレーション処理を行う。本実施形態では、キャリブレーション部125は、認証部123により、記憶部122に登録された1以上の顔特徴情報の中に、撮影画像に含まれる顔画像を特定可能な顔特徴情報が存在しないと判断された場合、その撮影画像に含まれる顔画像に対応する未登録の観察者の限界視差量を決定するキャリブレーション処理を行う。そして、キャリブレーション部125は、キャリブレーション処理により得られた限界視差量を、未登録の観察者の顔画像を特定可能な顔特徴情報に対応付けて記憶部122に登録する。このとき、記憶部122には、当該観察者を識別するIDと、顔特徴情報と、限界視差量とが対応付けて記憶され、当該観察者が初めて認証された後に、後述の視差量制御部127による制御の対象となる視差量を示す制御視差量が、当該観察者に対応付けられて登録される。この内容については後述する。以下、キャリブレーション部125の具体的な内容を説明する。
図6は、キャリブレーション部125の詳細な機能構成例を示すブロック図である。図6に示すように、キャリブレーション部125は、受付部130と、第1特定部131と、第2特定部132と、決定部133とを有する。受付部130は、キャリブレーション処理に用いられるリモコン(不図示)の操作による入力を受け付ける。
第1特定部131は、立体画像を観察する観察者が融像できなくなったときの視差量を示す融象限界の計測に用いるテスト画像の視差量を変化させて、観察者の融像限界を特定する制御を行う。より具体的には、第1特定部131は、テスト画像の視差量を増加させていき、テスト画像を観察する観察者が融像できなくなったときのテスト画像の視差量を、当該観察者の融像限界として特定する制御を行う。この例では、融像限界の特定は、飛び出し側および奥行き側のそれぞれについて行われる。本実施形態では、第1特定部131は、図7のような縦長の棒状の画像を示すテスト画像を表示部101に表示する制御を行い、2D表示(2次元表示)の状態から徐々に視差を与えていき(視差量を増加させていき)、テスト画像を観察している観察者(キャリブレーション処理の対象となる観察者)に対して、融像できない場合は、リモコンのボタンを押すことを指示する画像または音声を出力する制御を行う。第1特定部131は、テスト画像の視差量を増加させる制御を行っている際に、リモコンのボタン操作による入力を受付部130で受け付けた場合、その入力を受け付けた時点のテスト画像の視差量を、融像限界として特定する。
また、このとき、計測部124が、第1取得部121により取得された撮影画像から、キャリブレーション処理の対象となる観察者の顔画像を抽出し、抽出した顔画像を用いて、当該観察者の輻輳角を計測する処理を所定の周期で繰り返し実行する形態であってもよい。第1特定部131は、テスト画像の視差量に対応する視差角と、計測部124により計測された輻輳角との差分の絶対値が閾値以上の場合(明らかに輻輳位置がずれている場合)や、一方の片眼の挙動が、他方の片眼と異なる位置に推移することを示す場合は、リモコンのボタン操作に関わらず、その時点のテスト画像の視差量を、融像限界として特定することもできる。
第2特定部132は、観察者(キャリブレーション処理の対象となる観察者)に対して、輻輳角が増大していくように視点を向けさせる制御を行い、観察者が両眼を寄せることができる限界の輻輳角を示す輻輳近点を特定する制御を行う。本実施形態では、第2特定部132は、観察者に対して、手を伸ばした状態で指を凝視することを指示する画像または音声を出力する制御を行った後、徐々に指を鼻に近づけることを指示する画像または音声を出力する制御を行う。同時に、第2特定部132は、観察者に対して、指が二重に見えた時点でリモコンのボタンを押すことを指示する画像または音声を出力する制御を行う。
また、このとき、計測部124は、第1取得部121により取得された撮影画像から、キャリブレーション処理の対象となる観察者の顔画像を抽出し、抽出した顔画像を用いて、当該観察者の輻輳角を計測する処理を所定の周期で繰り返し実行する。第2特定部132は、リモコンのボタン操作による入力を受付部130で受け付けた場合、その入力を受け付けた時点で計測部124により計測された輻輳角を、輻輳近点として特定することもできる。また、例えば、一方の片眼の挙動が、他方の片眼と異なる位置に推移することを示す場合は、リモコンのボタン操作に関わらず、その時点で計測部124により計測された輻輳角を、輻輳近点として特定することもできる。
決定部133は、第1特定部131により特定された融像限界と、第2特定部132により特定された輻輳近点とに基づいて、限界視差量を決定する。本実施形態では、決定部133は、第1特定部131により特定された融像限界の8割以下で、かつ、立体画像の最大飛び出し量が、第2特定部132により特定された輻輳近点の1/2以下の視差角に対応する値となるように、限界視差量を決定する。また、例えば決定部133は、所定期間(例えば10分間)の平均視差量が融像限界の1/2以下であることを、視差量制御の条件として決定(設定)することもできる。
再び図5に戻って説明を続ける。第2取得部126は、入力画像を取得する。視差量制御部127は、立体画像の視差量を可変に制御する。ここでは、認証部123による認証が行われる前においては、視差量制御部127は、予め設定された入力画像の視差量を示す入力視差量に基づいて立体画像(デフォルトの立体画像と呼ぶ)を生成し、生成した立体画像を表示部101に表示する制御を行う。より具体的には、例えば視差量制御部127は、入力画像の各画素の奥行き値を表すデプス値と、予め設定された視点の位置(仮想的な視点位置)と、予め設定された飛び出し量(あるいは奥行き量)とに基づいて、各画素の視差量を算出する。そして、視差量制御部127は、入力画像の各画素を、算出した視差量(予め設定された視差量)に応じて水平方向にシフトさせることで、多視点の視差画像を生成し、生成した多視点の視差画像に基づいて立体画像を生成する。なお、入力画像は、1台のカメラで撮影された単眼画像であってもよいし、2台のカメラで撮影されたステレオ画像(左眼用画像と右眼用画像)であってもよい。以上の内容は、公知の技術であるため、詳細な説明については省略する。
一方、例えば認証部123により、ある観察者が初めて認証された場合(例えばキャリブレーション処理の直後に認証された場合など)、視差量制御部127は、当該観察者に対応する限界視差量を記憶部122から読み出し、読み出した限界視差量と入力視差量とを比較する。限界視差量が入力視差量の上限値よりも大きい場合は、その入力視差量の上限値を、制御の対象となる視差量を示す制御視差量として当該観察者に対応付けて記憶部122に登録する。そして、視差量制御部127は、当該観察者に対応付けられた制御視差量(入力視差量の上限値と同じ視差量)と入力画像とに基づいて立体画像を生成(この場合、デフォルトの立体画像を生成)し、生成した立体画像を表示部101に表示する制御を行う。
また、視差量制御部127は、限界視差量が入力視差量の上限値よりも小さい場合は、その限界視差量を、制御視差量として当該観察者に対応付けて記憶部122に登録する。そして、視差量制御部127は、当該観察者に対応付けられた制御視差量(限界視差量と同じ視差量)と入力画像とに基づいて立体画像を生成し、生成した立体画像を表示部101に表示する制御を行う。したがって、この場合、表示部101に表示される立体画像の視差量は、当該観察者の限界視差量以内に制御される。
すなわち、視差量制御部127は、認証部123により認証された観察者に対応付けられた制御視差量と入力画像とに基づいて立体画像を生成し、生成した立体画像を表示部101に表示する制御を行う。
図5に示す判定部128は、計測部124により計測された輻輳角に応じて、観察者が疲労しているか否かを判定する。より具体的には、判定部128は、計測部124により計測された輻輳角と、立体画像の視差量に対応する視差角との差分が第1基準値以上の場合、または、計測部124により計測された輻輳角のゆらぎの変動幅が第2基準値以上の場合は、観察者が疲労していると判定する。以下、具体的な内容を説明する。
図8は、立体画像の飛び出し量と視差量の関係を説明するための模式図である。図8の例では、観察者が、表示部101の表示面(画像が表示される領域)を観察している様子を、天井方向から見た場合を想定している。図8に示すz軸方向は奥行き方向を示し、z=0の位置を表示面とする。また、図8に示すx軸方向は、z軸方向に直交し、かつ、表示面に平行な方向を示す。図8に示す点Bは観察者の左眼(ある1つの視点)の位置を示し、図8に示す点Cは観察者の右眼(別の視点)の位置を示している。また、図8に示す点Aは、飛び出し位置Zaに位置していると観察者に知覚させたい対象物の仮想的な位置を示している。また、図8に示す点Dは、左眼に入射する視差画像における対象物の表示位置を表し、図8に示す点Eは、右眼に入射する視差画像における対象物の表示位置を表している。つまり、図8の例では、線分DEの長さdが、視差量に相当する。
図8の例では、視差量dに対応する視差角はα、視差量dに対応する飛び出し量はZaで表される。ここでは、観察者が健常な状態(疲労していない状態)であれば、計測部124により計測される観察者の輻輳角は、視差角αと一致するものとする。このとき、右眼と左眼とは表示面の手前側を見ている状態(近くを見ている状態)となり、眼の調節筋が緊張した状態となる。このため、この状態が継続すると、観察者の眼が疲れてきて、両眼の視線方向が、眼の調節筋を緩和させる方向を向くようになる(つまり、より遠くの方を見るようになる)。したがって、観察者の輻輳角はαよりも小さい角度に変化していき、飛び出し量Zaの立体画像を視認するのが困難になっていくことが想定される。
本実施形態では、以上の点に着目し、判定部128は、計測部124により計測された輻輳角が、認証部123により認証された観察者に対応付けられた制御視差量(立体画像の視差量の上限値)に対応する視差角の1/3以下になった場合は、当該観察者(認証された観察者)が疲労していると判定する。なお、これに限られるものではなく、観察者が疲労しているか否かを判定するための上記第1基準値は、任意に設定可能である。
また、本実施形態では、立体画像を観察する観察者の眼が疲れてくると、当該観察者の輻輳角のゆらぎの変動幅が大きくなってくることに着目し、判定部128は、計測部124により計測された輻輳角のゆらぎの変動幅が第2基準値以上の場合は、観察者が疲労していると判定する。この例では、判定部128は、計測部124により計測された輻輳角(そのときの視差角であると捉えることもできる)に対応する飛び出し量(奥行き量でもよい)の変動幅が、予め設定された飛び出し量(例えば図8に示すZa、予め設定された奥行き量でもよい)の2/3以上で、周波数が0.05〜9Hzとなる振動が10秒以上継続する場合は、認証部123により認証された観察者が疲労していると判断する。なお、これに限られるものではなく、例えば判定部128は、計測部124により計測された輻輳角のバラツキを示す分散が閾値以上の場合は、認証部123により認証された観察者が疲労していると判定することもできる。要するに、観察者が疲労しているか否かを判定するための上記第2基準値は任意に設定可能である。
ここで、前述の視差量制御部127は、判定部128によって観察者が疲労していると判定された場合、立体画像の視差量を低減する制御を行う。本実施形態では、視差量制御部127は、判定部128によって、認証部123により認証された観察者が疲労していると判定された場合、当該観察者に対応付けられた制御視差量(立体画像の視差量の上限値)を、現在の2/3の値に低減する。つまり、記憶部122に登録された、当該観察者に対応付けられた制御視差量は、現在の2/3の値に更新される。なお、これに限られるものではなく、制御視差量の低減量は任意に変更可能である。そして、視差量制御部127は、低減後の視差量と、入力画像とに基づいて立体画像を生成し、生成した立体画像を表示する制御を行う。これにより、飛び出し量(あるいは奥行き量)が直前の立体画像よりも抑制されるので、3D効果が低減された立体画像を表示部101に表示することができる。
例えばこのとき、視差量制御部127は、「3D映像による眼の疲れが診られます。3D効果を抑制して表示します」などといったメッセージを表示部101に表示する制御を行うことで、3D効果が低減されることを観察者に報知することができる。また、例えば視差量制御部127は、上記メッセージを音声出力することで、3D効果が低減されることを観察者に報知することもできる。
また、本実施形態では、視差量制御部127により低減された後の視差量が入力視差量を下回る量が第3基準値以上である場合、キャリブレーション部125は、再びキャリブレーション処理を行い、キャリブレーション処理により得られた限界視差量を、最新の制御視差量として、認証された観察者に対応付けて記憶部122に登録する。より具体的には、低減後の視差量が、入力視差量の1/10以下になった場合は、視差量制御部127は、その旨をキャリブレーション部125へ通知する。この通知を受けたキャリブレーション部125は、再度、認証された観察者の限界視差量を決定するキャリブレーション処理を行い、キャリブレーション処理により得られた限界視差量を、最新の制御視差量として、当該観察者に対応付けて記憶部122に登録する制御を行う。そして、視差量制御部127は、当該観察者に対応付けられた最新の制御視差量(再度のキャリブレーション処理により得られた限界視差量)と入力画像とに基づいて立体画像を生成し、生成した立体画像を表示部101に表示する制御を行う。これにより、表示部101に表示される立体画像の視差量は、再度のキャリブレーション処理により得られた限界視差量以内に制御される。なお、キャリブレーション処理をやり直すか否かを判定するための上記第3基準値は任意に設定可能である。
また、本実施形態では、認証された観察者に対して、再度キャリブレーション処理を行う場合は、輻輳近点を特定する処理を省略し、決定部133は、第1特定部131により特定された融像限界を、限界視差量として決定するが、これに限られるものではない。例えば1回目のキャリブレーション処理(認証されていないときのキャリブレーション処理)と同様に、融像限界および輻輳近点を特定し、それらに基づいて限界視差量を決定することもできる。
次に、本実施形態に係る立体画像表示装置1の動作例を説明する。図9は、認証部123により、ある観察者が初めて認証されるときの立体画像表示装置1の動作例を示すフローチャートである。この例では、認証部123による認証が行われる前においては、表示部101にはデフォルトの立体画像が表示されており、記憶部122には、当該観察者に対応付けられた制御視差量は登録されていないことを前提とする。図9に示すように、まず、認証部123は、第1取得部121により取得された撮影画像から、観察者の顔画像を抽出する(ステップS1)。次に、認証部123は、記憶部122に登録されている1以上の顔特徴情報の中に、抽出した顔画像を特定可能な顔特徴情報が存在するか否かを判断する(ステップS2)。
上述のステップS2において、認証部123は、記憶部122に登録されている1以上の顔特徴情報の中に、抽出した顔画像を特定可能な顔特徴情報が存在しないと判断した場合(ステップS2:NO)、その旨をキャリブレーション部125へ通知する。そして、キャリブレーション部125は、前述のキャリブレーション処理を実行し(ステップS3)、キャリブレーション処理により得られた限界視差量を、抽出した顔画像(未登録の観察者の顔画像)を特定可能な顔特徴情報に対応付けて記憶部122に登録する。これにより、ステップS1で抽出された顔画像に対応する観察者は、認証部123により認証される。図9の例では、ステップS3の後、前述のステップS2以降の処理を繰り返す。
前述のステップS2において、認証部123が記憶部122に登録されている1以上の顔特徴情報の中に、抽出した顔画像を特定可能な顔特徴情報が存在すると判断した場合(ステップS2:YES)、認証部123は、抽出した顔画像を特定可能な顔特徴情報に対応する観察者を、判定部128による判定の対象として認証する(ステップS4)。
次に、視差量制御部127は、認証部123により認証された観察者に対応する限界視差量を記憶部122から読み出し、読み出した限界視差量と入力視差量の比較結果に応じて、制御視差量を決定する(ステップS5)。前述したように、視差量制御部127は、認証された観察者に対応する限界視差量が入力視差量の上限値よりも大きい場合は、その入力視差量の上限値を、制御視差量として当該観察者に対応付けて記憶部122に登録する。一方、限界視差量が入力視差量の上限値よりも小さい場合は、その限界視差量を、制御視差量として当該観察者に対応付けて記憶部122に登録する。そして、視差量制御部127は、当該観察者に対応付けられた制御視差量と入力画像とに基づいて立体画像を生成し、生成した立体画像を表示部101に表示する制御を行う(ステップS6)。
次に、ある観察者の初めての認証が行われた後の立体画像表示装置1の動作例を説明する。図10は、ある観察者の初めての認証が行われた後の立体画像表示装置1の動作例を示すフローチャートである。
図10に示すように、計測部124は、認証された観察者の輻輳角を計測し(ステップS10)、計測結果を示す情報を判定部128へ出力する。次に、判定部128は、計測部124により計測された輻輳角と、認証された観察者に対応付けられた制御視差量に対応する視差角との差分が第1基準値以上であるか否かを判定する(ステップS11)。前述したように、本実施形態では、判定部128は、計測部124により計測された輻輳角が、認証された観察者に対応付けられた制御視差量に対応する視差角の1/3以下であるか否かを判定する。
前述のステップS11において、判定部128は、計測部124により計測された輻輳角と、認証された観察者に対応付けられた制御視差量に対応する視差角との差分が第1基準値以上ではないと判定した場合(ステップS11:NO)、計測部124により計測された輻輳角のゆらぎの変動幅が第2基準値以上であるか否かを判定する(ステップS12)。前述したように、本実施形態では、判定部128は、計測部124により計測された輻輳角(そのときの視差角)に対応する飛び出し量の変動幅(振幅)が、予め設定された飛び出し量の2/3以上で、周波数が0.05〜9Hzである振動が10秒以上継続する場合は、観察者が疲労していると判断する。
前述のステップS12において、判定部128が、計測部124により計測された輻輳角のゆらぎの変動幅が第2基準値以上ではないと判定した場合(ステップS12:NO)、処理は終了する。つまり、この場合は、認証された観察者は疲労していないと判断され、当該観察者に対応付けられた制御視差量を低減する制御(立体画像の視差量を低減する制御)は行われない。
一方、前述のステップS11において、計測部124により計測された輻輳角と、認証された観察者に対応付けられた制御視差量に対応する視差角との差分が第1基準値以上であると判定した場合(ステップS11:YES)、または、前述のステップS12において、計測部124により計測された輻輳角のゆらぎの変動幅が第2基準値以上であると判定した場合(ステップS12:YES)、判定部128は、現在の観察者の状態が、異常な状態(健常な状態ではない状態)であることを示す異常モードになっていると判定し、異常モードが所定期間継続しているか否かを判断する(ステップS13)。
前述のステップS13において、異常モードが所定期間継続していないと判断された場合(ステップS13:NO)、前述のステップS10以降の処理が繰り返される。また、前述のステップS13において、異常モードが所定期間継続したと判断された場合(ステップS13:YES)、視差量制御部127は、現在の観察者の状態が、危険な状態(3D効果を弱める必要がある状態)であることを示す危険モードになっていると判定し、立体画像の視差量を低減する制御を行う(ステップS14)。前述したように、本実施形態では、視差量制御部127は、認証された観察者に対応付けられた制御視差量を、現在の2/3の値に低減する制御を行う。
次に、視差量制御部127は、低減後の視差量が入力視差量を下回る量が第3基準値以上であるか否かを判断する(ステップS15)。前述したように、本実施形態では、視差量制御部127は、低減後の視差量が入力視差量の1/10以下であるか否かを判断する。低減後の視差量が入力視差量を下回る量が第3基準値以上ではないと判断した場合(ステップS15:NO)、視差量制御部127は、低減後の視差量と、入力画像とに基づいて立体画像を生成し、生成した立体画像を表示する制御を行う(ステップS16)。
一方、前述のステップS15において、低減後の視差量が入力視差量を下回る量が第3基準値以上であると判断された場合(ステップS15:YES)、キャリブレーション部125は、再度、キャリブレーション処理を行う(ステップS17)。前述したように、本実施形態では、キャリブレーション部125は、認証された観察者の限界視差量を決定するキャリブレーション処理を行い、キャリブレーション処理により得られた限界視差量を、最新の制御視差量として、当該観察者に対応付けて記憶部122に登録する制御を行う。そして、視差量制御部127は、当該観察者に対応付けられた最新の制御視差量(再度のキャリブレーション処理により得られた限界視差量)と入力画像とに基づいて立体画像を生成し、生成した立体画像を表示部101に表示する制御を行う(ステップS18)。
以上に説明したように、本実施形態では、撮影画像に映り込んだ観察者の輻輳角を計測し、その計測した輻輳角に応じて、観察者が疲労しているか否かを判定するので、接触型のセンサーを視聴者に取り付ける必要が無い上、映像コンテンツの内容に依存することなく、観察者が疲労しているか否かを判定できるという有利な効果を奏する。
より具体的には、本実施形態では、立体視を行っている観察者の眼が疲れてくると、両眼の視線方向が、眼の調節筋を緩和させる方向を向く(より遠くの方を見るようになる)、または、輻輳角のゆらぎの変動幅が大きくなってくることに着目し、撮影画像に基づいて計測された観察者の輻輳角と、立体画像の視差量に対応する視差角(認証された観察者に対応付けられた制御視差量に対応する視差角)との差分が第1基準値以上の場合、または、撮影画像に基づいて計測された観察者の輻輳角のゆらぎの変動幅が第2基準値以上の場合は、観察者が疲労していると判定する。これにより、簡易な構成、かつ、高い精度で、立体画像を観察する観察者が疲労しているか否かを判定することができる。
また、本実施形態では、立体画像を観察する観察者が疲労していると判定した場合は、当該観察者に対応付けられた制御視差量(立体画像の視差量)を低減し、飛び出し量(あるいは奥行き量でもよい)を元の映像より抑制することで、3D効果が緩和された立体映像を提供する。つまり、眼の疲労を生じにくい映像を提供することができる。すなわち、本実施形態によれば、立体視が得意な者から不得意な者まで、各観察者に適した立体画像(観察者が疲れにくく、かつ、臨場感は維持された立体画像)を提供することができる。
なお、上述の実施形態の画像処理部120は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部(第1取得部121、記憶部122、認証部123、計測部124、キャリブレーション部125、第2取得部126、視差量制御部127、判定部128)の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述した各部の機能のうちの少なくとも一部を専用のハードウェア回路で実現することもできる。
また、上述の実施形態の画像処理部120で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の実施形態の画像処理部120で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の実施形態の画像処理部120で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
以上、本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
(変形例)
以下、変形例を説明する。
(1)変形例1
例えば、立体画像を観察中の観察者が、3D効果を強める3D拡大モードを選択できる形態であってもよい。例えば観察者は、前述のリモコンを操作することで、3D拡大モードを選択することができる。そして、3D拡大モードが選択された場合、視差量制御部127は、立体画像の視差量(観察者に対応付けられた制御視差量)を、その直前の1.5倍まで拡大する制御を行うことができる。なお、3D拡大モードが選択される前に、前述の危険モードであると判定され、立体画像の視差量を低減する制御が行われた後であっても、観察者は、3D拡大モードを選択できる形態であってもよい。ただし、3D拡大モードが選択された後においても、上述の実施形態と同様に、認証された観察者の輻輳角に応じて立体画像の視差量を制御する処理は行われる。
なお、3D拡大モードが選択された後に、危険モードであると判定された場合には、まず同一視差量のまま奥行き側に映像をシフトさせ、観察者の輻輳角をモニターする形態であってもよい。例えば表示部101の表示面の中央を原点(基準点)に設定し、その原点を通る表示面の法線方向をz軸、z軸方向の正側(表示面よりも手前側)を飛び出し側、z軸方向の負側(表示面よりも奥側)を奥行き側とし、視差量制御部127は、同一視差量のまま、飛び出し量と奥行き量との比率が3:7になるように、シフト量を制御することもできる。奥行き側に映像をシフトさせても、危険モードであると判定された場合は、視差量制御部127は、飛び出し量と奥行き量との比率を正規の比率に戻して、視差量を低減する制御を行うという形態であってもよい。
同様に、上述の実施形態においても、危険モードであると判定された場合は、立体画像の視差量を低減する前に、まず同一視差量のまま奥行き側に映像をシフトさせ、観察者の輻輳角をモニターする形態であってもよい。
(2)変形例2
以上においては、裸眼式の立体画像表示装置を例に挙げて説明したが、これに限らず、例えば眼鏡式の立体画像表示装置にも本実施形態を適用することができる。図11は、観察者が、眼鏡式の立体画像表示装置2の表示部200に表示される立体画像を観察する様子を示す概念図である。この場合、観察者の輻輳角を正確に計測するためには、例えば図11に示すように、眼鏡102のレンズのうち内側の領域(観察者側の領域)にカメラ112が配置される形態であることが好ましい。眼鏡102を掛けた状態で観察者の顔が撮影された場合、レンズでの光の反射の影響を受けることにより、瞳の位置と向きを精度良く検出できないおそれがあるためである。
また、前述のキャリブレーション処理において、第2特定部132は、観察者に対して、手を伸ばした状態で眼鏡102の所定の位置を見ることを指示する制御を行った後、徐々に眼鏡102を持った手を顔の方に近づけていくことを指示する制御を行い、同時に、観察者に対して、所定の位置(眼鏡102)が二重に見えた時点でリモコンのボタンを押すことを指示する制御を行うこともできる。この場合も、上述の実施形態と同様に、計測部124は、観察者の輻輳角を計測する処理を所定の周期で繰り返し実行し、第2特定部132は、リモコンのボタン操作による入力を受付部130で受け付けた場合、その入力を受け付けた時点で計測部124により計測された輻輳角を、輻輳近点として特定することもできる。
(3)変形例3
なお、上述の実施形態では、ひとりの観察者のみが認証される例を挙げて説明したが、これに限らず、例えば複数の観察者が認証される形態であってもよい。この場合、キャリブレーション処理は、観察者ごとに個別に行われてもよい。また、例えば複数のリモコンが用意されていて、全員のキャリブレーション処理が同時に行われてもよい。
例えば眼鏡式の立体画像表示装置において、複数の観察者が認証された場合は、認証された複数の観察者と1対1に対応する複数の制御視差量のうち、最小の制御視差量が視差量制御部127による制御の対象となる。また、例えばII方式の立体画像表示装置のように、視域内の観察者が位置する領域に応じて視差量を可変に制御可能な場合は、当該領域内に存在する観察者に対応する制御視差量が、視差量制御部127による制御の対象となる。例えばある領域内に、認証された複数の観察者が存在する場合は、その認証された複数の観察者と1対1に対応する複数の制御視差量のうち、最小の制御視差量が視差量制御部127による制御の対象となる。
(4)変形例4
例えば認証されていた観察者が、立体画像の観察を中断してカメラ111の撮影範囲外の領域に移動し(観察位置を離れ)、所定時間経過後に、再び観察位置に戻って立体画像の観察を行うような場合には、視差量制御部127は、当該観察者が観察位置を離れる直前の制御視差量(当該観察者に対応付けられた制御視差量)を制御対象としてもよい。また、例えば認証された観察者が、カメラ111の撮影範囲外の領域に移動した時点(認証されなくなった時点)、または、認証されなくなってから所定時間経過した時点で、当該観察者が観察位置を離れる直前の制御視差量(当該観察者に対応付けられた制御視差量)が破棄される形態であってもよい。この形態では、当該観察者が再び観察位置に戻ってきた場合は、視差量制御部127は、当該観察者に対応する限界視差量を記憶部122から読み出し、読み出した限界視差量と入力視差量の比較結果に応じて、制御視差量を決定し、決定した制御視差量を、認証された観察者に対応付けて記憶部122に登録する制御を行う。以降の処理は、上述の実施形態と同様である。
(5)変形例5
上述の本実施形態では、光線制御部20は、その光学的開口部の延伸方向が、表示パネル10の第2方向(列方向)に一致するように配置される構成(いわゆる垂直レンズ)であるが、これに限らず、例えば光線制御部20は、その光学的開口部の延伸方向が表示パネル10の第2方向(列方向)に対して、所定の傾きを有するように配置される構成(いわゆる斜めレンズ)であってもよい。
(6)変形例6
上述の実施形態では、観察者の輻輳角に応じて、当該観察者が疲労しているか否かを判定しているが、例えば観察者の眼の調節位置(視距離)に応じて、当該観察者が疲労しているか否かを判定し、当該観察者が疲労していると判定した場合は、立体画像の視差量を低減する制御を行うこともできる。この場合、赤外線カメラなどで撮影された画像に映り込んだ観察者の顔画像から、当該観察者の眼の調節反応を計測することにより、当該観察者の眼の調節位置を測定することができる。そして、測定された調節位置と、立体画像の飛び出し位置(または奥行き位置)との差分が閾値以上の場合は、観察者が疲労していると判定することができる。例えば測定された調節位置が、立体画像の視差に相当する飛び出し位置(または奥行き位置)に対して、2倍以上の視差に相当する位置である場合は、観察者が疲労していると判定することもできる。
また、測定された調節位置のゆらぎの変動幅が閾値以上の場合は、観察者が疲労していると判定することもできる。例えば上述の輻輳角の場合と同様に、測定された調節位置の変動幅が、立体画像の飛び出し量(または奥行き量)の2/3以上で、周波数が0.05〜9Hzとなる振動が10秒以上継続する場合は、観察者が疲労していると判断することもできる。
(7)変形例7
上述のテスト画像は、図7のような縦長の棒状の画像に限られるものではなく、例えば図12に示す「*」のようなマークの画像であってもよい。要するに、テスト画像は、キャリブレーション処理の対象となる観察者が、注視し易い態様であればよい。なお、以上の実施形態および変形例は任意に組み合わせることが可能である。
1 立体画像表示装置
10 表示パネル
20 光線制御部
101 表示部
120 画像処理部
121 第1取得部
122 記憶部
123 認証部
124 計測部
125 キャリブレーション部
126 第2取得部
127 視差量制御部
128 判定部
130 受付部
131 第1特定部
132 第2特定部
133 決定部

Claims (10)

  1. 立体画像を表示する表示部と、
    前記立体画像の観察位置を含む空間を撮影した撮影画像を取得する第1取得部と、
    前記第1取得部により取得された前記撮影画像に映り込んだ観察者の輻輳角を計測する計測部と、
    前記計測部により計測された前記輻輳角に応じて、前記観察者が疲労しているか否かを判定する判定部と、
    前記判定部により前記観察者が疲労していると判定された場合、前記立体画像の視差量を低減する制御を行う視差量制御部と、を備える、
    立体画像表示装置。
  2. 前記判定部は、前記立体画像の視差量に対応する視差角と、前記計測部により計測された前記輻輳角との差分が第1基準値以上の場合は、前記観察者が疲労していると判断する、
    請求項1に記載の立体画像表示装置。
  3. 前記判定部は、前記計測部により計測された前記輻輳角のゆらぎの変動幅が第2基準値以上の場合は、前記観察者が疲労していると判定する、
    請求項1または請求項2に記載の立体画像表示装置。
  4. 前記観察者ごとに、顔画像を特定可能な顔特徴情報と、前記観察者が立体視を行うことができる限界の前記視差量を示す限界視差量とを対応付けて記憶する記憶部と、
    前記撮影画像に含まれる顔画像を抽出し、前記記憶部に登録された1以上の前記顔特徴情報の中に、その抽出した顔画像を特定可能な前記顔特徴情報が存在するか否かを判断し、その抽出した顔画像を特定可能な前記顔特徴情報に対応する前記観察者を、前記判定部による判定の対象として認証する認証部と、
    前記限界視差量を決定するキャリブレーション処理を行うキャリブレーション部と、を備え、
    前記キャリブレーション部は、
    前記認証部によって、前記記憶部に登録された1以上の前記顔特徴情報の中に、前記撮影画像に含まれる顔画像を特定可能な前記顔特徴情報が存在しないと判断された場合、前記撮影画像に含まれる顔画像に対応する未登録の前記観察者の前記限界視差量を決定する前記キャリブレーション処理を行い、
    前記キャリブレーション処理により得られた前記限界視差量を、未登録の前記観察者の顔画像を特定可能な前記顔特徴情報に対応付けて前記記憶部に登録する、
    請求項1に記載の立体画像表示装置。
  5. 入力画像を取得する第2取得部を備え、
    前記視差量制御部は、
    前記認証部により認証された前記観察者に対応する前記限界視差量が、予め設定された前記入力画像の視差量を示す入力視差量よりも大きい場合は、前記入力視差量を、制御の対象となる前記視差量を示す制御視差量として、当該観察者に対応付けて前記記憶部に登録する一方、当該観察者に対応する前記限界視差量が、前記入力視差量よりも小さい場合は、前記限界視差量を、前記制御視差量として当該観察者に対応付けて前記記憶部に登録する、
    請求項4に記載の立体画像表示装置。
  6. 前記視差量制御部は、前記認証部により認証された前記観察者に対応付けられた前記制御視差量と、前記入力画像とに基づいて前記立体画像を生成し、生成した前記立体画像を前記表示部に表示する制御を行う、
    請求項5に記載の立体画像表示装置。
  7. 前記計測部は、前記撮影画像から、前記認証部により認証された前記観察者の顔画像を抽出し、抽出した顔画像を用いて前記輻輳角を計測し、
    前記判定部は、前記計測部により計測された前記輻輳角に応じて、前記認証部により認証された前記観察者が疲労しているか否かを判定し、
    前記視差量制御部は、前記判定部によって、前記認証部により認証された前記観察者が疲労していると判定された場合、当該観察者に対応付けられた前記制御視差量を低減する制御を行う、
    請求項6に記載の立体画像表示装置。
  8. 低減後の視差量が前記入力視差量を下回る量が第3基準値以上である場合、前記キャリブレーション部は、再び前記キャリブレーション処理を行い、当該キャリブレーション処理により得られた前記限界視差量を、最新の前記制御視差量として、前記認証部により認証された前記観察者に対応付けて前記記憶部に登録する、
    請求項7に記載の立体画像表示装置。
  9. 前記キャリブレーション部は、
    前記立体画像を観察する前記観察者が融像できなくなったときの視差量を示す融象限界の計測に用いるテスト画像の視差量を変化させて、前記観察者の前記融像限界を特定する制御を行う第1特定部と、
    前記観察者に対して、前記輻輳角が増大していくように視点を向けさせる制御を行い、前記観察者が両眼を寄せることができる限界の前記輻輳角を示す輻輳近点を特定する制御を行う第2特定部と、
    前記第1特定部により特定された前記融像限界と、前記第2特定部により特定された前記輻輳近点とに基づいて前記限界視差量を決定する決定部と、を備える、
    請求項4に記載の立体画像表示装置。
  10. 前記第1特定部は、前記テスト画像の視差量を増加させていき、前記テスト画像を観察する前記観察者が融像できなくなったときの前記テスト画像の視差量を、当該観察者の前記融像限界として特定する制御を行う、
    請求項9に記載の立体画像表示装置。
JP2012255230A 2012-11-21 2012-11-21 立体画像表示装置 Withdrawn JP2014103585A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012255230A JP2014103585A (ja) 2012-11-21 2012-11-21 立体画像表示装置
US14/041,866 US20140139647A1 (en) 2012-11-21 2013-09-30 Stereoscopic image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012255230A JP2014103585A (ja) 2012-11-21 2012-11-21 立体画像表示装置

Publications (1)

Publication Number Publication Date
JP2014103585A true JP2014103585A (ja) 2014-06-05

Family

ID=50727554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012255230A Withdrawn JP2014103585A (ja) 2012-11-21 2012-11-21 立体画像表示装置

Country Status (2)

Country Link
US (1) US20140139647A1 (ja)
JP (1) JP2014103585A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017014135A1 (ja) * 2015-07-21 2018-04-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、疲労度評価方法、及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI1007918A2 (pt) 2009-02-05 2016-02-23 Hoya Corp métodos de projeto de lente de óculos, de avaliação de lente de óculos, e de fabricação de lente de óculos, sistema de fabricação de lente de óculos, e, lentes de óculos
WO2012014810A1 (ja) * 2010-07-27 2012-02-02 Hoya株式会社 眼鏡レンズの評価方法、眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズの製造システム、及び眼鏡レンズ
JP5172991B2 (ja) * 2011-05-30 2013-03-27 株式会社東芝 三次元映像処理装置および鑑賞位置チェック方法
CN104967837A (zh) 2015-06-30 2015-10-07 西安三星电子研究有限公司 用于调整三维显示效果的设备和方法
JP7207954B2 (ja) * 2018-11-05 2023-01-18 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
US11238316B2 (en) 2019-12-04 2022-02-01 Roblox Corporation Detection of counterfeit virtual objects
US11321856B1 (en) 2020-12-18 2022-05-03 Roblox Corporation Detection of inauthentic virtual objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017014135A1 (ja) * 2015-07-21 2018-04-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、疲労度評価方法、及びプログラム

Also Published As

Publication number Publication date
US20140139647A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
JP2014103585A (ja) 立体画像表示装置
US11109015B2 (en) Display apparatus, display apparatus driving method, and electronic instrument
US8657444B2 (en) Visual function testing device
US8629870B2 (en) Apparatus, method, and program for displaying stereoscopic images
US8203599B2 (en) 3D image display apparatus and method using detected eye information
JP6061852B2 (ja) 映像表示装置および映像表示方法
WO2019105323A1 (zh) 显示模组、头戴式显示设备及图像立体显示方法和装置
JP2016110147A (ja) 眼追跡に基づくホログラフィック表示方法及びホログラフィック表示装置
US10681339B2 (en) Surgical microscope, image processing device, and image processing method
JP2006267578A (ja) 立体画像表示装置及び方法
JP2014044396A (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
US9905143B1 (en) Display apparatus and method of displaying using image renderers and optical combiners
US9420946B2 (en) Information provision device, information provision system, server, information provision method and program
KR101650706B1 (ko) 웨어러블 디스플레이장치
JP6767481B2 (ja) ライトフィールド顕微鏡法を用いる眼科手術
KR100751290B1 (ko) 헤드 마운티드 디스플레이용 영상 시스템
US8849012B2 (en) Image processing apparatus and method and computer readable medium having a program for processing stereoscopic image
JP4977278B1 (ja) 画像処理装置、立体画像表示装置および画像処理方法
KR20130068851A (ko) 입체영상 깊이감 측정 장치 및 방법
JP2012244466A (ja) 立体画像処理装置
TW201223244A (en) Method and system for displaying stereoscopic images
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
WO2012176683A1 (ja) 画像表示装置および画像表示システム
JPWO2012131937A1 (ja) 測定装置、立体画像表示装置及び測定方法
JP2014135590A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140919