JP2012010085A - 立体表示装置及び立体表示装置の制御方法 - Google Patents

立体表示装置及び立体表示装置の制御方法 Download PDF

Info

Publication number
JP2012010085A
JP2012010085A JP2010143867A JP2010143867A JP2012010085A JP 2012010085 A JP2012010085 A JP 2012010085A JP 2010143867 A JP2010143867 A JP 2010143867A JP 2010143867 A JP2010143867 A JP 2010143867A JP 2012010085 A JP2012010085 A JP 2012010085A
Authority
JP
Japan
Prior art keywords
unit
viewing area
viewing
display device
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010143867A
Other languages
English (en)
Inventor
Kazunari Yoshifuji
一成 吉藤
Takanori Ishikawa
貴規 石川
Harukazu Komoriya
陽多 小森谷
Isao Ohashi
功 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010143867A priority Critical patent/JP2012010085A/ja
Priority to US13/064,577 priority patent/US8648876B2/en
Priority to TW100113405A priority patent/TWI439120B/zh
Priority to CN2011101639593A priority patent/CN102300110A/zh
Priority to KR1020110059089A priority patent/KR20110140090A/ko
Publication of JP2012010085A publication Critical patent/JP2012010085A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Abstract

【課題】視域内で視聴できる頻度を高める。
【解決手段】立体表示装置100は、複数の視点画像を周期的に配置して表示する立体ディスプレイ100aと、立体ディスプレイ100aの画素面の前に配置され、該立体ディスプレイ100aからの光を分離させるパララックスバリアとを具備し、観察者の位置情報を取得する位置情報取得部120と、視域を算出する視域算出部150と、観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定する目標視域算出部160と、複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部170とを有する。
【選択図】図1

Description

本発明は、立体映像を視聴可能な立体表示装置及び立体表示装置の制御方法に関する。
近年、眼鏡を用いて左右眼に互いに異なった偏光状態に基づいた視点画像(あるいは視差画像)を導光することにより立体映像の視聴を可能とする眼鏡方式の立体ディスプレイが広がり始めている。さらに眼鏡を用いることなく、立体画像の視聴を可能とする裸眼方式の立体ディスプレイが開発されつつあり、注目を集めている。
眼鏡方式の立体ディスプレイにおける立体画像の提示方法としては、パララックスバリアやレンチキュラーレンズ等のパララックス素子を用いて複数の視点画像のうち所定の視点画像を視聴者の眼球に導光する方法が提案されている。パララックスバリアを用いた立体表示装置では、パララックスバリアの開口部を通過する光線により構成される映像が両眼で異なる視点画像となるように構成されている。
裸眼用の立体表示装置の場合、特殊な眼鏡を用いないで立体視できるという利点がある一方、次のような課題もある。図17に示したように、液晶のディスプレイ100a上の画素には、各視点画像が周期的(視点1,2,3,4,1,2,3,4、・・・)に配置されている。このため、各周期の境界部分、つまり、4つの映像データの周期の切れ目(視点4と視点1)では、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視が発生する。逆視領域では、視聴者には立体画像の手前と奥とが反転した映像を知覚する、あるいは不自然に融合して見えるという違和感のある不快な逆視現象が生じる。
逆視現象に対して少しでも視聴者の不快感を取り除こうとする試みが提案されている(たとえば、特許文献1、2参照)。特許文献1では、視聴者の位置等を検出し、その位置情報に基づいて光学的な制御を施すことにより、逆視現象に対する視聴者の不快感を軽減する。特許文献2では、視聴者の視点位置の表示パネルの所定の軸に対する回転角を検知し、回転角に基づいて表示パネルにおける右目用の入力画像の表示位置と左目用の入力画像の表示位置との入れ替え制御を行うことにより、逆視現象に対する視聴者の不快感を軽減する。
特許第3544171号公報 特開2008−170841号公報
しかし、特許文献1、2のいずれの方法も、裸眼用の立体ディスプレイが通常のテレビのようにリビングに設置され、通常の場合複数の視聴者が存在する場合を考慮して、視聴者が逆視現象の不快感を軽減するための有効な解決策を提案することはできていない。また、逆視現象は、裸眼用立体表示装置において原理的に生じるものであるため根本的な解決は難しい。よって、特別な装置を使わずに、視聴者が逆視現象の影響を受けない視域内で視聴できる頻度を高める制御方法を提案することが実質的な解決法となる。
上記課題に対して、本発明の目的とするところは、立体表示装置において、立体画像を視聴する際、観察者が視域内で視聴できる頻度を高めることが可能な、新規かつ改良された立体表示装置及び立体表示装置の制御方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、観察者の位置情報を取得する位置情報取得部と、視域を算出する視域算出部と、前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定する目標視域算出部と、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、を備える立体表示装置が提供される。
かかる構成によれば、立体表示装置において、観察者の位置情報及び視域に基づき、視域内に存在する観察者の数に応じて目標視域が算出される。そして、複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置が選択される。これにより、観察者が立体画像を視聴する際、視聴位置を移動することなく視域内で視聴できる頻度を高めることができる。
前記目標視域算出部は、前記視域内に存在する観察者が最大となるように前記目標視域を算出してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、視域を算出する視域算出部と、観察者の属性情報を保持する属性情報保持部と、観察者に対応した属性情報を前記属性情報保持部から選択し、該選択された属性情報に基づき、目標視域を算出する目標視域算出部と、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、を備える立体表示装置が提供される。
観察者の顔認識を行う顔認識部を更に備え、前記目標視域算出部は、前記顔認識された観察者に対応した属性情報を前記属性情報保持部から選択し、該選択された属性情報に基づき、目標視域を算出してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、視域を算出する視域算出部と、観察者の指示から特定される属性情報に基づき、目標視域を算出する目標視域算出部と、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、を備える立体表示装置が提供される。
観察者の顔認識を行う顔認識部を更に備え、前記目標視域算出部は、前記顔認識された観察者の指示から特定される属性情報に基づき、目標視域を算出してもよい。
前記顔認識された観察者による指示は、前記立体ディスプレイのリモコン操作を用いて行われてもよい。
前記多視点画像制御部は、前記目標視域に最も近似する視域の視点画像の表示を選択してもよい。
前記目標視域算出部は、適切な目標視域が算出可能であると判定した場合、前記目標視域を算出してもよい。
前記目標視域算出部は、適切な目標視域が算出不可能であると判定した場合、前記多視点画像制御部に通知してもよい。
前記立体ディスプレイは、その一部又は全部において2D表示が可能であり、前記多視点画像制御部は、前記通知に応じて前記選択された視点画像を前記立体ディスプレイに2D表示してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置の制御方法であって、観察者位置情報取得部が、観察者の位置情報を取得するステップと、視域算出部が、視域を算出するステップと、目標視域算出部が、前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定するステップと、多視点画像制御部が、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択するステップと、を含む立体表示装置の制御方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、観察者の位置情報を取得する位置情報取得部と、前記複数の視点画像を立体映像として観察できる領域を算出する視域算出部と、前記観察者の位置情報及び前記領域に基づき、前記表示部を中心として前記領域を回転させた領域内に存在する観察者の数が最大となる領域を設定する目標視域算出部と、前記複数の視点画像の配置を入れ替えた際に与えられる各領域のうち、前記目標視域算出部で設定された領域に類似する領域を与える視点画像の配置を選択する多視点画像制御部とを備える立体表示装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、光源と、複数の視点画像を周期的に配置して表示する表示部と、前記表示部と前記光源との間に配置され、前記光源からの光を分離させる光分離部とを有する立体表示装置であって、観察者の位置情報を取得する位置情報取得部と、視域を算出する視域算出部と、前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定する目標視域算出部と、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、を備える立体表示装置が提供される。
以上説明したように、本発明によれば、立体表示装置において、観察者は、視域内で視聴できる頻度を高めることができる。
本発明の第1実施形態に係る立体表示装置の機能構成図である。 第1〜第5実施形態に係る立体ディスプレイとパララックスバリアとの概略構成を説明するための図である。 第1〜第5実施形態に係る視域と視点の周期性との関係を示した図である。 視聴者の位置検出結果の一例を示した図である。 視域と視聴者との位置関係を説明するための図である。 視域を回転させた後の視域と視聴者との位置関係を説明するための図である。 表示画像の入れ換えによる視点画像の表示変化を説明するための図である。 第1実施形態に係る立体表示装置の処理フローを示した図である。 本発明の第2〜第4実施形態に係る立体表示装置の機能構成図である。 第2実施形態に係る立体表示装置の処理フローを示した図である。 第3実施形態に係る立体表示装置の処理フローを示した図である。 第4実施形態に係る立体表示装置の処理フローを示した図である。 第5実施形態に係る立体表示装置の機能構成図である。 第5実施形態に係る立体ディスプレイ上の2D表示エリアを示した概略図である。 第5実施形態に係る立体表示装置の処理フローを示した図である。 第5実施形態に係るOSD画像の表示例1を示す。 第5実施形態に係るOSD画像の表示例2を示す。 第5実施形態に係るOSD画像の表示例3を示す。 第1〜第5実施形態に係るパララックスバリアを用いた立体ディスプレイの概略構成図である。
以下に添付図面を参照しながら、本発明の各実施形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、本発明の実施形態は次の順序で説明される。
<第1実施形態>
[立体表示装置の概略構成]
[立体表示装置の機能構成]
[立体表示装置の動作]
<第2実施形態>
[立体表示装置の機能構成]
[立体表示装置の動作]
<第3実施形態>
[立体表示装置の動作]
<第4実施形態>
[立体表示装置の動作]
<第5実施形態>
[立体表示装置の機能構成]
(表示画面例)
[立体表示装置の動作]
(表示例1)
(表示例2)
(表示例3)
以下に、第1〜第5実施形態にかかる立体表示装置について説明する。前提として、各実施形態にかかる立体表示装置は、各光源から光を入光させ、コンテンツの複数の視点画像を表示する立体ディスプレイ、及び該立体ディスプレイの画素面の前に配置され、複数の視点画像から右目用の画像及び左目用の画像を分離させる、パララックスバリアやレンチキュラーレンズ等のパララックス素子を有する裸眼用の立体表示装置である。パララックス素子としては、3Dモード固定のパッシブ素子や、2D/3D切り替えが可能なアクティブ素子が考えられるが、各実施形態においては、これらを限定しない。
<第1実施形態>
[立体表示装置の概略構成]
まず、本発明の第1実施形態に係る立体表示装置の概略構成について図2及び図17を参照しながら説明する。本実施形態では、図2に示したように、立体ディスプレイ100aの画素面の前方にパララックスバリア110を置く。視聴者は、パララックスバリア110を通して映像を見るため、正視領域では右目には右目用の画像だけが入り、左目には左目用の画像だけが入る。このようにして右目に見える映像と左目に見える映像とが異なることにより、立体ディスプレイ100aに映し出される映像は立体的に見える。
図17は、パララックスバリアを用いた立体表示装置の上面図を示す。図17では、裸眼用立体表示装置100の液晶ディスプレイ(Liquid Crystal Display)の水平方向の画素が示されている。視点数が4である図17の立体ディスプレイ100aの場合、4つの視点画像をそれぞれ縦に分割し、立体ディスプレイ100aの各画素の位置に周期性を持たせて配置する。図示しない光源からの光を立体ディスプレイ100aに入光させ、立体ディスプレイ100aの前に開口部を有するパララックスバリア110を配置させることにより、1〜4で表示した視点画像をそれぞれ空間的に分離させることができる。これにより、右目用の画像及び左目用の画像を右目及び左目に見せることができる。なお、パララックスバリア110の替わりにレンチキュラーレンズを用いても、同様に裸眼で右目用、左目用の映像を分離させることができる。パララックスバリアやレンチキュラーレンズ等のように、立体ディスプレイ100aからの光を分離させる機構を光分離部とも称呼する。
このとき、パララックスバリア110と画像とは同じ周期になっている。左目には左目の視点映像、右目には右目の視点映像が正しく両眼に導光されれば、正しい立体画像を見ることができる。図17では視点2は左目、視点3は右目に入るため、正しい映像を見ることができる。
(逆視)
このように裸眼用立体表示装置の場合、特殊な眼鏡を用いないで立体視できるという利点がある。しかし、前述したように立体ディスプレイ100aの各画素に複数の視点画像が周期的に配置されるため、各周期の境界部分では、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視領域が存在する。たとえば図17では、視点画像が1,2,3,4,1,2,3,4、・・・と周期的に配置されるため、4つの映像データの周期の切れ目(視点4、視点1)が、右目に入るべき視点映像が左目に導光され、左目に入るべき視点映像が右目に導光される逆視領域となる。逆視領域では、視聴者には立体画像の手前と奥が反転した映像を知覚する、あるいは不自然に融合して見えるという違和感のある不快な逆視現象が生じる。よって、立体映像では、逆視現象に対する視聴者の不快感を軽減する必要がある。よって、以下の各実施形態では、視聴者が正視領域内で逆視現象の影響を受けずに視聴できる頻度を高める方法を提案する
[立体表示装置の機能構成]
本実施形態に係る立体表示装置の機能構成について図1の機能ブロック図を参照しながら説明する。本実施形態にかかる立体表示装置100は、視聴者位置情報取得部120(位置情報取得部に相当)、多視点画像を入力または生成する多視点画像処理部130、多視点画像を立体ディスプレイ100aに出力する多視点画像出力部140、裸眼立体ディスプレイ100aの持つ設計値と多視点画像出力部140からの出力状況から視域を算出する視域算出部150、視聴者位置算出部122からの算出結果から目標視域を算出する目標視域算出部160、視域算出部150の算出結果および目標視域算出部160の算出結果を用いて多視点画像出力部140を制御する多視点画像制御部170を有する。視聴者位置情報取得部120は、カメラ200が撮像したデータから視聴者の顔を認識する顔認識部121及び顔認識部121から視聴者の位置と距離を算出する視聴者位置算出部122を有する。
顔認識部121は、裸眼用立体ディスプレイ100aの視聴者を撮像するカメラ200を用いて、カメラ200が撮像したデータから視聴者の顔を認識する。市販のデジタルスチルカメラにおいて、顔を検出してフォーカシングするといった機能を持つものがあるように、顔検出技術が既存技術として存在する。また、テンプレートと比較することにより撮像された顔を識別する顔認識の技術も既存技術として存在する。各実施形態では、このような公知の顔認識技術を使うことができる。なお、CPUとソフトウェアの構成を用いて顔認識制御が可能である。
カメラ200はディスプレイ100aの視聴者の顔を検出しやすい位置に設置しておく。例えば、カメラ200は、裸眼用立体ディスプレイ100aの映像表示部分の上部または下部中央に設置され、視聴者が存在する方向を撮像する。カメラ200の仕様としては、Webカメラのような(例えば解像度800×600 30fps)の動画像を撮像できるものを仕様してもよい。撮像画角は、視聴領域をカバーするため、広角であることが望ましい。市販のWebカメラでは80度前後の画角を持つものがある。なお、一般的に距離計測を行うためには2台以上のカメラが必要であるが、1台のカメラでも物体認識技術により距離情報を取得することが可能である。
このようにして、顔認識部121は、撮影した画像データから顔検出機能により、カメラ200から各視聴者が存在する方向を検出する。視聴者位置算出部122は、顔認識部121により認識された視聴者の顔から視聴者の位置と距離を算出する。例えば、視聴者位置算出部122は、顔認識部121による「顔検出」機能により検出されたカメラ200から各視聴者の方向に基づき、カメラ200から視聴者までの距離を測定する。これにより、視聴者位置情報取得部120は視聴者の顔認識により視聴者の位置情報を検出し、視聴環境における視聴者の位置を特定することができる。視聴者位置算出部122により行われる距離の測定方法として、大きく次の2つが考えられる。
<距離測定方法1>
視聴者は、ある決められた位置(例えば画面中央より2mの位置)に移動し、その位置においてカメラと用いて顔を撮影する。そのときに撮像される顔画像の大きさを基準とする。基準画像の撮像は、コンテンツ視聴前に初期設定としての処理を行う。より具体的には、視聴者位置算出部122は、視距離に対する画像上の平均的な顔の大きさを予め調べておき、図示しないデータベースやメモリに記録しておく。検出した視聴者の顔画像の大きさとデータベースやメモリ内のデータとを比較し、対応する距離データを読み出すことで、視聴者の位置情報及びディスプレイ100aから視聴者までの距離情報を取得することができる。カメラ200の設置位置は固定されているので、検出された顔が位置する画像上の座標情報から、ディスプレイ100aに対する視聴者の相対位置情報を取得することも可能である。なお、これらの処理は視聴者が複数人数存在しても動作させることができる。また、データベースやメモリは、立体表示装置100に内蔵していてもよく、外部に保持していてもよい。
<距離測定方法2>
顔認識部121により視聴者の左右の眼の検出が可能である。カメラ200により撮像された左右の眼のそれぞれの重心位置の距離を算出する。一般に、裸眼用の立体ディスプレイには、設計視距離がある。また、人間の左右の瞳孔間距離(眼間距離)は平均65mmといわれている。瞳孔間距離65mmの視聴者がカメラ200から「設計視距離」だけ離れたときを基準とし、顔認識部121による顔認識動作の際には、算出された左右の眼の重心位置の距離から視聴者までの距離を算出する。
例えば、瞳孔間距離が65mmより大きい人の顔認識をした場合、実際の距離より近い距離を算出してしまうが、本実施形態にかかる裸眼用の立体表示装置100は、ある瞳孔間距離を想定して光学設計されるため問題にない。よって、前述の顔認識部121と上記距離測定方法により、視聴空間内における視聴者の位置を算出することができる。
多視点画像処理部130は、2視点以上の多視点の視点画像を入力又は生成する。図17であれば、4視点の画像が処理されることになる。本実施形態における裸眼用の立体表示装置100では、表示視点数分の画像を直接入力しても良く、また、表示視点数未満の画像を入力し、本多視点画像処理部130内で新たな表示視点画像を生成しても良い。
多視点画像出力部140は、多視点画像制御部170からの制御信号を受け、多視点画像を立体ディスプレイ100aに出力する。多視点画像出力部140は、多視点画像制御部170からの制御に基づき、視点画像の入れ替え動作を行い、立体ディスプレイ100aに出力する。なお、多視点画像制御部170による制御内容については、後述する。
一般の2次元の表示装置における「視域」を、ディスプレイが表示する画像を正常に視聴できる領域とするならば、裸眼用の立体表示装置における「視域」は、裸眼立体ディスプレイ100aが表示する画像を正常に立体映像として視聴できる所望の領域(正視領域)である。視域は、裸眼の立体表示装置の持つ設計値や映像コンテンツ等を一例とした複数の要因によって定まる。また、前述の通り、裸眼ディスプレイ特有の「逆視」という現象があり、視聴する位置によっては「逆視」を観察する場合がある。視域(正視領域)に対して逆視を観察する領域を逆視領域という。
逆視では、前述のとおり、左眼に入るべき映像が右目に、右目に入るべき映像が左目に入る状態であるため、コンテンツが意図する視差に対して、反転した視差が視聴者の眼に入力されることになる。さらに、立体ディスプレイ100aが表示する視点数が多いほど、正常に立体映像を観察している場合に比べ、逆視観察時の視差量が大きくなるため、非常に不快な画像となる。よって、視聴者が逆視を観察することはできるだけ避けたい。
前述の通り、パララックス素子を用いた裸眼の立体表示装置には、設計視距離というものが存在する。例えば、設計視距離を2mとした場合、ディスプレイから2m付近に水平方向に立体映像として視聴できる領域が存在する。しかし、水平方向にある一定間隔毎に「逆視」を観察する領域が存在する。パララックス素子を用いた裸眼の立体表示装置においては原理的に発生する現象である。画面全領域に視差を持つ画像を表示する場合は、設計視距離付近よりも近づいたり、遠ざかったりすると、画面内に必ず一箇所以上、逆視となって見える箇所が発生する。一方、画面中央付近のみに視差を持つ画像を表示する場合は、設計視距離付近よりある程度近づいたり離れたりしても、設計視距離付近と同様に、ある一定間隔で逆視領域が存在する。図3に視域の例を示す。前述したように複数の視点画像は立体ディスプレイ100aの各画素に周期的に配置されている。その周期の境界付近は逆視領域になり、周期の境界間にて周期間毎に視域A1、A2、A3・・・が存在する。図3に一例を示したような視聴空間内における視域は、光学的設計条件等に基づき視域算出部150により算出される。
目標視域算出部160は、視聴者位置情報取得部120により算出された視聴者の位置情報および視域算出部150により算出された視域を用いて、「目標視域」を算出する。前述したように、視聴空間における視聴者の存在する位置情報は、視聴者位置情報取得部120により検出することができる。また、視聴空間における視域は、所望の条件に基づき視域算出部150により算出される。視聴者位置情報取得部120の処理による視聴者の位置検出結果を図4に示す。図4の「α」は、カメラ200の角度であり、角度αの範囲で視聴者が存在する位置(図4では視聴者の存在する位置P1、P2、P3)を検出することができる。以下では、視域算出部150により算出された視域として図3に示した視域A1、A2・・・を使用して説明する。
目標視域算出部160は、図3に示した視域A1、A2、A3と図4に示した位置P1、P2、P3との座標軸を合わせることにより、視域A1、A2、A3と視聴者P1、P2、P3との位置関係を図5のように割り出す。目標視域算出部160は、視域外に存在する視聴者の人数をカウントする。その結果、もし視域外に存在する視聴者が1人以上存在する場合、目標視域算出部160は、視域を画面中央を中心として視域を所望の角度ずつ回転させ、1回転毎に視域に存在する視聴者数をカウントする。
回転角度は、画面中央を視点に逆視から逆視までの区間(周期の境界間)の角度分だけ回転させればよい。たとえば、設計視距離2m、設計視距離における視点間隔を65mm、視点数を9視点とすると、16°程度となる。目標視域算出部160は、角度を16°ずつ回転させながら、視域内に存在する視聴者数が最大となったときの視域を「目標視域」とする。
例えば、図5の状態では、全視聴者数3人(P1、P2、P3)のうち、1人の視聴者P1のみ視域A2の内部に存在しているという状況であったが、画面中央を中心として視域を16°ずつ回転させることにより、図6のように3人の視聴者P1、P2、P3を視域A3〜A5の内部に存在させることができる。
ここでは、図3を画面中央付近において出力される視点画像の初期状態とする。この視点画像の割り当ては、図2のパララックス素子(パララックスバリア110)と表示デバイス(立体ディスプレイ100a)への画像マッピングによって決まる。画像マッピングは、視点毎に表示デバイス(立体ディスプレイ100a)内の表示位置が決まっている。したがって、立体ディスプレイ100aへのマッピングでは表示画像を入れ替えることによって、視点画像の表示を変えることができる。9視点の場合、図7に示したように、9通りの表示が考えられる。つまり、視点数分の表示方法が存在する。多視点画像制御部170は、視点数分の表示をさせた際の視域と前記「目標視域」とを比較し、「目標視域」に最も近くなる表示を選択する。図7では、多視点画像制御部170は、9通りの表示をさせた際の視域と前記「目標視域」とを比較し、「目標視域」に位置関係が最も近似する視域の視点画像の表示を選択する。多視点画像制御部170は、「目標視域」に位置関係が最も近似する視域の視点画像の表示を選択することが最も好ましいが、「目標視域」に位置関係が類似する視域の視点画像の表示を選択すれば最も近似していなくてもよい。その選択結果は多視点画像出力部140に伝えられる。多視点画像出力部140は、選択された視点画像の表示を立体ディスプレイ100aに出力する。以上の動作により、視域内の視聴者数を最大とすることができ、ユーザに快適な立体映像の視聴環境を提供することができる。
[立体表示装置の動作]
次に、本実施形態に係る立体表示装置の全体動作について、図8の処理フローを参照しながら説明する。図8で処理が開始されると、カメラ200は視聴環境を撮像し、顔認識部121は撮像空間内の顔を検出する(S805)。
次に、視聴者位置算出部122は、視聴者空間内の視聴者の位置を検出する(S810)。次に、視域算出部150は、その時点でのマッピング(モード0)における視域を算出する(S815)。
次に、目標視域算出部160は、視域外(逆視領域)の視聴者数が1以上であるかを判定し(S820)、視域外(逆視領域)の視聴者数が1未満と判定された場合、視点画像の入れ替えの必要はないため、マッピングモード0を目標視域として算出する(S825)。
一方、視域外(逆視領域)の視聴者数が1以上の場合、目標視域算出部160は、マッピングモードkにおける視域を算出する(S830)。視点が9の場合、マッピングモードkの初期値は9になる。次に、目標視域算出部160は、マッピングモードkにおける視域内にいる視聴者の数(observer_cnt(k))をカウントとする(S835)。次に、目標視域算出部160は、マッピングモードkの値を1減算し(S840)、マッピングモードkが0か否かを判定する(S845)。
kが0でない場合には、目標視域算出部160は、S830〜S845の処理を繰り返す。一方、kが0の場合には、目標視域算出部160は、視聴者の数(observer_cnt(k))が最大となるマッピングモードkを選択し、そのマッピングモードkを目標視域として出力する(S850)。
なお、処理フローには図示していないが、目標視域として出力されたマッピングモードkに応じて、多視点画像制御部170は、多視点画像処理部130により生成された視点数分の画像を表示させた際の視域と前記「目標視域」とを比較し、「目標視域」に最も近くなる視点画像の表示を選択する。多視点画像出力部140は、選択された視点画像を立体ディスプレイ100aに表示する。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、視聴者の位置検出やパララックス素子の光学的な制御の精度レベルを高くする必要がなく、視聴者の位置に合わせて視聴者が視聴しやすいように視域を制御することができる。このため、立体画像の視聴の際、視聴位置を移動することなく、簡便に視聴者に対して快適な立体映像の視聴環境を提供することができる。
<第2実施形態>
[立体表示装置の機能構成]
次に、第2実施形態について説明する。第2実施形態では、属性情報に基づき視聴者の優先度を考慮して視聴者の位置に合わせて視域を制御する。以下、本実施形態にかかる立体表示装置について詳述する。
[立体表示装置の機能構成]
図9に示したように、本実施形態にかかる立体表示装置100の機能構成は、図1に示した第1実施形態にかかる立体表示装置100の機能構成と基本的に同様であるため、重複記載はせず、ここでは、第1実施形態にかかる立体表示装置100の機能構成に追加された属性情報保持部180及び制御部190の機能構成を説明する。
本実施形態では、属性情報保持部180は、属性情報を保持する。制御部190は、リモコン操作等による視聴者の指示に応じて立体映像を視聴する前に視聴者の属性情報を属性情報保持部180に登録する。具体的には、制御部190は、視聴者をカメラ200が撮像できる位置に移動させ、視聴者のリモコン300の操作等を通じて顔認識部121に顔認識の動作をさせる。次に、制御部190は、顔認識部121によって認識される結果と識別子との対応付けを行う。例えば、リモコン300等を通じて、視聴者の識別子として視聴者に視聴者の名前を入力させるという方法が考えられる。複数人の視聴者を登録する場合は、優先度も登録する。
たとえば、顔認識の結果、お父さん、お母さん、子供の3人の顔が認識されたとする。この場合、制御部190は、お父さんの顔認識情報と名前と優先度とを対応付けて属性情報保持部180に登録する。視聴者の名前及び優先度は視聴者の属性情報の一例である。お母さん、子供に関する属性情報も同様に予め属性情報保持部180に記憶されている。
属性情報保持部180への登録動作は、ガイド等を画面に表示させ、リモコン等を通じて視聴者が一人ずつインタラクティブに行う。登録後、顔認識部121により認識された視聴者の顔つまり人物と、名前や優先度等の属性情報とを対応付けることができる。
本実施形態では、目標視域算出部160は、優先度が高い視聴者を視域に最大限存在させることを基準に目標視域を算出する。例えば、優先度は3段階で設定できるとする。優先度をスコアとして優先度高:3、優先度中:2、優先度低:1とスコア付けし、属性情報保持部180に保持する。
この属性情報は、目標視域算出部160に通知される。目標視域算出部160は、第1実施形態にて視域内の視聴者数をカウントする動作に替えて、視域内の各視聴者の優先度のスコアをカウントし、スコア合計が最大となる視域を「目標視域」と判定する。
[立体表示装置の動作]
次に、本実施形態にかかる立体表示装置の全体動作について、図10に示した処理フローを参照しながら説明する。図10で処理が開始されると、第1実施形態の処理フローと同様にS805〜S845の処理が行われる。S830〜S845の処理が繰り返された後、S845にてkが0の場合には、目標視域算出部160は、属性情報保持部180の保持する属性情報に従い、属性情報保持部180に保持された、視域内の各視聴者の優先度のスコアの合計が最大となるマッピングモードkを選択し、そのマッピングモードkを目標視域として出力する(S1005)。これによれば、例えば属性情報のうちの優先度をスコアとして属性情報保持部180に保持した場合には、優先度を考慮した視域で立体映像を表示することができる。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、視聴者の属性情報に合わせて、例えば優先度の高い視聴者が視聴しやすいように視域を制御することができる。このため、視聴者が移動することなく、視聴者に対して簡便に属性情報に合わせた快適な立体映像の視聴環境を提供することができる。なお、優先度でなく他の属性情報を用いてもよい。
<第3実施形態>
次に、第3実施形態について説明する。第3実施形態では、第2実施形態のように優先度を予め登録するのではなく、ユーザのリモコン動作により、一時的に特定の視聴者の優先度を高くし、特定の視聴者が強制的に視域に入るような動作を実現するものである。以下、本実施形態にかかる立体表示装置について詳述する。なお、本実施形態に係る立体表示装置100の機能構成は、図9に示した第2実施形態と同様であるため説明を省略する。
[立体表示装置の動作]
本実施形態にかかる立体表示装置の全体動作について、図11に示した処理フローを参照しながら説明する。図11で処理が開始されると、第1実施形態の処理フローと同様にS805〜S815の処理が行われる。
次に、視域算出部150は、マッピングモード1〜kにおける視域を算出する(S1105)。ついで、目標視域算出部160は、顔認識部121による視聴環境内の視聴者の顔認識動作が完了している状態において、視聴者のリモコン動作により、視聴環境内の視聴者検出画面を呼び出す。視聴者は、リモコン動作を通じて、視聴者検出画面内の特定の箇所を指定する。たとえば、リモコンを持っている本人を指定する場合は、本人が位置する場所をカーソル等で指定する。目標視域算出部160は、指定された箇所が視域内に収まるように目標視域を算出する。なお、指定された箇所は1箇所でも複数箇所でもよい。また、指定された箇所は視聴者のリモコン操作により指示された属性情報の一例であり、指定する属性情報としては位置だけでなく、女性か男性かの性差や子供か大人かの年代等の指定であってもよい。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、視聴者がリモコン等を通じて指定する箇所が視域に入るように操作することができる。
<第4実施形態>
次に、第4実施形態について説明する。なお、本実施形態に係る立体表示装置100の機能構成は、図9に示した第2実施形態と同様であるため説明を省略する。
[立体表示装置の動作]
本実施形態にかかる立体表示装置の全体動作について、図12に示した処理フローを参照しながら説明する。図12で処理が開始されると、第1実施形態の処理フローと同様にS805〜S845の処理が行われる。
第4実施形態では、S845でマッピングモードkが0であると判定された場合、S1205に進み、目標視域算出部160は、適切な目標視域が算出できるか否かを判定する(S1205)。適切な目標視域が算出できないと判定した場合には、目標視域算出部160は、その旨を示すフラグFに1を代入することによりフラグを立て(S1210)、多視点画像制御部170に通知する(S1215)。なお、この通知を受けた多視点画像出力部140は、立体画像の表示を中止してもよいし、画像をディスプレイに2D表示してもよい。これにより、視聴者は3D映像を見られない環境においても、2D映像を視聴することができる。
一方、S1205にて、適切な目標視域が算出できると判定された場合には、第1実施形態の場合と同様に、目標視域算出部160は、視聴者の数(observer_cnt(k))が最大となるマッピングモードkを選択し、そのマッピングモードkを目標視域として出力する(S850)。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、第1実施形態と同様に視聴者の位置に合わせて視聴者が視聴しやすいように視域を制御することができるため、視聴者は移動することなく、快適に3D映像を視聴することができる。なお、本実施形態において説明した「適切な目標視域が算出できなかった場合」の処理は、実施形態1〜3に適用できる。
目標視域が算出できない場合の例としては、例えば、視聴者数が多く、視点画像をどのように設定しても、「逆視領域における視聴者数が常に2人以上存在する」など、快適な3D環境を提供できないと判断した場合である。
なお、本実施形態において、快適な3D環境を提供できない条件としての前記「2人以上」などの閾値は、ユーザが設定できるようにしても良い。また、第1実施形態に示したように「視域内の視聴者数が最大」となるように制御するか、本実施形態に示したように判定基準を優先するか等のモードの切替も、ユーザが設定できるようにしても良い。
<第5実施形態>
上記第1〜第4実施形態では、立体表示装置側でいかに効果的に逆視を防止するように制御を行うかがポイントであり、視聴者は移動しなかった。これに対して、本実施形態では、逆視は裸眼の立体表示装置100においては原理的に生じるものであるため、根本的な解決は難しいという前提から、正視領域への移動を視聴者自身に促す情報を表示し、視聴者を積極的に正視領域に移動させる点で第1〜第4実施形態と相違する。
[立体表示装置の機能構成]
図13に示したように、本実施形態にかかる立体表示装置100の機能構成は、図1に示した第1実施形態にかかる立体表示装置100の機能構成と基本的に同様である。これに加えて、本実施形態にかかる立体表示装置100では、OSD画像生成部171及び逆視判定部195の機能を有する。多視点画像制御部170及びOSD画像生成部171は視聴者位置情報提示部175に含まれる機能であり、正視領域への移動を視聴者自身に促す位置情報を裸眼立体ディスプレイ上にオンスクリーンディスプレイ(On−Screen Display、OSDとも称呼される。)として提示する。
視聴者位置情報提示部175は、OSD画像生成部171で生成したOSD画像を多視点画像に重畳し、複数視点の裸眼立体ディスプレイ100aにおいて各視点の同じ画素位置に同じOSD画像中の画素を配置するように多視点画像制御部170を制御する。これにより、どの視点から見ても同じ位置には同じ画素を表示することで作成された2D画像が、立体ディスプレイ100aの一部に設けられた2D表示エリアに表示される。これにより、快適な3D視聴位置まで視聴者を誘導するための2D画像を提示する手段として同ディスプレイ100aを使用可能となる。
なお、視域算出部150は、前述の通り、裸眼立体表示装置100の持つ設計値や多視点画像出力状況等から快適に視聴できる位置情報である視域を算出する。逆視判定部195は、算出された視域と視聴者の位置情報とから視聴者が逆視位置にいるか正視位置にいるかを判定する。そして、視域算出部150により算出された、快適に視聴可能な位置情報である視域(正視領域)と視聴者の位置情報との両方を立体ディスプレイ100aに表示する。このようにして正視領域に視聴者を誘導するための情報を提示することにより、視聴者は快適な視聴位置まで簡単に移動することができる。立体ディスプレイ100aへの誘導情報の提示は、そもそも逆視領域内に存在する視聴者のための情報であることを考慮すると、逆視領域での立体映像の表示は明瞭でなく不快感が大きい。このため、誘導情報の提示は立体ディスプレイ100aの2D表示エリアに表示する。
多視点画像処理部130は、右目用画像(L画像)及び左目用画像(R画像)から裸眼用の立体ディスプレイ表示用に多視点画像を生成する機能を有していてもよいが、これに限られず、裸眼立体画像用の多視点映像を入力する機能を有していてもよい。
視聴者位置情報取得部120は、カメラ200およびカメラ200が撮像したデータから視聴者の顔を認識する顔認識部121及び視聴者位置算出部122から構成されている。多視点の裸眼用の立体表示装置において、正視可能な位置である視域は視点数に応じて広がりをもって構成される。このため、視聴者位置情報取得部120は、カメラ200およびカメラの撮像データによる顔認識といったある程度の誤差を含む情報であってもかまわない。また、視聴者位置情報取得部120は、画像処理により立体ディスプレイ100aを視聴する視聴者の位置及び立体ディスプレイ100aに対する視聴者の距離情報も取得できるものとする。
(表示画面例)
図14に、裸眼立体表示装置の立体ディスプレイ100a画面上に表示された2D表示エリアの概略図を示す。ここでは、立体ディスプレイ100aは、3D表示エリア(R)中に2D表示エリア(S)を有している。かかる構成によれば、複数視点から構成される裸眼立体ディスプレイ100aにおいても、各視点画像の同位置に同じ画像を挿入することで、原理的に逆視を生じずに2D画像を提示することができる。よって、視聴者が逆視位置にいたとしても、2D表示エリア(S)に位置情報を提示することにより、視聴者は容易にディスプレイ上の情報を読み取ることが可能となる。表示方法としては、図14のようにディスプレイ面の一部に、正視位置へ誘導するための位置情報を2D表示しても良いし、全画面に2D表示しても良い。また、例えば、3Dコンテンツ視聴中、位置情報を2D表示せず、3Dコンテンツの再生を一時停止した場合や、コンテンツ視聴の開始前に位置情報を2D表示しても良い。
立体ディスプレイ100aの3D表示エリア(R)中に2D表示する方法について説明する。パララックスバリアにオン/オフ機能がない場合、各視点画像の同位置に同じ画像を表示することにより、誘導情報を3D画面中に2D表示することができる。パララックスバリアにオン/オフ機能がある場合(すなわち、液晶バリアの場合)には、光の透過をオン/オフする機能を用いて光を透過状態にすることによりバリア機能をオフさせると、ディスプレイ100aを解像度の高い2D表示画面として用いることができる。液晶バリアのバリア機能がオンのときには、固定バリアの場合と同様に各視点画像の同位置に同じ画像を表示することにより、誘導情報を3D画面中に2D表示することができる。レンチキュラーレンズの場合も同様に固定のレンズ又は可変の液晶レンズがあり、バリアと同様の上記制御により、誘導情報を2D表示することができる。
[立体表示装置の動作]
本実施形態にかかる立体表示装置の全体動作について、図15に示した処理フローを参照しながら説明する。図15で処理が開始されると、第1実施形態の処理フローと同様にS805〜S820の処理が行われる。
すなわち、カメラ200において視聴環境画像を撮像し、撮像データから顔認識部121において画像空間内の顔検出が行われる(S805)。顔検出結果に基づき、視聴者位置算出部122において視聴者位置情報の算出が行われ(S810)、視域算出部150において現在のマッピングにおける視域情報の算出が行われる(S815)。S810及びS815にて算出された視聴者の位置情報および視域情報に基づき、逆視判定部195において逆視判定が行われる(S820)。逆視判定の結果、逆視視聴者数が1未満と判定された場合(S820)、OSD画像の生成をせず、また合成の指示も行わない。すなわち、すべての視聴者が正視領域で視聴しているため、誘導表示を行わないと判定して処理を終了する。
一方、逆視判定の結果、逆視視聴者数が1以上と判定された場合(S820)、逆視判定部195は、OSD画像生成部171に視聴者に正視位置への誘導を促すための画像生成を指示し(S1505)、OSD画像を表示するために多視点画像制御部170に対し、多視点画像に対してOSD画像を挿入する指示(OSD合成指示)を出す(S1510)。これにより、視聴者を正視領域に誘導するためのOSD画像が、立体ディスプレイ100a上に2D表示される(S1515)。
なお、以上の処理フローでは、S820にて逆視視聴者数が1以上と判定された場合にOSDを2D表示するとしているが、S820にて視域外(逆視領域)の視聴者数が1未満と判定され、すべての視聴者が正視領域で視聴している場合であっても確認のためにOSD画像を2D表示してもよい。
(表示例1)
図16Aに2D表示エリアに2D表示されている、誘導情報を有するOSD画像の画像イメージを示す。例えば図16Aでは画面上部に立体ディスプレイ100aを提示し、立体ディスプレイと視域A1,A2,A3と視聴者との位置関係がわかるように2D表示する。また、視域と逆視視聴者と正視視聴者とを区別できるように表示する。たとえば、青は正視位置にいる視聴者、赤は逆視位置にいる視聴者を示し、黄色は視域情報を示すというように色分けしてもよい。
また、表示されている複数の視聴者が識別できるように2D表示される。ここでは、顔認識により各ユーザとマークは一意に紐付けられており、容易にユーザは自身の視聴位置を認識することができる。また、視聴者位置情報取得部120から得られる奥行き情報(ディスプレイ100aからの距離情報)をあわせてユーザに提示することにより、ユーザは容易に自身の位置と正視位置の前後左右の位置関係を認識することができる。また、図16Aに提示するようにユーザ自身がどちらに動けば正視位置にいるかどうかを容易に判断できるよう、矢印等で移動方向を促す情報を提示してもよい。また、その際に複数のユーザが同時に同じ視域内に誘導されないようにしても良い。
(表示例2)
視聴者を正視位置に誘導するためにディスプレイ上に表示する誘導情報は、図16Aのように、ディスプレイ100aが設置されている室内を上部から描く俯瞰図であっても良く、図16B及び図16Cのように、ディスプレイを鏡面のように使用する表示形態でも良い。視聴者の位置を示すために、視聴者の表示は、マークを用いても良く、図16B及び図16Cで例示されるようなCG等で生成したアバターを用いても良く、撮像画像そのものを用いても良い。図16B及び図16Cでは、逆視視聴者B1に「○」、正視視聴者B2に「×」を表示することにより、視聴者が逆視領域にいるか正視領域にいるかを区別する。また、図16B及び図16Cでは、奥にいるユーザの画像を小さく表示することにより奥行き感を表示し、これにより、逆視視聴者は適正位置(視域)をより直感的に認識することができる。
(表示例3)
また、視聴者が正視位置(視域)から動いて逆視位置に入った場合、その視聴者をより効果的に正視位置に誘導するために、ディスプレイ100a上に視聴者を誘導するための位置情報を提示しても良い。図16Cでは、正視エリアを簡単に視覚できるように逆視エリアに斜線を引いている。これにより、逆視視聴者B2は、より簡単に適正位置(視域)へ移動することができる。
以上の表示例1〜3に例示したように、OSD画像による誘導情報を2D表示するタイミングは、リアルタイムに表示することが可能である。また、視聴中に位置情報を表示することでコンテンツの視聴を妨げることがないように、2D表示タイミングを設定してもよい。2D表示しないという設定も可能であり、この場合にはOSD画像による誘導情報は2D表示されない。
視域算出部150は、カメラ200から得られる画像情報(顔認識情報)と第2実施形態に示した図9の属性情報保持部180に基づき属性判定により、視聴者の属性情報として視聴者の識別情報と予め登録された各視聴者の瞳孔間距離(眼間距離)情報を取得することができれば、この情報に基づき視聴者毎により正確な正視位置を算出することができる。
また、カメラ200および上記属性判定によりディスプレイ100aを注視していないユーザがいる環境化においては、そのユーザに対する誘導情報を表示させないことにより表示の簡便化を図っても良い。
逆視位置にユーザがいる場合、そのユーザに向けて音声を発生することで視聴者に移動を促しても良い。また、視聴者毎に予め定められた音色やメロディに従い複数の視聴者に対してそれぞれ独立に逆視領域にいることを示しても良い。
逆視であることを認識していても、ユーザ側が移動を拒否する場合には、第1実施形態〜第4実施形態に示した立体表示装置100の制御方法を用いて、立体ディスプレイ100aへのマッピングを入れ替えた際に得られる複数の視域のうち、複数のユーザが最も視聴しやすい目標視域に最も近い視域の視点画像の表示を選択して立体ディスプレイ100aに出力するようにしてもよい。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、複数人の視聴者が裸眼立体ディスプレイ100aを視聴している状況であっても、従来のようにマーカに目の位置を合わせる等の煩雑な操作を必要とせずに、ユーザに視聴位置の誘導情報を提示するだけで視聴者を正視領域に簡便に誘導し、これにより逆視による不快な視聴環境を軽減することができる。
以上に説明したように、本実施形態にかかる立体表示装置100によれば、複数人の視聴者が裸眼立体ディスプレイ100aを視聴している状況であっても、従来のようにマーカに目の位置を合わせる等の煩雑な操作を必要とせずに、ユーザに視聴位置の誘導情報を提示するだけで視聴者を正視領域に簡便に誘導し、これにより逆視による不快な視聴環境を軽減することができる。すなわち、裸眼3Dディスプレイ上に2D表示するエリアをOSD表示し、その2D表示エリア内にカメラおよび顔認識機能部より得られた視聴者位置情報と、裸眼3Dディスプレイの持つ設計値と多視点画像出力状況から快適に視聴できる位置情報を算出する視域算出部から得られた視域情報とを表示することにより、視聴者に快適な視聴位置である視域への移動を促すことができる。また、上記2D表示エリア内に提示する情報はカメラから得られた画像を元に作成された画像であり、また顔認識機能により各人が識別されたアイコンが表示されることによって、各人が自身の位置が正視であるか逆視であるかを容易に認識することができる。
なお、各実施形態にかかる機能ブロックの各部への指令は、専用の制御デバイスあるいはプログラムを実行するCPU(図示せず)により実行される。よって以上に説明した各処理を実行するためのプログラムは、ROMや不揮発性メモリ(ともに図示せず)に予め記憶されていて、CPUが、これらのメモリから各プログラムを読み出し実行することにより、立体表示装置の各部の機能が実現される。
上記第1〜第5の実施形態において、各部の動作は互いに関連しており、互いの関連を考慮しながら、一連の動作として置き換えることができる。これにより、立体表示装置の実施形態を、立体表示装置の制御方法の実施形態とすることができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、画像処理を用いて視聴者の位置やディスプレイから視聴者までの距離を算出したが、本発明はかかる例に限定されない。例えば、赤外線などを使用して位置情報や距離情報を取得してもよい。ディスプレイ面と視聴者との距離が分かれば、どんな方法を用いてもよい。
また、上記実施形態では、右目に導光される視点映像、右目に導光される視点映像をレンチキュラーレンズやパララックスバリアで制御したが、裸眼で立体映像を視聴できれば、他のどんな機構を用いてもよい。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
100 立体表示装置
100a 立体ディスプレイ
110 パララックスバリア
120 視聴者位置情報取得部
121 顔認識部
122 視聴者位置算出部
130 多視点画像処理部
140 多視点画像出力部
150 視域算出部
160 目標視域算出部
170 多視点画像制御部
171 OSD画像生成部
175 視聴者位置情報提示部
180 属性情報保持部
190 制御部
195 逆視判定部
200 カメラ
210 データベース

Claims (14)

  1. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、
    観察者の位置情報を取得する位置情報取得部と、
    視域を算出する視域算出部と、
    前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定する目標視域算出部と、
    前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、
    を備える立体表示装置。
  2. 前記目標視域算出部は、前記視域内に存在する観察者が最大となるように前記目標視域を算出する請求項1に記載の立体表示装置。
  3. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、
    視域を算出する視域算出部と、
    観察者の属性情報を保持する属性情報保持部と、
    観察者に対応した属性情報を前記属性情報保持部から選択し、該選択された属性情報に基づき、目標視域を算出する目標視域算出部と、
    前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、
    を備える立体表示装置。
  4. 観察者の顔認識を行う顔認識部を更に備え、
    前記目標視域算出部は、前記顔認識された観察者に対応した属性情報を前記属性情報保持部から選択し、該選択された属性情報に基づき、目標視域を算出する請求項3に記載の立体表示装置。
  5. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、
    視域を算出する視域算出部と、
    観察者の指示から特定される属性情報に基づき、目標視域を算出する目標視域算出部と、
    前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、
    を備える立体表示装置。
  6. 観察者の顔認識を行う顔認識部を更に備え、
    前記目標視域算出部は、前記顔認識された観察者の指示から特定される属性情報に基づき、目標視域を算出する請求項5に記載の立体表示装置。
  7. 前記顔認識された観察者による指示は、前記立体ディスプレイのリモコン操作を用いて行われる請求項5又は6に記載の立体表示装置。
  8. 前記多視点画像制御部は、前記目標視域に最も近似する視域の視点画像の表示を選択する請求項1〜7のいずれか一項に記載の立体表示装置。
  9. 前記目標視域算出部は、適切な目標視域が算出可能であると判定した場合、前記目標視域を算出する請求項1〜8のいずれか一項に記載の立体表示装置。
  10. 前記目標視域算出部は、適切な目標視域が算出不可能であると判定した場合、前記多視点画像制御部に通知する請求項1〜9のいずれか一項に記載の立体表示装置。
  11. 前記立体ディスプレイは、その一部又は全部において2D表示が可能であり、
    前記多視点画像制御部は、前記通知に応じて前記選択された視点画像を前記立体ディスプレイに2D表示する請求項10に記載の立体表示装置。
  12. 複数の視点画像を周期的に配置して表示する表示部と、前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置の制御方法であって、
    観察者位置情報取得部が、観察者の位置情報を取得するステップと、
    視域算出部が、視域を算出するステップと、
    目標視域算出部が、前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定するステップと、
    多視点画像制御部が、前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択するステップと、
    を含む立体表示装置の制御方法。
  13. 複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部の画素面の前に配置され、該表示部からの光を分離させる光分離部とを有する立体表示装置であって、
    観察者の位置情報を取得する位置情報取得部と、
    前記複数の視点画像を立体映像として観察できる領域を算出する視域算出部と、
    前記観察者の位置情報及び前記領域に基づき、前記表示部を中心として前記領域を回転させた領域内に存在する観察者の数が最大となる領域を設定する目標視域算出部と、
    前記複数の視点画像の配置を入れ替えた際に与えられる各領域のうち、前記目標視域算出部で設定された領域に類似する領域を与える視点画像の配置を選択する多視点画像制御部と
    を備える立体表示装置。
  14. 光源と、
    複数の視点画像を周期的に配置して表示する表示部と、
    前記表示部と前記光源との間に配置され、前記光源からの光を分離させる光分離部とを有する立体表示装置であって、
    観察者の位置情報を取得する位置情報取得部と、
    視域を算出する視域算出部と、
    前記観察者の位置情報及び前記視域に基づき、視域内に存在する観察者の数に応じて目標視域を設定する目標視域算出部と、
    前記複数の視点画像の配置を入れ替えた際に与えられる各視域のうち、前記目標視域に類似する視域を与える視点画像の配置を選択する多視点画像制御部と、
    を備える立体表示装置。
JP2010143867A 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法 Withdrawn JP2012010085A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010143867A JP2012010085A (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法
US13/064,577 US8648876B2 (en) 2010-06-24 2011-04-01 Display device
TW100113405A TWI439120B (zh) 2010-06-24 2011-04-18 顯示裝置
CN2011101639593A CN102300110A (zh) 2010-06-24 2011-06-17 显示设备
KR1020110059089A KR20110140090A (ko) 2010-06-24 2011-06-17 표시 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010143867A JP2012010085A (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2012010085A true JP2012010085A (ja) 2012-01-12

Family

ID=45352099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010143867A Withdrawn JP2012010085A (ja) 2010-06-24 2010-06-24 立体表示装置及び立体表示装置の制御方法

Country Status (5)

Country Link
US (1) US8648876B2 (ja)
JP (1) JP2012010085A (ja)
KR (1) KR20110140090A (ja)
CN (1) CN102300110A (ja)
TW (1) TWI439120B (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010136A (ja) * 2010-06-25 2012-01-12 Kddi Corp 映像調整装置、テレビ受信装置及びプログラム
JP2012157008A (ja) * 2012-02-10 2012-08-16 Toshiba Corp 立体画像決定装置、立体画像決定方法、および立体画像表示装置
JP2013022247A (ja) * 2011-07-21 2013-02-04 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
JP2013055675A (ja) * 2012-10-23 2013-03-21 Toshiba Corp 映像処理装置および映像処理方法
JP2013192186A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、並びにプログラム
JP2013190713A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、情報処理装置および方法、並びにプログラム
JP2013205780A (ja) * 2012-03-29 2013-10-07 Toshiba Corp 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
JP5343156B1 (ja) * 2012-06-29 2013-11-13 株式会社東芝 検出装置、検出方法および映像表示装置
JP2013254080A (ja) * 2012-06-06 2013-12-19 Sharp Corp 表示装置
JP2017203907A (ja) * 2016-05-12 2017-11-16 国立研究開発法人情報通信研究機構 立体画像観察システム
JP2018508812A (ja) * 2014-12-30 2018-03-29 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動立体マルチビューシステム

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732888B2 (ja) 2011-02-14 2015-06-10 ソニー株式会社 表示装置及び表示方法
JPWO2012131862A1 (ja) * 2011-03-28 2014-07-24 株式会社東芝 画像処理装置、立体画像表示装置、方法およびプログラム
JP2012220840A (ja) * 2011-04-12 2012-11-12 Canon Inc 画像表示装置及び画像表示方法
KR101449748B1 (ko) * 2011-08-18 2014-10-13 엘지디스플레이 주식회사 입체영상 디스플레이장치 및 그 구동 방법
JP5134714B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置
US20130050442A1 (en) * 2011-08-31 2013-02-28 Kabushiki Kaisha Toshiba Video processing apparatus, video processing method and remote controller
JP5156116B1 (ja) * 2011-08-31 2013-03-06 株式会社東芝 映像処理装置および映像処理方法
CN102572484B (zh) * 2012-01-20 2014-04-09 深圳超多维光电子有限公司 立体显示控制方法、立体显示控制装置和立体显示系统
KR101911250B1 (ko) * 2012-03-19 2018-10-24 엘지전자 주식회사 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
US8970390B2 (en) * 2012-08-29 2015-03-03 3M Innovative Properties Company Method and apparatus of aiding viewing position adjustment with autostereoscopic displays
KR101380517B1 (ko) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법
CN102970574A (zh) * 2012-11-21 2013-03-13 深圳市酷开网络科技有限公司 一种基于眼镜的3d智能终端及系统
US9720245B2 (en) * 2012-11-27 2017-08-01 Disney Enterprises, Inc. Content-adaptive lenticular prints
CN102984477B (zh) * 2012-12-20 2015-07-08 华为技术有限公司 视音频信息的处理方法、装置及电视机
EP2765775A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating intermediate view images
TWI502247B (zh) * 2013-02-26 2015-10-01 Chunghwa Picture Tubes Ltd 裸視立體顯示裝置及其顯示方法
CN103149768B (zh) * 2013-03-11 2016-04-20 华映视讯(吴江)有限公司 裸视立体显示装置及其显示方法
KR20140115854A (ko) * 2013-03-22 2014-10-01 삼성디스플레이 주식회사 입체 영상 표시 장치 및 입체 영상 표시 방법
TWI526046B (zh) * 2013-05-29 2016-03-11 惟勤科技股份有限公司 提供觀看者在不同觀看角度下仍可接收到正確立體影像的方法
KR102232621B1 (ko) * 2013-07-30 2021-03-29 삼성디스플레이 주식회사 광 테라피 표시 장치
TWI602144B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝彩色圖框及原始景深圖框之方法、裝置及系統
US10116914B2 (en) * 2013-10-31 2018-10-30 3Di Llc Stereoscopic display
US10652525B2 (en) 2013-10-31 2020-05-12 3Di Llc Quad view display system
US11343487B2 (en) 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
CN104023223B (zh) * 2014-05-29 2016-03-02 京东方科技集团股份有限公司 显示控制方法、装置及系统
US10359806B2 (en) * 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
CN108696742A (zh) * 2017-03-07 2018-10-23 深圳超多维科技有限公司 显示方法、装置、设备及计算机可读存储介质
WO2018181968A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 顔認証システム、装置、方法、プログラム
CN107040773B (zh) * 2017-04-27 2020-12-08 京东方科技集团股份有限公司 一种显示装置及其控制方法
KR102427854B1 (ko) * 2017-09-25 2022-08-01 삼성전자주식회사 영상 렌더링 방법 및 장치
WO2021056177A1 (en) * 2019-09-24 2021-04-01 Citrix Systems, Inc. Systems and methods for screen brightness control and auto-lock based on eye detection
CN112929635A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 裸眼3d显示屏的显示控制方法、多视点裸眼3d显示器
CN113138734A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 用于显示的方法、装置和产品
CN113225548A (zh) * 2021-03-24 2021-08-06 浙江吉利控股集团有限公司 一种非主视角图像获取方法、单帧眼镜和虚拟现实系统
CN113313648B (zh) * 2021-06-01 2023-08-29 百度在线网络技术(北京)有限公司 图像矫正方法、装置、电子设备和介质
CN114356088B (zh) * 2021-12-30 2024-03-01 纵深视觉科技(南京)有限责任公司 一种观看者跟踪方法、装置、电子设备及存储介质
CN114157854A (zh) * 2022-02-09 2022-03-08 北京芯海视界三维科技有限公司 用于显示器的投放对象调整方法、装置及显示器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
JP3443272B2 (ja) * 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
JP3544171B2 (ja) 2000-06-20 2004-07-21 キヤノン株式会社 立体画像表示装置
JP2008170841A (ja) 2007-01-15 2008-07-24 Epson Imaging Devices Corp 電気光学装置及び電子機器
CN201060370Y (zh) * 2007-05-29 2008-05-14 南昌大学 一种具有环视功能的裸眼立体显示器
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009130699A2 (en) * 2008-04-22 2009-10-29 3Ality, Inc. Position-permissive autostereoscopic display systems and methods
TWI527429B (zh) * 2008-10-28 2016-03-21 皇家飛利浦電子股份有限公司 三維顯示系統
US9225975B2 (en) * 2010-06-21 2015-12-29 Microsoft Technology Licensing, Llc Optimization of a multi-view display

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010136A (ja) * 2010-06-25 2012-01-12 Kddi Corp 映像調整装置、テレビ受信装置及びプログラム
JP2013022247A (ja) * 2011-07-21 2013-02-04 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
JP2012157008A (ja) * 2012-02-10 2012-08-16 Toshiba Corp 立体画像決定装置、立体画像決定方法、および立体画像表示装置
JP2013192186A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、並びにプログラム
JP2013190713A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示装置および方法、情報処理装置および方法、並びにプログラム
CN103369332A (zh) * 2012-03-29 2013-10-23 株式会社东芝 图像处理装置、自动立体显示装置以及图像处理方法
JP2013205780A (ja) * 2012-03-29 2013-10-07 Toshiba Corp 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
JP2013254080A (ja) * 2012-06-06 2013-12-19 Sharp Corp 表示装置
JP5343156B1 (ja) * 2012-06-29 2013-11-13 株式会社東芝 検出装置、検出方法および映像表示装置
US9204078B2 (en) 2012-06-29 2015-12-01 Kabushiki Kaisha Toshiba Detector, detection method and video display apparatus
JP2013055675A (ja) * 2012-10-23 2013-03-21 Toshiba Corp 映像処理装置および映像処理方法
JP2018508812A (ja) * 2014-12-30 2018-03-29 シーフロント ゲゼルシャフト ミット ベシュレンクテル ハフツング 自動立体マルチビューシステム
JP2017203907A (ja) * 2016-05-12 2017-11-16 国立研究開発法人情報通信研究機構 立体画像観察システム
WO2017195825A1 (ja) * 2016-05-12 2017-11-16 国立研究開発法人情報通信研究機構 立体画像観察システム
US10571707B2 (en) 2016-05-12 2020-02-25 National Institute Of Information And Communications Technology Three-dimensional image observation system

Also Published As

Publication number Publication date
CN102300110A (zh) 2011-12-28
US8648876B2 (en) 2014-02-11
US20110316881A1 (en) 2011-12-29
KR20110140090A (ko) 2011-12-30
TW201201569A (en) 2012-01-01
TWI439120B (zh) 2014-05-21

Similar Documents

Publication Publication Date Title
JP5494284B2 (ja) 立体表示装置及び立体表示装置の制御方法
JP2012010085A (ja) 立体表示装置及び立体表示装置の制御方法
JP5494283B2 (ja) 立体表示装置及び立体表示装置の制御方法
JP5404246B2 (ja) 3次元映像処理装置及びその制御方法
JP5100875B1 (ja) 視域調整装置、映像処理装置および視域調整方法
JP2008103820A (ja) 立体画像処理装置
JP2012169858A (ja) 表示装置及び表示方法
KR101911250B1 (ko) 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
JP5050120B1 (ja) 立体画像表示装置
US20150226974A1 (en) Stereoscopic-image display apparatus and stereoscopic eyewear
WO2022267573A1 (zh) 裸眼3d显示模式的切换控制方法、介质和系统
JP2013051622A (ja) 映像処理装置
CN109799899A (zh) 交互控制方法、装置、存储介质和计算机设备
JP5132804B1 (ja) 映像処理装置および映像処理方法
JP2012244453A (ja) 画像表示装置、画像表示システム、及び3次元眼鏡
JP5725159B2 (ja) 測定装置、立体画像表示装置及び測定方法
KR101638959B1 (ko) 출력모드 전환방법 및 이를 이용한 디스플레이 장치와 3d 영상 제공 시스템
JP5433763B2 (ja) 映像処理装置および映像処理方法
KR20110136326A (ko) 삼차원 입체안경의 수평각 정보를 반영한 삼차원 스테레오스코픽 렌더링 시스템
JP2011259012A (ja) 立体画像再生装置及び立体画像再生方法
JP2016054415A (ja) 立体撮像装置および立体撮像プログラム
JP5032694B1 (ja) 映像処理装置および映像処理方法
JP5343157B2 (ja) 立体画像表示装置、表示方法、およびテストパターン
JP2006042280A (ja) 画像処理装置
JP2013055665A (ja) 視域調整装置、映像処理装置および視域調整方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903