JP5143291B2 - 画像処理装置、方法、および立体画像表示装置 - Google Patents

画像処理装置、方法、および立体画像表示装置 Download PDF

Info

Publication number
JP5143291B2
JP5143291B2 JP2011544729A JP2011544729A JP5143291B2 JP 5143291 B2 JP5143291 B2 JP 5143291B2 JP 2011544729 A JP2011544729 A JP 2011544729A JP 2011544729 A JP2011544729 A JP 2011544729A JP 5143291 B2 JP5143291 B2 JP 5143291B2
Authority
JP
Japan
Prior art keywords
viewing zone
unit
viewer
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011544729A
Other languages
English (en)
Other versions
JPWO2012144039A1 (ja
Inventor
賢一 下山
雄志 三田
快行 爰島
隆介 平井
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5143291B2 publication Critical patent/JP5143291B2/ja
Publication of JPWO2012144039A1 publication Critical patent/JPWO2012144039A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

本発明の実施形態は、画像処理装置、方、および立体画像表示装置に関する。
立体画像表示装置では、視聴者は特殊なメガネを使用せずに裸眼で立体画像を観察することができる。このような立体画像表示装置は、視点の異なる複数の画像を表示し、これらの光線を、例えばパララックスバリア、レンチキュラレンズなどによって制御する。制御された光線は、視聴者の両眼に導かれるが、視聴者の観察位置が適切であれば、視聴者は立体画像を認識できる。このように視聴者が立体画像を観察可能な領域を視域という。
しかしながら、このような視域は限定的であるという問題がある。すなわち、例えば、左目に知覚される画像の視点が右目に知覚される画像の視点に比べて相対的に右側となり、立体画像を正しく認識できなくなる観察位置である逆視領域が存在する。
従来、視聴者の位置に応じて視域を設定する技術として、特許文献1や特許文献2が開示されている。
特許文献1には、視聴者の位置をセンサで検出し、視聴者の位置に応じて視域位置を右目用画像と左目用画像との入れ替えによって実現することが開示されている。また、特許文献2には、リモートコントロール装置から発せられた信号を検出し、該信号が発せられた方向に表示装置を回転させることが開示されている。
特許第3443271号公報 特許第3503925号公報
しかしながら、上記従来技術では、立体画像を視聴する視聴者の実際の位置と、設定された視域とがずれることがあり、視聴者は、立体画像を観察することが困難な場合がある。
本発明が解決しようとする課題は、視聴者が、良好な立体画像を容易に観察することができる、画像処理装置、方、および立体画像表示装置を提供することである。
実施形態の画像処理装置は、受信部と、検出部と、算出部と、制御部と、を備える。受信部は、表示部に表示される立体画像を視聴者が観察可能な視域の設定を開始させるための開始信号を受信する。検出部は、前記視聴者を撮像した撮像画像または記憶部から、前記視聴者の位置情報を取得する。算出部は、前記開始信号が受信された場合、前記位置情報に基づいて、前記視域を示す視域情報を算出する。制御部は、前記視域情報に応じた前記視域が設定されるよう、前記表示部を制御する。
実施の形態1の画像処理装置の図。 実施の形態1の表示部の一例の図。 実施の形態1の視域の一例の図。 実施の形態1の視域の制御の図。 実施の形態1の視域の制御の図。 実施の形態1の視域の制御の図。 実施の形態1の視域の制御の図。 実施の形態1の表示制御処理のフローチャート。 実施の形態2の画像処理装置の図。 実施の形態2の表示制御処理のフローチャート。 実施の形態3の画像処理装置の図。 実施の形態3の表示制御処理のフローチャート。 実施の形態4の画像処理装置の図。 実施の形態4の表示制御処理のフローチャート。
(実施の形態1)
実施の形態1の画像処理装置10は、視聴者が裸眼で立体画像を観察することが可能なTVやPC(Personal Computer)等に好適である。立体画像とは、互いに視差を有する複数の視差画像を含む画像である。
なお、実施形態で述べる画像とは、静止画又は動画のいずれであってもよい。
図1は、画像処理装置10の機能的構成を示すブロック図である。画像処理装置10は、立体画像を表示可能である。画像処理装置10は、図1に示すように、受信部12と、算出部14と、制御部16と、表示部18と、を備える。
受信部12は、一又は複数の視聴者が前記立体画像を観察可能な視域の設定を開始させるための開始信号を受信する。受信部12は、有線または無線で受信部12に接続した外部装置(図示省略)から、開始信号を受信してよい。この外部装置としては、例えば、公知のリモートコントロール機器や、情報端末等がある。受信部12は、受信した開始信号を、算出部14へ供給する。
視域とは、表示部18に表示された立体画像を視聴者が観察可能な範囲を示す。この観察可能な範囲は、実空間における範囲(領域)である。この視域は、表示部18の表示パラメータ(詳細後述)の組み合わせによって定まる。このため、表示部18の表示パラメータを設定することで、視域を設定することができる。
表示部18は、立体画像を表示する表示デバイスである。図2に示すように、表示部18は、表示素子20、及び開口制御部26を備える。視聴者33は、開口制御部26を介して表示素子20を観察することで、表示部18に表示される立体画像を観察する。
表示素子20は、立体画像の表示に用いる視差画像を表示する。表示素子20としては、直視型2次元ディスプレイ、例えば、有機EL(Organic Electro Luminescence)やLCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、投射型ディスプレイなどがある。
表示素子20は、例えば、RGB各色のサブピクセルを、RGBを1画素としてマトリクス状に配置した公知の構成であってよい。この場合、第1方向に並ぶRGB各色のサブピクセルが1画素を構成し、隣接する画素を視差の数だけ、第1方向に交差する第2方向に並べた画素群に表示される画像を要素画像30と称する。第1方向は、例えば列方向(垂直方向)であり、第2方向は、例えば行方向(水平方向)である。表示素子20のサブピクセルの配列は、他の公知の配列であっても構わない。また、サブピクセルは、RGBの3色に限定されない。例えば、4色であっても構わない。
開口制御部26は、表示素子20からその前方に向けて発散される光線を、開口部を介して所定方向に向けて出射させる。開口制御部26としては、レンチキュラレンズや、パララックスバリア等がある。
開口制御部26の開口部は、表示素子20の各要素画像30に対応するように配置される。表示素子20に複数の要素画像30を表示すると、表示素子20には、複数の視差方向に対応した視差画像群(多視差画像)が表示される。この多視差画像による光線は、開口制御部26の各開口部を透過する。そして、視域内に位置する視聴者33は、要素画像30に含まれる異なる画素を、左目33Aおよび右目33Bでそれぞれ観察することになる。このように、観察者33の左目33Aおよび右目33Bに対し、視差の異なる画像をそれぞれ表示させることで、視聴者33が立体画像を観察することができる。
次に、表示部18の表示パラメータの組み合わせによって定まる視域について、具体的に説明する。図3は、表示パラメータがある組み合わせであるときの、視域の一例を示す模式図である。図3では、表示部18及び視聴領域Pを上方から俯瞰した状態を示している。視聴領域Pは、視聴者33が表示部18に表示されている画像を観察可能な領域である。図3において、白色の複数の矩形範囲が視域32である。一方、網掛けの領域は視域外の範囲である逆視領域34である。逆視領域34では、逆視やクロストーク等の発生により、良好に立体画像を観察することは困難である。
図3の例では、視聴者33は視域32内に存在するため、視聴者33は、良好に立体画像を観察することができる。
この視域32は、表示部18の表示パラメータの組み合わせによって定まる。図2に戻り、表示パラメータとしては、表示素子20と開口制御部26との相対位置、表示素子20と開口制御部26との距離、表示部18の角度、表示部18の変形、及び表示素子20における画素のピッチ等がある。
表示素子20と開口制御部26との相対位置とは、開口制御部26の開口部の中心に対する、対応する要素画像30の位置を示す。表示素子20と開口制御部26との距離は、開口制御部26の開口部と対応する要素画像30との最短距離を示す。表示部18の角度とは、表示部18を、垂直方向を回転軸として回転させたときの、予め定めた基準位置に対する回転角度を示す。表示部18の変形とは、表示部18本体を変形させることを示す。表示素子20における画素のピッチとは、表示素子20の各要素画像30の画素の間隔を示す。これらの表示パラメータの組み合わせによって、実空間において視域32が設定される領域が一意に定まる。
図4〜図7は、表示部18の各表示パラメータの調整による、視域32の設定位置や設定範囲の制御を説明するための図である。
図4〜図7には、表示部18における表示素子20及び開口制御部26と視域32の関係を示した。また、図4〜図7中には、適宜、各要素画像30部分を拡大した図を示した。
まず、図4を用いて、表示素子20と開口制御部26との距離や、表示素子20と開口制御部26との相対位置を調整することによって、視域32の設定される位置等を制御する場合を説明する。
図4(A)は、表示部18とその視域32(視域32A)の基本的な位置関係を示す。図4(B)は、表示素子20と開口制御部26との距離を図4(A)に比べて短くした場合を示している。
図4(A)及び図4(B)に示すように、表示素子20と開口制御部26との距離を短くするほど、表示部18により近い位置に視域32を設定することができる(図4(A)中、視域32A、及び図4(B)中、視域32B参照)。逆に、表示素子20と開口制御部26との距離を長くするほど、表示部18からより離れた位置に視域32を設定することができる。なお、視域32が表示部18の近い位置に設定されるほど、光線密度は減る。
図4(C)は、表示素子20の開口制御部26に対する相対位置を、図4(A)に比べて右方向(図4(C)中、矢印R方向参照)に移動させた場合を示している。図4(A)及び図4(C)に示すように、表示素子20を開口制御部26に対して相対的に右方向へ移動させると、視域32は左方向(図4(C)中、矢印L方向)に移動する(図4(C)中、視域32C参照)。逆に、表示素子20の開口制御部26に対する相対位置を、図4(A)に比べて左方向に移動させると、視域32は右方向に移動する(不図示)。
次に、図5及び図6を用いて、表示素子20に表示する画素のピッチ(画素の並び)を調整することによって、視域32が設定される位置等を制御する場合を説明する。
図5は、表示部18における、表示素子20の各画素と開口制御部26とを拡大して示す。図6(A)は、表示部18とその視域32(視域32A)との基本的な位置関係を示す。表示素子20の画面の端(右端(図5中、矢印R方向端部)、左端(図5中、矢印L方向端部))ほど、表示素子20の各画素と開口制御部26との位置を相対的に大きくずらす。すると、視域32は、より表示部18に近い位置に移動し、かつ視域32の幅がより狭くなる(図6(B)中、視域32D参照)。なお、視域32の幅とは、各視域32における水平方向の最大長を示す。この視域32の幅は、視域設定距離と称される場合がある。
一方、表示素子20の画面の端ほど、表示素子20の各画素と開口制御部26との位置を相対的にずらす量を小さくする。すると、視域32は、より表示部18から遠い位置に移動し、かつ視域32の幅がより広くなる(図6(C)中、視域32E参照)。
次に、図7を用いて、表示部18の角度、表示部18の変形、表示素子20と開口制御部26との相対位置の調整によって、視域32の設定される位置等を制御する場合を説明する。
図7(A)は、表示部18とその視域32(視域32A)の基本的な位置関係を示す。図7(B)は、表示部18を回転(図7中、矢印P方向)させた状態を示す。図7(A)及び図7(B)に示すように、表示部18を回転して表示部18の角度を調整すると、視域32の位置は、視域32Aから視域32Fへ移動する。
図7(C)は、開口制御部26に対する表示素子20の位置及び方向を調整した状態を示す。図7(C)に示すように、開口制御部26に対する表示素子20の位置及び方向を変更すると、視域32は視域32Aから視域32Gに移動する。
図7(D)は、表示部18全体を変形させた状態を示す。図7(A)及び図7(D)に示すように、表示部18を変形させることによって、視域32は、視域32Aから視域32Hへ変化する。
上述のように、表示部18の表示パラメータの組み合わせによって、実空間において視域32の設定される領域(位置や大きさ等)が一意に定まる。
図1に戻り、算出部14は、受信部12から開始信号を受け付けた場合、視聴者33の位置を示す位置情報に基づいて、該視聴者33が該位置において立体画像を観察可能な視域を示す視域情報を算出する。
視聴者33の位置を示す位置情報は、実空間における位置座標によって示される。例えば、実空間上において、表示部18の表示面の中心を原点とし、水平横方向にX軸、鉛直方向にY軸、表示部18の表示面の法線方向にZ軸を設定する。ただし、実空間上で座標標の設定方法はこれに限定されない。また、上記の前提のもと、図3に示す視聴者33の位置の位置情報は、(X1,Y1,Z1)で示される。なお、本実施の形態では、視聴者33の位置を示す位置情報を、予めメモリ(図示省略)等の記憶媒体に記憶している。すなわち、算出部14は、該メモリから、位置情報を取得する。
該メモリに記憶される視聴者の位置情報は、例えば、画像処理装置10が使用される際の代表的な視聴者33の位置や、視聴者33により予め登録された位置、画像処理装置10の前回使用終了時における視聴者33の位置、製造段階で予め設定された位置等を示す情報であってよい。また、位置情報は、これらに限定されず、これらの情報を組み合わせたものであってもよい。
この位置情報は、視聴領域P(図3参照)内における位置を示す位置情報であることが好ましい。視聴領域Pは、各表示部18の構成によって定まる。なお、視聴領域Pを示す情報についても、予めメモリ(不図示)等の記憶媒体に記憶している。
算出部14は、受信部12から開始信号を受け付けた場合、位置情報によって示される視聴者33の位置において立体画像を観察可能な視域を示す視域情報を算出する。この視域情報の算出は、たとえば、予めメモリ(不図示)内に、上述した各表示パラメータの組み合わせに対応する視域32を示す視域情報を記憶しておく。そして、算出部14は、視聴者33の位置を示す位置情報を視域32に含む視域情報を該メモリから検索することによって、視域情報を算出する。
なお、算出部14は、演算によって視域情報を算出してもよい。この場合には、算出部14は、視聴者33の位置を示す位置情報が視域32に含まれるように、位置情報から視域情報を算出するための演算式をあらかじめメモリ(不図示)に記憶しておく。そして、算出部14は、該位置情報と該演算式を用いて、視域情報を算出する。
また、視聴者33が複数の場合(位置情報が、複数の視域32の位置を示すものである場合)、算出部14は、より多くの視聴者33が視域32内に含まれるように、視域情報を算出することが好ましい。
制御部16は、算出部14が算出した視域情報に応じた視域32を設定するように、表示部18を制御する。すなわち、制御部16は、表示部18の表示パラメータを調整し、該視域32を設定する。具体的には、表示部18には、上述した各表示パラメータを調整するための不図示の駆動部が設けられている。また、制御部16は、予めメモリ(不図示)内に、上述した各表示パラメータの組み合わせに対応する視域32を示す視域情報を記憶している。そして、制御部16は、算出部14で算出した視域情報に対応する表示パラメータの組み合わせを該メモリから読み取り、読み取った各表示パラメータに対応する駆動部を制御する。
これにより、表示部18は、算出部14が算出した視域情報に応じた視域32の立体画像を表示する。
次に、以上のように構成された本実施形態の画像処理装置10による表示制御処理について図8のフローチャートを用いて説明する。
受信部12が開始信号を受信したか否かを判別する。受信部12が開始信号の未受信を判別すると、本ルーチンを終了する(ステップS100:No)。受信部12が開始信号を受信したと判別すると(ステップS100:Yes)、算出部14が、視聴者33の位置情報から視域情報を算出する(ステップS102)。
制御部16は、算出部14で算出した視域情報に応じた視域32が設定されるように、表示部18を制御する(ステップS104)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の画像処理装置10では、受信部12が視域の設定の開始させるための開始信号を受信した場合に、算出部14が、視聴者33の位置情報から、該視聴者33が該位置において立体画像を観察可能な視域32を示す視域情報を算出する。そして、制御部16が、算出された該視域情報に応じた視域32が設定されるように表示部18を制御する。
このように、本実施の形態の画像処理装置10では、視域32の設定(変更も含む)を随時行わず、受信部12が視域32の開始信号を受信した場合に視域32を設定する。これにより、開始信号の受信時以外の期間において、立体画像を視聴中に、誤作動等によって視域32が変更されてしまい、逆視状態を視聴者33に知覚させる可能性を軽減することができる。また、本実施の形態の画像処理装置10では、算出部14は、視聴者33の位置情報から、視聴者33が該位置において立体画像を観察可能な視域を示す視域情報を算出する。これにより、視域32が視聴者33の位置から外れた位置に設定されることを抑制することができる。
従って、本実施の形態の画像処理装置10では、視聴者33が、良好な立体画像を容易に観察することができる。
(実施の形態2)
実施の形態2では、検出部で視聴者33の位置を検出する。また、実施の形態2では、視域を変更するか否かを判定する判定部を備える。
図9は、実施の形態2の画像処理装置10Bの機能的構成を示すブロック図である。本実施の形態の画像処理装置10Bは、図9に示すように、受信部12Bと、算出部14Bと、制御部16Bと、表示部18と、検出部40と、判定部42と、を備える。
表示部18は、実施の形態1と同様である。受信部12Bは、実施の形態1で説明した受信部12と同様に、有線または無線で該受信部12Bに接続した外部装置(図示省略)から、開始信号を受信する。本実施の形態では、受信部12Bは、受信した開始信号を示す信号を、検出部40へ供給する。
検出部40は、視聴領域P(図2参照)内の実空間に位置している視聴者33の位置を検出する。本実施の形態では、検出部40は、受信部12Bが開始信号を受け付けた場合に、視聴者33の位置を検出する。
検出部40は、視聴領域P内の実空間に位置している視聴者33の位置を検出可能な機器であってよい。たとえば、検出部40には、可視カメラ、赤外線カメラ等の撮像機器の他、レーダやセンサ等の機器を用いることができる。これらの機器では、得られた情報(カメラの場合には撮影画像)から、公知の技術を用いて、視聴者33の位置を検出する。
例えば、検出部40として可視カメラを用いた場合には、検出部40は、撮像によって得た画像を画像解析することで、視聴者33の検出および視聴者33の位置の算出を行う。これによって、検出部40は、視聴者33の位置を検出する。また、検出部40としてレーダを用いた場合には、得られたレーダ信号を信号処理することで、視聴者33の検出及び視聴者33の位置の算出を行う。これによって、検出部40は、視聴者33の位置を検出する。
また、検出部40では、視聴者33の位置の検出時に、視聴者33の顔、頭、人物全体、マーカーなど、人であると判定可能な任意の対象部位を検出してもよい。このような任意の対象部位の検出方法は、公知の手法で行えばよい。
そして、検出部40は、視聴者33の位置情報を含む検出結果を示す信号を、算出部14B及び判定部42へ供給する。なお、検出部40は、視聴者33の位置情報に加えて、視聴者33の特徴を示す特徴情報を含む検出結果を示す信号を、算出部14Bに出力してもよい。この特徴情報としては、たとえば、視聴者33の顔の特徴点等の、あらかじめ抽出対象として設定した情報がある。
算出部14Bは、検出部40から受け付けた検出結果を示す信号に含まれる視聴者33の位置を示す位置情報から、該視聴者33が該位置において立体画像を観察可能な視域情報を算出する。この視域情報の算出方法は、実施の形態1における算出部14による算出と同様である。算出部14Bは、この視聴情報の算出を、検出部40から検出結果を示す信号を受け付けた場合に実行する。
なお、検出部40から受け付けた検出結果を示す信号に、上記特徴情報が含まれている場合には、算出部14Bは、予め設定した特定の視聴者33が少なくとも視域32に含まれるように、視域情報を算出してもよい。この特定の視聴者33とは、例えば、予め登録した視聴者33や、上記開始信号を送信するための特定の外部機器を所持している視聴者33等、他の視聴者33とは異なる性質を有する視聴者である。この場合には、例えば、算出部14Bは、該特定の1または複数の視聴者33の特徴情報を、予め不図示のメモリに記憶する。そして、算出部14Bは、検出部40から受け付けた検出結果を示す信号に含まれる特徴情報の内、該メモリに予め記憶した特徴情報と一致する特徴情報を読み取る。そして、算出部14Bは、読み取った特徴情報に対応する視聴者33の位置情報を該検出結果から抽出し、抽出した位置情報から、該位置情報の位置において立体画像を観察可能な視域情報を算出する。
判定部42は、検出部40で検出した視聴者33の位置情報に基づいて、視域32を設定する(現在の視域32から変更する)か否かを判定する。現在の視域32とは、現在の表示部18の表示パラメータの組み合わせによって実現(設定)される視域32を示す。また、現在とは、受信部12Bが開始信号を示す信号を受信したときを示す。
判定部42は、この判定を以下のようにして行う。具体的には、視聴者33の位置情報の位置が、現在、表示部18で設定されている視域32の範囲内にあるとする。そして、現在の視域32を変更すると、視聴者33の位置が視域32の範囲外となる場合には、判定部42は、視域の設定(変更)を行なわないと判定する。現在の視域32を変更すると視聴者33の位置が視域32の範囲外となるか否かの判別は、たとえば、下記のようにして行えばよい。具体的には、判定部42は、検出部40から受け付けた検出結果に含まれる位置情報から、後述する算出部14Cと同様にして視域情報を算出する。そして、判定部42は、算出した視域情報の視域32内に、該位置情報の位置が含まれているか否かを判定することによって、該判別をおこなう。
また、判定部42は、検出部40で検出した視聴者33の位置情報が視聴領域P外を示す場合には、視域の設定(変更)を行なわないと判定する。これは、視聴者33が表示部18を視聴可能な視聴領域P外に存在するためである。この視域領域P外であるか否かの判別は、あらかじめ不図示のメモリに、視域領域Pを示す情報(例えば、位置座標の集合)を記憶しておく、そして、判定部42は、検出部40から受け付けた検出結果を示す信号に含まれる位置情報が、該視域領域P外であるか否かを判別する。
判定部42は、判定結果を示す信号を制御部16Bへ供給する。この判定結果を示す信号は、視域変更有り、または視域変更無し、を示す情報である。
制御部16Bは、判定部42から受け付けた判定結果を示す信号が、視域変更有りを示す情報である場合に、算出部14Bで算出した視域情報に応じた視域32が設定されるように、表示部18を制御する。制御部16Bは、実施の形態1と同様に、該視域32が設定されるように表示部18の表示パラメータを調整する。これによって、表示部18は、算出部14で算出した視域情報に応じた視域32で立体画像を表示する。
一方、判定部42から受け付けた判定結果が、視域変更無しを示す情報である場合には、制御部16Bは、既に設定されている視域32を維持する。あるいは、制御部16Bは、視域32が基準の状態に設定されるよう、表示部18を制御する。ここで、基準の状態とは、製造段階で設定される推奨パラメータに基づく状態であってよい。
すなわち、判定部42が視域変更有りを判定した場合に、制御部16Bは、現在の視域32を変更するように表示部18を制御する。一方、判定部42が視域変更無を判定した場合には、制御部16Bは、既に設定されている視域32を維持するか、上記基準の状態に設定されるよう、表示部18を制御する。
次に、以上のように構成された本実施形態の画像処理装置10Bによる表示制御処理について図10のフローチャートを用いて説明する。
受信部12Bが開始信号を受信したか否かを判別する(ステップS200)。受信部12Bが開始信号の未受信を判別すると、本ルーチンを終了する(ステップS200:No)。受信部12Bが開始信号を受信したと判別すると(ステップS200:Yes)、検出部40が視聴者33の位置を検出する(ステップS202)。そして、検出部40は、検出結果を示す信号を算出部14Bへ供給する。
検出部40から検出結果を示す信号を受け付けると、算出部14Bが、該検出結果を示す信号に含まれる視聴者33の位置情報から、視域情報を算出する(ステップS204)。算出部14Bは、算出した視域情報を判定部42及び制御部16Bへ供給する。
判定部42が、視域32を設定する(現在の視域32から変更する)か否かを判別する(ステップS206)。判定部42は、判別結果を制御部16Bへ供給する。
判定部42が、視域変更有りと判別すると(ステップS206:Yes)、制御部16Bが判定結果を出力する(ステップS208)。具体的には、制御部16Bは、判定結果である視域変更有りを示す情報を、表示部18に表示する。なお、本実施の形態では、制御部16Bは、ステップS208及び後述するステップS212において、判定部42による判定結果を示す情報を、表示部18に表示する場合を説明する。しかし、この判定結果の出力先は、表示部18に限られない。たとえば、制御部16Bは、表示部18とは別の表示機器や、公知の音声出力装置に、該判定結果を出力してもよい。また、制御部16Bは、制御部16Cに無線または有線で接続された外部装置に、該判定結果を出力してもよい。
制御部16Bが、算出部14Bで算出した視域情報に応じた視域32が設定されるように、表示部18を制御する(ステップS210)。この制御部16Bによる表示部18の制御は、実施の形態1と同様である。そして、本ルーチンを終了する。
一方、判定部42が視域変更無しと判別すると(ステップS206:No)、制御部16Bが判定結果である視域変更無しを示す情報を出力する(ステップS212)。そして、本ルーチンを終了する。
なお、画像処理装置10Bの初回使用時には、ステップS201において、判定部42はYES判定とするように予め設計されていても構わない。
以上説明したように、本実施の形態の画像処理装置10Bでは、検出部40で視聴者33の位置を検出し、この検出された位置情報に基づいて、算出部14Bが、視域情報を算出する。このため、より正確に視聴者33の位置を求めることができる。
また、本実施の形態の画像処理装置10Bでは、判定部42が、現在の視域32を変更するか否かを判定する。そして、判定部42が視域変更有りを判定した場合に、制御部16Bは、現在の視域32を変更するように表示部18を制御する。一方、判定部42が視域変更無を判定した場合には、制御部16Bは、既に設定されている視域32を維持するか、上記基準の状態に設定されるよう、表示部18を制御する。
このため、判定部42が上記判定を行うことによって、不必要な視域32の変更や、視聴者33にとって立体画像の観察状況が悪化するような視域32の設定を抑制することができる。
(実施の形態3)
図11は、実施の形態3の画像処理装置10Cの機能的構成を示すブロック図である。本実施の形態の画像処理装置10Cは、図11に示すように、受信部12Bと、算出部14Cと、制御部16Cと、表示部18と、検出部40Cと、判定部42Cと、を備える。
受信部12B、算出部14C、制御部16C、表示部18、検出部40C、及び判定部42Cは、実施の形態2における、受信部12B、算出部14B、制御部16B、検出部40B、判定部42Bの各々と同様である。なお、以下の点が異なる。
本実施の形態では、検出部40Cは、視聴者33の位置の検出結果を示す信号を、判定部42Cへ供給する。判定部42Cは、該検出結果を示す信号を受け付けた場合に、視域32を設定する(現在の視域32から変更する)か否かを判定する。そして、判定部42Cは、判定結果を示す信号を算出部14Cへ供給する。算出部14Cは、判定部42Cから受け付けた判定結果を示す信号が視域変更有りを示す場合に、視域情報の算出を行う。そして、制御部16Cは、算出部14Cから視域情報の算出結果を示す信号を受け付けた場合に、表示部18の制御を行う。これらの点が、実施の形態2と異なる。
次に、以上のように構成された本実施形態の画像処理装置10Cによる表示制御処理について図12のフローチャートを用いて説明する。なお、本実施の形態では、算出部14Bによる視域情報の算出を、判定部42Cによる判定の後に行う以外は、実施の形態2と同様である。このため、実施の形態2と同じ処理には同じ符号を付与して詳細な説明を省略する。
受信部12Bが開始信号を受信したか否かを判別し、開始信号を受信したと判別すると、検出部40Cが視聴者33の位置を検出する(ステップS200、S200:Yes、S202)。判定部42Cが、視域32を設定する(現在の視域32から変更する)か否かを判別し、視域変更有りと判別すると、制御部16Cが判定結果である視域変更有りを示す情報を出力する(ステップS206、S206:Yes、ステップS208)。なお、受信部12Bが開始信号の未受信を判別すると(ステップS200:No)、本ルーチンを終了する。
判定部42Cから視域変更有りを示す信号を受け付けると、算出部14Cが、検出部40Cによる検出結果に含まれる視聴者33の位置情報から視域情報を算出する(ステップS209)。検出部40Cは、算出した視域情報を制御部16Cへ供給する。次に、制御部16Cが、算出部14Cで算出した視域情報に応じた視域32が設定されるように、表示部18を制御する(ステップS210)。そして、本ルーチンを終了する。
一方、判定部42Cが視域変更無しと判別すると(ステップS206:No)、制御部16Cが判定結果である視域変更無しを示す情報を出力する(ステップS212)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の画像処理装置10Cでは、判定部42Cが、現在の視域32を変更するか否かを判定する。そして、判定部42Cが視域変更有りを判定した場合に、算出部14Cが視域情報を算出する。
このため、本実施の形態の画像処理装置10Cでは、不必要な視域32の変更や、視聴者33にとって立体画像の観察状況が悪化するような視域32の変更を抑制することができる。
(実施の形態4)
図13は、実施の形態4の画像処理装置10Dの機能的構成を示すブロック図である。本実施の形態の画像処理装置10Dは、図13に示すように、受信部12Dと、算出部14Dと、制御部16Bと、表示部18と、検出部40と、判定部42Dと、を備える。
受信部12D、算出部14D、制御部16B、表示部18、検出部40、及び判定部42Dは、実施の形態2における、受信部12B、算出部14B、制御部16B、表示部18、検出部40、判定部42の各々と同様である。なお、以下の点が異なる。
本実施の形態では、受信部12Dは、受け付けた開始信号を、算出部14D、検出部40、判定部42Dへ供給する。算出部14Dは、受信部12Dから開始信号を受け付け、且つ、検出部40から検出結果を示す信号を受け付けた場合に、実施の形態2と同様にして視域情報の算出を行う。判定部42Dは、受信部12Dから開始信号を受け付け、且つ、検出部40から検出結果を示す信号を受け付けた場合に、実施の形態2と同様にして判定を行う。これらの点が、実施の形態2と異なる。
次に、以上のように構成された本実施形態の画像処理装置10Dによる表示制御処理について図14のフローチャートを用いて説明する。
受信部12Dが開始信号を受信したか否かを判別する(ステップS2000)。受信部12Dが開始信号の未受信を判別すると、本ルーチンを終了する(ステップS2000:No)。受信部12Dが開始信号を受信したと判別すると(ステップS2000:Yes)、受信部12Dは開始信号を算出部14D、判定部42D、及び検出部40へ供給する。検出部40が視聴者33の位置を検出する(ステップS2020)。そして、検出部40は、検出結果を算出部14D及び判定部42Dへ供給する。
受信部12Dから開始信号を受け付け、且つ、検出部40から検出結果を受け付けると、算出部14Dが、該検出結果に含まれる、視聴者33の位置情報から視域情報を算出する(ステップS2040)。検出部40は、算出した視域情報を判定部42D及び制御部16Bへ供給する。
受信部12Dから開始信号、検出部40から検出結果を示す信号、及び算出部14Dから視域情報を受け付けると、判定部42Dが、視域32を設定する(現在の視域32から変更する)か否かを判別する(ステップS2060)。判定部42Dは、判別結果を示す信号を制御部16Bへ供給する。
判定部42Dが、視域変更有りと判別すると(ステップS2060:Yes)、制御部16Bが判定結果である視域変更有りを示す情報を出力する(ステップS2080)。なお、このステップS2080の処理は、実施の形態2のステップS208と同様である。
次に、制御部16Bが、算出部14Dで算出した視域情報に応じた視域32が設定されるように、表示部18を制御する(ステップS2100)。この制御部16Bによる表示部18の制御は、実施の形態2と同様である。そして、本ルーチンを終了する。
一方、判定部42Dが視域変更無しと判別すると(ステップS2060:No)、制御部16Bが判定結果である視域変更無しを示す情報を出力する(ステップS2120)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の画像処理装置10Dでは、受信部12Dから開始信号を受け付けた場合に、検出部40による視域32の位置の検出、算出部14Dによる視域情報の算出、及び判定部42Dによる判定を行う。
このため、本実施の形態の画像処理装置10Dでは、受信部12Dが開始信号を受け付けた時に、視域32を変更することができる。
なお、実施の形態1〜4の画像処理装置10、10B、10C、10Dで実行される表示制御処理を実行するための画像処理プログラムは、ROM等に予め組み込まれて提供される。
実施の形態1〜4の画像処理装置10、10B、10C、10Dで実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、実施の形態1〜4の画像処理装置10、10B、10C、10Dで実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、実施の形態1〜4の画像処理装置10、10B、10C、10Dで実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
実施の形態1〜4の画像処理装置10、10B、10C、10Dで実行される画像処理プログラムは、上述した各部(受信部、算出部、制御部、検出部、判定部、表示部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、受信部、算出部、制御部、表示部、検出部、判定部が主記憶装置上に生成されるようになっている。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10、10B、10C、10D 画像処理装置
12、12B、12D 受信部
14、14B、14C、14D 算出部
16、16B、16C 制御部
18 表示部
40、40C 検出部
42、42C、42D 判定部

Claims (9)

  1. 表示部に表示される立体画像を視聴者が観察可能な視域の設定を開始させるための開始信号を受信する受信部と、
    前記視聴者を撮像した撮像画像または記憶部から、前記視聴者の位置情報を取得する検出部と、
    前記開始信号が受信された場合、前記位置情報に基づいて、前記視域を示す視域情報を算出する算出部と、
    前記視域情報に応じた前記視域が設定されるよう、前記表示部を制御する制御部と、
    を備える画像処理装置。
  2. 前記位置情報に基づいて、前記視域を設定するか否かを判定する判定部を更に備え、
    前記視域を設定すると判定された場合、前記制御部は、前記視域が設定されるように、前記表示部を制御する、
    請求項1に記載の画像処理装置。
  3. 前記位置情報に基づいて、前記視域を算出するか否かを判定する判定部を更に備え、
    前記視域を設定すると判定された場合、前記算出部は、前記視域情報を算出する、
    請求項1に記載の画像処理装置。
  4. 前記判定部は、
    前記位置情報の位置が、前記受信部が前記開始信号を受信したときに設定されている前記視域の範囲内にあり、且つ、該位置情報の位置が、前記算出部によって該位置情報に基づいて算出された前記視域の範囲外にある場合には、前記視域を設定しないと判定する、請求項2に記載の画像処理装置。
  5. 前記判定部は、
    前記位置情報が、前記表示部に表示された画像を視聴者が観察可能な視聴領域外を示す場合には、前記視域を設定しないと判定する、
    請求項2に記載の画像処理装置。
  6. 前記検出部は、前記撮像画像から前記視聴者の特徴を示す特徴情報を更に取得し、
    前記算出部は、前記開始信号が受信された場合、取得した前記特徴情報の内、予め記憶した特徴情報と一致する特徴情報に対応する前記視聴者の前記位置情報に基づいて、前記視域を示す視域情報を算出する、
    請求項1に記載の画像処理装置。
  7. 前記記憶部は、前記位置情報を予め記憶する請求項1に記載の画像処理装置。
  8. 表示部に表示される立体画像を視聴者が観察可能な視域の設定を開始させるための開始信号を受信し、
    前記視聴者を撮像した撮像画像または記憶部から、前記視聴者の位置情報を取得し、
    前記開始信号が受信された場合、前記位置情報に基づいて、前記視域を示す視域情報を算出し、
    前記視域情報に応じた前記視域が設定されるよう、前記立体画像を表示可能な表示部を制御する、
    画像処理方法。
  9. 立体画像を表示可能な表示部と、
    前記立体画像を視聴者が観察可能な視域の設定を開始させるための開始信号を受信する受信部と、
    前記視聴者を撮像した撮像画像または記憶部から、前記視聴者の位置情報を取得する検出部と、
    前記開始信号が受信された場合、前記位置情報に基づいて、前記視域を示す視域情報を算出する算出部と、
    前記視域情報に応じた前記視域が設定されるよう、前記立体画像を表示可能な表示部を制御する制御部と、
    を備える立体画像表示装置。
JP2011544729A 2011-04-20 2011-04-20 画像処理装置、方法、および立体画像表示装置 Expired - Fee Related JP5143291B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/059759 WO2012144039A1 (ja) 2011-04-20 2011-04-20 画像処理装置、および方法

Publications (2)

Publication Number Publication Date
JP5143291B2 true JP5143291B2 (ja) 2013-02-13
JPWO2012144039A1 JPWO2012144039A1 (ja) 2014-07-28

Family

ID=47020959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544729A Expired - Fee Related JP5143291B2 (ja) 2011-04-20 2011-04-20 画像処理装置、方法、および立体画像表示装置

Country Status (5)

Country Link
US (1) US20120268455A1 (ja)
JP (1) JP5143291B2 (ja)
CN (1) CN102860018A (ja)
TW (1) TWI412267B (ja)
WO (1) WO2012144039A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096109B (zh) * 2013-01-18 2015-05-06 昆山龙腾光电有限公司 多视图自动立体显示器及显示方法
JP2014241473A (ja) * 2013-06-11 2014-12-25 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
CN104683786B (zh) * 2015-02-28 2017-06-16 上海玮舟微电子科技有限公司 裸眼3d设备的人眼跟踪方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JPH11331876A (ja) * 1998-05-11 1999-11-30 Ricoh Co Ltd マルチ画像表示装置
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2001356298A (ja) * 2000-06-12 2001-12-26 Denso Corp 立体映像表示装置
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2003107392A (ja) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd 頭部位置追従型立体映像表示装置
JP2004519721A (ja) * 2001-03-05 2004-07-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視聴者の場所に依存したディスプレイの自動方位位置決め
JP2010217996A (ja) * 2009-03-13 2010-09-30 Omron Corp 文字認識装置、文字認識プログラム、および文字認識方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6593957B1 (en) * 1998-09-02 2003-07-15 Massachusetts Institute Of Technology Multiple-viewer auto-stereoscopic display systems
US6351280B1 (en) * 1998-11-20 2002-02-26 Massachusetts Institute Of Technology Autostereoscopic display system
US6288704B1 (en) * 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
CN1607502A (zh) * 2003-10-15 2005-04-20 胡家璋 可利用肢体来控制光标的光标仿真器及其仿真方法
JP4508740B2 (ja) * 2004-06-22 2010-07-21 キヤノン株式会社 画像処理装置
KR100652157B1 (ko) * 2004-11-26 2006-11-30 가부시키가이샤 엔.티.티.도코모 화상 표시 장치, 입체 화상 표시 장치 및 입체 화상 표시시스템
JP2008180860A (ja) * 2007-01-24 2008-08-07 Funai Electric Co Ltd 表示システム
JP2009238117A (ja) * 2008-03-28 2009-10-15 Toshiba Corp 多視差画像生成装置および方法
CN101750746B (zh) * 2008-12-05 2014-05-07 财团法人工业技术研究院 立体影像显示器
JP4691697B2 (ja) * 2009-01-27 2011-06-01 Necカシオモバイルコミュニケーションズ株式会社 電子機器、および、プログラム
CN102326395A (zh) * 2009-02-18 2012-01-18 皇家飞利浦电子股份有限公司 3d观看者元数据的传送
US20100225734A1 (en) * 2009-03-03 2010-09-09 Horizon Semiconductors Ltd. Stereoscopic three-dimensional interactive system and method
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
KR20120007289A (ko) * 2010-07-14 2012-01-20 삼성전자주식회사 디스플레이 장치 및 그 입체감 설정 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JPH11331876A (ja) * 1998-05-11 1999-11-30 Ricoh Co Ltd マルチ画像表示装置
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2001356298A (ja) * 2000-06-12 2001-12-26 Denso Corp 立体映像表示装置
JP2004519721A (ja) * 2001-03-05 2004-07-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視聴者の場所に依存したディスプレイの自動方位位置決め
JP2002300610A (ja) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd 立体映像表示装置
JP2003107392A (ja) * 2001-09-28 2003-04-09 Sanyo Electric Co Ltd 頭部位置追従型立体映像表示装置
JP2010217996A (ja) * 2009-03-13 2010-09-30 Omron Corp 文字認識装置、文字認識プログラム、および文字認識方法

Also Published As

Publication number Publication date
US20120268455A1 (en) 2012-10-25
JPWO2012144039A1 (ja) 2014-07-28
TWI412267B (zh) 2013-10-11
WO2012144039A1 (ja) 2012-10-26
TW201244461A (en) 2012-11-01
CN102860018A (zh) 2013-01-02

Similar Documents

Publication Publication Date Title
JP5881732B2 (ja) 画像処理装置、立体画像表示装置、画像処理方法および画像処理プログラム
KR102030830B1 (ko) 곡면형 다시점 영상 디스플레이 장치 및 그 제어 방법
US8817369B2 (en) Three dimensional display device and method of controlling parallax barrier
JP5973707B2 (ja) 三次元内視鏡装置
WO2018058914A1 (zh) 裸眼3d显示设备及其显示方法
JP5978695B2 (ja) 裸眼立体ディスプレイ装置及び視点調整方法
JP5050120B1 (ja) 立体画像表示装置
KR101852209B1 (ko) 자동입체 디스플레이 및 그 제조방법
US20170070728A1 (en) Multiview image display apparatus and control method thereof
CN104836998A (zh) 显示设备及其控制方法
KR20160058327A (ko) 입체 영상 표시 장치
JP5143291B2 (ja) 画像処理装置、方法、および立体画像表示装置
TWI500314B (zh) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
KR102221773B1 (ko) 입체 영상 표시 장치
JP5711104B2 (ja) 画像表示装置、方法、プログラム、及び画像処理装置
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2004320781A (ja) 立体映像表示装置
KR20050076946A (ko) 입체영상 표시장치 및 방법
JP2014135590A (ja) 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP5343157B2 (ja) 立体画像表示装置、表示方法、およびテストパターン
US9151952B2 (en) Method of driving a display panel, a display panel driving apparatus for performing the method and a display apparatus having the display panel driving apparatus
JP2015144457A (ja) 画像表示装置、方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees