JP3647376B2 - 視点位置検出装置、視点位置検出方法及び立体画像表示システム - Google Patents

視点位置検出装置、視点位置検出方法及び立体画像表示システム Download PDF

Info

Publication number
JP3647376B2
JP3647376B2 JP2001024366A JP2001024366A JP3647376B2 JP 3647376 B2 JP3647376 B2 JP 3647376B2 JP 2001024366 A JP2001024366 A JP 2001024366A JP 2001024366 A JP2001024366 A JP 2001024366A JP 3647376 B2 JP3647376 B2 JP 3647376B2
Authority
JP
Japan
Prior art keywords
viewpoint
position information
viewpoint position
position detection
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001024366A
Other languages
English (en)
Other versions
JP2002232917A (ja
Inventor
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001024366A priority Critical patent/JP3647376B2/ja
Priority to US09/812,677 priority patent/US6856341B2/en
Publication of JP2002232917A publication Critical patent/JP2002232917A/ja
Application granted granted Critical
Publication of JP3647376B2 publication Critical patent/JP3647376B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明が属する技術分野】
本発明は被測定者の視点位置を検出する視点位置検出装置及び視点検出方法に関し、特に高速処理を行う視点位置検出装置及び視点位置検出方法に関するものである
【0002】
【従来の技術】
従来、裸眼による立体視が可能ないわゆる立体画像表示装置がある。立体画像表示装置には種々の方式があるが、例えば特開平9−311294号公報には、リアクロスレンチキュラ方式のものが開示されている。図5はリアクロスレンチキュラ方式の立体画像表示装置の例を示す要部斜視図である。図中、6は画像表示用のディスプレイデバイスであり、例えば液晶ディスプレイ(LCD)である。図において、通常液晶ディスプレイに用いられる偏光板、カラーフィルター、電極、ブラックマトリクス、反射防止膜などは省略してある。
【0003】
10は照明光源となるバックライト(面光源)である。ディスプレイデバイス6とバックライト10の間には、市松状の開口8を備えたマスクパターンを形成したマスク基板(マスク)7を配置している。マスクパターンはガラスまたは樹脂からなるマスク基板7上にクロムなどの金属蒸着膜または光吸収材等をパターニングして製作している。バックライト10、マスク基板7は立体画像表示装置の光源を構成している。
【0004】
マスク基板7とディスプレイデバイス6の間には、透明樹脂、ガラス等からなる第1のレンチキュラレンズ3及び第2のレンチキュラレンズ4を配置している。第1のレンチキュラレンズ3は垂直方向に長い縦シリンドリカルレンズをディスプレイの左右方向に並べて構成した縦シリンドリカルレンズアレイであり、第2のレンチキュラレンズ4は水平方向に長い横シリンドリカルレンズをディスプレイの上下方向に並べて構成した横シリンドリカルレンズアレイである。
【0005】
ディスプレイデバイス6に表示する画像は左右の視差画像L及びRの全体(図示せず)を夫々上下方向に分割した多数の横ストライプ状の画像L1...n、R1...n(nは所定の自然数)である。そして、これらストライプ状の画像をディスプレイデバイス6の表示画面において、例えば上からL1R1L2R2L3R3・・・・LnRnと交互に並べて同一画面で表示する。
【0006】
バックライト10からの光はマスク基板7上に形成されたマスクパターンの開口8を透過してディスプレイデバイス6を照明し、観察者の両眼に左右のストライプ画素L、Rが分離して観察される。
【0007】
すなわち、マスク基板7はバックライト10により照明され、マスクパターンの開口8から光が出射する。マスク基板7の観察者側に配置された第1のレンチキュラレンズ3を構成する各シリンドリカルレンズは、マスク基板7がそのほぼ焦点位置となるようなレンズ曲率を有する。第1のレンチキュラレンズ断面においては第2のレンチキュラレンズ4は光学的に何の作用もしないので、開口8上の1点から射出する光束は第1のレンチキュラレンズ内では略平行光束に変換される。
【0008】
また、マスクパターン7の開口部8と遮光部の一対が第1のレンチキュラレンズ3の1ピッチ(隣接するシリンドリカルレンズの中心距離)に対応するように開口部と遮光部の幅を設定している。
【0009】
また、観察者の位置から第1のレンチキュラレンズ3までの光学的距離と、第1のレンチキュラレンズ3からマスクパターン7までの光学的距離の関係を元に、第1のレンチキュラレンズ3のピッチとマスクパターンの一対の開口部と遮光部のピッチを定めることによって、画面の全幅にわたって、開口部8からの光が一様に左眼又は右眼に集まるようにすることができる。このようにしてディスプレイデバイス6上の左右のストライプ画像L1..n、R1..nが水平方向に左眼、右眼の領域に分離して観察される。
【0010】
第2のレンチキュラレンズ4は、マスクパターン7の開口部8上の各点から発する光束を、すべてディスプレイデバイス6の右目又は左目用ストライプ画像上に集光して、これを照明、透過して上下方向にのみ集光時のNA(開口数)に応じて発散し、観察者の所定の眼の高さから画面の上下方向の全幅にわたって左右のストライプ画素を一様に分離して見える観察領域を与えている。
【0011】
しかしながら、このような立体画像表示装置の立体視野角は狭く、観察者の視点が立体視野角からはずれると立体表示が認識されなくなる。そのため、観察者(被測定者)の視点位置を検出して、視点位置の移動に応答して立体画像表示装置を制御することにより、立体視野角を見かけ上拡大する技術が提案されている。例えば、特開平10−232367号公報には、マスクパターン又はレンチキュラレンズを表示面に平行移動させて、立体視野角を拡大する技術が開示されている。
【0012】
図6は、特開平10−232367号公報に開示される立体画像表示装置の図である。図6において、図5と同じ構成要素には同じ参照数字を付し、説明は省略する。図6の立体画像表示装置は図5における第1のレンチキュラレンズに相当するレンチキュラレンズのみを有し、図5における第2のレンチキュラレンズ4を有していない。
【0013】
このような構成の立体画像表示装置において、観察者54の(左右方向の)移動に応じた視野角制御は以下のように行われる。まず、位置センサー51が、予め設定された基準の位置からの観察者54の左右方向のずれを検出し、その情報を制御ユニット52へ送る。このずれ情報に応じて制御ユニット52がディスプレイ駆動回路50へ画像制御信号を出力すると、ディスプレイ駆動回路50が第1又は第2の横ストライプ画像をディスプレイ6に表示する。制御ユニット52はまた、ずれ情報に基づくアクチュエータ駆動信号を発生し、マスクパターン7を左右方向に移動させるアクチュエータ53を駆動することにより、マスクパターン7を観察者54が左右のストライプ画像をもっともよく分離できる位置に移動させる。この結果、立体視可能な範囲が拡大する。
【0014】
さらに、特開平10−78563号公報では、マスクパターン7を例えば液晶ディスプレイ(LCD)で構成し、開口部、遮光部をディスプレイ表示で形成して、開口部と遮光部のピッチを動的に変更可能とすることで、観察者の前後左右方向の移動に追従した視野角制御を行う方法も開示されている。
【0015】
この場合、観察者の左右方向及び前後方向の視点位置検出を行う必要があるが、このような位置測定方法としては、例えばステレオビジョンを用いた方法を用いることができる。ステレオビジョンとは、ステレオカメラで撮影された複数の画像間でセグメントマッチング(セグメント(領域)の特徴をもとに領域間の対応関係を把握する処理)を行い、画像間における対応領域の変移をもとに三角測量の原理で三次元位置を特定する既知の物体位置測定技術である。
【0016】
【発明が解決しようとする課題】
しかしながら、観察者の視点位置を検出し、視点位置に追従して立体視可能な領域を移動させることによって立体視が可能な領域(立体視観察領域)を拡大するとはいえ、立体視観察領域自体の大きさは固定であり、さらに視点位置の検出処理に伴う遅延があるため、観察者が素早く動くと立体視観察領域を外れてしまう。観察者が立体視観察領域を外れると正しい立体画像を観察できなくなるため、立体画像表示装置を観察する観察者の視点位置の検出を行う際の検出処理の高速化が望まれていた。
【0017】
本発明はこのような従来技術の問題点に鑑みなされたものであり、その目的は、立体画像表示部が左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有していることに応じて、視点位置の検出を高速化することにある。
【0018】
【課題を解決するための手段】
すなわち、本発明の要旨は、左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有する立体画像表示部を制御するために、立体画像表示部の表示画像を観察している被測定者の視点位置を検出する視点位置検出装置であって、被測定者の視点位置が、前記左右方向もしくは上下方向に関する位置を表す第1の位置情報と、前記前後方向に関する位置を表す第2の位置情報との組み合わせで表現され、1の位置情報を検出する第1の位置検出手段と、1の位置情報及び第2の位置情報を検出する第2の位置検出手段と、第1の位置情報及び第2の位置情報とを視点位置として出力する出力手段とを有し、第2の位置検出手段を用いた検出頻度が、第1の位置検出手段を用いた検出頻度より低いことを特徴とする視点位置検出装置に存する。
【0019】
また、本発明の別の要旨は、左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有する立体画像表示部を制御するために、立体画像表示部の表示画像を観察している被測定者の視点位置を検出する視点位置検出方法であって、被測定者の視点位置が、前記左右方向もしくは上下方向に関する位置を表す第1の位置情報と、前記前後方向に関する位置を表す第2の位置情報との組み合わせで表現され、第1の位置情報を検出する第1の位置検出ステップと、第1の位置情報及び第2の位置情報を検出する第2の位置検出ステップと、第1の位置情報及び第2の位置情報とを視点位置として出力する出力ステップとを有し、第2の位置検出ステップによる検出頻度が、第1の位置検出ステップによる検出頻度よりも低いことを特徴とする視点位置検出方法に存する。
【0021】
また、本発明の別の要旨は、コンピュータを、本発明の視点位置検出装置として機能させるためのプログラムを記録したコンピュータ読み取り可能な記憶媒体に存する。
【0022】
また、本発明の別の要旨は、コンピュータを、本発明の視点位置検出装置として機能させるためのプログラムに存する。
【0025】
【発明の実施の形態】
(第1の実施形態)
以下、図面を参照して本発明の実施形態を詳細に説明する。以下の説明においては、本発明の実施形態に係る視点位置検出装置を立体画像表示装置に接続した立体画像表示システムについて説明するが、本発明の視点位置検出装置は単独でも、他のいかなる装置と接続しても利用可能である。
【0026】
また、本発明において、視点位置とは観察者の目の位置を示すある一点の座標を意味するが、本発明の視点位置検出装置の出力する視点位置情報(後述)は必ずしも一点の座標値でなくともよく、ある領域を示す情報であっても良い。すなわち、用途によっては目全体の位置がおおよそわかればよい場合もあるため、本発明の視点位置検出装置の用途によって適宜選択すればよい。
【0027】
具体的な視点位置検出装置の構成、動作を説明する前に、まず本発明の原理について説明する。本発明は、レンチキュラレンズを用いた立体画像表示装置のような、立体観察領域の形状が前後方向に長い立体画像表示装置において、左右方向における視点位置検出精度に比べ、前後方向における位置検出精度、もしくは左右方向における視点位置検出頻度に比べ、前後方向における位置検出頻度を低くすることによって視点位置検出に係る処理時間を短縮することを特徴とする。
【0028】
ここで言う立体観察領域とは、例えば、山田「レンチキュラー板立体ディスプレイにおける立体視領域」、3D映像、Vol.7、No.2、pp.4-7、1993年3月(以下、文献1とする)に記載されている(正)立体視領域のことである。図7は文献1に示されている立体視領域を説明する図であり、3Aは正しく立体視が可能な領域を示し、3Bは正しい立体視が不可能な領域(ストライプ画像が左右逆の目に観察される逆立体視の領域)を示している。また、最適距離では観察者の所定の眼の高さから画面の上下方向の全幅にわたって左右のストライプ画素を一様に分離して観察することが可能な立体観察領域となっている。
【0029】
文献1によれば、立体視領域は立体画像表示部405の表示画面横幅、眼間距離、画像数、立体視できる最適距離によって決めることができる。ここで例えば、眼間距離を65[mm]、立体視に用いる画像数は一般的な2とすると、通常想定できる立体画像表示装置の幅、観察距離では、立体観察領域の形状が、ディスプレイ面に対して前後方向の(最大)距離が左右方向の(最大)距離よりも長い六角柱の形になる。また、画像数が増えれば増えるほど、前後方向の立体視観察領域距離が長くなる。
【0030】
換言すれば、レンチキュラレンズを用いた立体画像表示装置においては、一般に観察者の左右方向の移動に比べ、前後方向の移動に強く、観察者の位置を検出するに当たっても左右方向に比べて前後方向での位置検出精度もしくは検出頻度は低くても良いことを意味する。
【0031】
本実施形態における視点位置検出装置はこの特性を利用し、観察者の位置を検出する際、左右方向については常に検出を行い、前後方向については左右方向より低い頻度で検出を行うことで検出精度を低くし、全体として検出処理の高速化を実現したことを特徴とする。
【0032】
本実施形態において、左右方向に比べて低い頻度で前後方向の検出を行う具体的な方法としては、左右方向と前後方向の検出を一定比回数(ただし、左右方向検出回数>前後方向検出回数)で行う方法が考えられる。例えば左右方向の検出2回に対して前後及び左右方向の検出を1回行う。
もちろん、一定回数比を適当に設定せずに立体視観察領域の前後方向距離と左右方向距離の比によって設定しても良いことは言うまでもない。
【0033】
(立体画像表示システムの構成)
図1は、本発明の第1の実施形態に係る視点位置検出装置を用いた立体画像表示システムの構成例を示すブロック図である。図1のシステムにおいて、本実施形態における視点位置検出装置は、撮影部401及び視点位置検出部402から構成される。また、立体画像表示部405は図6を用いて説明した立体画像表示装置(マスクパターン7をLCD等で構成した、開口部8と遮光部を動的に変更可能な構成のもの)と同等の構成を有する。
【0034】
マスクパターン制御部403は立体画像表示部405のマスクパターン7を制御し、画像制御部404は立体画像表示部405に表示する前述した横ストライプ画像を制御する。
【0035】
撮影部401は、第1の可視画像撮影部411、第2の可視画像撮影部412、赤外画像撮影部413、赤外光発光部414から構成され、観察者の可視画像及び赤外画像を撮影する。第1の可視画像撮影部411、第2の可視画像撮影部412及び赤外画像撮影部413はいずれもCCDセンサ、CMOSセンサ等の撮像素子を用いた撮像手段(ビデオカメラ等)によって構成可能であり、赤外画像撮影部413は光学フィルター等を用いて赤外光のみを内部の撮像素子に入射させていること以外は可視画像撮影部411、412と同等の構成でよい。また、第1及び第2の可視画像撮影部411及び412が、互いに異なる位置から観察者を撮影することにより、各撮影部による撮影画像から上述のステレオビジョン法を利用した観察者の前後方向位置測定が可能である。
【0036】
また、赤外光発光部414は例えばLED等の赤外光発光素子から構成することができ、観察者(披測定者)と撮影部411との通常取りうる範囲の距離において、赤外画像撮影部413によって網膜反射像を得るために必要な光量が得られるように構成する。
【0037】
視点位置検出部402は、第1の可視画像記憶部421、第2の可視画像記憶部422、赤外画像記憶部423、第1のパターンマッチング部424、第2のパターンマッチング部425、テンプレート作成部426、瞳孔位置検出部427、視点位置出力判定部428、赤外光発光制御部429及び制御部430から構成されている。視点位置検出部402は、例えば撮影部401が出力する各画像信号を記憶可能な汎用のコンピュータ装置から構成することができる。
【0038】
この場合、第1の可視画像撮影部411、第2の可視画像撮影部412、赤外画像記憶部413が撮影した画像データを記憶する手段として用いられる第1の可視画像記憶部421、第2の可視画像記憶部422及び赤外画像記憶部423はいずれも磁気ディスクドライブ、光ディスクドライブなどの外部記憶装置によって実現可能である。もちろん、半導体メモリを用いても良いし、他の記憶装置を用いても良い。
【0039】
各画像記憶部421〜423における画像取り込みのタイミングは任意に設定可能であるが、後述するように、第2の可視画像撮影部412が撮影した画像は第1の可視画像撮影部411が撮影した画像よりも使用頻度が少ないため、第2の可視画像記憶部422への取り込み頻度も同様に第1の可視画像記憶部421への取り込み頻度より少なく設定することができる。また、赤外画像記憶部423への画像取り込みは、赤外光発光部414が発光しているときのみ行えばよい。各画像撮影部411〜413からの画像取り込みは、制御部430の制御に従って行われる。
【0040】
第1のパターンマッチング部424は、テンプレート作成部426から供給されるテンプレートを用いて、第1の可視画像記憶部421に記憶された画像とパターンマッチングを行い、テンプレートとの相関が最も高い領域の位置情報、すなわち観察者の(左右方向における)視点位置情報を視点位置出力判定部428へ出力する。また、パターンマッチング失敗時などに、赤外光発光制御部429に赤外光発光部414を発光させるよう指示する。
【0041】
第2のパターンマッチング部425は、視点位置出力判定部428から信号を受け取ると、テンプレート作成部426から供給されるテンプレートを用いて、第2の可視画像記憶部422に記憶された画像とパターンマッチングを行い、第1のパターンマッチング部424と同様に、観察者の(左右方向における)視点位置情報として、テンプレートとの相関が最も高い領域の位置情報を視点位置出力判定部428へ出力する。
【0042】
テンプレート作成部426は、瞳孔位置検出部427から供給される観察者の瞳孔位置情報を用いて、第1の可視画像記憶部411に記憶された画像データから、第1のパターンマッチング部424及び第2のパターンマッチング425で用いるパターンマッチング用にテンプレートを作成する。
【0043】
瞳孔位置検出部427は、赤外光発光制御部429から通知される、赤外光発光部414の発光を知らせる信号に応答して、赤外画像記憶部423に記憶された赤外画像から瞳孔位置を検出し、その位置情報をテンプレート作成部426に供給する。すなわち、人間の網膜による赤外光の反射を利用し、赤外光を照射して撮影した披測定者の赤外画像から、瞳孔位置を検出する。
【0044】
視点位置出力判定部428は、第1のパターンマッチング部424においてパターンマッチングが一定回数行われる(パターンマッチングの結果である領域位置情報が一定回数出力される)毎に、第2のパターンマッチング部425に対してパターンマッチング処理を指示する信号を出力する。
【0045】
また、第2のパターンマッチング425から観察者の左右方向の視点位置情報が送られてきたとき(すなわち、第1及び第2のパターンマッチング部424及び425の両方から視点位置情報を受信したとき)には、それらの左右方向の視点位置情報から上述のステレオビジョン法により観察者の前後方向の視点位置を求め、左右方向及び前後方向の視点位置情報を出力する。
【0046】
本実施形態においては上述の通り第2のパターンマッチング部425がパターンマッチングを行うのは第1のパターンマッチング部424が所定回数パターンマッチングを行う毎である。したがって、パターンマッチングが所定回数行われていない場合には、第1のパターンマッチング部424からのみ左右方向の視点位置情報が送られてくるが、その際は第1のパターンマッチング部424から送られてきた左右方向の視点位置情報と共に、直前に求めた前後方向の視点位置情報を出力する。
【0047】
赤外光発光制御部429は、制御部430、瞳孔位置検出部427、第1のパターンマッチング部424等の制御に従い、赤外光発光部414の点灯制御を行う。
【0048】
視点位置検出部402の各構成要素は、制御部430の制御によって動作する。視点位置検出部をコンピュータ装置で実現する場合、制御部430はCPUであり、第1及び第2のパターンマッチング部424及び425、テンプレート作成部426、瞳孔位置検出部427、視点位置出力判定部428及び赤外光発光制御部429はいずれもCPUがハードディスクドライブやROMに記憶されたプログラムを実行することによって実現しても、ハードウェアで構成し、このハードウェアをCPUによって制御することによって実現してもよい。もちろん、ソフトウェアで構成するものとハードウェアで構成するものとを組み合わせてもよい。
【0049】
(視点位置検出装置の動作)
以下、図1に示した立体画像表示システムの具体的な動作について説明するが、全体の動作を説明する前に、図2に示すフローチャートを用いて、本実施形態における視点位置検出装置の動作を説明する。
【0050】
まず、撮影部401及び視点位置検出部402の電源投入に伴う、初期化などの起動処理を行う(ステップS10)。次に、制御部430は、赤外光発光制御部429に赤外光発光を指示する。それを受けて赤外光発光制御部429は赤外光発光部414を点灯させる(ステップS11)とともに、瞳孔位置検出部427及び制御部430に赤外光を発光した旨を通知する。
【0051】
制御部430は、赤外光発光制御部429からの通知に応答して、第1の可視画像撮影部411によって撮影された第1の可視画像と、第2の可視画像撮影部412によって撮影された第2の可視画像と、赤外画像撮影部413によって撮影された赤外画像をそれぞれ第1の可視画像記憶部421、第2の可視画像記憶部422、赤外画像記憶部423に取り込む。
【0052】
この際、精度良いテンプレートの作成及びパターンマッチングを行うために、各画像記憶部に取り込む画像は実質的に同じタイミング(フレームもしくはフィールド)のものとすることが好ましい。
【0053】
また、赤外光の発光開始は、例えば観察者の有無を検知するセンサーを設けて、観察者の存在が確認されてから自動的に行ったり、観察者に開始ボタンを押し下げさせるなど任意の方法を用いることができる。
【0054】
次に、瞳孔位置検出部427は赤外画像記憶部423に記憶した赤外画像から、瞳孔位置を検出する(ステップS12)。人間の網膜は赤外光を再帰反射する特性を持っているので、赤外光発光部414が発光した赤外光が観察者の網膜で再帰反射される。そのため、赤外画像には網膜反射像が他の部分に比べて非常に明るく写り、網膜反射像位置を求めることができる。また、網膜反射像の位置は瞳孔の位置と等しいので結果的に瞳孔位置が分かる。
【0055】
瞳孔位置の検出は基本的に赤外画像の2値化処理によって行うが、網膜反射による反射像は、赤外画像内の一部の領域になるため、反射像の位置から赤外画像内の1点を指す画像内座標値を求める処理も併せて行う。
【0056】
ステップS13において、瞳孔位置の検出に成功した場合はステップS14へ、観察者が瞬きをしていた等の理由により正常に検出できなかった場合には、ステップS11に戻って再度画像取得を行う。
【0057】
ステップS13で正常に瞳孔位置を検出できた場合には、テンプレートの作成処理を開始する(ステップS14)。図8はテンプレートの作成の説明を行う図である。図8(a)に示すように、テンプレートの作成処理は、瞳孔位置検出部427が、赤外画像から検出した右眼、左眼の瞳孔位置(画像上の座標値)を用いて、第1の可視画像記憶部411に記憶された第1の可視画像から、右眼瞳孔位置を基点とした右眼テンプレート及び左眼瞳孔位置を基点とした左眼テンプレートを作成する。
【0058】
図8(a)に示す眼のテンプレートの大きさは、例えば右眼左眼瞳孔位置間の距離によって次式から決定する。
平均的な人間の右眼左眼瞳孔位置間の距離:測定された右眼左眼瞳孔位置間の距離=平均的な人間の眼と眉が入る程度の大きき:眼のテンプレートの大きさ
【0059】
また図8(b)に示すように、パターンマッチングを階層的に行うために、右眼瞳孔位置と左眼瞳孔位置の中点を基点として顔全体が入る大きさの顔テンプレートを作成してもよい。
顔テンプレートの大ききは、例えば右眼左眼瞳孔位置間の距離によって次式から決定する。
平均的な人間の右眼左眼瞳孔位置間の距離:測定された右眼左眼瞳孔位置間の距離=平均的な人間の顔が入る程度の大きさ:顔テンプレートの大きさ
ここで、眼と眉が入る大きさの平均値及び顔全体が入る大きさの平均値は、例えば統計的に求めた値を用いることができる。
【0060】
テンプレート作成部426が作成したテンプレートは、第1のパターンマッチング部424及び第2のパターンマッチング部425へ供給される。
【0061】
テンプレートの作成が終わると、視点位置出力判定部428がパターンマッチングを一定回数行ったかどうかの判別を行う(ステップS15)。視点位置出力判定部428がパターンマッチングを一定回数行っていないと判別した場合はステップS16へ進み、パターンマッチングを一定回数行ったと判別した場合はステップS18へ進む。ただし、ステップS14でテンプレートを作成した直後のステップS15では無条件にステップS18へ進む。また、ステップS18に進んだ場合は、それまで数えていたパターンマッチングの回数を0として、再度一定回数になるまでステップS16に進ませる。
【0062】
パターンマッチングを一定回数行っていないと判別された場合、第1の可視画像記憶部421に記憶された第1の可視画像と、上述した眼のテンプレートを用いてパターンマッチングを行う(ステップS16)。第1のパターンマッチング部424はパターンマッチングを行うが、パターンマッチングはたとえば正規化相関関数を用いて行うことができる。正規化相関関数を用いたパターンマッチングについては例えば、「マトロックスイメージングライブラリ バージョン5.1 ユーザガイド(Matrox Imaging Library Version 5.1 User Guide)」 第154〜155ページに記載されている。正規化相関関数によって得られる値は0〜100(%)として表され、100%が完全一致を意味する。
【0063】
本実施形態においては、例えば85%を超える相関度が得られれば、パターンマッチングが成功したと見なす。テンプレート作成直後のパターンマッチングは、テンプレートの元になった画像とパターンマッチングを行う画像データが同一であるため、基本的にほぼ100%の相関度が得られるはずである。また、パターンマッチングはテンプレートマッチングと呼ばれることもある。
【0064】
テンプレートと第1の可視画像のパターンマッチング結果が所定の相関度を満たした場合には、ステップS17においてパターンマッチング成功と判断され、ステップS21へ移行する。一方、相関度が所定値に満たなければ、テンプレートを作成し直す必要があると考えられるため、ステップS11へ戻り、再度処理を行う。
【0065】
また、パターンマッチングを階層的に行うために、上述した顔全体が入る大きさの顔テンプレートを利用しても良い。パターンマッチングを階層的に行うには、まず顔テンプレートを用いて第1の可視画像とパターンマッチングを行い、おおよその観察者の位置を検出する。次に顔テンプレートを利用したパターンマッチングの結果を元に、眼のテンプレートを用いて第1の可視画像とパターンマッチングを行い、観察者の視点位置を検出する。このように、階層的にパターンマッチングを行い、段階的に探索範囲を絞っていくことで、誤った視点位置の検出(失敗ではない)を防ぎ、精度良い追従ができる。
【0066】
また、パターンマッチングを一定回数行ったと判別された場合、第1の可視画像記憶部421に記憶された第1の可視画像と上述したテンプレートを用いたパターンマッチング、及び第2の可視画像記憶部422に記憶された第2の可視画像と上述したテンプレートを用いたパターンマッチングを行う(ステップS18)。第1の可視画像、第2の可視画像それぞれについて、パターンマッチングの方法はステップS16と同様の方法を用いる。
【0067】
ここで、テンプレートの作成元は第1の可視画像撮影部411で撮影した第1の可視画像であり、第2の可視画像撮影部412で撮影した第2の可視画像とは異なるが、本実施形態において第1の可視画像撮影部411と第2の可視画像撮影部412の距離は大きく離れていないため問題はない。
【0068】
次にテンプレートと第1の可視画像のパターンマッチング結果及び第2の可視画像のパターンマッチング結果が所定の相関度(85%)を満たした場合には、ステップS19においてパターンマッチング成功と判断され、ステップS20へ移行する。一方、相関度が所定値に満たなければ、テンプレートを作成し直す必要があると考えられるため、ステップS11へ戻り、再度処理を行う。
【0069】
パターンマッチングが成功である場合は、第1の可視画像のパターンマッチング結果及び第2の可視画像のパターンマッチング結果を利用して、ステレオビジョンによる前後方向の視点位置検出を行う(ステップS20)。通常、ステレオビジョンでは複数の画像間での対応点の探索が問題点になるが、第1の画像及び第2の画像とパターンマッチングを行うとき、上述した共通のテンプレートを用いるため特に問題はない。
【0070】
ステップS17、またはステップS20が終了したら視点位置出力判定部428が、観察者の視点位置情報の出力を行う(ステップS21)。ただし、ステップS20で観察者の前後方向と左右方向の視点位置検出が成功した後には、観察者の前後方向と左右方向の視点位置情報を出力する。また、ステップS17で観察者の左右方向の視点位置検出が成功した後には、前後方向の視点位置については以前に求めた前後方向の視点位置検出結果を利用して、観察者の前後方向と左右方向の視点位置情報を出力する。視点位置出力判定部428から出力する視点位置情報は、即ち視点位置検出部402が出力する視点位置情報である。また、視点位置検出部402から視点位置情報が出力されると、マスクパターン制御部403が視点位置情報を受け取り、立体画像表示部405のマスクパターン制御を行う。
【0071】
視点位置検出部402から視点位置情報が出力されると、ステップS22においてシステム終了を行うか否かを判定し、システムの動作終了を指示されていなければ第1の可視画像撮影部411及び第2の可視画像撮影部412から、それぞれ第1の可視画像及び第2の可視画像を取り込み、それぞれ第1の可視画像記憶部421及び第2の可視画像記憶部422へ記憶してからステップS15へ戻る。以降、パターンマッチング処理を継続し、パターンマッチングが失敗すると自動的に赤外光を発光してテンプレートの再作成処理を行う。
【0072】
ステップS22において終了処理が指示された場合には、所定の終了処理を行って(ステップS23)一連の処理を終了する。以上の処理により、視点位置の検出を左右方向を一定回数(S15)行うごとに前後方向を1回行うようにしたので、全体として演算回数を削減でき、処理の高速化を図ることができる。
【0073】
(第2の実施形態)
第1の実施形態においては、左右方向の視点位置検出回数に比べて、前後方向の視点位置検出回数を低い頻度で行うために、左右方向と前後方向の検出を一定比回数(ただし、左右方向検出回数>前後方向検出回数)で行うことで、全体の視点位置検出処理の高速化を行う構成を説明した。しかし、観察者が椅子などに座って頻繁に前後方向に動かない環境においては、観察者が押し下げることができるスイッチなどをあらかじめ用意して、通常は左右方向の検出のみ行い、観察者が立体画像を観察できなくなったときにスイッチを押し下げると前後方向検出を行うようにしても同様の効果が得られる。本実施形態においては、この構成について説明する。
【0074】
図3は本発明の第2の実施形態の構成を示すブロック図である。本図においても図1と同様に、撮影部401、視点位置検出部402、マスクパターン制御部403、画像制御部404、立体画像表示部405を併せて立体画像表示システムを構成した場合を示している。図3において、第1の実施形態を示す図1と同一の構成要素には同じ参照番号を付し、その説明は省略する。
【0075】
本実施形態において、第1の実施形態と異なるのは、視点位置検出部402が観察者指示部431を有している点である。観察者指示部431は、いわゆるスイッチ手段であり、観察者が押し下げると観察者から指示があったことを検出する。観察者からの指示があった場合、この観察者指示手段431からの指示信号は視点位置出力判定部428に入力され、それに応答して視点位置出力判定部428は第2のパターンマッチング部へパターンマッチングを行うように信号を送る。これにより、観察者からの指示があると前後方向の視点位置検出が行われる。
【0076】
具体的な動作を図4を用いて説明する。図4は、本実施形態の動作を示すフローチャートである。図4において、図2と同じ動作を行うステップについては同じ参照番号を付し、重複する説明は省略する。
【0077】
図4から明らかなように、本実施形態は、図2に示す処理ステップから、一定回数パターンマッチングを行ったかどうか判定するステップ(ステップS15)を除去し、観察者からの指示があったかどうかを判定する観察者指示部431からの信号の有無を判別するステップS24を付加したものである。
【0078】
このステップS24の付加により、通常は観察者の左右方向の視点位置のみを検出し、観察者が観察者指示手段431を介して指示を行ったときのみ前後方向及び左右方向の視点位置検出を行うようにすることができる。その結果、視点位置検出処理の高速化を行うことができる。
【0079】
【その他の実施形態】
上述の実施形態では、パターンマッチングに失敗したときにはテンプレートを作成しなおす場合を説明したが、あらかじめ定めた規定回数失敗するまで、あるいは終了処理が行われるまでは同じテンプレートでパターンマッチング処理を繰り返すようにしても良い。こうすることで、テンプレートを作成するステップを減らすことができ、さらに視点位置検出の高速化を行うことができる。
【0080】
また、上述の実施形態では、赤外光を発光する際に、立体画像表示部405の輝度や観察者までの距離に応じてその発光量を変化させたり、赤外画像からの瞳孔位置検出が失敗してやり直す際には前回と発光量を変化させる(強くする、あるいは弱くする)こともできる。このような発光量の制御は、赤外画像からの瞳孔位置検出を成功させる確率を高め、結果として視点位置検出の高速化を行うことができる。
【0081】
また、上述の実施形態では、逆に、赤外光を発光する際に、立体画像表示部405の輝度を変化させても良い。例えば輝度を下げると、観察者の瞳孔が開くため赤外画像からの瞳孔位置検出を成功させる確率を高め、結果として視点位置検出の高速化を行うことができる。
【0082】
また、上述の実施形態では本発明による視点位置検出装置の検出結果を立体画像表示装置に供給する場合を例にして説明したが、本発明による視点位置検出装置は、任意の用途に用いることができる。
【0083】
また、上述の実施形態において説明した具体的な手法、例えばパターンマッチングの方法、テンプレート作成の方法等は、実施形態において説明した者に限定されるものではなく、同等に適用可能な方法を用いても良いことはいうまでもない。
【0084】
また、上述の実施形態においては、ピンポイントの座標である視点位置を出力するように構成されていたが、例えば上述の実施形態のように最終的に得られる視点位置を立体画像表示装置の制御に用いる場合であれば、右眼と左眼の視点位置の中心位置がわかれば最低限の制御は可能であるため、テンプレートの中心位置を画像表示部3へ出力するようにしても良い。
【0085】
また、上述の実施形態においては、視点位置を検出するためにパターンマッチング、もしくはステレオビジョンによる方法を用いているが、パターンマッチング、もしくはステレオビジョンによる方法に限定されたものではないことは言うまでもない。
【0086】
上述の実施形態においては、本発明による視点位置検出装置を好適に用いることが可能な立体画像表示装置(立体画像表示部)として、レンチキュラレンズを用いた立体画像表示装置のみを開示したが、左右方向よりも前後方向に長い立体視観察領域を有する立体画像表示装置であれば、その方式は問わない。
【0087】
また、上述の実施形態においては、本発明による視点位置検出装置を好適に用いることが可能な立体画像表示装置(立体画像表示部)として、レンチキュラレンズを用いた立体画像表示装置のみを開示したが、例えばインテグラルフォトグラフィー方式(レンチキュラ方式を左右方向だけでなく上下方向にも拡張した、いわゆる蝿の目レンズ方式)に適用してもよい。その場合、(左右方向だけでなく)上下方向よりも前後方向に長い立体視観察領域を有するようであれば、上下方向における位置検出よりも前後方向における位置検出に要する処理を減じることによって視点位置検出処理の高速化を実現できることはいうまでもない。
【0088】
また、本発明の本質は視点位置検出装置において、左右方向もしくは上下方向における位置検出よりも前後方向における位置検出に要する処理を減じることによって視点位置検出処理の高速化を実現することにある。従って、実施形態で説明したような、検出頻度を変化させる方法に限定されるものではなく、左右方向もしくは上下方向の位置検出よりも処理の容易な方法によって前後方向の位置を検出する等、他の方法を用いても良い。
【0089】
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
【0090】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
【0091】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0092】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0093】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図2、図4のいずれかに示す)フローチャートに対応するプログラムコードが格納されることになる。
【0094】
【発明の効果】
以上説明したように、本発明によれば、立体画像表示部が左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有していることに応じて、視点位置の検出を高速化することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る視点位置検出装置を用いた立体画像表示システムの構成例を示すブロック図である。
【図2】本発明の第1の実施形態に係る視点位置検出装置の動作を説明するフローチャートである。
【図3】本発明の第2の実施形態に係る視点位置検出装置を用いた立体画像表示システムの構成例を示すブロック図である。
【図4】本発明の第2の実施形態に係る視点位置検出装置の動作を説明するフローチャートである。
【図5】従来のリアクロスレンチキュラ方式の立体画像表示装置の構成例を示す斜視図である。
【図6】視点位置により表示制御を行う従来の立体画像表示装置の例を示す斜視図である。
【図7】立体画像観察領域を説明する図である。
【図8】テンプレートの作成を説明する図である。

Claims (9)

  1. 左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有する立体画像表示部を制御するために、該立体画像表示部の表示画像を観察している被測定者の視点位置を検出する視点位置検出装置であって、
    被測定者の視点位置が、前記左右方向もしくは上下方向に関する位置を表す第1の位置情報と、前記前後方向に関する位置を表す第2の位置情報との組み合わせで表現され、
    前記第1の位置情報を検出する第1の位置検出手段と、
    前記第1の位置情報および前記第2の位置情報を検出する第2の位置検出手段と、
    前記第1の位置情報及び前記第2の位置情報とを前記視点位置として出力する出力手段とを有し、
    前記第2の位置検出手段を用いた検出頻度が、前記第1の位置検出手段を用いた検出頻度より低いことを特徴とする視点位置検出装置。
  2. さらに、前記立体画像表示部を有し、
    前記立体画像表示部は、
    光源から出射する光束の方向を制御することによって被測定者の右目に入射する光束と左目に入射する光束とを生成する光束制御手段と、
    前記出力手段から出力された視点位置に基づいて、前記立体視観察領域の位置を移動させる位置制御手段とを有することを特徴とする請求項1記載の視点位置検出装置。
  3. 左右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有する立体画像表示部を制御するために、該立体画像表示部の表示画像を観察している被測定者の視点位置を検出する視点位置検出方法であって、
    被測定者の視点位置が、前記左右方向もしくは上下方向に関する位置を表す第1の位置情報と、前記前後方向に関する位置を表す第2の位置情報との組み合わせで表現され、
    前記第1の位置情報を検出する第1の位置検出ステップと、
    前記第1の位置情報及び前記第2の位置情報を検出する第2の位置検出ステップと、
    前記第1の位置情報及び前記第2の位置情報とを前記視点位置として出力する出力ステップとを有し、
    前記第2の位置検出ステップによる検出頻度が、前記第1の位置検出ステップによる検出頻度よりも低いことを特徴とする視点位置検出方法。
  4. 前記第1の位置検出ステップは、前記被測定者を第1の位置で撮影した可視画像に基づいて前記第1の位置情報を検出し、
    前記第2の位置検出ステップは、前記被測定者を前記第1の位置で撮影した可視画像と、前記第1の位置と異なる第2の位置で前記被測定者を撮影した可視画像とに基づいて、前記第2の位置情報を検出することを特徴とする請求項3に記載の視点位置検出方法。
  5. 前記2の位置検出ステップは、ステレオビジョン法を用いて前記第2の位置情報を検出することを特徴とする請求項4記載の視点位置検出方法。
  6. 前記第1の位置検出ステップは定期的に行われ、前記第2の位置検出ステップは前記第1の位置情報の検出処理が所定回数処理された場合に行われることを特徴とする請求項3乃至請求項5のいずれか1項に記載の視点位置検出方法。
  7. 前記被測定者の赤外画像を取得する赤外画像取得ステップと、
    前記赤外画像から前記被測定者の瞳孔位置を検出するとともに、当該瞳孔位置を用いて視点位置検出用テンプレートを生成するテンプレート生成ステップとをさらに有し、
    前記第1の位置検出ステップにおいて、前記テンプレートと前記第1の位置から撮影した可視画像とのパターンマッチングにより前記第1の位置情報を検出し、
    前記第2の位置検出ステップにおいて、前記テンプレートと前記第2の位置から撮影した可視画像とのパターンマッチング結果及び前記第1の位置情報から、前記第2の位置情報を検出することを特徴とする請求項3乃至請求項6のいずれか1項に記載の視点位置検出方法。
  8. 右方向もしくは上下方向よりも前後方向に長い立体視観察領域を有する立体画像表示部を制御するために、該立体画像表示部の表示画像を観察している被測定者の視点位置を検出する視点位置検出装置を、コンピュータにて実現するためのプログラムであって、
    前記左右方向もしくは上下方向に関する位置を表す第1の位置情報を検出する第1の位置検出手段と、
    前記第1の位置情報及び、前記前後方向に関する位置を表す第2の位置情報を検出する第2の位置検出手段と、
    前記第1の位置情報及び前記第2の位置情報とを前記視点位置として出力する出力手段として、コンピュータを機能させるためのプログラムであり、
    前記第2の位置検出手段を用いた検出頻度、前記第1の位置検出手段を用いた検出頻度より低くすることを特徴とするプログラム。
  9. 請求項8記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2001024366A 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム Expired - Fee Related JP3647376B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001024366A JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US09/812,677 US6856341B2 (en) 2001-01-31 2001-03-21 Viewpoint detecting apparatus, viewpoint detecting method, and three-dimensional image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001024366A JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム

Publications (2)

Publication Number Publication Date
JP2002232917A JP2002232917A (ja) 2002-08-16
JP3647376B2 true JP3647376B2 (ja) 2005-05-11

Family

ID=18889514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001024366A Expired - Fee Related JP3647376B2 (ja) 2001-01-31 2001-01-31 視点位置検出装置、視点位置検出方法及び立体画像表示システム

Country Status (2)

Country Link
US (1) US6856341B2 (ja)
JP (1) JP3647376B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233699B2 (en) * 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
JP3966830B2 (ja) * 2003-03-28 2007-08-29 株式会社東芝 立体表示装置
KR100970721B1 (ko) * 2003-07-29 2010-07-16 삼성전자주식회사 고해상도 3차원 영상 디스플레이
JP3944188B2 (ja) * 2004-05-21 2007-07-11 株式会社東芝 立体画像表示方法、立体画像撮像方法及び立体画像表示装置
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
WO2009136207A1 (en) * 2008-05-09 2009-11-12 Mbda Uk Limited Display of 3-dimensional objects
JP5613988B2 (ja) * 2009-03-09 2014-10-29 株式会社ニコン 表示装置
JP5395615B2 (ja) 2009-10-27 2014-01-22 キヤノン株式会社 無線通信装置、無線通信装置の制御方法及びプログラム
JP5491217B2 (ja) * 2010-01-27 2014-05-14 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、ゲームシステム
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
KR101652401B1 (ko) * 2010-09-07 2016-08-31 삼성전자주식회사 입체 영상 디스플레이 장치 및 입체 영상 표시 방법
JP5263355B2 (ja) * 2010-09-22 2013-08-14 株式会社ニコン 画像表示装置及び撮像装置
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
JP5725159B2 (ja) * 2011-03-30 2015-05-27 富士通株式会社 測定装置、立体画像表示装置及び測定方法
JP5602708B2 (ja) * 2011-11-09 2014-10-08 楽天株式会社 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6027764B2 (ja) 2012-04-25 2016-11-16 キヤノン株式会社 ミラーシステム、および、その制御方法
US9215448B2 (en) 2013-01-31 2015-12-15 Here Global B.V. Stereo panoramic images
US9699436B2 (en) * 2014-09-16 2017-07-04 Microsoft Technology Licensing, Llc Display with eye-discomfort reduction
US9757863B2 (en) 2015-01-30 2017-09-12 Canon Kabushiki Kaisha Robot apparatus, exchanger apparatus and robot system
JP2017191501A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106056601B (zh) * 2016-05-27 2018-10-09 北京理工大学 一种基于视频的人眼位置探测方法
EP3333617B1 (en) 2016-12-09 2021-12-15 Nokia Technologies Oy Device for communication, method of operating such device
JP7103354B2 (ja) * 2017-05-24 2022-07-20 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN113920144B (zh) * 2021-09-30 2022-09-13 广东省国土资源测绘院 一种实景照片地面视域分析方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08314034A (ja) * 1995-05-18 1996-11-29 Canon Inc 立体画像表示方法及び装置
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
JP3728013B2 (ja) 1996-05-20 2005-12-21 キヤノン株式会社 立体画像表示装置
DE69735736T2 (de) * 1996-01-31 2006-11-02 Canon K.K. Stereoskopische Bilddarstellungsvorrichtung mit verbreitertem Beobachtungsfeld
JP3703225B2 (ja) 1996-09-02 2005-10-05 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3397602B2 (ja) * 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
US6157402A (en) * 1997-02-13 2000-12-05 Torgeson; W. Lee Autostereoscopic image presentation system using a screen assembly
JPH10232367A (ja) * 1997-02-18 1998-09-02 Canon Inc 立体画像表示方法及びそれを用いた立体画像表示装置
JPH10334275A (ja) * 1997-05-29 1998-12-18 Canon Inc 仮想現実方法及び装置並びに記憶媒体
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3428920B2 (ja) * 1999-03-25 2003-07-22 キヤノン株式会社 視点位置検出装置、方法及び立体画像表示システム

Also Published As

Publication number Publication date
US6856341B2 (en) 2005-02-15
JP2002232917A (ja) 2002-08-16
US20020101506A1 (en) 2002-08-01

Similar Documents

Publication Publication Date Title
JP3647376B2 (ja) 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6757422B1 (en) Viewpoint position detection apparatus and method, and stereoscopic image display system
US10048750B2 (en) Content projection system and content projection method
JP2001195582A (ja) 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP3450801B2 (ja) 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JPH10239634A (ja) 立体映像表示装置
CN103168272A (zh) 进深推定摄像装置以及摄像元件
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
JP2000152285A (ja) 立体画像表示装置
JP3428920B2 (ja) 視点位置検出装置、方法及び立体画像表示システム
CN114650350A (zh) 注视检测设备、注视检测方法和计算机可读存储介质
JP2001145129A (ja) 立体画像表示装置
JP2021170699A (ja) 電子機器
JP3192483B2 (ja) 光学機器
JP3416706B2 (ja) 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2001242417A (ja) 瞳孔位置検出装置及びそれを用いた画像表示装置
JP3109870B2 (ja) ビデオカメラ
US20230083725A1 (en) Personal authentication apparatus, personal authentication method, and storage medium
JP7358130B2 (ja) 電子機器およびその制御方法
JPH10179520A (ja) 視線検出方法及び装置並びに記憶媒体
JP2023063760A (ja) 識別装置
JP3578808B2 (ja) 立体表示装置
JP2024003432A (ja) 電子機器
JP2021182736A (ja) 電子機器
JP2021064928A (ja) 電子機器

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20041109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050208

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090218

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100218

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110218

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120218

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130218

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees