JPWO2016136074A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2016136074A1
JPWO2016136074A1 JP2017501856A JP2017501856A JPWO2016136074A1 JP WO2016136074 A1 JPWO2016136074 A1 JP WO2016136074A1 JP 2017501856 A JP2017501856 A JP 2017501856A JP 2017501856 A JP2017501856 A JP 2017501856A JP WO2016136074 A1 JPWO2016136074 A1 JP WO2016136074A1
Authority
JP
Japan
Prior art keywords
display surface
user
operation instruction
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017501856A
Other languages
English (en)
Other versions
JP6586991B2 (ja
Inventor
野田 卓郎
卓郎 野田
安田 亮平
亮平 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016136074A1 publication Critical patent/JPWO2016136074A1/ja
Application granted granted Critical
Publication of JP6586991B2 publication Critical patent/JP6586991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/10Viewfinders adjusting viewfinders field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)

Abstract

【課題】ユーザの眼球位置が表示面の視野中心に一致するように、機器の位置を調整させることが可能な情報処理装置を提供する。【解決手段】表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定する眼球位置推定部と、眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、を備える、情報処理装置が提供される。【選択図】図4

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
多様なコンテンツが表示される表示面に対するユーザの視線を検出し、検出された視線を各種の動作に利用する技術が提案されている。例えば、特許文献1には、ファインダーを覗き込むユーザの眼球に赤外帯域の光(赤外光)を照射し、その眼球からの反射光を検出器によって捉えることによりスルー画が表示される表示面に対するユーザの視線を検出するとともに、検出された視線を自動焦点調節(AF:Auto Focus)に利用する撮像装置が開示されている。
近年、ヘッドマウントディスプレイやメガネ型端末等のウェアラブル端末の開発が急速に進んでいる。このようなユーザが装着してディスプレイを見るようなウェアラブル端末においてもユーザの視線を検出する技術は重要であり、検出された視線は、例えば、端末の操作情報として利用されたり、自動焦点調節の情報として用いられたりする。
特開平5−333259号公報
しかし、ユーザの眼球位置が、撮像装置やウェアラブル端末等の機器の表示面の視野中心から延びる光軸からずれていると、ユーザは、表示面に表示されている画像をきれいに見ることができない。また、ユーザの視線を精度よく検出することができない。
そこで、本開示では、ユーザの眼球位置が表示面の視野中心から延びる光軸上にあるように、機器の位置を調整させることが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定する眼球位置推定部と、眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、を備える、情報処理装置が提供される。
また、本開示によれば、情報処理装置により、表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定すること、眼球位置に基づき特定される表示面での眼球位置と、表示面の視野中心とのずれ量を推定すること、推定されたずれ量に基づいて、表示面を備える機器の位置を調整するための操作指示を行うこと、とを含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを、表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定する眼球位置推定部と、眼球位置に基づき特定される表示面での眼球位置と、表示面の視野中心とのずれ量を推定するずれ推定部と、推定されたずれ量に基づいて、表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、を備える、情報処理装置として機能させるプログラムが提供される。
以上説明したように本開示によれば、ユーザの眼球位置が表示面の視野中心に位置するように、機器の位置を調整させることができる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
電子ビューファインダーと接続された撮像装置を備える撮像システムの一例を示す概略斜視図である。 電子ビューファインダーの一構成例を示すyz平面での概略断面図である。 電子ビューファインダーの光源基板の一構成例を示すxy平面での概略断面図である。 同実施形態に係る情報処理装置である情報処理部の機能構成を示す機能ブロック図である。 同実施形態に係る情報処理部による操作指示処理を示すフローチャートである。 瞳孔角膜反射法を用いた光軸ベクトルの算出処理について説明するための説明図である。 同実施形態に係る操作指示部による操作指示の一例を示す説明図である。 本開示の第2の実施形態に係る眼鏡型のウェアラブル端末の概略構成を示す概略平面図であって、ユーザの顔面と対向する側の構成を示す。 同実施形態に係るウェアラブル端末が装着されたときの、ユーザの眼球とウェアラブル端末との位置関係を示す概略側面図である。 両眼の視線検出を行う場合の画像基準位置を説明する説明図である。 同実施形態に係る操作指示部による操作指示の一例を示す説明図である。 ウェアラブル端末を上下に移動させる上下操作指示オブジェクトの一例を示す説明図である。 ウェアラブル端末を回転させる回転操作指示オブジェクトの一例を示す説明図である。 ウェアラブル端末の左右の片側を前後に移動させる操作指示オブジェクトの一例を示す説明図である。 ウェアラブル端末を前後に移動させる操作指示オブジェクトの一例を示す説明図である。 同実施形態に係る情報処理装置のハードウェア構成を示すハードウェア構成図である
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(EVFへの適用)
1.1.機器の装置構成
1.2.機能構成
1.3.眼球位置のずれを解消させるための操作指示処理
2.第2の実施形態(ウェアラブル端末への適用)
2.1.機器の装置構成
2.2.眼球位置のずれを解消させるための操作指示処理
2.3.操作指示オブジェクトのバリエーション
3.ハードウェア構成
本開示の一実施形態に係る情報処理装置は、表示部と、当該表示部の表示面を見ているユーザの視線を検出する視線検出装置を備える機器に適用される。例えば、情報処理装置は、電子ビューファインダーと接続された撮像装置や、ヘッドマウントディスプレイ、眼鏡型のウェアラブル端末等に適用され、各機器の表示面への眼球位置を調整させる。
情報処理装置は、ユーザの眼球位置が機器の表示面の視野中心にあるか否かを判定し、ユーザの眼球位置と表示面の視野中心とがずれている場合には、このずれが解消するようにユーザに機器を移動させる操作指示を行う。ユーザは、通知された操作指示に基づいて機器を移動して表示面の視野中心に眼球が位置するようにする。
ユーザの眼球位置を表示面の視野中心に合わせることで、視線検出装置による視線検出精度を高めることができ、表示部に表示されている画像をユーザはより鮮明に見ることができる。また、視線による機器の操作が可能な場合には、視線検出精度が高まることで、実際の視線方向と検出された視線方向とのずれが小さくなり、ユーザの意図する操作を正確に機能させることが可能となる。
以下、情報処理装の構成とこれによるユーザへの操作指示について、詳細に説明していく。
<1.第1の実施形態>
[1.1.機器の装置構成]
まず、図1〜図3を参照して、本開示の第1の実施形態として、本開示の情報処理装置を電子ビューファインダー(Electronic View Finder、以下「EVF」とする。)と接続された撮像装置に適用した場合について説明する。図1は、電子ビューファインダー14と接続された撮像装置12を備える撮像システム10の一例を示す概略斜視図である。図2は、EVF14の一構成例を示すyz平面での概略断面図である。図3はEVF14の光源基板144の一構成例を示すxy平面での概略断面図である。なお、以下の説明では、構成部材間の位置関係を表現するため、z軸の正方向に対して、より上流の位置のことを「前段」とも呼称し、より下流の位置のことを「後段」とも称する。
本実施形態に係る情報処理装置は、例えば図1に示すように、撮像装置12と、当該撮像装置12に電気的に接続されたEVF14とからなる撮像システム10に適用される。EVF14は、撮像装置12のレンズから入射した光がCCD等の撮像素子によって変換された画像データを、表示部141に表示させる。ユーザは、EVF14のアイカップ145を覗き込み、表示部141の表示面141aに表示されるスルー画を観察しながら、撮影対象を映すアングルや、倍率、露出、焦点等の撮影条件を適宜調整する。これにより、ユーザは、所望の撮像画像を取得することができる。
より詳細に説明すると、EVF14は、図2及び図3に示すように、表示部141と、光路変更素子142と、ルーペユニット143と、光源基板144と、アイカップ145と、撮像部146とヒンジ147とを備える。図2に示すように、これらの構成部材のうち、表示部141、光路変更素子142、ルーペユニット143、光源基板144及びアイカップ145は、この順に1列に並ぶように配設される。EVF14は、アイカップ145がユーザ側に位置するように撮像装置12に搭載される。
表示部141は、情報を表示する表示装置であって、例えば、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)装置やLEDディスプレイ装置、液晶ディスプレイ装置等を用いて構成される。表示部141には、例えば、撮像装置12によって撮像された撮影画像がスルー画として表示される。ユーザは、表示部141の表示面141aに表示されたスルー画像を見ながら、撮像装置12による撮影範囲や現在の撮影条件の設定等を確認することができる。
光路変更素子142は、表示部141の表示面141aと対向するように配設される光学部材であり、一方向からの入射光を直線的に透過させるとともに、他方向からの光(又は光の一部)を所定の方向に反射させる。光路変更素子142としては、例えばビームスプリッタを用いることができる。光路変更素子142は、図2に示すように、表示部141の表示面141aから入射した光を直線的に通過させ、ユーザの眼Eに入射させる。また、光路変更素子142は、ユーザの視線を検出するためにユーザの眼Eに照射された光の反射光を反射し、撮像部146へ導く。
ルーペユニット143は、光路変更素子142の後段に配設される光学部材であり、表示部141の表示面141aに表示されている情報を拡大する。例えば、ルーペユニット143として、少なくとも1つの各種のレンズによって構成されるレンズ系を用いてもよい。
光源基板144は、ルーペユニット143の後段に配設される部材であり、ユーザの視線を検出するための要素を備えている。光源基板144の後段側の平面には、図3に示すように、略中央部に開口部149が形成されており、その開口部149の周囲に複数の光源148(148a〜148h)が設けられている。開口部149は、ユーザが、アイカップ145を覗き込んだときに、光源基板144の前段側に設けられている表示部141の表示情報を観察することができるようにするために形成されている。光源148(148a〜148h)は、アイカップ145を覗き込んでいるユーザの眼Eに対して光を照射する。光源148(148a〜148h)としては、例えば可視光帯域以外の波長帯域(例えば、赤外線帯域)の光を発するLEDを用いてもよい。可視光帯域以外の光を発する光源を用いることにより、当該光源からユーザの眼球に向かって光が照射されたとしても、ユーザによる表示部141の表示面141aの観察を妨げることがない。
本実施形態では、図3に示すように、複数の光源148(148a〜148h)は、ユーザの眼球に対して上下左右の方向から光を照射可能に配設されている。具体的には、複数の光源148(148a〜148h)は、開口部149の上辺に対応する位置にLED148a〜148cが配設され、開口部149の右辺に対応する位置にLED148dが配設されている。また、開口部149の下辺に対応する位置にLED148e〜148gが配設され、開口部149の左辺に対応する位置にLED148hが配設されている。
このように略四角形の開口部149の周囲を取り囲むように配設された光源148(148a〜148h)は、制御回路(図示せず。)によって駆動される。制御回路は、EVF14と撮像装置12との間で信号を送受信するコントローラ(図示せず。)に接続されている。コントローラから視線検出指示を受けた制御回路は、当該指示にしたがって光源148の発光制御を行う。なお、コントローラは、後述する撮像部146とも接続されており、制御回路に対して視線検出指示を出力したとき、撮像部146に対しても撮影指示を出力する。これにより、ユーザの眼Eに光源148から光が出射されている状態での眼の画像を取得することができる。
アイカップ145は、光源基板144の後段に配設され、ユーザが表示部141の表示面141aを観察する際に、ユーザが覗き込み、当該ユーザの眼が接触する部材である。アイカップ145は、光軸方向(z方向)に開口する開口部145aを有している。ユーザは、アイカップ145の開口部145aから、表示部141の表示面141aを観察することができる。また、光源基板144に設けられた光源148から発せられた光は、アイカップ145の開口部145aを介してユーザの眼Eに照射される。
撮像部146は、光源148から発せられた光がユーザの眼Eで反射された光(反射光)に基づく画像を取得する。撮像部146は、例えばCCD(Charge−Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子である。撮像部146は、受光面を構成する画素毎に受光した光量に応じた強度の信号に、当該受光面への入射光に応じた画像(撮像画像)を取得する。本実施形態においては、撮像部146は、光路変更素子142によって進行方向が変更された反射光を受光可能な位置に設けられる。撮像部146により、光源148から発せられた光の、ユーザの眼Eでの反射光を受光することで、ユーザの眼Eの撮像画像が取得される。この撮像画像に基づいて、ユーザの視線方向と眼球位置が検出される。
ヒンジ147は、撮像装置12とEVF14とを接続するための接続部材である。ヒンジ147は、例えば、撮像装置12のハウジングとEVF14のハウジングとを物理的に接続させるための公知の連結機構の部材であってもよい。ヒンジ147により、図1に示すように撮像装置12とEVF14とを接続することで、ユーザは、撮像装置12に搭載されているファインダーと同様にEVF14を使用することができる。
[1.2.機能構成]
次に、図4に基づいて、本実施形態に係る情報処理装置の機能構成について説明する。なお、図4は、本実施形態に係る情報処理装置である情報処理部140の機能構成を示す機能ブロック図である。
本実施形態に係る情報処理部140は、撮像装置12に固定されたEVF14を覗き込むユーザの眼Eの眼球位置が、表示面141aの視野中心にある否かを判定する処理部である。情報処理部140は、例えば、図4に示すように、EVF14に備えられる。なお、情報処理部140は、EVF14以外の装置に設けてもよく、例えば、撮像装置12とEVF14とを接続するコントローラ(図示せず。)や、EVF14と信号の送受信可能に接続されたサーバ(図示せず。)等に設けてもよい。
本実施形態に係るEVF14は、図4に示すように、光源110と、撮像部120と、制御部130と、情報処理部140と、表示部150と、記憶部160とを備える。なお、光源110は、図3の光源148(148a〜148h)に相当し、撮像部120は、図2及び図3の撮像部146に相当する。また、制御部130は、光源148の発光制御を行う制御回路(図示せず。)や撮像部146を制御するコントローラ(図示せず。)に相当し、表示部150は、図2の表示部141に相当する。したがって、これらの機能の詳細な説明については省略する。
情報処理部140は、本実施形態に係る情報処理装置である。情報処理部140は、ユーザの眼球位置が機器の表示面の視野中心にあるか否かを判定し、ユーザの眼球位置と表示面の視野中心とがずれている場合には、このずれが解消するようにユーザに機器を移動させる操作指示を行う。具体的には、情報処理部140は、眼球位置推定部140aと、ずれ推定部140bと、操作指示部140cとからなる。
眼球位置推定部140aは、表示部150を見ているユーザの眼Eの位置を推定する。眼球位置推定部140aは、EVF14のアイカップ145を覗き込むユーザの眼Eに光源148から照射された光の反射光を検出して得られたユーザの眼の撮像画像に基づいて、ユーザの視線方向(光軸ベクトル)と眼球位置を推定する。ユーザの視線方向は、例えば瞳孔角膜反射法を用いて推定される。なお、瞳孔角膜反射法を用いた視線方向の推定処理については後述する。眼球位置推定部140aは、推定したユーザの眼球位置に関する情報を、ずれ推定部140bに出力する。
ずれ推定部140bは、眼球位置推定部140aにより推定されたユーザの眼球の表示面における位置と、表示部150の表示面の視野中心とのずれ量を推定する。ずれ推定部140bは、推定されたユーザの視線方向に、予め設定された表示部150の表示面の視野中心があるか否かを判定する。このとき、表示面における眼球位置と表示面の視野中心との差を取り、ずれ量としてもよい。ずれ推定部140bは、ずれの有無に関する判定結果とずれ量とを、操作指示部140cへ出力する。
操作指示部140cは、ずれ推定部140bによる推定結果に基づいて、ユーザに対してずれ量をなくすように機器を移動して微調整させる操作指示を行う。操作指示部140cは、表示面における眼球位置と表示面の視野中心とのずれの状態から、このずれを解消するために、例えば、機器を上下や左右、前後に移動させる指示を行う。操作指示は、例えば表示部150に、操作指示内容を表示させて行う。操作指示部140cによる操作指示内容の具体例については、後述する。操作指示部140cは、決定した操作指示を制御部130に出力し、表示部150に表示させる。
記憶部160は、EVF14における各種処理を行う際に必要な情報を記憶する。記憶部160は、例えば、表示部150の表示面の視野中心や、ユーザに対する操作指示を行うための情報等を記憶する。
以上、本実施形態に係るEVF14の機能構成について説明した。
[1.3.視線方向のずれを解消させるための操作指示処理]
本実施形態に係るEVF14では、ユーザの眼球位置を表示面の視野中心に合わせることで、ユーザの視線検出精度を高めることができ、表示部に表示されている画像をユーザはより鮮明に見ることができるようになる。本実施形態に係るEVF14は、上述の情報処理部140によって、眼球位置が表示面の視野中心に合っていない場合には、ユーザに対して、眼球位置が表示面の視野中心に合うようにするための操作指示を通知する。ユーザは、この操作指示にしたがって機器を操作することで、容易にこのずれを解消することができ、表示部141に表示されている情報をより鮮明に見ることが可能となる。
以下、図5〜図7に基づいて、本実施形態に係る情報処理部140による操作指示処理について説明する。なお、図5は、本実施形態に係る情報処理部140による操作指示処理を示すフローチャートである。図6は、瞳孔角膜反射法を用いた光軸ベクトルと眼球位置の算出処理について説明するための説明図である。図7は、同実施形態に係る操作指示部140cによる操作指示の一例を示す説明図である。
本実施形態に係る情報処理部140による機器の操作指示処理は、例えばEVF14が機能している間、常時実行される。このように常時実行させておくことで、ユーザの眼球位置が表示面の視野中心から外れてしまったときに、生じたずれを解消するための操作指示をユーザに対してすぐに通知することができる。
(1)視線位置検出(S100)
情報処理部140は、まず、図5に示すように、眼球位置推定部140aにより、アイカップ145を覗き込むユーザの眼Eの、表示部150の表示面における視線位置を検出する(S100)。眼球位置推定部140aは、例えば瞳孔角膜反射法を用いて視線方向である光軸と眼球位置を検出する。
ここで、図6に基づいて、瞳孔角膜反射法を用いた光軸の推定処理について説明する。瞳孔角膜反射法では、表示部の表示面141aを観察するユーザの眼球Eに対して光源148から光を照射し、撮像部146により光が照射された眼球Eを撮影する。そして、撮像部146により撮影された撮影画像146aに基づき、光軸が推定される。ここでは説明を簡単にするため、1つの光源148により眼球Eを照射した場合を説明する。
図6に示すように、ユーザは、表示面141aの視野中心Cを見るように、表示面141aを正面から見ているとする。このとき、光源148により眼球Eに対して光を照射し、撮像部146により眼球Eを撮影する。取得された眼球Eの撮影画像146aには、図6に示すように、ユーザの眼球Eの角膜E4、虹彩E3及び瞳孔E3が撮影されている。また、撮影画像146aでは、光源148から眼球Eに照射された照射光の輝点であるプルキニエ像(Purkinje Image)Pが撮影されている。
撮影画像146aが取得されると、光軸の算出処理が行われる。光軸の算出処理は、眼球位置推定部140aにより行われる。このため、まず、撮影画像146aから瞳孔中心S及びプルキニエ像Pが検出される。これらの検出処理は、公知の画像認識技術により行うことができる。
例えば、瞳孔E3aの像の検出処理においては、撮影画像146aに対する各種の画像処理(例えば歪みや黒レベル、ホワイトバランス等の調整処理)、撮影画像146a内の輝度分布を取得する処理等が行われる。また、取得された輝度分布に基づいて瞳孔E3aの像の輪郭(エッジ)を検出する処理や、検出された瞳孔E3aの像の輪郭を円又は楕円等の図形で近似する処理等が行われてもよい。検出された瞳孔E3aの像より、瞳孔中心Sを求めることができる。
また、プルキニエ像Pの検出処理においては、撮影画像146aに対する各種の画像処理、撮影画像146a内の輝度分布を取得する処理、当該輝度分布に基づいて周囲の画素との輝度値の差が比較的大きい画素を検出する処理等の一連の処理が行われてもよい。また、検出されたプルキニエ像Pから、プルキニエ像Pの中心を検出してもよい。
次いで、瞳孔中心S及び角膜E4の曲率中心点Cの3次元座標が算出される。角膜E4の曲率中心点Cは、角膜E4を球の一部とみなした場合の当該球の中心である。瞳孔中心Sの3次元座標は、撮影画像146aから検出された瞳孔E3aの像に基づいて算出される。具体的には、撮像部146と眼球Eとの位置関係、角膜E4表面における光の屈折、角膜E4の曲率中心点Cと瞳孔中心Sとの距離等に基づき、撮影画像E3aにおける瞳孔E3aの像の輪郭上の各点の3次元座標が算出される。これらの座標の中心点が、瞳孔中心Sの3次元座標とされる。
また、角膜E4の曲率中心点Cは、撮影画像E3aから検出されたプルキニエ像P及びその中心に基づいて算出される。具体的には、光源148と撮像部146と眼球Eとの位置関係、角膜E4の曲率半径等に基づき、撮像部146とプルキニエ像Pの中心とを結ぶ直線上において、角膜E4の表面から眼球Eの内部に向かって角膜E4の曲率半径だけ進んだ位置が、角膜E4の曲率中心点Cの3次元座標として算出される。
このように算出された角膜E4の曲率中心点Cと瞳孔中心Sとを結ぶ直線が、推定された光軸となる。すなわち、光軸と表示面141aとが交差する位置の座標が、推定されたユーザの視線位置となる。なお、角膜E4の曲率中心点Cから瞳孔中心Sに向かうベクトルを光軸ベクトルvoとする。この光軸ベクトルvoがユーザの視線の方向となる。また、曲率中心点Cからvoの逆方向に向かった位置に眼球回旋点Rがある。眼球回旋点Rまでの距離は統計量を用いてもよいし、複数の点を見た時の光軸ベクトルvoの交差点から求めてもよい。これより、表示部の表示面141aにおける眼球位置を特定することができる。
(2)ずれ量推定(S110)
眼球位置推定部140aによりユーザの眼球位置が特性されると、ずれ推定部140bは、推定されたユーザの眼球位置と画面基準位置とのずれを推定する(S110)。画面基準位置は、ユーザの視線を向けたい表示面上の位置をいい、本実施形態では表示面141aの視野中心Cである。画面基準位置は予め設定されており、例えば記憶部160に記憶されている。ずれ推定部140bは、表示面141aにおけるユーザの眼球位置と表示面141aの視野中心Cとについて座標の差分を取ることにより、これらのずれ量を得ることができる。
(3)操作要否判定(S120)
ステップS110にて推定されたユーザの眼球位置と表示面141aの視野中心Cとのずれを得ると、ずれ推定部140bは、そのずれ量が許容範囲内であるか否かを判定する(S120)。ずれ量の許容範囲は、例えば、撮像部146による撮影画像に基づく視線検出精度が許容範囲であるか否か、もしくは表示部を光学的に歪なく観察可能か否かに応じて決定され、予め記憶部160に記憶されている。ずれ推定部140bは、記憶部160を参照し、ステップS110で得たずれ量が許容範囲内であるか否かを判定する。ずれが許容範囲内である場合には、機器の位置調整は不要であるため、図5に示す処理を終了し、EVF14が起動している状態であれば、再度図5の処理の実行を開始する。
(4)機器の操作指示(S130)
一方、ステップS120にてずれが許容範囲内にないと判定した場合には、ユーザの眼球が表示面141aの視野中心Cから外れているため、操作指示部140cにより、生じたずれを解消するための操作指示をユーザに対して通知する(S130)。
図7に、ユーザの視線が表示面141aの視野中心Cからずれているときにユーザに通知される操作指示情報の一例を示す。図7左側に示すように、EVF14の表示面141aに、スルー画200が表示されているとする。ここで、ユーザが正面を向いているときに眼球位置が表示面141aの視野中心Cに一致していれば、ユーザはこのスルー画200を鮮明に見ることができる。しかし、眼球位置が表示面141aの視野中心Cに合っていないときには、スルー画200を鮮明に見ることができない。このような場合に、操作指示部140cは、ユーザに対して図7左側に示すような操作指示を行うためのオブジェクトを表示させる。
例えば、操作指示部140cは、操作指示情報として、ユーザの眼球位置を合わせたい位置である表示面141aの視野中心Cを表す目標オブジェクト212と、現在のユーザの眼球位置を表す眼球位置オブジェクト214とを表示する。目標オブジェクト212及び眼球位置オブジェクト214は、例えば図7に示すように眼の形状であってもよく、例えば円形や四角形、星形等、その他の形状であってもよい。ユーザは、目標オブジェクト212及び眼球位置オブジェクト214が表示されると、正面を向いているときの眼球位置がずれていることを認識し、目標オブジェクト212と眼球位置オブジェクト214とが一致するようにEVF14を動かす。このとき、図7左側に示すように、ユーザへの操作指示として、「目の位置をファインダー中央に戻してください」といったメッセージオブジェクト220をスルー画200に重畳して表示させてもよい。
これらのオブジェクト(目標オブジェクト212、眼球位置オブジェクト214及びメッセージオブジェクト220)による操作指示を受けて、ユーザは、EVF14を上下、左右、前後に動かす。例えば、図7左側に示すように目標オブジェクト212に対して左側に眼球位置オブジェクト214がずれているときには、ユーザは、EVF14を左側に移動させて、目標オブジェクト212と眼球位置オブジェクト214とを一致させる。このとき、ステップS100〜S120の処理を繰り返し、EVF14の移動に伴う眼球位置オブジェクト214の表示位置も変化させることで、正しい方向に機器を移動させているかをユーザに認識させることができる。
そして、目標オブジェクト212と眼球位置オブジェクト214とが一致したとき、視線は表示面141aの視野中心Cに向いている状態となる。このように、ずれ推定部140bにより推定されたずれ量が許容範囲となり、EVF14を移動させる必要がなくなると、操作指示部140cは、図7右側に示すように、表示していた操作指示のオブジェクトを非表示とし、ユーザへの操作指示を終了する。また視野中心Coと目標オブジェクト212の位置が一致している場合は、眼球位置の代わりに角膜中心の位置を用いてもよい。
以上、本実施形態に係る情報処理部140による機器の操作指示処理について説明した。かかる処理によれば、ユーザの眼球位置が画面基準位置である表示面141aの視野中心Cの許容範囲外にあるときに、ユーザに機器を移動させて視線が表示面141aの視野中心Cを向くように操作させる操作指示を視覚的に通知する。これにより、ユーザは、視線が表示面141aの視野中心Cからずれたことを認識し、適切な状態とする操作を行うことができる。したがって、ユーザはEVF14に表示されている画像を鮮明な状態で見ることができる。
<2.第2の実施形態>
次に、本開示の第2の実施形態として、本開示の情報処理装置を眼鏡型のウェアラブル端末に適用した場合について説明する。眼鏡型のウェアラブル端末は、第1の実施形態のEVF14と比較して、両眼の視線を検出する点で相違する。しかし、各眼の視線検出方法及び画面基準位置からの視線位置のずれを解消するための処理については、第1の実施形態と同様に行うことができる。そこで、以下では、本実施形態に係る眼鏡型のウェアラブル端末の概略構成と、眼鏡型のウェアラブル端末に情報処理部140を適用した場合の眼球位置のずれを解消するための操作指示処理について、主として説明する。情報処理部140の機能構成は図4と同様であり、これによる操作指示処理は図5と同様であるため、これらについての詳細な説明は省略する。
[2.1.機器の装置構成]
まず、図8及び図9に基づいて、本開示の情報処理装置を適用する眼鏡型のウェアラブル端末(以下、単に「ウェアラブル端末」ともいう。)20の構成について説明する。なお、図8は、本実施形態に係る眼鏡型のウェアラブル端末20の概略構成を示す概略平面図であって、ユーザの顔面と対向する側の構成を示す。図9は、本実施形態に係るウェアラブル端末20が装着されたときの、ユーザの眼球Eとウェアラブル端末20との位置関係を示す概略側面図である。
眼鏡型のウェアラブル端末20は、ユーザが頭部に装着し、眼と表示部とを対向させた状態で使用される装置である。なお、本実施形態では、眼鏡型のウェアラブル端末20について説明するが、例えばヘッドマウントディスプレイにも適用可能である。本実施形態に係るウェアラブル端末20は、図8に示すように、ユーザの眼と対向する面の、右眼及び左眼に対応する位置に、それぞれ表示部23R、23Lが設けられている。本実施形態に係る表示部23R、23Lは、略長方形に形成されている。なお、筐体21には、表示部23R、23Lの間に、ユーザの鼻が位置する凹部211aが形成されていてもよい。
表示部23Rの周囲には、4つの光源24Ra、24Rb、24Rc、24Rdが、表示部23Rの4つの辺の略中央にそれぞれ設けられている。同様に、表示部23Lの周囲には、4つの光源24La、24Lb、24Lc、24Ldが、表示部23Lの4つの辺の略中央にそれぞれ設けられている。これらの光源24Ra〜24Rd、24La〜24Ldは、赤外光を発する光源からなる。各光源24Ra〜24Rd、24La〜24Ldは、これらが設けられている表示部24R、24Lに対向しているユーザの眼球Eに対して、光を照射する。
また、表示部23R、23Lの周囲には、それぞれ、眼球Eを撮影する撮像部25R、25Lが設けられている。各撮像部25R、25Lは、例えば、図8に示すように、各表示部23R、23Lの下部(各表示部23R、23Lの下部に設けられた光源24Rc、24Lcよりも下部側)に設けられる。撮像部25R、25Lは、図9に示すように、少なくとも撮影する眼球Eの瞳孔E3aが撮影範囲に含まれるように配置される。例えば、撮像部25R、25Lは、所定の仰角θを有するように配置される。仰角θは、例えば約30°としてもよい。
なお、ウェアラブル端末20は、ユーザに装着されたとき、表示部23R、23Lがユーザの眼球Eから所定の距離だけ離れるように構成される。これにより、ウェアラブル端末20を装着したユーザは、不快なく、表示部23R、23Lの表示領域を視野内に収めることができる。このとき、ユーザが眼鏡Gを装着している場合にも、その上から重ねてウェアラブル端末20を装着可能なように、表示部23R、23Lとユーザの眼球Eとの距離を決定してもよい。撮像部25R、25Lは、この状態で、ユーザの眼球Eの瞳孔E3aが撮影範囲に含まれるように配置される。
本実施形態に係るウェアラブル端末20は、図8に示すように、左右の眼それぞれについて、表示部23、光源24、撮像部25からなる表示検出ユニット22R、22Lを独立して移動可能に構成されている。表示検出ユニット22R、22Lは、例えば筐体21の底面に設けられたスライド操作部26R、26Lによって左右に移動可能に構成されている。スライド操作部26Rをスライドさせると、そのスライド方向に表示検出ユニット22Rが移動し、スライド操作部26Lをスライドさせると、そのスライド方向に表示検出ユニット22Lが移動する。このように、各表示検出ユニット22R、22Lを独立して移動可能とすることで、ユーザに合った眼間で表示部23R、23Lを見ることができるように調整できる。
[2.2.視線方向のずれを解消させるための操作指示処理]
本実施形態に係るウェアラブル端末20では、ユーザの右眼及び左眼の眼球位置を、表示部23R、23Lの視野中心にそれぞれ合わせるようにする。これにより、ユーザの視線検出精度を高めることができ、表示部23R、23Lに表示されている画像をユーザはより鮮明に見ることができるようになる。
ここで、本実施形態に係るウェアラブル端末20のように両眼で画像を見る場合、ユーザが見る画像は、2つの画像から構成される。図10に示すように、ウェアラブル端末20の表示部の全体視野Aが水平方向に−θ°〜θの範囲を有するとし、全体視野Aの視野中心Cがその中心(すなわち0°の位置)にあるとする。このとき、右眼用画像200Rは、全体視野Aのうち視野中心Cを含む−α°〜θ°の範囲を構成し、左眼用画像200Lは、全体視野Aのうち視野中心Cを含む−θ°〜α°の範囲を構成している。
このとき、ユーザの各眼の眼球位置は、対応する画像における全体視野Aの視野中心Cに一致するように調整される。上述の情報処理部140は、各眼の眼球位置が対応する表示面の視野中心に合っていないと判定した場合には、ユーザに対して、眼球位置が全体視野Aにおける視野中心Cに合うようにするための操作指示を通知する。ユーザは、この操作指示にしたがって、スライド操作部26R、26Lを操作したり、ウェアラブル端末20自体を動かしたりする。これにより、機器に対する視線方向のずれを容易に解消することができ、表示部23R、23Lに表示されている情報をより鮮明に見ることが可能となる。
図5に示した情報処理部140による機器の操作指示処理のフローチャートに沿って、本実施形態に係るウェアラブル端末20に対する操作指示処理の例を説明する。
(1)視線位置検出(S100)
情報処理部140は、まず、図5に示すように、眼球位置推定部140aにより、ウェアラブル端末20を装着したユーザの右眼及び左眼の、表示部23R、23Lの表示面における視線位置を検出する(S100)。眼球位置推定部140aは、例えば瞳孔角膜反射法を用いて視線方向である光軸を推定することで、ユーザの眼球位置を検出する。瞳孔角膜反射法を用いた光軸の推定処理は、図6に基づき第1の実施形態にて説明した方法を用いてもよい。眼球位置推定部140aは、瞳孔角膜反射法を用いて推定された光軸ベクトルvoによりユーザの眼球位置を特定し、表示部23R、23Lの表示面における眼球位置を特定することができる。
(2)ずれ量推定(S110)
眼球位置推定部140aによりユーザの眼球位置が特定されると、ずれ推定部140bは、推定されたユーザの眼球位置と画面基準位置とのずれを推定する(S110)。画面基準位置は、本実施形態では全体視野Aの視野中心Cである。画面基準位置は予め設定されており、例えば記憶部160に記憶されている。ずれ推定部140bは、各表示部23R、23Lの表示面におけるユーザの眼球位置と全体視野Aの視野中心Cとについて座標の差分を取ることにより、左右の眼について、全体視野Aの視野中心Cに対する眼球位置のずれ量を得ることができる。
(3)操作要否判定(S120)
ステップS110にて推定されたユーザの眼球位置と各表示部23R、23Lの表示面の視野中心Cとのずれを得ると、ずれ推定部140bは、そのずれ量が許容範囲内であるか否かを判定する(S120)。ずれ量の許容範囲は、例えば、撮像部146による撮影画像に基づく視線検出精度が許容範囲であるか否か、もしくは画面が光学的に歪なく観察可能か否かに応じて決定され、予め記憶部160に記憶されている。ずれ推定部140bは、記憶部160を参照し、ステップS110で得たずれ量が許容範囲内であるか否かを判定する。ずれが許容範囲内である場合には、機器の位置調整は不要であるため、図5に示す処理を終了し、ウェアラブル端末20が起動している状態であれば、再度図5の処理の実行を開始する。
(4)機器の操作指示(S130)
一方、ステップS120にてずれが許容範囲内にないと判定した場合には、ユーザの眼球が各表示部23R、23Lの表示面の視野中心Cから外れているため、操作指示部140cにより、生じたずれを解消するための操作指示をユーザに対して通知する(S130)。
図11に、ユーザの眼球位置が表示面の視野中心Cからずれているときにユーザに通知される操作指示情報の一例を示す。図9に示すスルー画200は、全体視野に表示されている画像である。ユーザが正面を向いているときに左右の眼の視線がともに表示面の視野中心Cに一致していれば、ユーザはこのスルー画200を鮮明に見ることができる。しかし、左右の眼のいずれかの眼球位置が表示面の視野中心Cに合っていないときには、スルー画200を鮮明に見ることができない。このような場合に、操作指示部140cは、ユーザに対して図11左側に示すような操作指示を行うためのオブジェクトを表示させる。
例えば、操作指示部140cは、操作指示情報として、表示検出ユニット22R、22Lを左右にスライドさせるスライド操作部26R、26Lの操作方向を示すスライド指示オブジェクト230を、スルー画200に重畳して表示させる。例えば、ずれ推定部140bによるずれ量を推定した結果、右眼の眼球位置が視野中心Cに対して左側にあると判定されたとする。このとき、図11に示すように、右眼の表示検出ユニット22Rを左側に移動させるよう、スライド操作部26Rを左側に移動させることを説明する画像がスライド指示オブジェクト230として表示部に表示される。
ユーザは、スライド指示オブジェクト230が表示されると、正面を向いているときの右眼の眼球位置がずれていることを認識し、スライド操作部26Rを左側に移動させる。このとき、図7左側に示したように、ユーザへの操作指示として、「右側のスライド操作部を左に移動させてください」といったメッセージオブジェクトをスルー画200に重畳して表示させてもよい。ユーザがスライド操作部26Rを左側に移動させて、右眼の眼球位置が表示面の視野中心Cに一致している状態となると、操作指示部140cは、図11右側に示すように、表示していたスライド指示オブジェクト230を非表示とし、ユーザへの操作指示を終了する。
以上、本実施形態に係る情報処理部140による機器の操作指示処理について説明した。かかる処理によれば、ユーザの視線が画面基準位置である表示面の視野中心Cの許容範囲外にあるときに、ユーザに機器を操作させて眼球位置が表示面の視野中心Cに位置するように操作させる操作指示を視覚的に通知する。これにより、ユーザは、眼球位置が表示面の視野中心Cからずれたことを認識し、適切な状態とする操作を行うことができる。したがって、ユーザはウェアラブル端末20に表示されている画像を鮮明な状態で見ることができる。
[2.3.操作指示オブジェクトのバリエーション]
ユーザの眼球位置が表示面の視野中心から外れて生じたずれを解消させるための操作指示オブジェクトは、上述したスライド指示オブジェクト230以外にも、以下のようなオブジェクトであってもよい。
例えば、図12に示すように、ユーザの左右の眼球位置が、表示面の視野中心に対して上方または下方にずれている場合には、ウェアラブル端末20を上下に移動させる上下操作指示オブジェクト231を表示させてもよい。上下操作指示オブジェクト231としては、例えば図12左側に示すように、ウェアラブル端末20の模式図とその移動方向を示す矢印とからなる上下操作指示オブジェクト231aを表示させてもよい。あるいは、図12右側に示すように、ウェアラブル端末20の模式図を上下操作指示オブジェクト231bとして現在の眼球位置に対して逆方向に表示し、表示面の視野中心に対応して表示された右眼及び左眼の目標オブジェクト232を表示してもよい。このとき、ユーザは、目標オブジェクト232がウェアラブル端末20の模式図の表示部に合うように移動させるようにウェアラブル端末20を移動させる。
また、例えば、図13に示すように、ユーザの左右の視線方向が、表示面の視野中心に対して回転してずれていた場合には、ウェアラブル端末20の傾きを解消するように回転させる回転操作指示オブジェクト233を表示させてもよい。回転操作指示オブジェクト233としては、例えば図13左側に示すように、ウェアラブル端末20の模式図とその回転方向を示す矢印とからなる回転操作指示オブジェクト233aを表示させてもよい。あるいは、図13右側に示すように、現在の視線方向に対応して回転されたウェアラブル端末20の模式図を回転操作指示オブジェクト233bとして表示してもよい。このとき、ユーザは、傾いて表示されている回転操作指示オブジェクト233bの傾きがなくなるようにウェアラブル端末20を回転させる。
さらに、例えば、図14に示すように、ウェアラブル端末20の各眼の表示面に対して対応する眼球からの距離が異なることもある。この場合、ウェアラブル端末20の左右の奥行きが異なるため、この奥行のずれを解消するための操作指示オブジェクト235を表示させてもよい。操作指示オブジェクト235としては、例えば図14左側に示すように、ウェアラブル端末20の模式図とその移動方向を示す矢印とからなる操作指示オブジェクト235aを表示させてもよい。あるいは、図14右側に示すように、現在の奥行きの相違を表したウェアラブル端末20の模式図を操作指示オブジェクト235bとして表示してもよい。このとき、ユーザは、操作指示オブジェクト235bの奥行きが等しくなるようにウェアラブル端末20を移動させる。
また、例えば、図15に示すように、ウェアラブル端末20の各眼の表示面と対応する眼球との距離が、好適な距離からずれていることもある。この場合、ウェアラブル端末20の左右の奥行きは等しいが、より顔面に近づけたり離したりして、ウェアラブル端末と眼との距離を適切な位置に調整するのがよい。この場合、ウェアラブル端末20の前後のずれを解消するための操作指示オブジェクト237を表示させてもよい。操作指示オブジェクト237としては、例えば図15左側に示すように、ウェアラブル端末20の模式図とその移動方向を示す矢印とからなる操作指示オブジェクト237aを表示させてもよい。あるいは、図15右側に示すように、現在の奥行きでのウェアラブル端末20の模式図を操作指示オブジェクト237bとして表示し、操作指示オブジェクト237bを移動させる目標とする位置に目標オブジェクト238を表示してもよい。このとき、ユーザは、操作指示オブジェクト237bの大きさが目標オブジェクト238と等しくなるようにウェアラブル端末20を前後に移動させる。
なお、図12〜図15では、情報処理部140による操作指示処理をウェアラブル端末20に適用した場合のオブジェクトの例を示したが、図14を除き、第1の実施形態で示したEVF14に適用する場合にも同様のオブジェクトを表示させることも可能である。
また、操作指示オブジェクトは、視覚的にユーザに操作指示内容を通知できるものであればよく、上述の例に限定されるものではない。例えば、操作指示オブジェクトとして、機器の具体的なずれ量あるいは移動量をテキスト表示してもよい。
<3.ハードウェア構成>
最後に、本実施形態に係る情報処理部140のハードウェア構成例について説明する。図16は、本実施形態に係る情報処理部140のハードウェア構成を示すハードウェア構成図である。なお、上述の実施形態では、情報処理部140はEVF14やウェアラブル端末20に備えられているものとして説明したが、例えば、以下に示すような情報処理装置に情報処理部140を設け、上述の機器と通信可能とすることで、上記操作指示処理を実行することも可能である。
本実施形態に係る情報処理部140は、上述したように、コンピュータ等の処理装置により実現することができる。情報処理部140は、図16に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、情報処理部140は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理部140内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
ストレージ装置908は、情報処理部140の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理部140に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの視線方向と眼球位置を推定する眼球位置推定部と、
前記眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、
推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、
を備える、情報処理装置。
(2)
前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量を解消する方向へ前記機器を移動させるようにユーザに指示する操作指示オブジェクトを、前記表示面に表示させる、前記(1)に記載の情報処理装置。
(3)
前記操作指示部は、前記表示面の視野中心を示す目標オブジェクトと、前記表示面での眼球位置を示すオブジェクトとを、前記表示面に表示させる、前記(2)に記載の情報処理装置。
(4)
前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量を解消させるための前記機器の操作方法を操作指示オブジェクトにより通知する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量が所定値以下となったとき、前記表示面に表示された前記操作指示オブジェクトを非表示にする、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記機器は、電子ビューファインダーが接続された撮像装置である、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記機器は、少なくとも前記ユーザの眼の前面を覆う眼鏡型のウェアラブル端末である、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(8)
情報処理装置により、
表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの視線方向と眼球位置を推定すること、
前記眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定すること、
推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行うこと、
とを含む、情報処理方法。
(9)
コンピュータを、
表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの視線方向と眼球位置を推定する眼球位置推定部と、
前記視線方向に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、
推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、
を備える、情報処理装置として機能させるプログラム。
10 撮像システム
12 撮像装置
14 電子ビューファインダー(EVF)
20 ウェアラブル端末
22L、22R 表示検出ユニット
23R、23L 表示部
24 光源
25R、25L 撮像部
26R、26L スライド操作部
110 光源
120 撮像部
130 制御部
140 表示部
140 情報処理部
140 推定部
140a 眼球位置推定部
140b 推定部
140c 操作指示部
141 表示部
141a 表示面
146 撮像部
212 目標オブジェクト
214 眼球位置オブジェクト
220 メッセージオブジェクト
230 スライド指示オブジェクト
231 上下操作指示オブジェクト
232 目標オブジェクト
233 回転操作指示オブジェクト
235 操作指示オブジェクト
237 操作指示オブジェクト
238 目標オブジェクト

Claims (9)

  1. 表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定する眼球位置推定部と、
    前記眼球位置に基づき特定される前記表示面での視線位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、
    推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、
    を備える、情報処理装置。
  2. 前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量を解消する方向へ前記機器を移動させるようにユーザに指示する操作指示オブジェクトを、前記表示面に表示させる、請求項1に記載の情報処理装置。
  3. 前記操作指示部は、前記表示面の視野中心を示す目標オブジェクトと、前記表示面での眼球位置を示すオブジェクトとを、前記表示面に表示させる、請求項2に記載の情報処理装置。
  4. 前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量を解消させるための前記機器の操作方法を操作指示オブジェクトにより通知する、請求項1に記載の情報処理装置。
  5. 前記操作指示部は、前記表示面での眼球位置と前記表示面の視野中心とのずれ量が所定値以下となったとき、前記表示面に表示された前記操作指示オブジェクトを非表示にする、請求項2に記載の情報処理装置。
  6. 前記機器は、電子ビューファインダーが接続された撮像装置である、請求項1に記載の情報処理装置。
  7. 前記機器は、少なくとも前記ユーザの眼の前面を覆う眼鏡型のウェアラブル端末である、請求項1に記載の情報処理装置。
  8. 情報処理装置により、
    表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定すること、
    前記眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定すること、
    推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行うこと、
    とを含む、情報処理方法。
  9. コンピュータを、
    表示面を見ているユーザの眼に光が照射されているときに撮影されたユーザの眼を含む撮影画像に基づいて、瞳孔角膜反射法によりユーザの眼球位置を推定する眼球位置推定部と、
    前記眼球位置に基づき特定される前記表示面での眼球位置と、前記表示面の視野中心とのずれ量を推定するずれ推定部と、
    推定された前記ずれ量に基づいて、前記表示面を備える機器の位置を調整するための操作指示を行う操作指示部と、
    を備える、情報処理装置として機能させるプログラム。
JP2017501856A 2015-02-23 2015-12-03 情報処理装置、情報処理方法及びプログラム Active JP6586991B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015032484 2015-02-23
JP2015032484 2015-02-23
PCT/JP2015/084066 WO2016136074A1 (ja) 2015-02-23 2015-12-03 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016136074A1 true JPWO2016136074A1 (ja) 2017-11-30
JP6586991B2 JP6586991B2 (ja) 2019-10-09

Family

ID=56789502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017501856A Active JP6586991B2 (ja) 2015-02-23 2015-12-03 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10061384B2 (ja)
EP (1) EP3264738B1 (ja)
JP (1) JP6586991B2 (ja)
KR (1) KR102471370B1 (ja)
WO (1) WO2016136074A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2995746C (en) * 2015-11-25 2020-06-30 Google Llc Prism-based eye tracking
CN107665040A (zh) * 2016-07-27 2018-02-06 Fove股份有限公司 视线检测系统、偏移检测方法、偏移检测程序
CN106502423B (zh) * 2016-11-21 2019-04-30 武汉理工大学 基于人眼视觉定位的自动化微操作方法
JP6776970B2 (ja) * 2017-03-24 2020-10-28 株式会社Jvcケンウッド 視線検出装置、視線検出方法及び視線検出プログラム
GB201714349D0 (en) * 2017-09-06 2017-10-18 Xyz Reality Ltd A method and equipment for setting out a construction site
EP3771967A3 (en) * 2019-08-02 2021-06-02 Canon Kabushiki Kaisha Electronic device, control method, and computer readable medium
CN114631304A (zh) * 2019-10-31 2022-06-14 佳能株式会社 摄像设备、电子装置、取景器单元
US11822714B2 (en) * 2020-05-15 2023-11-21 Canon Kabushiki Kaisha Electronic device and control method for capturing an image of an eye
JP7446913B2 (ja) * 2020-05-21 2024-03-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
WO2023187780A1 (en) * 2022-03-30 2023-10-05 Jerusalem College Of Technology Eye tracking device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085955A (ja) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd 虚像式立体画像表示装置および虚像式立体画像表示方法
JPH09247564A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd テレビジョン受像機
JP2011017777A (ja) * 2009-07-07 2011-01-27 Shimadzu Corp 画像表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05333259A (ja) 1992-06-02 1993-12-17 Canon Inc 視線検出手段を有した光学装置
JPH07128579A (ja) * 1993-10-29 1995-05-19 Canon Inc 視線検知方法、視線検知手段及び該視線検知手段を有する映像機器
JPH0915668A (ja) * 1995-06-29 1997-01-17 Nikon Corp 視線検出装置を備えたカメラ
JPH10186457A (ja) * 1996-12-26 1998-07-14 Canon Inc ファインダー装置及びその視度調節方法
JP2008042541A (ja) * 2006-08-07 2008-02-21 Pentax Corp ファインダー装置
JP5050735B2 (ja) * 2007-08-27 2012-10-17 マツダ株式会社 車両用運転支援装置
JP2011028635A (ja) * 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
KR101780138B1 (ko) * 2013-05-08 2017-09-19 후지쯔 가부시끼가이샤 입력 장치 및 기억 매체
JP6175945B2 (ja) 2013-07-05 2017-08-09 ソニー株式会社 視線検出装置及び視線検出方法
JP2017068045A (ja) * 2015-09-30 2017-04-06 オリンパス株式会社 ウェアラブル装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085955A (ja) * 1994-06-17 1996-01-12 Sanyo Electric Co Ltd 虚像式立体画像表示装置および虚像式立体画像表示方法
JPH09247564A (ja) * 1996-03-12 1997-09-19 Hitachi Ltd テレビジョン受像機
JP2011017777A (ja) * 2009-07-07 2011-01-27 Shimadzu Corp 画像表示装置

Also Published As

Publication number Publication date
EP3264738A4 (en) 2018-09-12
US20180039327A1 (en) 2018-02-08
EP3264738B1 (en) 2019-09-25
JP6586991B2 (ja) 2019-10-09
KR20170118693A (ko) 2017-10-25
US10061384B2 (en) 2018-08-28
EP3264738A1 (en) 2018-01-03
KR102471370B1 (ko) 2022-11-28
WO2016136074A1 (ja) 2016-09-01

Similar Documents

Publication Publication Date Title
JP6586991B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6175945B2 (ja) 視線検出装置及び視線検出方法
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
US20200049946A1 (en) Display apparatus and method of displaying using gaze prediction and image steering
JP2019080354A (ja) ヘッドマウントディスプレイ
US20170344112A1 (en) Gaze detection device
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP7388349B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017215928A (ja) 視線検出システム
WO2005004055A1 (ja) 目画像撮像装置
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
TW201814356A (zh) 頭戴顯示裝置與其鏡片位置調整方法
JP2015179254A (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
JP2013148599A (ja) 表示装置
KR20200035003A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP2012008745A (ja) ユーザインターフェース装置及び電子機器
JP2015087523A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
US11971552B2 (en) Electronic device, method of controlling the same, and storage medium
JP2018085595A (ja) 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2021064928A (ja) 電子機器
KR20050054530A (ko) 사용자와 디스플레이 시스템 인터페이스 장치의 입출력장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R151 Written notification of patent or utility model registration

Ref document number: 6586991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151