JP2017204685A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2017204685A
JP2017204685A JP2016094319A JP2016094319A JP2017204685A JP 2017204685 A JP2017204685 A JP 2017204685A JP 2016094319 A JP2016094319 A JP 2016094319A JP 2016094319 A JP2016094319 A JP 2016094319A JP 2017204685 A JP2017204685 A JP 2017204685A
Authority
JP
Japan
Prior art keywords
light source
information
exposure
control unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016094319A
Other languages
English (en)
Inventor
英祐 野村
Hidesuke Nomura
英祐 野村
岩井 嘉昭
Yoshiaki Iwai
嘉昭 岩井
山本 祐輝
Yuki Yamamoto
祐輝 山本
野田 卓郎
Takuro Noda
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016094319A priority Critical patent/JP2017204685A/ja
Priority to US16/097,683 priority patent/US10757337B2/en
Priority to PCT/JP2017/009211 priority patent/WO2017195450A1/ja
Publication of JP2017204685A publication Critical patent/JP2017204685A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/097Digital circuits for control of both exposure time and aperture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Abstract

【課題】輝点に関するより適切な撮像結果を得ることが可能にする。【解決手段】眼へ光を照射する光源を制御する光源制御部と、前記眼を撮像するための露光を制御する露光制御部と、を備え、前記光源制御部は、前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、情報処理装置を提供する。【選択図】図3

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、視線推定技術の発展に伴い、視線推定の精度を向上させるための研究開発が行われている。眼球へ光が照射され、当該光によって生成される反射点(輝点)が用いられる視線推定技術の場合、露光時間に応じて光源を制御することが求められる。ここで、先行文献1には、露光時間に応じて光源の制御時間を設定するという技術が開示されている。
特開2010−262224号公報
しかし、露光時間中に光源の状態が切り替えられると、輝点に関する適切な撮像結果が得られなくなることが懸念される。例えば、あるフレームにおいて輝点が撮像されないことが望まれる場合に、当該フレームの露光開始に遅れて光源の状態が消灯状態に切り替えられると、当該フレームの撮像画像に輝点が映り込んでしまうことがある。また、あるフレームにおいて輝点が撮像されることが望まれる場合に、フレームの露光開始に遅れて光源の状態が点灯状態に切り替えられると、撮像画像における反射点の明るさが輝点として認識されるには不十分となることも考えられる。
そこで本開示は、上記に鑑みてなされたものであり、本開示では、輝点に関するより適切な撮像結果を得ることが可能な、新規かつ改良された情報処理装置を提案する。
本開示によれば、眼へ光を照射する光源を制御する光源制御部と、前記眼を撮像するための露光を制御する露光制御部と、を備え、前記光源制御部は、前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、情報処理装置が提供される。
また、本開示によれば、眼へ光を照射する光源を制御することと、前記光を用いて前記眼を撮像するための露光を制御することと、を含み、前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、情報処理装置により実行される情報処理方法が提供される。
以上説明したように本開示によれば、輝点に関するより適切な撮像結果を得ることが可能になる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るヘッドマウントディスプレイの概要図である。 本開示の一実施形態に係るヘッドマウントディスプレイによる視線推定の概要図である。 本開示の一実施形態に係るヘッドマウントディスプレイの構成を示すブロック図である。 光源の明滅パターンの一例を示す概要図である。 本開示の一実施形態に係るヘッドマウントディスプレイの動作を示すフローチャートである。 ローリングシャッター方式により撮像された撮像画像の概要図である。 撮像処理情報に基づく光源制御の概要を示す図である。 撮像処理情報に基づいて光源を消灯状態から点灯状態に変更する動作を示すフローチャートである。 撮像処理情報に基づいて光源を点灯状態から消灯状態に変更する動作を示すフローチャートである。 第1の変形例による光源制御の概要を示す図である。 輝点が撮像される位置の予測方法の一例を示す概要図である。 第2の変形例による光源制御を示す概要図である。 第2の変形例による光源制御を示す概要図である。 第2の変形例による光源制御を示す概要図である。 第2の変形例による光源制御を示す概要図である。 本開示の一実施形態に係るヘッドマウントディスプレイのハードウェア構成を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.はじめに
2.本開示の一実施形態
2.1.本開示の一実施形態の概要
2.2.ヘッドマウントディスプレイの構成
2.3.ヘッドマウントディスプレイの動作
3.撮像処理情報に基づく光源制御
3.1.撮像処理情報に基づく光源制御の概要
3.2.撮像処理情報に基づく光源制御フロー
3.3.第1の変形例
3.4.第2の変形例
3.5.本開示の一実施形態のまとめ
4.ヘッドマウントディスプレイのハードウェア構成
5.補足
<1.はじめに>
はじめに、視線推定技術の概要について説明する。視線推定技術とは、眼球の位置または運動などを含む眼球の状態を検出することにより視線を推定する技術である。視線推定技術は、様々な目的または製品に活用することができる。例えば、小売店の商品棚に陳列されている商品に対するユーザの視線が推定され、商品が見られる頻度または時間が算出されることによって、商品棚のレイアウトの改善を行うことができる。また、屋外広告に対するユーザの視線が推定され、見られる頻度または時間が算出されることによって、屋外広告の効果測定を行うことができる。さらに、ヘッドマウントディスプレイのディスプレイに対するユーザの視線が推定されることによって、ユーザはポインティングデバイスを用いることなく、操作したい点を指定しヘッドマウントディスプレイを操作することができる。
このような視線推定技術を活用したサービスや製品の普及や、センシングデバイスおよび撮像デバイスの発展などに伴い、様々な手法の視線推定技術が研究開発されている。例えば、以下のような手法の視線推定技術が挙げられる。
・瞳孔角膜反射法:角膜に光が照射され、角膜上の輝点と光源を対応付けることによっ
て角膜曲率中心点が算出され、当該角膜曲率中心点と瞳孔の中心点に基づいて視線が推定される技術。
・強膜反射法:強膜と角膜の境界に光が照射され、強膜と角膜の反射率の違いに基づい
て視線が推定される技術。
・Double Purkinje法:角膜表面と水晶体裏面からの二つの反射光の相
対的な関係に基づいて視線が推定される技術。
・画像処理法:眼球の撮像画像に対して何等かの画像処理が行われることによって視線
が推定される技術。
・サーチコイル法:コイルが設けられた特殊なコンタクトレンズが眼球に装着されるこ
とによって、電磁誘導の原理で眼球運動が計測され視線が推定される技術。
・EOG(Electro OculoGraphy)法:眼球の回転による電位の変
化に基づいて視線が推定される技術。
<2.本開示の一実施形態>
[2.1.本開示の一実施形態の概要]
本開示の一実施形態においては、上記の視線推定技術のうち、瞳孔角膜反射法を用いることで視線推定が行われるヘッドマウントディスプレイについて説明する。
まず、図1を参照して、本開示の一実施形態におけるヘッドマウントディスプレイ100の概要を説明する。図1は、本開示の一実施形態に係るヘッドマウントディスプレイ100の概要図である。図1に示すように、本開示の一実施形態に係るヘッドマウントディスプレイ100は、ユーザの頭部に装着され、生成された像が眼前のディスプレイに表示される情報処理装置である。図1に示されているのは、装着者の視界全体が覆われる遮蔽型のヘッドマウントディスプレイであるが、瞳孔角膜反射法により視線推定を行うことができるヘッドマウントディスプレイであれば形状は任意である。例えば、本開示の一実施形態に係るヘッドマウントディスプレイ100は、装着者の視界全体が覆われていない開放型のヘッドマウントディスプレイでもよい。
次いで、図2を参照して、本開示の一実施形態に係るヘッドマウントディスプレイ100を用いた視線推定技術の概要を説明する。図2は、本開示の一実施形態に係るヘッドマウントディスプレイによる視線推定の概要図である。図2には、ヘッドマウントディスプレイ100の構成要素の一部である複数の光源101、撮像部103、表示部107および視線推定が行われる眼球10が示されている。図2には、光源101が2個しか示されていないが、光源101は複数であれば何個備えられてもよい。また、図2には、撮像部103によって撮像された撮像画像14も模式的に示されている。さらに、図2には、眼球10の角膜11、虹彩12および瞳孔13も模式的に示されている。
本開示の一実施形態に係るヘッドマウントディスプレイ100による視線推定においては、まず、複数の光源101から眼球10に対して光が照射され、撮像部103が眼球10を撮像する。撮像部103によって撮像された撮像画像14には、角膜11上に当該光の反射点である輝点15(プルキニエ像(Purkinje Image)とも呼称される)や瞳孔13が撮像されている。
続いて、複数の光源101と光源101から照射された光が角膜上で反射することによって発生した輝点15の対応付けが行われる。その対応付けに基づいて角膜曲率中心点17が算出される。角膜曲率中心点17の算出方法については後述する。また、撮像部103に撮像された瞳孔13が解析されることで、瞳孔中心点16が算出される。瞳孔中心点16の算出方法については後述する。そして、算出された角膜曲率中心点17から瞳孔中心点16に向かうベクトルである光軸が求められる。次いで、光軸が適宜補正されることで、ユーザの視線である視軸18が求められる。光軸の補正方法については後述する。次いで、表示部107と眼球10の3次元空間における位置関係に基づいて視軸18と表示部107が交差する視線推定点19の座標が算出される。視線推定方法の詳細については後述する。
[2.2.ヘッドマウントディスプレイの構成]
以上では、本開示の一実施形態に係るヘッドマウントディスプレイ100を用いた視線推定技術の概要を説明した。続いて、図3を参照して、本開示の一実施形態におけるヘッドマウントディスプレイ100の構成を説明する。図3は、本開示の一実施形態に係るヘッドマウントディスプレイ100の構成を示すブロック図である。ヘッドマウントディスプレイ100は、光源101、光源制御部102、撮像部103、画像処理部104、照合部105、視線推定部106、表示部107、表示制御部108、記憶部109、露光制御部110、照度検出部111を備える。照合部105は、画像処理部104の一モジュールである。光源101は、複数個備えられる。
光源101は、眼球10に対して光を照射する。具体的には、光源101は、光源制御部102に制御されることにより点灯状態または消灯状態となり、点灯状態となった光源101は、眼球10に対して光を照射する。本開示の一実施形態に係るヘッドマウントディスプレイ100においては、複数の光源101が異なった箇所に備えられており、各光源101が眼球10に対して光を照射する。これにより、角膜上に複数の輝点15が発生する。
撮像部103は、ユーザの眼を撮像し、撮像画像情報を生成する。具体的には、撮像部103は、眼の動作および輝点15などを撮像することが可能な位置に設けられ、露光および撮像された画像の読み出し処理を行うことで、撮像画像に対応する撮像画像情報を生成する。なお、撮像部103はユーザの片目または両目を撮像する。撮像部103が撮像処理を行う際の絞り値や露光時間(シャッタースピード)は露光制御部110によって提供される撮像処理情報に基づいて設定される。撮像部103は、撮像画像情報を画像処理部104および露光制御部110へ提供する。提供された撮像画像情報は、画像処理部104による輝点15または瞳孔13の検出処理など、露光制御部110による撮像処理情報の生成に使用される。
また、撮像部103は、同期信号を光源制御部102へ提供することで、撮像処理と光源制御の同期を可能にする。例えば、撮像部103は、撮像画像の読み出し処理を開始するタイミングで同期信号を光源制御部102へ提供する。ただし、これは一例であり、撮像部103は、任意の処理のタイミングで同期信号を光源制御部102へ提供してよい。同期信号によって、光源制御部102は、撮像部103による撮像処理および露光制御部110による露光制御処理と同期をとりながら光源101を制御することができる。
さらに、撮像部103は、撮像画像の読み出し処理が完了したタイミングで読み出し完了通知を生成し、当該通知を撮像処理情報として光源制御部102へ提供する。また、撮像部103は、露光が完了したタイミングで露光の完了通知を生成し、当該通知を撮像処理情報として光源制御部102へ提供する。提供された読み出し完了通知または露光の完了通知は、光源制御部102による光源101の制御に使用される。
露光制御部110は、被写体の明るさに応じて露光に関する設定を自動的に変化させる自動露光(AE:Auto Exposure)制御を行う。具体的には、露光制御部110は、撮像部103から取得される撮像画像情報に基づいて、撮像処理中のフレームの次のフレーム以降の撮像処理における絞り値または露光時間に関する情報が含まれる撮像処理情報を生成する。そして、露光制御部110は、撮像部103および光源制御部102へ撮像処理情報を提供する。提供された撮像処理情報は、撮像部103による撮像処理、光源制御部102による光源101の制御に使用される。ここで、露光制御部110は自動露光制御を行うのではなく、ユーザによって入力される絞り値または露光時間などの設定による露光制御(以降、「手動露光制御」と呼称する)を行っても良い。
画像処理部104は、撮像部103から提供された撮像画像情報を解析する。具体的には、画像処理部104は、撮像画像情報を解析することで輝点15または瞳孔13の検出し、輝点15の位置に関する情報が含まれる輝点関連情報および、瞳孔13の位置に関する情報が含まれる瞳孔関連情報を生成する。輝点15または瞳孔13の検出方法の詳細については後述する。
次いで、画像処理部104は、上述した輝点関連情報を光源制御部102、照合部105および視線推定部106へ提供する。提供された輝点関連情報は、照合部105による輝点15と光源101の対応付けおよび視線推定部106による光軸の推定に使用される。また、提供された輝点関連情報は、後述の第2の変形例において、光源制御部102が、輝点15の予測位置に基づいて光源101を制御する際に使用される。
また、画像処理部104は、上述した瞳孔関連情報を視線推定部106へ提供する。提供された瞳孔関連情報は、視線推定部106による光軸の推定に使用される。
照合部105は、光源101と光源101から照射された光によって生成された輝点15の対応付けを行う。具体的には、照合部105は、画像処理部104から提供された輝点関連情報と光源制御部102から提供された複数の光源101の明滅パターンに基づいて、光源101と輝点15の対応付けを行う。さらに、照合部105は、光源101と輝点15が対応付けられた情報にIDなどの識別情報が付与された輝点光源対応情報を生成する。光源101と輝点15を対応付けの方法については後述する。
そして、照合部105は、輝点光源対応情報を視線推定部106へ提供する。提供された輝点光源対応情報は、視線推定部106による光軸の推定に使用される。
視線推定部106は、各種情報に基づいて視線を推定する。具体的には、視線推定部106は、画像処理部104から提供された輝点関連情報、瞳孔関連情報および照合部105から提供された輝点光源対応情報に基づいて、光軸を推定する。そして、視線推定部106は、光軸を補正することでユーザの視線である視軸18を推定し、視軸18に関する情報が含まれる視線推定情報を生成し、表示制御部108へ提供する。提供された視線推定情報は、表示制御部108が表示部107を制御するために使用される。
表示部107は、各種情報を表示する。具体的には、表示部107は、表示制御部108に制御されることによって、各種情報を画像、テキスト、グラフなどの多様な形式で表示することで、ユーザに対して当該情報を視覚的に通知する。当該各種の情報には多様なコンテンツが含まれ得る。また、表示部107は、表示制御部108に制御されることによって、ユーザの視線推定点19を表示する。
表示制御部108は、表示部107を制御する。具体的には、表示制御部108は、起動しているアプリケーションの処理に基づいて、表示部107に表示させる情報の内容を決定し、当該情報を表示部107に表示させる。また、表示制御部108は、視線推定部
106から提供された視線推定情報に基づいて視軸18と表示部107が交差する視線推定点19の座標を算出し、表示部107に当該座標へポインタを表示させる。
光源制御部102は、複数の光源101を制御する。具体的には、光源制御部102は、各フレームにおける複数の光源101の点灯または消灯の状態に関する情報である明滅パターンおよび露光制御部110から提供された撮像処理情報に基づいて各フレームにおいて各光源101の状態を点灯状態または消灯状態にする。光源制御部102が各光源101の状態を点灯状態または消灯状態にする方法については後述する。そして、光源制御部102は、明滅パターンを照合部105へ提供する。提供された明滅パターンは、照合部105による輝点15と光源101の対応付けに使用される。
ここで、図4を参照しながら前述した明滅パターンを説明する。図4は、光源101の明滅パターンの一例を示す概要図である。図4に示すように、明滅パターンには、ヘッドマウントディスプレイ100に備えられた光源101と、各フレームにおける各光源101の状態(点灯状態または消灯状態のいずれか)に関する情報が含まれている。光源制御部102は、パターンの異なる複数の明滅パターンから使用する明滅パターンを選択し、選択された明滅パターンを用いて光源101を制御することが可能である。もちろん、明滅パターンは1個しか備えられていなくてもよい。また、光源制御部102は、適宜明滅パターンを変更することも可能である。
記憶部109は、視線推定、光源制御、露光制御または表示制御などに用いられる各種情報を記憶する。具体的には、記憶部109は、上述した撮像画像情報、輝点関連情報、瞳孔関連情報、輝点光源対応情報、撮像処理情報、視線推定情報および明滅パターンを取得し、記憶してもよい。さらに、記憶部109は、視線推定で使用される各種パラメータ、表示部107へ表示されるコンテンツ情報などを記憶する。
照度検出部111は、撮像環境の照度を検出し、照度情報を生成する。そして、照度検出部111は、照度情報を光源制御部102へ提供する。提供された照度情報は、光源制御部102による光源101の輝度の設定に使用される。
[2.3.ヘッドマウントディスプレイの動作]
上記では、ヘッドマウントディスプレイ100の構成について説明した。続いて、図5を参照して、ヘッドマウントディスプレイ100の動作について説明する。図5は、本開示の一実施形態に係るヘッドマウントディスプレイ100の動作を示すフローチャートである。
まず、光源制御部102が予め設定される光源101の明滅パターンにしたがって複数の光源101を点灯および消灯することで、光源101から眼に対して光が照射される(ステップS1000)。これにより、角膜上に複数の輝点15が発生する。
次いで、撮像部103が眼の状態を撮像する(ステップS1004)ことで、角膜上に発生した輝点15および瞳孔13などが撮像された撮像画像情報が生成される。撮像部103は、当該撮像画像情報を画像処理部104へ提供する。
さらに、画像処理部104は、撮像部103から提供された撮像画像情報を解析し輝点15および瞳孔13を検出する(ステップS1008)。輝点15の検出処理には、機械学習の技術が利用され得る。具体的には、予め構築された機械学習用プログラムが、輝点が撮像された撮像画像を数十〜数万程度読み込み、学習する。そして画像処理部104が、当該プログラムを用いて撮像画像に含まれる輝点15を検出してもよい。
また、輝点15の検出処理には、機械学習以外の公知の画像認識技術も使用され得る。例えば、画像処理部104は、撮像画像に対する各種の画像処理、撮像画像内の輝度分布を取得する処理、当該輝度分布に基づいて周囲の画素との輝度値の差が比較的大きい画素を検出する処理などの一連の処理を行ってもよい。そして、画像処理部104は、生成した輝点関連情報を光源制御部102、照合部105および視線推定部106へ提供する。
一方、瞳孔13の検出処理においても、輝点15の検出処理と同様に機械学習の技術が利用されてもよく、機械学習以外の公知の画像認識技術が使用されてもよい。例えば、画像処理部104は、撮像画像に対する各種の画像処理(例えば歪みや黒レベル、ホワイトバランスなどの調整処理)、撮像画像内の輝度分布を取得する処理、当該輝度分布に基づいて瞳孔13の輪郭(エッジ)を検出する処理、検出された瞳孔13の輪郭を円又は楕円などの図形で近似する処理などの一連の処理を行ってもよい。そして、画像処理部104は、生成した瞳孔関連情報を光源制御部102および視線推定部106へ提供する。
次いで、照合部105が、輝点15と光源101の対応付けを行う(ステップS1012)。具体的には、照合部105は、画像処理部104から輝点関連情報を取得し、光源制御部102から光源101の明滅パターンを取得する。輝点関連情報には、輝点15が発生した位置および発生したフレームに関する情報が含まれており、明滅パターンには、各フレームにおける光源101の状態(点灯状態または消灯状態のいずれか)に関する情報が含まれている。照合部105は、輝点15と光源101の物理的な位置関係に基づいて輝点15と光源101の対応付けを行う。例えば、角膜上に発生している輝点15のうち、ある光源101からの距離が最も近い輝点15を当該光源101に対応する輝点15とする。ここで、上述の対応付けの方法は一例であり、他の方法によって輝点15と光源101の対応付けが行われてもよい。例えば、照合部105は、光源101と輝点15の対応関係を予め学習した機械学習用プログラムを使用することによって、輝点15と光源101の対応付けを行ってもよい。
次いで、視線推定部106は、画像処理部104から提供された輝点関連情報および照合部105から提供された輝点光源対応情報に基づいて角膜曲率中心点17(角膜を球の一部とみなした場合の当該球の中心)の3次元座標を算出する(ステップS1016)。具体的には、視線推定部106は、撮像部103、光源101および光源101に対応する輝点15の3次元的な位置関係に基づいて幾何学的計算式を解くことで、角膜の角膜曲率中心点17の3次元座標を算出する。
次いで、視線推定部106は、画像処理部104から提供された瞳孔関連情報に基づいて瞳孔中心点16の3次元座標を算出する(ステップS1020)。具体的には、視線推定部106は、撮像部103と眼球10との位置関係、角膜表面における光の屈折率、角膜の角膜曲率中心点17と瞳孔中心点16との距離などのパラメータを用いて、撮像画像における瞳孔13の輪郭上の複数点の3次元座標を算出し、これらの座標の中心点を求めることにより、瞳孔中心点16の3次元座標を算出する。
次いで、視線推定部106は、ステップS1016で算出された角膜曲率中心点17の3次元座標からステップS1020で算出された瞳孔中心点16の3次元座標に向かうベクトルを算出することで、光軸(眼球10が向いている方向)を求める(ステップS1024)。
ここで、ヒトにおいては、光軸と実際にヒトが視線を向けている方向(以降、視軸と呼称する)とが必ずしも一致しない。これは、眼球10の形状、大きさ、眼球10における網膜または視神経の配置などに起因するものであり、個人差を有するものである。このように、光軸と視軸との間には、ユーザ固有の誤差が存在する。
かかる事情を考慮して、本開示による一実施形態においては、視線推定部106は、光軸を視軸18へと補正する処理を行う(ステップS1028)。例えば、ユーザに対して注視点が提示されることで、注視点と注視点に視線が向けられている時の光軸の相関関係に関する情報が予め取得され、視線推定部106は、当該情報に基づいて光軸を補正することで視軸18を取得することができる。しかし、この補正方法は一例であるため、視線推定部106は任意の補正方法をとり得る。
次いで、視線推定部106は、視軸18に基づいてユーザの視線推定点19を算出する(ステップS1032)。具体的には、視線推定部106は、表示部107および眼球10の位置関係を予め取得しておくことにより、視軸18と表示部107とが交差する点の座標を算出する。当該点が、ユーザの注視点であると推定される視線推定点19である。
以上説明した処理が行われることにより、本開示の一実施形態に係るヘッドマウントディスプレイ100を用いてユーザの視線推定が行われる。
<3.撮像処理情報に基づく光源制御>
[3.1.撮像処理情報に基づく光源制御の概要]
上記では、本開示の一実施形態に係るヘッドマウントディスプレイ100の動作を説明した。続いて、撮像処理情報に基づく光源制御の概要について説明する。
上述のとおり、視線推定が行われる際に光源101と輝点15の対応付けが行われる。ここで、露光が行われる時間に光源101の状態が変更されると、所望の輝点15が撮像されず、光源101と輝点15の対応付けができない場合がある。
例えば、光源101の状態が消灯状態から点灯状態へ変更される場合、光源101の点灯処理が露光中に行われると、撮像される輝点15の輝度が十分でないことが原因で光源101と輝点15の対応付けができない場合がある。
また、光源101の状態が点灯状態から消灯状態へ変更される場合、光源101の消灯処理が露光中に行われると、撮像画像に当該光源101から照射された光による輝点15が映り込む場合がある。そのため、光源101と輝点15の対応付けができないか、または誤った対応付けが行われる場合がある。以降で説明する方法は、上述の問題を解消するための方法である。
次に、図6を参照して、本開示の一実施形態で用いるローリングシャッター方式の概要について説明する。図6は、ローリングシャッター方式により撮像された撮像画像の概要図である。
ローリングシャッター方式とは、図6に示すように、撮像画像が複数のライン(行)に区分され、当該ライン毎に露光および撮像画像の読み出しが行われる方式である。ローリングシャッター方式では、一般的に撮像画像中の上方に位置するラインから順に露光および読み出しが行われる。したがって、図6においてライン0が、全ラインの中で最も早く露光および読み出しが行われるラインとなる。
本開示の一実施形態においては、ローリングシャッター方式が用いられる場合の説明を行うが、グローバルシャッター方式が用いられてもよい。グローバルシャッター方式とは、撮像画像が複数のラインに区分されず、撮像画像全体に対して同時に露光が行われ、撮像画像全体に対して同時に読み出しが行われる方式である。
上記では、ローリングシャッター方式の概要について説明した。続いて、図7を参照して、撮像処理情報に基づく光源制御の概要について説明する。図7は、撮像処理情報に基づく光源制御の概要を示す図である。
図7には、時系列に連続する複数のフレーム(フレームiおよびフレームi+1)が撮像される様子が示されている。フレーム数は任意である。また、上述のとおり、撮像部103が生成する同期信号によって、光源制御部102は、撮像部103による撮像処理と同期をとりながら光源101を制御することができる。図7では、撮像画像の読み出しが開始されるタイミングで同期が行われているが、同期が行われるタイミングは任意である。なお、同期の間隔は一定であるとする。
また、ローリングシャッター方式の撮像処理によって、撮像画像のライン0から順に露光および撮像画像の読み出しが行われることが示されている。ここで、光源制御部102は、露光制御部110から提供される撮像処理情報に基づいて、各フレームの露光終了時刻を、光源101の状態を変更するための最も早い時間Tminとして算出する。また、光源制御部102は、露光制御部110から提供される撮像処理情報に基づいて、各フレームの露光開始時刻を、光源101の状態を変更するための最も遅い時間Tmaxとして算出する。その後、光源制御部102は、TminからTmaxまでの時間に含まれる時刻Tに、光源101の状態を変更する。TminおよびTmaxの算出方法については後述する。
上述の方法により、光源制御部102は、露光がされない時間に光源101の状態を変更することができる。したがって、所望の輝点15を発生させることができるため、輝点15と光源101の対応付けの精度を向上させることができる。
[3.2.撮像処理情報に基づく光源制御フロー]
上記では、撮像処理情報に基づく光源制御の概要について説明した。続いて、図8および図9を参照して、撮像処理情報に基づく光源101の制御フローについて説明する。図8は、撮像処理情報に基づいて光源101の状態を消灯状態から点灯状態に変更する動作を示すフローチャートであり、図9は、撮像処理情報に基づいて光源101の状態を点灯状態から消灯状態に変更する動作を示すフローチャートである。図8および図9に示される処理は、図5で光源101から光が照射される処理(ステップS1000)に含まれる。なお、以降では、撮像処理中のフレームは現フレームと呼称され、現フレームの次に撮像されるフレームは、次フレームと呼称される。
まず、光源制御部102は、明滅パターンおよび露光制御部110から撮像処理情報を取得する(ステップS1100)。次いで、光源制御部102は、撮像処理情報に基づいて上述のTminおよびTmaxを算出する(ステップS1104)。具体的には、光源制御部102は、露光制御部110から提供される撮像処理情報に含まれている現フレームの露光時間および、同期信号が取得された時刻と露光の開始時刻(または終了時刻)の相対関係に基づいてTminを算出する。また、光源制御部102は、露光制御部110から提供される撮像処理情報に含まれている次フレームの露光時間および、同期信号が取得された時刻と露光の開始時刻(または終了時刻)の相対関係に基づいてTmaxを算出する。
そして、次フレームにおいて消灯状態から点灯状態へ変更される光源101が存在する場合(ステップS1108/Yes)、光源制御部102は、当該光源101の状態を消灯状態から点灯状態に変更する。具体的には、ステップS1104において、TminおよびTmaxのどちらも算出された場合(ステップS1112/Yes)、光源制御部102は、TminからTmaxの間に光源101の状態を消灯状態から点灯状態に変更する(ステップS1116)。
ステップS1104において、Tminが算出され、Tmaxは算出されなかった場合(ステップS1120/Yes)、光源制御部102は、Tmaxを予測する。具体的には、光源制御部102は、予め作成された露光時間と光源101の制御タイミングの関係を示す光源制御設定情報に現フレームの露光時間を入力することで次フレームの露光開始時刻であるTmaxを予測する。そして、光源制御部102は、Tminから予測されたTmaxの間に光源101の状態を消灯状態から点灯状態に変更する(ステップS1124)。
ステップS1104において、Tmaxが算出され、Tminは算出されなかった場合(ステップS1128/Yes)、光源制御部102は、Tminを予測する。具体的には、光源制御部102は、上述の予め作成された光源制御設定情報に次フレームの露光時間を入力することで現フレームの露光終了時刻であるTminを予測する。そして、光源制御部102は、予測されたTminからTmaxの間に光源101の状態を消灯状態から点灯状態に変更する(ステップS1132)。
ステップS1104において、TminおよびTmaxのどちらも算出されなかった場合(ステップS1128/No)、光源制御部102は、TminおよびTmaxを予測する。具体的には、光源制御部102は、上述の予め作成された光源制御設定情報に、取得できているいずれかのフレームの露光時間を入力することで、現フレームの露光終了時刻であるTminおよび、次フレームの露光開始時刻であるTmaxを予測する。そして、光源制御部102は、光源制御部102は、予測されたTminおよび予測されたTmaxの間に光源101の状態を消灯状態から点灯状態に変更する(ステップS1136)。
続いて、次フレームにおいて点灯状態から消灯状態へ変更される光源101が存在する場合(ステップS1140/Yes)、光源制御部102は、当該光源101の状態を点灯状態から消灯状態に変更する。具体的には、ステップS1104において、TminおよびTmaxのどちらも算出された場合(ステップS1144/Yes)、光源制御部102は、TminからTmaxの間に光源101の状態を点灯状態から消灯状態に変更する(ステップS1148)。
ステップS1104において、Tminが算出され、Tmaxは算出されなかった場合(ステップS1152/Yes)、光源制御部102は、上述の予め作成された光源制御設定情報に基づいてTmaxを予測する。予測方法は上述のとおりである。そして、光源制御部102は、Tminから予測されたTmaxの間に光源101の状態を点灯状態から消灯状態に変更する(ステップS1156)。
ステップS1104において、Tmaxが算出され、Tminは算出されなかった場合(ステップS1160/Yes)、光源制御部102は、上述の予め作成された光源制御設定情報に基づいてTminを予測する。予測方法は上述のとおりである。そして、光源制御部102は、予測されたTminからTmaxの間に光源101の状態を点灯状態から消灯状態に変更する(ステップS1164)。
ステップS1104において、TminおよびTmaxのどちらも算出されなかった場合(ステップS1160/No)、光源制御部102は、上述の予め作成された光源制御設定情報に基づいてTminおよびTmaxを予測する。予測方法は上述のとおりである。そして、光源制御部102は、光源制御部102は、予測されたTminおよび予測されたTmaxの間に光源101の状態を点灯状態から消灯状態に変更する(ステップS1168)。
なお、以上で説明されたフローチャートは適宜変更され得る。例えば、各処理は適宜フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。もちろん、光源101の状態を点灯状態から消灯状態に変更する処理(ステップS1140〜ステップS1168)は、消灯状態から点灯状態に変更する処理(ステップS1108〜ステップS1136)よりも先に処理されてもよく、並列的に処理されてもよい。
[3.3.第1の変形例]
以上では、露光制御部110から提供される撮像処理情報に含まれる各フレームの露光時間に基づく光源101の状態を変更する動作について説明した。続いて、以下では、図10を参照して、光源101の状態変更の方法の変形例について説明する。図10は、第1の変形例による光源制御の概要を示す図である。
第1の変形例においては、光源制御部102は、撮像部103から提供される撮像処理情報に含まれる撮像画像の読み出し完了通知の後に光源101の状態を変更する。具体的には、撮像部103は、撮像画像の全ラインの読み出し処が完了したタイミングで読み出し完了通知を光源制御部102へ提供する。その後、光源制御部102は、当該通知が提供されたタイミングから上述の方法で算出されたTmaxの間に光源101の状態を変更する。したがって、図10に示すように、ローリングシャッター方式により撮像される撮像画像の最後のラインの読み出しが完了したタイミングがTminとなる。
また、第1の変形例において、撮像部103から提供される撮像処理情報に含まれる情報は、撮像画像の読み出し完了通知に限定されない。例えば、撮像処理情報に露光完了通知が含まれても良い。具体的には、撮像部103は、撮像画像の全ラインの露光処理が完了したタイミングで露光完了通知を光源制御部102へ提供する。その後、光源制御部102は、当該通知が提供されたタイミングから上述の方法で算出されたTmaxの間に光源101の状態を変更する。この場合は、図7に示すように、ローリングシャッター方式により撮像される撮像画像の最後のラインの露光が完了したタイミングがTminとなる。
また、第1の変形例において、必ずしもTmaxは算出されなくてもよい。具体的には、光源制御部102は、撮像画像の読み出し完了通知または露光完了通知を取得した直後または、所定の時間が経過した後に光源101の状態を変更してもよい。
上述のように撮像部103から提供される撮像処理情報に含まれる読み出し完了通知や露光完了通知の後に光源101の状態が変更されることによって、光源制御部102がTminまたはTmaxを算出する必要がなくなるため、光源制御部102の処理の負荷を軽減することができる。
[3.4.第2の変形例]
以上では、本開示の一実施形態に係る第1の変形例について説明した。以下では、本開示の一実施形態に係る第2の変形例について説明する。第2の変形例は、ローリングシャッター方式により撮像処理を行う場合において、輝点15が発生する撮像画像中の位置が予測され、当該位置に対応するラインに対して露光が行われない時間に光源101の状態を変更する方式である。
ここで、図11を参照して、輝点15が発生する位置の予測方法の具体例を説明する。図11は、輝点15が撮像される位置の予測方法の一例を示す概要図である。図11には、各フレームにおいて輝点15が発生した位置が例示されている。
輝点15は、i−1フレームではラインn−1に、iフレームではラインnに発生し、撮像部103は、これらを撮像する。画像処理部104は、撮像部103が生成した撮像画像情報を解析し、i+1フレームにおける輝点15の位置を予測する。
例えば、画像処理部104は、現在のフレームレート、iフレームまでの撮像部103の3次元位置姿勢情報、iフレームまでの輝点15の3次元位置情報またはiフレームまでの輝点15の撮像画像内での位置情報(またはライン情報)に基づいて、i+1フレームにおける輝点15の位置を予測する。もちろん、i―1フレーム、iフレームおよびi+1フレームは一例であり、現フレームまたは現フレームより過去に撮像されたフレームにおける輝点15の位置に基づいて、次フレームまたは次フレームより後に撮像されるフレームにおける輝点15の位置が予測されてもよい。
上述の予測に用いる情報(フレームレート、撮像処理中のフレームまでの撮像部103の3次元位置姿勢情報、撮像処理中のフレームまでの輝点15の3次元位置情報または撮像処理中のフレームまでの輝点15の撮像画像内での位置情報)と、輝点15の発生が予測されるラインの対応関係に関する情報を予め作成し、当該情報を利用してもよい。画像処理部104は、輝点15の発生が予測されるラインの対応関係に関する情報に対して、上述の予測に用いる情報を入力することで、輝点15の発生が予測されるラインを取得する。これにより、画像処理部104の予測処理の負荷を軽減することができる。
露光制御部102は、上述のように、輝点15の発生する位置を予測することで当該位置に対応するラインに対する露光時間を算出し、当該ラインが露光されない時間に光源101の状態を変更する。
具体的には、図8の点灯状態へ変更する光源101の有無を確認する処理(ステップS1108)において、光源制御部102は、点灯状態へ変更する光源101に対応する輝点15が発生するラインを予測する。そして、光源制御部102は、露光制御部110から提供される撮像処理情報に含まれる各フレームの露光時間に基づいて当該ラインのTminとTmaxを算出し、算出されたTminからTmaxの間に当該光源101の状態を点灯状態へ変更する。以降の処理は、図8における上述の説明と同一であるため省略する。
また、図9の消灯状態へ変更する光源101の有無を確認する処理(ステップS1140)において、光源制御部102は、光源101を消灯状態へ変更することで輝点15が発生しないラインを予測する。そして、光源制御部102は、露光制御部110から提供される撮像処理情報に含まれる各フレームの露光時間に基づいて当該ラインのTminとTmaxを算出し、算出されたTminからTmaxの間に当該光源101の状態を消灯状態へ変更する。以降の処理は、図9における上述の説明と同一であるため省略する。
上述の方法により、光源制御部102は、各ラインにおける露光がされない時間に光源101の状態を変更することができるため、光源101の状態を変更するための時間は、図12に示すように、各ラインにおける現フレームの露光時間終了時から次フレームの露光時間開始時までの時間となる。つまり、上述の方法により、輝点15の発生位置を予測しない場合(図7および図10)よりも光源101の状態を変更するための時間を拡大することができる。
また、輝点15の位置の予測は、光源101と眼球10の位置関係に基づいて行われてもよい。例えば、眼球10の上方向に位置する光源101が眼球10へ光を照射する場合、輝点15が眼球10の上半球に発生する可能性は統計的に高く、輝点15が眼球10の下半球に発生する可能性は統計的に低い。この場合は、眼球10の上半球が撮像されるラインに対して露光が行われない時間に光源101の状態を変更する。
このように、光源101と眼球10の位置関係に基づいて、輝点15の大よその位置を予測することで、上述の撮像画像情報を解析することによって輝点15の位置を予測するよりも、処理負荷を軽減することができる。
また、第2の変形例においても、光源制御部102は、第1の変形例のように撮像部103から提供される撮像処理情報に含まれる読み出し完了通知や露光完了通知の後に光源101の状態を変更してもよい。具体的には、撮像部103は、撮像画像の各ラインの読み出し処理が完了する都度、読み出し完了通知を光源制御部102へ提供する。光源制御部102は、当該通知が提供されたタイミングから、露光制御部110から提供される撮像処理情報に含まれる各フレームの露光時間に基づいて算出されたTmaxの間に光源101の状態を変更してもよい。この場合、図13に示すように、各ラインの読み出しが完了したタイミングが各ラインのTminとなる。
また、撮像部103は、撮像画像の各ラインの露光処理が完了する都度、露光完了通知を光源制御部102へ提供する。光源制御部102は、当該通知が提供されたタイミングから露光制御部110から提供される撮像処理情報に含まれる各フレームの露光時間に基づいて算出されたTmaxの間に光源101の状態を変更してもよい。この場合は、図12に示すように、各ラインの露光が完了したタイミングが各ラインのTminとなる。
さらに、機器の性能や仕様に応じて、読み出し完了通知または露光完了通知が一時に提供されてもよい。例えば、図14に示すように、撮像部103は、撮像画像の全ラインの露光処理が完了したタイミングで露光完了通知を光源制御部102へ提供してもよい。その場合は、図14に示すように、ローリングシャッター方式により撮像される撮像画像の最後のラインの露光が完了したタイミングがTminとなる。
また、図15に示すように、撮像部103は、撮像画像の全ラインの読み出し処理が完了したタイミングで読み出し完了通知を光源制御部102へ提供してもよい。その場合は、図15に示すように、ローリングシャッター方式により撮像される撮像画像の最後のラインの読み出しが完了したタイミングがTminとなる。
また、第1の変形例と同様に、必ずしもTmaxは算出されなくてもよい。具体的には、光源制御部102は、撮像画像の読み出し完了通知または露光完了通知を取得した直後または、所定の時間が経過した後に光源101の状態を変更してもよい。
上述のように、露光制御部110から提供される撮像処理情報に含まれる読み出し完了通知や露光完了通知の後に光源101の状態が変更されることによって、光源制御部102がTminまたはTmaxを算出する必要がなくなるため、光源制御部102の処理の負荷を軽減することができる。
<4.ヘッドマウントディスプレイのハードウェア構成>
図16は、本開示の一実施形態に係るヘッドマウントディスプレイ100のハードウェア構成を示すブロック図である。ヘッドマウントディスプレイ100は、例えば、MPU901と、ROM902と、RAM903と、記録媒体904と、入出力インタフェース905と、操作入力デバイス906と、表示デバイス907と、通信インタフェース908と、撮像デバイス909と、IR LED(infrared spectroscopy Light Emitting Diode)910とを備える。また、ヘッドマウントディスプレイ100は、例えば、データの伝送路としてのバス911で各構成要素間を接続する。
MPU901は、1または2以上のプロセッサまたは各種処理回路などを備え、ヘッドマウントディスプレイ100に備えられている各構成要素を制御したり処理を行ったりする機能を有する。また、MPU901は、ヘッドマウントディスプレイ100において、例えば、光源制御部102、画像処理部104、照合部105、視線推定部106、表示制御部108、露光制御部110の機能を担う。
ROM902は、記憶部109として機能し、MPU901が使用するプログラムまたは演算パラメータなどの制御用データなどを記憶する。RAM903は、記憶部109として機能し、例えば、MPU901により実行されるプログラムなどを一時的に記憶する。
記録媒体904は、記憶部109として機能し、例えば、眼に関する情報などの本実施形態に係る情報処理方法に係るデータ、撮像画像を示す画像データまたはアプリケーションなどの様々なデータを記憶する。
記録媒体904としては、例えば、ハードディスクなどの磁気記録媒体またはフラッシュメモリなどの不揮発性メモリなどが挙げられる。また、記録媒体904は、ヘッドマウントディスプレイ100から着脱可能であってもよい。
入出力インタフェース905は、操作入力デバイス906や、表示デバイス907を接続する。操作入力デバイス906は、操作部(図示せず)として機能し、また、表示デバイス907は、表示部107として機能する。ここで、入出力インタフェース905としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High−Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。
操作入力デバイス906は、例えば、ヘッドマウントディスプレイ100上に備えられ、ヘッドマウントディスプレイ100の内部で入出力インタフェース905と接続される。操作入力デバイス906としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
表示デバイス907は、例えば、ヘッドマウントディスプレイ100上に備えられ、ヘッドマウントディスプレイ100の内部で入出力インタフェース905と接続される。表示デバイス907としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro−Luminescence Display)または、OLEDディスプレイ(Organic Light Emitting Diode Display)などが挙げられる。
なお、入出力インタフェース905が、ヘッドマウントディスプレイ100の外部装置としての操作入力デバイス(例えば、キーボードやマウスなど)や表示デバイス、撮像デバイスなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス907は、例えばタッチデバイスなど、表示とユーザ操作とが可能なデバイスであってもよい。
通信インタフェース908は、ヘッドマウントディスプレイ100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の撮像装置や外部の表示装置、外部の本実施形態に係るユーザの頭部に装着されて用いられる装置などの外部装置(または、外部デバイス)と、無線または有線で通信を行うための通信部(図示せず)として機能する。
通信インタフェース908としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。また、通信部(図示せず)は、USB(Universal Serial Bus)端子および送受信回路など通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成であってもよい。
また、本実施形態に係るネットワークとしては、例えば、LANやWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)や基地局を介した無線WAN(WWAN:Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control ProtocolsurasshuInternet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
撮像デバイス909は、ヘッドマウントディスプレイ100が備える撮像手段であり、撮像により撮像画像を生成する撮像部103として機能する。撮像デバイス909は、例えばCCD(Charge−Coupled Device)イメージセンサまたはCMOS(Complementary MOS)イメージセンサなどの撮像素子であり、受光面を構成する画素ごとに受光した光量に応じた強度の信号を出力することにより、当該受光面への入射光に応じた画像(撮像画像)を取得する。また、撮像デバイス909は、例えば、IR LEDなどの光源101からの光が照射される眼を撮像することが可能な位置に設けられる。
撮像デバイス909を備える場合、ヘッドマウントディスプレイ100では、例えば、撮像デバイス909において撮像により生成された撮像画像に基づいて、本実施形態に係る情報処理方法に係る処理を行うことが可能となる。
撮像デバイス909は、例えば、レンズまたは撮像素子と信号処理回路とを含んで構成される。レンズまたは撮像素子は、例えば、光学系のレンズと、CMOS(Complementary MetalOxide Semiconductor)などの撮像素子を複数用いたイメージセンサとで構成される。
信号処理回路は、例えば、AGC(Automatic Gain Control)回路やADC(Analog to Digital Converter)を備え、撮像素子により生成されたアナログ信号をデジタル信号(画像データ)に変換する。また、信号処理回路は、例えばRAW現像に係る各種処理を行う。さらに、信号処理回路は、例えば、White
Balance補正処理や、色調補正処理、ガンマ補正処理、YCbCr変換処理、エッジ強調処理など各種信号処理を行ってもよい。
IR LED910は、ヘッドマウントディスプレイ100が備える光源101であり、複数のIR LEDで構成される。IR LED910は、例えば、光がユーザの眼に照射される位置に設けられる。当該光源101がIR LED910のように可視光帯域以外の光を発する装置であることにより、当該光源101からユーザの眼球10に向かって光が照射されたとしても、ユーザの視界が妨げられない。なお、上述したように、ヘッドマウントディスプレイ100が備える光源101はIR LEDに限られず、光を発する光学素子であれば各種の光学素子が適用され得る。
ヘッドマウントディスプレイ100は、例えば図16に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係るヘッドマウントディスプレイ100のハードウェア構成は、図16に示す構成に限られない。
例えば、ヘッドマウントディスプレイ100は、撮像デバイス909とIR LED910との一方または双方を備えない構成をとることが可能である。
また、ヘッドマウントディスプレイ100は、例えば、スタンドアロンで処理を行う構成である場合には、通信インタフェース908を備えていなくてもよい。また、ヘッドマウントディスプレイ100は、記録媒体904や、操作入力デバイス906、表示デバイス907を備えない構成をとることも可能である。
なお、本開示の一実施形態に係るヘッドマウントディスプレイ100の構成は、図3に示す構成に限られない。
例えば、本開示の一実施形態に係るヘッドマウントディスプレイ100の構成の一部は、外部に設けられ得る。
例えば外部装置において撮像画像情報に対する解析処理が行われ、当該外部装置の処理結果を用いて処理が行われる場合には、ヘッドマウントディスプレイ100は、画像処理部104を備えていなくてもよい。
また、外部装置において光源101と輝点15の対応付け処理が行われ、当該外部装置の処理結果を用いて処理が行われる場合には、ヘッドマウントディスプレイ100は、照合部105を備えていなくてもよい。
また、外部装置において視線の推定処理が行われ、当該外部装置の処理結果を用いて処理が行われる場合には、ヘッドマウントディスプレイ100は、視線推定部106を備えていなくてもよい。
また、外部装置において各種情報の記憶が行われ、当該外部装置に記憶された情報を用いて処理が行われる場合には、ヘッドマウントディスプレイ100は、記憶部109を備えていなくてもよい。
以上、本開示の一実施形態として、ヘッドマウントディスプレイ100を挙げて説明したが、本開示の実施形態は、かかる形態に限られない。本開示の実施形態は、例えば、PC(Personal Computer)やサーバなどの情報処理装置、携帯電話やスマートフォンなどの通信装置、タブレット型の装置など、画像を処理することが可能な様々な機器に適用することができる。また、本実施形態は、例えば、上記のような機器に組み込むことが可能な、1または2以上のIC(Integrated Circuit)に適用することもできる。
また、本開示は、例えばクラウドコンピューティングなどのように、ネットワークへの接続(または各装置間の通信)を前提とした、1または2以上の装置からなるシステムに適用されてもよい。つまり、上述した本開示の一実施形態に係るヘッドマウントディスプレイ100は、例えば、複数の装置からなる情報処理システムとして実現することも可能である。
<5.補足>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、光源制御部102は、照度検出部111から提供されたヘッドマウントディスプレイ100の使用環境の照度に関する情報である照度情報に応じて光源101の輝度を設定してもよい。
また、画像処理部104が撮像画像情報を解析することでヘッドマウントディスプレイ100の使用環境の照度に関する情報である撮像画像照度情報を光源制御部102に提供する。そして、光源制御部102は、撮像画像照度情報に応じて光源101の輝度を設定してもよい。
また、光源制御部102は、撮像処理に関するパラメータである露光時間(シャッタースピード)、ゲイン、フレームレートに応じて光源101の輝度を設定してもよい。
上述のように、光源101の輝度が設定されることによって、輝点15を所望の明るさで発生させることができる。したがって、輝点15と光源101の対応付けの精度を向上させることができる。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
眼へ光を照射する光源を制御する光源制御部と、
前記眼を撮像するための露光を制御する露光制御部と、を備え、
前記光源制御部は、前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
情報処理装置。
(2)
前記光源制御部は、時系列に連続する複数のフレームを構成する各フレームに対応する前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
前記(1)に記載の情報処理装置。
(3)
前記光源制御部は、各フレームに対応する露光の終了時刻が含まれる撮像処理情報を取得した場合、前記露光の終了時刻以降に前記光源の状態を点灯状態または消灯状態にする、
前記(1)または(2)のいずれか1項に記載の情報処理装置。
(4)
前記光源制御部は、各フレームに対応する露光の終了時刻が含まれる撮像処理情報を取得できない場合、露光時間と光源の点灯または消灯時刻の対応情報である光源制御設定情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
前記(1)から(3)のいずれか1項に記載の情報処理装置。
(5)
前記光源制御部は、撮像された画像の読み出しの完了通知または露光の完了通知が含まれる撮像処理情報を取得した場合、前記撮像された画像の読み出しの完了通知または露光の完了通知が取得された時刻以降に前記光源の状態を点灯状態または消灯状態にする、
前記(1)または(2)のいずれか1項に記載の情報処理装置。
(6)
前記光源制御部は、各フレームに対応する露光の開始時刻が含まれる撮像処理情報を取得した場合、前記露光の開始時刻以前に前記光源の状態を点灯状態または消灯状態にする、
前記(1)から(5)のいずれか1項に記載の情報処理装置。
(7)
前記光源制御部は、各フレームに対応する露光の開始時刻が含まれる撮像処理情報を取得できない場合、露光時間と光源の点灯または消灯時刻の対応情報である光源制御設定情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
前記(1)から(6)のいずれか1項に記載の情報処理装置。
(8)
前記露光制御部はローリングシャッター方式で露光を行う、
前記(1)から(7)のいずれか1項に記載の情報処理装置。
(9)
前記露光制御部は、前記光の反射点である輝点が映ることが予測される予測輝点位置に関する情報を取得し、前記予測輝点位置に対応する撮像画像内のラインに対して前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
前記(8)に記載の情報処理装置。
(10)
前記光源が複数個存在する場合、
前記露光制御部は、光源毎に点灯状態または消灯状態にするタイミングを設定する、
前記(9)に記載の情報処理装置。
(11)
前記予測輝点位置は、フレームレート、撮像処理中のフレームまでの撮像部の3次元位置姿勢情報、撮像処理中のフレームまでの輝点の3次元位置情報または撮像処理中のフレームまでの輝点の撮像画像内での位置情報が含まれる予測関連情報に基づいて予測される、
前記(9)または(10)のいずれか1項に記載の情報処理装置。
(12)
前記光源制御部は、前記予測関連情報と前記予測輝点位置に対応する撮像画像内のラインの対応情報が含まれる予測輝点位置関連情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
前記(11)に記載の情報処理装置。
(13)
前記光を用いて眼を撮像する撮像部をさらに備える、
前記(1)から(12)のいずれか1項に記載の情報処理装置。
(14)
前記光源制御部は、照度検出部によって検出された照度に関する情報である照度情報、画像処理部による撮像画像の解析結果によって生成された照度に関する情報である撮像画像照度情報、または撮像処理に関するパラメータに基づいて前記光源の輝度を設定する、
前記(1)から(13)のいずれか1項に記載の情報処理装置。
(15)
眼へ光を照射する光源を制御することと、
前記光を用いて前記眼を撮像するための露光を制御することと、を含み、
前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
情報処理装置により実行される情報処理方法。
100 ヘッドマウントディスプレイ
101 光源
102 光源制御部
103 撮像部
104 画像処理部
105 照合部
106 視線推定部
107 表示部
108 表示制御部
109 記憶部
110 露光制御部
111 照度検出部

Claims (15)

  1. 眼へ光を照射する光源を制御する光源制御部と、
    前記眼を撮像するための露光を制御する露光制御部と、を備え、
    前記光源制御部は、前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
    情報処理装置。
  2. 前記光源制御部は、時系列に連続する複数のフレームを構成する各フレームに対応する前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  3. 前記光源制御部は、各フレームに対応する露光の終了時刻が含まれる撮像処理情報を取得した場合、前記露光の終了時刻以降に前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  4. 前記光源制御部は、各フレームに対応する露光の終了時刻が含まれる撮像処理情報を取得できない場合、露光時間と光源の点灯または消灯時刻の対応情報である光源制御設定情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  5. 前記光源制御部は、撮像された画像の読み出しの完了通知または露光の完了通知が含まれる撮像処理情報を取得した場合、前記撮像された画像の読み出しの完了通知または露光の完了通知が取得された時刻以降に前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  6. 前記光源制御部は、各フレームに対応する露光の開始時刻が含まれる撮像処理情報を取得した場合、前記露光の開始時刻以前に前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  7. 前記光源制御部は、各フレームに対応する露光の開始時刻が含まれる撮像処理情報を取得できない場合、露光時間と光源の点灯または消灯時刻の対応情報である光源制御設定情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
    請求項1に記載の情報処理装置。
  8. 前記露光制御部はローリングシャッター方式で露光を行う、
    請求項1に記載の情報処理装置。
  9. 前記露光制御部は、前記光の反射点である輝点が映ることが予測される予測輝点位置に関する情報を取得し、前記予測輝点位置に対応する撮像画像内のラインに対して前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
    請求項8に記載の情報処理装置。
  10. 前記光源が複数個存在する場合、
    前記露光制御部は、光源毎に点灯状態または消灯状態にするタイミングを設定する、
    請求項9に記載の情報処理装置。
  11. 前記予測輝点位置は、フレームレート、撮像処理中のフレームまでの撮像部の3次元位置姿勢情報、撮像処理中のフレームまでの輝点の3次元位置情報または撮像処理中のフレームまでの輝点の撮像画像内での位置情報が含まれる予測関連情報に基づいて予測される、
    請求項9に記載の情報処理装置。
  12. 前記光源制御部は、前記予測関連情報と前記予測輝点位置に対応する撮像画像内のラインの対応情報が含まれる予測輝点位置関連情報に基づいて前記光源の状態を点灯状態または消灯状態にする、
    請求項11に記載の情報処理装置。
  13. 前記光を用いて眼を撮像する撮像部をさらに備える、
    請求項1に記載の情報処理装置。
  14. 前記光源制御部は、照度検出部によって検出された照度に関する情報である照度情報、画像処理部による撮像画像の解析結果によって生成された照度に関する情報である撮像画像照度情報、または撮像処理に関するパラメータに基づいて前記光源の輝度を設定する、
    請求項1に記載の情報処理装置。
  15. 眼へ光を照射する光源を制御することと、
    前記光を用いて前記眼を撮像するための露光を制御することと、を含み、
    前記露光が行われない時間に前記光源の状態を点灯状態または消灯状態にする、
    情報処理装置により実行される情報処理方法。
JP2016094319A 2016-05-10 2016-05-10 情報処理装置、情報処理方法 Pending JP2017204685A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016094319A JP2017204685A (ja) 2016-05-10 2016-05-10 情報処理装置、情報処理方法
US16/097,683 US10757337B2 (en) 2016-05-10 2017-03-08 Information processing apparatus and information processing method to control exposure for imaging the eye
PCT/JP2017/009211 WO2017195450A1 (ja) 2016-05-10 2017-03-08 情報処理装置、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094319A JP2017204685A (ja) 2016-05-10 2016-05-10 情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
JP2017204685A true JP2017204685A (ja) 2017-11-16

Family

ID=60267019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094319A Pending JP2017204685A (ja) 2016-05-10 2016-05-10 情報処理装置、情報処理方法

Country Status (3)

Country Link
US (1) US10757337B2 (ja)
JP (1) JP2017204685A (ja)
WO (1) WO2017195450A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017204406A1 (ko) * 2016-05-25 2017-11-30 엠텍비젼 주식회사 운전자의 눈 위치 검출 장치와 방법, 및 롤링 셔터 구동 방식의 이미지 센서를 구비한 촬상 장치와 그 조명 제어 방법
JP2017211891A (ja) * 2016-05-27 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
WO2020157979A1 (ja) * 2019-02-01 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイおよび画像表示方法
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US20050253937A1 (en) * 2004-05-17 2005-11-17 Micron Technology, Inc. Real-time exposure control for automatic light control
IL183386A0 (en) * 2007-05-24 2007-09-20 Wavebreak Technologies Ltd Systems and methods for counting an audience
JP5230748B2 (ja) 2008-09-26 2013-07-10 パナソニック株式会社 視線方向判定装置及び視線方向判定方法
JP2013027617A (ja) * 2011-07-29 2013-02-07 Canon Inc 眼科装置、眼科撮影方法、及びプログラム
US10142553B2 (en) * 2013-09-16 2018-11-27 Intel Corporation Camera and light source synchronization for object tracking
JP6074122B1 (ja) * 2013-12-09 2017-02-01 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡装置動作方法及び能動的電力管理を行う目追跡装置
JP6361193B2 (ja) * 2014-03-14 2018-07-25 富士通株式会社 光源装置、発光方法及び端末装置
JP6471953B2 (ja) * 2014-05-23 2019-02-20 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、及び撮像方法
JP6370168B2 (ja) * 2014-08-29 2018-08-08 アルプス電気株式会社 照明撮像装置及びそれを備えた視線検出装置
JP2016051317A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 視線検出装置
US9942474B2 (en) * 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras

Also Published As

Publication number Publication date
WO2017195450A1 (ja) 2017-11-16
US20190158717A1 (en) 2019-05-23
US10757337B2 (en) 2020-08-25

Similar Documents

Publication Publication Date Title
US10893802B2 (en) Information processing apparatus, information processing method, and recording medium
US11616906B2 (en) Electronic system with eye protection in response to user distance
US10747995B2 (en) Pupil tracking device
WO2016129156A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US9952667B2 (en) Apparatus and method for calibration of gaze detection
EP3042265B1 (en) Information processing apparatus, information processing method, and program
WO2016088418A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017195450A1 (ja) 情報処理装置、情報処理方法
US20210200307A1 (en) User recognition and gaze tracking in a video system
WO2016085212A1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
US20170154247A1 (en) Information processing device, information processing method, light-emitting device regulating apparatus, and drive current regulating method
US20170208237A1 (en) Control device, control method, and program
JP2012187190A (ja) 視線検出装置及び視線検出方法
CN106210699B (zh) 信息处理装置、信息处理装置的控制方法及图像处理系统
US11216066B2 (en) Display device, learning device, and control method of display device
WO2021131335A1 (ja) 角膜反射検出装置、視線検出装置、角膜反射検出方法、及び角膜反射検出プログラム
KR20160094077A (ko) 이미지를 캡쳐하는 전자 장치 및 방법