JP2021029279A - 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム - Google Patents

情報処理装置、視線検出システム、視線検出方法および視線検出プログラム Download PDF

Info

Publication number
JP2021029279A
JP2021029279A JP2019148854A JP2019148854A JP2021029279A JP 2021029279 A JP2021029279 A JP 2021029279A JP 2019148854 A JP2019148854 A JP 2019148854A JP 2019148854 A JP2019148854 A JP 2019148854A JP 2021029279 A JP2021029279 A JP 2021029279A
Authority
JP
Japan
Prior art keywords
light source
user
event signal
light
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019148854A
Other languages
English (en)
Other versions
JP7269131B2 (ja
Inventor
貴志 島津
Takashi Shimazu
貴志 島津
平田 真一
Shinichi Hirata
真一 平田
小泉 誠
Makoto Koizumi
誠 小泉
宏昌 長沼
Hiromasa Naganuma
宏昌 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2019148854A priority Critical patent/JP7269131B2/ja
Priority to PCT/JP2020/030312 priority patent/WO2021029342A1/ja
Priority to US17/630,496 priority patent/US20220272256A1/en
Publication of JP2021029279A publication Critical patent/JP2021029279A/ja
Application granted granted Critical
Publication of JP7269131B2 publication Critical patent/JP7269131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】イベント駆動型のビジョンセンサを視線検出技術に適用することによって、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うこと。【解決手段】ユーザーの眼に光を照射する光源の光の強度を変化させる光源制御部と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する受信部と、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源制御部による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する視線検出部とを備える情報処理装置が提供される。【選択図】図1

Description

本発明は、情報処理装置、視線検出システム、視線検出方法および視線検出プログラムに関する。
入射する光の強度変化を検出したピクセルが時間非同期的に信号を生成する、イベント駆動型のビジョンセンサが知られている。イベント駆動型のビジョンセンサは、所定の周期ごとに全ピクセルをスキャンするフレーム型ビジョンセンサ、具体的にはCCDやCMOSなどのイメージセンサに比べて、低電力で高速に動作可能である点で有利である。 このようなイベント駆動型のビジョンセンサに関する技術は、例えば特許文献1および特許文献2に記載されている。
特表2014−535098号公報 特開2018−85725号公報
しかしながら、イベント駆動型のビジョンセンサについては、上記のような利点は知られているものの、他の装置と組み合わせた利用方法については、まだ十分に提案されているとは言いがたい。
そこで、本発明は、イベント駆動型のビジョンセンサを視線検出技術に適用することによって、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる情報処理装置、視線検出システム、視線検出方法および視線検出プログラムを提供することを目的とする。
本発明のある観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させる光源制御部と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する受信部と、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源制御部による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する視線検出部とを備える情報処理装置が提供される。
本発明の別の観点によれば、ユーザーの眼に光を照射する光源と、光源の光の強度を変化させる光源制御部と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサと、ビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する受信部、および、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源制御部による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する視線検出部を有する端末装置とを備える視線検出システムが提供される。
本発明のさらに別の観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させるステップと、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信するステップと、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源の強度の変化と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出するステップとを含む視線検出方法が提供される。
本発明のさらに別の観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させる機能と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する機能と、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源の強度の変化と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する機能とをコンピュータに実現させる視線検出プログラムが提供される。
上記の構成によれば、イベント駆動型のビジョンセンサを視線検出技術に適用することによって、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる。
本発明の一実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の一実施形態における動き検出について概略的に説明するための図である。 本発明の一実施形態における視線検出について概略的に説明するための図である。 本発明の一実施形態に係る処理方法の例を示すフローチャートである。 本発明の一実施形態に係る処理方法の例を示すフローチャート(詳細)である。 本発明の一実施形態における光源制御について概略的に説明するための図である。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1は、本発明の一実施形態に係る視線検出システム10の概略的な構成を示すブロック図である。本発明の一実施形態に係る視線検出システム10は、例えば全体がユーザーの頭部に装着されるHMDなどの装置に組み込まれてもよいし、後述する情報処理装置200を含む部分がユーザーの頭部から離れた位置に配置されるものであってもよい。
図示された例において、視線検出システム10は、LED(Light Emitting Diode)を備える第1光源部101および第2光源部102と、イベント駆動型のビジョンセンサであるEDS(Event Driven Sensor)103と、情報処理装置200とを含む。このうち、第1光源部101、第2光源部102、およびEDS103はユーザーの眼の近傍に配置され、第1光源部101、第2光源部102、およびEDS103のそれぞれとユーザーの眼との相対的な位置関係は既知である。
第1光源部101および第2光源部102は、例えば、赤外光を発光するLEDを備え、ユーザーの眼に赤外光を照射可能な位置に配置される。また、第1光源部101および第2光源部102は、情報処理装置200により制御される。詳細は後述する。
EDS103は、センサが光の強度変化を検出したときにイベント信号を生成するビジョンセンサの例であり、センサアレイを構成する不図示のセンサと、センサに接続される不図示の処理回路とを含む。各センサは、受光素子を含み、入射する光の強度変化、より具体的には輝度変化を検出したときにイベント信号を生成する。本実施形態において、EDS103はユーザーの眼の反射像が入射される位置に配置され、ユーザーの眼の反射像に輝度変化を検出したときにイベント信号を生成する。輝度変化を検出しなかったセンサはイベント信号を生成しないため、EDS103においてイベント信号は時間非同期的に生成される。EDS103で生成されたイベント信号は、情報処理装置200に出力される。
EDS103で生成されるイベント信号は、センサの識別情報(例えばピクセルの位置)と、輝度変化の極性(上昇または低下)と、タイムスタンプなどを含む。
情報処理装置200は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される光源制御部201、受信部202、動き検出部203、視線検出部204の機能を含む。また、情報処理装置200は、第1光源部101および第2光源部102を制御するための照射パターンを格納する照射パターンメモリ205を備える。照射パターンメモリ205は、光源制御部201および視線検出部204により参照される。以下、各部の機能についてさらに説明する。
光源制御部201は、動き検出部203から後述するトリガを受信すると、照射パターンメモリ205に格納された照射パターンに従って、第1光源部101および第2光源部102に制御信号を送信する。具体的には、光源制御部201は、各光源の点灯または消灯の制御や、各光源から照射する光の強度の制御を行う。このとき、光源制御部201は、異なる照射パターンに従って、第1光源部101および第2光源部102を独立に制御する。
受信部202は、EDS103で生成されたイベント信号を受信する。ここで、受信部202が受信するイベント信号は、EDS103がユーザーの眼の反射像に輝度変化を検出したときに生成されたものである。特に、上述した光源制御部201によって第1光源部101および第2光源部102が制御された場合、ユーザーの眼の反射像には光源制御部201による制御によって輝度変化が発生し、その輝度変化に起因して生成されたイベント信号が受信部202により受信される。例えば光源制御部201によって第1光源部101が点灯された場合には、第1光源部101に対応する位置と、点灯に対応する極性とを示すイベント信号が受信部202により受信される。また、例えば光源制御部201によって第2光源部102が消灯された場合には、第2光源部102に対応する位置と、消灯に対応する極性とを示すイベント信号が受信部202により受信される。
動き検出部203は、受信部202が受信したイベント信号に基づき、ユーザーの視線の動きの有無を検出する。図2は、ユーザーの視線が水平方向に移動した場合に生成されるイベント信号を示す模式図である。図2の領域a1およびa2は、輝度変化の極性が第1の方向(+または−の何れか)であることを示し、領域a3およびa4は、輝度変化の極性が第1の方向とは反対の第2の方向(+および−のうち、第1の方向の反対)であることを示す。図2に示されるように、ユーザーの視線が水平方向に移動すると、左右それぞれの瞳において、EDS103から見て同じ側に同じ極性を示すイベント信号が生成される。また、それぞれの瞳においては、瞳に対して目頭側および目尻側に反対の極性を示すイベント信号が生成される。
このように、ユーザーの視線の動きに応じて生成されるイベント信号は、位置および極性に特徴を有する。動き検出部203は、このような特徴に対応して予め用意されたパターンを受信部202が受信したイベント信号と照合することにより、ユーザーの視線の動きの有無や、おおよその向きを検出する。なお、イベント信号はユーザーが瞬きをした場合にも生成されるが、動き検出部203は、上記のパターンを用いてユーザーの視線の動きと、瞬きとを区別することができる。
なお、詳細は後述するが、上述した動き検出部203による検出の時点では、第1光源部101および第2光源部102が消灯されている場合がある。しかし、第1光源部101および第2光源部102によりユーザーの眼に光が照射されていなくても、ユーザーの視線の動きに応じてEDS103はイベント信号を生成するため、動き検出部203は、第1光源部101および第2光源部102の点灯または消灯にかかわらず、ユーザーの視線の動きの有無を検出することができる。
そして、動き検出部203は、上述したようにユーザーの視線の動きを検出すると、第1光源部101および第2光源部102の制御を開始させるトリガを、光源制御部201に送信する。このトリガにより光源制御部201が開始する制御は、ユーザーの視線検出をより正確に行うためのものであり、本実施形態では、光源制御部201は、第1光源部101および第2光源部102をそれぞれ照射パターンメモリ205に格納された照射パターンに従って点灯または消灯させる。
また、動き検出部203は、動き検出の結果を示す情報を視線検出部204に供給する。
視線検出部204は、受信部202が受信したイベント信号に基づいて、ユーザーの視線を検出する。
ここで、第1光源部101および第2光源部102の反射像について、図3を用いて説明する。図3の上段は第1光源部101および第2光源部102とユーザーの視線との関係を示し、下段は、それぞれの状態で生成されるイベント信号における反射像の位置を示す。また、図3の左側の図はユーザーの視線が矢印g1方向を向いている場合を示し、中央の図はユーザーの視線が矢印g2方向を向いている場合を示し、右側の図はユーザーの視線が矢印g3方向を向いている場合を示す。図3に示されるように、ユーザーの視線の向きに応じて、光源の反射像r1,r2,r3の位置が変化する。
上述したように、視線検出システム10において、第1光源部101、第2光源部102、およびEDS103のそれぞれとユーザーの眼との相対的な位置関係は既知であるため、視線検出部204は、受信部202が受信したイベント信号に基づき、ユーザーの瞳と光源の反射像r1,r2,r3との相対的な位置を特定し、幾何的な演算を行うことにより、ユーザーの視線の方向を検出することができる。なお、イベント信号において第1光源部101が照射した光の反射像と第2光源部102が照射した光の反射像とを識別する方法については後述する。
図4は、本発明の一実施形態に係るユーザーの視線検出方法の例を示すフローチャートである。図示された例では、情報処理装置200の受信部202がEDS103により生成されたイベント信号を受信し(ステップS101)、動き検出部203がイベント信号に基づいてユーザーの視線の動きの有無を検出する(ステップS102)。動き検出部203はユーザーの視線の動きがあるか否かを判断し(ステップS103)、ユーザーの視線の動きがある場合に、視線検出部204が後述する視線検出処理を行う(ステップS104)。視線検出処理の開始後にも動き検出部203はユーザーの視線の動きの有無を検出し(ステップS105)、ユーザーの視線の動きがある間は視線検出部204が視線検出処理を繰り返す。一方、ユーザーの視線の動きがない場合には、次にイベント信号に基づいてユーザーの視線の動きがあると判断されるまで視線検出処理は行われない(ステップS101〜S103)。
図5は、図4における視線検出処理の詳細を示すフローチャートであり、図6は、図5で説明するフローチャート実行時の光源制御について説明するための図である。図示された例では、情報処理装置200の光源制御部201が制御信号を送信して第1光源部101および第2光源部102を同時に点灯させる(ステップS201)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS202)。ステップS202で受信部202が受信したイベント信号は、ステップS201で第1光源部101および第2光源部102を点灯されたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、EDS103により生成されるイベント信号は、例えば従来のフレーム型ビジョンセンサとは異なり時間非同期的に、かつ高速に生成されるため、第1光源部101および第2光源部102をほぼ同時に点灯させた場合、EDS103でもほぼ同時にそれぞれの光源の点灯を示すイベント信号が生成される。したがって、図6では、ステップS201で光源制御部201が第1光源部101および第2光源部102を点灯させた時刻、およびステップS202で受信されたイベント信号の時刻(タイムスタンプ)をいずれも時刻t0としている。
次に、動き検出部203は、第1光源部101および第2光源部102が同時に点灯されてから所定の時間が経過し、時刻がt1となったか否かを判断する(ステップS203)。そして、時刻がt1となった場合、光源制御部201が制御信号を送信して第1光源部101を消灯させる(ステップS204)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS205)。ステップS205で受信部202が受信したイベント信号は、ステップS204で第1光源部101を消灯させたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、図6では、上記のステップS201とステップS202との関係と同様に、ステップS204で光源制御部201が第1光源部101を消灯させた時刻、およびステップS205で受信されたイベント信号の時刻(タイムスタンプ)は、いずれも時刻t1としている。
次に、動き検出部203は、第1光源部101が消灯されてから所定の時間が経過し、時刻がt2となったか否かを判断する(ステップS206)。そして、時刻がt2となった場合、光源制御部201が制御信号を送信して第2光源部102を消灯させる(ステップS207)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS208)。ステップS208で受信部202が受信したイベント信号は、ステップS207で第2光源部102を消灯させたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、図6では、上記のステップS201およびステップS202の関係やステップS204およびステップS205の関係と同様に、ステップS207で光源制御部201が第2光源部102を消灯させた時刻、およびステップS208で受信されたイベント信号の時刻(タイムスタンプ)は、いずれも時刻t2としている。
最後に、視線検出部204は、ステップS202,S205,S208において受信部202が受信したイベント信号に基づいて、ユーザーの視線を検出する(ステップS209)。
ここで、予め与えられている情報、およびステップS202,S205,S208において受信部202が受信したイベント信号によって、ステップS209の時点では以下の情報が特定されている。
・第1光源部101および第2光源部102とユーザーの眼との相対的な位置関係
・第1光源部101および第2光源部102の時系列での消灯または点灯の状態
・EDS103とユーザーの眼との相対的な位置関係
・時系列のイベントの発生位置
・輝度変化の極性
・タイムスタンプ
例えば、図6の時刻t0においては、第1光源部101および第2光源部102が同時に点灯されることにより、第1光源部101および第2光源部102のそれぞれに対応する位置に、輝度変化の極性が同じイベントが発生する。したがって、時刻t0においては、第1光源部101および第2光源部102の点灯に起因して発生したイベントを示すイベント信号が生成される。
次に、図6の時刻t1においては、第1光源部101のみが消灯されることにより、第1光源部101に対応する位置のみに、輝度変化の極性が時刻t0とは反対の方向であるイベントが発生する。なお、時刻t1において第2光源部102は点灯されたままであり、輝度変化が発生しないため、第2光源部102に対応する位置にはイベントが発生しない。したがって、時刻t1においては、第1光源部101の消灯に起因して発生したイベントのみを示すイベント信号が生成される。
そして、図6の時刻t2においては、第2光源部102が消灯されることにより、第2光源部102に対応する位置のみに、輝度変化の極性が時刻t0とは反対の方向、かつ時刻t1とは同じ方向であるイベントが発生する。なお、時刻t2において第1光源部101は消灯されたままであり、輝度変化が発生しないため、第1光源部101に対応する位置にはイベントが発生しない。したがって、時刻t2においては、第2光源部102の消灯に起因して発生したイベントのみを示すイベント信号が生成される。
このように、光源制御部201による制御と同時にEDS103によってイベント信号が生成されるため、生成された各イベント信号が、いずれの光源が照射した光の反射像における輝度変化に基づくものであるかを識別可能である。
したがって、ステップS209の時点で、視線検出部204は、各時刻において、各光源の点灯または消灯に起因して、どの位置にどのような極性を有するイベントが発生したのかを容易に把握することができる。そのため、視線検出部204は、第1光源部101および第2光源部102が消灯または点灯されたタイミングで生成されたイベント信号に基づき、複雑な計算なしにユーザーの視線の検出を行うことができる。ユーザーの視線は、例えば第1光源部101および第2光源部102のそれぞれの反射光の位置を利用して瞳孔角膜反射法によって検出することができる。視線検出部204は、視線の検出を行う際に、図4のステップS102で行ったユーザーの視線の動きの有無の検出結果を用いてもよい。例えば、ステップS102の検出結果に基づいて、図5のステップS209で行う視線検出の範囲などを限定してもよい。
ここで、図5および図6に示されるように、説明した視線検出処理が終了する時点で、第1光源部101および第2光源部102は消灯された状態である。つまり、ユーザーの視線検出処理が開始されると、第1光源部101および第2光源部102が点灯され、視線検出処理が終了する時点では、第1光源部101および第2光源部102が消灯されることになる。したがって、第1光源部101および第2光源部102が点灯されるのは必要なタイミングに限定されるので、消費電力の低減が期待できる。
なお、図4に示した例では、ユーザーの視線の動きを検出した場合に図5および図6で示した視線検出処理を実行する例を示したが、図5および図6で示した視線検出処理を常時行う構成としてもよい。また、図5および図6に示した例では、第1光源部101および第2光源部102を同じタイミングで点灯させた後に、異なるタイミングで消灯させる例を示したが、本発明はこの例に限定されない。例えば、それぞれの光源部を異なるタイミングで点灯させてもよい。
以上で説明したような本発明の一実施形態では、ユーザーの眼に光を照射する第1光源部101および第2光源部102の光の強度を変化させる光源制御部201と、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を生成するEDS103とを備える。そして、ユーザーの眼、第1光源部101、第2光源部102、およびEDS103の相対的な位置関係と、光源制御部201による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する。したがって、光源制御部201による光源の制御の時間情報と、EDS103によるイベント信号生成の時間情報とを利用し、第1光源部101および第2光源部102の制御と、EDS103によるイベント信号の生成との相関を正確に特定することができる。そのため、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる。
なお、視線検出処理については、リアルタイムでの処理が求められる場合も多いが、本発明の一実施形態によれば、光源制御部201による光源の制御とほぼ同時に、光源の制御に起因したイベント信号がEDS103によって生成されるため、時間情報の精度が高い。そのため、制御や演算に関する処理負荷を軽くすることが可能であり、リアルタイムかつ高精度な処理を行うことができる。また、EDS103は、センサが光の強度変化を検出したときにのみ、イベント信号を生成するビジョンセンサであるため、イメージセンサを利用して常時撮像を行う場合に比べて、消費電力を抑えることができる。また、第1光源部101および第2光源部102の制御と、EDS103によるイベント信号の生成との相関が正確に特定されるので、屋外等であっても外光の影響を受けにくい。
また、本発明の一実施形態では、動き検出部203によりイベント信号からユーザーの視線の動きの有無を検出し、ユーザーの視線の動きを検出すると、光源制御部201による光源の制御を開始する。したがって、ユーザーの視線が動いた可能性がある場合に限定して視線検出処理を行うことにより、必要な精度を維持しつつ、不要な光源制御や視線検出処理を避け、消費電力をさらに低減することができる。
また、本発明の一実施形態では、光源制御部201は、第1光源部101および第2光源部102について、光の強度を独立に制御し、視線検出部204は、イベント信号において、第1光源部101の光の強度変化に起因してイベントが発生した位置を第1光源部101の反射光の位置として特定し、第2光源部102の光の強度変化に起因してイベントが発生した位置を第2光源部102の反射光の位置として特定する。したがって、第1光源部101および第2光源部102を互いに異なるタイミングで点灯または消灯させることにより、光源制御部201による光源の制御と同時にEDS103により生成されるイベント信号を得る際に、そのイベント信号に対応する光源を容易に特定することができる。
なお、上記の例で説明された視線検出システム10は、単一の装置内で実装されてもよいし、複数の装置に分散して実装されてもよい。例えば、HMDなどを含む端末装置に視線検出システム10全体を実装してもよいし、情報処理装置200をサーバー装置に分離して実装してもよい。また、マーケティングなどを目的としたデータ分析などの用途を想定し、光源の照射パターンとイベント信号とを時系列上で対応付けられたデータとして保存した上で、事後的に視線検出処理を行う構成としてもよい。この場合、視線検出処理は、光源制御部、受信部、および動き検出部別の装置で行う構成としてもよい。
また、上記の例で説明された視線検出システム10では、2つの光源(第1光源部101および第2光源部102)を含む例を示したが、各光源とユーザーの眼との相対的な位置関係が特定されていれば、1つの光源であってもよいし、3つ以上の光源を含んでもよい。特に、3つ以上の光源を含む構成では、一部またはすべての光源を互いに異なるタイミングで点灯または消灯させることにより、三次元情報などのさらに詳細な情報を取得することが期待できる。
また、上記の例で説明された視線検出システム10では、視線検出処理において、2つの光源(第1光源部101および第2光源部102)を点灯または消灯させる例を示したが、光源を完全には消灯せず、各光源から照射する光の強度を変更する構成としてもよい。
また、上記の例で説明された視線検出システム10では、1つのビジョンセンサ(EDS103)を含む例を示したが、各ビジョンセンサとユーザーの眼との相対的な位置関係が特定されていれば、複数のビジョンセンサを含んでもよい。特に、複数のビジョンセンサを含む構成では、各センサの配置や光源の制御などを工夫することにより、三次元情報などのさらに詳細な情報を取得することが期待できる。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10…視線検出システム、101…第1光源部、102…第2光源部、103…EDS、200…情報処理装置、201…光源制御部、202…受信部、203…動き検出部、204…視線検出部、205…照射パターンメモリ

Claims (6)

  1. ユーザーの眼に光を照射する光源の光の強度を変化させる光源制御部と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する受信部と、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源制御部による制御と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出する視線検出部と
    を備える情報処理装置。
  2. 前記イベント信号から前記ユーザーの視線の動きの有無を検出する動き検出部をさらに備え、
    前記光源制御部は、前記動き検出部が前記ユーザーの視線の動きを検出すると、前記光源の制御を開始する、請求項1に記載の情報処理装置。
  3. 前記光源制御部は、少なくとも第1の光源および第2の光源を含む複数の前記光源について、前記光の強度を独立に制御し、
    前記視線検出部は、前記イベント信号において、前記第1の光源の前記光の強度変化に起因してイベントが発生した位置を前記第1の光源の反射光の位置として特定し、前記第2の光源の前記光の強度変化に起因してイベントが発生した位置を前記第2の光源の反射光の位置として特定する、請求項1又は請求項2に記載の情報処理装置。
  4. ユーザーの眼に光を照射する光源と、
    前記光源の光の強度を変化させる光源制御部と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサと、
    前記ビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する受信部、および、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源制御部による制御と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出する視線検出部
    を有する端末装置と
    を備える視線検出システム。
  5. ユーザーの眼に光を照射する光源の光の強度を変化させるステップと、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信するステップと、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源の光の強度の変化と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出するステップと
    を含む視線検出方法。
  6. ユーザーの眼に光を照射する光源の光の強度を変化させる機能と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する機能と、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源の光の強度の変化と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出する機能と
    をコンピュータに実現させる視線検出プログラム。
JP2019148854A 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム Active JP7269131B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019148854A JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
PCT/JP2020/030312 WO2021029342A1 (ja) 2019-08-14 2020-08-07 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
US17/630,496 US20220272256A1 (en) 2019-08-14 2020-08-07 Information processing device, visual line detection system, visual line detection method, and visual line detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148854A JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム

Publications (2)

Publication Number Publication Date
JP2021029279A true JP2021029279A (ja) 2021-03-01
JP7269131B2 JP7269131B2 (ja) 2023-05-08

Family

ID=74570284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148854A Active JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム

Country Status (3)

Country Link
US (1) US20220272256A1 (ja)
JP (1) JP7269131B2 (ja)
WO (1) WO2021029342A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023096643A (ja) * 2021-12-27 2023-07-07 株式会社Screenホールディングス 動作監視方法および製造装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1156782A (ja) * 1997-08-12 1999-03-02 Techno Works:Kk 二光源及び画像差分手段を用いた眼球特徴点検出方式
JP2011125693A (ja) * 2009-11-18 2011-06-30 Panasonic Corp 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
JP2018196730A (ja) * 2017-05-23 2018-12-13 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 眼の位置を監視するための方法およびシステム
WO2019147677A1 (en) * 2018-01-24 2019-08-01 Kaban Technologies Llc Event camera-based gaze tracking using neural networks

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
JP6089705B2 (ja) * 2013-01-07 2017-03-08 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
US9468373B2 (en) * 2013-09-24 2016-10-18 Sony Interactive Entertainment Inc. Gaze tracking variations using dynamic lighting position
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
TWI536279B (zh) * 2015-04-22 2016-06-01 緯創資通股份有限公司 人眼偵測方法及系統
CN108697321B (zh) * 2015-12-31 2021-09-17 视译公司 用于在限定操作范围内进行视线跟踪的装置
US10303246B2 (en) * 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
CN108698611A (zh) * 2016-03-16 2018-10-23 本田技研工业株式会社 车辆控制系统、车辆控制方法及车辆控制程序
KR102548199B1 (ko) * 2016-08-03 2023-06-28 삼성전자주식회사 전자 장치 및 전자 장치의 시선 추적 방법
JP6587254B2 (ja) * 2016-09-16 2019-10-09 株式会社東海理化電機製作所 輝度制御装置、輝度制御システム及び輝度制御方法
DE112017006982T5 (de) * 2017-03-03 2019-10-31 Mitsubishi Electric Corporation Bedienungseignungsbeurteilungsvorrichtung,bedienungseignungsbeurteilungsverfahren undbedienungseignungsbeurteilungsprogramm
JP6841146B2 (ja) * 2017-04-21 2021-03-10 富士ゼロックス株式会社 眼球の光計測装置及び眼球の光計測方法
US10108261B1 (en) * 2017-07-05 2018-10-23 Oculus Vr, Llc Eye tracking based on light polarization
US10466779B1 (en) * 2017-07-24 2019-11-05 Facebook Technologies, Llc Event camera for eye tracking
JP7056055B2 (ja) * 2017-09-27 2022-04-19 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
CN111263925B (zh) * 2017-09-28 2022-06-14 苹果公司 用于使用事件相机数据的眼动跟踪的方法和设备
WO2019117350A1 (ko) * 2017-12-14 2019-06-20 삼성전자 주식회사 응시 거리를 결정하는 방법 및 디바이스
US10380801B1 (en) * 2018-02-07 2019-08-13 Rockwell Collins, Inc. Head wearable device, system, and method for displaying teamed asset information
US11042031B2 (en) * 2018-02-20 2021-06-22 Google Llc Eye tracking system and method, eyeglass lens, and wearable heads-up display
US10936056B2 (en) * 2018-04-16 2021-03-02 Google Llc Method and system of eye tracking with glint drift correction on wearable heads-up display
US10976814B2 (en) * 2018-04-16 2021-04-13 Google Llc Method and system for eye tracking with glint space recalibration on wearable heads-up display
US11157077B2 (en) * 2018-04-16 2021-10-26 Google Llc Method and system for dual mode eye tracking on wearable heads-up display
US11314396B2 (en) * 2018-05-09 2022-04-26 Apple Inc. Selecting a text input field using eye gaze
US11064387B1 (en) * 2018-05-23 2021-07-13 Apple Inc. Adaptive wireless transmission schemes
US11435820B1 (en) * 2019-05-16 2022-09-06 Facebook Technologies, Llc Gaze detection pipeline in an artificial reality system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1156782A (ja) * 1997-08-12 1999-03-02 Techno Works:Kk 二光源及び画像差分手段を用いた眼球特徴点検出方式
JP2011125693A (ja) * 2009-11-18 2011-06-30 Panasonic Corp 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
JP2018196730A (ja) * 2017-05-23 2018-12-13 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 眼の位置を監視するための方法およびシステム
WO2019147677A1 (en) * 2018-01-24 2019-08-01 Kaban Technologies Llc Event camera-based gaze tracking using neural networks

Also Published As

Publication number Publication date
WO2021029342A1 (ja) 2021-02-18
US20220272256A1 (en) 2022-08-25
JP7269131B2 (ja) 2023-05-08

Similar Documents

Publication Publication Date Title
US10747995B2 (en) Pupil tracking device
US20180160079A1 (en) Pupil detection device
CN109076662B (zh) 用于镜子部件的自适应照明系统和控制自适应照明系统的方法
KR102669768B1 (ko) 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템
US10321055B2 (en) Low power eye tracking system and method
JP5211018B2 (ja) 視線追跡方法及び視線追跡システム
EP2823751B1 (en) Eye gaze imaging
US11140319B2 (en) Eye-tracking module with scenario-based mode switching function
EP2226703A2 (en) Wearable eye tracking system
RU2013128144A (ru) Электронная офтальмологическая линза с датчиком конвергенции зрачков
KR20150075906A (ko) 시선 추적 장치 및 방법
EP3173811B1 (en) High speed, high precision six degree-of-freedom optical tracker system and method
US20220261079A1 (en) Controlling illuminators for optimal glints
WO2021029342A1 (ja) 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
JP2012187190A (ja) 視線検出装置及び視線検出方法
US11216066B2 (en) Display device, learning device, and control method of display device
US20190073024A1 (en) Image sound output device, image sound output method and image sound output program
CN103565399A (zh) 瞳孔检测装置
JP6370168B2 (ja) 照明撮像装置及びそれを備えた視線検出装置
US20230136191A1 (en) Image capturing system and method for adjusting focus
CN106990859B (zh) 光学触控系统、光学触控装置及其触控检测方法
US10331273B2 (en) Touch display system, touch device and touch display method for avoiding misjudging of touch position
JP2017097689A (ja) 物体検出装置、物体検出方法、及びコンピュータプログラム
JP2019024571A (ja) 視線検出装置及び視線検出方法
JP4261696B2 (ja) 座標入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230421

R150 Certificate of patent or registration of utility model

Ref document number: 7269131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150