JP2501288B2 - 注視点推定装置 - Google Patents

注視点推定装置

Info

Publication number
JP2501288B2
JP2501288B2 JP5148995A JP14899593A JP2501288B2 JP 2501288 B2 JP2501288 B2 JP 2501288B2 JP 5148995 A JP5148995 A JP 5148995A JP 14899593 A JP14899593 A JP 14899593A JP 2501288 B2 JP2501288 B2 JP 2501288B2
Authority
JP
Japan
Prior art keywords
gazing point
center position
change
pupil
pupil center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5148995A
Other languages
English (en)
Other versions
JPH0720987A (ja
Inventor
真司 味園
博明 江藤
利行 濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP5148995A priority Critical patent/JP2501288B2/ja
Priority to EP94303837A priority patent/EP0631222A1/en
Publication of JPH0720987A publication Critical patent/JPH0720987A/ja
Application granted granted Critical
Publication of JP2501288B2 publication Critical patent/JP2501288B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、人間とコンピュータの
インターフェイスに使用する装置に関し、詳しくは利用
者の画面上の注視点を推定する装置の較正用データの獲
得に関するものである。
【0002】
【従来の技術】障害などで手の使えない利用者とコンピ
ュータとのインターフェイスの一つに、利用者の視線を
利用するものがある。その中で利用者の負担が最も少な
くかつ自由度の高いものは、ビデオカメラと赤外線光源
を用いて、利用者が表示装置の画面上で見ている点(注
視点)を推定する非接触型の装置である。これは既に製
品化されている(例えば、リチャード.A.ボルト「マ
ン・マシーン・インターフェイス進化論」パーソナル・
メディア(1986)、D.L.Gardner, Looking at look
ing, in Proceedings of the PS/2 Future Symposium:
A Vision of theFuture: The Ideal 1993 Personal Sys
tem. Boca Raton,FL. April 1988ほか)。
【0003】このような装置では、まずビデオカメラの
データを画像処理することにより、利用者の目の輪郭と
瞳孔の中心位置を求める。さらに必要であれば赤外線を
利用者の眼に当て、角膜からの反射光を測定する。これ
らのデータによって画面上の注視点を推定するものもあ
る。
【0004】しかし、この従来の装置には2つの問題点
がある。まず1つは較正の問題である。注視点の推定に
は、上記のデータの他に、注視点の絶対位置を特定する
ための基準点(例えば、画面の四隅)のデータが必要で
ある。これは作業の開始時に必要であり、また利用者の
姿勢が大きく変化する度に必要になる。さらに眼の動き
と注視点の変化との相関関数には個人個人に依存したパ
ラメータが含まれるので、このパラメータを決定するた
めの較正用データも必要である。よって従来の装置では
利用者が変わるたびにこれらの基準点データ及び較正用
データを取り込む必要がある。通常このようなデータ
は、利用者が作業を始める前に、画面上の予め定められ
た複数の点を順番に注視していくことで集める。しかし
この方法では、注視する対象が本来利用者の行ないたい
作業内容と無関係なものであるため、利用者の思考の流
れを分断してしまうという欠点を持つ。
【0005】第2は注視点の推定結果の確定方法の問題
である。上記のデータから推定した画面上の部分が、確
かに利用者の注視点の位置であるかどうかをシステムが
判断するための有効な方法がない。そのため従来は利用
者に瞬きなどの確定信号を送ってもらい確定する方法が
採られている。或いは確定信号を送るための専用ボタン
を用意する案も出されているが、この方法は手が使用で
きない利用者には適用することができない(例えばP.J.
Kennedy,"Point of Regard Tracking Device",IBM TDB
n10A 03-92 p488-490)。
【0006】
【発明が解決しようとする課題】本発明の目的は、特別
な較正作業を不要とし、利用者の思考の流れを断ち切る
ことなく画面上の注視点の推定に必要な基準点データあ
るいは較正用データを取り出すとともに、その推定結果
の確定をより確実に行なうことを可能にすることによ
り、注視点推定装置の操作性を向上させることである。
【0007】
【課題を解決するための手段】本発明は、従来の画像処
理または赤外線測光等による推定装置に加えて、画面上
で推定された注視点の部分の明度を上げ、その時の瞳孔
面積の変化を測定し相関をとることにより、注視点の推
定に不可欠な較正用データの取り出しと、注視点の推定
値の確定を可能にする。
【0008】
【実施例】図1に本発明の装置の構成を示す。1の表示
装置は、その画面上に文字等を表示するための装置であ
る。2のカメラ部は、ビデオカメラ及び必要ならば赤外
線光源及び測定器からなり、ビデオカメラからの眼の像
のビデオデータを採集する。3の瞳孔中心位置算出部
は、カメラ部からのビデオデータの画像処理を行なうこ
とによって、利用者の瞳孔の中心位置を算出する。ま
た、装置によってはさらに赤外線光源の角膜反射光デー
タをあわせて処理し、より正確に算出する。4の瞳孔面
積測定部は、カメラ部からのビデオデータを画像処理す
ることにより瞳孔面積を計算する。ただし本発明では面
積の絶対値は必要なく、時間的な相対変化のみを計算す
るだけで十分である。これらの装置の詳細については、
前記の参照文献等に記載されているので詳細な説明を省
略する。5の推定部は、算出された瞳孔中心位置及びそ
の較正用データから画面上の注視点を推定する(以下こ
の点を推定注視点と呼ぶ)。そして、算出された瞳孔中
心位置と明度変化により得られるデータから、以後の視
線推定に必要な較正用データを蓄積する。6の明度制御
部は、推定注視点の画面上の位置の明度を変化させる。
【0009】次に、画像処理等で得られる瞳孔中心位置
から画面上の注視点を推定するための具体的方法につい
て説明する。
【0010】まず瞳孔中心位置を図2のように(x,
y)座標系で表し、推定注視点(すなわち、画面上の
点)を図3のように(u,v)座標系で表すことにす
る。問題は瞳孔中心位置(x,y)から推定注視点
(u,v)を算出することである。
【0011】前提として、(x,y)と(u,v)との
関数関係を利用者あるいはシステムが予め決めていると
する。最も簡単な関数として、パラメータa,b,c,
dを含んだ次式が考えられる。
【数1】
【0012】この関数により注視点を推定するために
は、関数に含まれるパラメータ値を決める必要がある。
このパラメータ値決定に必要なデータが較正用データで
ある。最小限必要なデータの数をNpとする。例えば式
(1)の推定関数の場合には、2個所の瞳孔中心位置デ
ータがあれば、(a,b,c,d)を決められるので、
Np=2となる。
【0013】また、利用者あるいはシステムが予めcと
いう臨界値を決めておくことも前提にしている。これ
は、推定注視点(u,v)と本当の注視点(ur,vr)
とのずれに関する値で、 |(u,v)−(ur,vr)|<c (2) ならば、推定が正しいと判断することにする。(ここ
で、||は2点間の距離、すなわち次式の値である。)
【数2】
【0014】以上のようにして、予め推定関数、必要な
データ数Np、臨界値cが決められているものとする。
このもとで推定関数中のパラメータの決定に必要な較正
用データを動的に蓄積・更新していく方法を図4のフロ
ーチャートにより示す。
【0015】以下、図4に示すフローチャートの各部に
ついて説明する。
【0016】1)推定を開始するにあたり現有する較正
用データの数nとNpとを比較する。n<Npの場合、
まだ推定に必要なデータが揃っていないので、ランダム
に推定注視点(uo,vo)を選ぶ。n≧Npの場合、現
在のパラメータ値から予め定めた推定関数により初期の
推定注視点(uo,vo)を算出する。
【0017】2)上記のようにして得られた初期の推定
注視点(uo,vo)を推定注視点(u,v)としてその
部分の輝度を上昇させ、瞳孔中心位置の変化と瞳孔面積
の変化を調べる。推定注視点が真の注視点(ur,vr)
に十分近い場合、瞳孔中心位置は変化せず、瞳孔面積が
減少する。反対に、推定注視点が真の注視点から離れて
いる場合、次の3つのいずれかが起こる。 (i)瞳孔面積も瞳孔中心位置も変化しない。これは利用
者が本来の(現在の)注視点から目を動かさない場合で
ある。 (ii)瞳孔中心位置が変化し、その後瞳孔面積が変化す
る。これは利用者が明るくなった推定注視点に目を動か
した場合である。 (iii)瞳孔中心位置は変化するが、瞳孔面積が変化しな
い。これは利用者が推定注視点とは無関係な場所に目を
動かした場合である。 このような(i)〜(iii)の3つの場合に推定注視点を更新
していく。
【0018】3)推定注視点の更新 3-(i)及び3-(iii) これは上記の(i)と(iii)の場合の
処理である。いずれの場合も現在の推定注視点が誤って
いるという情報しかないので、新たな推定注視点(u,
v)をランダムに選ぶ。 3-(ii) この場合、目の動きの情報に基づいて、新た
な推定点を算出する。例えば目が右上に動いた場合、新
たな推定点を現在の推定点の左下にとる。
【0019】4)最終的な推定点(u,v)と初期の推
定点(uo,vo)との距離が臨界値c以内かどうかを調
べる。臨界値c以内の場合は、現有推定データに現在の
データ((x,y)と(u,v))を追加する。臨界値
c以上の距離が離れている場合には、何らかの理由(利
用者が変わったり、同じ利用者でも姿勢を変えたりした
こと)で、現有推定データがもはや有効でなくなったこ
とを意味する。そこで現有データを消去し、較正用デー
タ数を0にリセットした後、現在のデータを1個目の較
正用データとして登録する。
【0020】本発明は、このような操作を繰り返し、注
視点を推定する。これにより、例えば注視した部分を印
刷したり、音声化したり、拡大表示をしたり、その部分
の説明文等を表示したりといった広範囲のマン・マシン
・インターフェイスとしての応用が可能となる。
【0021】以上の例においては、図5のような特別な
形をしたポインタを想定して説明してきたが、ポインタ
の形はどんなものでも良い。また図6にあるように表示
データのそのものをポインタの代わりに使用することも
可能である。また、赤外線を用いないで、ビデオカメラ
のみでカメラ部が構成される装置においても、瞳孔中心
位置及び面積を求めるに必要なデータが得られれば、本
発明を実施することは可能である。
【0022】
【発明の効果】本発明により、特別な較正作業を不要と
し、利用者の思考の流れを断ち切ることなく注視点の推
定に必要な較正用データを取り出すとともに、その推定
結果の確定をより確実に行なうことを可能とし、注視点
推定装置の操作性を向上させることができる。
【図面の簡単な説明】
【図1】本発明の注視点推定装置の構成を示す図であ
る。
【図2】瞳孔中心位置座標系を示す図である。
【図3】推定注視点を示す画面座標系を示す図である。
【図4】本発明の注視点の推定を示すフローチャートで
ある。
【図5】ポインタの例を示す図である(網かけ部分)。
【図6】ポインタの例を示す図である(網かけ部分)。
【符合の説明】
1 表示装置 2 カメラ部 3 瞳孔中心位置算出部 4 瞳孔面積測定部 5 推定部 6 明度制御部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 江藤 博明 神奈川県大和市下鶴間1623番地14 日本 アイ・ビー・エム株式会社 東京基礎研 究所内 (72)発明者 濱 利行 神奈川県大和市下鶴間1623番地14 日本 アイ・ビー・エム株式会社 東京基礎研 究所内 (56)参考文献 特開 平5−204526(JP,A) 特開 昭63−75824(JP,A)

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】表示装置と、 上記表示装置の画面に向かう人間の瞳孔中心位置を算出
    する手段と、 上記人間の瞳孔面積の変化を検出する手段と、 上記瞳孔中心位置算出手段の算出データ及び較正用デー
    タに基づいて上記人間の画面上の注視点を推定する手段
    と、 上記推定された注視点の明度を変化させる手段とを有
    し、 上記明度変化の後、上記瞳孔面積変化検出手段により瞳
    孔面積の変化が検出され、かつ上記瞳孔中心位置算出手
    段により瞳孔中心位置の無変化が検出されたことに応答
    して、現在の瞳孔中心位置及び推定された注視点を上記
    人間の注視点推定のための較正用データとして上記推定
    手段に蓄積することを特徴とする注視点推定装置。
  2. 【請求項2】上記推定手段は、上記瞳孔面積の変化が検
    出され、かつ瞳孔中心位置の変化が検出された場合にさ
    らに別の注視点を推定する請求項1記載の注視点推定装
    置。
  3. 【請求項3】上記明度変化手段は、マウスカーソルや編
    集用カーソルとして画面上に用意されたポインタを推定
    注視点に移動させ、そのポインタ部分のみ明度を上げる
    請求項1記載の注視点推定装置。
  4. 【請求項4】上記明度変化手段は、画面上の推定注視点
    の位置にある表示データそのものの明度を上げる請求項
    1記載の注視点推定装置。
  5. 【請求項5】表示装置と、 上記表示装置の画面に向かう人間の瞳孔中心位置を算出
    する手段と、 上記人間の瞳孔面積の変化を検出する手段と、 上記瞳孔中心位置算出手段の算出データ及び較正用デー
    タに基づいて上記人間の画面上の注視点を推定する手段
    と、 上記推定された注視点の明度を変化させる手段とを有
    し、 上記明度変化の後、上記瞳孔面積変化検出手段により瞳
    孔面積の変化が検出され、かつ上記瞳孔中心位置算出手
    段により瞳孔中心位置の無変化が検出されたことに応答
    して、現在の瞳孔中心位置及び注視点を上記人間の視線
    推定のための較正用データとして上記推定手段に蓄積
    し、上記推定手段によって画面上の注視点を推定し、マ
    ン・マシン・インターフェイスを行う手段とを含むイン
    ターフェイス・システム。
JP5148995A 1993-06-21 1993-06-21 注視点推定装置 Expired - Lifetime JP2501288B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5148995A JP2501288B2 (ja) 1993-06-21 1993-06-21 注視点推定装置
EP94303837A EP0631222A1 (en) 1993-06-21 1994-05-26 Gazing point estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5148995A JP2501288B2 (ja) 1993-06-21 1993-06-21 注視点推定装置

Publications (2)

Publication Number Publication Date
JPH0720987A JPH0720987A (ja) 1995-01-24
JP2501288B2 true JP2501288B2 (ja) 1996-05-29

Family

ID=15465355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5148995A Expired - Lifetime JP2501288B2 (ja) 1993-06-21 1993-06-21 注視点推定装置

Country Status (2)

Country Link
EP (1) EP0631222A1 (ja)
JP (1) JP2501288B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19736995B4 (de) * 1997-08-26 2009-05-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Bestimmen eines Fixationspunktes
DE19953835C1 (de) * 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
US6659611B2 (en) 2001-12-28 2003-12-09 International Business Machines Corporation System and method for eye gaze tracking using corneal image mapping
US7106342B2 (en) * 2002-09-27 2006-09-12 Lg Electronics Inc. Method of controlling brightness of user-selected area for image display device
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer
ITMO20080177A1 (it) * 2008-06-19 2009-12-20 S C E S R L Metodo per impartire comandi per mezzo di movimenti oculari.
WO2014160659A1 (en) * 2013-03-23 2014-10-02 Controlrad Systems, Inc. Operating room environment
CN104470128B (zh) * 2014-12-01 2017-12-29 联想(北京)有限公司 一种亮度调节方法及电子设备
SE2150387A1 (en) * 2021-03-30 2022-10-01 Tobii Ab System and method for determining reference gaze data
CN113208558B (zh) * 2021-04-30 2022-10-21 南昌虚拟现实研究院股份有限公司 眼球追踪方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1581018A (en) * 1978-05-25 1980-12-10 Standard Telephones Cables Ltd Control devices
EP0055338A1 (en) * 1980-12-31 1982-07-07 International Business Machines Corporation Eye controlled user-machine communication
JP2950546B2 (ja) * 1988-08-31 1999-09-20 キヤノン株式会社 視線検出装置及び視線検出装置を有するカメラ
US5204703A (en) * 1991-06-11 1993-04-20 The Center For Innovative Technology Eye movement and pupil diameter apparatus and method

Also Published As

Publication number Publication date
EP0631222A1 (en) 1994-12-28
JPH0720987A (ja) 1995-01-24

Similar Documents

Publication Publication Date Title
US9921663B2 (en) Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
US6677969B1 (en) Instruction recognition system having gesture recognition function
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
EP2774380B1 (en) Method and system for stereo gaze tracking
US20180157323A1 (en) Eye gaze determination
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
US5231674A (en) Eye tracking method and apparatus
JP2501288B2 (ja) 注視点推定装置
US20140313308A1 (en) Apparatus and method for tracking gaze based on camera array
JPH06261863A (ja) 視線方向計測装置
CN113835660A (zh) 显示屏调整方法、装置、计算机设备及存储介质
EP3617845A1 (en) Control device, information processing system, control method, and program
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP2000010722A (ja) 視線ユーザ・インタフェース装置、そのインタフェース方法、コンピュータ装置、その制御方法、およびプログラム記憶媒体
JPH1091325A (ja) 視線検出システム
JP2003216938A (ja) 情報収集装置
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
CN116486386A (zh) 一种视线分心范围确定方法和装置
JP2021051564A (ja) 視線データ補正装置、評価装置、視線データ補正方法、評価方法、視線データ補正プログラム、及び評価プログラム
JPH1176165A (ja) 視線検出装置
Park et al. Facial and eye gaze detection
US20220079484A1 (en) Evaluation device, evaluation method, and medium
JP2006059147A (ja) コンピュータ入力方法と装置
US11937928B2 (en) Evaluation apparatus, evaluation method, and evaluation program
JPH11184621A (ja) 視線入力装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20080713

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20100713