JP2003150306A - Information display device and method thereof - Google Patents

Information display device and method thereof

Info

Publication number
JP2003150306A
JP2003150306A JP2002331303A JP2002331303A JP2003150306A JP 2003150306 A JP2003150306 A JP 2003150306A JP 2002331303 A JP2002331303 A JP 2002331303A JP 2002331303 A JP2002331303 A JP 2002331303A JP 2003150306 A JP2003150306 A JP 2003150306A
Authority
JP
Japan
Prior art keywords
information
unit
user
display
gaze point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002331303A
Other languages
Japanese (ja)
Inventor
Osamu Yamaguchi
修 山口
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002331303A priority Critical patent/JP2003150306A/en
Publication of JP2003150306A publication Critical patent/JP2003150306A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user-friendly user interface by which information, merchandise, etc., are easily selected by using visual lines of a user, prompt responses are enabled in every device and which does not hinder natural actions of the user. SOLUTION: The user performs selection by the visual lines, a gazed point is estimated from the visual line direction by a gazed point estimation part 30, a desired pieces of information, merchandise, etc., are predicted by a prediction part 40 and pieces of the information, merchandise, etc., to be selected objects are displayed by an information presentation part 20. Consequently, a burden of selection for the user is relieved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自動販売機、券売
機等の対面型装置システム、また、パソコン、ワークス
テーション等におけるOA機器、観光ガイド等の情報提
供装置等を使用する使用者の注視箇所推定装置を使用し
た情報表示装置とその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face-to-face device system such as a vending machine or a ticket vending machine, an OA device in a personal computer or a workstation, and an information providing device such as a tourist guide. The present invention relates to an information display device using a location estimation device and a method thereof.

【0002】[0002]

【従来の技術】自動販売機、券売機等の対面型装置シス
テム、また、パソコン、ワークステーション等における
OA機器、観光ガイド等の情報提供装置等において、利
用者が所望とする商品、切符、情報等をシステムに伝え
る場合には、ボタン、キーボード、マウスによる入力、
また、画面に表示されたものをタッチパネルを用いて選
択する入力法等がある。
2. Description of the Related Art In a face-to-face device system such as a vending machine or a ticket vending machine, an OA device such as a personal computer or a workstation, an information providing device such as a tourist guide, a product, a ticket, or information desired by a user Etc. are transmitted to the system, input with buttons, keyboard, mouse,
In addition, there is an input method for selecting what is displayed on the screen using a touch panel.

【0003】しかし、すぐには手で操作できない状況、
また手を使わなくても十分に指示可能な状況等もあり、
この場合には利用者の意図を入力するには、上記した入
力装置では人間の行動を妨げ、面倒な操作を強いること
となる。
However, in a situation where it cannot be operated by hand immediately,
In addition, there are situations where you can fully instruct without using hands,
In this case, in order to input the user's intention, the above-mentioned input device impedes human actions and compels a troublesome operation.

【0004】特に最近の装置にはボタンが数多く配置さ
れ、所望の情報、商品を選択する場合には、「システム
全体の構成を把握する→所望のものを見ながら探す→そ
の場所に手を持って行く」という行動の流れになり、一
つの選択を行うために多くの時間を必要とする場合があ
るため、迅速な対応が要求されるシステムには、別の入
力手段が必要と考えられる。
Particularly in recent devices, a large number of buttons are arranged, and when selecting desired information or product, "to grasp the configuration of the entire system → search while looking at the desired one → hold a hand at the place" Since there is a case where it takes a lot of time to make one selection due to the flow of actions such as “going”, it is considered that another input means is necessary for the system that requires prompt response.

【0005】手を使わずに位置選択を行なう方法として
は、視線検出があげられる。視線から得られる情報とし
ては、単に位置情報だけでなく、人間の意図、意思表示
等が挙げられ、複数の対象の中から興味あるものを選択
するという作業が容易に行われることになる。
As a method of selecting a position without using a hand, there is a line-of-sight detection. The information obtained from the line of sight includes not only position information but also human intentions, intentions, and the like, which facilitates the task of selecting an interesting one from a plurality of objects.

【0006】従来から、視線を検出するという発明が数
多くあり、これらには次の2つのタイプがある。
Conventionally, there have been many inventions for detecting the line of sight, and there are the following two types.

【0007】第1は、アイカメラに代表される眼鏡のよ
うな器具を用いる接触型のものであり、第2は、CCD
カメラ等を用いて撮影した画像から、人間の視線を検出
するといった非接触型のものである。
The first is a contact type using an instrument such as glasses represented by an eye camera, and the second is a CCD.
It is a non-contact type in which the line of sight of a person is detected from an image taken by using a camera or the like.

【0008】接触型のものは、眼鏡、ゴーグルといった
機器を装着し、その機器に取り付けられた検出装置によ
って視線を入力する。
In the contact type, a device such as spectacles and goggles is attached, and a line of sight is input by a detection device attached to the device.

【0009】非接触型のものは、CCDカメラで離れた
位置から顔を撮影し、目付近の特徴量を使って、視線方
向を推定する。
In the non-contact type, a face is photographed from a distant position with a CCD camera, and the line-of-sight direction is estimated using the feature amount near the eyes.

【0010】例えば、特開平4−255015号では、
視線の相対的な移動量を瞳の輪郭データを抽出瞳の中心
座標の変化から求める。この発明は、誤差の蓄積があ
り、それを補償する機構ももっているが、不十分であ
る。
For example, in Japanese Unexamined Patent Publication No. 4-255015,
The relative movement amount of the line of sight is obtained from the change in the center coordinates of the extracted pupil contour data. Although the present invention has an error accumulation and a mechanism for compensating for it, it is insufficient.

【0011】また、特開平3−17696号では、ワー
ドプロセッサ等のカーソル位置を、視線によって制御す
ることを目的として、目の領域を瞳孔中心を通る垂直線
と水平線で分割し、分けられた領域の面積比を特徴量と
して視点位置を算出する。
Further, in Japanese Patent Application Laid-Open No. 3-17696, for the purpose of controlling the cursor position of a word processor or the like by the line of sight, the eye region is divided by a vertical line and a horizontal line passing through the center of the pupil, and the divided region is divided. The viewpoint position is calculated using the area ratio as a feature amount.

【0012】一般に視線検出の問題として、視線検出の
精度をあげるためには、接触型もしくは頭を固定する等
の身体的制約を必要とする。人間の自然な行動を妨げる
ものや、わざわざ装置を身に付ける必要があるものは入
力装置として使いにくいという問題がある。
Generally, as a problem of the visual axis detection, in order to improve the accuracy of the visual axis detection, a physical restriction such as a contact type or fixing the head is required. There is a problem that it is difficult to use an input device that interferes with human's natural behavior or that requires the user to wear the device.

【0013】視線を用いた入力装置として、特開平4−
372012号では、音声認識と視線検出、まばたき等
の動作検出等を組み合わせて、相補的にそれら利用する
ことによって意図伝達を行ない、情報を入力するという
ものがある。
As an input device using a line of sight, Japanese Patent Laid-Open No.
In 372012, there is a method in which voice recognition is combined with line-of-sight detection, motion detection such as blinking, and the like is complementarily used to communicate an intention and input information.

【0014】また、文献(Integrating Simultaneous I
nput from Speech, Gazo, and handGestures David B K
oons, Carlton J.Spartell, and Kristinn R. Thorisso
n,Intellelligent Multimedia Interfaces Edited by M
ark T. Maybury, MIT Press(1993) )では、視線、会話
認識、手によるジェスチャを用いたインタフェースにつ
いて、その統合方法について述べている。この試作シス
テムでは、地図情報のやりとりや3次元のブロックワー
ルドでの操作を行っている。
In addition, the literature (Integrating Simultaneous I
nput from Speech, Gazo, and handGestures David BK
oons, Carlton J. Spartell, and Kristinn R. Thorisso
n, Intellelligent Multimedia Interfaces Edited by M
ark T. Maybury, MIT Press (1993)) describes how to integrate gaze, speech recognition, and hand gesture-based interfaces. This prototype system exchanges map information and operates in a three-dimensional block world.

【0015】視線を用いたこれらの発明の多くは、キー
ボード、もしくはマウスの代用として使われることが主
眼であり、視線検出の精度の問題が残ることとなる。
Most of these inventions using the line of sight are mainly used as a substitute for a keyboard or a mouse, and the accuracy of the line of sight detection remains a problem.

【0016】[0016]

【発明が解決しようとする課題】ところで、視線を用い
た入力装置として、特開平4−372012号がある。
これは情報の提示がディスプレイに限定されており、デ
ィスプレイに表示されたアイコン等を視線で特定し、音
声による指示手段によって操作することを目的としてい
る。しかし、これらの操作を行うためには、高精度の視
線検出手段が必要とされ、現状のマウス等のインタフェ
ースの代替とするためには、困難な部分が多い。
By the way, as an input device using the line of sight, there is JP-A-4-372012.
This is because the presentation of information is limited to the display, and it is intended to identify an icon or the like displayed on the display with a line of sight and operate it by a voice instruction means. However, in order to perform these operations, a high-precision line-of-sight detection means is required, and there are many difficult parts to substitute for the current interface of a mouse or the like.

【0017】上記にあげた問題点に対し、視線検出の精
度を考慮して、使用者が選択する情報を効率良く提示
し、視線検出に必要以上の精度を要求せずとも、情報等
を容易に選択可能な装置の提供を目的とする。例えばデ
ィスプレイを4分割した程度を見分けることのできる視
線検出手段を用意したとしても、効率良く情報を提示す
ることによって、情報選択を可能にする。
In view of the above-mentioned problems, the information selected by the user is efficiently presented in consideration of the accuracy of line-of-sight detection, and the information and the like can be easily provided without requiring more than necessary accuracy for line-of-sight detection. The purpose is to provide a device that can be selected. For example, even if a line-of-sight detection means capable of distinguishing the degree to which the display is divided into four parts is prepared, the information can be selected by efficiently presenting the information.

【0018】そして、本発明は、視線と他の動作等を同
時使用することにより、「所望の情報を探し、選択す
る」が行え、利用者が自然な行動で対応できるインタフ
ェースを提供できる。例えば、利用者が所望の商品、情
報、場所等を視線によって選択し、設置された一つのボ
タンを押すことや、設定した言葉を発声することによ
り、意図伝達が行なわれた時点での、視線の推定方向の
結果を用いて注視点を決定し、情報を素早く選択、指定
を可能にすることが目的である。
Further, the present invention can provide an interface which allows "searching for and selecting desired information" by using the line of sight and other motions at the same time and allowing the user to take natural actions. For example, when the user selects the desired product, information, place, etc. with his line of sight, presses one of the installed buttons, or utters a set word, The purpose is to determine the point of gaze using the result of the estimated direction of and to enable quick selection and designation of information.

【0019】また、人間の行動を予め予測し、システム
が情報を提示する際、最も適していると考えられる情報
を提示することにより、使用者の情報選択の負担を軽減
できる。また、入力を行う際、どの時点での情報が選択
されるかを動的に変化させる、いわゆる「タイミング」
を制御することにより、より人間の立場に立った使いや
すい装置の提供を目的とする。
Further, by predicting human behavior in advance and presenting the information that is considered most suitable when the system presents the information, it is possible to reduce the burden of information selection on the user. In addition, when inputting, the so-called "timing" that dynamically changes at what time information is selected
The purpose of this is to provide a device that is easier to use from a human standpoint by controlling the.

【0020】[0020]

【課題を解決するための手段】請求項1の発明は、複数
の情報の中から必要な情報を使用者が選択するための情
報表示装置であって、前記使用者の注視点を推定する注
視点推定手段と、前記注視点推定手段によって推定され
た前記注視点から前記使用者の選択する情報を予測する
予測手段と、前記予測手段によって予測された情報の表
示を行う情報表示手段とを備えたことを特徴とする情報
表示装置である。
According to a first aspect of the present invention, there is provided an information display device for a user to select necessary information from a plurality of pieces of information. A viewpoint estimating means, a predicting means for predicting information selected by the user from the gazing point estimated by the gazing point estimating means, and an information display means for displaying the information predicted by the predicting means. This is an information display device characterized by the above.

【0021】これにより、使用者は視線により選択を行
い、その視線方向から注視点推定手段により注視点を推
定し、予測手段により所望の情報、商品等を予測し、情
報表示手段によって選択対象となる情報、商品等を表示
する。したがって、使用者の選択の負担を軽減する。
As a result, the user makes a selection based on the line of sight, the gazing point is estimated from the direction of the line of sight by the gazing point estimating means, the predicting means estimates the desired information, the product, etc., and the information display means selects the selection target. Display information, products, etc. Therefore, the burden of selection by the user is reduced.

【0022】請求項2の発明における前記予測手段は、
前記注視点推定手段によって推定された前記注視点が移
動した場合に、前記使用者の選択する情報を改めて予測
し直す予測変更手段と、前記予測変更手段によって予測
し直した情報を表示するように前記情報表示手段に指示
する表示変更手段を備えたことを特徴とする請求項1記
載の情報表示装置である。
The predicting means in the invention of claim 2 is
When the gaze point estimated by the gaze point estimating means moves, a prediction changing means for re-estimating the information selected by the user, and the information re-estimated by the prediction changing means are displayed. The information display device according to claim 1, further comprising a display changing unit that instructs the information displaying unit.

【0023】これにより、使用者自身が視線によってど
の情報を選択しているかを知覚させるために、表示変更
手段により、注視点にある情報の表示部分を変更する。
Thus, the display changing means changes the display portion of the information at the gazing point so that the user can perceive which information is selected by the line of sight.

【0024】請求項3の発明における前記予測手段は、
前記注視点推定手段の推定した前記注視点が、前記使用
者が前記情報表示手段に表示されている情報内にある場
合は、その注視している情報に基づいて前記使用者の選
択する情報を予測し、前記注視点が、前記情報表示手段
以外にある場合は、その注視している場所に基づいて前
記使用者の選択する情報を予測することを特徴とする請
求項1記載の情報表示装置である。
The predicting means in the invention of claim 3 is
When the gazing point estimated by the gazing point estimating means is in the information displayed on the information display means by the user, the information selected by the user based on the gazing information is displayed. 2. The information display device according to claim 1, wherein when the gazing point is other than the information displaying means, the information selected by the user is predicted based on the place where the gazing point is. Is.

【0025】これにより、情報表示手段以外の場所を見
るといった行動から、表示内容を変更することができ
る。
Thus, the display content can be changed from the action of looking at a place other than the information display means.

【0026】請求項4の発明は、複数の情報の中から必
要な情報を使用者が選択するための情報選択方法であっ
て、前記使用者の注視点を推定する注視点推定ステップ
と、前記注視点推定ステップによって推定された前記注
視点から前記使用者の選択する情報を予測する予測ステ
ップと、前記予測ステップによって予測された情報を情
報表示手段に表示する情報表示ステップとを備えたこと
を特徴とする情報選択方法である。
The invention according to claim 4 is an information selecting method for a user to select necessary information from a plurality of information, and a gaze point estimating step of estimating a gaze point of the user, A prediction step of predicting the information selected by the user from the fixation point estimated by the fixation point estimation step; and an information display step of displaying the information predicted by the prediction step on the information display means. This is a characteristic information selection method.

【0027】請求項5の発明における前記予測ステップ
は、前記注視点推定ステップによって推定された前記注
視点が移動した場合に、前記使用者の選択する情報を改
めて予測し直す予測変更ステップと、前記予測変更ステ
ップによって予測し直した情報を表示するように前記情
報表示手段に指示する表示変更ステップを備えたことを
特徴とする請求項4記載の情報選択方法である。
The prediction step in the invention of claim 5 further comprises: a prediction changing step for re-predicting the information selected by the user when the gazing point estimated by the gazing point estimating step moves, 5. The information selecting method according to claim 4, further comprising a display changing step for instructing the information display means to display the information re-estimated by the prediction changing step.

【0028】請求項6の発明における前記予測ステップ
は、前記注視点推定ステップの推定した前記注視点が、
前記使用者が前記情報表示手段に表示されている情報内
にある場合は、その注視している情報に基づいて前記使
用者の選択する情報を予測し、前記注視点が、前記情報
表示手段以外にある場合は、その注視している場所に基
づいて前記使用者の選択する情報を予測することを特徴
とする請求項4記載の情報選択方法である。
In the prediction step in the invention of claim 6, the gazing point estimated by the gazing point estimating step is
When the user is in the information displayed on the information display means, the information selected by the user is predicted based on the information being watched, and the gazing point is other than the information display means. In the case of (1), the information selection method according to claim 4, wherein the information selected by the user is predicted based on the place where the user is gazing.

【0029】[0029]

【発明の実施の形態】以下に本発明の一実施例の情報選
択装置10を説明する。本実施例は、自動販売機、券売
機等に情報選択装置10が組込まれた場合について説明
する。なお、説明中の「システム」とは、自動販売機、
券売機等の装置を意味する。
BEST MODE FOR CARRYING OUT THE INVENTION An information selection device 10 according to an embodiment of the present invention will be described below. In this embodiment, a case where the information selection device 10 is incorporated in an automatic vending machine, a ticket vending machine, or the like will be described. In addition, the "system" in the description is a vending machine,
It means a device such as a ticket vending machine.

【0030】情報選択装置10のブロック図を図1に示
す。
A block diagram of the information selection device 10 is shown in FIG.

【0031】情報選択装置10は、ディスプレイ、CR
T、液晶、パネル、看板、表示版等の情報提示部20
と、使用者の注視点を推定する注視点推定部30と、使
用者の選択内容を予測する予測部40と、表示内容の変
更を行う表示変更部50と、ユーザまたはシステム内か
らの信号を入力する意図伝達部60と、選択結果を保持
する結果出力部70からなる。
The information selection device 10 includes a display and a CR.
Information presentation unit 20 such as T, liquid crystal, panel, signboard, display plate, etc.
A gazing point estimation unit 30 that estimates the gazing point of the user, a prediction unit 40 that predicts the selection contents of the user, a display changing unit 50 that changes the display contents, and a signal from the user or the system. It includes an intention transmitting unit 60 for inputting and a result output unit 70 for holding the selection result.

【0032】[1]情報提示部20 情報提示部20は、ディスプレイ等の情報表示部22、
情報記憶部24、表示駆動部26から構成され、図2に
示す。
[1] Information presenting unit 20 The information presenting unit 20 includes an information displaying unit 22 such as a display,
The information storage unit 24 and the display drive unit 26 are shown in FIG.

【0033】情報記憶部24に登録された画像、文字列
等の情報は、それらの表示位置情報と組で格納されてお
り、表示位置情報にしたがって表示駆動部26は、情報
表示部22に表示を行なう。
Information such as images and character strings registered in the information storage section 24 is stored in combination with the display position information, and the display drive section 26 displays the information on the information display section 22 in accordance with the display position information. Do.

【0034】情報記憶部24、表示駆動部26は、汎用
のパーソナルコンピュータ等を用いて、図3のようなフ
ローチャートにしたがって実装する。
The information storage unit 24 and the display drive unit 26 are implemented by using a general-purpose personal computer or the like according to the flowchart shown in FIG.

【0035】表示駆動部26は、後に述べる表示変更部
50からの指示で表示内容を変更する。状態判別におけ
る「状態」とは、初期状態、予測状態におけるいくつか
の状態、意図入力が行われた後の確定状態等の状態を判
別する。各状態において、情報記憶部24に記憶された
情報を提示する。
The display drive section 26 changes the display contents according to an instruction from the display change section 50 described later. The "state" in the state determination determines a state such as an initial state, some states in the predicted state, and a confirmed state after the intention input is performed. In each state, the information stored in the information storage unit 24 is presented.

【0036】システムが自動販売機の場合、商品A〜D
を図4のように表示する。
When the system is a vending machine, products A to D
Is displayed as shown in FIG.

【0037】選択される情報等は、情報提示部20にお
いて比較的大きく表示される。情報の提示に関しては、
注視点推定部30の空間分解能を考慮した大きさで表示
を行なう。本実施例の場合はディスプレイの画面を4分
割した程度であり、空間分解能の低い視線検出手段を用
いても、十分識別できる。
The information and the like to be selected are displayed relatively large in the information presenting section 20. Regarding the presentation of information,
The display is performed in a size considering the spatial resolution of the gazing point estimation unit 30. In the case of the present embodiment, the screen of the display is divided into four parts, and the line-of-sight detection means having a low spatial resolution can be used for sufficient discrimination.

【0038】[2]注視点推定部30 通常、人間が選択対象であるボタン、表示部を探す場
合、その対象が表示、設置されている場所を見ることに
よって探すことになる。その視線方向を獲得し、注視し
ている点を推定する注視点推定部30について述べる
(図5参照)。
[2] Point-of-regard estimation section 30 Normally, when a person searches for a button or display section to be selected, he or she looks at the place where the target is displayed and installed. The gaze point estimation unit 30 that acquires the gaze direction and estimates the gaze point will be described (see FIG. 5).

【0039】注視点推定部30は、画像入力部31、顔
方向検出部32、瞳位置検出部33、注視点決定部3
4、データベース部35からなる。
The gazing point estimating section 30 includes an image input section 31, a face direction detecting section 32, a pupil position detecting section 33, and a gazing point determining section 3.
4 and a database unit 35.

【0040】[2−1]画像入力部31 画像入力部31は、単眼によるカラー画像の取得を行
い、得られた画像は、顔方向検出部32に送られる。
[2-1] Image Input Unit 31 The image input unit 31 acquires a monocular color image, and the obtained image is sent to the face direction detection unit 32.

【0041】[2−2]顔方向検出部32 顔が、どの方向を向いているかを判定する顔方向検出部
32について説明する。
[2-2] Face Direction Detection Unit 32 The face direction detection unit 32 for determining which direction the face is facing will be described.

【0042】(1) 顔方向検出部32では、図6(a)に
示すように、顔の切り出しを行う。
(1) The face direction detection section 32 cuts out a face as shown in FIG. 6 (a).

【0043】これは、取得画像に対して領域分割を行
い、各領域の色相、彩度の情報から顔領域をみつける。
In this method, the acquired image is divided into areas, and the face area is found from the hue and saturation information of each area.

【0044】(2) 次に、図6(b)に示すように、目部
分と口部分の切り出しといった顔部品の抽出を図7によ
り行う。
(2) Next, as shown in FIG. 6 (b), extraction of face parts such as cutting out of the eyes and mouth is performed with reference to FIG.

【0045】顔領域の部分に対して、色相画像の2値化
により、肌色部分とは異なる色属性を持つ眼部分と口部
分の候補を出す。次に、影等のノイズにより、生成され
た領域を形状の制約によって選択する。領域形状を表現
する特徴量としては、モーメント不変量や自己回帰モデ
ル等を用いて定量化する。さらに選択された領域に対
し、目や口の濃淡パターンとの照合を行い、目領域、口
領域を決定する。ここでの濃淡パターンとの照合とは、
予め染めた目の部分画像や口の部分画像から認識のため
の辞書をKL展開により構成し、複合類似度等を用いて
それぞれのパターンに近いものを選択する。
By binarizing the hue image for the face area portion, candidates for an eye portion and a mouth portion having different color attributes from the skin color portion are obtained. Next, a region generated by noise such as a shadow is selected according to the shape constraint. The feature quantity expressing the region shape is quantified using a moment invariant or an autoregressive model. Further, the selected area is compared with the light and shade pattern of the eyes and mouth to determine the eye area and the mouth area. Matching with the gray pattern here means
A dictionary for recognition is preliminarily constructed from dyed partial images of the eyes and partial images of the mouth by KL expansion, and a pattern similar to each pattern is selected using the composite similarity or the like.

【0046】(3) 目、口を検出した後、右目、左目、口
に対して、図6(c)に示すように、エッジ画像を生成
する。エッジ画像の生成には、従来手法のSobelフ
ィルタゃCannyの方法を用いる。
(3) After detecting the eyes and mouth, edge images are generated for the right eye, the left eye, and the mouth as shown in FIG. 6 (c). A conventional Sobel filter or Canny method is used to generate the edge image.

【0047】(4) そして、エッジ画像を一次元の軸方向
に垂直に写像し、目頭の検出を行う。口部分に関しても
同様の処理を行い、左右の口もとを検出する。その一次
元の軸に垂直な方向に画像を走査し、最も明度の低い点
を目頭点とする。
(4) Then, the edge image is mapped perpendicularly to the one-dimensional axial direction to detect the inner corner of the eye. The same process is performed for the mouth portion to detect the left and right mouth areas. The image is scanned in the direction perpendicular to the one-dimensional axis, and the point having the lowest lightness is set as the inner corner point.

【0048】(5) 図6(e)に示すように、4点から構
成される平面の歪みにより、顔の面の法線方向を歪対象
を用いて算出する方法(A.H.Gee and R.Cipolla:Deterr
niningthe Gaze of Faces in Images,CUED/F-INFENG/TR
-174(1994) )があるが、ここでは、予め実験によって
求めた4点の位置関係の情報と顔の向きの情報から線形
補間を行い、データベース化しておくことにより求め
る。
(5) As shown in FIG. 6 (e), the method of calculating the normal direction of the face surface by using the distortion target by the distortion of the plane composed of four points (AHGee and R. Cipolla: Deterr
niningthe Gaze of Faces in Images, CUED / F-INFENG / TR
-174 (1994)), but here, it is obtained by performing linear interpolation from the information on the positional relationship of the four points and the information on the face direction which have been obtained in advance by experiments, and creating a database.

【0049】(7) 例えば、図6(f)に示す4点の位置
に対して、水平方向のパラメータをα、垂直方向のパラ
メータをβを次式で求める。
(7) For example, for the positions of four points shown in FIG. 6 (f), the parameter in the horizontal direction is α and the parameter in the vertical direction is β by the following equation.

【0050】[0050]

【数1】 なお、このα、βの式については、この限りでなく、顔
の向きを出す場合に、その他の顔特徴を用いても良い。
[Equation 1] The expressions α and β are not limited to this, and other facial features may be used when the orientation of the face is determined.

【0051】[2−3]瞳位置検出部33 次に、瞳が目の中のどの位置にあるかを判定する瞳位置
検出部33について説明する。
[2-3] Pupil Position Detecting Unit 33 Next, the pupil position detecting unit 33 for determining the position of the pupil in the eye will be described.

【0052】(1) 顔方向検出部32で得られた目の切り
出し結果から、その部分画像に対して、図8(a)に示
すように、2値化を行う。2値化の結果から、黒画素の
重心を求め、瞳の部分の検出を行う。
(1) From the result of cutting out the eyes obtained by the face direction detecting unit 32, the partial image is binarized as shown in FIG. 8A. The center of gravity of the black pixel is obtained from the binarization result, and the pupil portion is detected.

【0053】(2) 瞳の重心を求め、先に求めた目頭点と
からベクトルVを求める(図8(b))。
(2) The center of gravity of the pupil is obtained, and the vector V is obtained from the previously obtained inner canthus point (FIG. 8 (b)).

【0054】(3) 一方、顔方向検出部32で得た、目
頭、口もとの点のそれぞれを通る2本の直線A′,A″
を求め、その2本の直線の傾きを平均して、直線Aを求
める(図8(c))。
(3) On the other hand, two straight lines A'and A "obtained by the face direction detecting section 32 and passing through the inner and inner corners of the eye.
Then, the slopes of the two straight lines are averaged to obtain the straight line A (FIG. 8C).

【0055】(4) ベクトルVと直線Aのなす角度をθ、
ベクトルVの長さをσとする。このθ、σを瞳の位置の
パラメータとして用いる。
(4) The angle between the vector V and the straight line A is θ,
Let σ be the length of the vector V. These θ and σ are used as parameters of the position of the pupil.

【0056】[2−4]注視点決定部34 注視点決定部34は視線方向に対する情報提示部20の
どの場所を見ているかを決定する。ある顔の向きα、β
における目の位置θ、σより、注視点を求める。
[2-4] Point-of-regard determining section 34 The point-of-regard determining section 34 determines which location of the information presenting section 20 is viewed with respect to the line-of-sight direction. Face orientation α, β
The gazing point is obtained from the eye positions θ and σ at.

【0057】図9は、水平方向に関して注視点を算出す
るための、顔の向き(f(α))と目の位置(g(θ,
σ))との関係図である。ここでは、
FIG. 9 shows a face orientation (f (α)) and eye positions (g (θ,
σ)). here,

【数2】 とする。a、bは個人差等を考慮したパラメータであ
る。なお、f,gの関数はこの限りではなく、求める精
度、個人差等によって変更される。
[Equation 2] And a and b are parameters considering individual differences and the like. The functions of f and g are not limited to this, and may be changed depending on the accuracy to be obtained, individual differences, and the like.

【0058】図9(a)に示されるのは、情報提示部2
0であり、水平方向に4分割している。このとき、顔の
向きと目の位置との関係を表す図9(b)のように、分
割された場所を見ている時のパラメータの部分空間とな
る。定性的に説明すると、「顔が右を向いていても、目
が左を大きく向いていれば左を見ている」といった関係
を表している。
The information presentation unit 2 is shown in FIG.
It is 0 and is divided into four in the horizontal direction. At this time, as shown in FIG. 9B showing the relationship between the face direction and the position of the eyes, the subspace of the parameters is obtained when looking at the divided places. Qualitatively speaking, it represents a relationship such as "even if the face is facing to the right, the eyes are looking to the left if they are facing to the left".

【0059】垂直方向に関しても同様に決定できる。The same can be determined for the vertical direction.

【0060】[2−5]データベース部35 データベース部35には、図9(b)の下部に示される
ようなデータがシステムからの距離に応じて数種類のも
のが用意され、システムからの距離が遠い場合には、顔
の向きを重視して注視方向を決定するようにできる。
[2-5] Database unit 35 In the database unit 35, several kinds of data shown in the lower part of FIG. 9B are prepared according to the distance from the system. When the distance is far, the gaze direction can be determined by emphasizing the orientation of the face.

【0061】注視点推定部30からは、距離に応じた注
視方向が決定できるように、(距離、注視方向)の組に
なった情報が予測部40に送られる。
The gazing point estimation unit 30 sends information as a set of (distance, gazing direction) to the prediction unit 40 so that the gazing direction according to the distance can be determined.

【0062】[3]予測部40 予測部40は、使用者が選択する情報の予測を行なう。[3] Prediction unit 40 The prediction unit 40 predicts information selected by the user.

【0063】予測部40は、距離推定部41、データベ
ース部42、情報記録部43、予測情報構成部44から
なり、ブロック図を図10に示す。
The predicting section 40 comprises a distance estimating section 41, a database section 42, an information recording section 43 and a predictive information composing section 44, and a block diagram is shown in FIG.

【0064】[3−1]距離推定部41 距離推定部41では、使用者とシステムまでの距離を算
出する。本実施例では、ステレオカメラによる観測を行
い、三角測量により使用者までの距離を求める。なお、
超音波センサ等による他の計測方法でもよいし、単眼視
カメラによって撮影される人の面積から距離を求めても
良い。
[3-1] Distance Estimating Unit 41 The distance estimating unit 41 calculates the distance between the user and the system. In this embodiment, observation with a stereo camera is performed and the distance to the user is obtained by triangulation. In addition,
Other measurement methods using an ultrasonic sensor or the like may be used, or the distance may be obtained from the area of a person photographed by a monocular camera.

【0065】距離を3つから5つ程度に分けて、各距離
における予測内容を変更する。本実施例では3つに分
け、近距離からシステム操作可能範囲(数十センチ)、
システム可視範囲(数メートル)、システム無視範囲の
3段階(それ以上)とする。
The distance is divided into about 3 to 5 and the prediction content at each distance is changed. In this embodiment, it is divided into three, and the system operable range (tens of centimeters) from a short distance,
System visible range (several meters) and system neglected range (three levels or more).

【0066】[3−2]データベース部42 データベース部42には、提示内容データベースと行動
データベースの二つを持つ。
[3-2] Database Unit 42 The database unit 42 has two presentation content databases and action databases.

【0067】提示内容データベースは、システムに設置
された情報提示部20における、位置情報と内容がリン
クされたデータを保持する。位置情報は、その情報の位
置する(x1,y1)−(x2,y2)の矩形で表現さ
れ、その内容と、情報提示部20への表示形態が一組で
表現される。
The presentation contents database holds data in which the position information and contents in the information presenting unit 20 installed in the system are linked. The position information is represented by a (x1, y1)-(x2, y2) rectangle in which the information is located, and the content and the display form on the information presenting unit 20 are represented as a set.

【0068】行動データベースは、使用者の行動パター
ンについて予め幾つかのパターンを用意しておく。特に
システムを操作中、システムに近付いてくるときの行動
パターンを用意しておき、どのような行動パターンに近
いかを知るために使われる。
In the behavior database, some patterns are prepared in advance for the behavior patterns of the user. Especially, it is used to prepare a behavior pattern when approaching the system while operating the system and to know what behavior pattern is close to.

【0069】[3−3]情報記録部43 情報記録部43では、一定間隔毎に視線方向を記録して
おく。
[3-3] Information Recording Unit 43 The information recording unit 43 records the line-of-sight direction at regular intervals.

【0070】視線方向は、注視点推定部30から送られ
た情報の中から、距離推定部41で得られた距離によっ
て一つが選ばれて決定され、その視線方向が記録され
る。
The line-of-sight direction is selected and determined from the information sent from the gazing point estimation unit 30 according to the distance obtained by the distance estimation unit 41, and the line-of-sight direction is recorded.

【0071】情報記録部43はリングバッファを用いて
構成する。
The information recording section 43 is constructed by using a ring buffer.

【0072】リングバッファは、図12の下段のように
模式的に表される。例えば、1から8までの順序通りに
情報が蓄えられたら、次は1を消して新たな情報を加え
る。このように順次書換えが行われるため、一定時間よ
り前の情報は自動的に更新される。記録内容は、注視点
検出手段から得られる視線方向と、距離検出部から得ら
れた距離情報と取得時刻を(視線方向、取得時刻、距
離)の一組にして、リングバッファに登録する(図12
の中段参照)。
The ring buffer is schematically represented as in the lower part of FIG. For example, if information is stored in the order of 1 to 8, then 1 is deleted and new information is added. Since the rewriting is sequentially performed in this manner, the information before the fixed time is automatically updated. The recorded contents are registered in the ring buffer as a set of the line-of-sight direction obtained from the gazing point detection means, the distance information obtained from the distance detection unit, and the acquisition time (line-of-sight direction, acquisition time, distance) (FIG. 12
See middle section).

【0073】[3−4]予測情報構成部44 予測情報構成部44は、情報記録部43に記録された内
容とデータベース部42に記憶された行動パターン情報
と照合を行い、どのような情報、商品等をもとめている
かを予め予測する。
[3-4] Prediction Information Composition Unit 44 The prediction information composition unit 44 collates the content recorded in the information recording unit 43 with the action pattern information stored in the database unit 42 to determine what information, Predict whether you are looking for products etc.

【0074】行動パターン情報とは、時系列の情報で、
図11のように表される。なお、図における注視点は実
際には2次元の視点の動きであるが、説明上一次元的に
表す。
The action pattern information is time-series information,
It is represented as in FIG. Note that the gazing point in the figure is actually a two-dimensional movement of the viewpoint, but it is expressed one-dimensionally for the sake of explanation.

【0075】図11(b−1)は、「ある点を見つめた
まま近付く」ことを表している。
FIG. 11 (b-1) shows that "approaching while gazing at a certain point".

【0076】図11(b−2)は「あるところまで近付
きながら定点を見ており、それからシステムの方を向い
て近付く」ことを表している。
FIG. 11B-2 shows that "a fixed point is being observed while approaching to a certain point, and then the system is approached and approaching".

【0077】図11(b−3)は「きょろきょろしなが
らで近付いてくる」ことを表している。
FIG. 11 (b-3) shows that "approaching slowly".

【0078】図11(c)は「遠くできょろきょろして
いる」ということを表す。
FIG. 11 (c) shows that "you are moving far away".

【0079】これらの行動パターンを幾つか用意してお
き、データベース部42に登録しておく。
Some of these behavior patterns are prepared and registered in the database unit 42.

【0080】予測の方法は、使用者までの距離を考慮
し、機能を変更する。
The prediction method changes the function in consideration of the distance to the user.

【0081】[3−5]システム操作可能範囲 システム操作可能範囲での行動パターンとして、(a−
1)「興味のあるものを見続ける」(a−2)「興味の
あるものに近付いて見る」(a−3)「興味が無く他の
情報を欲しがっている」(a−4)「興味がない」等が
挙げられる。
[3-5] System Operable Range As an action pattern in the system operable range, (a-
1) "Continue to see what you are interested in" (a-2) "Get closer to what you are interested in" (a-3) "I am not interested and want other information" (a-4) "I'm not interested" etc.

【0082】(a−1)「興味のあるものを見続ける」
(a−2)「興味のあるものに近付いて見る」等の場
合、どの情報を選択しているのかの注視点の情報を結果
出力部70へ送る。
(A-1) "Keep seeing what you are interested in"
(A-2) In the case of “Look closer to something of interest” or the like, information about the point of interest regarding which information is selected is sent to the result output unit 70.

【0083】また、興味のない情報が提示されている場
合、注視点が情報提示部20の外側に向けられている場
合は(a−3)のように、興味をしめしていないと判断
し、新たな情報が必要であると判断する。これについて
は、後に表示変更部50でその機能について述べる。
When information that is not of interest is presented, or when the gazing point is directed to the outside of the information presenting section 20, it is determined that he is not interested, as in (a-3). Determines that new information is needed. Regarding this, the function will be described later in the display changing unit 50.

【0084】[3−6]システム可視範囲 システム可視範囲では、使用者はシステムだけでなく、
他の情報提示物を見ることが可能である。例えば、新幹
線の切符を券売機で購入する場合、通常券売機列の上部
に路線図等が提示されており、その路線図を見て、行き
先と料金を確認する。この時、路線図のどのあたりを見
ていたかという情報を獲得できれば、購入するであろう
料金区間をいくつか表示する事により、必要とはしない
区間を表示せず、素早く目的とする切符を選択できる事
になる。
[3-6] System visible range In the system visible range, the user is not only the system,
It is possible to see other informational presentations. For example, when purchasing a ticket for a Shinkansen at a ticket vending machine, a route map or the like is usually displayed above the ticket vending machine line, and the destination and the fare are confirmed by looking at the route map. At this time, if you can obtain information about where you were looking on the route map, by displaying some toll sections that you will purchase, you can quickly select the target ticket without displaying the unnecessary sections It will be possible.

【0085】この状況を先に図11に挙げた行動パター
ンの(b−1)の場合として考える。このとき、以前見
ていた情報が何であるかに基づいて、どのような情報を
提示すればよいかを決定できる。例えば上記した例で
は、路線図の東側、西側のいずれを見ていたかにより、
目的とする場所の候補のいくつかを提示するといった方
法をとる。そのとき、リングバッファ内の情報は図12
中段のようになっていれば、遠くの距離で見ていた注視
点(x1,y1)にある情報に基づいて、情報提示の内
容を決定する。このようにして、予想される情報を提示
する事により、操作時間の短縮が計られる。
Consider this situation as the case (b-1) of the action pattern listed above in FIG. At this time, it is possible to determine what information to present based on what the previously viewed information is. For example, in the example above, depending on whether you were looking at the east side or the west side of the route map,
For example, some candidates of the desired place are presented. At that time, the information in the ring buffer is as shown in FIG.
If it is in the middle row, the content of information presentation is determined based on the information at the gazing point (x1, y1) seen at a long distance. By presenting expected information in this way, the operation time can be shortened.

【0086】[3−7]システム無視範囲 システム無視範囲では、図11(c)にあげた行動パタ
ーンに当てはまる場合は、予測を行わず、初期状態のま
までいる。
[3-7] System neglected range In the system neglected range, if the behavior pattern shown in FIG. 11 (c) is met, no prediction is made and the initial state remains.

【0087】行動パターンを各図で説明したような場合
一次元の波形パターンとした場合、その照合方法として
は、登録パターンと入力パターンの各時間毎における、
差の2乗和を類似度として、もっとも類似度の高いもの
をその行動パターンとして選択する。照合方法として、
従来の単純類似度、複合類似度といったパターン認識手
法によるものや、DPマッチング、ニューラルネットワ
ーク等を用いても良い。行動パターンが当てはまらない
場合や、処理を失敗した場合には、設定された初期状態
から人間との対応を開始する。
In the case where the action pattern is as described in each figure, when the one-dimensional waveform pattern is used, the collation method is as follows:
The sum of squared differences is set as the similarity, and the one having the highest similarity is selected as the action pattern. As a matching method,
A conventional pattern recognition method such as simple similarity or composite similarity, DP matching, a neural network, or the like may be used. If the action pattern does not apply or if the processing fails, the correspondence with the human being is started from the set initial state.

【0088】予測部40からの指示によって、指示内容
の変更する場合は、視線位置を表示するものと、選択す
る情報の表示内容を変更するものがある。予測部40か
らは、視線位置と予測内容についての指示が表示変更部
50に送る。提示内容の変更する場合は、情報提示部2
0に、状態の変更を指示すると、情報提示部20は予測
部40によって得られた情報に基づいて、情報提示部2
0が状態判別を行い、情報提示を行う。
When the instruction content is changed by an instruction from the prediction section 40, there are a method of displaying the line-of-sight position and a method of changing the display content of the information to be selected. The prediction unit 40 sends an instruction about the line-of-sight position and the content of the prediction to the display changing unit 50. When changing the content of the presentation, the information presenting unit 2
When 0 is instructed to change the state, the information presenting unit 20 determines the information presenting unit 2 based on the information obtained by the estimating unit 40.
0 determines the state and presents information.

【0089】また、予測した行動パターンと各時間にお
ける選択内容を結果出力部70に送る。このとき、選択
された情報は一つだけが送られるのではなく、システム
と選択を行うためにやりとりを行なっている時間のすべ
ての選択内容が結果出力部70に送られる。一つに選択
されるのは、結果出力部70で指定された時間に見てい
たものが選択内容としてにおいて決定される。
Further, the predicted action pattern and the selection contents at each time are sent to the result output unit 70. At this time, not only one piece of the selected information is sent, but all the selection contents of the time when the system is in the exchange for making the selection are sent to the result output unit 70. What is selected as one is determined as the selection content that is being viewed at the time designated by the result output unit 70.

【0090】[4]表示変更部50 表示変更部50は、注視点表示部51と、選択情報表示
変更部52からなり、図13に示す。
[4] Display changing unit 50 The display changing unit 50 comprises a gazing point display unit 51 and a selection information display changing unit 52, and is shown in FIG.

【0091】[4−1]注視点表示部51 注視点表示部51は、予測部40から送られた注視点の
位置にある情報部分を、例えば色を変更して表示する、
または、反転する等の表示を変更し、使用者が現在どの
情報を注視しているのかを、使用者自身が知覚できるよ
うにする。例えば、図14のように商品Bを見た場合
(a)、商品Dを見た場合(b)のように、反転して出
力する。また確定された場合(c)のように表示を変更
する。
[4-1] Point-of-regard display section 51 The point-of-regard display section 51 displays the information portion at the position of the point-of-regard sent from the prediction section 40, for example, by changing the color.
Alternatively, the display such as inversion is changed so that the user can perceive what information the user is currently gazing at. For example, as shown in FIG. 14, when the product B is viewed (a) and when the product D is viewed (b), it is inverted and output. When it is confirmed, the display is changed as shown in (c).

【0092】[4−2]選択情報表示変更部52 選択情報表示変更部52では、予測部40から送られた
指示に基づいて、提示内容を変更する。使用者の注視点
が情報提示部20の外側に出た場合、その方向に表示情
報をスクロールする機能を実現する方法について述べ
る。
[4-2] Selection information display changing unit 52 The selection information display changing unit 52 changes the presentation content based on the instruction sent from the prediction unit 40. A method for realizing a function of scrolling the display information in the direction when the user's point of gaze comes out of the information presenting unit 20 will be described.

【0093】一般に表示できる情報の数が少ない場合、
例えば図4のように4つの異なる情報だけが表示可能な
場合で、図15のように24個もの情報を選択したい場
合は、通常階層的な選択が行われる。図15の左側の列
に示すように、まず、左上段の大分類の中から選択し、
次に左中段の中分類の中から選択し、最後に目的とする
もの(ここでは、Dを選択)の選択が階層化されて行わ
れる。しかしながら、視線を用いる利点として、「情報
が表示されていない場合は見ない」という意思表示が可
能であること、さらに目的とする情報がありそうな方向
を見ておくという事が可能であるため、図15の右側の
列に示すような、情報の表示方法が可能である。
Generally, when the number of information that can be displayed is small,
For example, when only four different pieces of information can be displayed as shown in FIG. 4, and when it is desired to select as many as 24 pieces of information as shown in FIG. 15, normal hierarchical selection is performed. As shown in the column on the left side of FIG. 15, first select from the large classifications on the upper left,
Next, the middle classification on the left middle row is selected, and finally the desired one (here, D is selected) is hierarchically selected. However, as an advantage of using the line of sight, it is possible to show the intention "I do not see if the information is not displayed", and it is possible to look in the direction where the desired information is likely to be. The information display method as shown in the right column of FIG. 15 is possible.

【0094】図15の右側では、太線で囲まれた領域が
情報提示部20によって、表示されている4つの情報を
示す。ここで、目的とする情報(例ではD)がある場所
の方向を見る。すなわち右中段のように、情報提示部2
0の外側の×印を見る事により、表示される場所が変更
され、右下段のように、情報提示を変更する。
On the right side of FIG. 15, a region surrounded by a thick line shows four pieces of information displayed by the information presenting section 20. Now, look at the direction of the place where the target information (D in the example) is located. That is, as shown in the middle right, the information presenting unit 2
By viewing the X mark outside 0, the displayed place is changed, and the information presentation is changed as shown in the lower right.

【0095】図15における座標系(x,y)につい
て、画面の範囲を(0,0)−(xs,ys)とする。
今、注視点が(xp,yp)のように、画面の範囲
(0,0)−(xs,ys)から外れている場合、提示
情報の内容としてその方向に情報が存在する場合、提示
情報を変更する。図17がそのフローチャートである。
For the coordinate system (x, y) in FIG. 15, the range of the screen is (0, 0)-(xs, ys).
If the point of interest is outside the range (0,0)-(xs, ys) of the screen, such as (xp, yp), if there is information in that direction as the content of the presentation information, the presentation information To change. FIG. 17 is a flowchart thereof.

【0096】このとき実際には、使用者の視線は情報提
示部20の外側にあるが、提示されている情報が変化し
たかどうかは、人間は周辺視によって確認すればよい。
表示の変更が行われた場合、使用者が視線を情報提示部
20の内部に向けた場合には、ふたたび注視点の表示を
行う。
At this time, the line of sight of the user is actually outside the information presenting section 20, but it is sufficient for a human to confirm whether or not the presented information has changed by peripheral vision.
When the display is changed or when the user directs his or her line of sight to the inside of the information presenting unit 20, the point of interest is displayed again.

【0097】また、空間分解能の低い視線検出装置を用
いている場合では、小さく表示されているものを注視し
ている場合、表示の解像度を変化させる次のような機能
を実現する。図16上のように、細かな表示がなされて
いる場合、図中の楕円部付近を注視しつづけている場
合、ある一定以下の表示情報に対しては、解像度を大き
くして表示する場合の表示情報も蓄えておき、その注視
部分の表示内容を、図16中央のように情報提示部20
に大きく表示する。さらに図16下のように階層的に大
きさを変化させることも可能である。このような視線情
報を用いて表示の解像度を変えることによって、より選
択しやすい情報提示が可能となる。
Further, in the case of using the visual axis detection device having a low spatial resolution, the following function for changing the display resolution is realized when a small display is being watched. As shown in FIG. 16, when a detailed display is performed, when the elliptical portion in the drawing is continuously watched, and when display information below a certain level is displayed with a high resolution, Display information is also stored, and the display content of the gaze portion is displayed in the information presentation unit 20 as shown in the center of FIG.
It will be displayed larger. Further, as shown in the lower part of FIG. 16, it is possible to change the size hierarchically. By changing the display resolution using such line-of-sight information, it is possible to present information that is easier to select.

【0098】[5]意図伝達部60 意図伝達部60は、音声、スイッチの切入等の信号を入
力する入力部61と入力の内容を認識する入力判断部6
2とからなる(図18参照)。
[5] Intention transmission unit 60 The intention transmission unit 60 includes an input unit 61 for inputting signals such as voice and switch-on / off, and an input determination unit 6 for recognizing the contents of the input.
2 (see FIG. 18).

【0099】入力部61は、マイクまたはスイッチ、マ
ウス、カメラ等で、その入力結果を入力判断部62へ送
る。入力判断部62は、入力機器の種類、内容を考慮
し、入力内容を解析し、入力情報を結果出力部70へ送
る。
The input section 61 is a microphone, a switch, a mouse, a camera or the like, and sends the input result to the input determination section 62. The input determining unit 62 considers the type and content of the input device, analyzes the input content, and sends the input information to the result output unit 70.

【0100】音声を入力装置とした場合の入力判断部6
2のブロック図としては、入力判断部62に音声認識装
置を用いる。例えば、ある商品を見ながら、「それくだ
さい」と発声することにより、入力装置から音声認識装
置に音声が入力され、その認識結果が結果出力部70に
送られる。
Input judging unit 6 when voice is used as an input device
As a block diagram of No. 2, a voice recognition device is used for the input determination unit 62. For example, by uttering “Please give me” while looking at a certain product, voice is input from the input device to the voice recognition device, and the recognition result is sent to the result output unit 70.

【0101】入力情報が入ったと同時点での注視点の情
報を出すことにより、見ている場所の情報が選択される
こととなる。例えば、使用者が目的とする情報を注視し
ながら、「それください」「これ」等の簡単な言葉を発
声することにより、その発声した時点での注視点の情報
が選択できる。
By outputting the information of the gazing point at the same time when the input information is input, the information of the place where the user is looking is selected. For example, by uttering a simple word such as “please do” or “this” while the user looks at the desired information, the information of the point of gaze at the time of uttering can be selected.

【0102】他の入力例として、自動販売機の実施例で
は、コイン、紙幣等の投入口に取り付けられた入力部6
1により金銭が投入されることを入力信号としてもよ
い。
As another input example, in the embodiment of the vending machine, the input section 6 attached to the insertion slot for coins, bills, etc.
The input signal may be that money is thrown in by 1.

【0103】[6]結果出力部70 結果出力部70は、注視情報保持部71、状態保持部7
2、タイミング調整部73からなり、図20にその構成
値を示す。
[6] Result Output Unit 70 The result output unit 70 includes the gaze information holding unit 71 and the state holding unit 7.
2. The timing adjustment unit 73 is provided, and its configuration values are shown in FIG.

【0104】[6−1]注視情報保持部71 注視情報保持部71は、使用者が注視した情報、商品等
が何であるかを保持する。予測部40によって、予測さ
れた情報も保持する。
[6-1] Gaze information holding unit 71 The gaze information holding unit 71 holds the information gazed by the user, the product, and the like. The information predicted by the prediction unit 40 is also held.

【0105】[6−2]タイミング調整部73 タイミング調整部73は、提示されたものを視線により
選択した時間と入力部61によって入力された時間の同
時性の調節を行なう。入力情報が入った時点で、いつの
時点の注視点の情報を出力するかを設定する。タイミン
グ調整部73は、一つまたは複数の入力部61の入力時
刻を評価し、意図伝達の時刻を決定する手段で、タイミ
ング設定部74、時間設定部75からなる。
[6-2] Timing Adjusting Unit 73 The timing adjusting unit 73 adjusts the simultaneity between the time when the presented one is selected by the line of sight and the time input by the input unit 61. When input information is input, set when to output the gaze point information. The timing adjustment unit 73 is a unit that evaluates the input time of one or a plurality of input units 61 and determines the time of intention transmission, and includes a timing setting unit 74 and a time setting unit 75.

【0106】タイミング調整部73の動作を、図19に
示す。
The operation of the timing adjusting section 73 is shown in FIG.

【0107】タイミング設定部74では、各行動パター
ンに対してのタイミングを実験等によってもとめてお
き、使用者が使いやすいようにタイミングとる。時間設
定部75では、タイミング設定部74によって設定され
ている時間と入力判断部62から信号が来た時間の総和
の時刻を結果出力部70へ送る。
In the timing setting section 74, the timing for each action pattern is found by experiments or the like, and the timing is set so that the user can easily use it. The time setting unit 75 sends to the result output unit 70 the total time of the time set by the timing setting unit 74 and the time when the signal is received from the input determination unit 62.

【0108】例えば、タイミング設定部74によって設
定されている時間tk=0とするとき、(a−1)「見
続ける」パターンを行っている場合、入力判断部62か
ら入力がなされる時間tinがなされた時刻を、状態保
持部72に送る。
For example, when the time tk = 0 set by the timing setting unit 74 is set, (a-1) when the “keep watching” pattern is performed, the time tin input from the input judging unit 62 is The time made is sent to the state holding unit 72.

【0109】他の入力例として、自動販売機の実施例で
は、コイン、紙幣等の投入口に取り付けられた入力部6
1により、金銭が投入されることを入力信号とする場合
について述べる。この場合、入力判断部62は、投入さ
れた金額を判断する。タイミング設定手段により、金銭
が投入された時間t1からタイミング設定時間tk後の
時間に注視点のあった商品を選択する。tkを−1.0
(sec)≦tk≦1.0(sec)を設定することに
より、「商品を見ながら、コインを投入する」ことによ
り、ボタン等を押す必要無しに、商品が選択される。こ
の場合、金銭を投入する際に、使用者の視線は金銭の投
入口にあることが多いとも考えられる。よって、タイミ
ング設定時間tkを数秒後に設定し、金銭の投入が行な
われた後しばらく商品を注視することにより、商品を選
択することができる。
As another input example, in the embodiment of the vending machine, the input section 6 attached to the insertion slot for coins, bills, etc.
The case where the input signal is input of money according to 1 will be described. In this case, the input determination unit 62 determines the amount of money input. The timing setting means selects a product having a gazing point at a time after the timing setting time tk from the time t1 when the money is inserted. tk is -1.0
By setting (sec) ≤ tk ≤ 1.0 (sec), "insert coins while looking at product" allows the product to be selected without the need to press a button or the like. In this case, it is considered that the user's line of sight is often at the money insertion port when the money is inserted. Therefore, it is possible to select the product by setting the timing setting time tk after a few seconds and gazing at the product for a while after the money is inserted.

【0110】[6−3]状態保持部72 状態保持部72は、初期状態、予測状態、確定状態等の
状態を出力し、その状態とその状態における注視情報を
保持し、システムや他の手段に送る。確定状態であれ
ば、システムは結果出力部70から使用者の注視点にあ
る情報、商品等の情報を受けとり、販売、サービスの開
始等を行う。また別の情報表示等の動作を行ってもよ
い。
[6-3] State Holding Unit 72 The state holding unit 72 outputs a state such as an initial state, a predicted state and a fixed state, holds the state and the gaze information in the state, and the system or other means. Send to. In the confirmed state, the system receives information on the user's point of gaze, information on products, etc. from the result output unit 70, and performs sales, start of services, and the like. Further, another operation such as displaying information may be performed.

【0111】(変更例)変形例について述べる。(Modification) A modification will be described.

【0112】[1]情報提示部20の変形例 情報提示部20はディスプレイに表示されるような動的
に変化するものだけでなくともよい。例えば、常に固定
された商品、情報のパネル等を、装置または装置付近に
設置することでも構わない。
[1] Modification of Information Presenting Section 20 The information presenting section 20 is not limited to the dynamically changing one as displayed on the display. For example, a fixed product, an information panel, or the like may be installed in or near the device.

【0113】情報提示部20がディスプレイ上に動的に
表示されるのではなく、固定の情報が提示されている場
合は、注視点の方向がわかるように、ランプ、LED等
を設置しても良い。
When the information presenting section 20 is not dynamically displayed on the display but fixed information is presented, even if a lamp, LED or the like is installed so that the direction of the gazing point can be known. good.

【0114】[2]注視点推定部30の変形例 実施例では、単眼カメラによる非接触の視線検出手法に
ついて説明したが、接触、非接触を問わず、視線検出手
法についてはこの限りではない。
[2] Modified Example of Gaze Point Estimating Unit 30 In the embodiment, the non-contact line-of-sight detection method using a monocular camera has been described. However, the line-of-sight detection method is not limited to contact or non-contact.

【0115】例えば、文献(伴野明、岸野文郎、小林幸
雄“瞳孔の抽出処理と頭部の動きを許容する視線検出装
置の試作”、電子通信学会論文誌(D)Vol.J76-D-II,No.
3,pp.636-646(1993))のように、複数のカメラを用いて
人間を撮影し、顔の向き、眼の向きを求めるといった方
法等を用いてもよい。
For example, a document (Akira Banno, Fumio Kishino, Yukio Kobayashi “Trial manufacture of eye-gaze detecting device which allows pupil extraction processing and head movement”), IEICE Transactions (D) Vol.J76-D-II , No.
3, pp.636-646 (1993)), a method in which a person is photographed by using a plurality of cameras and the face orientation and the eye orientation are obtained may be used.

【0116】自動販売機の例のように、短時間の対応を
目的とした機器だけでなく、例えば、大量のデータ等を
より分ける必要があるような応用例の場合で、正確な視
線検出方法が要求される場合等もある。この場合は、ア
イカメラ、アイトラッカー等等の接触型の視線検出手法
を用いても良い。
An accurate line-of-sight detection method can be applied not only to devices intended for short-term correspondence such as the case of an automatic vending machine, but also to an application example in which a large amount of data or the like needs to be further divided. May be required. In this case, a contact type visual line detection method such as an eye camera or an eye tracker may be used.

【0117】[3]意図伝達部60の変形例 意図伝達部60は、音声や実施例に示したような金銭の
投入のような入力方法だけでなく、システムにボタン等
を取り付けるといった手段や、顔の向きを検知している
ことから次のような伝達手法があげられる。同じ場所に
視点を置いて、首を上下に動かす(「うなづく」動作)
等のどうさを行う。このように、画像情報に基づいた動
作検出手段を付加して入力に変えても良い。
[3] Modification of Intention Transmitting Unit 60 The intention transmitting unit 60 is not limited to a voice or an input method such as the insertion of money as shown in the embodiment, but a means for attaching a button or the like to the system, The following transmission methods can be given because the orientation of the face is detected. Move your neck up and down with the same point of view ("nodling" movement)
And so on. In this way, the operation detecting means based on the image information may be added to change the input.

【0118】また、意図伝達部60において、音声認識
等の高度の入力判断部を備えている場合、その入力内容
から、明示的に表示内容の変更等を操作する構成に変形
しても良い。具体的には、「次の内容」等と音声で入力
することにより、表示変更部50によって、別の情報提
示がなされる。
Further, in the case where the intention transmitting unit 60 is provided with a high-level input judging unit such as voice recognition, the input contents may be changed to a configuration for explicitly changing the display contents. Specifically, by inputting "next content" or the like by voice, the display changing unit 50 presents another information.

【0119】口検出手段に代えて、鼻孔を検出する鼻孔
検出手段を用いてもよい。この鼻孔検出手段の構成とし
ては、色相画像の二値化によって、目、口の候補を出す
際にすでに肌色部分とは異なる色の部分を発見している
ため、それら各部分に、2つの鼻孔を含んだように撮影
されている鼻孔の部分画像から生成された辞書とのパタ
ーン照合を行い、2つの鼻孔を同時に検出する。
Instead of the mouth detecting means, a nostril detecting means for detecting a nostril may be used. As the structure of this nostril detecting means, since binarization of the hue image has already found a portion of a color different from the skin-colored portion when the candidates for eyes and mouth are obtained, two nostrils are provided for each portion. The pattern is collated with a dictionary generated from the partial image of the nostrils photographed so as to include two nostrils at the same time.

【0120】そして、顔方向を検出する場合は、2つの
目頭と2つの鼻孔を結ぶように面を構成すればよい(図
6の(g)参照)。
Then, in the case of detecting the face direction, the surface may be constructed so as to connect the two inner canthus and the two nostrils (see (g) of FIG. 6).

【0121】[4]表示変更部50の変形例 注視点表示部51では、情報の色変換反転等に限らず、
注視点をそのままカーソルのようなもので表示しても構
わない。
[4] Modification of Display Change Unit 50 In the gazing point display unit 51, not only the color conversion inversion of information but also the
The point of interest may be displayed as it is with a cursor.

【0122】また、注視点表示部51自身を外した構成
としても良い。すなわち注視点が変化しているようすを
人間が常時知覚できるようにすることが目的であるが、
それを知覚させないようにしたい応用例が存在するかも
しれない。その際には、意図伝達部60により、指定さ
れた場合にだけ、注視点を確認できる構成に変形しても
良い。
Further, the gazing point display section 51 itself may be removed. In other words, the purpose is to enable humans to constantly perceive that the gazing point is changing,
There may be applications where you don't want it to be perceived. In that case, the intention transmitting unit 60 may be modified so that the gazing point can be confirmed only when specified.

【0123】選択情報表示変更部52では、意図伝達部
60と組み合わせ、意図伝達、例えば「表示を変えてほ
しい」という信号が送られた場合のみ、情報のスクロー
ルを行っても良い。
The selection information display changing section 52 may be combined with the intention transmitting section 60 to scroll the information only when an intention is transmitted, for example, a signal "I want you to change the display" is sent.

【0124】また、表示変更部50を持たない構成でも
よく、固定された表示内容に基づいた予測を行ない、選
択を行なう方法でもよい。
Further, the display changing section 50 may not be provided, or a method of making a prediction based on a fixed display content and making a selection may be used.

【0125】以上、本発明はその趣旨を逸脱しない範囲
で種々変形して実施することが可能である。
As described above, the present invention can be variously modified and implemented without departing from the spirit thereof.

【0126】[0126]

【発明の効果】本発明であると、使用者の視線を用いた
情報、商品等の選択が容易に行え、あらゆる装置におい
て、迅速な対応が可能となる。また、人間の自然な行動
を妨げることなく、使用者にやさしいユーザインタフェ
ースを提供できる。
According to the present invention, it is possible to easily select information, merchandise, and the like using the line of sight of the user, and it is possible to quickly respond to any device. In addition, a user-friendly user interface can be provided without disturbing human's natural behavior.

【図面の簡単な説明】[Brief description of drawings]

【図1】装置のブロック図である。FIG. 1 is a block diagram of an apparatus.

【図2】情報提示部20のブロック図である。FIG. 2 is a block diagram of an information presenting unit 20.

【図3】情報提示部20のフローチャートである。FIG. 3 is a flowchart of an information presenting unit 20.

【図4】情報提示の一例の図である。FIG. 4 is a diagram of an example of information presentation.

【図5】注視点推定部30のブロック図である。5 is a block diagram of a gazing point estimation unit 30. FIG.

【図6】顔方向検出部32の説明図である。FIG. 6 is an explanatory diagram of a face direction detection unit 32.

【図7】顔部品の抽出の図である。FIG. 7 is a diagram of extraction of face parts.

【図8】瞳位置検出部33の説明図である。FIG. 8 is an explanatory diagram of a pupil position detection unit 33.

【図9】注視点の決定方法の説明図である。FIG. 9 is an explanatory diagram of a method of determining a gazing point.

【図10】予測部40のブロック図である。FIG. 10 is a block diagram of a prediction unit 40.

【図11】行動パターン例の図である。FIG. 11 is a diagram of an example of an action pattern.

【図12】情報記録部43の情報格納例の図である。FIG. 12 is a diagram of an example of information storage of an information recording unit 43.

【図13】表示変更部50のブロック図である。FIG. 13 is a block diagram of a display changing unit 50.

【図14】情報提示部20における表示変更例の図であ
る。
FIG. 14 is a diagram of a display change example in the information presenting unit 20.

【図15】表示情報変更例におけるスクロール機能例の
図である。
FIG. 15 is a diagram illustrating a scroll function example in a display information change example.

【図16】表示情報変更例における解像度変換例の図で
ある。
FIG. 16 is a diagram of an example of resolution conversion in an example of changing display information.

【図17】選択情報表示変更部52の動作例の図であ
る。
FIG. 17 is a diagram of an operation example of a selection information display changing unit 52.

【図18】意図である。伝達部60のブロック図であ
る。
FIG. 18 is an intent. 6 is a block diagram of a transmission unit 60. FIG.

【図19】タイミング調整部73のフローチャートであ
る。
FIG. 19 is a flowchart of a timing adjusting section 73.

【図20】結果出力部70のブロック図である。20 is a block diagram of a result output unit 70. FIG.

【図21】タイミング調整部73のブロック図である。FIG. 21 is a block diagram of a timing adjusting unit 73.

【符号の説明】[Explanation of symbols]

10 情報選択装置 20 情報提示部 30 注視点推定部 40 予測部 50 表示変更部 60 意図伝達部 70 結果出力部 10 Information selection device 20 Information presentation section 30 Gaze point estimation section 40 Predictor 50 Display change section 60 Intention transmission part 70 Result output section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 福井 和広 大阪府大阪市北区大淀中一丁目1番30号 梅田スカイビル タワーウエスト 株式会 社東芝関西支社内 Fターム(参考) 5B087 AA09 AB09 BC05 BC12 BC13 BC26 BC32 DE03    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kazuhiro Fukui             1-30 Oyodochu, Kita-ku, Osaka City, Osaka Prefecture             Umeda Sky Building Tower West Stock Association             Company Toshiba Kansai branch office F term (reference) 5B087 AA09 AB09 BC05 BC12 BC13                       BC26 BC32 DE03

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】情報を表示する情報表示装置であって、 前記情報表示装置を使用する使用者の注視箇所を推定す
る注視箇所推定手段と、 前記注視箇所推定手段によって推定された前記注視箇所
から前記使用者が必要としている情報を予測する予測手
段と、 前記予測手段によって予測された情報の表示を行う情報
表示手段とを備えたことを特徴とする情報表示装置。
1. An information display device for displaying information, comprising: a gaze point estimating means for estimating a gaze point of a user who uses the information display device; and a gaze point estimated by the gaze point estimating means. An information display device comprising: a prediction unit that predicts information required by the user, and an information display unit that displays the information predicted by the prediction unit.
【請求項2】前記予測手段は、 前記注視箇所推定手段によって推定された前記注視箇所
が移動した場合に、その移動した前記注視箇所に基づい
て前記使用者の必要な情報を再予測する予測変更手段
と、 前記予測変更手段によって再予測した情報を表示するよ
うに前記情報表示手段に指示する表示変更手段を備えた
ことを特徴とする請求項1記載の情報表示装置。
2. The predicting means, when the gaze point estimated by the gaze point estimating means has moved, re-estimates the information required by the user based on the moved gaze point. 2. The information display device according to claim 1, further comprising: means and a display changing means for instructing the information displaying means to display the information re-predicted by the prediction changing means.
【請求項3】前記予測手段は、 前記注視箇所推定手段の推定した前記注視箇所が、前記
情報表示手段内にある場合は、その注視している情報に
基づいて前記使用者の必要な情報を予測し、 前記注視箇所が、前記情報表示手段以外にある場合は、
その注視している部分に基づいて前記使用者の必要な情
報を予測することを特徴とする請求項1記載の情報表示
装置。
3. The predicting means, when the gaze point estimated by the gaze point estimating means is in the information display means, obtains necessary information of the user based on the gazed information. Predict, if the gaze point is other than the information display means,
The information display device according to claim 1, wherein the information required by the user is predicted based on the part that is being watched.
【請求項4】情報表示手段を用いて情報を表示する情報
表示方法であって、 前記情報表示手段を使用する使用者の注視箇所を推定す
る注視箇所推定ステップと、 前記注視箇所推定ステップによって推定された前記注視
箇所から前記使用者が必要としている情報を予測する予
測ステップと、 前記予測ステップによって予測された情報を前記情報表
示手段によって表示する情報表示ステップとを備えたこ
とを特徴とする情報表示方法。
4. An information display method for displaying information using an information display means, which comprises a gaze point estimating step of estimating a gaze point of a user who uses the information displaying means, and an estimation by the gaze point estimating step. Information comprising a prediction step of predicting information required by the user from the gazed point, and an information display step of displaying the information predicted by the prediction step by the information display means. Display method.
【請求項5】前記予測ステップは、 前記注視箇所推定ステップによって推定された前記注視
箇所が移動した場合に、その移動した前記注視箇所に基
づいて前記使用者の必要な情報を再予測する予測変更ス
テップと、 前記予測変更ステップによって再予測した情報を表示す
るように前記情報表示手段に指示する表示変更ステップ
を備えたことを特徴とする請求項4記載の情報表示方
法。
5. The prediction change, when the gaze point estimated by the gaze point estimating step moves, re-predicts necessary information of the user based on the moved gaze point. The information display method according to claim 4, further comprising: a step, and a display change step for instructing the information display means to display the information re-predicted by the prediction change step.
【請求項6】前記予測ステップは、 前記注視箇所推定ステップの推定した前記注視箇所が、
前記情報表示手段内にある場合は、その注視している情
報に基づいて前記使用者の必要な情報を予測し、 前記注視箇所が、前記情報表示手段以外にある場合は、
その注視している部分に基づいて前記使用者の必要な情
報を予測することを特徴とする請求項4記載の情報表示
装置。
6. In the predicting step, the gaze point estimated in the gaze point estimating step is
When in the information display means, predict the necessary information of the user based on the information that is gazing, if the gaze point is other than the information display means,
The information display device according to claim 4, wherein the information required by the user is predicted based on the part that is being watched.
JP2002331303A 2002-11-14 2002-11-14 Information display device and method thereof Pending JP2003150306A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002331303A JP2003150306A (en) 2002-11-14 2002-11-14 Information display device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002331303A JP2003150306A (en) 2002-11-14 2002-11-14 Information display device and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP8059071A Division JPH09251342A (en) 1996-03-13 1996-03-15 Device and method for estimating closely watched part and device, information display device/method using the same

Publications (1)

Publication Number Publication Date
JP2003150306A true JP2003150306A (en) 2003-05-23

Family

ID=19197709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002331303A Pending JP2003150306A (en) 2002-11-14 2002-11-14 Information display device and method thereof

Country Status (1)

Country Link
JP (1) JP2003150306A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005078311A (en) * 2003-08-29 2005-03-24 Fujitsu Ltd Device for tracing face site, device for deciding status of eyes and computer program
JP2005100366A (en) * 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2006048171A (en) * 2004-07-30 2006-02-16 Toyota Motor Corp Status estimation device, status estimation method, information providing device using the same, and information providing method
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
JP2006092290A (en) * 2004-09-24 2006-04-06 Matsushita Electric Ind Co Ltd Suspicious individual detector
JP2006095208A (en) * 2004-09-30 2006-04-13 Sophia Co Ltd Game machine
JP2007094619A (en) * 2005-09-28 2007-04-12 Omron Corp Recognition device and method, recording medium, and program
JP2007172378A (en) * 2005-12-22 2007-07-05 Toyota Motor Corp Apparatus for specifying object to be gazed at
JP2008015634A (en) * 2006-07-03 2008-01-24 Seikatsu Kyodo Kumiai Coop Sapporo System and method for providing commodity-related information
JP2008040885A (en) * 2006-08-08 2008-02-21 Seikatsu Kyodo Kumiai Coop Sapporo Product information providing system, product information providing method and server system
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2009042956A (en) * 2007-08-08 2009-02-26 Hitachi Ltd Merchandise selling device, merchandise sales management system, merchandise sales management method, and program
JP2009151409A (en) * 2007-12-19 2009-07-09 Hitachi Ltd Marketing data analyzing method, marketing data analyzing system, data analyzing server device, and program
JP2009193499A (en) * 2008-02-18 2009-08-27 Hitachi Ltd Gazed commodity data acquisition method and commodity sales management system
JP2009540349A (en) * 2006-06-07 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Optical feedback on the selection of physical objects
JP2009289233A (en) * 2008-06-02 2009-12-10 Hitachi Ltd Merchandise selling device, merchandise selling management system, customer line-of-sight data acquisition method, and method of acquiring data on merchandise gazed by customer
JP2012104070A (en) * 2010-11-15 2012-05-31 Osamu Shichinohe Information apparatus, information providing method, program and computer readable recording medium
JP2015118550A (en) * 2013-12-18 2015-06-25 カシオ計算機株式会社 Information processing device, information processing method and program
JP2016194877A (en) * 2015-04-01 2016-11-17 富士通株式会社 Explanation support device, explanation support method, and explanation support program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100366A (en) * 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2005078311A (en) * 2003-08-29 2005-03-24 Fujitsu Ltd Device for tracing face site, device for deciding status of eyes and computer program
JP2006048171A (en) * 2004-07-30 2006-02-16 Toyota Motor Corp Status estimation device, status estimation method, information providing device using the same, and information providing method
JP4604597B2 (en) * 2004-07-30 2011-01-05 トヨタ自動車株式会社 State estimating device, state estimating method, information providing device using the same, information providing method
JP2006090790A (en) * 2004-09-22 2006-04-06 Toyota Motor Corp Drive support system
JP4556586B2 (en) * 2004-09-22 2010-10-06 トヨタ自動車株式会社 Driving assistance device
JP2006092290A (en) * 2004-09-24 2006-04-06 Matsushita Electric Ind Co Ltd Suspicious individual detector
JP2006095208A (en) * 2004-09-30 2006-04-13 Sophia Co Ltd Game machine
JP4640926B2 (en) * 2004-09-30 2011-03-02 株式会社ソフイア Game machine
JP2007094619A (en) * 2005-09-28 2007-04-12 Omron Corp Recognition device and method, recording medium, and program
JP2007172378A (en) * 2005-12-22 2007-07-05 Toyota Motor Corp Apparatus for specifying object to be gazed at
JP2009540349A (en) * 2006-06-07 2009-11-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Optical feedback on the selection of physical objects
JP2008015634A (en) * 2006-07-03 2008-01-24 Seikatsu Kyodo Kumiai Coop Sapporo System and method for providing commodity-related information
JP2008040885A (en) * 2006-08-08 2008-02-21 Seikatsu Kyodo Kumiai Coop Sapporo Product information providing system, product information providing method and server system
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2009042956A (en) * 2007-08-08 2009-02-26 Hitachi Ltd Merchandise selling device, merchandise sales management system, merchandise sales management method, and program
JP2009151409A (en) * 2007-12-19 2009-07-09 Hitachi Ltd Marketing data analyzing method, marketing data analyzing system, data analyzing server device, and program
JP2009193499A (en) * 2008-02-18 2009-08-27 Hitachi Ltd Gazed commodity data acquisition method and commodity sales management system
JP2009289233A (en) * 2008-06-02 2009-12-10 Hitachi Ltd Merchandise selling device, merchandise selling management system, customer line-of-sight data acquisition method, and method of acquiring data on merchandise gazed by customer
JP2012104070A (en) * 2010-11-15 2012-05-31 Osamu Shichinohe Information apparatus, information providing method, program and computer readable recording medium
JP2015118550A (en) * 2013-12-18 2015-06-25 カシオ計算機株式会社 Information processing device, information processing method and program
JP2016194877A (en) * 2015-04-01 2016-11-17 富士通株式会社 Explanation support device, explanation support method, and explanation support program

Similar Documents

Publication Publication Date Title
JPH09251342A (en) Device and method for estimating closely watched part and device, information display device/method using the same
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
JP2003150306A (en) Information display device and method thereof
CN111949131B (en) Eye movement interaction method, system and equipment based on eye movement tracking technology
KR102257181B1 (en) Sensory eyewear
US9953214B2 (en) Real time eye tracking for human computer interaction
US7468742B2 (en) Interactive presentation system
Grauman et al. Communication via eye blinks and eyebrow raises: Video-based human-computer interfaces
JP4481663B2 (en) Motion recognition device, motion recognition method, device control device, and computer program
EP1691670B1 (en) Method and apparatus for calibration-free eye tracking
CN106462242A (en) User interface control using gaze tracking
JP4061379B2 (en) Information processing apparatus, portable terminal, information processing method, information processing program, and computer-readable recording medium
CN109388233B (en) Transparent display device and control method thereof
JP6031258B2 (en) Display device
JP3689285B2 (en) Input device and head mounted display for input device
JPH04372012A (en) Input device
KR101835363B1 (en) Apparatus and method for continuously displaying the information of objects changed by the movement of line of sights
JPH09167049A (en) Line of sight input device for console
KR20140132906A (en) Device and method for mobile tooltip using eye detecting
JP2000172163A (en) Manual operation segmenting method/device
JPH09147119A (en) Gazing direction of person detection system
JPH09305743A (en) Human face motion detecting system
JP7094759B2 (en) System, information processing method and program
JP2021009552A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061205