JPH06266497A - Man-machine interface device - Google Patents

Man-machine interface device

Info

Publication number
JPH06266497A
JPH06266497A JP5050791A JP5079193A JPH06266497A JP H06266497 A JPH06266497 A JP H06266497A JP 5050791 A JP5050791 A JP 5050791A JP 5079193 A JP5079193 A JP 5079193A JP H06266497 A JPH06266497 A JP H06266497A
Authority
JP
Japan
Prior art keywords
data
operator
display
image
explanation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5050791A
Other languages
Japanese (ja)
Inventor
Yasuo Takagi
木 康 夫 高
Yuichi Senda
田 有 一 千
Minoru Iino
野 穣 飯
Shinji Hayashi
真 司 林
Kazutaro Shinohara
原 和太郎 篠
Junko Oya
矢 純 子 大
Masahiko Murai
井 雅 彦 村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5050791A priority Critical patent/JPH06266497A/en
Priority to US08/208,584 priority patent/US5619619A/en
Publication of JPH06266497A publication Critical patent/JPH06266497A/en
Priority to US08/782,289 priority patent/US5832183A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To kindly serve at every operator by always discriminating the degree of skill in operation of the operator to properly switch the explanation display. CONSTITUTION:Plural kinds of explanation data are prepared. The face of an operator is picked up by a TV camera 2, and this picture is processed by a picture signal taking-in board 6 and a picture processing board 7 to extract a factor related to the expression. A neural network 8 infers the emotion appearing in the expression of the operator. A control operation board 9 selects specific explanation data from plural kinds of explanation data in accordance with the result and displays it as the operation explanation on a display device 3. A factor related to the sight is extracted from the picture obtained by picking up the face, and the position on the picture indicated by the sight is recognized, and movement of a pointer is controlled by the processing result. Thus, the operator performs the quick and comfortable work because only moving his eyes and face to freely operate the pointer on the display picture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、情報処理システムのマ
ンマシンインタフェース装置、特にグラフィカルマンマ
シンインタフェース装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a man-machine interface device for an information processing system, and more particularly to a graphical man-machine interface device.

【0002】[0002]

【従来の技術】人の顔はその人の持つ感情や意思に応じ
て様々な状態になる。それだけに、人の顔は有用な情報
を多く含んでいるとも言える。従来のグラフィカルマン
マシンインタフェース装置の操作は、その人間の様々な
情報を持つ顔の動作には無関係なものとなっている。そ
の結果、長年にわたっていくつかの問題が提起され、言
われ続けてきている。これらは、言い換えれば、使用す
る者、操作する者から出た不満である。
2. Description of the Related Art A person's face is in various states depending on the person's emotions and intentions. Therefore, it can be said that a person's face contains a lot of useful information. The operation of the conventional graphical man-machine interface device is irrelevant to the motion of the face of the human having various information. As a result, a number of issues have been raised and talked about over the years. In other words, these are complaints from users and operators.

【0003】一つは、銀行、郵便局などの金融機関に設
置されたキャッシュディスペンサにて広く取り沙汰され
ているもので、特に自動振込みを考えると連想される、
つまりはその操作性の繁雑さである。慣れた者にとって
は、どうということはないものなのであろうが、たまに
しか操作しない人や機械ににがてな人には、非常に厄介
なマシンである。一応、操作手順・内容等の案内は画面
に表示されるが、わかりにくい場合も多い。
One is widely used in cash dispensers installed in financial institutions such as banks and post offices, and is particularly associated with the consideration of automatic transfer.
In other words, it is the complexity of its operability. It may not be a problem for those who are used to it, but it is a very troublesome machine for those who operate only occasionally and who are distracted by machines. For the time being, guidance on operating procedures and contents is displayed on the screen, but it is often difficult to understand.

【0004】すなわち、従来のマンマシンインタフェー
ス装置は、操作者のある作業に対する習熟度とは無関係
に、一定の手順に従い操作することを要求している。こ
の操作を容易にするために、グラフィカルユーザインタ
フェースが多用されてはいるが、これも、操作者に一定
基準以上の事前知識を要求している。なお、事前に習熟
度の異なる2種類以上の操作者を対象に、それぞれ決ま
った操作手順を用意しておいて、操作者に選択させると
いう方法もあったが、十分なものとは言えない。なぜな
ら、いずれにしても操作者の操作中の感情とは無関係
に、一定の手順に従い説明を行い操作を要求するため
に、習熟度の低い操作者にとってはこれが大きなストレ
スの原因となり、また逆に、熟練者にとっては、イライ
ラの原因にすらなっている。そして、習熟度の低い操作
者がもたつくことにより、全体の作業効率を低下させる
ことが多いので、熟練した補助者を必要とする。このよ
うなマンマシンインタフェース装置が物品販売装置のよ
うな機種に使用された場合、客に冷たい印象を与えるの
で、従来は缶ジュースの自動販売機などごく限られた分
野でしか使用されていない。
That is, the conventional man-machine interface device requires the operator to operate according to a certain procedure, regardless of the operator's proficiency level for a certain work. In order to facilitate this operation, a graphical user interface is often used, but this also requires the operator to have a certain level of prior knowledge. It should be noted that there is a method in which a predetermined operation procedure is prepared for two or more types of operators having different proficiency levels in advance, and the operator is allowed to make a selection, but this is not sufficient. Because in any case, regardless of the feeling of the operator during operation, the explanation is given according to a certain procedure and the operation is requested, which causes great stress for an operator with low proficiency, and vice versa. However, it is even frustrating for skilled workers. An operator with a low degree of proficiency often causes the work efficiency to be lowered, which requires a skilled assistant. When such a man-machine interface device is used in a model such as an article vending machine, it gives a cold impression to customers, and thus it has been conventionally used only in a very limited field such as a vending machine for can juice.

【0005】以上のような問題は従来のマンマシンイン
タフェース装置で一般に広く言われているものである
が、次に、コンピュータを多少なりとも専門に取扱って
いる人の間で言われている問題を紹介する。それは、や
はり機械への画面を通じた入力操作に関連する問題であ
り、ポインティングデバイスの使用に際して言われてい
るものである。この種の機器としては、従来、タッチペ
ン、マウスなどがあるが、いずれも人が手によってポイ
ンタを移動するものであり、それもポインタの移動のた
びに、操作者が比較的大きな動作をする必要がある。例
えばマウスで画面内のカーソルを動かすことを考える
と、まず、マウスを手にとり、マウスパッドや卓上等の
所定の場所でそれを移動させ、カーソルの位置が決まっ
たらボタンをクリックする、というものである。このよ
うな動作のステップを踏まなければならないことや、カ
ーソルをイメージした軌道で運べない場合もあり、急ぎ
の作業が要求されているのに、このような状態では、苛
々がつのり、ついには誤操作、という悪循環を生むこと
にもなり兼ねない。
The above-mentioned problem is generally widely known in the conventional man-machine interface device. Next, the problem that is said among those who handle computers in a more or less specialized manner will be described. introduce. It is also a problem related to the input operation through the screen to the machine, which is said when using the pointing device. Conventionally, this type of device includes a touch pen, a mouse, etc., but each of them requires a person to move the pointer by hand, and it is necessary for the operator to perform a relatively large movement each time the pointer is moved. There is. For example, considering moving the cursor on the screen with the mouse, first take the mouse, move it at a predetermined place such as a mouse pad or tabletop, and click the button when the cursor position is decided. is there. In some cases, it is necessary to take urgent work because it is necessary to take steps of such movements and it may not be possible to move in a trajectory that imagines the cursor. It may also create a vicious circle.

【0006】[0006]

【発明が解決しようとする課題】以上のように従来のマ
ンマシンインタフェース装置にあっては、その操作性が
人間の様々な情報を持つ顔の動作には無関係なものとな
っていることから、長年にわたり各種の問題が提起さ
れ、言われ続けてきている。にもかかわらず、事実上、
何らの解決策も出現していない。
As described above, in the conventional man-machine interface device, its operability is irrelevant to the motion of the face having various human information. Various problems have been raised and said for many years. Nevertheless, in effect
No solution has emerged.

【0007】本発明は上記実情に鑑みてなされたもの
で、その目的とするところは、オペレータの顔を映した
画像信号から有用な情報を抽出し、その抽出した情報に
基いて操作画面の制御を行うことができるようにしたグ
ラフィカルマンマシンインタフェース装置を提供するこ
とにある。
The present invention has been made in view of the above circumstances. An object of the present invention is to extract useful information from an image signal showing an operator's face and to control an operation screen based on the extracted information. It is to provide a graphical man-machine interface device capable of performing.

【0008】具体的には一つは、画像信号からオペレー
タの表情を抽出し、その表情データに基いて画面に表示
する操作説明を選択し、オペレータの能力に応じた説明
を表示することができる、というものである。
Specifically, one can extract the facial expression of the operator from the image signal, select the operation explanation to be displayed on the screen based on the facial expression data, and display the explanation according to the ability of the operator. , Is.

【0009】更に一つは、その画像信号からオペレータ
の視覚情報を抽出し、その視覚データに基いてポインテ
ィングデバイスとしての制御を達成しよう、というもの
である。
Further, one is to extract the visual information of the operator from the image signal and achieve control as a pointing device based on the visual data.

【0010】[0010]

【課題を解決するための手段】本発明の第1のマンマシ
ンインタフェース装置は、表示手段と、複数種類の説明
データを記憶する説明データ記憶手段と、画像認識信号
の指示に従って上記複数種類の説明データの中から特定
の説明データを選定し、この特定の説明データを操作説
明として上記表示手段に表示させる表示制御手段と、撮
像手段と、人間の顔を映した画像信号から表情に関連す
るファクタを抽出してその表情に現れる感情を認識し、
その認識処理の結果を上記画像認識信号として上記表示
制御手段に与える画像認識手段とを備えていることを特
徴としている。
A first man-machine interface device of the present invention comprises a display means, an explanation data storage means for storing a plurality of kinds of explanation data, and a plurality of kinds of explanations according to an instruction of an image recognition signal. A specific explanation data is selected from the data, and a display control means for displaying the particular explanation data on the display means as an operation explanation, an image pickup means, and a factor related to a facial expression from an image signal showing a human face. And recognize the emotion that appears in the facial expression,
An image recognizing means for providing the display control means with the result of the recognition processing as the image recognition signal is provided.

【0011】本発明の第2のマンマシンインタフェース
装置は、表示手段と、位置データを記憶する位置データ
記憶手段と、上記位置データの指示に従ってポインタを
上記表示手段に表示させる表示制御手段と、撮像手段
と、人間の顔を映した画像信号から視線に関連するファ
クタを抽出してその視線の現す画面位置を認識し、その
認識処理の結果を上記画像認識信号として上記表示制御
手段に与える画像認識手段とを備えていることを特徴と
する。
A second man-machine interface device of the present invention comprises display means, position data storage means for storing position data, display control means for displaying a pointer on the display means according to an instruction of the position data, and image pickup. Means for recognizing the screen position represented by the line of sight by extracting a factor related to the line of sight from the image signal showing the human face and giving the result of the recognition processing to the display control means as the image recognition signal. And means.

【0012】[0012]

【作用】本発明の第1の装置によれば、画像信号を通じ
て操作者の操作に対する習熟度を常に判断し、それに応
じて説明表示を切替えるため、操作者本位の対応が可能
となる。
According to the first device of the present invention, the proficiency level with respect to the operation of the operator is always judged through the image signal, and the explanation display is switched in accordance with the proficiency level.

【0013】また、本発明の第2の装置によれば、画像
信号を通じて操作者の視線を追跡し、それに応じてポイ
ンタを移動制御させるため、操作者は、目や顔を動かす
だけで、表面画面上のポインタを自由に移動させること
ができ、迅速かつ快適な作業をなし得る。
Further, according to the second device of the present invention, the line of sight of the operator is tracked through the image signal and the movement of the pointer is controlled in accordance with the line of sight of the operator. The pointer on the screen can be moved freely, and quick and comfortable work can be performed.

【0014】[0014]

【実施例】以下に本発明の実施例について図面を参照し
つつ説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】図1及び図2は本発明の第1のマンマシン
インタフェース装置に係る一実施例の構成を示すもので
ある。
1 and 2 show the construction of an embodiment of a first man-machine interface device of the present invention.

【0016】まず、図1(a)において、1はマイクロ
コンピュータ本体であり、これには、CPU、動作プロ
グラムやデータが書込まれたROM、多用途のRAM、
画像メモリ、インタフェース等が内蔵されており、後述
する画像信号取込みボード、画像処理ボード、ニューラ
ルネットワークボード、制御演算ボード等も、この本体
1内に配置されている。この本体1には、テレビカメラ
2、ディスプレイ3、キーボード4、マウス5が接続さ
れている。レイアウトとしては、本体1上にディスプレ
イ3が載置され、このディスプレイ3上面中心部にカメ
ラ2が載置されたものとされている。
First, in FIG. 1A, reference numeral 1 is a microcomputer main body, which includes a CPU, a ROM in which operating programs and data are written, a versatile RAM,
An image memory, an interface, etc. are built in, and an image signal acquisition board, an image processing board, a neural network board, a control operation board, etc., which will be described later, are also arranged in the main body 1. A TV camera 2, a display 3, a keyboard 4, and a mouse 5 are connected to the main body 1. As for the layout, the display 3 is placed on the main body 1, and the camera 2 is placed on the center of the upper surface of the display 3.

【0017】このようなレイアウトにて、カメラ2が操
作者、特に顔全体を撮影し、その画像信号が本体1に取
込まれる。本体1はその画像信号をA/D変換したデー
タに基いて操作者の感情を認識し、その結果に従って、
メモリにプリセットされている複数種類の説明データの
中からその時の操作者の感情に適した操作説明のものを
引出し、これをディスプレイ3の画面上に表示する。操
作者はその説明を参考にキーボード4やマウス5を使用
した操作を進めることができるものである。以上が概要
である。
With such a layout, the camera 2 captures an image of the operator, especially the entire face, and the image signal is captured by the main body 1. The main body 1 recognizes the emotion of the operator based on the data obtained by A / D converting the image signal, and according to the result,
The operation explanation suitable for the operator's feeling at that time is extracted from a plurality of kinds of explanation data preset in the memory, and this is displayed on the screen of the display 3. The operator can proceed with the operation using the keyboard 4 and the mouse 5 with reference to the explanation. The above is a summary.

【0018】次に、図1(b)は当該マンマシンインタ
フェース装置のシステム構成をブロック図として示すも
のであり、図1(c)はその動作の一例について流れを
示すものである。
Next, FIG. 1B shows a system configuration of the man-machine interface device as a block diagram, and FIG. 1C shows a flow of an example of the operation.

【0019】装置は、上記したカメラ2及びディスプレ
イ3の他、画像信号取込みボード6と画像処理ボード7
とニューラルネットワークボード8と制御演算ボード9
とを備えることにより大略構成される。
In addition to the camera 2 and the display 3 described above, the apparatus includes an image signal acquisition board 6 and an image processing board 7.
And neural network board 8 and control operation board 9
It is generally configured by including and.

【0020】カメラ2からの画像信号は画像信号取込み
ボード6においてA/D変換され、画像処理ボード7に
入力される。この画像処理ボード7は、入力されたデー
タをメモリに一旦格納しておき、このメモリ内のデータ
を用いて必要な画像データを抽出する。図1(c)のO
P1を参照すると、不安そうな表情が目、眉、口で分か
る。そこで、画像処理ボード7では、例えば、まずエッ
ジ検出を行って、人の顔の表情に関するそのキーポイン
トとなる目、眉、口などの形を抽出する。
The image signal from the camera 2 is A / D converted by the image signal acquisition board 6 and input to the image processing board 7. The image processing board 7 temporarily stores the input data in the memory and extracts the necessary image data using the data in the memory. O in Figure 1 (c)
Referring to P1, an uneasy facial expression can be seen with eyes, eyebrows, and mouth. Therefore, in the image processing board 7, for example, edge detection is first performed to extract shapes such as eyes, eyebrows, and mouths, which are the key points regarding the facial expression of a person.

【0021】画像処理ボード7からの画像データはニュ
ーラルネットワークボード8に供給される。このニュー
ラルネットワークは、与えられる画像データに基いて表
情、そして感情を認識するように学習させたもので、例
えば図2に示すような構成のものを使用すると望まし
い。ニューラルネットワークボード8は画像処理ボード
7からの画像データに基いてその人の表情に現れる感情
を認識し、その結果を出力する。例えば、図1(c)の
OP2で示すように、焦っているか否かがここで判定さ
れ、その結果が出力される。ここで、OP1の絵が示す
ように、不安そうな表情を目、眉、口等のデータが現し
ている場合、例えば、あせっている(YES)と判定す
る。
The image data from the image processing board 7 is supplied to the neural network board 8. This neural network is trained so as to recognize facial expressions and emotions based on given image data, and it is desirable to use the neural network having the structure shown in FIG. 2, for example. The neural network board 8 recognizes the emotion appearing in the person's facial expression based on the image data from the image processing board 7, and outputs the result. For example, as indicated by OP2 in FIG. 1C, it is determined here whether or not the user is in a hurry, and the result is output. Here, as shown in the picture of OP1, when the data of eyes, eyebrows, mouth, and the like show an uneasy facial expression, it is determined to be agitated (YES), for example.

【0022】制御演算ボード9は、図1(c)にOP3
として示すようにニューラルネットワークボード8の出
力に従ってメモリの各種説明データの中から適当なもの
を引出してディスプレイ3を表示制御する。ここで、O
P2における判定がYESであれば、OP3において易
しい説明が選択され、OP4にてディスプレイ3には易
しい不慣れな人向きの操作説明が表示される。
The control arithmetic board 9 is OP3 in FIG.
As indicated by, the appropriate data is extracted from the various explanation data in the memory according to the output of the neural network board 8 and the display 3 is displayed and controlled. Where O
If the determination in P2 is YES, the easy explanation is selected in OP3, and in OP4, the easy operation explanation for the unfamiliar person is displayed on the display 3.

【0023】以上のような動作が常時行われ、操作者の
表情変化に応じて操作説明の維持や切替えが行われる。
The above-described operation is always performed, and the operation explanation is maintained or switched according to the change in the facial expression of the operator.

【0024】なお、上記システムでは操作者の目、眉、
口を検出するようにしているが、汗なども検出しても、
焦りの度合いの判定に有効である。また、皺の検出を行
い、一般にこの類の装置に拒否感を抱きがちなご老人に
対応するようなことも可能である。また、音声出力装置
があれば適時操作者に易しい声をかけることも可能であ
る。
In the above system, the operator's eyes, eyebrows,
I try to detect my mouth, but even if I detect sweat,
This is effective in determining the degree of impatience. It is also possible to detect wrinkles and respond to elderly people, who generally tend to feel a sense of refusal in this type of device. In addition, if there is a voice output device, it is possible to give an easy voice to the operator in a timely manner.

【0025】また、上記システムでは画像処理ボード7
におけるエッジ検出により目、眉、口等の表情ファクタ
を抜出すようにしているが、この表情ファクタの抽出を
もニューラルネットワークにより行うようにしても良
い。
In the above system, the image processing board 7
Although the facial expression factors such as eyes, eyebrows, and mouth are extracted by the edge detection in (3), the facial expression factors may be extracted by a neural network.

【0026】次に図2を参照しつつニューラルネットワ
ークボード8の詳細について説明する。
Next, the details of the neural network board 8 will be described with reference to FIG.

【0027】ニューラルネットワークボード8は、複数
個のニューラルネットワークユニットNNにより大規模
に構築されたものであって、それぞれが独立して学習用
入力信号と教師信号とを入力し、各自において個別に学
習可能なものである。
The neural network board 8 is constructed on a large scale by a plurality of neural network units NN, each of which independently inputs a learning input signal and a teacher signal, and individually learns by itself. It is possible.

【0028】各ユニットNN間には切替えスイッチSW
が接続されており、各ユニットNNの出力端はその一方
の入力端に接続され、他方の入力端には学習用画像入力
信号が供給されるようになっている。
A changeover switch SW is provided between each unit NN.
Are connected, the output end of each unit NN is connected to one of its input ends, and the learning image input signal is supplied to the other input end.

【0029】図2(b)では各ユニットNNとスイッチ
SWとを拡大して示しており、同図(a)では入出力ラ
インが1本、対応的にスイッチが1個として示されてい
る。しかし、実際には同図(b)に示すように、各ユニ
ットNNは複数本の入出力ラインを備え、スイッチSW
はその入出力側に位置するユニットNNの出力ラインあ
るいは入力ラインの数に対応する個数設けられる。
In FIG. 2B, each unit NN and the switch SW are enlarged and shown, and in FIG. 2A, one input / output line and one switch are shown correspondingly. However, in actuality, as shown in FIG. 3B, each unit NN has a plurality of input / output lines and a switch SW.
Are provided in a number corresponding to the number of output lines or input lines of the unit NN located on the input / output side.

【0030】学習の際には、各切替えスイッチSWがa
側に設定され、各ユニットNNに学習用入力画像データ
ならびに教師データを与え、各個別の出力信号を見て各
個で独自のデータを出力するようになるまで学習を行
う。各ユニットNNの出力が所定のデータを出力するよ
うになる、つまり収束すると、全ての切替えスイッチS
Wをb側に設定し、各個の機能の組合わせからなる大規
模ニューラルネットワークボード8を構築する。
At the time of learning, each changeover switch SW is a
The learning input image data and the teaching data are set to each unit NN, and learning is performed until each individual output signal is viewed and individual data is output. When the output of each unit NN comes to output predetermined data, that is, when it converges, all the changeover switches S
W is set to the b side, and a large-scale neural network board 8 composed of a combination of individual functions is constructed.

【0031】ここで例としてニューラルネットワークに
より顔全体の画像の中から目、眉、口の抽出までも行う
場合を考える。各素子の機能の割当ては、NN11が顔全
体の画像からの目の抽出、NN21が目の位置・大きさ補
正、NN31が目の緊張パターン検出、NN12が顔全体の
画像からの眉の抽出、NN22が眉の位置・大きさ補正、
NN32が眉の緊張パターン検出、NN13が顔全体の画像
からの口の抽出、NN23が口の位置・大きさ補正、NN
33が口の緊張パターン検出、をそれぞれ担うものとす
る。
Here, as an example, consider a case where the eyes, eyebrows, and mouth are also extracted from the image of the entire face by a neural network. The functions of each element are assigned such that NN 11 extracts the eyes from the image of the entire face, NN 21 corrects the position and size of the eyes, NN 31 detects the tension pattern of the eyes, and NN 12 detects the image of the entire face. Eyebrow extraction, NN 22 corrects eyebrow position and size,
NN 32 detects the eyebrow tension pattern, NN 13 extracts the mouth from the image of the entire face, NN 23 corrects the position and size of the mouth, NN
33 shall be responsible for detecting the tension pattern of the mouth.

【0032】このような場合、ユニットNN11の学習用
入力画像データとしては顔全体の映った画像データ、教
師データとしては目を示唆するデータを与え、その出力
が目を抽出するようになるまであらゆるパターンを与え
て学習させる。これにより、ユニットNN11は目の形、
他の部分との位置的関係等を含む総合的特徴検出能力を
内包したようになり人間が見て判断するときのように顔
の中から目を特定するようになる。
In such a case, the image data showing the entire face is given as the input image data for learning of the unit NN 11 , and the data suggesting the eyes is given as the teacher data, until the output extracts the eyes. Give and learn every pattern. As a result, the unit NN 11 has the shape of an eye,
It seems to include the comprehensive feature detection ability including the positional relationship with other parts, so that the eyes can be specified from the face as when a human sees and judges.

【0033】ユニットNN21の学習用入力画像データと
しては各種位置に存在する各種の大きさの目を示すパタ
ーン(つまり、システム実使用時にユニットNN11が出
力すると予想される各種のパターン)を与え、教師デー
タとしては対応するパターンの位置及び大きさ補正後の
パターンを与え、学習を繰返す。これにより、ユニット
NN21は、やがて、あらゆる位置に存在するあらゆる大
きさの目を一定の位置・一定の大きさに補正した目のパ
ターンを出力するようになる。
As the learning input image data of the unit NN 21 , patterns showing eyes of various sizes existing at various positions (that is, various patterns expected to be output by the unit NN 11 when the system is actually used) are given. As the teacher data, the position and size of the corresponding pattern are corrected, and the learning is repeated. As a result, the unit NN 21 eventually outputs an eye pattern in which eyes of all sizes existing at all positions are corrected to have a fixed position and a fixed size.

【0034】ユニットNN31の学習用入力画像データと
しては位置・大きさが定まっているが形状が様々の目の
パターン(すなわち、ユニットNN21から出力されると
予想される各種のパターン)を与え、教師データとし
て、対応するパターンが緊張パターンか否か(「1」Po
ssitive or 「0」Negative)のいずれであるかを示すデ
ータを与え、「1」、「0」の答えが一定の率で当たる
ようになるまで(例えば、人が見ても緊張しているのか
否かの判別が難しい場合を除いて正答するようになるま
で)学習を繰返させる。
The input image data for learning of the unit NN 31 are given as eye patterns whose positions and sizes are fixed but whose shapes are various (that is, various patterns expected to be output from the unit NN 21 ). , As the teacher data, whether the corresponding pattern is a tension pattern (“1” Po
ssitive or "0" Negative) is given, and until the answer of "1" or "0" is hit at a certain rate (for example, is the person nervous when they see it? Repeat learning until correct answer is obtained unless it is difficult to determine whether or not).

【0035】眉や口についても同様である。要約する
と、ユニットNN12にはあらゆる顔全体の映った画像デ
ータ(学習用入力画像データ)、その眉を示唆する画像
データ(教師データ)を与え、ユニットNN22には各種
位置に存在する各種の大きさの眉を示すパターン(学習
用入力画像データ)、その位置・大きさを定めた眉のパ
ターン(教師データ)、ユニットNN32には位置・大き
さが定まっているが形状が様々の眉のパターン(学習用
入力画像データ)、対応するパターンが緊張パターンか
否か(「1」Possitive or 「0」Negative)のいずれで
あるかを示すデータ(教師データ)を与え、それぞれ学
習させる。また、ユニットNN13にはあらゆる顔全体の
映った画像データ(学習用入力画像データ)、その口を
示唆する画像データ(教師データ)を与え、ユニットN
23には各種位置に存在する各種の大きさの口を示すパ
ターン(学習用入力画像データ)、その位置・大きさを
定めた口のパターン(教師データ)、ユニットNN33
は位置・大きさが定まっているが形状が様々の口のパタ
ーン(学習用入力画像データ)、対応するパターンが緊
張パターンか否か(「1」Possitive or 「0」Negativ
e)のいずれであるかを示すデータ(教師データ)を与
え、それぞれ学習させることとなる。
The same applies to the eyebrows and mouth. In summary, the unit NN 12 is provided with image data (learning input image data) showing all the faces and image data (teacher data) suggesting the eyebrows, and the unit NN 22 is provided with various types of data existing at various positions. A pattern indicating a size eyebrow (input image data for learning), a pattern of an eyebrow that defines the position and size thereof (teacher data), and a unit NN 32 in which the position and size are fixed, but various shapes of eyebrows. Pattern (learning input image data) and data (teaching data) indicating whether the corresponding pattern is a tension pattern or not (“1” Possible or “0” Negative), and each is learned. Further, the unit NN 13 is supplied with image data (input image data for learning) in which all faces are reflected, and image data (teacher data) suggesting the mouth,
The N 23 shows the various sizes of the mouth present in various position pattern (learning input image data), the pattern of the mouth which defines the position and size (teacher data), position, size the unit NN 33 Patterns with various shapes but different shapes (input image data for learning) and whether the corresponding patterns are tension patterns (“1” Possible or “0” Negativ)
Data (teacher data) indicating which one of e) is given is learned.

【0036】そして、それぞれの学習が収束したら各切
替えスイッチSW(i-1)jをb側に設定し実際に使用する
と、各ユニットNNijの連繋機能により最終的な判断が
得られるようになる。
Then, when each learning converges, when each changeover switch SW (i-1) j is set to the b side and actually used, the final judgment can be obtained by the connecting function of each unit NNij.

【0037】ここで、ニューラルネットワークによるシ
ステムの構築は、上記ユニットNNijのような小ユニッ
トの組合わせによらず、最初から大きな規模のニューラ
ルネットワークを学習させることも考えられる。これで
もシステムの構築自体は可能である。
Here, in constructing a system using a neural network, it is possible to learn a large-scale neural network from the beginning regardless of the combination of small units such as the unit NNij. Even with this, the system itself can be constructed.

【0038】しかし、学習しなければならない要素が多
いことから繁雑な学習となり、収束に長時間を要するよ
うになって規模が制限されてしまうことになる。
However, since there are many elements that must be learned, learning becomes complicated, and it takes a long time to converge, which limits the scale.

【0039】これに対し、上記した小ユニットの組合わ
せによれば、ユニット各個で学習を収束させ得るため、
学習を効率良く行うことができ、全てのユニットを並列
的に学習できるとしたときには規模が大きくなっても学
習時間が変わらず、そのような意味で規模に制限を受け
ることがなくなる。
On the other hand, according to the combination of the above-mentioned small units, the learning can be converged in each unit.
Learning can be performed efficiently, and if all units can be learned in parallel, the learning time does not change even if the scale increases, and in that sense the scale is not limited.

【0040】よって、上記実施例では9個のユニットか
らなるニューラルネットワークを取上げたが、これに限
定されることはなく、より大規模のニューラルネットワ
ークの構築が可能である。
Therefore, in the above embodiment, the neural network consisting of 9 units was taken up, but the present invention is not limited to this, and a larger scale neural network can be constructed.

【0041】次に、コンピュータを多少なりとも専門に
取扱っている人の間で言われている問題を紹介する。そ
れは、やはり機械への画面を通じた入力操作に関連する
問題であり、ポインティングデバイスの使用に際して言
われているものである。この種の機器としては、従来、
タッチペン、マウスなどがあるが、いずれも人が手によ
ってポインタを移動するものであり、それもポインタの
移動のたびに、操作者が比較的大きな動作をする必要が
ある。例えばマウスで画面内のカーソルを動かすことを
考えると、まず、マウスを手にとり、マウスパッドや卓
上等の所定の場所でそれを移動させ、カーソルの位置が
決まったらボタンをクリックする、というものである。
このような動作のステップを踏まなければならないこと
や、カーソルをイメージした軌道で運べない場合もあ
り、急ぎの作業が要求されているのに、このような状態
では、苛々がつのり、ついには誤操作、という悪循環を
生むことにもなり兼ねない。
Next, problems introduced by people who handle computers in a more or less specialized manner will be introduced. It is also a problem related to the input operation through the screen to the machine, which is said when using the pointing device. As this type of equipment,
There are a touch pen, a mouse, and the like, but each of them requires a person to move the pointer by hand, and each time the pointer is moved, the operator needs to perform a relatively large operation. For example, considering moving the cursor on the screen with the mouse, first take the mouse, move it at a predetermined place such as a mouse pad or tabletop, and click the button when the cursor position is decided. is there.
In some cases, it is necessary to take urgent work because it is necessary to take steps of such movements and it may not be possible to move in a trajectory that imagines the cursor. It may also create a vicious circle.

【0042】更に一つは、その画像信号からオペレータ
の視覚情報を抽出し、その視覚データに基いてポインテ
ィングデバイスとしての制御を達成しよう、というもの
である。
Further, one is to extract visual information of an operator from the image signal and achieve control as a pointing device based on the visual data.

【0043】本発明の第2のマンマシンインタフェース
装置は、表示手段と、位置データを記憶する位置データ
記憶手段と、上記位置データの指示に従ってポインタを
上記表示手段に表示させる表示制御手段と、撮像手段
と、人間の顔を映した画像信号から視線に関連するファ
クタを抽出してその視線の現す画面位置を認識し、その
認識処理の結果を上記画像認識信号として上記表示制御
手段に与える画像認識手段とを備えていることを特徴と
する。
The second man-machine interface device of the present invention comprises display means, position data storage means for storing position data, display control means for displaying a pointer on the display means in accordance with an instruction of the position data, and image pickup. Means for recognizing the screen position represented by the line of sight by extracting a factor related to the line of sight from the image signal showing the human face and giving the result of the recognition processing to the display control means as the image recognition signal. And means.

【0044】また、本発明の第2の装置によれば、画像
信号を通じて操作者の視線を追跡し、それに応じてポイ
ンタを移動制御させるため、操作者は、目や顔を動かす
だけで、表面画面上のポインタを自由に移動させること
ができ、迅速かつ快適な作業をなし得る。
Further, according to the second device of the present invention, the operator's line of sight is tracked through the image signal and the pointer is moved and controlled accordingly, so that the operator can move the surface of the surface only by moving the eyes or face. The pointer on the screen can be moved freely, and quick and comfortable work can be performed.

【0045】図3〜5は本発明の第2のマンマシンイン
タフェース装置に係る一実施例の構成を示すものであ
る。
3 to 5 show the configuration of an embodiment according to the second man-machine interface device of the present invention.

【0046】その中で図5はハードウエアの構成をブロ
ック図として示している。
Among them, FIG. 5 shows a hardware configuration as a block diagram.

【0047】この図に示すマンマシンインタフェース装
置は画像認識処理を担うシステムと表示処理を担うシス
テムとの大別することができる。前者はCPU501と
バス502とROM503とRAM504とフレームメ
モリ(RAM)505,506とテレビカメラ507と
A/Dコンバータ508とスイッチ509とパラレルイ
ンタフェース510とを含み、後者表示処理システムは
CPU511とディスプレイコントローラ512とディ
スプレイ513とを備える。
The man-machine interface device shown in this figure can be roughly classified into a system for image recognition processing and a system for display processing. The former includes a CPU 501, a bus 502, a ROM 503, a RAM 504, frame memories (RAM) 505 and 506, a television camera 507, an A / D converter 508, a switch 509, and a parallel interface 510, and a latter display processing system includes a CPU 511 and a display controller 512. And a display 513.

【0048】CPU501はROM503に格納されて
いるプログラム及びデータに則って作動することによ
り、各種の制御を司る。RAM504は、その制御動作
にあたって、バッファ、ステータスを表示するレジスタ
等の様々な目的に使用されるものである。よって、例え
ば現在のポインタの位置は、このRAM504において
記憶保持しておく。
The CPU 501 manages various controls by operating according to programs and data stored in the ROM 503. The RAM 504 is used for various purposes such as a buffer and a register for displaying status in the control operation. Therefore, for example, the current position of the pointer is stored and held in the RAM 504.

【0049】テレビカメラ507は例えば上記第1のマ
ンマシンインタフェース装置の実施例と同様にディスプ
レイ513の上部に設置され、操作者の少なくとも顔全
体が入るように上半身を撮像する。A/Dコンバータ5
08はCPU501の制御に従って、このカメラ507
からの画像信号を例えば1画素あたり4ビット(16階
調)のデータとしてディジタル化する。このディジタル
化された1フレーム分のデータがRAM505に格納さ
れる。CPU501は、このRAM505内のデータに
ついて後述する2値化処理を行ってRAM506に格納
し、ポインタ制御用のデータとして使用する。
The television camera 507 is installed on the upper part of the display 513 as in the case of the first man-machine interface device, for example, and images the upper body so that at least the entire face of the operator can enter. A / D converter 5
08 is a camera 507 under the control of the CPU 501.
The image signal from is digitized as, for example, 4-bit (16 gradations) data per pixel. The digitized data for one frame is stored in the RAM 505. The CPU 501 performs binarization processing described later on the data in the RAM 505, stores the data in the RAM 506, and uses it as data for pointer control.

【0050】スイッチ509は、キーボード、ディジタ
イザ等における所定のキーやマウスのクリックボタン等
により構成され、操作者へのメッセージに対する応答や
ポインタの指示するメニューの選択等に使用される。
The switch 509 is composed of a predetermined key in a keyboard, a digitizer, etc., a mouse click button, etc., and is used for responding to a message to the operator, selecting a menu instructed by the pointer, and the like.

【0051】表示処理系のCPU511はパラレルイン
タフェース510を通じてのCPU501との通信やデ
ィスプレイコントローラ512の制御を司るものであ
り、CPU501から表示制御用命令を受信すると、デ
ィスプレイコントローラ512にその命令に従った処理
を遂行するように指示を出す。ディスプレイコントロー
ラ512はCPU511の命令に応じてディスプレイ5
13の表示制御を行う。例えば、CPU511からの命
令がポインタの移動命令であった場合、ディスプレイコ
ントローラ512はディスプレイ513の画面上のポイ
ンタを指示された位置まで移動させることとなる。
The display processing CPU 511 controls communication with the CPU 501 through the parallel interface 510 and control of the display controller 512. When a display control command is received from the CPU 501, the display controller 512 performs processing in accordance with the command. Give instructions to carry out. The display controller 512 displays the display 5 in response to a command from the CPU 511.
Display control of 13 is performed. For example, when the instruction from the CPU 511 is a pointer movement instruction, the display controller 512 moves the pointer on the screen of the display 513 to the designated position.

【0052】図3はROM503に格納されたポインタ
制御プログラム、つまりCPU501の動作の流れを示
すものである。
FIG. 3 shows a pointer control program stored in the ROM 503, that is, a flow of operations of the CPU 501.

【0053】電源が投入されると(=S101)、マイ
クロプロセッサ501は初期化を実行し、内部レジス
タ、カウンタ、RAM504〜506をクリアする(=
S102)。
When the power is turned on (= S101), the microprocessor 501 executes initialization and clears the internal registers, counters, and RAMs 504 to 506 (=).
S102).

【0054】そして、ディスプレイ513上の点(X1
,Y1 )に位置の基準となるポインタを表示し(=S
103)、オペレータに対して、ポインタを見ながらス
イッチ509を押すようにディスプレイ513上にメッ
セージを表示する。スイッチ509が押されると、目の
位置検出を行い、RAM8にその座標(x1 ,y1 )を
メモリする(S104)。
Then, the point (X1
, Y1) displays the pointer as the position reference (= S
103), a message is displayed on the display 513 so that the operator can press the switch 509 while looking at the pointer. When the switch 509 is pressed, the eye position is detected and the coordinates (x1, y1) are stored in the RAM 8 (S104).

【0055】次に、マイクロプロセッサ5は、ディスプ
レイ4上の点(X1 ,Y1 )のポインタを消し、それと
は異なる点(X2 ,Y2 )にポインタを表示し、前回と
同様に、オペレータに対して、ポインタを見ながらスイ
ッチ509を押すようにディスプレイ513上にメッセ
ージを表示する(=S105)。ただし(X2 ,Y2)
は、行列
Next, the microprocessor 5 erases the pointer at the point (X1, Y1) on the display 4, displays the pointer at a different point (X2, Y2), and in the same manner as the previous time, prompts the operator to do so. , A message is displayed on the display 513 such that the switch 509 is pressed while looking at the pointer (= S105). However (X2, Y2)
Is the matrix

【0056】[0056]

【数1】 がフルランクとなるように選ばれているものとする。[Equation 1] Shall be chosen to have a full rank.

【0057】そして、再び目の位置検出を行って(=S
106)、その座標(x2 ,y2 )をRAM504に記
憶し、ディスプレイ513上のポインタ及びメッセージ
を消すこととなる。
Then, the eye position is detected again (= S
106), the coordinates (x2, y2) are stored in the RAM 504, and the pointer and message on the display 513 are erased.

【0058】ディスプレイ上の2点(X1 ,Y1 ),
(X2 ,Y2 )とそれに対応する画像データ上の2点
(x1 ,y1 ),(x2 ,y2 )から、以下の演算によ
って2×2の行列Aを求め、RAM504に記憶する
(=S108)。
Two points (X1, Y1) on the display,
From (X2, Y2) and the corresponding two points (x1, y1) and (x2, y2) on the image data, a 2 × 2 matrix A is obtained by the following calculation and stored in the RAM 504 (= S108).

【0059】[0059]

【数2】 この行列Aは、テレビカメラ2からの画像データの目の
位置から、ディスプレイ上のポインタの位置を決める座
標変換行列となる。
[Equation 2] This matrix A is a coordinate conversion matrix that determines the position of the pointer on the display from the position of the eyes of the image data from the television camera 2.

【0060】この変換行列Aが得られると、マイクロプ
ロセッサ501は、テレビカメラ507からの新たな画
像のデータから、目の位置検出を行い、その座標(x,
y)をRAM504に記憶する。そして以下の式によっ
てディスプレイ513に表示するポインタの位置(X,
Y)を計算してパラレルインタフェース510にポイン
タ位置信号を出力し、目の位置検出に戻る。
When this conversion matrix A is obtained, the microprocessor 501 detects the position of the eyes from the data of the new image from the television camera 507, and the coordinates (x,
y) is stored in the RAM 504. The position of the pointer displayed on the display 513 (X,
Y) is calculated, a pointer position signal is output to the parallel interface 510, and the process returns to eye position detection.

【0061】[0061]

【数3】 CPU511は、パラレルインタフェース510からポ
インタ位置信号を受取ると、ポインタの位置を出力する
命令をディスプレイコントローラ512に出力する。
[Equation 3] Upon receiving the pointer position signal from the parallel interface 510, the CPU 511 outputs a command for outputting the pointer position to the display controller 512.

【0062】手元にはスイッチ509が置かれ、これが
押され、CPU501は、そのスイッチオン信号を受取
ると、これをトリガとして現在のポインタ位置信号を選
択する。
When the switch 509 is placed at hand and pushed, and the CPU 501 receives the switch-on signal, the CPU 501 selects the current pointer position signal using this as a trigger.

【0063】図4は図2に示すS104,106,10
8で行われる目の位置検出処理の内容を詳細に示すもの
である。
FIG. 4 shows steps S104, 106 and 10 shown in FIG.
8 shows details of the eye position detection processing performed in 8.

【0064】この図を参照してマイクロプロセッサ50
1の動作を説明すると、まずテレビカメラ507から1
フレーム分の画像データをメモリ505に書込む(=S
201)。そして、これを2値化し(=S202)、1
画素あたり1ビットの画像有無を表す2値データをRA
M506に記憶する。
Referring to this figure, the microprocessor 50
1 will be described. First, the TV cameras 507 to 1
Write image data for a frame in the memory 505 (= S
201). Then, this is binarized (= S202), 1
RA of binary data representing the presence or absence of a 1-bit image per pixel
Store in M506.

【0065】そして、この2値データに基づいて瞳の中
心の位置検出を行うこととなる(=S204)。
Then, the position of the center of the pupil is detected based on this binary data (= S204).

【0066】この検出が成功すると、カウンタをクリア
して(=S205)、図3のS105,S107,S1
09のいずれかに移行する。
When this detection is successful, the counter is cleared (= S205) and S105, S107, S1 in FIG.
09.

【0067】この瞳の位置検出に失敗したときは、カウ
ンタの内容を1大きい値に更新して(=S206)、カ
ウンタの内容が15に達しているかどうかをチェックし
(=S207)、15に達していないと、2値化の参照
値を1小さい数に更新し(=S209)、その参照値を
用いて再び2値化処理(=S202,S203)、位置
検出(=SS204)を行う。16回の位置検出に失敗
すると、画像データが適当でなかったものとして、カウ
ンタをクリアし(=S208)、ポインタの表示に戻
る。この失敗の原因には、例えば、目の不在、画像のコ
ントラストの悪さ等が上げられる。このような場合、画
像を取り直し、再び目の位置検出をやり直すようにして
いるものである。
When the pupil position detection fails, the counter content is updated to a value larger by 1 (= S206), and it is checked whether the counter content has reached 15 (= S207). If not reached, the reference value for binarization is updated to a number smaller by 1 (= S209), the binarization processing (= S202, S203) is performed again using the reference value, and position detection (= SS204) is performed. When the position detection fails 16 times, it is determined that the image data is not appropriate, the counter is cleared (= S208), and the display returns to the pointer. The cause of this failure includes, for example, absence of eyes, poor image contrast, and the like. In such a case, the image is retaken and the eye position is detected again.

【0068】[0068]

【発明の効果】以上説明したように本発明の第1の装置
によれば、常時操作者の表情を監視し、その感情を類推
し、あるいは画像信号を通じて操作者の操作に対する習
熟度を常に判断し、それに応じて説明表示を切替えるた
め、操作者本位の対応が可能となる。この結果、従来の
定型の説明と異なり、操作者に暖かい印象を与えること
ができるのみでなく、適切な説明が常になされることに
より、作業者の作業効率向上も達成される。
As described above, according to the first device of the present invention, the facial expression of the operator is constantly monitored, the emotion thereof is analogized, or the operator's proficiency in the operation is constantly judged through the image signal. Since the explanation display is switched accordingly, it is possible to deal with the operator's standard. As a result, unlike the conventional fixed description, not only a warm impression can be given to the operator, but also an appropriate explanation is always given, so that the working efficiency of the operator is improved.

【0069】また、従来は、定型の説明で対応しきれな
い操作者、例えば、老人や子供に対するために、自動現
金支払装置などでは補助者が必要であった。本装置を用
いれば、このような必要がなくなり、安心して接客を自
動化することができる。
Further, in the past, in order to deal with an operator who cannot deal with the routine description, such as an old man or a child, an assistant has been required in the automatic cash payment apparatus or the like. The use of the present device eliminates such a need and makes it possible to automate customer service with peace of mind.

【0070】次に、本発明の第2の装置によれば、画像
信号を通じて操作者の視線を追跡し、それに応じてポイ
ンタを移動制御させるため、操作者は、目や顔を動かす
だけで、表面画面上のポインタを自由に移動させること
ができ、従来のように比較的大きな手の動作を必要とせ
ず、迅速かつ快適な作業をなし得る。
Next, according to the second device of the present invention, since the operator's line of sight is tracked through the image signal and the pointer is controlled to move accordingly, the operator can move his / her eyes and face, The pointer on the surface screen can be moved freely, and relatively large hand movements are not required as in the conventional case, and quick and comfortable work can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1のマンマシンインタフェース装置
に係る一実施例の構成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of an embodiment according to a first man-machine interface device of the present invention.

【図2】図1に示すニューラルネットワークボードの構
成を示すブロック図。
FIG. 2 is a block diagram showing a configuration of a neural network board shown in FIG.

【図3】本発明の第2のマンマシンインタフェース装置
に係る一実施例のポインタ制御の処理内容を示すフロー
チャート。
FIG. 3 is a flowchart showing the processing contents of pointer control of one embodiment according to the second man-machine interface device of the present invention.

【図4】図3に示す目の位置検出処理の内容を詳細に示
すフローチャート。
FIG. 4 is a flowchart showing details of the eye position detection processing shown in FIG.

【図5】図3及び図4に示す処理を実行するポインティ
ングデバイスシステムのハードウエア構成を示すブロッ
ク図。
5 is a block diagram showing a hardware configuration of a pointing device system that executes the processing shown in FIGS. 3 and 4. FIG.

【符号の説明】[Explanation of symbols]

1 マイクロコンピュータ本体 2 テレビカメラ 3 ディスプレイ 4 キーボード 5 マウス 6 画像信号取込みボード 7 画像処理ボード 8 ニューラルネットワークボード 9 制御演算ボード NN11,…,NN33 ニューラルネットワークユニット SW11,…,SW23 切替えスイッチ IN11,…,IN33 実入力データ INs11 ,…,INs33 学習用入力データ INt11 ,…,INt33 教師データ 501 画像認識処理系のCPU 502 バス 503 ROM 504 汎用のRAM 505 階調データ格納用フレームメモリとしてのRA
M 506 2値データ格納用フレームメモリとしてのRA
M 507 テレビカメラ 508 A/Dコンバータ 509 スイッチ 510 パラレルインタフェース 511 表示処理系のCPU 512 ディスプレイコントローラ 513 ディスプレイ
1 Microcomputer main body 2 Television camera 3 Display 4 Keyboard 5 Mouse 6 Image signal acquisition board 7 Image processing board 8 Neural network board 9 Control operation board NN 11 , ..., NN 33 Neural network unit SW 11 , ..., SW 23 Changeover switch IN 11 , ..., IN 33 Actual input data IN s11 , ..., IN s33 Learning input data IN t11 , ..., IN t33 Teacher data 501 CPU of image recognition processing system 502 Bus 503 ROM 504 General-purpose RAM 505 For storing gradation data RA as frame memory
RA as a frame memory for storing M506 binary data
M 507 TV camera 508 A / D converter 509 Switch 510 Parallel interface 511 Display processing CPU 512 Display controller 513 Display

フロントページの続き (72)発明者 林 真 司 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内 (72)発明者 篠 原 和太郎 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内 (72)発明者 大 矢 純 子 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内 (72)発明者 村 井 雅 彦 神奈川県川崎市幸区小向東芝町1 株式会 社東芝研究開発センター内Front page continuation (72) Inventor Shinji Hayashi 1 Komukai Toshiba-cho, Sachi-ku, Kawasaki-shi, Kanagawa Toshiba Research & Development Center (72) Inventor Kazutaro Shinohara Komukai-shishi-cho, Kawasaki-shi, Kanagawa 1 TOSHIBA CORPORATION R & D Center (72) Inventor Junko OYA Komukai Toshiba Town, Saiwai-ku, Kawasaki City, Kanagawa Prefecture 1 TOSHIBA R & D Center (72) Inventor Masahiko Murai Kawasaki City, Kanagawa Prefecture Komukai Toshiba-cho 1 Kouki-ku, Toshiba Research & Development Center

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】表示手段と、 複数種類の説明データを記憶する説明データ記憶手段
と、 画像認識信号の指示に従って前記複数種類の説明データ
の中から特定の説明データを選定し、該特定の説明デー
タを操作説明として前記表示手段に表示させる表示制御
手段と、 撮像手段と、 人間の顔を映した画像信号から表情に関連するファクタ
を抽出してその表情に現れる感情を認識し、その認識処
理の結果を前記画像認識信号として前記表示制御手段に
与える画像認識手段とを備えているマンマシンインタフ
ェース装置。
1. A display means, an explanation data storage means for storing a plurality of kinds of explanation data, a specific explanation data is selected from the plurality of kinds of explanation data according to an instruction of an image recognition signal, and the particular explanation data is selected. Display control means for displaying data on the display means as an operation explanation, image pickup means, a factor relating to a facial expression is extracted from an image signal showing a human face, and emotions appearing in the facial expression are recognized, and the recognition processing is performed. A man-machine interface device comprising: an image recognition means for giving the display control means the result of the above as the image recognition signal.
【請求項2】表示手段と、 位置データを記憶する位置データ記憶手段と、 前記位置データの指示に従ってポインタを前記表示手段
に表示させる表示制御手段と、 撮像手段と、 人間の顔を映した画像信号から視線に関連するファクタ
を抽出してその視線の現す画面位置を認識し、その認識
処理の結果を前記画像認識信号として前記表示制御手段
に与える画像認識手段とを備えているマンマシンインタ
フェース装置。
2. Display means, position data storage means for storing position data, display control means for displaying a pointer on the display means according to an instruction of the position data, image pickup means, and an image showing a human face. A man-machine interface device comprising: an image recognition means for extracting a factor related to a line of sight from a signal, recognizing a screen position represented by the line of sight, and giving the result of the recognition processing to the display control means as the image recognition signal. .
JP5050791A 1993-03-11 1993-03-11 Man-machine interface device Pending JPH06266497A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP5050791A JPH06266497A (en) 1993-03-11 1993-03-11 Man-machine interface device
US08/208,584 US5619619A (en) 1993-03-11 1994-03-11 Information recognition system and control system using same
US08/782,289 US5832183A (en) 1993-03-11 1997-01-13 Information recognition system and control system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5050791A JPH06266497A (en) 1993-03-11 1993-03-11 Man-machine interface device

Publications (1)

Publication Number Publication Date
JPH06266497A true JPH06266497A (en) 1994-09-22

Family

ID=12868633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5050791A Pending JPH06266497A (en) 1993-03-11 1993-03-11 Man-machine interface device

Country Status (1)

Country Link
JP (1) JPH06266497A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08322796A (en) * 1995-05-29 1996-12-10 Sharp Corp Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
US5649061A (en) * 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
JPH09212322A (en) * 1996-01-30 1997-08-15 Nec Corp Picture size setting device
JPH11316836A (en) * 1998-05-06 1999-11-16 Omron Corp Person identifying
US6850631B1 (en) 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
JP2008004006A (en) * 2006-06-26 2008-01-10 Hitachi Omron Terminal Solutions Corp Currency exchange processing system
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2019159939A (en) * 2018-03-14 2019-09-19 京セラドキュメントソリューションズ株式会社 Electronic device and image forming apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649061A (en) * 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
JPH08322796A (en) * 1995-05-29 1996-12-10 Sharp Corp Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JPH09212322A (en) * 1996-01-30 1997-08-15 Nec Corp Picture size setting device
US6850631B1 (en) 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
JPH11316836A (en) * 1998-05-06 1999-11-16 Omron Corp Person identifying
JP2008004006A (en) * 2006-06-26 2008-01-10 Hitachi Omron Terminal Solutions Corp Currency exchange processing system
JP2010282339A (en) * 2009-06-03 2010-12-16 Seiko Epson Corp Image processor for correcting position of pupil in eye, image processing method, image processing program and printer
JP2019159939A (en) * 2018-03-14 2019-09-19 京セラドキュメントソリューションズ株式会社 Electronic device and image forming apparatus

Similar Documents

Publication Publication Date Title
US6901561B1 (en) Apparatus and method for using a target based computer vision system for user interaction
JP3419050B2 (en) Input device
US5619619A (en) Information recognition system and control system using same
US20100214226A1 (en) System and method for semi-transparent display of hands over a keyboard in real-time
CN105980965A (en) Systems, devices, and methods for touch-free typing
JPH09507936A (en) How to combine handwriting input
CN106843669A (en) Application interface operating method and device
JPH06266497A (en) Man-machine interface device
WO2022052941A1 (en) Intelligent identification method and system for giving assistance with piano teaching, and intelligent piano training method and system
CN103995610A (en) Method for user input from alternative touchpads of a handheld computerized device
CN112286347A (en) Eyesight protection method, device, storage medium and terminal
CN112199015B (en) Intelligent interaction all-in-one machine and writing method and device thereof
CN114445853A (en) Visual gesture recognition system recognition method
CN108733287A (en) Detection method, device, equipment and the storage medium of physical examination operation
US20190027054A1 (en) Systems and methods for a selective visual display system to facilitate geometric shape-based assessments
CN109597483A (en) A kind of meeting scheme apparatus for demonstrating and method based on body feeling interaction
CN114581535A (en) Method, device, storage medium and equipment for marking key points of user bones in image
CN209514619U (en) Assist fill in a form equipment and system
JPH05204526A (en) View point monitoring input device
CN115293938B (en) Examination method and system based on VR technology
CN110716678B (en) Local deletion method and processing system for display picture and display equipment
CN117406864A (en) Control gesture design of three-dimensional graphics system
CN116149477A (en) Interaction method, interaction device, electronic equipment and storage medium
CN106095088A (en) A kind of electronic equipment and image processing method thereof
JP2022070553A (en) Information processing device, control method and program