JPH08315118A - Man-machine interface - Google Patents

Man-machine interface

Info

Publication number
JPH08315118A
JPH08315118A JP7121224A JP12122495A JPH08315118A JP H08315118 A JPH08315118 A JP H08315118A JP 7121224 A JP7121224 A JP 7121224A JP 12122495 A JP12122495 A JP 12122495A JP H08315118 A JPH08315118 A JP H08315118A
Authority
JP
Japan
Prior art keywords
user
man
machine interface
mouse
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7121224A
Other languages
Japanese (ja)
Inventor
Yujiro Ito
雄二郎 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP7121224A priority Critical patent/JPH08315118A/en
Publication of JPH08315118A publication Critical patent/JPH08315118A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: To provide a man-machine interface which can improve the input operation efficiency while suppressing the fatigue of a user. CONSTITUTION: This man-machine interface is equipped with a camera device 10 and a recognizing means 11. The camera device 10 is so set that the user 12 is present in its image pickup area and an image of the face part 13, eyes 13A, and month 13B of the user 12 is picked up. When the recognizing means 11 recognizes that the face part 13, eyes 13A, and month 13B move in previously set order by a previously set method, a previously specified indication command corresponding to the operation is generated and a mouse cursor is moved according to the operation of the face part 13. Consequently, the user can input information only by moving part of the body in a specific direction and the man- machine interface can greatly be improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばコンピュータ機
器のマンマシン・インターフェースに関し、更に詳しく
は、コンピュータ機器のマンマシン・インターフェース
としての入力装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a man-machine interface for computer equipment, for example, and more particularly to an improvement of an input device as a man-machine interface for computer equipment.

【0002】[0002]

【従来の技術】一般に、コンピュータ機器等への情報入
力には、キーボードを初めとし、表示画面上の座標に対
する制御を行うポインティングデバイスとしてのマウス
やタブレットが用いられている。これらの入力装置は、
何れも簡単な練習で操作をマスターすることが可能なも
のであるが、マンマシン・インターフェースを飛躍的に
向上させるには難があった。その主原因は、これらの操
作があくまでも手を動かす動作を必要とするためであ
る。また、これらの入力装置の操作は手の不自由な使用
者にとっては大変不便なものであった。本発明はコンピ
ュータ機器等のマンマシン・インターフェースとしての
入力装置の改良に係わるものであり、以下その具体例を
挙げて説明する。
2. Description of the Related Art Generally, a keyboard or a mouse or a tablet as a pointing device for controlling coordinates on a display screen is used for inputting information to a computer device or the like. These input devices are
Although it is possible to master the operation with simple practice, it was difficult to dramatically improve the man-machine interface. The main reason is that these operations require movements of hands. In addition, the operation of these input devices is very inconvenient for a user with a handicap. The present invention relates to improvement of an input device as a man-machine interface for computer equipment and the like, which will be described below with reference to specific examples.

【0003】従来技術のマンマシン・インターフェース
(入力装置)の一例を図3を参照して説明する。図3は
従来技術の一般的なコンピュータ装置を示す斜視図であ
る。
An example of a conventional man-machine interface (input device) will be described with reference to FIG. FIG. 3 is a perspective view showing a general computer device of the prior art.

【0004】図3において、従来技術のコンピュータ装
置1は、コンピュータ本体2、コンピュータ本体2に併
設されたデータ(情報)や画像表示用のCRTモニタ
3、コンピュータ本体2にマウス入力コネクタ4Aを介
して接続されたストローブスイッチ4Bを有するマウス
4、およびコンピュータ本体2にキーボード入力コネク
タ5Aを介して接続されたデータや指示コマンドを入力
するキーボード5等を備えて構成される。
Referring to FIG. 3, a computer device 1 according to the prior art includes a computer main body 2, a CRT monitor 3 for displaying data (information) and images attached to the computer main body 2, and a computer main body 2 via a mouse input connector 4A. A mouse 4 having a strobe switch 4B connected thereto, a keyboard 5 for inputting data and instruction commands connected to the computer main body 2 via a keyboard input connector 5A, and the like are configured.

【0005】従来技術のコンピュータ装置の動作を説明
する。使用者はコンピュータ本体2を起動後、キーボー
ド5のファンクションキーを押下することにより所望の
データや指示コマンドを入力する。使用者が入力したデ
ータや指示コマンドはCRTモニタ3の表示画面に表示
される。
The operation of the conventional computer device will be described. After activating the computer main body 2, the user presses a function key on the keyboard 5 to input desired data and an instruction command. The data and instruction commands input by the user are displayed on the display screen of the CRT monitor 3.

【0006】使用者がマウス4によって操作を行う場
合、CRTモニタ3の表示画面上に表示される領域6や
マウスカーソル7を基準としてマウス4を可動する。例
えば使用者がマウス4を左方向に移動したとき、コンピ
ュータ本体2ではこのマウス4の移動量に応じてマウス
カーソル7をCRTモニタ3上で左に移動させる。即
ち、通常マウス4とマウスカーソル7は感覚的に同一方
向に移動するようになされており、マウス4の移動方向
にマウスカーソル7が移動するようになされている。
When the user operates the mouse 4, the mouse 4 is moved based on the area 6 or the mouse cursor 7 displayed on the display screen of the CRT monitor 3. For example, when the user moves the mouse 4 to the left, the computer body 2 moves the mouse cursor 7 to the left on the CRT monitor 3 according to the amount of movement of the mouse 4. That is, the normal mouse 4 and the mouse cursor 7 are sensuously moved in the same direction, and the mouse cursor 7 is moved in the moving direction of the mouse 4.

【0007】そして、使用者がマウス4を操作してマウ
スカーソル7を領域6上に合致させ、ストローブスイッ
チ4Bをクリックすると、その領域6のオブジェクトが
確定され、コンピュータ本体2によってその領域のプロ
グラムが実行される。例えば、使用者がマウスカーソル
7を“CR−ROMファイル名”と表示された領域6に
移動して、マウス4のストローブスイッチ4Bをクリッ
クすると、CRTモニタ3の表示画面上に“CR−RO
Mファイル名”が開示される。使用者は開示された“C
R−ROMファイル名”の一覧から所望のファイル名を
同様の動作によって選択し、ストローブスイッチをクリ
ックして確定する。このようにしてマウス4によるコン
ピュータ装置の操作が行われる。
Then, when the user operates the mouse 4 so that the mouse cursor 7 is aligned with the area 6 and clicks the strobe switch 4B, the object in the area 6 is confirmed, and the computer main body 2 executes the program in the area. To be executed. For example, when the user moves the mouse cursor 7 to the area 6 displayed as "CR-ROM file name" and clicks the strobe switch 4B of the mouse 4, "CR-RO" appears on the display screen of the CRT monitor 3.
M file name "is disclosed. The user has disclosed" C
A desired file name is selected from the list of "R-ROM file name" by the same operation and is confirmed by clicking the strobe switch. In this manner, the computer device is operated by the mouse 4.

【0008】[0008]

【発明が解決しようとする課題】以上説明したように従
来技術のマンマシン・インターフェース(入力装置)と
しては、キーボードやマウス等が主に使用されている。
そして、使用者がこれらのマンマシン・インターフェー
スを併用して使用する場合、マウスを操作したあとキー
ボードを操作し、再度マウスを操作するというように手
の位置を幾度となく変更する必要が生じ、使用者の作業
効率が低下するという不具合点があった。
As described above, a keyboard, a mouse, etc. are mainly used as the man-machine interface (input device) of the prior art.
Then, when the user uses these man-machine interfaces together, it is necessary to change the position of the hand many times, such as operating the mouse, operating the keyboard, and then operating the mouse again. There is a problem that the work efficiency of the user is reduced.

【0009】また、放送局のスイッチャー等の業務用機
器は、一般的にスイッチ類が多数存在しており、操作卓
が机の天板に匹敵するものも珍しくはない。そのため、
使用者は操作のために手を大きく動かす必要があり、長
時間の操作で疲労し易いという不具合点があった。
Further, in commercial equipment such as a switcher of a broadcasting station, a large number of switches are generally present, and it is not uncommon for the operation console to be comparable to the top plate of a desk. for that reason,
The user has to move his / her hand largely for the operation, and there is a problem that he / she is easily tired by the operation for a long time.

【0010】本発明は以上の点を考慮してなされたもの
で、使用者の疲労を抑制しつつ、作業効率を向上できる
マンマシン・インターフェースを提供しようとするもの
である。
The present invention has been made in consideration of the above points, and an object of the present invention is to provide a man-machine interface capable of improving work efficiency while suppressing user fatigue.

【0011】[0011]

【課題を解決するための手段】かかる課題を解決するた
めに本発明のマンマシン・インターフェースにおいて
は、所定領域内に存在する人体の一部を撮像して画像信
号を形成する撮像手段と、画像信号にもとづいてその人
体の一部の動作を認識し、その人体の一部の動作が予め
設定された動作と一致したとき、予め設定された所定の
制御命令(指示コマンド)を出力する認識手段とを備え
た。また、その人体の一部とは、使用者の顔部、顔部の
眼や口、または手、指、腕の内の少なくとも一部である
ことで前記課題を解決した。
In order to solve such a problem, in the man-machine interface of the present invention, an image pickup means for picking up an image of a part of a human body existing in a predetermined area to form an image signal, and an image Recognizing means for recognizing a part of the movement of the human body based on the signal and outputting a predetermined control command (instruction command) set in advance when the movement of the part of the human body coincides with a preset movement. Equipped with. Further, the part of the human body is the face of the user, the eyes and mouth of the face, or at least a part of the hands, fingers, and arms to solve the above-mentioned problems.

【0012】[0012]

【作用】本発明のマンマシン・インターフェースでは、
所定領域内に存在する使用者の顔部の動き、眼や口の動
き、または手、指、腕の動きを撮像し、それらの動作が
予め設定・記憶された動作と一致したとき、予め指示さ
れた所定の指示コマンドを出力してコンピュータ装置を
制御することとした。従って、本発明によれば、使用者
が上述の人体の一部を所定の方向に可動するだけでコン
ピュータ装置に対する情報の入力が可能となり、マンマ
シン・インターフェースの飛躍的な向上を図ることがで
きる。
In the man-machine interface of the present invention,
Images of the user's facial movements, eye and mouth movements, or hand, finger, and arm movements within a predetermined area are captured, and when those movements match preset or stored movements, instructions are given in advance. The predetermined instruction command is output to control the computer device. Therefore, according to the present invention, the user can input information to the computer device only by moving a part of the human body in a predetermined direction, and the man-machine interface can be dramatically improved. .

【0013】[0013]

【実施例】以下、図1および図2を参照して本発明のマ
ンマシン・インターフェースの実施例を説明する。な
お、従来技術で記載した事項と共通する部分には同一の
参照符号を付し、それらの説明を一部省略する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the man-machine interface of the present invention will be described below with reference to FIGS. It should be noted that parts common to those described in the related art are designated by the same reference numerals, and description thereof will be partially omitted.

【0014】実施例1 初めに、図1を参照して本発明のマンマシン・インター
フェースの第1の実施例の構成を説明する。図1は本発
明のマンマシン・インターフェースの第1例を示す側面
図である。
First Embodiment First, the configuration of a first embodiment of the man-machine interface of the present invention will be described with reference to FIG. FIG. 1 is a side view showing a first example of the man-machine interface of the present invention.

【0015】図1において、コンピュータ本体2、コン
ピュータ本体2に併設されたCRTモニタ3、マウス入
力コネクタ4Aおよびキーボード5等の構成要素に加え
て、本発明の特徴事項として、撮像手段としてのカメラ
装置10、メモリを備えた認識手段(プロセッサ)11
を新たに加えて構成される。また、カメラ装置10の出
力はケーブル10Aによって認識手段11に接続され、
認識手段11の出力はケーブル11Aによってマウス入
力コネクタ4Aに接続されている。更に、カメラ装置1
0の撮像領域には使用者12が存在し、カメラ装置10
は使用者12の顔部13、詳しくは顔部13の眼13
A、口13Bを撮像するようにセットされている。
In FIG. 1, in addition to the components such as the computer main body 2, the CRT monitor 3 provided in the computer main body 2, the mouse input connector 4A, and the keyboard 5, a characteristic of the present invention is a camera device as an image pickup means. 10, recognition means (processor) 11 provided with a memory
Is newly added. The output of the camera device 10 is connected to the recognition means 11 by a cable 10A,
The output of the recognition means 11 is connected to the mouse input connector 4A by a cable 11A. Furthermore, the camera device 1
The user 12 exists in the imaging area of 0 and the camera device 10
Is the face 13 of the user 12, more specifically, the eye 13 of the face 13.
A and mouth 13B are set to be imaged.

【0016】次に、本実施例のマンマシン・インターフ
ェースの動作を説明する。使用者はコンピュータ本体2
を所定の手段により起動後、キーボード5のファンクシ
ョンキーを押下してデータや指示コマンドを入力する通
常の動作を行う。使用者が入力したデータや指示コマン
ドはCRTモニタ3の表示画面に表示される。
Next, the operation of the man-machine interface of this embodiment will be described. The user is the computer 2
After being activated by a predetermined means, a normal operation of pressing a function key of the keyboard 5 to input data or an instruction command is performed. The data and instruction commands input by the user are displayed on the display screen of the CRT monitor 3.

【0017】使用者12が体の一部を用いてコンピュー
タ装置の操作を行う場合の動作を説明する。撮像手段た
るカメラ装置10は使用者12の顔部13を撮影してい
て、使用者12の顔部13の画像信号を形成している。
その画像信号はケーブル10Aを介して認識手段11に
伝送される。認識手段11では、顔部13の首降り動作
や、眼13Aの向きおよび口13Bの動きを画像処理に
よって絶えず認識している。
The operation when the user 12 operates the computer device by using a part of the body will be described. The camera device 10, which is an image pickup unit, photographs the face portion 13 of the user 12 and forms an image signal of the face portion 13 of the user 12.
The image signal is transmitted to the recognition means 11 via the cable 10A. The recognizing means 11 constantly recognizes the neck-down motion of the face portion 13, the direction of the eyes 13A and the movement of the mouth 13B by image processing.

【0018】そして、認識手段11によって顔部13の
動作や、眼13A、口13Bの動作が予め設定された方
法や順序で動作したと認識されたとき、その動作に対応
した予め指定された指示コマンドを発生する。認識手段
11が発生する指示コマンドは、本実施例ではマウスと
同一のフォーマットに設定されていて、その指示コマン
ドはケーブル11Aを介してマウス入力コネクタ4Aか
らコンピュータ本体2に入力される。コンピュータ本体
2では指示コマンドを受取し、前述と同様の動作により
顔部13の移動量に応じてマウスカーソルをCRTモニ
タ上で移動させる。
When the recognizing means 11 recognizes that the motions of the face portion 13 and the motions of the eyes 13A and the mouth 13B have operated in a preset method or order, a predesignated instruction corresponding to the motions. Generate a command. The instruction command generated by the recognition means 11 is set in the same format as the mouse in this embodiment, and the instruction command is input to the computer main body 2 from the mouse input connector 4A via the cable 11A. The computer main body 2 receives the instruction command, and moves the mouse cursor on the CRT monitor according to the movement amount of the face portion 13 by the same operation as described above.

【0019】その具体例を説明するならば、使用者12
が顔部13を上下、左右に可動すると認識手段11はカ
メラ装置10を介してその動作を認識し、前述のマウス
を机上で上下、左右に動作したと同一の指示コマンドを
生成して出力する。コンピュータ装置ではCRTモニタ
3に表示されるマウスカーソルを顔部13の動作に合わ
せて可動させる。
To explain the specific example, the user 12
When the person moves the face portion 13 up and down, left and right, the recognition means 11 recognizes the movement through the camera device 10, and generates and outputs the same instruction command as when the mouse is moved up and down and left and right on the desk. . In the computer device, the mouse cursor displayed on the CRT monitor 3 is moved according to the movement of the face portion 13.

【0020】そして、眼13Aをダブルウインク(所定
の期間内に2回ウインク)すると、マウスのストローブ
スイッチをダブルクリックしたと同一の指示コマンドを
発生するようになされている。また、眼13Aに代えて
口13Bを2回開閉することで上記ダブルウインクの替
わりとすることもできる。更に、口13Bの動きそのも
のを認識して“みぎ”“ひだり”と直接命令を入力する
ことも可能である。このように本実施例によれば、使用
者12は顔部13の動作のみでマウスと同様の操作が可
能となり、マウスとキーボード操作を繰り返す煩わしさ
から開放され、作業効率が向上する。また、使用者はデ
ータを指さしながらの入力操作も可能となり、マンマシ
ン・インターフェースの向上が図れる。更に、手の不自
由な使用者にも簡単に入力操作ができるようになる。
When the eye 13A is double winked (twice twice within a predetermined period), the same instruction command as when the mouse strobe switch is double-clicked is generated. The double wink can be replaced by opening and closing the mouth 13B twice instead of the eye 13A. Further, it is possible to recognize the movement of the mouth 13B itself and directly input a command such as "Migi" or "Hidari". As described above, according to the present embodiment, the user 12 can perform the same operation as the mouse only by the movement of the face portion 13, and the troublesomeness of repeatedly operating the mouse and the keyboard is released, and the work efficiency is improved. In addition, the user can also perform an input operation while pointing to the data, and the man-machine interface can be improved. Furthermore, even a user with limited hand ability can easily perform input operations.

【0021】実施例2 本実施例は、前述の第1の実施例における顔部の動作に
代えて、手、指、腕の動きを検出して指示コマンドを発
生する例であり、これを図2を参照して説明する。な
お、コンピュータ装置の構成は第1の実施例と同一であ
るためその説明を省略する。図2は本発明のマンマシン
・インターフェースの第2例を示す側面図である。
Embodiment 2 This embodiment is an example in which, instead of the movement of the face portion in the above-mentioned first embodiment, movements of hands, fingers and arms are detected and an instruction command is generated. 2 will be described. Since the configuration of the computer device is the same as that of the first embodiment, its description is omitted. FIG. 2 is a side view showing a second example of the man-machine interface of the present invention.

【0022】本実施例におけるカメラ装置10の撮像領
域には、使用者の手14が存在していて、カメラ装置1
0は使用者の手14や指14A、腕14Bを撮像するよ
うにセットされて構成される。
In the image pickup area of the camera device 10 in this embodiment, the user's hand 14 exists, and the camera device 1
0 is set so as to image the user's hand 14, finger 14A, and arm 14B.

【0023】本実施例のマンマシン・インターフェース
の動作を説明する。使用者がコンピュータ本体を起動
後、手14を用いてコンピュータ装置の操作を行おうと
する場合において、撮像手段としてのカメラ装置10は
使用者の手14を撮影していて、その画像信号はケーブ
ル10Aを介して認識手段(プロセッサ)11に伝送さ
れている。認識手段11では、手14の例えば指14A
の動作を画像処理によって認識し、指14Aの動作が予
め設定された方法や順序で動作したと認識したとき、そ
の動作に対応した予め指定された指示コマンドを発生し
てコンピュータ装置に出力する。不図示のコンピュータ
装置では前述と同様の動作で指14Aの移動量に応じて
マウスカーソルをCRTモニタ上で移動させる。そし
て、指14Aを机上を2回叩くような動作をするとマウ
スのストローブスイッチをダブルクリックしたと同一の
指示コマンドを発生するようになされている。
The operation of the man-machine interface of this embodiment will be described. When the user tries to operate the computer device using the hand 14 after starting the computer main body, the camera device 10 as the imaging means is photographing the hand 14 of the user, and the image signal thereof is the cable 10A. Is transmitted to the recognition means (processor) 11 via. In the recognition means 11, for example, the finger 14A of the hand 14
When the action of the finger 14A is recognized by image processing and the action of the finger 14A is performed in a preset method or order, a predesignated instruction command corresponding to the action is generated and output to the computer device. In a computer device (not shown), the mouse cursor is moved on the CRT monitor according to the movement amount of the finger 14A by the same operation as described above. When the finger 14A is tapped twice on the desk, the same command command as when the strobe switch of the mouse is double-clicked is generated.

【0024】また、手14の指14Aに代えて腕14B
によってマウスカーソルを制御することも可能である。
その場合は、カメラ装置10によって腕14Bの動きを
認識しておき、腕14Bが予め設定された方法や順序で
動作したと認識したとき、その動作に対応した予め指定
された指示コマンドを発生しコンピュータ装置に出力す
る。コンピュータ装置では前述と同様の動作によってマ
ウスカーソルを可動する。このように、本実施例によれ
ば、コンピュータ装置等のマンマシン・インターフェー
スが手、更に言えば指一本でコンピュータ装置の簡単な
操作が可能となり、マンマシン・インターフェースの飛
躍的な向上を図ることができる。
Also, instead of the fingers 14A of the hand 14, the arm 14B
It is also possible to control the mouse cursor by.
In that case, the camera device 10 recognizes the movement of the arm 14B, and when it is recognized that the arm 14B has operated in a preset method or order, a pre-specified instruction command corresponding to the operation is generated. Output to a computer device. In the computer device, the mouse cursor is moved by the same operation as described above. As described above, according to the present embodiment, the man-machine interface of the computer device or the like can be easily operated by using the hand, more specifically, one finger, and the man-machine interface can be dramatically improved. be able to.

【0025】本発明は前記実施例に限定されず、種々の
実施形態を採ることができる。例えば前記実施例では、
認識装置を端末装置とは別体のアダプターとして例示し
たが、認識装置を端末装置に内蔵して一体的に構成して
も良い。また、本発明は小型カメラを内蔵した携帯用電
子機器等にも応用が可能であり、発明の主旨を逸脱しな
い範囲で様々な形態に応用可能であることは言うまでも
ない。
The present invention is not limited to the above embodiments, and various embodiments can be adopted. For example, in the above embodiment,
Although the recognition device is exemplified as an adapter separate from the terminal device, the recognition device may be built in the terminal device and integrally configured. Further, it is needless to say that the present invention can be applied to a portable electronic device or the like having a built-in small camera, and can be applied to various forms without departing from the gist of the invention.

【0026】[0026]

【発明の効果】以上説明したように本発明のマンマシン
・インターフェースによれば、所定領域内に存在する使
用者の顔部の動き、眼や口の動き、または手、指、腕の
動作を撮像し、それらの動作が予め設定された動作と一
致したとき、予め指定された所定のコマンドを出力して
コンピュータ装置を制御することとした。従って、使用
者がコンピュータ装置に情報入力する際、上記人体の一
部の動きを所定の方向に可動するだけで情報入力が可能
となり、入力操作が省力化されてスピードアップすると
ともに、使用者の疲労を低減することができる。
As described above, according to the man-machine interface of the present invention, the movement of the user's face, the movement of the eyes and mouth, or the movement of the hands, fingers and arms existing within a predetermined area can be detected. When an image is picked up and those actions match a preset action, a predetermined command designated in advance is output to control the computer device. Therefore, when the user inputs information to the computer device, it becomes possible to input the information only by moving a part of the movement of the human body in a predetermined direction, which saves the input operation and speeds up the operation of the user. Fatigue can be reduced.

【0027】また、本発明によれば、業務用機器等のス
イッチが多数存在する電子機器においても入力操作の簡
易化に役立つとともに、これら電子機器のマンマシン・
インターフェースを飛躍的に向上することができる。
Further, according to the present invention, it is useful for simplifying the input operation even in an electronic device having a large number of switches such as a business device, and man-machine
The interface can be dramatically improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明のマンマシン・インターフェースの第
1例を示す側面図である。
FIG. 1 is a side view showing a first example of a man-machine interface of the present invention.

【図2】 本発明のマンマシン・インターフェースの第
2例を示す側面図である。
FIG. 2 is a side view showing a second example of the man-machine interface of the present invention.

【図3】 従来技術の一般的なコンピュータ装置を示す
斜視図である。
FIG. 3 is a perspective view showing a general computer device of the related art.

【符号の説明】[Explanation of symbols]

1 コンピュータ装置 2 コンピュータ本体 3 CRTモニタ 4 マウス 5 キーボード 6 領域 7 マウスカーソル 10 カメラ装置 11 認識手段 12 使用者 13 顔部 14 手 1 Computer Device 2 Computer Body 3 CRT Monitor 4 Mouse 5 Keyboard 6 Area 7 Mouse Cursor 10 Camera Device 11 Recognition Means 12 User 13 Face 14 Hand

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 所定領域内に存在する人体の一部を撮像
して画像信号を形成する撮像手段と、 前記画像信号にもとづいて該人体の一部の動作を認識
し、該人体の一部の動作が予め設定された動作と一致し
たとき、予め設定された所定の制御命令を出力する認識
手段と、を具備することを特徴とするマンマシン・イン
ターフェース。
1. An image pickup means for picking up a part of a human body existing in a predetermined area to form an image signal, and recognizing a motion of the part of the human body based on the image signal so as to recognize a part of the human body. And a recognition means for outputting a predetermined control command set in advance when the above-mentioned operation matches the preset operation.
【請求項2】 該人体の一部は、使用者の顔部、眼、口
または手、指、腕の内の少なくとも一部であることを特
徴とする請求項1に記載のマンマシン・インターフェー
ス。
2. The man-machine interface according to claim 1, wherein the part of the human body is at least a part of the face, eyes, mouth or hands, fingers and arms of the user. .
JP7121224A 1995-05-19 1995-05-19 Man-machine interface Pending JPH08315118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7121224A JPH08315118A (en) 1995-05-19 1995-05-19 Man-machine interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7121224A JPH08315118A (en) 1995-05-19 1995-05-19 Man-machine interface

Publications (1)

Publication Number Publication Date
JPH08315118A true JPH08315118A (en) 1996-11-29

Family

ID=14805978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7121224A Pending JPH08315118A (en) 1995-05-19 1995-05-19 Man-machine interface

Country Status (1)

Country Link
JP (1) JPH08315118A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345111B1 (en) * 1997-02-28 2002-02-05 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
JP2002135376A (en) * 2000-10-20 2002-05-10 Kunihiko Koike Voiceless input communication apparatus
WO2005059736A1 (en) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University Device and method for controlling pointer by detecting pupil
JP2006146479A (en) * 2004-11-18 2006-06-08 Yasuhiro Fukui Input device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345111B1 (en) * 1997-02-28 2002-02-05 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
JP2002135376A (en) * 2000-10-20 2002-05-10 Kunihiko Koike Voiceless input communication apparatus
WO2005059736A1 (en) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University Device and method for controlling pointer by detecting pupil
JP2006146479A (en) * 2004-11-18 2006-06-08 Yasuhiro Fukui Input device

Similar Documents

Publication Publication Date Title
JP3419050B2 (en) Input device
EP0823683B1 (en) Interface device
US5436639A (en) Information processing system
US6043805A (en) Controlling method for inputting messages to a computer
JP3114813B2 (en) Information input method
JPH07175587A (en) Information processor
US20140043234A1 (en) Computer vision gesture based control of a device
US20090153468A1 (en) Virtual Interface System
CN108616712B (en) Camera-based interface operation method, device, equipment and storage medium
US10296359B2 (en) Interactive system control apparatus and method
JPH0844490A (en) Interface device
US20140053115A1 (en) Computer vision gesture based control of a device
US20100177039A1 (en) Finger Indicia Input Device for Computer
KR20070043469A (en) System of indentifying the movement of physically handicapper as that of the mouse
JPH0784715A (en) Information processor
JPH08315118A (en) Man-machine interface
CN109144235B (en) Man-machine interaction method and system based on head-hand cooperative action
US20030043271A1 (en) Computer interface system and method
JPH09237151A (en) Graphical user interface
JP3228584B2 (en) Mouse input method on touch panel
WO2005059736A1 (en) Device and method for controlling pointer by detecting pupil
JPH1039995A (en) Line-of-sight/voice input device
JP2007102415A (en) Mobile terminal with two input modes, program and instruction input method to mobile terminal
US7145550B2 (en) Method and apparatus for reducing repetitive motion injuries in a computer user
GB2535730A (en) Interactive system control apparatus and method