JPH0423027A - ウインドウ選択方式 - Google Patents

ウインドウ選択方式

Info

Publication number
JPH0423027A
JPH0423027A JP2125346A JP12534690A JPH0423027A JP H0423027 A JPH0423027 A JP H0423027A JP 2125346 A JP2125346 A JP 2125346A JP 12534690 A JP12534690 A JP 12534690A JP H0423027 A JPH0423027 A JP H0423027A
Authority
JP
Japan
Prior art keywords
window
pupil
head
eyelids
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2125346A
Other languages
English (en)
Inventor
Satoshi Ishii
聡 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2125346A priority Critical patent/JPH0423027A/ja
Publication of JPH0423027A publication Critical patent/JPH0423027A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (概要) 人間と機械のインタフェースにおけるポインティングデ
バイスとして、ウィンドウシステムを用いる際のウィン
ドウ選択方式に関し、 作業用のウィンドウの切り替え時や、機能の変更時に、
キーボードから手を離す必要がないウィンドウ選択方式
を提供することを目的とし、ディスプレイを基準とする
座標系における頭の位置を測定する頭位置測定手段と、
頭の位置を基準とするローカル座標系における瞳孔の位
置を測定する瞳孔位置測定手段と、頭の位置と瞳孔の位
置とから視線の方向と起点を求めてディスプレイ画面上
における視点の位置を決定する視点位置決定手段と、決
定された視点位置をディスプレイ画面上にマークによっ
て表示する視点マーク表示手段とを備え、このマークに
よってウィンドウを指定して作業用ウィンドウの切り替
えを行うように構成する。
〔産業上の利用分野〕 本発明はコンピュータと人間のインタフェースに係り、
特にポインティングデバイスとしてウィンドウシステム
を用いる際におけるウィンドウ選択方式に関するもので
ある。
機械と人間のインタフェース、特にコンピュータと人間
のインタフェースのためのポインティングデバイスとし
ては、種々の形式のものが既に提案され、使用されてい
る。
なかでも、ディスプレイ表示画面上のウィンドウを指示
することによって、実行させようとする作業等を指定す
るウィンドウシステムは、操作が容易なため広く利用さ
れている。
このようなポインティングデバイスとしてのウィンドウ
選択方式は、人間が手を動かさないでも所要のポインテ
ィングを行うことができ、従ってコンピュータ操作時の
作業効率を向上し、コンピュータの人間のインタフェー
スを高めることができるものであることが要望される。
〔従来の技術) 従来、コンピュータと人間のインタフェースのためのポ
インティングデバイスとしては、マウスやデジタイザと
ウィンドウシステムとを組み合わせた形式のものが多く
用いられている。
第6図(a)、 (b)は従来のウィンドウ選択方式を
示したものであって、(a)はウィンドウの表示を示し
、[有])はマウスを示している。
マウスは、従来のポインティングデバイスの代表的なも
のである。第6図(b)において41はマウスを示し、
図示のような形状を有していて、これを片手で抑えて机
上等において2次元的に動かすことによって、元の位置
からどの方向にどれだけ動いたかを測定して、接続線4
2を介して測定値をリアルタイムに出力することができ
るものである。また、通常いくつかのスイッチ43が付
属していて、これを操作することによって、所定の指示
を与えることができるようになっている。
ウィンドウシステムにおいては、第6図(a)に示され
るように、ディスプレイ画面45上にい(つかのウィン
ドウ46..46□、−・−を表示することができるよ
うになっている。この場合のそれぞれのウィンドウは、
コンピュータの一つの端末装置の画面に相当している。
従って、このようなウィンドウシステムを用いると、デ
ィスプレイ画面上にいくつかのウィンドウを表示するこ
とによって、1台のディスプレイによって、あたかも数
台の端末装置を用いているのと同等の操作を行うことが
できる。
すなわち、例えば第6図(a)のように3つのウィンド
ウ461.46□、463を有するウィンドウシステム
の場合、°“ウィンドウ46.ではソフトウェアのコー
ディングを行い、ウィンドウ46□ではソフトウェアの
デバッキングを行い、ウィンドウ463ではソフトウェ
アをコンパイルする゛というような使い方を行うことが
できる。
またこの際、マウス41を用いてディスプレイ画面上に
矢印47等を描くことができる。この矢印47は、画面
上においてマウスが動いた量に比例して動き、またマウ
スが動いた方向に動く。そして、矢印47が表示されて
いるウィンドウ、例えば46□を作業用のウィンドウと
して指定することができる。さらに、マウス41に設け
られたスイッチ43を操作することによって、指定され
ているウィンドウに対応する作業の機能を変更すること
ができるようになっている。
〔発明が解決しようとする課題〕
第6図(a)、 (b)に示されたような、マウスとウ
ィンドウシステムだけを用いる従来の技術では、作業用
のウィンドウの指定を変更するためには、マウスを操作
しなければならない。また機能を変更するためには、マ
ウスのスイッチを操作しなければならない。
この場合、マウスの操作を行う際には、作業者がキーボ
ードから手を離すことになる。そのため、離した手をキ
ーボードのホームポジションに戻す際に、違うポジショ
ンに手をおくことがあるため、キーのミスタッチを生じ
て、作業能率が低下するという問題がある。
また、作業者が注視しているウィンドウを作業用ウィン
ドウと勘違いすることがあり、そのため操作ミスを生じ
るという問題があった。
本発明はこのような従来技術の課題を解決しようとする
ものであって、作業用のウィンドウを別のウィンドウに
切り替える場合や、機能を変更する場合に、キーボード
から手を離す必要がないウィンドウ選択方式を提供する
ことを目的としている。
〔課題を解決するための手段〕
本発明は第1図にその原理的構成を示すように、頭位置
測定手段1によって、ディスプレイを基準とする座標系
における頭の位置を測定し、瞳孔位置測定手段2によっ
て、頭の位置を基準とするローカル座標系における瞳孔
の位置を測定する。そして視点位置決定手段3によって
、測定された頭の位置と瞳孔の位置とから視線の方向と
起点を求めてディスプレイ画面上における視点の位置を
決定し、視点マーク表示手段4によって決定された視点
位置をディスプレイ画面上にマークによって表示するこ
とによって、このマークによってウィンドウを指定して
作業用ウィンドウの切り替えを行うものである。
この場合、頭位置測定手段1をホール素子等を用いた3
次元位置および方向センサからなるものとする。
また瞳孔位置測定手段2は、照射された赤外線の眼球か
らの反射等によって瞳孔位置を測定する。
さらに瞼開閉検知手段5を設けることによって、眼球か
らの反射の消失によって瞼の開閉を検知して、この瞼の
開閉がまばたきでないとき出力を発生し、この出力発生
時、視点マークによって指定されるウィンドウにおける
作業の機能を変更する。
この際、瞼開閉検知手段5においては、瞼の開閉が両眼
同時に行われないときまばたきでないと判定する。
[作用] ディスプレイを基準とする座標系における頭の位置を測
定し、測定された頭の位置を基準とするローカル座標系
における瞳孔の位置を測定して、この頭の位置と瞳孔の
位置とから視線の方向と起点を求めることによって、デ
ィスプレイ画面上における視点の位置を決定することが
できる。そこで、この決定された視点位置をディスプレ
イ画面上にマークによって表示してウィンドウの指定を
行うことによって、マウスを用いてディスプレイ画面上
でマークを移動してウィンドウの指定を行うのと同様に
、作業用ウィンドウの切り替えが行われる。
この場合、頭の位置の測定は、ホール素子等を用いた3
次元位置および方向センサからなる頭位置測定装置を用
いることによって行われる。
また瞳孔位置の測定は、眼球に赤外線を照射し、照射さ
れた赤外線の眼球からの反射等によって瞳孔位置を測定
する瞳孔位置測定装置によって行われる。
さらに、眼球からの反射の消失によって瞼の開閉を検知
し、このときの瞼の開閉がまばたきでなかったとき出力
を発生するので、この出力によって、マウスのスイッチ
を用いて機能の変更を行う場合と同様に、視点マークに
よって指定されているウィンドウにおける、作業の機能
の変更が行われる。
この場合における瞼の開閉がまばたきでないことの判定
は、瞼の開閉が両眼同時に行われないときまばたきでな
いと判定することによって行われる。
〔実施例〕
第2図(a)、 (b)は、本発明方式における処理の
流れを示したものであって、本発明のアルゴリズムを示
し、(a)は、作業用ウィンドウ切り替えの処理の流れ
を示し、(b)は作業用ウィンドウの機能の変更の処理
を示している。
ウィンドウの指定を変更しようとする場合には、第2図
(a)に示すように、まず瞳孔の位置の測定値を求める
(ステップSl)とともに、頭の位置の測定値を求める
(ステップS2)。次に、ステ・ノブS1とステップS
2で求められた値を用いて、ディスプレイ画面上におけ
る視線の位置すなわち視点を決定する(ステップ33)
。ステップS3は、視線の方向と起点を検出しくステ・
ノブS3−1)、その視線がディスプレイ画面とどこの
位置で交わるかを検出する(ステップ33−2)ことに
よって実行される。そして検出された視点の位置を特定
のマークによって画面上に表示する(ステップS4)こ
とによって、作業用ウィンドウの切り替えを行う(ステ
ップS5)。
瞳孔の位置を測定するステップは、瞳孔位置測定装置を
用いることによって実現することができる。
第3図は瞳孔位置測定装置の構成を示したものである。
瞳孔位置測定装置は、赤外線を照射するための赤外線L
EDIIと、照射された赤外線の瞳孔12からの反射光
を受ける受光素子13とからなるセンサと、これらのセ
ンサを支持するセンサ固定具14と、センサ固定具14
を頭部に装着するノ\ンド15と、瞳孔位置検出処理ユ
ニツ1−16とからなっている。瞳孔位置測定装置は、
瞳孔位置検出処理ユニット16を除いた全体を、ノ\ン
ド15に装着して固定できるように構成されている。
瞳孔位置を測定する場合には、赤外線LED11から赤
外線を照射して瞳孔12に当て、瞳孔からの反射光を受
光素子13で受ける。そして受光素子13で受は取った
データによって瞳孔位置検出処理ユニット16で処理を
行って、瞳孔の位置を検出する。
また、頭の位置を測定するステップは、ホール素子を用
いた3次元位置および方向センサ等を用いる頭位置測定
装置を使用することによって、実現することができる。
このようにして求められた瞳孔の位置の測定値と頭の位
置の測定値とを用いて、ディスプレイ画面上における視
点の位置を決定するステップS3は、次のようにして実
行される。
第4図は、視点位置の決定を説明する図である。
第4図において、X、Y、Zは絶対座標系を示し、(X
o、 Yo、 Zo )はこの座標系における頭21の
ローカル座標系x、y、zの原点、(X、、Y、Zl)
はディスプレイ画面上における視点の位置である。
ステップSlの過程によって、頭のローカル座標におけ
る瞳孔22の位置がわかる。また、両眼法の中心位置も
、頭のローカル座標上でわかる。
視線24の方向を眼球23の中心から瞳孔22の方向と
し、起点を眼球の中心とすると、頭のローカル座標系に
おいて、両眼の視線の方向と起点がわかる。
一方、頭は動くので、頭のローカル座標系におけるディ
スプレイ25の位置はわからない。そこで、ディスプレ
イ25を基準とした絶対座標系X5Y、Zを構成する。
頭の位置を測定するステップS2は、この絶対座標から
頭のローカル座標系の位置および方向を得るものである
頭のローカル座標系における視線の方向と起点の情報と
、絶対座標系からの頭のローカル座標系の位置および方
向の情報がわかれば、絶対座標系上の視線の方向と起点
がわかる(ステップ531)。そこで、視線を延長して
ディスプレイ画面上のどの点で交わるかを調べる(ステ
・7プS3−2)ことによって、視点の位置を決定する
ステップS4は視点の位置表示を行うものである。これ
は従来の、マウスを使用して動かした矢印に相当する。
ただし必ず表示が必要というわけではない。ステ・ノブ
S5は、マウスを用いた従来のウィンドウ切り替え方法
と同じである。
上述の処理を繰り返して行うことによって、第4図に示
されたディスプレイ25上における視点位置の決定が、
リアルタイムに実行される。
作業用ウィンドウの機能を変更しようとする場合には、
マウスのスイッチの代わりに、瞼の開閉を利用する。
第2図(b)は、作業用ウィンドウの機能変更の処理の
流れを示したものである。すなわち、まずステップSl
lで、眼球反射の有無によって瞼の開閉を検出する。次
にそれがまばたき、すなわち瞼の開閉が両眼同時に行わ
れたものであるか否かをみて(ステップ312)、まば
たきでなかった場合だけ、機能の変更を行・)(ステッ
プ513)ようにする。
前述のように、瞳孔の位置の測定は眼球からの赤外線の
反射によって行われている。この場合、瞼を閉した状態
では、当然、眼球からの赤外線の反射はない。そこで瞼
の開閉を、眼球からの反射の有無で検出することができ
る。
しかしながら瞼の開閉は、平常、無意識に行われており
、瞼の開閉を機能の変更の目的に利用しようとする場合
には、自然の瞼の開閉すなわちまばたきと、意識的に行
う瞼の開閉とを区別する必要がある。
一般に、無意識に行われるまばたきは両眼同時に行われ
、片眼だけの場合はない。そこで機能の変更の目的に利
用するために意識的に瞼の開閉を行う場合には、片眼だ
けで行うことによって、無意識の場合の瞼の開閉とは区
別することができる。
第5図は本発明の一実施例の構成を示したものであって
、31は頭の位置を測定する頭位置測定装置、32は作
業者の瞳孔の位置を測定する瞳孔位置測定装置、33は
制御部、34はコンピュータ、35はコンピュータのデ
ィスプレイである。
第5図において、頭位置測定装置31はディスプレイ3
5を基準とする絶対座標系における作業者の頭の位置を
測定する。瞳孔位置測定装置32は、作業者の頭を基準
とするローカル座標系における瞳孔の位置を測定する。
ディスプレイ35はその画面上にコンピュータ34の作
業用ウィンドウを表示する。制御部33は頭位置測定装
置31の測定値と、瞳孔位置測定装置32の測定値とを
用いて、ディスプレイ35の画面上における作業者の視
点を求めて、特定のマークによって表示する。作業者は
視線を動かしてディスプレイ35の画面上における所望
のウィンドウ内にマークを位置させることによって、作
業用ウィンドウの切り替えが行われる。また制御部33
は、瞳孔位置測定装置32の測定値から作業者の意識的
な瞼の開閉を検知して出力を発生し、これによって作業
用ウィンドウの機能の変更が行われる。
〔発明の効果〕
以上説明したように本発明によれば、作業者の視線を調
べ、その視線と対応するウィンドウを調べることによっ
て、ウィンドウの切り替えを行い、意識的な瞼の開閉を
検出して機能の変更を行うようにしたので、作業用のウ
ィンドウを別のウィンドウに変更する場合や、機能を変
更する場合に、キーボードから手を放す必要がない。従
って本発明を用いれば、ウィンドウによるボインティン
グを容易にし、キー操作のミスを防止して作業効率を向
上させるとともに、コンピュータと人間のインタフェー
スをより高めることができる。
【図面の簡単な説明】
第1図は本発明の原理的構成を示す図、第2図(a)、
 (b)は本発明の一実施例における処理の流れを示す
図、第3図は瞳孔位置測定装置の構成を示す図、第4図
は視点位置の決定を説明する図、第5図は本発明の一実
施例の構成を示す図、第6図(a)(b)は従来のウィ
ンドウ選択方式を示す図である。 1は頭位置測定手段、2は瞳孔位置測定手段、3は視点
位置決定手段、4は視点マーク表示手段、5は瞼開閉検
知手段である。 本弁明の原理釣構成を示す図 第1図 本究明の一実施例の構成を示す図 第5図 (a) (b) 本究明の一実遡例における処理の泥わを示す図15バン
ド 瞳孔位W1測定装茜の構成空水す間 第3図 視点位rの決定を説明する図 第4図

Claims (5)

    【特許請求の範囲】
  1. (1)ディスプレイを基準とする座標系における頭の位
    置を測定する頭位置測定手段(1)と、該頭の位置を基
    準とするローカル座標系における瞳孔の位置を測定する
    瞳孔位置測定手段(2)と、 該頭の位置と瞳孔の位置とから視線の方向と起点を求め
    てディスプレイ画面上における視点の位置を決定する視
    点位置決定手段(3)と、 該決定された視点位置をディスプレイ画面上にマークに
    よって表示する視点マーク表示手段(4)とを備え、 該マークによってウィンドウを指定して作業用ウィンド
    ウの切り替えを行うことを特徴とするウィンドウ選択方
    式。
  2. (2)請求項第1項記載のウィンドウ選択方式において
    、前記頭位置測定手段(1)が、ホール素子を用いた3
    次元位置および方向センサからなることを特徴とするウ
    ィンドウ選択方式。
  3. (3)請求項第1項記載のウィンドウ選択方式において
    、前記瞳孔位置測定手段(2)が照射された赤外線の眼
    球からの反射によって瞳孔位置を測定するものであるこ
    とを特徴とするウィンドウ選択方式。
  4. (4)請求項第3項記載のウィンドウ選択方式において
    、眼球からの反射の消失によって瞼の開閉を検知し該瞼
    の開閉がまばたきでないとき出力を発生する瞼開閉検知
    手段(5)を備え、該瞼開閉検知手段(5)の出力発生
    時、前記視点マークによって指定されるウィンドウにお
    ける作業の機能を変更することを特徴とするウィンドウ
    選択方式。
  5. (5)請求項第4項記載のウィンドウ選択方式において
    、前記瞼開閉検知手段(5)が瞼の開閉が両眼同時に行
    われないときまばたきでないと判定することを特徴とす
    るウィンドウ選択方式。
JP2125346A 1990-05-17 1990-05-17 ウインドウ選択方式 Pending JPH0423027A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2125346A JPH0423027A (ja) 1990-05-17 1990-05-17 ウインドウ選択方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2125346A JPH0423027A (ja) 1990-05-17 1990-05-17 ウインドウ選択方式

Publications (1)

Publication Number Publication Date
JPH0423027A true JPH0423027A (ja) 1992-01-27

Family

ID=14907845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2125346A Pending JPH0423027A (ja) 1990-05-17 1990-05-17 ウインドウ選択方式

Country Status (1)

Country Link
JP (1) JPH0423027A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0677953A2 (en) * 1994-04-12 1995-10-18 Canon Kabushiki Kaisha Electronic equipment using viewpoint detector
JP2004362569A (ja) * 2003-05-30 2004-12-24 Microsoft Corp 頭部姿勢の査定方法およびシステム
WO2005059736A1 (ja) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University 瞳孔検出によるポインタ制御装置及び方法
JP2005182247A (ja) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ 瞳孔位置検出によるポインティング装置及び方法
JP2008523517A (ja) * 2004-12-22 2008-07-03 聯想(北京)有限公司 表示装置のカーソルの制御システム及び方法
JP6277567B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018085124A (ja) * 2017-12-28 2018-05-31 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018085125A (ja) * 2017-12-28 2018-05-31 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62196723A (ja) * 1986-02-25 1987-08-31 Nec Corp 表示装置におけるマ−ク記号の位置指示装置
JPH01145715A (ja) * 1987-12-01 1989-06-07 Nec Corp ディスプレイ用入力装置
JPH01206426A (ja) * 1988-02-15 1989-08-18 Nec Corp ポインテイング装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62196723A (ja) * 1986-02-25 1987-08-31 Nec Corp 表示装置におけるマ−ク記号の位置指示装置
JPH01145715A (ja) * 1987-12-01 1989-06-07 Nec Corp ディスプレイ用入力装置
JPH01206426A (ja) * 1988-02-15 1989-08-18 Nec Corp ポインテイング装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0677953A3 (en) * 1994-04-12 1996-03-20 Canon Kk Electronic device with focus detector.
US5990954A (en) * 1994-04-12 1999-11-23 Canon Kabushiki Kaisha Electronic imaging apparatus having a functional operation controlled by a viewpoint detector
EP0677953A2 (en) * 1994-04-12 1995-10-18 Canon Kabushiki Kaisha Electronic equipment using viewpoint detector
US8457358B2 (en) 2003-05-30 2013-06-04 Microsoft Corporation Head pose assessment methods and systems
JP2004362569A (ja) * 2003-05-30 2004-12-24 Microsoft Corp 頭部姿勢の査定方法およびシステム
US8135183B2 (en) 2003-05-30 2012-03-13 Microsoft Corporation Head pose assessment methods and systems
WO2005059736A1 (ja) * 2003-12-17 2005-06-30 National University Corporation Shizuoka University 瞳孔検出によるポインタ制御装置及び方法
JP2005182247A (ja) * 2003-12-17 2005-07-07 National Univ Corp Shizuoka Univ 瞳孔位置検出によるポインティング装置及び方法
JP2008523517A (ja) * 2004-12-22 2008-07-03 聯想(北京)有限公司 表示装置のカーソルの制御システム及び方法
JP6277567B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018084875A (ja) * 2016-11-21 2018-05-31 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018085124A (ja) * 2017-12-28 2018-05-31 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
JP2018085125A (ja) * 2017-12-28 2018-05-31 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Similar Documents

Publication Publication Date Title
US11724388B2 (en) Robot controller and display device using augmented reality and mixed reality
US10671238B2 (en) Position-dependent modification of descriptive content in a virtual reality environment
US10928929B2 (en) Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit
US5751260A (en) Sensory integrated data interface
US20190163266A1 (en) Interaction system and method
KR20150036637A (ko) 산업용 로봇을 작동시키는 방법, 및 상기 방법을 실행하기 위한 보안 모니터링 장치
JP2014512530A (ja) 座標位置決め装置
WO2002063601A1 (en) Method and system to present immersion virtual simulations using three-dimensional measurement
JP2017539035A (ja) ジェスチャインタフェース
US5982353A (en) Virtual body modeling apparatus having dual-mode motion processing
Wolf et al. Performance envelopes of in-air direct and smartwatch indirect control for head-mounted augmented reality
CN106445118A (zh) 虚拟现实交互方法及装置
JPH0423027A (ja) ウインドウ選択方式
JP2004523811A (ja) 入力信号の提供
CN112527112A (zh) 一种多通道沉浸式流场可视化人机交互方法
JPH0418626A (ja) 3次元入力装置
Schwaller et al. Two handed mid-air gestural hci: Point+ command
CN108013670A (zh) 一种智能镜子及其控制方法
Lazewatsky et al. Context-sensitive in-the-world interfaces for mobile manipulation robots
Latif et al. Teleoperation through eye gaze (TeleGaze): a multimodal approach
JPH04287117A (ja) 左きき者用マンマシンインタフェース方式
US20120280910A1 (en) Control system and method for controlling a plurality of computer devices
JPH06236234A (ja) 仮想環境におけるマルチモードのジェスチャ方式対話法
Rodrigues et al. A virtual touch interaction device for immersive applications
JPH03256112A (ja) 制御処理装置