JP2004046311A - 3次元仮想空間におけるジェスチャ入力方法およびその装置 - Google Patents

3次元仮想空間におけるジェスチャ入力方法およびその装置 Download PDF

Info

Publication number
JP2004046311A
JP2004046311A JP2002199457A JP2002199457A JP2004046311A JP 2004046311 A JP2004046311 A JP 2004046311A JP 2002199457 A JP2002199457 A JP 2002199457A JP 2002199457 A JP2002199457 A JP 2002199457A JP 2004046311 A JP2004046311 A JP 2004046311A
Authority
JP
Japan
Prior art keywords
virtual space
avatar
user
information
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002199457A
Other languages
English (en)
Inventor
Yasuhiro Maeda
前田 泰宏
Toshihiro Matsumoto
松本 敏宏
Satoshi Ishibashi
石橋 聡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002199457A priority Critical patent/JP2004046311A/ja
Publication of JP2004046311A publication Critical patent/JP2004046311A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】安価に、かつ直感的で単純な操作で仮想空間内での利用者を象徴するアバタ動作の入力インタフェースを実現する。
【解決手段】仮想空間内ジェスチャ入力装置1では、圧力検出パネル11を透明アクリル板12等を天板に用いた机の上に設置し、ユーザの手によるジェスチャにおける圧力検出パネル11との接触情報を、裏面からビデオカメラ13で撮影し、ビデオ信号を端末装置21Aに入力する。端末装置21Aは、ビデオ信号に対し、指、手などによる圧力検出点の数、範囲などを認識し、得られた圧力検出点の数、範囲等から、ジェスチャ認識条件テーブルを参照して、接触情報をアバタジェスチャ命令に変換する。端末装置21Aは、アバタジェスチャ命令により、CRTディスプレイ22Aに描画した仮想空間の自アバタの動作を制御したり、他のユーザの端末に送信してそのアバタ動作を制御したりする。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、仮想空間内で利用者を象徴するCGモデルであるアバタの移動・動作のための入力方法およびその装置に関し、具体的には、インターネットなどを介して提供される仮想空間において、利用者が当該仮想空間内における自己の存在を示すCGモデルであるアバタの動作制御を行う際に、仮想空間内のアバタ動作処理に必要とされる仮想空間内アバタ動作情報を生成し、制御するための仮想空間内でのアバタ動作の入力方法およびその装置に関する。
【0002】
【従来の技術】
近年、インターネットなどにより、サイバースペースと呼ばれる仮想空間が提供されている。これを参照するユーザ(利用者)は、コンピュータ端末上に表示される仮想空間を移動しながら、情報を体感的に取得したり、これらの仮想空間を他のユーザと共有することによって、他のユーザとの間でコミュニケーションを楽しむことなどができる。これらコンピュータ上に表示された仮想空間内のユーザを象徴する3次元CGモデルであるアバタに対する動作入力のためのインタフェース装置として、マウス、データグローブなどが一般的である。
【0003】
マウスを用いた入力手法としては、あらかじめ決められた動作指示を示すボタンなどが用意され、マウスのポインタを用いてそれらのボタンをクリックすることによって動作指示を行う形態が一般的である。また、多数のセンサを内蔵したデータグローブをユーザが装着することによって、ユーザの手の形を認識することができ、なんらかのジェスチャをすることによってコンピュータが認識する形態が一般的である。
【0004】
【発明が解決しようとする課題】
前記のように、従来の仮想空間内のアバタに対する動作入力のためのインタフェース装置として用いられるマウスやデータグローブなどは、アバタに対する動作入力の手段としては、直感的に理解できるものではない。また、データグローブは、その装置自体が特殊で高価なものであり、一般的な普及は望めない。
【0005】
本発明は、前記従来の技術の問題を解決するため、比較的安価な部品を用いて、直感的なインタフェース装置を構成することを可能とする3次元仮想空間でのアバタ動作の入力方法および装置を提供することを課題とする。
【0006】
【課題を解決するための手段】
本発明は、前記の課題を解決するため、以下の仮想空間内アバタジェスチャ入力方法を特徴とする。
【0007】
すなわち、仮想空間内に利用者を象徴する3次元CGによる人型モデルであるアバタを表示する表示手順と、現実空間の所定領域面内での利用者の手によるジェスチャにおける接触情報を入力する入力手順と、当該接触情報を当該仮想空間内のアバタ動作情報に変換する変換手順と、当該アバタ動作情報により前記接触情報を当該仮想空間内のアバタの動作に反映する制御手順と、を有することを特徴とする。
【0008】
あるいは、前記変換手順では、前記接触情報として、様々な手の形による当該現実空間内の所定領域面と手もしくは指との接触領域の数、および接触領域の大きさの一方もしくは双方によって、手もしくは指による接触情報をアバタ動作情報に変換することを特徴とする。
【0009】
あるいは、前記表示手順では、仮想空間内にCGモデルを表示するための仮想空間システムを有する利用者の端末同士がネットワークを介して接続され、ある利用者の移動・動作情報がネットワークを介して他の端末に伝達されて、当該利用者の移動・動作を仮想空間内の当該利用者のアバタの移動・動作として表現することにより利用者同士が共有する仮想空間内に自他のアバタを表示し、前記制御手順では、アバタ動作情報を、当該仮想空間内の自アバタの動作に反映するとともに、他の利用者の端末に当該利用者の移動・動作情報として伝達することを特徴とする。
【0010】
また、本発明は、前記の課題を解決するために、以下の仮想空間内アバタジェスチャ入力装置を特徴とする。
【0011】
すなわち、仮想空間内に利用者を象徴する3次元CGによる人型モデルであるアバタを表示し、アバタ動作情報が与えられると当該アバタの動作を仮想空間内で表現する仮想空間システム、および現実空間の所定領域内での手のジェスチャによる接触情報を当該仮想空間におけるアバタ動作情報に変換し、当該アバタ動作情報を前記仮想空間システムに与える変換処理手段を有する端末装置と、現実空間の所定領域面内での手のジェスチャによる接触情報を前記変換処理手段に入力する仮想空間内ジェスチャ入力手段と、を備えることを特徴とする。
【0012】
あるいは、前記仮想空間内ジェスチャ入力手段は、手もしくは指を接触させる所定領域面を有し、当該領域面内における手のジェスチャによる手もしくは指との接触領域の数、および接触領域の大きさの一方もしくは双方を検知するための接触情報入力手段と、前記接触情報入力手段における所定領域面である接触面を撮影する撮像手段と、を有し、前記端末装置において、変換処理手段は、撮像手段によって撮影された前記接触面の映像から得られる接触情報を、画像処理によって前記仮想空間内のアバタ動作情報に変換するものであることを特徴とする。
【0013】
あるいは、前記端末装置において、ネットワークを介して他の利用者の端末装置に接続し、アバタ動作情報を他の利用者の端末装置に利用者の移動・動作情報として伝達すると共に、他の端末から伝達される利用者の移動・動作情報を受信するネットワーク制御手段を有し、前記仮想空間システムは、利用者の移動・動作情報をネットワークを介して端末装置同士で伝達しあって、利用者の移動・動作を仮想空間内の当該利用者のアバタの移動・動作として表現することにより仮想空間を共有するものであり、アバタ動作情報を当該仮想空間内の自アバタの動作に反映する表示制御手段を有することを特徴とする。
【0014】
本発明では、利用者が、手を圧力検出パネルに接触させるなど、現実空間の所定領域内での手によるジェスチャにおける接触情報を、例えば様々な手の形による現実空間内の所定領域面と手や指との接触点の数、接触領域の大きさを要因としたジェスチャ変換を用いて、仮想空間内でのアバタ動作情報に変換し、当該接触情報を当該仮想空間内のアバタの動作に反映したり、他の端末へ移動・動作情報として伝達することにより、安価に、かつ非常に直感的で単純な操作によって仮想空間内でのアバタ動作の入力インタフェースを実現する。
【0015】
【発明の実施の形態】
以下、添付図面を参照しつつ、本発明の実施の形態を装置例および方法例について説明する。
【0016】
図1は、本発明の仮想空間内ジェスチャ入力装置を構成する素材の特徴を示したものである。薄板状の圧力検出パネルに対して、指などを用いて押下することによって、その圧力を検知し、表面からその板を参照した際に、色の変化などが生じる特徴を持っている。
【0017】
図2は、本発明の仮想空間内ジェスチャ入力装置を、これが適用される仮想空間システムとともに示す図である。仮想空間内ジェスチャ入力装置1では、図1に示すように、前記薄板状の圧力検出パネル11を透明アクリル板12などを天板に用いた机の上に設置し、人の手による圧力検出パネル11への接触情報を裏面からビデオカメラ13などの撮像装置により撮影する。
【0018】
ここで、仮想空間内ジェスチャ入力装置1におけるビデオカメラ13などの撮像装置は、前記圧力検出パネル11を裏面から見た圧力検出点、圧力検出点の範囲などを検出するための撮像を、逐次、ユーザAの端末2Aの端末装置21Aに対して入力する。
【0019】
ユーザAの端末2Aにおいて、仮想空間システムを構成する端末装置21Aは、仮想空間中のユーザAの視点位置情報を基に、当該ユーザAの視点から見た仮想空間の画像をCRTディスプレイ22A等の表示手段に描画する。
【0020】
また、図2では、当該仮想空間システムを有する複数のユーザ端末2A,2Bがネットワーク3を介して接続され、互いに視点の移動情報やアバタ動作情報を伝達することにより、ユーザ同士で共有する仮想空間内に人間を模して表現されたアバタを移動・動作させることが可能な端末装置21A,21BとCRTディスプレイ22A,22Bからなる仮想空間通信システムも示している。なお、図2では2台の端末のみを示しており、またユーザBの端末における仮想空間内ジェスチャ入力装置は省略している。
【0021】
図3は、ユーザ端末における端末装置21内のモジュール構成を示したものである。端末装置21内のモジュールは、前記圧力検出パネルを表面から撮像するビデオカメラ13の出力を取り込み、デジタル画像信号情報に変換するビデオ信号変換部211、前記得られたデジタル画像信号情報に対し、指、手などによる圧力検出点の数、範囲などを認識するビデオ映像認識部212、前記得られた圧力検出点の数、範囲などから、ジェスチャ認識条件テーブル213を参照し、得られた画像がどのジェスチャに対応するかを識別し、自ユーザアバタへのジェスチャ命令をネットワーク制御部214とネットワーク3を介して他ユーザ端末へ配信するアバタジェスチャ命令管理部215、ネットワーク3とネットワーク制御部214を介して受信したアバタへのジェスチャ命令を受信するアバタジェスチャ命令受信部216、アバタジェスチャ命令管理部215から受け取った当該アバタへのジェスチャ命令、およびアバタジェスチャ情報テーブル217から取り出した当該ジェスチャ動作データを用いて、CRTディスプレイ22ヘの描画を行うアバタ表示制御部218からなる。
【0022】
前記接触点の数、および接触領域の大きさを要因としたアバタジェスチャヘの変換ルールを示すテーブル例を表1に示す。
【0023】
【表1】
Figure 2004046311
【0024】
図4から図6は、表1に示されたアバタジェスチャ変換ルールテーブルに基づいた本実施形態例におけるジェスチャ入力の例を示している。なお、仮想空間内の移動に関しては、特願平11−66041号のような指の動きを用いた移動入力方法を併用することが考えられる。本実施形態例では、特に立ち止まる、座るなどのジェスチャ入力を行う方式について焦点を当てている。
【0025】
図4は、移動の後の立ち止まる例を示している。指によって移動させた後、人差し指、中指を圧力検出パネルに接触させながらその動きを停止させた場合、立ち止まるジェスチャが認識される。
【0026】
図5は、「休め」のジェスチャの入力例を示したものである。ここでは、前記立ち止まった後に、親指を接触させることにより、接触点が3箇所となり、この際、「休め」が認識される。
【0027】
図6は、「着席」のジェスチャの入力例を示したものである。ここでは、手の腹を接触させた状態により、接触点が4箇所となり、その内、範囲の広い接触点が含まれる場合、「着席」が認識される。
【0028】
【発明の効果】
以上説明したように、本発明によれば、ユーザは、手を圧力検出パネル等の所定領域面に接触させて、その接触情報を、例えば接触点の数、接触領域の大きさを要因としたジェスチャ変換などで、当該仮想空間内のアバタ動作情報に変換するようにしたので、安価で、かつ非常に直感的で単純な操作によって仮想空間内でのアバタジェスチャを実現することが可能となる。
【0029】
また、接触点の数、接触領域の大きさを要因としたジェスチャ変換ルールを変更することにより、ジェスチャヘの変換のカスタマイズが容易に実現できる。
【図面の簡単な説明】
【図1】仮想空間内ジェスチャ入力装置用素材を示す図
【図2】本発明の一実施形態例を示す仮想空間システム構成図
【図3】ユーザ端末における端末装置内のモジュール構成図
【図4】「立ち止まり」のジェスチャ入力例を示す図
【図5】「休め」のジェスチャ入力例を示す図
【図6】「着席」のジェスチャ入力例を示す図
【符号の説明】
1…仮想空間内ジェスチャ入力装置
11…圧力検出パネル
12…透明アクリル板
13…ビデオカメラ
2A,2B…仮想空間システム利用者端末
21,21A,21B…端末装置
211…ビデオ信号変換部
212…ビデオ映像認識部
213…ジェスチャ認識条件テーブル
214…ネットワーク制御部
215…アバタジェスチャ命令管理部
216…アバタジェスチャ命令受信部
217…アバタジェスチャ情報テーブル
218…アバタ表示制御部
22,22A,22B…CRTディスプレイ
3…ネットワーク

Claims (6)

  1. 仮想空間内に利用者を象徴する3次元CGによる人型モデルであるアバタを表示する表示手順と、
    現実空間の所定領域面内での利用者の手によるジェスチャにおける接触情報を入力する入力手順と、
    当該接触情報を当該仮想空間内のアバタ動作情報に変換する変換手順と、
    当該アバタ動作情報により前記接触情報を当該仮想空間内のアバタの動作に反映する制御手順と、を有する
    ことを特徴とする3次元仮想空間におけるジェスチャ入力方法。
  2. 前記変換手順では、
    前記接触情報として、様々な手の形による当該現実空間内の所定領域面と手もしくは指との接触領域の数、および接触領域の大きさの一方もしくは双方によって、手もしくは指による接触情報をアバタ動作情報に変換する
    ことを特徴とする請求項1に記載の3次元仮想空間におけるジェスチャ入力方法。
  3. 前記表示手順では、
    仮想空間内にCGモデルを表示するための仮想空間システムを有する利用者の端末同士がネットワークを介して接続され、ある利用者の移動・動作情報がネットワークを介して他の端末に伝達されて、当該利用者の移動・動作を仮想空間内の当該利用者のアバタの移動・動作として表現することにより利用者同士が共有する仮想空間内に自他のアバタを表示し、
    前記制御手順では、
    アバタ動作情報を、当該仮想空間内の自アバタの動作に反映するとともに、他の利用者の端末に当該利用者の移動・動作情報として伝達する
    ことを特徴とする請求項1または2に記載の3次元仮想空間におけるジェスチャ入力方法。
  4. 仮想空間内に利用者を象徴する3次元CGによる人型モデルであるアバタを表示し、アバタ動作情報が与えられると当該アバタの動作を仮想空間内で表現する仮想空間システム、
    および現実空間の所定領域内での手のジェスチャによる接触情報を当該仮想空間におけるアバタ動作情報に変換し、当該アバタ動作情報を前記仮想空間システムに与える変換処理手段を有する端末装置と、
    現実空間の所定領域面内での手のジェスチャによる接触情報を前記変換処理手段に入力する仮想空間内ジェスチャ入力手段と、を備える
    ことを特徴とする3次元仮想空間におけるジェスチャ入力装置。
  5. 前記仮想空間内ジェスチャ入力手段は、
    手もしくは指を接触させる所定領域面を有し、当該領域面内における手のジェスチャによる手もしくは指との接触領域の数、および接触領域の大きさの一方もしくは双方を検知するための接触情報入力手段と、
    前記接触情報入力手段における所定領域面である接触面を撮影する撮像手段と、を有し、
    前記端末装置において、
    変換処理手段は、撮像手段によって撮影された前記接触面の映像から得られる接触情報を、画像処理によって前記仮想空間内のアバタ動作情報に変換するものである
    ことを特徴とする請求項4に記載の3次元仮想空間におけるジェスチャ入力装置。
  6. 前記端末装置において、
    ネットワークを介して他の利用者の端末装置に接続し、アバタ動作情報を他の利用者の端末装置に利用者の移動・動作情報として伝達すると共に、他の端末から伝達される利用者の移動・動作情報を受信するネットワーク制御手段を有し、前記仮想空間システムは、利用者の移動・動作情報をネットワークを介して端末装置同士で伝達しあって、利用者の移動・動作を仮想空間内の当該利用者のアバタの移動・動作として表現することにより仮想空間を共有するものであり、
    アバタ動作情報を当該仮想空間内の自アバタの動作に反映する表示制御手段を有する
    ことを特徴とする請求項4または5に記載の3次元仮想空間におけるジェスチャ入力装置。
JP2002199457A 2002-07-09 2002-07-09 3次元仮想空間におけるジェスチャ入力方法およびその装置 Pending JP2004046311A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002199457A JP2004046311A (ja) 2002-07-09 2002-07-09 3次元仮想空間におけるジェスチャ入力方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002199457A JP2004046311A (ja) 2002-07-09 2002-07-09 3次元仮想空間におけるジェスチャ入力方法およびその装置

Publications (1)

Publication Number Publication Date
JP2004046311A true JP2004046311A (ja) 2004-02-12

Family

ID=31706584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002199457A Pending JP2004046311A (ja) 2002-07-09 2002-07-09 3次元仮想空間におけるジェスチャ入力方法およびその装置

Country Status (1)

Country Link
JP (1) JP2004046311A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法
JP2009217543A (ja) * 2008-03-11 2009-09-24 Brother Ind Ltd 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
JP2010535364A (ja) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブにユーザ制御されたアバターアニメーション
CN106232192A (zh) * 2014-03-14 2016-12-14 索尼互动娱乐股份有限公司 具有可旋转放置的摄像机的玩游戏装置
CN114020192A (zh) * 2021-09-18 2022-02-08 特斯联科技集团有限公司 一种基于曲面电容实现非金属平面的互动方法和系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法
JP2010535364A (ja) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブにユーザ制御されたアバターアニメーション
JP2009217543A (ja) * 2008-03-11 2009-09-24 Brother Ind Ltd 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
JP4670879B2 (ja) * 2008-03-11 2011-04-13 ブラザー工業株式会社 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
CN106232192A (zh) * 2014-03-14 2016-12-14 索尼互动娱乐股份有限公司 具有可旋转放置的摄像机的玩游戏装置
CN114020192A (zh) * 2021-09-18 2022-02-08 特斯联科技集团有限公司 一种基于曲面电容实现非金属平面的互动方法和系统
CN114020192B (zh) * 2021-09-18 2024-04-02 特斯联科技集团有限公司 一种基于曲面电容实现非金属平面的互动方法和系统

Similar Documents

Publication Publication Date Title
Lee et al. Interaction methods for smart glasses: A survey
US20200409532A1 (en) Input device for vr/ar applications
Yamashita et al. CheekInput: turning your cheek into an input surface by embedded optical sensors on a head-mounted display
Aghajan et al. Human-centric interfaces for ambient intelligence
KR20200099574A (ko) 공중 햅틱 시스템들과의 인간 상호작용들
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN102779000B (zh) 一种用户交互系统和方法
CN110362231B (zh) 抬头触控设备、图像显示的方法及装置
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
KR20220032059A (ko) 증강 현실 시스템용 터치프리 인터페이스
WO2018230160A1 (ja) 情報処理システム、情報処理方法、およびプログラム
CN106846496A (zh) 基于混合现实技术的dicom影像查看系统及操作方法
JP2004078977A (ja) インターフェイス装置
WO2021073743A1 (en) Determining user input based on hand gestures and eye tracking
JP6244069B1 (ja) 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
JP2004046311A (ja) 3次元仮想空間におけるジェスチャ入力方法およびその装置
Zhang et al. A hybrid 2D–3D tangible interface combining a smartphone and controller for virtual reality
CN111901518A (zh) 显示方法、装置和电子设备
Lee et al. Towards augmented reality-driven human-city interaction: Current research and future challenges
JP2004127173A (ja) 位置検出入出力装置
CN109144235B (zh) 基于头手协同动作的人机交互方法与系统
CN111258482B (zh) 信息分享方法、头戴式设备及介质
Chen Immersive analytics interaction: User preferences and agreements by task type
CN111246014B (zh) 通话方法、头戴式设备及介质
Schlattmann et al. Efficient bimanual symmetric 3d manipulation for bare-handed interaction