JP2019516153A - 容量性感知を用いたコントローラの予兆 - Google Patents

容量性感知を用いたコントローラの予兆 Download PDF

Info

Publication number
JP2019516153A
JP2019516153A JP2018546857A JP2018546857A JP2019516153A JP 2019516153 A JP2019516153 A JP 2019516153A JP 2018546857 A JP2018546857 A JP 2018546857A JP 2018546857 A JP2018546857 A JP 2018546857A JP 2019516153 A JP2019516153 A JP 2019516153A
Authority
JP
Japan
Prior art keywords
game controller
virtual
physical game
physical
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018546857A
Other languages
English (en)
Inventor
スターム,イーサン
ベイカー,スティーブン・エイチ
ビンセント,ポール
テイラー,デイビッド・シー
Original Assignee
サーク・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーク・コーポレーション filed Critical サーク・コーポレーション
Publication of JP2019516153A publication Critical patent/JP2019516153A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

指または親指が物理ゲームコントローラのボタンに近づいているという仮想環境内の視覚インジケーションを提供することなど、ゲームコントローラのような物理オブジェクトとの相互作用が仮想環境内の仮想ツールとの相互作用に変換され得るように、ユーザへの追加のフィードバックを可能にするために、コントローラに容量性タッチおよび近接センサを設けることによって、改善された機能性を有する仮想現実ゲームコントローラを提供するシステムおよび方法。

Description

本発明は、一般に、ゲームコントローラおよびタッチセンサに関する。具体的には、本発明は、仮想現実環境において特に有用なユーザへの追加のフィードバックを可能にするために、コントローラに容量性タッチおよび近接センサを設けることによって、改善された機能性を有する仮想現実ゲームコントローラを提供するシステムおよび方法に関する。
ユーザへの追加のフィードバックを可能にするためにコントローラに容量性タッチセンサを提供するシステムおよび方法を利用し得る容量性感知式タッチセンサのためのいくつかの設計が存在する。容量性感知タッチパッドが本発明をどのように利用することができるかをより良く理解するために、タッチセンサの基礎技術を調べることは有用である。
CIRQUE社のタッチパッドは、相互容量性感知デバイスであり、一例が図1のブロック図に示されている。このタッチパッド10では、タッチパッドのタッチ感知領域18を画定するために、X(12)およびY(14)電極のグリッドおよび感知電極16が使用される。典型的には、タッチパッド10は、約16×12の電極、またはスペースの制約がある場合は8×6の電極の矩形のグリッドである。これらのX(12)およびY(14)(または行および列)電極とインターレースされるのは、単一の感知電極16である。全ての位置測定は、感知電極16を介して行われる。
CIRQUE社のタッチパッド10は、感知ライン16上の電荷の不均衡を測定する。ポインティングオブジェクトがタッチパッド10の上または近くにないとき、タッチパッド回路20は平衡状態にあり、感知ライン16に電荷の不均衡はない。オブジェクトがタッチ面(タッチパッド10の感知領域18)に接近または接触したときに容量性結合のためにポインティングオブジェクトが不均衡を生じさせると、電極12、14に容量の変化が生じる。測定されるのは容量の変化であり、電極12、14上の絶対容量値ではない。タッチパッド10は、感知ライン上の電荷のバランスを再設定または回復するために感知ライン16上に注入されなければならない電荷の量を測定することによって容量の変化を決定する。
上記のシステムは、以下のように、タッチパッド10の上または近傍の指の位置を決定するために利用される。この例では、行電極12について説明し、列電極14についても同様に繰り返される。行電極測定値および列電極測定値から得られた値は、タッチパッド10上またはその近傍にあるポインティングオブジェクトの重心である交差点を決定する。
第1のステップでは、第1の組の行電極12がP、N発生器22からの第1の信号で駆動され、異なるが隣接する第2の組の行電極がP、N発生器からの第2の信号で駆動される。タッチパッド回路20は、どの行電極がポインティングオブジェクトに最も近いかを示す相互容量測定デバイス26を使用して感知ライン16から値を得る。しかしながら、いくつかのマイクロコントローラ28の制御下にあるタッチパッド回路20は、行電極のどの側にポインティングオブジェクトが配置されているかを決定することができず、ポインティングオブジェクトが電極からどのぐらい遠くに位置するかをタッチパッド回路20が決定することもできない。それゆえ、システムは、駆動される電極12のグループを1つの電極だけシフトさせる。言い換えれば、グループの片側に電極が追加され、一方、グループの反対側の電極はもはや駆動されない。次いで、新しいグループは、P、N発生器22によって駆動され、感知ライン16の第2の測定が行われる。
これらの2つの測定値から、行電極のどの側にポインティングオブジェクトが位置しているか、どれくらい離れているかを決定することが可能である。次に、測定された2つの信号の大きさを比較する方程式を使用して、ポインティングオブジェクトの位置決定を実行する。
CIRQUE社のタッチパッドの感度または解像度は、行電極と列電極の16×12グリッドが示すものよりもはるかに高い。解像度は、通常、1インチあたり960カウントまたはそれ以上のオーダである。正確な解像度は、構成要素の感度、同じ行および列上の電極12、14間の間隔、ならびに本発明にとって重要でない他の要因によって決定される。上記のプロセスは、P、N発生器24を使用してYまたは列電極14について繰り返される。
上述したCIRQUEのタッチパッドは、X電極12およびY電極14のグリッド、および別個の単一の感知電極16を使用するが、感知電極は、実際には多重化を使用することによってX電極12またはY電極14とすることができる。
上述のようなタッチセンサが使用され得る環境は、仮想現実の成長領域にある。仮想現実環境は、ユニークなユーザ相互作用の状況を与える。例えば、ユーザは、目を覆い仮想現実環境を与えるユーザの頭に置かれたデバイスまたはヘッドマウントディスプレイ(HMD)を有し得る。また、ユーザは、オーディオを追加して仮想現実体験を向上させるためのヘッドホンも有し得る。しかしながら、視覚と聴覚を介してユーザが体験している仮想現実と、ユーザが位置する実際の物理領域との間には断絶が存在する可能性がある。仮想現実環境の目的は、実際には存在しないか、または少なくとも直接的物理環境に存在しないオブジェクトおよびサウンドをユーザに与えることである可能性があるため、この断絶はユーザにとって明らかになり得る。
HMDを着用する体験は、ユーザが自分の身体、腕、脚、足または手を通常見ることができないため、ユーザにとって非常に戸惑うことである可能性がある。ユーザ自身の身体または四肢の視覚フィードバックのこの欠如は、ユーザが物理オブジェクトからの触覚フィードバックのみを有することに限定され得るため、ユーザの体験に有害であり、仮想環境を損なう可能性がある。したがって、仮想環境において仮想ツールとして表現されている物理オブジェクトを操作する場合も、ユーザに追加のフィードバックを提供することが有利である。
物理環境からのこの断絶は、ユーザが自分の環境に関連している場所の慣習的な視覚的刺激またはフィードバックが失われていることが分かるまで、仮想現実環境を論じるときには明白ではないかもしれない。これらの手がかりには、ユーザが自分の身体または手で保持されているオブジェクトを見ることができることが含まれるが、これに限定されない。ユーザ自身の腕、手、脚および足の位置に対する視覚的手がかりがないことは、ユーザがオブジェクトを感じるためによろめくまたはぎこちなく手を伸ばす原因となる可能性がある。
したがって、物理環境内のいくつかの物理オブジェクトが仮想環境内の仮想オブジェクトとして表される場合、ユーザの仮想現実体験が強化され得る。例えば、仮想環境内で物理オブジェクトを表現することは既に可能である。そのようなオブジェクトは、手持ちのゲームコントローラ、または単にゲームコントローラであってもよい。しかしながら、それは物理オブジェクトが物理環境に存在するのとまったく同じに仮想オブジェクトが現れる必要があるということを意味しない。仮想オブジェクトは、仮想環境内では異なるように現れるが、依然としてユーザと相互作用することができるように、プログラミングによって操作され得る。したがって、ユーザと物理オブジェクトの少なくとも一部の表現である仮想オブジェクトとの間の相互作用を強化することができることは、先行技術よりも有利であり、逆もまた同様である。
ユーザと仮想オブジェクトとの間の相互作用は、ユーザが仮想環境内で見ることができるもので始まり得る。例えば、ユーザは、ゲームコントローラ上のボタンを押す、またはダイアルを押したいとする。物理環境では、ユーザは、ゲームコントローラに近づいて移動する親指または指を見ることができ、親指または指を所望の場所に視覚的に案内することができるので、タスクは単純である。しかしながら、仮想環境においてユーザの手および指を表現することは非常に困難な場合があるので、この視覚フィードバックは仮想環境において欠けている可能性がある。
したがって、仮想環境において身体部分がユーザには見えなくても、仮想環境において手、指、親指、腕、脚、または足などの身体部分を所望の位置に視覚的に案内してユーザを支援することができる視覚的手がかりを仮想環境においてユーザに提供することができることは、先行技術よりも優れている。
本明細書全体を通して用語「タッチセンサ」の使用は、「容量性タッチセンサ」、「容量性センサ」、「容量性タッチおよび近接センサ」、「近接センサ」、「タッチおよび近接センサ」、「タッチパネル」、「タッチパッド」および「タッチスクリーン」と互換的に使用することができる。さらに、用語「ゲームコントローラ」のいかなる使用も、用語「仮想現実ゲームコントローラ」と互換的に使用することができる。
第1の実施形態では、本発明は、指または親指が物理ゲームコントローラのボタンに近づいているという仮想環境内の視覚インジケーションを提供することなど、ゲームコントローラのような物理オブジェクトとの相互作用が仮想環境内の仮想ツールとの相互作用に変換され得るように、ユーザへの追加のフィードバックを可能にするために、コントローラに容量性タッチおよび近接センサを設けることによって、改善された機能性を有する仮想現実ゲームコントローラを提供するシステムおよび方法である。
本発明のこれらおよび他の目的、特徴、利点および代替の態様は、添付の図面と組み合わせて以下の詳細な説明を考慮することにより、当業者に明らかになるであろう。
従来技術において見出され、本発明での使用に適応可能なタッチパッドの動作のブロック図である。 本発明を含むように修正し得る2つの物理ゲームコントローラの立面図である。 物理ゲームコントローラ上のタッチセンサの上面図である。 仮想ツール上のタッチセンサと同じ形状およびサイズおよび位置である仮想ツール上のキーパッドの上面図である。
ここで、当業者が本発明を実施し使用することができるように本発明の様々な要素に符号が付され本発明が議論される図面を参照する。以下の説明は、本発明の原理の例示に過ぎず、以下の特許請求の範囲を限定するものと見なすべきではないことを理解されたい。
本発明の第1の実施形態は、ユーザと物理オブジェクトの少なくとも一部を表す仮想オブジェクトとの間の相互作用を強化する視覚的手がかりをユーザに提供することである。以下に示す例は手持ちオブジェクトに向けられているが、第1の実施形態は、このようなデバイスに限定されると見なされるべきではない。
また、仮想オブジェクトが議論されているときはいつでも、仮想オブジェクトは、ユーザが物理環境で触れることができる物理オブジェクトの全部または一部を表すことも理解されたい。物理オブジェクトは、仮想環境内で異なって現れることもあれば、同じように現れることもある。重要なのは、ユーザと物理環境内のオブジェクトとの間の相互作用が、何らかの形で表現されているか、仮想環境に変換されていることである。
例えば、ユーザは、仮想環境内で仮想ツールを使用したい場合がある。仮想ツールとの相互作用をより容易に実行するために、ユーザが物理オブジェクトと相互作用することが望ましい場合がある。換言すれば、物理オブジェクトは、仮想環境において表現されてもよく、物理オブジェクトの操作は、仮想環境における仮想ツールとの相互作用に変換されてもよい。
ユーザ自身の身体部分が仮想環境内に表されていないことの理解から始めて、第1の実施形態は、ユーザがどのように仮想オブジェクトと相互作用するかを示す視覚フィードバックをユーザに提供することに向けられている。
図2は、物理ゲームコントローラ30の斜視図として提供される。ゲームコントローラ30は、手持ちデバイスとして仮想環境内に表現されてもよい。しかしながら、ゲームコントローラ30は、仮想環境内に異なるオブジェクトとして現れ得ることを理解されたい。この仮想オブジェクトは、物理ゲームコントローラ30と比較して、形状、サイズ、色、テクスチャ、または他の任意の視覚属性が類似していても異なっていてもよい。仮想オブジェクトは、ユーザが実際にゲームコントローラ30を保持するグリップまたは握りさえ示していなくてもよい。重要なことは、ユーザがゲームコントローラと相互作用することができ、ゲームコントローラが仮想環境内に表されることである。
第1の実施形態の第1の特徴は、オブジェクト、この例ではゲームコントローラ30が、ゲームコントローラの表面内および/または表面上に配置された1つまたは複数のセンサを含み得ることである。第2の特徴は、ゲームコントローラ30がまた、仮想環境内に仮想オブジェクトとして存在するようにセンサによって検出可能かつ追跡可能であることである。仮想オブジェクトは、仮想環境内で表現することができる任意のオブジェクトであってもよく、物理ゲームコントローラ30のサイズ、形状または他の任意の視覚属性に限定されると見なされるべきではない。
物理ゲームコントローラ30は、仮想環境内に任意のオブジェクトとして現れることがあるので、それらのオブジェクトが何であるかを理解することは有用である。例えば、ゲームコントローラ30は、ユーザが相互作用することができる武器、ツールまたは任意のオブジェクトであってもよい。ゲームコントローラ30の可動性のために、仮想オブジェクトも移動可能であることが理解できる。仮想オブジェクトのいくつかの良い例には、懐中電灯、ペイントブラシ、銃または他の任意の所望のオブジェクトが含まれるが、これに限定されると見なすべきではない。
物理ゲームコントローラ30は、仮想環境において複製されてもよいし複製されなくてもよい物理特徴を有し得る。例えば、トリガ機構、ボタン、スイッチ、ジョイスティック、スティックパッド、または物理ゲームコントローラ30上に存在し得る他の任意の物理特徴を考える。これらの物理特徴は、仮想環境への入力を提供するために使用され得る。例えば、トリガ機構は、武器のトリガとして、またはスプレー銃のトリガとして機能し得る。
明らかなことは、ユーザの指が物理環境でトリガに置かれることがあるため、トリガを置くことは困難ではないかもしれないが、ボタンまたはタッチパッドのような他の特徴は、ユーザが既にその特徴上に指または親指を置いていない可能性があるため、より困難であり得ることである。さらに、物理ゲームコントローラ上のトリガ機構が仮想ツール上のトリガとして機能するとしても、物理オブジェクトと仮想環境におけるその仮想表現との間に何らかの断絶が生じることがある。例えば、それらは正確に同じ場所にあるかもしれないし、そうでないかもしれない。
仮想環境には、一部のユーザが対処するのがより困難な多くのインタラクティブな体験がある。したがって、インタラクティブなプロセスを支援するために、より多くのフィードバックをユーザに提供することが望ましい場合がある。本発明の第1の実施形態では、ゲームコントローラ30の容量感知を使用して、ユーザとゲームコントローラとの間の物理相互作用を表す仮想環境内の視覚フィードバックをユーザに提供することができる。
物理ゲームコントローラ30は、第1のボタン32、第2のボタン34、およびパッドまたはダイアル36を含むことができる。物理ゲームコントローラ30は、図示の特定の数のボタンまたはパッド、または配置に限定されると見なすべきではなく、説明のためにのみ示されている。
第1の実施形態では、ゲームコントローラ30は、物理ゲームコントローラ内または物理ゲームコントローラ上に配置された容量性センサに近づくにつれて、手、指または親指のようなユーザの検出可能な末端の近接検出が可能な1つまたは複数の容量性センサを使用することができる。近接検出を使用することによって、容量性センサは、ゲームコントローラ上の特徴のタッチだけでなく、より重要なことに、特徴に対する検出可能な末端の接近を検出することができる。次に、検出可能な末端の接近に関するこの情報を使用して、仮想環境内のユーザに所望の視覚フィードバックを提供することができる。
第1の実施形態では、視覚フィードバックは、ユーザがゲームコントローラ30のボタンまたは他の特徴に実際に触れる前に、ユーザに「予兆」または「予告」を提供することができる。換言すれば、ユーザは指がボタンに近づくのを見ることによってボタンに向かって指を誘導することができるのと同じように、検出可能な末端が特徴に近づいていることをユーザに示す視覚的フィードバックをユーザに与えることができる。
特定のタイプの視覚フィードバックは、任意の視覚インジケータを含むことができる。例えば、視覚フィードバックは、仮想オブジェクト上の特徴の照明強度の変化であってもよい。図2に示すように、左側の物理ゲームコントローラ30は、ボタン32を有する。仮想環境において近くに検出可能なオブジェクトがない場合、ボタン32は照明されない。しかしながら、ユーザの指または他の検出可能なオブジェクトが物理ゲームコントローラ30上のボタン32に近づくと、物理ゲームコントローラ上のボタンの周りの赤いリングによって仮想環境内でボタン32が照らされ得る。
あるいは、ボタン32全体が照明なしから変化し、物理ゲームコントローラ30に接触するまで次第に明るくなるようにすることができる。したがって、光強度に関する任意の視覚インジケータを使用することができる。
別の視覚インジケータは、ボタン32の周りの一連の同心リングであってもよい。ボタンが物理ゲームコントローラ30上でタッチされたときに、同心リングが全て点灯するまで、ボタン32の周囲を照らしている同心リングの数が増加し得る。
仮想コントローラのボタンまたは他の特徴を照らすために仮想環境で視覚インジケータを使用する利点の1つは、照明が仮想であるので、処理する必要のある物理的な制限がないということである。照明は、照明される特徴のプログラム可能な特徴のみであるので、照明の位置、大きさ、または強度に関して制限はない。したがって、照明は、近づいている特徴またはボタンを超えて広がり得る。例えば、仮想オブジェクト全体が輝くことがある。
覚えておくと役立つことは、仮想環境でユーザが見ることができるものは、仮想に表現されているゲームコントローラと同じではないが、いくつかの他のオブジェクトが物理ゲームコントローラ30上のボタン32と同じ場所にある仮想ツール上の相互作用特徴を有するということである。次に、ボタン32または特徴は、ボタン32に対するユーザの指の接近の視覚的表現が生じ、ユーザが仮想環境内の仮想オブジェクトを見ている場合にユーザに見えるように、何らかの方法で修正、強調または照らされる。
仮想環境内で仮想オブジェクトまたは仮想オブジェクトの一部に生じる可能性のあるいくつかの視覚インジケータまたは修正は、仮想オブジェクトのサイズの変化、着色の変化、照明の変化、仮想オブジェクトの動きまたは特徴の変化、および他の仮想オブジェクトの生成を含むが、ユーザに視覚的な手がかりを提供するために起こり得る様々な変化の全てを制限するものと見なすべきではない。これらの変化は、仮想オブジェクト上または仮想オブジェクトに隣接して行うことができ、仮想オブジェクト全体または仮想オブジェクトの一部のみを含み得る。
第1の実施形態は、仮想環境においてユーザが見ることができる視覚インジケータに向けられているが、本発明の第2の実施形態では、ユーザに与えられるフィードバックは、触覚フィードバックをも含み得る。例えば、物理ゲームコントローラ30は、異なる速度で振動して、検出可能な末端がボタン32にどれだけ近接しているかを示すことができる。
本発明の第3の実施形態では、仮想環境の変化を引き起こす可能性のある容量性センサへのオブジェクトの接近ではない場合がある。ユーザが物理ゲームコントローラ30を用いて行うことができる他の動作は、物理ゲームコントローラに加えられる力の変化またはグリップの変化を含み得るが、これに限定されると見なすべきではない。したがって、物理ゲームコントローラ30の選択された部分は、ゲームコントローラ全体の近接感知を含み得る。同様に、物理ゲームコントローラ30の選択された部分は、ゲームコントローラ全体のタッチ感知を含み得る。
仮想環境内のより高度な位置情報のために、物理ゲームコントローラ30にユーザの手の画像を提供することが可能であり得る。したがって、ゲームコントローラ30上のどこに各指が置かれているかを決定することが可能であり得る。感知は、特定のゲームまたはアプリケーションのグリップ力感知を達成するようにさらに修正されてもよい。
本発明の全ての実施形態は、接触がなされたときに指が接触する場所を決定することが可能であり得るように、より大きな静電容量性センサ上にホバリングし得る指の検出を実行することを可能にし得ることを理解されたい。したがって、ユーザは、接触が実際に行われる前に、手または手の一部が物理ゲームコントローラ30と接触する場所を知り得る。
本発明の少なくとも1つの実施形態において、図3Aは、図2に示す第1のゲームコントローラ30とは形状が異なる物理ゲームコントローラ40に配置された矩形のタッチセンサ42の上面図を示す。物理ゲームコントローラ40の形状は、ゲームコントローラ40が物理環境において典型的に使用されるオブジェクトの形状により密接に適合するように、必要に応じて変更することができる。例えば、武器のようにグリップされているゲームコントローラは、仮想オブジェクトが武器を表すときにはより有用であり得る一方、シリンダまたは細長いオブジェクトの形状のゲームコントローラは、ゲームコントローラがフラッシュライトまたは他の同様の長いオブジェクトを表すときにはより有用であり得る。
図3Bは、図3Aに示すゲームコントローラ40とは異なるゲームコントローラ50の上面図を示すが、複数の個別キーを有する物理キーパッド44を備え、キーパッドはゲームコントローラの上面に配置される。この例では、ゲームコントローラ40の矩形のタッチセンサ42とゲームコントローラ50のキーパッド44とは、物理ゲームコントローラ上のほぼ同じ位置に配置される。したがって、類似の全体形状を有するゲームコントローラは、異なるタイプの物理特徴を備え得る。
図3Aはまた、ホバリングしているが、物理ゲームコントローラ40上の矩形のタッチセンサ42と物理的に接触していない指の位置46を示す。位置46は、矩形のタッチセンサ42の平面に垂直な指先の位置である。同様に、図3Bは、指先がゲームコントローラ50上でホバリングしているキーパッド44上の位置48を示す。
視覚インジケータは、物理キーボード44に近づく指の位置を示すために、仮想キーボード上の仮想環境内に表示され得る。視覚インジケータは、仮想オブジェクトの大きさの変化、仮想オブジェクトの色の変化、仮想オブジェクトの照明の変化、仮想オブジェクトの動き、および他の仮想オブジェクトの作成などの前述のインジケータのいずれかであってもよく、または任意の他の視覚インジケータであってもよい。例えば、ある視覚インジケータは、指先がホバリングしているキーであってもよく、携帯電話などのポータブル電子機器の仮想キーボード上のキーと同じように、実際に大きくなり、仮想キーボードから伸びることができる。
矩形のタッチセンサ42およびキーパッド44の形状および寸法がほぼ同じであるため、ユーザは、タッチセンサ42の代わりにキーパッドを有するかのようにゲームコントローラ40を操作することができる。換言すれば、ゲームコントローラ50上のキーパッド44の物理キーを仮想キーで置き換えることができ、これによりキーパッドを有するかのようにゲームコントローラ40を使用することができる。ユーザは、ユーザが仮想環境内で接触したい仮想キーパッド上の位置で指がホバリングするまで、指先を矩形のタッチセンサ42上で移動させることができる。次に、ユーザは、指を下に動かして矩形のタッチセンサ42と接触させ、仮想環境内で仮想キーパッド上の対応するキーに触れることができる。
矩形のタッチセンサ42およびキーパッド44のサイズおよび形状をほぼ同じにすることは有用であるが、物理ゲームコントローラ40を用いた動作を仮想環境における動作に変換するために、この類似性を有する必要はない。この例は説明のためのものであって、上記のように変化し得る。
第1の実施形態を使用して仮想現実環境においてユーザにフィードバックを提供する方法は、以下の通りである。最初のステップは、ユーザに見える仮想環境、物理ゲームコントローラ、および物理ゲームコントローラを表すが仮想環境内の仮想オブジェクトを提供することである。
次のステップは、少なくとも1つの近接センサを物理ゲームコントローラ上に配置することであり、少なくとも1つの近接センサは、少なくとも1つの近接センサに接近するオブジェクトを接触が行われる前に検出する。次のステップは、物理ゲームコントローラ上の少なくとも1つの近接センサに接近するオブジェクトを実際に検出し、次に、オブジェクトが物理ゲームコントローラに接近しているという視覚的インジケータを仮想環境内に提供することである。第1の実施形態では、視覚インジケータは、オブジェクトが物理ゲームコントローラに接近している仮想オブジェクト自体に提供され得る。さらに、視覚インジケータを変更して、物理ゲームコントローラからのオブジェクトの距離を示すことができる。
特徴は、物理ゲームコントローラに配置され、接触によってアクティブ化され、接触がなくなったときに非アクティブ化され得る。特徴に近接センサを配置することによって、次に特徴は、いつオブジェクトが近づいているかを決定し、仮想環境内の何らかの視覚インジケータによってオブジェクトからユーザへの距離を示すことができる。
これらの特徴は、ボタン、トリガ、キーボード、パッド、およびダイアルから選択することができるが、これらに限定されると見なすべきではない。視覚インジケータは、照明された表面、表面上の照明リング、および仮想オブジェクトの表面上の複数の同心の照明リングを含む視覚インジケータのグループから選択することができるが、これらに限定されると見なすべきではない。
さらに、物理ゲームコントローラからオブジェクトの距離は、物理ゲームコントローラからオブジェクトの距離を示すために、視覚インジケータの照度を変更することによって示し得る。
以上のようにいくつかの例示的な実施形態のみを詳細に説明したが、本発明から実質的に逸脱することなく、例示的な実施形態例において多くの変更が可能であることを当業者は容易に理解するであろう。したがって、そのような変更の全ては、特許請求の範囲に規定される本開示の範囲内に含まれることが意図される。出願人は、特許請求の範囲において関連する機能と共に「する手段」という表現を明示的に使用する場合を除き、本明細書の請求項の全ての限定については、米国特許法第112条第6項を適用させないことを明示的に意図している。

Claims (19)

  1. 仮想現実環境においてユーザにフィードバックを提供するための方法であって、
    ユーザが見ることができる仮想環境を提供するステップと、
    物理ゲームコントローラを提供するステップと、
    物理ゲームコントローラを表すが仮想環境内にある仮想オブジェクトを提供するステップと、
    物理ゲームコントローラ上に少なくとも1つの近接センサを配置するステップであって、少なくとも1つの近接センサが、少なくとも1つの近接センサに接近するオブジェクトを接触が行われる前に検出する、配置するステップと、
    物理ゲームコントローラ上の少なくとも1つの近接センサに接近するオブジェクトを検出するステップと、
    オブジェクトが物理ゲームコントローラに接近しているという視覚インジケータを仮想環境内に提供するステップと、
    を含む、方法。
  2. オブジェクトが物理ゲームコントローラに接近しているという視覚インジケータを仮想オブジェクト上に提供するステップをさらに含む、請求項1に記載の方法。
  3. 視覚インジケータを変更することによって、物理ゲームコントローラからオブジェクトの距離を示すステップをさらに含む、請求項2に記載の方法。
  4. 1)接触によってアクティブ化され、接触がなくなったときに非アクティブ化される第1の特徴を物理ゲームコントローラ上に生成するステップと、
    2)少なくとも1つの近接センサを第1の特徴上に配置するステップと、
    をさらに含む、請求項3に記載の方法。
  5. ボタン、トリガ、キーボード、パッド、およびダイアルを含む複数の特徴から第1の特徴を選択するステップをさらに含む、請求項4に記載の方法。
  6. 物理ゲームコントローラ上に複数の特徴を提供するステップをさらに含む、請求項5に記載の方法。
  7. 照明された表面、表面上の照明リング、および表面上の複数の同心の照明リングを含む視覚インジケータのグループから視覚インジケータを選択するステップをさらに含む、請求項3に記載の方法。
  8. 物理ゲームコントローラからオブジェクトの距離を示すために、視覚インジケータの照度を変更するステップをさらに含む、請求項7に記載の方法。
  9. 物理ゲームコントローラからオブジェクトの距離を示すために、照明された同心の照明リングの数を変更するステップをさらに含む、請求項7に記載の方法。
  10. 物理ゲームコントローラに対してオブジェクトに垂直な仮想オブジェクト上の位置を示すために視覚インジケータを使用して、物理ゲームコントローラに接近しているオブジェクトの位置を仮想オブジェクト上に提供するステップをさらに含む、請求項2に記載の方法。
  11. 仮想現実環境においてユーザにフィードバックを提供するためのシステムであって、
    ユーザが見ることができる仮想環境と、
    物理ゲームコントローラと、
    物理ゲームコントローラを表すが仮想環境内にある仮想オブジェクトと、
    物理ゲームコントローラ上に配置された少なくとも1つの近接センサであって、少なくとも1つの近接センサに接近するオブジェクトを接触が行われる前に検出する、少なくとも1つの近接センサと、
    オブジェクトが物理ゲームコントローラに接近していることを示す、仮想環境内の視覚インジケータと、
    を含む、システム。
  12. 仮想オブジェクト上に配置された視覚インジケータをさらに含む、請求項11に記載のシステム。
  13. 物理ゲームコントローラからオブジェクトの距離を示す視覚インジケータをさらに含む、請求項12に記載のシステム。
  14. 物理ゲームコントローラ上に配置され、接触によってアクティブ化され、接触がなくなったときに非アクティブ化される第1の特徴をさらに含み、少なくとも1つの近接センサは、第1の特徴上に配置される、請求項13に記載のシステム。
  15. ボタン、トリガ、キーボード、パッド、およびダイアルを含む複数の特徴から第1の特徴を選択することをさらに含む、請求項14に記載のシステム。
  16. 物理ゲームコントローラ上に配置された複数の特徴をさらに含む、請求項15に記載のシステム。
  17. 照明された表面、表面上の照明リング、および表面上の複数の同心の照明リングを含む視覚インジケータのグループから視覚インジケータを選択することをさらに含む、請求項13に記載のシステム。
  18. 物理ゲームコントローラからオブジェクトの距離を示すために、照明の強度を変更する視覚インジケータをさらに含む、請求項17に記載のシステム。
  19. 仮想現実環境においてユーザにフィードバックを提供するための方法であって、
    ユーザが見ることができる仮想環境を提供するステップと、
    物理ゲームコントローラを提供するステップと、
    物理ゲームコントローラを表すが仮想環境内にある仮想オブジェクトを提供するステップと、
    物理ゲームコントローラ上に少なくとも1つの近接センサを配置するステップであって、少なくとも1つの近接センサが、少なくとも1つの近接センサに接近するオブジェクトを接触が行われる前に検出する、配置するステップと、
    物理ゲームコントローラ上の少なくとも1つの近接センサに接近するオブジェクトを検出するステップと、
    オブジェクトが物理ゲームコントローラに接近しているという視覚インジケータを仮想環境内に提供するステップと、
    視覚インジケータを変更することによって、物理ゲームコントローラからオブジェクトの距離を示すステップと、
    を含む、方法。
JP2018546857A 2016-05-12 2017-05-12 容量性感知を用いたコントローラの予兆 Pending JP2019516153A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662335557P 2016-05-12 2016-05-12
US62/335,557 2016-05-12
PCT/US2017/032516 WO2017197334A1 (en) 2016-05-12 2017-05-12 Controller premonition using capacitive sensing

Publications (1)

Publication Number Publication Date
JP2019516153A true JP2019516153A (ja) 2019-06-13

Family

ID=60267857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546857A Pending JP2019516153A (ja) 2016-05-12 2017-05-12 容量性感知を用いたコントローラの予兆

Country Status (5)

Country Link
US (1) US20170329440A1 (ja)
JP (1) JP2019516153A (ja)
KR (1) KR102086941B1 (ja)
CN (1) CN108885501A (ja)
WO (1) WO2017197334A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10459519B2 (en) * 2017-01-19 2019-10-29 Google Llc Function allocation for virtual controller
US10183217B2 (en) 2017-04-13 2019-01-22 Facebook Technologies, Llc Hand-held controller using segmented capacitive touch trigger
US10537795B2 (en) 2017-04-26 2020-01-21 Facebook Technologies, Llc Hand-held controller using LED tracking ring
WO2019112093A1 (ko) * 2017-12-08 2019-06-13 ㈜리얼감 포스 피드백 콘트롤 장치 및 방법
US10912990B2 (en) * 2017-12-29 2021-02-09 Facebook Technologies, Llc Hand-held controller using sensors for hand disambiguation
KR102656447B1 (ko) * 2018-02-27 2024-04-12 삼성전자주식회사 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
CN109085922B (zh) 2018-07-27 2021-02-12 北京航空航天大学 一种多元触觉融合反馈手柄
US11395960B2 (en) * 2018-10-19 2022-07-26 North Carolina State University Temporal axial alignment adapter for VR hand controllers
KR102234776B1 (ko) * 2019-05-08 2021-03-31 한국기술교육대학교 산학협력단 햅틱 휠을 이용한 vr 또는 게임 컨트롤러 및 그 제어 방법, 이를 구비한 vr 시스템
GB2586048A (en) * 2019-07-31 2021-02-03 Sony Interactive Entertainment Inc Control data processing
US11504610B2 (en) 2020-02-14 2022-11-22 Valve Corporation Dynamically enabling or disabling controls of a controller
CN113407024B (zh) * 2021-05-25 2022-10-11 四川大学 一种庭审虚拟现实环境的证据展示和切换方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310599A (ja) * 2006-05-17 2007-11-29 Nikon Corp 映像表示装置
JP2013058117A (ja) * 2011-09-09 2013-03-28 Alps Electric Co Ltd 入力装置
JP2013061854A (ja) * 2011-09-14 2013-04-04 Alps Electric Co Ltd キーボード装置およびこのキーボード装置を用いた情報処理装置
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
JP2014174660A (ja) * 2013-03-07 2014-09-22 Tokyo Parts Ind Co Ltd 情報入力装置
JP2014195728A (ja) * 2005-11-18 2014-10-16 マイクロソフト コーポレーション ワイヤレスデバイスをコンソールデバイスと結合するシステム
US20150352437A1 (en) * 2014-06-09 2015-12-10 Bandai Namco Games Inc. Display control method for head mounted display (hmd) and image generation device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7256770B2 (en) * 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
CN101943946B (zh) * 2010-09-03 2013-10-30 东南大学 基于三维力传感器的二维图像力触觉再现控制方法及系统
US8315674B2 (en) * 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
KR20140066258A (ko) * 2011-09-26 2014-05-30 마이크로소프트 코포레이션 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9868062B2 (en) * 2012-03-13 2018-01-16 Sony Interactive Entertainment America Llc System, method, and graphical user interface for controlling an application on a tablet
US9227141B2 (en) * 2013-12-31 2016-01-05 Microsoft Technology Licensing, Llc Touch screen game controller
US10627904B2 (en) * 2014-02-07 2020-04-21 Ultrahaptics IP Two Limited Systems and methods of determining interaction intent in three-dimensional (3D) sensory space
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
DE102014009299A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US10338673B2 (en) * 2015-09-16 2019-07-02 Google Llc Touchscreen hover detection in an augmented and/or virtual reality environment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014195728A (ja) * 2005-11-18 2014-10-16 マイクロソフト コーポレーション ワイヤレスデバイスをコンソールデバイスと結合するシステム
JP2007310599A (ja) * 2006-05-17 2007-11-29 Nikon Corp 映像表示装置
JP2013058117A (ja) * 2011-09-09 2013-03-28 Alps Electric Co Ltd 入力装置
JP2013061854A (ja) * 2011-09-14 2013-04-04 Alps Electric Co Ltd キーボード装置およびこのキーボード装置を用いた情報処理装置
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
US20140320383A1 (en) * 2011-12-16 2014-10-30 Sony Corporaton Head-mounted display and information display apparatus
JP2014174660A (ja) * 2013-03-07 2014-09-22 Tokyo Parts Ind Co Ltd 情報入力装置
US20150352437A1 (en) * 2014-06-09 2015-12-10 Bandai Namco Games Inc. Display control method for head mounted display (hmd) and image generation device
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Also Published As

Publication number Publication date
KR20180136480A (ko) 2018-12-24
WO2017197334A1 (en) 2017-11-16
CN108885501A (zh) 2018-11-23
US20170329440A1 (en) 2017-11-16
KR102086941B1 (ko) 2020-03-11

Similar Documents

Publication Publication Date Title
JP2019516153A (ja) 容量性感知を用いたコントローラの予兆
US11144121B2 (en) Wearable interactive user interface
TWI571773B (zh) 檢測手指移動之技術
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
US9999833B2 (en) Hand-held controllers with capacitive touch sensors for virtual-reality systems
WO2012070682A1 (ja) 入力装置及び入力装置の制御方法
US20150233779A1 (en) Gloves with pressure sensors
CN104850216A (zh) 具有压力触觉感测器的手套
CN102523324A (zh) 一种具有智能侧键的手持式智能设备
JP6783388B2 (ja) 機械的スイッチのないトリガの動きの検出
KR20020072081A (ko) 손가락의 움직임에 의한 입력장치 및 그 방법
KR101332708B1 (ko) 배면 터치 보조 입력 장치를 갖는 모바일 단말기 및 배면 터치 보조 입력 장치를 탑재한 모바일 단말기용 보호 케이스
KR102322968B1 (ko) 사용자의 손동작에 따른 명령 입력 장치 및 이를 이용한 명령 입력 방법
US20180188923A1 (en) Arbitrary control mapping of input device
CN213690541U (zh) 可穿戴键盘
TWI683237B (zh) 使用仿生韌帶之手勢感應系統
JP6770103B2 (ja) 近接感知を備えた入力デバイスにおける指追跡
KR101548075B1 (ko) 착용가능한 데이터 입력장치
KR20220033750A (ko) 가상 훈련 시스템
WO2022089351A1 (zh) 一种可穿戴键鼠及鼠标的高效操作方法
KR20060028221A (ko) 마우스 포인터의 제어장치
Baudisch et al. Soap: a pointing and gaming device for the living room and anywhere else
TW201901370A (zh) 滑鼠裝置
KR20010028369A (ko) 컴퓨터용 마우스

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602