JP2022517448A - ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 - Google Patents
ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 Download PDFInfo
- Publication number
- JP2022517448A JP2022517448A JP2020529703A JP2020529703A JP2022517448A JP 2022517448 A JP2022517448 A JP 2022517448A JP 2020529703 A JP2020529703 A JP 2020529703A JP 2020529703 A JP2020529703 A JP 2020529703A JP 2022517448 A JP2022517448 A JP 2022517448A
- Authority
- JP
- Japan
- Prior art keywords
- display device
- processors
- wearable computing
- computing device
- wearable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作は、ユーザのコンピュータに対するインタラクションを容易にする、きわめて自然な方法である。直接操作には、表示されたオブジェクトに対する作用(たとえば、ソフトボタンのタッピング、スライダの移動、アイコンのドラッグ)が含まれる。表示デバイスのなかには、直接操作を容易にするタッチスクリーンを含むものもある。しかしながら、パブリックキオスク、デジタルテーブルトップ、ラップトップ、(たとえば、会議室または教室の)テレビの多くはタッチスクリーンを有していない。そのため、ユーザは通常、マウス、キーボードまたは遠隔ポインティングデバイスの使用を含む間接操作によって、これらのデバイス(すなわち、タッチスクリーンでないもの)を制御しなければならない。
一般に、本開示は、ウェアラブルコンピューティングデバイスを利用して、プレゼンスセンシティブ(存在感知、presence-sensitive)でない表示デバイスによって出力されるグラフィカルユーザインターフェースにおけるオブジェクトの直接操作を容易にするための技術に向けられている。たとえば、マウスまたは他の間接操作ツールの使用と異なり、ユーザは、表示デバイスにおいて表示されるオブジェクトを直接操作するために、表示デバイス上でウェアラブルコンピューティングデバイスをあちこち移動させ得る。1つもしくは複数の光学センサおよび/または1つもしくは複数の動きセンサなどの、ウェアラブルコンピューティングデバイスの1つまたは複数のセンサは、ウェアラブルコンピューティングデバイスが表示デバイス上で移動されるとデータを生成し得る。(たとえば、表示デバイスにグラフィカルユーザインターフェースを出力させている)制御デバイスは、センサデータに基づいて表示デバイス上のウェアラブルコンピューティングデバイスの位置を判断し得る。制御デバイスはその後、ウェアラブルコンピューティングデバイスの判断された位置をユーザ入力として用いて、グラフィカルユーザインターフェースに含まれるオブジェクトを操作し得る。
図1は、本開示の1つまたは複数の技術に係る、表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作を容易にするために、ウェアラブルコンピューティングデバイスを使用可能にするシステムを示すシステム図である。図1に示すように、システム2は、表示デバイス4と、ウェアラブルコンピューティングデバイス6と、制御デバイス8とを含む。
例1.1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、表示デバイスに、推定位置においてグラフィカルパターンを出力させることと、1つまたは複数のプロセッサがウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、1つまたは複数のプロセッサが、表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置としてウェアラブルコンピューティングデバイスのリファインされた位置を利用することとを備える。
本開示で説明された技術は、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組合せで実現可能である。たとえば、説明された技術のさまざまな態様は、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または任意の他の同等の集積回路もしくは個別論理回路、およびこれらのコンポーネントの任意の組合せを含む1つまたは複数のプロセッサ内で実現可能である。「プロセッサ」または「処理回路」という用語は、単独でもしくは他の論理回路と組み合わせた前述の論理回路のいずれか、または他の同等の回路を表し得る。ハードウェアを含む制御ユニットも、本開示の技術のうち1つ以上を行い得る。
Claims (21)
- 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備える、方法。 - 前記推定位置を判断することは、前記ウェアラブルコンピューティングデバイスの1つまたは複数の動きセンサによって生成された動きデータに基づいて、前記推定位置を判断することを含む、請求項1に記載の方法。
- 前記グラフィカルパターンは、中心領域と前記中心領域の周囲に分散された複数の境界領域とを含む複数の領域を含み、前記複数の領域の各領域は異なる光学特徴を有し、リファインされた前記位置を判断することは、
前記光学データに基づいて、前記複数の領域のうちいずれかが検出されているかどうかを判断することと、
前記複数の境界領域のうち特定の境界領域が検出されているという判断に応じて、前記特定の境界領域に基づいて調整方向を判断することと、
前記調整方向において、前記推定位置を調整してリファインされた前記位置を取得することとを含む、請求項2に記載の方法。 - リファインされた前記位置を判断することはさらに、前記複数の領域のうちいずれも検出されていないという判断に応じて、前記表示デバイスに、現在のサイズに対して拡大されたサイズで前記グラフィカルパターンを出力させることを含む、請求項3に記載の方法。
- リファインされた前記位置を判断することはさらに、前記複数の領域のうち前記中心領域が検出されているという判断に応じて、前記表示デバイスに、現在のサイズに対して縮小されたサイズで前記グラフィカルパターンを出力させることを含む、請求項3に記載の方法。
- 前記表示デバイスに前記グラフィカルパターンを出力させることは、前記表示デバイスに、所定のレートで前記グラフィカルパターンを点滅させることを含む、請求項1に記載の方法。
- 前記ウェアラブルコンピューティングデバイスの前記光学センサは、光電脈波センサを含む、請求項1に記載の方法。
- 前記1つまたは複数のプロセッサは前記表示デバイスに含まれている、請求項1に記載の方法。
- 前記1つまたは複数のプロセッサは前記ウェアラブルコンピューティングデバイスに含まれている、請求項1に記載の方法。
- 前記1つまたは複数のプロセッサは、前記ウェアラブルコンピューティングデバイスおよび前記表示デバイスとは異なる他のデバイスに含まれ、前記方法はさらに、
前記他のデバイスが、前記ウェアラブルコンピューティングデバイスから前記光学データを受信することと、
前記表示デバイスに、前記グラフィカルユーザインターフェースを出力させることとを備える、請求項1に記載の方法。 - 制御デバイスであって、
1つまたは複数のプロセッサと、
メモリとを備え、前記メモリは、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断させる命令と、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させる命令と、
前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断させる命令と、
前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用させる命令とを含む、制御デバイス。 - 前記1つまたは複数のプロセッサに前記推定位置を判断させる前記命令は、前記1つまたは複数のプロセッサに、前記ウェアラブルコンピューティングデバイスの1つまたは複数の動きセンサによって生成された動きデータに基づいて、前記推定位置を判断させる命令を含む、請求項11に記載のデバイス。
- 前記グラフィカルパターンは、中心領域と前記中心領域の周囲に分散された複数の境界領域とを含む複数の領域を含み、前記複数の領域の各領域は異なる光学特徴を有し、前記1つまたは複数のプロセッサにリファインされた前記位置を判断させる命令は、前記1つまたは複数のプロセッサに、
前記光学データに基づいて、前記複数の領域のうちいずれかが検出されているかどうかを判断させる命令と、
前記複数の境界領域のうち特定の境界領域が検出されているという判断に応じて、前記特定の境界領域に基づいて調整方向を判断させる命令と、
前記調整方向において、前記推定位置を調整してリファインされた前記位置を取得させる命令とを含む、請求項12に記載の制御デバイス。 - 前記1つまたは複数のプロセッサにリファインされた前記位置を判断させる前記命令はさらに、前記1つまたは複数のプロセッサに、前記複数の領域のうちいずれも検出されていないという判断に応じて、前記表示デバイスに、現在のサイズに対して拡大されたサイズで前記グラフィカルパターンを出力させる命令を含む、請求項13に記載の制御デバイス。
- 前記1つまたは複数のプロセッサにリファインされた前記位置を判断させる前記命令はさらに、前記1つまたは複数のプロセッサに、前記複数の領域のうち前記中心領域が検出されているという判断に応じて、前記表示デバイスに、現在のサイズに対して縮小されたサイズで前記グラフィカルパターンを出力させる命令を含む、請求項13に記載の制御デバイス。
- 前記1つまたは複数のプロセッサに、前記表示デバイスに前記グラフィカルパターンを出力させる前記命令は、前記1つまたは複数のプロセッサに、前記表示デバイスに所定のレートで前記グラフィカルパターンを点滅させることを含む、請求項11に記載の制御デバイス。
- 前記ウェアラブルコンピューティングデバイスの前記光学センサは、光電脈波センサを含む、請求項1に記載の制御デバイス。
- 前記1つまたは複数のプロセッサは前記表示デバイスに含まれ、さらに、前記1つまたは複数のプロセッサに、前記表示デバイスによって前記ウェアラブルコンピューティングデバイスから前記光学データを受信させる命令を含む、請求項11に記載の制御デバイス。
- 前記1つまたは複数のプロセッサは前記ウェアラブルコンピューティングデバイスに含まれ、さらに、前記1つまたは複数のプロセッサに、前記表示デバイスに前記グラフィカルユーザインターフェースを出力させる命令を含む、請求項11に記載の制御デバイス。
- 前記1つまたは複数のプロセッサは、前記ウェアラブルコンピューティングデバイスおよび前記表示デバイスとは異なる他のデバイスに含まれ、さらに、前記1つまたは複数のプロセッサに、
前記他のデバイスによって前記ウェアラブルコンピューティングデバイスから、前記光学データを受信させる命令と、
前記表示デバイスに、前記グラフィカルユーザインターフェースを出力させる命令とを含む、請求項11に記載の制御デバイス。 - コンピュータ可読記憶媒体であって、実行されると1つまたは複数のプロセッサに、
プレゼンスセンシティブでない表示デバイスに、前記1つまたは複数のプロセッサにおいて実行されているアプリケーションによって生成されたグラフィカルユーザインターフェースを出力させる命令と、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させる命令と、
前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断させる命令と、
前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を、前記アプリケーションのためのユーザ入力の位置として利用させる命令とを格納する、コンピュータ可読記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/067603 WO2021126223A1 (en) | 2019-12-19 | 2019-12-19 | Direct manipulation of display device using wearable computing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517448A true JP2022517448A (ja) | 2022-03-09 |
JP7246390B2 JP7246390B2 (ja) | 2023-03-27 |
Family
ID=69326651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020529703A Active JP7246390B2 (ja) | 2019-12-19 | 2019-12-19 | ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11301040B2 (ja) |
EP (1) | EP3864495A1 (ja) |
JP (1) | JP7246390B2 (ja) |
KR (1) | KR102349210B1 (ja) |
CN (1) | CN113316753A (ja) |
WO (1) | WO2021126223A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209013A1 (en) * | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
JP2013514583A (ja) * | 2009-12-18 | 2013-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 表示デバイスに対するカメラの場所を特定すること |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665543B2 (en) * | 2007-03-21 | 2017-05-30 | International Business Machines Corporation | System and method for reference validation in word processor documents |
US9400390B2 (en) * | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US8594467B2 (en) | 2008-12-19 | 2013-11-26 | Microsoft Corporation | Interactive virtual display system for ubiquitous devices |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
CA2828222A1 (en) | 2010-02-23 | 2011-09-01 | Muv Interactive Ltd. | A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
US9250746B2 (en) * | 2010-03-12 | 2016-02-02 | Shafa Wala | Position capture input apparatus, system, and method therefor |
KR101720494B1 (ko) | 2010-07-16 | 2017-03-28 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법 |
JP2015531510A (ja) * | 2012-09-06 | 2015-11-02 | インターフェイズ・コーポレーション | 対話型表示システムにおける絶対的および相対的位置決めセンサ連携 |
KR20200119912A (ko) * | 2014-02-10 | 2020-10-20 | 애플 인크. | 광학 센서를 사용해 검출된 모션 제스처 입력 |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
US9377854B2 (en) * | 2014-03-28 | 2016-06-28 | Intel Corporation | Technologies for remotely controlling a computing device via a wearable computing device |
CN103995592A (zh) | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
US9594427B2 (en) | 2014-05-23 | 2017-03-14 | Microsoft Technology Licensing, Llc | Finger tracking |
US9495008B2 (en) * | 2014-06-27 | 2016-11-15 | Amazon Technologies, Inc. | Detecting a primary user of a device |
KR101680084B1 (ko) | 2015-02-16 | 2016-11-28 | 한국과학기술원 | 제스처 디자인 방법 및 제스처 디자인 장치 |
KR20170007963A (ko) | 2015-07-13 | 2017-01-23 | 엘지전자 주식회사 | 디스플레이 시스템 |
US9977960B2 (en) * | 2015-09-24 | 2018-05-22 | Tobii Ab | Eye-tracking enabled wearable devices |
KR20180037511A (ko) | 2016-10-04 | 2018-04-12 | 삼성전자주식회사 | 전자 장치 및 그의 유저 인터페이스 제공 방법 |
KR102054586B1 (ko) | 2018-05-30 | 2019-12-10 | 유비시스(주) | 미세먼지센서를 포함하는 멀티 융복합 센서기반 듀얼 모드 웨어러블 디바이스 동작방법 |
-
2019
- 2019-12-19 EP EP19842944.1A patent/EP3864495A1/en active Pending
- 2019-12-19 KR KR1020207016633A patent/KR102349210B1/ko active IP Right Grant
- 2019-12-19 US US16/765,229 patent/US11301040B2/en active Active
- 2019-12-19 CN CN201980006375.XA patent/CN113316753A/zh active Pending
- 2019-12-19 WO PCT/US2019/067603 patent/WO2021126223A1/en unknown
- 2019-12-19 JP JP2020529703A patent/JP7246390B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209013A1 (en) * | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
JP2013514583A (ja) * | 2009-12-18 | 2013-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 表示デバイスに対するカメラの場所を特定すること |
Also Published As
Publication number | Publication date |
---|---|
KR20210080272A (ko) | 2021-06-30 |
WO2021126223A1 (en) | 2021-06-24 |
JP7246390B2 (ja) | 2023-03-27 |
EP3864495A1 (en) | 2021-08-18 |
KR102349210B1 (ko) | 2022-01-10 |
US20210318754A1 (en) | 2021-10-14 |
CN113316753A (zh) | 2021-08-27 |
US11301040B2 (en) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3164785B1 (en) | Wearable device user interface control | |
EP3301602B1 (en) | Managing display of private information | |
US9804679B2 (en) | Touchless user interface navigation using gestures | |
EP3065040A1 (en) | Information processing device, information processing method, and program | |
JP2014002748A (ja) | 遠隔制御装置及びその制御方法 | |
KR20190067227A (ko) | 가상 현실 시스템을 위한 입력 제어기 안정화 기법 | |
KR20160050682A (ko) | 전자장치의 화면 표시 제어 방법 및 장치 | |
KR102297473B1 (ko) | 신체를 이용하여 터치 입력을 제공하는 장치 및 방법 | |
WO2018105955A2 (ko) | 객체를 디스플레이하기 위한 방법 및 그 전자 장치 | |
EP3438789A1 (en) | Information processing device, information processing method, and program | |
EP3161611A1 (en) | Controlling brightness of a remote display | |
CN114600062A (zh) | 利用显示设备的物理位置的设备管理器 | |
US10558340B2 (en) | Inadvertent dismissal prevention for graphical content | |
US20160291703A1 (en) | Operating system, wearable device, and operation method | |
US20240028129A1 (en) | Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof | |
JP7246390B2 (ja) | ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 | |
CN115480639A (zh) | 人机交互系统、人机交互方法、可穿戴设备及头显设备 | |
KR20150009199A (ko) | 객체 편집을 위한 전자 장치 및 방법 | |
US11928264B2 (en) | Fixed user interface navigation | |
US20240094819A1 (en) | Devices, methods, and user interfaces for gesture-based interactions | |
WO2024001828A1 (zh) | 腕戴设备控制方法及相关系统、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230117 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7246390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |