JP7246390B2 - ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 - Google Patents
ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 Download PDFInfo
- Publication number
- JP7246390B2 JP7246390B2 JP2020529703A JP2020529703A JP7246390B2 JP 7246390 B2 JP7246390 B2 JP 7246390B2 JP 2020529703 A JP2020529703 A JP 2020529703A JP 2020529703 A JP2020529703 A JP 2020529703A JP 7246390 B2 JP7246390 B2 JP 7246390B2
- Authority
- JP
- Japan
- Prior art keywords
- display device
- computing device
- wearable computing
- wearable
- graphical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Description
表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作は、ユーザのコンピュータに対するインタラクションを容易にする、きわめて自然な方法である。直接操作には、表示されたオブジェクトに対する作用(たとえば、ソフトボタンのタッピング、スライダの移動、アイコンのドラッグ)が含まれる。表示デバイスのなかには、直接操作を容易にするタッチスクリーンを含むものもある。しかしながら、パブリックキオスク、デジタルテーブルトップ、ラップトップ、(たとえば、会議室または教室の)テレビの多くはタッチスクリーンを有していない。そのため、ユーザは通常、マウス、キーボードまたは遠隔ポインティングデバイスの使用を含む間接操作によって、これらのデバイス(すなわち、タッチスクリーンでないもの)を制御しなければならない。
一般に、本開示は、ウェアラブルコンピューティングデバイスを利用して、プレゼンスセンシティブ(存在感知、presence-sensitive)でない表示デバイスによって出力されるグラフィカルユーザインターフェースにおけるオブジェクトの直接操作を容易にするための技術に向けられている。たとえば、マウスまたは他の間接操作ツールの使用と異なり、ユーザは、表示デバイスにおいて表示されるオブジェクトを直接操作するために、表示デバイス上でウェアラブルコンピューティングデバイスをあちこち移動させ得る。1つもしくは複数の光学センサおよび/または1つもしくは複数の動きセンサなどの、ウェアラブルコンピューティングデバイスの1つまたは複数のセンサは、ウェアラブルコンピューティングデバイスが表示デバイス上で移動されるとデータを生成し得る。(たとえば、表示デバイスにグラフィカルユーザインターフェースを出力させている)制御デバイスは、センサデータに基づいて表示デバイス上のウェアラブルコンピューティングデバイスの位置を判断し得る。制御デバイスはその後、ウェアラブルコンピューティングデバイスの判断された位置をユーザ入力として用いて、グラフィカルユーザインターフェースに含まれるオブジェクトを操作し得る。
図1は、本開示の1つまたは複数の技術に係る、表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作を容易にするために、ウェアラブルコンピューティングデバイスを使用可能にするシステムを示すシステム図である。図1に示すように、システム2は、表示デバイス4と、ウェアラブルコンピューティングデバイス6と、制御デバイス8とを含む。
例1.1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、表示デバイスに、推定位置においてグラフィカルパターンを出力させることと、1つまたは複数のプロセッサがウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、1つまたは複数のプロセッサが、表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置としてウェアラブルコンピューティングデバイスのリファインされた位置を利用することとを備える。
本開示で説明された技術は、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組合せで実現可能である。たとえば、説明された技術のさまざまな態様は、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または任意の他の同等の集積回路もしくは個別論理回路、およびこれらのコンポーネントの任意の組合せを含む1つまたは複数のプロセッサ内で実現可能である。「プロセッサ」または「処理回路」という用語は、単独でもしくは他の論理回路と組み合わせた前述の論理回路のいずれか、または他の同等の回路を表し得る。ハードウェアを含む制御ユニットも、本開示の技術のうち1つ以上を行い得る。
Claims (12)
- 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
前記グラフィカルパターンは、中心領域と前記中心領域の周囲に分散された複数の境界領域とを含む複数の領域を含み、前記複数の領域の各領域は異なる光学特徴を有し、リファインされた前記位置を判断することは、
前記光学データに基づいて、前記複数の領域のいずれかが検出されているかどうかを判断することと、
前記複数の境界領域のうち特定の境界領域が検出されているという判断に応じて、前記特定の境界領域に基づいて調整方向を判断することと、
前記調整方向において、前記推定位置を調整してリファインされた前記位置を取得することとを含む、方法。 - リファインされた前記位置を判断することはさらに、前記複数の領域のうちいずれも検出されていないという判断に応じて、前記表示デバイスに、現在のサイズに対して拡大されたサイズで前記グラフィカルパターンを出力させることを含む、請求項1に記載の方法。
- リファインされた前記位置を判断することはさらに、前記複数の領域のうち前記中心領域が検出されているという判断に応じて、前記表示デバイスに、現在のサイズに対して縮小されたサイズで前記グラフィカルパターンを出力させることを含む、請求項1または2に記載の方法。
- 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
前記表示デバイスに前記グラフィカルパターンを出力させることは、前記表示デバイスに、所定のレートで前記グラフィカルパターンを点滅させることを含む、方法。 - 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
前記ウェアラブルコンピューティングデバイスの前記光学センサは、光電脈波センサを含む、方法。 - 前記1つまたは複数のプロセッサは前記表示デバイスに含まれている、請求項1~5のいずれか1項に記載の方法。
- 前記1つまたは複数のプロセッサは前記ウェアラブルコンピューティングデバイスに含まれている、請求項1~5のいずれか1項に記載の方法。
- 前記1つまたは複数のプロセッサは、前記ウェアラブルコンピューティングデバイスおよび前記表示デバイスとは異なる他のデバイスに含まれ、前記方法はさらに、
前記他のデバイスが前記ウェアラブルコンピューティングデバイスから、前記光学データを受信することと、
前記表示デバイスに、前記グラフィカルユーザインターフェースを出力させることとを備える、請求項1~5のいずれか1項に記載の方法。 - 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
前記光学データは、前記グラフィカルパターンが前記推定位置に出力された状態で、前記表示デバイスの表示領域の一部を前記光学センサがセンシングすることによって生成される、方法。 - コンピューティングデバイスであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~9のいずれか1項に記載の方法を実行させる命令を含むメモリとを備える、コンピューティングデバイス。 - 請求項1~9のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
- 請求項1~9のいずれか1項に記載の方法を実行する手段を備える、デバイス。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/067603 WO2021126223A1 (en) | 2019-12-19 | 2019-12-19 | Direct manipulation of display device using wearable computing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022517448A JP2022517448A (ja) | 2022-03-09 |
JP7246390B2 true JP7246390B2 (ja) | 2023-03-27 |
Family
ID=69326651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020529703A Active JP7246390B2 (ja) | 2019-12-19 | 2019-12-19 | ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11301040B2 (ja) |
EP (1) | EP3864495A1 (ja) |
JP (1) | JP7246390B2 (ja) |
KR (1) | KR102349210B1 (ja) |
CN (1) | CN113316753A (ja) |
WO (1) | WO2021126223A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209013A1 (en) | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
JP2013514583A (ja) | 2009-12-18 | 2013-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 表示デバイスに対するカメラの場所を特定すること |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665543B2 (en) * | 2007-03-21 | 2017-05-30 | International Business Machines Corporation | System and method for reference validation in word processor documents |
US9400390B2 (en) * | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US8594467B2 (en) | 2008-12-19 | 2013-11-26 | Microsoft Corporation | Interactive virtual display system for ubiquitous devices |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US20130328770A1 (en) * | 2010-02-23 | 2013-12-12 | Muv Interactive Ltd. | System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
EP2545494A1 (en) * | 2010-03-12 | 2013-01-16 | Shafa Wala | Position capture input apparatus, system, and method therefor |
KR101720494B1 (ko) | 2010-07-16 | 2017-03-28 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법 |
KR20150053955A (ko) * | 2012-09-06 | 2015-05-19 | 인터페이즈 코퍼레이션 | 대화형 디스플레이 시스템에서의 절대적 및 상대적 위치결정 센서 융합 |
US20160357265A1 (en) * | 2014-02-10 | 2016-12-08 | Apple Inc. | Motion gesture input detected using optical sensors |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
US9377854B2 (en) | 2014-03-28 | 2016-06-28 | Intel Corporation | Technologies for remotely controlling a computing device via a wearable computing device |
CN103995592A (zh) | 2014-05-21 | 2014-08-20 | 上海华勤通讯技术有限公司 | 穿戴式设备与终端进行信息交互的方法及终端 |
US9594427B2 (en) | 2014-05-23 | 2017-03-14 | Microsoft Technology Licensing, Llc | Finger tracking |
US9495008B2 (en) * | 2014-06-27 | 2016-11-15 | Amazon Technologies, Inc. | Detecting a primary user of a device |
KR101680084B1 (ko) | 2015-02-16 | 2016-11-28 | 한국과학기술원 | 제스처 디자인 방법 및 제스처 디자인 장치 |
KR20170007963A (ko) | 2015-07-13 | 2017-01-23 | 엘지전자 주식회사 | 디스플레이 시스템 |
KR20180057693A (ko) * | 2015-09-24 | 2018-05-30 | 토비 에이비 | 눈 추적 가능한 웨어러블 디바이스들 |
KR20180037511A (ko) | 2016-10-04 | 2018-04-12 | 삼성전자주식회사 | 전자 장치 및 그의 유저 인터페이스 제공 방법 |
KR102054586B1 (ko) | 2018-05-30 | 2019-12-10 | 유비시스(주) | 미세먼지센서를 포함하는 멀티 융복합 센서기반 듀얼 모드 웨어러블 디바이스 동작방법 |
-
2019
- 2019-12-19 EP EP19842944.1A patent/EP3864495A1/en active Pending
- 2019-12-19 CN CN201980006375.XA patent/CN113316753A/zh active Pending
- 2019-12-19 WO PCT/US2019/067603 patent/WO2021126223A1/en unknown
- 2019-12-19 KR KR1020207016633A patent/KR102349210B1/ko active IP Right Grant
- 2019-12-19 JP JP2020529703A patent/JP7246390B2/ja active Active
- 2019-12-19 US US16/765,229 patent/US11301040B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060209013A1 (en) | 2005-03-17 | 2006-09-21 | Mr. Dirk Fengels | Method of controlling a machine connected to a display by line of vision |
JP2013514583A (ja) | 2009-12-18 | 2013-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 表示デバイスに対するカメラの場所を特定すること |
Also Published As
Publication number | Publication date |
---|---|
US20210318754A1 (en) | 2021-10-14 |
EP3864495A1 (en) | 2021-08-18 |
WO2021126223A1 (en) | 2021-06-24 |
CN113316753A (zh) | 2021-08-27 |
KR20210080272A (ko) | 2021-06-30 |
US11301040B2 (en) | 2022-04-12 |
KR102349210B1 (ko) | 2022-01-10 |
JP2022517448A (ja) | 2022-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210405761A1 (en) | Augmented reality experiences with object manipulation | |
US11861070B2 (en) | Hand gestures for animating and controlling virtual and graphical elements | |
EP3164785B1 (en) | Wearable device user interface control | |
WO2019153824A1 (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
KR102491443B1 (ko) | 애플리케이션을 위한 디스플레이 적응 방법 및 장치, 디바이스, 및 저장 매체 | |
US11520399B2 (en) | Interactive augmented reality experiences using positional tracking | |
US20180101240A1 (en) | Touchless user interface navigation using gestures | |
KR20190067227A (ko) | 가상 현실 시스템을 위한 입력 제어기 안정화 기법 | |
KR20160050682A (ko) | 전자장치의 화면 표시 제어 방법 및 장치 | |
JP6911834B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP3550415A2 (en) | Method for displaying object and electronic device thereof | |
JP7252252B2 (ja) | 手の位置に基づいたモーダル制御の開始 | |
US9665232B2 (en) | Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device | |
US20230367118A1 (en) | Augmented reality gaming using virtual eyewear beams | |
JP7246390B2 (ja) | ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 | |
US20200042167A1 (en) | Electronic device and method for providing virtual input tool | |
US20240119928A1 (en) | Media control tools for managing communications between devices | |
WO2023034017A1 (en) | Augmented reality prop interactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230117 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230117 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230125 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7246390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |