JP7246390B2 - ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 - Google Patents

ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 Download PDF

Info

Publication number
JP7246390B2
JP7246390B2 JP2020529703A JP2020529703A JP7246390B2 JP 7246390 B2 JP7246390 B2 JP 7246390B2 JP 2020529703 A JP2020529703 A JP 2020529703A JP 2020529703 A JP2020529703 A JP 2020529703A JP 7246390 B2 JP7246390 B2 JP 7246390B2
Authority
JP
Japan
Prior art keywords
display device
computing device
wearable computing
wearable
graphical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020529703A
Other languages
English (en)
Other versions
JP2022517448A (ja
Inventor
ヤオ,フゥイ・シヨン
フアン,シュエリン
フォン,ウェンシン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2022517448A publication Critical patent/JP2022517448A/ja
Application granted granted Critical
Publication of JP7246390B2 publication Critical patent/JP7246390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Description

背景
表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作は、ユーザのコンピュータに対するインタラクションを容易にする、きわめて自然な方法である。直接操作には、表示されたオブジェクトに対する作用(たとえば、ソフトボタンのタッピング、スライダの移動、アイコンのドラッグ)が含まれる。表示デバイスのなかには、直接操作を容易にするタッチスクリーンを含むものもある。しかしながら、パブリックキオスク、デジタルテーブルトップ、ラップトップ、(たとえば、会議室または教室の)テレビの多くはタッチスクリーンを有していない。そのため、ユーザは通常、マウス、キーボードまたは遠隔ポインティングデバイスの使用を含む間接操作によって、これらのデバイス(すなわち、タッチスクリーンでないもの)を制御しなければならない。
概要
一般に、本開示は、ウェアラブルコンピューティングデバイスを利用して、プレゼンスセンシティブ(存在感知、presence-sensitive)でない表示デバイスによって出力されるグラフィカルユーザインターフェースにおけるオブジェクトの直接操作を容易にするための技術に向けられている。たとえば、マウスまたは他の間接操作ツールの使用と異なり、ユーザは、表示デバイスにおいて表示されるオブジェクトを直接操作するために、表示デバイス上でウェアラブルコンピューティングデバイスをあちこち移動させ得る。1つもしくは複数の光学センサおよび/または1つもしくは複数の動きセンサなどの、ウェアラブルコンピューティングデバイスの1つまたは複数のセンサは、ウェアラブルコンピューティングデバイスが表示デバイス上で移動されるとデータを生成し得る。(たとえば、表示デバイスにグラフィカルユーザインターフェースを出力させている)制御デバイスは、センサデータに基づいて表示デバイス上のウェアラブルコンピューティングデバイスの位置を判断し得る。制御デバイスはその後、ウェアラブルコンピューティングデバイスの判断された位置をユーザ入力として用いて、グラフィカルユーザインターフェースに含まれるオブジェクトを操作し得る。
このように、本開示の技術によって、ユーザは、表示デバイスによって表示されるオブジェクトを直接操作可能である。ウェアラブルコンピューティングデバイスの判断された位置をユーザ入力として利用することによって、制御デバイスは、タッチスクリーンまたは他の直接操作手段を含まない表示デバイスとのさらにリッチなインタラクションを行い得る。
一例として、方法は、1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、表示デバイスに、推定位置においてグラフィカルパターンを出力させることと、1つまたは複数のプロセッサがウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、1つまたは複数のプロセッサが、表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置としてウェアラブルコンピューティングデバイスのリファインされた位置を利用することとを備える。
他の例として、制御デバイスは、1つまたは複数のプロセッサと、メモリとを備え、メモリは、1つまたは複数のプロセッサによって実行されると1つまたは複数のプロセッサに、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断させる命令と、表示デバイスに、推定位置においてグラフィカルパターンを出力させる命令と、ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断させる命令と、表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置としてウェアラブルコンピューティングデバイスのリファインされた位置を利用させる命令とを含む。
他の例として、コンピュータ可読記憶媒体は、実行されると1つまたは複数のプロセッサに、プレゼンスセンシティブでない表示デバイスに、1つまたは複数のプロセッサにおいて実行されているアプリケーションによって生成されたグラフィカルユーザインターフェースを出力させる命令と、表示デバイスに、推定位置においてグラフィカルパターンを出力させる命令と、ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断させる命令と、ウェアラブルコンピューティングデバイスのリファインされた位置を、アプリケーションのためのユーザ入力の位置として利用させる命令とを格納する。
本開示の1つまたは複数の例について、添付の図面および以下の記載において詳細に説明する。他の特徴、目的、および利点は、説明および図面、ならびに請求項の範囲から明らかとなろう。
本開示の1つまたは複数の技術に係る、表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作を容易にするために、ウェアラブルコンピューティングデバイスを使用可能にするシステムを示すシステム図である。 本開示の1つまたは複数の態様に係る、表示されたユーザインターフェースコンポーネントの直接操作を容易にするために使用可能なウェアラブルコンピューティングデバイス6を示すブロック図である。 本開示の1つまたは複数の態様に係る、表示されたグラフィカルオブジェクトの直接操作のためにウェアラブルデバイスの使用を可能にするように構成された制御デバイスの例を示すブロック図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。 本開示の1つまたは複数の技術に係る、表示されたグラフィカルオブジェクトの直接操作のためにウェアラブルデバイスの使用を可能にするデバイスの動作の例を示すフロー図である。 本開示の1つまたは複数の技術に係る、グローバル初期化のために使用可能なグラフィカルパターンの例を示す図である。 本開示の1つまたは複数の技術に係る、グローバル初期化のために使用可能なグラフィカルパターンの例を示す図である。 本開示の1つまたは複数の技術に係る、グローバル初期化のために使用可能なグラフィカルパターンの例を示す図である。
詳細な説明
図1は、本開示の1つまたは複数の技術に係る、表示デバイスによって出力されるグラフィカルユーザインターフェース内のオブジェクトの直接操作を容易にするために、ウェアラブルコンピューティングデバイスを使用可能にするシステムを示すシステム図である。図1に示すように、システム2は、表示デバイス4と、ウェアラブルコンピューティングデバイス6と、制御デバイス8とを含む。
表示デバイス4は、一人または複数のユーザが視聴するために、グラフィカル情報を表示するように構成され得る。表示デバイス4の例として、モニター、テレビ、背面投射型スクリーン、または情報を表示可能な他のデバイスが挙げられるが、これらに限定されるわけではない。表示デバイス4は、任意の好適な技術を用いて出力画像を形成し得る。画像形成技術の例として、液晶表示装置(LCD)、レーザ、発光ダイオード(LED)、有機発光ダイオード(OLED)、プラズマなどが挙げられるが、これらに限定されるわけではない。
表示デバイス4は、表示のためにグラフィカル情報を生成するように構成されたコンポーネントを含み得る。たとえば表示デバイス4は、いわゆる「スマートディスプレイ」でもよい。表示デバイス4は、外部デバイス(たとえば、制御デバイス8)からの表示のためにグラフィカル情報を受信可能な1つまたは複数の入力(たとえば、有線入力および無線入力のうちの1つまたは両方)を含み得る。たとえば、表示デバイス4は、1つもしくは複数の有線入力(たとえば、高解像度マルチメディアインターフェース(HDMI(登録商標))入力、1つもしくは複数の表示ポート入力、1つもしくは複数のネットワーク接続(たとえば、WIFI、ブルートゥース(登録商標)、イーサネット(登録商標)など)、および/または、1つもしくは複数のデジタルビジュアルインターフェース(DVI)入力を含み得る。
制御デバイス8は、表示デバイス4にグラフィカル情報を出力させるように構成可能である。たとえば、制御デバイス8は表示デバイス4に、1つまたは複数のグラフィカルオブジェクト(たとえば、ボタン、キー、スライダなど)を含むグラフィカルインターフェースを表示させ得る。いくつかの例では、制御デバイス8は、表示デバイス4に一体化可能である。たとえば、表示デバイス4が「スマートディスプレイ」の場合、制御デバイス8は、表示デバイス4に一体化可能である。他の例では、制御デバイス8は、表示デバイス4の外部デバイスでもよい。たとえば制御デバイス8は、表示デバイス4の入力を介して表示デバイス4にグラフィカル情報を出力可能である。一例として、制御デバイス8は、表示デバイス4のHDMI入力に差し込まれたストリーミングスティックでもよい。他の例として、制御デバイス8は、モバイルコンピューティングデバイス(たとえば、スマートフォン)でもよく、グラフィカル情報を表示デバイス4に無線で流してもよい。
制御デバイス8は、制御デバイス8の動作をサポートするためにさまざまな計算を行い得る1つまたは複数のプロセッサを含み得る。たとえば、制御デバイス8の1つまたは複数のプロセッサは、グラフィカルユーザインターフェースを生成するアプリケーションを実行してもよく、制御デバイス8は、表示デバイス4において表示されてもよい。
いくつかの例では、表示デバイス4は、ユーザに表示デバイス4において表示されるグラフィカルオブジェクトを直接操作させるように構成された1つまたは複数の入力コンポーネントを含み得る。たとえば表示デバイス4は、タッチ感知パネル、または表示デバイス4上もしくはその付近のユーザの移動を検出する他のプレゼンスセンシティブパネルを含み得る。表示デバイス4がプレゼンスセンシティブパネルを含む場合、表示デバイス4は、プレゼンスセンシティブパネルを介して受信されたユーザ入力の表現を制御デバイス8に出力し得る。たとえば表示デバイス4は、プレゼンスセンシティブパネルがユーザ入力を検出した表示デバイス4上の位置を表す(x、y)座標ペアのストリームを制御デバイス8に出力し得る。制御デバイス8は、表示デバイス4において表示されているグラフィカルユーザインターフェースを出力している制御デバイス8において実行されているアプリケーションのためのユーザ入力として、表示デバイス4によって提供されるユーザ入力の表現を利用し得る。
上述のように、表示されたグラフィカルオブジェクトの直接操作は、間接操作よりも望ましい。たとえば、グラフィカルオブジェクトの直接操作は、間接操作と比べて、ユーザにとってより自然に感じ得る。しかしながらいくつかの例では、表示デバイス4は、表示デバイス4において表示されるグラフィカルオブジェクトをユーザに直接操作させるように構成された入力コンポーネントを含まなくてもよい。たとえば、表示デバイス4は、いわゆる「タッチスクリーン」でなくてもよく、プレゼンスセンシティブディスプレイとみなされなくてもよい。そのため、表示デバイス4がプレゼンスセンシティブパネルでない場合であっても、表示デバイス4において表示されるグラフィカルオブジェクトの直接操作を可能にできることが望ましい場合がある。
本開示の1つまたは複数の技術に従って、制御デバイス8は、表示デバイス4において表示されるグラフィカルオブジェクトの直接操作を行うように、ウェアラブルコンピューティングデバイス6をユーザに使用させ得る。ウェアラブルコンピューティングデバイス6(単に「ウェアラブル6」とも呼ばれる)は、ユーザが装着するように構成されたデバイスでもよい。図1の例では、ウェアラブル6は、コンピュータ制御の腕時計である。しかしながら他の例では、ウェアラブル6は、コンピュータ制御のフィットネスバンド/トラッカー、コンピュータ制御のアイウェア、コンピュータ制御のヘッドウェア、コンピュータ制御の手袋などである。以下で説明するように、いくつかの例では、ウェアラブルデバイス以外のデバイスはウェアラブル6の機能を行い得る。
ウェアラブル6は、1つまたは複数の計測されたパラメータを表すデータを生成するように構成し得るセンサ10を含む。図2を参照してさらに詳細に説明されるように、センサ10は、1つまたは複数のセンサおよび1つまたは複数の光学センサを含み得る。ウェアラブル6は、センサ10によって生成されたデータを、制御デバイス8などの、1つまたは複数の外部デバイスに無線送信するように構成されたコンポーネントを含み得る。
制御デバイス8は、ウェアラブル6から受信されたセンサデータに基づいて、表示デバイス4上のウェアラブル6の位置を判断し得る。たとえば制御デバイス8は、(たとえば、センサ10のうち1つまたは複数の動きセンサによって生成される動きデータに基づいて)表示デバイス4上のウェアラブル6の推定位置を判断し得る。ユーザが表示デバイス4を横断してウェアラブル6を移動させると、ウェアラブル6の動きセンサは、ウェアラブル6の移動を表す動きデータを生成し得る。制御デバイス8は、この動きデータを処理して、ウェアラブル6の相対移動を判断し得る。たとえば、動きセンサによって生成される加速度計データおよび/またはジャイロデータに基づいて、制御デバイス8は、ウェアラブル6が95°の方位で6インチ移動したと判断し得る。しかしながら、動きデータのみに基づいて表示デバイス4上のウェアラブル6の位置を判断することは、1つまたは複数の欠点が生じることがある。たとえば、最初に分かっている位置がある場合でも、制御デバイス8は次の位置を判断するためにデッドレコニングを用いる場合があり、これによって、時間と共にますます多くのエラーが導入されてしまう。そのため、いくつかの例では、ただの動きデータでないものに基づいて表示デバイス4上のウェアラブル6の位置を判断することが望ましい場合がある。
いくつかの例では、動きデータに加えてまたはこの代わりに、制御デバイス8は、ウェアラブル6の1つまたは複数の光学センサによって生成された光学データに基づいて、表示デバイス4上のウェアラブル6の位置を判断し得る。たとえば、制御デバイス8は表示デバイス4に、表示デバイス4上のウェアラブル6の推定現在位置においてグラフィカルパターンを出力させてもよい。図1に示すように、制御デバイス8は、表示デバイス4に、各々が異なる光学特徴(たとえば、異なる色、異なる色合いまたは明るさ)を有する複数の領域を含むグラフィカルパターン12を出力させ得る。これらの複数の領域は、中心領域14と、中心領域14の周囲に分散した複数の境界領域16A~16D(まとめて「境界領域16」)とを含み得る。制御デバイス8は、ウェアラブル6から受信された光学データを用いて、表示デバイス4上のウェアラブル6の現在位置の推定をリファインし得る。制御デバイス8は、表示デバイス4において表示されているグラフィカルユーザインターフェースを出力している制御デバイス8において実行されているアプリケーションについてのユーザ入力として、リファインされた位置を利用し得る。ウェアラブル6の推定位置をリフィアンするための技術の一例について、図4A~図4Fを参照して以下でさらに詳細に説明する。
いくつかの例では、制御デバイス8は、動きデータと光学データとの組合せに基づいて、表示デバイス4上のウェアラブル6の位置を判断し得る。たとえば、制御デバイス8は、動きデータに基づいてウェアラブル6の最初の推定位置を判断してもよく、光学データに基づいてリファインされた位置を判断してもよい。
制御デバイス8は、表示デバイス4を介してグラフィカルユーザインターフェースを出力するアプリケーションについてのユーザ入力の位置として、ウェアラブルコンピューティングデバイスのリファインされた位置を利用し得る。たとえば、制御デバイス8において実行されているアプリケーションが表示デバイス4上の位置x1、y1においてグラフィカルボタンを含むグラフィカルユーザインターフェースを出力する場合、このアプリケーションは、リファインされた位置がx1、y1であるグラフィカルボタンが選択されたと判断し得る。
制御デバイス8は別のデバイスとして図1で示されているが、別のデバイスでもよい、または、表示デバイス4もしくはウェアラブル6に一体化されてもよい。一例として、制御デバイス8が別のデバイスである(すなわち、表示デバイス4およびウェアラブル6とは異なる)場合、制御デバイス8は、ウェアラブル6からセンサデータを(たとえば無線で)受信し、アプリケーションを実行してグラフィカルインターフェースを生成し、表示デバイス4にグラフィカルユーザインターフェースを表示させ、受信されたセンサデータに基づいてアプリケーションについてのユーザ入力を生成するラップトップまたはスマートフォンでもよい。他の例として、制御デバイス8が表示デバイス4に含まれる場合、本明細書で説明される機能は、表示デバイス4の1つまたは複数のプロセッサによって行われてもよい。たとえば、表示デバイス4の1つまたは複数のプロセッサは、ウェアラブル6からセンサデータを受信し、アプリケーションを実行してグラフィカルユーザインターフェースを生成し、(表示デバイス4において)グラフィカルユーザインターフェースを表示し、受信されたセンサデータに基づいてアプリケーションについてのユーザ入力を生成してもよい。他の例として、制御デバイス8がウェアラブル6に含まれる場合、本明細書で説明される機能は、ウェアラブル6の1つまたは複数のプロセッサによって行われてもよい。たとえば、ウェアラブル6の1つまたは複数のプロセッサはウェアラブル6のセンサ10によって生成されたセンサデータを取得し、アプリケーションを実行してグラフィカルユーザインターフェースを生成し、表示デバイス4にグラフィカルユーザインターフェースを表示させ(たとえば、ユーザインターフェースを生成する命令を表示デバイス4に無線で送信し)、受信されたセンサデータに基づいてアプリケーションについてのユーザ入力を生成してもよい。
図2は、本開示の1つまたは複数の態様に係る、表示されたユーザインターフェースコンポーネントの直接操作を容易にするために使用され得るウェアラブルコンピューティングデバイス6(単に「ウェアラブル6」とも呼ばれる)を示すブロック図である。図2の例では、ウェアラブル6はコンピュータ制御の腕時計である。しかしながら他の例では、ウェアラブル6は、コンピュータ制御のフィットネスバンド/トラッカー、コンピュータ制御のアイウェア、コンピュータ制御のヘッドウェア、コンピュータ制御の手袋などである。
図2に示すようにいくつかの例では、ウェアラブル6は、取付けコンポーネント50とハウジング52とを含み得る。ウェアラブル6のハウジング52は、ウェアラブル6のハードウェア、ソフトウェア、ファームウェア、および/または他の電気コンポーネントを収容するウェアラブル6の物理的な部分を含む。たとえば図2は、ハウジング52内でウェアラブル6が(動きセンサ54および光学センサ56を含む)センサ10、通信ユニット58、および通信モジュール60を含み得ると示している。
取付けコンポーネント50は、ユーザがウェアラブル6を着用しているときにユーザの体(たとえば、組織、筋肉、皮膚、髪、衣服など)と接触する(しかし、いくつかの例では、ハウジング52の一部もユーザの体と接触し得る)ウェアラブルコンピューティングデバイスの物理的な部分を含み得る。たとえば、ウェアラブル6が腕時計である場合、取付けコンポーネント50は、ユーザの手首に外嵌されユーザの皮膚と接触する腕時計バンドでもよい。ウェアラブル6がアイウェアまたはヘッドウェアである例では、取付けコンポーネント50は、ユーザの頭の周囲に外嵌されるアイウェアまたはヘッドウェアのフレームの一部でもよく、ウェアラブル6が手袋の場合、取付けコンポーネント50は、ユーザの指および手に合う手袋の材料でもよい。いくつかの例では、ウェアラブル6を、ハウジング52および/または取付けコンポーネント50から握り、掴むことができる。
動きセンサ54は、ウェアラブル6と関連付けられた移動を示すもの(たとえば、移動を表すデータ)を検出するように構成された1つもしくは複数の動きセンサまたは入力デバイスを表す。動きセンサ54の例として、加速度計、速度センサ、ジャイロスコープ、磁気計、傾斜センサ、気圧計、近接センサ、またはウェアラブル6が移動を検出可能なデータを生成可能な他の種類の入力デバイスもしくはセンサのいずれかまたは全てが挙げられる。いくつかの例では、動きセンサ54は、慣性計測装置(IMU)でもよい、またはこれに含まれてもよい。動きセンサ54は、ハウジング52が移動すると「生の」動きデータを生成し得る。動きデータは、加速度、走行距離、方向、速度、回転度、または配向度のうち少なくとも1つを含む移動の1つまたは複数の特徴を示し得る。
光学センサ56は、光強度を表す電気信号を生成するように構成された1つまたは複数のデバイスを表す。光学センサ56の例として、フォトダイオード、フォトレジスタ、または光を電気信号に変換可能な他のデバイスが挙げられる。いくつかの例では、光学センサ56のうち1つ以上は、光電脈波(PPG)センサ(たとえば、心拍モニタリングに使用されるセンサ)に含まれ得る。PPGセンサに含まれる光学センサ56のうち複数の光学センサは、ウェアラブル6が装着されるとウェアラブル6を装着している人の皮膚に接触するウェアラブル6の表面に配設され得る。たとえば、ウェアラブル6が腕時計である場合、PPGセンサに含まれる光学センサ56のうち複数の光学センサは、腕時計の底面に位置し得る。いくつかの例では、光学センサ56は、ウェアラブル6が装着されるとウェアラブル6を装着する人の皮膚に接触するウェアラブル6の表面以外のウェアラブル6のどこかに位置し得る。たとえば光学センサ56は、ウェアラブル6のカメラに向かい合う面(または光学センサに(たとえば腕時計面上で)向かい合う他の面)に含まれ得る。そのような例では、ユーザは、ウェアラブル6を利用して、手首からウェアラブル6を取り外すことなく直接操作を行い得る。
通信ユニット58は、1つまたは複数のネットワーク上でネットワーク信号を送信および/または受信することによって、1つまたは複数の有線および/または無線ネットワークを介して外部デバイスと通信し得る。通信ユニット58の例として、ネットワークインターフェースカード(たとえば、イーサネットカード)、光学送受信機、無線周波数送受信機、GPS送受信機、または情報を送信および/または受信可能な他の種類のデバイスが挙げられる。通信ユニット58の他の例として、短波ラジオ、セルラーデータラジオ、無線ネットワークラジオ(たとえば、WIFIラジオ、ブルートゥースラジオなど)、およびユニバーサルシリアルバス(UBS)コントローラが挙げられ得る。
いくつかの例では、ウェアラブル6は、入力を受信するように構成された1つまたは複数の入力コンポーネントを含み得る。入力の例として、触覚入力、音声入力、運動入力、存在入力、および光学入力が挙げられるが、これらはほんの一例に過ぎない。一例では、入力コンポーネントとして、マウス、キーボード、音声応答システム、ビデオカメラ、ボタン、制御パッド、マイク、または人間もしくはマシンからの入力を検出するための他の種類のデバイスが挙げられる。いくつかの例では、入力コンポーネントは、プレゼンスセンシティブスクリーン、タッチ感知スクリーン、レーダーなどを含み得るプレゼンスセンシティブ入力コンポーネントを含み得る。
通信モジュール60は、ウェアラブル6と外部デバイスとの間での通信を管理するために、さまざまな動作を行い得る。一例として、通信モジュール60は、センサ10からのデータ(たとえば、光学センサ56からの光学データおよび/または動きセンサ54からの動きデータ)を受信し、通信ユニット58のうち1つまたは複数にデータの表現を外部デバイス(たとえば、図1および図3の制御デバイス8)に無線で送信させてもよい。他の例として、ウェアラブル6が制御デバイス8によるものであると本明細書で説明されている機能を行う場合、通信モジュール60は、通信ユニット58のうち1つまたは複数に、グラフィカルユーザインターフェースを生成する命令を、表示デバイス4に対して送信させてもよい。このようにいくつかの例では、ウェアラブル6は、センサ10によって生成されたデータを内部で処理して、ウェアラブル6を介したグラフィカルオブジェクトの直接操作を可能にし得る。他の例として、通信モジュール60は、通信ユニット58のうち1つまたは複数に、ウェアラブル6の1つまたは複数の入力コンポーネントを介して受信されたユーザ入力を示すものを、外部デバイス(たとえば、図1および図3の制御デバイス8)へと送信させ得る。このようにウェアラブル6は、ユーザに、ウェアラブル6の入力コンポーネントを用いて、表示されたグラフィカルオブジェクトとインタラクションするためのさらに他の入力を設けさせ得る(たとえば、ユーザにグラフィカルオブジェクト上で「クリック」させ得る)。
ウェアラブルコンピューティングデバイスであると説明されたが、他のデバイスがウェアラブル6による機能を行い得ると理解される。たとえば、センサ(たとえば、1つまたは複数の動きセンサおよび1つまたは複数の光学センサ)ならびに1つまたは複数の無線通信ユニットを含むコンピューティングデバイスは、ウェアラブル6による機能を行い得る。そのようなデバイスの例として、スマートフォン、タブレットなどが挙げられる。
図3は、本開示の1つまたは複数の態様に係る、表示されたグラフィカルオブジェクトの直接操作のためのウェアラブルデバイスの使用を可能にするように構成された制御デバイスの例を示すブロック図である。図3の制御デバイス8は、図1のシステム1に関連して以下で説明される。図3は、制御デバイス8のただ1つの特定の例を示す図であり、制御デバイス2の多くの他の例を他の場合に用いることができる。図3の制御デバイス8は、制御デバイス8の例に含まれるコンポーネントの部分集合を含んでもよい、または、図3に示されていないさらに他のコンポーネントを含んでもよい。
図3の例に示すように、制御デバイス8は、1つまたは複数のプロセッサ70、1つまたは複数の出力デバイス72、1つまたは複数の入力デバイス74、1つまたは複数の通信ユニット76、および1つまたは複数の記憶デバイス82を含む。また、記憶デバイス82は、ユーザインターフェース(UI)モジュール86、通信モジュール78、およびアプリケーションモジュール80を含み得る。
通信チャネル84は、(物理的に、通信可能に、および/または動作可能に)コンポーネント間通信のためにコンポーネント70、72、74、76、82の各々とインタラクションし得る。いくつかの例では、通信チャネル84は、電力バス、システムバス、ネットワーク接続、プロセス間通信データ構造、またはデータ通信もしくは電力転送のための他の方法を含み得る。
1つまたは複数の出力デバイス72は、出力を生成し得る。出力の例として、触覚出力、音声出力、およびビデオ出力が挙げられる。出力デバイス72は一例では、プレゼンスセンシティブディスプレイ、サウンドカード、ビデオグラフィックスアダプターカード、スピーカ、ブラウン管(CRT)モニタ、液晶表示ディスプレイ(LCD)、または人間もしくはマシンに出力を生成するための他の種類のデバイスを含む。
1つまたは複数の入力デバイス74は、入力を受信し得る。入力の例は、触覚入力、音声入力、およびビデオ入力である。入力デバイス74はいくつかの例では、プレゼンスセンシティブディスプレイ、タッチ感知スクリーン、マウス、キーボード、音声応答システム、ビデオカメラ、マイク、センサ、または人間もしくはマシンからの入力を検出するための他の種類のデバイスを含む。
1つまたは複数の通信ユニット76は、1つまたは複数のネットワーク上でネットワーク信号を送信および/または受信することによって、1つまたは複数の有線ネットワークおよび/または無線ネットワークを介して外部デバイスと通信し得る。通信ユニット76の例として、ネットワークインターフェースカード(たとえば、イーサネットカードなど)、光学送受信機、無線周波数送受信機、GPS受信機、または情報の送信および/または受信が可能な他の種類のデバイスが挙げられる。通信ユニット76の他の例として、短波ラジオ、セルラーデータラジオ、無線ネットワークラジオ(たとえば、WIFIラジオ、ブルートゥースラジオなど)、およびユニバーサルシリアルバス(USB)コントローラ、HDMIコントローラなどが挙げられ得る。
通信モジュール78は、制御デバイス8と外部デバイスとの間の通信を管理するために、さまざまな動作を行い得る。一例として、通信モジュール78は、制御デバイス8の1つまたは複数のコンポーネントからデータを受信し、通信ユニット76のうち1つ以上に、データの表現を外部デバイスに送信させ得る。たとえば通信モジュール78は、アプリケーションモジュール80のうち1つのアプリケーションからグラフィカルユーザインターフェースを生成する命令を受信し、通信ユニット76のうち1つ以上にこれらの命令を表示デバイス4に送信させてもよい。他の例として、通信モジュール78は、外部デバイスから無線で受信された通信ユニット76のうち1つ以上からのデータを受信してもよい。たとえば、通信モジュール78は、ウェアラブル6から無線で受信された通信ユニット76のうち1つ以上からセンサデータ(たとえば、動きデータと光学データとのうちの1つまたは両方)を受信してもよい。
送信元である制御デバイス8内の1つまたは複数の記憶デバイス82は、モジュール86、78および80がアクセスする制御デバイス8の動作中(制御デバイス8における実行中)の処理のために、情報を格納し得る。いくつかの例では、記憶デバイス82は一時的なメモリであり、これは、記憶デバイス82の主な目的が長期間の格納ではないことを意味する。制御デバイス8上の記憶デバイス82は、揮発性メモリとして情報を短期間格納するために構成されてもよく、そのため、電源がオフになると格納された内容を保存しなくてもよい。揮発性メモリの例として、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、および当技術分野で周知の他の形式の揮発性メモリが挙げられる。
記憶デバイス82はいくつかの例では、1つまたは複数のコンピュータ可読記憶媒体を含む。記憶デバイス82は、揮発性メモリよりも大きい量の情報を格納するように構成され得る。記憶デバイス82はさらに、不揮発性メモリ空間として情報を長期間格納するために構成されてもよく、電源オン/オフサイクルの後で情報を保存し得る。不揮発性メモリの例として、磁気ハードディスク、光学ディスク、フラッシュメモリ、または電気的にプログラム可能なメモリ(EPROM)もしくは電気的に消去可能なプログラム可能なメモリ(EEPROM)の形式が挙げられる。記憶デバイス82は、モジュール86、78および80と関連付けられたプログラム命令および/または情報(たとえば、データ)を格納し得る。
1つまたは複数のプロセッサ70は、機能を実現し得る、および/または、制御デバイス8内の命令を実行し得る。たとえば、プロセッサ70は、モジュール86、78および80の機能を実行する記憶デバイス82によって記憶された命令の受信および実行を行い得る。プロセッサ70は、モジュール86、78および80の命令を実行して、制御デバイス8のさまざまなアクションまたは機能を実行させ得る。
アプリケーションモジュール80は、ユーザ入力を利用可能な制御デバイス8において実行される、およびこの制御デバイス8からアクセス可能な、さまざまな個々のアプリケーションおよびサービスのすべてを表す。ユーザは、アプリケーションモジュール80のうちの1つまたは複数と関連付けられたグラフィカルユーザインターフェースとインタラクションを行って、制御デバイス8に機能を実行させ得る。アプリケーションモジュール80の多数の例が存在することがあり、フィットネスアプリケーション、カレンダーアプリケーション、パーソナルアシスタントもしくは推定エンジン、検索エンジン、地図もしくはナビゲーションアプリケーション、交通サービスアプリケーション(たとえば、バスもしくは電車追跡アプリケーション)、ソーシャルメディアアプリケーション、ゲームアプリケーション、(たとえば、スライドのプレゼンテーションのための)プレゼンテーションアプリケーション、電子メールアプリケーション、チャットもしくはメッセージングアプリケーション、インターネットブラウザアプリケーション、または制御デバイス8において実行可能な他のすべてのアプリケーションを含み得る。
UIモジュール86は、制御デバイス8の他のコンポーネントとのユーザインタラクションを管理する。言い換えると、UIモジュール86は、制御デバイス8のさまざまなコンポーネント間の中間として作用して、ユーザ入力に基づいた判断およびユーザ入力に応じた出力の生成を行い得る。UIモジュール86は、アプリケーション、サービス、プラットフォーム、または制御デバイス8の他のモジュールから命令を受信して、デバイス(たとえば、図1の表示デバイス4)にユーザインターフェースを出力させ得る。たとえば、アプリケーションモジュール80のうち1つのアプリケーションは、UIモジュール86とインタラクションを行って、表示デバイス4に、1つまたは複数のグラフィカルオブジェクトを含むグラフィカルユーザインターフェースを表示させ得る。UIモジュール86は、ユーザがユーザインターフェースを眺めこれとインタラクションを行うと、制御デバイス8によって受信された入力の管理を行ってもよく、アプリケーション、サービス、プラットフォーム、またはユーザ入力を処理している制御デバイス8の他のモジュールからのさらに他の命令の受信に応じて、ユーザインターフェースの更新を行ってもよい。
本開示の1つまたは複数の技術によると、制御デバイス8は、表示されたグラフィカルオブジェクトの直接操作を提供するためにウェアラブルコンピューティングデバイスが使用可能になるように、ウェアラブルコンピューティングデバイスによって生成されるセンサデータを利用し得る。たとえば、UIモジュール86は、ウェアラブルデバイスの動きセンサによって生成された動きデータを用いて、表示デバイス上のウェアラブルデバイスの推定現在位置を判断し得る。UIモジュール86は、ウェアラブルデバイスの1つまたは複数の光学センサによって生成された光学データを用いて推定位置をリファインし得る。アプリケーションモジュール80のうちの(たとえば、表示デバイスを介してグラフィカルユーザインターフェースを出力している)1つのアプリケーションモジュールは、ウェアラブルコンピューティングデバイスのリファインされた位置をユーザ入力の位置として利用し得る。たとえば、UIモジュール86は、アプリケーションモジュールにリファインされた位置のxy座標を提供可能であり、アプリケーションモジュールは、xy座標をユーザ入力として使用可能である。
アプリケーションモジュールは、本開示の技術がユーザ入力位置を生成するために使用されたかどうかに依存しない場合がある。たとえば、アプリケーションモジュールにとって、ユーザ入力の位置は、標準的なタッチスクリーンを用いて生成されたものと同じであるかのように見える場合がある。したがって、アプリケーションモジュールは、本明細書で説明されたようなウェアラブルデバイス対応の直接操作を用いて判断されたユーザ入力位置を用いて動作するために、修正されなくてもよい。
いくつかの例ではユーザは、位置に加えて入力を用いて、表示されたオブジェクトとインタラクションすることが望ましい場合がある。たとえば、ウェアラブルコンピューティングデバイス(たとえば、ウェアラブル6)が位置としてユーザ入力を提供できることに加えて、ユーザが、クリック、スクロール、選択または他のそのようなことなどのユーザ入力を提供できることが望ましい場合がある。本開示の1つまたは複数の技術に従って、制御デバイス8は、ウェアラブルコンピューティングデバイスの1つまたは複数の入力コンポーネントを介して受信されたユーザ入力を表すウェアラブルコンピューティングデバイスからデータを受信し得る。たとえばUIモジュール86は、ユーザがウェアラブルコンピューティングデバイスのプレゼンスセンシティブディスプレイをタッピングしたという表示を受信し得る。UIモジュール86は、アプリケーションモジュールにユーザ入力の表現を提供し得る。たとえば、 ウェアラブルコンピューティングデバイスのプレゼンスセンシティブディスプレイをユーザがタッピングしたという表示をUIモジュール86が受信する場合、UIモジュール86は、リファインされた位置のxy座標においてクリックが受信されたというユーザ入力表示をアプリケーションに提供し得る。
図4A~図4Fは、本開示の1つまたは複数の技術に係る、位置リファインプロセスの例を示す概念図である。図4A~図4Fのリファインプロセスは、表示デバイス4、ウェアラブル6および制御デバイス8を含む図1のシステム2を参照して説明される。
制御デバイス8は、表示デバイス4に、1つまたは複数のグラフィカルオブジェクトを含むグラフィカルユーザインターフェースを表示させ得る。たとえば、制御デバイス8のプロセッサ70は、アプリケーションモジュール80のうち1つのアプリケーションモジュールを実行し得る。実行されたアプリケーションモジュールはUIモジュール86と共に、グラフィカルユーザインターフェースのレンダリングを行う命令を生成し得る。プロセッサ70は、通信モジュール78を実行して、通信ユニット76に、グラフィカルユーザインターフェースを生成する命令を表示デバイス4に出力させ得る。一般に、グラフィカルオブジェクトは、制御デバイス8の動作を修正するためにユーザがインタラクション可能なグラフィカル要素でもよい。グラフィカルオブジェクトの例として、ダイアル、ボタン、トグル、スライダ、グラフィカルキーボードのキーなどが挙げられるが、これらに限定されるわけではない。
ユーザは、表示デバイス4において表示されるグラフィカルユーザインターフェースに含まれる1つまたは複数のグラフィカルオブジェクトを直接操作したい場合がある。しかしながら、表示デバイス4がプレゼンスセンシティブディスプレイでない例では、ユーザは単に自分の指を用いて、表示されたオブジェクトを直接操作することができない場合がある。そのため、本開示および上述の1つまたは複数の技術に従って、ユーザは、ウェアラブルコンピューティングデバイスを利用して直接操作を行い得る。たとえば、ウェアラブル6がユーザの手首に装着されている場合、ユーザは、ウェアラブル6を取り外し(たとえば、取付けコンポーネント50をほどき)、ウェアラブル6を利用して、グラフィカルオブジェクトを直接操作することができる。
制御デバイス8は、ユーザがウェアラブル6を利用して、表示デバイス4において表示されたグラフィカルオブジェクトを直接操作できるように、動作を行い得る。上述のように、一般に制御デバイス8は、ウェアラブル6の動きセンサ54によって生成された動きデータを利用して、表示デバイス4上の推定位置を判断して、表示デバイス4に推定位置におけるグラフィカルパターンを表示させ、その後、ウェラブル6の光学センサ56によって生成された光学データに基づいて推定位置のリファインを行わせることができる。
最初は、制御デバイス8はウェアラブル6の推定位置を判断できなくてもよい。たとえば、ユーザが表示デバイス4に対してウェアラブル6を配設する前に、制御デバイス8は、ウェアラブル6の位置を判断できなくてもよい。そのため最初の位置について、制御デバイス8は、ユーザに表示されたグラフィカルパターンの位置にウェアラブル6を配設させる命令で、表示デバイス4上の位置においてグラフィカルパターンを出力し得る。制御デバイス8は通常、最初の位置として表示デバイス4上の特定の位置を用いてもよい、または、状況によっては異なる位置を用いてもよい。ユーザが表示されたグラフィカルパターンの位置において表示デバイス4上にウェアラブル6を配設すると、制御デバイス8は、ウェアラブル6の判断された位置のリファインを開始してもよい。
表示デバイス4において出力されるグラフィカルパターンは、ウェアラブル6の光学センサ56などの光学センサによる検出を容易にするように設計可能である。一般にグラフィカルパターンは、各々が異なる光学特徴を有する複数の領域を含み得る。図1および図4A~図4Fに示すように、グラフィカルパターン12は、中心領域14と中心領域14の周囲に分散された複数の境界領域16とを含む。4つの境界領域を含むと図示されているが、グラフィカルパターンは、任意の数の境界領域を含み得る。たとえばいくつかの例では、グラフィカルパターンは、5、6、7、8、9、10、12またはそれ以上の境界領域を含み得る。
境界領域の各々は、調整方向と関連付けられ得る。特定の境界領域の調整方向は、境界領域と中心領域との間の空間関係を表し得る。一例として、境界領域16Aの調整方向は、315°(たとえば、中心領域14から境界領域16Aに向かう方向)でもよい。同様に、境界領域16Bの調整方向は45°でもよく、境界領域16Cの調整方向は225°でもよく、境界領域16Dの調整方向は135°でもよい。以下でさらに詳細に説明するように、境界領域16の特定の境界領域がウェアラブル6の下に表示されていると示す光学データに応答して、制御デバイス8は、特定の境界領域に対応する調整方向にウェアラブル6の推定位置を調整し得る。
図4Aに示すように、ユーザは最初に、グラフィカルパターン12が表示される表示デバイス4上の位置にウェアラブル6を配設し得る。ユーザがウェアラブル6を用いて直接操作を行っている間、制御デバイス8は、表示されたグラフィカルパターンの位置をユーザ入力として用い得る。たとえば、制御デバイス8のUIモジュール86は、グラフィカルパターン12の中心領域14のセントロイドのxy座標を、制御デバイス8において実行中のアプリケーションモジュール80のうち1つのアプリケーションについてのユーザ入力として利用し得る。
図4Bに示すように、ユーザは、表示デバイス4を横断してウェアラブル6を移動させ得る。ウェアラブル6が移動されると、動きセンサ54は、移動を示す動きデータを生成し得る。制御デバイス8の位置推定モジュール(LEM)90は、動きデータに基づいてウェアラブル6の更新された推定位置を判断し得る。たとえば、LEM90は、動きセンサ54の加速度計によって生成された加速度データの二重積分を行い、その結果生じる値をウェアラブル6の既に知られている位置(すなわち、ウェアラブル6が移動される前にグラフィカルパターン12が表示されていた位置)に加算してもよい。
図4Cに示すように、制御デバイス8は、表示デバイス4に、更新された推定位置においてグラフィカルパターン12を出力させ得る。位置推定の精度に応じて、グラフィカルパターン12は、ウェアラブル6の実際の位置において表示されても、または表示されなくてもよい。制御デバイス8の位置リファインモジュール(LRM)92は、ウェアラブル6の1つまたは複数の光学センサ56によって生成された光学データに基づいて推定位置のリファインを行ってもよい。
3つのシナリオのうち1つが、リファインプロセス中にいずれかの時点の間に可能である。第1のシナリオでは、グラフィカルパターン12は、ウェアラブル6の下に表示されなくてもよい(たとえば、光学センサ56は、グラフィカルパターン12の任意の領域を検出できなくてもよい)。第2のシナリオでは、グラフィカルパターン12の境界領域16のうち1つが、ウェアラブル6の下に表示されてもよい。第3のシナリオでは、グラフィカルパターン12の中心領域14は、ウェアラブル6の下に表示されてもよい。LRM92は、1つまたは複数の光学センサ56によって生成された光学データに基づいて、どのシナリオが発生しているかを判断し得る。一例として、中心領域14および境界領域16のうちどの領域も検出されていないと光学データが示す場合、LRM92は、第1のシナリオが発生していると判断してもよい。他の例として、境界領域16のうち特定の境界領域が検出されていると光学データが示す場合、LRM92は、第2のシナリオが発生していると判断してもよい。他の例として、中心領域14が検出されていると光学データが示す場合、LRM92は、第3のシナリオが発生していると判断してもよい。
LRM92は、判断されたシナリオに基づいて特定のアクションを行い得る。第1のシナリオが発生している(たとえば、グラフィカルパターン12のどの領域も検出されていない)という判断に応じて、LRM92は、グラフィカルパターン12の表示サイズを拡大させ得る。すなわち、グラフィカルパターン12の複数の領域のうちいずれも検出されていないという判断に応じて、LRM92は表示デバイス4に、現在のサイズに対して拡大されたサイズでグラフィカルパターン12を出力させ得る。グラフィカルパターン12の表示サイズを拡大することによって、LRM92は、グラフィカルパターン12の領域が光学データにおいて検出される可能性を増加させ得る。サイズ拡大の例が、図4Cおよび図4で見られる。
第2のシナリオが発生している(たとえば、境界領域16のうち特定の境界領域が検出されている)という判断に応じて、LRM92は、グラフィカルパターン12の表示された位置を調整し得る。たとえば、境界領域16のうち特定の境界領域が検出されているという判断に応じて、LRM92は、特定の境界領域に基づいて調整方向を判断し得る。上述のように、境界領域16の各境界領域は、それぞれの境界領域と中心領域14との間の空間関係を示すそれぞれの調整方向と関連付けられ得る。LRM92は、調整方向において、推定位置を調整してリファインされた位置を取得し得る。図4Dおよび図4Eの例では、LRM92は、境界領域16Bが検出されていると判断し、境界領域16Bに対応する調整方向が45°の方位であると判断し、グラフィカルパターン12の表示された位置を45°の方位の距離だけ移動させ得る。LRM92がグラフィカルパターン12を移動させる距離は、グラフィカルパターン12の現在の表示サイズの関数であり得る。たとえばこの距離は、グラフィカルパターン12の現在の表示サイズの半径の半分でもよい。
第3のシナリオが発生している(たとえば、中心領域が検出されている)という判断に応じて、LRM92は、グラフィカルパターン12の表示サイズを縮小させ得る。言い換えると、グラフィカルパターン12の中心領域14が検出されているという判断に応じて、LRM92は、表示デバイス4に、現在のサイズに対して縮小されたサイズでグラフィカルパターン12を表示させ得る。グラフィカルパターン12の表示サイズを縮小することによって、LRM92は、グラフィカルパターン12によって隠される/閉塞されるグラフィカルユーザインターフェースの量を低減し得る。いくつかの例では、LRM92は、グラフィカルパターン12がウェアラブル6の周囲で見えない(たとえば、グラフィカルパターン12がウェアラブル6によって完全に閉塞され得る)点にグラフィカルパターン12のサイズを縮小し得る。サイズ縮小の例は、図4Eおよび図4Fにおいて見られる。
なお、制御デバイス8は、1つまたは複数の条件が満たされるまで、および/またはウェアラブル6が再び移動されるまで、リファインプロセスを続けてもよい。条件の一例は、グラフィカルパターン12が最低表示サイズに達することを含む。最低表示サイズは、(たとえば、最低表示サイズがウェアラブル6のサイズと同じまたはそれよりわずかに小さくなるように)ウェアラブル6のサイズに基づいて選択され得る。
なお、さらに、特定のリファイン動作が他のシナリオを誘発し得る。たとえば、グラフィカルパターン12の表示サイズを縮小することによって、中心領域14が光学データにおいてもはや検出されなくなる(たとえば、境界領域が検出される、または検出される領域がない)。一具体例として、グラフィカルパターン12の表示サイズを縮小した後で、制御デバイス8は、境界領域が現在検出されていると判断可能であり、検出された境界領域に基づいて グラフィカルパターン12の表示位置を調整し得る。このプロセスは、グラフィカルパターン12の最低サイズに達するまでループし得る。
図5は、本開示の1つまたは複数の技術に係る、表示されたグラフィカルオブジェクトの直接操作のためにウェアラブルデバイスの使用を可能にするためのデバイスの動作の例を示すフローチャートである。図5の技術は、図1および図3の制御デバイス8などの、デバイスの1つまたは複数のプロセッサによって実行され得る。図示のために、制御デバイス8の構成とは異なる構成を有するコンピューティングデバイスは図5の技術を行い得るが、図5の技術は、図1および図3の制御デバイス8の状況において説明される。一例として、図1の表示デバイス4の1つまたは複数のプロセッサは、図5の技術を行い得る。他の例として、図1および図2のウェアラブル6の1つまたは複数のプロセッサは、図5の技術を行い得る。他の例として、表示デバイス4およびウェアラブル6以外のモバイルコンピューティングデバイスの1つまたは複数のプロセッサが、図5の技術を行い得る。
制御デバイス8は、表示デバイスによる表示のために、グラフィカルユーザインターフェースを出力し得る(502)。たとえば、制御デバイス8のプロセッサ70は、アプリケーションモジュール80のうち1つのアプリケーションモジュールを実行してもよく、実行されたアプリケーションモジュールはUIモジュール86と共に、グラフィカルユーザインターフェースのレンダリングを行う命令を生成してもよい。プロセッサ70は、通信モジュール78を実行して、通信ユニット76に、グラフィカルユーザインターフェースを生成する命令を表示デバイス4に出力してもよい。
制御デバイス8は、動きデータに基づいて、ウェアラブルコンピューティングデバイスの推定位置を判断し得る(504)。たとえば、制御デバイス8は、ウェアラブル6の動きセンサ54の加速度計によって生成される加速度データを無線で受信してもよく、制御デバイス8のLEM90は、加速度データの二重積分を行い、その結果生じる値をウェアラブル6の既に知られている位置に加算してもよい。
制御デバイス8は、表示デバイスによる推定位置での表示のために、中心領域および複数の境界領域を含むグラフィカルパターンを出力し得る(506)。たとえば、LRM92は、(たとえば、グラフィカルパターンがグラフィカルユーザインターフェースの他の要素の上にオーバーレイされるように)グラフィカルパターン12をアプリケーションモジュールによって生成されたグラフィカルユーザインターフェースに挿入してもよい。
制御デバイス8は、ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断し得る。たとえば、LRM92は、光学データがグラフィカルパターン12の領域の光学特徴と一致するかどうかを判断するように、ウェアラブル6の光学センサ56のうち1つの光学センサによって生成された光学データを処理し得る。中心領域が光学データにおいて検出されているという判断に基づいて(508の「はい」という分岐)、LRM92は、グラフィカルパターン12の表示サイズを縮小し得る(510)。中心領域または境界領域のうちいずれも光学データにおいて検出されていないという判断に応じて(512の「いいえ」という分岐)、LRM92は、グラフィカルパターン12の表示サイズを拡大し得る(514)。光学データにおいて境界領域が検出されているという判断に応じて(512の「はい」という分岐)、LRM92は、検出された境界領域と関連付けられた調整方向に基づいて推定位置を調整し得る(516)。
制御デバイス8は、ウェアラブルデバイスが移動したかどうかを判断し得る(518)。たとえば、制御デバイス8は、動きセンサ54によって生成された動きデータに基づいて、ウェアラブルコンピューティングデバイス6の加速度が加速度閾値よりも大きいかどうかを判断してもよい。ウェアラブルデバイスが移動したという判断に応じて(518の「はい」という分岐)、制御デバイス8は、移動を示す動きデータに基づいて、ウェアラブルコンピューティングデバイスの更新された推定位置を判断し得る(504)。ウェアラブルデバイスが移動していないという判断に応じて(518の「いいえ」という分岐)、LRM92は、リファイン動作の実行を継続し得る(508~516)。
上述のように、グラフィカルパターンは、グラフィカルユーザインターフェースの他の要素にオーバーレイされて表示され得る。いくつかの例では、制御デバイス8は、グラフィカルパターンがグラフィカルユーザインターフェースの他の要素について「混同」される可能性を低減する1つまたは複数の動作を行い得る。たとえば制御デバイス8は、表示デバイスにグラフィカルパターンを表示させつつ、表示デバイスに所定のレートで(たとえば、1、2、3、4、5フレーム毎に)グラフィカルパターンを点滅させてもよい。
図6A~図6Cは、本開示の1つまたは複数の技術に係る、グローバル初期化のために使用可能なグラフィカルパターンの例を示す図である。上述のように、いくつかの例では、制御デバイス8は、グラフィカルパターン(たとえば、図1のグラフィカルパターン12)を表示デバイス4上の特定の位置(たとえば、特定の位置が初期位置として機能する)に表示することによって、ウェアラブル6の初期位置を判断し得る。他の例では、制御デバイス8は、表示デバイス4の全体を横断してさまざまなグラフィカルパターンを表示することによって、表示デバイス4上のウェアラブル6の初期位置を判断するように構成されてもよい(その一方で、グラフィカルパターン12は、表示デバイス4の全てよりも占める場所は少ない)。グラフィカルパターンのいくつかの例が、図6A~図6Cに示されている。図6A~図6Cに示されるグラフィカルパターンを用いたグローバル初期化技術を行うために、制御デバイス8は、(たとえば、表示デバイス4上の場所にユーザがウェアラブル6を配設したにもかかわらず、グラフィカルパターンの一部がウェアラブル6の位置になるように)表示デバイス4の全表示領域上のグラフィカルパターン602、604および606のうち1つ以上を点滅させる。
番号を付した以下の例は、本開示の1つまたは複数の態様を示し得る。
例1.1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、表示デバイスに、推定位置においてグラフィカルパターンを出力させることと、1つまたは複数のプロセッサがウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、1つまたは複数のプロセッサが、表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置としてウェアラブルコンピューティングデバイスのリファインされた位置を利用することとを備える。
例2.推定位置を判断することは、ウェアラブルコンピューティングデバイスの1つまたは複数の動きセンサによって生成された動きデータに基づいて、推定位置を判断することを含む、例1に記載の方法。
例3.グラフィカルパターンは、中心領域と中心領域の周囲に分散された複数の境界領域とを含む複数の領域を含み、複数の領域の各領域は異なる光学特徴を有し、リファインされた位置を判断することは、光学データに基づいて、複数の領域のうちいずれかが検出されているかどうかを判断することと、複数の境界領域のうち特定の境界領域が検出されているという判断に応じて、特定の境界領域に基づいて調整方向を判断することと、調整方向において、推定位置を調整してリファインされた位置を取得することとを含む、例1または2に記載の方法。
例4.リファインされた位置を判断することはさらに、複数の領域のうちいずれも検出されていないという判断に応じて、表示デバイスに、現在のサイズに対して拡大されたサイズでグラフィカルパターンを出力させることを含む、例2または3に記載の方法。
例5.リファインされた位置を判断することはさらに、複数の領域のうち中心領域が検出されているという判断に応じて、表示デバイスに、現在のサイズに対して縮小されたサイズでグラフィカルパターンを出力させることを含む、例2~4のいずれか1つに記載の方法。
例6.表示デバイスにグラフィカルパターンを出力させることは、表示デバイスに、所定のレートでグラフィカルパターンを点滅させることを含む、例1~5のいずれか1つに記載の方法。
例7.ウェアラブルコンピューティングデバイスの光学センサは、光電脈波センサを含む、例1~6のいずれか1つに記載の方法。
例8.1つまたは複数のプロセッサは表示デバイスに含まれている、例1~7のいずれか1つに記載の方法。
例9.1つまたは複数のプロセッサはウェアラブルコンピューティングデバイスに含まれている、例1~7のいずれか1つに記載の方法。
例10.1つまたは複数のプロセッサは、ウェアラブルコンピューティングデバイスおよび表示デバイスとは異なる他のデバイスに含まれ、方法はさらに、他のデバイスがウェアラブルコンピューティングデバイスから、光学データを受信することと、表示デバイスに、グラフィカルユーザインターフェースを出力させることとを備える、例1~7のいずれか1つに記載の方法。
例11.1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに例1~10のいずれか1つに記載の方法を実行させる命令を含むメモリとを備える、コンピューティングデバイス。
例12.実行されると、1つまたは複数のプロセッサに例1~10のいずれか1つに記載の方法を実行させる命令を格納する、コンピュータ可読記憶媒体。
例13.例1~10のいずれか1つに記載の方法を行う手段を備える、デバイス。
本開示で説明された技術は、少なくとも部分的に、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組合せで実現可能である。たとえば、説明された技術のさまざまな態様は、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または任意の他の同等の集積回路もしくは個別論理回路、およびこれらのコンポーネントの任意の組合せを含む1つまたは複数のプロセッサ内で実現可能である。「プロセッサ」または「処理回路」という用語は、単独でもしくは他の論理回路と組み合わせた前述の論理回路のいずれか、または他の同等の回路を表し得る。ハードウェアを含む制御ユニットも、本開示の技術のうち1つ以上を行い得る。
そのようなハードウェア、ソフトウェア、およびファームウェアは、本開示に説明されたさまざまな技術をサポートするために同じデバイス内または別のデバイス内で実現可能である。さらに、上述のユニット、モジュールまたはコンポーネントのいずれかは、共にまたは別個だが相互運用可能なロジックデバイスとして別に実現可能である。モジュールまたはユニットとしての異なる特徴の記述は、異なる機能態様を強調するように意図されており、そのようなモジュールまたはユニットが別のハードウェア、ファームウェア、またはソフトウェアコンポーネントによって実現しなければならないということを必ずしも含意しているわけではない。そうではなく、1つもしくは複数のモジュールまたはユニットと関連付けられた機能は、別のハードウェア、ファームウェア、またはソフトウェアコンポーネントによって実現可能である、または、共通のまたは別のハードウェア、ファームウェア、もしくはソフトウェアコンポーネント内で一体化可能である。
本開示で説明された技術は、命令で符号化されたコンピュータ可読記憶媒体を含む製品において具体化または符号化可能である。符号化されたコンピュータ可読記憶媒体を含む製品において埋込まれたまたは符号化された命令は、1つもしくは複数のプログラマブルプロセッサ、または他のプロセッサに、たとえばコンピュータ可読記憶媒体において含まれるまたは符号化された命令が1つまたは複数のプロセッサによって実行されると、本明細書で説明された技術のうち1つ以上を実現させ得る。コンピュータ可読記憶媒体は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気的消去可能リードオンリーメモリ(EEPROM)、フラッシュメモリ、ハードディスク、コンパクトディスクROM(CD‐ROM)、フロッピー(登録商標)ディスク、カセット、磁気媒体、光学媒体、または他のコンピュータ可読媒体を含み得る。いくつかの例では、製品は、1つまたは複数のコンピュータ可読記憶媒体を含み得る。
いくつかの例では、コンピュータ可読記憶媒体は、非一時的媒体を含み得る。「非一時的」という用語は、記憶媒体が搬送波または伝播波において具体化されていないことを表し得る。特定の例では、非一時的記憶媒体は、(たとえば、RAMまたはキャッシュにおいて)時間と共に変化可能なデータを記憶し得る。
さまざまな例について説明した。これらおよびその他の例は、以下の請求項の範囲に含まれる。

Claims (12)

  1. 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
    前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
    前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
    前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
    前記グラフィカルパターンは、中心領域と前記中心領域の周囲に分散された複数の境界領域とを含む複数の領域を含み、前記複数の領域の各領域は異なる光学特徴を有し、リファインされた前記位置を判断することは、
    前記光学データに基づいて、前記複数の領域のいずれかが検出されているかどうかを判断することと、
    前記複数の境界領域のうち特定の境界領域が検出されているという判断に応じて、前記特定の境界領域に基づいて調整方向を判断することと、
    前記調整方向において、前記推定位置を調整してリファインされた前記位置を取得することとを含む、方法。
  2. リファインされた前記位置を判断することはさらに、前記複数の領域のうちいずれも検出されていないという判断に応じて、前記表示デバイスに、現在のサイズに対して拡大されたサイズで前記グラフィカルパターンを出力させることを含む、請求項に記載の方法。
  3. リファインされた前記位置を判断することはさらに、前記複数の領域のうち前記中心領域が検出されているという判断に応じて、前記表示デバイスに、現在のサイズに対して縮小されたサイズで前記グラフィカルパターンを出力させることを含む、請求項またはに記載の方法。
  4. 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
    前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
    前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
    前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
    前記表示デバイスに前記グラフィカルパターンを出力させることは、前記表示デバイスに、所定のレートで前記グラフィカルパターンを点滅させることを含む、方法。
  5. 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
    前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
    前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
    前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
    前記ウェアラブルコンピューティングデバイスの前記光学センサは、光電脈波センサを含む、方法。
  6. 前記1つまたは複数のプロセッサは前記表示デバイスに含まれている、請求項1~のいずれか1項に記載の方法。
  7. 前記1つまたは複数のプロセッサは前記ウェアラブルコンピューティングデバイスに含まれている、請求項1~のいずれか1項に記載の方法。
  8. 前記1つまたは複数のプロセッサは、前記ウェアラブルコンピューティングデバイスおよび前記表示デバイスとは異なる他のデバイスに含まれ、前記方法はさらに、
    前記他のデバイスが前記ウェアラブルコンピューティングデバイスから、前記光学データを受信することと、
    前記表示デバイスに、前記グラフィカルユーザインターフェースを出力させることとを備える、請求項1~のいずれか1項に記載の方法。
  9. 1つまたは複数のプロセッサが、プレゼンスセンシティブでない表示デバイス上の、ユーザの手首に装着されるように構成されたウェアラブルコンピューティングデバイスの推定位置を判断することと、
    前記表示デバイスに、前記推定位置においてグラフィカルパターンを出力させることと、
    前記1つまたは複数のプロセッサが前記ウェアラブルコンピューティングデバイスの光学センサによって生成された光学データに基づいて、前記ウェアラブルコンピューティングデバイスのリファインされた位置を判断することと、
    前記1つまたは複数のプロセッサが、前記表示デバイスを介してグラフィカルユーザインターフェースを出力するアプリケーションのために、ユーザ入力の位置として前記ウェアラブルコンピューティングデバイスのリファインされた前記位置を利用することとを備え、
    前記光学データは、前記グラフィカルパターンが前記推定位置に出力された状態で、前記表示デバイスの表示領域の一部を前記光学センサがセンシングすることによって生成される、方法。
  10. コンピューティングデバイスであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~のいずれか1項に記載の方法を実行させる命令を含むメモリとを備える、コンピューティングデバイス。
  11. 請求項1~のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
  12. 請求項1~のいずれか1項に記載の方法を実行する手段を備える、デバイス。
JP2020529703A 2019-12-19 2019-12-19 ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作 Active JP7246390B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2019/067603 WO2021126223A1 (en) 2019-12-19 2019-12-19 Direct manipulation of display device using wearable computing device

Publications (2)

Publication Number Publication Date
JP2022517448A JP2022517448A (ja) 2022-03-09
JP7246390B2 true JP7246390B2 (ja) 2023-03-27

Family

ID=69326651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020529703A Active JP7246390B2 (ja) 2019-12-19 2019-12-19 ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作

Country Status (6)

Country Link
US (1) US11301040B2 (ja)
EP (1) EP3864495A1 (ja)
JP (1) JP7246390B2 (ja)
KR (1) KR102349210B1 (ja)
CN (1) CN113316753A (ja)
WO (1) WO2021126223A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060209013A1 (en) 2005-03-17 2006-09-21 Mr. Dirk Fengels Method of controlling a machine connected to a display by line of vision
JP2013514583A (ja) 2009-12-18 2013-04-25 株式会社ソニー・コンピュータエンタテインメント 表示デバイスに対するカメラの場所を特定すること

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665543B2 (en) * 2007-03-21 2017-05-30 International Business Machines Corporation System and method for reference validation in word processor documents
US9400390B2 (en) * 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US8594467B2 (en) 2008-12-19 2013-11-26 Microsoft Corporation Interactive virtual display system for ubiquitous devices
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US20130328770A1 (en) * 2010-02-23 2013-12-12 Muv Interactive Ltd. System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
EP2545494A1 (en) * 2010-03-12 2013-01-16 Shafa Wala Position capture input apparatus, system, and method therefor
KR101720494B1 (ko) 2010-07-16 2017-03-28 엘지전자 주식회사 영상표시장치 및 그 동작 방법
KR20150053955A (ko) * 2012-09-06 2015-05-19 인터페이즈 코퍼레이션 대화형 디스플레이 시스템에서의 절대적 및 상대적 위치결정 센서 융합
US20160357265A1 (en) * 2014-02-10 2016-12-08 Apple Inc. Motion gesture input detected using optical sensors
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
US9377854B2 (en) 2014-03-28 2016-06-28 Intel Corporation Technologies for remotely controlling a computing device via a wearable computing device
CN103995592A (zh) 2014-05-21 2014-08-20 上海华勤通讯技术有限公司 穿戴式设备与终端进行信息交互的方法及终端
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
US9495008B2 (en) * 2014-06-27 2016-11-15 Amazon Technologies, Inc. Detecting a primary user of a device
KR101680084B1 (ko) 2015-02-16 2016-11-28 한국과학기술원 제스처 디자인 방법 및 제스처 디자인 장치
KR20170007963A (ko) 2015-07-13 2017-01-23 엘지전자 주식회사 디스플레이 시스템
KR20180057693A (ko) * 2015-09-24 2018-05-30 토비 에이비 눈 추적 가능한 웨어러블 디바이스들
KR20180037511A (ko) 2016-10-04 2018-04-12 삼성전자주식회사 전자 장치 및 그의 유저 인터페이스 제공 방법
KR102054586B1 (ko) 2018-05-30 2019-12-10 유비시스(주) 미세먼지센서를 포함하는 멀티 융복합 센서기반 듀얼 모드 웨어러블 디바이스 동작방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060209013A1 (en) 2005-03-17 2006-09-21 Mr. Dirk Fengels Method of controlling a machine connected to a display by line of vision
JP2013514583A (ja) 2009-12-18 2013-04-25 株式会社ソニー・コンピュータエンタテインメント 表示デバイスに対するカメラの場所を特定すること

Also Published As

Publication number Publication date
US20210318754A1 (en) 2021-10-14
EP3864495A1 (en) 2021-08-18
WO2021126223A1 (en) 2021-06-24
CN113316753A (zh) 2021-08-27
KR20210080272A (ko) 2021-06-30
US11301040B2 (en) 2022-04-12
KR102349210B1 (ko) 2022-01-10
JP2022517448A (ja) 2022-03-09

Similar Documents

Publication Publication Date Title
US20210405761A1 (en) Augmented reality experiences with object manipulation
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
EP3164785B1 (en) Wearable device user interface control
WO2019153824A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
KR102491443B1 (ko) 애플리케이션을 위한 디스플레이 적응 방법 및 장치, 디바이스, 및 저장 매체
US11520399B2 (en) Interactive augmented reality experiences using positional tracking
US20180101240A1 (en) Touchless user interface navigation using gestures
KR20190067227A (ko) 가상 현실 시스템을 위한 입력 제어기 안정화 기법
KR20160050682A (ko) 전자장치의 화면 표시 제어 방법 및 장치
JP6911834B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3550415A2 (en) Method for displaying object and electronic device thereof
JP7252252B2 (ja) 手の位置に基づいたモーダル制御の開始
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
US20230367118A1 (en) Augmented reality gaming using virtual eyewear beams
JP7246390B2 (ja) ウェアラブルコンピューティングデバイスを用いた表示デバイスの直接操作
US20200042167A1 (en) Electronic device and method for providing virtual input tool
US20240119928A1 (en) Media control tools for managing communications between devices
WO2023034017A1 (en) Augmented reality prop interactions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230125

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230314

R150 Certificate of patent or registration of utility model

Ref document number: 7246390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150