JP6400742B2 - パーソナルコンピューティングのためのユーザウェアラブルデバイスおよびシステム - Google Patents

パーソナルコンピューティングのためのユーザウェアラブルデバイスおよびシステム Download PDF

Info

Publication number
JP6400742B2
JP6400742B2 JP2016573832A JP2016573832A JP6400742B2 JP 6400742 B2 JP6400742 B2 JP 6400742B2 JP 2016573832 A JP2016573832 A JP 2016573832A JP 2016573832 A JP2016573832 A JP 2016573832A JP 6400742 B2 JP6400742 B2 JP 6400742B2
Authority
JP
Japan
Prior art keywords
wearable device
processing unit
wearable
visual output
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016573832A
Other languages
English (en)
Other versions
JP2017528786A (ja
Inventor
エイサー,ウトゥク・ギュナイ
マシュハディ,アフラ
フアン・デン・ブルーク,マルク
カウサル,ファヒム
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2017528786A publication Critical patent/JP2017528786A/ja
Application granted granted Critical
Publication of JP6400742B2 publication Critical patent/JP6400742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/165Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being small, e.g. for presenting status information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Description

本発明はパーソナルコンピューティングのためのウェアラブルデバイスの分野に関する。詳しくは、本発明はユーザによって着用されるのに適したウェアラブルデバイス、処理ユニット、システム、パーソナルコンピューティングのための方法およびそれらのためのコンピュータプログラム製品に関する。
人々は仕事および私生活のためにパーソナルコンピューティングを使用し、接続された状態を続けるためにますますスマートフォンのようなモバイルコンピューティングデバイスを使用している。しかしながら、対話するためにスマートフォンを取り出すことができない異なる仕事現場および日常の状態にいる多くのユーザにとって、デバイスを手に持ったまま運ぶということは、困難であるかまたは不可能である。近年、ウェアラブルコンピューティング技術は、対話がより容易でより没入型となるように開発されてきている。ウェアラブルコンピューティングは、人々がオンライン素材にアクセスする方法を形作っていくと思われる重要な方向性である。しかしながら、既存のウェアラブルコンピューティングデバイスは手間がかかることがしばしばあり、限定された対話性しか提示しない。
Google Glass[1]およびSumsung Galaxy Gear[2]などの製品は、消費者の間で興味を引いた最初のウェアラブルコンピューティング製品の中に含まれていた。これらのデバイスは他のモバイルデバイスの付属品として機能し、ユーザ体験をその眼鏡や腕時計の上の便利な表示で増大させることができる。Google Glassはまた、写真およびビデオを撮るカメラを有している。それらはユーザにスマートフォンの画面上以外の場所でオンラインコンテンツを提示することができるが、ユーザがそのデバイスを制御するために持つオプションは限られている。例えば、Google Glassでは、ユーザは主に単一のボタンと自分の声を通じてデバイスと対話する。しかしながら、声はデバイスを制御するには侵入的な方法であり、もし周囲に雑音があるならば不正確な動作に繋がり得る。一方、Sumsung Gearはオンライン活動状況を表すアイコンを表示することが可能であり、電話呼出しの受付け/拒否のような機能のためのボタンをより多く備えている。しかしながら、多くのボタンを含めるには、ボタンのフォームファクタは小さくならざるを得ない。
Yuan Raoらによる、「An energy harvesting system for passively generating power from human activities」、J.Micromech.Microeng. 23 114012、2013年 A Cimpianらによる、「Analysis of Pulsed vs. Continuous Power Delivery from an Electromagnetic Generator」、J.Phys.:Conf.Ser.476 012058、2013年 Stroke your car seat to pump up the volume、http://www.newscientist.com/article/mg21328466.300−stroke−your−car−seat−to−pump−up−the−volume.html
(構成可能な)ジェスチャ認識を通じてシームレスな表示および統合化されて煩わしさのない対話性を提示することが、本発明による実施形態の目的である。
本発明の一態様により、ユーザによって着用されるのに適したウェアラブルデバイスが提供される。ウェアラブルデバイスは、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するように構成された近接センサと、前記検出された近接パラメータに関連する近接情報を処理ユニットに送信し、前記近接情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するように構成された送受信機と、前記ビジュアル出力を表示するように構成された表示レイヤとを含む。
この方法では、ユーザは、ジェスチャの対話を通じて統合化された対話型ウェアラブルデバイスに基づいたシームレスなビジュアル出力を提示される。より具体的には、近接センサは他のウェアラブルデバイスの存在と近接を認識するようになることを可能とし、協同操作を通じた対話性を高める。検出された近接パラメータは、ウェアラブルデバイス間の距離についての情報を表す。当業者は、この近接パラメータが多くの形式を取ってもよく、それでも一方でウェアラブルデバイスを着用しているユーザの一部分の位置および方向を決定する(または、複数のウェアラブルデバイスの近接センサの近接パラメータの解析を通じて、集中型または分散型で推論する)ことを可能とする、ということを理解するであろう。送受信機は、処理ユニット(通常は携帯電話デバイスまたはユーザが持ち運ぶネットワーク接続されたパーソナルコンピューティングデバイス)などの別のデバイスと、この存在およびそれとの近接に関して通信することを可能とし、そのためそれはユーザの前記一部分の位置および方向を使用して、前記ユーザの意図するジェスチャを決定し、パーソナルコンピューティングアプリケーションにおいて前記ジェスチャを処理し、前記方向の情報に基づいた前記ジェスチャの前記処理に基づいて、ビジュアル出力を生成(または、もし適用可能ならば、別のソースから受信)できる。当業者は、方向の情報からユーザのジェスチャを表す情報を得るか、または推測する方法を理解するであろう。送受信機はまた、前記ビジュアル出力を、前記表示レイヤ上に表示し、それによってシームレスにユーザのジェスチャに対するビジュアルフィードバックをユーザに提供するために、前記ビジュアル出力を受信することを可能にする。
当業者は、送受信機が、通常、かなりの量の共通の回路および/または単一のハウジングを共有する送信機および受信機を含むが、(分離した、またはかなり分離した回路および/またはハウジングを有する)送信機−受信機が同等に使用可能であり、前記送受信機の代わりとなり得ることをさらに理解するであろう。
「着用していること」は、「衣類、装飾または保護として人の体に(何かを)有していること」という意味であると解釈される。この定義は、一定の行動の永続性の意図を示唆しており、言い換えれば、ある物を単に持ち運んでいるかまたは保持しているということは「着用している」ということと等価ではなく、またユーザの腕にモバイルデバイスをストラップで下げていることは前記デバイスを「着用している」とは見なされない。
一実施形態で、近接センサは、無線周波数センサ、磁界センサ、光学センサ、加速度計および筋活動センサのうちの1つまたは複数を含む。この方法では、ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す近接パラメータを検出(決定または推論)することができる。当業者は、例えば、無線周波数センサ(例えば、Bluetooth(登録商標)、近距離無線通信、Zigbeeなど)が測定された信号強度に基づいて前記近接パラメータを決定可能であり、磁界センサが同様であるということ、または、光学センサが、エンドポイント間見通し線が確保されているという条件でその距離を検出可能であること、または、例えば加速度計によって得られたデータが、前記他のウェアラブルデバイスの方向(および位置)を知ることがそれらの間の距離を決定することを可能とするようにウェアラブルデバイスの方向(および位置)を推測するために使用されてもよく、ユーザの一部分の位置および/または方向を決定することが可能でそれによって前記距離を決定することができる筋活動センサに対しても同様であることを理解するであろう。
別の実施形態で、ウェアラブルデバイスは、任意選択で近接センサの一部として、前記ウェアラブルデバイスの方向を検出するように構成された加速度計であって、前記送受信機が、前記検出された方向に関連する方向情報を前記処理ユニットに送信し、前記処理ユニットから前記方向情報に基づいて生成されたビジュアル出力を受信するように構成された、加速度計を含む。
この方法では、何らかの定義済み基準(通常は地球重力場)に関してウェアラブルデバイスが向いている方向を検出し、これを処理ユニットに知らせて、それにより処理ユニットが、ユーザの一部分の方向を、前記ユーザの意図するジェスチャを推測するために決定し、パーソナルコンピューティングアプリケーションにおいて前記ジェスチャを処理し、かつ、前記方向情報に基づいた前記ジェスチャの前記処理に基づいてビジュアル出力を生成(または、もし適用可能ならば、別のソースから受信)できるようにすることが可能である。当業者は、方向情報からユーザのジェスチャを表す情報を得るかまたは推測する方法を理解するであろう。
さらに発展した実施形態で、ウェアラブルデバイスは前記ウェアラブルデバイスへの触覚入力を検出するように構成された触覚センサを含み、前記送受信機が、前記検出された触覚入力に関連する触覚情報を前記処理ユニットに送信し、前記処理ユニットから前記触覚情報に基づいて生成されたビジュアル出力を受信するように構成される。
さらに発展した実施形態で、ウェアラブルデバイスは、ユーザの一部分の筋活動を検出するように構成された筋活動センサを(追加的に)含み、前記送受信機が、前記検出された筋活動に関連する筋活動情報を前記処理ユニットに送信し、前記処理ユニットから前記筋活動情報に基づいて生成されたビジュアル出力を受信するように構成される。
さらに発展した実施形態で、ウェアラブルデバイスは、オーディオ入力を登録するために構成されたマイクロフォンおよびオーディオ出力を再生するために構成されたオーディオスピーカを(追加的に)含み、前記送受信機が、前記登録されたオーディオ入力に関連するオーディオ入力情報を前記処理ユニットに送信し、前記処理ユニットから前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を受信するように構成される。
さらに発展した実施形態で、ウェアラブルデバイスは、エネルギーを周囲のソースから得て、前記エネルギーを蓄積し、前記ウェアラブルデバイスの1つまたは複数の他のコンポーネントに給電するために前記エネルギーを配送するように構成されたエネルギー取得ユニットを(追加的に)含む。
さらに発展した実施形態で、ウェアラブルデバイスは、前記送受信機が前記処理ユニットから振動コマンドを受信したことに応答して前記デバイスを振動させるように構成された振動素子を(追加的に)含む。
この方法では、触覚入力、筋活動入力およびオーディオ入力が、処理ユニットがそれらに基づいて生成されるビジュアル出力を生成(もし適用可能ならば、別のソースから受信)することができるように、パーソナルコンピューティングアプリケーションで処理するために処理ユニットによって使用され得るようにすることで、より包括的かつ没入型のパーソナルコンピューティング体験を提供することが可能である。
当業者は、触覚センサが、抵抗型触覚感知技術、または容量型触覚感知技術、または赤外線型感知技術、またはそれらの任意の組み合わせを使用して実装できることを理解するであろう。また、圧力および摩擦を決定してタッチ(方向を含む)を感知するために、爪の下(「爪下皮」または「生身」)でのユーザの体色の変化および勾配を検出する、当業者に知られている触覚感知技術もある。
「周囲の」エネルギーソースは、背景に既に存在する外部エネルギーソースである。当業者は、周囲のソースが、前記デバイスの移動による運動エネルギー、ユーザの体温と環境との間の温度差による熱電エネルギー、ワイヤレス放送による電磁エネルギー、圧電材料の変形等による圧電エネルギー、のいずれか1つまたは複数を含み得ることを理解するであろう。
好ましい実施形態では、ウェアラブルデバイスは、前記ユーザの爪に着用するのに適したフォームファクタを有するウェアラブルネイルデバイスである。
この方法では、ウェアラブルデバイスは、煩わしくなく、常に利用可能であり、容易に目に見える状態で、ユーザの爪に着用することができる。
別の好ましい実施形態では、ウェアラブルデバイスは、前記ユーザの手に着用するのに適したフォームファクタを有するウェアラブルスリーブデバイスである。
この方法では、ウェアラブルデバイスは、ユーザの手に着用することが可能であり、ユーザがいつでも利用できる比較的広い表面領域上にシームレスな表示を提示し、統合されたパーソナルコンピューティングを提供するために、無数の手のジェスチャによって容易に制御することができる。
「手」は、手のひら、親指と他の指を含め、手首より先の人の腕の終端部分を含むと考えられる。この境界は厳密ではないことに留意すべきであり、人の手首に適切に属する部分は、人の手の一部と見なしてもよい。
本発明の一態様により、処理ユニットが提供される。処理ユニットは、ウェアラブルデバイスから、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す検出された近接パラメータに関連する近接情報を受信し、前記受信した近接情報に基づいて、前記ウェアラブルデバイスを着用しているユーザの一部分の位置および/または方向を示す空間情報を決定し、前記空間情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するように構成される。
この方法では、処理ユニット(通常、モバイルスマートフォンデバイス、またはユーザが持ち運ぶ、ネットワークに接続された比較的大きな処理能力を有するパーソナルコンピューティングデバイス)は、ジェスチャを決定し、それに基づいて前記パーソナルコンピューティングを実行するために必要なステップを実行することができる。当業者は、処理ユニットが、Wi−Fi、Bluetoothなどのワイヤレスまたは有線通信チャネルを介してウェアラブルデバイスとの間でデータを送受信してもよいことを理解するであろう。
一実施形態では、処理ユニットは、検出された方向に関連する方向情報をウェアラブルデバイスから受信し、前記方向情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するように構成される。
この方法では、処理ユニットは、前記方向情報(および必要ならば他のウェアラブルデバイスの方向情報)に基づいてユーザの意図したジェスチャを決定し、それに基づいて生成されるビジュアル出力を生成(または、もし適用可能ならば、別のソースから受信)するパーソナルコンピューティングアプリケーションにおける処理のためにそのジェスチャを使用し、表示するために前記ビジュアル出力をウェアラブルデバイスに送信できる。
さらに発展した実施形態では、処理ユニットは、ウェアラブルデバイスから、検出された触覚入力に関連する触覚入力情報を受信し、前記触覚入力情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するために構成される。
さらに発展した実施形態では、処理ユニットは、ウェアラブルデバイスから、検出された筋活動に関連する筋活動情報を(追加的に)受信し、前記筋活動情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するために構成される。
さらに発展した実施形態では、処理ユニットは、ウェアラブルデバイスから、登録されたオーディオ入力に関連するオーディオ入力情報を(追加的に)受信し、前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を前記ウェアラブルデバイスに送信するために構成され、さらに発展した実施形態では、処理ユニットは、そのユーザにアラートするために、前記ウェアラブルデバイスに振動コマンドを(追加的に)送信するために構成される。
この方法では、触覚入力、筋活動入力およびオーディオ入力が、処理ユニットがそれらに基づいて生成されるビジュアル出力を生成(もし適用可能ならば、別のソースから受信)することができるように、パーソナルコンピューティングアプリケーションで処理するために処理ユニットによって使用され得るようになるという意味で、より包括的かつ没入型のパーソナルコンピューティング体験を提供することが可能である。
本発明の一態様によれば、前述の実施形態による第1のウェアラブルデバイスと、前述の実施形態のいずれか1つによる処理ユニットを含むモバイルデバイスとを含むシステムが提供される。
この方法では、システムは、ウェアラブルデバイスが軽量の入力および出力機器として機能し、処理ユニットがより能力のあるネットワークに接続されたパーソナルコンピューティングクライアントとして機能することができるという意味で、煩わしくなく容易なパーソナルコンピューティングを提示するウェアラブルデバイスを提供する。
さらに、ユーザは、通常、スマートフォンまたは同等のモバイルデバイスを既に所有しており、このデバイスは、パーソナルコンピューティングに使用することができ、1つまたは複数のネットワークに接続することができ、その結果、このデバイスが処理ユニットを統合することができる。当業者は、モバイルデバイスに含まれる以外の処理ユニットの他の構成が考慮されてもよいが、これらは通常は処理ユニット(それゆえ、有利にはモバイルである)またはそれを含むデバイスの持ち運び、着用または保持を含む、ということを理解するであろう。
一実施形態では、システムは、処理ユニットからビジュアル出力を受信するための送受信機と、前記ビジュアル出力を表示するための表示レイヤとを含む、第2のウェアラブルデバイスを含む。前記第1および第2のウェアラブルデバイスは、同じユーザによって着用されることが意図されている。前記第1のウェアラブルデバイスの近接センサは、前記第1のウェアラブルデバイスと前記第2のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するように構成される。処理ユニットは、第1のビジュアル出力を前記第1のデバイスに送信し、第2のビジュアル出力を前記第2のデバイスに送信し、前記第2のビジュアル出力が前記第1のビジュアル出力と連携するように構成される。当業者は、システムの第2のウェアラブルデバイスが第1のウェアラブルデバイスの観点から他の(「別の」)ウェアラブルデバイスとして機能し得ることを理解するであろう。
この方法では、近接を相互に考慮に入れることができるので、複数のスタンドアロンのウェアラブルデバイスを協調的に使用でき、第1のウェアラブルデバイスは、第2のウェアラブルデバイスと、それらの近接が決定できるので、協力して(連携して)ビジュアル出力を表示することができる、という点で、システムの統合が強化される。
本発明の一態様により、パーソナルコンピューティングのための方法が提供される。方法は、ウェアラブルデバイスにおいて、第1のウェアラブルデバイスと第2のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するステップと、前記検出された近接パラメータに関連する近接情報を処理ユニットに送信するステップと、前記近接情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するステップと、前記ビジュアル出力を表示するステップとを含む。
当業者は、ウェアラブルデバイスの実施形態および処理ユニットの実施形態に関連した前述のものと同じ技術的特徴および利点が、必要な変更を加えて方法の実施形態にも適用されることを理解するであろう。
一実施形態では、方法は、前記ウェアラブルデバイスにおいて、前記ウェアラブルデバイスの方向を検出するステップと、前記検出された方向に関連する方向情報を前記処理ユニットに送信しかつ前記方向情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するステップとを含む。
一実施形態では、方法は、前記ウェアラブルデバイスにおいて、前記ウェアラブルデバイスへの触覚入力を検出し、前記検出された触覚入力に関連する触覚情報を前記処理ユニットに送信し、かつ前記触覚情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するステップと、ユーザの一部分の筋活動を検出し、前記検出された筋活動に関連する筋活動情報を前記処理ユニットに送信し、かつ前記筋活動情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するステップと、オーディオ入力を登録し、前記登録されたオーディオ入力に関連するオーディオ入力情報を前記処理ユニットに送信し、前記処理ユニットから前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を受信し、かつ前記オーディオ出力を再生するステップと、周囲のソースからエネルギーを得て前記エネルギーを蓄積し、前記エネルギーを前記ウェアラブルデバイスの1つまたは複数のコンポーネントに給電するために配送し、かつ前記処理ユニットから振動コマンドを受信したことに応答して、前記デバイスを振動させるステップと、のうちの少なくとも1つを含む。
本発明の一態様によって、パーソナルコンピューティングのための方法が提供される。方法は、処理ユニットにおいて、ウェアラブルデバイスから、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す検出された近接パラメータに関連する近接情報を受信するステップと、前記受信された近接情報に基づいて、前記ウェアラブルデバイスを着用しているユーザの一部の位置および/または方向を示す空間情報を決定するステップと、前記空間情報に基づいて前記ウェアラブルデバイスにビジュアル出力を送信するステップとを含む。
一実施形態では、方法は、前記処理ユニットにおいて、ウェアラブルデバイスから、検出された方向に関連する方向情報を受信するステップと、前記方向情報に基づいて前記ウェアラブルデバイスに前記ビジュアル出力を送信するステップとを含む。
一実施形態では、方法は、前記処理ユニットにおいて、検出された触覚入力に関連する触覚入力情報をウェアラブルデバイスから受信し、かつ前記触覚入力情報に基づいて前記ウェアラブルデバイスにビジュアル出力を送信するステップと、ウェアラブルデバイスから、検出された筋活動に関連する筋活動情報を受信し、かつ前記筋活動情報に基づいて前記ウェアラブルデバイスにビジュアル出力を送信するステップと、登録されたオーディオ入力に関連するオーディオ入力情報をウェアラブルデバイスから受信し、かつ前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を前記ウェアラブルデバイスに送信するステップと、そのユーザにアラートするために前記ウェアラブルデバイスに振動コマンドを送信するステップと、のうちの少なくとも1つを含む。
本発明の一態様により、プログラムがコンピュータ上で実行されるときに、前述の方法の実施形態のいずれかのすべてのステップを実行するためのコンピュータ実行可能命令を含む、コンピュータプログラム製品が提供される。
当業者は、ウェアラブルデバイスの実施形態および処理ユニットの実施形態に関連した前述のものと同じ技術的特徴および利点が、必要な変更を加えてコンピュータプログラム製品の実施形態にも適用されることを理解するであろう。
さらに、前述のウェアラブルデバイスおよびシステムの実施形態が、第三者組織および企業(例えば、Facebook)がウェアラブルデバイスおよびシステムのジェスチャおよび機能性を構成することを可能にするプログラミングプラットフォームを伴うことができ、したがって、強力なブランディングおよび流行の機会を提供し得る、ということが理解されるであろう。
添付の図面は、本発明のデバイスの現在の好ましい非限定的な例示的な実施形態を説明するために使用される。添付の図面と併せて読むと以下の詳細な説明から、本発明の特徴および目的の上記および他の利点はより明らかになるであろうし、本発明がよりよく理解されるであろう。
本発明によるウェアラブルネイルデバイスの例示的な実施形態を示す図である。 本発明によるウェアラブルネイルデバイスの実施形態の例示的なアーキテクチャ図である。 本発明によるウェアラブルネイルデバイスの実施形態を示す図である。 本発明によるシステムの実施形態を示す図である。 本発明による別のシステムの実施形態を示す図である。 本発明による別のシステムの実施形態を示す図である。 本発明によるウェアラブルスリーブデバイスを示す図である。 本発明によるウェアラブルスリーブデバイスの実施形態を示す図である。 本発明によるウェアラブルスリーブデバイスの別の実施形態を示す図である。 本発明によるウェアラブルスリーブデバイスの実施形態を示す図である。 本発明によるシステムの実施形態を示す図である。 本発明による別のシステムの実施形態を示す図である。 本発明によるシステムの実施形態を示す図である。 本発明によるウェアラブルネイルデバイスの別の実施形態を示す図である。
今日のスマートフォンは、インターネットからオンラインコンテンツを受信することと、それをユーザに表示することの両方を行う。これは厳密には必要なわけではない。ワイヤレス接続(Wi−Fiやセルラーなど)を備える組込みデバイスを使用して、オンラインコンテンツを取得することができる。一方、ウェアラブルディスプレイは、情報を表現するためにシームレスに使用することができる。このようなディスプレイは、例えば、ユーザの手または爪に置くことができる。
手と指は、ジェスチャを介してユーザの意図を理解するのに役立つこともある。言い換えれば、ウェアラブルディスプレイ上の手の動きは、閲覧された情報を制御しそれ以上のことをするためにも使用することができる。これは、スマートフォンでタッチスクリーンを使用するのと同様である。いくつかの動きは、ユーザがコンテンツで行いたいことを同様に示唆することができる。
本発明の複数の実施形態では、人間の手は、通常スリーブまたは人工爪のように見え、コンテンツを提示し、その後の動作のためのユーザの意図を理解する能力を備えた、ウェアラブル衣類を通したディスプレイとして使用することができる。
図1Aは、ビジュアル出力を表示するために構成された表示レイヤ10によって覆われた処理レイヤ20を含む、本発明によるウェアラブルネイルデバイスの例示的な実施形態を示す。処理レイヤ20は、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するように構成された近接センサと、前記検出された近接パラメータに関連する近接情報を処理ユニットに送信し、前記近接情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するように構成された送受信機とを少なくとも含む。
図1Bは、本発明によるウェアラブルネイルデバイスの一実施形態の例示的なアーキテクチャ図を示し、これは、例えば容量性タッチディスプレイの形態の表示レイヤ100であって、前記容量性タッチディスプレイは、触覚(すなわち「タッチ」)入力を検出するための触覚センサとしても機能する、表示レイヤ100と、例えばBluetooth送受信機の形態の送受信機200と、例えば加速度計の形態の近接センサ300と、エネルギー取得ユニット400と、マイクロコントローラ500と、メモリ600とを含む。
本発明によるウェアラブルデバイスの説明される実施形態は、ユーザの爪に着用するのに適しており、ユーザに、非常にアクセス能力のある表示機能ならびに接続された世界との対話を提示する。ユーザは、このウェアラブルネイルデバイスを一時的に着脱することができ、スマートフォン(関連する処理ユニット)などの自分の他のスマートデバイスで動作させるように構成することができる。ウェアラブルネイルデバイスは、人間の爪の典型的なサイズに適合する小さなフォームファクタを備えた柔軟な容量性タッチディスプレイの形態の表示レイヤ100を含む。ウェアラブルネイルデバイスはまた、i)デバイスの頭脳としてのマイクロコントローラ500と、ii)組込みソフトウェアを記憶するメモリコンポーネント600と、iii)ユーザのスマートフォンまたは他のスマートデバイスとペアリングできるBluetooth送受信機200と、iv)ウェアラブルネイルデバイス(この場合、それに関連する処理ユニット)がジェスチャを組み込み、対話を認識することを可能にする近接センサ(加速度計)300と、v)表示レイヤを含む1つまたは複数の他のコンポーネントに必要なエネルギーを提供する、エネルギー取得ユニット400、例えば小型の再充電可能なバッテリを備えた運動電力コンポーネントと、を(通常は表示レイヤの下に)含む。そのときバッテリは、文献[3、4]に示されているように、例えば、1日中のユーザの動きの運動エネルギーによって充電され得る。当業者は、周囲のエネルギーの他のソースも同様に使用できることを理解するであろう。
[3]Yuan Raoらによる、「An energy harvesting system for passively generating power from human activities」、J.Micromech.Microeng. 23 114012、2013年
[4]A Cimpianらによる、「Analysis of Pulsed vs. Continuous Power Delivery from an Electromagnetic Generator」、J.Phys.:Conf.Ser.476 012058、2013年
図2は、ユーザの人差し指の爪に着用され、ビジュアル出力9をユーザに出力するように構成された表示レイヤを含む、本発明によるウェアラブルネイルデバイスの実施形態2を示す。この実施形態では、ユーザは、電子メールメッセージ、チャットメッセージ、またはショートメッセージサービスのテキストメッセージなどの新しいメッセージを受信している。この受信は処理ユニット(図示せず)で行われ、処理ユニットはこの受信を前記ウェアラブルネイルデバイス2に示すためにビジュアル出力を送信する。ウェアラブルネイルデバイス2は、例えば、「新しいメッセージ」通知9を表示することによって、この受信をユーザに通知する。ウェアラブルネイルデバイス2のサイズおよび形状は単なる例示であり、限定することを意味するものではない。同様に、ネイルデバイス2上の通知9のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。通知9は、単に現時刻から、コンテンツプロバイダによって定義され、(ミドルウェアを介して)ユーザによってパーソナライズされ構成されたものまでの何であってもよい。通知9は、ネイルデバイス2の構成されたサイズに対して表現され、(例えば、Bluetoothを介した)ワイヤレス接続を通じてデバイス2にプッシュされる。
ユーザは、例えば(複数ある場合には対応する)ネイルデバイス2の上部にスウィープのジェスチャを実行することによって、ディスプレイから通知9をキャンセルして消去することを選択することができる。ネイルデバイス2のタッチセンサコンポーネントを使用することにより、システムはこのジェスチャに応答して、選択されたネイルデバイス2から通知/コンテンツ9を除去することができる。あるいは、ユーザは同じ指でスマートディスプレイに触れることによって通知9を表示することを選択することができる。この場合、ネイルデバイス2は、ユーザの意図を認識し、通信コンポーネント(例えば、Bluetooth)を介してペアリングした後に、ビジュアル出力9(すなわち、通知の内容)をディスプレイに送信する。
図3は、ユーザの左手に着用されるウェアラブルスリーブデバイス1と、前記ユーザの右手人差し指の爪に着用されるウェアラブルネイルデバイス2とを含む、パーソナルコンピューティングのための本発明によるシステムの実施形態を示す。前記ウェアラブルスリーブデバイス1は、ここでは、前記ユーザの手のひらに位置し、前記ユーザの手の長さ方向に沿って配向された長方形ディスプレイとして示される表示レイヤ7を含む。前記ウェアラブルネイルデバイス2はまた、ここでは前記ユーザの爪表面に一致するように取り付けられたほぼ楕円形のディスプレイとして示される、表示レイヤを含む。当業者は、ウェアラブルスリーブデバイス1およびウェアラブルネイルデバイス2ならびにそれらを着用しているユーザの身体部分のサイズおよび形状が単なる例示であり、限定することを意味しないことを理解するであろう。
この実施形態では、ウェアラブルネイルデバイスは、例えば図2のようにユーザがメッセージを受信したことを通知されており、通知アイコンビジュアル出力9を表示する。前記ビジュアル出力9のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。さらに発展した実施形態では、ウェアラブルネイルデバイス2の振動素子は、ユーザに適切にアラートするために、そのような通知を受信したときに前記ウェアラブルネイルデバイス2を振動させている場合もある。
ユーザが通知またはアラートされた後、ユーザは、前記受信したメッセージを表示して読み取るために、両方のウェアラブルデバイス1、2の機能を組み合わせることによって、システムと対話することを選択してもよい。この目的のために、前記ユーザは、ウェアラブルスリーブデバイス1の表示レイヤ7がビジュアル出力8を表示するためにアクティブ化され得ることをシステムに伝えるために、まず特別の方法で、例えばその指を完全に伸ばして、(ウェアラブルスリーブデバイス1を付けた)左手を置いてもよい。ビジュアル出力8のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。当業者は、そのような位置が、予め決定された設定またはユーザ定義の設定または同様のものに基づいて、システムによって(ジェスチャとして)解釈され得ることを理解するであろう。
このようにしてウェアラブルスリーブデバイスの表示レイヤ7がアクティブ化されると、ユーザはウェアラブルスリーブデバイス1の表示レイヤ7に対して、前記表示レイヤ7(または、より一般的には前記ウェアラブルスリーブデバイス1)を前記ウェアラブルネイルデバイス2(または前記デバイス2が爪に着用されている指)と触れさせる(または接近させる)ことによって、受信したメッセージを読むために表示8するように要求してもよい。ウェアラブルスリーブデバイス1は、ウェアラブルスリーブデバイス1とウェアラブルネイルデバイス2との間の距離を表す近接パラメータを検出し、それに関連する情報を処理ユニット(図示せず)に送信してもよく、その結果、処理ユニットが前記情報を処理し、それに応じてビジュアル出力8を生成できるようにする。当業者は、この目的のために複数のデバイス間でのデータ結合および送信を提供する方法を十分に認識している。
図4は、本発明によるシステムの実施形態を示しており、前記ユーザの左手の親指の爪上に着用された第1のウェアラブルネイルデバイス2と、4つの第2のウェアラブルネイルデバイス11とを示し、前記4つの第2のデバイス11のそれぞれは前記ユーザの右手の指のそれぞれの爪に着用されている。ウェアラブルネイルデバイス2および11のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。この実施形態では、ユーザは、片手または両手のビジュアル出力または内容を示すために一緒に整列されたときに、ネイルデバイス11をマルチ接続ディスプレイとして動作するように構成することができる。第2のウェアラブルネイルデバイス11の少なくとも1つの近接センサ(図示せず)は、例えば、他の各デバイスへの距離を表す近接パラメータを検出し、それに関連する情報を処理ユニット(図示せず)に送信することができ、そこで情報が解釈され、それに応じて処理される。この図は、ユーザがショートメッセージサービスのテキストメッセージ(「Hello world」)を受信したこの例を示している。この受信は、通常は、表示されるべき第1のウェアラブルネイルデバイス2にビジュアル出力を送信し、第1のウェアラブルネイルデバイス2の表示レイヤに通知9を示す、処理ユニット(図示せず)または他のネットワーク接続されたモバイルデバイスにおいて行われる。ネイルデバイス上の通知のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。この通知は、ネイルデバイスの構成されたサイズに対して表現され、ワイヤレス接続を通して(例えば、Bluetoothを介して)デバイスにプッシュされる。
例えば、手を閉じるジェスチャを行い、互いに隣り合う爪を整列させることによって、ビジュアル出力(ここでは、受信したテキストメッセージの内容)を複数のネイルデバイスの表示レイヤにわたって表現することができる。ネイルデバイス上のメッセージのサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。
この機能は、カスタマイズに応じて異なるメッセージを表示するために使用できる、つまり、ユーザは、オプションでネイルデバイスに存在するモバイルミドルウェアパーソナライゼーションコンポーネントを介して、この機能を使用することが許可されているアプリケーションを指定することができる。コンテンツプロバイダは、この機能のコンテンツを最適化することもできる。
図5は、複数のウェアラブルネイルデバイスを含む、本発明による別のシステムの実施形態を示し、第1のウェアラブルネイルデバイス2Aは、ユーザの左手中指の爪に着用されて示されており、第2のウェアラブルネイルデバイス2Bは、前記ユーザの右手人差し指の爪に着用されて示されている。当業者は、図に明示されていなくても、前記ユーザの1つまたは複数の他の爪もウェアラブルネイルデバイスを着用してもよく、またはこのような爪はなくてもよく、示された手のいずれかまたは両方がウェアラブルスリーブデバイスを着用してもよいことを理解するであろう。また、ウェアラブルネイルデバイス2A、2Bのサイズおよび形状は単なる例示であり、限定することを意味するものではない。
この実施形態では、第1のネイルデバイス2Aは、その表示レイヤ上にビジュアル出力を表示するように示されており、これは、ここではユーザが加入しているチャネルからの通知を表し得るオンラインビデオストリーミングサービスのアイコンである。ビジュアル出力のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。このビジュアル出力は、処理ユニット(図示せず)によって第1のネイルデバイス2Aに送信される。ユーザがその通知を気に入れば、そのユーザは、第2のウェアラブルネイルデバイス2Bを着用している右の人差し指を伸ばすことによってこれを示すことを決定してもよい。このジェスチャは、例えば、「+1」機能または「いいね(like)」をアクティブ化するために予め定義されていてもよい。図では、第2のウェアラブルネイルデバイス2Bの表示レイヤに「+1」の通知が示されている。次に、第1のネイルデバイス2Aの近くに第2のネイルデバイスを保持することによって(または人差し指で触れることによってでも)、ユーザは前記第1のネイルデバイス2Aの表示レイヤに表示された前記通知を「いいね」(すなわち「+1」)してもよい。第1のネイルデバイス2Aの近接センサは、近接パラメータを介して、第2のネイルデバイス2Bの近接を検出することができ、それに応答して、処理ユニットは、ユーザの一部分の位置および/または方向を示す空間情報を決定してもよく、ここでは空間情報は、ユーザの右人差し指が伸びて、ユーザの左中指に接近しまたは触れて保持されているやり方である。この空間情報は、ワイヤレス信号(例えば、NFCまたはBluetooth Low Energy、または現在知られているかまたは後に開発される任意の適切な技術)の信号強度を分析することによって、またはユーザが第1のネイルデバイスに触れた場合の触覚入力を登録することによって、または複数のウェアラブルデバイスからの方向情報を分析することによって決定されてもよい。
その後、処理ユニットは、前記「いいね」の確認を前記オンラインビデオストリーミングサービスにアップロードすることができる。このようにして、ユーザは、自分が着用しているウェアラブルデバイス2A、2Bの協同的な使用を通じて、オンラインコンテンツおよび通知とシームレスに対話することができる。
図6は、本発明によるウェアラブルスリーブデバイス100を示す。スリーブデバイス100は、ビジュアル出力105を表示するための表示レイヤ101を含む。当業者は、表示レイヤ101が、スリーブデバイス100全体、またはスリーブデバイス100の一部のみを覆ってもよいことを理解するであろう。この特定の例示的な実施形態では、スリーブデバイス全体がコンテンツを表示するために使用される(すなわち、表示レイヤ101はスリーブデバイス100全体を覆い、言い換えれば、スリーブデバイス100全体がディスプレイとして機能することができる)。スリーブデバイス100は、処理ユニット103と通信し、スリーブデバイスの表示レイヤ101上にビジュアル出力105を表現し、スリーブデバイス100上の様々なセンサからデータを収集する、小型のマイクロコントローラ102を含む。処理ユニット103は、パーソナルコンピューティングに必要であり、モバイルデバイスが通常関与する主要なタスクを処理する、CPU、メモリなどのユニットを含む。これらのタスクは、Wi−Fiおよびセルラーネットワークとの通信を含んでもよい。処理ユニット103は、必ずしもスリーブデバイス100上に置かれる必要はなく、この例に示すように、ワイヤレスで、またはワイヤ104を介して接続されてもよい。ユーザが何らかのコンテンツを見ることを望むことが検出されると、コンテンツは表示レイヤ101上、通常は手のひらの上に表示される。ユーザの意図を検出するために、多くの方法を使用することができる。いくつかの例は、実施形態2および3において提供される。ユーザが電話をかけたい場合、スリーブデバイス100は、図に示すように、ビジュアル出力105としてキーパッドを表示する。この例示の実施形態は、ユーザが、ヘッドフォンなどのマイクロフォンおよびオーディオスピーカのような電話で話すためのアクセサリを有し、それらのアクセサリが処理ユニット103と通信できることを前提とする。スリーブデバイス100は、静電容量感知能力を有する導電性ファブリックを含む。このようにして、それはユーザが触れるポイントを検出することができる。言い換えれば、スリーブデバイス100は、タッチスクリーン機能を有する。例えば、ユーザが番号911に電話をかけるつもりならば、ユーザは手のひらの上で順番に数字9、1、1を押さなければならない。
ウェアラブルスリーブデバイス100のサイズおよび形状は単なる例示であり、限定することを意味するものではない。スリーブデバイス100の他のサイズおよび形状が可能である。それは手の全体または一部のみを覆うことができる。いくつかの実施形態では、例えば、それは指を含んでもよい。
同様に、マイクロコントローラ102のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。スリーブ上にマイクロコントローラ102のための他のサイズ、形状および位置が可能である。一例として、このマイクロコントローラは、図1に示すように手首に配置されてもよく、手の甲に配置されてもよい。
同様に、処理ユニット103のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。処理ユニット103のための他のサイズ、形状および位置が可能である。それは衣服に掛けたり、ユーザのポケットに入れたりすることができる。
同様に、マイクロコントローラ102と処理ユニット103との間の接続は単なる例示であり、限定することを意味するものではない。マイクロコントローラ102と処理ユニット103との間の接続は、ワイヤ104に制約されない。ワイヤレス媒体を使用する他の技術は、マイクロコントローラ102と処理ユニット103とをペアリングするために使用することができる。そのような技術の1つの例はBluetooth Low Energyである。
同様に、ビジュアル出力105のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。スリーブデバイス100上に示されるビジュアル出力105は、電話のキーパッドに制約されない。それは処理ユニット103にインストールされた任意のアプリケーションからのコンテンツを表示することができる。ビジュアル出力105の他のサイズ、形状および位置が可能である。いくつかのアプリケーションは、例えば、長方形の形状を必要とすることがあり、他のアプリケーションでは、円形の形状が好ましい。タッチスクリーン機能により、ユーザは、表示されたビジュアル出力105のサイズ、位置および形状を制御することもできる。
マイクロコントローラ102は、データ記憶装置などの他の要素を含んでもよい。それは、ウェアラブルスリーブデバイス100の表示レイヤ101に表示されるビジュアル出力105について、様々なタイプの画像処理や解析を行うように構成されてもよい。マイクロコントローラ102はまた、スリーブデバイス100上に配置された様々なセンサからデータを収集し、処理ユニット103に配送する。
いくつかの実施形態では、ウェアラブルスリーブデバイスは、静電容量感知能力を有する導電性ファブリックを含んでもよい。これにより、ユーザが触れたポイント(「触覚入力」)を検出することによって、スリーブデバイスが人間の入力を理解するようにする。言い換えれば、それはタッチスクリーンと同様に機能する。このようなスマートなファブリックは、触れられたポイントに基づいて変化する電気的特性を有するファブリックに柔らかいポリマーベースの繊維を織ることによって、自動車産業における自動車用シートでの使用が考慮されている[2]。
[2]Stroke your car seat to pump up the volume、
http://www.newscientist.com/article/mg21328466.300−stroke−your−car−seat−to−pump−up−the−volume.html
図7は、本発明によるウェアラブルスリーブデバイス200の一実施形態を示す。スリーブデバイス200は、ユーザの左手に着用され、ユーザの一部の筋活動を検出するように構成された筋活動センサ202(例えば、筋電図センサ)を含む。この例では、筋活動センサ202は、ユーザの手が保持されている形状を検出する。このセンサは、手の形状を示す筋肉の特徴を認識する。この形状は、ユーザが行うかまたは見ることに興味を持っていることを示唆している。例えば、ユーザが他のすべての指を閉じた状態で人差し指を上げている場合、指先で最後に受信した通知203を見るつもりである可能性があり、この例では、前記ウェアラブルスリーブデバイス200の表示レイヤ201上のビジュアル出力203として不在着信通知を示す。さらに、検出された筋活動センサデータは、これらのデバイス間の近接を決定するために(他のウェアラブルデバイスのセンサデータと共に)使用され得るように、近接パラメータを構成してもよい。
前述の実施形態の場合と同様に、スリーブデバイス200のサイズおよび形状は単なる例示であり、限定することを意味するものではない。スリーブデバイス200の他のサイズおよび形状も可能である。この実施形態では、スリーブデバイス200は少なくとも人差し指を覆うが、他の構成も可能であることが当業者には理解されるであろう。
同様に、センサ202のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。センサ202の他のサイズ、形状および位置は、スリーブデバイス200上で可能である。この例では、センサ202は、手首の上に配置されている。センサ202は、手首の筋肉がどのように位置しているかを検出することができる。あらゆる手の位置で、これらの筋肉は異なる特徴を有する。センサ202は、これらの特徴を検出するように構成されている。センサ202は、どこにでも配置することができ、ユーザの一部分の空間情報を検出することを可能にする任意の形状にすることができる。
同様に、通知203のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。通知203は、不在着信通知に限定されない。それは任意のインストールされているアプリケーションからの通知アイコンを表示できる。通知203の他のサイズ、形状および位置が可能である。いくつかのアプリケーションは、例えば長方形の通知を必要とすることがあり、一方他のアプリケーションでは円形の形状が好ましい。
図8は、図7のセンサ202に類似のセンサ302を含む、本発明によるウェアラブルスリーブデバイス300の実施形態を示す。この実施形態では、スリーブデバイスは、加速度計303も備える。加速度計303は、手の方向を検出する(または推測するために使用する)ことができる。人差し指を伸ばした状態で手を上方向にすると、図7のように人差し指の先端が使用される。しかしながら、手が横方向であり、人差し指が伸ばされ、センサ302によって検出される場合、通知304を含むより詳細なビジュアル出力が人差し指の上に、ここでは、より具体的には、前記人差し指の内側を覆うスリーブデバイスの表示レイヤの一部の上に、表示される。この図の例では、不在着信情報は、その発信を行った番号も含む。
前述の実施形態の場合と同様に、スリーブデバイス300のサイズおよび形状は単なる例示であり、限定することを意味するものではない。スリーブデバイス300の他のサイズおよび形状が可能である。この実施形態では、スリーブデバイス300は、少なくとも人差し指を覆うが、当業者は、手全体、または他のまたはすべての指(および/または親指、手のひら、手の甲など)も覆われることができることを認識するであろう。
同様に、センサ302のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。センサ302の他のサイズ、形状および位置は、スリーブデバイス300上またはスリーブデバイス300内で可能である。この例では、それは手首の上に位置している。センサは、手首の筋肉がどのように位置しているかを検出することができる。あらゆる手の位置で、これらの筋肉は異なる特徴を有する。センサ302は、当業者にはよく知られるように、これらの特徴を検出するように構成されている。センサは、手の位置を検出することができる任意の場所に任意の形状で配置することができる。
同様に、加速度計303のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。加速度計303の他のサイズ、形状および位置が、スリーブデバイス300上で可能である。加速度計によって推測される情報は、手の方向に限定される必要はなく、他の用途でも使用することができる。また、方向情報の使用は、通知の表示方法に必ずしも限定されない。
同様に、通知304のサイズ、形状および位置(方向を含む)は単なる例示であり、限定することを意味するものではない。通知304は、不在着信通知に限定されない。不在着信通知に対しても、その番号の発信者IDがユーザの連絡先リストにある場合は、それを表示することができる。またそれは、他のインストールされているアプリケーションからの通知アイコンを表示することもできる。通知304の他のサイズ、形状および位置が可能である。
図9は、ユーザ(図示せず)の左手に着用された、本発明によるウェアラブルスリーブデバイス400の実施形態を示す。スリーブデバイス400は、その表示レイヤ401(の一部)上にビジュアル出力402を表示するように示されている。この例示の実施形態では、表示レイヤ401はウェアラブルスリーブデバイス400全体を覆うが、必ずしもそうである必要はないことが当業者には理解されるであろう。この例示の実施形態では、ユーザは、外部ディスプレイ404にビジュアル出力402を出す(すなわち、「知覚もする」)ことを望むと仮定する。これを行うために、ユーザは、ディスプレイ404に向かって方向403に手をスライドさせるだけでよい。このジェスチャは、ユーザの手の相対運動に関連する情報に基づいて処理ユニット(図示せず)によって認識することができ、これは例えば加速度計によって検出することができる。当業者は、外部ディスプレイ404がオープンAPI(アプリケーションプログラミングインタフェース)を有することが必要な場合があり、ユーザが任意の画像またはビデオをこのディスプレイ404にストリーミングできることを理解するであろう。
前述の実施形態と同様に、スリーブデバイス400のサイズおよび形状は単なる例示であり、限定することを意味するものではない。スリーブデバイスの他のサイズおよび形状が可能である。同様に、ビジュアル出力402のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。ビジュアル出力402は、様々なアプリケーションからのコンテンツであり得る。ビジュアル出力402の他のサイズ、形状および位置が可能である。同様に、ディスプレイ404のサイズ、形状および位置は単なる例示であり、限定することを意味するものではない。ディスプレイ404の他のサイズ、形状および位置が可能である。ディスプレイ404の位置は、近接していることが好ましく、スリーブデバイス400は、利用可能な任意の方法によってディスプレイ404の存在を検出できる必要がある。そのような方法の1つは、例えばワイヤレス媒体内の信号を使用することができる。
図10は、本発明によるシステム500の実施形態を示しており、これは、ユーザの左手に着用された第1のウェアラブルスリーブデバイス501と、前記ユーザの右手に着用された第2のウェアラブルスリーブデバイス502とを含む。ユーザが単一のウェアラブルスリーブデバイスが提供することができるよりも大きな表示領域でコンテンツ503を見ることを望むなら、これらのウェアラブルデバイス501、502を含むシステム500において、ユーザは複数を一緒に使用することができる。ここに描かれているシナリオでは、ユーザは、両手を上方向にしながら2つの手をともにあわせる。この場合、第1のウェアラブルスリーブデバイス501の表示レイヤと第2のウェアラブルスリーブデバイス502の表示レイヤとを含む領域(の一部)には、処理ユニット(図示せず)によって提供されるビジュアル出力503が表示される。
当業者は、複数のユーザによって着用される複数のウェアラブルデバイスが、例えば、友人がそれぞれのウェアラブルデバイスの表示レイヤを共有して接続することを可能にし、それによって利用可能な表示レイヤ面積を増加させるために、一緒にウェアラブルシステムに含まれてもよいことを理解するであろう。
同様に、当業者は、単一のユーザが、複数のウェアラブルシステムを、例えば左手側に1つ、右手側に2つ着用してもよいことを理解するであろう。また、当業者は、これらの2つの実施形態が、第1のユーザが複数のウェアラブルシステムを着用し、そのうちの1つまたは複数が第2のユーザと共有される(第2のユーザによって「部分的に着用もされる」)こともあり得る、という点で共存することができることを理解するであろう。
前述の実施形態と同様に、図10のスリーブデバイス501および502のサイズおよび形状は単なる例示であり、限定することを意味するものではない。また、両方のスリーブにコンテンツ503を表示するというユーザの意図を理解する方法は、手のひらを上にして両手をともにあわせることに限定されない。この意図の合図をするために、他のメカニズムを開発することができる。同様に、図10のコンテンツ503のサイズ、形状および位置は単なる例示であり、限定することを意味しない。コンテンツ503は、様々なアプリケーションからのコンテンツであり得る。コンテンツ503の他のサイズ、形状および位置が可能である。
当業者は、ウェアラブルシステムおよびデバイスを使用するために、多くの使用事例およびジェスチャが考慮され定義され得ることを理解するであろう。例えば、図10に示す例のさらなる発展として、示されているコンテンツ503が本、ウェブサイトまたはページめくり可能な別のドキュメントである場合、ユーザは本のページをめくるのと同様にして右手をめくる動作をしてもよい。システム500は、このジェスチャを解釈し、表示されたコンテンツ503を1ページ(または類似の尺度分)進めるように構成されていてもよい。
図11は、本発明による別のシステムの実施形態を示しており、これは、4つのウェアラブルネイルデバイスを含み、前記4つのデバイスのそれぞれが前記ユーザの右手のそれぞれの爪(この場合は親指の爪)に着用されている。この具体的な例では、ユーザの小指の爪にはネイルデバイスは着用されない。一般に任意の指がネイルデバイスを着用できる、ということが理解されるであろう。ネイルデバイスおよびシステムによってサポートされる認識サービスに加えて、ネイルデバイスは、特定の色および/または画像を表示するために使用することもできる。例えば、その日の気分を反映させるため、またはTwitterなどのソーシャルネットワークを介して、友人や有名人の爪の色および/または画像に従うように、色および/または画像をユーザが設定することができる。この機能を使用して、ユーザは、ネイルデバイスのミドルウェア上の表示色のリストを(ソーシャルネットワークから静的にまたは動的に)事前に設定し、例えば特定の手のジェスチャを使用してこれらを1日通して切り替えることができる。ネイルデバイスおよび/またはシステムのこの機能性は、ユーザが自分の好きな会社または有名人によってスポンサーされたデザインを表示することを選択するブランディングのための巨大な機会を作り出すことが理解されるであろう。
前述の実施形態と同様に、図11に示すウェアラブルネイルデバイスのサイズおよび形状は単なる例示であり、限定することを意味するものではない。
図12は、図11によるシステムの実施形態をアクティブ化/スイッチオンまたは非アクティブ化/スイッチオフ(例えば、表示レイヤからビジュアル出力を消去することによって)するための特別な位置またはジェスチャを使用する本発明によるシステムの実施形態を示す。ネイルデバイスは、例えば、図11に示すように、ユーザが短時間に2回、自分の手を広く開いた場合に、手のジェスチャによってスイッチオンされるようにさらに設定することができる。ユーザは、ミドルウェアカスタマイズコンポーネント(図示せず)を介してこのジェスチャをさらにカスタマイズすることができる。当業者は、このジェスチャが、この機能を達成するための多くの可能なジェスチャのうちの1つに過ぎず、システムの実施形態はそれに限定されないことを理解するであろう。
図13は、ユーザの左手の親指の爪に着用された、本発明によるウェアラブルネイルデバイス2の別の実施形態を示す。この例では、ネイルデバイス2は、別の指4の触覚(「タッチ」)入力を検出して、ネイルデバイスをアクティブ化/スイッチオンまたは非アクティブ化/スイッチオフする。この移行は、図において矢印5で表され、左側にアクティブ化したウェアラブルネイルデバイス2を示し、右側には、非アクティブ化されたウェアラブルネイルデバイス2を示す。前述の実施形態と同様に、ウェアラブルネイルデバイス2のサイズおよび形状は単なる例示であり、限定することを意味するものではない。
例示の実施形態では、ウェアラブルネイルデバイス2は、ユーザが数秒間(ユーザによって構成可能)握った拳でそれを保持したときに、完全にスイッチオフするように設定することができる。また、「スウィープ」ジェスチャがネイルデバイス2上で2回使用される場合にのみ、ディスプレイをオフして、デバイス2をリスニングモードに切り替えることができる。
本発明の原理は、特定の実施形態に関連して上記に記載されているが、この説明は単なる例示であり、添付の特許請求の範囲によって決定される保護の範囲を限定するものではないことが理解されるべきである。

Claims (15)

  1. ユーザによって着用されるのに適したウェアラブルデバイスであって、
    前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するように構成された近接センサと、
    前記検出された近接パラメータに関連する近接情報を処理ユニットに送信し、前記近接情報に基づいて前記処理ユニットにより決定され、ユーザの前記ウェアラブルデバイスを着用している一部分の位置および/または方向を示す空間情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するように構成された送受信機と、
    前記ビジュアル出力を表示するように構成された表示レイヤと
    を含む、ウェアラブルデバイス。
  2. 近接センサが、無線周波数センサ、光学センサおよび磁界センサのうちの1つまたは複数を含む、請求項1に記載のウェアラブルデバイス。
  3. 任意選択で近接センサの一部として、前記ウェアラブルデバイスの方向を検出するように構成された加速度計
    を含み、
    前記送受信機が、前記検出された方向に関連する方向情報を前記処理ユニットに送信し、前記方向情報に基づいて生成されたビジュアル出力を前記処理ユニットから受信するように構成された、
    請求項1または2に記載のウェアラブルデバイス。
  4. 前記ウェアラブルデバイスへの触覚入力を検出するように構成された触覚センサであって、前記送受信機が、前記検出された触覚入力に関連する触覚情報を前記処理ユニットに送信し、前記処理ユニットから前記触覚情報に基づいて生成されたビジュアル出力を受信するように構成されている、触覚センサと、
    ユーザの一部分の筋活動を検出するように構成された筋活動センサであって、前記送受信機が、前記検出された筋活動に関連する筋活動情報を前記処理ユニットに送信し、前記処理ユニットから前記筋活動情報に基づいて生成されたビジュアル出力を受信するように構成されている、筋活動センサと、
    オーディオ入力を登録するために構成されたマイクロフォンおよびオーディオ出力を再生するために構成されたオーディオスピーカであって、前記送受信機が、前記登録されたオーディオ入力に関連するオーディオ入力情報を前記処理ユニットに送信し、前記処理ユニットから前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を受信するように構成されている、マイクロフォンおよびオーディオスピーカと、
    エネルギーを周囲のソースから得て、前記エネルギーを蓄積し、前記ウェアラブルデバイスの1つまたは複数の他のコンポーネントに給電するために前記エネルギーを配送するように構成されたエネルギー取得ユニットと、
    前記送受信機が前記処理ユニットから振動コマンドを受信したことに応答して前記デバイスを振動させるように構成された振動素子と
    のうちの少なくとも1つを含む、
    請求項1から3のいずれか一項に記載のウェアラブルデバイス。
  5. 前記ユーザの爪に着用されるのに適したフォームファクタを有するウェアラブルネイルデバイスである、請求項1から4のいずれか一項に記載のウェアラブルデバイス。
  6. 前記ユーザの手に着用されるのに適したフォームファクタを有するウェアラブルスリーブデバイスである、請求項1から4のいずれか一項に記載のウェアラブルデバイス。
  7. 処理ユニットであって、
    ウェアラブルデバイスから、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す、検出された近接パラメータに関連する近接情報を受信し、
    前記受信された近接情報に基づいて、ユーザの前記ウェアラブルデバイスを着用している一部分の位置および/または方向を示す空間情報を決定し、
    前記空間情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信する
    ように構成された、処理ユニット。
  8. 検出された方向に関連する方向情報をウェアラブルデバイスから受信し、前記方向情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するように構成された、請求項7に記載の処理ユニット。
  9. ウェアラブルデバイスから、検出された触覚入力に関連する触覚入力情報を受信し、前記触覚入力情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信することと、
    ウェアラブルデバイスから、検出された筋活動に関連する筋活動情報を受信し、前記筋活動情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信することと、
    ウェアラブルデバイスから、登録されたオーディオ入力に関連するオーディオ入力情報を受信し、前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を前記ウェアラブルデバイスに送信することと、
    前記ウェアラブルデバイスに、そのユーザにアラートするために振動コマンドを送信することと
    のうちの少なくとも1つのために構成された、請求項またはに記載の処理ユニット。
  10. 請求項1から6のいずれか一項に記載の第1のウェアラブルデバイスと、
    請求項7から9のいずれか一項に記載の処理ユニットを含むモバイルデバイスと
    を含む、システム。
  11. 処理ユニットからビジュアル出力を受信するための送受信機と、前記ビジュアル出力を表示するための表示レイヤとを含む、第2のウェアラブルデバイスを含み、
    前記第1および第2のウェアラブルデバイスが、同じユーザによって着用されることが意図されており、
    そこにおいて、
    前記第1のウェアラブルデバイスの近接センサは、前記第1のウェアラブルデバイスと前記第2のウェアラブルデバイスとの間の距離を表す近接パラメータを検出するように構成され、
    処理ユニットは、第1のビジュアル出力を前記第1のデバイスに送信し、第2のビジュアル出力を前記第2のデバイスに送信し、前記第2のビジュアル出力が前記第1のビジュアル出力と連携するように構成される、
    請求項10に記載のシステム。
  12. パーソナルコンピューティングのための方法であって、
    処理ユニットにおいて、
    ウェアラブルデバイスから、前記ウェアラブルデバイスと別のウェアラブルデバイスとの間の距離を表す、検出された近接パラメータに関連する近接情報を受信するステップと、
    前記受信された近接情報に基づいて、ユーザの前記ウェアラブルデバイスを着用している一部分の位置および/または方向を示す空間情報を決定するステップと、
    前記空間情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するステップと
    を含む、方法。
  13. 前記処理ユニットにおいて、
    ウェアラブルデバイスから、検出された方向に関連する方向情報を受信するステップと、
    前記方向情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するステップと
    を含む、請求項12に記載の方法。
  14. 前記処理ユニットにおいて、
    ウェアラブルデバイスから、検出された触覚入力に関連する触覚入力情報を受信し、前記触覚入力情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するステップと、
    ウェアラブルデバイスから、検出された筋活動に関連する筋活動情報を受信し、前記筋活動情報に基づいてビジュアル出力を前記ウェアラブルデバイスに送信するステップと、
    ウェアラブルデバイスから、登録されたオーディオ入力に関連するオーディオ入力情報を受信し、前記オーディオ入力情報に基づいてビジュアル出力およびオーディオ出力を前記ウェアラブルデバイスに送信するステップと、
    前記ウェアラブルデバイスに、そのユーザにアラートするために振動コマンドを送信するステップと
    のうちの少なくとも1つを含む、請求項12または13に記載の方法。
  15. プログラムがコンピュータ上で実行されるときに、請求項12から14のいずれか一項に記載の方法のすべてのステップを実行するためのコンピュータ実行可能命令を含む、コンピュータプログラム。
JP2016573832A 2014-06-18 2015-06-12 パーソナルコンピューティングのためのユーザウェアラブルデバイスおよびシステム Active JP6400742B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305932.7 2014-06-18
EP14305932.7A EP2957983A1 (en) 2014-06-18 2014-06-18 User-wearable electronic device and system for personal computing
PCT/EP2015/063113 WO2015193177A2 (en) 2014-06-18 2015-06-12 User-wearable device and system for personal computing

Publications (2)

Publication Number Publication Date
JP2017528786A JP2017528786A (ja) 2017-09-28
JP6400742B2 true JP6400742B2 (ja) 2018-10-03

Family

ID=51224883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016573832A Active JP6400742B2 (ja) 2014-06-18 2015-06-12 パーソナルコンピューティングのためのユーザウェアラブルデバイスおよびシステム

Country Status (5)

Country Link
US (1) US10216283B2 (ja)
EP (1) EP2957983A1 (ja)
JP (1) JP6400742B2 (ja)
CN (1) CN106462196B (ja)
WO (1) WO2015193177A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11379679B2 (en) 2018-01-15 2022-07-05 Universal City Studios Llc Interactive systems and methods with tracking devices

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180090660A1 (en) 2013-12-06 2018-03-29 Sridhar Kasichainula Flexible thin-film based thermoelectric device with sputter deposited layer of n-type and p-type thermoelectric legs
US10290794B2 (en) 2016-12-05 2019-05-14 Sridhar Kasichainula Pin coupling based thermoelectric device
US10367131B2 (en) 2013-12-06 2019-07-30 Sridhar Kasichainula Extended area of sputter deposited n-type and p-type thermoelectric legs in a flexible thin-film based thermoelectric device
US10566515B2 (en) 2013-12-06 2020-02-18 Sridhar Kasichainula Extended area of sputter deposited N-type and P-type thermoelectric legs in a flexible thin-film based thermoelectric device
US11024789B2 (en) 2013-12-06 2021-06-01 Sridhar Kasichainula Flexible encapsulation of a flexible thin-film based thermoelectric device with sputter deposited layer of N-type and P-type thermoelectric legs
US10141492B2 (en) 2015-05-14 2018-11-27 Nimbus Materials Inc. Energy harvesting for wearable technology through a thin flexible thermoelectric device
US11276810B2 (en) 2015-05-14 2022-03-15 Nimbus Materials Inc. Method of producing a flexible thermoelectric device to harvest energy for wearable applications
US11283000B2 (en) 2015-05-14 2022-03-22 Nimbus Materials Inc. Method of producing a flexible thermoelectric device to harvest energy for wearable applications
US10775845B2 (en) 2016-03-18 2020-09-15 Intel Corporation Technologies for context aware graphical user interfaces for mobile compute devices
US11704400B2 (en) * 2016-08-11 2023-07-18 Sony Corporation Authentication method, wearable device and mobile device
CN110520040B (zh) 2017-01-27 2022-05-31 西北大学 表皮虚拟现实装置
TWI669655B (zh) * 2017-03-03 2019-08-21 國立臺灣大學 指戴型觸覺顯示裝置
WO2018165437A1 (en) * 2017-03-09 2018-09-13 Google Llc Notification shade with animated reveal of notification indications
CN108664266B (zh) * 2017-04-01 2022-04-15 深圳森若科技有限公司 一种便携式人工智能装置及其配置方法
CN107024856A (zh) * 2017-06-07 2017-08-08 孝感市青谷信息科技有限公司 一种可穿戴智能设备
US10970725B2 (en) 2017-11-29 2021-04-06 Universal Studios LLC System and method for crowd management and maintenance operations
US10653957B2 (en) 2017-12-06 2020-05-19 Universal City Studios Llc Interactive video game system
US10916059B2 (en) 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
CA3020322A1 (en) 2017-12-13 2019-06-13 Matthew Usi Systems and methods for threshold detection of a wireless device
WO2019133521A1 (en) 2017-12-27 2019-07-04 Adesanya Olaoluwa O Wearable computing apparatus for augmented reality, virtual reality and artificial intelligence interactions, and methods relating thereto
US10603564B2 (en) 2018-01-03 2020-03-31 Universal City Studios Llc Interactive component for an amusement park
US10699084B2 (en) 2018-01-15 2020-06-30 Universal City Studios Llc Local interaction systems and methods
US10614271B2 (en) 2018-01-15 2020-04-07 Universal City Studios Llc Interactive systems and methods
US10818152B2 (en) 2018-01-15 2020-10-27 Universal City Studios Llc Interactive systems and methods with feedback devices
US10537803B2 (en) 2018-01-18 2020-01-21 Universal City Studios Llc Interactive gaming system
US10845975B2 (en) 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
CN108536294B (zh) * 2018-03-30 2021-06-25 努比亚技术有限公司 一种随身设备交互调控方法、设备及计算机可读存储介质
EP3869996B1 (de) * 2019-01-10 2022-04-20 Yves Swiss AG Stift als behälter für einen nagel-gel, einen pinsel zum auftragen und einer led zum aushärten des gels
CN109976693B (zh) * 2019-04-29 2022-09-16 上海均来信息科技有限公司 一种联动显示方法、设备及计算机可读存储介质
US11730379B2 (en) * 2020-03-20 2023-08-22 Masimo Corporation Remote patient management and monitoring systems and methods
DE102020108586A1 (de) 2020-03-27 2021-09-30 Heron Innovations Factory Gmbh Verfahren und Vorrichtung zum Betrieb eines Distanz-Warngerätes für die Einhaltung eines Sicherheitsabstandes zwischen Personen
KR102207510B1 (ko) 2020-04-30 2021-01-27 (주)콕스스페이스 모션 신호와 마우스 신호를 사용하여 호스트 장치를 제어하기 위한 전자 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6769767B2 (en) * 2001-04-30 2004-08-03 Qr Spex, Inc. Eyewear with exchangeable temples housing a transceiver forming ad hoc networks with other devices
WO2008053549A1 (fr) * 2006-11-01 2008-05-08 Boofoowoo Co., Ltd. Faux-ongle monté avec un dispositif d'affichage d'image
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
WO2009024971A2 (en) * 2007-08-19 2009-02-26 Saar Shai Finger-worn devices and related methods of use
US20090273560A1 (en) * 2008-02-04 2009-11-05 Massachusetts Institute Of Technology Sensor-based distributed tangible user interface
CN101477636B (zh) * 2009-01-15 2014-11-26 电子科技大学 一种臂式可穿戴计算机终端设备
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8904867B2 (en) 2010-11-04 2014-12-09 Qualcomm Mems Technologies, Inc. Display-integrated optical accelerometer
US8320970B2 (en) * 2011-02-16 2012-11-27 Google Inc. Mobile device display management
EP2761362A4 (en) * 2011-09-26 2014-08-06 Microsoft Corp VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY
US20130271355A1 (en) * 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
JP5517222B2 (ja) * 2012-12-03 2014-06-11 Necカシオモバイルコミュニケーションズ株式会社 端末装置、及びプログラム
KR101999958B1 (ko) * 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN103441637B (zh) 2013-08-19 2015-09-16 华南理工大学 一种腕式人体动能捕获装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11379679B2 (en) 2018-01-15 2022-07-05 Universal City Studios Llc Interactive systems and methods with tracking devices
US11983596B2 (en) 2018-01-15 2024-05-14 Universal City Studios Llc Interactive systems and methods with tracking devices

Also Published As

Publication number Publication date
EP2957983A1 (en) 2015-12-23
JP2017528786A (ja) 2017-09-28
WO2015193177A2 (en) 2015-12-23
US20170235369A1 (en) 2017-08-17
US10216283B2 (en) 2019-02-26
WO2015193177A3 (en) 2016-02-11
CN106462196B (zh) 2020-04-10
CN106462196A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6400742B2 (ja) パーソナルコンピューティングのためのユーザウェアラブルデバイスおよびシステム
US11539831B2 (en) Providing remote interactions with host device using a wireless device
EP3211509B1 (en) Mobile device comprising stylus pen and operation method therefor
US10567567B2 (en) Electronic device and method for controlling of the same
US20160028869A1 (en) Providing remote interactions with host device using a wireless device
US10463914B2 (en) Electronic device
EP3001650A2 (en) Portable electronic device and method of controling the same
US20150177939A1 (en) User interface based on wearable device interaction
KR20150009529A (ko) 소셜 정보를 디스플레이하기 위한 다기능 손목 밴드
WO2015173653A2 (en) Systems, apparatus, and methods relating to a wearable electronic hub for personal computing
KR20160045269A (ko) 웨어러블 디바이스 및 상기 디바이스와 통신 가능한 이동 단말기
KR20140132232A (ko) 스마트 워치 및 제어 방법
CN105472123B (zh) 移动终端及其控制方法
KR20160079664A (ko) 웨어러블 기기를 제어하는 디바이스 및 그 제어 방법
US10187164B2 (en) Mobile terminal and method of controlling same
KR20160076264A (ko) 이동 단말기 및 그것의 제어방법
US9438719B2 (en) Device for rendering notifications, and a method of controlling the rendering device
US10209941B2 (en) Mobile terminal and control method thereof
EP3159773A2 (en) Mobile device and method of controlling therefor
Rissanen et al. Subtle, Natural and Socially Acceptable Interaction Techniques for Ringterfaces—Finger-Ring Shaped User Interfaces
US10606472B2 (en) Mobile terminal and control method thereof
CN107079255A (zh) 使用ban在第二通信装置显示第一通信装置的网络应用的方法和系统
US10567588B2 (en) Intelligent agent system including terminal device and control method therefor
CN104122997B (zh) 信息处理方法及电子设备
KR102138530B1 (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180905

R150 Certificate of patent or registration of utility model

Ref document number: 6400742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250