JP6707641B2 - 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法 - Google Patents

定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法 Download PDF

Info

Publication number
JP6707641B2
JP6707641B2 JP2018530545A JP2018530545A JP6707641B2 JP 6707641 B2 JP6707641 B2 JP 6707641B2 JP 2018530545 A JP2018530545 A JP 2018530545A JP 2018530545 A JP2018530545 A JP 2018530545A JP 6707641 B2 JP6707641 B2 JP 6707641B2
Authority
JP
Japan
Prior art keywords
user
sensor
response
motion
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018530545A
Other languages
English (en)
Other versions
JP2019502991A (ja
Inventor
立考 坂口
立考 坂口
英憲 石川
英憲 石川
卓也 西本
卓也 西本
矢野 賢
賢 矢野
Original Assignee
ソムニック インク.
ソムニック インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソムニック インク., ソムニック インク. filed Critical ソムニック インク.
Publication of JP2019502991A publication Critical patent/JP2019502991A/ja
Application granted granted Critical
Publication of JP6707641B2 publication Critical patent/JP6707641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1698Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a sending/receiving arrangement to establish a cordless communication link, e.g. radio or infrared link, integrated cellular phone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Description

関連出願の相互参照
本願は、米国特許法第119条に基づき、2015年12月11日付提出の米国特許仮出願第62/266423号(U.S. Provisional Application Serial No.62/266,423)の先の出願日の利益を主張するものであり、その全内容が、引用により、あらゆる目的に対して全体として本願に組み込まれるものとする。
技術分野
本発明は、装置の状態の検出、例えば定置状態の検出に基づいてユーザとのインタフェースを形成し、この装置の状態に基づいて応答を供給する装置および方法を含む、装置の状態を検出する装置、システムおよび方法に関する。
背景
従来のマンマシンインタフェース(例えばコンピュータユーザインタフェース)は、ユーザからの特定の命令を検出することにより動作する。当該検出は、典型的には、特定のユーザ入力を受信するように構成された入力装置を介して、ユーザが特定の入力を提示することにより行われる。最近では、ユーザの特定のジェスチャまたは音声命令の検出を、ユーザインタフェースにより、このインタフェースが受信するようプログラミングされた特定の命令に相関させるユーザインタフェースが開発されている。典型的には、ユーザの入力に対し、マシンに命令を受信させるためのいくつかのアクション(例えば命令、特定のジェスチャまたは特定の音声命令の入力)が要求される。例えば、従来の方法のいくつかでは、ユーザが直接に入力装置(例えばキー、ボタン、マウス、タッチパネル、マイクロフォンなど)によって1つもしくは複数のエントリを提供し、マシン(例えば電子機器)を明示的に制御する1つの命令または命令シーケンスを信号化する。別の例では、命令は、特定のジェスチャまたはユーザの動きの形態で受信される。これらのタイプの従来のインタフェースには、命令の入力に対するユーザの注意と意識とが要求される。このため、従来のインタフェースは典型的に、マシンを明示的に制御するタスクへのユーザの特別の注意を必要とし、このことはユーザにとって邪魔なもしくは厄介なこと、または煩瑣なこととなりうる。したがって、より自然かつ暗示的な方式で電子機器とのインタラクションを可能にするユーザインタフェースが所望されうる。
概要
装置の状態の検出、例えば定置状態の検出に基づいて、ユーザとのインタフェースを形成する方法の例をここに説明する。一例としてのユーザとのインタフェースを形成する方法は、装置の近傍にいるユーザを検出することと、近傍にいるユーザの検出に応答して装置の第1のモードを導入することと、装置の運動に応答して、装置の1つもしくは複数のセンサから動きデータを受信することと、動きデータに基づいて装置の定置状態を検出することと、定置状態の検出に応答して第2のモードを導入することとを含む。
いくつかの例では、方法は、予め定められた期間にわたる装置の動きの欠如の検出を含むことができる。
いくつかの例では、方法は、装置の近傍にいるユーザを検出することを含み、これは、このユーザによる装置の接触センサへの接触の検出を含む。
いくつかの例では、方法はさらに、第2のモード中、装置による応答の供給を含むことができる。
いくつかの例では、方法はさらに、装置が第2のモードにある間の、ユーザに関連する情報の処理を含むことができる。
いくつかの例では、方法はさらに、第2のモードで発生する1つもしくは複数の定置状態または非定置状態を含む装置の状態のシーケンスの記録を含むことができる。
装置の状態の検出、例えば定置状態の検出に基づいて、ユーザとのインタフェースを形成する装置の例をここに説明する。一例としての装置は、近接センサとプロセッサと動きセンサとを含む。近接センサは、当該装置の近傍にいるユーザを検出するように構成可能である。プロセッサは、近傍にいるユーザの検出に応答して装置に第1のモードを導入させるように構成可能である。動きセンサは、第1のモードでの装置の運動に応答して、動きデータを供給するように構成可能である。ここで、プロセッサはさらに、動きデータに基づいて装置の定置状態を検出し、この定置状態の検出に応答して装置に第2のモードを導入させるように構成可能である。
いくつかの例では、装置はさらに、第2のモードにある間、ユーザに関連する情報を記録するように構成可能なメモリ装置を含むことができる。
いくつかの例では、装置はさらに、第2のモードにおいて環境音を検出するように構成可能な少なくとも1つのマイクロフォンを含むことができる。メモリ装置は、環境音を記録するように構成可能であり、プロセッサは、環境音からユーザに関連する情報を抽出するように構成可能である。
いくつかの例では、装置はさらに、ユーザの画像シーケンスを取得するように構成されたカメラを含むことができる。メモリ装置は、ユーザの画像シーケンスを記憶するように構成可能であり、プロセッサは、画像シーケンスを再構成して画像シーケンス内のユーザのジェスチャを解釈するように構成可能であり、さらにユーザのジェスチャからユーザに関連する情報を抽出するように構成可能である。
いくつかの例では、動きセンサはさらに、第2のモードでユーザの動きデータのシーケンスを取得するように構成可能である。メモリ装置はユーザの動きデータのシーケンスを記憶するように構成可能であり、プロセッサは、動きデータのシーケンスを再構成してこの動きデータのシーケンス内のユーザのジェスチャを解釈するように構成可能であり、さらにユーザのジェスチャからこのユーザに関連する情報を抽出するように構成可能である。
いくつかの例では、プロセッサは、第2のモード中、応答を供給するように構成可能である。装置はさらに、ユーザに関連する情報に基づいて、外部装置の機能を表す命令をこの外部装置に送信するように構成可能な無線送信器を含むことができる。
本開示の一実施形態にしたがった装置を示す概略的なブロック図である。 本開示の一実施形態にしたがった装置を示す斜視図である。 図2Aの装置の一部分を示す斜視図である。 図2Aの装置の一部分を示す斜視図である。 図2Aの装置の一部分を示す斜視図である。 図2Aの装置の一部分を示す斜視図である。 本開示の一実施形態にしたがった装置の定置状態の検出を含む、ユーザとのインタフェースを形成する方法を示すフローチャートである。 本開示の一実施形態にしたがった装置による、ユーザに関連する情報の処理を示すフローチャートである。 本開示の一実施形態にしたがった、装置の動き検出に基づく静止レベルの識別を示す表である。 本開示の一実施形態にしたがった、ジャイロスコープによる装置の動き検出を示すフローチャートである。 本開示の一実施形態にしたがった、ユーザのジェスチャに基づく外部装置のための命令の検出を示すフローチャートである。 本開示の一実施形態にしたがった、ユーザの発声の検出および抽出を示すフローチャートである。 本開示の一実施形態にしたがった装置の定置状態における、ユーザに関連する情報の処理を含む、ユーザとのインタフェースを形成する方法を示すフローチャートである。 本開示の一実施形態にしたがった装置の定置状態における、ユーザに関連する情報の処理を含む、ユーザとのインタフェースを形成する方法を示すフローチャートである。 本開示の一実施形態にしたがった装置を示すブロック図である。
詳細な説明
本開示の種々の実施形態を、添付図を参照しながら以下に詳細に説明する。以下の詳細な説明は、本発明を実施可能な、例示としての特定の態様および実施形態を示す各添付図に関連する。これらの実施形態は、当該分野の技術者による本発明の実施が可能となるよう、充分に詳細に説明される。他の実施形態も利用可能であり、本発明の範囲を逸脱することなく、構造的、論理的かつ電気的な変更を行うこともできる。ここに開示している種々の実施形態は、必ずしも相互に排他的でなく、開示しているいくつかの実施形態を、開示している1つもしくは複数の他の実施形態に組み合わせ可能であって、これにより、新たな実施形態を形成することができる。
図1は、本開示の一実施形態にしたがった装置10の概略的なブロック図である。例えば、装置10は、プロセッサ12、近接センサ11および動きセンサ13を含む。本願で「1つの」プロセッサ、「1つの」近接センサおよび「1つの」動きセンサというとき、これらの要素(例えばプロセッサ、近接センサおよび/または動きセンサ)のうち任意のものが、並列に動作可能な1つもしくは複数の個別のプロセッサ、および/またはここで説明している装置の機能の実行に必要なデータを供給するために使用可能なセンサデータを供給する、同タイプもしくはそれぞれ異なるタイプの1つもしくは複数のセンサを含むことができると理解される。近接センサ11は、電子機器10の近傍にいるユーザ1を検出することができる。例えば、近接センサ11は、(例えばユーザ1による)電子機器10への物理接触(例えば電子機器10への接触、電子機器10の把持など)を検出可能な接触センサ、例えば容量性センサ、圧力センサまたはこれらの組み合わせを含むことができる。いくつかの例では、近接センサ11は、ユーザ1と装置10との間の距離の評価によってまたはユーザ1が装置10のセンサ到達範囲内にいることの検出によって装置10の近傍にいるユーザ1の評価に使用可能な、受動赤外センサ、容量性センサ、ジャイロスコープ、加速度計、カメラ、マイクロ波センサ、超音波センサ、レーザーベースセンサ、光電式センサ、複数のマイクロフォン、圧力センサ、磁気センサ、熱センサ、レーダーおよびこれらの組み合わせを含みうる。例えば、装置10は、例えば自身がユーザ1によって取り上げられた際に、このケースでは近接センサ11として動作可能なジャイロスコープおよび加速度計の組み合わせを用いて、自身の動きを検出することにより、近傍にいるユーザを検出することができる。いくつかの例では、無線通信装置、例えばWiFi、Bluetooth、LTE、近接域通信(NFC)または無線タグ(RFID)利用機器が近接センサ11として動作可能であり、これらの近接センサ11は、ユーザ1によって把持可能または装着可能なポータブル装置とのペアリングもしくはハンドシェイキングによって、ユーザ1の(図示されていない)ポータブル装置(例えばタブレット、スマートフォン、スマートウォッチなど)を検出することができる。近接センサ11は、プロセッサ12に結合可能である。いくつかの例では、近接センサは、装置の近接センサおよび/または他のセンサの動作(例えばセンサを起動/不活性化、プロセッサへのセンサデータの転送および/またはストレージ)を制御するコントローラに結合可能であり、よって、近接センサ11は、コントローラを介して、プロセッサ12に動作の点で結合可能である。近接センサ11は、例えばユーザ1が装置10に接近したとき、装置10の近傍にいるユーザ1の検出に応答して、プロセッサ12にセンサデータを供給できる。プロセッサ12は近傍にいるユーザ1の検出に応答して、装置10に第1のモードを導入させることができる。第1のモードは、ここでは、交換可能に、静止性検出モードとも称されることがある。
図示されているように、装置10は、動きセンサ13および1つもしくは複数の付加的なセンサ14および出力装置18を含むことができる。第1のモードの導入に応答してまたは第1のモードの導入前に起動可能な動きセンサ13は、第1のモードの導入後、装置の運動の監視を開始する。静止性検出モードは2つのフェーズを含むことができる。第1のフェーズでは、装置10は、動きセンサからのセンサデータを処理し、自身の初期化運動を検出するように構成可能である。初期化運動とは、ユーザによる装置10の取り上げ(例えば、平面、例えばテーブルまたは机からの装置10の持ち上げ、ユーザが近傍に到来する前の装置の支持)を表すことができる。
いくつかの例では、初期化運動は、支持面に対する法線方向での装置の加速度および/または変位の検出に応答して検出可能であり、ユーザによる装置の取り上げを表すことができる。いくつかの実施形態では、初期化運動は、装置の支持面(例えば底面)に配置された容量性の接触センサを用いた、ユーザによる接触の検出に応答して検出可能であり、装置が取り上げられてユーザの掌のなかに把持されたことを表すことができる。
初期化運動によって、静止性検出モードの第2のフェーズを誘起できる。第2のフェーズでは(すなわち初期化運動の検出に続いて)、装置は、自身の静止性または定置状態を検出するため、自身の運動を監視するように構成可能である。静止性検出モードの当該フェーズでは、プロセッサは周期的にセンサデータを(例えば100msまたは200msのフレームレートで)受信し、このデータを分析して、装置10が定置状態を達成したかを識別する。例えば、定置状態は、交換可能に静止モーメントとも称することができるが、装置10が予め定められた期間、例えば1秒または連続する数秒にわたって運動していないことを動きデータからプロセッサが検出したことに基づいて、検出可能である。ユーザのなかには生まれつき他よりも安定した手を持つ人があり、この場合には予め定められた期間のうちにユーザごとの平常時の傾向を反映させるよう構成可能である。例えば、比較的安定した手を持つユーザに対しては、当該特定のユーザの把持が平常において堅固であることをフィルタリングすべく、応答をトリガするための予め定められた期間を例えば2秒以上に延長することができる。比較的不安定な手を持つユーザに対しては、応答をトリガするための予め定められた期間を例えば1.5秒未満に低減することができる。予め定められた静止期間の構成は、ユーザによって(例えば装置のセットアップ中に)行うこともできるし、または装置によって(例えばトレーニング期間における機械学習により)行うこともできる。
図1の装置10の説明に続き、動きセンサ13は、プロセッサ12に、および/または、動きセンサ13をプロセッサ12に動作の点で接続する(図示されていない)中間コントローラに、結合可能である。いくつかの例では、プロセッサ12は、第1のモードの導入に応答して、動きセンサ13を起動することができる。他の例では、動きセンサ13は、近傍にいるユーザの検出前(例えば第1のモードまたは静止性検出モードの導入前)に、例えば装置10のパワーオンに応答して、アクティブにすることができる。動きセンサ13は、装置10が第1のモードにある間、装置10の運動に応答した動きデータを供給できる。例えば、動きセンサ13は、ジャイロスコープ、加速度計、カメラ、受動赤外センサ、マイクロ波センサ、超音波センサ、容量性センサ、マイクロフォン、光電式センサ、熱センサ、圧力センサ、磁気センサ、心拍計またはこれらの組み合わせのいずれかであってよい。プロセッサ12は、動きデータに基づいて装置10の定置状態を検出できる。例えば、プロセッサ12は、初期化運動の検出に続く予め定められた期間にわたって装置10の動きの欠如を検出した場合に、定置状態を検出可能である。例えば、動きセンサ13は、装置10の配向情報を検出および供給するジャイロスコープを含むことができ、この配向情報が装置10の配向に変化がないことを示す場合、プロセッサ12は装置10の定置状態を検出することができる。これに代えてもしくはこれに加えて、いくつかの例では、動きセンサ13は、加速度情報を検出および供給する加速度計を含むことができる。プロセッサ12は、加速度計が供給した加速度情報によって装置の加速度の欠如が示された場合に、装置10の定置状態を検出することができる。動きセンサ13の感度に基づいて、動き閾値を下回る微小な配向変化、加速度変化または他の検出された運動の変化(例えば0.5°未満の回転変化または1mm未満の平行移動変化)は、定置状態を検出する目的においては無視できる。例えばユーザの平常時の運動傾向(例えば安定な手または震せんする手)に依存しうる他の閾値を用いることもできる。
プロセッサ12は、装置10の定置状態の検出に応答して、この装置10に第2のモードを導入させることができる。第2のモードの導入後(例えば初期化運動に続く定置状態の検出後)、装置10は応答を供給可能である。いくつかの例では、応答は、ユーザにフィードバック可能である。これに加えてまたはこれに代えて、いくつかの例では、応答は、装置10から外部装置16へまたは外部装置16から装置10へ、(例えば命令またはデータの無線送信によって)通信可能である。いくつかの例では、第2のモードにおいて、プロセッサ12は付加的なセンサ14および/または出力装置18を起動可能である。付加的なセンサ14は、こうしたセンサが利用可能であれば、単独でまたは動きセンサ13と組み合わせて、ユーザ1の監視、例えばユーザ1に関連する情報の取得のために用いることができる。ユーザ1に関連する情報は、ユーザ1が装置10を把持している間に記録される、音声、画像および動きのデータを含みうる。1つもしくは複数のフィードバック装置および/または1つもしくは複数の有線もしくは無線通信装置を含みうる出力装置は、応答を供給するよう構成可能である。ここで説明しているように、応答は、フィードバックおよび/または外部の電子機器(例えば、コンピュータ、スマートフォン、TV、ラジオもしくは他のメディア装置またはサーモスタット、冷蔵庫、調理機器もしくはその他の家庭機器であってよい外部装置16)との通信であってよい。いくつかの例では、外部装置との通信は、装置10にデータを送信せよとの外部装置16への命令を含むことができ、装置10は、外部装置16から受信されるデータに基づいてフィードバックを供給可能である。
フィードバック応答は、定置状態の検出に応答して単独でまたは通信応答とともに形成可能な、視覚応答、聴覚応答または触覚応答を含むことができる。フィードバック応答は一般に、例えば受諾されたインタラクションをユーザに報知するために、このユーザに転送することができる。フィードバック視覚応答は、装置の1つもしくは複数の光源による光の点灯または光パターンの形成によって供給可能である。同様に、聴覚応答は、装置の1つもしくは複数の音源による音の形成または音パターンの形成によって供給可能である。触覚応答は、装置が(アクチュエータ、例えばバイブレータを介して)内部で形成した運動、すなわち装置を所定の方式(例えば振動、ホップ、傾動または横方向での揺動、ユーザに対して装置の正面の配向を変化させる運動、またはうなずきに類似していてよい動き、例えば装置をユーザに面した方向へ向けさらにそこから逸らすようにする傾動)で運動させうる運動によって供給可能である。フィードバック応答の供給は装置10の通常の使用過程中にユーザと装置との間に一種の通信を提供してユーザを楽しませるためだけでなく、特にトレーニング期間中、装置10が提供するユーザインタフェースの自然学習においてユーザを補助するためにも、有意でありうる。
通信応答は、装置10により、例えば外部装置16への無線送信の形態で供給可能である。通信応答は、外部装置16からの応答を導出するように構成可能である。例えば、通信(例えば無線送信)は、外部装置16の機能を制御する命令を含むことができる。外部装置16は、機能(例えばスイッチオンまたはスイッチオフ、ボリューム調節、温度調節または他のパラメータの調節、オーディオ情報もしくはビジュアル情報の再生開始、情報の記憶、情報の回収など)を実行することができる。静止性検出モード中、装置10に関連するユーザのアクションに基づいて、ここで以下に説明するような種々の通信を形成できる。いくつかの例では、装置10は、静止性検出モード中、ユーザに関連する情報を受信するように構成可能であり、通信は、少なくとも部分的に、以下に説明するように、受信された情報を含むかまたはこれに基づいていてよい。
図1の例に戻ると、装置10は、ユーザ1に関連する情報をセンサ14から受信することができ、この情報は、装置10、例えば1つもしくは複数の出力装置18により応答を供給するために、プロセッサ12によって処理可能である。上で論じたように、いくつかの例では、装置10が供給する応答は、例えば命令、データ、指示または他のタイプの通信を送信することにより、ユーザ以外の外部装置16に配向可能である。通信応答は、装置10の通信回路、例えば通信装置15により、供給可能である。
上述したように、装置10は1つもしくは複数の付加的なセンサ14を含むことができる。例えば、付加的な1つのセンサ14はカメラであってよい。カメラはユーザ1の画像シーケンスを取得することができる。他の付加的なセンサとして、ユーザからの音を取得可能なマイクロフォンを用いてもよい。いくつかの例では、付加的なセンサは、1つもしくは複数の付加的な動きセンサを含むことができる。いくつかの例では、静止性検出モード中、ユーザ1の動きデータのシーケンスを取得するため、付加的なセンサが取得したセンサデータを動きセンサ13からのセンサデータによって補完することができる。プロセッサは、静止性検出モード中に取得されたセンサデータを、例えばここで説明しているようなフィードバックおよび/または1つもしくは複数の応答の供給のために処理できる。
装置10はさらに、装置10の動作中にデータを記憶するように構成されたメモリ装置17を含むことができる。例えば、メモリ装置17は、装置10が受信した、動きデータ、画像、音声またはユーザ1に関連する他の情報のシーケンスを記憶できる。いくつかの実施形態では、プロセッサ12は、メモリ装置17から先行して記憶されたシーケンスを分析のために回収し、例えばユーザ1のジェスチャを解釈することができる。「ジェスチャ」なる語は、ユーザのあらゆるタイプの自然なアクション、例えば装置を把持しているユーザの手が行うアクション、またはユーザの他の部分、例えばユーザの顔が行うアクション(例えば瞬き、笑顔、顰め顔などを含む顔の表情)をいうために用いることができる。プロセッサ12は、ユーザ1のジェスチャからユーザ1に関連する情報を抽出するように構成可能である。
いくつかの例では、付加的なセンサ14はマイクロフォンを含むことができる。マイクロフォンは、プロセッサ12およびメモリ17に動作の点で関連しており、これにより、ユーザ1での音またはユーザ1周囲の音を検出および記録することができる。いくつかの例では、装置10は特定のユーザの発声を検出するように構成可能である。例えば、マイクロフォンは、ユーザ1での環境音またはユーザ1周囲の環境音を検出し、この環境音のうち、ユーザの声またはユーザが発した他の音(例えば咳、くしゃみ、周囲雑音)を含むユーザ1に関連する音を識別することができる。装置10は、例えばセットアップ中またはトレーニング過程中、ユーザ1に関連する音を認識するように構成可能である。プロセッサ12は、ユーザ1に関連する音からユーザ1に関連する情報を抽出することができる。いくつかの例では、装置10は、音声を認識して、発声を行っているユーザに関係なく発声を抽出することができる。
上述したように、プロセッサ12は第2のモードにおいて応答を形成することができ、いくつかのケースでは、応答は、第2のモードの導入に応答して、装置10によって自動的に形成可能である。ここで使用している「自動的に」なる語は、一般に、装置10が行うアクションまたは応答が、ユーザによるさらなるアクションもしくは入力を要求することなく、トリガに応答して自動的に発生することを暗示している。いくつかの例では、応答は、ユーザへの応答を含むことができる。いくつかの例では、応答は、外部装置との通信に関連していてよい。例えば、前者については、装置10は出力装置18、例えば1つもしくは複数のレーザー発光ダイオード(LED)、スピーカ、1つもしくは複数のバイブレータなどを含むことができる。応答は、視覚応答(1つもしくは複数のレーザー発光ダイオード(LED)による光または光パターンの点灯)、聴覚応答(例えば1つもしくは複数のスピーカによる音もしくは音パターンの形成)、または触覚応答(例えば装置を振動もしくは揺動させること、または1つもしくは複数のバイブレータにより他のタイプの運動を形成すること)であってよい。
装置10は、命令またはデータを外部装置16(例えば別の計算装置、電子機器、例えばTV、ラジオ、他のメディア装置または家庭機器)に送信する有線もしくは無線通信装置15を含むことができる。いくつかの例では、命令は、外部装置16の機能を実行させるための命令(例えば機器のスイッチオンまたはスイッチオフ、ボリューム調節、オーディオもしくはビデオの再生開始、サーモスタットまたは調理機器の温度調節など)を含むことができる。外部装置16に送信される命令またはデータは、装置10のモードに基づいていてよい。いくつかの例では、命令またはデータは、装置10が特定のモードを導入したこと、例えば第2のモードを導入したことに応答して送信可能となる。例えば、装置10は、自身が第2のモードを導入したことに応答して、メディア装置をオンにせよとの命令をこのメディア装置に送信するように構成可能である。いくつかの例では、外部装置10に送信される命令またはデータは、ユーザ1に関連する情報に基づいていてよい。いくつかの例では、データは、外部装置16内の当該データに関連する情報(例えばタグまたは他のメタデータ)を含むことができる。いくつかの例では、外部装置16に送信されるデータは、ユーザに関連する記録(例えばオーディオ、静止画像またはビデオおよび/またはこうした記録に関連するコンテクスト)であってよく、これらは、外部装置16での記憶および/またはさらなる処理のためにこの外部装置16に送信可能である。いくつかの例では、装置10は、データおよび命令(例えば記録およびこの記録を再生せよとの命令)の双方を所定のモードの導入後に送信可能である。いくつかの例では、装置10は、例えば第2の静止性検出モード中、付加的な情報を抽出するためにおよび/または付加的な応答を供給するために、応答の供給に続き、(例えば動きデータによる)装置の状態の監視を続行することができる。
いくつかの例では、装置10からの命令および/またはデータに応答して、外部装置16が命令を実行することができ(例えばストレージ装置からのユーザデータの回収)、および/または、ユーザデータに基づいて装置10への返信を供給することができる。装置10は、外部装置16から返信を受信することができる。返信に応答して、いくつかのケースでは、ユーザに関連する情報および/または装置10の現時点での状態とともに、装置10がユーザ1へのフィードバックを供給することができる。ユーザ1とのインタフェースを形成するプロセスは、装置10がその支持面(例えばテーブルもしくは机)に再び置かれるまで続行可能であり、このことは例えば装置10の下部のセンサへの接触がもはや検出されなくなったことによって識別可能であり、これにより、装置の静止性検出モードまたはスタンバイモード、すなわち装置がもはや近傍にいるユーザを検出しない第1のフェーズへ装置を戻すことができる。
図2Aは、本開示の実施形態にしたがった装置900の斜視図である。装置900は、図1の装置10の実現に利用可能である。装置900は、図1の装置10に対して上述した要素を含みうる。例えば、装置900は、相対的な球面形状を有するハンドヘルド型装置であってよい。装置900は、ユーザ1の掌に適合する寸法に設計することができ、これによりユーザ1は装置を把持している間、無理なく種々のジェスチャを行うことができる。装置900を把持している間、ユーザの静止モーメントひいては装置そのものの静止モーメントを検出し、これに応答することにより、装置900は、ユーザの生活空間または作業空間において、ユーザと電子機器との間に無理なく無意識的にインタフェースを形成するよう構成可能である。例えば、装置900は、美観的、エルゴノミクス的または他の快適な形状を有していてよく、これによりユーザの生活環境または作業環境を向上させるだけでなく、ユーザが装置900を取り上げおよび/またはこれを把持するよう促すことができる。装置900の把持は、これによりイネーブルされるコンピュータまたはユーザインタフェースを除き、ユーザに楽しさおよび/または鎮静をもたらすものであってよい。したがって、ユーザと装置900との自然なインタラクションにより、より直感的であってユーザフレンドリなインタフェースが、例えば装置900そのものおよび/またはユーザの環境内の他の装置からの応答を要請するユーザの労力もしくは注意もしくは意図をほとんどもしくは全く要さずに、可能となる。いくつかの例では、装置の形状および/または概観は、装飾機能または美的機能を提供するものであってよい。
装置900は、自身のエンクロージャを形成可能な上部901と下部902とを含むことができる。いくつかの例では、エンクロージャは、プラスチック材料(例えば、コンシューマエレクトロニクス産業において典型的に周知の、射出成形に適したプラスチック材料)から形成可能である。いくつかの例では、ハウジング装置の部分、例えば上部は、半透明であってよい。いくつかの例では、エンクロージャまたはその一部は、アクリルから形成可能である。別の例では、エンクロージャまたはその一部は、天然材料、例えば木材、竹、石英、大理石、合成繊維または天然繊維から形成された織物、皮革またはこれらの組み合わせから形成することができ、これにより、装置900とのインタフェース形成の際にユーザの意識およびストレスを低減できる、特徴的な色、素材感、触感および自然な快適性を形成することができる。例えば、上部901および下部902は、実質的に半球状または半楕円体状の形状を有することができる。装置900は、自身を容易に定置状態にとどめうる比較的平坦な表面に配置されている場合、静止位置を維持することができる。装置900は、カメラ903を含むことができる。上述したように、カメラ903は、近接検出、動き検出およびジェスチャ検出に利用されうる。カメラ903は、顔のジェスチャまたは手もしくは体の動きから、ユーザ1の自由表現を検出できる。カメラ903はプロセッサ12に画像を供給することができる。
図2Bは、本開示の一実施形態にしたがった装置900の斜視図である。図2Aによれば、装置900の上部901は示されていない。図示されているように、装置900は、光調整装置910を含むことができる。光調整装置910は、下部902内に配置された1つもしくは複数の要素が形成した光を調整可能であるので、装置900が形成した光は、分割、散乱および/または「軟化」可能となり、これにより装置900の個々の光源の認識を低減することができる。
図2Cは、本開示の一実施形態にしたがった装置の斜視図である。図2Bによれば、装置900の光調整装置910は示されていない。図示されているように、装置900は、図1の近接センサ11の実現に利用可能な複数の近接センサ906を含むことができる。各近接センサ906は、装置900へのユーザ1の接近を判別できるものであれば、周知の任意の赤外センサ(例えば、カメラ、マイクロ波センサ、超音波センサ、レーザーベースセンサ、磁気センサ、光センサ、受動赤外センサ、熱センサ、レーダー、マイクロフォン)であってよい。図示されているように、いくつかの例では、近接センサ906は、装置900の外周に配置可能である。他の例では、近接センサ906は、装置900の他の位置に配置することもできる。装置900は、インタフェースボード915を含むことができる。インタフェースボード915は、複数の発光装置、例えば発光ダイオード(LED)920を含みうる。各LED920は、光調整装置910および上部901を通してユーザ1への視覚応答の光パターンを供給する光を形成することができる。特定のパターン(例えば螺旋状)での配置を示しているが、各LED920は、インタフェースボード915内に任意の望ましいパターンで、例えばグリッドとして、配置可能である。インタフェースボード915についてはここでは後に詳細に説明する(図10を参照)。
図2Dは、本開示の一実施形態にしたがった装置の斜視図である。図2Cによれば、インタフェースボード915は図示されていない。図示されているように、装置900は、バッテリ930および接触センサ932を含むことができる。バッテリ930は、例えば再充電可能バッテリを含む、この分野で周知の任意のバッテリであってよく、電力を蓄積して装置900の種々の要素にこれを供給することができる。当該バッテリは、取り外し可能でありかつ装置900の外部で充電可能であってもよいし、または装置900内での有線もしくは無線での充電のために内部充電器が組み込まれていてもよい。接触センサ932は、装置900の外周に配置された帯状接触センサを含むことができ、ユーザ1が接触センサ932を配置した装置900の表面のどの位置に触れた場合にも、ユーザの接触を検出することができる。接触センサ932は、容量性、抵抗性、圧電性またはこれらの組み合わせであってよい。
図2Eは、本開示の一実施形態にしたがった装置の分解斜視図である。図2Eによれば、バッテリ930は示されていない。図示されているように、接触センサ932はタッチパッド908を含むことができる。タッチパッド908は、その中心からラジアル方向に延在する複数のラジアル電極線を含み、装置900が平面、例えばテーブルに支持されているのか、またはユーザ1の掌に支持されているのかを判別することができる。いくつかの例では、近接センサ906は、接触センサ932の帯状接触センサに沿って周期的に配置可能である。
装置(例えば装置10)は、定置状態を検出することにより、またいくつかの例ではユーザ1に関連する情報を検出することにより、ユーザ1および/または外部装置(例えばユーザの環境内の他の計算装置または電子機器)とのインタフェースを形成可能である。図3は、本開示の一実施形態にしたがった、装置(例えば装置10)の定置状態の検出を含む、ユーザとのインタフェースを形成する方法のフローチャートである。
始めに、装置10は(例えばバッテリによって)パワーオン可能であり、スタンバイモードに移行することができる(S200)。装置10がスタンバイモード100にある間、装置10の近傍へのユーザの接近があった場合に(S201)ユーザ1を検出できるよう、近接センサ11をアクティブとすることができる。近接センサ11は、検出されるまで、近傍にある対象物(例えばユーザ)の検出を続行する。使用される近接センサに応じて、装置10へのユーザの接近または装置10の近傍にいるユーザは、例えば、視覚情報、例えばセンサ(例えば画像取得装置)の視野内の1つもしくは複数の対象物を含む画像、聴覚情報、例えば環境雑音レベルの変化、装置10の予め定められた範囲内に存在するユーザによって生じる光情報、熱情報または電磁情報、または装置10へのユーザ1の接触(例えばタッチ)によって生じる触覚情報を検出することができる。いくつかの実施形態では、装置10の接触センサへの接触の検出に応答して、ユーザが近傍にいると識別可能である。いくつかの例では、ユーザと装置との間の物理的接触を要することなく、例えば光センサ、熱センサまたは電磁センサにより、ユーザがセンサの検出範囲内にいることの検出に応答して、ユーザが近傍にいると識別可能である。装置10は、近傍にいるユーザ1の検出(S201)に応答して、静止性検出モード110を導入することができる。装置は、静止性検出モード中、まず初期化運動を、ついで静止状態または定置状態を検出すべく、自身の運動を監視し、ここで、定置状態の検出に応答して応答を供給可能であるように構成されている。上述したように、装置は、静止性検出モードの第1のフェーズ中、装置10が取り上げられたことおよび/またはユーザの掌に取られたことを表示可能な初期化運動を検出すべく自身の運動を監視できる。初期化運動の検出後、装置10は、静止性検出モード110中、定置状態の検出のため、その運動の監視を続行できる。
静止性検出モードでは、まだアクティブにされていない場合、プロセッサ12が動きセンサ13を起動可能であり、動きセンサ13は、周期的に(例えば1秒ごと、1ミリ秒ごとなど)動きデータをプロセッサに供給可能である(S202)。プロセッサは、装置10の定置状態を識別するために動きデータフレームを処理することができる。例えば、動きデータは、装置10の変位(例えば位置の変化)または傾き(例えば配向の変化)に起因して変化しうる、視覚情報、聴覚情報、速度もしくは加速度の情報、配向情報、位置情報などであってよい。プロセッサ12は、動きセンサ13から動きデータを周期的に受信することができる(S203)。プロセッサ12は、静止性検出モード中、動きデータに基づいて(S204)、装置10の定置状態Iを検出することができる。例えば、プロセッサ12は、静止性検出モード中、動きフレームを分析することができ、予め定められた期間にわたって装置の動きの欠如を検出することにより、装置10の定置状態を識別することができる。予め定められた期間は、固定の期間であってもよいし、各ユーザに対してフレキシブルにプログラミング可能であってもよいし、またはユーザ1のコンテクストに基づいて定めてもよい。
装置10は、自身の定置状態の検出に応答して、第2の静止性検出モード120を導入することができる。第2の静止性検出モード120では、装置10はさらなる応答を形成するように構成可能である。いくつかの例では、装置は、ユーザに関連する情報(例えばオーディオ、静止画像もしくはビデオデータ、装置10がユーザに把持されている間の動きデータなど)を記録することができ、この情報を、第2の静止性検出モード120中、応答を供給する際に利用可能である。例えば、プロセッサ12は、センサ14から受信した、ユーザ1に関連する情報を、第2の静止性検出モードにおいて処理でき(S205)、これにより1つもしくは複数のさらなる応答が決定され、供給される(例えばS206,S207)。記録された情報に基づいて、装置10は、フィードバック出力装置18を介して(ステップS206)または出力通信装置15を介して、フィードバック応答を供給することができる。装置10は、ユーザと装置10との間のインタラクションの監視を続行可能であり、1つもしくは複数の外部装置へのユーザ1の通信応答に対応する視覚応答、聴覚応答または触覚応答を形成できる。これらの応答は、第1の静止性検出モード110に関連して説明した1つもしくは複数の応答を含むことができる。
第2の静止性検出モード中の装置10による応答は、少なくとも部分的に、第2の静止性検出モード中の装置10の検出されたパターン、例えば定置状態のパターン(または静止モーメント)に基づかせることができる。いくつかの例では、応答は、少なくとも部分的に、装置の検出された動きまたは運動パターンに基づいていてもよい。いくつかの例では、応答は、少なくとも部分的に、記録されたユーザに関連する情報(例えばユーザのオーディオビジュアル記録)に基づいていてよい。
図4Aは、本開示の一実施形態にしたがったプロセスのフローチャートである。図4Aのプロセス400は、例えば装置10の1つもしくは複数の定置状態を検出するための、ユーザに関連する情報の処理に用いることができる。当該プロセスは、装置10がユーザに関連する情報を受信した際に(ブロックS410で示されているように)開始可能である。
ユーザに関連する情報、このケースでは動きデータが受信された後、装置10は、ユーザ1の情報を(ブロックS412で示されているように)処理し、(ブロックS414で示されているように)定置状態を検出することができる。プロセッサ12は、装置10の定置状態の1つもしくは複数の期間を動きデータに基づいて識別することができる。いくつかの例では、装置は、静止レベル(例えば後に図4Bに関連して説明するように)および/または定置状態のパターンを、ブロックS418に示されているように識別できる。いくつかの例では、種々の静止度は種々の定置状態に対応づけ可能であり、プロセッサは、ブロックS416に示されているように、1つもしくは複数の定置状態を静止度(例えばcalm状態、still状態など)にしたがってカテゴリ分類可能である。いくつかの例では、定置状態の判別は、バイナリで、例えば或る条件(例えば雑音を除去するための動き閾値によって定められる動きの欠如)が満足された場合に装置が定置状態にあるものとし、そうでなく、当該条件が満足されなかった場合には装置が非定置状態にあるものとするように行うことができる。ブロックS422に示されているように、1つのシーケンスで多数回非定置状態が検出された後、すなわちいくつかの例においては予め定められた閾値より多くの連続した非定置状態(例えば2つ、3つ、4つまたはそれ以上の連続する非定置状態)が検出されたことに応答して、プロセスが終了されるように構成可能であって、これにより装置を第2の静止性検出モードから離脱させ、第1の静止性検出モードに、すなわちいくつかの例においては第1の静止性検出モードの第2のフェーズに、戻すことができる。ここで、装置10は、後続の定置状態を識別する(例えば第2の静止性検出モードの導入)か、または(例えばここで説明している別の機能を実行するための)特定の動作状態を識別するために、動きデータを監視することができる。
プロセッサ12は、第2の静止性検出モードにおいて発生する1つもしくは複数の定置状態または非定置状態を含む装置10の状態のシーケンスを記録して、第2の静止性検出モード中の定置状態のパターンを検出することができる。装置10は、1つもしくは複数の定置状態が検出された後、応答を供給するように構成可能であり、いくつかのケースでは、ブロックS420に示されているように、特定の静止レベルまたは定置状態のパターンの検出に応答して、特定の応答を供給可能である。検出された静止レベルまたは定置状態のパターンに基づいて、装置10は、ユーザ1に関連する情報をさらに抽出し(例えばオーディオおよび/または静止画像/ビデオの記録を開始し)、外部装置を制御するための命令を送信し、および/または、ユーザ1へのフィードバック(例えば灯明滅、音再生または振動)を供給するように構成可能である。いくつかの例では、装置10は、複数の状態シーケンスを(例えばメモリ装置17に)記憶し、現時点で記録されている装置10の状態シーケンスと記憶されている複数のシーケンスとの比較により、定置状態のパターンを求めることができる。いくつかの例では、記憶されるシーケンスは装置10内でプログラミング可能であり、例えばユーザが形成した既存のシーケンスデータベースに記憶可能であって、ユーザが形成したシーケンスデータベースのシーケンスに基づいて、パターンを求めることができる。例えば、装置10は、種々のユーザから取得された既存のシーケンスデータベースを用いて、この既存のシーケンスデータベースのシーケンスに基づいてパターンを求めてもよい。いくつかの例では、記憶されるシーケンスはユーザ1からのみ取得されるシーケンスデータベースに記憶してもよいし、および/または、特定のユーザに対するパターン認識を強化および適応化するため、当該データベースにシーケンスを追加するように、装置10を構成してもよい。
いくつかの例では、パターン検出は、(例えば図4AのブロックS418に示されているような)静止レベルの検出を含むことができる。図4Bは、本開示の一実施形態にしたがった、装置の動き検出に基づく静止レベル検出の表である。例えば、装置10は、装置10の状態シーケンスを記録することができる。図示の例では10個のサイクルが示されているが、別の例にしたがって、異なる数のサイクルをパターン検出のために分析してもよい。状態は、装置10が動的状態にある"rough"状態、第1の定置状態(例えば"calm"状態)、または第1の定置状態よりも大きな静止度に相当する第2の静止状態(例えば"still"状態)を含むことができる。図示のシーケンスIおよびシーケンスIIは、装置10が"rough"状態にあるときに開始されている。シーケンスIでは、装置の"still"状態が第3、第4、第7、第9および第10のサイクルで記録されており、装置の"calm"状態が第2、第5、第6および第8のサイクルで記録されている。シーケンスIIでは、第2のサイクルから第10のサイクルまで"calm"状態が記録されている。シーケンスIはシーケンスIIよりも"still"状態の発生数が大きいので、プロセッサ10は、シーケンスIがシーケンスIIの静止レベルに比べて高い静止レベルを有すると判別できる。
装置10の状態、例えば"rough"状態、"calm"状態または"still"状態は、検出された動きデータ、例えば変位または傾きに基づいて判別可能である。例えば、ジャイロスコープを、動きセンサ13として使用可能である。図4Cは、本開示の一実施形態にしたがった、ジャイロスコープによる装置の動き検出のフローチャートである。プロセッサ12は、ジャイロスコープからの動きデータに基づいて、1回、傾き情報(T)を求めることができる(S430)。例えば、ジャイロスコープは、3軸データを含んでよい動きデータを供給する3軸ジャイロスコープであってよく、3軸データは、2つのデータが水平面での2つの直交軸の傾きを表し、もう1つのデータがこの水平面に対して垂直な垂直軸からの傾きを表す。別の例では、(例えば水平軸および垂直軸に対応する3軸に沿って配置された)加速度計を用いて傾き情報を取得することができ、または静止度を傾き量とは異なる加速度量に基づかせることもできる。動きデータに基づいて、プロセッサ12は、傾き情報(T)を取得してこの傾き情報を評価することができる(S432)。傾き情報(T)がほぼゼロに等しい(例えば第1の角度閾値よりも小さい(例えばT<θ1である))場合、プロセッサ12は、装置10が"still"状態にあることを判別できる(S436)。傾き情報(T)が比較的小さい(例えば第1の角度閾値と第2の角度閾値との間にある(例えばθ1≦T≦θ2である))場合、プロセッサ12は、装置10が"calm"状態にあることを判別できる(S438)。傾き情報(T)が比較的大きい(例えば第2の角度閾値を上回る(例えばT>θ2である))場合、プロセッサ12は、装置10が"rough"状態にあることを判別できる(S434)。
上述したように、装置10は、自身が受信したユーザに関連する情報に基づいて、(例えば図4AのブロックS420に示されているように)応答を供給するよう構成可能である。いくつかの例では、記録された種々のシーケンスの種々の静止レベルにより、装置による種々の応答を導出することができる。例えば、第1の静止レベルは、第1の応答(例えば、外部装置への命令の送信)に関連づけ可能であるが、第2の静止レベルは別の応答に関連づけられてもよい(例えばユーザへのフィードバックを供給する、および/または、ユーザのオーディオビジュアルデータの記録を開始する)。いくつかの例では、定置状態の種々のパターンにより、装置による種々の応答を導出できる。例えば、図4Bの表に戻ってみると、装置10は、静止レベルの識別だけでなく、種々の定置状態の順次の配列も識別するように構成可能である(例えば、1つのシーケンス内の少なくとも2つの順次の"still"状態により、特定の応答、例えばオーディオビジュアルデータの記録開始、または1つのシーケンス内の少なくとも3つの順次の"still"状態により、外部メディア装置に対するオン命令を送信する応答を導出可能である)。いくつかの例では、装置は、定置状態の特定のパターンに応答して、他の動作モード(例えば、動きパターン検出モードとも称されることのある第3のモード)に移行するように構成可能である。いくつかの例では、装置は、(例えばブロックS422に示されているように)プロセス400の終了に応答して第3のモードを導入するように構成可能である。
例えば、装置は、第3のモード中にパターン検出を実行するように構成可能であり、このパターン検出はユーザのジェスチャの検出を含むことができる。装置は、検出されたユーザのジェスチャに基づいて応答を供給するように構成可能である。図5は、本開示の一実施形態にしたがった、ユーザのジェスチャに基づいて外部装置のための命令の形成に利用可能な、動き検出プロセスのフローチャートである。ブロックS500に示されているように、動き検出プロセスは、プロセッサ12がユーザ1の動きデータシーケンスを受信した際に開始可能である。いくつかの例では、後続の、記録される動きデータシーケンスの解釈に後に利用するため、記録された動きデータのシーケンスをメモリ装置17に記憶可能である。プロセッサ12は、ユーザ1の、1つもしくは複数の記憶された動きデータのシーケンスを回収してジェスチャを解釈することができる。記憶されたシーケンスは、複数のカテゴリに分類することができる。例えば、当該複数のカテゴリは、下向け、上向け、折曲げ、伸展もしくは回転または接触方式の変化(例えば装置の単純な支持もしくは把持から、例えば装置10を「握る」ためのより緊密な保持への変化)を含むことができる。接触方式の変化は、例えば、底面との接触に加えて、装置の周面との接触を検出するため、装置の種々の周位置に配置された1つもしくは複数の接触センサまたは圧力センサによって検出可能である。運動の欠如を、第3のモード中、上述したように"calm"状態としてカテゴリ分類可能である。装置10は、検出された種々のジェスチャに対応する種々の応答を供給するように構成可能である。例えば、装置は、下向けジェスチャの検出および上向けジェスチャの検出(S502a)に対応して、それぞれ、「前進」命令(S503a)または「後進」命令(S503b)を外部装置16に供給するように構成可能である。装置10は、折曲げジェスチャまたは伸展ジェスチャ(S502b)の検出に対応して、それぞれ、「メニュー+/−」命令(S503c)または「再生/一時停止」命令(S503d)を外部装置16へ供給するように構成可能である。装置10は、回転ジェスチャ(S502c)、握りジェスチャ(S502d)および静止ジェスチャ(S502e)に対応して、それぞれ、「ボリューム+/−」命令(S503e)、「リターン」命令(S503f)および「メニュー/音声入力」命令(S503g)を外部装置16に供給するように構成可能である。このように、ユーザ1の種々のジェスチャを解釈可能であり、ユーザに関連する情報を、例えば外部装置の制御、例えばメディア装置または家庭機器の制御に利用するために抽出可能である。抽出された情報に基づいて、命令またはユーザ1に関連する他の情報を形成可能であり、これを外部装置16に送信可能である。ジェスチャカテゴリおよびこのジェスチャカテゴリに関連する命令は単に一例にすぎず、カテゴリ分類および関連づけは上述した説明に限定されない。例えば、ジェスチャならびに静止性パターンは、複数の外部装置から個々の外部装置16を識別するために用いることができる。例えば、複数のジェスチャは、複数の外部装置に関連づけることができ、または装置10が外部装置16への所定の配向を有するように方向づけるジェスチャは、外部装置16の識別子として解釈することができる。
別の例によれば、装置10が取得したユーザ1に関連する情報から、ユーザの発声を抽出、タグづけおよび記憶することができる。図6は、本開示の一実施形態にしたがった、ユーザの発声の検出および抽出のフローチャートである。例えば、プロセッサ12は、先行して抽出されたユーザ1に関連する情報において、発話しようとするユーザ1の意図を識別した後、ユーザ1の発声の検出(S600)を開始することができる。ユーザの発話の意図は、定置状態の検出および/または特定の定置状態のシーケンス(例えば連続する2つの"still"状態または3つ、4つ、5つもしくはそれ以上の"calm"状態のシーケンス)の検出に対応して、識別可能である。プロセッサ12は、先に起動されていない場合、付加的なセンサ14として1つもしくは複数のマイクロフォンを起動することができる(S601)。マイクロフォンは、ユーザ1からの音を検出し、プロセッサ12への音に対応するオーディオデータを送信することができる。プロセッサ12は、予め定められた期間にわたってユーザ1の声を検出できるかを判別可能である(S602)。プロセッサ12がユーザ1の声に関連する音を識別しなかった場合、またはプロセッサ12が予め定められた期間にわたって装置10の周囲の環境雑音が音声認識にとって過度に大きいことを識別した場合には、ユーザの1つもしくは複数の発声を検出するプロセス620を(ブロックS603に示されているように)中止可能である。いくつかの例では、プロセス620の終了後、装置10は異なるモードに移行できる。プロセッサ12がユーザ1の声を識別した場合、プロセッサ12は、オーディオ信号のオーディオデータをメモリ装置17に記録可能である。プロセッサ12は、記録されたオーディオデータを一時記憶し、オーディオデータからユーザの発声を抽出することができる(S604)。発声が、識別可能であり、かつ制御命令、タグ命令またはフリーテキスト(例えばアイデア、感想、思考など)として解釈可能であった場合(S605)、プロセッサは発声に基づいて応答を形成することができる。例えば、発声が制御命令(例えば「TVをオンにする」)として解釈可能であった場合、装置10は、有線もしくは無線の通信装置15を用いて、外部装置16を制御するための相応の制御命令を外部装置16に送信可能である(S606)。他の例では、発声を他の命令(例えば「前進」「後進」「メニューアップ/ダウン」「再生/一時停止」「ボリュームアップ/ダウン」「リターン」「メニュー/音声入力」など)に相関させることができ、相応の制御命令を外部装置に送信することができる。制御命令は、外部装置16に記憶されているユーザに関連するコンテンツを検索する指示を表すことができる。例えば、発声が、外部装置16においてコンテンツにタグを付すタグ命令として解釈可能であった場合、装置10は、有線/無線通信装置15を用いてタグ命令を外部装置16に送信することができる(S607)。例えば、コンテンツは、現時点で再生されるコンテンツまたは現時点でブロードキャストされるコンテンツであってよく、現時点で再生されないバックグラウンドタスクとして記録することもできる。
発声がフリーテキスト(例えばアイデア、感想、思考など)として解釈可能である場合、装置10は、例えばストレージのために、有線/無線通信装置15を用いて、(図示されていない)外部コンピュータにフリーテキストを送信することができる(S608)。装置10は、1つもしくは複数の有線/無線通信装置15を含むことができ、そのうち任意のいずれか1つを、任意の数の外部装置(例えば外部コンピュータまたは家庭機器)との通信のために特別に構成することができる。例えば、装置10は、任意の数の外部装置の通信のため、ユーザのオーディオビジュアルデータを含む情報が外部コンピュータと通信されるよう、WiFi利用可能な通信装置を含むことができる。これに加えてまたはこれに代えて、装置10は、他の通信プロトコル(例えばBluetooth、ZigBee、いくつかのケースでは、制御命令を送信するためのIR通信装置)に準拠して構成された通信装置を含んでもよい。Bluetoothの場合、例えば、当該装置10を複数の外部装置に通信によって結合するために、種々のペアリング符号を用いることができる。
いくつかの例では、外部コンピュータがユーザ1に関連する情報(例えば、コンテクスト、過去のエントリ、ユーザの嗜好、ユーザの属性、ユーザのバックグラウンド情報など)のアーカイブを記憶し、フリーテキストに関連する情報を装置10に供給することができる。例えば、情報は、外部装置16に記憶されたコンテンツの1つもしくは複数のコンテンツ項目に関連づけることができる。例えば、情報は、キーワードまたはキーフレーズに関連する識別子であってよく、プロセッサ12は、この識別子を用いて、オーディオデータ内から抽出されたキーワードまたはキーフレーズの発生回数を記憶することができる。キーワードまたはキーフレーズの発生回数に基づいて、プロセッサ12は、ユーザ1に関連する抽出情報のための重みを供給する(例えば計算する、割り当てる)ことができ、この重みに少なくとも部分的に基づいて、指示を形成することができる。例えば、当該指示は、外部装置16のマーク命令であってよく、装置は、コンテンツに、コンテクストを有するフリーテキスト、例えば重みをマーキングするためのマーク命令を送信することができる(S609)。例えば、指示は、装置10がユーザ1との直接のユーザインタフェースインタラクションを実行することであってよく、装置10はフィードバック(例えば灯明滅、音再生または振動)を直接にユーザ1に供給可能である(S610)。
装置10の定置状態の検出およびユーザ1に関連する情報の抽出は、広汎なユーザインタラクションに利用可能である。図7は、本開示の一実施形態にしたがった、装置10の定置状態におけるユーザ1に関連する情報の処理を含む、ユーザ1とのインタフェースを形成する方法のフローチャートである。装置10は、スタンバイ状態に移行すべくパワーオン可能である(S700)。近接センサ11は、装置10がスタンバイモード100にある間、近傍にいるユーザ1を検出可能である(S701)。装置10は、近傍にいるユーザ1の検出(S701)後、第1の静止性検出モードを導入可能であり、プロセッサ12は、動きデータをプロセッサに周期的に供給するため、動きセンサ13を起動可能である(S702)。ここでは初期化運動とも称しているトリガの動きに続いて(例えばユーザによる装置の把持の検出後)、プロセッサ12は、第1の静止性検出モードにおける動きデータに基づいて、装置10の定置状態Iを検出することができ、装置10は、自身の定置状態の検出に応答して、第2の静止性検出モードを導入することができる(S703)。プロセッサ12は、第2の静止性検出モードにおいて、センサ/出力装置14から受信したユーザ1に関連する情報を処理できる。例えば、ユーザ1に関連する情報の処理結果は、テレビジョン(TV)をスイッチオンせよとの外部装置16を制御するための命令を供給するよう、装置10に促すことができ、装置10は、有線/無線通信装置15を介してTVに「スイッチオン」命令を送信することができる(S704)。スタンバイ状態のTV(S710)は、「スイッチオン」命令を装置10から受信でき、「スイッチオン」命令に応答してスタンバイ状態からアクティブ状態に移行できる(S711)。さらに、ユーザ1に関連する情報の連続処理により、装置10に対し、ユーザ1に関連する情報から抽出されたTVに関連するデータをこのTVに供給するよう促すことができる。装置10は、有線/無線通信装置15を介して「スイッチオン」データをTVに送信することができる(S705)。TVはデータを装置10から連続して受信でき、受信したデータに対応してスクリーンにこのデータを表示することができる(S712)。
別の例では、装置10の定置状態の検出およびユーザ1に関連する情報の抽出を、外部コンピュータとの協働において、種々のユーザインタラクションに適用可能である。図8は、本開示の一実施形態にしたがった、装置の定置状態におけるユーザに関連する情報の処理を含む、ユーザとのインタフェースを形成する方法のフローチャートである。装置10は、定置状態に移行するようパワーオン可能である(S800)。近接センサ11は、装置10がスタンバイモード100にある間、近傍にいるユーザ1を検出することができる(S801)。装置10は、近傍にいるユーザ1の検出(S801)後、第1の静止性検出モードを導入可能であり、プロセッサ12は、動きデータをプロセッサに周期的に供給すべく、動きセンサ13を起動可能である(S802)。ここでは初期化運動とも称されるトリガの動きに続いて(例えばユーザによる装置の把持の検出後)、プロセッサ12は、第1の静止性検出モードにおける動きデータに基づいて装置10の定置状態Iを検出できる。装置10は、自身の定置状態の検出に対応して、第2の静止性検出モードを導入可能である(S803)。
プロセッサ12は、第2の静止性検出モードにおいてセンサ/出力装置14から受信した、ユーザ1に関連する情報を処理することができる(S803)。例えば、ユーザ1に関連する情報の処理結果により、装置10に対し、テレビジョン(TV)である外部装置16を制御して、ユーザ1に関連する情報に含まれている時間および場所をコンテンツにタグづけする「タグ」命令の供給を促すことができる。コンテンツは、ユーザ1に関連する情報によって明示的に特定可能であるか、または現時点で表示を行っているプログラムもしくは現時点で記録を行っているプログラムによって暗示的に識別可能である。装置10は、有線/無線通信装置15を介して、「タグ」命令と、時間、場所およびコンテンツ情報を含むタグ情報とをTVに送信することができる(S804)。スタンバイ状態にあるTV(S810)は、装置10から「タグ」命令およびタグ情報を受信可能であり、コンテンツ(例えばプログラム、ビデオクリップ、オーディオクリップなど)またはコンテンツ情報(例えば、コンテンツ項目のための「コンテンツテーブル(TOC)」情報)を、内部でまたは外部アーカイブから回収することができる(S811)。外部アーカイブは、ローカル(例えばハードディスクレコーダ)であってもまたはグローバル(クラウドストレージ、インタネットリソース)であってもよい。コンテンツまたはコンテンツ情報が回収されると、TVは、コンテンツまたはコンテンツ情報にタグ情報を関連づけることができる(S812)。さらに、ユーザ1に関連する情報の連続処理により、装置10に対し、フリーテキストの抽出が含まれうるように促すことができる。フリーテキストは、コンテンツを考慮した、ユーザ1の感想、思考、アイデアなどであってよい。装置10は、外部コンピュータにフリーテキストを送信することができる(S805)。同時に、装置10は、TVへの指示を送信して、このTVから、コンテンツを考慮したコンテンツ情報を外部コンピュータに送信させることができる(S805)。例えば、フリーテキストの送信および指示の送信は、同じ有線/無線通信装置15を介して行うことができる。例えば、外部コンピュータへのフリーテキストの送信は、インタネット(例えばWiFi、LTEなど)を介して行うことができ、TVへの命令の送信は、命令の赤外送信によって行うことができる。TVはコンテンツ情報を外部コンピュータに供給可能である(S813)。外部コンピュータは、装置10からフリーテキストを、TVからコンテンツ情報を受信可能であり、フリーテキストおよびコンテンツ情報を考慮したコンテクスト情報を取得可能である。例えば、プロセッサ12は、フリーテキストを処理してユーザ1の内部情報、例えばユーザ1の感想、思考、アイデアなどを抽出し、このユーザ1の内部情報をコンテンツ情報に関連づけることができる。外部コンピュータは、ユーザ1の内部情報とコンテンツ情報との関連づけを記憶可能であり、さらに、このユーザ1の内部情報とコンテンツ情報との関連づけの記憶されたセットに基づいて、ユーザ1のコンテンツ情報を形成可能である(S821)。上述していないが、装置10は、フリーテキストを、別の外部装置との関連づけなしに抽出して、外部コンピュータとの協働においてフリーテキストを処理することもできる。
図9は、本開示の一実施形態にしたがった装置1000のブロック図である。装置1000は、図2A〜図2Eの装置900を実現するために用いることができる。装置1000は、インタフェースボード1010、電力領域1030および制御ボード1050を含むことができる。上述したように、インタフェースボード1010、電力領域1030および制御ボード1050のそれぞれは、装置1000の下部に配置可能である。インタフェースボード1010は、その1つもしくは複数のセンサからユーザデータを受信可能な複数のコントローラ1012を含むことができる。例えば、コントローラ1012は、コンパス/加速度計1018、ジャイロスコープ1020、周囲光センサ1022、接触センサ1024および赤外センサ1026に結合可能であり、これらからデータを受信することができる。センサ1018,1020,1022,1024,1026は、対応するデータをコントローラ1012に供給可能である。コントローラ1012は、さらに、制御ボード1050に含まれているプロセッサ1052にデータを供給することができる。プロセッサ1052は、図1のプロセッサ12を実現するために用いることができる。プロセッサ1052は、ここで説明しているように、データを用いて、ユーザ1に関連する情報を識別することができる。いくつかの例では、コントローラ1012が、プロセッサ1052へのデータの供給前にセンサから受信したデータをフィルタリングおよび/または修正できる。
上述したように、接触センサ1024は、ユーザ1が装置1000に物理接触しているかを判別するために用いることができる。これに加えてもしくはこれに代えて、いくつかの例では、コンパス/加速度計1018およびジャイロスコープ1020により、ユーザ1が装置1000に接触しているかを判別することができる。ジャイロスコープ1020は、例えば、ユーザ1が装置1000に接触した結果、装置1000が傾いたことを表す信号を供給することができる。このように、装置1000は、接触センサ1024のタッチパッドが配置された位置でこの接触センサ1024がユーザ1との物理接触を全く検出していなくても、ユーザ1が装置1000に物理接触しているかを判別できる。いくつかの例では、装置1000が前後に揺動する変位の速度、周波数もしくは振幅を用いて、ユーザ1が装置1000にどのように物理接触しているかを識別することができる。(大きな揺れに起因して)変位の速度もしくは周波数が低く、変位の振幅が大きい場合、これは例えばより力強い接触を表す。
インタフェースボード1010は、さらに、ユーザ1への視覚応答を供給可能なLEDドライバ1016および複数のLED1014を含むことができる。例えば、コントローラ1012は、LEDドライバ1016に1つもしくは複数のLED1014を点灯させ、これにより特定の視覚応答の特別な光パターンを供給することができる。インタフェースボード1010はさらに、ユーザ1への聴覚応答を供給可能なスピーカ1028を含むことができる。聴覚応答は、以下に詳細に説明するように、オーディオ制御論理回路1070から受信された1つもしくは複数のオーディオ信号に基づいていてよい。
電力領域1030は、インタフェースボード1010と制御ボード1050との間に配置可能であり、ボードコネクタ1032およびバッテリ1034を含むことができる。ボードコネクタ1032は、インタフェースボード1010の対応する要素と制御ボード1050との間でデータを供給することができる。例えば、ボードコネクタ1032は、オーディオ制御論理回路1070からスピーカ1028への信号を供給することができる。簡明性のために、ボードコネクタ1032によって形成される特定の接続部は、図10には示されていない。電力領域1030はさらに、図2A〜図2Eのバッテリ930を実現するために適用可能なバッテリ1034を含むことができる。バッテリ1034は、電力を蓄積可能であり、および/または、装置1000の1つもしくは複数の要素に電力を供給可能である。
制御ボード1050は、プロセッサ1052を含むことができる。一般に、プロセッサ1052は、装置1000の動作を統括でき、装置1000をここで説明したように動作可能にすべく、不揮発性メモリ1056に記憶された1つもしくは複数のコンピュータ可読指示を実行できる。プロセッサ1052は、制御ボード1050の1つもしくは複数の装置からデータを受信できる。例えば、プロセッサ1052は、カメラ1058、ネットワーク装置1066、無線ネットワーク装置1068および/またはオーディオ制御論理回路1070からデータを受信可能である。カメラ1058は、ユーザ1に関連する視覚情報、例えばユーザ1の顔の表情または自然なジェスチャを供給可能である。ネットワーク装置1066は、1つもしくは複数の有線ネットワーク、例えばUSBネットワークもしくはEthernetネットワークと通信可能であり、無線ネットワーク装置1068は、1つもしくは複数の無線ネットワークと通信可能である。したがって、ネットワーク装置1066および/または無線ネットワーク装置1068により、プロセッサ1052は、有線ネットワークまたは無線ネットワークを用いて、1つもしくは複数の外部装置1080(例えばコンテンツ装置、例えばTV、ストリーミング装置など)および外部コンピュータ1081と通信することができる。オーディオ制御論理回路1070は、1つもしくは複数のマイクロフォン1072に結合可能であり、ユーザ1に関連するオーディオデータ(例えば音声データ)を受信可能である。オーディオ制御論理回路1070は、プロセッサ1052にオーディオデータを供給し、プロセッサ1052からオーディオデータを受信することができる。オーディオデータは、マイクロフォン1072からプロセッサ1052に供給可能であり、プロセッサ1052からスピーカ1028に供給可能である。いくつかの例では、オーディオ制御論理回路1070は、1つもしくは複数のアナログディジタル変換器およびディジタルアナログ変換器を含むことができ、および/または、さらに1つもしくは複数のオーディオフィルタもしくはコーデックを含むことができる。制御ボード1050は、さらに、ユーザ1に対応して振動を形成可能なバイブレータ1078を含むことができる。例えば、プロセッサ1052は、バイブレータ1078を、振動応答中、特定の方式で振動させることができる。
制御ボード1050は、誘導性充電モジュール1060、充電制御論理回路1062および電力管理制御論理回路1064を含むことができる。充電シーケンス中、誘導性充電モジュール1060は、外部充電装置、例えば(図示されていない)充電マットもしくは充電ポートに結合可能であり、この充電マットから充電制御論理回路1062へ、受信した電荷を供給することができる。さらに、充電制御論理回路1062は、バッテリ1034を充電できる。バッテリ1034がフル充電されたかまたは誘導性充電モジュール1060がもはや外部装置に結合されていない場合、充電制御論理回路1062は充電シーケンスを終了することができる。電力管理制御論理回路1064は、装置1000の要素への電力の割り当てを管理することができる。いくつかの例では、装置1000は、誘導性充電のための(図示されていない)コイルを含むことができる。例えば、コイルは、タッチパッド、例えば図2Eのタッチパッド908に(例えばその上方または下方に)積層することができる。
いくつかの例では、装置1000は、自身のモードにしたがって、1つもしくは複数の要素を選択的にイネーブルすることができる。このように、装置1000は、電力利用効率を増大することができる。例として、装置1000は、ユーザ1が近傍にいないことを判別して、スタンバイモードを導入することができる。このことに応答して、プロセッサ1052は、低電力動作(例えばスタンバイ状態)を導入可能である。少なくとも1つの実施形態では、電力管理制御論理回路1064は、例えば特定の時間量にわたってユーザ1が装置1000の近傍にいないことに対応して、プロセッサ1052に低電力動作を導入させることができる。プロセッサ1052が低電力動作している(例えばスタンバイモードにある)間、コントローラ1012および装置1000の1つもしくは複数の近接センサ、例えば赤外センサ1026またはマイクロフォン1072は、動作を続行できる。1つもしくは複数の近接センサが装置1000の近傍にいるユーザ1を検出したことに対応して、プロセッサ1052は、低電力動作を離脱し、ユーザデータの処理を開始することができる。
いくつかの例では、装置1000の他のフィーチャおよび/または要素を同様に選択的にイネーブルすることができる。例えば、装置1000が図2の第2の静止性検出モード120においてユーザ1と接触しているかどうかに基づき、発話分析を(例えばプロセッサ1052によって)選択的にイネーブル可能である。別の例では、装置1000が図2の第2の静止性検出モード120においてユーザ1と接触しているかどうかに基づき、カメラ1058を選択的にイネーブルすることができる。いくつかの例では、装置1000は、自身が充電されているかどうかに基づき、いずれかのモードを選択可能である。このことに応答して、装置1000は、自身の1つもしくは複数のフィーチャおよび/または要素を選択的にイネーブルできる。例えば、装置1000は、充電中に利用可能な1つもしくは複数の無線ネットワークに接続したままとすることができる。これに加えてまたはこれに代えて、装置1000は、充電中、外部コンピュータ1081にデータを転送および/またはバックアップすることができる。
いくつかの例では、インタフェースボード1010および制御ボード1050は、それぞれ集積回路であってよく、したがって、インタフェースボード1010および制御ボード1050の各要素は集積可能である。他の例では、1つもしくは複数の対応する要素は、インタフェースボード1010および制御ボード1050のどちらかに集積されるのでなく、別個にインストールすることもできる。さらに、特定の要素がインタフェースボード1010、電力領域1030または制御ボード1050に配置されると記載した場合、他の実施形態において装置1000の要素を他の構成で配置できることは明らかである。例えば、コンパス/加速度計1018および/またはジャイロスコープ1020を制御ボード1050に含めることができ、および/または、マイクロフォン1072およびオーディオ制御論理回路1070をインタフェースボード1010に配置することができる。
本発明をいくつかの好ましい実施形態および例のコンテクストにおいて開示したが、開示した特定の実施形態を超えて本発明を他の代替的な実施形態および/または本発明の使用およびその明白な修正物および等価物へと拡張できることは、当該分野の技術者に理解されるであろう。加えて、本発明の範囲における他の修正物も、本開示に基づいて、当該分野の技術者に容易に理解されるであろう。また、各実施形態の特定の特徴および態様の種々の組み合わせもしくは部分的な組み合わせも本発明の範囲を形成でき、さらにその範囲に該当しうることも理解される。開示した発明の種々の様式を形成するために、開示した実施形態の種々の特徴および態様を相互に組み合わせ可能または相互に置換可能であることも理解されるべきである。したがって、ここで説明した少なくともいくつかの本発明の範囲は、上述した特定の開示の実施形態に限定されることを意図していない。

Claims (31)

  1. ユーザとのインタフェースを形成する方法であって、
    装置の近傍にいるユーザを検出することと、
    近傍にいるユーザの検出に応答して、前記装置のスタンバイモードから前記装置の第1の静止性検出モードを導入することと、
    前記装置の初期化運動を検出することと、
    前記装置の前記初期化運動に応答して、前記初期化運動に続くある期間の間、前記装置の1つもしくは複数のセンサから動きデータを受信することと、
    前記初期化運動に続く前記装置の動きの欠如を検出するために、前記動きデータを処理することと、
    検出された前記動きの欠如に応答して、第2の静止性検出モードを導入することと、
    前記第2の静止性検出モードの間、前記装置により応答を供給することと、
    を含む、方法。
  2. 前記1つもしくは複数のセンサは、動きセンサを含み、
    前記方法はさらに、
    前記第1の静止性検出モードの導入に応答して前記動きセンサを起動することを含む、
    請求項1記載の方法。
  3. 前記装置は、接触センサを含み、
    前記装置の近傍にいるユーザを検出することは、該ユーザによる前記装置の前記接触センサへの接触を検出することを含む、
    請求項1または2記載の方法。
  4. 前記装置は、赤外センサを含み、
    前記装置の近傍にいるユーザを検出することは、前記赤外センサからのセンサデータに基づいて、前記ユーザが前記装置の予め定められた範囲内にいるかを検出することを含む、
    請求項1または2記載の方法。
  5. 前記応答は、前記装置により、視覚応答、聴覚応答または触覚応答を供給することを含む、
    請求項1から4までのいずれか1項記載の方法。
  6. 前記応答を供給することは、
    外部装置に命令を送信することと、
    前記命令に応答して、前記外部装置が回収したユーザデータに基づく前記外部装置からの返信を受信することと、
    前記装置により、少なくとも部分的に前記返信に基づいてフィードバックを形成することと、
    を含む、
    請求項1から5までのいずれか1項記載の方法。
  7. 前記方法はさらに、前記装置が前記第2の静止性検出モードにある間、前記ユーザに関連する情報を処理することを含む、
    請求項1から6までのいずれか1項記載の方法。
  8. 前記装置が前記動きの欠如にある間、前記ユーザの前記情報を処理することは、前記装置の前記動きの欠如の1つもしくは複数の期間を検出することを含む、
    請求項記載の方法。
  9. 前記装置はさらに、マイクロフォンおよびメモリ装置を含み、
    前記情報を処理することは、
    前記マイクロフォンを用いて前記ユーザからの音声を検出することと、
    前記音声に対応するオーディオデータを前記メモリ装置に記録することと、
    を含む、
    請求項7または8記載の方法。
  10. 前記装置はさらに、プロセッサを含み、
    前記方法はさらに、
    前記プロセッサにより、前記オーディオデータから情報を抽出することと、
    該抽出された情報に基づいて、前記ユーザに関連しかつ外部装置に記憶されたコンテンツを検索する指示を形成することと、
    前記外部装置に前記指示を送信することと、
    を含む、
    請求項記載の方法。
  11. 前記方法はさらに、
    前記抽出された情報を、前記外部装置に記憶されたコンテンツからの1つもしくは複数のコンテンツの項目に関連づける指示を形成することと、
    該指示を前記外部装置に送信することと、
    を含む、
    請求項10記載の方法。
  12. 前記方法はさらに、
    前記オーディオデータ内の前記抽出された情報の発生回数を計数することと、
    前記回数に基づいて前記抽出された情報の重みを供給することと、
    を含み、前記抽出された情報をコンテンツに関連づける前記指示は、少なくとも部分的に前記重みに基づく、
    請求項11記載の方法。
  13. 前記方法はさらに、前記第2の静止性検出モードで発生する1つもしくは複数の定置状態または非定置状態を含む前記装置の状態のシーケンスを記録することを含む、
    請求項1から12までのいずれか1項記載の方法。
  14. 前記方法はさらに、前記状態のシーケンスと複数の記憶されたシーケンスとを比較することにより、前記状態のシーケンスのパターンを求めることを含む、
    請求項13記載の方法。
  15. 前記状態のシーケンスのパターンを、前記装置の、下向け、上向け、折曲げ、伸展または回転に関連づける、
    請求項14記載の方法。
  16. 前記方法はさらに、前記ユーザが形成したシーケンスデータベースに前記状態のシーケンスを記憶させることを含み、
    前記パターンを求めることは、前記ユーザが形成したシーケンスデータベース内のシーケンスに基づく、
    請求項14または15記載の方法。
  17. 前記パターンを求めることは、既存のシーケンスデータベース内のシーケンスに基づく、
    請求項16記載の方法。
  18. 前記方法はさらに、前記状態のシーケンスのパターンに基づいて外部装置への命令を形成し、該命令を前記外部装置に送信することを含む、
    請求項14から17までのいずれか1項記載の方法。
  19. 前記方法はさらに、前記状態のシーケンスのパターンに基づいて複数の外部装置のうち1つを識別し、該識別された外部装置に前記命令を送信することを含む、
    請求項18記載の方法。
  20. 装置であって、
    当該装置の近傍にいるユーザを検出するように構成された近接センサと、
    近傍にいる前記ユーザの検出に応答して、当該装置にスタンバイモードから第1の静止性検出モードを導入させ、前記第1の静止性検出モードで前記装置の初期化運動を検出するように構成されたプロセッサと、
    前記第1の静止性検出モードでの前記装置の前記初期化運動に応答して、前記初期化運動に続くある期間の間、動きデータを供給するように構成された動きセンサと、
    を含み、
    前記プロセッサは、前記初期化運動に続く前記装置の動きの欠如を検出するために、前記動きデータを処理するように構成されており、さらに前記動きの欠如の検出に応答して前記装置に第2の静止性検出モードを導入させるように構成され、さらに前記第2の静止性検出モードの間、前記装置に応答を供給させるように構成されている、装置。
  21. 前記近接センサは、受動赤外センサ、容量性センサ、ジャイロスコープ、加速度計、カメラ、マイクロ波センサ、超音波センサ、レーザーベースセンサ、光電式センサ、複数のマイクロフォン、圧力センサ、磁気センサ、熱センサ、レーダー、無線通信機能部またはこれらの組み合わせのうち1つである、
    請求項20記載の装置。
  22. 前記動きセンサは、ジャイロスコープ、加速度計、カメラ、受動赤外センサ、超音波センサ、容量性センサ、マイクロフォン、光電式センサ、熱センサ、圧力センサ、磁気センサ、心拍計またはこれらの組み合わせのうちいずれかである、
    請求項20または21記載の装置。
  23. 前記装置はさらに、該装置が前記第2の静止性検出モードにある間、前記ユーザに関連する情報を記録するように構成されたメモリ装置を含む、
    請求項20から22までのいずれか1項記載の装置。
  24. 前記装置はさらに、前記第2の静止性検出モードにおいて環境音を検出するように構成された少なくとも1つのマイクロフォンを含み、
    前記メモリ装置は、前記環境音を記録するように構成されており、
    前記プロセッサは、前記環境音から前記ユーザに関連する情報を抽出するように構成されている、
    請求項23記載の装置。
  25. 前記装置はさらに、前記ユーザの画像シーケンスを取得するように構成されたカメラを含み、
    前記メモリ装置は、前記ユーザの画像シーケンスを記憶するように構成されており、
    前記プロセッサは、前記画像シーケンスを再構成して前記画像シーケンス内の前記ユーザのジェスチャを解釈するように構成されており、さらに前記ユーザのジェスチャから該ユーザに関連する情報を抽出するように構成されている、
    請求項23または24記載の装置。
  26. 前記動きセンサはさらに、前記第2の静止性検出モードで前記ユーザの動きデータのシーケンスを取得するように構成されており、
    前記メモリ装置は、前記ユーザの動きデータのシーケンスを記憶するように構成されており、
    前記プロセッサは、前記動きデータのシーケンスを再構成して前記動きデータのシーケンス内の前記ユーザのジェスチャを解釈するように構成されており、さらに前記ユーザのジェスチャから該ユーザに関連する情報を抽出するように構成されている、
    請求項23から25までのいずれか1項記載の方法。
  27. 前記装置はさらに、前記ユーザに関連する情報に基づいて、外部装置の機能を表す命令を該外部装置に送信するように構成された無線送信器を含む、
    請求項20から26までのいずれか1項記載の装置。
  28. 前記装置はさらに、発光ダイオード(LED)光を含み、
    前記プロセッサは、前記ユーザに関連する情報に基づき、LED光を応答として明滅させるように構成されている、
    請求項20から27までのいずれか1項記載の装置。
  29. 前記装置はさらに、少なくとも1つのスピーカを含み、
    前記プロセッサは、前記ユーザに関連する情報に基づき、応答として、前記スピーカに音を形成させるように構成されている、
    請求項20から28までのいずれか1項記載の装置。
  30. 前記装置はさらに、ハウジングおよびバイブレータを含み、
    前記プロセッサは、前記ユーザに関連する情報に基づき、応答として、前記バイブレータにより前記ハウジングを振動させるように構成されている、
    請求項20から29までのいずれか1項記載の装置。
  31. 前記装置はさらに、少なくとも部分的に木材から形成されたエンクロージャを含む、
    請求項20から30までのいずれか1項記載の装置。
JP2018530545A 2015-12-11 2016-12-09 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法 Active JP6707641B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562266423P 2015-12-11 2015-12-11
US62/266,423 2015-12-11
PCT/US2016/065924 WO2017100641A1 (en) 2015-12-11 2016-12-09 Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection

Publications (2)

Publication Number Publication Date
JP2019502991A JP2019502991A (ja) 2019-01-31
JP6707641B2 true JP6707641B2 (ja) 2020-06-10

Family

ID=59013624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018530545A Active JP6707641B2 (ja) 2015-12-11 2016-12-09 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法

Country Status (4)

Country Link
US (1) US10222875B2 (ja)
EP (1) EP3387628B1 (ja)
JP (1) JP6707641B2 (ja)
WO (1) WO2017100641A1 (ja)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11756412B2 (en) 2011-10-28 2023-09-12 Universal Electronics Inc. Systems and methods for associating services and/or devices with a voice assistant
US11792185B2 (en) 2019-01-08 2023-10-17 Universal Electronics Inc. Systems and methods for associating services and/or devices with a voice assistant
US9787103B1 (en) 2013-08-06 2017-10-10 Energous Corporation Systems and methods for wirelessly delivering power to electronic devices that are unable to communicate with a transmitter
US9876394B1 (en) 2014-05-07 2018-01-23 Energous Corporation Boost-charger-boost system for enhanced power delivery
US10270261B2 (en) * 2015-09-16 2019-04-23 Energous Corporation Systems and methods of object detection in wireless power charging systems
US10256657B2 (en) 2015-12-24 2019-04-09 Energous Corporation Antenna having coaxial structure for near field wireless power charging
US10965164B2 (en) 2012-07-06 2021-03-30 Energous Corporation Systems and methods of wirelessly delivering power to a receiver device
US11502551B2 (en) 2012-07-06 2022-11-15 Energous Corporation Wirelessly charging multiple wireless-power receivers using different subsets of an antenna array to focus energy at different locations
US9887584B1 (en) 2014-08-21 2018-02-06 Energous Corporation Systems and methods for a configuration web service to provide configuration of a wireless power transmitter within a wireless power transmission system
US9806564B2 (en) 2014-05-07 2017-10-31 Energous Corporation Integrated rectifier and boost converter for wireless power transmission
US10063105B2 (en) 2013-07-11 2018-08-28 Energous Corporation Proximity transmitters for wireless power charging systems
US9867062B1 (en) 2014-07-21 2018-01-09 Energous Corporation System and methods for using a remote server to authorize a receiving device that has requested wireless power and to determine whether another receiving device should request wireless power in a wireless power transmission system
US9812890B1 (en) 2013-07-11 2017-11-07 Energous Corporation Portable wireless charging pad
US10439448B2 (en) 2014-08-21 2019-10-08 Energous Corporation Systems and methods for automatically testing the communication between wireless power transmitter and wireless power receiver
US10381880B2 (en) 2014-07-21 2019-08-13 Energous Corporation Integrated antenna structure arrays for wireless power transmission
US10992187B2 (en) 2012-07-06 2021-04-27 Energous Corporation System and methods of using electromagnetic waves to wirelessly deliver power to electronic devices
US10124754B1 (en) 2013-07-19 2018-11-13 Energous Corporation Wireless charging and powering of electronic sensors in a vehicle
US10992185B2 (en) 2012-07-06 2021-04-27 Energous Corporation Systems and methods of using electromagnetic waves to wirelessly deliver power to game controllers
US9871398B1 (en) 2013-07-01 2018-01-16 Energous Corporation Hybrid charging method for wireless power transmission based on pocket-forming
US9853458B1 (en) 2014-05-07 2017-12-26 Energous Corporation Systems and methods for device and power receiver pairing
WO2014081813A1 (en) 2012-11-21 2014-05-30 SomniQ, Inc. Devices, systems, and methods for empathetic computing
US10068703B1 (en) 2014-07-21 2018-09-04 Energous Corporation Integrated miniature PIFA with artificial magnetic conductor metamaterials
US9946351B2 (en) 2015-02-23 2018-04-17 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
US10523033B2 (en) 2015-09-15 2019-12-31 Energous Corporation Receiver devices configured to determine location within a transmission field
US9871387B1 (en) 2015-09-16 2018-01-16 Energous Corporation Systems and methods of object detection using one or more video cameras in wireless power charging systems
US11710321B2 (en) 2015-09-16 2023-07-25 Energous Corporation Systems and methods of object detection in wireless power charging systems
US10186893B2 (en) 2015-09-16 2019-01-22 Energous Corporation Systems and methods for real time or near real time wireless communications between a wireless power transmitter and a wireless power receiver
US10199850B2 (en) 2015-09-16 2019-02-05 Energous Corporation Systems and methods for wirelessly transmitting power from a transmitter to a receiver by determining refined locations of the receiver in a segmented transmission field associated with the transmitter
US10211685B2 (en) 2015-09-16 2019-02-19 Energous Corporation Systems and methods for real or near real time wireless communications between a wireless power transmitter and a wireless power receiver
US10778041B2 (en) 2015-09-16 2020-09-15 Energous Corporation Systems and methods for generating power waves in a wireless power transmission system
US10734717B2 (en) 2015-10-13 2020-08-04 Energous Corporation 3D ceramic mold antenna
US9853485B2 (en) 2015-10-28 2017-12-26 Energous Corporation Antenna for wireless charging systems
US10027180B1 (en) 2015-11-02 2018-07-17 Energous Corporation 3D triple linear antenna that acts as heat sink
US10063108B1 (en) 2015-11-02 2018-08-28 Energous Corporation Stamped three-dimensional antenna
JP6707641B2 (ja) 2015-12-11 2020-06-10 ソムニック インク. 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法
USD806711S1 (en) 2015-12-11 2018-01-02 SomniQ, Inc. Portable electronic device
US10277054B2 (en) 2015-12-24 2019-04-30 Energous Corporation Near-field charging pad for wireless power charging of a receiver device that is temporarily unable to communicate
US10027159B2 (en) 2015-12-24 2018-07-17 Energous Corporation Antenna for transmitting wireless power signals
US10038332B1 (en) 2015-12-24 2018-07-31 Energous Corporation Systems and methods of wireless power charging through multiple receiving devices
US10079515B2 (en) 2016-12-12 2018-09-18 Energous Corporation Near-field RF charging pad with multi-band antenna element with adaptive loading to efficiently charge an electronic device at any position on the pad
US11863001B2 (en) 2015-12-24 2024-01-02 Energous Corporation Near-field antenna for wireless power transmission with antenna elements that follow meandering patterns
US10320446B2 (en) 2015-12-24 2019-06-11 Energous Corporation Miniaturized highly-efficient designs for near-field power transfer system
US10008886B2 (en) 2015-12-29 2018-06-26 Energous Corporation Modular antennas with heat sinks in wireless power transmission systems
CN105808733B (zh) * 2016-03-10 2019-06-21 深圳创维-Rgb电子有限公司 显示方法及装置
US11587063B1 (en) * 2016-07-06 2023-02-21 United Services Automobile Association (Usaa) Automated proximity fraud account lock systems and methods
USD859411S1 (en) * 2016-08-01 2019-09-10 Hand Held Products, Inc. Optical scanner
CN206075454U (zh) * 2016-08-29 2017-04-05 启迪市场有限公司 一种基于多传感器的柔性防盗系统以及应用了柔性防盗系统的安全旅行包、防性侵犯衣服
US10923954B2 (en) 2016-11-03 2021-02-16 Energous Corporation Wireless power receiver with a synchronous rectifier
KR102349607B1 (ko) 2016-12-12 2022-01-12 에너저스 코포레이션 전달되는 무선 전력을 최대화하기 위한 근접장 충전 패드의 안테나 존들을 선택적으로 활성화시키는 방법
US10439442B2 (en) 2017-01-24 2019-10-08 Energous Corporation Microstrip antennas for wireless power transmitters
US10389161B2 (en) 2017-03-15 2019-08-20 Energous Corporation Surface mount dielectric antennas for wireless power transmitters
US10680319B2 (en) 2017-01-06 2020-06-09 Energous Corporation Devices and methods for reducing mutual coupling effects in wireless power transmission systems
US11243293B2 (en) * 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
WO2018183892A1 (en) 2017-03-30 2018-10-04 Energous Corporation Flat antennas having two or more resonant frequencies for use in wireless power transmission systems
US10511097B2 (en) 2017-05-12 2019-12-17 Energous Corporation Near-field antennas for accumulating energy at a near-field distance with minimal far-field gain
US11462949B2 (en) 2017-05-16 2022-10-04 Wireless electrical Grid LAN, WiGL Inc Wireless charging method and system
US10848853B2 (en) 2017-06-23 2020-11-24 Energous Corporation Systems, methods, and devices for utilizing a wire of a sound-producing device as an antenna for receipt of wirelessly delivered power
US10122219B1 (en) 2017-10-10 2018-11-06 Energous Corporation Systems, methods, and devices for using a battery as a antenna for receiving wirelessly delivered power from radio frequency power waves
US11342798B2 (en) 2017-10-30 2022-05-24 Energous Corporation Systems and methods for managing coexistence of wireless-power signals and data signals operating in a same frequency band
US10615647B2 (en) 2018-02-02 2020-04-07 Energous Corporation Systems and methods for detecting wireless power receivers and other objects at a near-field charging pad
US11159057B2 (en) 2018-03-14 2021-10-26 Energous Corporation Loop antennas with selectively-activated feeds to control propagation patterns of wireless power signals
JP6938424B2 (ja) * 2018-05-18 2021-09-22 ヤフー株式会社 端末装置
US11515732B2 (en) 2018-06-25 2022-11-29 Energous Corporation Power wave transmission techniques to focus wirelessly delivered power at a receiving device
US11172293B2 (en) * 2018-07-11 2021-11-09 Ambiq Micro, Inc. Power efficient context-based audio processing
US11099208B2 (en) 2018-10-30 2021-08-24 Stmicroelectronics S.R.L. System and method for determining whether an electronic device is located on a stationary or stable surface
CN109543578B (zh) * 2018-11-13 2020-12-22 北京猎户星空科技有限公司 智能设备控制方法、装置和存储介质
US11437735B2 (en) 2018-11-14 2022-09-06 Energous Corporation Systems for receiving electromagnetic energy using antennas that are minimally affected by the presence of the human body
CN113597723A (zh) 2019-01-28 2021-11-02 艾诺格思公司 用于无线电力传输的小型化天线的系统和方法
JP2022519749A (ja) 2019-02-06 2022-03-24 エナージャス コーポレイション アンテナアレイ内の個々のアンテナに使用するための最適位相を推定するシステム及び方法
WO2020263250A1 (en) 2019-06-26 2020-12-30 Google Llc Radar-based authentication status feedback
KR20210153695A (ko) 2019-07-26 2021-12-17 구글 엘엘씨 Imu 및 레이더를 통한 인증 관리
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
JP7346595B2 (ja) * 2019-07-26 2023-09-19 グーグル エルエルシー レーダーベースのジェスチャー認識の状況感知型制御
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
US11467672B2 (en) * 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
JP7270070B2 (ja) 2019-08-30 2023-05-09 グーグル エルエルシー モバイルデバイスのための入力方法
US11381118B2 (en) 2019-09-20 2022-07-05 Energous Corporation Systems and methods for machine learning based foreign object detection for wireless power transmission
CN114731061A (zh) 2019-09-20 2022-07-08 艾诺格思公司 使用无线功率发射系统中的功率放大器控制器集成电路来分类和检测异物
WO2021055899A1 (en) 2019-09-20 2021-03-25 Energous Corporation Systems and methods of protecting wireless power receivers using multiple rectifiers and establishing in-band communications using multiple rectifiers
WO2021055898A1 (en) 2019-09-20 2021-03-25 Energous Corporation Systems and methods for machine learning based foreign object detection for wireless power transmission
WO2021119483A1 (en) 2019-12-13 2021-06-17 Energous Corporation Charging pad with guiding contours to align an electronic device on the charging pad and efficiently transfer near-field radio-frequency energy to the electronic device
US10985617B1 (en) 2019-12-31 2021-04-20 Energous Corporation System for wirelessly transmitting energy at a near-field distance without using beam-forming control
WO2021138522A1 (en) * 2020-01-02 2021-07-08 Universal Electronics Inc. Universal voice assistant
US11799324B2 (en) 2020-04-13 2023-10-24 Energous Corporation Wireless-power transmitting device for creating a uniform near-field charging area
WO2022040229A1 (en) 2020-08-21 2022-02-24 SomniQ, Inc. Methods and systems for computer-generated visualization of speech
US11916398B2 (en) 2021-12-29 2024-02-27 Energous Corporation Small form-factor devices with integrated and modular harvesting receivers, and shelving-mounted wireless-power transmitters for use therewith
CN115617971B (zh) * 2022-11-14 2023-03-07 湖南君安科技有限公司 基于ALBERT-Coref模型的对话文本生成方法

Family Cites Families (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD249091S (en) 1976-11-29 1978-08-22 Burtis Eric F Console for apparatus for performing mathematical functions
USD262464S (en) 1980-04-09 1981-12-29 Marvin Glass & Associates Microcomputer controlled game housing
JPS59132718A (ja) 1983-01-18 1984-07-30 株式会社日立製作所 他励磁直流電動機の保護装置
USD286124S (en) 1984-07-09 1986-10-14 Dempsey Lavell D Lazy susan with refrigerated compartment
USD297328S (en) 1985-05-16 1988-08-23 Matsushita Electrical Industrial Co., Ltd. Optical space transmission module for data communication network
USD303356S (en) 1987-02-24 1989-09-12 Couch Larry D Sine gauge
US4804945A (en) 1987-10-29 1989-02-14 Terrance Millet Door alarm with infrared and capacitive sensors
AU108433S (en) 1989-07-13 1990-07-31 Nec Corp An antenna for satellite communication systems
USD324106S (en) 1989-10-05 1992-02-18 Greenblatt Eliot M Transcutaneous electrical nerve stimulator
USD325582S (en) 1989-11-02 1992-04-21 Mitsubishi Electric Sales America, Inc. Omindirectional remote controller for television receivers and the like
US5243430A (en) 1991-07-24 1993-09-07 Mitsubishi Electronics America, Inc. Remote control apparatus and method for omnidirectional signal transmission
USD331060S (en) 1992-02-12 1992-11-17 Mitsubishi Electronics America, Inc. Omnidirectional remote controller for television receivers and the like
USD339986S (en) 1992-06-03 1993-10-05 Parfums Nina Ricci Facial cream container
USD345507S (en) 1992-11-24 1994-03-29 Guerlain S.A. Creme container
USD363569S (en) 1993-06-24 1995-10-24 Chin-Chun Lai Cosmetic kit
USD382261S (en) 1996-02-13 1997-08-12 Microsoft Corporation Pointing device
USD382255S (en) 1996-02-26 1997-08-12 International Business Machines Corporation Infra-red transmitter/receiver for a desktop personal computer
USD408285S (en) 1997-02-12 1999-04-20 Lir France, S.A. Screw box
USD408590S (en) 1997-07-28 1999-04-20 Revlon Consumer Products Corporation Compact case
USD396852S (en) 1997-08-26 1998-08-11 Behavior Tech Computer Corporation Receiver assembly of a cordless keyboard
JPH11232012A (ja) 1998-02-17 1999-08-27 Omron Corp インタフェース装置およびインタフェースシステム
USD441916S1 (en) 1998-05-13 2001-05-08 L.A.B Luxe, Art, Beaute Lipstick container
USD414190S (en) 1998-09-25 1999-09-21 Sharper Image Corporation Entertainment globe
USD418125S (en) 1998-11-03 1999-12-28 Apple Computer, Inc. Cursor control device
JP3277500B2 (ja) 1999-05-10 2002-04-22 ソニー株式会社 ロボット装置
USD433994S (en) 1999-08-27 2000-11-21 Apple Computer, Inc. Power adapter
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US20020055383A1 (en) 2000-02-24 2002-05-09 Namco Ltd. Game system and program
US6728679B1 (en) 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
USD465733S1 (en) 2001-02-22 2002-11-19 The Procter & Gamble Company Container, primarily for perfume
USD465469S1 (en) 2001-05-29 2002-11-12 Koninklijke Philips Electronics N.V. Electronic sound recording and reproducing device for a baby
USD467036S1 (en) 2001-07-06 2002-12-10 Dieter Bakic Design S.R.L. Eyeshadow case
US6558165B1 (en) 2001-09-11 2003-05-06 Capticom, Inc. Attention-focusing device and method of use
USD463991S1 (en) 2001-12-03 2002-10-08 Capticom, Inc. Signaling device
USD480396S1 (en) 2002-03-27 2003-10-07 Barbara Buckner Egg shaped handheld computing device
USD494633S1 (en) 2002-09-06 2004-08-17 Odenwalder Kunststoffwerke - Gehausesysteme Gmbh Housing for electronic device
USD489706S1 (en) 2002-12-09 2004-05-11 Johnson Chen FM auto scan radio
USD479366S1 (en) 2003-04-10 2003-09-02 Hct Limited Container for a cosmetic product
US20040250218A1 (en) 2003-06-06 2004-12-09 Microsoft Corporation Empathetic human-machine interfaces
USD503692S1 (en) 2003-06-17 2005-04-05 Ipo L.L.C. Outdoor component enclosure
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
JP3953024B2 (ja) 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
USD496004S1 (en) 2003-12-05 2004-09-14 Hannspree, Inc. Remote control
USD521512S1 (en) 2004-01-21 2006-05-23 Mettler-Toledo Gmbh Input/output device
GB2414309B (en) 2004-05-18 2009-02-25 Simon Richard Daniel Spherical display and control device
USD518030S1 (en) 2004-06-14 2006-03-28 Ten Ventures Inc. Remote control unit for a multimedia device remote control system
US20060028429A1 (en) 2004-08-09 2006-02-09 International Business Machines Corporation Controlling devices' behaviors via changes in their relative locations and positions
USD518819S1 (en) 2004-09-01 2006-04-11 Gray David C Antenna
USD527008S1 (en) 2004-10-20 2006-08-22 Edward Pryor & Son Limited Optical code reader
USD558767S1 (en) 2005-07-08 2008-01-01 Harman International Industries, Incorporated. Controller for playback device and display
JP2007034544A (ja) 2005-07-26 2007-02-08 Brother Ind Ltd 電子機器及び状況通信装置
WO2007013402A1 (ja) 2005-07-26 2007-02-01 Brother Kogyo Kabushiki Kaisha 状況通信装置及び状況通信装置プログラム
JP2007058844A (ja) 2005-07-27 2007-03-08 Brother Ind Ltd 感圧センサ及び推論情報作成装置
WO2007034388A2 (en) 2005-09-20 2007-03-29 Koninklijke Philips Electronics N.V. Viewing device
USD526916S1 (en) 2006-02-15 2006-08-22 Daniel Oas Pedometer
USD541228S1 (en) 2006-03-15 2007-04-24 Koninklijke Philips Electronics N.V. Remote control unit
USD554987S1 (en) 2006-05-11 2007-11-13 Soremartec, S.A. Container for food products such as confectionery products
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
USD597524S1 (en) 2006-10-31 2009-08-04 Sony Corporation Modular entertainment system with movable electronic components
JP2009026125A (ja) 2007-07-20 2009-02-05 Denso It Laboratory Inc 感情分析デバイス、感情分析方法およびプログラム
EP2200512A1 (en) 2007-09-14 2010-06-30 Corventis, Inc. Adherent device for respiratory monitoring and sleep disordered breathing
USD578711S1 (en) 2007-09-24 2008-10-14 Mcneil-Ppc, Inc. Combined fragrance emitting patch and compact
USD579937S1 (en) 2008-01-07 2008-11-04 Jon Cohen Computer mouse
USD596815S1 (en) 2008-01-18 2009-07-21 Seiko Epson Corporation Vacuum cleaner robot
KR20090093286A (ko) 2008-02-29 2009-09-02 한국과학기술원 감성적 통신수단
CA127554S (en) 2008-03-07 2009-07-16 Philips Electronics Ltd Massager unit
USD595670S1 (en) 2008-07-09 2009-07-07 Sears Brands, Llc. Remote control
USD602915S1 (en) 2008-07-23 2009-10-27 Samsung Electronics Co., Ltd. Remote controller for television receiver
USD595734S1 (en) 2008-09-05 2009-07-07 Samsung Electronics Co., Ltd. MP3 player
USD601564S1 (en) 2008-10-01 2009-10-06 Namco Bandai Games Inc. Controller for game machine
US8004391B2 (en) 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
USD602916S1 (en) 2009-01-26 2009-10-27 Samsung Electronics Co., Ltd. Remote controller
USD607347S1 (en) 2009-02-12 2010-01-05 Cadi Scientific Pte Ltd Wireless sensor for measuring physiological parameters, in particular body temperature
USD626147S1 (en) 2009-04-02 2010-10-26 Goddard Andrew E Electronic device
USD627306S1 (en) 2009-08-14 2010-11-16 Somfy Sas Remote control
USD610479S1 (en) 2009-09-15 2010-02-23 Jianmeng Shi Electronic anti-theft tag
USD645818S1 (en) 2009-11-16 2011-09-27 Callpod, Inc. Device battery charger
USD683843S1 (en) 2009-12-15 2013-06-04 Jackel International Limited Motor unit for a breast pump
JP5531612B2 (ja) * 2009-12-25 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム
WO2011112984A1 (en) 2010-03-11 2011-09-15 Tactus Technology User interface system
US9189090B2 (en) 2010-03-26 2015-11-17 Salesforce.Com, Inc. Techniques for interpreting signals from computer input devices
USD643412S1 (en) 2010-05-14 2011-08-16 Genos Corporation Handheld remote control unit
USD632281S1 (en) 2010-06-02 2011-02-08 Koninklijke Philips Electronics N.V. Volume control
KR101672212B1 (ko) * 2010-06-15 2016-11-04 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
USD632265S1 (en) 2010-06-16 2011-02-08 Samsung Electronics Co., Ltd. Remote controller for air conditioner
USD636760S1 (en) 2010-06-24 2011-04-26 Cheng Uei Precision Indsutry Co., Ltd. Portable speaker
USD656034S1 (en) 2010-08-24 2012-03-20 Wonders Holding BV Packaging container
JP2012075089A (ja) 2010-09-03 2012-04-12 Nikon Corp 電子機器、及び通信システム
CA137423S (en) 2010-09-24 2011-05-27 Bang & Olufsen As Audio speaker
KR101248323B1 (ko) 2011-02-11 2013-03-27 한국과학기술원 유비쿼터스 지능형 육아 서비스 및 맞춤형 교육 서비스 방법, 장치 및 기록 매체
US9058059B2 (en) * 2011-03-03 2015-06-16 Omron Corporation Gesture input device and method for controlling gesture input device
US9229489B2 (en) 2011-05-03 2016-01-05 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
USD687009S1 (en) 2011-07-26 2013-07-30 Samsung Electronics Co., Ltd. Bluetooth dongle
USD654866S1 (en) 2011-08-24 2012-02-28 Nokia Corporation Headset charger
US9596084B2 (en) 2011-09-09 2017-03-14 Facebook, Inc. Initializing camera subsystem for face detection based on sensor inputs
CN103918344A (zh) 2011-10-13 2014-07-09 英特尔公司 通过便携式装置检测用户活动
USD672465S1 (en) 2011-11-03 2012-12-11 Constance Jane Sherman Bead-shaped container
USD726924S1 (en) 2011-12-09 2015-04-14 Omron Healthcare Co., Ltd. Vital signs monitor
USD695258S1 (en) 2012-01-09 2013-12-10 Zomm, Llc Wireless tag
USD685790S1 (en) 2012-02-15 2013-07-09 Avermedia Technologies, Inc. USB record button device
USD683636S1 (en) 2012-02-16 2013-06-04 Janne Levanen Tracking device
US20140324749A1 (en) 2012-03-21 2014-10-30 Alexander Peters Emotional intelligence engine for systems
USD705844S1 (en) 2012-04-20 2014-05-27 Iconoscope, Llc Remote camera
USD719165S1 (en) 2012-06-15 2014-12-09 Sammy Hill Video game controller joystick cover
USD729773S1 (en) 2012-08-13 2015-05-19 Fiskars Brands Finland Oy Ab Wireless remote control
US9031293B2 (en) 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
USD738376S1 (en) 2012-11-21 2015-09-08 SomniQ, Inc. Portable electronic device
USD732033S1 (en) 2012-11-21 2015-06-16 SomniQ, Inc. Portable electronic device
WO2014081813A1 (en) 2012-11-21 2014-05-30 SomniQ, Inc. Devices, systems, and methods for empathetic computing
USD700080S1 (en) 2013-01-04 2014-02-25 Tomtom International B.V. Electronic portable device
USD700904S1 (en) 2013-03-14 2014-03-11 Bose Corporation Remote control
USD743645S1 (en) 2013-06-14 2015-11-17 Samsung Electronics Co., Ltd. Robot cleaner
KR102160767B1 (ko) * 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
KR102179056B1 (ko) 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
USD717674S1 (en) 2013-07-22 2014-11-18 Misfit Wearables Corporation Activity monitoring device
US9606721B2 (en) 2013-07-22 2017-03-28 Lg Electronics Inc. Mobile terminal and control method thereof
USD731334S1 (en) 2013-08-20 2015-06-09 Fibar Group sp. z o.o. Flood sensor
USD756955S1 (en) 2013-09-21 2016-05-24 Baby Stars Gmbh Combined audio player and recorder
USD724060S1 (en) 2013-10-24 2015-03-10 Samsung Electronics Co., Ltd. Remote controller
USD730891S1 (en) 2013-11-10 2015-06-02 Zhongjie Wang Host computer
US20150268737A1 (en) 2014-03-21 2015-09-24 Bose Corporation Gesture-based controller for use in axisymmetric housing
USD752531S1 (en) 2014-04-20 2016-03-29 Alibaba Group Holding Limited Television set top box
USD777331S1 (en) 2014-05-01 2017-01-24 MAD Apparel, Inc. Electronic module
USD783838S1 (en) 2014-05-20 2017-04-11 Scanadu Incorporated Portable wireless vital signs scanner
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
USD755750S1 (en) 2014-06-12 2016-05-10 Tencent Technology (Shenzhen) Company Limited Human input device for a consumer electronic device
USD747984S1 (en) 2014-07-31 2016-01-26 Sensoro Co. Ltd. Bluetooth-based sensor
JP1541334S (ja) 2015-01-08 2018-12-25
US9946351B2 (en) 2015-02-23 2018-04-17 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
USD768114S1 (en) 2015-04-23 2016-10-04 No Nda Inc. Universal remote control
USD774717S1 (en) 2015-04-24 2016-12-20 Samsung Electronics Co., Ltd. Robot cleaner
USD778878S1 (en) 2015-05-11 2017-02-14 Spin remote B.V. Remote control
USD763967S1 (en) 2015-06-12 2016-08-16 Microsoft Corporation Thumbstick attachment for a controller
USD770417S1 (en) 2015-07-08 2016-11-01 Pengcheng Chen Speaker
USD778876S1 (en) 2015-07-15 2017-02-14 Haixing Zhang Speaker
USD776820S1 (en) 2015-10-01 2017-01-17 Htc Corporation Heart rate monitor
JP6707641B2 (ja) 2015-12-11 2020-06-10 ソムニック インク. 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法
USD773947S1 (en) 2015-12-31 2016-12-13 Delta Faucet Company Detector device

Also Published As

Publication number Publication date
EP3387628B1 (en) 2021-05-12
EP3387628A1 (en) 2018-10-17
US20170168595A1 (en) 2017-06-15
US10222875B2 (en) 2019-03-05
WO2017100641A1 (en) 2017-06-15
EP3387628A4 (en) 2019-07-17
JP2019502991A (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
JP6707641B2 (ja) 定置状態の検出によってユーザおよび/または外部装置とのインタフェースを形成する装置、システムおよび方法
CN104798012B (zh) 提供语音识别服务的便携式装置和方法
CN106104424B (zh) 可训练的基于传感器的姿势识别
US9529447B2 (en) Removable input module
KR102269035B1 (ko) 서버 및 서버의 그룹 액션 제어방법
US9978261B2 (en) Remote controller and information processing method and system
US20170315678A1 (en) Reconfigurable clip-on modules for mobile computing devices
US8823645B2 (en) Apparatus for remotely controlling another apparatus and having self-orientating capability
CN102016765A (zh) 用于识别手持设备的用户的方法和系统
JP2019520626A (ja) 動作−音声の多重モード命令に基づいた最適制御方法およびこれを適用した電子装置
CN106878390B (zh) 电子宠物互动控制方法、装置及可穿戴设备
CN105960626A (zh) 抓握检测
US11082249B2 (en) Location determination for device control and configuration
KR20060126727A (ko) 3차원 모션 기술을 이용하는 홈 엔터테인먼트용 개선된제어 장치
CN109901698B (zh) 一种智能交互方法、可穿戴设备和终端以及系统
US11698684B2 (en) Gesture recognition device and method for sensing multi-factor assertion
CN106325112A (zh) 一种信息处理方法及电子设备
CN110045813A (zh) 用于二维跟踪和三维跟踪的触觉激活外围设备
KR102419597B1 (ko) 입력 디바이스와 전자 장치, 이를 포함하는 시스템 및 그 제어 방법
US10701661B1 (en) Location determination for device control and configuration
CN107981796A (zh) 清洁设备及其控制方法、电子设备、计算机可读存储介质
CN202472907U (zh) 遥控器和显示控制系统
CN109660872A (zh) 一种多媒体播放进度的调整方法及终端
KR20200014495A (ko) 카메라 모듈을 통해 획득한 영상에 기반하여 정보를 저장하는 방법 및 이를 사용하는 전자 장치
JP2013106315A (ja) 情報端末、家電機器、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200520

R150 Certificate of patent or registration of utility model

Ref document number: 6707641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250