JP6138268B2 - エンパセティックコンピューティングのための装置、及び方法 - Google Patents

エンパセティックコンピューティングのための装置、及び方法 Download PDF

Info

Publication number
JP6138268B2
JP6138268B2 JP2015544112A JP2015544112A JP6138268B2 JP 6138268 B2 JP6138268 B2 JP 6138268B2 JP 2015544112 A JP2015544112 A JP 2015544112A JP 2015544112 A JP2015544112 A JP 2015544112A JP 6138268 B2 JP6138268 B2 JP 6138268B2
Authority
JP
Japan
Prior art keywords
computing device
user
event
empathetic computing
empathetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015544112A
Other languages
English (en)
Other versions
JP2015535632A (ja
Inventor
立考 坂口
立考 坂口
英憲 石川
英憲 石川
Original Assignee
ソムニック インク.
ソムニック インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソムニック インク., ソムニック インク. filed Critical ソムニック インク.
Publication of JP2015535632A publication Critical patent/JP2015535632A/ja
Application granted granted Critical
Publication of JP6138268B2 publication Critical patent/JP6138268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Description

本願は、2012年11月21日に出願された米国仮特許出願第61/728,963号の優先権を主張し、かかる出願は、いかなる目的でもその全体を参照することにより本明細書に組み込まれる。
本明細書に説明される実施例は、ユーザとインターフェースで接続するための人間化したインターフェースを有するコンピューティングシステムを含む、エンパセティック(empathetic)コンピューティングシステムに関する。
コンピューティングシステムは、我々の毎日の生活に定着してきている。ユーザは、通常、グラフィックユーザインターフェースであるユーザインターフェースを通してコンピューティングシステム(例えば、コンピュータ)と対話する。現在既知のコンピューティングシステムのグラフィックユーザインターフェースは、ユーザが機械(例えば、コンピュータ)と対話できるようにするために、通常、キーボード、ポインタデバイス(例えば、マウス、トラックパッドなど)、モニタ、及び、より最近ではタッチスクリーンインターフェースなどの特定のハードウェアの使用を必要とする。例えば、ユーザはコンピュータとの通信又は対話を達成するために、キーボード又はポインタデバイス上のボタンを押す、又はタッチスクリーンインターフェースを介して特定の情報を触覚によって入力することを求められることがある。同様に、情報は、通常コンピュータモニタ(例えば、LCD画面又は類似するディスプレイ装置)上において、通常はグラフィックでユーザに送り返される。したがって、従来のユーザインターフェースの使用は、明示的なコマンドが特定の情報を入力装置に入力することによって提供されることを必要とする。
コンピューティングシステムは、概して、例えばユーザの自然な動きに反応することによってユーザとスムーズに対話することはできない。
エンパセティックコンピューティング装置の実施例が本明細書に開示される。実施例のエンパセティックコンピューティング装置は、ユーザの掌に収まるように構成されたエンクロージャを含んでよい。エンパセティックコンピューティング装置は、上部及び下部を有してよい。エンクロージャは、視覚応答の光パターンを提供するように構成された複数の発光素子と、メモリデバイスに結合されたプロセッサとを有するインターフェースボードを含んでよい。エンクロージャは、さらにユーザのタッチを検出するように構成されたタッチセンサを含んでよい。タッチセンサは、外周方向にエンクロージャに沿って配置されたタッチベルト、及びタッチパッドを含んでよい。
いくつかの実施例では、エンクロージャの上部は部分的に半透明であってよい。
いくつかの実施例では、エンクロージャは、ユーザのエンパセティックコンピューティング装置に対する近接を判断するように構成された複数の赤外線センサを含んでよい。
いくつかの実施例では、上部は実質的に半球状であってよい。
いくつかの実施例では、インターフェースボードはさらに周囲光センサを含んでよい。
いくつかの実施例では、発光素子は発光ダイオードを含んでよい。
いくつかの実施例では、エンパセティックコンピューティング装置は、光パターンの光を調整するように構成された光学デバイスをさらに含んでよい。
エンパセティックコンピューティングシステムの実施例が本明細書に説明される。実施例のエンパセティックコンピューティングシステムは、複数のセンサ、1台のプロセッサ、及び該プロセッサに結合された1つのメモリを含む、掌サイズのエンパセティックコンピューティング装置を含んでよい。掌サイズのエンパセティックコンピューティング装置は、イベントの識別に応答してモードに入り、モードを示す視覚応答を提供するように構成されてよい。イベントは、ユーザの掌サイズのエンパセティックコンピューティング装置への近接、ユーザの自然なアクション、ユーザの掌サイズのエンパセティックコンピューティング装置との対話、又はその組合せに基づいてよい。
いくつかの実施例では、視覚的な表現は光の表現を含んでよい。
いくつかの実施例では、ユーザ対話は、タッチすること支えること、部分的に掴むこと、完全に掴むこと、握りしめること、又はその組合せを含む。
いくつかの実施例では、掌サイズのエンパセティックコンピューティング装置は、イベントが終結することに応えてイベントと関連付けられたデータを記憶するようにさらに構成されてよい。
いくつかの実施例では、モードは初期モードであってよく、掌サイズのエンパセティックコンピューティング装置は、イベントに重みを付けて、重み付けされたイベントを提供し、重み付けされたイベント及び初期モードに基づいて重み付けモードに入るようにさらに構成されてよい。
実施例の方法が本明細書に開示され、ユーザとインターフェースで接続するための方法を含む。実施例の方法は、ユーザデータの第1のセットを受け取ることと、ユーザデータの第1のセットに基づいてイベントを識別することと、イベントに基づいて初期モードを選択することと、照明装置を使用し、初期モードに基づいてユーザに第1の応答を提供することと、ユーザデータの第2のセットを受け取ることと、ユーザデータの第2のセットに基づいてイベントに重みを付けて、重み付けされたイベントを提供することと、重み付けされたイベント及び初期モードに基づいて重み付けモードを選択することと、照明装置を使用し、重み付けされたイベントに基づいてユーザに第2の応答を提供することとを含んでよい。
いくつかの実施例では、方法は、さらに、ユーザデータをフィルタにかけることを含んでよい。
いくつかの実施例では、ユーザデータに基づいてイベントを識別することは、ユーザデータに対して特徴抽出を実行することを含んでよい。
いくつかの実施例では、照明装置を使用し、初期モードに基づいてユーザに第1の応答を提供することは、聴覚応答を提供することを含んでよい。
いくつかの実施例では、重み付けされたイベントは第1の重み付けされたイベントであってよく、方法はさらに、ユーザデータに基づいてイベントに重みを付けて、第2の重み付けされたイベントを提供することと、第2の重み付けされたイベントに基づいてユーザに第3の応答を提供することとを含んでよい。
いくつかの実施例では、方法は、イベントに関連付けられたデータを記憶することをさらに含んでよい。
いくつかの実施例では、ユーザデータに基づいてイベントを識別することは、データモデルにユーザデータを比較することを含んでよい。
いくつかの実施例では、ユーザデータに基づいてイベントに重みを付けて、重み付けされたイベントを提供することは、イベントの持続時間に基づいてイベントに重みを付けることを含んでよい。
本発明の一実施形態にかかるエンパセティックコンピューティングシステムの概略図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の側面図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の平面図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置の分解斜視図である。 本発明の一実施形態にかかるエンパセティックコンピューティング装置のブロック図である。 本発明の一実施形態に従ってユーザとインターフェースで接続するための方法のフローチャートである。 本発明の一実施形態にかかるエンパセティックコンピューティング装置によって実行されてよいプロセスフローの概略ブロック図である。
上述されたように、かかる対話の使用は比較的に伝統的であるかもしれないが、コンピュータと対話するための根本的に新しくかつ異なった技法及びシステムが所望されることがある。かかる技法及びシステムは、従来の対話が、効果的又は望ましくなるためには面倒すぎる、気が散りすぎる、及び/又は、人間味がなさすぎることが判明することがある人の生活の態様を記念することを対象にしたアプリケーションで特に評価され得る。
例えば、自身の心理状態に注意を向けようと試みることが、自己認識を高める上での初期のステップであることは広く知られている。毎日の活動に注目する、毎日の活動を評価する、及び/又は、毎日の活動から学習する単純な行為が、人の自分自身の振る舞いについての自覚を深めるプラス効果を生じさせることがある。手短に言えば、自己認識により、ユーザはより幅広い欲求及び目標に集中できるようになる。高まった自己認識を毎日の生活における絶え間ない努力により維持することが注意深さを育て、それが今度は何か新しいことに気付き、さらに自己認識を向上させるより多くの機会を提供する。
しかしながら、注意深さの習慣は瞬時には身につかず、自身を反映し、自身を見直す絶え間ない努力と継続的な努力の両方を必要とする。日々のかかる省察を容易にするために、日記を付ける、内省の儀式を行う、及び指導者による自助練習を実施することなどの多くの実績がある手法がある。
注意深さを達成するための機会は毎日の生活の細部に豊富にあるが、大部分は見過ごされている、気付かれない、及び/又は忘れられている。あらゆる瞬間をメモに取る、又は意識することも単に不可能である。パーソナルコンピュータ、スマートフォン、及び他のコンピューティング装置を使用する多くの努力が、毎日の生活でこれらの機会を捕え、それによって人が自分の活動を追跡する、自分の心的状態又は感情を分類する、又は後の検討のために瞬間を記録することができるようにすることを目指している。
ただし、これらの努力のどれもユーザの短い関心の長さにつきものの問題を効果的に克服していない。多くの場合、スマートフォンの画面にタッチすること、キーボードにテキストを入力すること、マウスを使用すること、又はインターフェースをナビゲートすることを含む、装置操作中に装置とインターフェースで接続することが、ユーザの注意を必要とし、ユーザの気を逸らすことは避けられないため、より深い実感を達成するための機会は無視される、又は忘れられる。特に、ユーザの関心を自身の内的な心理状態に向けさせる機会は一瞬しか続かず、比較的に小さな気を散らすことによってさえ容易に見失われる、又は無視される。
従来の方法での追加の問題は、経時的にユーザの努力を維持することであった。機会を捉えるための装置の反復的な操作の必要性は、この目的での装置の使用が、時間が経つにつれますます面倒に感じられることがあるので、注意深さを求めるユーザのやる気を損なうことがある。機会を捉える努力は、多くの場合長続きせず、注意深さを求めることは、よりよい手法なくしては達成が困難になる。
したがって、本発明の実施形態は、かかるイベントをキャプチャするためにユーザに必要とされる努力を軽減しつつ、ユーザが自己認識及び注意深さの改善につながることがある機会を毎日の生活で捉えることができるようにしてよい。従来の手法とは対照的に、ユーザは、自然な人間の振る舞いに基づいた対話など、簡略かつ容易な対話を通じて装置とインターフェースで接続することによって自身の心理状態を容易にかつ持続的に認識し得る。
エンパセティックコンピューティングのための装置、システム、及び方法が本明細書に説明される。以下の説明及び図面に提供される、説明されている実施例の特定の詳細は、本発明の実施形態の十分な理解を提供するために以下に説明される。ただし、本発明の実施形態がこれらの特定の詳細がなくても実践され得ることが当業者に明らかになるだろう。例えば、本明細書に概して説明され、図面に示される本開示の態様は、多岐に渡る異なる構成で配置、置換、結合、分離、及び設計することができ、そのすべては本明細書に暗示的に予期される。いくつかの例では、周知の回路、制御信号、タイミングプロトコル、及びソフトウェア動作は、本発明を不必要に分かりにくくすることを避けるために詳細に示されていない。
図1は、本発明の実施形態にかかるエンパセティックコンピューティングシステム100のブロック図である。エンパセティックコンピューティングシステム100は、エンパセティックコンピューティング装置110、ユーザ120、及びコンピューティング装置130を含む。
エンパセティックコンピューティング装置110は、エンパセティックインターフェースを使用してユーザ120と接続してよい。例えば、エンパセティックコンピューティング装置110は、従来の触覚入力装置(例えば、キーボード、マウス)を使用しなくても、又は通常よりもより少ない従来の触覚入力装置を使用し、ユーザ120とインターフェースで接続し得る。概して、エンパセティックインターフェースは、ユーザにより与えられる明示的なコマンドに依存するのではなく、むしろユーザ120の自然なアクション、及びユーザ120によるエンパセティックコンピューティング装置110とのユーザ対話に依存してよい。
動作中、エンパセティックコンピューティング装置110は、ユーザ120と関連付けられた1つ又は複数のイベントを識別し、識別されたイベント(複数の場合がある)に基づいて、選択的にユーザ120に応答を提供してよい、及び/又は特定の動作モードに入ってよい。いくつかの実施例では、エンパセティックコンピューティング装置110は、さらに、識別されたイベントをキャプチャ(例えば、記憶)してよい。図1にはただ1人のユーザ120だけが示されているが、エンパセティックコンピューティングシステム100は複数のユーザ120を含んでよく、エンパセティックコンピューティング装置は複数のユーザ120の内の1人又は複数と関連付けられたイベントを識別し、識別されたイベントに基づいて複数のユーザ120の内のそれぞれに選択的に応答を提供してよい。
エンパセティックコンピューティング装置110は、エンパセティックコンピューティング装置110に含まれる1台又は複数のセンサを使用し、データを生成してよい。データは、近接センサ(例えば、受動型赤外線センサ)、加速度計、羅針盤、ジャイロスコープ、光センサ、タッチセンサ、熱センサ、圧力センサ、及びバロメータを含むが、これに限定されるものではないセンサを使用して生成されてよく、さらに、通信装置(例えば、無線イーサネット(登録商標)装置、ブルートゥース(登録商標)装置)、カメラ、及びマイクなどの多様な装置を使用して生成されてよい。エンパセティックコンピューティング装置110は、さらに、1つ又は複数のフィルタを使用しデータをフィルタにかけて、データに基づいてイベントを識別する前にデータを修正してよい。概して、エンパセティックコンピューティング装置110は、個人データを生成するためにユーザ120を観察してよく、さらに環境データを生成するためにユーザ120の環境を観察してよい。かかるデータは本明細書ではユーザデータと累積的に呼ばれてよく、イベントを識別する、及び/又は選択的に応答を提供するために使用されてよい。
いくつかの実施例では、エンパセティックコンピューティング装置110は、ユーザデータを記憶するための1台又は複数の不揮発性メモリデバイス(例えば、フラッシュメモリ、PCMメモリ)を含んでよい。任意選択で、不揮発性メモリデバイスは、マイクロSDメモリカードなどのリムーバブルの不揮発性メモリデバイスであってよい。さらに、又は代わりに、エンパセティックコンピューティング装置110は、コンピューティング装置130にデータを記憶してよい。エンパセティックコンピューティング装置110は、ネットワーク(例えば、LAN、WLAN)上で、又は他のデータ転送方法を使用してコンピューティング装置130にデータを提供してよい。データは、リアルタイムで記憶されてよい、又は周期的に記憶されてよい。
ユーザデータに基づいて、エンパセティックコンピューティング装置110は、イベントを識別してよい。イベントを識別することは、ユーザ120の自然なアクションを識別することを含んでよい。本明細書にさらに説明されるように、ユーザ120の自然なアクションは、笑うこと、話すこと、歩くこと、顔の表情を作ること(例えば、微笑むこと、顔をしかめること)、又はその組合せを含むことがあるが、これに限定されるものではない。イベントを識別することは、さらにユーザ120によるエンパセティックコンピューティング装置110とのユーザ対話を識別することを含んでよい。いくつかの例では、例えば、エンパセティックコンピューティング装置110は、ユーザ120の近接を決定するだけではなく、エンパセティックコンピューティング装置110が、ユーザ120によって、タッチされているのか(例えば、平らな掌で又は曲げられた掌で)、支えられているのか、部分的に掴まれているのか、完全に掴まれているのか、握りしめられているのか、それともその組合せなのかを区別してもよい。エンパセティックコンピューティング装置110は、さらに、場所、天気、温度、時間、周囲明るさ、及び周囲騒音などのユーザ120の環境要因を識別してよい。
1つ又は複数のイベントが識別された後、エンパセティックコンピューティング装置110は、ユーザ120に応答を提供してよい、及び/又は、特定の動作モードに入ってよい。概して、エンパセティックコンピューティング装置110は、ユーザ120に視覚応答、聴覚応答、及び/又は、振動応答を提供してよい。視覚応答は、1つ又は複数の色及び/又は順序の光パターンを使用して提供されてよい。例えば、エンパセティックコンピューティング装置110は、笑顔を模倣するために半円形の形状を有する光パターンを生成してよい。別の実施例では、エンパセティックコンピューティング装置110は、エンパセティックコンピューティング装置110が保持されていることを示すために円形の形状を有するパターンを生成してよい。聴覚応答は、スピーカ又は他の音発生の機構を使用して生成されてよく、多様な別々の音及びトーンを含んでよい。聴覚応答はスピーカを使用し、提供されてよく、実質的に任意の周波数、振幅、又はパターンの音を含むことがある。例えば、エンパセティックコンピューティング装置110は、上昇音調又は下降音調を模倣する、ピッチが変化する音を生成することもあれば、人間によって生成される1つ又は複数の特定の音(例えば、笑い声)を真似る音を生成することもある。振動応答は、振動機モーター又は圧電作動式振動機を使用して提供されてよく、任意の(静かに又は聞こえるように)揺する、震えさせる、又は振動させるやり方を含んでよい。例えば、エンパセティックコンピューティング装置110は、ユーザ120がエンパセティックコンピューティング装置110に近づくのに応えて比較的に長い振動を生じさせてよく、ユーザ120がエンパセティックコンピューティング装置110にタッチするのに応えて比較的に短い振動を生じさせてよい。別の実施例では、エンパセティックコンピューティング装置110は、エンパセティックコンピューティング装置の向きが調整されるように振動を生じさせてよい。エンパセティックコンピューティング装置は、例えば、エンパセティックコンピューティング装置110が右回りに回転する、左回りに回転する、転がる、前後又は左右に動く、及び/又は摺動するように振動を生じさせてよい。かかる動きは、人間によって生成される1つ又は複数の動き(例えば、会釈すること)を真似る動きを生じさせるために使用されてよい。いくつかの例では、エンパセティックコンピューティング装置110は、エンパセティックコンピューティング装置110のカメラがユーザ120に向けられるように振動してよい。このようにして、エンパセティックコンピューティング装置110は、少なくともある程度は、ユーザ120を「見る」こと、及び/又はユーザ120の表情を決定することによって応答を提供してよい。
エンパセティックコンピューティング装置110がどのように応答するのかは、1つ又は複数のモードに従って決定されてよい。識別されたイベントに基づいて、エンパセティックコンピューティング装置110はモードを選択してよく、選択されたモードに基づいて、ユーザ120に応答を提供してよい。例として、エンパセティックコンピューティング装置110は、ユーザ120がエンパセティックコンピューティング装置110にタッチしたために第1のモードに入ってよく、ユーザ120がエンパセティックコンピューティング装置110を握りしめたために第2のモードに入ってよい。第1のモードで、エンパセティックコンピューティング装置110は第1の応答(例えば、光パターン)を提供してよく、第2のモードで、エンパセティックコンピューティング装置110は、第2の応答(例えば、振動)を提供してよい。エンパセティックコンピューティング装置110は、リアルタイムでイベントを識別し得るため、エンパセティックコンピューティング装置110は、リアルタイムでモードを変更してよい、及び/又は、応答を提供してよい。いくつかの例では、エンパセティックコンピューティング装置110は、ユーザ120と関連付けられた同時発生のイベントを識別してよい。例えば、ユーザ120は、エンパセティックコンピューティング装置110にタッチしながら笑うことと話すことを交互に行い、又は、逆に話している間にエンパセティックコンピューティング装置110がどのように保持されるのを変更してよい。したがって、エンパセティックコンピューティング装置110は、同時に識別されたイベントに基づいてモードを選択してよい。
いくつかの実施例では、エンパセティックコンピューティング装置110は、識別されたイベントに重みを付け、重み付けされたイベントに基づいてモードを選んでよい。イベントの重みは、イベントのタイプ、及び/又は、イベントの特徴に基づいてよい。例えば、話しているユーザ120を対象にしたイベントは、音量、明瞭さ、持続時間、及び/又は、イベントの間のユーザ120の話の文脈に基づいて重み付けされてよい。
このようにして、エンパセティックな接点がユーザ120とエンパセティックコンピューティング装置110との間で達成されてよい。光、音、振動などのパターンで応答し、ユーザ120の自然な動きに反応することによって、ユーザ120とエンパセティックコンピューティング装置110との間に人間化された繋がりが形成されてよく、有利なことに、それが120と装置110との間のやり取りを楽しく、かつ容易にし得る。
図2a及び図2bは、それぞれ、本発明の一実施形態にかかるエンパセティックコンピューティング装置200の側面図及び平面図である。エンパセティックコンピューティング装置200は、図1のエンパセティックコンピューティング装置110を実現するために使用されてよい。エンパセティックコンピューティング装置200は、上部202、下部204、カメラ205、及び赤外線センサ206を含んでよい。
概して、エンパセティックコンピューティング装置200は、比較的に球面形状を有する携帯型ハンドヘルドデバイスであってよい。エンパセティックコンピューティング装置200は、ユーザ120が片手を使用してエンパセティックコンピューティング装置を保持する(例えば、掴む)ことができるように掌サイズであってよい。例えば、掌サイズの装置はユーザの掌にあり、掌の中に納まるような大きさに作られてよい。サイズはさらに、掌にあるときに、ユーザが実質的に装置全体の上で指を曲げることができるような大きさであってよい。例として、図2aを参照すると、エンパセティックコンピューティング装置は、43.5mmの高さを有してよく、図2bを参照すると、エンパセティックコンピューティング装置200は56mmの幅を有してよい。他の実施例では、エンパセティックコンピューティング装置200は他の高さ及び幅を有してよい。エンパセティックコンピューティング装置のエンクロージャは、任意の色、テクスチャ、及び/又は、組織を有してよい。
上部202及び下部204は、エンパセティックコンピューティング装置200のエンクロージャを形成してよい。いくつかの実施例では、上部202及び下部204は互いに係止して、エンクロージャを形成してよく、ボタン(不図示)を使用して分離されてよい。上部202の形状は実質的に半球形であってよく、下部204の形状は、エンパセティックコンピューティング装置200が比較的に水平な表面に載せられたときに静止位置を維持できるように、実質的に半楕円形であってよい。他の実施例では、上部202及び下部204は異なる形状を有してよい。例えば、いくつかの例では、上部202及び下部204の形状は実質的に六面体(例えば、矩形六面体)であってよい。
上部202は、上部202の中に及び/上部202の中から光が通るように部分的に又は完全に半透明であってよい。このようにして、視覚応答は、例えば、エンパセティックコンピューティング装置200に含まれる複数のLEDを使用してユーザ120に提供されてよい。下部204は、実質的に不透明であってよい。さらに詳しく説明されるように、下部204は、生成されたユーザデータに使用される1台又は複数のセンサなどの、エンパセティックコンピューティング装置200の1つ又は複数の構成部品を含んでよい。
半透明の上部202を有することによって、ユーザ120は、装置110によって提供される多様な光パターンを区別し、それにより特定の光パターンを特定の応答に結び付けることができることがある。部分的に半透明の上部202を有することによって、ユーザ120は、装置110によって作られる光パターンを見ることができるが、装置110内部の個々の光源又は電子部品を明確に識別し得ない。このようにして、ユーザ120は、電子部品が見えなくされ、装置を人間化するという点で装置とのより個人的な繋がりを形成し得る。
いくつかの実施例では、上部202及び/又は下部204は、エンパセティックコンピューティング装置200の動作を容易にするために使用され得る1つ又は複数のボタン(不図示)を含んでよい。例えば、少なくとも1つの実施形態で、下部204は、エンパセティックコンピューティング装置200をオン及びオフにすること、エンパセティックコンピューティング装置200を再起動すること(例えばリブートすること)、及び/又はエンパセティックコンピューティング装置200を更新することなどの多様な機能を実行するためのボタンを含んでよい。このように含まれるボタンは触覚型であることもあれば、タッチセンシティブであることもある。
図2cは、本発明の一実施形態にかかるエンパセティックコンピューティング装置200の斜視図である。示されているように、エンパセティックコンピューティング装置200は掌サイズの装置であってよく、ユーザ120が片手を使用してエンパセティックコンピューティング装置200を保持できるようにする。図2cで、エンパセティックコンピューティング装置200は部分的に掴まれているとして示されているが、エンパセティックコンピューティング装置200は代わりにユーザ120によって触られてよい、ユーザ120の掌によって支えられてよい、ユーザ120の片手を使用して完全に掴まれてよい、又は、エンパセティックコンピューティング装置200が両手によって実質的に包まれるようにユーザ120の両手を使用して握りしめられてよいことが理解される。上述のアクションのそれぞれが、装置に特定の応答を提供させてよい、又は、装置を特定のモードに入らせてよい。
図3aは、本発明の一実施形態にかかるエンパセティックコンピューティング装置300の斜視図である。エンパセティックコンピューティング装置300は、図2aから図2cのエンパセティックコンピューティング装置200を実現するために使用されてよい。エンパセティックコンピューティング装置300は、図2aから図2cのエンパセティックコンピューティング装置200に関して上述された要素を含む。それらの要素は、図2で使用される同じ参照番号を使用して本明細書で示され、共通の要素の動作は上述されている。その結果、これらの要素の動作の詳細な説明は、簡略にするために繰り返されない。
図3bは、本発明の一実施形態にかかるエンパセティックコンピューティング装置300の斜視図である。図3aと比較してエンパセティックコンピューティング装置300の上部202が図示されていない。示されているように、エンパセティックコンピューティング装置300は、光学デバイス310を含む。光学デバイス310は、拡散器、ビームスプリッタ、及び/又は、一方向から見える鏡であってよく、本明細書にさらに説明される下部204の内部に位置する1つ又は複数の構成部品によって提供される光を調整してよい。光学デバイス310は、すりガラス拡散器、テフロン(登録商標)拡散器、ホログラフィック拡散器、乳白ガラス拡散器、つや消しガラス拡散器、プリズム、及び、半透鏡を含む、既知の任意の光調整装置であってよい。光学デバイス310を使用することによって、装置110によって提供される光は分割されてよい、散乱されてよい、及び/又は、「軟化されて」よく、それによって装置110の個々の光源の認識を弱める。光学デバイス310は、さらに、装置110内部の1つ又は複数の電子部品を、例えば周囲光を反射することによってユーザ120から隠してよい。このようにして、光学デバイス310は、装置110をさらに人間化してよい。
図3cは、本発明の一実施形態にかかるエンパセティックコンピューティング装置300の斜視図である。図3bと比較してエンパセティックコンピューティング装置300の光学デバイス310が図示されていない。示されているように、エンパセティックコンピューティング装置300は、複数の赤外線センサ306及びインターフェースボード315を含んでよい。
赤外線センサ306のそれぞれは、ユーザ120のエンパセティックコンピューティング装置300に対する近接を決定してよく、受動型赤外線センサなどの技術で既知の任意の赤外線センサであってよい。示されているように、いくつかの実施例では、赤外線センサ306は、エンパセティックコンピューティング装置300の外周の回りに配置されてよい。他の実施例では、赤外線センサ306は、エンパセティックコンピューティング装置300の他の位置に位置してよい。
インターフェースボード315は、発光ダイオード(LED)320などの複数の発光素子を含んでよい。LED320のそれぞれは光学デバイス310及び上部202を通して光を提供して、ユーザ120に視覚応答の光パターンを提供してよい。LED320のそれぞれは、任意の輝度及び/又は色を有する光を提供してよい。LED320は、特定のパターン(例えば、螺旋形)で配列されているとして示されているが、グリッドなどの任意の所望されるパターンでインターフェースボード315の内部に配列されてよい。インターフェースボード315は、本明細書にさらに詳しく説明される(図4を参照)。
図3dは、本発明の一実施形態にかかるエンパセティックコンピューティング装置300の斜視図である。図3cと比較してインターフェースボード315が図示されていない。示されているように、エンパセティックコンピューティング装置300は、電池330及びタッチセンサ332を含んでよい。電池330は、例えば技術で既知の充電式電池を含む任意の電池であってよく、電力を蓄積し、エンパセティックコンピューティング装置300の多様な構成部品に電力を提供してよい。
タッチセンサ332は、エンパセティックコンピューティング装置300の周りに外周方向に配置されたタッチセンサベルトを含んでよく、ユーザ120が、タッチセンサ332が配置されるエンパセティックコンピューティング装置300のいずれかの部分にタッチするときを検出してよい。タッチセンサ332は、容量性、抵抗性、圧電性、又はその組合せであってよい。
図3eは、本発明の一実施形態にかかるエンパセティックコンピューティング装置300の分解斜視図である。図3dと比較して電池330が図示されていない。示されているように、タッチセンサ332はタッチパッド308を含んでよい。タッチパッド308は、タッチパッド308の中心から放射状に伸長する複数の放射状の電極線を含んでよく、エンパセティックコンピューティング装置300が、テーブル又はユーザ120の掌などの表面によって支えられているかどうかを判断してよい。いくつかの実施例では、赤外線センサ306は、タッチセンサ332のタッチセンサベルトに沿って周期的に配置されてよい。
図4は、本発明の一実施形態にかかるエンパセティックコンピューティング装置400のブロック図である。エンパセティックコンピューティング装置400は、図3aから図3eのエンパセティックコンピューティング装置300を実現するために使用されてよい。エンパセティックコンピューティング装置400は、インターフェースボード410、電力領域430、及び制御盤450を含んでよい。説明されるように、インターフェースボード410、電力領域430、及び制御盤450のそれぞれは、エンパセティックコンピューティング装置400の下部に位置してよい。
インターフェースボード410は、インターフェースボード410の1つ又は複数のセンサからユーザデータを受け取ってよいコントローラ412を含んでよい。例えば、コントローラ412は、羅針盤/加速度計418、ジャイロスコープ420、周囲光センサ422、タッチセンサ424、及び、赤外線センサ426に結合されてよく、羅針盤/加速度計418、ジャイロスコープ420、周囲光センサ422、タッチセンサ424、及び、赤外線センサ426からデータを受信してよい。各センサは各データをコントローラ412に提供しうる。データが、本明細書に説明されるようにユーザ120と関連付けられた1つ又は複数のイベントを識別するために使用され得るように、コントローラ412は同様にプロセッサ452にデータを提供してよい。いくつかの実施例では、コントローラ412は、プロセッサ452にデータを提供する前にセンサから受け取られたデータをフィルタにかけてよい、及び/又はそれ以外の場合修正してよい。
説明されるように、タッチセンサ424が、ユーザ120が図1のエンパセティックコンピューティング装置110などのエンパセティックコンピューティング装置にタッチしているかどうかを判断するために使用されてよい。いくつかの実施例では、羅針盤/加速度計418及びジャイロスコープ420が、追加的に又は代わりに、ユーザ120がエンパセティックコンピューティング装置にタッチしているかどうかを判断するために使用されてよい。ジャイロスコープ420は、例えば、ユーザ120がエンパセティックコンピューティング装置110にタッチした結果、エンパセティックコンピューティング装置110が傾いたことを示す信号を提供してよい。このようにして、エンパセティックコンピューティング装置110は、タッチセンサ424が配置されるエンパセティックコンピューティング装置の部分にユーザ120がタッチしていなくても、ユーザ120がエンパセティックコンピューティング装置にタッチしているかどうかを判断してよい。いくつかの実施例では、エンパセティックコンピューティング装置110が前後に動く周波数が、ユーザ120がエンパセティックコンピューティング装置110にどのようにタッチしたのかを決定するために使用されてよい。例えば、(揺れがより大きいための)より低い周波数がより力強いタッチを示すことがある。
インターフェースボード410はさらに、ユーザ120に視覚応答を提供してよいLEDドライバ416及びLED414を含んでよい。例えば、コントローラ412は、LEDドライバ416にLED414の内の1つ又は複数を点灯させて、特定の視覚応答の指定された光パターンを提供させてよい。インターフェースボード410はさらに、ユーザ120に聴覚応答を提供してよいスピーカ428を含んでよい。聴覚応答は、以下にさらに詳しく説明される音声制御論理回路470から受信される1つ又は複数の音声信号に基づいてよい。
電力領域430は、インターフェースボード410と制御盤450との間に位置し、ボードコネクタ432及び電池434を含んでよい。ボードコネクタ432は、インターフェースボード410及び制御盤450のそれぞれの構成部品の間でデータを提供してよい。例えば、ボードコネクタ432は、音声制御論理回路470からスピーカ428に信号を提供してよい。明確にするために、ボードコネクタ432によって提供される特定の接続は図4に図示されていない。電力領域430はさらに電池434を含んでよい。電池434は電力を蓄えてよい、及び/又は、電力をエンパセティックコンピューティング装置400の1つ又は複数の構成部品に電力を提供してよい。
制御盤450はプロセッサ452を含んでよい。概して、プロセッサ452は、エンパセティックコンピューティング装置400の動作を管理してよく、エンパセティックコンピューティング装置が本明細書に説明されるように動作できるように、不揮発性メモリ456に記憶されている1つ又は複数のコンピュータ可読命令を実行してよい。
プロセッサ452は、制御盤450の装置の内の1つ又は複数からデータを受け取ってよい。例えば、プロセッサ452は、カメラ458、ネットワーク装置466、無線ネットワーク装置468、及び/又は、音声制御論理回路470からデータを受け取ってよい。カメラ458は、ユーザ120の顔の表示又は自然なアクションなどのユーザ120と関連付けられた視覚的なデータを提供してよい。ネットワーク装置466は、USBネットワーク又はイーサネット(登録商標)ネットワークなどの1つ又は複数の有線ネットワークと通信してよく、無線ネットワーク装置468は1つ又は複数の無線ネットワークと通信してよい。したがって、ネットワーク装置466及び/又は無線ネットワーク装置468は、プロセッサ452が、有線ネットワーク又は無線ネットワークを使用して1つ又は複数の外部装置と通信できるようにする。いくつかの実施例では、ネットワーク装置466及び/又は無線ネットワーク装置468は、エンパセティックコンピューティング装置400の位置を決定するために使用されてよい。音声制御論理回路470は1つ又は複数のマイク472に結合されてよく、ユーザ120と関連付けられた音声データ(例えば、声データ)を受け取ってよい。音声制御論理回路470は、プロセッサ452に音声データを提供し、プロセッサ452から音声データを受け取ってよい。音声データはマイク472からプロセッサ452に提供されてよく、プロセッサ452からスピーカ428に提供されてよい。いくつかの実施例では、音声制御論理回路470は、1つもしくは複数のアナログデジタルコンバータ及びデジタルアナログコンバータを含んでよい、ならびに/又は1つもしくは複数の音声フィルタもしくはコーデックをさらに含んでよい。
制御盤450はさらに、ユーザ120に振動応答を提供してよい振動機478を含んでよい。例えば、プロセッサ452は、振動機478を振動応答中に特定のやり方で振動させてよい。
制御盤450は、誘導電荷モジュール460、充電制御論理回路462、及び、電力管理制御論理回路464、を含む電力回路網を含んでよい。充電シーケンス中、誘導電荷モジュール460は、充電マット又は充電ポート(不図示)などの外部装置に結合され、充電マットから電荷を受け取ってよい。誘導電荷モジュール460は、充電制御論理回路462に電荷を提供してよい。同様に、充電制御論理回路462は電池434を充電してよい。電池434が完全に充電されているとき、又は誘導電荷モジュール460がもはや外部装置に結合されていないときのどちらかに、充電制御論理回路462は充電シーケンスを終了してよい。電力管理制御論理回路464は、エンパセティックコンピューティング装置400の構成部品への電力の割当てを管理してよい。いくつかの実施例では、エンパセティックコンピューティング装置は、電磁誘導充電用のコイル(不図示)を含んでよい。コイルは、図3のタッチパッド308などのタッチパッドと(例えば、上又は下に)積み重ねられてよい。充電シーケンス中、コイルは渦電流を経験することがあり、タッチパッド308はコイルと積み重ねられているため、タッチパッド308も渦電流を経験することがある。説明されるように、タッチパッド308は複数の放射状の電極線を含んでよいため、タッチパッド308は渦電流から生じる誘導加熱を最小限に抑えてよい。例えば、タッチパッド308の放射状の電極線のそれぞれはコイルの隣接部分に垂直であってよく、この点で、渦電流の誘導、及び渦電流の誘導から生じる誘導加熱を最小限に抑えてよい。少なくとも1つの実施例で、タッチパッド308の形状は実質的に円形であってよい、及び/又は、タッチパッドの形状が三つ葉、四つ葉、五つ葉、及び/又は、クローバに実質的に類似するように1つ又は複数の穿孔を含んでよい。
いくつかの実施例では、エンパセティックコンピューティング装置400は、エンパセティックコンピューティング装置400のモードに従って1つ又は複数の構成部品を選択的に有効にしてよい。このようにして、エンパセティックコンピューティング装置400は、電力使用の効率を高めてよい。例として、エンパセティックコンピューティング装置400は、ユーザ120が近接していないと判断し、対応するモードに入ってよい。これに応えて、プロセッサ452は低電力動作(例えば、スリープモード)に入ってよい。少なくとも1つの実施形態では、電力管理制御論理回路464は、例えば、ユーザ120が特定の時間量の間エンパセティックコンピューティング装置400に近接していないことに応えて、プロセッサ452を低電力動作に入らせてよい。プロセッサ452が低電力動作中、コントローラ412、及び赤外線センサ426又はマイク472などのエンパセティックコンピューティング装置の1つ又は複数のセンサが動作し続けてよい。ユーザ120がエンパセティックコンピューティング装置400に近接であることを検出した1台又は複数のセンサに応えて、プロセッサ452は低電力動作を終了し、ユーザデータの処理を開始してよい。
いくつかの実施例では、エンパセティックコンピューティング装置400の他の特徴及び/又は構成部品も選択的に有効化されてよい。例えば、音声分析は、エンパセティックコンピューティング装置400がユーザ120の手にあるかどうかに基づいて(プロセッサ452によって)選択的に有効化されてよい。別の実施例では、カメラ458が、ユーザ120がエンパセティックコンピューティング装置400に近接しているかどうか、及び/又はエンパセティックコンピューティング装置400がユーザ120の顔に近いかどうかに基づいて選択的に有効化されてよい。
いくつかの実施例では、エンパセティックコンピューティング装置400は、エンパセティックコンピューティング装置400が充電中であるかどうかに基づいてモードを選択してよい。これに応えて、エンパセティックコンピューティング装置400は、エンパセティックコンピューティング装置400の1つ又は複数の特徴及び/又は構成要素を選択的に有効化してよい。例えば、エンパセティックコンピューティング装置400は、充電時、1つ又は複数の利用可能な無線ネットワークに接続されたままでよい。追加的に又は代わりに、エンパセティックコンピューティング装置400は、充電時、図1のコンピューティング装置130などのコンピューティング装置にデータを転送してよい、及び/又はバックアップしてよい。
いくつかの実施例では、インターフェースボード410及び制御盤450はそれぞれ集積回路であってよく、したがってインターフェースボード410及び制御盤450のそれぞれの構成部品は統合されてよい。他の実施例では、1つ又は複数のそれぞれの構成部品は、インターフェースボード410及び制御盤450のどちらにも統合されないことがある。さらに、特定の構成部品がインターフェースボード410、電力領域430、又は制御盤450に位置するとして説明されているが、他の実施形態で、エンパセティックコンピューティング装置400の構成部品が他の構成で配置されてよいことが理解される。羅針盤/加速度計418及び/又はジャイロスコープ420は、例えば、制御盤450に含まれてよい、及び/又は、音声制御論理回路470はインターフェースボード410に位置してよい。
説明されるように、装置110は、1つ又は複数の識別されたイベントに基づいて動作中に1つのモードもしくは複数のモードに入ってよい、及び/又は、1つモードもしくは複数のモード間で遷移してよい。このようにして、多くの例では、装置110はユーザ120の装置110との対話に基づいてモードに入ってよい。実施例のモードは、プレイモード、ウィッシュモード、フィールモード、お気に入りモード、スマイルモード、及び/又は1つもしくは複数の近接モードを含んでよい。装置110は、ユーザ120の掌にあるとき、プレイモードに入ってよい。装置110は、ユーザ120が話し中であり、装置110がユーザ120の顔の近くで掌の上で支えられているときにウィッシュモードに入ってよい。装置110は、ユーザ120が装置110を完全に掴んでいるときフィールモードに入ってよい。装置110は、平らな表面(例えば、テーブル)上で支えられ、ユーザ120によってタッチされているときにお気に入りモードに入ってよい。装置110は、ユーザ120が笑っていて、装置110が平らな表面の上で支えられているときスマイルモードに入ってよい。近接モードは、ユーザ120の装置110に対する近接に基づいた多様なモードを含んでよい。例として、装置110は、ユーザ120に近いときに第1の近接モードに入り、ユーザ120によって部分的に掴まれているときに第2の近接モードに入り、ユーザによって握りしめられているときに第3の近接モードに入ってよい。モードの上記の実施例は、実施例としてのみ提供され、他の実装が使用され得ることが理解される。
図5は、本発明の一実施形態に従ってユーザと対話するための方法500のフローチャートである。方法500は、図1のエンパセティックコンピューティング装置110などの本明細書に説明されるエンパセティックコンピューティング装置によって実行されてよい。ステップ505で、装置110はユーザ120と関連付けられた1つ又は複数のイベントを識別してよい。説明されるように、イベントを識別することは、ユーザ120の自然なアクション、及び/又は、エンパセティックコンピューティング装置110とのユーザ対話を識別することを含んでよい。自然なアクションは、笑うこと、話すこと、瞬きすること、顔の表情を作ること(例えば、微笑むこと、顔をしかめること)、又はその組合せを含んでよく、ユーザ対話はユーザ120の近接を含み、ユーザ120が装置110にタッチしているのか、(例えば、平らな掌又は曲げられた掌の上で)支えているのか、部分的に掴んでいるのか、完全に掴んでいるのか、及び/又は握りしめているのかを区別してよい。イベントは、装置110によって生成されるユーザデータに基づいて識別されてよい。
いくつかの実施例では、イベントは、以下の自然なアクション及び/又はユーザ対話のいずれかを含んでよい。イベントは、ユーザ120が特定の期間装置110に近づく及び/又は装置110の近くに留まること、装置110から離れていくこと、別の人間及び/又は装置110と話をすること、笑うこと、音声の特定のトーンを使用すること、装置110を持ち上げること、運ぶこと、回すこと、タッチすること、揺らすこと、支えること、鉛直に挟むこと、水平に挟むこと、覆うこと、握りしめること、落とすこと、つかまえること、掴むこと、放すこと、押すこと、保持すること、装置110をもって歩行すること、充電マットから装置110を外すこと及び/又は戻すこと、装置110をもって家を出ること及び/又は帰宅すること、暗い環境(例えば、財布又はポケット)に装置110を入れること、装置を見ること、ユーザ120の顔及び/又は胴の近くに装置110をもっていくこと、並びに/若しくは、例えば肘を伸ばすことによってユーザ120の体から装置110を離して保持すること、を含んでよい。イベントは、周囲の光の増加又は減少を更に含んでよい。
いったん1つ又は複数のイベントが識別されると、ステップ510で、装置110は識別されたイベントに基づいて動作モードを選択して(入って)よい。例として、装置110は、ユーザ120が装置110を掴んだことに応えてフィールモードに入ってよい。説明されるように、モードは、プレイモード、ウィッシュモード、フィールモード、お気に入りモード、スマイルモード、及び1つ又は複数の近接モードを含んでよい。他のモードも利用可能であってよく、説明されるモードは実施例として提供されることが理解される。
ステップ515で、エンパセティックコンピューティング装置110は、選択されたモードに基づいてユーザ120に応答を提供してよい。説明されるように、応答は視覚的、聴覚的、及び/又は振動であってよい。例えば、フィールモードに入った後、装置110は、フィールモードに関連付けられたユーザ120に特定の光パターンを提供してよい。
図6は、本発明の一実施形態にかかるエンパセティックコンピューティング装置によって実行されてよいプロセスフロー600の概略ブロック図である。プロセスフロー600は、図1のエンパセティックコンピューティング装置110などのエンパセティックコンピューティング装置によってそれぞれ実行されてよい複数の機能ブロックを含んでよい。
フィルタ602は、エンパセティックコンピューティング装置の1台又は複数のセンサから提供されるユーザデータを受け取り、例えば前プロセス動作中にユーザデータをフィルタにかけてよい。フィルタは、低域通過フィルタ、高域フィルタ、バンドパスフィルタ、移動平均フィルタ、ゼロ交差フィルタ、変換フィルタ(例えば、FFTフィルタ)、クラスラベルフィルタ、クラスラベルタイムアウトフィルタ、又は、その組合せ、を含むが、これに限定されるものではない信号処理フィルタを含んでよい。いくつかの実施例では、フィルタ602は、フィルタにかけられたユーザデータをリアルタイムで提供してよい。
いったんフィルタにかけられると、ユーザデータは、初期モードの選択のために特徴抽出ブロック604及び弁別子ブロック606に提供されてよい。例えば、特徴抽出ブロック604はユーザデータを受け取り、ユーザデータに対して特徴抽出を実行してよい。特徴抽出を実行することは、ユーザデータの部分を選択的に削除することによって、ユーザデータを特徴データに変換してよい。特徴抽出を実行する上で、特徴抽出ブロック604は外れ値及び冗長なユーザデータを破棄し、ユーザデータを正規化し、及び/又は1つ又は他の特徴抽出タスクを実行してよい。非線形次元縮退などの既知の特徴抽出方法に従って、特徴データはベクトル形式で提供されてよい。特徴データは、ユーザ120が装置110を保持すること、掴むこと、タッチすること、握りしめること、又はそれ以外の場合装置110と対話することに関係するデータを含んでよい。特徴データはさらに、放棄すること、顔の表情を作ること、歩行すること、座ること、立つことを含むがこれに限定されるものではないユーザ120の1つ又は複数の自然な動きに関係するデータを含んでよく、さらにユーザ120の環境の1つ又は複数の態様に関係するデータを含んでよい。
弁別子ブロック606は、特徴抽出ブロック604から特徴データを受け取り、モデル616の1つ又は複数のイベントモデルと特徴データを比較してよい。特徴データ及びイベントモデルは、比較ベクトルを含んでよい。このようにして特徴データを比較することによって、イベントは識別されてよい。弁別子ブロック606は、例えば、ユーザ120が話していると判断してよい。エンパセティックコンピューティング装置110は、識別されたイベントに基づいて初期モードを選択し、初期モードに入ってよい。説明されるように、実施例のモードは、プレイモード、ウィッシュモード、フィールモード、お気に入りモード、スマイルモード、及び/若しくは、1つ又は複数の近接モードを含んでよい。
表現エンジン620は、弁別子ブロック606から初期モードを受け取り、初期モードに基づいて応答を提供してよい。いくつかの実施例では、表現エンジン620は、表現ライブラリ622の表現モデルに初期モードを比較してよい。比較に基づいて、表現エンジン620は応答を選択し、同応答を提供してよい。説明されるように、応答は、視覚的、聴覚的、及び/又は、振動であってよい。
ユーザデータは、重み付けモードの選択のために特徴抽出ブロック610及び弁別子ブロック612にも提供されてよい。例えば、いったんイベントが識別されると、特徴抽出ブロック610は、イベントの持続時間の間、識別されたイベントと関連付けられたユーザデータを受け取ってよく、さらに弁別子ブロック606によって選択された初期モードを受け取ってよい。特徴抽出ブロック610は、ユーザデータがイベントの間に受け取られるにつれ、ユーザデータに対して連続的に特徴抽出を実行してよい。特徴抽出ブロック610は、特徴抽出ブロック604と実質的に同様に特徴抽出を実行してよい。
弁別子ブロック612は、特徴抽出ブロック610から特徴データを受け取ってよく、特徴データに基づいて、重み付けモードを選択してよい。例えば、識別されたイベントは、特徴データに基づいて重み付けされてよい。重み付けされたイベントは、モデル614(例えば、空間モデル)のデータモデルに比較されてよく、識別されたイベントの重み付けに基づいて、エンパセティックコンピューティング装置110は、初期モードとは異なることがある重み付けモードを選択して(入って)よい。いくつかの実施例では、選択されたモードは初期モードに基づいてよい。例えば、1つ又は複数の重み付けモードは、エンパセティックコンピューティング装置110が特定の初期モードを有するときだけ選択されてよい。
イベントは、イベントと関連付けられた特長データによって示されるように、イベントの間のユーザ120に対するエンパセティックコンピューティング装置の「近さ」に従って重み付けされてよい。これは、イベント中のユーザ120、ユーザ120の顔、及び/又はユーザ120の体の近接、ユーザ120のエンパセティックコンピューティング装置110との対話、及び対話の持続時間、エンパセティックコンピューティング装置110の向き、ならびにエンパセティックコンピューティング装置110の安定性を含んでよい。例えば、エンパセティックコンピューティング装置110を掴んでいるユーザ120は、ユーザ120が比較的に短い時間量掴んでいるときに第1の量を重み付けされてよく、ユーザ120が比較的に長い時間量掴んでいるときに第2の量を重み付けられてよい。イベントは、イベントと関連付けられた特徴データによって示されるユーザ120の「コンテキスト」に従ってさらに重み付けられてよい。これは、ユーザ120の環境の周囲の騒音及び光の量だけではなく、ユーザ120の話の明瞭さ、複雑さ、持続時間、及びアーティキュレーションを決定することを含んでよい。例えば、周囲の騒音の音量がイベントの重み付けに影響を与えることがある。イベントは、さらに、ユーザ120のアクションの「連続性」、「恒常性」、及び/又は、「一貫性」に従って重み付けられてよい。ユーザ120のアクションはある期間にわたって追跡調査されてよいため、これはそれらのアクションの頻度、持続時間、及び/又は、受取りに従って重み付けすることを含んでよい。
表現エンジン620は、弁別子ブロック612から重み付けモードを受け取り、重み付けモードに基づいて応答を提供してよい。いくつかの実施例では、表現エンジン620は、表現ライブラリ622の表現モデルに重み付けモードを比較し、比較に基づいて応答を提供してよい。説明されるように、装置110によって提供される表現は、視覚的、聴覚的、及び/又は、振動であってよい。例えば、表現は、スパイラル、円形、半円形の曲線、螺旋形、矩形形状、星などの形状を模倣し、1つ又は複数の色を使用する多様な光パターンを含んでよい。
イベントの持続時間にわたって、イベントに関連付けられた特徴データは連続的に受け取られるため、識別されたイベントの重み付けも連続的に調整されてよい。したがって、複数の重み付けモードが、重み付けが連続的に調整されるにつれ、イベントの持続時間にわたって選択されてよい。いくつかの実施例では、表現エンジン620は、エンパセティックコンピューティング装置が特定のイベントにいくつかの応答を提供できるように、それぞれの選択されたモードに従ってそれぞれの応答を提供してよい。
イベントの終結時、イベントの1つ又は複数の態様が捉えられてよい。例えば、ユーザ120に提供されるあらゆる応答だけではなく、選択されたモードのそれぞれもデータ記憶装置624に記憶されてよい。いくつかの例では、表現エンジン620は、イベントがキャプチャされたことを示す応答を提供してよい。イベントと関連付けられたデータは、ベクトル形式で記憶されてよい。
他のデータも記憶されてよい。エンパセティックコンピューティング装置110は、特定のイベントと関連付けられた映像、音声、又は他のデータをキャプチャしてよい。このデータは以後、エンパシ(empathy)インターフェースを使用して、又はコンピューティング装置130などの別の装置を使用してユーザ120によってアクセスされてよい。例として、ユーザ120は装置110を掴んでよく、これに応えて装置110は、音声の期間がバッファに入れられてよい、及び/又は装置110に記憶されてよいモードに入ってよい。いくつかの実施例では、音声はモードに入る前にバッファに入れられた音声がモードに入ることに応えて記憶されてよいように連続的にバッファに入れられてよい。他の実施例では、音声は特定のモードに入ることに応えてのみバッファに入れられてよい。
経時的に、データはデータ記憶装置624に蓄積されてよく、重み付けモードを選択するために使用されてよい。例えば、データ記憶装置624に記憶されているデータから引き出された相互関連がイベントを予測するために使用されてよく、エンパセティックコンピューティング装置110は予測されたイベントと関連付けられたモードに入ってよい。記憶されたデータは、さらに重み付けパラメータを調整するために使用されてよい。イベントのタイプが比較的に普通である場合、イベントのタイプに適用される重み付けは増加されてよい、又は減少されてよい。例えば、ユーザ120が定期的に同時に装置110に話しかける場合、装置110は、そのときにユーザ120が装置110に話しかけることを予測し、相応してモードに入ってよい。装置110は、例えば、ユーザ120が通常装置110に話しかけるときが近づいていることをユーザ120に知らせる光表現をユーザ120に提供してよい。
プロセスフロー600は単一のイベントに関して説明されているが、複数のイベントが並列で及び/又は組み合わされて識別されてよいことが当業者によって理解される。このようにして、エンパセティックコンピューティング装置のモードは、複数の同時イベント及び/又は順次イベントに基づいて決定されてよい。
プロセスフロー600の機能ブロックのそれぞれは、エンパセティックコンピューティング装置110のソフトウェア及び/又はハードウェアで実装されてよい。例えば、少なくとも1つの実施形態で、フィルタ602はハードウェアで実装されてよく、残りの機能ブロックはソフトウェアで実装され、プロセッサ452によって実行されてよい。他の実施例では、機能ブロックのすべてがソフトウェアで実装され、例えば、エンパセティックコンピューティング装置110の不揮発性メモリに記憶されてよい。
上記から、本発明の特定の実施形態が説明のために本明細書に説明されてきたが、本発明の精神及び範囲から逸脱することなく多様な修正が行われてよいことが理解される。したがって、本発明は添付特許請求の範囲によってを除き制限されない。

Claims (23)

  1. ユーザの掌の中に納まるように構成され上部及び下部を有するエンクロージャ、を備えるエンパセティックコンピューティング装置であって、
    前記エンクロージャは、
    視覚応答の光パターンを提供するように構成された複数の発光素子を有するインターフェースボードと、
    メモリデバイスに結合されたプロセッサと、
    前記ユーザのタッチを検出するように構成されたタッチセンサと、
    を備え、
    前記タッチセンサは、
    前記エンクロージャに沿って外周方向に配置されたタッチベルトと、
    タッチパッドと、
    を備える、
    ことを特徴とする、エンパセティックコンピューティング装置。
  2. 前記エンクロージャの前記上部は、部分的に半透明である、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  3. 前記エンクロージャは、前記エンパセティックコンピューティング装置への前記ユーザの接近を判定するように構成された複数の赤外線センサ、をさらに備える、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  4. 前記上部は、実質的に半球形である、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  5. 前記インターフェースボードは、周囲光センサをさらに備える、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  6. 前記発光素子は発光ダイオードを備える、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  7. 前記光パターンの光を調整するように構成された光デバイス、
    をさらに備えることを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  8. 前記タッチパッドは、複数の放射状の電極線を備える、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置。
  9. ベントの識別に応じてモードに入り、前記モードを示す前記視覚応答を提供するように構成され、
    前記イベントは、前記エンパセティックコンピューティング装置へのユーザの接近、前記ユーザの自然なアクション、前記ユーザと前記エンパセティックコンピューティング装置との対話、又は、その組合せに基づく、
    ことを特徴とする、請求項1に記載のエンパセティックコンピューティング装置
  10. 前記視覚応答は、光の表現を含む、
    ことを特徴とする、請求項9に記載のエンパセティックコンピューティング装置
  11. 前記対話は、タッチすること、支えること、部分的に掴むこと、完全に掴むこと、握りしめること、又は、その組合せを含む、
    ことを特徴とする、請求項9に記載のエンパセティックコンピューティング装置
  12. 前記エンパセティックコンピューティング装置は、前記イベントが終結することに応じて前記イベントに関連付けられたデータを記憶するようにさらに構成される、
    ことを特徴とする、請求項9に記載のエンパセティックコンピューティング装置
  13. 前記モードは、初期モードであり、
    前記エンパセティックコンピューティング装置は、前記イベントに重みを付けて重み付けされたイベントを提供し、前記重み付けされたイベント及び前記初期モードに基づいて重み付けモードに入るようにさらに構成される、
    ことを特徴とする、請求項9に記載のエンパセティックコンピューティング装置
  14. 前記エンパセティックコンピューティング装置は、前記イベントに基づいて、1つ又は複数の特徴、1つ又は複数の構成部品、若しくは、その組合せ、を選択的に有効化するようにさらに構成される、
    ことを特徴とする、請求項9に記載のエンパセティックコンピューティング装置
  15. 請求項1に記載のエンパセティックコンピューティング装置を用いたユーザとの対話方法であって、
    ユーザデータの第1のセットを受け取るステップと、
    ユーザデータの前記第1のセットに基づいてイベントを識別するステップと、
    前記イベントに基づいて、前記エンパセティックコンピューティング装置の初期モードを選択するステップと、
    前記複数の発光素子を使用し、前記初期モードに基づいて前記ユーザに第1の応答を提供するステップと、
    ユーザデータの第2のセットを受け取るステップと、
    ユーザデータの前記第2のセットに基づいて前記イベントに重みを付けて、重み付けされたイベントを提供するステップと、
    前記重み付けされたイベント及び前記初期モードに基づいて、前記エンパセティックコンピューティング装置の重み付けモードを選択するステップと、
    前記複数の発光素子を使用し、前記重み付けされたイベントに基づいて前記ユーザに第2の応答を提供するステップと、
    を含む方法。
  16. 前記ユーザデータをフィルタにかけるステップ、
    をさらに含むことを特徴とする、請求項15に記載の方法。
  17. 前記ユーザデータに基づいてイベントを識別するステップは、前記ユーザデータに対して特徴抽出を実行するステップを含む、
    ことを特徴とする、請求項15に記載の方法。
  18. 覚応答を提供するステップをさらに含む、
    ことを特徴とする、請求項15に記載の方法。
  19. 動応答を提供するステップをさらに含む、
    ことを特徴とする、請求項15に記載の方法。
  20. 前記重み付けされたイベントは、第1の重み付けされたイベントであり、
    前記方法は、
    前記ユーザデータに基づいて前記イベントに重みを付けて、第2の重み付けされたイベントを提供するステップと、
    前記第2の重み付けされたイベントに基づいて前記ユーザに第3の応答を提供するステップと、
    をさらに含むことを特徴とする、請求項15に記載の方法。
  21. 前記イベントと関連付けられたデータを記憶するステップ、
    をさらに含むことを特徴とする、請求項15に記載の方法。
  22. 前記ユーザデータに基づいてイベントを識別するステップは、前記ユーザデータをデータモデルに比較するステップを含む、
    ことを特徴とする、請求項15に記載の方法。
  23. 前記ユーザデータに基づいて前記イベントに重みを付けて、重み付けされたイベントを提供するステップは、前記イベントの持続時間に基づいて前記イベントに重みを付けるステップを含む、
    ことを特徴とする、請求項15に記載の方法。
JP2015544112A 2012-11-21 2013-11-20 エンパセティックコンピューティングのための装置、及び方法 Active JP6138268B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261728963P 2012-11-21 2012-11-21
US61/728,963 2012-11-21
PCT/US2013/070976 WO2014081813A1 (en) 2012-11-21 2013-11-20 Devices, systems, and methods for empathetic computing

Publications (2)

Publication Number Publication Date
JP2015535632A JP2015535632A (ja) 2015-12-14
JP6138268B2 true JP6138268B2 (ja) 2017-05-31

Family

ID=50727473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015544112A Active JP6138268B2 (ja) 2012-11-21 2013-11-20 エンパセティックコンピューティングのための装置、及び方法

Country Status (4)

Country Link
US (2) US9218055B2 (ja)
EP (1) EP2923253A4 (ja)
JP (1) JP6138268B2 (ja)
WO (1) WO2014081813A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138268B2 (ja) 2012-11-21 2017-05-31 ソムニック インク. エンパセティックコンピューティングのための装置、及び方法
USD732033S1 (en) * 2012-11-21 2015-06-16 SomniQ, Inc. Portable electronic device
USD738376S1 (en) * 2012-11-21 2015-09-08 SomniQ, Inc. Portable electronic device
WO2016137797A1 (en) 2015-02-23 2016-09-01 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
USD997162S1 (en) * 2020-12-05 2023-08-29 Origin Wireless, Inc. Command device
USD806711S1 (en) 2015-12-11 2018-01-02 SomniQ, Inc. Portable electronic device
WO2017100641A1 (en) 2015-12-11 2017-06-15 SomniQ, Inc. Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
US11086418B2 (en) * 2016-02-04 2021-08-10 Douzen, Inc. Method and system for providing input to a device
USD866553S1 (en) * 2016-02-04 2019-11-12 Douzen, Inc. Input device
USD809646S1 (en) * 2016-02-10 2018-02-06 Exploramed Nc7, Inc. Breast pump
US9992036B2 (en) 2016-05-25 2018-06-05 Lg Electronics Inc. Sound output apparatus and hub for communication network
US10440456B2 (en) 2016-05-25 2019-10-08 Lg Electronics Inc. Artificial intelligence sound output apparatus, hub for communication network, and method of manufacturing the apparatus and grille for the apparatus
US10149080B2 (en) 2016-05-25 2018-12-04 Lg Electronics Inc. Method of manufacturing sound output apparatus and method of manufacturing grille for the apparatus
US10139857B2 (en) * 2016-05-25 2018-11-27 Lg Electronics Inc. Accessory
US10356499B2 (en) 2016-05-25 2019-07-16 Lg Electronics Inc. Artificial intelligence sound output apparatus, hub for communication network, method of manufacturing the apparatus, and grille for the apparatus
US10097640B2 (en) * 2016-05-25 2018-10-09 Lg Electronics Inc. Accessory having a communication function for internet of things
US10111345B2 (en) 2016-05-25 2018-10-23 Lg Electronics Inc. Sound output apparatus and hub for communication network
US10139856B2 (en) 2016-05-25 2018-11-27 Lg Electronics Inc. Accessory assembly
US10110974B2 (en) 2016-05-25 2018-10-23 Lg Electronics Inc. Accessory having a communication function for internet of things
US10146255B2 (en) 2016-05-25 2018-12-04 Lg Electronics Inc. Accessory communication device
US10204513B2 (en) 2016-05-25 2019-02-12 Lg Electronics Inc. Accessory having a communication function for Internet of Things
US9990002B2 (en) 2016-05-25 2018-06-05 Lg Electronics Inc. Sound output apparatus and hub for communication network
USD859411S1 (en) * 2016-08-01 2019-09-10 Hand Held Products, Inc. Optical scanner
JP6663325B2 (ja) * 2016-08-19 2020-03-11 エイブリック株式会社 マイクロホン
USD836626S1 (en) * 2017-03-09 2018-12-25 Beijing Research & Development Center Of China Avic Avionics Systems Co., Ltd. Interactive audiovisual device
USD826212S1 (en) * 2017-05-05 2018-08-21 Lullahum Limited Sound generator
USD826738S1 (en) * 2017-06-22 2018-08-28 Shenzhen Tomtop Technology Co., Ltd. Intelligent environment monitor
USD886767S1 (en) 2017-08-31 2020-06-09 Google Llc Speaker device
USD886766S1 (en) 2017-08-31 2020-06-09 Google Llc Speaker device
USD877149S1 (en) * 2018-05-30 2020-03-03 Joan R & D Pty Ltd Touch input device
JP7345751B2 (ja) * 2019-03-26 2023-09-19 株式会社東海理化電機製作所 制御装置及び情報提示装置
USD938382S1 (en) 2019-09-20 2021-12-14 Google Llc Speaker device with lights
GB2586084B (en) * 2019-09-30 2021-08-18 Kano Computing Ltd Touch sensitive audio-visual input/output device and method
WO2022040229A1 (en) 2020-08-21 2022-02-24 SomniQ, Inc. Methods and systems for computer-generated visualization of speech
US11350863B2 (en) * 2020-10-01 2022-06-07 Charles Isgar Worry stone device and system
USD947145S1 (en) * 2021-03-15 2022-03-29 Shenzhen Lixinxin Technology Development Co., Ltd. Magnetic charger bracket

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2543430A (en) 1945-12-17 1951-02-27 Condenser Service & Engineerin Plug for sealing tube sheets
USD249091S (en) 1976-11-29 1978-08-22 Burtis Eric F Console for apparatus for performing mathematical functions
USD262464S (en) 1980-04-09 1981-12-29 Marvin Glass & Associates Microcomputer controlled game housing
JPS59132718A (ja) 1983-01-18 1984-07-30 株式会社日立製作所 他励磁直流電動機の保護装置
USD286124S (en) 1984-07-09 1986-10-14 Dempsey Lavell D Lazy susan with refrigerated compartment
JPH0221044Y2 (ja) * 1984-09-03 1990-06-07
USD297328S (en) 1985-05-16 1988-08-23 Matsushita Electrical Industrial Co., Ltd. Optical space transmission module for data communication network
USD303356S (en) 1987-02-24 1989-09-12 Couch Larry D Sine gauge
US4804945A (en) * 1987-10-29 1989-02-14 Terrance Millet Door alarm with infrared and capacitive sensors
AU108433S (en) 1989-07-13 1990-07-31 Nec Corp An antenna for satellite communication systems
USD324106S (en) 1989-10-05 1992-02-18 Greenblatt Eliot M Transcutaneous electrical nerve stimulator
USD325582S (en) 1989-11-02 1992-04-21 Mitsubishi Electric Sales America, Inc. Omindirectional remote controller for television receivers and the like
USD331060S (en) 1992-02-12 1992-11-17 Mitsubishi Electronics America, Inc. Omnidirectional remote controller for television receivers and the like
USD339986S (en) 1992-06-03 1993-10-05 Parfums Nina Ricci Facial cream container
USD345507S (en) 1992-11-24 1994-03-29 Guerlain S.A. Creme container
USD363569S (en) 1993-06-24 1995-10-24 Chin-Chun Lai Cosmetic kit
USD382255S (en) 1996-02-26 1997-08-12 International Business Machines Corporation Infra-red transmitter/receiver for a desktop personal computer
USD408285S (en) 1997-02-12 1999-04-20 Lir France, S.A. Screw box
USD408590S (en) 1997-07-28 1999-04-20 Revlon Consumer Products Corporation Compact case
USD396852S (en) 1997-08-26 1998-08-11 Behavior Tech Computer Corporation Receiver assembly of a cordless keyboard
JPH11232012A (ja) * 1998-02-17 1999-08-27 Omron Corp インタフェース装置およびインタフェースシステム
USD436233S1 (en) 1998-05-13 2001-01-09 L.A.B. Luxe, Art, Beaute Container for powdered cosmetics
USD414190S (en) 1998-09-25 1999-09-21 Sharper Image Corporation Entertainment globe
USD418125S (en) 1998-11-03 1999-12-28 Apple Computer, Inc. Cursor control device
JP3277500B2 (ja) * 1999-05-10 2002-04-22 ソニー株式会社 ロボット装置
USD433994S (en) 1999-08-27 2000-11-21 Apple Computer, Inc. Power adapter
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US20020055383A1 (en) * 2000-02-24 2002-05-09 Namco Ltd. Game system and program
US6728679B1 (en) 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
USD465733S1 (en) 2001-02-22 2002-11-19 The Procter & Gamble Company Container, primarily for perfume
USD465469S1 (en) 2001-05-29 2002-11-12 Koninklijke Philips Electronics N.V. Electronic sound recording and reproducing device for a baby
USD467036S1 (en) 2001-07-06 2002-12-10 Dieter Bakic Design S.R.L. Eyeshadow case
US6558165B1 (en) 2001-09-11 2003-05-06 Capticom, Inc. Attention-focusing device and method of use
USD463991S1 (en) 2001-12-03 2002-10-08 Capticom, Inc. Signaling device
USD480396S1 (en) 2002-03-27 2003-10-07 Barbara Buckner Egg shaped handheld computing device
USD494633S1 (en) 2002-09-06 2004-08-17 Odenwalder Kunststoffwerke - Gehausesysteme Gmbh Housing for electronic device
USD489706S1 (en) 2002-12-09 2004-05-11 Johnson Chen FM auto scan radio
USD479366S1 (en) 2003-04-10 2003-09-02 Hct Limited Container for a cosmetic product
US20040250218A1 (en) 2003-06-06 2004-12-09 Microsoft Corporation Empathetic human-machine interfaces
USD503692S1 (en) 2003-06-17 2005-04-05 Ipo L.L.C. Outdoor component enclosure
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
JP3953024B2 (ja) * 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
USD496004S1 (en) 2003-12-05 2004-09-14 Hannspree, Inc. Remote control
USD521512S1 (en) 2004-01-21 2006-05-23 Mettler-Toledo Gmbh Input/output device
GB2414309B (en) * 2004-05-18 2009-02-25 Simon Richard Daniel Spherical display and control device
USD518030S1 (en) 2004-06-14 2006-03-28 Ten Ventures Inc. Remote control unit for a multimedia device remote control system
US20060028429A1 (en) * 2004-08-09 2006-02-09 International Business Machines Corporation Controlling devices' behaviors via changes in their relative locations and positions
USD518819S1 (en) 2004-09-01 2006-04-11 Gray David C Antenna
USD558767S1 (en) 2005-07-08 2008-01-01 Harman International Industries, Incorporated. Controller for playback device and display
JP2007034544A (ja) * 2005-07-26 2007-02-08 Brother Ind Ltd 電子機器及び状況通信装置
WO2007013402A1 (ja) * 2005-07-26 2007-02-01 Brother Kogyo Kabushiki Kaisha 状況通信装置及び状況通信装置プログラム
JP2007058844A (ja) * 2005-07-27 2007-03-08 Brother Ind Ltd 感圧センサ及び推論情報作成装置
WO2007034388A2 (en) 2005-09-20 2007-03-29 Koninklijke Philips Electronics N.V. Viewing device
USD526916S1 (en) 2006-02-15 2006-08-22 Daniel Oas Pedometer
USD561022S1 (en) 2006-05-11 2008-02-05 Soremartec S.A. Container for food products such as confectionery products
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
USD597524S1 (en) 2006-10-31 2009-08-04 Sony Corporation Modular entertainment system with movable electronic components
JP2009026125A (ja) * 2007-07-20 2009-02-05 Denso It Laboratory Inc 感情分析デバイス、感情分析方法およびプログラム
EP2200512A1 (en) 2007-09-14 2010-06-30 Corventis, Inc. Adherent device for respiratory monitoring and sleep disordered breathing
USD578711S1 (en) 2007-09-24 2008-10-14 Mcneil-Ppc, Inc. Combined fragrance emitting patch and compact
USD596815S1 (en) 2008-01-18 2009-07-21 Seiko Epson Corporation Vacuum cleaner robot
KR20090093286A (ko) * 2008-02-29 2009-09-02 한국과학기술원 감성적 통신수단
CA127554S (en) 2008-03-07 2009-07-16 Philips Electronics Ltd Massager unit
USD602915S1 (en) 2008-07-23 2009-10-27 Samsung Electronics Co., Ltd. Remote controller for television receiver
USD595734S1 (en) 2008-09-05 2009-07-07 Samsung Electronics Co., Ltd. MP3 player
USD601564S1 (en) * 2008-10-01 2009-10-06 Namco Bandai Games Inc. Controller for game machine
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
USD602916S1 (en) 2009-01-26 2009-10-27 Samsung Electronics Co., Ltd. Remote controller
USD607347S1 (en) 2009-02-12 2010-01-05 Cadi Scientific Pte Ltd Wireless sensor for measuring physiological parameters, in particular body temperature
USD626147S1 (en) 2009-04-02 2010-10-26 Goddard Andrew E Electronic device
USD627306S1 (en) 2009-08-14 2010-11-16 Somfy Sas Remote control
USD610479S1 (en) 2009-09-15 2010-02-23 Jianmeng Shi Electronic anti-theft tag
USD645818S1 (en) 2009-11-16 2011-09-27 Callpod, Inc. Device battery charger
USD683843S1 (en) 2009-12-15 2013-06-04 Jackel International Limited Motor unit for a breast pump
WO2011112984A1 (en) * 2010-03-11 2011-09-15 Tactus Technology User interface system
US9189090B2 (en) 2010-03-26 2015-11-17 Salesforce.Com, Inc. Techniques for interpreting signals from computer input devices
USD643412S1 (en) 2010-05-14 2011-08-16 Genos Corporation Handheld remote control unit
USD632281S1 (en) 2010-06-02 2011-02-08 Koninklijke Philips Electronics N.V. Volume control
USD632265S1 (en) 2010-06-16 2011-02-08 Samsung Electronics Co., Ltd. Remote controller for air conditioner
USD636760S1 (en) 2010-06-24 2011-04-26 Cheng Uei Precision Indsutry Co., Ltd. Portable speaker
USD656034S1 (en) 2010-08-24 2012-03-20 Wonders Holding BV Packaging container
JP2012075089A (ja) * 2010-09-03 2012-04-12 Nikon Corp 電子機器、及び通信システム
CA137423S (en) 2010-09-24 2011-05-27 Bang & Olufsen As Audio speaker
KR101248323B1 (ko) * 2011-02-11 2013-03-27 한국과학기술원 유비쿼터스 지능형 육아 서비스 및 맞춤형 교육 서비스 방법, 장치 및 기록 매체
US9229489B2 (en) * 2011-05-03 2016-01-05 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
USD654866S1 (en) 2011-08-24 2012-02-28 Nokia Corporation Headset charger
US9596084B2 (en) * 2011-09-09 2017-03-14 Facebook, Inc. Initializing camera subsystem for face detection based on sensor inputs
CN103918344A (zh) 2011-10-13 2014-07-09 英特尔公司 通过便携式装置检测用户活动
USD672465S1 (en) 2011-11-03 2012-12-11 Constance Jane Sherman Bead-shaped container
USD726924S1 (en) 2011-12-09 2015-04-14 Omron Healthcare Co., Ltd. Vital signs monitor
USD685790S1 (en) 2012-02-15 2013-07-09 Avermedia Technologies, Inc. USB record button device
USD683636S1 (en) 2012-02-16 2013-06-04 Janne Levanen Tracking device
US20140324749A1 (en) 2012-03-21 2014-10-30 Alexander Peters Emotional intelligence engine for systems
USD705844S1 (en) 2012-04-20 2014-05-27 Iconoscope, Llc Remote camera
USD719165S1 (en) 2012-06-15 2014-12-09 Sammy Hill Video game controller joystick cover
USD729773S1 (en) 2012-08-13 2015-05-19 Fiskars Brands Finland Oy Ab Wireless remote control
US9031293B2 (en) 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
JP6138268B2 (ja) 2012-11-21 2017-05-31 ソムニック インク. エンパセティックコンピューティングのための装置、及び方法
USD738376S1 (en) 2012-11-21 2015-09-08 SomniQ, Inc. Portable electronic device
USD732033S1 (en) * 2012-11-21 2015-06-16 SomniQ, Inc. Portable electronic device
USD700080S1 (en) 2013-01-04 2014-02-25 Tomtom International B.V. Electronic portable device
USD743645S1 (en) 2013-06-14 2015-11-17 Samsung Electronics Co., Ltd. Robot cleaner
USD717674S1 (en) 2013-07-22 2014-11-18 Misfit Wearables Corporation Activity monitoring device
USD731334S1 (en) 2013-08-20 2015-06-09 Fibar Group sp. z o.o. Flood sensor
USD756955S1 (en) 2013-09-21 2016-05-24 Baby Stars Gmbh Combined audio player and recorder
USD730891S1 (en) 2013-11-10 2015-06-02 Zhongjie Wang Host computer
US20150268737A1 (en) 2014-03-21 2015-09-24 Bose Corporation Gesture-based controller for use in axisymmetric housing
USD752531S1 (en) 2014-04-20 2016-03-29 Alibaba Group Holding Limited Television set top box
USD777331S1 (en) 2014-05-01 2017-01-24 MAD Apparel, Inc. Electronic module
USD783838S1 (en) 2014-05-20 2017-04-11 Scanadu Incorporated Portable wireless vital signs scanner
USD746886S1 (en) 2014-05-23 2016-01-05 JIBO, Inc. Robot
USD755750S1 (en) 2014-06-12 2016-05-10 Tencent Technology (Shenzhen) Company Limited Human input device for a consumer electronic device
USD747984S1 (en) 2014-07-31 2016-01-26 Sensoro Co. Ltd. Bluetooth-based sensor
JP1541334S (ja) 2015-01-08 2018-12-25
WO2016137797A1 (en) 2015-02-23 2016-09-01 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
USD768114S1 (en) 2015-04-23 2016-10-04 No Nda Inc. Universal remote control
USD774717S1 (en) 2015-04-24 2016-12-20 Samsung Electronics Co., Ltd. Robot cleaner
USD778878S1 (en) 2015-05-11 2017-02-14 Spin remote B.V. Remote control
USD763967S1 (en) 2015-06-12 2016-08-16 Microsoft Corporation Thumbstick attachment for a controller
USD770417S1 (en) 2015-07-08 2016-11-01 Pengcheng Chen Speaker
USD778876S1 (en) 2015-07-15 2017-02-14 Haixing Zhang Speaker
USD776820S1 (en) 2015-10-01 2017-01-17 Htc Corporation Heart rate monitor
WO2017100641A1 (en) 2015-12-11 2017-06-15 SomniQ, Inc. Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
USD773947S1 (en) 2015-12-31 2016-12-13 Delta Faucet Company Detector device

Also Published As

Publication number Publication date
EP2923253A1 (en) 2015-09-30
WO2014081813A1 (en) 2014-05-30
US9218055B2 (en) 2015-12-22
JP2015535632A (ja) 2015-12-14
EP2923253A4 (en) 2016-07-06
US20160062496A1 (en) 2016-03-03
US9830005B2 (en) 2017-11-28
US20140139466A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
JP6138268B2 (ja) エンパセティックコンピューティングのための装置、及び方法
US10509474B2 (en) Systems and methods for shape input and output for a haptically-enabled deformable surface
JP6743036B2 (ja) 共感型計算装置とインターフェース接続するための共感型ユーザインターフェース、システム、及び方法
JP6218427B2 (ja) 表情及び声の感情の認識及びフィードバック
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
CN106020763A (zh) 用于提供内容的方法和电子设备
US11698684B2 (en) Gesture recognition device and method for sensing multi-factor assertion
US20140111452A1 (en) Terminal and method of controlling touch operations in the terminal
Weng et al. Facesight: Enabling hand-to-face gesture interaction on ar glasses with a downward-facing camera vision
Matthies InEar BioFeedController: a headset for hands-free and eyes-free interaction with mobile devices
JP6841232B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109581881A (zh) 智能管家方法、智能管家终端及计算机可读存储介质
CN103792997A (zh) 一种控制电子设备的方法及电子设备
Alabdulkarim Towards hand-gesture frustration detection in interactive systems
Harrison The human body as an interactive computing platform
US11899899B2 (en) Techniques for adjusting a detachable display capsule of a wrist-wearable device to operationally complement a wearable-structure attachment, and wearable devices and systems for performing those techniques
Kim et al. Exploration on Everyday Objects as an IoT Control Interface
Srinivas et al. A survey report on mobile eye-based Human-Computer Interaction
Matthies et al. Interaction Designs For Mobile Device Input Beyond Touching The Screen
Wang Design and evaluation of novel gesture-centric interaction models in smart spaces
Roy Distributed Multimodal Interaction in a Smart Home Environment
KR20200080410A (ko) 액세서리의 장착이 가능한 로봇의 동작 제어 방법 및 장치
Costanza Subtle, intimate interfaces for mobile human computer interaction
CN109309754A (zh) 用于获取和键入缺少参数的电子设备
Minárik et al. Modern Ways of System Control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170425

R150 Certificate of patent or registration of utility model

Ref document number: 6138268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250