JP6743036B2 - 共感型計算装置とインターフェース接続するための共感型ユーザインターフェース、システム、及び方法 - Google Patents
共感型計算装置とインターフェース接続するための共感型ユーザインターフェース、システム、及び方法 Download PDFInfo
- Publication number
- JP6743036B2 JP6743036B2 JP2017544642A JP2017544642A JP6743036B2 JP 6743036 B2 JP6743036 B2 JP 6743036B2 JP 2017544642 A JP2017544642 A JP 2017544642A JP 2017544642 A JP2017544642 A JP 2017544642A JP 6743036 B2 JP6743036 B2 JP 6743036B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- computing device
- interaction
- empathic
- feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000003993 interaction Effects 0.000 claims description 247
- 230000033001 locomotion Effects 0.000 claims description 48
- 230000004044 response Effects 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 29
- 230000001186 cumulative effect Effects 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 10
- 230000008921 facial expression Effects 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims 1
- 230000003534 oscillatory effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 29
- 230000014509 gene expression Effects 0.000 description 19
- 230000007704 transition Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 13
- 230000002354 daily effect Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 239000011324 bead Substances 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 238000012552 review Methods 0.000 description 5
- 230000002889 sympathetic effect Effects 0.000 description 5
- 230000008448 thought Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000003203 everyday effect Effects 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 230000008450 motivation Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 206010011224 Cough Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000005587 bubbling Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000000280 densification Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- VIKNJXKGJWUCNN-XGXHKTLJSA-N norethisterone Chemical compound O=C1CC[C@@H]2[C@H]3CC[C@](C)([C@](CC4)(O)C#C)[C@@H]4[C@@H]3CCC2=C1 VIKNJXKGJWUCNN-XGXHKTLJSA-N 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000001766 physiological effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000002000 scavenging effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、ある実施形態に従った共感型計算システム100のブロック図である。この共感型計算システム100は、一つ又はそれ以上の共感型計算装置110−1、例えばアボットの形態で具現化された共感型計算装置を含み得て、これは共感型ユーザインターフェースと共に構成され得る。共感型計算装置は、ユーザ120−1との(例えば共感言語を介した)共感型コミュニケーションのために構成され得る。共感型計算装置110−1は、米国特許第9,218,055号に記載された共感型計算装置の例のいずれかに従って具現化され得て、この特許は任意の目的のためにその全体が参照によってここに援用される。
いくつかの例に従った共感型計算装置は、アボットの形態で具現化され得る。図2及び図3はここでのいくつかの例に従った共感型計算装置200(例えばアボット)のブロック図である。共感型計算装置200は、ここでは図1の共感型計算装置110−1、110−2を含む共感型計算装置のいずれかを具現化するために使用され得る。
共感型計算装置200は共感型ユーザインターフェース262(共感インターフェースとも称される)を有して構成され得て、これは、直接的な意図的なユーザ入力(例えばマウス、キーボードを介して)に依存する従来の計算システムとは異なり、ユーザとのコミュニケーションのために共感言語を利用する。共感型ユーザインターフェースは共感言語に基づいて構築され得て、例えばセンサ210の形態の入力構成部品と、例えばフィードバック生成器214の形態の出力構成部品とを含み得る。共感型ユーザインターフェース262は自然な人間の動作を検出し、それを、ここで記述されるような共感型計算システムに関連した機能を実行するためのコマンドに翻訳するように、構成され得る。例えば、共感型計算装置200は、従来の触覚的入力装置(例えばキーボード、マウス)を使うこと無しに、又は一般的な場合よりも少数の従来の入力装置を使用して、ユーザとインターフェース接続するように構成され得る。いくつかの例では、共感型ユーザ装置は、従来のコマンドのような入力無しに又はより少ない入力でユーザとインターフェース接続するように構成され得るが、その代わりに入力をユーザの自然な動作から抽出し得る。一般的に、共感型ユーザインターフェース262は、ユーザによって与えられる明確なコマンドには頼らず、むしろ、共感型計算装置200によって検出且つ知覚されるようなユーザの自然な動作に頼り得る。
例示的な動作シナリオが、本開示の共感型計算装置及び共感型ユーザインターフェースの局面をさらに描くために、さらに図6を参照してここで記述される。ここで記述されるように、共感型計算装置は、共感型計算装置のセンサでセンサデータを獲得し、そのセンサデータを相互作用ユニットに、例えば例示的なセンサデータと所定の相互作用ユニットとの間の記憶された関連を使用して複数の相互作用ユニットをセンサデータから抽出することによって分類し、相互作用ユニットを表すフィードバックを生成することを含むプロセスを実行するように構成され得る。フィードバックは、ここで記述されるように多次元フィードバックを含み得る。描写の目的で、分類プロセスのフェーズが図面に図示されるが、ここに記述されたプロセスの一つ又はそれ以上が同時に、及び/又は、多次元データが同時に記録され得て且つ複数のソースからのデータが同時に処理され得て関連する情報を抽出する再帰的ループで、生じ得ることを理解されたい。
図15は、いくつかの例に従った共感サービスプラットフォームの概観を描いている。図15に描かれるように、共感OSとインターネット上のAPIサーバ(例えばサーバ130)を通して使用されるデータベースとの組み合わせに基づいて、本システムをサービスプラットフォームとして利用する広範囲な方法が存在する。例えば、ユーザとアボットとの間のコミュニケーションは、有用な情報をユーザ及びユーザに関連した他者(例えばケアの利用者、親、友人、医師など)に対して提供することにフォーカスしたそのようなサービスを通して、さらに拡張、豊富化、深化されることができる。情報に対する外部サービスが、ユーザとアボットとの間のユーザ相互作用/コミュニケーションから生成及び累積された情報の深さ及び幅を補うために使用されることができる。自助、メンタリング、カウンセリング、健康ケア、教育、練習などの目的でユーザにサポートを提供する目的でのインタラクティブコミュニケーションサービスが、ここで例示されたシステム及び方法を使用して可能にされることができる。また、新しいサービス提供者、アプリケーション開発者が、このプラットフォームに加わり得る。
話認識の精度は、ある名前に対する固有名詞のようなシステムにとって未知の言葉をユーザが話すかもしれない、あるいは、かなり物理的にかなり離れて(例えばマイクから離れて)ユーザがアボットに話しかけるかもしれない、うるさい場所で話すかもしれない、あるいは不明瞭な方法で話すかもしれない、などの事実のために、常に完全ではなく又は100%には達しないことがある。例えばスマートフォン装置における今日の話認識が、ある場合には比較的良好に動作するが他の場合にはユーザの期待に合致しないかもしれないことは、広く知られている。話されたコマンドに対するいくつかの応答は間違っていることがあり、いくつかのコマンド又は質問に答えが与えられないことがあり、いくつかは「利用できません」などのテキスト表現で回答されるかもしれず、且ついくつかは「不正な入力」と解釈されるかもしれない。そのような応答は、話認識の精度レベルに関わらず、失望、迷惑、あるいはユーザの感情を害させ得る。話認識からの文章化がどれほど良好に実行されたかどうかに関わらず、最終的に質は、ユーザの期待のフィルタを通して判定され得る。これより、話認識及び文章化技術の進歩が望まれ続け得て、ここでの例は、現存する話認識及び文章化技法の短所の一つ又はそれ以上を改良し得る。
共感ストリングデータが累積するにつれて、組み合わせ、シーケンス、共感ストリングにおける共感のタイプ、各々の共感ストリングに関するコンテクスト(C)情報、シーズ(S)情報のような共感データセットに関して、あるパターンが見出され得る。例えば、ユーザが同様の方法で、異なる方法で発声するかなどに関して、いくつかのパターンが見出され得る。パターン認識が自動的に実行され得て、それらのデータをカテゴリ化、分類、及び分析する。
図17は、助長、醸成後、及び助長の間のループを描いている。「助長」は、「醸成」(例えばアボットと一緒に共感を生成する自然のコミュニケーション)を通して生成された彼又は彼女の以前の又は現在の情報を反映するようなアプリケーションを使用したユーザの活動に与えられる名称であり得る。助長すること、あるいはユーザがアボットと一緒に生成した共感データに反映することは、ユーザの日常の生活時間の全時間の流れを補完し、アボットとのコミュニケーションのループを拡張する。醸成セッションからの出力(例えば、ユーザに関する広範囲の情報を含む共感データ、ならびにアボットによる表現を伴うリアルタイムのコミュニケーションの経験)は、アボットの出力(例えばアボットが開始する共鳴表現)を生じさせるデータベースへの入力になり、これがユーザの心、自覚、そのときの感覚に対する入力となり、これがアボットに返されるユーザの連続的な動作(すなわち新しい出力)、ならびにユーザ及び入力(情報、発声、描写、など)を与える代替的なトラック(例えばモバイル又はPCアプリケーションを通した)を生成し得て、これが、ユーザに次の動作をアボットに、あるいはアプリケーションを通してデータベースに戻すことをトリガするか、思い出させるか、あるいは鼓舞し得る。言い換えると、ユーザが醸成するものは、アボットによってトリガされたコミュニケーションにおいてユーザが後に醸成するもの又はそのために設計されたアプリケーションにおいてユーザが助長するものに反映される。
ユーザによって発声された話は、そのユーザに特有なあるパターンを有するとみなされ得る。確率論的な分析を実行するために十分なデータが蓄積されると、話すパターンが見出され得る。例えば、音声学的な発音を有する話の時間期間によって測定されるユーザの話のテンポ(例えば、時間をその話の音節の数で割ったもの)は、そのユーザに有用な特定の情報を検出する一例となり得る。一般に、人間の話は人によって発声や発音の仕方が変わるが、発声された話のテンポ又は速さ(シーズ(S)と記述された)は、あるデータ分布範囲を有する。
ここでの例に従った共感型計算装置は、家庭又はオフィスにおいて、TV、ラジオ、パーソナルコンピュータ、音声映像ディスプレー、娯楽及びメディア装置のような他のエレクトロニクス装置にワイヤレスに(例えばWiFi又はブルートゥースを介して)接続され得る。例えば、アボットは、以前の双方向コミュニケーションを通して生成された共感データに基づいて周囲表現を生成し得て、それらを、アボットの共感OSで実行している機能モジュールを通して通信的に接続されたTVスクリーンに投影し得る。投影はあるイベントに反応して、例えばユーザがアボットに近付いたときに生じ得る。このようにして、生活又は勤務空間がアボットの存在によって拡張され得て、その空間を常にユーザを鼓舞する環境に変える。ここで記述された双方向コミュニケーションに関する及びユーザ自身に関する連続的なコミュニケーションの流れ又は再帰的ループもまた、このようにしてサポートされ得る。アボットに接続された他のエレクトロニクス装置との相互作用が、ユーザの心の中におけるアボットの存在を拡張、補完、及び強化し得て、日常生活における自然環境に寄与する。
Claims (29)
- 共感型計算システムとインターフェース接続する方法であって、
共感型計算装置のセンサからセンサデータを受領するステップであって、前記センサデータが前記共感型計算装置とのユーザ相互作用によって生成され、前記ユーザ相互作用が複数の相互作用ユニットを備える、ステップと、
前記ユーザ相互作用に関連したコンテクスト的情報を受領するステップと、
前記ユーザ相互作用から個々の相互作用ユニットを抽出するために、及び、前記センサデータを、例示的なセンサデータと所定の相互作用ユニットとの間の記憶された関連に基づいて相互作用ユニットのシーケンスに分類するために、例示的なセンサデータと所定の相互作用ユニットとの間の記憶された関連を備えている共感ライブラリを参照するステップと、
前記共感型計算装置へのフィードバックを提供するステップであって、前記フィードバックは少なくとも部分的に前記相互作用ユニットのシーケンス及び前記コンテクスト的情報に基づいており、前記フィードバックの提供は、個々の相互作用ユニットに応答して省察的フィードバックを提供することと、所与のユーザ相互作用セッション内での相互作用ユニットのシーケンスを代表する累積的フィードバックを提供することとを含む、ステップと、
を包含する方法。 - 前記ユーザ相互作用が、顔の表現、姿勢、声の発声、話、身体又は身体の一部の動き又は位置、ユーザによる前記共感型計算装置の相対的な動き又は配置、前記共感型計算装置に対するユーザ又はユーザの身体の一部の相対的な動き、のいずれかを含む動作を包含する、請求項1に記載の方法。
- 前記センサデータの受領ステップが、ユーザの接近、ユーザの動き、検出された話、検出された顔の表現の指標を受領するステップを包含する、請求項1に記載の方法。
- 前記相互作用ユニットのシーケンスに対応するデータセットを記憶するステップをさらに包含する、請求項1に記載の方法。
- 前記コンテクスト的情報が少なくとも部分的に、前記センサデータから抽出された情報を含む、請求項1に記載の方法。
- 前記フィードバックの提供ステップが、前記共感型計算装置の複数の照明源により光のパターンを生成するステップを包含し、前記パターンにおける各々の光が前記相互作用ユニットのシーケンスの相互作用ユニットに対応する、請求項1に記載の方法。
- 前記パターンにおける各々の光の色が前記相互作用ユニットの種類に基づいている、請求項6に記載の方法。
- 色がそれぞれの相互作用ユニットに関連した前記コンテクスト的情報に基づいている、請求項6に記載の方法。
- 前記光のパターンが連続して照射されるLEDのスパイラルを備える、請求項6に記載の方法。
- 前記シーケンスにおける少なくとも一つの相互作用ユニットに対して、前記共感型計算装置の複数の照明源による光のパターンを備えるフィードバックを生成するステップをさらに包含し、前記パターンが前記ユーザ相互作用から抽出された発声された話の内容を示す、請求項1に記載の方法。
- 前記シーケンスにおける少なくとも一つの相互作用ユニットに対して光のパターンを備えるフィードバックを生成するステップが、各々が前記発声された話からの異なる言葉に対応する2つの異なる光のパターンを生成するステップを含む、請求項10に記載の方法。
- 前記フィードバックの提供ステップが、前記共感型計算装置の音声生成器、前記共感型計算装置のバイブレータ、又はそれら2つの組み合わせを使って可聴音のパターンを生成するステップを包含し、前記パターンにおける音の一つ又はそれ以上が前記相互作用ユニットのシーケンスからの相互作用ユニットに対応している、請求項1に記載の方法。
- 前記フィードバックの提供ステップが振動的応答を生成するステップをさらに包含する、請求項6から12のいずれかに記載の方法。
- 前記ユーザ相互作用が第1のユーザ相互作用であり、前記相互作用ユニットのシーケンスが第1のシーケンスであり、前記第1のユーザ相互作用から所定の時間期間だけ時間的に離れた第2のユーザ相互作用に関連したセンサデータに基づいて第2のシーケンスを生成するステップをさらに包含する、請求項1に記載の方法。
- 前記センサデータを、各々が複数の相互作用セッションのそれぞれ一つに関連した複数のセンサデータにセグメント化するステップをさらに包含する、請求項1に記載の方法。
- 前記センサデータの受領ステップが、前記共感型計算装置のユーザの手のひらへの配置の指標を受領するステップを包含し、前記共感型計算装置のユーザの手のひらへの配置の指標に応答してマイク、カメラ、又はその両方を駆動するステップをさらに包含する、請求項1に記載の方法。
- 前記共感型計算装置のユーザの手のひらからの除去の指標に応答して前記マイク、前記カメラ、又はその両方を非駆動にするステップをさらに包含する、請求項16に記載の方法。
- 共感型計算装置であって、
プロセッサと、
前記共感型計算装置とのユーザ相互作用に基づいてセンサデータを生成するように構成された複数のセンサであって、前記ユーザ相互作用は複数の相互作用ユニットを包含する、複数のセンサと、
前記共感型計算装置へのフィードバックを生成するフィードバック生成器であって、前記フィードバックの生成は、個々の相互作用ユニットに応答して省察的フィードバックを生成することと、所与のユーザ相互作用セッション内での相互作用ユニットのシーケンスを代表する累積的フィードバックを生成することとを含む、フィードバック生成器と、
前記複数のセンサ、前記フィードバック生成器及び前記プロセッサと動作的に結合され、例示的なセンサデータと所定の相互作用ユニットとの間の記憶された関連を備えている共感ライブラリを有しており、さらにプロセッサ実行可能な指令を備えたメモリと、
を備えており、
前記プロセッサ実行可能な指令は、前記プロセッサによって実行されると、前記共感型計算装置に、
前記ユーザ相互作用に関連したコンテクスト的情報を受領させ、
前記センサデータを、前記例示的なセンサデータと前記所定の相互作用ユニットとの間の前記記憶された関連を使用して前記相互作用ユニットのシーケンスに分類させ、
少なくとも部分的に前記相互作用ユニットのシーケンス及び前記コンテクスト的情報に基づいている前記フィードバックを提供させる、共感型計算装置。 - 前記プロセッサが、前記センサデータを受領し、前記センサデータをフィルタリングし、前記フィルタリングされたセンサデータからの特徴抽出を実行するように構成された抽出プロセッサを含む、請求項18に記載の共感型計算装置。
- 前記特徴抽出が、異なるタイプの複数のセンサデータから同時に記録されたデータから特徴を抽出することを包含する、請求項19に記載の共感型計算装置。
- 前記特徴抽出が話及び顔認識を実行することを包含する、請求項19又は20に記載の共感型計算装置。
- 複数の光源をさらに備えており、
少なくとも部分的に前記相互作用ユニットのシーケンス及び前記コンテクスト的情報に基づいているフィードバックを提供するという前記指令が、あるパターンでの光の照射を前記複数の光源のうちの一つ又はそれ以上により実行する指令を備える、請求項18に記載の共感型計算装置。 - 前記パターンが前記相互作用ユニットのシーケンスに対応し、各々の照射された光源の色が前記シーケンスにおける前記相互作用ユニットのそれぞれ一つに基づいて選択される、請求項22に記載の共感型計算装置。
- 前記プロセッサ、前記メモリ、前記複数のセンサのうちの一つ又はそれ以上のセンサ、及び前記複数の光源のうちの一つ又はそれ以上のセンサが、ユーザの手のひらにフィットするように構成されたエンクロージャ内に囲まれている、請求項22に記載の共感型計算装置。
- 前記複数のセンサが、タッチセンサ、近接センサ、画像センサ、マイク、又はそれらの組み合わせを含む、請求項18に記載の共感型計算装置。
- 前記タッチセンサが、前記共感型計算装置の底側に配置されたタッチ感応表面を含む、請求項25に記載の共感型計算装置。
- 前記複数のセンサがさらに、ユーザの前記共感型計算装置への接近を判定するように構成された複数の赤外センサを備える、請求項18に記載の共感型計算装置。
- 前記複数のセンサがさらに、周囲光を感知するように配置された少なくとも一つの光センサを備える、請求項18に記載の共感型計算装置。
- 請求項18から28のいずれかに記載の共感型計算装置を備える共感型計算システムであって、前記システムがさらに前記共感型計算装置に通信的に結合された他の計算装置を備えており、前記他の計算装置が、前記共感型計算装置から、ユーザデータ、共感型計算装置システムデータ、又はそれらの組み合わせを含むデータを受領し且つ記憶するように構成され、前記他の計算装置がさらに、前記記憶されたデータに対するアプリケーションを実行するように構成されている、共感型計算システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562119608P | 2015-02-23 | 2015-02-23 | |
US62/119,608 | 2015-02-23 | ||
PCT/US2016/018271 WO2016137797A1 (en) | 2015-02-23 | 2016-02-17 | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018510414A JP2018510414A (ja) | 2018-04-12 |
JP6743036B2 true JP6743036B2 (ja) | 2020-08-19 |
Family
ID=56690386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017544642A Active JP6743036B2 (ja) | 2015-02-23 | 2016-02-17 | 共感型計算装置とインターフェース接続するための共感型ユーザインターフェース、システム、及び方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9946351B2 (ja) |
EP (1) | EP3262490A4 (ja) |
JP (1) | JP6743036B2 (ja) |
WO (1) | WO2016137797A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6138268B2 (ja) | 2012-11-21 | 2017-05-31 | ソムニック インク. | エンパセティックコンピューティングのための装置、及び方法 |
WO2016137797A1 (en) | 2015-02-23 | 2016-09-01 | SomniQ, Inc. | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
US11150774B2 (en) * | 2015-09-25 | 2021-10-19 | International Business Machines Corporation | Modifying display of objects on a user interface for a computing device based on detected patterns of user interaction |
US10222875B2 (en) | 2015-12-11 | 2019-03-05 | SomniQ, Inc. | Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection |
USD806711S1 (en) | 2015-12-11 | 2018-01-02 | SomniQ, Inc. | Portable electronic device |
USD859411S1 (en) * | 2016-08-01 | 2019-09-10 | Hand Held Products, Inc. | Optical scanner |
US20190138095A1 (en) * | 2017-11-03 | 2019-05-09 | Qualcomm Incorporated | Descriptive text-based input based on non-audible sensor data |
USD886137S1 (en) | 2017-12-01 | 2020-06-02 | Delos Living Llc | Display screen or portion thereof with animated graphical user interface |
USD918231S1 (en) | 2017-12-01 | 2021-05-04 | Delos Living Llc | Display screen or portion thereof with graphical user interface |
USD1009882S1 (en) * | 2017-12-01 | 2024-01-02 | Delos Living Llc | Display screen or portion thereof with graphical user interface |
US10852411B2 (en) | 2017-12-06 | 2020-12-01 | Cognitive Systems Corp. | Motion detection and localization based on bi-directional channel sounding |
US11579703B2 (en) * | 2018-06-18 | 2023-02-14 | Cognitive Systems Corp. | Recognizing gestures based on wireless signals |
US20200077906A1 (en) * | 2018-09-07 | 2020-03-12 | Augusta University Research Institute, Inc. | Method and System for Monitoring Brain Function and Intracranial Pressure |
JP7006570B2 (ja) * | 2018-11-22 | 2022-01-24 | 豊田合成株式会社 | ユーザーインタフェースシステム |
US10849006B1 (en) | 2019-04-30 | 2020-11-24 | Cognitive Systems Corp. | Controlling measurement rates in wireless sensing systems |
US10743143B1 (en) | 2019-05-15 | 2020-08-11 | Cognitive Systems Corp. | Determining a motion zone for a location of motion detected by wireless signals |
CN110251065A (zh) * | 2019-07-17 | 2019-09-20 | 西安交通大学 | 基于运动视觉诱发电位的对比敏感度检测方法 |
US11044578B2 (en) | 2019-09-30 | 2021-06-22 | Cognitive Systems Corp. | Detecting a location of motion using wireless signals that propagate along two or more paths of a wireless communication channel |
CN114599991A (zh) | 2019-10-31 | 2022-06-07 | 认知系统公司 | 引发来自无线通信装置的mimo传输 |
EP4052065A4 (en) | 2019-10-31 | 2022-12-07 | Cognitive Systems Corp. | USING MIMO TRAINING AREAS FOR MOTION DETECTION |
US11570712B2 (en) | 2019-10-31 | 2023-01-31 | Cognitive Systems Corp. | Varying a rate of eliciting MIMO transmissions from wireless communication devices |
US10928503B1 (en) | 2020-03-03 | 2021-02-23 | Cognitive Systems Corp. | Using over-the-air signals for passive motion detection |
US12019143B2 (en) | 2020-03-03 | 2024-06-25 | Cognitive Systems Corp. | Using high-efficiency PHY frames for motion detection |
US11735204B2 (en) | 2020-08-21 | 2023-08-22 | SomniQ, Inc. | Methods and systems for computer-generated visualization of speech |
US11304254B2 (en) | 2020-08-31 | 2022-04-12 | Cognitive Systems Corp. | Controlling motion topology in a standardized wireless communication network |
US11070399B1 (en) | 2020-11-30 | 2021-07-20 | Cognitive Systems Corp. | Filtering channel responses for motion detection |
US20220343065A1 (en) * | 2021-04-27 | 2022-10-27 | Empathy Rocks, Inc. | System and method for increasing effective communication through evaluation of multimodal data, auto-correction and behavioral suggestions based on models from evidence-based counseling, motivational interviewing, and empathy |
Family Cites Families (151)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD249091S (en) | 1976-11-29 | 1978-08-22 | Burtis Eric F | Console for apparatus for performing mathematical functions |
USD262464S (en) | 1980-04-09 | 1981-12-29 | Marvin Glass & Associates | Microcomputer controlled game housing |
JPS59132718A (ja) | 1983-01-18 | 1984-07-30 | 株式会社日立製作所 | 他励磁直流電動機の保護装置 |
USD286124S (en) | 1984-07-09 | 1986-10-14 | Dempsey Lavell D | Lazy susan with refrigerated compartment |
USD297328S (en) | 1985-05-16 | 1988-08-23 | Matsushita Electrical Industrial Co., Ltd. | Optical space transmission module for data communication network |
USD303356S (en) | 1987-02-24 | 1989-09-12 | Couch Larry D | Sine gauge |
US4804945A (en) | 1987-10-29 | 1989-02-14 | Terrance Millet | Door alarm with infrared and capacitive sensors |
AU108433S (en) | 1989-07-13 | 1990-07-31 | Nec Corp | An antenna for satellite communication systems |
USD324106S (en) | 1989-10-05 | 1992-02-18 | Greenblatt Eliot M | Transcutaneous electrical nerve stimulator |
USD325582S (en) | 1989-11-02 | 1992-04-21 | Mitsubishi Electric Sales America, Inc. | Omindirectional remote controller for television receivers and the like |
US5243430A (en) | 1991-07-24 | 1993-09-07 | Mitsubishi Electronics America, Inc. | Remote control apparatus and method for omnidirectional signal transmission |
USD331060S (en) | 1992-02-12 | 1992-11-17 | Mitsubishi Electronics America, Inc. | Omnidirectional remote controller for television receivers and the like |
USD339986S (en) | 1992-06-03 | 1993-10-05 | Parfums Nina Ricci | Facial cream container |
USD345507S (en) | 1992-11-24 | 1994-03-29 | Guerlain S.A. | Creme container |
USD363569S (en) | 1993-06-24 | 1995-10-24 | Chin-Chun Lai | Cosmetic kit |
USD382261S (en) | 1996-02-13 | 1997-08-12 | Microsoft Corporation | Pointing device |
USD382255S (en) | 1996-02-26 | 1997-08-12 | International Business Machines Corporation | Infra-red transmitter/receiver for a desktop personal computer |
USD408285S (en) | 1997-02-12 | 1999-04-20 | Lir France, S.A. | Screw box |
USD408590S (en) | 1997-07-28 | 1999-04-20 | Revlon Consumer Products Corporation | Compact case |
USD396852S (en) | 1997-08-26 | 1998-08-11 | Behavior Tech Computer Corporation | Receiver assembly of a cordless keyboard |
JPH11232012A (ja) | 1998-02-17 | 1999-08-27 | Omron Corp | インタフェース装置およびインタフェースシステム |
USD443727S1 (en) | 1998-05-13 | 2001-06-12 | L.A.B. Luxe, Art, Beaute | Container for cosmetics |
USD414190S (en) | 1998-09-25 | 1999-09-21 | Sharper Image Corporation | Entertainment globe |
USD418125S (en) | 1998-11-03 | 1999-12-28 | Apple Computer, Inc. | Cursor control device |
JP3277500B2 (ja) | 1999-05-10 | 2002-04-22 | ソニー株式会社 | ロボット装置 |
USD433994S (en) | 1999-08-27 | 2000-11-21 | Apple Computer, Inc. | Power adapter |
US7445550B2 (en) | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
US20020055383A1 (en) | 2000-02-24 | 2002-05-09 | Namco Ltd. | Game system and program |
US6728679B1 (en) * | 2000-10-30 | 2004-04-27 | Koninklijke Philips Electronics N.V. | Self-updating user interface/entertainment device that simulates personal interaction |
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
USD465733S1 (en) | 2001-02-22 | 2002-11-19 | The Procter & Gamble Company | Container, primarily for perfume |
SE518692C2 (sv) * | 2001-03-20 | 2002-11-05 | Metso Paper Inc | Blekning av massa med klordioxid |
USD465469S1 (en) | 2001-05-29 | 2002-11-12 | Koninklijke Philips Electronics N.V. | Electronic sound recording and reproducing device for a baby |
USD467037S1 (en) | 2001-07-06 | 2002-12-10 | Dieter Bakic Design S.R.L. | Eyeshadow case |
US6558165B1 (en) | 2001-09-11 | 2003-05-06 | Capticom, Inc. | Attention-focusing device and method of use |
USD463991S1 (en) | 2001-12-03 | 2002-10-08 | Capticom, Inc. | Signaling device |
USD480396S1 (en) | 2002-03-27 | 2003-10-07 | Barbara Buckner | Egg shaped handheld computing device |
USD494633S1 (en) | 2002-09-06 | 2004-08-17 | Odenwalder Kunststoffwerke - Gehausesysteme Gmbh | Housing for electronic device |
USD489706S1 (en) | 2002-12-09 | 2004-05-11 | Johnson Chen | FM auto scan radio |
USD479366S1 (en) | 2003-04-10 | 2003-09-02 | Hct Limited | Container for a cosmetic product |
US20040250218A1 (en) * | 2003-06-06 | 2004-12-09 | Microsoft Corporation | Empathetic human-machine interfaces |
USD503692S1 (en) | 2003-06-17 | 2005-04-05 | Ipo L.L.C. | Outdoor component enclosure |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
JP3953024B2 (ja) | 2003-11-20 | 2007-08-01 | ソニー株式会社 | 感情算出装置及び感情算出方法、並びに携帯型通信装置 |
USD496004S1 (en) | 2003-12-05 | 2004-09-14 | Hannspree, Inc. | Remote control |
USD521512S1 (en) | 2004-01-21 | 2006-05-23 | Mettler-Toledo Gmbh | Input/output device |
GB2414309B (en) | 2004-05-18 | 2009-02-25 | Simon Richard Daniel | Spherical display and control device |
USD518030S1 (en) | 2004-06-14 | 2006-03-28 | Ten Ventures Inc. | Remote control unit for a multimedia device remote control system |
US20060028429A1 (en) | 2004-08-09 | 2006-02-09 | International Business Machines Corporation | Controlling devices' behaviors via changes in their relative locations and positions |
USD518819S1 (en) | 2004-09-01 | 2006-04-11 | Gray David C | Antenna |
USD527008S1 (en) | 2004-10-20 | 2006-08-22 | Edward Pryor & Son Limited | Optical code reader |
USD546759S1 (en) | 2004-12-17 | 2007-07-17 | Nice Spa | Support for remote control |
USD558767S1 (en) | 2005-07-08 | 2008-01-01 | Harman International Industries, Incorporated. | Controller for playback device and display |
WO2007013402A1 (ja) | 2005-07-26 | 2007-02-01 | Brother Kogyo Kabushiki Kaisha | 状況通信装置及び状況通信装置プログラム |
JP2007034544A (ja) | 2005-07-26 | 2007-02-08 | Brother Ind Ltd | 電子機器及び状況通信装置 |
JP2007058844A (ja) | 2005-07-27 | 2007-03-08 | Brother Ind Ltd | 感圧センサ及び推論情報作成装置 |
WO2007034388A2 (en) | 2005-09-20 | 2007-03-29 | Koninklijke Philips Electronics N.V. | Viewing device |
USD526916S1 (en) | 2006-02-15 | 2006-08-22 | Daniel Oas | Pedometer |
USD541228S1 (en) | 2006-03-15 | 2007-04-24 | Koninklijke Philips Electronics N.V. | Remote control unit |
USD554990S1 (en) | 2006-05-11 | 2007-11-13 | Sorematic S.A. | Packaging or container for food products such as confectionery products |
USD602858S1 (en) | 2006-09-06 | 2009-10-27 | Amx Llc | Remote control charging base |
US20080096533A1 (en) * | 2006-10-24 | 2008-04-24 | Kallideas Spa | Virtual Assistant With Real-Time Emotions |
USD597524S1 (en) | 2006-10-31 | 2009-08-04 | Sony Corporation | Modular entertainment system with movable electronic components |
JP2009026125A (ja) | 2007-07-20 | 2009-02-05 | Denso It Laboratory Inc | 感情分析デバイス、感情分析方法およびプログラム |
EP2200512A1 (en) * | 2007-09-14 | 2010-06-30 | Corventis, Inc. | Adherent device for respiratory monitoring and sleep disordered breathing |
USD578711S1 (en) | 2007-09-24 | 2008-10-14 | Mcneil-Ppc, Inc. | Combined fragrance emitting patch and compact |
USD579937S1 (en) | 2008-01-07 | 2008-11-04 | Jon Cohen | Computer mouse |
USD596815S1 (en) | 2008-01-18 | 2009-07-21 | Seiko Epson Corporation | Vacuum cleaner robot |
KR20090093286A (ko) | 2008-02-29 | 2009-09-02 | 한국과학기술원 | 감성적 통신수단 |
CA127554S (en) | 2008-03-07 | 2009-07-16 | Philips Electronics Ltd | Massager unit |
USD595670S1 (en) | 2008-07-09 | 2009-07-07 | Sears Brands, Llc. | Remote control |
USD602915S1 (en) | 2008-07-23 | 2009-10-27 | Samsung Electronics Co., Ltd. | Remote controller for television receiver |
USD595734S1 (en) | 2008-09-05 | 2009-07-07 | Samsung Electronics Co., Ltd. | MP3 player |
USD601564S1 (en) | 2008-10-01 | 2009-10-06 | Namco Bandai Games Inc. | Controller for game machine |
US8004391B2 (en) | 2008-11-19 | 2011-08-23 | Immersion Corporation | Method and apparatus for generating mood-based haptic feedback |
US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
USD602916S1 (en) | 2009-01-26 | 2009-10-27 | Samsung Electronics Co., Ltd. | Remote controller |
USD607347S1 (en) | 2009-02-12 | 2010-01-05 | Cadi Scientific Pte Ltd | Wireless sensor for measuring physiological parameters, in particular body temperature |
USD626147S1 (en) | 2009-04-02 | 2010-10-26 | Goddard Andrew E | Electronic device |
USD627306S1 (en) | 2009-08-14 | 2010-11-16 | Somfy Sas | Remote control |
USD610479S1 (en) | 2009-09-15 | 2010-02-23 | Jianmeng Shi | Electronic anti-theft tag |
USD645818S1 (en) | 2009-11-16 | 2011-09-27 | Callpod, Inc. | Device battery charger |
USD683843S1 (en) | 2009-12-15 | 2013-06-04 | Jackel International Limited | Motor unit for a breast pump |
JP5531612B2 (ja) | 2009-12-25 | 2014-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム |
WO2011112984A1 (en) | 2010-03-11 | 2011-09-15 | Tactus Technology | User interface system |
US9189090B2 (en) | 2010-03-26 | 2015-11-17 | Salesforce.Com, Inc. | Techniques for interpreting signals from computer input devices |
USD643412S1 (en) | 2010-05-14 | 2011-08-16 | Genos Corporation | Handheld remote control unit |
USD632281S1 (en) | 2010-06-02 | 2011-02-08 | Koninklijke Philips Electronics N.V. | Volume control |
USD632265S1 (en) | 2010-06-16 | 2011-02-08 | Samsung Electronics Co., Ltd. | Remote controller for air conditioner |
USD636760S1 (en) | 2010-06-24 | 2011-04-26 | Cheng Uei Precision Indsutry Co., Ltd. | Portable speaker |
USD656034S1 (en) | 2010-08-24 | 2012-03-20 | Wonders Holding BV | Packaging container |
JP2012075089A (ja) | 2010-09-03 | 2012-04-12 | Nikon Corp | 電子機器、及び通信システム |
CA137423S (en) | 2010-09-24 | 2011-05-27 | Bang & Olufsen As | Audio speaker |
KR101248323B1 (ko) | 2011-02-11 | 2013-03-27 | 한국과학기술원 | 유비쿼터스 지능형 육아 서비스 및 맞춤형 교육 서비스 방법, 장치 및 기록 매체 |
WO2012117570A1 (ja) | 2011-03-03 | 2012-09-07 | オムロン株式会社 | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
US9229489B2 (en) | 2011-05-03 | 2016-01-05 | Facebook, Inc. | Adjusting mobile device state based on user intentions and/or identity |
USD687009S1 (en) | 2011-07-26 | 2013-07-30 | Samsung Electronics Co., Ltd. | Bluetooth dongle |
USD654866S1 (en) | 2011-08-24 | 2012-02-28 | Nokia Corporation | Headset charger |
US9596084B2 (en) | 2011-09-09 | 2017-03-14 | Facebook, Inc. | Initializing camera subsystem for face detection based on sensor inputs |
WO2013055380A1 (en) | 2011-10-13 | 2013-04-18 | Intel Corporation | Detection of user activities by a portable device |
USD672465S1 (en) | 2011-11-03 | 2012-12-11 | Constance Jane Sherman | Bead-shaped container |
USD726924S1 (en) | 2011-12-09 | 2015-04-14 | Omron Healthcare Co., Ltd. | Vital signs monitor |
USD695258S1 (en) | 2012-01-09 | 2013-12-10 | Zomm, Llc | Wireless tag |
USD685790S1 (en) | 2012-02-15 | 2013-07-09 | Avermedia Technologies, Inc. | USB record button device |
USD683636S1 (en) | 2012-02-16 | 2013-06-04 | Janne Levanen | Tracking device |
US20140324749A1 (en) * | 2012-03-21 | 2014-10-30 | Alexander Peters | Emotional intelligence engine for systems |
USD705844S1 (en) | 2012-04-20 | 2014-05-27 | Iconoscope, Llc | Remote camera |
BR302012006123S1 (pt) | 2012-05-31 | 2014-11-25 | 3M Innovative Properties Co | Configuração aplicada em dispositivo indicador eletrônico para monitoramento de limpeza |
USD719165S1 (en) | 2012-06-15 | 2014-12-09 | Sammy Hill | Video game controller joystick cover |
USD729773S1 (en) | 2012-08-13 | 2015-05-19 | Fiskars Brands Finland Oy Ab | Wireless remote control |
US9031293B2 (en) * | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
USD732033S1 (en) | 2012-11-21 | 2015-06-16 | SomniQ, Inc. | Portable electronic device |
USD738376S1 (en) | 2012-11-21 | 2015-09-08 | SomniQ, Inc. | Portable electronic device |
JP6138268B2 (ja) | 2012-11-21 | 2017-05-31 | ソムニック インク. | エンパセティックコンピューティングのための装置、及び方法 |
AU351172S (en) | 2013-01-04 | 2013-10-15 | Tomtom Int Bv | Portable electronic device for providing traffic and travel information |
USD700904S1 (en) | 2013-03-14 | 2014-03-11 | Bose Corporation | Remote control |
USD743645S1 (en) | 2013-06-14 | 2015-11-17 | Samsung Electronics Co., Ltd. | Robot cleaner |
KR102160767B1 (ko) | 2013-06-20 | 2020-09-29 | 삼성전자주식회사 | 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법 |
KR102179056B1 (ko) * | 2013-07-19 | 2020-11-16 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
USD717674S1 (en) | 2013-07-22 | 2014-11-18 | Misfit Wearables Corporation | Activity monitoring device |
US9606721B2 (en) | 2013-07-22 | 2017-03-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
USD731334S1 (en) | 2013-08-20 | 2015-06-09 | Fibar Group sp. z o.o. | Flood sensor |
USD756955S1 (en) | 2013-09-21 | 2016-05-24 | Baby Stars Gmbh | Combined audio player and recorder |
USD724060S1 (en) | 2013-10-24 | 2015-03-10 | Samsung Electronics Co., Ltd. | Remote controller |
USD730891S1 (en) | 2013-11-10 | 2015-06-02 | Zhongjie Wang | Host computer |
US20150268737A1 (en) | 2014-03-21 | 2015-09-24 | Bose Corporation | Gesture-based controller for use in axisymmetric housing |
USD752531S1 (en) | 2014-04-20 | 2016-03-29 | Alibaba Group Holding Limited | Television set top box |
USD777331S1 (en) | 2014-05-01 | 2017-01-24 | MAD Apparel, Inc. | Electronic module |
USD783838S1 (en) | 2014-05-20 | 2017-04-11 | Scanadu Incorporated | Portable wireless vital signs scanner |
USD746886S1 (en) | 2014-05-23 | 2016-01-05 | JIBO, Inc. | Robot |
USD755750S1 (en) | 2014-06-12 | 2016-05-10 | Tencent Technology (Shenzhen) Company Limited | Human input device for a consumer electronic device |
USD747984S1 (en) | 2014-07-31 | 2016-01-26 | Sensoro Co. Ltd. | Bluetooth-based sensor |
JP1541334S (ja) | 2015-01-08 | 2018-12-25 | ||
USD786252S1 (en) | 2015-01-19 | 2017-05-09 | Kurv Music Limited | Segmented computer input device |
WO2016137797A1 (en) | 2015-02-23 | 2016-09-01 | SomniQ, Inc. | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
USD768114S1 (en) | 2015-04-23 | 2016-10-04 | No Nda Inc. | Universal remote control |
USD774717S1 (en) | 2015-04-24 | 2016-12-20 | Samsung Electronics Co., Ltd. | Robot cleaner |
USD778871S1 (en) | 2015-05-04 | 2017-02-14 | Ningbo Prosound Electronics Co., Ltd. | Portable speaker |
USD778878S1 (en) | 2015-05-11 | 2017-02-14 | Spin remote B.V. | Remote control |
USD763967S1 (en) | 2015-06-12 | 2016-08-16 | Microsoft Corporation | Thumbstick attachment for a controller |
USD770417S1 (en) | 2015-07-08 | 2016-11-01 | Pengcheng Chen | Speaker |
USD778876S1 (en) | 2015-07-15 | 2017-02-14 | Haixing Zhang | Speaker |
USD776820S1 (en) | 2015-10-01 | 2017-01-17 | Htc Corporation | Heart rate monitor |
USD806711S1 (en) | 2015-12-11 | 2018-01-02 | SomniQ, Inc. | Portable electronic device |
US10222875B2 (en) | 2015-12-11 | 2019-03-05 | SomniQ, Inc. | Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection |
USD773947S1 (en) | 2015-12-31 | 2016-12-13 | Delta Faucet Company | Detector device |
USD800653S1 (en) | 2016-01-12 | 2017-10-24 | Push and Shove LLC | Charging set |
USD831189S1 (en) | 2016-01-27 | 2018-10-16 | Shenzhen Cosbeauty Co., Ltd. | Skin moisture and oil analyzer |
USD834560S1 (en) | 2016-11-08 | 2018-11-27 | Muzik Inc. | Smart remote |
USD848405S1 (en) | 2017-02-06 | 2019-05-14 | Hunter Douglas Inc. | Wireless repeater |
USD844593S1 (en) | 2017-02-06 | 2019-04-02 | Hunter Douglas, Inc. | Automation gateway |
-
2016
- 2016-02-17 WO PCT/US2016/018271 patent/WO2016137797A1/en active Application Filing
- 2016-02-17 JP JP2017544642A patent/JP6743036B2/ja active Active
- 2016-02-17 EP EP16756079.6A patent/EP3262490A4/en not_active Ceased
- 2016-02-17 US US15/046,001 patent/US9946351B2/en active Active
-
2018
- 2018-03-08 US US15/916,155 patent/US10409377B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3262490A1 (en) | 2018-01-03 |
US10409377B2 (en) | 2019-09-10 |
EP3262490A4 (en) | 2018-10-17 |
US20160246373A1 (en) | 2016-08-25 |
US9946351B2 (en) | 2018-04-17 |
WO2016137797A1 (en) | 2016-09-01 |
US20180203512A1 (en) | 2018-07-19 |
JP2018510414A (ja) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6743036B2 (ja) | 共感型計算装置とインターフェース接続するための共感型ユーザインターフェース、システム、及び方法 | |
US10977452B2 (en) | Multi-lingual virtual personal assistant | |
KR102688032B1 (ko) | 자연스러운 어시스턴트 상호작용 | |
US20210081056A1 (en) | Vpa with integrated object recognition and facial expression recognition | |
Vinciarelli et al. | A survey of personality computing | |
US8793118B2 (en) | Adaptive multimodal communication assist system | |
EP4089685A1 (en) | Digital assistant for health requests | |
WO2011028844A2 (en) | Method and apparatus for tailoring the output of an intelligent automated assistant to a user | |
US20230336694A1 (en) | Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features | |
US20210406736A1 (en) | System and method of content recommendation | |
Qvarfordt | Gaze-informed multimodal interaction | |
Curtis et al. | Watch Your Language: Using Smartwatches To Support Communication | |
KR20230142775A (ko) | 지속적인 다이얼로그를 위한 다중 상태 디지털 어시스턴트 | |
DK180835B1 (en) | Spoken notifications | |
Liu | Analysis of gender differences in speech and hand gesture coordination for the design of multimodal interface systems | |
Narain | Interfaces and models for improved understanding of real-world communicative and affective nonverbal vocalizations by minimally speaking individuals | |
US20240290462A1 (en) | Generating Multi-Sensory Content based on User State | |
US20240071378A1 (en) | Authoring context aware policies through natural language and demonstrations | |
Kudrinko | Wearable Sensor-Based Sign Language Recognition Using Bio-Acoustic Signals from High-Frequency Accelerometers | |
Cakmak et al. | EASA: Environment Aware Social Agent | |
Mancas et al. | Proceedings of eNTERFACE 2015 Workshop on Intelligent Interfaces | |
Qvarfordt | Multimodal Interaction | |
WO2023150132A1 (en) | Keyword detection using motion sensing | |
WO2024215857A1 (en) | Digital assistant for providing and modifying an output of an electronic document | |
WO2019054009A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190305 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190404 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190611 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200306 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200316 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6743036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |