JP2016167815A - 触覚フィードバックとしての感情の伝送 - Google Patents

触覚フィードバックとしての感情の伝送 Download PDF

Info

Publication number
JP2016167815A
JP2016167815A JP2016060110A JP2016060110A JP2016167815A JP 2016167815 A JP2016167815 A JP 2016167815A JP 2016060110 A JP2016060110 A JP 2016060110A JP 2016060110 A JP2016060110 A JP 2016060110A JP 2016167815 A JP2016167815 A JP 2016167815A
Authority
JP
Japan
Prior art keywords
user
response
level
facial expression
haptic response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016060110A
Other languages
English (en)
Inventor
ロバート・エス.・ターツ
S Tartz Robert
フレデリック・ディー.・キム
D Kim Frederic
ジェームズ・ビー.・カリー
B Cary James
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016167815A publication Critical patent/JP2016167815A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】感情コンテキストを用いて電子通信を増強するための方法、システムおよびデバイスを提供する。
【解決手段】第2のデバイスは、電子通信を第1のデバイスから受信する。第1のデバイスのユーザの表情が第1のデバイスにおいてキャプチャされる。第2のデバイスは、キャプチャされた表情に基づくデータを第1のデバイスから受信する。受信したデータは、第1のデバイスのユーザに関連する感情コンテキストを決定するために分析される。決定された感情コンテキストに基づいて、触覚応答を生成する。触覚応答は、受信した電子通信に関連する。触覚応答は、ユーザの感情コンテキストを示すために電子通信のアクセスと同時に与えられる。
【選択図】図6

Description

ワイヤレス通信システムは、ボイス、データなど、様々なタイプの電子通信コンテンツを提供するために広く展開されている。電子形態の通信(たとえば、電子メール、テキストメッセージ、ボイスメール、通話)は、人々が便利に他人と交信し、対話することを可能にしたが、電子通信の豊かさは、直接的な対面コミュニケーションには及ばない。
電子通信は、それらだけでは、概して、送信当事者の十分な感情状態を伝達しない。たとえば、調査は、所与のメッセージ中の感情コンテキストの7%が言葉(たとえば、電子通信の文面)によって伝達されることを示唆している。感情コンテキストの別の38%は、ボイスのトーンによって声で伝達される。最後の55%は、顔の表情および他のボディジェスチャーなど、非言語的コミュニケーションを使用して表される。(一般に、Mehrabian,Albert、Ferris,Susan R.(1967)、「Inference of Attitudes from Nonverbal Communication in Two Channels」、Journal of Consulting Psychology 31(3):248〜252を参照)。
従来の電子通信に関して、送信当事者の感情コンテキストまたは感情状態は、受信当事者によって誤解されることがある。その結果、電子通信は、対面コミュニケーションが与えるレベルの豊かさを与えないことがある。
説明する特徴は、一般に、感情コンテキスト情報を用いて電子通信を向上させるための1つまたは複数の改善されたシステム、方法、および/またはデバイスに関する。一構成では、第1のデバイスのユーザが電子通信を発信し得る。ユーザの表情は、通信の発信に関連してキャプチャされ得る。電子通信とキャプチャされた表情に基づくデータとは第2のデバイスに送信され得る。データは、表情に基づいてユーザの感情状態を決定するために分析され得る。触覚(haptic)ベースの応答が第2のデバイスにおいて生成され、受信された電子通信に関連付けられ得る。触覚ベースの応答は第1のユーザの感情状態を表し得る。一例では、触覚応答は、第2のデバイスのユーザが電子通信にアクセスするときにそのユーザに与えられ得る。
一構成では、キャプチャされた表情に基づくデータの生成は、キャプチャされた表情に関連する覚醒(arousal)レベルおよび誘意性(valence)レベルを識別することを含み得る。覚醒レベルおよび誘意性レベルは、第1のデバイスのユーザの感情状態を表し得る。また、第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータが識別され得る。識別された覚醒レベルと、誘意性状態と、時間インジケータとを表すデータが符号化され得る。
一例では、覚醒レベルは、第1のデバイスのユーザのキャプチャされた表情に関連する強度のレベルを示し得る。誘意性レベルは、第1のデバイスのユーザのキャプチャされた表情に関連する快感情(pleasure)のレベルを示し得る。
一構成では、キャプチャされた表情に基づくデータの生成はまた、複数の異なる時間期間の各々におけるキャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別することを含み得る。覚醒レベルおよび誘意性レベルは、複数の異なる時間期間の各々における第1のデバイスのユーザの感情状態を表し得る。複数の異なる時間期間の各々における識別された覚醒レベルおよび誘意性レベルを表すデータが符号化され得る。
また、感情コンテキストを用いて電子通信を向上させるための方法について説明する。一例では、第1のデバイスから、第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信が受信され得る。キャプチャされた表情に基づく受信されたデータに関する触覚応答が生成され得る。触覚応答は、受信された電子通信に関連付けられ得る。
受信されたデータは、第1のデバイスのユーザの感情状態を表すインジケータを抽出するために分析され得る。第1のデバイスのユーザの感情状態は、抽出されたインジケータに基づいて決定され得る。インジケータは、第1のデバイスのユーザのキャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを含み得る。覚醒レベルは、第1のデバイスのユーザのキャプチャされた表情に関連する強度のレベルを示し得る。誘意性レベルは、第1のデバイスのユーザのキャプチャされた身体的な表情に関連する快感情のレベルを示し得る。触覚応答は、決定された感情の状態に基づいて生成され得る。
受信されたデータはまた、第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを抽出するために分析され得る。触覚応答の生成は、時間インジケータを使用して、受信された電子通信の再生と同期させられ得る。
受信されたデータはまた、複数のインジケータを抽出するために分析され得る。一構成では、各抽出されたインジケータは、複数の異なる時間期間の各々における第1のデバイスのユーザの感情状態を表し得る。第1のデバイスのユーザの感情状態が、抽出されたインジケータの各々に基づいて決定され得る。複数の触覚応答が生成され得る。各触覚応答は、決定された感情状態のうちの1つを表し得る。
一例では、第1のデバイスのユーザのキャプチャされた表情に基づく受信されたデータに応答して、画像が生成され得る。生成された画像は、生成された触覚応答と同時に表示され得る。画像および触覚応答は第1のデバイスのユーザの感情状態を表し得る。一構成では、第1のデバイスのユーザのキャプチャされた表情に基づく生成されたデータに応答して、オーディオキューが生成され得る。生成されたオーディオキューは、生成された触覚応答と同時に出力され得る。オーディオキューおよび触覚応答は第1のデバイスのユーザの感情状態を表し得る。
一構成では、触覚応答は、ユーザによって選択された選好に基づいて生成され得る。一例では、触覚応答は、第1のデバイスから受信された電子通信のタイプに基づいて触覚応答を生成され得る。触覚応答はまた、ロケーション情報に基づいて生成され得る。さらに、触覚応答は、受信された雑音のレベルに基づいて生成され得る。
一例では、ユーザのキャプチャされた表情は、声の表情、顔の表情、または生理学的データを含み得る。触覚応答は、温度ベースの触覚応答、振動ベースの触覚応答、圧力ベースの触覚応答、テクスチャベースの触覚応答、またはタッピングベースの触覚応答を含み得る。
また、感情コンテキストを用いて電子通信を向上させるためのデバイスについて説明する。本デバイスは、第1のデバイスから、第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するように構成された受信機を含み得る。本デバイスはまた、キャプチャされた表情に基づく受信されたデータに関する触覚応答を生成するように構成された応答生成モジュールを含み得る。触覚応答は、受信された電子通信に関連付けられ得る。
また、感情コンテキストを用いて電子通信を向上させるためのシステムについて説明する。本システムは、第1のデバイスのユーザの表情をキャプチャするための手段と、ユーザのキャプチャされた表情に基づいてデータを生成するための手段とを含み得る。本システムは、生成されたデータを送信するための手段と、第2のデバイスにおいて、前記キャプチャされた表情に基づく前記生成されたデータを受信するための手段とをさらに含み得る。さらに、本システムは、第2のデバイスにおいて、キャプチャされた表情に基づく生成されたデータに関する触覚応答を生成するための手段を含み得る。
また、非一時的コンピュータ可読媒体を含むコンピュータプログラム製品について説明する。本コンピュータ可読媒体は、第1のデバイスから、第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するためのコードを含み得る。本媒体は、キャプチャされた表情に基づく受信されたデータに関する触覚応答を生成するためのコードをさらに含み得る。一例では、触覚応答は、受信された電子通信に関連付けられ得る。
以下の図面を参照すれば、本発明の性質のさらなる理解が得られ得る。添付の図において、同様の構成要素または特徴は同じ参照ラベルを有し得る。さらに、同じタイプの様々な構成要素は、参照ラベルの後に、ダッシュと、それらの同様の構成要素同士を区別する第2のラベルとを続けることによって区別され得る。第1の参照ラベルのみが明細書において使用される場合、その説明は、第2の参照ラベルにかかわらず、同じ第1の参照ラベルを有する同様の構成要素のうちのいずれか1つに適用可能である。
ワイヤレス通信システムのブロック図。 感情コンテキスト情報を第2のモバイルデバイスに通信する第1のモバイルデバイスの一例を示すブロック図。 感情コンテキストデータを送信する第1のモバイルデバイスの一例を示すブロック図。 感情コンテキストデータを受信する第2のモバイルデバイスの一例を示すブロック図。 触覚応答生成モジュールの一例を示す図。 感情コンテキストを用いて電子通信を向上させるための方法の一例を示すフローチャート。 生成すべき触覚応答のタイプを決定するための方法の一例を示すフローチャート。 感情コンテキストを用いて電子通信を向上させるための方法のさらなる一例を示すフローチャート。 ユーザの覚醒レベルおよび誘意性レベルに基づいてユーザの感情状態を決定するための方法の一例を示すフローチャート。
感情コンテキストを用いて電子通信を増強するための方法、デバイス、およびシステムについて説明する。第1のデバイスは、電子通信を生成し、第2のデバイスに送信し得る。第1のデバイスはまた、第1のデバイスのユーザ(以下、第1のユーザと呼ぶ)の表情をキャプチャし、第1のユーザの感情状態を推論するデータを生成し得る。生成されたデータは第2のデバイスに送信され得る。一構成では、第2のデバイスは、データを受信し、受信されたデータに基づいて第1のユーザの感情状態を決定し得る。第2のデバイスは、決定された感情状態に基づいて触覚応答をレンダリングし得る。触覚応答は、第1のデバイスから受信した電子通信とともに、第2のデバイスのユーザ(以下、第2のユーザと呼ぶ)に与えられ得る。
一例では、第1のデバイスは、いくつかの表情をキャプチャし、ある時間期間にわたって第1のユーザの感情状態を示すデータを生成し得る。データは、第1のデバイスからの電子通信とともに第2のデバイスに送信され得る。第2のデバイスは、ある時間期間にわたって第1のユーザの感情状態を決定し得る。一構成では、電子通信は、第1のユーザの変化する感情状態を示すために時間とともに変わり得る触覚応答とともに第2のユーザに与えられ得る。その結果、第2のユーザは、電子通信を見ること、聴くこと、読むことなどを行い、同時に、第1のユーザの感情状態の範囲を示す触覚応答をリアルタイムで受信し得る。
以下の説明は、例を与えるものであり、特許請求の範囲において記載される範囲、適用性、または構成を限定するものではない。本開示の趣旨および範囲から逸脱することなく、説明する要素の機能および構成に変更が加えられ得る。様々な実施形態は、適宜に様々なプロシージャまたは構成要素を省略、置換、または追加し得る。たとえば、説明する方法は、説明する順序とは異なる順序で実行され得、様々なステップが追加、省略、または組み合わせられ得る。また、いくつかの実施形態に関して説明する特徴は、他の実施形態において組み合わせられ得る。
最初に図1を参照すると、ブロック図に、ワイヤレス通信システム100の一例が示されている。システム100は、基地局105(またはセル)と、モバイルデバイス115と、基地局コントローラ120と、コアネットワーク125とを含む(コントローラ120はコアネットワーク125に組み込まれ得る)。システム100は、複数のキャリア(異なる周波数の波形信号)上での動作をサポートし得る。
基地局105は、基地局アンテナ(図示せず)を介してモバイルデバイス115とワイヤレス通信し得る。基地局105は、複数のキャリアを介して基地局コントローラ120の制御下でモバイルデバイス115と通信し得る。基地局105サイトの各々は、それぞれの地理的エリアに通信カバレージを与え得る。各基地局105のためのカバレージエリアは、ここでは、110−a、110−b、または110−cとして識別される。基地局のためのカバレージエリアは、(図示されていないが、カバレージエリアの一部分のみを構成する)セクタに分割され得る。システム100は、異なるタイプの基地局105(たとえば、マクロ基地局、マイクロ基地局、および/またはピコ基地局)を含み得る。異なる技術のための重複カバレージエリアが存在し得る。
モバイルデバイス115はカバレージエリア110全体にわたって分散され得る。モバイルデバイス115は、移動局、モバイルデバイス、アクセス端末(AT)、ユーザ機器(UE)、加入者局(SS)、または加入者ユニットと呼ばれることがある。モバイルデバイス115は、セルラー電話とワイヤレス通信デバイスとを含み得るが、携帯情報端末(PDA)、他のハンドヘルドデバイス、ネットブック、ノートブックコンピュータなどをも含み得る。
基地局105は、モバイルデバイス115のユーザが互いに通信することを可能にし得る。たとえば、第1のモバイルデバイスは、第2のモバイルデバイスに電子通信(たとえば、電子メール、テキストメッセージ、ボイスメールメッセージ、電話呼に関連するリアルタイム会話など)を送り得る。モバイルデバイス115は、電子通信を送っているユーザの表情をキャプチャするための入力デバイスを含み得る。入力デバイスの例としては、カメラ、マイクロフォン、バイオセンサなどが含まれ得る。バイオセンサは、電気皮膚反応(GSR)センサ、心電図センサ(ECG)、パルスオキシメータ、サーミスタ、または皮膚温のための熱電対列などを含み得る。電子通信を作成するユーザによって使用される送信モバイルデバイス115は、キャプチャされた表情を表すデータを作成し得る。データおよび電子通信は、送信デバイス115から受信デバイス115に送信され得る。受信モバイルデバイス115は、通信を作成したユーザの感情状態を決定するためにデータを分析し得る。一構成では、受信デバイス115は触覚応答を生成し得る。応答は、受信された電子通信に関連付けられ得る。受信デバイス115はまた、受信デバイス115のユーザに電子通信および触覚応答を与え得る。触覚応答は、電子通信とともに送信ユーザの感情状態を示し得る。本明細書で使用する「第1のユーザ」という用語は、第1のモバイルデバイスを介して電子通信を作成し、および送信するユーザを指すことがある。「第2のユーザ」という用語は、第2のモバイルデバイスを介して電子通信を受信し、およびアクセスするユーザを指すことがある。
図2は、第2のモバイルデバイス115−a−2に感情コンテキスト情報を通信する第1のモバイルデバイス115−a−1の一例を示すブロック図200である。第1のモバイルデバイス115−a−1と第2のモバイルデバイス115−a−2とは図1のモバイルデバイス115の例であり得る。デバイスは、ネットワーク125接続上で通信し得る。一例では、感情コンテキスト情報は、ネットワーク125を介して第2のモバイルデバイス115−a−2に送信され得る。
第1のデバイス115−a−1は、キャプチャモジュール205、生成モジュール210、および送信機215を含み得る。第2のデバイス115−a−2は、受信機220、分析モジュール225、および応答生成モジュール230を含み得る。一構成では、キャプチャモジュール205は、第1のユーザの表情を表す生データ(たとえば、センサによってキャプチャされた、第1のユーザの声、顔、および/または他の生理学的な表情を表すデータ)をキャプチャし得る。生データは、第2のモバイルデバイス115−a−2に送信された電子通信に関する第1のユーザの感情状態を示し得る。生成モジュール210は、生データを分析して、第1のユーザの感情状態を推論する簡潔なデータ(succinct data)を生成し得る。たとえば、生データは、解釈され、および圧縮され、および/またはカテゴライズされ得る。送信機215は、ネットワーク125上で第2のモバイルデバイス115−a−2の受信機220にこのデータを送信し得る。
一構成では、分析モジュール225は、第1のユーザの感情状態を決定するために、受信されたデータを分析し得る。応答生成モジュール230は、決定された感情状態を表す応答を生成し得る。一例では、応答は、第1のモバイルデバイス115−a−1から受信された電子通信にリンクされ得る。一構成では、第2のユーザは、第2のモバイルデバイス115−a−2を介して電子通信にアクセスし得る。電子通信の例としては、限定するものではないが、電子メールメッセージ、テキストメッセージ、ボイスメールメッセージ、リアルタイム電話会話、ビデオメッセージ、ソーシャルネットワーキングウェブサイトを介したステータス更新などが含まれる。第2のユーザが電子通信にアクセスしたときには、応答生成モジュール230によって生成された応答は第2のユーザに与えられ得る。その結果、第2のユーザは、アクセスされている特定の電子通信に関係するので、第1のユーザの感情状態に気づき得る。
各デバイス115のこれらのコンポーネントは、個別にまたは集合的に、ハードウェア中の適用可能な機能の一部または全部を実行するように適応された1つまたは複数の特定用途向け集積回路(ASIC)を用いて実装され得る。代替的に、それらの機能は、1つまたは複数の他の処理ユニット(またはコア)によって、1つまたは複数の集積回路上で実行され得る。他の実施形態では、当技術分野で知られている任意の方法でプログラムされ得る、他のタイプの集積回路(たとえば、ストラクチャード/プラットフォームASIC、フィールドプログラマブルゲートアレイ(FPGA)、および他のセミカスタムIC)が使用され得る。各コンポーネントの機能はまた、全体的にまたは部分的に、1つまたは複数の汎用または特定用途向けプロセッサによって実行されるようにフォーマットされた、メモリ中に組み込まれた命令によって実装され得る。
次に図3を参照すると、ブロック図300が、感情コンテキストデータを送信し得る第1のモバイルデバイス115−b−1の一例を示している。第1のモバイルデバイス115−b−1は、図1または図2に示したモバイルデバイスの一例であり得る。第1のデバイス115−b−1は、キャプチャモジュール205−aと、生成モジュール210−aと、送信機215とを含み得る。キャプチャモジュール205−aは、声キャプチャモジュール305と、顔キャプチャモジュール310と、生理学的キャプチャモジュール315とを含み得る。一構成では、キャプチャモジュール205−aは、第1のユーザの表情をキャプチャし得る。たとえば、声キャプチャモジュール305は第1のユーザから声の表情をキャプチャし得る。モジュール305は、第1のユーザの声の表情をキャプチャするためのマイクロフォンまたは他の声入力デバイスを含み得る。顔キャプチャモジュール310は、ユーザから表される顔の表情をキャプチャし得る。一例では、顔キャプチャモジュール310は、顔の表情をキャプチャするためのカメラまたは他の入力デバイスを含み得る。生理学的キャプチャモジュール315は、限定するものではないが、第1のユーザのGSRデータ、心拍数、皮膚温などの生理学的データをキャプチャし得る。モジュール315は、このデータをキャプチャするためにバイオセンサを含み得る。
一構成では、生成モジュール210−aは、キャプチャされたデータを受信し、キャプチャされたデータを表す1つまたは複数のインジケータを生成し得る。たとえば、生成モジュール210−aは、識別モジュール320と、符号化モジュール325とを含み得る。識別モジュールは、キャプチャされたデータを分析し、キャプチャされたデータを表すための1つまたは複数のインジケータを識別し得る。たとえば、識別モジュール320は、声の表情の韻律、話す速度(speech rate)、ボリュームなどを調べることによって声のデータを分析し得る。識別モジュール320は、顔の構造をマッピングすることによって、および顔の筋肉の動きを決定するためにアクションユニットを使用することによって、顔の表情を分析し得る。分析は、バイオセンサ、カメラ、マイクロフォンなどによってキャプチャされた表情データに対して特徴抽出およびパターン分類を実行することを含み得る。バイオセンサによってキャプチャされたデータからの特徴抽出は、心拍数、心拍変動、GSR反応、皮膚温などに関係するデータを抽出することを含み得る。パターン分類は、k近傍法(k-Nearest Neighbor)、ニューラルネット(Neural Nets)、単純ベイズ分類器(Naive Bayesian classifiers)などを介して実行され得る。表情の分析は、第1のユーザの感情状態を示す情報を決定するために使用され得る。
識別モジュール320は、分析されたキャプチャデータを表す1つまたは複数のインジケータを識別し得る。たとえば、識別モジュール320は、データの分析に基づいて覚醒レベルインジケータと誘意性レベルインジケータとを識別し得る。言い換えれば、キャプチャデバイス(センサ、カメラ、マイクロフォンなど)は、表情を表す信号(たとえば、GSRセンサからの皮膚コンダクタンス)の生の測定値をキャプチャし得る。特徴抽出技法(たとえば、皮膚コンダクタンス)が実行され得、パターン分類は、他の抽出された特徴を用いて実行され得る。覚醒レベルインジケータおよび誘意性レベルインジケータは、特徴抽出およびパターン分類に基づいて決定され得る。これらのインジケータは、第1のユーザの感情状態の指示を与え得る。覚醒レベルインジケータは、たとえば、1〜10の段階の整数であり得る(ただし、他のいくつかのインジケータタイプ/方式が企図されることに留意されたい)。一構成では、覚醒レベルインジケータは、ユーザのキャプチャされた表情から決定される強度のレベルを示し得る。誘意性レベルインジケータは、また、たとえば、1〜10の段階の整数であり得る。このインジケータは、ユーザの表情から決定される快感情のレベルを表し得る。一例として、「10」は高い覚醒レベルまたは誘意性レベルを表し、一方、「1」は低いレベルを表し得る。一例では、識別モジュール320は、また、識別された覚醒レベルおよび誘意性レベルが表される時間期間を示す時間インジケータを識別し得る。
符号化モジュール325は、キャプチャモジュール205−aによってキャプチャされた生データを表すインジケータを符号化し得る。たとえば、符号化モジュール210−aは、覚醒レベルインジケータおよび誘意性レベルインジケータを1〜10の段階の整数として符号化し得る。符号化モジュール325は、また、ユーザが、示された覚醒レベルおよび誘意性レベルを経験した時間期間を表す時間インジケータを符号化し得る。送信機215は、符号化データを受信モバイルデバイスに送信し得る。
図4は、感情コンテキストデータを受信し得る第2のモバイルデバイス115−b−2の一例を示すブロック図400である。第2のモバイルデバイス115−b−2は、図1、図2、または図3のいずれかに示したモバイルデバイス115の一例であり得る。デバイス115−b−2は、受信機220と、分析モジュール225−aと、応答生成モジュール230−aとを含み得る。受信機220は、第1のモバイルデバイス115−b−1から符号化データを受信し得る。分析モジュール225−aは、第1のユーザの感情状態を決定するために符号化データを分析し得る。一構成では、分析モジュール225−aは、覚醒レベルモジュール405と、誘意性レベルモジュール410と、感情状態モジュール415とを含み得る。覚醒レベルモジュール405は、符号化データを分析して、第1のユーザの覚醒レベルを表す覚醒レベルインジケータを抽出し得る。誘意性レベルモジュール410は、データを分析して、第1のユーザの誘意性レベルを示す誘意性レベルインジケータを抽出し得る。前に説明したように、覚醒レベルインジケータおよび誘意性レベルインジケータは整数であり得る。一例として、覚醒レベルモジュール405は、覚醒レベルインジケータを表す整数「2」を抽出し得る。誘意性レベルモジュール410は、データを分析して、誘意性レベルインジケータを表す整数「1」を抽出し得る。この例では、覚醒整数「2」は、第1のユーザが、電子通信を作成する間に低いレベルの強度を経験したことを示し得る。誘意性の整数「1」は、ユーザが、通信を作成する間に低いレベルの快感情を経験したことを示し得る。感情状態モジュール415は、覚醒レベルインジケータおよび誘意性レベルインジケータに基づいて第1のユーザの感情状態を決定し得る。一例では、モジュール415は、特定の覚醒および誘意性レベルインジケータを感情ラベルに変換するためのルックアップテーブルを含み得る。上記の例では、感情状態モジュール415は、覚醒の整数「2」と誘意性の整数「1」とを、ユーザの感情状態を表すラベルに変換し得る。この例の場合のラベルは、「悲しい」、「元気のない」など(たとえば、低い強度および低い快感情)であり得る。
応答生成モジュール230−aは、選好入力モジュール410と、視覚応答生成モジュール420と、オーディオ応答生成モジュール425と、触覚応答生成モジュール430とを含み得る。一構成では、応答生成モジュール230−aは、第1のユーザの決定された感情状態を示す応答を生成し得る。生成された応答は、第2のモバイルデバイス115−b−2を介して第2のユーザに与えられ得る。該応答は、第1のユーザによって作成された、第1のデバイス115−b−1から受信される電子通信とともに与えられ得る。たとえば、視覚応答生成モジュール420は、第1のユーザの感情状態を示す、いくつかの形態の電子通信(たとえば、電子メール、テキストメッセージ、ビデオメッセージなど)に関する視覚応答を生成し得る。視覚応答の例としては、限定するものではないが、電子通信に適用される背景色、通信とともに表示されるテキスト、電子通信とともに含まれる縁取り色(border color)、電子通信とともに表示される画像、電子通信にリンクされたアニメーション化されたアバターなどがあり得る。
オーディオ応答生成モジュール425は、第1のユーザの感情状態を示す、いくつかのタイプの電子通信に関するオーディオ応答を生成し得る。オーディオ応答の例としては、限定するものではないが、ビープ、キュー(cues)、可聴テキストなどが含まれ得る。オーディオ応答は、第1のユーザによって作成される電子通信にリンクされ得る。触覚応答生成モジュール430は、第1のユーザの感情状態を表す触覚応答を生成し得る。触覚応答の例としては、温度、振動、圧力、タッピング、テクスチャなどが含まれ得る。第2のユーザは、第1のユーザによって作成された電子通信を受信すると同時に、モジュール230−aによって生成された応答を受信し得る。その結果、電子通信は、感情コンテキストを用いて増強され得る。電子通信の受け手は、電子通信を送った当事者の感情状態をより良く理解し得る。応答生成モジュール230−aはまた、応答をリアルタイムで生成し得る。したがって、リアルタイム通信(たとえば、電話呼)の参加者は、通信中に生成された応答を介して他の当事者のリアルタイムの感情状態に気づき得る。
一構成では、選好入力モジュール410は、第2のユーザから入力を受信し得る。入力は、様々なタイプの電子通信に関してどの(1つまたは複数の)応答を生成すべきかに関係する、第2のユーザの選好を含み得る。たとえば、第2のユーザは、いくつかの電子通信(たとえば、電話呼、ボイスメールなど)に関する触覚ベースの応答と、他のタイプの通信(たとえば、電子メール、テキストメッセージなど)に関する視覚応答とを生成することを望み得る。選好入力モジュール410は、また、第2のユーザが電子通信に関する複数のタイプの応答を生成すべきかどうかを選択することを可能にし得る。たとえば、第2のユーザは、いくつかの電子通信に関するオーディオ応答と組み合わせて触覚ベースの応答を生成することを望み得る。選好入力モジュール410はまた、第2のユーザが、モバイルデバイス115−b−2のロケーション、モバイルデバイス115−b−2に存在する背景雑音のレベルなどに基づいて生成すべき応答のタイプを選択することを可能にし得る。
応答生成モジュール230−aは、さらに、電子通信と同期して応答を生成し、提供し得る。同期は、分析モジュール225−aによって抽出された時間インジケータを使用することによって達成され得る。たとえば、第2のモバイルデバイス115−b−2は、第1の時間期間においてボイスメール(または他のタイプの電子通信)を受信し、記憶し得る。分析モジュール225−aは、ボイスメールが発信された時点の送信当事者の感情状態を決定し得る。決定された感情状態は、記憶されたボイスメールにリンクされ得る。第2の時間期間において、受信当事者は、記憶されたボイスメールにアクセスし得る。応答生成モジュール230−aは、送信当事者のあらかじめ決定された感情状態を表す応答を生成し得る。応答は、受信当事者がボイスメールを聴いている間に、受信当事者に与えられ得る。一例として、応答は、アニメーション化されたアバターを含み得る。アバターは、ボイスメールの送信者の感情状態を描写するために、ボイスメールの再生中にアニメーション化され得る。別の例として、応答は、触覚ベースの応答であり得る。たとえば、ボイスメールの送信者の感情状態が「怒り」である場合、第2のモバイルデバイス115−b−2は、ボイスメールの再生中に熱くなり得る。その結果、受信当事者は、ボイスメールが作成された時点の送信当事者の感情状態に気づく。様々なタイプの電子通信、ならびに生成されて通信に関連付けられ得る可能な応答のさらなる例が、以下に与えられる。以下の様々な例は、図1、図2、図3、または図4において説明したモバイルデバイスの例を指すことがある。以下で説明するタイプの電子通信に加えて、他のタイプの電子通信も、本システムおよび方法とともに使用され得る。
電話呼:上述のように、モバイルデバイス115のユーザは、リアルタイム電話呼に関与し得る。一構成では、第1のモバイルデバイス115−b−1上の生理学的キャプチャモジュール315は、第1のユーザからの生理学的入力をキャプチャし得る。たとえば、第1のモバイルデバイス115−b−1上のバイオセンサは、呼中に第1のユーザの感情コンテキストをモニタし得る。また、第1のユーザの追加の表情が、生理学的入力とともにキャプチャされ得る。たとえば、声キャプチャモジュール305は、声の表情をキャプチャし、生理学的入力への2次入力としての声の表情認識を実行し得る。覚醒レベルインジケータと誘意性レベルインジケータとは、キャプチャされたデータから識別され、第2のモバイルデバイス115−b−2に送信され得る。
第2のデバイス115−b−2の分析モジュール225−aは、第1のユーザの感情状態を決定するために覚醒レベルインジケータと誘意性レベルインジケータとを分析し得る。決定された感情コンテキストは、たとえば、触覚応答を介して第2のモバイルデバイス115−b−2の第2のユーザに伝達され得る。応答は、ペルチェ素子(Peltier element)を使用して熱の形態で与えられ得る。限定するものではないが、振動バースト(vibration burst)など、他の形態の触覚応答も使用され得る。また、追加の応答が触覚応答とともに使用され得る。たとえば、可聴キューが生成され得る。可聴キューは、第1のユーザが感情状態を変更したときを示すチャイムであり得る。たとえば、第1のユーザが動揺または興奮している場合、第2のモバイルデバイス115−b−2は温まり始め得る。また、第1のユーザの感情コンテキストを伝達するために、特定の周波数、強度または持続時間の可聴チャイムが与えられ得る。第1のユーザが電話呼中に平静になった場合、第2のデバイス115−b−2は冷え始め得る。また、第1のユーザの感情状態のこの変化を示す短い可聴チャイムが与えられ得る。触覚ベースの応答が振動を含む場合、振動強度、持続時間、および周波数は、第1のユーザの感情状態に応じて変動し得る。ハンズフリー通話の場合、第1のユーザの感情状態をコンテキスト化するために、視覚応答(たとえば、画像または背景色)が与えられ得る。その結果、第2のユーザ(または受信当事者)は、第2のモバイルデバイス115−b−2に触ること、可聴キューを聴くこと、および/または第1のユーザ(または送信当事者)の感情ステータスを表す視覚応答を見ることによって、第1のユーザの感情状態を推測し得る。
テキストメッセージの書込み/読取り:テキストメッセージの例としては、電子メールメッセージ、ショートメッセージサービス(SMS)メッセージ、ソーシャルネットワーキングウェブサイトへのポスト、インスタントメッセージング(IM)メッセージなどが含まれ得る。たとえば、第1のユーザはテキストメッセージを作成し得る。第1のユーザの顔の特徴/表情は、顔キャプチャモジュール310を介してキャプチャされ得る。生理学的キャプチャモジュール315はまた、第1のユーザに関する生理学的情報をキャプチャし得る。覚醒レベルインジケータおよび誘意性レベルインジケータは、キャプチャされた表情から識別され得る。インジケータは、たとえば、整数として符号化され、第2のデバイス115−b−2に送信され得る。第2のデバイス115−b−2は、符号化された整数から第1のユーザの感情コンテキストを決定し得る。応答生成応答モジュール230−aは、第1のユーザの感情状態を表すための応答を生成し得る。たとえば、視覚応答生成モジュール420は、第1のユーザの感情状態に対応する画像を生成し得る。画像は、アバター画像、メッセージのための背景色、またはメッセージのための縁取り色を含み得る。画像は、テキストメッセージが閲覧されるときに、第2のユーザに与えられ得る。
別の例では、第1のユーザの顔の表情は、第1のユーザがメッセージを書くときにリアルタイムでキャプチャされ得る。メッセージが閲覧されるときに、アニメーション化されたアバターが第2のユーザに与えられ得る。別の例では、アニメーション化されたアバター(または他の抽象的な画像)は、メッセージが第2のユーザに読み取られているときに、テキスト・トゥ・スピーチ・システムと同期して動き得る。
ボイスメールメッセージの記録/リスニング:第1のユーザがボイスメールメッセージを記録するときに感情状態情報をキャプチャするために、声の表情認識(および場合によってはバイオセンサデータ)が使用され得る。キャプチャされた情報は、覚醒レベルおよび誘意性レベルを表す整数として情報を符号化することによって覚醒レベルインジケータおよび誘意性レベルインジケータに圧縮され得る。符号化された情報は第2のデバイス115−b−2に送信され得る。第1のユーザの覚醒レベルおよび誘意性レベルを示す符号化された情報は、メタデータとして第2のユーザのボイスメールメッセージインボックスに伝達され得る。第2のユーザがインボックスにアクセスしてメッセージを聴くときには、符号化データは、第2のデバイス115−b−2上で、熱または振動などの触覚応答としてレンダリングされ得る。また、可聴キューは、ボイスメールメッセージが記録された間の第1のユーザの感情コンテキストを第2のユーザに与えるために使用され得る。
着信呼/メッセージ通知:一例では、第1のユーザが電話をかけるときには、第1のユーザの感情状態を決定するために、顔の表情および/または生理学的データがキャプチャされ得る。第1のユーザの現在および/または過去の感情状態を表すメタデータは、第2のモバイルデバイス115−b−2に送られ得る。応答生成モジュール230−aは、第1のユーザの感情ステータスを反映する視覚画像としてメタデータをレンダリングし得る。視覚画像は、第2のモバイルデバイス115−b−2のディスプレイセクション上に表示される背景色、アバター画像、または第1のユーザの感情状態を伝達するための何らかの他の画像を含み得る。たとえば、第1のユーザの「怒っている」感情状態を表すために、火の画像が表示され得る。メタデータはまた、触覚応答および/またはオーディオ応答としてレンダリングされ得る。これらの応答は、第1のユーザの感情ステータスに関して第2のユーザにキューを出すために、強度、周波数、および/または持続時間を変化させ得る。生成された応答は、第2のユーザが第1のユーザのデバイスからの着信呼を通知されたときに与えられ得る。第2のユーザは、第1のユーザからの着信呼またはメッセージに答えるべきか否かを決定するために応答を使用し得る。
ロギングされた呼、メッセージ、ボイスメール:一例では、第1のユーザから発信した呼、メッセージ、またはボイスメールが、第2のユーザによって失われ得る。第2のモバイルデバイス115−b−2は、失われた電子通信をロギングし得る。一構成では、上記で説明したように、応答が応答生成モジュール230aによって生成され、失われた通信とともにロギングされ得る。たとえば、呼またはボイスメールが行われたとき、またはメッセージが送られたときの第1のユーザの感情ステータスを表す静止画像が生成され得る。応答は、第2のユーザが、ロギングされた通信に関する情報にアクセスしたときに、第2のユーザに与えられ得る。
リアルタイムステータス:一構成では、第1のユーザは、リアルタイムストリーミング感情ステータスを得るためにバイオセンサを着用し得る。リアルタイム感情コンテキストは、電子情報を増強するために、視覚画像、触覚ベースの応答、および/または可聴キューを使用してレンダリングされ得る。たとえば、ソーシャルネットワーキングウェブサイト上の第1のユーザのプロファイルは、第1のユーザの感情ステータスを用いてリアルタイムで更新され得る。第1のユーザのプロファイルの閲覧者は、生成された応答を介して第1のユーザの感情状態にリアルタイムで気づき得る。同様に、電子アドレス帳中の人々のプロファイルも、彼らの現在の感情ステータスを用いてリアルタイムで更新され得る。その結果、電子アドレス帳の所有者は、その所有者の電子アドレス帳中に含まれる個人の感情ステータスをリアルタイムで知り得る。
ネットワーク化されたゲーミング:また、ネットワーク化されたゲーミング環境は、ゲームプレイとネットワーク化された当事者間の通信とを向上させるために、参加しているユーザの感情ステータスを伝達し得る。基本感情ステータスが、顔の表情、バイオセンサ、および/または声の表情を介して決定され得る。感情ステータスは、ロギングされ、表情を提供したユーザを模倣するためにゲーミングアバターの顔の表情としてレンダリングされ得る。ユーザの感情ステータスを表すために、他の応答も上記で説明したように生成され得る。
ビデオ呼、ビデオチャット、またはビデオ会議:第1のユーザのコンテキストモダリティは、一般に、第2のユーザが見るべきビデオ呼中に存在するが(すなわち、言葉、声の表情、顔の表情)、第1のユーザの感情の状態を強調するために、追加の感情コンテキストが使用され得る。たとえば、ビデオ呼中に、第1のユーザの感情状態と同期して色を変化させる縁取りが、第1のユーザの周りに生成され得る。また、触覚ベースの応答が、第1のユーザの感情ステータスを示すために生成され得る。たとえば、第2のデバイス115−b−2が、ビデオ呼中に第2のユーザが第1のユーザの顔の表情を精確に解釈する困難を増大させる比較的小さいディスプレイスクリーンを含むときには、触覚ベース応答が生成され得る。
図5は、触覚応答生成モジュール430aの一例を示すブロック図500である。モジュール430−aは、図4のモジュール430の一例であり得る。触覚応答生成モジュール430−aは、図1、図2、図3、または図4のモバイルデバイス115中に実装され得る。一構成では、モジュール430−aは、温度応答生成モジュール505と、振動応答生成モジュール510と、圧力応答生成モジュール515と、テクスチャ応答生成モジュール520と、タッピング応答生成モジュール525とを含み得る。ユーザの感情状態を表すための異なるタイプの触覚ベースの応答を作成するために、様々なモジュールが使用され得る。
一例では、温度応答生成モジュール505は、モバイルデバイス115の温度をユーザの感情ステータスに基づいて変化させる触覚応答を生成し得る。たとえば、(第1のモバイルデバイス115−b−1によって検出される)第1のユーザのGSRレベル(またはGSR応答のレート)が増加するにつれて、第2のモバイルデバイス115−b−2の温度は線形的に増加し得る。その結果、第2のユーザは、第2のモバイルデバイス115−b−2を持っている間に、デバイス115−b−2の温度の上昇または低下を知覚し得る。温度の変化は、第1のユーザの対応する感情ステータスを示し得る。温度ベースの触覚応答は、第2のユーザの皮膚と接触している第2のモバイルデバイス115−b−2の背面および/または側面の温度をシフトするための熱電冷却器(TEC:Thermoelectric Cooler)またはペルチェ素子を使用して生成され得る。
一構成では、振動応答生成モジュール510は、受信デバイス上でレンダリングされる振動を使用して触覚応答を生成し得る。人間の振動の知覚は、おおよそ100Hzから約1kHzまでの間である。ピークの知覚は約250Hzであり得る。モジュール510は、第1のユーザのGSRレベルまたはGSR応答の数に応じて振動の特性(たとえば、振幅、周波数、および持続時間)を変更し得る。振動は、連続的に変化する振動ではなく短い振動バーストによって示される感情の変化を示すために使用され得る。モジュール510は、振動ベースの触覚応答を生成するために、以下のアクチュエータ、すなわち、偏心回転質量(ERM:Eccentric Rotating Mass)、線形共振アクチュエータ(LRA:Linear Resonant Actuator)、多機能アクチュエータ(MFA:Multi-Function Actuator)、および圧電アクチュエータを使用し得る。
以下の例は、振動応答生成モジュール510によって生成され得る振動ベースの応答の使用を示している。たとえば、電話の会話中に、第1のモバイルデバイス115−b−1によって検出される第1のユーザの覚醒レベルおよび/または誘意性レベルは、所与のしきい値よりも増大し得る。第2のユーザによって使用される第2のモバイルデバイス115−b−2は、第1のユーザの怒り/興奮を示すためにピークの人間感度(250Hz)に近い高振幅振動で短いバーストを振動させ得る。一方、第1のユーザの覚醒レベルおよび/または誘意性レベルが所与のしきい値を下回って減少した場合、第2のモバイルデバイス115−b−2は、第1のユーザの平静な状態を示すために、周波数がより高くなり得る、より低い振幅の振動で短いバーストを振動させ得る。
圧力応答生成モジュール515は、圧力技法を使用して触覚応答を生成し得る。たとえば、モジュール515は、ユーザの手/指上に皮膚力を加える電気活性ポリマー(EAP)アクチュエータを含み得る。アクチュエータの材料はいくつかの方法で使用され得る。たとえば、EAPは、デバイスの背面および/または側面上に設置され得る。第1のユーザの覚醒レベルおよび/または誘意性レベルが増加するとき、アクチュエータは、デバイスを持つ第2のユーザの皮膚上に圧力を及ぼし得る。アクチュエータ材料は、第2のユーザの手の上に標準圧力を生み出し得る単一の大きなストリップであり得る(たとえば、第1のユーザの覚醒レベルおよび/または誘意性レベルが増大/減少するときに、材料は膨張/収縮し得る)。
一例では、テクスチャ生成モジュール520は、テクスチャベースの触覚応答を生成し得る。人間は、触覚走査を使用せずに約2マイクロメートルの変形を知覚することができ、触覚走査を用いて約0.07マイクロメートルまでの変形を知覚し得る。人間は、一般に、指先を用いた横方向走査を介してテクスチャを知覚する。EAPアクチュエータは、覚醒レベルおよび/または誘意性レベルが高いときに、デバイスの背面および/または側面上に粗いテクスチャを作り出すように個々に拡張する、デバイスの背面および/または側面上に分散している一連の小さいドットとして使用され得る。ユーザが平静なときには、ドットは滑らかになり得る。入力電圧から制御される素子の超音波振動を介して表面の摩擦係数を変化させ得る表面に接合された圧電素子など、テクスチャをレンダリングするための他の方法も使用され得る。そのような素子は、デバイスの側面および/または背面上に配置され得る。アクチュエータの摩擦を制御する係数は、ユーザの感情ステータスに応じて変化し得る。たとえば、デバイスは、変化する感情状態に伴ってより粗く/より滑らかになり得る。
タッピング応答生成モジュール525は、タッピング感覚に基づいて触覚応答を生成するために使用され得る。人間のタップの知覚は、おおよそ20Hz未満である。覚醒および誘意性レベルが増大するにつれて、タップの周波数が増加し得る(または振幅が増加し得る)。覚醒および誘意性レベルが低下するにつれて、タップの周波数が低くなり得る(または振幅が減少し得る)。タップの皮膚触覚作動は、ユーザの覚醒および誘意性パターンに従って皮膚圧力を振動させるデバイスの側面および/または背面上のEAPアクチュエータを使用することによって供給され得る。さらに、より強力な運動感覚タッピング応答を供給するために、リニアモータフォースフィードバックアクチュエータ(linear motor force feedback actuator)がモジュール525中に含まれ得る。
次に図6を参照すると、感情コンテキストを用いて電子通信を向上させるための方法600が示されている。方法600は、図1、図2、図3、または図4のモバイルデバイス115によって実装され得る。一例では、方法600は、受信機220と分析モジュール225と応答生成モジュール230とによって実装され得る。
ブロック605において、第1のデバイスから電子通信が受信される。たとえば、通信は、第1のモバイルデバイス115−b−1から受信され得る。通信は、電話呼、テキストメッセージ、ボイスメールメッセージ、ビデオメッセージ、電子メールなどを含み得る。ブロック610において、第1のデバイス115−b−1の第1のユーザのキャプチャされた表情に基づくデータが受信される。第1のユーザの表情は、第1のモバイルデバイス115−b−1においてキャプチャされ得る。一構成では、ブロック615において、受信されたデータに基づく触覚応答が生成される。触覚応答は、受信された電子通信に関連し得る。電子通信の再生中に、触覚応答は、感情コンテキストを用いて通信を増強するために与えられ得る。
したがって、方法600は、モバイルデバイス115が、通信を発信したユーザの感情状態情報を用いて電子通信を向上させることを可能にする。方法600は一実装形態にすぎないこと、および方法600の動作は、他の実装形態が可能であるように並べ替えられまたは他の形で変更され得ることに留意されたい。
図7は、生成すべき触覚応答のタイプを決定するための方法700の一例を示すフローチャートである。方法700は、図1、図2、図3、または図4のモバイルデバイス115によって実行され得る。一例では、本方法は、受信機220、分析モジュール225、および応答生成モジュール230によって実行され得る。
ブロック705において、第1のモバイルデバイス115−b−1から電子通信が受信される。ブロック710において、第1のデバイスのユーザ(第1のユーザ)のキャプチャされた表情に基づくデータが受信される。表情は、第1のモバイルデバイス115−b−1においてキャプチャされ得る。ブロック715において、カスタマイズされた触覚応答が生成されるべきかどうかに関する決定が行われる。たとえば、ユーザがある特定のタイプの触覚応答を選好するかどうかを決定するために、ユーザ選好が分析され得る。選好はまた、特定のタイプの応答が、第1のデバイス115−b−1から受信された電子通信のタイプに基づいて生成されるべきかどうかを決定するために分析され得る。カスタマイズされた触覚応答が生成されるべきでないと決定された場合、ブロック725において、第1のユーザのキャプチャされた表情に基づいた受信されたデータについてのデフォルトの触覚応答が生成される。しかし、カスタマイズされた触覚応答が生成されるべきであると決定された場合、ブロック720において、1つまたは複数のユーザ選好に基づいた応答が生成される。デフォルトの触覚応答またはカスタマイズされた触覚応答を生成した後、方法700は、戻って、第1のデバイス115−b−1から通信を受信することができる。
したがって、方法700は、特定の触覚応答を用いて通信を増強することによって、モバイルデバイス115が、通信を発信したユーザの感情状態情報を用いて電子通信を向上させることを可能にする。方法700は一実装形態にすぎないこと、および方法700の動作は、他の実装形態が可能であるように並べ替えられまたは他の形で変更され得ることに留意されたい。
図8は、感情コンテキストを用いて電子通信を向上させる方法800の他の一例を示すフローチャートである。方法800は、図1、図2、図3、または図4のモバイルデバイス115によって実行され得る。一例では、本方法は、受信機220、分析モジュール225、および応答生成モジュール230によって実行され得る。
ブロック805において、第1のモバイルデバイス115−b−1から電子通信が受信される。ブロック810において、第1のデバイスの第1のユーザのキャプチャされた表情に基づくデータが受信される。表情は、第1のモバイルデバイス115−b−1においてキャプチャされ得る。ブロック815において、第1のユーザの感情の状態を表す1つまたは複数のインジケータを抽出するために、受信されたデータが分析される。インジケータは、第1のユーザの覚醒レベルおよび誘意性レベルを示す1〜10の間の整数であり得る。第1のユーザの感情ステータスは、抽出された1つまたは複数のインジケータに基づいて決定され得る。
ブロック820において、カスタマイズされた触覚応答が生成されるべきかどうかに関する決定が行われる。カスタマイズされた触覚応答が生成されるべきでないと決定された場合、ブロック825において、デフォルトの触覚応答が生成される。しかし、カスタマイズされた触覚応答が生成されるべきであると決定された場合、ブロック830において、追加の応答がその触覚応答とともに生成されるべきかどうかに関する決定が行われる。追加の応答が生成されないと決定された場合、ブロック835において、1つまたは複数のユーザ選好に基づいて触覚応答が生成される。しかし、追加の応答が生成されるべきであると決定された場合、ブロック840において、追加の応答が生成される。追加の応答は、視覚応答および/または可聴応答を含み得る。ブロック845において、触覚応答が生成される。ブロック850において、第2のモバイルデバイス115−b−2の第2のユーザに対して触覚応答および追加の応答が同時に与えられる。第2のユーザは、生成された応答を使用して、受信された電子通信に関連して第1のユーザの現在および/または過去の感情状態に気づくことができる。(1つまたは複数の)応答を生成した後、方法800は、戻って、第1のデバイス115−b−1から通信を受信することができる。
したがって、方法800は、ユーザの感情ステータスを表す1つまたは複数の応答を使用して、モバイルデバイス115がユーザの感情状態情報を用いて電子通信を向上させることを可能にする。方法800は一実装形態にすぎないこと、および方法800の動作は、他の実装形態が可能であるように並べ替えられまたは他の形で変更され得ることに留意されたい。
次に図9を参照すると、ユーザの覚醒レベルおよび誘意性レベルに基づいてユーザの感情状態を決定するための方法900が与えられている。方法900は、図1、図2、図3、または図4のモバイルデバイス115によって実行され得る。一構成では、方法900は、受信機220、分析モジュール225、および応答生成モジュール230によって実装され得る。
ブロック905において、第1のモバイルデバイス115−b−1などの第1のデバイスから電子通信が受信される。ブロック910において、第1のデバイスの第1のユーザのキャプチャされた表情に基づくデータが受信される。第1のユーザの表情は第1のデバイスにおいてキャプチャされ得る。ブロック915において、覚醒レベルインジケータおよび誘意性レベルインジケータを抽出するためにデータが分析される。インジケータは、第1のユーザの覚醒レベルおよび誘意性レベルを表す整数であり得る。ブロック920において、覚醒レベルインジケータおよび誘意性レベルインジケータに基づいて第1のユーザの感情状態が決定される。ブロック925において、第1のユーザの決定された感情状態に基づいて触覚応答が生成される。触覚応答は、受信された電子通信に関連するか、またはリンクされ得る。
したがって、方法900は、モバイルデバイス115が、ユーザの覚醒レベルおよび誘意性レベルに基づいてユーザの感情状態を決定することを可能にする。方法900は一実装形態にすぎないこと、および方法900の動作は、他の実装形態が可能であるように並べ替えられまたは他の形で変更され得ることに留意されたい。
上記で説明したように、モバイルデバイス115は、ユーザの表情をキャプチャし、ユーザの覚醒レベルおよび誘意性レベルを決定するために表情からいくつかの特徴を識別し得る。決定されたレベルを表すインジケータが符号化され得る。一例では、インジケータは、電子通信とともに他のモバイルデバイス115に送信され得る。他のモバイルデバイス115は、ユーザの感情状態を決定するためにインジケータを分析し得る。電子通信が他のモバイルデバイス115上でアクセスされるときには、決定された感情状態を表すための触覚応答が生成され得る。その結果、電子通信は、感情コンテキストを用いて増強され得る。そのような電子通信の受信者は、通信の発信者の精確な感情ステータスに気づき得る。
添付の図面に関して上記に記載した詳細な説明は、例示的な実施形態について説明しており、実装され得るまたは特許請求の範囲内に入る実施形態のみを表すものではない。この説明全体にわたって使用する「例示的」という用語は、「例、事例、または例示の働きをすること」を意味し、「好ましい」または「他の実施形態よりも有利な」を意味しない。詳細な説明は、説明する技法の理解を与えるための具体的な詳細を含む。ただし、これらの技法は、これらの具体的な詳細なしに実施され得る。場合によっては、説明する実施形態の概念を不明瞭にしないように、よく知られている構造およびデバイスをブロック図の形式で示す。
情報および信号は、多種多様な技術および技法のいずれかを使用して表され得る。たとえば、上記の説明全体にわたって言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁界または磁性粒子、光場または光学粒子、あるいはそれらの任意の組合せによって表され得る。
本明細書の開示に関連して説明した様々な例示的なブロックおよびモジュールは、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)または他のプログラマブル論理デバイス、個別ゲートまたはトランジスタロジック、個別ハードウェアコンポーネント、あるいは本明細書で説明した機能を実行するように設計されたそれらの任意の組合せを用いて実装または実行され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンであり得る。プロセッサは、コンピューティングデバイスの組合せ、たとえばDSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成としても実装され得る。
本明細書で説明した機能は、ハードウェア、プロセッサによって実行されるソフトウェア、ファームウェア、またはそれらの組合せで実装され得る。プロセッサによって実行されるソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され得る。他の例および実装形態は、本開示および添付の特許請求の範囲および趣旨内に入る。たとえば、ソフトウェアの性質により、上記で説明した機能は、プロセッサ、ハードウェア、ファームウェア、ハードワイヤリング、またはこれらのうちのいずれかの組合せによって実行されるソフトウェアを使用して実装され得る。機能を実装する特徴はまた、機能の部分が、異なる物理ロケーションにおいて実装されるように分散されることを含めて、様々な位置に物理的に配置され得る。また、特許請求の範囲を含めて、本明細書で使用される場合、「のうちの少なくとも1つ」で終わる項目の列挙中で使用される「または」は、たとえば、「A、B、またはCのうちの少なくとも1つ」の列挙は、AまたはBまたはC、またはABまたはACまたはBCまたはABC(すなわち、AおよびBおよびC)を意味するような選言的列挙を示す。
コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含む、コンピュータ記憶媒体と通信媒体の両方を含む。記憶媒体は、汎用または専用コンピュータによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく例として、コンピュータ可読媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の形態の所望のプログラムコード手段を搬送または記憶するために使用され得、汎用もしくは専用コンピュータまたは汎用もしくは専用プロセッサによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイ(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれる。
本開示についての以上の説明は、当業者が本開示を作成または使用することができるように与えたものである。本開示への様々な修正は当業者には容易に明らかとなり、本明細書で定義した一般原理は、本開示の趣旨または範囲から逸脱することなく他の変形形態に適用され得る。本開示全体にわたって、「例」または「例示的」という用語は、一例または一事例を示すものであり、言及した例についての選好を暗示せず、または必要としない。したがって、本開示は、本明細書で説明する例および設計に限定されるべきでなく、本明細書で開示する原理および新規の特徴に合致する最も広い範囲を与えられるべきである。
本開示についての以上の説明は、当業者が本開示を作成または使用することができるように与えたものである。本開示への様々な修正は当業者には容易に明らかとなり、本明細書で定義した一般原理は、本開示の趣旨または範囲から逸脱することなく他の変形形態に適用され得る。本開示全体にわたって、「例」または「例示的」という用語は、一例または一事例を示すものであり、言及した例についての選好を暗示せず、または必要としない。したがって、本開示は、本明細書で説明する例および設計に限定されるべきでなく、本明細書で開示する原理および新規の特徴に合致する最も広い範囲を与えられるべきである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
感情コンテキストを用いて電子通信を向上させるための方法であって、
第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信することと、
前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成することであって、前記触覚応答が前記受信された電子通信に関連する、生成することと
を含む、方法。
[C2]
前記第1のデバイスのユーザの感情状態を表すインジケータを抽出するために前記受信されたデータを分析することと、
前記抽出されたインジケータに基づいて前記第1のデバイスのユーザの前記感情状態を決定することと、
前記決定された感情状態に基づいて前記触覚応答を生成することと
をさらに含む、C1に記載の方法。
[C3]
前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを抽出するために前記受信されたデータを分析すること
をさらに含む、C2に記載の方法。
[C4]
時間インジケータを使用して、前記触覚応答の前記生成を前記受信された電子通信の再生と同期させること
をさらに含む、C2に記載の方法。
[C5]
前記インジケータが、
前記第1のデバイスのユーザの前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベル
を含む、C2に記載の方法。
[C6]
前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、C5に記載の方法。
[C7]
前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた身体的表情に関連する快感情のレベルを示す、C5に記載の方法。
[C8]
複数のインジケータを抽出するために前記受信されたデータを分析することであって、各抽出されたインジケータが複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、分析することと、
前記抽出されたインジケータの各々に基づいて前記第1のデバイスのユーザの感情状態を決定することと、
複数の触覚応答を生成することであって、各触覚応答が前記決定された感情状態のうちの1つを表す、生成することと
をさらに含む、C1に記載の方法。
[C9]
前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記受信されたデータに応答して画像を生成することと、
前記生成された触覚応答と同時に前記生成された画像を表示することであって、前記画像および前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、表示することと
をさらに含む、C1に記載の方法。
[C10]
前記第1のデバイスのユーザの前記キャプチャされた表情に基づいて前記生成されたデータに応答してオーディオキューを生成することと、
前記生成された触覚応答と同時に前記生成されたオーディオキューを出力することであって、前記オーディオキューおよび前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、出力することと
をさらに含む、C1に記載の方法。
[C11]
ユーザによって選択された選好に基づいて前記触覚応答を生成すること
をさらに含む、C1に記載の方法。
[C12]
前記第1のデバイスから受信された前記電子通信のタイプに基づいて前記触覚応答を生成すること
をさらに含む、C1に記載の方法。
[C13]
ロケーション情報に基づいて前記触覚応答を生成すること
をさらに含む、C1に記載の方法。
[C14]
受信された雑音のレベルに基づいて前記触覚応答を生成すること
をさらに含む、C1に記載の方法。
[C15]
前記ユーザの前記キャプチャされた表情が、
声の表情、
顔の表情、または
生理学的データ
を含む、C1に記載の方法。
[C16]
前記触覚応答が、
温度ベースの触覚応答、
振動ベースの触覚応答、
圧力ベースの触覚応答、
テクスチャベースの触覚応答、または
タッピングベースの触覚応答
を含む、C1に記載の方法。
[C17]
感情コンテキストを用いて電子通信を向上させるためのデバイスであって、
第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するように構成された受信機と、
前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成するように構成された応答生成モジュールであって、前記触覚応答が、前記受信された電子通信に関連する、応答生成モジュールと
を含む、デバイス。
[C18]
前記第1のデバイスのユーザの感情状態を表すインジケータを抽出するために前記受信されたデータを分析するように構成された分析モジュールをさらに含み、
前記分析モジュールが、前記抽出されたインジケータに基づいて前記第1のデバイスのユーザの前記感情状態を決定するようにさらに構成され、
前記応答生成モジュールが、前記決定された感情状態に基づいて前記触覚応答を生成するようにさらに構成された、C17に記載のデバイス。
[C19]
前記分析モジュールが、前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを抽出するために前記受信されたデータを分析するようにさらに構成された、C18に記載のデバイス。
[C20]
前記応答生成モジュールが、時間インジケータを使用して、前記触覚応答の前記生成を前記受信された電子通信の再生と同期させるようにさらに構成された、C18に記載のデバイス。
[C21]
前記インジケータが、
前記第1のデバイスのユーザの前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベル
を含む、C18に記載のデバイス。
[C22]
前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、C21に記載のデバイス。
[C23]
前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた身体的表情に関連する快感情のレベルを示す、C21に記載のデバイス。
[C24]
分析モジュールが、
複数のインジケータを抽出するために前記受信されたデータを分析することであって、各抽出されたインジケータが複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、分析することと、
前記抽出されたインジケータの各々に基づいて前記第1のデバイスのユーザの感情状態を決定することと
を行うようにさらに構成され、
前記応答生成モジュールが、複数の触覚応答を生成するようにさらに構成され、各触覚応答が前記決定された感情状態のうちの1つを表す、C17に記載のデバイス。
[C25]
前記応答生成モジュールが、
前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記受信されたデータに応答して画像を生成することと、
前記生成された触覚応答と同時に前記生成された画像を表示することであって、前記画像および前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、表示することと
を行うようにさらに構成された、C17に記載のデバイス。
[C26]
前記応答生成モジュールが、
前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記生成されたデータに応答してオーディオキューを生成することと、
前記生成された触覚応答と同時に前記生成されたオーディオキューを出力することであって、前記オーディオキューおよび前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、出力することと
を行うようにさらに構成された、C17に記載のデバイス。
[C27]
前記応答生成モジュールが、ユーザによって選択された選好に基づいて前記触覚応答を生成するようにさらに構成された、C17に記載のデバイス。
[C28]
前記応答生成モジュールが、前記第1のデバイスから受信された前記電子通信のタイプに基づいて前記触覚応答を生成するようにさらに構成された、C17に記載のデバイス。
[C29]
前記応答生成モジュールが、ロケーション情報に基づいて前記触覚応答を生成するようにさらに構成された、C17に記載のデバイス。
[C30]
前記応答生成モジュールが、受信された雑音のレベルに基づいて前記触覚応答を生成するようにさらに構成された、C17に記載のデバイス。
[C31]
前記ユーザの前記キャプチャされた表情が、
声の表情、
顔の表情、または
生理学的データ
を含む、C17に記載のデバイス。
[C32]
前記触覚応答が、
温度ベースの触覚応答、
振動ベースの触覚応答、
圧力ベースの触覚応答、
テクスチャベースの触覚応答、または
タッピングベースの触覚応答
を含む、C17に記載のデバイス。
[C33]
感情コンテキストを用いて電子通信を向上させるためのシステムであって、
第1のデバイスのユーザの表情をキャプチャすることと、
前記ユーザの前記キャプチャされた表情に基づいてデータを生成することと、
前記生成されたデータを送信することと
を行うように構成された第1のデバイスと、
前記キャプチャされた表情に基づく前記生成されたデータを受信することと、
前記キャプチャされた表情に基づく前記生成されたデータについて触覚応答を生成することと
を行うように構成された第2のデバイスと
を含む、システム。
[C34]
前記キャプチャされた表情に基づくデータの前記生成は、
前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別することであって、前記覚醒レベルおよび前記誘意性レベルが前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別することと、
前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを識別することと、
前記識別された覚醒レベルと、誘意性状態と、時間インジケータとを表すデータを符号化することと
を含む、C33に記載のシステム。
[C35]
前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、C34に記載のシステム。
[C36]
前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する快感情のレベルを示す、C34に記載のシステム。
[C37]
前記キャプチャされた表情に基づくデータの前記生成は、
複数の異なる時間期間の各々における前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別することであって、前記覚醒レベルおよび前記誘意性レベルが、前記複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別することと、
前記複数の異なる時間期間の各々における前記識別された覚醒レベルおよび誘意性レベルを表すデータを符号化することと
を含む、C33に記載のシステム。
[C38]
感情コンテキストを用いて電子通信を向上させるためのシステムであって、
第1のデバイスのユーザの表情をキャプチャするための手段と、
前記ユーザの前記キャプチャされた表情に基づいてデータを生成するための手段と、
前記生成されたデータを送信するための手段と、
第2のデバイスにおいて、前記キャプチャされた表情に基づく前記生成されたデータを受信するための手段と、
前記第2のデバイスにおいて、前記キャプチャされた表情に基づく前記生成されたデータについて触覚応答を生成するための手段と
を含む、システム。
[C39]
前記キャプチャされた表情に基づくデータを生成するための前記手段は、
前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別するための手段であって、前記覚醒レベルおよび前記誘意性レベルが前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別するための手段と、
前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを識別するための手段と、
前記識別された覚醒レベルと、誘意性状態と、時間インジケータとを表すデータを符号化するための手段と
を含む、C38に記載のシステム。
[C40]
非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品であって、コンピュータ可読媒体は、
第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するためのコードと、
前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成するためのコードであって、前記触覚応答が、前記受信された電子通信に関連する、生成するためのコードと
を含む、コンピュータプログラム製品。

Claims (40)

  1. 感情コンテキストを用いて電子通信を向上させるための方法であって、
    第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信することと、
    前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成することであって、前記触覚応答が前記受信された電子通信に関連する、生成することと
    を含む、方法。
  2. 前記第1のデバイスのユーザの感情状態を表すインジケータを抽出するために前記受信されたデータを分析することと、
    前記抽出されたインジケータに基づいて前記第1のデバイスのユーザの前記感情状態を決定することと、
    前記決定された感情状態に基づいて前記触覚応答を生成することと
    をさらに含む、請求項1に記載の方法。
  3. 前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを抽出するために前記受信されたデータを分析すること
    をさらに含む、請求項2に記載の方法。
  4. 時間インジケータを使用して、前記触覚応答の前記生成を前記受信された電子通信の再生と同期させること
    をさらに含む、請求項2に記載の方法。
  5. 前記インジケータが、
    前記第1のデバイスのユーザの前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベル
    を含む、請求項2に記載の方法。
  6. 前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、請求項5に記載の方法。
  7. 前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた身体的表情に関連する快感情のレベルを示す、請求項5に記載の方法。
  8. 複数のインジケータを抽出するために前記受信されたデータを分析することであって、各抽出されたインジケータが複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、分析することと、
    前記抽出されたインジケータの各々に基づいて前記第1のデバイスのユーザの感情状態を決定することと、
    複数の触覚応答を生成することであって、各触覚応答が前記決定された感情状態のうちの1つを表す、生成することと
    をさらに含む、請求項1に記載の方法。
  9. 前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記受信されたデータに応答して画像を生成することと、
    前記生成された触覚応答と同時に前記生成された画像を表示することであって、前記画像および前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、表示することと
    をさらに含む、請求項1に記載の方法。
  10. 前記第1のデバイスのユーザの前記キャプチャされた表情に基づいて前記生成されたデータに応答してオーディオキューを生成することと、
    前記生成された触覚応答と同時に前記生成されたオーディオキューを出力することであって、前記オーディオキューおよび前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、出力することと
    をさらに含む、請求項1に記載の方法。
  11. ユーザによって選択された選好に基づいて前記触覚応答を生成すること
    をさらに含む、請求項1に記載の方法。
  12. 前記第1のデバイスから受信された前記電子通信のタイプに基づいて前記触覚応答を生成すること
    をさらに含む、請求項1に記載の方法。
  13. ロケーション情報に基づいて前記触覚応答を生成すること
    をさらに含む、請求項1に記載の方法。
  14. 受信された雑音のレベルに基づいて前記触覚応答を生成すること
    をさらに含む、請求項1に記載の方法。
  15. 前記ユーザの前記キャプチャされた表情が、
    声の表情、
    顔の表情、または
    生理学的データ
    を含む、請求項1に記載の方法。
  16. 前記触覚応答が、
    温度ベースの触覚応答、
    振動ベースの触覚応答、
    圧力ベースの触覚応答、
    テクスチャベースの触覚応答、または
    タッピングベースの触覚応答
    を含む、請求項1に記載の方法。
  17. 感情コンテキストを用いて電子通信を向上させるためのデバイスであって、
    第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するように構成された受信機と、
    前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成するように構成された応答生成モジュールであって、前記触覚応答が、前記受信された電子通信に関連する、応答生成モジュールと
    を含む、デバイス。
  18. 前記第1のデバイスのユーザの感情状態を表すインジケータを抽出するために前記受信されたデータを分析するように構成された分析モジュールをさらに含み、
    前記分析モジュールが、前記抽出されたインジケータに基づいて前記第1のデバイスのユーザの前記感情状態を決定するようにさらに構成され、
    前記応答生成モジュールが、前記決定された感情状態に基づいて前記触覚応答を生成するようにさらに構成された、請求項17に記載のデバイス。
  19. 前記分析モジュールが、前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを抽出するために前記受信されたデータを分析するようにさらに構成された、請求項18に記載のデバイス。
  20. 前記応答生成モジュールが、時間インジケータを使用して、前記触覚応答の前記生成を前記受信された電子通信の再生と同期させるようにさらに構成された、請求項18に記載のデバイス。
  21. 前記インジケータが、
    前記第1のデバイスのユーザの前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベル
    を含む、請求項18に記載のデバイス。
  22. 前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、請求項21に記載のデバイス。
  23. 前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた身体的表情に関連する快感情のレベルを示す、請求項21に記載のデバイス。
  24. 分析モジュールが、
    複数のインジケータを抽出するために前記受信されたデータを分析することであって、各抽出されたインジケータが複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、分析することと、
    前記抽出されたインジケータの各々に基づいて前記第1のデバイスのユーザの感情状態を決定することと
    を行うようにさらに構成され、
    前記応答生成モジュールが、複数の触覚応答を生成するようにさらに構成され、各触覚応答が前記決定された感情状態のうちの1つを表す、請求項17に記載のデバイス。
  25. 前記応答生成モジュールが、
    前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記受信されたデータに応答して画像を生成することと、
    前記生成された触覚応答と同時に前記生成された画像を表示することであって、前記画像および前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、表示することと
    を行うようにさらに構成された、請求項17に記載のデバイス。
  26. 前記応答生成モジュールが、
    前記第1のデバイスのユーザの前記キャプチャされた表情に基づく前記生成されたデータに応答してオーディオキューを生成することと、
    前記生成された触覚応答と同時に前記生成されたオーディオキューを出力することであって、前記オーディオキューおよび前記触覚応答が前記第1のデバイスのユーザの感情状態を表す、出力することと
    を行うようにさらに構成された、請求項17に記載のデバイス。
  27. 前記応答生成モジュールが、ユーザによって選択された選好に基づいて前記触覚応答を生成するようにさらに構成された、請求項17に記載のデバイス。
  28. 前記応答生成モジュールが、前記第1のデバイスから受信された前記電子通信のタイプに基づいて前記触覚応答を生成するようにさらに構成された、請求項17に記載のデバイス。
  29. 前記応答生成モジュールが、ロケーション情報に基づいて前記触覚応答を生成するようにさらに構成された、請求項17に記載のデバイス。
  30. 前記応答生成モジュールが、受信された雑音のレベルに基づいて前記触覚応答を生成するようにさらに構成された、請求項17に記載のデバイス。
  31. 前記ユーザの前記キャプチャされた表情が、
    声の表情、
    顔の表情、または
    生理学的データ
    を含む、請求項17に記載のデバイス。
  32. 前記触覚応答が、
    温度ベースの触覚応答、
    振動ベースの触覚応答、
    圧力ベースの触覚応答、
    テクスチャベースの触覚応答、または
    タッピングベースの触覚応答
    を含む、請求項17に記載のデバイス。
  33. 感情コンテキストを用いて電子通信を向上させるためのシステムであって、
    第1のデバイスのユーザの表情をキャプチャすることと、
    前記ユーザの前記キャプチャされた表情に基づいてデータを生成することと、
    前記生成されたデータを送信することと
    を行うように構成された第1のデバイスと、
    前記キャプチャされた表情に基づく前記生成されたデータを受信することと、
    前記キャプチャされた表情に基づく前記生成されたデータについて触覚応答を生成することと
    を行うように構成された第2のデバイスと
    を含む、システム。
  34. 前記キャプチャされた表情に基づくデータの前記生成は、
    前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別することであって、前記覚醒レベルおよび前記誘意性レベルが前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別することと、
    前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを識別することと、
    前記識別された覚醒レベルと、誘意性状態と、時間インジケータとを表すデータを符号化することと
    を含む、請求項33に記載のシステム。
  35. 前記覚醒レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する強度のレベルを示す、請求項34に記載のシステム。
  36. 前記誘意性レベルが、前記第1のデバイスのユーザの前記キャプチャされた表情に関連する快感情のレベルを示す、請求項34に記載のシステム。
  37. 前記キャプチャされた表情に基づくデータの前記生成は、
    複数の異なる時間期間の各々における前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別することであって、前記覚醒レベルおよび前記誘意性レベルが、前記複数の異なる時間期間の各々における前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別することと、
    前記複数の異なる時間期間の各々における前記識別された覚醒レベルおよび誘意性レベルを表すデータを符号化することと
    を含む、請求項33に記載のシステム。
  38. 感情コンテキストを用いて電子通信を向上させるためのシステムであって、
    第1のデバイスのユーザの表情をキャプチャするための手段と、
    前記ユーザの前記キャプチャされた表情に基づいてデータを生成するための手段と、
    前記生成されたデータを送信するための手段と、
    第2のデバイスにおいて、前記キャプチャされた表情に基づく前記生成されたデータを受信するための手段と、
    前記第2のデバイスにおいて、前記キャプチャされた表情に基づく前記生成されたデータについて触覚応答を生成するための手段と
    を含む、システム。
  39. 前記キャプチャされた表情に基づくデータを生成するための前記手段は、
    前記キャプチャされた表情に関連する覚醒レベルおよび誘意性レベルを識別するための手段であって、前記覚醒レベルおよび前記誘意性レベルが前記第1のデバイスのユーザの感情状態を表す、覚醒レベルおよび誘意性レベルを識別するための手段と、
    前記第1のデバイスのユーザのリアルタイム感情状態を表す時間インジケータを識別するための手段と、
    前記識別された覚醒レベルと、誘意性状態と、時間インジケータとを表すデータを符号化するための手段と
    を含む、請求項38に記載のシステム。
  40. 非一時的コンピュータ可読媒体を備えるコンピュータプログラム製品であって、コンピュータ可読媒体は、
    第1のデバイスから、前記第1のデバイスにおいてキャプチャされたユーザの表情に基づくデータを含む電子通信を受信するためのコードと、
    前記キャプチャされた表情に基づく前記受信されたデータについて触覚応答を生成するためのコードであって、前記触覚応答が、前記受信された電子通信に関連する、生成するためのコードと
    を含む、コンピュータプログラム製品。
JP2016060110A 2011-09-09 2016-03-24 触覚フィードバックとしての感情の伝送 Pending JP2016167815A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/228,660 US9762719B2 (en) 2011-09-09 2011-09-09 Systems and methods to enhance electronic communications with emotional context
US13/228,660 2011-09-09

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014529912A Division JP2014526829A (ja) 2011-09-09 2012-09-07 触覚フィードバックとしての感情の伝送

Publications (1)

Publication Number Publication Date
JP2016167815A true JP2016167815A (ja) 2016-09-15

Family

ID=46852418

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014529912A Withdrawn JP2014526829A (ja) 2011-09-09 2012-09-07 触覚フィードバックとしての感情の伝送
JP2016060110A Pending JP2016167815A (ja) 2011-09-09 2016-03-24 触覚フィードバックとしての感情の伝送

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014529912A Withdrawn JP2014526829A (ja) 2011-09-09 2012-09-07 触覚フィードバックとしての感情の伝送

Country Status (6)

Country Link
US (1) US9762719B2 (ja)
EP (1) EP2754007A1 (ja)
JP (2) JP2014526829A (ja)
KR (1) KR101639761B1 (ja)
CN (1) CN103782253B (ja)
WO (1) WO2013058886A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286249A1 (ja) * 2021-07-15 2023-01-19 日本電信電話株式会社 コミュニケーション支援システム、コミュニケーション支援方法およびプログラム

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151955A1 (en) * 2011-12-09 2013-06-13 Mechell Williams Physical effects for electronic books
US20140122086A1 (en) * 2012-10-26 2014-05-01 Microsoft Corporation Augmenting speech recognition with depth imaging
US9190058B2 (en) 2013-01-25 2015-11-17 Microsoft Technology Licensing, Llc Using visual cues to disambiguate speech inputs
US9202352B2 (en) 2013-03-11 2015-12-01 Immersion Corporation Automatic haptic effect adjustment system
US9619980B2 (en) * 2013-09-06 2017-04-11 Immersion Corporation Systems and methods for generating haptic effects associated with audio signals
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9652945B2 (en) 2013-09-06 2017-05-16 Immersion Corporation Method and system for providing haptic effects based on information complementary to multimedia content
EP3095023A1 (en) 2014-01-15 2016-11-23 Sony Corporation Haptic notification on wearables
US9665198B2 (en) 2014-05-06 2017-05-30 Qualcomm Incorporated System and method for optimizing haptic feedback
US9712680B2 (en) * 2014-05-14 2017-07-18 Mitel Networks Corporation Apparatus and method for categorizing voicemail
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
US9722965B2 (en) 2015-01-29 2017-08-01 International Business Machines Corporation Smartphone indicator for conversation nonproductivity
US10261582B2 (en) * 2015-04-28 2019-04-16 Immersion Corporation Haptic playback adjustment system
US9473625B1 (en) 2015-06-24 2016-10-18 Mast Mobile, Inc. Outgoing call management in a communication environment with unified communication interfaces
CN113532464A (zh) * 2015-10-08 2021-10-22 松下电器(美国)知识产权公司 控制方法、个人认证装置和记录介质
CN113037926B (zh) * 2015-11-13 2023-08-22 索尼公司 通信系统、信息通信方法和存储介质
US10105608B1 (en) * 2015-12-18 2018-10-23 Amazon Technologies, Inc. Applying participant metrics in game environments
US10901945B2 (en) * 2016-01-05 2021-01-26 The grät Network, PBC Systems and methods concerning tracking models for digital interactions
US10157626B2 (en) * 2016-01-20 2018-12-18 Harman International Industries, Incorporated Voice affect modification
US10192551B2 (en) 2016-08-30 2019-01-29 Google Llc Using textual input and user state information to generate reply content to present in response to the textual input
US10135979B2 (en) * 2016-11-02 2018-11-20 International Business Machines Corporation System and method for monitoring and visualizing emotions in call center dialogs by call center supervisors
US10158758B2 (en) 2016-11-02 2018-12-18 International Business Machines Corporation System and method for monitoring and visualizing emotions in call center dialogs at call centers
US10884502B2 (en) * 2016-11-23 2021-01-05 Google Llc Providing mediated social interactions
EP3549002A4 (en) * 2016-11-30 2020-07-15 Microsoft Technology Licensing, LLC FEELING-BASED INTERACTION METHOD AND APPARATUS
CN106648100B (zh) * 2016-12-23 2019-08-06 深圳先进技术研究院 一种人机交互方法、装置和系统
GB201713301D0 (en) 2017-08-18 2017-10-04 Revolutioneyes Me Ltd Communication method
US10558758B2 (en) 2017-11-22 2020-02-11 International Business Machines Corporation Enhancing a computer to match emotion and tone in text with the emotion and tone depicted by the color in the theme of the page or its background
CN108629311A (zh) * 2018-05-02 2018-10-09 尚谷科技(天津)有限公司 一种基于生物脉冲的动作识别方法
US10367931B1 (en) 2018-05-09 2019-07-30 Fuvi Cognitive Network Corp. Apparatus, method, and system of cognitive communication assistant for enhancing ability and efficiency of users communicating comprehension
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
CN108830265A (zh) * 2018-08-29 2018-11-16 奇酷互联网络科技(深圳)有限公司 在网络交流中的情绪提醒的方法、通信终端和存储装置
US10769829B2 (en) * 2018-10-01 2020-09-08 International Business Machines Corporation Adapting layers of an image for each recipient perspective
EP3864575A4 (en) * 2018-10-09 2021-12-01 Magic Leap, Inc. VIRTUAL AND AUGMENTED REALITY SYSTEMS AND PROCESSES
US10692606B2 (en) * 2018-10-23 2020-06-23 International Business Machines Corporation Stress level reduction using haptic feedback
US10834543B2 (en) * 2018-11-26 2020-11-10 International Business Machines Corporation Creating a social group with mobile phone vibration
TR201818738A2 (tr) * 2018-12-06 2019-02-21 Turkcell Teknoloji Arastirma Ve Gelistirme Anonim Sirketi Aninda mesajlaşma uygulamalarinda gerçek zamanli duygu anali̇zi̇ gerçekleşti̇ri̇lmesi̇ni̇ sağlayan bi̇r si̇stem
US11011158B2 (en) 2019-01-08 2021-05-18 International Business Machines Corporation Analyzing data to provide alerts to conversation participants
US10978066B2 (en) * 2019-01-08 2021-04-13 International Business Machines Corporation Analyzing information to provide topic avoidance alerts
EP3726535A1 (en) * 2019-04-15 2020-10-21 Nokia Technologies Oy Non-verbal communication
JP7162737B2 (ja) * 2019-05-20 2022-10-28 グリー株式会社 コンピュータプログラム、サーバ装置、端末装置、システム及び方法
CN110312038B (zh) * 2019-06-28 2020-10-02 Oppo(重庆)智能科技有限公司 信息提示方法及装置、电子设备、计算机可读存储介质
US11593984B2 (en) * 2020-02-07 2023-02-28 Apple Inc. Using text for avatar animation
CN112950398A (zh) * 2021-03-04 2021-06-11 深圳技术大学 基于情绪识别的在线社交方法、装置及存储介质
US11429188B1 (en) 2021-06-21 2022-08-30 Sensie, LLC Measuring self awareness utilizing a mobile computing device
WO2023276130A1 (ja) * 2021-07-01 2023-01-05 日本電信電話株式会社 制御装置、感情伝達方法およびプログラム
WO2024004440A1 (ja) * 2022-06-30 2024-01-04 ソニーグループ株式会社 生成装置、生成方法、再生装置、及び再生方法
KR102617115B1 (ko) * 2023-06-12 2023-12-21 광운대학교 산학협력단 감정 표현 시스템 및 감정 표현 방법

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281117A (ja) * 2001-03-16 2002-09-27 Nec Saitama Ltd 携帯電話機及び着信報知方法
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2003179976A (ja) * 2001-09-20 2003-06-27 Lucent Technol Inc 移動電子機器の警報モードを自動的に選択する方法。
US20060014569A1 (en) * 2004-07-13 2006-01-19 Broadcom Corporation Mobile communication device with adaptive audible user notification
WO2006106671A1 (ja) * 2005-03-31 2006-10-12 Pioneer Corporation 画像処理装置、画像表示装置、受信装置、送信装置、通信システム、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
JP2007251581A (ja) * 2006-03-16 2007-09-27 Megachips Lsi Solutions Inc 音声送信端末および音声再生端末
JP2009508446A (ja) * 2005-09-13 2009-02-26 イマージョン コーポレーション 携帯通信装置に触覚メッセージを提供する方法とシステム
US20100123588A1 (en) * 2008-11-19 2010-05-20 Immersion Corporation Method and Apparatus for Generating Mood-Based Haptic Feedback
WO2011026099A1 (en) * 2009-08-31 2011-03-03 Qualcomm Incorporated Methods and apparatus for communicating by vibrating or moving mobile devices

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US6703550B2 (en) 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
JP3937982B2 (ja) 2002-08-29 2007-06-27 ソニー株式会社 入出力装置および入出力装置を有する電子機器
AU2003293449A1 (en) * 2002-12-08 2004-06-30 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
JP2005072743A (ja) 2003-08-21 2005-03-17 Aruze Corp 情報交信用端末
JP3953024B2 (ja) 2003-11-20 2007-08-01 ソニー株式会社 感情算出装置及び感情算出方法、並びに携帯型通信装置
US20050181827A1 (en) * 2004-02-13 2005-08-18 Nokia Corporation Touch for feel device for communicating with mobile wireless phone or terminal
KR100662335B1 (ko) 2004-06-18 2007-01-02 엘지전자 주식회사 이동단말기 사용자의 감정 전달 및 표출 방법과, 그를위한 통신 시스템
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
JP4794846B2 (ja) 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
US8223979B2 (en) * 2005-08-02 2012-07-17 Koninklijke Philips Electronics N.V. Enhancement of speech intelligibility in a mobile communication device by controlling operation of a vibrator based on the background noise
US20070066310A1 (en) 2005-09-21 2007-03-22 Haar Rob V D Mobile communication terminal and method
US8700791B2 (en) * 2005-10-19 2014-04-15 Immersion Corporation Synchronization of haptic effect data in a media transport stream
JP4568211B2 (ja) 2005-11-15 2010-10-27 日本電信電話株式会社 感覚通信装置及び感覚通信方法
EP1936929A1 (en) * 2006-12-21 2008-06-25 Samsung Electronics Co., Ltd Haptic generation method and system for mobile phone
US20080242287A1 (en) * 2007-03-26 2008-10-02 Ericsson, Inc. Method, system and apparatus for cell phone noise reduction
US8315652B2 (en) * 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
US20090219252A1 (en) * 2008-02-28 2009-09-03 Nokia Corporation Apparatus, method and computer program product for moving controls on a touchscreen
EP2109302B1 (en) 2008-04-07 2010-09-22 NTT DoCoMo, Inc. Emotion recognition message system and message storage server therefor
KR102045165B1 (ko) 2008-07-15 2019-11-14 임머숀 코퍼레이션 햅틱 메시지들을 송신하기 위한 시스템 및 방법
CN102204225B (zh) * 2008-09-05 2013-12-11 Sk电信有限公司 传送振动信息的移动通信终端及其方法
KR101494388B1 (ko) 2008-10-08 2015-03-03 삼성전자주식회사 이동통신단말기에서 감정 표시 서비스를 제공하기 위한 장치 및 방법
GB2477252A (en) * 2008-10-24 2011-07-27 Wms Gaming Inc Controlling and presenting online wagering games
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
KR20100137175A (ko) 2009-06-22 2010-12-30 삼성전자주식회사 자동으로 사용자의 감정 및 의도를 인식하는 장치 및 방법
US20110082695A1 (en) 2009-10-02 2011-04-07 Sony Ericsson Mobile Communications Ab Methods, electronic devices, and computer program products for generating an indicium that represents a prevailing mood associated with a phone call
US20120188065A1 (en) * 2011-01-25 2012-07-26 Harris Corporation Methods and systems for indicating device status

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281117A (ja) * 2001-03-16 2002-09-27 Nec Saitama Ltd 携帯電話機及び着信報知方法
JP2002278563A (ja) * 2001-03-16 2002-09-27 Sony Corp 情報処理装置および方法、配信システム、プログラム格納媒体、並びにプログラム
JP2003179976A (ja) * 2001-09-20 2003-06-27 Lucent Technol Inc 移動電子機器の警報モードを自動的に選択する方法。
US20060014569A1 (en) * 2004-07-13 2006-01-19 Broadcom Corporation Mobile communication device with adaptive audible user notification
WO2006106671A1 (ja) * 2005-03-31 2006-10-12 Pioneer Corporation 画像処理装置、画像表示装置、受信装置、送信装置、通信システム、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
JP2009508446A (ja) * 2005-09-13 2009-02-26 イマージョン コーポレーション 携帯通信装置に触覚メッセージを提供する方法とシステム
JP2007251581A (ja) * 2006-03-16 2007-09-27 Megachips Lsi Solutions Inc 音声送信端末および音声再生端末
US20100123588A1 (en) * 2008-11-19 2010-05-20 Immersion Corporation Method and Apparatus for Generating Mood-Based Haptic Feedback
WO2011026099A1 (en) * 2009-08-31 2011-03-03 Qualcomm Incorporated Methods and apparatus for communicating by vibrating or moving mobile devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286249A1 (ja) * 2021-07-15 2023-01-19 日本電信電話株式会社 コミュニケーション支援システム、コミュニケーション支援方法およびプログラム

Also Published As

Publication number Publication date
US9762719B2 (en) 2017-09-12
CN103782253A (zh) 2014-05-07
KR101639761B1 (ko) 2016-07-22
US20130063256A1 (en) 2013-03-14
CN103782253B (zh) 2017-10-17
KR20140069122A (ko) 2014-06-09
JP2014526829A (ja) 2014-10-06
WO2013058886A1 (en) 2013-04-25
EP2754007A1 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
JP2016167815A (ja) 触覚フィードバックとしての感情の伝送
Heitmayer et al. Why are smartphones disruptive? An empirical study of smartphone use in real-life contexts
KR102173479B1 (ko) 의사소통 시 정보 교환을 위한 방법, 사용자 단말 및 서버
JP6538825B2 (ja) 可変触覚出力のための意味論的フレームワーク
KR20160105321A (ko) 사용자의 무드에 기초하는 액션 생성
CN103546503B (zh) 基于语音的云社交系统、方法及云分析服务器
US20080027984A1 (en) Method and system for multi-dimensional action capture
US20150338917A1 (en) Device, system, and method of controlling electronic devices via thought
JP2016509276A (ja) ユーザ感情の電子媒体への関連付け
US10437332B1 (en) System and method for emotional context communication
Brown et al. Shake2Talk: Multimodal messaging for interpersonal communication
Brewer et al. Exploring traditional phones as an e-mail interface for older adults
EP2690847A1 (en) Virtual assistant for a telecommunication system
JP2018018492A (ja) コンテンツ提示のための情報処理装置、情報処理装置の制御方法、及び制御プログラム
CN103945065A (zh) 消息提醒的方法及装置
Brown et al. Text in talk: Lightweight messages in co-present interaction
JP2018092528A (ja) チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム
CN106130879A (zh) 一种会话建立方法及装置
Brown et al. Exploring the potential of audio-tactile messaging for remote interpersonal communication
CN109547323B (zh) 信息处理方法、装置、服务器、终端及存储介质
WO2016098589A1 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
Baurley et al. Communication-Wear: user feedback as part of a co-design process
CN108520548A (zh) 表情迁移方法
Massung et al. Intouch tactile tales: haptic feedback and long-distance storytelling
Rasmussen et al. I'll knock you when I'm ready... reflecting on media richness beyond bandwidth and imitation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180123