JP2014003593A - 表情及び声の感情の認識及びフィードバック - Google Patents
表情及び声の感情の認識及びフィードバック Download PDFInfo
- Publication number
- JP2014003593A JP2014003593A JP2013098364A JP2013098364A JP2014003593A JP 2014003593 A JP2014003593 A JP 2014003593A JP 2013098364 A JP2013098364 A JP 2013098364A JP 2013098364 A JP2013098364 A JP 2013098364A JP 2014003593 A JP2014003593 A JP 2014003593A
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- response
- identified
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Telephone Function (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】 音声及び映像出力のような実時間入力セットが1つ又は複数のレシーバにおいて受信される。入力は、情報処理システムのユーザと相互作用している対象人物から受信され、情報処理システムは、ユーザが持ち運ぶ携帯型システムである。受信された実時間入力セットは、対象人物が表出している感情を識別するために、事前定義された感情特性セットと比較される。対象人物が示している識別された感情に関するフィードバックが、システムのユーザに提供される。
【選択図】 図3
Description
Claims (31)
- 感情の手掛かりを特徴づける方法であって、前記方法は、情報処理システムにより実装され、
前記情報処理システム内に含まれる1つ又は複数のレシーバにおいて、前記情報処理システムのユーザと相互作用している対象人物から実時間入力セットを受信することと、
前記受信した実時間入力セットを、1つ又は複数の事前定義された感情特性セットと比較することと、
前記比較に応答して、前記対象人物が表出している感情を識別することと、
前記識別された感情に関するフィードバックを前記情報処理システムの前記ユーザに提供することと、
を含む、方法。 - 前記比較に応答して、表出されている前記感情の強度を識別することと、
前記識別された強度に関する付加的なフィードバックを前記ユーザに提供することと、
をさらに含む、請求項1に記載の方法。 - 前記実時間入力セットが視覚入力であり、前記方法が、
前記情報処理システムによりアクセス可能なカメラで前記視覚入力を受信することをさらに含み、前記カメラは、前記対象人物に向けられ、前記情報処理システムは、前記ユーザによって運ばれる携帯型システムである、
請求項1に記載の方法。 - 前記実時間入力セットが音声入力であり、前記方法が、
前記情報処理システムによりアクセス可能なマイクロフォンで前記音声入力を受信することをさらに含み、前記マイクロフォンは、前記対象人物から1つ又は複数の声の手掛かりを受信し、前記情報処理システムは、前記ユーザによって運ばれる携帯型システムである、
請求項1に記載の方法。 - 前記フィードバックは、前記ユーザに触知感覚を与える熱出力を用いて前記ユーザに提供され、前記方法は、
正の感情が識別されたことに応答して、前記識別された感情を、前記熱出力を用いて冷感として示すことと、
負の感情が識別されたことに応答して、前記識別された感情を、前記熱出力を用いて温感として示すことと、
をさらに含む、請求項1に記載の方法。 - 前記比較に応答して、前記表出されている感情の強度を識別することと、
より強い正の感情が識別されたことに応答して、前記冷感を強めることと、
より強い負の感情が識別されたことに応答して、前記温感を強めることと、
をさらに含む、請求項5に記載の方法。 - 前記フィードバックは、前記ユーザに触知感覚を与える振動出力を用いて前記ユーザに提供され、前記方法は、
正の感情が識別されたことに応答して、前記識別された感情を、前記振動出力を用いて軽い振動感として示すことと、
負の感情が識別されたことに応答して、前記識別された感情を、前記振動出力を用いて重い振動感として示すことと、
をさらに含む、請求項1に記載の方法。 - 前記比較に応答して、前記表出されている感情の強度を識別することと、
より強い正の感情が識別されたことに応答して、前記軽い振動感の周波数を高めることと、
より強い負の感情が識別されたことに応答して、前記重い振動感の周波数を高めることと、
をさらに含む、請求項7に記載の方法。 - 前記フィードバックは、前記ユーザに可聴フィードバックを提供するスピーカ出力を用いて前記ユーザに提供され、前記方法は、
前記識別された感情を、前記識別された感情に基づく音調のセットとして示すこと、
をさらに含む、請求項1に記載の方法。 - 前記比較に応答して、前記表出されている感情の強度を識別することと、
より強い感情が識別されたことに応答して、前記音調のセットの強度を高めることと、
をさらに含む、請求項9に記載の方法。 - 前記フィードバックは、前記ユーザに可視フィードバックを提供する表示デバイスを用いて前記ユーザに提供され、前記方法は、
正の感情が識別されたことに応答して、前記表示デバイス上に正の可視キューを表示することと、
負の感情が識別されたことに応答して、前記表示デバイス上に負の可視キューを表示することと、
をさらに含む、請求項1に記載の方法。 - 前記比較に応答して、前記表出されている感情の強度を識別することと、
より強い正の感情が識別されたことに応答して、前記正の可視キューの強度を高めることと、
より強い負の感情が識別されたことに応答して、前記負の可視キューの強度を高めることと、
をさらに含む、請求項11に記載の方法。 - 前記対象人物に対応する応答を前記ユーザから受信することであって、前記応答は前記ユーザによる感情識別であり、前記応答は、前記フィードバックが前記ユーザに提供される前に受信されることと、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納することと、
をさらに含む、請求項1に記載の方法。 - 前記方法が、
前記ユーザと前記対象人物との間の前記相互作用の事後分析を実行することをさらに含み、前記分析は、
前記ユーザ応答及び前記実時間入力セットを前記データ・ストアから取り出すことと、
前記ユーザ応答、前記識別された感情、前記識別された感情に対応する前記1つ又は複数の事前定義された感情特性セットを前記ユーザに対して表示することと、
前記取り出された実時間入力セットを前記ユーザに提供することと、
をさらに含む、請求項13に記載の方法。 - 前記対象人物に対応する応答を前記ユーザから受信することであって、前記応答は前記ユーザによる感情識別であり、前記応答は前記フィードバックが前記ユーザに提供される前に受信されることと、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納することであって、前記ユーザと複数の対象人物との間の複数の相互作用に関連した、複数の実時間入力セット及び複数のユーザ応答が、ある期間にわたって前記データ・ストア内に格納されることと、
前記複数のユーザ応答と前記複数の実時間入力セットに対応する前記識別された感情との間の複数の比較に基づいて、傾向分析を生成することと、
前記傾向分析に基づいて、前記ユーザにとって識別が困難な1つ又は複数の感情タイプを識別することと、
をさらに含む、請求項1に記載の方法。 - 情報処理システムであって、
1つ又は複数のプロセッサと、
少なくとも1つの前記プロセッサに結合されたメモリと、
少なくとも1つの前記プロセッサによりアクセス可能な複数のレシーバであって、ビデオカメラ及びマイクロフォンを含む複数のレシーバと、
少なくとも1つの前記プロセッサによりアクセス可能なフィードバック・コンポーネントと、
前記メモリ内に格納された、少なくとも1つの前記プロセッサにより実行される命令セットと、を含み、前記命令セットは、
前記情報処理システムのユーザと相互作用している対象人物から実時間入力セットを1つ又は複数のレシーバにおいて受信する動作と、
前記受信した実時間入力セットを、前記メモリ内に格納されている1つ又は複数の事前定義された感情特性セットと比較する動作と、
前記比較に応答して、前記対象人物が表出している感情を識別する動作と、
前記識別された感情に関するフィードバックを、前記フィードバック・コンポーネントを介して前記ユーザに提供する動作と、
を実行する、情報処理システム。 - 前記命令セットは、
前記比較に応答して、表出されている前記感情の強度を識別する動作と、
前記識別された強度に関する付加的なフィードバックを前記ユーザに提供する動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記実時間入力セットは、視覚入力及び音声入力を含み、前記命令セットは、
前記対象人物に向けられた前記ビデオカメラで前記視覚入力を受信する動作と、
前記マイクロフォンで前記音声入力を受信する動作であって、前記マイクロフォンは、前記対象人物から1つ又は複数の声の手掛かりを受信する、動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記フィードバック・コンポーネントは、前記ユーザに触知感覚を与える熱出力であり、前記命令セットは、
正の感情が識別されたことに応答して、前記識別された感情を、前記熱出力を用いて冷感として示す動作と、
負の感情が識別されたことに応答して、前記識別された感情を、前記熱出力を用いて温感として示す動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記フィードバック・コンポーネントは、前記ユーザに触知感覚を与える振動出力であり、前記命令セットは、
正の感情が識別されたことに応答して、前記識別された感情を、前記振動出力を用いて軽い振動感として示す動作と、
負の感情が識別されたことに応答して、前記識別された感情を、前記振動出力を用いて重い振動感として示す動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記フィードバック・コンポーネントは、前記ユーザに可聴フィードバックを提供するスピーカ出力であり、前記命令セットは、
正の感情が識別されたことに応答して、前記識別された感情を、前記スピーカ出力を用いて、より高いピッチの音調として示す動作と、
負の感情が識別されたことに応答して、前記識別された感情を、前記スピーカ出力を用いて、より低いピッチの音調として示す動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記フィードバック・コンポーネントは、前記ユーザに可視フィードバックを提供する表示デバイスであり、前記命令セットは、
正の感情が識別されたことに応答して、前記表示デバイス上に正の可視キューを表示する動作と、
負の感情が識別されたことに応答して、前記表示デバイス上に負の可視キューを表示する動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 前記命令セットは、
前記対象人物に対応する応答を前記ユーザから受信する動作であって、前記応答は前記ユーザによる感情識別であり、前記応答は、前記フィードバックが前記ユーザに提供される前に受信される、動作と、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納する動作と、
前記ユーザと前記対象人物との間の前記相互作用の事後分析を実行する動作と、
を含む付加的な動作を実行し、前記分析は、
前記ユーザ応答及び前記実時間入力セットを前記データ・ストアから取り出すことと、
前記ユーザ応答、前記識別された感情、及び前記識別された感情に対応する前記1つ又は複数の事前定義された感情特性セットを前記ユーザに対して表示することと、
前記取り出された実時間入力セットを前記ユーザに提供することと、
をさらに含む、請求項16に記載の情報処理システム。 - 前記命令セットは、
前記対象人物に対応する応答を前記ユーザから受信する動作であって、前記応答は前記ユーザによる感情識別であり、前記応答は、前記フィードバックが前記ユーザに提供される前に受信される、動作と、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納する動作であって、前記ユーザと複数の対象人物との間の複数の相互作用に関連した、複数の実時間入力セット及び複数のユーザ応答が、ある期間にわたって前記データ・ストア内に格納される、動作と、
前記複数のユーザ応答と前記複数の実時間入力セットに対応する前記識別された感情との間の複数の比較に基づいて、傾向分析を生成する動作と、
前記傾向分析に基づいて、前記ユーザにとって識別が困難な1つ又は複数の感情タイプを識別する動作と、
を含む付加的な動作を実行する、請求項16に記載の情報処理システム。 - 情報処理システムにより実行されたときに、前記情報処理システムに、
前記情報処理システム内に含まれる1つ又は複数のレシーバにおいて、前記情報処理システムのユーザと相互作用している対象人物から実時間入力セットを受信する動作と、
前記受信した実時間入力セットを、1つ又は複数の事前定義された感情特性セットと比較する動作と、
前記比較に応答して、前記対象人物が表出している感情を識別する動作と、
前記識別された感情に関するフィードバックを前記情報処理システムの前記ユーザに提供する動作と、
を含む動作を実行させるコンピュータ命令を含む、コンピュータ・プログラム。 - 前記動作は、
前記比較に応答して、表出されている前記感情の強度を識別する動作と、
前記識別された強度に関する付加的なフィードバックを前記ユーザに提供する動作と、
をさらに含む、請求項25に記載のコンピュータ・プログラム。 - 前記実時間入力セットが視覚入力であり、前記動作は、
前記情報処理システムによりアクセス可能なカメラで前記視覚入力を受信する動作をさらに含み、前記カメラは前記対象人物に向けられ、前記情報処理システムは、前記ユーザによって運ばれる携帯型システムである、
請求項25に記載のコンピュータ・プログラム。 - 前記実時間入力セットが音声入力であり、前記動作は、
前記情報処理システムによりアクセス可能なマイクロフォンで前記音声入力を受信する動作をさらに含み、前記マイクロフォンは、前記対象人物から1つ又は複数の声の手掛かりを受信し、前記情報処理システムは、前記ユーザによって運ばれる携帯型システムである、
請求項25に記載のコンピュータ・プログラム。 - 前記フィードバックは、熱出力ユニット、振動出力ユニット、スピーカ、及びディスプレイから成る群から選択されるフィードバック・コンポーネントにより提供される、請求項25に記載のコンピュータ・プログラム。
- 前記動作は、
前記対象人物に対応する応答を前記ユーザから受信する動作であって、前記応答は前記ユーザによる感情識別であり、前記応答は、前記フィードバックが前記ユーザに提供される前に受信される、動作と、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納する動作と、
前記ユーザと前記対象人物との間の前記相互作用の事後分析を実行する動作と、
をさらに含み、前記分析は、
前記ユーザ応答及び前記実時間入力セットを前記データ・ストアから取り出すことと、
前記ユーザ応答、前記識別された感情、及び前記識別された感情に対応する前記1つ又は複数の事前定義された感情特性セットを前記ユーザに対して表示することと、
前記取り出された実時間入力セットを前記ユーザに提供することと、
をさらに含む、請求項25に記載のコンピュータ・プログラム。 - 前記動作は、
前記対象人物に対応する応答を前記ユーザから受信する動作であって、前記応答は前記ユーザによる感情識別であり、前記応答は、前記フィードバックが前記ユーザに提供される前に受信される、動作と、
前記ユーザ応答及び前記受信された実時間入力セットをデータ・ストア内に格納する動作であって、前記ユーザと複数の対象人物との間の複数の相互作用に関連した、複数の実時間入力のセット及び複数のユーザ応答が、ある期間にわたって前記データ・ストア内に格納される、動作と、
前記複数のユーザ応答と前記複数の実時間入力セットに対応する前記識別された感情との間の複数の比較に基づいて、傾向分析を生成する動作と、
前記傾向分析に基づいて、前記ユーザにとって識別が困難な1つ又は複数の感情タイプを識別する動作と、
をさらに含む、請求項25に記載のコンピュータ・プログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/526,713 US20130337420A1 (en) | 2012-06-19 | 2012-06-19 | Recognition and Feedback of Facial and Vocal Emotions |
US13/526713 | 2012-06-19 | ||
US13/741111 | 2013-01-14 | ||
US13/741,111 US20130337421A1 (en) | 2012-06-19 | 2013-01-14 | Recognition and Feedback of Facial and Vocal Emotions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014003593A true JP2014003593A (ja) | 2014-01-09 |
JP6218427B2 JP6218427B2 (ja) | 2017-10-25 |
Family
ID=49756224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013098364A Expired - Fee Related JP6218427B2 (ja) | 2012-06-19 | 2013-05-08 | 表情及び声の感情の認識及びフィードバック |
Country Status (3)
Country | Link |
---|---|
US (2) | US20130337420A1 (ja) |
JP (1) | JP6218427B2 (ja) |
CN (1) | CN103514455B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019211754A (ja) * | 2018-06-04 | 2019-12-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 |
JP7388297B2 (ja) | 2020-06-11 | 2023-11-29 | オムロン株式会社 | コミュニケーション支援装置、コミュニケーション支援方法、及びプログラム |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7921369B2 (en) * | 2004-12-30 | 2011-04-05 | Aol Inc. | Mood-based organization and display of instant messenger buddy lists |
US11073899B2 (en) | 2010-06-07 | 2021-07-27 | Affectiva, Inc. | Multidevice multimodal emotion services monitoring |
US11704574B2 (en) * | 2010-06-07 | 2023-07-18 | Affectiva, Inc. | Multimodal machine learning for vehicle manipulation |
US10628741B2 (en) * | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
EP2608189A1 (en) * | 2011-12-21 | 2013-06-26 | Thomson Licensing | Braille display system and method for operating a refreshable Braille display |
US20130257877A1 (en) * | 2012-03-30 | 2013-10-03 | Videx, Inc. | Systems and Methods for Generating an Interactive Avatar Model |
US20140047316A1 (en) * | 2012-08-10 | 2014-02-13 | Vimbli, Inc. | Method and system to create a personal priority graph |
JPWO2014069076A1 (ja) * | 2012-10-31 | 2016-09-08 | 日本電気株式会社 | 会話分析装置及び会話分析方法 |
KR101988279B1 (ko) * | 2013-01-07 | 2019-06-12 | 삼성전자 주식회사 | 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기 |
US9552535B2 (en) * | 2013-02-11 | 2017-01-24 | Emotient, Inc. | Data acquisition for machine perception systems |
KR20140104537A (ko) * | 2013-02-18 | 2014-08-29 | 한국전자통신연구원 | 생체 신호 기반의 감성 인터랙션 장치 및 방법 |
US9399111B1 (en) * | 2013-03-15 | 2016-07-26 | Aic Innovations Group, Inc. | Method and apparatus for emotional behavior therapy |
US20140287387A1 (en) * | 2013-03-24 | 2014-09-25 | Emozia, Inc. | Emotion recognition system and method for assessing, monitoring, predicting and broadcasting a user's emotive state |
US20140303982A1 (en) * | 2013-04-09 | 2014-10-09 | Yally Inc. | Phonetic conversation method and device using wired and wiress communication |
US9639743B2 (en) | 2013-05-02 | 2017-05-02 | Emotient, Inc. | Anonymization of facial images |
US9367740B2 (en) * | 2014-04-29 | 2016-06-14 | Crystal Morgan BLACKWELL | System and method for behavioral recognition and interpretration of attraction |
CN103957459B (zh) * | 2014-05-15 | 2019-03-15 | 北京智谷睿拓技术服务有限公司 | 播放控制方法及播放控制装置 |
CN105615902A (zh) * | 2014-11-06 | 2016-06-01 | 北京三星通信技术研究有限公司 | 情绪监控方法和装置 |
CN104853481B (zh) * | 2015-04-01 | 2018-08-14 | 浙江农林大学 | 一种led心情呈现与调节装置及方法 |
CN104864354B (zh) * | 2015-06-08 | 2017-05-10 | 浙江农林大学 | 一种led心情传递灯具及方法 |
CN105244023A (zh) * | 2015-11-09 | 2016-01-13 | 上海语知义信息技术有限公司 | 课堂教学中教师情绪的提醒系统及方法 |
CN106778443A (zh) * | 2015-11-22 | 2017-05-31 | 广州华久信息科技有限公司 | 一种辅助盲人看懂表情的方法 |
WO2018003196A1 (ja) * | 2016-06-27 | 2018-01-04 | ソニー株式会社 | 情報処理システム、記憶媒体、および情報処理方法 |
US20230190137A1 (en) * | 2016-07-14 | 2023-06-22 | Sony Corporation | Information processing system, recording medium, and information processing method |
CN106372604A (zh) * | 2016-08-31 | 2017-02-01 | 北京光年无限科技有限公司 | 智能机器人检测负面情绪的方法及系统 |
CN108614987A (zh) * | 2016-12-13 | 2018-10-02 | 深圳光启合众科技有限公司 | 数据处理的方法、装置和机器人 |
US10431107B2 (en) * | 2017-03-07 | 2019-10-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace for social awareness |
US10043406B1 (en) | 2017-03-10 | 2018-08-07 | Intel Corporation | Augmented emotion display for austistic persons |
KR102363794B1 (ko) * | 2017-03-31 | 2022-02-16 | 삼성전자주식회사 | 정보 제공 방법 및 이를 지원하는 전자 장치 |
WO2018215575A1 (en) * | 2017-05-26 | 2018-11-29 | Jamzone B.V. | System or device allowing emotion recognition with actuator response induction useful in training and psychotherapy |
US20190343441A1 (en) * | 2018-05-09 | 2019-11-14 | International Business Machines Corporation | Cognitive diversion of a child during medical treatment |
EP3864575A4 (en) * | 2018-10-09 | 2021-12-01 | Magic Leap, Inc. | VIRTUAL AND AUGMENTED REALITY SYSTEMS AND PROCESSES |
CN110111874A (zh) * | 2019-04-18 | 2019-08-09 | 上海图菱新能源科技有限公司 | 人工智能情绪识别管理迁移互动程序和方法 |
CN112037821A (zh) * | 2019-06-03 | 2020-12-04 | 阿里巴巴集团控股有限公司 | 语音情感的视觉化表示方法、装置及计算机存储介质 |
US11188718B2 (en) | 2019-09-27 | 2021-11-30 | International Business Machines Corporation | Collective emotional engagement detection in group conversations |
US11570307B2 (en) * | 2020-08-03 | 2023-01-31 | Microsoft Technology Licensing, Llc | Automatic reaction-triggering for live presentations |
CN112488219A (zh) * | 2020-12-07 | 2021-03-12 | 江苏科技大学 | 一种基于gru的情绪安慰方法、系统及移动终端 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244190A (ja) * | 2009-04-02 | 2010-10-28 | Ntt Docomo Inc | 通信端末及び情報表示方法 |
WO2011158010A1 (en) * | 2010-06-15 | 2011-12-22 | Jonathan Edward Bishop | Assisting human interaction |
JP2012075089A (ja) * | 2010-09-03 | 2012-04-12 | Nikon Corp | 電子機器、及び通信システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7313246B2 (en) * | 2001-10-06 | 2007-12-25 | Stryker Corporation | Information system using eyewear for communication |
AU2008230731B2 (en) * | 2007-03-28 | 2013-05-30 | Breakthrough Performance Tech, Llc | Systems and methods for computerized interactive training |
US8373549B2 (en) * | 2007-12-31 | 2013-02-12 | Apple Inc. | Tactile feedback in an electronic device |
US20100253689A1 (en) * | 2009-04-07 | 2010-10-07 | Avaya Inc. | Providing descriptions of non-verbal communications to video telephony participants who are not video-enabled |
CN101789990A (zh) * | 2009-12-23 | 2010-07-28 | 宇龙计算机通信科技(深圳)有限公司 | 一种在通话过程中判断对方情绪的方法及移动终端 |
US8670018B2 (en) * | 2010-05-27 | 2014-03-11 | Microsoft Corporation | Detecting reactions and providing feedback to an interaction |
-
2012
- 2012-06-19 US US13/526,713 patent/US20130337420A1/en not_active Abandoned
-
2013
- 2013-01-14 US US13/741,111 patent/US20130337421A1/en not_active Abandoned
- 2013-05-08 JP JP2013098364A patent/JP6218427B2/ja not_active Expired - Fee Related
- 2013-06-14 CN CN201310236771.6A patent/CN103514455B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244190A (ja) * | 2009-04-02 | 2010-10-28 | Ntt Docomo Inc | 通信端末及び情報表示方法 |
WO2011158010A1 (en) * | 2010-06-15 | 2011-12-22 | Jonathan Edward Bishop | Assisting human interaction |
JP2012075089A (ja) * | 2010-09-03 | 2012-04-12 | Nikon Corp | 電子機器、及び通信システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019211754A (ja) * | 2018-06-04 | 2019-12-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 |
JP7388297B2 (ja) | 2020-06-11 | 2023-11-29 | オムロン株式会社 | コミュニケーション支援装置、コミュニケーション支援方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN103514455A (zh) | 2014-01-15 |
US20130337420A1 (en) | 2013-12-19 |
JP6218427B2 (ja) | 2017-10-25 |
CN103514455B (zh) | 2017-11-14 |
US20130337421A1 (en) | 2013-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6218427B2 (ja) | 表情及び声の感情の認識及びフィードバック | |
CN110874129B (zh) | 显示系统 | |
JP6361649B2 (ja) | 情報処理装置、通知状態制御方法及びプログラム | |
JP2021057057A (ja) | 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム | |
JP2019141697A (ja) | 眼科検査を実行するためのヘッドマウントディスプレイ | |
JPWO2017061149A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11782508B2 (en) | Creation of optimal working, learning, and resting environments on electronic devices | |
JP2022508544A (ja) | 視覚型仮想エージェント | |
Li et al. | A framework for using games for behavioral analysis of autistic children | |
EP3340240B1 (en) | Information processing device, information processing method, and program | |
US11403289B2 (en) | Systems and methods to facilitate bi-directional artificial intelligence communications | |
US11386920B2 (en) | Interactive group session computing systems and related methods | |
US20230298733A1 (en) | Systems and Methods for Mental Health Improvement | |
Mishra et al. | Does elderly enjoy playing bingo with a robot? a case study with the humanoid robot nadine | |
CN108563322B (zh) | Vr/ar设备的控制方法和装置 | |
EP4328928A1 (en) | Method and device for controlling improved cognitive function training app | |
US20240164672A1 (en) | Stress detection | |
US20240115831A1 (en) | Enhanced meditation experience based on bio-feedback | |
US20220101873A1 (en) | Techniques for providing feedback on the veracity of spoken statements | |
CN117120958A (zh) | 压力检测 | |
Sayis | Computational modeling of user activity in full-body interaction environments for ASC children: multimodal analysis of social interaction behaviors through psychophysiology, system activity, video coding, questionnaires, and body cues | |
CN116569124A (zh) | 基于眼睛注视的生物反馈 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6218427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |