JP7316664B2 - 対話ユーザの感情情報の提供装置 - Google Patents

対話ユーザの感情情報の提供装置 Download PDF

Info

Publication number
JP7316664B2
JP7316664B2 JP2020016175A JP2020016175A JP7316664B2 JP 7316664 B2 JP7316664 B2 JP 7316664B2 JP 2020016175 A JP2020016175 A JP 2020016175A JP 2020016175 A JP2020016175 A JP 2020016175A JP 7316664 B2 JP7316664 B2 JP 7316664B2
Authority
JP
Japan
Prior art keywords
information
user
viewpoint
emotion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020016175A
Other languages
English (en)
Other versions
JP2021125734A (ja
JP2021125734A5 (ja
Inventor
幸弘 丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MARUCOM HOLDINGS INC.
Original Assignee
MARUCOM HOLDINGS INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MARUCOM HOLDINGS INC. filed Critical MARUCOM HOLDINGS INC.
Priority to JP2020016175A priority Critical patent/JP7316664B2/ja
Priority to US17/794,153 priority patent/US20230074113A1/en
Priority to PCT/JP2021/003558 priority patent/WO2021157530A1/ja
Priority to GB2212377.2A priority patent/GB2607800A/en
Publication of JP2021125734A publication Critical patent/JP2021125734A/ja
Publication of JP2021125734A5 publication Critical patent/JP2021125734A5/ja
Application granted granted Critical
Publication of JP7316664B2 publication Critical patent/JP7316664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Description

本発明は、遠隔に離れたユーザ同士の対話における、対話ユーザの感情情報の提供装置に関わる。
昨今、ビデオ会議や電話会議が普及するようになり、遠隔に離れたユーザ間の対話において、円滑なコミュニケーションを図るための技術が提供されている。
例えば、特許文献1において、ビデオ会議装置の表示部の近傍に備えられた撮像部によって撮像された画像からユーザの視線方向を解析し、ユーザが注目する画面領域を拡大してユーザに配信する技術が開示されている。
特開2014-050018号
しかしながら、特許文献1には、遠隔に離れた対話ユーザの感情を伝えることでコミュニケーションの向上を図る技術は開示されていない。
そこで、本発明は、遠隔に離れた対話ユーザのコミュニケーションの向上を図ることを目的とする。
本発明の一態様における、相互に遠隔に位置する、第1のユーザの入出力端末と第2ユーザの入出力端末とを用いた、第1ユーザと第2ユーザとのビデオ対話を支援する装置であって、前記装置は、第1のユーザの、前記第1のユーザの入出力端末上の視点情報を受信する入力受付部と、前記視点情報を解析する解析部と、前記解析した視点情報を基に、感情情報を生成する感情情報生成部と、を有する。
本発明によれば、遠隔に離れた対話ユーザのコミュニケーションの向上を図ることができる。
本発明の第一実施形態に係る、遠隔対話システムを示すブロック構成図である。 図1のサーバ端末100を示す機能ブロック構成図である。 図1の対話装置200を示す機能ブロック構成図である。 対話装置の一例として、撮像部を説明する図である。 サーバ100に格納されるユーザデータの一例を示す図である。 サーバ100に格納される解析データの一例を示す図である。 サーバ100に格納される感情情報の一例を示す図である。 感情情報を時系列で表現した図である。 サーバ100に格納される感情情報の他の一例を示す図である。 本発明の第一実施形態に係る、感情情報の生成方法を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本発明の必須の構成要素であるとは限らない。
<構成>
図1は、本発明の第一実施形態に係る、本発明の第一実施形態に係る、遠隔対話システムを示すブロック構成図である。本システム1は、視点情報を格納し、解析し、感情情報を生成するためのサーバ端末100と、ユーザ同士の対話に用いられ、カメラ等の撮像部を内蔵し、ユーザの視点情報を取得する対話装置200A、200Bと、を含む。なお、説明の便宜上、サーバ端末を単一のものとして、また、対話装置を2台記載しているが、複数のサーバ端末、また、1台または2台より多くの対話装置で構成されてもよい。
サーバ端末100及び対話装置200A、200Bは各々、ネットワークNWを介して接続される。ネットワークNWは、インターネット、イントラネット、無線LAN(Local Area Network)やWAN(Wide Area Network)等により構成される。
サーバ端末100は、例えば、ワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
対話装置200は、例えば、ビデオ会議装置のほか、パーソナルコンピュータやタブレット端末等の情報処理装置、または、スマートフォンや携帯電話、PDA等により構成しても良い。また、例えば、対話装置として、パーソナルコンピュータやスマートフォンと液晶表示装置とを近距離無線通信等で接続し、対話を行う自ユーザ及び他ユーザの画像を液晶表示装置に表示しながら、必要な操作を、パーソナルコンピュータやスマートフォンを介して行うことを可能とする構成としてもよい。
図2は、図1のサーバ端末100の機能ブロック構成図である。サーバ端末100は、通信部110と、記憶部120と、制御部130とを備える。
通信部110は、ネットワークNWを介して対話装置200と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の通信規約により通信が行われる。
記憶部120は、各種制御処理や制御部130内の各機能、また、遠隔対話アプリケーションを実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成される。また、記憶部120は、ユーザに関連する各種データを格納するユーザデータ格納部121、及びユーザから視点情報を解析した解析データ及び解析結果を基に生成した感情情報を格納する、解析データ格納部122を有する。なお、各種データを格納したデータベース(図示せず)が記憶部120またはサーバ端末100外に構築されていてもよい。
制御部130は、記憶部120に記憶されているプログラムを実行することにより、サーバ端末100の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部130の機能として、各装置からの視点情報等の情報を受け付ける入力受付部131と、視点情報を解析する、解析部132と、視点情報の解析結果を基に感情情報を生成する、感情情報生成部133とを有する。この入力受付部131、解析部132、及び感情方情報生成部133は、記憶部120に記憶されているプログラムにより起動されてコンピュータ(電子計算機)であるサーバ端末100により実行される。
入力受付部131は、対話装置200において取得した、ユーザの視点情報を受信し、ビデオ通話の場合、ユーザから音声情報、画像情報等を受信することができる。受信したユーザの視点情報を、記憶部120の、ユーザデータ格納部121及び/または解析データ格納部122に格納することができる。
解析部132は、受信した視点情報を解析し、解析した視点情報を、ユーザデータ格納部121及び/または解析データ格納部122に格納することができる。
感情情報生成部133は、解析した視点情報を基に感情情報を生成し、感情情報を、ユーザデータ格納部121及び/または解析データ格納部122に格納することができる。
また、制御部130は、図示しない、感情情報報知制御部を有することもでき、対話装置200に備えられた報知部を介して、感情情報を報知できるよう、例えば、報知部がスマートフォン端末を振動させる振動モータ等である場合、対話ユーザの感情に基づいて振動をアクティベートさせるよう制御する制御信号を生成し、制御信号を対話ユーザとは異なる対話装置に送信することができる。
また、制御部130は、図示しない、画面生成部を有することもでき、対話装置200のユーザインターフェースを介して表示される画面情報を生成する。例えば、記憶部120に格納された(図示しない)画像及びテキストデータを素材として、所定のレイアウト規則に基づいて、各種画像及びテキストをユーザインターフェースの所定の領域に配置することで、(例えば、広告主に対して広告効果を可視化して示すためのダッシュボード等の)ユーザインターフェースを生成する。画像生成部に関連する処理は、GPU(Graphics Processing Unit)によって実行することもできる。特に、上記生成した感情情報を可視化して対話装置200に表示したい場合、画面生成部は、感情情報を色や文字等で識別化して可視化した画面情報を生成することができる。
また、制御部130は、その他、複数のユーザ間の、ビデオによる遠隔対話を実現するための遠隔対話アプリケーションに含まれる各種処理を実行することができる。
図3は、図1の対話装置200を示す機能ブロック構成図である。対話装置200は、通信部210と、表示操作部220と、記憶部230と、制御部240、撮像部250、報知部260とを備える。
通信部210は、ネットワークNWを介してサーバ端末100、他の対話装置200と通信を行うための通信インターフェースであり、例えばTCP/IP等の通信規約により通信が行われる。
表示操作部220は、ユーザが指示を入力し、制御部240からの入力データに応じてテキスト、画像等を表示するために用いられるユーザインターフェースであり、対話装置200がパーソナルコンピュータで構成されている場合はディスプレイとキーボードやマウスにより構成され、対話装置200がスマートフォンまたはタブレット端末で構成されている場合はタッチパネル等から構成される。この表示操作部220は、記憶部230に記憶されている制御プログラムにより起動されてコンピュータ(電子計算機)である対話装置200により実行される。
記憶部230は、各種制御処理や制御部440内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAMやROM等から構成される。また、記憶部230は、サーバ端末100との通信内容を一時的に記憶している。
制御部240は、記憶部230に記憶されているプログラム(遠隔対話アプリケーションに含まれるプログラムを含む)を実行することにより、対話装置200の全体の動作を制御するものであり、CPUやGPU等から構成される。
また、対話装置200が、パーソナルコンピュータやスマートフォン、タブレット端末等で構成されている場合は、ユーザの眼球を赤外線により撮像し、ユーザの液晶表示画面上の視点位置をトラッキングすることが可能な、内蔵カメラ等の撮像部250を有し、また、スマートフォン等で構成されている場合は、振動を発生させる振動モータ等、感情情報をユーザに対して報知するための報知部を有することができる。
図4は、対話装置200の他の一例として、撮像部を説明する図である。
図4に示す対話装置200は、液晶表示装置210を含み、液晶表示部220の中央部に貫通穴230が設けられ、CCDカメラ240が貫通穴230に嵌合されるように備えられる。本例の対話装置200は、液晶表示装置210と近距離無線通信または有線により接続する(図示しない)スマートフォンをさらに備え、スマートフォンは、遠隔対話アプリケーションに含まれる、ビデオ通話、画面共有等の各種処理を実行し、遠隔対話するユーザの対話装置200Aから、サーバ端末100、ネットワークNWを介して伝送される画像情報から生成される画面を、液晶表示装置210の液晶表示部210に表示させることができる。CCDカメラ240は、対話装置200を用いるユーザの眼球を赤外線により撮像し、液晶表示装置上のユーザの視点位置をトラッキングすることができる。液晶表示部の中央部に撮像部(CCDカメラ)を設けることで、その液晶表示装置を用いて対話を行うユーザは自然な形で液晶表示部に表示される相手の対話ユーザと会話をすることができる。本例において、このような自然な形での対話方法を実現するために、撮像部が位置する領域に相手ユーザの顔の位置(より好ましくは眼の位置)が合わさるよう表示されることが好ましく、相手ユーザが移動する場合には、常に顔が中心に位置するよう相手ユーザの対話装置に備えられるカメラが追従されることが好ましい。
図5は、サーバ100に格納されるユーザデータの一例を示す図である。
ユーザデータ1000は、ユーザに関連する各種データを格納する。図5において、説明の便宜上、一ユーザ(ユーザID「10001」で識別される予定)の例を示すが、複数のユーザに関連する情報を格納することができる。ユーザに関連する各種データとして、例えば、ユーザの基本情報(例えば、「氏名、住所、年齢、性別、職業」等のユーザとしての属性情報として利用される情報)、視点情報(例えば、撮像された画像に基づいて解析された、ユーザID「10001」で識別されるユーザの液晶表示画面上の視点位置情報)、及び感情情報(例えば、視点位置情報に基づいて生成された、ユーザID「10001」で識別されるユーザの感情情報)を含むことができる。
図6は、サーバ100に格納される解析データの一例を示す図である。
解析データとして、(例えば、撮像された画像に基づいて解析された、各ユーザの液晶表示画面上の視点位置情報)、及び感情情報(例えば、視点位置情報に基づいて生成された、各ユーザの感情情報)を含むことができる。
図7は、サーバ100に格納される感情情報の一例を示す図である。
図7に示す感情情報のテーブルにおいて、例えば、ユーザが、液晶表示部(液晶表示画面)の中心部の座標をx軸、y軸方向に(0、0)として定義するときに、あるユーザの視点位置を、テーブルの上から下方向に向けてトラッキングし、対応する感情情報を含むように構成されたものである。例えば、あるユーザと対話する対話ユーザの映像が、画面中央に表示される液晶表示画面において、ユーザが、視点位置(0、0)、すなわち、画面中央に視点を合わせるときは、そのユーザは、対話ユーザとのコミュニケーションについて非常にポジティブである(高い関心を示している)ことが推定できる。一方で、ユーザの視点が、画面中央から離れていくに従って、そのユーザは、コミュニケーションについてネガティブとなる(関心が低くなる)ことが推定できる。ここで、ユーザの視点位置(座標)と対応する感情情報については、中心部の座標を中心として、座標の範囲に対応するようにルールを予め設定することもできるし、一のユーザの過去の視点情報と感情情報の組み合わせ、及び/または、複数のユーザの、過去の視点情報と感情情報の組み合わせを学習モデルとして、機械学習により、視点情報の入力から感情情報を出力することもできる。学習モデルの生成に際しては、ユーザから感情情報のフィードバックを、サーベイや音声情報等の追加的な情報によって取得することもできる。音声情報を用いる場合、例えば、音声情報からユーザの感情を検出したり、音声情報から自然言語解析を行い、会話内容から感情情報を検出し、入力情報(視点情報)に対する出力として評価することができる。
図8は、感情情報を時系列で表現した図である。
図8において、縦軸は、ユーザの感情を5段階(1:Very Negative、2:Negative、3:Neutral、4:Positive、5:Very Positive)で示しており、横軸は時間軸として示している。図8に示すように、ユーザの視点情報を基に感情情報を導出し、これを時系列で表現することができる。図8においては、ユーザが対話の冒頭、コミュニケーションについて高い関心を示しており、途中関心が低くなり、その後関心の高まりを次第に示す様子が可視化される。このような可視化された感情情報の遷移を、上述のようにサーバ端末100の画面生成部により画面情報として生成し、対話装置200に送信し、表示させることで、ユーザは対話ユーザの感情情報の遷移を参照しながらコミュニケーションを図ることできる。
図9は、サーバ100に格納される感情情報の他の一例を示す図である。
図9に示すように、ユーザの視点情報を位置別に回数をカウントし、及び/または、その注視時間の累計を格納することで、そのユーザが、対話ユーザとのコミュニケーション全体(途中経過を含む)として、どのような感情を抱いているか、測ることができる。例えば、図9に示す情報から、ユーザは、コミュニケーション全体を通じて、視点位置が、座標(0、0)、すなわち、画面中央に最も注がれていることが理解でき、そのユーザが、コミュニケーションに対して、Very Positive(関心が非常に高い)な感情を頂いていることがわかる。
<処理の流れ>
図10を参照しながら、本実施形態のシステム1が実行する感情情報生成処理の流れについて説明する。図10は、本発明の第一実施形態に係る、感情情報の生成方法を示すフローチャートである。
ここで、本システム1を利用するために、ユーザは、各対話装置のウェブブラウザまたはアプリケーション等を利用してサーバ端末100にアクセスし、初めてサービスを利用する場合は、前述のユーザ基本情報等を入力し、既にユーザアカウントを取得済の場合は、例えばIDとパスワードを入力する等の所定の認証を受けてログインすることで、サービスが利用可能となる。この認証後、ウェブサイト、アプリケーション等を介して所定のユーザインターフェースが提供され、ビデオ通話サービスを利用することができ、図10に示すステップS101へ進む。
まず、ステップS101の処理として、サーバ端末100の制御部130の入力受付部131は、通信部110を介して、対話装置200Aから、視点情報を受信する。視点情報については、例えば、図4に示す対話装置の液晶表示部220に備えられた、CCDカメラ240により、ユーザの画像を撮像することで、視点位置の情報を取得することができる。図4に示す対話装置を用いる場合は、液晶表示部220の中心部(カメラ240が備えられる位置)に対話ユーザの映像が表示されることが好ましい。ここで、対話装置200Aにおいて、撮像された画像に基づいてユーザの視点位置を算出したうえで、視点位置に係る情報を、対話装置200Aからサーバ端末100に送信することもできるし、画像情報をサーバ端末100に送信したうえで、サーバ端末100の制御部130の解析部132によって、受信した画像に基づいて視点位置を算出することもできる。
次に、ステップS102の処理として、サーバ端末100の制御部130の解析部132は、視点情報を解析する。また、解析部132は、視点情報として、ユーザの、液晶表示部(画面)上の視点位置を、継続的に、または、所定時間間隔にて、視点情報を取得した都度、特定のユーザに紐づけてユーザデータ格納部121、及び/または、解析データ格納部122に格納する。また、解析部132は、時系列でユーザの視点情報をトラッキングし、格納することができる。さらに、解析部132は、視点情報を基に、ユーザの視点位置が所定の座標に置かれた回数をカウントしたり、または、所定の座標に置かれた時間を都度計測したり、時間の累計を算出したりすることができる。また、上述のように、解析部132は、対話装置200Aから受信した、対話ユーザを含む画像に基づいて視点位置を算出することもできる。
続いて、ステップS103の処理として、サーバ端末100の制御部130の感情情報生成部133は、解析した視点情報に基づいて、感情情報を生成する。例えば、感情情報生成部133は、図7に示すように、ユーザの視点位置が、液晶表示部の中心部を中心とした座標からどの範囲にあるか、という所定のルールに基づいて、感情情報を生成することができる。例えば、ユーザの視点位置が座標(0、0)、すなわち、画面中央にあるときは、そのユーザは、対話ユーザとのコミュニケーションについて非常にポジティブである(高い関心を示している)という感情情報が生成され、一方で、ユーザの視点が、画面中央から離れており、座標(-500、500)にあるときは、そのユーザは、コミュニケーションについて非常にネガティブである(関心が非常に低い)、という感情情報を生成することができる。または、上述のように、ユーザの視点情報と感情情報とで構成される学習モデルから、機械学習により、入力された視点情報を基に感情情報を生成することもできる。
また、図8に示すように、感情情報の遷移を時系列で変化することを可視化する情報を生成したり、図9に示すように、ユーザの視点が置かれた座標の回数及び/または累計時間によって、そのユーザの、コミュニケーション全体における感情を評価した情報を生成することもできる。生成した感情情報を可視化した情報として、対話装置200Bに送信し、対話装置200Bの表示部に表示させたり、感情情報を、対話装置200Bを用いるユーザに報知させるために、感情情報の度合い(上述の5段階評価)に基づいてアイコン等により識別表示させたり、ユーザに感情情報を感覚的に伝達するために、対話装置200Bの振動モータ等の報知部を駆動させるための制御信号を生成し、送信することができる。
以上により、ユーザの視点位置に基づいて感情情報を生成することにより、遠隔のユーザのコミュニケーションにおいて、相互のユーザに感情情報を共有することが可能となり、コミュニケーションの質の向上を図ることができる。
以上、発明に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
1 システム 100 サーバ端末、110 通信部、120 記憶部、130 制御部、200 対話装置、NW ネットワーク

Claims (6)

  1. 相互に遠隔に位置する、第1のユーザの対話装置と第2ユーザの対話装置とを用いた、第1ユーザと第2ユーザとのビデオ対話を支援する装置であって、
    各前記対話装置には、表示画面上のユーザの視点位置をトラッキングして視点情報を取得する視点情報取得手段が設けられており、
    前記装置は、
    第1のユーザの、前記第1のユーザの対話装置上の視点情報を受信する入力受付部と、
    前記視点情報を解析する解析部と、
    前記解析した視点情報を基に、感情情報を生成する感情情報生成部と、
    記憶部と、を有し、
    前記感情情報生成部は、解析された視点情報におけるユーザの視点位置が予め設定されている画面上の固定された所定位置に近いほど対話ユーザとのコミュニケーションについてポジティブであると推定し、前記所定位置から離れるほど対話ユーザとのコミュニケーションについてネガティブであると推定し、
    前記記憶部には、前記所定位置に対する各視点位置に対応する感情の種類が記憶される感情情報のテーブルが記憶されており、
    前記感情情報生成部は、前記記憶部に記憶されている感情情報のテーブルに基づいて、解析された視点情報における前記所定位置に対するユーザの視点位置に対応する感情の種類を抽出し、抽出された感情の種類に基づいて感情情報を生成する、装置。
  2. 相互に遠隔に位置する、第1のユーザの対話装置と第2ユーザの対話装置とを用いた、第1ユーザと第2ユーザとのビデオ対話を支援する装置であって、
    各前記対話装置には、表示画面上のユーザの視点位置をトラッキングして視点情報を取得する視点情報取得手段が設けられており、
    前記装置は、
    第1のユーザの、前記第1のユーザの対話装置上の視点情報を受信する入力受付部と、
    前記視点情報を解析する解析部と、
    前記解析した視点情報を基に、感情情報を生成する感情情報生成部と、記憶部と、を有し、
    前記記憶部には、画面上の固定された所定位置に対する各視点位置に対応する感情の種類が記憶される感情情報のテーブルが記憶されており、
    前記感情情報生成部は、前記記憶部に記憶されている感情情報のテーブルに基づいて、解析された視点情報における前記所定位置に対するユーザの視点位置に対応する感情の種類を抽出し、抽出された感情の種類に基づいて感情情報を生成する、装置。
  3. 請求項1または2に記載の装置であって、
    さらに、前記感情情報を、前記第2ユーザの対話装置に送信する感情情報送信部を有する装置。
  4. 請求項1または2に記載の装置であって、
    さらに、前記感情情報を、前記第2ユーザの対話装置が有する感情報知部を制御するための制御情報に変換する、感情報知制御部を有する、装置。
  5. 請求項1または2に記載の装置であって、
    前記感情情報生成部は、前記視点情報に含まれる、前記対話装置上の視点の位置が所定の座標に置かれた回数または時間に基づいて、感情情報を生成する、装置。
  6. 請求項1または2に記載の装置であって、
    経時的な感情情報の推移の画面情報を生成し、生成された画面情報を前記第2ユーザの対話装置に送信し、表示させる表示手段を更に備えた、装置。
JP2020016175A 2020-02-03 2020-02-03 対話ユーザの感情情報の提供装置 Active JP7316664B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020016175A JP7316664B2 (ja) 2020-02-03 2020-02-03 対話ユーザの感情情報の提供装置
US17/794,153 US20230074113A1 (en) 2020-02-03 2021-02-01 Dialogue user emotion information providing device
PCT/JP2021/003558 WO2021157530A1 (ja) 2020-02-03 2021-02-01 対話ユーザの感情情報の提供装置
GB2212377.2A GB2607800A (en) 2020-02-03 2021-02-01 Dialogue user emotion information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016175A JP7316664B2 (ja) 2020-02-03 2020-02-03 対話ユーザの感情情報の提供装置

Publications (3)

Publication Number Publication Date
JP2021125734A JP2021125734A (ja) 2021-08-30
JP2021125734A5 JP2021125734A5 (ja) 2023-03-10
JP7316664B2 true JP7316664B2 (ja) 2023-07-28

Family

ID=77200248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020016175A Active JP7316664B2 (ja) 2020-02-03 2020-02-03 対話ユーザの感情情報の提供装置

Country Status (4)

Country Link
US (1) US20230074113A1 (ja)
JP (1) JP7316664B2 (ja)
GB (1) GB2607800A (ja)
WO (1) WO2021157530A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135939A1 (ja) * 2022-01-17 2023-07-20 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010070882A1 (ja) 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
WO2012105196A1 (ja) 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
JP6055535B1 (ja) 2015-12-04 2016-12-27 株式会社ガイア・システム・ソリューション 集中度処理システム
US20180070093A1 (en) 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2019030557A (ja) 2017-08-09 2019-02-28 沖電気工業株式会社 提示装置、提示方法、感情推定サーバ、感情推定方法及び感情推定システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8643691B2 (en) * 2008-05-12 2014-02-04 Microsoft Corporation Gaze accurate video conferencing
US8581954B2 (en) * 2008-09-05 2013-11-12 Sk Telecom Co., Ltd. Mobile communication terminal that delivers vibration information, and method thereof
US20100060713A1 (en) * 2008-09-10 2010-03-11 Eastman Kodak Company System and Method for Enhancing Noverbal Aspects of Communication
US8384760B2 (en) * 2009-10-29 2013-02-26 Hewlett-Packard Development Company, L.P. Systems for establishing eye contact through a display
US20130234826A1 (en) * 2011-01-13 2013-09-12 Nikon Corporation Electronic device and electronic device control program
US10303247B2 (en) * 2015-01-16 2019-05-28 Hewlett-Packard Development Company, L.P. User gaze detection
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
WO2017004241A1 (en) * 2015-07-02 2017-01-05 Krush Technologies, Llc Facial gesture recognition and video analysis tool
US10289908B2 (en) * 2015-10-21 2019-05-14 Nokia Technologies Oy Method, apparatus, and computer program product for tracking eye gaze and eye movement
US10963914B2 (en) * 2016-06-13 2021-03-30 International Business Machines Corporation System, method, and recording medium for advertisement remarketing
US10255885B2 (en) * 2016-09-07 2019-04-09 Cisco Technology, Inc. Participant selection bias for a video conferencing display layout based on gaze tracking
US10382722B1 (en) * 2017-09-11 2019-08-13 Michael H. Peters Enhanced video conference management
KR101968723B1 (ko) * 2017-10-18 2019-04-12 네이버 주식회사 카메라 이펙트를 제공하는 방법 및 시스템
US11017239B2 (en) * 2018-02-12 2021-05-25 Positive Iq, Llc Emotive recognition and feedback system
KR20200107023A (ko) * 2019-03-05 2020-09-16 현대자동차주식회사 차량 안전주행 지원 장치 및 방법
US11410331B2 (en) * 2019-10-03 2022-08-09 Facebook Technologies, Llc Systems and methods for video communication using a virtual camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010070882A1 (ja) 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
WO2012105196A1 (ja) 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
JP6055535B1 (ja) 2015-12-04 2016-12-27 株式会社ガイア・システム・ソリューション 集中度処理システム
US20180070093A1 (en) 2016-09-07 2018-03-08 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2019030557A (ja) 2017-08-09 2019-02-28 沖電気工業株式会社 提示装置、提示方法、感情推定サーバ、感情推定方法及び感情推定システム

Also Published As

Publication number Publication date
US20230074113A1 (en) 2023-03-09
WO2021157530A1 (ja) 2021-08-12
GB2607800A (en) 2022-12-14
JP2021125734A (ja) 2021-08-30
GB202212377D0 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
US20190187782A1 (en) Method of implementing virtual reality system, and virtual reality device
TWI681298B (zh) 觸碰式通訊系統和方法
CN110447232B (zh) 用于确定用户情绪的电子设备及其控制方法
JP2018137723A (ja) 遠隔会議の参加者の資質のフィードバックを提供するための方法およびシステム、コンピューティングデバイス、プログラム
CN110400251A (zh) 视频处理方法、装置、终端设备及存储介质
KR20210032553A (ko) 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품
US20140100993A1 (en) Product Purchase in a Video Communication Session
CN110418095B (zh) 虚拟场景的处理方法、装置、电子设备及存储介质
US20120154511A1 (en) Systems and methods for providing geographically distributed creative design
US20120229509A1 (en) System and method for user interaction
JP6978141B1 (ja) ブロックオブジェクトの設計図を生成する方法
KR20190089451A (ko) 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
CN104854574A (zh) 在实时通信和共享体验会话期间更新服务
KR20140052263A (ko) 콘텐츠 서비스 시스템, 그 시스템에서의 콘텐츠 서비스를 위한 장치 및 방법
US20220044266A1 (en) Multi-user smart feedback system
US11568615B2 (en) Collaborative on-demand experiences
JP5600148B2 (ja) 映像配信装置、映像配信方法及び映像配信プログラム
JP7316664B2 (ja) 対話ユーザの感情情報の提供装置
KR101376292B1 (ko) 통화 중 감정 분석 서비스 제공 방법 및 장치
JP2019185201A (ja) 強化学習システム
JP6675136B1 (ja) 仮想空間提供システム、仮想空間提供方法及びプログラム
JP7123856B2 (ja) プレゼンテーションを評価するシステム、方法、学習済みモデル及びプログラム、情報処理装置並びに端末装置
US20210029217A1 (en) Communication support device, communication support method, and program
EP4272077A1 (en) Accessing third party resources via client application
US20220044265A1 (en) Smart feedback system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230310

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20230329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230329

RD17 Notification of extinguishment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7437

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7316664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150