JP6977463B2 - 通信装置、通信システムおよびプログラム - Google Patents

通信装置、通信システムおよびプログラム Download PDF

Info

Publication number
JP6977463B2
JP6977463B2 JP2017195602A JP2017195602A JP6977463B2 JP 6977463 B2 JP6977463 B2 JP 6977463B2 JP 2017195602 A JP2017195602 A JP 2017195602A JP 2017195602 A JP2017195602 A JP 2017195602A JP 6977463 B2 JP6977463 B2 JP 6977463B2
Authority
JP
Japan
Prior art keywords
psychological state
user
video
listener
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017195602A
Other languages
English (en)
Other versions
JP2019071515A (ja
Inventor
彰 一星
タプリヤ ローシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017195602A priority Critical patent/JP6977463B2/ja
Priority to US16/006,853 priority patent/US10798337B2/en
Publication of JP2019071515A publication Critical patent/JP2019071515A/ja
Application granted granted Critical
Publication of JP6977463B2 publication Critical patent/JP6977463B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、通信装置、通信システムおよびプログラムに関する。
特許文献1には、時間を共有しない人の間で情報交換を行う非同期遠隔会議・教育システムにおいて、映像情報、音声情報に加え、使用者の音声、表情・動作、生体情報のデータから抽出した心理状態のデータをいったん映像音響情報サーバに蓄積し、相手の都合が良いときにダウンロードしてもらい、ダウンロードされた情報は、音声情報はヘッドフォンにより、また映像情報および心理状態表示データは画像表示装置より得られるようにしたシステムが開示されている。
特許第4604173号公報
本発明は、ビデオ通話における通話相手である聞き手の心理状態が、発言者のどの発言または挙動により変化したかを把握することが可能な通信装置を提供することを目的とする。
請求項1に係る本発明は、発言者の装置から受信した音声または/および映像を再生する再生手段と、
前記再生手段により再生された発言者の音声または/および映像を視聴している聞き手の心理状態を表す特徴情報を検知する検知手段と、
前記検知手段により検知された特徴情報から当該聞き手の心理状態を推定する推定手段と、
前記推定手段により推定された聞き手の心理状態に変化が生じた場合に、その時点において再生中の音声または映像の内容から心理状態を変化させた要因を抽出する抽出手段と、
前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付けて前記発言者の装置に送信する送信手段と、
を備える通信装置である。
請求項2に係る本発明は、前記再生手段が少なくとも音声を再生している場合に、前記抽出手段が、再生中の音声の内容から聞き手の心理状態を変化させた要因をキーワードとして抽出し、前記送信手段が、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1記載の通信装置である。
請求項3に係る本発明は、前記再生手段が少なくとも映像を再生している場合に、前記抽出手段が、再生中の映像の内容から聞き手の心理状態を変化させた要因となった発言者の挙動をキーワードとして抽出し、前記送信手段は、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1または2記載の通信装置である。
請求項4に係る本発明は、発言者の装置との間における通信速度が予め定められた設定値以下である場合に、前記送信手段が前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付けて前記発言者の装置に送信する請求項1から3いずれかに記載の通信装置である。
請求項5に係る本発明は、前記送信手段が、前記推定手段により推定された聞き手の心理状態に変化が生じた際の時刻情報を前記要因とともに前記発言者の装置に送信する請求項1から4いずれかに記載の通信装置である。
請求項6に係る本発明は、前記送信手段が、前記推定手段により推定された聞き手の心理状態に変化が生じた際に再生されていた映像のフレーム情報を前記要因とともに前記発言者の装置に送信する請求項1から5いずれかに記載の通信装置である。
請求項7に係る本発明は、前記推定手段が、予め設定された時間間隔毎に聞き手の心理状態を推定し、前記抽出手段が、当該時間間隔毎における前記発言者の音声の内容を表すキーワードまたは映像の内容から前記発言者の挙動を表すキーワードを抽出し、前記送信手段が、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1から6いずれかに記載の通信装置である。
請求項8に係る本発明は、前記送信手段が、予め設定された時間間隔毎に推定された聞き手の心理状態に対し、当該聞き手の心理状態が推定された時点における時刻情報および/または前記再生手段により生成された映像のフレーム情報を対応付けて前記発言者の装置に送信する請求項7記載の通信装置である。
請求項9に係る本発明は、第1の利用者の音声または映像を取得する取得手段と、
取得した音声または映像を送信する第1の送信手段と、
受信したフィードバック情報を表示するとともに第2の利用者の音声または/および映像を第1の利用者に対して再生する第1の再生手段と、を備える第1の通信装置と、
前記第1の通信装置から受信した音声または/および映像を第2の利用者に対して再生する第2の再生手段と、
前記第2の再生手段により再生された第1の利用者の音声または/および映像を視聴している第2の利用者の心理状態を表す特徴情報を検知する検知手段と、
前記検知手段により検知された特徴情報から当該第2の利用者の心理状態を推定する推定手段と、
前記推定手段により推定された第2の利用者の心理状態に変化が生じた場合に、その時点において再生中の音声または/および映像の内容から心理状態を変化させた要因を抽出する抽出手段と、
前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付け、フィードバック情報として前記第1の通信装置に送信する第2の送信手段と、を備える第2の通信装置と、
を含む通信システムである。
請求項10に係る本発明は、前記第1の通信装置と前記第2の通信装置との間における通信速度が予め定められた設定値以下である場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システムである。
請求項11に係る本発明は、前記第1の再生手段によって再生される第2の利用者の映像が予め設定された解像度以下である場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システムである。
請求項12に係る本発明は、前記第1の再生手段が、第2の利用者の音声のみを第1の利用者に対して再生する場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システムである。
請求項13に係る本発明は、前記第1の再生手段が、第2の利用者の映像を第1の利用者に対して再生しない場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システムである。
請求項14に係る本発明は、前記第1の再生手段が、前記第2の通信装置から受信した要因を、当該要因と対応付けられた心理状態に応じた色で表示する請求項9から13いずれかに記載の通信システムである。
請求項15に係る本発明は、前記第1の再生手段は、表示されている要因が、当該要因の表示開始後の時間の経過とともに小さくなるように表示する請求項14に記載の通信システムである。
請求項16に係る本発明は、発言者の装置との間において音声または/および映像の送受信を行う通信装置を構成するコンピュータに、
受信したフィードバック情報を表示するとともに、受信した音声または/および映像を再生する再生ステップと、
前記再生ステップにより再生された発言者の音声または/および映像を視聴している聞き手の心理状態を表す特徴情報を取得する取得ステップと、
前記取得ステップにより取得された特徴情報から当該聞き手の心理状態を推定する推定ステップと、
前記推定ステップにより推定された聞き手の心理状態に変化が生じた場合に、その時点において再生中の音声または映像の内容から心理状態を変化させた要因を抽出する抽出ステップと、
前記推定ステップにより推定された聞き手の心理状態と、前記抽出ステップにより抽出された要因とを対応付け、フィードバック情報として前記発言者の装置に送信する送信ステップと、
を実行させるプログラムである。
請求項1に係る本発明によれば、ビデオ通話における通話相手である聞き手の心理状態が、発言者のどの発言または挙動により変化したかを把握することが可能な通信装置を提供できる。
請求項2に係る本発明によれば、発言者の発言に含まれるどの言葉によって聞き手の心理状態がどのように変化したのかを発言者側の通信装置に通知することが可能となる。
請求項3に係る本発明によれば、発言者側から送信した映像に含まれる発言者側のどの挙動によって聞き手の心理状態がどのように変化したのかを発言者側の通信装置に通知することが可能となる。
請求項4に係る本発明によれば、発言者側の通信装置との間において通信速度を十分に維持できない場合に、ビデオ通話における聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項5に係る本発明によれば、聞き手側の通信装置においていつの時点で再生された発言者の発言または挙動により聞き手の心理状態が変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項6に係る本発明によれば、聞き手側の通信装置においていつの時点で再生された映像により聞き手の心理状態が変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項7に係る本発明によれば、予め設定された時間間隔毎に、聞き手側の通信装置において再生された発言者の音声や映像の内容とそれに対する聞き手の心理状態を発言者側の通信装置に対して通知することが可能となる。
請求項8に係る本発明によれば、聞き手側の通信装置においてどの時点で再生された発言者の音声や映像に対する聞き手の心理状態であるかがわかるようになる。
請求項9に係る本発明によれば、ビデオ通話における通話相手である聞き手の心理状態が、発言者のどの発言または挙動により変化したかを把握することが可能な通信システムを提供することができる。
請求項10に係る本発明によれば、第1の通信装置と第2の通信装置との間において通信速度を十分に維持できない場合に、ビデオ通話における聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項11に係る本発明によれば、第1の通信装置において第2の通信装置を使用する第2の利用者の反応を、映像を通して十分に視認できない場合でも、ビデオ通話における聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項12に係る本発明によれば、第1の通信装置において第2の通信装置を使用する第2の利用者の映像を視認することができない場合であっても、ビデオ通話における聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項13に係る本発明によれば、第1の通信装置において第2の通信装置を使用する第2の利用者の映像を視認することができない場合であっても、ビデオ通話における聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に対して通知することが可能となる。
請求項14に係る本発明によれば、聞き手である第2の利用者の心理状態を、色分け表示しない場合に比較してより把握しやすい仕方で第1の利用者に通知することが可能となる。
請求項15に係る本発明によれば、時間経過と無関係に要因を表示する場合に比較して、聞き手である第2の利用者の心理状態が、時間経過に伴って変化していることを把握しやすい仕方で第1の利用者に通知することが可能となる。
請求項16に係る本発明によれば、ビデオ通話における通話相手である聞き手の心理状態が、発言者のどの発言または挙動により変化したかを発言者側の通信装置に通知することが可能なプログラムを提供することができる。
本発明の一実施形態におけるビデオ通話システム10の一例を説明する全体概略図である。 本発明の一実施形態における通話端末装置20のハードウェア構成を示す図である。 本発明の一実施形態における通話端末装置20の機能ブロック図である。 本発明の一実施形態において推定部222が利用者の心理状態を表す特徴情報から心理状態を特定する際に使用する感情マップの一例を示す図である。 本発明の一実施形態において、ビデオ通話システム10の第2の通話端末装置20Bにおける処理の流れを示す図である。 本発明の一実施形態において、第2の通話端末装置20Bから第1の通話端末装置20Aに送信されるフィードバック情報の内容を示す説明図である。 本発明の一実施形態において、第2の通話端末装置20Bから受信したフィードバック情報を第1の通話端末装置20Aにおいて表示する際の処理の流れを示すフローチャートである。 本発明の一実施形態において、フィードバック情報を表示する一例を示す図である。
本実施形態のビデオ通話システム10について、図1を参照して説明する。なお、図1は、本実施形態のビデオ通話システム10の一例を説明する全体概略図である。ビデオ通話システム10は、第1の通話拠点100Aに存在する第1の利用者(発言者)Aと第2の通話拠点100Bに存在する第2の利用者(聞き手)Bとの間の通話を、第1の通話端末装置20A、第2の通話端末装置20B、およびインターネットなどのネットワーク30によって実現するものである。
第1の通話拠点100Aには、第1の通話端末装置20Aが設置され、ネットワーク30に接続される。また、第1の通話拠点100Aには、第1のアクセスポイント50A、第1の熱カメラ60A、第1の深度カメラ70Aが設けられる。第1の熱カメラ60Aと第1の深度カメラ70Aは第1のアクセスポイント50Aを介して第1の通話端末装置20Aと接続される。さらに、第1の利用者Aの腕には第1の生体センサ40Aが取り付けられ、第1のアクセスポイント50Aを介して第1の通話端末装置20Aと無線接続される。
同様に、第2の通話拠点100Bには、第2の通話端末装置20Bが設置され、ネットワーク30に接続される。また、第2の通話拠点100Bには、第2のアクセスポイント50B、第2の熱カメラ60B、第2の深度カメラ70Bが設けられる。第2の熱カメラ60Bと第2の深度カメラ70Bは第2のアクセスポイント50Bを介して第2の通話端末装置20Bと接続される。さらに、第2の利用者Bの腕には第2の生体センサ40Bが取り付けられ、第2のアクセスポイント50Bを介して第2の通話端末装置20Bと無線接続される。
なお、上述の第1の通話拠点100Aと第2の通話拠点100Bの構成はほぼ同一であるので、以下の説明において、第1の通話端末装置20Aと第2の通話端末装置20Bとの共通の構成や動作について説明するときには、単に通話端末装置20と呼んで説明を行う。同様に、第1の生体センサ40Aと第2の生体センサ40B、第1のアクセスポイント50Aと第2のアクセスポイント50B、第1の熱カメラ60Aと第2の熱カメラ60B、第1の深度カメラ70Aと第2の深度カメラ70Bについてもそれぞれ同様に、単に生体センサ40、アクセスポイント50、熱カメラ60、深度カメラ70と呼んで説明を行うものとする。
次に、図2、3を参照して、通話端末装置20の構成と機能について説明する。通話端末装置20は、例えばノート型パーソナルコンピュータやスマートフォンといった端末装置である。なお、図2は、本実施形態における通話端末装置20のハードウェア構成を示す図である。
図2に示すように、通話端末装置20は、制御用マイクロプロセッサ201、メモリ202、記憶装置203、通信インタフェース204、ディスプレイ205、スピーカ206、カメラ207、マイクロフォン208を有し、それぞれ制御用バス209に接続される。
制御用マイクロプロセッサ201は、記憶装置203に記憶された制御プログラムに基づいて、通話端末装置20の各部の動作を制御する。
メモリ202には、この通話端末装置20のカメラ207によって撮影された画像や映像、マイクロフォン208によって検出された利用者の音声、この通話端末装置20の後述する再生部によって再生された映像のキーフレーム情報、生成された音声から抽出されたキーワード、生体センサ40や熱カメラ60によって検出された利用者の生体情報、深度カメラ70によって検出された利用者の外面情報などが一時的に記憶される。
記憶装置203は、ハードディスク(HDD)やソリッド・ステート・ドライブ(SDD)によって構成され、通話端末装置20の各部を制御するための制御プログラムが格納される。
通信インタフェース204は、この通話端末装置20がネットワークを介して通話相手側の通話端末装置20(例えば、本装置が第1の通話端末装置20Aである場合には、第2の通話端末装置20B)と通信を行うための通信制御を行う。さらに、通話端末装置20がアクセスポイント50を介して生体センサ40、熱カメラ60A、深度カメラ70Aから必要な情報を取得する際の通信制御を行う。
ディスプレイ205は、液晶ディスプレイで構成され、後述する再生部によって通話相手側の通話端末装置20から受信した画像が表示される。
スピーカ206は、通話相手側の通話端末装置20から受信した音声を、後述する再生部による制御により出力する。
カメラ207は、利用者(本通話端末装置20が第1の通話端末装置20Aの場合は第1の利用者A)の画像を動画像として撮影し、後述する送信部によって通話相手側の通話端末装置20に送信する。また、カメラ207は、利用者の表情、挙動を画像として撮影し、メモリ202に記憶させる。
マイクロフォン208は、利用者(本通話端末装置20が第1の通話端末装置20Aの場合は第1の利用者A)の音声を検出し、メモリ202に記憶するとともに後述する送信部によって通話相手側の通話端末装置20に送信する。なお、メモリ202には、音声を直接録音するのではなく、音声内容を解釈した後の音声の内容、および音の高さや言葉の速さなどを記憶してもよい。
なお、上記の通話端末装置20においては、カメラ207およびマイクロフォン208が通話端末装置20に組み込まれて一体になった場合を説明したが、本発明はこの形態に限定されず、通話端末装置20本体とカメラ207やマイクロフォン208が別体であり、カメラ207、マイクロフォン208が無線または有線によって通話端末装置20本体と接続されるような構成であってもよい。
図3は、本実施形態における通話端末装置20の機能ブロック図である。図3に示すように、通話端末装置20は、記憶装置203に記憶された制御プログラムを制御用マイクロプロセッサ201において実行することにより、再生部221、推定部222、抽出部223、送信部224として機能する。
再生部221は、ビデオ通話における通話相手側の通話端末装置20(本通話端末装置20が第1の通話端末装置20Aの場合には、第2の利用者Bが使用する第2の通話端末装置20B)から受信した音声または/映像を再生する制御を行い、ディスプレイ205に映像を表示したり、スピーカ206に音声を出力する。また、再生部221は、通話相手側の通信端末装置20から受信した、後述するフィードバック情報をディスプレイ205に表示する制御を行う。
推定部222は、カメラ207、マイクロフォン208、生体センサ40、熱カメラ60、深度カメラ70により検知された聞き手である利用者の心理状態を表す特徴情報から当該聞き手である利用者の心理状態を推定する。利用者の心理状態を表す特徴情報には、生体情報と外面情報が含まれる。生体情報は、生体センサ40から送信されてきた利用者の皮膚電位、皮膚抵抗値、心拍数、体温、熱カメラ60によって検知された利用者の顔または身体の熱分布、マイクロフォン208によって検出された利用者の音声の高さなどが含まれる。外面情報には、カメラ207で撮影した利用者の眉毛、頬、唇などの顔のランドマークの位置によって求められる顔の表情、深度カメラ70によって取得された利用者の身体の動き(例えば「のけぞっている」、「前かがみ」、「手を挙げている」)などが含まれる。なお、推定部222は、予め設定された時間間隔毎に聞き手である利用者の心理状態を推定する。なお、推定部222による利用者の心理状態の推定方法の詳細については後述する。
抽出部223は、予め設定された時間間隔毎に、その時点において再生中の音声の内容から発言者である通話相手側の利用者(本通話端末装置20が第1の通話端末装置20Aの場合には、第2の利用者B)の音声の内容を表すキーワードまたは映像の内容から発言者である通話相手側の利用者の挙動を表すキーワードを抽出する。抽出部223は、推定部222により推定された聞き手である利用者の心理状態に変化が生じた場合にも、その時点において再生中の音声または映像の内容から心理状態を変化させた要因を抽出し、メモリ202に記憶する。具体的には、再生部221が少なくとも音声を再生している場合に、抽出部223は、再生中の音声の内容から聞き手である利用者の心理状態を変化させた要因をキーワードとして抽出する。また、再生部221が少なくとも映像を再生している場合に、抽出部223は、再生中の映像の内容から聞き手である利用者の心理状態を変化させた要因となった発言者である通話相手の挙動をキーワードとして抽出する。
送信部224は、カメラ207によって撮影した利用者の映像およびマイクロフォン208によって検出した利用者の音声を、通話相手側の通話端末装置20に送信する。また、送信部224は、推定部222により推定された聞き手である利用者の心理状態と、抽出部223により抽出された要因をキーワードとして対応付けてフィードバック情報として発言者である通話相手側の通話端末装置20に送信する。送信部224は、予め設定された時間間隔毎に推定された聞き手である利用者の心理状態に対し、当該聞き手である利用者の心理状態が推定された時点における時刻情報および/または再生部221により生成された映像のキーフレーム情報を対応付けて発言者である通話相手の通話端末装置20に送信してもよい。
上述のカメラ207、マイクロフォン208、およびこれから説明する生体センサ40、熱カメラ60、深度カメラ70は、上述の再生部221により再生された発言者である通話相手の音声または/および映像を視聴している聞き手である利用者の心理状態を表す特徴情報を検知する。生体センサ40は、利用者の手首或いは腕に装着されるリストバンド型のものを使用する。生体センサ40は、利用者の身体の一部に接触させるものであれば、リストバンド型以外のものであってもよい。生体センサ40は、利用者の皮膚電位、皮膚抵抗値、容積脈波(以下、説明を簡単にするため「心拍数」として説明する)、体温などの生体情報を検知する。生体情報は、単に検知を行った時点における各生体情報の値だけでなく、平常時に対する各生体情報の値の変化、また単位時間当たりの各生体情報の値の変化が含まれてもよい。生体センサ40によって検知された生体情報は、アクセスポイント50を介して通話端末装置20に送信される。
熱カメラ60は、利用者の顔または身体から放射される赤外線を検知することにより、利用者の顔または身体の熱分布を検出し、生体情報としてアクセスポイント50を介して通話端末装置20に送信する。
深度カメラ70は、利用者の身体の動きを3次元で検出する。特に、深度カメラ70は、利用者の身体の骨格の位置の変化に基づいて、例えば「のけぞっている」、「前かがみ」、「手を挙げている」といった身体の動きを捕捉し、外面情報としてアクセスポイント50を介して通話端末装置20に送信する。
図4を参照して、上述の推定部222が、カメラ207、マイクロフォン208、生体センサ40、熱カメラ60、深度カメラ70から取得した利用者の心理状態を表す特徴情報から当該利用者の心理状態を推定する方法を説明する。なお、図4は、推定部222が利用者の心理状態を表す特徴情報から心理状態を特定する際に使用する感情マップの一例を示す図である。
図4に示される感情マップは、横軸を外面情報の特徴量Eで表し、縦軸を生体情報の特徴量Iで表している。そして、それぞれの特徴量が大きい場合を活性、小さい場合を被活性としている。そしてこの感情マップは、それぞれ横軸、縦軸における値に対応する各種感情(「幸せ」、「悲しい」といった感情)が割り当てられている。
外面情報には、上述したように、カメラ207で撮影した利用者の眉毛、頬、唇などの顔のランドマークの位置によって求められる顔の表情、深度カメラ70によって取得された利用者の身体の動き(例えば「のけぞっている」、「前かがみ」、「手を挙げている」)などが含まれる。そして、これらの外面情報に応じて、特徴量が予め設定されている。
また、生体情報には生体センサ40によって検知された利用者の皮膚電位、皮膚抵抗値、心拍数、体温、熱カメラ60によって検知された利用者の顔または身体の熱分布、マイクロフォン208によって検出された利用者の音声の高さなどが含まれる。そして、これらの生体情報に応じた特徴量が予め設定されている。
このように外面情報の特徴量も生体情報の特徴量も複数の複数の要素から決まるため、感情マップは、実際には図4に示すように2次元の図では表すことはできないが、本実施形態においては、説明を簡単に行うため、簡易的に2次元の図で表現している。
図4の感情マップにおいて、例えば、第1の領域401は「幸せ」、第2の領域402は「普通」、第3の領域403は「興奮」とそれぞれ定義されている。ここで、外面情報の特徴量の値がE1、生体情報の特徴量の値I1が感情マップに投影されると、利用者の感情は第1の領域401内に含まれ、利用者の心理状態は「幸せ」であると推定される。
同様に、外面情報の特徴量の値E2、生体情報の特徴量の値I2が感情マップに投影された場合、利用者の心理状態は「普通」であることが推定され、外面情報の特徴量の値E3、生体情報の特徴量の値I3が感情マップに投影された場合には、利用者の心理状態は「興奮」であることが推定される。
推定部222は、カメラ207、マイクロフォン208、生体センサ40、熱カメラ60、深度カメラ70から取得した利用者の心理状態を表す特徴情報に基づく、外面情報の特徴量Eと、生体情報の特徴量Iを感情マップ上に投影することによって、利用者の現在の心理状態を一意に特定する。
次に、図5を参照して、本実施形態のビデオ通話システム10における処理の流れについて説明する。なお、図5は、本実施形態のビデオ通話システム10の第2の通話端末装置20Bにおける処理の流れを示す図である。ビデオ通話の処理の流れの概要を説明すると、まず、第1の利用者Aは第1の通話端末装置20Aを使用して、第2の通話端末装置20Bを使用する第2の利用者Bとビデオ通話を行う。ここで第1の利用者Aは発言者であり、第2の利用者Bは聞き手である。聞き手である第2の利用者Bには、発言者である第1の利用者Aの映像や音声に対する心理状態の変化が生じる。その場合、第1の利用者Aの音声または映像の内容から第2の利用者Bの心理状態を変化させた要因をキーワードとして抽出して第1の通話端末装置20Aにフィードバックし、第1の利用者Aが第2の利用者Bの反応を把握できるようにする。
なお、以下の説明においては、主に第2の通話端末装置20Bにおける処理を説明している。ステップS501において、第2の通話端末装置20Bは、第1の通話端末装置20Aとビデオ通話を行う。具体的には、第2の通話端末装置20Bの再生部221は、第1の通話端末装置20Aから受信した映像を第2の通話端末装置20Bのディスプレイ205に表示するとともに、同じく受信した音声をスピーカ206から出力し、第2の利用者Bが視聴できるようにする。例えば、時刻T1(13時00分01秒000)に、第1の利用者Aが第1の通話端末装置20Aを介して第2の利用者Bに対して「品質向上」という言葉を発したとする。この音声は、第2の通話端末装置20Bの再生部221によりスピーカ206から時刻T2(13時00分01秒500)に第2の利用者Bに対して「品質向上」という音声で再生される。
また、第2の通話端末装置20Bの送信部224は、カメラ207Bによって撮影した利用者Bの映像、およびマイクロフォン208によって検出した利用者Bの音声を第1の通話端末装置20Aに送信する。
ステップS502において、カメラ207、第2の深度カメラ70Bによって検知された利用者Bの外面情報の特徴量と、マイクロフォン208、第2の生体センサ40B、第2の熱カメラ60Bによって検知された利用者Bの生体情報の特徴量とを取得し、メモリ202に記憶する。また、カメラ207、マイクロフォン208、生体センサ40、熱カメラ60、深度カメラ70によって時刻T2(13時00分01秒500)に検知された利用者Bの心理状態を表す特徴情報には、時刻情報T2が付与される。推定部202は、同一の時刻情報が付与された身体的特徴の情報から、外面情報の特徴量と、生体情報の特徴量を算出し、当該時刻情報(T2)を付与してメモリ202に記憶する。
ステップS503において、第2の通話端末装置20Bの推定部222は、メモリ202に記憶された外面情報の特徴量と、生体情報の特徴量から、上述した感情マップを用いることによって利用者Bの時刻T2における心理状態を推定する。
ステップS504において、第2の通話端末装置20Bの推定部222は、第2の利用者Bの心理状態に変化があったか否かを判断する。心理状態の変化がないと判断された場合はステップS505に進み、心理状態の変化があったと判断された場合はステップS506に進む。
ステップS505において、抽出部223は、送信部224が前回フィードバック情報を送信してから所定時間(例えば1秒)が経過したか否かを判定する。所定時間が経過していないと判定された場合は、ステップS501に戻り、ビデオ通話処理および第2の利用者Bの心理状態の推定処理を継続して行う。所定時間が経過したと判定された場合は、ステップS506に進む。
ステップS506において、第2の通話端末装置20Bの抽出手段223は、推定部222によって推定された利用者Bの心理状態に対して、当該心理状態の時刻(時刻T2)に再生部221によって利用者Aの音声が再生されていたか否かを判定する。利用者Aの音声が再生されていた場合にはステップS507に進み、再生されていなかった場合にはステップS509に進む。
ステップS507において、抽出部223は、再生部222によって時刻T2に再生された音声をテキスト化し、当該テキストに含まれるキーワードを抽出し、メモリ202に記憶する。
ステップS508において、第2の通話端末装置20Bの送信部224は、推定部222により推定された聞き手である利用者Bの心理状態に変化が生じた際の時刻情報(T2)、つまり当該心理状態を検出、および当該キーワードが再生された時刻の時刻情報を、推定部222により推定された第2の利用者Bの心理状態と、抽出部223によって抽出された、第2の利用者Bの心理状態を変化させた要因としてのキーワード(例えば「品質向上」)とともに第1の通話端末装置20Aに送信し、ステップS510に進む。
ステップS506において、第2の利用者Bが、推定部222によって推定された心理状態となった時刻(時刻T2)に再生部221によって利用者Aの音声が再生されていなかった場合にはステップS509に進み、送信部は、推定部222によって推定された心理状態の情報と、第2の利用者Bが当該心理状態であった時刻情報(時刻T2)とを対応付けて第1の通話端末装置20Aに送信し、ステップS510に進む。
ステップS510において、再生部221は、第1の通話端末装置20Aとのビデオ通話を終了するか否かを判断する。ビデオ通話を終了しない場合、ステップS501に戻り、ビデオ通話を継続する。一方、第1の通話端末装置20Aから通話終了の信号を受信した場合、或いは第2の利用者Bによって通話終了の操作が行われた場合、通話を終了すると判断し、第1の通話端末装置20Aとの間の映像、音声の送受信を終了するとともに、生体センサ40、熱カメラ60、深度カメラ70に対して通話終了を通知し、処理を終了する。
図6は、第2の通話端末装置20Bから第1の通話端末装置20Aに送信されるフィードバック情報の内容を示す説明図である。フィードバック情報は、時刻情報、キーワード、キーフレーム情報、心理状態情報、ID情報を含む。例えば、第2の通話拠点100Bにおいて、時刻「13:00:00:500」の時点に推定部222によって利用者Bの心理状態が「普通」であると推定された場合、第2の通話端末装置20Bから第1の通話端末装置20Aに対するフィードバック情報として、時刻情報「13:00:00:500」、キーワード「 」(この場合キーワードはなし)、キーフレーム情報「130000000」、心理状態情報「普通」、ID情報「h0001」が送信される。なお、キーフレーム情報は、時刻「13:00:00:500」の時点に第2の通話端末装置20Bにおいて再生されたキーフレームを示しており、キーフレームの数字は、第1の通話端末装置20Aにおいて撮影された時刻に対応している。つまり、キーフレーム「130000000」は、第1の通話装置20Aにおいて時刻「13:00:00:000」に撮影されたことを示している。また、ID情報は、推定された心理状態であるのがどの利用者かを指し示す情報である。
さらに、第2の通話拠点100Bにおいて、時刻「13:00:01:500」の時点に推定部222によって利用者Bの心理状態が「興奮」だったとする。また、このときに抽出部223によって抽出されたキーワードが「品質向上」であったとする。その場合、第2の通話端末装置20Bから第1の通話端末装置20Aに対するフィードバック情報として、時刻情報「13:00:01:500」、キーワード「品質向上」、キーフレーム情報「130001000」、心理状態情報「興奮」、ID情報「h0001」が送信される。
次に、図7を参照して、第1の通話端末装置20Aにおいて、第2の通話端末装置20Bから受信したフィードバック情報を表示する際の処理の流れについて説明する。なお、図7は、第2の通話端末装置20Bから受信したフィードバック情報を第1の通話端末装置20Aにおいて表示する際の処理の流れを示すフローチャートである。
ステップS701において、第1の通話端末装置20Aは、第2の通話端末装置20Bとビデオ通話を行う。ここで、第1の通話端末装置20Aを使用する第1の利用者Aは発言者、第2の通話端末装置20Bを使用する第2の利用者Bは聞き手である。具体的には、第1の通話端末装置20Aの送信部224は、カメラ207によって撮影した利用者Aの映像、およびマイクロフォン208によって検出した利用者Aの音声を送信部224が第2の通話端末装置20Bに送信する。例えば、時刻T1(13時00分01秒000)に、第1の利用者Aが第1の通話端末装置20Aを介して第2の利用者Bに対して「品質向上」という言葉を発したとする。この音声は、マイクロフォン208によって検出され、カメラ207によって撮影された第1の利用者Aの映像とともに送信部224によって第2の通話端末装置に送信され、第2の通話端末装置20Bの再生部221によりスピーカ206から時刻T2(13時00分01秒500)に第2の利用者Bに対して「品質向上」という音声として再生される。
さらに、第1の通話端末装置20Aの再生部221は、第2の通話端末装置20Bから受信した映像を第1の通話端末装置20Aのディスプレイ205に表示するとともに、同じく受信した音声をスピーカ206から出力し、第1の利用者Aが視聴できるようにする。
ステップS702において、第1の通話端末装置20Aは第2の通話端末装置20Bから送信されてきたフィードバック情報を受信し、メモリ202に一時的に記憶する。
ステップS703において、第1の通話端末装置20Aの再生部221は、受信したフィードバック情報をディスプレイ205に表示する。具体的には、再生部221は、フィードバック情報に含まれるキーワードを、このキーワードと対応付けられた心理状態に応じた色で表示する。この一例が、図8に示されている。図8は、フィードバック情報を表示する一例を示す図である。図8において、例えば、「興奮」は青色、「普通」は茶色、「悲しみ」は赤、「幸せ」は緑色に対応付けられている。第1の端末装置20Aのディスプレイ205に、第2の通話端末装置20Bから受信したキーワードである「品質向上」が青色で表示されている。したがって、発言者である第1の利用者Aが発言した「品質向上」という言葉を聞き手である第2の利用者Bが聞いた際の第2の利用者Bの心理状態は「興奮」状態となったということが分かる。
同様に、図8においては、第1の端末装置20Aのディスプレイ205に、「緊急」というキーワードが赤色で表示されている。したがって、第1の利用者Aが発言した「緊急」という言葉を聞いた際の第2の利用者Bの心理状態は「悲しみ」の状態であったことがわかる。
さらに、再生部221は、フィードバック情報に含まれるキーワードを、当該キーワードの表示開始後の時間の経過とともに小さくなるように表示する。例えば、図8においては、「品質向上」というキーワードは大きい字体で表示されているのに対し、「緊急」というキーワードは小さい字体で表示されている。これは、「品質向上」というキーワードは表示を開始したばかりであることを示しており、「緊急」というキーワードは表示開始から時間が経過していることを示している。
図7のステップS704において、再生部221は、第2の通話端末装置20Bとのビデオ通話を終了するか否かを判断する。ビデオ通話を終了しない場合、ステップS701に戻り、ビデオ通話を継続する。一方、第2の通話端末装置20Bから通話終了の信号を受信した場合、或いは第1の利用者Aによって通話終了の操作が行われた場合、通話を終了すると判断し、第2の通話端末装置20Bとの間の映像、音声の送受信を終了する。
なお、上述の例においては、第1の通話端末装置20Aを使用する第1の利用者Aが発言者として発言し、第2の通話端末装置20Bにおいてその発言を視聴する第2の利用者B(聞き手)の心理状態を推定し、推定された第2の利用者の心理状態と第1の利用者Aの発言に含まれるキーワードとを対応付けて第1の通話端末装置20Aにフィードバック情報としてフィードバックし、第1の通話端末装置20Aに表示する例を説明したが、実際のビデオ通話においては、双方向に会話が行われ、利用者双方の心理状態がそれぞれ変化する。そこで、上述の図5のフローチャートで実行される処理と図7のフローチャートで実行される処理を、第1の通話端末装置20A、第2の通話端末装置20Bの両方で実行し、第1の利用者Aの発言に対する第2の利用者Bの心理状態についてのフィードバック情報を第1の通話端末装置20Aに送信して表示するだけでなく、第2の利用者Bの発言に対する第1の利用者Aの心理状態についてのフィードバック情報を第2の通話端末装置20Bに送信して表示するようにしてもよい。
なお、再生部221が少なくとも映像を再生している場合に、抽出部223が、再生中の映像の内容から聞き手の心理状態を変化させた要因となった発言者の挙動をキーワードとして抽出し、送信部224が、推定部222により推定された聞き手の心理状態と、抽出部223により抽出されたキーワードとを対応付けて発言者側の通話端末装置20に送信するようにしてもよい。
例えば、第2の通話端末装置20B側の聞き手が、第1の通話端末装置20A側の発言者の「首を振る」という挙動を見た際に、当該聞き手の心理状態が「悲しみ」の状態になったとする。その場合、聞き手側の第2の通話端末装置20Bの抽出部223は、再生中の映像の内容から聞き手の心理状態を変化させた要因である発言者の挙動に基づいて「首を振る」というキーワードを抽出し、送信部224が、第1の聞き手の心理状態である「悲しみ」と「首を振る」というキーワードとを対応付けて発言者側の通話端末装置20Aに送信する。
さらに、通話端末装置20間の通信速度が予め定められた設定値以下である場合に、送信部224は、推定部222により推定された聞き手の心理状態と、抽出部223により抽出された聞き手の心理状態を変化させた要因であるキーワード、または予め設定された時間間隔毎に抽出された発言者の音声の内容を表すキーワードまたは映像の内容から抽出された発言者の挙動を表すキーワードとを対応付けて発言者側の通話端末装置20に送信するようにしてもよい。この場合、通話端末装置20間において、最初は高画質でビデオ通話を行っていたものの、途中で通信速度が低下し、相手の顔の画像が不鮮明になったりした場合でも、自分の発言に対する相手の反応についてのフィードバック情報が発言者側の通話端末装置20のディスプレイ205に表示される。
また、フィードバック情報を受ける側(つまり発言者側)の通話端末装置20の再生部221によって再生される聞き手の映像が予め設定された解像度以下である場合に、聞き手側の通話端末装置20の送信部224が推定部222により推定された聞き手の心理状態と、抽出部223により抽出されたキーワードとを対応付けて発言者側の通話端末装置20に送信するようにしてもよい。この場合、相手の顔が不鮮明となって表情が読み取れない場合でも、自分の発言に対する相手の反応についてのフィードバック情報が発言者側の通話端末装置20のディスプレイ205に表示される。
また、フィードバック情報を受け取る側(つまり発言者側)の通話端末装置20の再生部221が、聞き手側の音声のみを発言者に対して再生する場合に、聞き手側の通話端末装置20の送信部224が推定部222により推定された聞き手の心理状態と、抽出部223により抽出されたキーワードとを対応付けて発言者側の通話端末装置20に送信するようにしてもよい。
また、フィードバック情報を受け取る側(つまり発言者側)の通話端末装置20の再生部221が、聞き手側の映像を発言者に対して再生しない場合に、聞き手側の通話端末装置20の送信部224が推定部222により推定された聞き手の心理状態と、抽出部223により抽出されたキーワードとを対応付けて発言者側の通話端末装置20に送信するようにしてもよい。
10 ビデオ通話システム
20、20A、20B 通話端末装置
30 ネットワーク
40、40A、40B 生体センサ
50、50A、50B アクセスポイント
60、60A、60B 熱カメラ
70、70A、70B 深度カメラ
100A、100B 通話拠点
201 制御用マイクロプロセッサ
202 メモリ
203 記憶装置
204 通信インタフェース
205 ディスプレイ
206 スピーカ
207 カメラ
208 マクロフォン
209 制御用バス
221 再生部
222 推定部
223 抽出部
224 送信部

Claims (16)

  1. 発言者の装置から受信した音声または/および映像を再生する再生手段と、
    前記再生手段により再生された発言者の音声または/および映像を視聴している聞き手の心理状態を表す特徴情報を検知する検知手段と、
    前記検知手段により検知された特徴情報から当該聞き手の心理状態を推定する推定手段と、
    前記推定手段により推定された聞き手の心理状態に変化が生じた場合に、その時点において再生中の音声または映像の内容から心理状態を変化させた要因を抽出する抽出手段と、
    前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付けて前記発言者の装置に送信する送信手段と、
    を備える通信装置。
  2. 前記再生手段が少なくとも音声を再生している場合に、
    前記抽出手段は、再生中の音声の内容から聞き手の心理状態を変化させた要因をキーワードとして抽出し、
    前記送信手段は、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1記載の通信装置。
  3. 前記再生手段が少なくとも映像を再生している場合に、
    前記抽出手段は、再生中の映像の内容から聞き手の心理状態を変化させた要因となった発言者の挙動をキーワードとして抽出し、
    前記送信手段は、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1または2記載の通信装置。
  4. 発言者の装置との間における通信速度が予め定められた設定値以下である場合に、前記送信手段が前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付けて前記発言者の装置に送信する請求項1から3いずれかに記載の通信装置。
  5. 前記送信手段は、前記推定手段により推定された聞き手の心理状態に変化が生じた際の時刻情報を前記要因とともに前記発言者の装置に送信する請求項1から4いずれかに記載の通信装置。
  6. 前記送信手段は、前記推定手段により推定された聞き手の心理状態に変化が生じた際に再生されていた映像のフレーム情報を前記要因とともに前記発言者の装置に送信する請求項1から5いずれかに記載の通信装置。
  7. 前記推定手段は、予め設定された時間間隔毎に聞き手の心理状態を推定し、
    前記抽出手段は、当該時間間隔毎における前記発言者の音声の内容を表すキーワードまたは映像の内容から前記発言者の挙動を表すキーワードを抽出し、
    前記送信手段は、前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出されたキーワードとを対応付けて前記発言者の装置に送信する請求項1から6いずれかに記載の通信装置。
  8. 前記送信手段は、予め設定された時間間隔毎に推定された聞き手の心理状態に対し、当該聞き手の心理状態が推定された時点における時刻情報および/または前記再生手段により生成された映像のフレーム情報を対応付けて前記発言者の装置に送信する請求項7記載の通信装置。
  9. 第1の利用者の音声または映像を取得する取得手段と、
    取得した音声または映像を送信する第1の送信手段と、
    受信したフィードバック情報を表示するとともに第2の利用者の音声または/および映像を第1の利用者に対して再生する第1の再生手段と、を備える第1の通信装置と、
    前記第1の通信装置から受信した音声または/および映像を第2の利用者に対して再生する第2の再生手段と、
    前記第2の再生手段により再生された第1の利用者の音声または/および映像を視聴している第2の利用者の心理状態を表す特徴情報を検知する検知手段と、
    前記検知手段により検知された特徴情報から当該第2の利用者の心理状態を推定する推定手段と、
    前記推定手段により推定された第2の利用者の心理状態に変化が生じた場合に、その時点において再生中の音声または/および映像の内容から心理状態を変化させた要因を抽出する抽出手段と、
    前記推定手段により推定された聞き手の心理状態と、前記抽出手段により抽出された要因とを対応付け、フィードバック情報として前記第1の通信装置に送信する第2の送信手段と、を備える第2の通信装置と、
    を含む通信システム。
  10. 前記第1の通信装置と前記第2の通信装置との間における通信速度が予め定められた設定値以下である場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システム。
  11. 前記第1の再生手段によって再生される第2の利用者の映像が予め設定された解像度以下である場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システム。
  12. 前記第1の再生手段が、第2の利用者の音声のみを第1の利用者に対して再生する場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システム。
  13. 前記第1の再生手段が、第2の利用者の映像を第1の利用者に対して再生しない場合に、前記第2の送信手段が前記推定手段により推定された第2の利用者の心理状態と、前記抽出手段によって抽出された要因とを対応付けて前記第1の通信装置に送信する請求項9に記載の通信システム。
  14. 前記第1の再生手段が、前記第2の通信装置から受信した要因を、当該要因と対応付けられた心理状態に応じた色で表示する請求項9から13いずれかに記載の通信システム。
  15. 前記第1の再生手段は、表示されている要因が、当該要因の表示開始後の時間の経過とともに小さくなるように表示する請求項14に記載の通信システム。
  16. 発言者の装置との間において音声または/および映像の送受信を行う通信装置を構成するコンピュータに、
    受信したフィードバック情報を表示するとともに、受信した音声または/および映像を再生する再生ステップと、
    前記再生ステップにより再生された発言者の音声または/および映像を視聴している聞き手の心理状態を表す特徴情報を取得する取得ステップと、
    前記取得ステップにより取得された特徴情報から当該聞き手の心理状態を推定する推定ステップと、
    前記推定ステップにより推定された聞き手の心理状態に変化が生じた場合に、その時点において再生中の音声または映像の内容から心理状態を変化させた要因を抽出する抽出ステップと、
    前記推定ステップにより推定された聞き手の心理状態と、前記抽出ステップにより抽出された要因とを対応付け、フィードバック情報として前記発言者の装置に送信する送信ステップと、
    を実行させるプログラム。
JP2017195602A 2017-10-06 2017-10-06 通信装置、通信システムおよびプログラム Active JP6977463B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017195602A JP6977463B2 (ja) 2017-10-06 2017-10-06 通信装置、通信システムおよびプログラム
US16/006,853 US10798337B2 (en) 2017-10-06 2018-06-13 Communication device, communication system, and non-transitory computer readable medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195602A JP6977463B2 (ja) 2017-10-06 2017-10-06 通信装置、通信システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019071515A JP2019071515A (ja) 2019-05-09
JP6977463B2 true JP6977463B2 (ja) 2021-12-08

Family

ID=65992707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195602A Active JP6977463B2 (ja) 2017-10-06 2017-10-06 通信装置、通信システムおよびプログラム

Country Status (2)

Country Link
US (1) US10798337B2 (ja)
JP (1) JP6977463B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111239A (ja) * 2020-01-14 2021-08-02 住友電気工業株式会社 提供システム、提供方法、提供装置、及びコンピュータプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS464173Y1 (ja) 1966-03-05 1971-02-13
JP2003037826A (ja) * 2001-07-23 2003-02-07 Alpine Electronics Inc 代理画像表示装置およびテレビ電話装置
JP2003244425A (ja) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd 伝送画像の修飾パターンの登録方法および装置ならびに再生方法および装置
JP2005124160A (ja) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd 会議支援システム、情報表示装置、プログラム、及び制御方法
JP4458888B2 (ja) * 2004-03-22 2010-04-28 富士通株式会社 会議支援システム、議事録生成方法、およびコンピュータプログラム
JP4604173B2 (ja) 2005-03-16 2010-12-22 学校法人東海大学 遠隔会議・教育システム
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
JP5338350B2 (ja) * 2009-02-06 2013-11-13 富士ゼロックス株式会社 情報処理装置及び音声補正プログラム
US20110072037A1 (en) * 2009-09-18 2011-03-24 Carey Leigh Lotzer Intelligent media capture, organization, search and workflow
JP5962098B2 (ja) * 2012-03-19 2016-08-03 株式会社リコー 伝送端末、伝送システム、表示制御方法、及びプログラム
WO2014105279A1 (en) * 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102108500B1 (ko) * 2013-02-22 2020-05-08 삼성전자 주식회사 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기
WO2016060296A1 (ko) * 2014-10-15 2016-04-21 엘지전자 주식회사 음향 정보 녹음 장치 및 그 제어 방법
US20160379640A1 (en) * 2015-06-24 2016-12-29 Honeywell International Inc. System and method for aircraft voice-to-text communication with message validation
KR101755807B1 (ko) * 2015-07-10 2017-07-10 김성일 휴대단말의 화면에 문자를 표시하는 방법 및 저장매체
US10530721B2 (en) * 2015-11-24 2020-01-07 International Business Machines Corporation Customized timing for access to shared media files
US20170193119A1 (en) * 2015-12-31 2017-07-06 Quixey, Inc. Add-On Module Search System
US20170364484A1 (en) * 2016-06-21 2017-12-21 VTCSecure LLC Enhanced text metadata system and methods for using the same
US9843768B1 (en) * 2016-09-23 2017-12-12 Intel Corporation Audience engagement feedback systems and techniques
US11074595B2 (en) * 2017-01-23 2021-07-27 Adobe Inc. Predicting brand personality using textual content

Also Published As

Publication number Publication date
US10798337B2 (en) 2020-10-06
JP2019071515A (ja) 2019-05-09
US20190110022A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
US20210132686A1 (en) Storage medium, augmented reality presentation apparatus, and augmented reality presentation method
US20210370172A1 (en) Delivery of Spectator Feedback Content to Virtual Reality Environments Provided by Head Mounted Display
US9691296B2 (en) Methods and apparatus for conversation coach
US10486312B2 (en) Robot, robot control method, and robot system
JP6751536B2 (ja) 装置、ロボット、方法、及びプログラム
JP4604173B2 (ja) 遠隔会議・教育システム
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2016103081A (ja) 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
JP2019068300A (ja) ダイジェストデータ生成装置、ダイジェストデータ再生装置、ダイジェストデータ生成システム、ダイジェストデータ生成方法及びプログラム
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
US20180027090A1 (en) Information processing device, information processing method, and program
CN108763475B (zh) 一种录制方法、录制装置及终端设备
CN112151041B (zh) 基于录音机程序的录音方法、装置、设备及存储介质
CN105979469B (zh) 一种录音处理方法及终端
JP6977463B2 (ja) 通信装置、通信システムおよびプログラム
US11412178B2 (en) Information processing device, information processing method, and program
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
WO2016157678A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP4772315B2 (ja) 情報変換装置及び情報変換方法、並びに通信装置及び通信方法
CN111079495A (zh) 一种点读模式的开启方法及电子设备
JP7313518B1 (ja) 評価方法、評価装置、および、評価プログラム
KR101562901B1 (ko) 대화 지원 서비스 제공 시스템 및 방법
JP2017219829A (ja) 近時記憶支援装置及び近時記憶支援プログラム
JP7090116B2 (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
JP5613102B2 (ja) 会議装置、会議方法および会議プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150